JP4519531B2 - Image display device, image display method, and program - Google Patents

Image display device, image display method, and program Download PDF

Info

Publication number
JP4519531B2
JP4519531B2 JP2004173149A JP2004173149A JP4519531B2 JP 4519531 B2 JP4519531 B2 JP 4519531B2 JP 2004173149 A JP2004173149 A JP 2004173149A JP 2004173149 A JP2004173149 A JP 2004173149A JP 4519531 B2 JP4519531 B2 JP 4519531B2
Authority
JP
Japan
Prior art keywords
image
display
unit
scenario
original image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004173149A
Other languages
Japanese (ja)
Other versions
JP2005056390A (en
Inventor
晋二 古屋
一郎 岡林
康浩 森
真樹 山内
章裕 川端
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2004173149A priority Critical patent/JP4519531B2/en
Publication of JP2005056390A publication Critical patent/JP2005056390A/en
Application granted granted Critical
Publication of JP4519531B2 publication Critical patent/JP4519531B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、静止画像の画像処理および表示技術に関し、特に、画像表示の際に抽出するオブジェクトを考慮した領域制御や、少なくとも1つ以上の静止画像を用いて短編の映像を生成および再生する技術に関する。   The present invention relates to still image processing and display technology, and more particularly, to region control in consideration of an object to be extracted at the time of image display, and to generate and reproduce a short video using at least one or more still images. About.

2001年日本国内のカメラ市場において、デジタルスチルカメラ(以下、「デジタルカメラ」という。)の出荷数が銀塩カメラの出荷数を超え、今後、さらにその格差が広がると予測されている。また、近年の携帯電話市場では、デジタルカメラ付の携帯電話機が多数リリースされ、それらのモデルは多大な人気を集めている。このように、デジタルカメラのユーザは増加の一途を辿っている。   In the Japanese camera market in 2001, the number of digital still cameras (hereinafter referred to as “digital cameras”) shipped exceeds the number of silver halide cameras shipped, and it is predicted that the gap will further widen in the future. In the recent mobile phone market, a large number of mobile phones with digital cameras have been released, and their models are gaining great popularity. Thus, the number of digital camera users is increasing.

一方、画像表示機能を有する携帯型端末(例えば、携帯電話機など)も、一人1台ずつ所持するほど普及しており、その携帯型端末の画像表示装置(以下、単に「画像表示装置」とも記す。)にデジタルカメラで撮影した画像を表示させたいといった要求が日増しに増大している。   On the other hand, portable terminals (for example, mobile phones) having an image display function have become so popular as to be held one by one, and the image display apparatus of the portable terminal (hereinafter simply referred to as “image display apparatus”). The demand for displaying images taken with a digital camera is increasing day by day.

一般に、デジタルカメラ等の画像形成装置は、被写体を1280×960画素で撮影して、その1280×960画素の画像(以下、この画像を「原画像」とも記す。)と、160×120画素のサムネイル画像とを、EXIF形式で、SDメモリーカード(登録商標)などの記録媒体に記録する。一方、画像表示装置の表示器は、最大で240×320画素(QVGA)程度の表示である。   In general, an image forming apparatus such as a digital camera captures a subject with 1280 × 960 pixels, an image of 1280 × 960 pixels (hereinafter, this image is also referred to as “original image”), and 160 × 120 pixels. The thumbnail image is recorded in a recording medium such as an SD memory card (registered trademark) in the EXIF format. On the other hand, the display of the image display device displays a maximum of about 240 × 320 pixels (QVGA).

このように、画像表示装置の表示器と画像表示装置に表示しようとする画像(表示用画像)との間の解像度に差がある場合は、どちらかの解像度にあわせて表示用画像を拡大・縮小する必要がある。   As described above, when there is a difference in resolution between the display of the image display device and the image (display image) to be displayed on the image display device, the display image is enlarged or reduced in accordance with either resolution. Need to shrink.

そのため、従来の画像形成装置に関する技術として、携帯電話機等において、表示しようとする画像が表示領域に収まるかどうかを判断し、原画像が表示領域のサイズに収まらない場合には、別途記憶しているサムネイル画像を表示する手法が提案されている(例えば、特許文献1参照。)。   Therefore, as a technique related to a conventional image forming apparatus, in a mobile phone or the like, it is determined whether or not an image to be displayed fits in the display area. If the original image does not fit in the display area size, it is stored separately. A method for displaying a thumbnail image is proposed (see, for example, Patent Document 1).

ところで、デジタルカメラやカメラ付き携帯電話機等の普及に伴って、大量のデジタル静止画像(Digital Still Picture、以下、「静止画像」という。)を保有するユーザの増加も著しい。これらの静止画像は、一般的には、パーソナルコンピュータのディスクドライブに溜め込まれており、この大量の静止画像を再生する装置として、静止画像から映画のような短編の映像(ショートフィルム)を生成し、再生するショートフィルム生成装置も提案されている。例えば、特許文献2には、動的画像処理内容および時間的処理手順(シナリオ)に基づいて視覚効果を施しながら、静止画像を再生する技術が開示されている。   By the way, with the spread of digital cameras and camera-equipped mobile phones, the number of users who have a large amount of digital still images (hereinafter referred to as “still images”) has increased remarkably. These still images are generally stored in a disk drive of a personal computer, and as a device for reproducing this large amount of still images, short images (short films) such as movies are generated from the still images. An apparatus for generating a short film for reproduction has also been proposed. For example, Patent Document 2 discloses a technique for reproducing a still image while applying a visual effect based on dynamic image processing content and a temporal processing procedure (scenario).

図38は、従来におけるショートフィルム生成装置の構成を示すブロック図である。
この従来におけるショートフィルム生成装置900は、操作入力部901、画像入力部902、画像蓄積部903、シナリオ生成部904、画像再生部905および表示部906から構成される。
FIG. 38 is a block diagram showing a configuration of a conventional short film generating apparatus.
The conventional short film generation apparatus 900 includes an operation input unit 901, an image input unit 902, an image storage unit 903, a scenario generation unit 904, an image reproduction unit 905, and a display unit 906.

操作入力部901は、静止画像データの取り込み指示や、静止画像の選択等、ユーザからの操作入力を受け付ける。
画像入力部902は、デジタルカメラ910等で撮影されたJPEG圧縮形式の静止画像データを、装置内に取り込む。
The operation input unit 901 accepts an operation input from the user such as an instruction for capturing still image data and selection of a still image.
The image input unit 902 captures still image data in JPEG compression format captured by the digital camera 910 or the like into the apparatus.

画像蓄積部903は、取り込まれた静止画像データを蓄積する。
シナリオ生成部904は、ユーザの選択した静止画像を元に、静止画像の再生順および視覚効果を決定し、再生情報であるシナリオを生成してメモリに保持する。ここで、シナリオとは、MPEGに代表されるような動画像データそのものではなく、時系列に視覚効果(エフェクト)、エフェクトの動作を規定するパラメータ、エフェクトの対象となる静止画へのポインタ、再生時間などを、XMLに代表されるようなスクリプト言語によって、記述したものである。
The image storage unit 903 stores the captured still image data.
The scenario generation unit 904 determines the playback order and visual effects of the still images based on the still image selected by the user, generates a scenario that is playback information, and stores it in the memory. Here, the scenario is not the moving image data itself represented by MPEG, but the time-series visual effects (effects), the parameters that define the operation of the effects, the pointer to the still image subject to the effects, and the playback Time and the like are described in a script language represented by XML.

画像再生部905は、生成されたシナリオに従って画像蓄積部903から静止画像データを読み出して、指定された視覚効果を施しながら15フレーム/秒で再生する動作を繰り返す。   The image playback unit 905 reads out still image data from the image storage unit 903 according to the generated scenario, and repeats an operation of playing back at 15 frames / second while applying a specified visual effect.

表示部906は、シナリオ生成部904や画像再生部905からの制御を受けてユーザインタフェース画面や再生画像を表示する。
以上のように構成されたショートフィルム生成装置900は、次のように動作する。
The display unit 906 displays a user interface screen and a reproduction image under the control of the scenario generation unit 904 and the image reproduction unit 905.
The short film production | generation apparatus 900 comprised as mentioned above operate | moves as follows.

まず、ユーザがデジタルカメラ910で撮影した画像は、画像入力部902を介して装置内に取り込まれ、そのまま画像蓄積部903に伝送され格納される。
ここで、操作入力部901が、ユーザからショートフィルム生成ボタンを押下する操作を受け付けると、シナリオ生成部904は、シナリオを生成する。
First, an image captured by the user with the digital camera 910 is taken into the apparatus via the image input unit 902, and transmitted and stored as it is in the image storage unit 903.
Here, when the operation input unit 901 receives an operation of pressing the short film generation button from the user, the scenario generation unit 904 generates a scenario.

図39は、従来におけるシナリオ生成部904の処理手順を示すフロー図である。
まず、シナリオ生成部904は、ユーザに画像蓄積部903に格納されている画像から複数枚を選択するように促す画面(画像選択画面)を生成して、表示部906に出力する(S900)。
FIG. 39 is a flowchart showing the processing procedure of the conventional scenario generation unit 904.
First, the scenario generation unit 904 generates a screen (image selection screen) that prompts the user to select a plurality of images from the images stored in the image storage unit 903, and outputs the screen to the display unit 906 (S900).

ここで、操作入力部901が、ユーザから、表示部906に表示される画像の中から再生する静止画像を選択する操作を受け付けると(S902のYes)、シナリオ生成部904は、選択された画像の撮影時刻情報をチェックし、各画像の再生情報を撮影時刻順に並べて連結リスト化したシナリオ外枠を生成する(S904)。   Here, when the operation input unit 901 receives an operation for selecting a still image to be reproduced from images displayed on the display unit 906 from the user (Yes in S902), the scenario generation unit 904 selects the selected image. The shooting time information is checked, and the scenario outer frame is generated by arranging the reproduction information of each image in the order of the shooting time to form a linked list (S904).

ここで、操作入力部901は、ユーザから、5枚の静止画像(画像31、画像32、画像33、画像34および画像35)の選択を受け付けた場合に生成されるシナリオ外枠を図40に示す。なお、この5枚の静止画像の撮影時刻は、画像31、画像32、画像33、画像34、画像35の順に時系列に並んでいるとする。   Here, the operation input unit 901 shows a scenario outer frame generated when the selection of five still images (image 31, image 32, image 33, image 34, and image 35) is received from the user in FIG. Show. It is assumed that the shooting times of the five still images are arranged in time series in the order of image 31, image 32, image 33, image 34, and image 35.

図40は、従来におけるシナリオ外枠を示す図である。
従来におけるシナリオ外枠は、シナリオヘッダ920、シナリオ先頭リスト921、シナリオ第2リスト922、シナリオ第3リスト923、シナリオ第4リスト924およびシナリオ第5リスト925が連結リスト化されることにより構成される。
FIG. 40 shows a conventional scenario outer frame.
The conventional scenario frame is constituted by a scenario header 920, a scenario head list 921, a scenario second list 922, a scenario third list 923, a scenario fourth list 924, and a scenario fifth list 925 being linked. .

このとき、シナリオヘッダ920には、シナリオ名と画像数がセットされ、シナリオ外枠の各リスト921〜925には、各画像の再生情報のうち、画像ファイル名、画像蓄積部903における格納場所がセットされる。   At this time, the scenario name and the number of images are set in the scenario header 920. The list 921 to 925 of the scenario outer frame includes the image file name and the storage location in the image storage unit 903 in the reproduction information of each image. Set.

そして、シナリオヘッダ920の全再生時間や、シナリオ外枠の各リスト921〜925の視覚効果情報や再生時間情報は、空白状態となっている。
シナリオ生成部904は、このようなシナリオ外枠を生成した後、画像の再生順に各画像に対して割り当てる視覚効果を決定する。
The total playback time of the scenario header 920 and the visual effect information and playback time information of each list 921 to 925 of the scenario outer frame are blank.
The scenario generation unit 904 generates such a scenario outer frame, and then determines a visual effect to be assigned to each image in the order of image reproduction.

再び図39を参照して説明すると、シナリオ生成部904は、まず、シナリオ外枠のシナリオ先頭リスト921を参照し(S906)、画像31に割り当てる視覚効果を決定する。   Referring back to FIG. 39, the scenario generation unit 904 first refers to the scenario head list 921 of the scenario outer frame (S906), and determines the visual effect to be assigned to the image 31.

このとき、シナリオ生成部904は、ランダム関数により乱数を発生させて4で除算して(S908)、除算した余りを求めることにより、画像31に割り当てる視覚効果を決定する。   At this time, the scenario generation unit 904 determines a visual effect to be assigned to the image 31 by generating a random number using a random function and dividing it by 4 (S908) and obtaining the remainder after the division.

すなわち、シナリオ生成部904は、余りが1ならば(S910のYes)、画像を徐々に鮮明にするフェードイン効果をシナリオ先頭リスト921の視覚効果情報に追加し(S912)、余りが2ならば(S914のYes)、画像を徐々に消すフェードアウト効果をシナリオ先頭リスト921の視覚効果情報に追加する(S916)。また、余りが0ならば(S918のYes)、画像中央へ向けて画像を拡大させるズームイン効果をシナリオ先頭リスト921の視覚効果情報に追加し(S920)、余りが3ならば(S918のNo)、画像の1部分を拡大表示し表示部分を移動させるPan効果をシナリオ先頭リスト921の視覚効果情報に追加する(S922)。   That is, if the remainder is 1 (Yes in S910), the scenario generation unit 904 adds a fade-in effect that gradually sharpens the image to the visual effect information in the scenario head list 921 (S912), and if the remainder is 2 (Yes in S914), a fade-out effect that gradually erases the image is added to the visual effect information in the scenario head list 921 (S916). If the remainder is 0 (Yes in S918), a zoom-in effect for enlarging the image toward the center of the image is added to the visual effect information in the scenario head list 921 (S920). If the remainder is 3 (No in S918). Then, the Pan effect for enlarging and displaying one part of the image and moving the display part is added to the visual effect information in the scenario head list 921 (S922).

さらに、シナリオ生成部904は、割り当てる視覚効果をシナリオ先頭リスト921の視覚効果情報に追加する際に、併せて画像の再生時間を設定して、シナリオ先頭リスト921の再生時間情報に追加する。ここではズームイン効果を施す画像の再生時間は3秒(45フレーム)、それ以外の画像の再生時間は2秒(30フレーム)に設定する。   Furthermore, when adding the visual effect to be assigned to the visual effect information of the scenario head list 921, the scenario generation unit 904 sets the playback time of the image and adds it to the playback time information of the scenario head list 921. Here, the reproduction time of the image to which the zoom-in effect is applied is set to 3 seconds (45 frames), and the reproduction time of the other images is set to 2 seconds (30 frames).

その後、シナリオ生成部904は、視覚効果情報および再生時間情報を追加したリストが最後のリストであるか否かを判断し(S924)、最後のリストであれば(S924のYes)、シナリオ生成の処理動作を終了し、最後のリストでなければ(S924のNo)、シナリオ外枠の次のリストを参照し(S926)、視覚効果を決定する処理動作を繰り返す。   Thereafter, the scenario generation unit 904 determines whether the list to which the visual effect information and the reproduction time information are added is the last list (S924). If the list is the last list (Yes in S924), the scenario generation unit 904 determines the scenario generation. The processing operation is terminated, and if it is not the last list (No in S924), the next list of the scenario outer frame is referred to (S926), and the processing operation for determining the visual effect is repeated.

このようにして、シナリオ生成部904が、再生順において最後の画像まで視覚効果を割り当てる処理動作を繰り返すと図41に示すシナリオが完成する。
図41は、従来における完成したシナリオの第1例を示す図である。
In this manner, when the scenario generation unit 904 repeats the processing operation for assigning the visual effect to the last image in the reproduction order, the scenario shown in FIG. 41 is completed.
FIG. 41 is a diagram showing a first example of a completed scenario in the related art.

この完成したシナリオにおいて、シナリオヘッダ930には、全再生時間12秒を示す情報が記述され、画像31の再生情報が記述されるシナリオ先頭リスト931には、フェードイン効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリストにも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。   In this completed scenario, information indicating the total playback time of 12 seconds is described in the scenario header 930, and visual effect information for assigning a fade-in effect is described in the scenario head list 931 in which the playback information of the image 31 is described. Thus, reproduction time information of a reproduction time of 2 seconds is described. Similarly, the visual effect information and the reproduction time information to be assigned are described in the list in which the reproduction information of each image is described.

すなわち、この完成したシナリオによれば、画像31、画像32、画像33、画像34、画像35の順に再生され、画像31にはフェードイン効果、画像32にはズームアウト効果、画像33にはフェードアウト効果、画像34はPan効果、画像35にはズームイン効果の視覚効果をそれぞれに施すことが示されている。また、再生時間はそれぞれ2秒、3秒、2秒、2秒、3秒(計12秒)であることが示されている。   That is, according to this completed scenario, the image 31, the image 32, the image 33, the image 34, and the image 35 are reproduced in this order, the image 31 has a fade-in effect, the image 32 has a zoom-out effect, and the image 33 has a fade-out. It is shown that the effect, image 34 is subjected to the Pan effect, and image 35 is subjected to the visual effect of the zoom-in effect. In addition, it is shown that the reproduction times are 2 seconds, 3 seconds, 2 seconds, 2 seconds, and 3 seconds (total 12 seconds), respectively.

ここで、操作入力部901が、ユーザからショートフィルムのタイトルの入力を受け付けると、シナリオ生成部904は、完成したシナリオのリストの先頭にタイトル画像(タイトル用に用意された黒画面の画像)の再生情報を挿入する場合もある。   When the operation input unit 901 receives an input of a short film title from the user, the scenario generation unit 904 displays a title image (a black screen image prepared for the title) at the top of the completed scenario list. Playback information may be inserted.

このとき、シナリオ生成部904は、画像中央部分にユーザが入力した文字を埋め込むことを示す視覚効果情報および再生時間情報(2秒)をシナリオのリストの先頭に追加する。このようにして完成したシナリオを図42に示す。   At this time, the scenario generation unit 904 adds visual effect information and reproduction time information (2 seconds) indicating that the character input by the user is embedded in the center portion of the image to the top of the scenario list. The completed scenario is shown in FIG.

図42は、従来における完成したシナリオの第2例を示す図である。
この完成したシナリオでは、タイトル画像、画像31、画像32、画像33、画像34、画像35の順に再生され、タイトル画像には、文字埋め込み効果、画像31にはフェードイン効果、画像32にはズームアウト効果、画像33にはフェードアウト効果、画像34はPan効果、画像35にはズームイン効果を施すことを示している。再生時間はそれぞれ2秒、2秒、3秒、2秒、2秒、3秒(計14秒)である。
FIG. 42 is a diagram illustrating a second example of a completed scenario in the related art.
In this completed scenario, the title image, the image 31, the image 32, the image 33, the image 34, and the image 35 are reproduced in this order. The title image has a character embedding effect, the image 31 has a fade-in effect, and the image 32 has a zoom. The out effect, the image 33 has a fade-out effect, the image 34 has a Pan effect, and the image 35 has a zoom-in effect. The playback times are 2 seconds, 2 seconds, 3 seconds, 2 seconds, 2 seconds, and 3 seconds (14 seconds in total), respectively.

すなわち、シナリオヘッダ940には、全再生時間14秒を示す情報が記述され、タイトル画像の再生情報が記述されるシナリオ先頭リスト941には、画像中央部分にユーザが入力した文字を埋め込む文字埋め込み効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリストにも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。   That is, in the scenario header 940, information indicating the total playback time of 14 seconds is described, and in the scenario head list 941 in which the playback information of the title image is described, the character embedding effect for embedding the character input by the user in the center portion of the image Is described, and the reproduction time information of the reproduction time of 2 seconds is described. Similarly, the visual effect information and the reproduction time information to be assigned are described in the list in which the reproduction information of each image is described.

続いて、画像再生部905は、シナリオ生成部904において以上のような手順で生成されたシナリオのアドレス情報を受け取り、シナリオの先頭リストに格納された画像の再生情報を参照する。   Subsequently, the image reproduction unit 905 receives the address information of the scenario generated by the scenario generation unit 904 by the procedure as described above, and refers to the reproduction information of the image stored in the top list of the scenario.

そして、画像再生部905は、参照した再生情報に基づいて画像蓄積部903から圧縮形式の画像を読み出して解凍し、再生時間情報(フレーム数)に基づいて時間管理を行いながら視覚効果情報において指示された視覚効果を施して表示部906に出力する。先頭の画像の再生が終了すると、画像再生部905は、シナリオにおける次の画像の再生情報を参照して再生処理を実行し、最後の画像(画像35)の再生処理が終了するまでこれを繰り返す。   Then, the image playback unit 905 reads out and decompresses the compressed image from the image storage unit 903 based on the referenced playback information, and instructs the visual effect information while performing time management based on the playback time information (number of frames). The displayed visual effect is applied and output to the display unit 906. When the reproduction of the first image is completed, the image reproduction unit 905 executes the reproduction process with reference to the reproduction information of the next image in the scenario, and repeats this until the reproduction process of the last image (image 35) is completed. .

ここで、図43を用いて、表示部906に出力表示される画像の視覚効果について説明する。
図43は、従来におけるショートフィルム生成装置900の画面表示例を示す図である。
Here, the visual effect of the image output and displayed on the display unit 906 will be described with reference to FIG.
FIG. 43 is a diagram showing a screen display example of a conventional short film generating apparatus 900.

ここでは、画像の対角線方向へ移動するPan効果について説明することとする。
画像対角線方向へのPan効果によれば、ショートフィルム生成装置900は、表示画面例950を表示した後、第1表示領域951を拡大して表示し、表示推移線952に沿って表示部分を移動させて第2表示領域953を表示して、再生を終了する。
Here, the Pan effect that moves in the diagonal direction of the image will be described.
According to the Pan effect in the image diagonal direction, the short film generating apparatus 900 displays the display screen example 950 and then enlarges and displays the first display area 951 and moves the display portion along the display transition line 952. Then, the second display area 953 is displayed and the reproduction is finished.

このようにして、従来におけるショートフィルム生成装置900は、複数の静止画像にズームイン、フェードイン、フェードアウト、Pan等の視覚効果を施しながら、あたかも動画のように、短編の映像(ショートフィルム)を生成して再生する。このような従来のショートフィルム生成装置900は、静止画に動画のような動きを与えて、デジタル静止画を使った新しいエンターテイメントの世界を切り開いた点で画期的である。
特開2002−23914号公報 特開平11−15993号公報
In this way, the conventional short film generation apparatus 900 generates a short video (short film) as if it were a video while performing visual effects such as zoom-in, fade-in, fade-out, and Pan on a plurality of still images. And play it. Such a conventional short film generating apparatus 900 is revolutionary in that it gives a motion like a moving image to a still image and opens up a new entertainment world using a digital still image.
JP 2002-23914 A Japanese Patent Laid-Open No. 11-15993

しかしながら、上述した従来の画像表示装置では、表示用画像の解像度(画素数)が表示器の解像度(画素数)に比べて大きい(多い)場合には、画像全体を表示するために、表示器の画素数より少ない画素数のサムネイル画像を記憶する必要がある。このような事態は、携帯電話機など表示部分が極めて小さい表示端末で、非常に顕著であり、原画像の1/64の解像度のサムネイル画像を、QVGA(320x240画素=約8万画素(76800))サイズの表示領域を持つ表示装置上で、全体表示することになる。   However, in the above-described conventional image display apparatus, when the resolution (number of pixels) of the display image is larger (larger) than the resolution (number of pixels) of the display, the display It is necessary to store a thumbnail image having a smaller number of pixels than the number of pixels. Such a situation is very remarkable in a display terminal such as a mobile phone that has a very small display portion. A thumbnail image having a resolution of 1/64 of the original image is displayed as QVGA (320 × 240 pixels = about 80,000 pixels (76800)). The entire display is performed on a display device having a size display area.

すなわち、こういったケースでは、画像全体の解像度が下がるため、視覚的な画質の劣化が生じてしまうという問題がある。
また、画像内の見たい場所(興味領域;ROI;Region Of Interest;例えば人の顔)も相対的に小さくなるので、画質の劣化とともに視認性も低下してしまうという問題もある。
That is, in such a case, since the resolution of the entire image is lowered, there is a problem that visual image quality is deteriorated.
In addition, since the place (interest of interest; ROI; Region Of Interest; for example, a human face) in the image is relatively small, there is a problem that the visibility is lowered as the image quality deteriorates.

このような問題点を解決するために、原画像を格納し、原画像を表示器に表示することが考えられるが、小さな表示装置(画面)で大きな画像の一部を見ることになり、ユーザに操作負荷をかけてしまうという問題を生じさせてしまう。より詳しく説明すると、まず、XGAサイズの画像は、QVGAサイズの表示領域に対して約10倍の大きさであるので、ユーザがROIを探そうとすれば、スクロールなどをさせながら探す手間が必要となってしまう。また、人の顔が小さく写っているようなときには、ユーザは、その部分をズームインして表示させる操作が必要となり、ユーザの操作負荷は高いものとなる。   In order to solve such problems, it is conceivable to store the original image and display the original image on a display. However, the user will see a part of the large image on a small display device (screen), and the user This causes a problem that an operation load is applied to. More specifically, since an XGA-sized image is about 10 times larger than a QVGA-sized display area, if a user tries to find an ROI, the user has to search for it while scrolling. End up. In addition, when a person's face appears small, the user needs to zoom in on that portion and display it, and the user's operation load is high.

同様に、表示器にサムネイル画像を9つ程度、一覧表示するような場合についても、サムネイル画像をさらに80×60画素程度まで縮小しなければならない。このような場合についても、一つ一つのサムネイル画像について解像度低下による視認性の低下が指摘でき、「何が映っているか判り難い」という問題がある。   Similarly, in the case where about nine thumbnail images are displayed as a list on the display device, the thumbnail images must be further reduced to about 80 × 60 pixels. Even in such a case, it can be pointed out that the visibility of each thumbnail image is reduced due to a reduction in resolution, and there is a problem that it is difficult to understand what is reflected.

また、上記従来のショートフィルム生成装置によれば、予めユーザにより選択された画像に対し視覚効果をランダムまたは固定的に決定して、再生に必要なシナリオを生成するので、インパクトのあるシナリオを生成することができない。つまり、各画像に割り当てる視覚効果を決定する際に、画像の内容が考慮されることなく、恣意的に視覚効果が割り当てられるので、画像の特徴を生かしたインパクトのあるシナリオを生成できないという問題がある。   In addition, according to the conventional short film generating apparatus, a visual effect is randomly or fixedly determined for an image selected in advance by a user, and a scenario necessary for reproduction is generated. Can not do it. In other words, when deciding the visual effect to be assigned to each image, the visual effect is arbitrarily assigned without considering the content of the image, so that there is a problem that it is not possible to generate an impact scenario that makes use of the characteristics of the image. is there.

また、上記従来のショートフィルム生成装置によれば、シナリオ生成に際して、ユーザがタイトル入力や画像選択を行なう必要があるため、手間がかかってしまうという問題もある。   In addition, according to the conventional short film generating apparatus, there is a problem that it takes time and effort because the user needs to input a title and select an image when generating a scenario.

そこで、本発明は、かかる問題点に鑑みなされたものであり、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置、画像表示方法ならびにそれらを有する携帯型端末を提供し、また、サムネイル画像の一覧表示の際にも、何が映っているか判別しやすい画像表示装置を提供することを第1の目的とする。   Therefore, the present invention has been made in view of such problems, and has reduced image quality degradation, improved visibility, reduced user operation load, and image display apparatus, image display method, and the like. It is a first object of the present invention to provide an image display device that can easily determine what is being displayed when displaying a list of thumbnail images.

また、本発明は、画像に相応しい視覚効果を施して再生することができるショートフィルム生成装置を提供し、また、タイトル入力や画像選択を行なう等のユーザの手間を省いて、シナリオを生成することができるショートフィルム生成装置を提供することを第2の目的とする。   In addition, the present invention provides a short film generation device that can reproduce images with appropriate visual effects, and can generate a scenario without the need for user input such as title input and image selection. It is a second object to provide a short film generating apparatus capable of performing the above.

上記の目的を達成するため、本発明は、以下のような技術的手段を講じている。
すなわち、本発明に係る画像表示装置は、画像を表示する表示手段を備える画像表示装置であって、前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段と、前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定手段と、ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成手段とを備える、前記オブジェクト判定手段は、オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定部と、判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定部とを有し、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出することを特徴とする。
また、本発明に係る画像表示装置は、画像を表示する表示手段を備える画像表示装置であって、前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段と、前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、オブジェクトが含まれている場合に、当該オブジェクトに関するオブジェクト情報を生成するオブジェクト判定手段と、ユーザから指定された原画像と、当該原画像に対応するオブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。
In order to achieve the above object, the present invention takes the following technical means.
That is, the image display device according to the present invention is an image display device including display means for displaying an image, and holds an original image formed with a larger number of pixels than the number of pixels that can be displayed on the display means. It is determined whether or not an object is included in the original image held by the image holding means and the original image holding means. When at least one or more objects are included, object information relating to each object An object that is an area including an object in the original image, based on an object determination unit that generates the image, an original image designated by the user, and at least one object information corresponding to the original image Extract at least a part of the area from the original image and match the number of displayable pixels on the display means. A display image generating unit configured to generate a display image, wherein the object determination unit includes a plurality of object types including a plurality of types among a person, an animal, a plant, a movable property, and a real estate based on the shape of the object. The object type determination unit that determines the type of one of the objects, embeds the determined type of the object in the object information, and the priority corresponding to the determined type of the object is further set in the object information. An object priority setting unit to be embedded, and the display image generation means indicates that the priority is higher among at least one of the object information based on the priority embedded in the object information. An object area corresponding to the object information is extracted from the original image. And wherein the door.
The image display device according to the present invention is an image display device including display means for displaying an image, and holds an original image formed with a larger number of pixels than the number of pixels that can be displayed on the display means. An image holding unit and an object determination unit that determines whether or not an object is included in the original image held in the original image holding unit, and generates object information related to the object when the object is included And extracting from the original image at least a part of an object area that is an area including the object in the original image based on the original image designated by the user and the object information corresponding to the original image. Display image generating means for generating a display image in accordance with the number of displayable pixels in the display means. And features.

これによって、オブジェクト領域の少なくとも一部を含む表示用画像を原画像から生成するので、オブジェクト領域の少なくとも一部を含む部分が大きく表示される。したがって、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置を提供することが可能となる。   As a result, a display image including at least a part of the object area is generated from the original image, so that a part including at least a part of the object area is displayed in a large size. Therefore, it is possible to provide an image display device that improves visibility and reduces the operation load on the user.

ここで、前記オブジェクト判定手段は、前記原画像に含まれるオブジェクトの位置および大きさを抽出し、抽出したオブジェクトの位置および大きさを前記オブジェクト情報に埋め込むオブジェクト抽出部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置および大きさに基づいて、前記原画像から抽出する部分を決定することを特徴とする。   Here, the object determination means includes an object extraction unit that extracts the position and size of an object included in the original image and embeds the extracted position and size of the object in the object information, and generates the display image generation The means determines a portion to be extracted from the original image based on the position and size of the object embedded in the object information.

この構成によれば、オブジェクト領域の少なくとも一部を含む原画像の部分の決定が容易になる。
また、前記オブジェクト抽出部は、パターンマッチング、色分布情報、エッジ情報、領域分割情報およびレイアウト情報の少なくとも一つを用いて前記オブジェクトを抽出するとしてもよい。
According to this configuration, it is easy to determine the part of the original image that includes at least a part of the object area.
The object extraction unit may extract the object using at least one of pattern matching, color distribution information, edge information, region division information, and layout information.

また、前記オブジェクト判定手段は、さらに、前記オブジェクト抽出部が抽出したオブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置、大きさおよび種別に基づいて、前記原画像から抽出する部分を決定することを特徴としてもよい。   The object determination unit further includes an object type determination unit that determines the type of the object extracted by the object extraction unit, and embeds the determined object type in the object information. The display image generation unit includes: A portion to be extracted from the original image may be determined based on the position, size, and type of the object embedded in the object information.

これによっても、オブジェクト領域の少なくとも一部を含む原画像の部分の決定が容易になる。
また、前記オブジェクトの種別には、人物、人の顔、犬、猫および書籍ならびに文字列を含む物品、看板および値札の少なくとも一つが含まれることを特徴とすることもできる。
This also facilitates determination of the portion of the original image that includes at least a part of the object area.
The type of the object may include at least one of a person, a human face, a dog, a cat, a book, an article including a character string, a signboard, and a price tag.

これによって、種々の種別のオブジェクト領域の少なくとも一部を含む部分が大きく表示される。
また、前記オブジェクト判定手段は、さらに、前記オブジェクト種別判定部が判定したオブジェクトの種別に対応した優先度を、前記オブジェクト情報に埋め込むオブジェクト優先度設定部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの優先度に基づいて、前記原画像から抽出する部分を決定することを特徴とすることもできる。
As a result, a portion including at least a part of various types of object areas is displayed large.
The object determination unit further includes an object priority setting unit that embeds a priority corresponding to the object type determined by the object type determination unit in the object information, and the display image generation unit includes the display A portion to be extracted from the original image may be determined based on the priority of the object embedded in the object information.

これによっても、オブジェクト領域の少なくとも一部を含む原画像の部分の決定が容易になる。
また、前記オブジェクト判定手段は、原画像に含まれるオブジェクトの位置および大きさを抽出し、抽出したオブジェクトの候補の位置および大きさを前記オブジェクト情報に埋め込むオブジェクト抽出部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置の中心が含まれるように、前記原画像から抽出する部分を決定することを特徴としてもよい。
This also facilitates determination of the portion of the original image that includes at least a part of the object area.
The object determination unit includes an object extraction unit that extracts the position and size of an object included in the original image and embeds the extracted position and size of the candidate object in the object information. The means may determine the portion to be extracted from the original image so that the center of the position of the object embedded in the object information is included.

これによって、オブジェクトの視認性を高めることができる。
また、前記画像表示装置は、さらに、原画像を撮像する撮像手段、および、記憶媒体または伝送媒体を介して原画像を入力する画像入力手段の少なくとも一方と、前記撮像手段および前記画像入力手段の少なくとも一方によって取得された原画像を前記原画像保持手段に格納する格納手段とを備えることを特徴とすることもできる。
Thereby, the visibility of the object can be improved.
The image display apparatus further includes at least one of an imaging unit that captures an original image, an image input unit that inputs an original image via a storage medium or a transmission medium, and the imaging unit and the image input unit. Storage means for storing the original image acquired by at least one in the original image holding means can be provided.

この構成によれば、種々の方策で原画像を取得することができる。
さらに、前記表示用画像生成手段は、さらに、前記オブジェクト情報に基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、予め定められた画素数のサムネイル画像を生成するサムネイル画像生成手段を備えることを特徴とする。ここで、前記原画像保持手段には、複数の原画像が保持されており、前記表示用画像生成手段は、前記サムネイル画像生成手段が生成した各原画像のサムネイル画像を、前記表示手段に一覧表示させるのが好ましく、前記予め定められた画素数は、前記表示手段において1のサムネイル画像の表示に割り当てられた画素数であるのが、より好ましい。
According to this configuration, the original image can be acquired by various measures.
Further, the display image generating means further extracts at least a part of an object area, which is an area including the object in the original image, from the original image based on the object information, and is predetermined. A thumbnail image generating means for generating a thumbnail image having the number of pixels is provided. Here, the original image holding means holds a plurality of original images, and the display image generating means lists thumbnail images of the original images generated by the thumbnail image generating means in the display means. Preferably, the predetermined number of pixels is the number of pixels assigned to display one thumbnail image in the display means.

これによって、サムネイル画像の一覧表示の際にも、何が映っているか判別しやすくすることが可能となる。
また、前記表示用画像生成手段は、前記原画像から抽出した部分を拡大または縮小することによって、前記表示手段における表示可能な画素数にあわせた表示用画像を生成するとしてもよいし、前記表示用画像生成手段は、前記原画像から抽出する部分の画素数が、前記表示手段における表示可能な画素数となるように、前記原画像から抽出する部分を決定するとしてもよい。
As a result, it is possible to easily determine what is displayed even when displaying a list of thumbnail images.
Further, the display image generation means may generate a display image in accordance with the number of pixels that can be displayed on the display means by enlarging or reducing a portion extracted from the original image. The image generation means may determine the portion to be extracted from the original image so that the number of pixels extracted from the original image is equal to the number of pixels that can be displayed on the display means.

これによって、オブジェクト領域の少なくとも一部を含む部分が大きく表示されるように、原画像から表示用画像を生成するので、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置を実現することが可能となる。   As a result, a display image is generated from the original image so that a portion including at least a part of the object region is displayed large, and thus an image display device that improves visibility and reduces the user's operation load is realized. It becomes possible.

また、本発明に係るショートフィルム生成装置は、少なくとも1つの静止画像を用いて、映像を生成するショートフィルム生成装置であって、外部から入力された1つ以上の静止画像を取得する静止画像入力手段と、前記入力された静止画像ごとにオブジェクトが含まれているか否かを判別し、前記入力された静止画像にオブジェクトが含まれている場合に、前記オブジェクトに関する情報を抽出するオブジェクト抽出手段と、前記入力された静止画像の再生順と、前記オブジェクト抽出手段の判別結果に応じて、前記静止画像に含まれるオブジェクトに施す視覚効果とを決定することにより、映像の再生情報であるシナリオを生成するシナリオ生成手段とを備えることを特徴とする。ここで、前記オブジェクトは、文字領域であり、前記オブジェクト抽出手段は、前記入力された静止画像ごとに文字領域が含まれているか否かを判別し、前記入力された静止画像に文字領域が含まれている場合に、前記文字領域に関する情報を抽出する文字領域抽出部を備え、前記シナリオ生成手段は、前記入力された静止画像の再生順と、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域に施す視覚効果とを決定することにより、映像の再生情報であるシナリオを生成するとしてもよい。   The short film generation apparatus according to the present invention is a short film generation apparatus that generates an image using at least one still image, and that receives one or more still images input from the outside. And an object extracting means for determining whether or not an object is included for each input still image, and for extracting information related to the object when the input still image includes an object; Generating a scenario that is video playback information by determining the playback order of the input still image and the visual effect to be applied to the object included in the still image according to the determination result of the object extraction means And a scenario generation means. Here, the object is a character area, and the object extracting means determines whether or not a character area is included for each input still image, and the input still image includes a character area. A character area extraction unit that extracts information about the character area, the scenario generation means, according to the reproduction order of the input still image and the determination result of the character area extraction unit, A scenario that is video reproduction information may be generated by determining a visual effect to be applied to a character area included in the still image.

この構成によれば、静止画像に含まれるオブジェクト(文字領域)を抽出して、そのオブジェクト(文字領域)に視覚効果を施すので、そのオブジェクト(文字領域)が強調され、インパクトのあるショートフィルムを生成することができる。   According to this configuration, an object (character area) included in a still image is extracted and a visual effect is applied to the object (character area). Therefore, the object (character area) is emphasized, and an impact short film is created. Can be generated.

ここで、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域に拡大効果を施すシナリオを生成するとしてもよい。また、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域にPan効果を施すシナリオを生成することもできる。さらに、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域を修正するシナリオを生成するとしてもよい。   Here, the scenario generation means may generate a scenario for applying an enlargement effect to the character area included in the still image according to the determination result of the character area extraction unit. In addition, the scenario generation means can generate a scenario that applies a Pan effect to a character area included in the still image according to a determination result of the character area extraction unit. Further, the scenario generation unit may generate a scenario for correcting a character area included in the still image according to a determination result of the character area extraction unit.

また、前記シナリオ生成手段は、前記文字領域抽出部が抽出した文字領域に関する情報のうち、前記文字領域の形状、サイズまたは色彩の少なくとも1つに基づいて、その文字領域に施す視覚効果を決定することにより、シナリオを生成するのが好ましい。   The scenario generation means determines a visual effect to be applied to the character area based on at least one of the shape, size, or color of the character area out of the information related to the character area extracted by the character area extraction unit. Thus, it is preferable to generate a scenario.

これによって、静止画像の文字領域の特性に応じて、文字領域に施す視覚効果が選択されるので、その文字領域に相応しい視覚効果が施され、よりインパクトのあるショートフィルムを生成することができる。   As a result, the visual effect to be applied to the character region is selected according to the characteristics of the character region of the still image, so that a visual effect suitable for the character region is applied, and a more impactful short film can be generated.

また、前記ショートフィルム生成装置は、さらに、前記文字領域抽出部が文字領域を含むと判別した静止画像の撮影時刻を基準に、再生する静止画像を選択する画像選択手段を備え、前記シナリオ生成手段は、前記画像選択手段が選択した再生画像のシナリオを生成することを特徴としてもよい。   The short film generation apparatus further includes an image selection unit that selects a still image to be reproduced based on a still image shooting time determined by the character region extraction unit to include a character region, and the scenario generation unit May generate a scenario of a reproduced image selected by the image selection means.

これによって、キー画像と時間的に関連付けられる画像グループが自動的に選択されるので、ショートフィルムに使用する静止画像をユーザが一々選択する必要がなくなる。
さらに、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域をタイトルとして使用するシナリオを生成することもできる。
As a result, an image group temporally associated with the key image is automatically selected, thereby eliminating the need for the user to select a still image to be used for the short film.
Furthermore, the scenario generation means can generate a scenario using a character area included in the still image as a title according to a determination result of the character area extraction unit.

これによって、画像の文字領域がタイトル画像に自動的に取り込まれるので、ユーザがタイトル文字をキーボード等から入力する手間を省くことが可能となる。
また、前記シナリオ生成手段で決定される視覚効果は、少なくとも、オブジェクトを拡大して、または、縮小して、前記静止画像を表示する拡大縮小効果、オブジェクトへ、または、オブジェクトから、視点を移動させて前記静止画像を表示する視点移動効果、オブジェクトを焦点とするズームイン、または、ズームアウトを行なって前記静止画像を表示するズームイン・アウト効果、および、前記静止画像のうちオブジェクトが含まれる領域を切り出す切り出し効果のいずれかであることを特徴としてもよい。
As a result, the character area of the image is automatically taken into the title image, so that it is possible to save the user from inputting the title character from the keyboard or the like.
Further, the visual effect determined by the scenario generating means is at least an enlargement / reduction effect for displaying the still image by enlarging or reducing the object, and moving the viewpoint to / from the object. The viewpoint moving effect for displaying the still image, the zoom-in / out effect for displaying the still image by performing zoom-in or zoom-out with the object as a focus, and the region including the object in the still image are cut out It may be any one of the clipping effects.

これによって、オブジェクトに種々の視覚効果のいずれかを施すことができ、視認性を向上させるとともに、インパクトのあるショートフィルムを生成することが可能なショートフィルム生成装置が実現される。   Thereby, any of various visual effects can be applied to the object, and a short film generating apparatus capable of improving visibility and generating an impact short film is realized.

なお、本発明は、このような画像表示装置として実現することができるだけでなく、このような画像表示装置が備える特徴的な手段をステップとする画像表示方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。さらに、このような画像表示装置を有する携帯型端末としても実現することもできる。   Note that the present invention can be realized not only as such an image display apparatus but also as an image display method using steps characteristic of the image display apparatus, or by performing these steps as a computer. It can also be realized as a program to be executed. Furthermore, it can also be realized as a portable terminal having such an image display device.

同様に、本発明は、このようなショートフィルム生成装置として実現することができるだけでなく、このようなショートフィルム生成装置が備える特徴的な手段をステップとするショートフィルム生成方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。   Similarly, the present invention can be realized not only as such a short film generating apparatus, but also as a short film generating method including steps characteristic of the short film generating apparatus. These steps can also be realized as a program for causing a computer to execute. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.

以上説明したように、本発明に係る画像表示装置によれば、オブジェクト領域の少なくとも一部を含む原画像の部分から表示用画像が生成されるので、オブジェクト領域の少なくとも一部を含む部分が大きく表示される。したがって、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置を提供することが可能となる。   As described above, according to the image display device of the present invention, the display image is generated from the portion of the original image that includes at least a part of the object region, so that the portion that includes at least a portion of the object region is large. Is displayed. Therefore, it is possible to provide an image display device that improves visibility and reduces the operation load on the user.

また、本発明に係る画像表示装置によれば、オブジェクト領域の少なくとも一部を含む原画像の部分からサムネイル画像が生成されるので、サムネイル画像においてもオブジェクト領域の少なくとも一部を含む部分が大きく表示される。したがって、サムネイル画像の一覧表示の際にも、何が映っているか判別しやすくすることが可能となる。   In addition, according to the image display device of the present invention, the thumbnail image is generated from the portion of the original image including at least a part of the object area. Is done. Therefore, it is possible to easily determine what is being displayed even when displaying a list of thumbnail images.

よって、本発明により、原画像のオブジェクトに着目した種々の画像処理が可能となり、画素数の少ない表示器においても視認性の高い画像を表示することが可能となり、デジタルカメラや携帯電話機が普及してきた今日における本願発明の実用的価値は極めて高い。   Therefore, according to the present invention, it is possible to perform various image processing focusing on the object of the original image, display an image with high visibility even on a display with a small number of pixels, and digital cameras and mobile phones have become widespread. However, the practical value of the present invention is very high today.

また、本発明に係るショートフィルム生成装置によれば、画像に対して相応しい視覚効果を選択して施すことができるので、よりインパクトのあるショートフィルムを生成することができる。   Moreover, according to the short film production | generation apparatus which concerns on this invention, since the suitable visual effect can be selected and given with respect to an image, the short film with a more impact can be produced | generated.

さらに、ユーザにより選択された画像をキー画像として、関連する画像を自動選択して再生するので、ユーザ自身が全ての画像を選択する手間を省くことができる。
またさらに、文字領域をタイトル画像に自動で埋め込むので、ユーザ自らがタイトルを手入力する必要がなくなる。
Furthermore, since an image selected by the user is used as a key image and related images are automatically selected and reproduced, it is possible to save the user from having to select all images.
Furthermore, since the character area is automatically embedded in the title image, the user does not need to manually input the title.

よって、ユーザは、インパクトのあるショートフィルムを簡単な操作で楽しむことができ、大量の静止画像を保有するユーザの増加が著しい今日における本発明の実用的価値は極めて高いと言える。   Therefore, it can be said that the practical value of the present invention is extremely high today, because users can enjoy high-impact short films with a simple operation, and the number of users who have a large number of still images is remarkably increasing.

以下、本発明を実施するための最良の形態について、図面を参照しながら詳細に説明する。
(実施の形態1)
まず、本発明の実施の形態1に係る画像表示装置について図1〜21を用いて説明する。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
First, an image display apparatus according to Embodiment 1 of the present invention will be described with reference to FIGS.

図1は、デジタルカメラおよび画像表示装置を有する携帯電話機の外観構成を示す図である。
デジタルカメラ100は、例えば300万画素のCCDなどを備えており、被写体を1280×960画素で撮影して、その1280×960画素の原画像と、160×120画素のサムネイル画像とを、EXIF形式で、記録メディア207に記憶させる。
FIG. 1 is a diagram showing an external configuration of a mobile phone having a digital camera and an image display device.
The digital camera 100 is provided with, for example, a 3 million pixel CCD, and the subject is photographed at 1280 × 960 pixels, and the original image of 1280 × 960 pixels and the thumbnail image of 160 × 120 pixels are converted into an EXIF format. Then, it is stored in the recording medium 207.

一方、携帯電話機115は、基地局との間で電波を送受信するためのアンテナ201、フラッシュ等を備えており、動画像や静止画像を撮影可能なカメラ部203、カメラ部203で撮影した映像やアンテナ201で受信した映像等のデータを表示する液晶ディスプレイ等の表示部202、操作キー204から構成される本体部、音声出力をするためのスピーカ等の音声出力部208、音声入力をするためのマイク等の音声入力部205、および、携帯電話機115に記録メディア207を装着可能とするためのスロット部206を有している。   On the other hand, the mobile phone 115 includes an antenna 201 for transmitting and receiving radio waves to and from a base station, a flash, and the like, and a camera unit 203 capable of capturing moving images and still images, videos captured by the camera unit 203, A display unit 202 such as a liquid crystal display that displays data such as video received by the antenna 201, a main body unit configured with operation keys 204, an audio output unit 208 such as a speaker for audio output, and a voice input A voice input unit 205 such as a microphone and a slot unit 206 for allowing the recording medium 207 to be attached to the mobile phone 115 are provided.

カメラ部203は、例えば130万画素のCCDなどを備えており、表示部202における表示可能な画素数(240×320)よりも多い最大1024×1280画素で、被写体を撮像する。記録メディア207は、プラスチックケース内に、電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したSDメモリーカード(登録商標)等の記録媒体であり、撮影した動画像もしくは静止画像のデータ、受信したメールのデータや、符号化または復号化された動画像のデータもしくは静止画像のデータ等を保存するためのものである。   The camera unit 203 includes, for example, a CCD with 1.3 million pixels, and images a subject with a maximum of 1024 × 1280 pixels, which is larger than the number of pixels (240 × 320) that can be displayed on the display unit 202. The recording medium 207 is an SD memory card (registered trademark) in which a flash memory element, which is a kind of EEPROM (Electrically Erasable and Programmable Read Only Memory) that is an electrically rewritable and erasable nonvolatile memory, is stored in a plastic case. ) And the like for storing captured moving image or still image data, received mail data, encoded or decoded moving image data or still image data, and the like. .

図2は、本実施の形態1における画像表示装置のブロック構成を模式的に示した図である。
画像表示装置1は、上記の携帯電話機115に実装され、外部インタフェースとして機能する外部インタフェース部10と、記憶装置として機能するメモリ部20と、メモリ部20に記憶される原画像にオブジェクトが含まれるか否かを判断し、オブジェクトが含まれると判断した場合に、当該オブジェクトに関するオブジェクト情報を生成するオブジェクト判定部30と、ユーザから指定された原画像および原画像に対応するオブジェクト情報とに基づいて、オブジェクト領域の少なくとも一部を含む原画像の部分から表示器50の画素数にあわせた表示用画像を少なくとも1枚生成し、生成した表示用画像を表示器50に表示するように制御する表示用画像生成部40と、画像を表示する部分である表示器50とを備える。なお、オブジェクト判定部30および表示用画像生成部40は、所定の演算処理を行うためのプログラムおよび当該プログラムを実行するDSP等により構成される。
FIG. 2 is a diagram schematically showing a block configuration of the image display apparatus according to the first embodiment.
The image display device 1 is mounted on the mobile phone 115 described above, and includes an external interface unit 10 that functions as an external interface, a memory unit 20 that functions as a storage device, and an original image stored in the memory unit 20 with an object. If it is determined whether or not an object is included, the object determination unit 30 that generates object information related to the object, and the original image specified by the user and the object information corresponding to the original image Display for controlling to generate at least one display image in accordance with the number of pixels of the display device 50 from the portion of the original image including at least a part of the object area, and to display the generated display image on the display device 50 The image generating unit 40 and a display 50 that is a part for displaying an image are provided. The object determination unit 30 and the display image generation unit 40 are configured by a program for performing predetermined arithmetic processing, a DSP that executes the program, and the like.

外部インタフェース部10は、画像撮像部110と、画像入力部120と、ユーザIF部130を備えている。
画像撮像部110は、CCDなどに代表される任意の画像撮像手段を用いて画像を撮像し、画像表示装置1に取り込むものである。
The external interface unit 10 includes an image capturing unit 110, an image input unit 120, and a user IF unit 130.
The image capturing unit 110 captures an image using an arbitrary image capturing unit typified by a CCD or the like and captures the image in the image display device 1.

画像入力部120は、SDメモリーカード(登録商標)やマルチメディアカードに代表される任意の記録媒体から、もしくはイーサネット(登録商標)ケーブル・無線LANなどに代表される任意のネットワークを介して、画像を取得し、画像表示装置1に取り込むものである。   The image input unit 120 receives an image from an arbitrary recording medium represented by an SD memory card (registered trademark) or a multimedia card, or via an arbitrary network represented by an Ethernet (registered trademark) cable or a wireless LAN. Is acquired and taken into the image display device 1.

ユーザIF部130は、キーボード、テンキー、タッチパネル、音声認識などに代表される任意の入力手段を介して、画像表示装置1のユーザインタフェースを提供するものである。このユーザIF部130は、アイコンの表示やヘルプの表示などを通じてユーザの利便性を上げることもできる。   The user IF unit 130 provides a user interface of the image display device 1 through any input means represented by a keyboard, a numeric keypad, a touch panel, voice recognition, and the like. The user IF unit 130 can also improve user convenience through icon display, help display, and the like.

なお、外部インタフェース部10の構成要素は、画像撮像部110、画像入力部120およびユーザIF部130に限定されるものではなく、必要に応じて任意の外部環境・外部装置との接続・入出力を行うことができる。   The constituent elements of the external interface unit 10 are not limited to the image capturing unit 110, the image input unit 120, and the user IF unit 130, but can be connected to / from any external environment / external device and input / output as necessary. It can be performed.

例えば、音声認識用のマイク部205や、ヘルプ・音楽情報など画像表示装置1内部のデータを出力するスピーカ部208、画像撮像部110で撮影する場合のフラッシュなどの光源部、電源のON/OFF状態など任意の画像表示装置1内部の状態を光で示す内部状態表示部、など一般の携帯電話機やPDA、パーソナルコンピュータ、ゲーム機、カメラ(デジタルカメラ、ムービー)が有する任意の外部入出力装置を、外部インタフェース部10の構成要素とすることができる。   For example, a microphone unit 205 for voice recognition, a speaker unit 208 that outputs data in the image display device 1 such as help / music information, a light source unit such as a flash when shooting with the image capturing unit 110, and power ON / OFF An arbitrary external input / output device included in a general mobile phone, PDA, personal computer, game machine, camera (digital camera, movie), such as an internal state display unit that indicates the internal state of the image display device 1 with light. The external interface unit 10 can be a constituent element.

メモリ部20は、画像保持部210と、オブジェクト情報保持部220と、サムネイル画像保持部230と、ユーザ指定画像保持部240と、表示用画像保持部250とを備えている。このメモリ部20は、必要に応じて揮発性メモリ・不揮発性メモリの他、SDメモリーカード(登録商標)やハードディスクなど任意の記録媒体をメモリとして用いることができる。   The memory unit 20 includes an image holding unit 210, an object information holding unit 220, a thumbnail image holding unit 230, a user-specified image holding unit 240, and a display image holding unit 250. The memory unit 20 can use an arbitrary recording medium such as an SD memory card (registered trademark) or a hard disk as a memory in addition to a volatile memory and a nonvolatile memory as necessary.

画像保持部210は、画像表示装置に入力された画像データを保存するものである。この画像保持部210は、必要に応じて、一つの原画像データに対して複数のフォーマットや解像度、トリミングサイズでデータを保存することができる。例えば、JPEGとビットマップなどの複数のフォーマットでの保存や、VGA・XGA・QVGAなど、それぞれ異なる複数の解像度での保存、画像の一部のみをトリミング(切り抜き)した画像として保存することができる。ここで挙げた保存例に限ることなく、任意の組み合わせで画像保持部210はデータを保存できる。   The image holding unit 210 stores image data input to the image display device. The image holding unit 210 can store data in a plurality of formats, resolutions, and trimming sizes for one original image data as necessary. For example, saving in multiple formats such as JPEG and bitmap, saving at different resolutions such as VGA, XGA, QVGA, etc., and saving as a trimmed (clipped) image part of the image . The image holding unit 210 can store data in any combination without being limited to the storage examples given here.

オブジェクト情報保持部220は、オブジェクト判定部30によって生成されるオブジェクト情報を保持する。
サムネイル画像保持部230は、表示用画像生成部40によって生成されるサムネイル画像を保持する。
The object information holding unit 220 holds object information generated by the object determination unit 30.
The thumbnail image holding unit 230 holds a thumbnail image generated by the display image generation unit 40.

ユーザ指定画像保持部240は、ユーザによって指定された表示用画像を保持する。
表示用画像保持部250は、特に表示器50に表示する画像の画像データを一時的に保持するものであり、例えば一般のパーソナルコンピュータにおけるVRAMに相当するものである。
The user designated image holding unit 240 holds a display image designated by the user.
In particular, the display image holding unit 250 temporarily holds image data of an image to be displayed on the display device 50, and corresponds to, for example, a VRAM in a general personal computer.

オブジェクト判定部30は、オブジェクト候補抽出部310と、オブジェクト候補判定部320と、オブジェクト優先度判定部330とを有している。
オブジェクト候補抽出部310は、画像内からオブジェクトの候補を推定し、抽出する。
The object determination unit 30 includes an object candidate extraction unit 310, an object candidate determination unit 320, and an object priority determination unit 330.
The object candidate extraction unit 310 estimates and extracts object candidates from the image.

ここで、オブジェクト候補抽出部310における候補抽出手法およびオブジェクト候補判定部320における判定手法は、特開2002−304627号公報や、特開平10−21394号公報などに開示されている既存の任意の画像処理技術を用いることができる。   Here, the candidate extraction method in the object candidate extraction unit 310 and the determination method in the object candidate determination unit 320 are existing arbitrary images disclosed in Japanese Patent Application Laid-Open No. 2002-304627, Japanese Patent Application Laid-Open No. 10-21394, and the like. Processing techniques can be used.

例えば、オブジェクト候補抽出部310では、テンプレートによるパターンマッチを利用することによって、または、周波数・色・レイアウトなどの相関を領域分割形状・2値化画像・エッジ抽出画像などを利用することによって、オブジェクトの候補を抽出する。   For example, the object candidate extraction unit 310 uses the pattern matching based on the template, or uses the region division shape, the binarized image, the edge extracted image, or the like for the correlation of the frequency, color, layout, etc. Extract candidates.

オブジェクト候補判定部320は、オブジェクト候補についてその真偽や種別を判定する。
また、オブジェクト候補判定部320では、オブジェクトの候補とされた領域について任意の処理を用いてオブジェクトの種別の判定や、オブジェクトであるかどうかの判定を行う。例えば、色情報・エッジ情報などを用いることができる。
The object candidate determination unit 320 determines whether the object candidate is true or false.
In addition, the object candidate determination unit 320 determines the type of the object and whether the object is an object using an arbitrary process for the region that is the object candidate. For example, color information / edge information can be used.

ここで、オブジェクトを人の顔として、具体例を挙げる。まず、人の顔の候補判定を行うためのグレイカラーテンプレートを用意する。グレイカラーテンプレートと対象画像との相関を計算し、相関値の高い領域を「人の顔の候補領域」とする。さらに、候補領域に対して、肌色の含まれる割合を求めることで、「人の顔かどうかの判定」を行うことができる。   Here, a specific example is given where the object is a human face. First, a gray color template for determining a human face candidate is prepared. The correlation between the gray color template and the target image is calculated, and an area having a high correlation value is set as a “human face candidate area”. Furthermore, “determination of whether or not the face is a human face” can be performed by obtaining the ratio of the skin color to the candidate area.

オブジェクト優先度判定部330は、オブジェクト候補判定部320が判定したオブジェクトの種別に対応した優先度をオブジェクト情報に埋め込む。
表示用画像生成部40は、サムネイル画像生成処理部410と、拡大縮小処理部420と、視点移動処理部430と、ズームイン・アウト処理部440と、切り出し処理部450等とを備え、表示用画像保持部250を通じて表示器50で表示する画像を生成する。
The object priority determination unit 330 embeds the priority corresponding to the object type determined by the object candidate determination unit 320 in the object information.
The display image generation unit 40 includes a thumbnail image generation processing unit 410, an enlargement / reduction processing unit 420, a viewpoint movement processing unit 430, a zoom-in / out processing unit 440, a cut-out processing unit 450, and the like. An image to be displayed on the display 50 through the holding unit 250 is generated.

サムネイル画像生成処理部410は、画像保持部210に記憶された全ての原画像ごとに、オブジェクト情報に含まれる位置に基づいて、原画像におけるオブジェクトの少なくとも一部を含む表示領域を設定する。そして、サムネイル画像生成処理部410は、原画像から、予め定められた画素数で、設定した表示領域のサムネイル画像を生成し、生成したサムネイル画像を表示器50に一覧表示する。これによって、原画像に何が映っているか、被写体が何かをユーザに分かりやすく提示することができる。   The thumbnail image generation processing unit 410 sets, for every original image stored in the image holding unit 210, a display area including at least a part of the object in the original image based on the position included in the object information. Then, the thumbnail image generation processing unit 410 generates thumbnail images of the set display area from the original image with a predetermined number of pixels, and displays the generated thumbnail images as a list on the display device 50. This makes it possible to present to the user in an easy-to-understand manner what is reflected in the original image and what the subject is.

拡大縮小処理部420は、原画像を拡大および縮小するものである。これによって、原画像に含まれるオブジェクトを大きく見せたり、オブジェクトの細部までよく見せたり、全体を見せたりすることができる。   The enlargement / reduction processing unit 420 enlarges and reduces the original image. As a result, the object included in the original image can be shown large, the details of the object can be shown well, or the whole can be shown.

なお、自動的にオブジェクトを拡大する条件としては、
1)事前にユーザが「自動拡大表示」を行う旨の設定を行っている場合、
2)初期設定として「自動拡大表示」となっている場合、
3)オブジェクトが認識された場合に「拡大表示する」設定になっている場合、など、
オブジェクトの存在に依存して、もしくは非依存に、任意の条件を設定することができる。
As a condition for automatically enlarging an object,
1) If the user has set in advance to perform “automatic enlargement display”,
2) When “Auto Enlarge Display” is selected as the default setting,
3) When the object is recognized and the “Enlarge display” setting is selected, etc.
Arbitrary conditions can be set depending on whether or not an object exists.

視点移動処理部430は、pan(パン)およびtilt(ティルト)に相当する処理を行うものである。ここでpan(パン)とは、撮影時のカメラ操作の一種で「カメラの位置を固定したまま、左右に動かしながら広い範囲を撮影する」ことに相当する。この視点移動処理部430の場合では、表示器50で表示されている画像が「左右に動きながら広い範囲を表示」しているように処理することを意味する。   The viewpoint movement processing unit 430 performs processing corresponding to pan (pan) and tilt (tilt). Here, “pan” is a kind of camera operation at the time of shooting and corresponds to “shooting a wide range while moving the camera left and right while fixing the position of the camera”. In the case of the viewpoint movement processing unit 430, this means that processing is performed so that the image displayed on the display device 50 “displays a wide range while moving left and right”.

同様にtilt(ティルト)とは、「三脚に固定されたカメラを上下に動かすこと」に相当するが、この視点移動処理部430の場合では、「上下に動きながら広い範囲を表示」しているように処理することを意味する。なお、視点移動処理部430の視点移動方法は、左右・上下といった方向に限定されるものではなく、任意のタイミングで任意の方向に視点移動できる。   Similarly, “tilt” corresponds to “moving the camera fixed to a tripod up and down”, but in the case of the viewpoint movement processing unit 430, “displays a wide range while moving up and down”. Means to process. Note that the viewpoint movement method of the viewpoint movement processing unit 430 is not limited to the left / right / up / down directions, and the viewpoint can be moved in any direction at any timing.

ズームイン・アウト処理部440は、zoom−in(ズームイン)およびzoom−out(ズームアウト)に相当する処理を行うものである。ここで、zoom−in(ズームイン)とは、撮影時のカメラ操作の一種で「カメラの位置は固定したままズームレンズによって連続的に接近する映像を得る」ことに相当する。   The zoom-in / out processing unit 440 performs processing corresponding to zoom-in (zoom-in) and zoom-out (zoom-out). Here, zoom-in (zoom-in) is a kind of camera operation at the time of shooting and corresponds to “obtaining images that are continuously approached by a zoom lens while the position of the camera is fixed”.

zoom−out(ズームアウト)は逆に、「連続的に離れていく映像を得る」ことに相当する。先の視点移動処理部430と同じように、このズームイン・アウト処理部440の場合では、表示器50で表示されている画像が「視点を固定したまま、連続的に接近もしくは離脱しているように」処理することを意味する。なお、ズームイン・アウト処理部440の視点は必ずしも固定されている必要は無く、処理中に視点が移動してもよい。これにより、ズームインの場合には、視線を集中させて、関心を高めたり、明確に見せたり、盛り上げたりすることができる。ズームアウトの場合には、回りの状況を見せたりすることができる。   Zoom-out (zoom-out) is equivalent to “obtaining continuously moving images”. In the case of the zoom-in / out processing unit 440, as in the previous viewpoint movement processing unit 430, the image displayed on the display device 50 is "approaching or leaving continuously with the viewpoint fixed." To process. Note that the viewpoint of the zoom-in / out processing unit 440 is not necessarily fixed, and the viewpoint may be moved during processing. As a result, in the case of zooming in, it is possible to concentrate the line of sight to increase interest, to show clearly, or to excite. In the case of zooming out, the surrounding situation can be shown.

次に、切り出し処理部450は、画像をtrimming(トリミング)することに相当する。
ここで、trimming(トリミング)とは、「写真の原版を引き伸ばすとき、周囲の不要な部分を省いて画面を整える」ことであるが、この切り出し処理部450においては、画像の一部を任意の形状に切り取って表示することに相当している。ここで、オブジェクトを切り出した背景には、任意の画像・テキスト・テクスチャ(貼り付ける模様・絵柄)を表示することができる。これらのデータは予め画像保持部210に保持しておいたものを利用してもよく、また、新しく表示用画像生成部40が生成してもよく、あるいは、外部インタフェース部10を通じて取得してもよい。
Next, the cutout processing unit 450 corresponds to trimming the image.
Here, “trimming” means “to arrange a screen by omitting unnecessary unnecessary parts when enlarging a photo original”. In this cropping processing unit 450, a part of an image is arbitrarily set. This corresponds to cutting and displaying the shape. Here, an arbitrary image / text / texture (pattern to be pasted / design) can be displayed on the background from which the object is cut out. These data may be stored in advance in the image holding unit 210, may be newly generated by the display image generation unit 40, or may be acquired through the external interface unit 10. Good.

スライドショー部460は、ユーザ指定画像保持部240に記憶された表示用画像を、表示器50に映像として表示させる。
表示器50は、液晶パネル等により構成され、水平240画素×垂直320画素で画像を表示する。
The slide show unit 460 displays the display image stored in the user designated image holding unit 240 on the display device 50 as a video.
The display 50 is composed of a liquid crystal panel or the like, and displays an image with horizontal 240 pixels × vertical 320 pixels.

次に、上記のように構成された画像表示装置1で静止画像(原画像)を入力する時の動作について説明する。
図3は、外部インタフェース部10およびオブジェクト判定部30における原画像入力時のアルゴリズムを示すフローチャートである。
Next, an operation when inputting a still image (original image) on the image display apparatus 1 configured as described above will be described.
FIG. 3 is a flowchart showing an algorithm when an original image is input in the external interface unit 10 and the object determination unit 30.

画像入力部120およびオブジェクト判定部30は、記録メディア207に記録されている全ての原画像について、原画像ごとに以下の処理を繰り返し実行する(ループA)。
まず、画像入力部120は、記録メディア207に記録されている原画像を本画像表示装置1内のワークメモリに読み出し(S100)、読み出した原画像を画像保持部210に格納する(S102)。なお、画像データの保存形式は、JPEG形式に代表されるような圧縮形式であっても、非圧縮形式であっても構わない。
The image input unit 120 and the object determination unit 30 repeatedly execute the following processing for each original image for all original images recorded on the recording medium 207 (loop A).
First, the image input unit 120 reads the original image recorded on the recording medium 207 to the work memory in the image display device 1 (S100), and stores the read original image in the image holding unit 210 (S102). The image data storage format may be a compression format represented by the JPEG format or an uncompressed format.

次に、オブジェクト判定部30のオブジェクト候補抽出部310は、画像保持部210に格納された原画像をワークメモリに読み出し(S104)、原画像に含まれるオブジェクトの候補を全て抽出し(S106)、当該オブジェクト候補の位置や、大きさを取得する。オブジェクト候補の位置、大きさの取得が終わると、オブジェクト候補判定部320は、オブジェクト候補の種別を判定し、オブジェクト候補の種別を取得する(S108)。オブジェクト候補の種別の取得が終わると、オブジェクト優先度判定部330は、種別ごとに予め設定されたオブジェクト優先度を取得する(S110)。   Next, the object candidate extraction unit 310 of the object determination unit 30 reads the original image stored in the image holding unit 210 into the work memory (S104), extracts all object candidates included in the original image (S106), The position and size of the object candidate are acquired. When the acquisition of the position and size of the object candidate is completed, the object candidate determination unit 320 determines the type of the object candidate and acquires the type of the object candidate (S108). When the acquisition of the object candidate type is completed, the object priority determination unit 330 acquires an object priority set in advance for each type (S110).

オブジェクト優先度の取得が終わると、オブジェクト判定部30は、原画像のファイル名と、オブジェクト候補の位置、大きさと、オブジェクト候補の種別と、オブジェクト優先度とをテーブル形式にまとめることによってオブジェクト情報を生成し、生成したオブジェクト情報をオブジェクト情報保持部220に格納する(S112)。   After the acquisition of the object priority, the object determination unit 30 collects the object information by collecting the file name of the original image, the position and size of the object candidate, the type of the object candidate, and the object priority in a table format. The generated object information is stored in the object information holding unit 220 (S112).

全ての原画像について、画像保持部210への格納と、対応するオブジェクト情報のオブジェクト情報保持部220への格納が終わると、画像入力部120およびオブジェクト判定部30は、原画像入力処理・オブジェクト判定処理を終了する。   When all the original images are stored in the image holding unit 210 and the corresponding object information is stored in the object information holding unit 220, the image input unit 120 and the object determination unit 30 perform the original image input process / object determination. The process ends.

このような上記の処理により、記録メディア207に格納された全ての原画像(図4参照)が、順次画像保持部210に格納されるとともに、各原画像に対応するオブジェクト情報(図5参照)が生成されてオブジェクト情報保持部220に格納される。   Through the above processing, all the original images stored in the recording medium 207 (see FIG. 4) are sequentially stored in the image holding unit 210, and object information corresponding to each original image (see FIG. 5). Is generated and stored in the object information holding unit 220.

ここで、オブジェクトの判定例を図6に示す。
オブジェクト候補抽出部310は、図6に示される原画像1301に対して、例えば「顔」、「ネクタイ」、「りんご」、「マーカ」のオブジェクトテンプレートを作用させ(具体的な手法は上述のテンプレートとの相互相関を計算する、など任意の既存技術を用いる)、原画像1301から、図6に示されるように、最も「顔らしい領域」としてオブジェクト候補1311を、最も「ネクタイらしい領域」としてオブジェクト候補1312を、最も「リンゴらしい領域」としてオブジェクト候補1313を、「マーカらしい領域」としてオブジェクト候補1314をそれぞれ抽出する。これらの候補1311〜1314が、オブジェクト候補群1302である。
Here, FIG. 6 shows an object determination example.
The object candidate extraction unit 310 applies, for example, object templates of “face”, “tie”, “apple”, and “marker” to the original image 1301 shown in FIG. As shown in FIG. 6, the object candidate 1311 is the most “face-like area” and the most “tie-like area” is the object from the original image 1301. The candidate 1312 is extracted as the most “apple-like area”, and the object candidate 1313 is extracted as the “marker-like area”. These candidates 1311 to 1314 are an object candidate group 1302.

なお、オブジェクトの位置、大きさは、抽出したオブジェクトを囲む四角形の一つの対角線の始点と終点の座標で表すことが可能である。また、抽出したオブジェクトを囲む円の中心の座標と、半径の大きさによってオブジェクトの位置、大きさを表すようにしてもよい。この場合、オブジェクトの大きさは、この実施の形態1においてはオブジェクトの周囲を含め、余裕をみて表されているが、余裕なしに表すようにしてもよい。   Note that the position and size of the object can be represented by the coordinates of the start point and end point of one diagonal line of the rectangle surrounding the extracted object. Further, the position and size of the object may be represented by the coordinates of the center of the circle surrounding the extracted object and the size of the radius. In this case, the size of the object is represented with a margin including the periphery of the object in the first embodiment, but may be represented without a margin.

次に、オブジェクト候補判定部320は、それぞれの領域の候補1311〜1314について、上述のようにオブジェクト判定を行うことにより「顔か否か」、「ネクタイか否か」、「リンゴか否か」が判定され、オブジェクトの種別が決定される。判定方法は例えば、上述のような色分布による手法(顔であれば肌色が多い)や、形状による手法(ネクタイの典型的な形を利用する)がある。なお、オブジェクト候補1313は「リンゴらしい色」を含んでいないため、「リンゴではない」と判定され、オブジェクトの種別は「不明」とされる。   Next, the object candidate determination unit 320 performs “object determination” on each of the region candidates 1311 to 1314 as described above, thereby determining “whether it is a face”, “whether it is a tie”, “whether it is an apple”. Is determined, and the type of the object is determined. The determination method includes, for example, a method based on color distribution as described above (a lot of skin color is used for a face) and a method based on a shape (using a typical shape of a tie). Since the object candidate 1313 does not include “apple-like color”, it is determined as “not an apple”, and the object type is “unknown”.

さらに、オブジェクト優先度判定部330は、図7に示されるオブジェクト優先度設定テーブル331を予め保持しており、このオブジェクト優先度設定テーブル331を用いて、それぞれの領域の候補1311〜1314について、種別との対応関係からオブジェクトの優先度「5」、「3」、「1」、「3」をそれぞれ取得する。   Furthermore, the object priority determination unit 330 holds the object priority setting table 331 shown in FIG. 7 in advance, and the object priority setting table 331 is used to classify each region candidate 1311 to 1314 as a type. The priority levels “5”, “3”, “1”, and “3” of the objects are acquired from the corresponding relationship.

これにより図6に示される原画像1301(ファイル名:a001.jpg)に対応するオブジェクト情報(図5参照)が生成されてオブジェクト情報保持部220に格納される。   Thereby, object information (see FIG. 5) corresponding to the original image 1301 (file name: a001.jpg) shown in FIG. 6 is generated and stored in the object information holding unit 220.

なお、図7に示されるオブジェクト優先度設定テーブル331においては、オブジェクトの種類として、「人の顔」、「ネクタイ」、「ネックレス」、…、「リンゴ」、「ミカン」、…、「マーカ」、「イレーザ」、…、「不明」が予め登録されているが、オブジェクト候補判定部320で種別を判定できる限り、人物(全身)、人物(ウエストショット)、人物(ブレストショット)、犬、猫などの動物、レモン等の植物、机、椅子、書籍、値札等の動産、観光案内地図や、駅名、会社名など文字列を含む看板等の不動産等、あらゆる種類のオブジェクトに適用できるのはいうまでもない。   In the object priority setting table 331 shown in FIG. 7, “person's face”, “tie”, “necklace”,..., “Apple”, “mandarin orange”,. , “Erase”,..., “Unknown” are registered in advance, but as long as the object candidate determination unit 320 can determine the type, person (whole body), person (waist shot), person (breast shot), dog, cat It can be applied to all kinds of objects such as animals such as animals, plants such as lemons, movables such as desks, chairs, books, price tags, real estate such as tourist information maps, signs including station names, company names, etc. Not too long.

また、「人の顔」、「ネクタイ」、「ネックレス」、…のオブジェクトについてその優先度が「5」、「3」、「3」、…に予め設定されているが、ユーザが自己の嗜好にあわせて設定するようにしてもよい。   In addition, the priority of the objects “person's face”, “tie”, “necklace”,... Is preset to “5”, “3”, “3”,. You may make it set according to.

これによって、表示の対象となる全ての原画像につき、それぞれオブジェクトの位置等が取得され、オブジェクトを中心とした画像処理が可能となる。
次に、上記のように構成された画像表示装置1でサムネイル画像を生成する時の動作について説明する。
As a result, the positions of the objects and the like are obtained for all the original images to be displayed, and image processing centered on the objects becomes possible.
Next, an operation when a thumbnail image is generated by the image display device 1 configured as described above will be described.

図8は、表示用画像生成部40のサムネイル画像生成処理部410におけるサムネイル画像生成時のアルゴリズムを示すフローチャートである。
なお、この画像表示装置1では表示器50に9個のサムネイル画像を一覧表示するため、1つのサムネイル画像を4800(水平80×垂直60)画素で形成するように構成されている。
FIG. 8 is a flowchart showing an algorithm at the time of thumbnail image generation in the thumbnail image generation processing unit 410 of the display image generation unit 40.
The image display apparatus 1 is configured to form one thumbnail image with 4800 (horizontal 80 × vertical 60) pixels in order to display a list of nine thumbnail images on the display device 50.

サムネイル画像生成処理部410は、画像保持部210に保持される全ての原画像について、原画像ごとに以下の処理を繰り返し実行する(ループB)。
まず、サムネイル画像生成処理部410は、対応するオブジェクト情報を参照し、原画像にオブジェクトが存在するか否か判断する(S200)。存在する場合(S200でYes)、サムネイル画像の対象をオブジェクトの領域に決定する(S202)。なお、オブジェクトが複数存在する場合、優先度が高い領域に決定される。領域の決定が終わると、サムネイル画像生成処理部410は、オブジェクト領域と表示器50との画素数の割合から、オブジェクト領域の縮小率を算出し(S204)、算出した割合に基づいて間引き等を行うことによって、オブジェクトについてのサムネイル画像を生成し(S206)、そのサムネイル画像をサムネイル画像保持部230に保存する(S208)。
The thumbnail image generation processing unit 410 repeatedly executes the following processing for each original image for all original images held in the image holding unit 210 (loop B).
First, the thumbnail image generation processing unit 410 refers to corresponding object information and determines whether an object exists in the original image (S200). If it exists (Yes in S200), the target of the thumbnail image is determined as the object area (S202). If there are a plurality of objects, the area is determined to have a high priority. When the determination of the area is completed, the thumbnail image generation processing unit 410 calculates the reduction ratio of the object area from the ratio of the number of pixels between the object area and the display 50 (S204), and performs thinning or the like based on the calculated ratio. By doing so, a thumbnail image of the object is generated (S206), and the thumbnail image is stored in the thumbnail image holding unit 230 (S208).

一方、オブジェクトが存在しないと判断した場合(S200でNo)、サムネイル画像生成処理部410は、サムネイル画像の対象を原画像の全体に決定し(S210)、原画像の全体と表示器50との画素数の割合から、原画像の縮小率を算出し(S212)、算出した割合に基づいて間引き等を行うことによって、原画像全体についてのサムネイル画像を生成し(S214)、そのサムネイル画像を保存する(S216)。   On the other hand, if it is determined that the object does not exist (No in S200), the thumbnail image generation processing unit 410 determines the target of the thumbnail image as the entire original image (S210), and the entire original image and the display 50 are determined. A reduction ratio of the original image is calculated from the ratio of the number of pixels (S212), and a thumbnail image is generated for the entire original image by thinning out based on the calculated ratio (S214), and the thumbnail image is saved. (S216).

画像保持部210に保持される全ての原画像について、原画像ごとにサムネイル画像の生成が終わると、サムネイル画像生成処理部410は、サムネイル画像の生成を終了する。   When the generation of thumbnail images for all original images held in the image holding unit 210 is completed for each original image, the thumbnail image generation processing unit 410 ends the generation of thumbnail images.

ここで、図9(a)および(b)は、サムネイル画像について一覧表示を行った例を示している。
図9(a)は、オブジェクトを中心としたサムネイル画像について一覧表示した場合を示している。この表示例のようにオブジェクトを抽出して表示することで、画像の中に含まれているものが何かをユーザに分かりやすく提示することができる。
Here, FIGS. 9A and 9B show examples in which thumbnail images are displayed as a list.
FIG. 9A shows a case where thumbnail images centered on an object are displayed as a list. By extracting and displaying the object as in this display example, it is possible to present to the user what is included in the image in an easy-to-understand manner.

図9(b)は、従来例と同様に原画像全体から作成したサムネイル画像である。このサムネイルの一覧表示では、画像一枚一枚の表示される大きさが非常に小さくなるため、画像の中に含まれているものが何かを視認することは、大変困難になるのがよくわかる。   FIG. 9B shows a thumbnail image created from the entire original image as in the conventional example. In this thumbnail list display, the size of each displayed image is very small, so it is often very difficult to see what is contained in the image. Recognize.

次いで、表示用画像生成処理について説明する。
図10は、表示用画像生成処理を示すフローチャートである。
まず、表示用画像生成部40のサムネイル画像生成処理部410は、サムネイル画像を一覧表示し(S300)、サムネイル画像が選択されるのを待つ(S302)。この選択は、サムネイル画像に付された番号の入力や、カーソルキーの移動によって行われる。サムネイル画像が選択されると、表示用画像生成部40は、対応する原画像を読み出し(S304)、続いて、オブジェクト情報を読み出して(S306)、原画像にオブジェクトが存在するか否かを判断する(S308)。
Next, display image generation processing will be described.
FIG. 10 is a flowchart showing display image generation processing.
First, the thumbnail image generation processing unit 410 of the display image generation unit 40 displays a list of thumbnail images (S300), and waits for a thumbnail image to be selected (S302). This selection is performed by inputting a number assigned to the thumbnail image or moving a cursor key. When the thumbnail image is selected, the display image generation unit 40 reads the corresponding original image (S304), then reads the object information (S306), and determines whether or not the object exists in the original image. (S308).

オブジェクトが存在する場合(S308でYes)、表示用画像生成部40は、エフェクトの種別を決定し(S310)、エフェクトの種別に応じた表示用画像を生成する(S312)。生成された表示用画像は、表示用画像保持部250を介して表示器50に転送され、表示器50によって表示される(S314)。   When the object exists (Yes in S308), the display image generation unit 40 determines the effect type (S310) and generates a display image corresponding to the effect type (S312). The generated display image is transferred to the display device 50 via the display image holding unit 250 and displayed by the display device 50 (S314).

一方、オブジェクトが存在しない場合(S308でNo)、表示用画像生成部40は、原画像全体から表示用画像を生成する(S316)。生成された表示用画像(全体画像)は、表示用画像保持部250を介して表示器50に転送され、表示器50によって表示される(S314)。   On the other hand, when the object does not exist (No in S308), the display image generation unit 40 generates a display image from the entire original image (S316). The generated display image (entire image) is transferred to the display device 50 via the display image holding unit 250 and displayed by the display device 50 (S314).

表示器50への転送が終わると、表示用画像生成部40は、戻るボタン(F1ボタン)が押下されたか否か判断する(S318)。戻るボタンが押下された場合(S318でYes)、画像の閲覧が終了したとみなしてステップS300に戻り、サムネイル画像が選択されるのを待つ。これにより図9(a)に示されるサムネイル画像に対応する表示用画像を順次閲覧することができる。   When the transfer to the display device 50 is completed, the display image generation unit 40 determines whether or not the return button (F1 button) has been pressed (S318). When the return button is pressed (Yes in S318), it is regarded that the browsing of the image has been completed, and the process returns to Step S300 and waits for a thumbnail image to be selected. As a result, it is possible to sequentially browse the display images corresponding to the thumbnail images shown in FIG.

戻るボタンが押下されていない場合(S318でNo)、表示用画像生成部40は、保存ボタンが押下されたか否かを判断する(S320)。保存ボタンが押下された場合(S320でYes)、表示用画像をユーザ指定画像保持部240に保存し(S322)、ステップS324に進む。保存ボタンが押下されていない場合(S320でNo)、表示用画像生成部40は、ステップS324に進む。これにより、ユーザが気に入った表示用画像だけをユーザ指定画像保持部240に保存しておき、気に入った表示用画像だけを表示させることが可能となる。   When the return button has not been pressed (No in S318), the display image generation unit 40 determines whether the save button has been pressed (S320). When the save button is pressed (Yes in S320), the display image is saved in the user-specified image holding unit 240 (S322), and the process proceeds to Step S324. If the save button has not been pressed (No in S320), the display image generation unit 40 proceeds to Step S324. As a result, only the display image that the user likes can be stored in the user-specified image holding unit 240, and only the display image that the user likes can be displayed.

ステップS324においては、表示用画像生成部40は、オンフックボタンが押下された否か判断する(S324)。オンフックボタンが押下されていない場合(S324でNo)、表示用画像生成部40は、ユーザが表示用画像を閲覧中であるとみなしてステップS312に戻り、表示用画像を生成する。   In step S324, the display image generation unit 40 determines whether or not the on-hook button has been pressed (S324). If the on-hook button has not been pressed (No in S324), the display image generation unit 40 considers that the user is browsing the display image and returns to Step S312 to generate a display image.

オンフックボタンが押下された場合(S324でYes)、表示用画像生成部40は、ユーザによる表示用画像の閲覧が終了したとみなして、表示用画像生成処理を終了する。   When the on-hook button is pressed (Yes in S324), the display image generation unit 40 regards that the browsing of the display image by the user has ended, and ends the display image generation process.

図11は、エフェクトの種別に応じた表示用画像生成処理のサブルーチンを示すフローチャートである。   FIG. 11 is a flowchart illustrating a subroutine of display image generation processing corresponding to the type of effect.

まず、表示用画像生成部40は、エフェクトの種別を決定する(S400)。この決定は、拡大・縮小処理、視点移動処理、ズームイン・アウト処理および切り出し処理をランダムに選択することにより行われる。   First, the display image generation unit 40 determines the type of effect (S400). This determination is performed by randomly selecting enlargement / reduction processing, viewpoint movement processing, zoom-in / out processing, and cut-out processing.

決定されたエフェクトが拡大・縮小処理である場合、拡大縮小処理部420は、まず表示用画像生成の初期であるか否かを判断する(S402)。表示用画像生成の初期である場合(S402でYes)、拡大縮小処理部420は、原画像中のオブジェクト(人の顔)の領域と、全体画像の領域とを表示領域に決定し(S404)、拡大フラグに「1」をセットし(S406)、オブジェクト(人の顔)の領域から拡大表示画像を生成し(S408)、図10に示されるメインルーチンにリターンする。   If the determined effect is enlargement / reduction processing, the enlargement / reduction processing unit 420 first determines whether it is the initial stage of display image generation (S402). If it is the initial stage of display image generation (Yes in S402), the enlargement / reduction processing unit 420 determines the object (human face) area and the entire image area in the original image as display areas (S404). Then, “1” is set in the enlargement flag (S406), an enlarged display image is generated from the object (human face) region (S408), and the process returns to the main routine shown in FIG.

この拡大表示画像は、原画像中のオブジェクト(人の顔)の領域と表示器50との画素数の割合から、オブジェクト(人の顔)の領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図12(a)に示されるように、オブジェクト(人の顔)の領域だけが表示される。   This enlarged display image was calculated by calculating the enlargement / reduction ratio of the object (human face) area from the ratio of the number of pixels of the object (human face) area and the display 50 in the original image. It is generated by performing complementation or thinning based on the ratio. As a result, only the area of the object (human face) is displayed on the display 50 as shown in FIG.

一方、表示用画像生成の初期でない場合(S402でNo)、拡大縮小処理部420は、拡大フラグが「1」であるか否か(S410)と、センターボタンが押下されたか否か(S412)とを、順次判断する。判断の結果、拡大フラグが「1」で(S410でYes)、センターボタンが押下された場合(S412でYes)、拡大縮小処理部420は、拡大画像の閲覧が終了したとみなして、拡大フラグに「0」をセットし(S414)、全体画像の領域から縮小画像を生成し(S416)、図10に示されるメインルーチンにリターンする。   On the other hand, when it is not the initial stage of display image generation (No in S402), the enlargement / reduction processing unit 420 determines whether the enlargement flag is “1” (S410) and whether the center button is pressed (S412). Are sequentially determined. As a result of the determination, if the enlargement flag is “1” (Yes in S410) and the center button is pressed (Yes in S412), the enlargement / reduction processing unit 420 regards that the enlarged image has been browsed, Is set to "0" (S414), a reduced image is generated from the entire image area (S416), and the process returns to the main routine shown in FIG.

この縮小表示画像は、原画像全体の領域と表示器50との画素数の割合から、原画像の縮小率を算出し、算出した割合に基づいて間引き等を行うことによって、生成される。これにより表示器50には図12(b)に示されるように、全体画像が表示される。   This reduced display image is generated by calculating the reduction ratio of the original image from the ratio of the number of pixels of the entire area of the original image and the display 50, and performing thinning or the like based on the calculated ratio. As a result, the entire image is displayed on the display 50 as shown in FIG.

これに対して、判断の結果、拡大フラグが「0」で(S410でNo)、センターボタンが押下された場合(S412でYes)、縮小画像の閲覧が終了したとみなして、ステップS414に戻り、拡大フラグに「1」をセットし(S406)、オブジェクト(人の顔)の領域から拡大表示画像を生成する(S408)。   On the other hand, as a result of the determination, if the enlargement flag is “0” (No in S410) and the center button is pressed (Yes in S412), it is regarded that the browsing of the reduced image is completed, and the process returns to step S414. Then, “1” is set in the enlargement flag (S406), and an enlarged display image is generated from the area of the object (human face) (S408).

センターボタンが押下されていない場合(S412でNo)、拡大縮小処理部420は、拡大画像または縮小画像の閲覧中であるとみなして、図10に示されるメインルーチンにリターンする。   If the center button has not been pressed (No in S412), the enlargement / reduction processing unit 420 regards that the enlarged image or the reduced image is being browsed, and returns to the main routine shown in FIG.

このような拡大画像によって、被写体を大きく見せたり、細部までよく見せたりすることができ、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。   Such an enlarged image makes it possible to make the subject appear larger or show details, to reduce visual image quality degradation, improve visibility, and reduce the user's operation load.

また、縮小表示画像についても原画像全体から作成されているので、従来よりも視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。
ステップS400において、決定されたエフェクトが視点移動処理である場合、視点移動処理部430は、まず表示用画像生成の初期であるか否かを判断する(S420)。表示用画像生成の初期である場合(S420でYes)、視点移動処理部430は、原画像中のオブジェクト(ブレストショット)の領域と、視点を右横に移動した領域とを表示領域に決定し(S422)、右横に移動した領域から表示用画像を生成し(S424)、図10に示されるメインルーチンにリターンする。
Further, since the reduced display image is also created from the entire original image, it is possible to reduce visual image quality degradation, improve visibility, and reduce the user's operation load.
In step S400, when the determined effect is the viewpoint movement process, the viewpoint movement processing unit 430 first determines whether or not the display image generation is an initial stage (S420). In the initial stage of display image generation (Yes in S420), the viewpoint movement processing unit 430 determines the area of the object (breast shot) in the original image and the area where the viewpoint is moved to the right side as the display area. (S422) A display image is generated from the area moved to the right (S424), and the process returns to the main routine shown in FIG.

この表示画像は、原画像中の視点を右横に移動した領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図13(a)に示されるように、オブジェクト(ブレストショット)の半分とその人の回りの領域が表示される。   This display image is obtained by calculating the enlargement / reduction ratio of the object area from the ratio of the number of pixels of the area where the viewpoint in the original image is moved to the right and the display 50, and complementing or reducing based on the calculated ratio. , And so on. As a result, as shown in FIG. 13A, the display 50 displays half of the object (breast shot) and the area around the person.

一方、表示用画像生成の初期でない場合(S420でNo)、視点移動処理部430は、所定時間(例えば、2秒)が経過するのを待つ(S426)。所定の時間が経過すると(S426でYes)、視点移動処理部430は、右横画像の閲覧が終了したとみなして、オブジェクト(ブレストショット)の領域から表示用画像を生成し(S428)、図10に示されるメインルーチンにリターンする。   On the other hand, when the display image generation is not initial (No in S420), the viewpoint movement processing unit 430 waits for a predetermined time (for example, 2 seconds) to elapse (S426). When the predetermined time has elapsed (Yes in S426), the viewpoint movement processing unit 430 considers that viewing of the right lateral image has ended, generates a display image from the area of the object (breast shot) (S428), Return to the main routine shown in FIG.

この表示画像は、原画像中のオブジェクトの領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図13(b)に示されるように、オブジェクト(ブレストショット)の画像だけが表示される。   In this display image, the enlargement / reduction ratio of the object area is calculated from the ratio of the number of pixels between the object area and the display 50 in the original image, and complementation, thinning out, or the like is performed based on the calculated ratio. Is generated. Thereby, only the image of the object (breast shot) is displayed on the display 50 as shown in FIG.

このような表示画像によって、オブジェクトの周囲からオブジェクトまで広い範囲にわたって大きく見せたり、細部までよく見せたりすることができ、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。   With such a display image, the object can be enlarged over a wide range from the object's surroundings to the object, and the details can be shown well, reducing visual image quality degradation, improving visibility, and user operation load Can also be reduced.

ステップS400において、決定されたエフェクトがズームイン・アウト処理である場合、ズームイン・アウト処理部440は、まず表示用画像生成の初期であるか否かを判断する(S430)。表示用画像生成の初期である場合(S430でYes)、ズームイン・アウト処理部440は、原画像中のオブジェクト(ウエストショット)の領域と、視点を固定したままズームインした領域とを表示領域に決定し(S432)、ズームインした領域から表示用画像を生成し(S434)、図10に示されるメインルーチンにリターンする。   If the determined effect is the zoom-in / out process in step S400, the zoom-in / out processing unit 440 first determines whether or not the display image generation is an initial stage (S430). If it is the initial stage of display image generation (Yes in S430), the zoom-in / out processing unit 440 determines the object (waist shot) area in the original image and the area zoomed in with the viewpoint fixed as display areas. Then, a display image is generated from the zoomed-in area (S434), and the process returns to the main routine shown in FIG.

このズームイン画像は、原画像中のズームインした領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図14(a)に示されるように、視点を画面中央とし、オブジェクト(ブレストショット)にズームアップした領域が表示される。   In this zoomed-in image, the enlargement / reduction ratio of the object area is calculated from the ratio of the number of pixels of the zoomed-in area in the original image and the display device 50, and complementation or thinning is performed based on the calculated ratio. Is generated. As a result, as shown in FIG. 14A, the display unit 50 displays a zoomed-in area on the object (breast shot) with the viewpoint as the center of the screen.

一方、表示用画像生成の初期でない場合(S430でNo)、ズームイン・アウト処理部440は、所定時間(例えば、2秒)が経過するのを待つ(S436)。所定の時間が経過すると(S436でYes)、ズームイン・アウト処理部440は、ズームアップした画像の閲覧が終了したとみなして、オブジェクト(ブレストショット)の領域から表示用画像を生成し(S438)、図10に示されるメインルーチンにリターンする。   On the other hand, when the display image generation is not initial (No in S430), the zoom-in / out processing unit 440 waits for a predetermined time (for example, 2 seconds) to elapse (S436). When the predetermined time has elapsed (Yes in S436), the zoom-in / out processing unit 440 considers that browsing of the zoomed-in image has ended, and generates a display image from the area of the object (breast shot) (S438). Return to the main routine shown in FIG.

このズームアウト画像は、原画像中のズームアウトした領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図14(b)に示されるように、オブジェクト(ウエストショット)とその回りの画像が表示される。   This zoomed-out image calculates the enlargement / reduction ratio of the object area from the ratio of the number of pixels of the zoomed-out area in the original image and the display device 50, and complements, thins out, etc. based on the calculated ratio Is generated. Thereby, as shown in FIG. 14B, the object (waist shot) and the image around it are displayed on the display 50.

このようなズームイン画像やズームアウト画像によって、オブジェクトまで接近することによって、オブジェクトを大きく見せたり、細部までよく見せたり、オブジェクトから離れることによって、その周囲の広い範囲にわたってよく見せたり、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。   With such zoomed-in and zoomed-out images, you can get close to the object to make it look larger, show details, and move away from the object to make it look good over a wide area. It is possible to reduce deterioration of the image quality, improve visibility, and reduce the operation load on the user.

なお、ズームイン・アウト処理部440の視点は必ずしも固定されている必要は無く、処理中に視点が移動してもよい。
ステップS400において、決定されたエフェクトが切り出し処理である場合、切り出し処理部450は、まず表示用画像生成の初期であるか否かを判断する(S440)。表示用画像生成の初期である場合(S440でYes)、切り出し処理部450は、原画像中のオブジェクト(ブレストショット)の領域と、その人の顔を切り出した領域とを表示領域に決定し(S442)、オブジェクト(ブレストショット)の領域から表示用画像を生成し(S444)、図10に示されるメインルーチンにリターンする。
Note that the viewpoint of the zoom-in / out processing unit 440 is not necessarily fixed, and the viewpoint may be moved during processing.
In step S400, when the determined effect is the clipping process, the clipping processing unit 450 first determines whether or not it is the initial stage of display image generation (S440). When it is the initial stage of display image generation (Yes in S440), the cutout processing unit 450 determines the area of the object (breast shot) in the original image and the area of the person's face cut out as display areas ( In step S442, a display image is generated from the object (breast shot) area (S444), and the process returns to the main routine shown in FIG.

この表示画像は、原画像中のオブジェクト(ブレストショット)の領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図15(a)に示されるように、オブジェクト(ブレストショット)の領域が表示される。   This display image calculates the enlargement / reduction ratio of the object area from the ratio of the number of pixels of the object (breast shot) area and the display 50 in the original image, and complements based on the calculated ratio, Generated by thinning out and the like. As a result, the area of the object (breast shot) is displayed on the display 50 as shown in FIG.

一方、表示用画像生成の初期でない場合(S440でNo)、切り出し処理部450は、所定時間(例えば、2秒)が経過するのを待つ(S446)。所定の時間が経過すると(S446でYes)、切り出し処理部450は、ブレストショット画像の閲覧が終了したとみなして、オブジェクト(人の顔)の領域だけを切り出して表示用画像を生成し(S448)、図10に示されるメインルーチンにリターンする。   On the other hand, when it is not the initial stage of display image generation (No in S440), the cutout processing unit 450 waits for a predetermined time (for example, 2 seconds) to elapse (S446). When the predetermined time has elapsed (Yes in S446), the cutout processing unit 450 regards that the browsing of the breast shot image is finished, and cuts out only the area of the object (human face) to generate a display image (S448). ), The process returns to the main routine shown in FIG.

この切り出し画像は、オブジェクト(人の顔)の領域の外側をカットし、カットした領域に黒色を描くこと等により生成される。これにより表示器50には図15(b)に示されるように、オブジェクト(人の顔)だけを切り出した画像が表示される。   This cut-out image is generated by cutting the outside of the area of the object (human face) and drawing black in the cut area. As a result, an image obtained by cutting out only the object (human face) is displayed on the display 50 as shown in FIG.

このような切り出し画像によって、不要な領域の画像をマスクしたり、撮影時のコメント等で飾ったりすることができ、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。   With such a cut-out image, an image of an unnecessary area can be masked or decorated with a comment or the like at the time of shooting, reducing visual image quality deterioration, improving visibility, and user operation load Can also be reduced.

なお、オブジェクトを切り出した背景には、任意の画像・テキスト・テクスチャ(貼り付ける模様・絵柄)を表示することができる。これらのデータは予め画像保持部210に保持しておいたものを利用しても、新しく表示用画像生成部40が生成しても、外部インタフェース部10を通じて取得してもよい。   An arbitrary image / text / texture (pattern to be pasted / pattern) can be displayed on the background from which the object is cut out. These data may be stored in advance in the image holding unit 210, may be newly generated by the display image generation unit 40, or may be acquired through the external interface unit 10.

次いで、スライドショー部460が実行する処理について説明する。
図16は、スライドショー460部が実行する処理を示すフローチャートである。
スライドショー部460は、画像保持部210に保持されている全ての表示用画像について、表示用画像ごとに以下の処理を繰り返し実行する(ループC)。
Next, processing executed by the slide show unit 460 will be described.
FIG. 16 is a flowchart showing processing executed by the slide show 460 unit.
The slide show unit 460 repeatedly executes the following processing for each display image for all the display images held in the image holding unit 210 (loop C).

スライドショー部460は、ユーザ指定画像保持部240からユーザの指定によって記憶された表示用画像を読み出し(S500)、その表示用画像を表示器50に表示させ(S502)、所定時間(例えば、2秒)経過するのを待つ(S504)。   The slide show unit 460 reads the display image stored in accordance with the user's designation from the user designated image holding unit 240 (S500), displays the display image on the display 50 (S502), and performs a predetermined time (for example, 2 seconds). ) Wait for elapse (S504).

このような処理を繰り返すことにより全ての表示用画像について、一定時間ずつの表示が終わると、スライドショー部460は、スライドショーを終了する。
ここで、ユーザ指定画像保持部240には、ユーザが気に入った画像のうち、視認性を向上させた画像が保持されるのが一般的である。
By repeating such processing, the slide show unit 460 ends the slide show when all the display images have been displayed for a certain period of time.
Here, the user-designated image holding unit 240 generally holds images with improved visibility among images that the user likes.

したがって、スライドショーにおいても、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。
なお、この実施の形態1においては、拡大画像が表示されている場合においてセンターボタンが押下されたとき縮小画像を生成して表示し、縮小画像が表示されている場合においてセンターボタンが押下されたとき拡大画像を生成して表示したが、図17に示されるように、拡大画像421と縮小画像422とを交互に自動的に表示するようにしてもよい。これによって、ユーザの操作負荷を軽減することが可能となる。
Therefore, even in a slide show, it is possible to reduce visual image quality deterioration, improve visibility, and reduce a user's operation load.
In the first embodiment, a reduced image is generated and displayed when the center button is pressed when an enlarged image is displayed, and the center button is pressed when a reduced image is displayed. At this time, the enlarged image is generated and displayed. However, as shown in FIG. 17, the enlarged image 421 and the reduced image 422 may be automatically displayed alternately. Thereby, it becomes possible to reduce a user's operation load.

また、上記実施の形態1においては、表示器50に画像だけを表示したが、図18に示されるように画面中に、拡大画像423の表示の際には「戻る」、「全体」、「保存」のアイコンを、縮小画像424の表示の際には「戻る」、「拡大」、「保存」のアイコンを、表示するようにしてもよい。これにより、GUIによる操作性を向上させることができ、ユーザの操作負荷も軽減される。   In the first embodiment, only the image is displayed on the display device 50. However, as shown in FIG. 18, when the enlarged image 423 is displayed on the screen, "return", "whole", " When the reduced image 424 is displayed, “return”, “enlarged”, and “save” icons may be displayed. Thereby, the operativity by GUI can be improved and a user's operation load is also reduced.

また、上記実施の形態1では、全体画像と人の顔の拡大画像との2つの画像を生成して表示するようにしたが、図19に示されるように全体画像425aから人の顔の拡大画像425dまで徐々に倍率を変更して滑らかに移行することもできる。これによって、視覚効果を向上させることができる。   In the first embodiment, two images, that is, the entire image and the enlarged image of the human face are generated and displayed. However, as shown in FIG. 19, the enlarged human face is displayed from the entire image 425a. It is also possible to change the magnification gradually up to the image 425d to make a smooth transition. Thereby, the visual effect can be improved.

さらに、上記実施の形態1では、視点移動処理部430において、狭い範囲での視点移行を行ったが、さらに所定の視覚効果を加えながら表示することもできる。この具体例を以下述べる。   Furthermore, in the first embodiment, the viewpoint movement processing unit 430 performs viewpoint transition within a narrow range, but it is also possible to display while adding a predetermined visual effect. A specific example will be described below.

ここでは、原画像を図20(a)に示される撮影画像であるとする。これまで説明してきた実施の形態1により、自動的に全体表示もしくはオブジェクトの拡大表示を行うことが可能であるが、ここでは、画像の全体像をつかみながらROIに徐々に注目していく表示手法を説明する。   Here, it is assumed that the original image is a captured image shown in FIG. Although the entire display or the enlarged display of the object can be automatically performed according to the first embodiment described so far, here, a display method in which attention is gradually paid to the ROI while grasping the entire image. Will be explained.

ここで、オブジェクト判定部30により、撮影画像中のROIとしてオブジェクト(顔)が抽出されたとし、最終的に表示したい領域(最終表示領域)を、図20(b)に示される左側の四角で囲まれる領域とする。一方、最終表示領域や、他のオブジェクトから最も遠い図20(a)に示される四角で囲まれる領域を初期表示領域とする。この場合、当然であるが表示領域の大きさは初期表示領域と最終表示領域とで等しい。そして、初期表示領域から、オブジェクトの「マーカ」、「不明」、「ネクタイ」、最終表示領域までを結ぶ表示領域移動線(オブジェクトを巡回するスプライン線)を引くことができる。このスプライン線に沿って視点を移動し、初期表示領域から徐々に最終表示領域に至るような表示もできる。   Here, it is assumed that the object (face) is extracted as the ROI in the captured image by the object determination unit 30, and the region (final display region) to be finally displayed is the left-side square shown in FIG. The area to be enclosed. On the other hand, the final display area and the area surrounded by the square shown in FIG. 20A farthest from other objects are set as the initial display area. In this case, as a matter of course, the size of the display area is the same between the initial display area and the final display area. Then, a display area movement line (spline line that circulates the object) connecting the “marker”, “unknown”, “tie”, and final display area of the object can be drawn from the initial display area. It is also possible to display such that the viewpoint is moved along the spline line and gradually reaches the final display area from the initial display area.

この場合、表示器50に表示される画像は、図21に示す初期表示領域画像426a〜最終表示領域画像426gのように時間軸で推移する。これによって初期表示領域から徐々に最終表示領域に至るパノラマ画像が表示され、視覚効果を飛躍的に高めることができる。   In this case, the image displayed on the display device 50 changes on the time axis like an initial display area image 426a to a final display area image 426g shown in FIG. As a result, a panoramic image that gradually extends from the initial display area to the final display area is displayed, and the visual effect can be dramatically enhanced.

もちろん、初期表示の位置/大きさや最終表示領域の位置/大きさ、表示領域の移動方法などは上記の限りではなく、全ては任意である。
即ち、拡大縮小処理部420、視点移動処理部430、ズームイン・アウト処理部440、切り出し処理部450の組み合わせによって可能な任意の処理であり、任意形状領域を任意の拡大率で任意の視点移動を組み合わせながら、ズームイン・アウト処理を加えて全体画像とオブジェクトを表示することができる。
Of course, the position / size of the initial display, the position / size of the final display area, the method of moving the display area, etc. are not limited to the above, but are all arbitrary.
That is, it is an arbitrary process that can be performed by a combination of the enlargement / reduction processing unit 420, the viewpoint movement processing unit 430, the zoom-in / out processing unit 440, and the cut-out processing unit 450. While combined, zoom-in / out processing can be added to display the entire image and object.

また、上記実施の形態1を通じて、縮小表示される画像と拡大表示される画像データとは、それぞれ原画像から独立に生成することも、従属的に生成することもできる。独立生成する場合は、縮小化された画像を改めて拡大することなく拡大表示ができるため、より良い画質が得られる。従属生成する場合には、特に縮小表示される画像をベースにすることにより内部メモリの削減が可能である。   Further, through the first embodiment, the image to be reduced and the image data to be enlarged can be generated independently from the original image or can be generated dependently. In the case of independent generation, since a reduced image can be enlarged and displayed without being enlarged again, better image quality can be obtained. In the case of subordinate generation, it is possible to reduce the internal memory by using an image that is particularly reduced and displayed as a base.

また、携帯電話機やPDA、ゲーム機、デジタルカメラ、ビデオカメラ、パーソナルコンピュータ(PC)、ノート型のPC、カーナビゲーションなどのように表示装置をもつ一般の電気機器を画像表示装置とみなして利用することができる。   In addition, a general electric device having a display device such as a mobile phone, a PDA, a game machine, a digital camera, a video camera, a personal computer (PC), a notebook PC, or a car navigation is regarded as an image display device. be able to.

また、単一の画像表示だけではなくスライドショー(ショートフィルム)的に、複数の画像を連続的に表示する場合にも適用することができる。この場合、例えばカメラ付き携帯電話機やデジタルカメラのように、撮像素子数(CCD画素数)が端末表示画面の画素数よりも大きく、且つ一般に画像データが多数(複数枚)保存されていることが自然である端末で、端末内の画像を連続表示する際に、単に縮小画像をスライドショー的に見るだけでなく、ROIへのズームアップなど、見たい場所の拡大表示などを加えつつ、動画編集されたようにスタイリッシュな表示を行なうこともできる。   Further, the present invention can be applied not only to displaying a single image but also to displaying a plurality of images continuously in a slide show (short film). In this case, the number of image sensors (the number of CCD pixels) is larger than the number of pixels on the terminal display screen, and a large number (a plurality of) of image data is generally stored, such as a camera-equipped mobile phone or a digital camera. When displaying images in a terminal on a natural terminal, the video is edited while adding not only a slide show of the reduced images, but also an enlarged display of the desired location, such as zooming in to the ROI. As you can see, it is possible to display stylishly.

また、外部出力を持ち、特に連続表示(上記のスタイリッシュなスライドショー的再生表示)を動画として、もしくは静止画と再生方法を記述したデータファイルとして保存することや、ビデオ出力として外部に出力することもできる。   In addition, it has an external output, and in particular, it can be saved as a moving image or a data file describing the still image and the playback method, and can be output to the outside as a video output. it can.

さらに、拡大・縮小時に任意の効果音を付与することや、上記のスライドショー的再生時に音楽を付与することもできる。
(実施の形態2)
次に、本発明の実施の形態2に係るショートフィルム生成装置について図22〜30を用いて説明する。
Furthermore, an arbitrary sound effect can be given at the time of enlargement / reduction, and music can be given at the time of the above-described slide show reproduction.
(Embodiment 2)
Next, the short film production | generation apparatus which concerns on Embodiment 2 of this invention is demonstrated using FIGS.

図22は、本発明の実施の形態2に係るショートフィルム生成装置の機能的な構成を示すブロック図である。
このショートフィルム生成装置500は、入力された1つ以上の静止画を用いて、短編映像(ショートフィルム)のシナリオを生成したり、静止画をシナリオに従ってショートフィルムを再生したりするコンピュータ装置であり、操作入力部501、画像入力部502、文字領域抽出部503、画像蓄積部504、シナリオ生成部505、画像再生部506および表示部507を備える。
FIG. 22 is a block diagram showing a functional configuration of the short film generating apparatus according to Embodiment 2 of the present invention.
The short film generation device 500 is a computer device that generates a scenario of a short video (short film) using one or more input still images and reproduces a short film according to the scenario. , An operation input unit 501, an image input unit 502, a character region extraction unit 503, an image storage unit 504, a scenario generation unit 505, an image reproduction unit 506, and a display unit 507.

操作入力部501は、静止画像データの取り込み指示や、静止画像の選択等、ユーザからの操作入力を受け付けるキーボードやマウス等の入力装置である。
画像入力部502は、デジタルカメラ100等で撮影されたJPEG圧縮形式等の静止画像データを、装置内に取り込む処理部であり、USB(Universal Serial Bus)やIEEE(Institute of Electrical and Electronic Engineers)1394等のインタフェースによって実現される。
The operation input unit 501 is an input device such as a keyboard or a mouse that receives an operation input from a user such as an instruction for capturing still image data or selecting a still image.
The image input unit 502 is a processing unit that captures still image data, such as a JPEG compression format, captured by the digital camera 100 or the like into the apparatus, and is a USB (Universal Serial Bus) or IEEE (Institute of Electrical and Electronic Engineers) 1394. Etc. are realized by the interface.

文字領域抽出部503は、装置内に取り込まれた静止画像に四角形の文字領域が含まれているか否かを判別し、文字領域が含まれている場合にその文字領域に関する文字領域情報を抽出する処理部であり、パターンマッチング法、エッジ検出法などを用いたOCR(Optical Character Reader)によって実現される。ここで、文字領域情報には、静止画像中における文字領域の位置や、文字領域の形状、サイズおよび色彩等が含まれ、文字領域抽出部503は、抽出した文字領域情報を装置内のメモリに保持する。   The character area extraction unit 503 determines whether or not a rectangular character area is included in the still image captured in the apparatus, and extracts character area information related to the character area when the character area is included. A processing unit, which is realized by an OCR (Optical Character Reader) using a pattern matching method, an edge detection method, or the like. Here, the character area information includes the position of the character area in the still image, the shape, size, and color of the character area. The character area extraction unit 503 stores the extracted character area information in the memory in the apparatus. Hold.

画像蓄積部504は、デジタルカメラ100で撮影されたJPEG圧縮形式等の静止画像データを蓄積するハードディスク等の記憶装置である。
シナリオ生成部505は、ユーザから受け付けた画像の選択結果を操作入力部501から取得し、選択された画像の再生順および視覚効果を決定し、再生情報であるシナリオを生成する処理部であり、CPUやメモリによって実現される。
The image storage unit 504 is a storage device such as a hard disk that stores still image data such as a JPEG compression format captured by the digital camera 100.
The scenario generation unit 505 is a processing unit that acquires the selection result of the image received from the user from the operation input unit 501, determines the reproduction order and visual effect of the selected image, and generates a scenario that is reproduction information. This is realized by a CPU and a memory.

画像再生部506は、シナリオ生成部505において生成されたシナリオに従って画像蓄積部504から静止画像を読み出し、シナリオで指定された視覚効果を施しながら15フレーム/秒で再生する動作を繰り返す処理部であり、CPUやメモリによって実現される。   The image playback unit 506 is a processing unit that reads out a still image from the image storage unit 504 according to the scenario generated by the scenario generation unit 505, and repeats an operation of playing back at 15 frames / second while applying a visual effect specified by the scenario. It is realized by a CPU and a memory.

表示部507は、シナリオ生成部505や画像再生部506からの制御を受けてユーザインタフェース画面や画像を表示するCRTディスプレイや液晶ディスプレイ等である。
このように構成されたショートフィルム生成装置500の各部の処理動作について、以下、詳しく説明する。
The display unit 507 is a CRT display or a liquid crystal display that displays a user interface screen or an image under the control of the scenario generation unit 505 or the image reproduction unit 506.
The processing operation of each part of the short film generating apparatus 500 configured as described above will be described in detail below.

図23は、文字領域抽出部503の処理手順を示すフロー図である。
まず、ユーザがデジタルカメラ100で撮影した静止画像のデータは、画像入力部502を介して直接ショートフィルム生成装置500に取り込まれる(S600)。
FIG. 23 is a flowchart showing the processing procedure of the character area extraction unit 503.
First, still image data captured by the user with the digital camera 100 is directly taken into the short film generating apparatus 500 via the image input unit 502 (S600).

このとき、文字領域抽出部503は、画像入力部502から取り込まれた静止画像データから文字領域の抽出を行なう(S602)。また、このとき、文字領域抽出部503は、その静止画像データのファイル名と、文字領域の種別を示す文字領域抽出情報を記述するためのフィールドを生成して、メモリに保持しておく。   At this time, the character region extraction unit 503 extracts a character region from still image data captured from the image input unit 502 (S602). At this time, the character area extraction unit 503 generates a field for describing the file name of the still image data and the character area extraction information indicating the type of the character area, and stores the field in the memory.

ここで、静止画像データに文字領域が含まれていない場合(S604のNo)、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"抽出なし"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S606)。   Here, when the character area is not included in the still image data (No in S604), the character area extraction unit 503 adds “no extraction” to the field of the character area extraction information held in the memory, The still image data is stored in the image storage unit 504, and the processing operation is terminated (S606).

一方、静止画像データに文字領域が含まれている場合(S604のYes)、文字領域抽出部503は、文字領域情報を参照して、その画像に含まれる文字領域が縦長領域(縦横の比率が2対1以上)であるか否かを判断する(S608)。   On the other hand, if the still image data includes a character region (Yes in S604), the character region extraction unit 503 refers to the character region information and determines that the character region included in the image is a vertically long region (the aspect ratio is vertical / horizontal). It is determined whether it is 2 to 1 or more (S608).

文字領域が縦長領域である場合(S608のYes)、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"縦長領域"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S610)。   When the character region is a vertically long region (Yes in S608), the character region extracting unit 503 adds “vertically long region” to the field of the character region extraction information held in the memory, and the still image data is stored in the image storage unit. Then, the processing operation is terminated (S610).

文字領域が縦長領域でない場合は(S608のNo)、文字領域抽出部503は、文字領域情報を参照して、その画像に含まれる文字領域が横長領域(縦横の比率が1対2以上)であるか否かを判断する(S612)。   If the character area is not a vertically long area (No in S608), the character area extracting unit 503 refers to the character area information, and the character area included in the image is a horizontally long area (the ratio of aspect ratio is 1 to 2 or more). It is determined whether or not there is (S612).

ここで、文字領域が横長領域である場合(S612のYes)、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"横長領域"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S614)。   When the character area is a horizontally long area (Yes in S612), the character area extracting unit 503 adds “horizontal area” to the field of the character area extraction information stored in the memory, The image is stored in the image storage unit 504, and the processing operation is terminated (S614).

一方、文字領域が横長領域でない場合(S612のNo)、すなわち、文字領域が正方形に近い形の場合、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"正方形領域"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S616)。   On the other hand, when the character area is not a horizontally long area (No in S612), that is, when the character area is nearly square, the character area extraction unit 503 displays “square” in the character area extraction information field stored in the memory. Region "is added, the still image data is stored in the image storage unit 504, and the processing operation is terminated (S616).

図24は、シナリオ生成部505の処理手順を示すフロー図である。
まず、操作入力部501が、ユーザからショートフィルム生成ボタンを押下する操作を受け付けると、操作入力部501は、シナリオ生成部505にシナリオ生成指示を出力する。
FIG. 24 is a flowchart showing the processing procedure of the scenario generation unit 505.
First, when the operation input unit 501 receives an operation of pressing a short film generation button from the user, the operation input unit 501 outputs a scenario generation instruction to the scenario generation unit 505.

シナリオ生成部505は、シナリオ生成指示を取得すると、ユーザに画像蓄積部504に格納されている画像から複数枚を選択するように促す画面(画像選択画面)を生成して、表示部507に出力する(S650)。   When the scenario generation unit 505 acquires the scenario generation instruction, the scenario generation unit 505 generates a screen (image selection screen) that prompts the user to select a plurality of images from the images stored in the image storage unit 504 and outputs the screen to the display unit 507. (S650).

ここで、操作入力部501は、ユーザから、表示部507に表示される画像の中から再生する静止画像を選択する操作を受け付けると(S652のYes)、シナリオ生成部505に選択された画像の情報を出力する。   Here, when the operation input unit 501 receives an operation for selecting a still image to be reproduced from images displayed on the display unit 507 from the user (Yes in S652), the scenario generation unit 505 displays the selected image. Output information.

そして、シナリオ生成部505は、選択された画像の撮影時刻情報をチェックし、各画像の再生情報を撮影時刻順に並べて連結リスト化したシナリオ外枠を生成する(S654)。   Then, the scenario generation unit 505 checks the shooting time information of the selected image, and generates a scenario outer frame in which reproduction information of each image is arranged in order of shooting time to form a linked list (S654).

ここで、操作入力部501が、ユーザから、5枚の静止画像(画像1、画像2、画像3、画像4および画像5)の選択を受け付けた場合に生成されるシナリオ外枠を図25に示す。なお、この5枚の静止画像の撮影時刻は、画像1、画像2、画像3、画像4、画像5の順に時系列に並んでいるとする。   Here, FIG. 25 shows a scenario outer frame generated when the operation input unit 501 accepts selection of five still images (image 1, image 2, image 3, image 4, and image 5) from the user. Show. It is assumed that the shooting times of the five still images are arranged in time series in the order of image 1, image 2, image 3, image 4, and image 5.

図25に示すように、シナリオ外枠は、シナリオヘッダ600、シナリオ先頭リスト601、シナリオ第2リスト602、シナリオ第3リスト603、シナリオ第4リスト604およびシナリオ第5リスト605が、連結リスト化されることにより構成される。   As shown in FIG. 25, the scenario outer frame includes a scenario header 600, a scenario head list 601, a scenario second list 602, a scenario third list 603, a scenario fourth list 604, and a scenario fifth list 605 in a linked list. It is constituted by.

このとき、シナリオヘッダ600には、シナリオ名と画像数がセットされ、シナリオ外枠の各リスト601〜605には、各画像の再生情報のうち画像ファイル名、画像蓄積部504における格納場所および文字領域抽出情報がセットされる。   At this time, the scenario header 600 is set with a scenario name and the number of images, and each list 601 to 605 of the scenario outer frame contains an image file name, a storage location and a character in the image storage unit 504 in the reproduction information of each image. Area extraction information is set.

そして、シナリオヘッダ600の全再生時間や、シナリオ外枠の各リスト601〜605の視覚効果情報や再生時間情報は、この段階では空白状態となっている。
再び図24を参照してシナリオ生成部505の処理手順の説明を続けると、シナリオ生成部505は、生成したシナリオ外枠のシナリオ先頭リスト601を参照し(S656)、シナリオ先頭リスト601に示される画像に対して割り当てる視覚効果を決定する。
The total playback time of the scenario header 600 and the visual effect information and playback time information of each list 601 to 605 of the scenario outer frame are blank at this stage.
Referring to FIG. 24 again, when the description of the processing procedure of the scenario generation unit 505 is continued, the scenario generation unit 505 refers to the generated scenario outer frame scenario first list 601 (S656) and is shown in the scenario first list 601. Determine the visual effects to assign to the image.

このとき、シナリオ生成部505は、視覚効果を決定するためにシナリオ外枠にセットされた文字領域抽出情報をチェックして、シナリオ先頭リスト601に示される画像(画像1)が、文字領域が抽出された画像であるか否かを判断する(S658)。   At this time, the scenario generation unit 505 checks the character region extraction information set in the scenario outer frame to determine the visual effect, and the character region is extracted from the image (image 1) shown in the scenario head list 601. It is determined whether the image has been processed (S658).

文字領域が抽出された画像である場合(S658のYes)、シナリオ生成部505は、さらに、その文字領域抽出情報を参照して画像に含まれる文字領域が縦長領域であるか否かを判断する(S660)。   When the character region is an extracted image (Yes in S658), the scenario generation unit 505 further refers to the character region extraction information to determine whether the character region included in the image is a vertically long region. (S660).

文字領域が縦長領域であれば(S660のYes)、シナリオ生成部505は、その文字領域に対する上から下方向へのPan効果を、シナリオ先頭リスト601の視覚効果情報に追加する(S662)。なお、上記実施の形態1では、上下方向へ表示領域を移動させる視覚効果をtilt(ティルト)と称しているが、以下では、上下方向へのPan効果と称することにする。   If the character region is a vertically long region (Yes in S660), the scenario generation unit 505 adds the Pan effect from the top to the bottom of the character region to the visual effect information in the scenario head list 601 (S662). In the first embodiment, the visual effect of moving the display area in the vertical direction is referred to as “tilt”. However, hereinafter, the visual effect is referred to as the “pan effect in the vertical direction”.

一方、文字領域が縦長領域でなければ(S660のNo)、シナリオ生成部505は、その文字領域抽出情報を参照して画像に含まれる文字領域が横長領域であるか否かを判断する(S664)。   On the other hand, if the character region is not a vertically long region (No in S660), the scenario generation unit 505 refers to the character region extraction information and determines whether the character region included in the image is a horizontally long region (S664). ).

文字領域が横長領域である場合(S664のYes)、シナリオ生成部505は、その文字領域に対する左から右方向へのPan効果を、シナリオ先頭リスト601の視覚効果情報に追加する(S666)。   When the character area is a horizontally long area (Yes in S664), the scenario generation unit 505 adds the Pan effect from the left to the right for the character area to the visual effect information in the scenario head list 601 (S666).

文字領域が横長領域でない場合(S664のNo)、すなわち、文字領域が正方形領域である場合、シナリオ生成部505は、その文字領域に対するズームイン効果を、シナリオ先頭リスト601の視覚効果情報に追加する(S668)。   When the character region is not a horizontally long region (No in S664), that is, when the character region is a square region, the scenario generation unit 505 adds a zoom-in effect for the character region to the visual effect information in the scenario head list 601 ( S668).

これに対して、シナリオ先頭リスト601に示される画像が、文字領域が抽出された画像でない場合(S668のNo)、シナリオ生成部505は、ランダム関数により乱数を発生させて3で除算して(S670)、除算した余りを求めることにより、画像に割り当てる視覚効果を決定する。   On the other hand, when the image shown in the scenario head list 601 is not an image from which a character area has been extracted (No in S668), the scenario generation unit 505 generates a random number using a random function and divides by 3 ( S670) The visual effect assigned to the image is determined by obtaining the remainder after division.

すなわち、シナリオ生成部505は、余りが1ならば(S672のYes)、画像に対するフェードイン効果をシナリオ先頭リスト601の視覚効果情報に追加し(S674)、余りが2ならば(S676のYes)、画像に対するフェードアウト効果をシナリオ先頭リスト601の視覚効果情報に追加する(S678)。また、余りが0ならば(S676のNo)、シナリオ先頭リスト601の視覚効果情報に視覚効果を施さないことを示すフラグを追加する。   That is, if the remainder is 1 (Yes in S672), the scenario generation unit 505 adds a fade-in effect to the image to the visual effect information in the scenario head list 601 (S674). If the remainder is 2 (Yes in S676). Then, the fade-out effect for the image is added to the visual effect information of the scenario head list 601 (S678). If the remainder is 0 (No in S676), a flag indicating that no visual effect is applied to the visual effect information in the scenario head list 601 is added.

さらに、シナリオ生成部505は、割り当てる視覚効果をシナリオ先頭リスト601の視覚効果情報に追加する際に、併せて画像の再生時間を設定して、シナリオ先頭リスト601の再生時間情報に追加する。ここでは、文字領域に対する上下もしくは左右のPan効果、または、ズームイン効果を施す画像の再生時間は3秒、それ以外の画像の再生時間は2秒に設定する。   Furthermore, when adding the visual effect to be assigned to the visual effect information in the scenario head list 601, the scenario generation unit 505 also sets the image playback time and adds it to the playback time information in the scenario head list 601. Here, the playback time of an image to which the vertical or horizontal Pan effect on the character area or the zoom-in effect is applied is set to 3 seconds, and the playback time of other images is set to 2 seconds.

その後、シナリオ生成部505は、視覚効果情報および再生時間情報を追加したリストが最後のリストであるか否かを判断し(S680)、最後のリストであれば(S680のYes)、シナリオ生成の処理動作を終了し、最後のリストでなければ(S680のNo)、シナリオ外枠の次のリストを参照し(S682)、画像または画像に含まれる文字領域に対する視覚効果を決定する処理動作を繰り返す。   Thereafter, the scenario generation unit 505 determines whether or not the list to which the visual effect information and the reproduction time information are added is the last list (S680), and if it is the last list (Yes in S680), generates the scenario. When the processing operation is completed and the list is not the last list (No in S680), the next list in the outer frame of the scenario is referred to (S682), and the processing operation for determining the visual effect on the image or the character area included in the image is repeated. .

このようにして、シナリオ生成部505が、再生順において先頭の画像(画像1)から最後の画像(画像5)まで視覚効果を割り当てる処理動作を繰り返すと、図26に示すシナリオが完成する。   In this manner, when the scenario generation unit 505 repeats the processing operation for assigning visual effects from the first image (image 1) to the last image (image 5) in the reproduction order, the scenario shown in FIG. 26 is completed.

図26は、完成したシナリオを示す図である。
この完成したシナリオにおいて、シナリオヘッダ610には、全再生時間12秒を示す情報が記述され、画像1の再生情報が記述されるシナリオ先頭リスト611には、フェードアウト効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリスト611〜615にも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。
FIG. 26 shows a completed scenario.
In this completed scenario, information indicating the total playback time of 12 seconds is described in the scenario header 610, and visual effect information for assigning the fade-out effect is described in the scenario head list 611 in which the playback information of the image 1 is described. , Reproduction time information of 2 seconds of reproduction time is described. Similarly, the visual effect information and the reproduction time information assigned to each of the lists 611 to 615 in which the reproduction information of each image is described.

すなわち、この完成したシナリオによれば、画像1、画像2、画像3、画像4、画像5の順に再生され、画像1には、フェードアウト効果、画像2には、文字領域に対するズームイン効果、画像3には、文字領域に対する左右方向へのPan効果、画像4には、フェードイン効果の視覚効果をそれぞれに施すことが示されており、画像5には、視覚効果を施さないことが示されている。また、画像の再生時間は、それぞれ2秒、3秒、3秒、2秒、2秒(計12秒)であることが示されている。   That is, according to this completed scenario, images 1, 2, 3, 4, and 5 are reproduced in this order, with image 1 having a fade-out effect, image 2 having a zoom-in effect on a character area, image 3 Shows the Pan effect in the left-right direction with respect to the character area, and the image 4 shows that the visual effect of the fade-in effect is applied to each, and the image 5 shows that the visual effect is not applied. Yes. In addition, it is shown that the reproduction times of the images are 2 seconds, 3 seconds, 3 seconds, 2 seconds, and 2 seconds (total 12 seconds), respectively.

図27は、画像再生部506が、このようにして生成されたシナリオを用いて、画像を再生する処理手順を示すフロー図である。
まず、画像再生部506は、シナリオ生成部505により生成されたシナリオのアドレス情報を受け取り、シナリオ先頭リストを参照して(S700)、シナリオ先頭リストに格納された画像(画像1)の再生情報、すなわち、画像ファイル名、画像蓄積部504における格納場所、文字領域抽出情報、視覚効果情報、再生時間情報および次リスト情報を取得する。
FIG. 27 is a flowchart showing a processing procedure in which the image reproduction unit 506 reproduces an image using the scenario generated in this way.
First, the image reproduction unit 506 receives the address information of the scenario generated by the scenario generation unit 505, refers to the scenario head list (S700), and reproduces the reproduction information of the image (image 1) stored in the scenario head list, That is, an image file name, a storage location in the image storage unit 504, character area extraction information, visual effect information, reproduction time information, and next list information are acquired.

次に、画像再生部506は、取得した再生情報に基づいて、画像蓄積部504における格納場所から、画像ファイル名と一致する圧縮形式の静止画像データを読み出す(S702)。 画像再生部506は、読み出した圧縮形式の静止画像データを解凍すると、取得した再生時間情報(フレーム数)に基づいて、時間管理を行いながら、視覚効果情報において示される視覚効果(フェードアウト効果)を施して、画像を再生し表示部507に出力表示させる(S704)。   Next, the image playback unit 506 reads out still image data in a compressed format that matches the image file name from the storage location in the image storage unit 504 based on the acquired playback information (S702). When the image reproduction unit 506 decompresses the read still image data in the compressed format, the image reproduction unit 506 performs the visual management (fade out effect) indicated in the visual effect information while performing time management based on the acquired reproduction time information (number of frames). Then, the image is reproduced and displayed on the display unit 507 (S704).

画像の再生が終了すると、画像再生部506は、取得した次リスト情報を参照して、そのリストがシナリオにおける最後のリストであるか否かを判断する(S706)。
最後のリストでなければ(S706のNo)、画像再生部506は、次リスト情報に基づいて、シナリオの次のリストを参照して(S708)、次の画像(画像2)の再生情報を取得し、最後の画像(画像5)の再生処理が終了するまで、上記の処理動作を繰り返す。
When the image reproduction ends, the image reproduction unit 506 refers to the acquired next list information and determines whether or not the list is the last list in the scenario (S706).
If it is not the last list (No in S706), the image reproduction unit 506 refers to the next list of scenarios based on the next list information (S708) and acquires the reproduction information of the next image (image 2). Then, the above processing operation is repeated until the reproduction processing of the last image (image 5) is completed.

一方、シナリオにおける最後のリストであれば(S706のYes)、すなわち、次リスト情報が、"NULL"であれば、画像再生部506は、画像再生の処理動作を終了する。   On the other hand, if it is the last list in the scenario (Yes in S706), that is, if the next list information is “NULL”, the image reproduction unit 506 ends the image reproduction processing operation.

ここで、図28を用いて、画像に含まれる文字領域に対する視覚効果について説明する。
図28は、ショートフィルム生成装置500における画面表示の第1例を示す図である。
Here, the visual effect on the character area included in the image will be described with reference to FIG.
FIG. 28 is a diagram illustrating a first example of a screen display in the short film generating apparatus 500.

ここでは、画像に含まれる文字領域に左右方向へのPan効果が施されている場合について説明する。
まず、ショートフィルム生成装置500の画像再生部506は、表示部507に第1表示画像例623を出力表示する。図28に示すように、この第1表示画像例623には、横長領域の第1文字領域624が含まれており、この第1文字領域624に左右方向へのPan効果が施されている。
Here, a case will be described in which a Pan effect in the left-right direction is applied to a character region included in an image.
First, the image reproducing unit 506 of the short film generating apparatus 500 outputs and displays the first display image example 623 on the display unit 507. As shown in FIG. 28, the first display image example 623 includes a first character region 624 that is a horizontally long region, and a Pan effect in the left-right direction is applied to the first character region 624.

次に、ショートフィルム生成装置500の画像再生部506は、第1表示画像例623に含まれる第1文字領域624を拡大して、表示部507に、第2表示画像例623aを出力表示する。そして、画像再生部506は、第1文字領域624の表示部分を右方向へ移動させて、第3表示画像例623bおよび第4表示画像例623cを順次、表示部507に出力表示する。第4表示画像例623cを表示した後、画像再生部506は、この画像の再生を終了して、次の画像の再生処理に移行する。   Next, the image reproduction unit 506 of the short film generating apparatus 500 enlarges the first character area 624 included in the first display image example 623 and outputs and displays the second display image example 623a on the display unit 507. Then, the image reproduction unit 506 moves the display portion of the first character region 624 to the right, and sequentially outputs and displays the third display image example 623b and the fourth display image example 623c on the display unit 507. After displaying the fourth display image example 623c, the image playback unit 506 ends the playback of this image and proceeds to the playback processing of the next image.

画像に含まれる文字領域に対して、このような視覚効果を施すことによって、その画像の特性(撮影場所など)を強調することができ、ショートフィルムを閲覧するユーザに大きなインパクトを与えることができる。   By applying such a visual effect to the character area included in the image, it is possible to emphasize the characteristics of the image (such as the shooting location), and to have a great impact on the user viewing the short film. .

なお、上記シナリオ生成部505において、画像に含まれる文字領域に施される視覚効果は、上下または左右方向へのPan効果やズームイン効果に限られるものではない。例えば、画像全体を表示した後に文字領域に焦点を当てるフォーカスイン効果や、反対に、文字領域に焦点を当てた後に画像全体を表示するフォーカスアウト効果を施したり、また、文字領域を複数のパーツに分けて、文字領域を構成する各パーツを表示画面外から順次スライドさせて表示するスライドイン効果や、反対に、各パーツを表示画面外へ順次スライドさせて消すスライドアウト効果を施したりしてもよい。   In the scenario generation unit 505, the visual effect applied to the character area included in the image is not limited to the Pan effect or the zoom-in effect in the vertical and horizontal directions. For example, a focus-in effect that focuses on the text area after displaying the entire image, or a focus-out effect that displays the entire image after focusing on the text area, or a text area that has multiple parts. The slide-in effect that slides the parts that make up the character area sequentially from the outside of the display screen, and the slide-out effect that slides each part off the display screen and erases them. Also good.

図29を用いて、画像に含まれる文字領域にフォーカスアウト効果が施されている場合について説明する。
図29は、ショートフィルム生成装置500における画面表示の第2例を示す図である。
A case where the focus-out effect is applied to the character area included in the image will be described with reference to FIG.
FIG. 29 is a diagram illustrating a second example of the screen display in the short film generating apparatus 500.

まず、ショートフィルム生成装置500の画像再生部506は、表示部507に第2表示画像例633aを出力表示する。図29に示すように、この第2表示画像例633aには、横長領域の第1文字領域634が含まれており、この第1文字領域634にフォーカスアウト効果が施されている。   First, the image reproduction unit 506 of the short film generating apparatus 500 outputs and displays the second display image example 633a on the display unit 507. As shown in FIG. 29, the second display image example 633a includes a first character region 634 that is a horizontally long region, and a focus-out effect is applied to the first character region 634.

次に、ショートフィルム生成装置500の画像再生部506は、第1文字領域634に当てられている焦点を拡大させて、表示部507に、画像全体を示す第1表示画像例633を出力表示し、その後、この画像の再生を終了して、次の画像の再生処理に移行する。   Next, the image reproduction unit 506 of the short film generating apparatus 500 enlarges the focus applied to the first character region 634 and outputs and displays a first display image example 633 indicating the entire image on the display unit 507. Thereafter, the reproduction of this image is terminated, and the process proceeds to the reproduction process of the next image.

なお、図29における画像表示の推移を示す矢印を逆方向にすれば、すなわち、第1表示画像例633を表示した後、第1文字領域634へ順次焦点を絞るように表示して、第2表示画像例633aを表示すれば、フォーカスイン効果が施されていることになる。   If the arrow indicating the transition of the image display in FIG. 29 is reversed, that is, after the first display image example 633 is displayed, the first character area 634 is displayed in such a manner that the focus is sequentially reduced. If the display image example 633a is displayed, the focus-in effect is applied.

また、図30を用いて、画像に含まれる文字領域にスライドイン効果が施されている場合について説明する。
図30は、ショートフィルム生成装置500における画面表示の第3例を示す図である。
Further, a case where a slide-in effect is applied to a character area included in an image will be described with reference to FIG.
FIG. 30 is a diagram illustrating a third example of screen display in the short film generating apparatus 500.

まず、ショートフィルム生成装置500の画像再生部506は、表示部507に第2表示画像例643aを出力表示する。図30に示すように、この第2表示画像例643aには、横長領域の第1文字領域644が含まれており、この第1文字領域644にスライドイン効果が施されている。   First, the image reproduction unit 506 of the short film generation apparatus 500 outputs and displays the second display image example 643a on the display unit 507. As shown in FIG. 30, the second display image example 643a includes a first character region 644 that is a horizontally long region, and a slide-in effect is applied to the first character region 644.

次に、ショートフィルム生成装置500の画像再生部506は、第1文字領域644のパーツ("奈良駅"の"奈"の部分)を表示画面の外からスライドさせて表示することで、表示部507に第3表示画像例643bを表示出力する。   Next, the image reproducing unit 506 of the short film generating apparatus 500 displays the part of the first character region 644 (the “Nara” portion of “Nara Station”) by sliding it from the outside of the display screen. In 507, the third display image example 643b is displayed and output.

続いて、ショートフィルム生成装置500の画像再生部506は、第1文字領域644の次のパーツ("奈良駅"の"良"の部分)を表示画面の外からスライドさせて表示することで、表示部507に第4表示画像例643cを表示出力する。   Subsequently, the image reproduction unit 506 of the short film generation device 500 displays the next part of the first character area 644 (the “good” portion of “Nara Station”) by sliding it from the outside of the display screen. The display unit 507 displays and outputs the fourth display image example 643c.

最後に、ショートフィルム生成装置500の画像再生部506は、第1文字領域644の最後のパーツ("奈良駅"の"駅"の部分)を表示画面の外からスライドさせて表示することで、表示部507に第1表示画像例643を表示出力し、その後、この画像の再生を終了して、次の画像の再生処理に移行する。   Finally, the image reproduction unit 506 of the short film generating apparatus 500 displays the last part of the first character area 644 (the “station” portion of “Nara Station”) by sliding it from the outside of the display screen. The first display image example 643 is displayed on the display unit 507, and then the reproduction of this image is terminated, and the process proceeds to the reproduction process of the next image.

このように、本実施の形態2に係るショートフィルム生成装置500によれば、文字領域抽出部503が静止画像に含まれる文字領域を抽出し、シナリオ生成部505が静止画像に含まれる文字領域に対して相応しい視覚効果を選択するので、よりインパクトのあるショートフィルムを生成することができる。   As described above, according to the short film generating apparatus 500 according to the second embodiment, the character region extracting unit 503 extracts the character region included in the still image, and the scenario generating unit 505 converts the character region included in the still image. On the other hand, since a suitable visual effect is selected, a short film having a higher impact can be generated.

なお、本実施の形態2では、文字領域情報のうち、文字領域の形状(縦横比)に基づいて画像に含まれる文字領域に施す視覚効果を選択するとしているが、文字領域の他のサイズ(面積または縦または横の長さ)や、色彩(文字や下地の色)に基づいて画像に含まれる文字領域に施す視覚効果を選択するとしてもよい。具体的には、所定の面積よりも小さい文字領域に対して拡大効果を施したり、道路標識の地名のように、青地に白で描かれている文字領域や、緑地に白で描かれている文字領域等に対して拡大効果を施したりすることが考えられる。   In the second embodiment, the visual effect to be applied to the character area included in the image is selected based on the shape (aspect ratio) of the character area from the character area information. The visual effect to be applied to the character region included in the image may be selected based on the area or the vertical or horizontal length) or the color (character or background color). Specifically, the text area that is smaller than the predetermined area is enlarged, or the text area that is drawn in white on a blue background, such as the name of a road sign, or white in a green area. For example, it may be possible to apply an enlargement effect to a character area or the like.

また、画像に含まれる文字領域に対して、その文字領域の色彩を変更したり、予め用意した他の文字で置き換えたりする視覚効果を施すことによって、文字領域を強調し、広告宣伝等の用途に適したショートフィルムを生成するとしてもよい。   In addition, the character area is emphasized by changing the color of the character area included in the image, or by replacing it with another character prepared in advance. A short film suitable for the above may be generated.

さらに、本実施の形態2では、デジタルカメラ100で撮影された画像は、画像入力部502を介して装置内に直接取り込まれるとしたが、デジタルカメラ100で撮影された画像をメモリカード等の記録媒体を介して装置内に取り込むようにしてもよい。   Further, in the second embodiment, the image captured by the digital camera 100 is directly taken into the apparatus via the image input unit 502. However, the image captured by the digital camera 100 is recorded on a memory card or the like. You may make it take in in an apparatus via a medium.

またさらに、本実施の形態2における画像または画像に含まれる文字領域に施す視覚効果は、例示に過ぎず、これらの視覚効果に限定されるものでないことは、言うまでもない。
(実施の形態3)
続いて、本発明の実施の形態3に係るショートフィルム生成装置について図31〜37を用いて説明する。
Furthermore, it goes without saying that the visual effect applied to the image or the character region included in the image in the second embodiment is merely an example, and is not limited to these visual effects.
(Embodiment 3)
Then, the short film production | generation apparatus which concerns on Embodiment 3 of this invention is demonstrated using FIGS.

本実施の形態3に係るショートフィルム生成装置の構成および処理動作は、上記実施の形態2に係るショートフィルム生成装置500と略共通するが、シナリオ生成部における構成および処理動作が異なる。   The configuration and processing operation of the short film generation device according to the third embodiment are substantially the same as those of the short film generation device 500 according to the second embodiment, but the configuration and processing operation in the scenario generation unit are different.

以下、この異なる点を中心に説明する。なお、上記実施の形態2と同一の構成要素には、同一の符号を付して説明を省略することとする。
図31は、実施の形態3におけるショートフィルム生成装置の構成を示すブロック図である。
Hereinafter, this difference will be mainly described. Note that the same components as those in the second embodiment are denoted by the same reference numerals and description thereof is omitted.
FIG. 31 is a block diagram showing a configuration of a short film generating apparatus in the third embodiment.

図31に示すように、このショートフィルム生成装置510は、操作入力部501、画像入力部502、文字領域抽出部503、画像蓄積部504、シナリオ生成部508、画像再生部506および表示部507を備える。   As shown in FIG. 31, the short film generation apparatus 510 includes an operation input unit 501, an image input unit 502, a character region extraction unit 503, an image storage unit 504, a scenario generation unit 508, an image reproduction unit 506, and a display unit 507. Prepare.

操作入力部501は、静止画像に含まれる文字領域の選択等、ユーザからの操作入力を受け付ける。
シナリオ生成部508は、ユーザが選択した文字領域の情報(文字領域選択情報)を操作入力部501から取得し、選択された文字領域に関する文字領域情報等に基づいて、再生画像の選択、タイトル画像の生成、選択された画像の再生順および視覚効果の決定、および、再生情報であるシナリオの生成を行なう処理部であり、選択画像決定部509を備える。
The operation input unit 501 receives an operation input from the user such as selection of a character area included in the still image.
The scenario generation unit 508 acquires information on the character region selected by the user (character region selection information) from the operation input unit 501, and selects a reproduction image, title image based on the character region information about the selected character region, and the like. , A playback order and a visual effect of the selected image, and a scenario that is playback information, and includes a selected image determination unit 509.

選択画像決定部509は、選択された文字領域を含む静止画像(キー画像)の撮影時刻情報に基づいて、そのキー画像の前後所定時間内(例えば、3時間以内等)に撮影された静止画像を再生する画像として選択する処理部であり、CPUやメモリによって実現される。   Based on the shooting time information of the still image (key image) including the selected character area, the selected image determining unit 509 captures a still image shot within a predetermined time before and after the key image (for example, within 3 hours). Is a processing unit that selects an image to be reproduced, and is realized by a CPU and a memory.

このような構成を備えるショートフィルム生成装置510の各部の処理動作について、シナリオ生成部508を中心に、以下、詳しく説明する。
図32は、シナリオ生成部508の処理手順を示すフロー図である。
The processing operation of each part of the short film generating apparatus 510 having such a configuration will be described in detail below, focusing on the scenario generating unit 508.
FIG. 32 is a flowchart showing the processing procedure of the scenario generation unit 508.

まず、操作入力部501が、ユーザからショートフィルム生成ボタンを押下する操作を受け付けると、操作入力部501は、シナリオ生成部508にシナリオ生成指示を出力する。   First, when the operation input unit 501 receives an operation of pressing the short film generation button from the user, the operation input unit 501 outputs a scenario generation instruction to the scenario generation unit 508.

シナリオ生成部508は、シナリオ生成指示を取得すると、文字領域を選択するように促す画面(文字領域選択画面)を生成して、表示部507に出力する(S800)。このとき、シナリオ生成部508は、画像蓄積部504に格納されている画像のうち、文字領域抽出部503において文字領域が抽出された画像について、例えば、その文字領域部分を破線で囲む等して、その文字領域部分を明示することによって、文字領域選択画面を生成する。また、文字領域が抽出された画像が複数存在する場合には、シナリオ生成部508は、次ボタンを含む文字領域選択画面を生成し、操作入力部501が、ユーザから次ボタンを押下する操作を受け付けると、シナリオ生成部508は、次の文字領域が抽出された画像に文字領域選択画面を切り替える。   When the scenario generation unit 508 acquires the scenario generation instruction, the scenario generation unit 508 generates a screen that prompts the user to select a character area (character area selection screen) and outputs the screen to the display unit 507 (S800). At this time, the scenario generation unit 508 includes, for example, by enclosing the character region portion of the image in which the character region is extracted by the character region extraction unit 503 among the images stored in the image storage unit 504 with a broken line. The character area selection screen is generated by specifying the character area portion. When there are a plurality of images from which character areas are extracted, the scenario generation unit 508 generates a character area selection screen including a next button, and the operation input unit 501 performs an operation of pressing the next button from the user. When accepted, the scenario generation unit 508 switches the character area selection screen to an image from which the next character area has been extracted.

ここで、操作入力部501は、ユーザから、表示部507に表示される文字領域選択画面の中から文字領域を選択する操作を受け付けると(S802のYes)、文字領域選択情報をシナリオ生成部508に出力する。   Here, when the operation input unit 501 receives an operation for selecting a character region from the character region selection screen displayed on the display unit 507 from the user (Yes in S802), the operation input unit 501 sets the character region selection information to the scenario generation unit 508. Output to.

続いて、シナリオ生成部508は、選択画像決定部509において、その文字領域を含む画像(キー画像)の撮影時刻情報に基づいて、キー画像の前後所定時間以内に撮影された画像を全て、再生する画像として選択する(S804)。   Subsequently, the scenario generation unit 508 reproduces all images shot within a predetermined time before and after the key image based on the shooting time information of the image (key image) including the character area in the selected image determination unit 509. The image to be selected is selected (S804).

この選択画像決定部509における画像選択について、図33を用いて説明する。
図33は、選択画像決定部509の画像選択を模式的に示す図である。
図33において、撮影時刻順に、撮影画像(画像7〜15)が並べられている様子が示されている。
Image selection in the selected image determination unit 509 will be described with reference to FIG.
FIG. 33 is a diagram schematically illustrating image selection performed by the selected image determination unit 509.
FIG. 33 shows a state in which captured images (images 7 to 15) are arranged in order of the capturing time.

ここで、操作入力部501が、ユーザから画像10に含まれる文字領域を選択する操作を受け付けると、選択画像決定部509は、画像10をキー画像700に決定する。
そして、選択画像決定部509は、このキー画像700の撮影時刻から前後所定時間t内に撮影された画像を全て、再生する画像として選択する。
Here, when the operation input unit 501 receives an operation for selecting a character region included in the image 10 from the user, the selected image determination unit 509 determines the image 10 as the key image 700.
Then, the selected image determination unit 509 selects all images captured within a predetermined time t before and after the capturing time of the key image 700 as images to be reproduced.

図33では、画像8と画像13とがキー画像の撮影時刻から前後所定時間t内に撮影された画像であることが示されているので、選択画像決定部509は、画像8〜画像13までを選択画像701として扱うことになる。   In FIG. 33, since the images 8 and 13 are images captured within a predetermined time t before and after the capturing time of the key image, the selected image determination unit 509 displays the images 8 to 13. Is handled as the selected image 701.

このようにして、選択画像決定部509において、再生する画像が選択されると、シナリオ生成部508は、選択された画像の撮影時刻情報をチェックし、各画像の再生情報を撮影時刻順に並べて連結リスト化したシナリオ外枠を生成する(図32のS806)。   In this manner, when an image to be reproduced is selected in the selected image determination unit 509, the scenario generation unit 508 checks the shooting time information of the selected image, and arranges the reproduction information of each image in order of the shooting time and connects them. A list of scenario outlines is generated (S806 in FIG. 32).

ここで、図33に示したように、選択画像決定部509において、6枚の静止画像(画像8〜画像13)が選択された場合に生成されるシナリオ外枠を図34に示す。
図34は、シナリオ外枠を示す図である。
Here, as shown in FIG. 33, FIG. 34 shows a scenario outer frame generated when six selected still images (image 8 to image 13) are selected by the selected image determination unit 509.
FIG. 34 is a diagram showing a scenario outer frame.

図34に示すように、シナリオ外枠は、シナリオヘッダ710、シナリオ先頭リスト711、シナリオ第2リスト712、シナリオ第3リスト713、シナリオ第4リスト714、シナリオ第5リスト715、シナリオ第6リスト716およびシナリオ第7リスト717が、連結リスト化されることにより構成される。   As shown in FIG. 34, the scenario outline includes a scenario header 710, a scenario head list 711, a scenario second list 712, a scenario third list 713, a scenario fourth list 714, a scenario fifth list 715, and a scenario sixth list 716. The scenario seventh list 717 is formed as a linked list.

このとき、シナリオヘッダ710には、シナリオ名と画像数がセットされ、シナリオ先頭リスト711には、ショートフィルムのタイトル用に予め画像蓄積部504に格納されているタイトル画像(例えば、黒などの単一色の画面)の再生情報のうち画像ファイル名および画像蓄積部504における格納場所がセットされる。また、残りのシナリオ外枠の各リスト712〜717には、各画像の再生情報のうち画像ファイル名および画像蓄積部504における格納場所がセットされる。   At this time, the scenario header and the number of images are set in the scenario header 710, and a title image (for example, a single image such as black) stored in the image storage unit 504 in advance for the title of the short film is stored in the scenario head list 711. The image file name and the storage location in the image storage unit 504 are set. In addition, in each list 712 to 717 of the remaining scenario outer frames, the image file name and the storage location in the image storage unit 504 are set among the reproduction information of each image.

そして、シナリオヘッダ210の全再生時間や、シナリオ外枠の各リスト711〜717の視覚効果情報や再生時間情報は、この段階では空白状態となっている。
再び図32を参照してシナリオ生成部508の処理手順の説明を続けると、シナリオ生成部508は、生成したシナリオ外枠のシナリオ先頭リスト711を参照し(S808)、シナリオ先頭リスト711に示される画像に対して割り当てる視覚効果を決定する。
The total playback time of the scenario header 210 and the visual effect information and playback time information of each list 711 to 717 of the scenario outer frame are blank at this stage.
When the description of the processing procedure of the scenario generation unit 508 is continued with reference to FIG. 32 again, the scenario generation unit 508 refers to the scenario start list 711 of the generated scenario outer frame (S808) and is shown in the scenario start list 711. Determine the visual effects to assign to the image.

このとき、シナリオ生成部508は、画像ファイル名をチェックして、シナリオ先頭リスト711に示される画像が、タイトル画像であるか否かを判断する(S810)。
タイトル画像である場合(S810のYes)、シナリオ生成部508は、そのタイトル画像の画像中央部にユーザの選択した文字領域を埋め込むことを表す文字埋め込み効果を、シナリオ先頭リスト711の視覚効果情報に追加する(S812)。
At this time, the scenario generation unit 508 checks the image file name and determines whether the image shown in the scenario head list 711 is a title image (S810).
In the case of a title image (Yes in S810), the scenario generation unit 508 uses the character embedding effect representing embedding the character region selected by the user in the center of the image of the title image as the visual effect information in the scenario head list 711. It adds (S812).

タイトル画像ではなく、その他の画像の場合には(S810のNo)、シナリオ生成部508は、ランダム関数により乱数を発生させて4で除算して(S814)、除算した余りを求めることにより、画像に割り当てる視覚効果を決定する。   In the case of an image other than the title image (No in S810), the scenario generation unit 508 generates a random number using a random function, divides it by 4 (S814), and obtains the remainder by dividing the image. Determine the visual effects to assign to.

すなわち、シナリオ生成部508は、余りが1ならば(S816のYes)、画像に対するフェードイン効果をシナリオ先頭リスト711の視覚効果情報に追加し(S818)、余りが2ならば(S820のYes)、画像に対するフェードアウト効果をシナリオ先頭リスト711の視覚効果情報に追加する(S822)。また、余りが0ならば(S824のYes)、画像の中央部分へのズームイン効果をシナリオ先頭リスト711の視覚効果情報に追加し(S826)、余りが3ならば(S824のNo)、シナリオ先頭リスト711の視覚効果情報に視覚効果を施さないことを示すフラグを追加する。   That is, if the remainder is 1 (Yes in S816), the scenario generation unit 508 adds a fade-in effect to the image to the visual effect information in the scenario head list 711 (S818), and if the remainder is 2 (Yes in S820). Then, the fade-out effect for the image is added to the visual effect information in the scenario head list 711 (S822). If the remainder is 0 (Yes in S824), the zoom-in effect on the central portion of the image is added to the visual effect information in the scenario head list 711 (S826). If the remainder is 3 (No in S824), the scenario head A flag indicating that no visual effect is applied to the visual effect information in the list 711 is added.

さらに、シナリオ生成部508は、割り当てる視覚効果をシナリオ先頭リスト711に追加する際に、併せて画像の再生時間情報を設定して、シナリオ先頭リスト711の再生時間情報に追加する。ここでは、ズームイン効果を施す画像の再生時間は3秒(45フレーム)、それ以外の画像の再生時間は2秒(30フレーム)に設定する。   Further, when adding the visual effect to be assigned to the scenario head list 711, the scenario generation unit 508 also sets image playback time information and adds it to the playback time information of the scenario head list 711. Here, the reproduction time of the image to which the zoom-in effect is applied is set to 3 seconds (45 frames), and the reproduction time of the other images is set to 2 seconds (30 frames).

その後、シナリオ生成部508は、視覚効果情報および再生時間情報を追加したリストが最後のリストであるか否かを判断し(S828)、最後のリストであれば(S828のYes)、シナリオ生成の処理動作を終了し、最後のリストでなければ(S828のNo)、シナリオ外枠の次のリストを参照して(S830)、画像に対する視覚効果を決定する処理動作を繰り返す。   Thereafter, the scenario generation unit 508 determines whether or not the list to which the visual effect information and the reproduction time information are added is the last list (S828). If the list is the last list (Yes in S828), the scenario generation unit 508 determines whether the scenario is generated. When the processing operation is finished and the list is not the last list (No in S828), the next list in the scenario outer frame is referred to (S830), and the processing operation for determining the visual effect on the image is repeated.

このようにして、シナリオ生成部508が、再生順において先頭の画像(タイトル画像)から最後の画像(画像13)まで視覚効果を割り当てる処理動作を繰り返すと、図35に示すシナリオが完成する。   In this way, when the scenario generation unit 508 repeats the processing operation of assigning visual effects from the first image (title image) to the last image (image 13) in the playback order, the scenario shown in FIG. 35 is completed.

図35は、完成したシナリオを示す図である。
この完成したシナリオにおいて、シナリオヘッダ720には、全再生時間16秒を示す情報が記述され、タイトル画像の再生情報が記述されるシナリオ先頭リスト721には、文字埋め込み効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリスト722〜727にも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。
FIG. 35 is a diagram showing a completed scenario.
In this completed scenario, information indicating the total playback time of 16 seconds is described in the scenario header 720, and visual effect information to which the character embedding effect is assigned is described in the scenario head list 721 in which the playback information of the title image is described. Thus, reproduction time information of a reproduction time of 2 seconds is described. Similarly, in the lists 722 to 727 in which the reproduction information of each image is described, the visual effect information and the reproduction time information respectively assigned are described.

すなわち、この完成したシナリオによれば、タイトル画像、画像8、画像9、画像10、画像11、画像12、画像13の順に再生され、タイトル画像には文字埋め込み効果、画像8にはフェードイン効果、画像9にはズームイン効果、画像10にはフェードアウト効果、画像12にはズームイン効果をそれぞれに施すことが示されており、画像11および画像13には、視覚効果を施さないことが示されている。また、画像の再生時間は、それぞれ2秒、2秒、3秒、2秒、2秒、3秒、2秒(計16秒)であることが示されている。   That is, according to this completed scenario, the title image, the image 8, the image 9, the image 10, the image 11, the image 12, and the image 13 are reproduced in this order, and the title image has a character embedding effect and the image 8 has a fade-in effect. It is shown that the zoom-in effect is applied to the image 9, the fade-out effect is applied to the image 10, the zoom-in effect is applied to the image 12, and the visual effect is not applied to the images 11 and 13. Yes. In addition, it is shown that the reproduction times of the images are 2 seconds, 2 seconds, 3 seconds, 2 seconds, 2 seconds, 3 seconds, and 2 seconds (16 seconds in total), respectively.

この後、画像再生部506は、シナリオ生成部508により生成されたシナリオのアドレス情報を受け取り、シナリオ先頭リストを参照して、シナリオ先頭リストに格納された画像(タイトル画像)の再生情報を取得する。そして、画像再生部506は、取得した再生情報に基づいて画像蓄積部504から圧縮形式の静止画像データを読み出して解凍し、再生時間情報(フレーム数)に基づいて、時間管理を行いながら、視覚効果情報において指示された視覚効果(文字埋め込み効果)を施して、画像を再生し表示部507に出力表示させる。   Thereafter, the image playback unit 506 receives the address information of the scenario generated by the scenario generation unit 508, refers to the scenario head list, and acquires playback information of the image (title image) stored in the scenario head list. . Then, the image reproduction unit 506 reads out and decompresses still image data in a compressed format from the image storage unit 504 based on the acquired reproduction information, and performs visual management while performing time management based on the reproduction time information (number of frames). The visual effect (character embedding effect) indicated in the effect information is applied, and the image is reproduced and output and displayed on the display unit 507.

画像の再生が終了すると、画像再生部506は、シナリオの次のリストを参照して、次の画像(画像8)の再生情報を取得し、最後の画像(画像13)の再生処理が終了するまで、上記の処理動作を繰り返す。   When the image reproduction ends, the image reproduction unit 506 refers to the next list of scenarios, acquires reproduction information of the next image (image 8), and the reproduction processing of the last image (image 13) ends. Until the above processing is repeated.

このような処理動作を経て、ショートフィルム生成装置510が再生するショートフィルムの画面表示例を、図36および図37に示す。
図36は、ショートフィルム生成装置510の画面表示の第1例を示す図である。
36 and 37 show examples of screen display of a short film reproduced by the short film generating apparatus 510 through such processing operations.
FIG. 36 is a diagram illustrating a first example of a screen display of the short film generating apparatus 510.

図36では、タイトル画像の表示例である第1表示画像例730と、画像8〜13の表示例である第1表示画像例731〜第7表示画像例736との合計7枚の表示画像例が示されており、ショートフィルム生成装置510が第1表示画像例730から順に再生を開始していく様子が示されている。   In FIG. 36, a total of seven display image examples including a first display image example 730, which is a display example of a title image, and a first display image example 731 to a seventh display image example 736, which are display examples of images 8-13. The short film generation device 510 starts reproduction from the first display image example 730 in order.

ここで、第1表示画像例730は、図36のシナリオ先頭リスト721に従って再生されるタイトル画像であり、キー画像とされた画像10の文字領域、すなわち、第4表示画像例733に含まれる横長領域の第1文字領域733a("Broadway")を埋め込む視覚効果が割り当てられており、ショートフィルム生成装置510は、この第1表示画像例730を2秒間表示した後、第2表示画像例731に表示を切り替える。   Here, the first display image example 730 is a title image reproduced according to the scenario head list 721 of FIG. 36, and is a character region of the image 10 that is a key image, that is, a horizontally long image included in the fourth display image example 733. The visual effect of embedding the first character area 733a ("Broadway") of the area is assigned, and the short film generating apparatus 510 displays the first display image example 730 for 2 seconds, and then displays the first display image example 731 in the second display image example 731. Switch the display.

そして、第2表示画像例731は、図36のシナリオ第2リスト722に従って再生される画像8であり、フェードイン効果が割り当てられており、ショートフィルム生成装置510は、第1表示画像例730から第2表示画像例731に表示を切り替える際に、画像を徐々に鮮明にさせて第2表示画像例731を表示する。   The second display image example 731 is an image 8 reproduced in accordance with the scenario second list 722 of FIG. 36, to which a fade-in effect is assigned, and the short film generating apparatus 510 starts from the first display image example 730. When the display is switched to the second display image example 731, the second display image example 731 is displayed by gradually making the image clearer.

続いて、ショートフィルム生成装置510は、再生順に並べられた画像9〜画像13までを、同様にシナリオのリストに従って再生し、第3表示画像例732〜第7表示画像例736までを順に表示する。   Subsequently, the short film generating apparatus 510 similarly reproduces the images 9 to 13 arranged in the reproduction order according to the scenario list, and sequentially displays the third display image example 732 to the seventh display image example 736. .

なお、文字領域抽出部503において、抽出される文字領域は、漢字やアルファベットに限られるものでなく、平仮名文字などであってもよい。文字領域抽出部503が、パターンマッチング用のテンプレートを言語ごとに保持することによって、多言語に及ぶ文字領域の抽出を行なうことが可能となる。このことは、上記実施の形態1におけるオブジェクト判定部300や、上記実施の形態2においても同様である。   Note that the character region extracted by the character region extraction unit 503 is not limited to kanji or alphabet, but may be hiragana characters or the like. The character area extraction unit 503 holds a pattern matching template for each language, so that it is possible to extract character areas that span multiple languages. The same applies to the object determination unit 300 in the first embodiment and the second embodiment.

図37は、ショートフィルム生成装置510の画面表示の第2例を示す図である。
図37においても、図36と同様に、タイトル画像の表示例である第1表示画像例740と、第1表示画像例741〜第7表示画像例746の合計7枚の表示画像例が示されており、ショートフィルム生成装置510が第1表示画像例740から順に再生を開始していく様子が示されている。
FIG. 37 is a diagram illustrating a second example of the screen display of the short film generating apparatus 510.
FIG. 37 also shows a total of seven display image examples, a first display image example 740 that is a display example of a title image, and a first display image example 741 to a seventh display image example 746, as in FIG. It is shown that the short film generation apparatus 510 starts reproduction sequentially from the first display image example 740.

ここでは、第1表示画像例740に、第4表示画像例743(キー画像)に含まれる縦長領域の第1文字領域743a("鎌倉大仏")を埋め込む視覚効果が割り当てられていることが分かる。このように、縦長領域の文字領域をタイトル画像に埋め込むことも可能である。   Here, it is understood that the visual effect for embedding the first character region 743a ("Kamakura Daibutsu") in the vertically long region included in the fourth display image example 743 (key image) is assigned to the first display image example 740. . In this way, it is possible to embed a vertically long character area in a title image.

また、第5表示画像例744では、これに含まれる平仮名の第2文字領域744b("おみくじ")が抽出されていることが分かる。このように、平仮名の文字領域を抽出することも可能である。   Further, in the fifth display image example 744, it can be seen that the second character area 744b ("Omikuji") of Hiragana included therein is extracted. In this way, it is also possible to extract the character area of Hiragana.

このように、本実施の形態3のショートフィルム生成装置510によれば、ユーザにより選択された文字領域を含む静止画像をキー画像として、シナリオ生成部508が再生する画像を自動選択するので、ユーザが再生する画像を選択するという手間を省くことができる。   As described above, according to the short film generating apparatus 510 of the third embodiment, since the still image including the character area selected by the user is used as a key image, an image to be reproduced by the scenario generation unit 508 is automatically selected. Can save the trouble of selecting an image to be played.

また、ユーザにより選択された文字領域を、タイトル画像に自動で埋め込むので、ユーザがタイトルに使用する文字をキーボード等を用いて入力する必要をなくすこともできる。   In addition, since the character region selected by the user is automatically embedded in the title image, it is possible to eliminate the need for the user to input characters used for the title using a keyboard or the like.

なお、本実施の形態3では、ユーザが操作入力部501を介して文字領域を候補から選択するようにしたが、シナリオ生成部508が文字領域の大きさ等の条件から判断して、自動決定するようにしてもよい。ここで、ショートフィルム生成装置510は、デフォルト値でタイトル画像に用いる文字領域を自動決定することとし、操作入力部501がユーザからタイトル用の文字入力を受け付けた場合には、ユーザの所望するタイトル文字をタイトル画像に用いることとしてもよい。   In the third embodiment, the user selects a character area from the candidates via the operation input unit 501. However, the scenario generation unit 508 automatically determines the character area based on conditions such as the size of the character area. You may make it do. Here, the short film generating apparatus 510 automatically determines a character area to be used for a title image with a default value, and when the operation input unit 501 receives a character input for a title from the user, the title desired by the user is determined. Characters may be used for the title image.

また、選択画像決定部509は、ユーザにより選択されたキー画像の撮影時刻を基準に前後所定時間内に撮影された画像を再生する画像として選択するとしたが、選択画像決定部509は、キー画像からの時間範囲ではなく、画像を撮影時刻順に並べて次の画像との撮影時刻間隔をチェックして所定時間以上の間隔がある場合に、その次の画像を別グループとして区切ってグループ分けを行ない、キー画像が含まれるグループに属する画像を再生する画像として選択することとしてもよい。   In addition, the selected image determining unit 509 selects the image captured within a predetermined time period before and after the key image selected by the user as a reference, but the selected image determining unit 509 selects the key image. If there is an interval of a predetermined time or more by checking the shooting time interval with the next image by arranging the images in order of shooting time instead of the time range from, the next image is divided into another group and grouped, An image belonging to the group including the key image may be selected as an image to be reproduced.

さらに、シナリオ生成部508は、シナリオの先頭リストにタイトル画像の再生情報を配置しているが、シナリオ中に配置せずに、画像再生部506がシナリオ実行前に文字領域を組み込んだタイトル画像を表示部507に出力表示するとしてもよい。また、タイトル画像についても、黒画面でなく、キー画像そのものをタイトル画像として使用してもよい。   Furthermore, the scenario generation unit 508 arranges the reproduction information of the title image in the scenario top list, but without the arrangement in the scenario, the image reproduction unit 506 adds the title image in which the character area is embedded before the scenario is executed. The output may be displayed on the display unit 507. As for the title image, the key image itself may be used as the title image instead of the black screen.

また、上記実施の形態2と同様に、デジタルカメラ100で撮影された画像は、画像入力部502を介して装置内に直接取り込まれるとしたが、デジタルカメラ100で撮影された画像をメモリカード等の記録媒体を介して装置内に取り込むようにしてもよい。   Further, as in the second embodiment, the image captured by the digital camera 100 is directly taken into the apparatus via the image input unit 502. However, the image captured by the digital camera 100 is stored in a memory card or the like. You may make it take in in an apparatus via this recording medium.

また、上記実施の形態2と同様に、本実施の形態3における画像または画像に含まれる文字領域に施す視覚効果は、例示に過ぎず、これらの視覚効果に限定されるものでないことは、言うまでもない。   Further, as in the second embodiment, the visual effect applied to the image or the character area included in the image in the third embodiment is merely an example, and it goes without saying that the visual effect is not limited to these visual effects. Yes.

本発明に係る画像表示装置は、携帯型端末、例えば、携帯電話機やPDAなどのような、原画像の画素数よりも少ない画素数の表示装置を備える画像表示装置として有用である。   The image display device according to the present invention is useful as an image display device including a display device having a number of pixels smaller than the number of pixels of the original image, such as a portable terminal such as a mobile phone or a PDA.

また、本発明に係るショートフィルム生成装置は、画像再生機能付き携帯電話機やパーソナルコンピュータ等への適用が可能であり、特に、大量の静止画像データを格納しているパーソナルコンピュータ等に好適である。   The short film generation apparatus according to the present invention can be applied to a mobile phone with an image reproduction function, a personal computer, and the like, and is particularly suitable for a personal computer storing a large amount of still image data.

デジタルカメラおよび画像表示装置を有する携帯電話機の外観構成を示す図である。It is a figure which shows the external appearance structure of the mobile telephone which has a digital camera and an image display apparatus. 実施の形態1における画像表示装置のブロック構成を模式的に示した図である。1 is a diagram schematically showing a block configuration of an image display device in Embodiment 1. FIG. 外部インタフェース部およびオブジェクト判定部における原画像入力時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the original image input in an external interface part and an object determination part. 画像保持部に格納される原画像を示す図である。It is a figure which shows the original image stored in an image holding part. オブジェクト情報の構成例を示す図である。It is a figure which shows the structural example of object information. オブジェクト候補の抽出例を示す図である。It is a figure which shows the example of extraction of an object candidate. オブジェクト優先度設定テーブルの構成例を示す図である。It is a figure which shows the structural example of an object priority setting table. 表示用画像生成部のサムネイル画像生成処理部におけるサムネイル画像生成時のアルゴリズムを示すフローチャートである。It is a flowchart which shows the algorithm at the time of the thumbnail image generation in the thumbnail image generation process part of the image generation part for a display. 図9(a)は、本発明に係る画像表示装置において、サムネイル画像について一覧表示した例を示す図であり、図9(b)は、従来の画像表示装置において、サムネイル画像について一覧表示した例を示す図である。FIG. 9A is a diagram showing an example in which thumbnail images are listed in the image display device according to the present invention, and FIG. 9B is an example in which thumbnail images are listed in the conventional image display device. FIG. 表示用画像生成処理を示すフローチャートである。It is a flowchart which shows the image generation process for a display. エフェクトの種別に応じた表示用画像生成処理のサブルーチンを示すフローチャートである。It is a flowchart which shows the subroutine of the display image generation process according to the kind of effect. 図12(a)は、拡大画像を示す図であり、図12(b)は、全体画像を示す図である。FIG. 12A is a diagram showing an enlarged image, and FIG. 12B is a diagram showing an entire image. 図13(a)は、視点移動前の表示画像を示す図であり、図13(b)は、視点移動後の表示画像を示す図である。FIG. 13A is a diagram showing a display image before the viewpoint is moved, and FIG. 13B is a diagram showing a display image after the viewpoint is moved. 図14(a)は、ズームインしたときの表示画像を示す図であり、図14(b)は、ズームアウトしたときの表示画像を示す図である。FIG. 14A shows a display image when zoomed in, and FIG. 14B shows a display image when zoomed out. 図15(a)は、切り取り処理したときの、処理前の表示画像を示す図であり、図15(b)は、処理後の表示画像を示す図である。FIG. 15A is a diagram showing a display image before processing when the cut processing is performed, and FIG. 15B is a diagram showing a display image after processing. スライドショー部が実行する処理を示すフローチャートである。It is a flowchart which shows the process which a slide show part performs. 拡大画像と縮小画像とを交互に自動的に表示する場合の表示画像を示す図である。It is a figure which shows the display image in the case of automatically displaying a magnified image and a reduced image alternately. 画面中に、拡大画像の表示の際には「戻る」、「全体」、「保存」のアイコンを、縮小画像の表示の際には「戻る」、「拡大」、「保存」のアイコンを、表示した場合の表示例を示す図である。On the screen, icons for "Back", "Whole", and "Save" are displayed for the enlarged image, and icons for "Back", "Enlarged", and "Save" are displayed for the reduced image. It is a figure which shows the example of a display at the time of displaying. 全体画像から人の顔の拡大画像まで徐々に倍率を変更して滑らかに移行する場合の表示画像の表示例を示す図である。It is a figure which shows the example of a display image in the case of changing a magnification gradually from a whole image to the enlarged image of a person's face, and changing smoothly. 図20(a)および図20(b)は、所定の視覚効果を加えながら表示する場合の処理を説明するための図である。FIG. 20A and FIG. 20B are diagrams for explaining processing in the case of displaying while adding a predetermined visual effect. 図20(a)および図20(b)に示される処理を行った場合の時間軸で推移する表示例を示す図である。It is a figure which shows the example of a display which changes on a time axis at the time of performing the process shown by Fig.20 (a) and FIG.20 (b). 実施の形態2におけるショートフィルム生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the short film production | generation apparatus in Embodiment 2. FIG. 実施の形態2における文字領域抽出部の処理手順を示すフロー図である。FIG. 10 is a flowchart showing a processing procedure of a character area extraction unit in the second embodiment. 実施の形態2におけるシナリオ生成部の処理手順を示すフロー図である。FIG. 10 is a flowchart showing a processing procedure of a scenario generation unit in the second embodiment. 実施の形態2におけるシナリオ外枠を示す図である。It is a figure which shows the scenario outer frame in Embodiment 2. FIG. 実施の形態2における完成したシナリオを示す図である。It is a figure which shows the completed scenario in Embodiment 2. FIG. 実施の形態2における画像再生部の処理手順を示すフロー図である。FIG. 10 is a flowchart showing a processing procedure of an image reproduction unit in the second embodiment. 実施の形態2のショートフィルム生成装置による画面表示の第1例を示す図である。It is a figure which shows the 1st example of the screen display by the short film production | generation apparatus of Embodiment 2. FIG. 実施の形態2のショートフィルム生成装置による画面表示の第2例を示す図である。It is a figure which shows the 2nd example of the screen display by the short film production | generation apparatus of Embodiment 2. FIG. 実施の形態2のショートフィルム生成装置による画面表示の第3例を示す図である。It is a figure which shows the 3rd example of the screen display by the short film production | generation apparatus of Embodiment 2. FIG. 実施の形態3におけるショートフィルム生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the short film production | generation apparatus in Embodiment 3. FIG. 実施の形態3におけるシナリオ生成部の処理手順を示すフロー図である。FIG. 10 is a flowchart showing a processing procedure of a scenario generation unit in the third embodiment. 実施の形態3における画像選択を模式的に示す図である。10 is a diagram schematically showing image selection in Embodiment 3. FIG. 実施の形態3におけるシナリオ外枠を示す図である。FIG. 10 is a diagram showing a scenario outer frame in the third embodiment. 実施の形態3における完成したシナリオを示す図である。FIG. 10 is a diagram illustrating a completed scenario in the third embodiment. 実施の形態3のショートフィルム生成装置による画面表示の第1例を示す図である。It is a figure which shows the 1st example of the screen display by the short film production | generation apparatus of Embodiment 3. FIG. 実施の形態3のショートフィルム生成装置による画面表示の第2例を示す図である。It is a figure which shows the 2nd example of the screen display by the short film production | generation apparatus of Embodiment 3. FIG. 従来におけるショートフィルム生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the conventional short film production | generation apparatus. 従来におけるシナリオ生成部の処理手順を示すフロー図である。It is a flowchart which shows the process sequence of the conventional scenario production | generation part. 従来におけるシナリオ外枠を示す図である。It is a figure which shows the conventional scenario outer frame. 従来における完成したシナリオの第1例を示す図である。It is a figure which shows the 1st example of the completed scenario in the past. 従来における完成したシナリオの第2例を示す図である。It is a figure which shows the 2nd example of the completed scenario in the past. 従来におけるショートフィルム生成装置による画面表示例を示す図である。It is a figure which shows the example of a screen display by the conventional short film production | generation apparatus.

符号の説明Explanation of symbols

1 画像表示装置
10 外部インタフェース部
20 メモリ部
30 オブジェクト判定部
40 表示用画像生成部
50 表示器
100、910 デジタルカメラ
110 画像撮像部
120 画像入力部
130 ユーザIF部
210 画像保持部
250 表示用画像保持部
310 オブジェクト候補抽出部
320 オブジェクト候補判定部
330 オブジェクト優先度判定部
410 サムネイル画像生成処理部
420 拡大縮小処理部
430 視点移動処理部
440 ズームイン・アウト処理部
450 切り出し処理部
460 スライドショー
500、510、900 ショートフィルム生成装置
501、901 操作入力部
502、902 画像入力部
503 文字領域抽出部
504、903 画像蓄積部
505、508、904 シナリオ生成部
506、905 画像再生部
507、906 表示部
509 選択画像決定部
600、610、710、720、920、930、940 シナリオヘッダ
601、611、711、721、921、931、941 シナリオ先頭リスト
602、612、712、722、922、932、942 シナリオ第2リスト
603、613、713、723、923、933、943 シナリオ第3リスト
604、614、714、724、924、934、944 シナリオ第4リスト
605、615、715、725、925、935、945 シナリオ第5リスト
623、633、643、730、740 第1表示画像例
623a、633a、643a、731、741 第2表示画像例
623b、643b、732、742 第3表示画像例
623c、643c、733、743 第4表示画像例
624、634、644、731a〜736a、741a〜746a 第1文字領域
700 キー画像
701 選択画像
716、726、946 シナリオ第6リスト
717、727 シナリオ第7リスト
734、744 第5表示画像例
744b 第2文字領域
735、745 第6表示画像例
736、746 第7表示画像例
950 表示画像例
951 第1表示領域
952 表示推移線
953 第2表示領域
DESCRIPTION OF SYMBOLS 1 Image display apparatus 10 External interface part 20 Memory part 30 Object determination part 40 Display image generation part 50 Display 100,910 Digital camera 110 Image pick-up part 120 Image input part 130 User IF part 210 Image holding part 250 Image holding part for display Unit 310 object candidate extraction unit 320 object candidate determination unit 330 object priority determination unit 410 thumbnail image generation processing unit 420 enlargement / reduction processing unit 430 viewpoint movement processing unit 440 zoom in / out processing unit 450 cut out processing unit 460 slide show 500, 510, 900 Short film generation apparatus 501, 901 Operation input unit 502, 902 Image input unit 503 Character area extraction unit 504, 903 Image storage unit 505, 508, 904 Scenario generation unit 506, 90 Image playback unit 507, 906 Display unit 509 Selected image determination unit 600, 610, 710, 720, 920, 930, 940 Scenario header 601, 611, 711, 721, 921, 931, 941 Scenario head list 602, 612, 712, 722, 922, 932, 942 Scenario second list 603, 613, 713, 723, 923, 933, 943 Scenario third list 604, 614, 714, 724, 924, 934, 944 Scenario fourth list 605, 615, 715 , 725, 925, 935, 945 Scenario 5th list 623, 633, 643, 730, 740 First display image example 623a, 633a, 643a, 731, 741 Second display image example 623b, 643b, 732, 742 Third display Image example 623c, 6 3c, 733, 743 Fourth display image example 624, 634, 644, 731a to 736a, 741a to 746a First character area 700 Key image 701 Selected image 716, 726, 946 Scenario sixth list 717, 727 Scenario seventh list 734 744, fifth display image example 744b second character area 735, 745 sixth display image example 736, 746 seventh display image example 950 display image example 951 first display area 952 display transition line 953 second display area

Claims (8)

画像を表示する表示手段を備える画像表示装置であって、
前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段と、
前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定手段と、
ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成手段とを備え
前記オブジェクト判定手段は、
オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定部と、
判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定部とを有し、
前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出する
ことを特徴とする画像表示装置。
An image display device comprising display means for displaying an image,
Original image holding means for holding an original image formed with a number of pixels larger than the number of displayable pixels in the display means;
Object determination that determines whether or not an object is included in the original image held in the original image holding means, and generates object information on each object when at least one or more objects are included Means,
Based on the original image designated by the user and at least one or more pieces of the object information corresponding to the original image, at least a part of the object area that is an area including the object in the original image is converted into the original image. A display image generating unit that extracts the image and generates a display image in accordance with the number of displayable pixels in the display unit ;
The object determination means includes
Based on the shape of the object, the type of the object is determined from among a plurality of types of objects including a plurality of types of persons, animals, plants, movables, and real estate. An object type determination unit embedded in the object information;
An object priority setting unit that embeds the priority corresponding to the determined type of the object in the object information;
The display image generating means generates an object region corresponding to the object information indicating that the priority is high among at least one of the object information based on the priority embedded in the object information. An image display device characterized by being extracted from an image.
前記オブジェクト判定手段は、
前記原画像に含まれるオブジェクトの位置および大きさを抽出し、抽出したオブジェクトの位置および大きさを前記オブジェクト情報に埋め込むオブジェクト抽出部を備え、
前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置および大きさに基づいて、前記原画像から抽出する部分を決定する
ことを特徴とする請求項1記載の画像表示装置。
The object determination means includes
An object extraction unit that extracts the position and size of an object included in the original image and embeds the extracted position and size of the object in the object information;
The image display apparatus according to claim 1, wherein the display image generation unit determines a portion to be extracted from the original image based on a position and a size of an object embedded in the object information.
前記表示用画像生成手段は、さらに、
前記オブジェクト情報に基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、予め定められた画素数のサムネイル画像を生成するサムネイル画像生成手段を備える
ことを特徴とする請求項1または2記載の画像表示装置。
The display image generation means further includes:
Based on the object information, thumbnail image generation for extracting at least a part of an object area, which is an area including an object in the original image, from the original image and generating a thumbnail image having a predetermined number of pixels The image display apparatus according to claim 1, further comprising: means.
前記原画像保持手段には、複数の原画像が保持されており、
前記表示用画像生成手段は、前記サムネイル画像生成手段が生成した各原画像のサムネイル画像を、前記表示手段に一覧表示させる
ことを特徴とする請求項記載の画像表示装置。
The original image holding means holds a plurality of original images,
4. The image display device according to claim 3 , wherein the display image generating means causes the display means to display a list of thumbnail images of the original images generated by the thumbnail image generating means.
前記予め定められた画素数は、前記表示手段において1のサムネイル画像の表示に割り当てられた画素数である
ことを特徴とする請求項記載の画像表示装置。
The image display device according to claim 4, wherein the predetermined number of pixels is the number of pixels assigned to display one thumbnail image in the display unit.
前記表示用画像生成手段は、前記原画像から抽出する部分の画素数が、前記表示手段における表示可能な画素数となるように、前記原画像から抽出する部分を決定する
ことを特徴とする請求項1〜5の何れか1項に記載の画像表示装置。
The display image generating means determines a portion to be extracted from the original image so that the number of pixels extracted from the original image is equal to the number of pixels that can be displayed on the display means. Item 6. The image display device according to any one of Items 1 to 5 .
画像を表示する表示手段を備える画像表示装置における画像表示方法であって、
前記画像表示装置は、
前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段を備えており、
前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定ステップと、
ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成ステップとを含み、
前記オブジェクト判定ステップは、
オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定ステップと、
判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定ステップとを含み、
前記表示用画像生成ステップでは、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出する
ことを特徴とする画像表示方法。
An image display method in an image display device comprising display means for displaying an image,
The image display device includes:
An original image holding means for holding an original image formed with a larger number of pixels than the displayable number of pixels in the display means;
Object determination that determines whether or not an object is included in the original image held in the original image holding means, and generates object information about each object when at least one or more objects are included Steps,
Based on the original image designated by the user and at least one or more pieces of the object information corresponding to the original image, at least a part of the object area that is an area including the object in the original image is converted to the original image. extracted from the image, seen including a display image generating step of generating a display image matched to the number of pixels that can be displayed on the display means,
The object determination step includes
Based on the shape of the object, from among a plurality of object types including a plurality of types of person, animal, plant, movable property, and real estate, determine the type of one object, and determine the determined object type An object type determination step embedded in the object information;
An object priority setting step for further embedding the priority corresponding to the determined type of the object in the object information,
In the display image generation step, based on the priority embedded in the object information, an object region corresponding to the object information indicating that the priority is high among at least one or more of the object information. An image display method characterized by extracting from an image.
画像を表示する表示手段を備える画像表示装置のためのプログラムであって、
前記画像表示装置は、
前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段を備えており、
前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定ステップと、
ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成ステップとをコンピュータに実行させ
前記オブジェクト判定ステップは、
オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定ステップと、
判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定ステップとを含み、
前記表示用画像生成ステップでは、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出する
ことを特徴とするプログラム。
A program for an image display device comprising display means for displaying an image,
The image display device includes:
An original image holding means for holding an original image formed with a larger number of pixels than the displayable number of pixels in the display means;
Object determination that determines whether or not an object is included in the original image held in the original image holding means, and generates object information about each object when at least one or more objects are included Steps,
Based on the original image designated by the user and at least one or more pieces of the object information corresponding to the original image, at least a part of the object area that is an area including the object in the original image is converted to the original image. Extracting from the image, causing the computer to execute a display image generation step for generating a display image in accordance with the number of displayable pixels in the display means ,
The object determination step includes
Based on the shape of the object, from among a plurality of object types including a plurality of types of person, animal, plant, movable property, and real estate, determine the type of one object, and determine the determined object type An object type determination step embedded in the object information;
An object priority setting step for further embedding the priority corresponding to the determined type of the object in the object information,
In the display image generation step, based on the priority embedded in the object information, an object region corresponding to the object information indicating that the priority is high among at least one or more of the object information. A program characterized by extracting from an image .
JP2004173149A 2003-07-11 2004-06-10 Image display device, image display method, and program Expired - Lifetime JP4519531B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004173149A JP4519531B2 (en) 2003-07-11 2004-06-10 Image display device, image display method, and program

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2003273762 2003-07-11
JP2003277429 2003-07-22
JP2004173149A JP4519531B2 (en) 2003-07-11 2004-06-10 Image display device, image display method, and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2010068942A Division JP4990994B2 (en) 2003-07-11 2010-03-24 Short film generating apparatus, short film generating method, program, and recording medium

Publications (2)

Publication Number Publication Date
JP2005056390A JP2005056390A (en) 2005-03-03
JP4519531B2 true JP4519531B2 (en) 2010-08-04

Family

ID=34381759

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004173149A Expired - Lifetime JP4519531B2 (en) 2003-07-11 2004-06-10 Image display device, image display method, and program

Country Status (1)

Country Link
JP (1) JP4519531B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010166608A (en) * 2003-07-11 2010-07-29 Panasonic Corp Short film producing device, short film producing method, program, and recording medium

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4581924B2 (en) 2004-09-29 2010-11-17 株式会社ニコン Image reproducing apparatus and image reproducing program
JP4647343B2 (en) * 2005-02-28 2011-03-09 富士フイルム株式会社 Photo movie creation device and photo movie creation program
JP4635675B2 (en) * 2005-03-24 2011-02-23 カシオ計算機株式会社 Imaging apparatus and program
JP4591167B2 (en) * 2005-04-13 2010-12-01 ノーリツ鋼機株式会社 Image processing method
JP4779500B2 (en) * 2005-08-24 2011-09-28 株式会社ニコン Control device, display device, and control program
JP4741916B2 (en) * 2005-09-21 2011-08-10 株式会社リコー Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program for executing the method
JP2007089086A (en) 2005-09-26 2007-04-05 Sony Ericsson Mobilecommunications Japan Inc Personal digital assistant and image management program
JP4559964B2 (en) * 2005-12-26 2010-10-13 株式会社日立国際電気 Image processing program
JP2007243411A (en) * 2006-03-07 2007-09-20 Fujifilm Corp Image processing apparatus, method and program
JP4799367B2 (en) * 2006-10-27 2011-10-26 三洋電機株式会社 Image reproducing apparatus and method, and imaging apparatus
JP2008122772A (en) * 2006-11-14 2008-05-29 Seiko Epson Corp Image display device, image display method, and its program
US20100122204A1 (en) * 2007-05-04 2010-05-13 Koninklijke Philips Electronics N.V. Automatic display of symmetric anatomical structure
JP2010175316A (en) * 2009-01-28 2010-08-12 Yupiteru Corp Gps instrument and program
JP4987943B2 (en) 2009-11-11 2012-08-01 株式会社東芝 Electronic apparatus and image display method
SG185147A1 (en) 2011-04-08 2012-11-29 Creative Tech Ltd A method, system and electronic device for at least one of efficient graphic processing and salient based learning
JP5868145B2 (en) * 2011-11-29 2016-02-24 キヤノン株式会社 Image processing apparatus and control method thereof
JP6091907B2 (en) * 2013-01-23 2017-03-08 Kddi株式会社 Terminal device and display program
JP6278702B2 (en) * 2013-12-27 2018-02-14 キヤノン株式会社 Imaging apparatus, control method therefor, and program
JP2015215740A (en) 2014-05-09 2015-12-03 キヤノン株式会社 Information processing device, information processing method and program
JP5925275B2 (en) * 2014-10-11 2016-05-25 オリンパス株式会社 Imaging apparatus and imaging method
JP2019036064A (en) * 2017-08-10 2019-03-07 ヤフー株式会社 Advertising video creation support device, advertising video creation support method and advertising video creation support program
CN114554109B (en) * 2020-11-26 2024-07-19 华为技术有限公司 Image frame self-adaptive clipping method and electronic equipment

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358522A (en) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd Device, method and program for supporting image selection
JP2003108979A (en) * 2001-09-27 2003-04-11 Fuji Photo Film Co Ltd Face area extraction method, device and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002358522A (en) * 2001-05-31 2002-12-13 Olympus Optical Co Ltd Device, method and program for supporting image selection
JP2003108979A (en) * 2001-09-27 2003-04-11 Fuji Photo Film Co Ltd Face area extraction method, device and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010166608A (en) * 2003-07-11 2010-07-29 Panasonic Corp Short film producing device, short film producing method, program, and recording medium

Also Published As

Publication number Publication date
JP2005056390A (en) 2005-03-03

Similar Documents

Publication Publication Date Title
JP4990994B2 (en) Short film generating apparatus, short film generating method, program, and recording medium
JP4519531B2 (en) Image display device, image display method, and program
JP4774816B2 (en) Image processing apparatus, image processing method, and computer program.
US6961446B2 (en) Method and device for media editing
JP3793142B2 (en) Moving image processing method and apparatus
JP4782105B2 (en) Image processing apparatus and image processing method
US20070025637A1 (en) Retargeting images for small displays
US20100182501A1 (en) Information processing apparatus, information processing method, and program
JP2011081556A (en) Information processor, method of processing information, program, and server
KR20070009174A (en) Image extraction combination system and the method, and the image search method which uses it
JP2011119974A (en) Panoramic image synthesizer, panoramic image synthesis method, and program
JP5892068B2 (en) Image display device, image list display method, and image list display program
JP6314427B2 (en) Imaging apparatus, information processing apparatus, control method, and program
KR101011194B1 (en) Mobile apparatus with a picture conversion and drawing function and method of the same
JP2000023036A (en) Image data processing method and its device and storage medium
US20070211961A1 (en) Image processing apparatus, method, and program
JP2009081592A (en) Video image recording apparatus
KR101738896B1 (en) Fitting virtual system using pattern copy and method therefor
JP2010097449A (en) Image composition device, image composition method and image composition program
JPH113346A (en) Moving image file managing device
KR20140127131A (en) Method for displaying image and an electronic device thereof
JP4200858B2 (en) Information processing apparatus and method, recording medium, and program
JP5392244B2 (en) Imaging apparatus, control method, and program
JP3993003B2 (en) Display instruction apparatus, display system, display instruction program, terminal, and program
JP2005191770A (en) Highlight still image generating/distributing system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070328

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100202

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100420

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100519

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4519531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3