JP4519531B2 - Image display device, image display method, and program - Google Patents
Image display device, image display method, and program Download PDFInfo
- Publication number
- JP4519531B2 JP4519531B2 JP2004173149A JP2004173149A JP4519531B2 JP 4519531 B2 JP4519531 B2 JP 4519531B2 JP 2004173149 A JP2004173149 A JP 2004173149A JP 2004173149 A JP2004173149 A JP 2004173149A JP 4519531 B2 JP4519531 B2 JP 4519531B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- display
- unit
- scenario
- original image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 64
- 238000000605 extraction Methods 0.000 claims description 49
- 239000000284 extract Substances 0.000 claims description 14
- 241001465754 Metazoa Species 0.000 claims description 6
- 230000000007 visual effect Effects 0.000 description 108
- 230000000694 effects Effects 0.000 description 81
- 238000003860 storage Methods 0.000 description 36
- 238000010586 diagram Methods 0.000 description 31
- 230000008569 process Effects 0.000 description 31
- 230000009467 reduction Effects 0.000 description 23
- 230000033001 locomotion Effects 0.000 description 18
- 238000004519 manufacturing process Methods 0.000 description 14
- 210000000481 breast Anatomy 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 238000007726 management method Methods 0.000 description 5
- 230000007704 transition Effects 0.000 description 5
- 230000015556 catabolic process Effects 0.000 description 4
- 230000006835 compression Effects 0.000 description 4
- 238000007906 compression Methods 0.000 description 4
- 238000006731 degradation reaction Methods 0.000 description 4
- 238000003825 pressing Methods 0.000 description 4
- 238000005520 cutting process Methods 0.000 description 3
- 230000006866 deterioration Effects 0.000 description 3
- 239000004973 liquid crystal related substance Substances 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 241000196324 Embryophyta Species 0.000 description 2
- 241000282326 Felis catus Species 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000012015 optical character recognition Methods 0.000 description 2
- 235000005979 Citrus limon Nutrition 0.000 description 1
- 244000131522 Citrus pyriformis Species 0.000 description 1
- 241001672694 Citrus reticulata Species 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000012141 concentrate Substances 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- -1 silver halide Chemical class 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Processing Or Creating Images (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
- Studio Devices (AREA)
- Controls And Circuits For Display Device (AREA)
Description
本発明は、静止画像の画像処理および表示技術に関し、特に、画像表示の際に抽出するオブジェクトを考慮した領域制御や、少なくとも1つ以上の静止画像を用いて短編の映像を生成および再生する技術に関する。 The present invention relates to still image processing and display technology, and more particularly, to region control in consideration of an object to be extracted at the time of image display, and to generate and reproduce a short video using at least one or more still images. About.
2001年日本国内のカメラ市場において、デジタルスチルカメラ(以下、「デジタルカメラ」という。)の出荷数が銀塩カメラの出荷数を超え、今後、さらにその格差が広がると予測されている。また、近年の携帯電話市場では、デジタルカメラ付の携帯電話機が多数リリースされ、それらのモデルは多大な人気を集めている。このように、デジタルカメラのユーザは増加の一途を辿っている。 In the Japanese camera market in 2001, the number of digital still cameras (hereinafter referred to as “digital cameras”) shipped exceeds the number of silver halide cameras shipped, and it is predicted that the gap will further widen in the future. In the recent mobile phone market, a large number of mobile phones with digital cameras have been released, and their models are gaining great popularity. Thus, the number of digital camera users is increasing.
一方、画像表示機能を有する携帯型端末(例えば、携帯電話機など)も、一人1台ずつ所持するほど普及しており、その携帯型端末の画像表示装置(以下、単に「画像表示装置」とも記す。)にデジタルカメラで撮影した画像を表示させたいといった要求が日増しに増大している。 On the other hand, portable terminals (for example, mobile phones) having an image display function have become so popular as to be held one by one, and the image display apparatus of the portable terminal (hereinafter simply referred to as “image display apparatus”). The demand for displaying images taken with a digital camera is increasing day by day.
一般に、デジタルカメラ等の画像形成装置は、被写体を1280×960画素で撮影して、その1280×960画素の画像(以下、この画像を「原画像」とも記す。)と、160×120画素のサムネイル画像とを、EXIF形式で、SDメモリーカード(登録商標)などの記録媒体に記録する。一方、画像表示装置の表示器は、最大で240×320画素(QVGA)程度の表示である。 In general, an image forming apparatus such as a digital camera captures a subject with 1280 × 960 pixels, an image of 1280 × 960 pixels (hereinafter, this image is also referred to as “original image”), and 160 × 120 pixels. The thumbnail image is recorded in a recording medium such as an SD memory card (registered trademark) in the EXIF format. On the other hand, the display of the image display device displays a maximum of about 240 × 320 pixels (QVGA).
このように、画像表示装置の表示器と画像表示装置に表示しようとする画像(表示用画像)との間の解像度に差がある場合は、どちらかの解像度にあわせて表示用画像を拡大・縮小する必要がある。 As described above, when there is a difference in resolution between the display of the image display device and the image (display image) to be displayed on the image display device, the display image is enlarged or reduced in accordance with either resolution. Need to shrink.
そのため、従来の画像形成装置に関する技術として、携帯電話機等において、表示しようとする画像が表示領域に収まるかどうかを判断し、原画像が表示領域のサイズに収まらない場合には、別途記憶しているサムネイル画像を表示する手法が提案されている(例えば、特許文献1参照。)。 Therefore, as a technique related to a conventional image forming apparatus, in a mobile phone or the like, it is determined whether or not an image to be displayed fits in the display area. If the original image does not fit in the display area size, it is stored separately. A method for displaying a thumbnail image is proposed (see, for example, Patent Document 1).
ところで、デジタルカメラやカメラ付き携帯電話機等の普及に伴って、大量のデジタル静止画像(Digital Still Picture、以下、「静止画像」という。)を保有するユーザの増加も著しい。これらの静止画像は、一般的には、パーソナルコンピュータのディスクドライブに溜め込まれており、この大量の静止画像を再生する装置として、静止画像から映画のような短編の映像(ショートフィルム)を生成し、再生するショートフィルム生成装置も提案されている。例えば、特許文献2には、動的画像処理内容および時間的処理手順(シナリオ)に基づいて視覚効果を施しながら、静止画像を再生する技術が開示されている。
By the way, with the spread of digital cameras and camera-equipped mobile phones, the number of users who have a large amount of digital still images (hereinafter referred to as “still images”) has increased remarkably. These still images are generally stored in a disk drive of a personal computer, and as a device for reproducing this large amount of still images, short images (short films) such as movies are generated from the still images. An apparatus for generating a short film for reproduction has also been proposed. For example,
図38は、従来におけるショートフィルム生成装置の構成を示すブロック図である。
この従来におけるショートフィルム生成装置900は、操作入力部901、画像入力部902、画像蓄積部903、シナリオ生成部904、画像再生部905および表示部906から構成される。
FIG. 38 is a block diagram showing a configuration of a conventional short film generating apparatus.
The conventional short
操作入力部901は、静止画像データの取り込み指示や、静止画像の選択等、ユーザからの操作入力を受け付ける。
画像入力部902は、デジタルカメラ910等で撮影されたJPEG圧縮形式の静止画像データを、装置内に取り込む。
The
The
画像蓄積部903は、取り込まれた静止画像データを蓄積する。
シナリオ生成部904は、ユーザの選択した静止画像を元に、静止画像の再生順および視覚効果を決定し、再生情報であるシナリオを生成してメモリに保持する。ここで、シナリオとは、MPEGに代表されるような動画像データそのものではなく、時系列に視覚効果(エフェクト)、エフェクトの動作を規定するパラメータ、エフェクトの対象となる静止画へのポインタ、再生時間などを、XMLに代表されるようなスクリプト言語によって、記述したものである。
The
The
画像再生部905は、生成されたシナリオに従って画像蓄積部903から静止画像データを読み出して、指定された視覚効果を施しながら15フレーム/秒で再生する動作を繰り返す。
The
表示部906は、シナリオ生成部904や画像再生部905からの制御を受けてユーザインタフェース画面や再生画像を表示する。
以上のように構成されたショートフィルム生成装置900は、次のように動作する。
The
The short film production |
まず、ユーザがデジタルカメラ910で撮影した画像は、画像入力部902を介して装置内に取り込まれ、そのまま画像蓄積部903に伝送され格納される。
ここで、操作入力部901が、ユーザからショートフィルム生成ボタンを押下する操作を受け付けると、シナリオ生成部904は、シナリオを生成する。
First, an image captured by the user with the
Here, when the
図39は、従来におけるシナリオ生成部904の処理手順を示すフロー図である。
まず、シナリオ生成部904は、ユーザに画像蓄積部903に格納されている画像から複数枚を選択するように促す画面(画像選択画面)を生成して、表示部906に出力する(S900)。
FIG. 39 is a flowchart showing the processing procedure of the conventional
First, the
ここで、操作入力部901が、ユーザから、表示部906に表示される画像の中から再生する静止画像を選択する操作を受け付けると(S902のYes)、シナリオ生成部904は、選択された画像の撮影時刻情報をチェックし、各画像の再生情報を撮影時刻順に並べて連結リスト化したシナリオ外枠を生成する(S904)。
Here, when the
ここで、操作入力部901は、ユーザから、5枚の静止画像(画像31、画像32、画像33、画像34および画像35)の選択を受け付けた場合に生成されるシナリオ外枠を図40に示す。なお、この5枚の静止画像の撮影時刻は、画像31、画像32、画像33、画像34、画像35の順に時系列に並んでいるとする。
Here, the
図40は、従来におけるシナリオ外枠を示す図である。
従来におけるシナリオ外枠は、シナリオヘッダ920、シナリオ先頭リスト921、シナリオ第2リスト922、シナリオ第3リスト923、シナリオ第4リスト924およびシナリオ第5リスト925が連結リスト化されることにより構成される。
FIG. 40 shows a conventional scenario outer frame.
The conventional scenario frame is constituted by a
このとき、シナリオヘッダ920には、シナリオ名と画像数がセットされ、シナリオ外枠の各リスト921〜925には、各画像の再生情報のうち、画像ファイル名、画像蓄積部903における格納場所がセットされる。
At this time, the scenario name and the number of images are set in the
そして、シナリオヘッダ920の全再生時間や、シナリオ外枠の各リスト921〜925の視覚効果情報や再生時間情報は、空白状態となっている。
シナリオ生成部904は、このようなシナリオ外枠を生成した後、画像の再生順に各画像に対して割り当てる視覚効果を決定する。
The total playback time of the
The
再び図39を参照して説明すると、シナリオ生成部904は、まず、シナリオ外枠のシナリオ先頭リスト921を参照し(S906)、画像31に割り当てる視覚効果を決定する。
Referring back to FIG. 39, the
このとき、シナリオ生成部904は、ランダム関数により乱数を発生させて4で除算して(S908)、除算した余りを求めることにより、画像31に割り当てる視覚効果を決定する。
At this time, the
すなわち、シナリオ生成部904は、余りが1ならば(S910のYes)、画像を徐々に鮮明にするフェードイン効果をシナリオ先頭リスト921の視覚効果情報に追加し(S912)、余りが2ならば(S914のYes)、画像を徐々に消すフェードアウト効果をシナリオ先頭リスト921の視覚効果情報に追加する(S916)。また、余りが0ならば(S918のYes)、画像中央へ向けて画像を拡大させるズームイン効果をシナリオ先頭リスト921の視覚効果情報に追加し(S920)、余りが3ならば(S918のNo)、画像の1部分を拡大表示し表示部分を移動させるPan効果をシナリオ先頭リスト921の視覚効果情報に追加する(S922)。
That is, if the remainder is 1 (Yes in S910), the
さらに、シナリオ生成部904は、割り当てる視覚効果をシナリオ先頭リスト921の視覚効果情報に追加する際に、併せて画像の再生時間を設定して、シナリオ先頭リスト921の再生時間情報に追加する。ここではズームイン効果を施す画像の再生時間は3秒(45フレーム)、それ以外の画像の再生時間は2秒(30フレーム)に設定する。
Furthermore, when adding the visual effect to be assigned to the visual effect information of the
その後、シナリオ生成部904は、視覚効果情報および再生時間情報を追加したリストが最後のリストであるか否かを判断し(S924)、最後のリストであれば(S924のYes)、シナリオ生成の処理動作を終了し、最後のリストでなければ(S924のNo)、シナリオ外枠の次のリストを参照し(S926)、視覚効果を決定する処理動作を繰り返す。
Thereafter, the
このようにして、シナリオ生成部904が、再生順において最後の画像まで視覚効果を割り当てる処理動作を繰り返すと図41に示すシナリオが完成する。
図41は、従来における完成したシナリオの第1例を示す図である。
In this manner, when the
FIG. 41 is a diagram showing a first example of a completed scenario in the related art.
この完成したシナリオにおいて、シナリオヘッダ930には、全再生時間12秒を示す情報が記述され、画像31の再生情報が記述されるシナリオ先頭リスト931には、フェードイン効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリストにも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。
In this completed scenario, information indicating the total playback time of 12 seconds is described in the
すなわち、この完成したシナリオによれば、画像31、画像32、画像33、画像34、画像35の順に再生され、画像31にはフェードイン効果、画像32にはズームアウト効果、画像33にはフェードアウト効果、画像34はPan効果、画像35にはズームイン効果の視覚効果をそれぞれに施すことが示されている。また、再生時間はそれぞれ2秒、3秒、2秒、2秒、3秒(計12秒)であることが示されている。 That is, according to this completed scenario, the image 31, the image 32, the image 33, the image 34, and the image 35 are reproduced in this order, the image 31 has a fade-in effect, the image 32 has a zoom-out effect, and the image 33 has a fade-out. It is shown that the effect, image 34 is subjected to the Pan effect, and image 35 is subjected to the visual effect of the zoom-in effect. In addition, it is shown that the reproduction times are 2 seconds, 3 seconds, 2 seconds, 2 seconds, and 3 seconds (total 12 seconds), respectively.
ここで、操作入力部901が、ユーザからショートフィルムのタイトルの入力を受け付けると、シナリオ生成部904は、完成したシナリオのリストの先頭にタイトル画像(タイトル用に用意された黒画面の画像)の再生情報を挿入する場合もある。
When the
このとき、シナリオ生成部904は、画像中央部分にユーザが入力した文字を埋め込むことを示す視覚効果情報および再生時間情報(2秒)をシナリオのリストの先頭に追加する。このようにして完成したシナリオを図42に示す。
At this time, the
図42は、従来における完成したシナリオの第2例を示す図である。
この完成したシナリオでは、タイトル画像、画像31、画像32、画像33、画像34、画像35の順に再生され、タイトル画像には、文字埋め込み効果、画像31にはフェードイン効果、画像32にはズームアウト効果、画像33にはフェードアウト効果、画像34はPan効果、画像35にはズームイン効果を施すことを示している。再生時間はそれぞれ2秒、2秒、3秒、2秒、2秒、3秒(計14秒)である。
FIG. 42 is a diagram illustrating a second example of a completed scenario in the related art.
In this completed scenario, the title image, the image 31, the image 32, the image 33, the image 34, and the image 35 are reproduced in this order. The title image has a character embedding effect, the image 31 has a fade-in effect, and the image 32 has a zoom. The out effect, the image 33 has a fade-out effect, the image 34 has a Pan effect, and the image 35 has a zoom-in effect. The playback times are 2 seconds, 2 seconds, 3 seconds, 2 seconds, 2 seconds, and 3 seconds (14 seconds in total), respectively.
すなわち、シナリオヘッダ940には、全再生時間14秒を示す情報が記述され、タイトル画像の再生情報が記述されるシナリオ先頭リスト941には、画像中央部分にユーザが入力した文字を埋め込む文字埋め込み効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリストにも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。
That is, in the
続いて、画像再生部905は、シナリオ生成部904において以上のような手順で生成されたシナリオのアドレス情報を受け取り、シナリオの先頭リストに格納された画像の再生情報を参照する。
Subsequently, the
そして、画像再生部905は、参照した再生情報に基づいて画像蓄積部903から圧縮形式の画像を読み出して解凍し、再生時間情報(フレーム数)に基づいて時間管理を行いながら視覚効果情報において指示された視覚効果を施して表示部906に出力する。先頭の画像の再生が終了すると、画像再生部905は、シナリオにおける次の画像の再生情報を参照して再生処理を実行し、最後の画像(画像35)の再生処理が終了するまでこれを繰り返す。
Then, the
ここで、図43を用いて、表示部906に出力表示される画像の視覚効果について説明する。
図43は、従来におけるショートフィルム生成装置900の画面表示例を示す図である。
Here, the visual effect of the image output and displayed on the
FIG. 43 is a diagram showing a screen display example of a conventional short
ここでは、画像の対角線方向へ移動するPan効果について説明することとする。
画像対角線方向へのPan効果によれば、ショートフィルム生成装置900は、表示画面例950を表示した後、第1表示領域951を拡大して表示し、表示推移線952に沿って表示部分を移動させて第2表示領域953を表示して、再生を終了する。
Here, the Pan effect that moves in the diagonal direction of the image will be described.
According to the Pan effect in the image diagonal direction, the short
このようにして、従来におけるショートフィルム生成装置900は、複数の静止画像にズームイン、フェードイン、フェードアウト、Pan等の視覚効果を施しながら、あたかも動画のように、短編の映像(ショートフィルム)を生成して再生する。このような従来のショートフィルム生成装置900は、静止画に動画のような動きを与えて、デジタル静止画を使った新しいエンターテイメントの世界を切り開いた点で画期的である。
しかしながら、上述した従来の画像表示装置では、表示用画像の解像度(画素数)が表示器の解像度(画素数)に比べて大きい(多い)場合には、画像全体を表示するために、表示器の画素数より少ない画素数のサムネイル画像を記憶する必要がある。このような事態は、携帯電話機など表示部分が極めて小さい表示端末で、非常に顕著であり、原画像の1/64の解像度のサムネイル画像を、QVGA(320x240画素=約8万画素(76800))サイズの表示領域を持つ表示装置上で、全体表示することになる。 However, in the above-described conventional image display apparatus, when the resolution (number of pixels) of the display image is larger (larger) than the resolution (number of pixels) of the display, the display It is necessary to store a thumbnail image having a smaller number of pixels than the number of pixels. Such a situation is very remarkable in a display terminal such as a mobile phone that has a very small display portion. A thumbnail image having a resolution of 1/64 of the original image is displayed as QVGA (320 × 240 pixels = about 80,000 pixels (76800)). The entire display is performed on a display device having a size display area.
すなわち、こういったケースでは、画像全体の解像度が下がるため、視覚的な画質の劣化が生じてしまうという問題がある。
また、画像内の見たい場所(興味領域;ROI;Region Of Interest;例えば人の顔)も相対的に小さくなるので、画質の劣化とともに視認性も低下してしまうという問題もある。
That is, in such a case, since the resolution of the entire image is lowered, there is a problem that visual image quality is deteriorated.
In addition, since the place (interest of interest; ROI; Region Of Interest; for example, a human face) in the image is relatively small, there is a problem that the visibility is lowered as the image quality deteriorates.
このような問題点を解決するために、原画像を格納し、原画像を表示器に表示することが考えられるが、小さな表示装置(画面)で大きな画像の一部を見ることになり、ユーザに操作負荷をかけてしまうという問題を生じさせてしまう。より詳しく説明すると、まず、XGAサイズの画像は、QVGAサイズの表示領域に対して約10倍の大きさであるので、ユーザがROIを探そうとすれば、スクロールなどをさせながら探す手間が必要となってしまう。また、人の顔が小さく写っているようなときには、ユーザは、その部分をズームインして表示させる操作が必要となり、ユーザの操作負荷は高いものとなる。 In order to solve such problems, it is conceivable to store the original image and display the original image on a display. However, the user will see a part of the large image on a small display device (screen), and the user This causes a problem that an operation load is applied to. More specifically, since an XGA-sized image is about 10 times larger than a QVGA-sized display area, if a user tries to find an ROI, the user has to search for it while scrolling. End up. In addition, when a person's face appears small, the user needs to zoom in on that portion and display it, and the user's operation load is high.
同様に、表示器にサムネイル画像を9つ程度、一覧表示するような場合についても、サムネイル画像をさらに80×60画素程度まで縮小しなければならない。このような場合についても、一つ一つのサムネイル画像について解像度低下による視認性の低下が指摘でき、「何が映っているか判り難い」という問題がある。 Similarly, in the case where about nine thumbnail images are displayed as a list on the display device, the thumbnail images must be further reduced to about 80 × 60 pixels. Even in such a case, it can be pointed out that the visibility of each thumbnail image is reduced due to a reduction in resolution, and there is a problem that it is difficult to understand what is reflected.
また、上記従来のショートフィルム生成装置によれば、予めユーザにより選択された画像に対し視覚効果をランダムまたは固定的に決定して、再生に必要なシナリオを生成するので、インパクトのあるシナリオを生成することができない。つまり、各画像に割り当てる視覚効果を決定する際に、画像の内容が考慮されることなく、恣意的に視覚効果が割り当てられるので、画像の特徴を生かしたインパクトのあるシナリオを生成できないという問題がある。 In addition, according to the conventional short film generating apparatus, a visual effect is randomly or fixedly determined for an image selected in advance by a user, and a scenario necessary for reproduction is generated. Can not do it. In other words, when deciding the visual effect to be assigned to each image, the visual effect is arbitrarily assigned without considering the content of the image, so that there is a problem that it is not possible to generate an impact scenario that makes use of the characteristics of the image. is there.
また、上記従来のショートフィルム生成装置によれば、シナリオ生成に際して、ユーザがタイトル入力や画像選択を行なう必要があるため、手間がかかってしまうという問題もある。 In addition, according to the conventional short film generating apparatus, there is a problem that it takes time and effort because the user needs to input a title and select an image when generating a scenario.
そこで、本発明は、かかる問題点に鑑みなされたものであり、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置、画像表示方法ならびにそれらを有する携帯型端末を提供し、また、サムネイル画像の一覧表示の際にも、何が映っているか判別しやすい画像表示装置を提供することを第1の目的とする。 Therefore, the present invention has been made in view of such problems, and has reduced image quality degradation, improved visibility, reduced user operation load, and image display apparatus, image display method, and the like. It is a first object of the present invention to provide an image display device that can easily determine what is being displayed when displaying a list of thumbnail images.
また、本発明は、画像に相応しい視覚効果を施して再生することができるショートフィルム生成装置を提供し、また、タイトル入力や画像選択を行なう等のユーザの手間を省いて、シナリオを生成することができるショートフィルム生成装置を提供することを第2の目的とする。 In addition, the present invention provides a short film generation device that can reproduce images with appropriate visual effects, and can generate a scenario without the need for user input such as title input and image selection. It is a second object to provide a short film generating apparatus capable of performing the above.
上記の目的を達成するため、本発明は、以下のような技術的手段を講じている。
すなわち、本発明に係る画像表示装置は、画像を表示する表示手段を備える画像表示装置であって、前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段と、前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定手段と、ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成手段とを備える、前記オブジェクト判定手段は、オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定部と、判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定部とを有し、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出することを特徴とする。
また、本発明に係る画像表示装置は、画像を表示する表示手段を備える画像表示装置であって、前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段と、前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、オブジェクトが含まれている場合に、当該オブジェクトに関するオブジェクト情報を生成するオブジェクト判定手段と、ユーザから指定された原画像と、当該原画像に対応するオブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成手段とを備えることを特徴とする。
In order to achieve the above object, the present invention takes the following technical means.
That is, the image display device according to the present invention is an image display device including display means for displaying an image, and holds an original image formed with a larger number of pixels than the number of pixels that can be displayed on the display means. It is determined whether or not an object is included in the original image held by the image holding means and the original image holding means. When at least one or more objects are included, object information relating to each object An object that is an area including an object in the original image, based on an object determination unit that generates the image, an original image designated by the user, and at least one object information corresponding to the original image Extract at least a part of the area from the original image and match the number of displayable pixels on the display means. A display image generating unit configured to generate a display image, wherein the object determination unit includes a plurality of object types including a plurality of types among a person, an animal, a plant, a movable property, and a real estate based on the shape of the object. The object type determination unit that determines the type of one of the objects, embeds the determined type of the object in the object information, and the priority corresponding to the determined type of the object is further set in the object information. An object priority setting unit to be embedded, and the display image generation means indicates that the priority is higher among at least one of the object information based on the priority embedded in the object information. An object area corresponding to the object information is extracted from the original image. And wherein the door.
The image display device according to the present invention is an image display device including display means for displaying an image, and holds an original image formed with a larger number of pixels than the number of pixels that can be displayed on the display means. An image holding unit and an object determination unit that determines whether or not an object is included in the original image held in the original image holding unit, and generates object information related to the object when the object is included And extracting from the original image at least a part of an object area that is an area including the object in the original image based on the original image designated by the user and the object information corresponding to the original image. Display image generating means for generating a display image in accordance with the number of displayable pixels in the display means. And features.
これによって、オブジェクト領域の少なくとも一部を含む表示用画像を原画像から生成するので、オブジェクト領域の少なくとも一部を含む部分が大きく表示される。したがって、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置を提供することが可能となる。 As a result, a display image including at least a part of the object area is generated from the original image, so that a part including at least a part of the object area is displayed in a large size. Therefore, it is possible to provide an image display device that improves visibility and reduces the operation load on the user.
ここで、前記オブジェクト判定手段は、前記原画像に含まれるオブジェクトの位置および大きさを抽出し、抽出したオブジェクトの位置および大きさを前記オブジェクト情報に埋め込むオブジェクト抽出部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置および大きさに基づいて、前記原画像から抽出する部分を決定することを特徴とする。 Here, the object determination means includes an object extraction unit that extracts the position and size of an object included in the original image and embeds the extracted position and size of the object in the object information, and generates the display image generation The means determines a portion to be extracted from the original image based on the position and size of the object embedded in the object information.
この構成によれば、オブジェクト領域の少なくとも一部を含む原画像の部分の決定が容易になる。
また、前記オブジェクト抽出部は、パターンマッチング、色分布情報、エッジ情報、領域分割情報およびレイアウト情報の少なくとも一つを用いて前記オブジェクトを抽出するとしてもよい。
According to this configuration, it is easy to determine the part of the original image that includes at least a part of the object area.
The object extraction unit may extract the object using at least one of pattern matching, color distribution information, edge information, region division information, and layout information.
また、前記オブジェクト判定手段は、さらに、前記オブジェクト抽出部が抽出したオブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置、大きさおよび種別に基づいて、前記原画像から抽出する部分を決定することを特徴としてもよい。 The object determination unit further includes an object type determination unit that determines the type of the object extracted by the object extraction unit, and embeds the determined object type in the object information. The display image generation unit includes: A portion to be extracted from the original image may be determined based on the position, size, and type of the object embedded in the object information.
これによっても、オブジェクト領域の少なくとも一部を含む原画像の部分の決定が容易になる。
また、前記オブジェクトの種別には、人物、人の顔、犬、猫および書籍ならびに文字列を含む物品、看板および値札の少なくとも一つが含まれることを特徴とすることもできる。
This also facilitates determination of the portion of the original image that includes at least a part of the object area.
The type of the object may include at least one of a person, a human face, a dog, a cat, a book, an article including a character string, a signboard, and a price tag.
これによって、種々の種別のオブジェクト領域の少なくとも一部を含む部分が大きく表示される。
また、前記オブジェクト判定手段は、さらに、前記オブジェクト種別判定部が判定したオブジェクトの種別に対応した優先度を、前記オブジェクト情報に埋め込むオブジェクト優先度設定部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの優先度に基づいて、前記原画像から抽出する部分を決定することを特徴とすることもできる。
As a result, a portion including at least a part of various types of object areas is displayed large.
The object determination unit further includes an object priority setting unit that embeds a priority corresponding to the object type determined by the object type determination unit in the object information, and the display image generation unit includes the display A portion to be extracted from the original image may be determined based on the priority of the object embedded in the object information.
これによっても、オブジェクト領域の少なくとも一部を含む原画像の部分の決定が容易になる。
また、前記オブジェクト判定手段は、原画像に含まれるオブジェクトの位置および大きさを抽出し、抽出したオブジェクトの候補の位置および大きさを前記オブジェクト情報に埋め込むオブジェクト抽出部を備え、前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置の中心が含まれるように、前記原画像から抽出する部分を決定することを特徴としてもよい。
This also facilitates determination of the portion of the original image that includes at least a part of the object area.
The object determination unit includes an object extraction unit that extracts the position and size of an object included in the original image and embeds the extracted position and size of the candidate object in the object information. The means may determine the portion to be extracted from the original image so that the center of the position of the object embedded in the object information is included.
これによって、オブジェクトの視認性を高めることができる。
また、前記画像表示装置は、さらに、原画像を撮像する撮像手段、および、記憶媒体または伝送媒体を介して原画像を入力する画像入力手段の少なくとも一方と、前記撮像手段および前記画像入力手段の少なくとも一方によって取得された原画像を前記原画像保持手段に格納する格納手段とを備えることを特徴とすることもできる。
Thereby, the visibility of the object can be improved.
The image display apparatus further includes at least one of an imaging unit that captures an original image, an image input unit that inputs an original image via a storage medium or a transmission medium, and the imaging unit and the image input unit. Storage means for storing the original image acquired by at least one in the original image holding means can be provided.
この構成によれば、種々の方策で原画像を取得することができる。
さらに、前記表示用画像生成手段は、さらに、前記オブジェクト情報に基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、予め定められた画素数のサムネイル画像を生成するサムネイル画像生成手段を備えることを特徴とする。ここで、前記原画像保持手段には、複数の原画像が保持されており、前記表示用画像生成手段は、前記サムネイル画像生成手段が生成した各原画像のサムネイル画像を、前記表示手段に一覧表示させるのが好ましく、前記予め定められた画素数は、前記表示手段において1のサムネイル画像の表示に割り当てられた画素数であるのが、より好ましい。
According to this configuration, the original image can be acquired by various measures.
Further, the display image generating means further extracts at least a part of an object area, which is an area including the object in the original image, from the original image based on the object information, and is predetermined. A thumbnail image generating means for generating a thumbnail image having the number of pixels is provided. Here, the original image holding means holds a plurality of original images, and the display image generating means lists thumbnail images of the original images generated by the thumbnail image generating means in the display means. Preferably, the predetermined number of pixels is the number of pixels assigned to display one thumbnail image in the display means.
これによって、サムネイル画像の一覧表示の際にも、何が映っているか判別しやすくすることが可能となる。
また、前記表示用画像生成手段は、前記原画像から抽出した部分を拡大または縮小することによって、前記表示手段における表示可能な画素数にあわせた表示用画像を生成するとしてもよいし、前記表示用画像生成手段は、前記原画像から抽出する部分の画素数が、前記表示手段における表示可能な画素数となるように、前記原画像から抽出する部分を決定するとしてもよい。
As a result, it is possible to easily determine what is displayed even when displaying a list of thumbnail images.
Further, the display image generation means may generate a display image in accordance with the number of pixels that can be displayed on the display means by enlarging or reducing a portion extracted from the original image. The image generation means may determine the portion to be extracted from the original image so that the number of pixels extracted from the original image is equal to the number of pixels that can be displayed on the display means.
これによって、オブジェクト領域の少なくとも一部を含む部分が大きく表示されるように、原画像から表示用画像を生成するので、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置を実現することが可能となる。 As a result, a display image is generated from the original image so that a portion including at least a part of the object region is displayed large, and thus an image display device that improves visibility and reduces the user's operation load is realized. It becomes possible.
また、本発明に係るショートフィルム生成装置は、少なくとも1つの静止画像を用いて、映像を生成するショートフィルム生成装置であって、外部から入力された1つ以上の静止画像を取得する静止画像入力手段と、前記入力された静止画像ごとにオブジェクトが含まれているか否かを判別し、前記入力された静止画像にオブジェクトが含まれている場合に、前記オブジェクトに関する情報を抽出するオブジェクト抽出手段と、前記入力された静止画像の再生順と、前記オブジェクト抽出手段の判別結果に応じて、前記静止画像に含まれるオブジェクトに施す視覚効果とを決定することにより、映像の再生情報であるシナリオを生成するシナリオ生成手段とを備えることを特徴とする。ここで、前記オブジェクトは、文字領域であり、前記オブジェクト抽出手段は、前記入力された静止画像ごとに文字領域が含まれているか否かを判別し、前記入力された静止画像に文字領域が含まれている場合に、前記文字領域に関する情報を抽出する文字領域抽出部を備え、前記シナリオ生成手段は、前記入力された静止画像の再生順と、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域に施す視覚効果とを決定することにより、映像の再生情報であるシナリオを生成するとしてもよい。 The short film generation apparatus according to the present invention is a short film generation apparatus that generates an image using at least one still image, and that receives one or more still images input from the outside. And an object extracting means for determining whether or not an object is included for each input still image, and for extracting information related to the object when the input still image includes an object; Generating a scenario that is video playback information by determining the playback order of the input still image and the visual effect to be applied to the object included in the still image according to the determination result of the object extraction means And a scenario generation means. Here, the object is a character area, and the object extracting means determines whether or not a character area is included for each input still image, and the input still image includes a character area. A character area extraction unit that extracts information about the character area, the scenario generation means, according to the reproduction order of the input still image and the determination result of the character area extraction unit, A scenario that is video reproduction information may be generated by determining a visual effect to be applied to a character area included in the still image.
この構成によれば、静止画像に含まれるオブジェクト(文字領域)を抽出して、そのオブジェクト(文字領域)に視覚効果を施すので、そのオブジェクト(文字領域)が強調され、インパクトのあるショートフィルムを生成することができる。 According to this configuration, an object (character area) included in a still image is extracted and a visual effect is applied to the object (character area). Therefore, the object (character area) is emphasized, and an impact short film is created. Can be generated.
ここで、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域に拡大効果を施すシナリオを生成するとしてもよい。また、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域にPan効果を施すシナリオを生成することもできる。さらに、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域を修正するシナリオを生成するとしてもよい。 Here, the scenario generation means may generate a scenario for applying an enlargement effect to the character area included in the still image according to the determination result of the character area extraction unit. In addition, the scenario generation means can generate a scenario that applies a Pan effect to a character area included in the still image according to a determination result of the character area extraction unit. Further, the scenario generation unit may generate a scenario for correcting a character area included in the still image according to a determination result of the character area extraction unit.
また、前記シナリオ生成手段は、前記文字領域抽出部が抽出した文字領域に関する情報のうち、前記文字領域の形状、サイズまたは色彩の少なくとも1つに基づいて、その文字領域に施す視覚効果を決定することにより、シナリオを生成するのが好ましい。 The scenario generation means determines a visual effect to be applied to the character area based on at least one of the shape, size, or color of the character area out of the information related to the character area extracted by the character area extraction unit. Thus, it is preferable to generate a scenario.
これによって、静止画像の文字領域の特性に応じて、文字領域に施す視覚効果が選択されるので、その文字領域に相応しい視覚効果が施され、よりインパクトのあるショートフィルムを生成することができる。 As a result, the visual effect to be applied to the character region is selected according to the characteristics of the character region of the still image, so that a visual effect suitable for the character region is applied, and a more impactful short film can be generated.
また、前記ショートフィルム生成装置は、さらに、前記文字領域抽出部が文字領域を含むと判別した静止画像の撮影時刻を基準に、再生する静止画像を選択する画像選択手段を備え、前記シナリオ生成手段は、前記画像選択手段が選択した再生画像のシナリオを生成することを特徴としてもよい。 The short film generation apparatus further includes an image selection unit that selects a still image to be reproduced based on a still image shooting time determined by the character region extraction unit to include a character region, and the scenario generation unit May generate a scenario of a reproduced image selected by the image selection means.
これによって、キー画像と時間的に関連付けられる画像グループが自動的に選択されるので、ショートフィルムに使用する静止画像をユーザが一々選択する必要がなくなる。
さらに、前記シナリオ生成手段は、前記文字領域抽出部の判別結果に応じて、前記静止画像に含まれる文字領域をタイトルとして使用するシナリオを生成することもできる。
As a result, an image group temporally associated with the key image is automatically selected, thereby eliminating the need for the user to select a still image to be used for the short film.
Furthermore, the scenario generation means can generate a scenario using a character area included in the still image as a title according to a determination result of the character area extraction unit.
これによって、画像の文字領域がタイトル画像に自動的に取り込まれるので、ユーザがタイトル文字をキーボード等から入力する手間を省くことが可能となる。
また、前記シナリオ生成手段で決定される視覚効果は、少なくとも、オブジェクトを拡大して、または、縮小して、前記静止画像を表示する拡大縮小効果、オブジェクトへ、または、オブジェクトから、視点を移動させて前記静止画像を表示する視点移動効果、オブジェクトを焦点とするズームイン、または、ズームアウトを行なって前記静止画像を表示するズームイン・アウト効果、および、前記静止画像のうちオブジェクトが含まれる領域を切り出す切り出し効果のいずれかであることを特徴としてもよい。
As a result, the character area of the image is automatically taken into the title image, so that it is possible to save the user from inputting the title character from the keyboard or the like.
Further, the visual effect determined by the scenario generating means is at least an enlargement / reduction effect for displaying the still image by enlarging or reducing the object, and moving the viewpoint to / from the object. The viewpoint moving effect for displaying the still image, the zoom-in / out effect for displaying the still image by performing zoom-in or zoom-out with the object as a focus, and the region including the object in the still image are cut out It may be any one of the clipping effects.
これによって、オブジェクトに種々の視覚効果のいずれかを施すことができ、視認性を向上させるとともに、インパクトのあるショートフィルムを生成することが可能なショートフィルム生成装置が実現される。 Thereby, any of various visual effects can be applied to the object, and a short film generating apparatus capable of improving visibility and generating an impact short film is realized.
なお、本発明は、このような画像表示装置として実現することができるだけでなく、このような画像表示装置が備える特徴的な手段をステップとする画像表示方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。さらに、このような画像表示装置を有する携帯型端末としても実現することもできる。 Note that the present invention can be realized not only as such an image display apparatus but also as an image display method using steps characteristic of the image display apparatus, or by performing these steps as a computer. It can also be realized as a program to be executed. Furthermore, it can also be realized as a portable terminal having such an image display device.
同様に、本発明は、このようなショートフィルム生成装置として実現することができるだけでなく、このようなショートフィルム生成装置が備える特徴的な手段をステップとするショートフィルム生成方法として実現したり、それらのステップをコンピュータに実行させるプログラムとして実現したりすることもできる。そして、そのようなプログラムは、CD−ROM等の記録媒体やインターネット等の伝送媒体を介して配信することができるのは言うまでもない。 Similarly, the present invention can be realized not only as such a short film generating apparatus, but also as a short film generating method including steps characteristic of the short film generating apparatus. These steps can also be realized as a program for causing a computer to execute. Needless to say, such a program can be distributed via a recording medium such as a CD-ROM or a transmission medium such as the Internet.
以上説明したように、本発明に係る画像表示装置によれば、オブジェクト領域の少なくとも一部を含む原画像の部分から表示用画像が生成されるので、オブジェクト領域の少なくとも一部を含む部分が大きく表示される。したがって、視認性を向上させ、ユーザの操作負荷も軽減した画像表示装置を提供することが可能となる。 As described above, according to the image display device of the present invention, the display image is generated from the portion of the original image that includes at least a part of the object region, so that the portion that includes at least a portion of the object region is large. Is displayed. Therefore, it is possible to provide an image display device that improves visibility and reduces the operation load on the user.
また、本発明に係る画像表示装置によれば、オブジェクト領域の少なくとも一部を含む原画像の部分からサムネイル画像が生成されるので、サムネイル画像においてもオブジェクト領域の少なくとも一部を含む部分が大きく表示される。したがって、サムネイル画像の一覧表示の際にも、何が映っているか判別しやすくすることが可能となる。 In addition, according to the image display device of the present invention, the thumbnail image is generated from the portion of the original image including at least a part of the object area. Is done. Therefore, it is possible to easily determine what is being displayed even when displaying a list of thumbnail images.
よって、本発明により、原画像のオブジェクトに着目した種々の画像処理が可能となり、画素数の少ない表示器においても視認性の高い画像を表示することが可能となり、デジタルカメラや携帯電話機が普及してきた今日における本願発明の実用的価値は極めて高い。 Therefore, according to the present invention, it is possible to perform various image processing focusing on the object of the original image, display an image with high visibility even on a display with a small number of pixels, and digital cameras and mobile phones have become widespread. However, the practical value of the present invention is very high today.
また、本発明に係るショートフィルム生成装置によれば、画像に対して相応しい視覚効果を選択して施すことができるので、よりインパクトのあるショートフィルムを生成することができる。 Moreover, according to the short film production | generation apparatus which concerns on this invention, since the suitable visual effect can be selected and given with respect to an image, the short film with a more impact can be produced | generated.
さらに、ユーザにより選択された画像をキー画像として、関連する画像を自動選択して再生するので、ユーザ自身が全ての画像を選択する手間を省くことができる。
またさらに、文字領域をタイトル画像に自動で埋め込むので、ユーザ自らがタイトルを手入力する必要がなくなる。
Furthermore, since an image selected by the user is used as a key image and related images are automatically selected and reproduced, it is possible to save the user from having to select all images.
Furthermore, since the character area is automatically embedded in the title image, the user does not need to manually input the title.
よって、ユーザは、インパクトのあるショートフィルムを簡単な操作で楽しむことができ、大量の静止画像を保有するユーザの増加が著しい今日における本発明の実用的価値は極めて高いと言える。 Therefore, it can be said that the practical value of the present invention is extremely high today, because users can enjoy high-impact short films with a simple operation, and the number of users who have a large number of still images is remarkably increasing.
以下、本発明を実施するための最良の形態について、図面を参照しながら詳細に説明する。
(実施の形態1)
まず、本発明の実施の形態1に係る画像表示装置について図1〜21を用いて説明する。
Hereinafter, the best mode for carrying out the present invention will be described in detail with reference to the drawings.
(Embodiment 1)
First, an image display apparatus according to
図1は、デジタルカメラおよび画像表示装置を有する携帯電話機の外観構成を示す図である。
デジタルカメラ100は、例えば300万画素のCCDなどを備えており、被写体を1280×960画素で撮影して、その1280×960画素の原画像と、160×120画素のサムネイル画像とを、EXIF形式で、記録メディア207に記憶させる。
FIG. 1 is a diagram showing an external configuration of a mobile phone having a digital camera and an image display device.
The
一方、携帯電話機115は、基地局との間で電波を送受信するためのアンテナ201、フラッシュ等を備えており、動画像や静止画像を撮影可能なカメラ部203、カメラ部203で撮影した映像やアンテナ201で受信した映像等のデータを表示する液晶ディスプレイ等の表示部202、操作キー204から構成される本体部、音声出力をするためのスピーカ等の音声出力部208、音声入力をするためのマイク等の音声入力部205、および、携帯電話機115に記録メディア207を装着可能とするためのスロット部206を有している。
On the other hand, the
カメラ部203は、例えば130万画素のCCDなどを備えており、表示部202における表示可能な画素数(240×320)よりも多い最大1024×1280画素で、被写体を撮像する。記録メディア207は、プラスチックケース内に、電気的に書換えや消去が可能な不揮発性メモリであるEEPROM(Electrically Erasable and Programmable Read Only Memory)の一種であるフラッシュメモリ素子を格納したSDメモリーカード(登録商標)等の記録媒体であり、撮影した動画像もしくは静止画像のデータ、受信したメールのデータや、符号化または復号化された動画像のデータもしくは静止画像のデータ等を保存するためのものである。
The
図2は、本実施の形態1における画像表示装置のブロック構成を模式的に示した図である。
画像表示装置1は、上記の携帯電話機115に実装され、外部インタフェースとして機能する外部インタフェース部10と、記憶装置として機能するメモリ部20と、メモリ部20に記憶される原画像にオブジェクトが含まれるか否かを判断し、オブジェクトが含まれると判断した場合に、当該オブジェクトに関するオブジェクト情報を生成するオブジェクト判定部30と、ユーザから指定された原画像および原画像に対応するオブジェクト情報とに基づいて、オブジェクト領域の少なくとも一部を含む原画像の部分から表示器50の画素数にあわせた表示用画像を少なくとも1枚生成し、生成した表示用画像を表示器50に表示するように制御する表示用画像生成部40と、画像を表示する部分である表示器50とを備える。なお、オブジェクト判定部30および表示用画像生成部40は、所定の演算処理を行うためのプログラムおよび当該プログラムを実行するDSP等により構成される。
FIG. 2 is a diagram schematically showing a block configuration of the image display apparatus according to the first embodiment.
The
外部インタフェース部10は、画像撮像部110と、画像入力部120と、ユーザIF部130を備えている。
画像撮像部110は、CCDなどに代表される任意の画像撮像手段を用いて画像を撮像し、画像表示装置1に取り込むものである。
The
The image capturing unit 110 captures an image using an arbitrary image capturing unit typified by a CCD or the like and captures the image in the
画像入力部120は、SDメモリーカード(登録商標)やマルチメディアカードに代表される任意の記録媒体から、もしくはイーサネット(登録商標)ケーブル・無線LANなどに代表される任意のネットワークを介して、画像を取得し、画像表示装置1に取り込むものである。
The
ユーザIF部130は、キーボード、テンキー、タッチパネル、音声認識などに代表される任意の入力手段を介して、画像表示装置1のユーザインタフェースを提供するものである。このユーザIF部130は、アイコンの表示やヘルプの表示などを通じてユーザの利便性を上げることもできる。
The user IF
なお、外部インタフェース部10の構成要素は、画像撮像部110、画像入力部120およびユーザIF部130に限定されるものではなく、必要に応じて任意の外部環境・外部装置との接続・入出力を行うことができる。
The constituent elements of the
例えば、音声認識用のマイク部205や、ヘルプ・音楽情報など画像表示装置1内部のデータを出力するスピーカ部208、画像撮像部110で撮影する場合のフラッシュなどの光源部、電源のON/OFF状態など任意の画像表示装置1内部の状態を光で示す内部状態表示部、など一般の携帯電話機やPDA、パーソナルコンピュータ、ゲーム機、カメラ(デジタルカメラ、ムービー)が有する任意の外部入出力装置を、外部インタフェース部10の構成要素とすることができる。
For example, a
メモリ部20は、画像保持部210と、オブジェクト情報保持部220と、サムネイル画像保持部230と、ユーザ指定画像保持部240と、表示用画像保持部250とを備えている。このメモリ部20は、必要に応じて揮発性メモリ・不揮発性メモリの他、SDメモリーカード(登録商標)やハードディスクなど任意の記録媒体をメモリとして用いることができる。
The
画像保持部210は、画像表示装置に入力された画像データを保存するものである。この画像保持部210は、必要に応じて、一つの原画像データに対して複数のフォーマットや解像度、トリミングサイズでデータを保存することができる。例えば、JPEGとビットマップなどの複数のフォーマットでの保存や、VGA・XGA・QVGAなど、それぞれ異なる複数の解像度での保存、画像の一部のみをトリミング(切り抜き)した画像として保存することができる。ここで挙げた保存例に限ることなく、任意の組み合わせで画像保持部210はデータを保存できる。
The
オブジェクト情報保持部220は、オブジェクト判定部30によって生成されるオブジェクト情報を保持する。
サムネイル画像保持部230は、表示用画像生成部40によって生成されるサムネイル画像を保持する。
The object
The thumbnail
ユーザ指定画像保持部240は、ユーザによって指定された表示用画像を保持する。
表示用画像保持部250は、特に表示器50に表示する画像の画像データを一時的に保持するものであり、例えば一般のパーソナルコンピュータにおけるVRAMに相当するものである。
The user designated
In particular, the display
オブジェクト判定部30は、オブジェクト候補抽出部310と、オブジェクト候補判定部320と、オブジェクト優先度判定部330とを有している。
オブジェクト候補抽出部310は、画像内からオブジェクトの候補を推定し、抽出する。
The
The object
ここで、オブジェクト候補抽出部310における候補抽出手法およびオブジェクト候補判定部320における判定手法は、特開2002−304627号公報や、特開平10−21394号公報などに開示されている既存の任意の画像処理技術を用いることができる。
Here, the candidate extraction method in the object
例えば、オブジェクト候補抽出部310では、テンプレートによるパターンマッチを利用することによって、または、周波数・色・レイアウトなどの相関を領域分割形状・2値化画像・エッジ抽出画像などを利用することによって、オブジェクトの候補を抽出する。
For example, the object
オブジェクト候補判定部320は、オブジェクト候補についてその真偽や種別を判定する。
また、オブジェクト候補判定部320では、オブジェクトの候補とされた領域について任意の処理を用いてオブジェクトの種別の判定や、オブジェクトであるかどうかの判定を行う。例えば、色情報・エッジ情報などを用いることができる。
The object
In addition, the object
ここで、オブジェクトを人の顔として、具体例を挙げる。まず、人の顔の候補判定を行うためのグレイカラーテンプレートを用意する。グレイカラーテンプレートと対象画像との相関を計算し、相関値の高い領域を「人の顔の候補領域」とする。さらに、候補領域に対して、肌色の含まれる割合を求めることで、「人の顔かどうかの判定」を行うことができる。 Here, a specific example is given where the object is a human face. First, a gray color template for determining a human face candidate is prepared. The correlation between the gray color template and the target image is calculated, and an area having a high correlation value is set as a “human face candidate area”. Furthermore, “determination of whether or not the face is a human face” can be performed by obtaining the ratio of the skin color to the candidate area.
オブジェクト優先度判定部330は、オブジェクト候補判定部320が判定したオブジェクトの種別に対応した優先度をオブジェクト情報に埋め込む。
表示用画像生成部40は、サムネイル画像生成処理部410と、拡大縮小処理部420と、視点移動処理部430と、ズームイン・アウト処理部440と、切り出し処理部450等とを備え、表示用画像保持部250を通じて表示器50で表示する画像を生成する。
The object
The display
サムネイル画像生成処理部410は、画像保持部210に記憶された全ての原画像ごとに、オブジェクト情報に含まれる位置に基づいて、原画像におけるオブジェクトの少なくとも一部を含む表示領域を設定する。そして、サムネイル画像生成処理部410は、原画像から、予め定められた画素数で、設定した表示領域のサムネイル画像を生成し、生成したサムネイル画像を表示器50に一覧表示する。これによって、原画像に何が映っているか、被写体が何かをユーザに分かりやすく提示することができる。
The thumbnail image generation processing unit 410 sets, for every original image stored in the
拡大縮小処理部420は、原画像を拡大および縮小するものである。これによって、原画像に含まれるオブジェクトを大きく見せたり、オブジェクトの細部までよく見せたり、全体を見せたりすることができる。
The enlargement /
なお、自動的にオブジェクトを拡大する条件としては、
1)事前にユーザが「自動拡大表示」を行う旨の設定を行っている場合、
2)初期設定として「自動拡大表示」となっている場合、
3)オブジェクトが認識された場合に「拡大表示する」設定になっている場合、など、
オブジェクトの存在に依存して、もしくは非依存に、任意の条件を設定することができる。
As a condition for automatically enlarging an object,
1) If the user has set in advance to perform “automatic enlargement display”,
2) When “Auto Enlarge Display” is selected as the default setting,
3) When the object is recognized and the “Enlarge display” setting is selected, etc.
Arbitrary conditions can be set depending on whether or not an object exists.
視点移動処理部430は、pan(パン)およびtilt(ティルト)に相当する処理を行うものである。ここでpan(パン)とは、撮影時のカメラ操作の一種で「カメラの位置を固定したまま、左右に動かしながら広い範囲を撮影する」ことに相当する。この視点移動処理部430の場合では、表示器50で表示されている画像が「左右に動きながら広い範囲を表示」しているように処理することを意味する。
The viewpoint
同様にtilt(ティルト)とは、「三脚に固定されたカメラを上下に動かすこと」に相当するが、この視点移動処理部430の場合では、「上下に動きながら広い範囲を表示」しているように処理することを意味する。なお、視点移動処理部430の視点移動方法は、左右・上下といった方向に限定されるものではなく、任意のタイミングで任意の方向に視点移動できる。
Similarly, “tilt” corresponds to “moving the camera fixed to a tripod up and down”, but in the case of the viewpoint
ズームイン・アウト処理部440は、zoom−in(ズームイン)およびzoom−out(ズームアウト)に相当する処理を行うものである。ここで、zoom−in(ズームイン)とは、撮影時のカメラ操作の一種で「カメラの位置は固定したままズームレンズによって連続的に接近する映像を得る」ことに相当する。
The zoom-in / out processing
zoom−out(ズームアウト)は逆に、「連続的に離れていく映像を得る」ことに相当する。先の視点移動処理部430と同じように、このズームイン・アウト処理部440の場合では、表示器50で表示されている画像が「視点を固定したまま、連続的に接近もしくは離脱しているように」処理することを意味する。なお、ズームイン・アウト処理部440の視点は必ずしも固定されている必要は無く、処理中に視点が移動してもよい。これにより、ズームインの場合には、視線を集中させて、関心を高めたり、明確に見せたり、盛り上げたりすることができる。ズームアウトの場合には、回りの状況を見せたりすることができる。
Zoom-out (zoom-out) is equivalent to “obtaining continuously moving images”. In the case of the zoom-in / out processing
次に、切り出し処理部450は、画像をtrimming(トリミング)することに相当する。
ここで、trimming(トリミング)とは、「写真の原版を引き伸ばすとき、周囲の不要な部分を省いて画面を整える」ことであるが、この切り出し処理部450においては、画像の一部を任意の形状に切り取って表示することに相当している。ここで、オブジェクトを切り出した背景には、任意の画像・テキスト・テクスチャ(貼り付ける模様・絵柄)を表示することができる。これらのデータは予め画像保持部210に保持しておいたものを利用してもよく、また、新しく表示用画像生成部40が生成してもよく、あるいは、外部インタフェース部10を通じて取得してもよい。
Next, the cutout processing unit 450 corresponds to trimming the image.
Here, “trimming” means “to arrange a screen by omitting unnecessary unnecessary parts when enlarging a photo original”. In this cropping processing unit 450, a part of an image is arbitrarily set. This corresponds to cutting and displaying the shape. Here, an arbitrary image / text / texture (pattern to be pasted / design) can be displayed on the background from which the object is cut out. These data may be stored in advance in the
スライドショー部460は、ユーザ指定画像保持部240に記憶された表示用画像を、表示器50に映像として表示させる。
表示器50は、液晶パネル等により構成され、水平240画素×垂直320画素で画像を表示する。
The
The
次に、上記のように構成された画像表示装置1で静止画像(原画像)を入力する時の動作について説明する。
図3は、外部インタフェース部10およびオブジェクト判定部30における原画像入力時のアルゴリズムを示すフローチャートである。
Next, an operation when inputting a still image (original image) on the
FIG. 3 is a flowchart showing an algorithm when an original image is input in the
画像入力部120およびオブジェクト判定部30は、記録メディア207に記録されている全ての原画像について、原画像ごとに以下の処理を繰り返し実行する(ループA)。
まず、画像入力部120は、記録メディア207に記録されている原画像を本画像表示装置1内のワークメモリに読み出し(S100)、読み出した原画像を画像保持部210に格納する(S102)。なお、画像データの保存形式は、JPEG形式に代表されるような圧縮形式であっても、非圧縮形式であっても構わない。
The
First, the
次に、オブジェクト判定部30のオブジェクト候補抽出部310は、画像保持部210に格納された原画像をワークメモリに読み出し(S104)、原画像に含まれるオブジェクトの候補を全て抽出し(S106)、当該オブジェクト候補の位置や、大きさを取得する。オブジェクト候補の位置、大きさの取得が終わると、オブジェクト候補判定部320は、オブジェクト候補の種別を判定し、オブジェクト候補の種別を取得する(S108)。オブジェクト候補の種別の取得が終わると、オブジェクト優先度判定部330は、種別ごとに予め設定されたオブジェクト優先度を取得する(S110)。
Next, the object
オブジェクト優先度の取得が終わると、オブジェクト判定部30は、原画像のファイル名と、オブジェクト候補の位置、大きさと、オブジェクト候補の種別と、オブジェクト優先度とをテーブル形式にまとめることによってオブジェクト情報を生成し、生成したオブジェクト情報をオブジェクト情報保持部220に格納する(S112)。
After the acquisition of the object priority, the
全ての原画像について、画像保持部210への格納と、対応するオブジェクト情報のオブジェクト情報保持部220への格納が終わると、画像入力部120およびオブジェクト判定部30は、原画像入力処理・オブジェクト判定処理を終了する。
When all the original images are stored in the
このような上記の処理により、記録メディア207に格納された全ての原画像(図4参照)が、順次画像保持部210に格納されるとともに、各原画像に対応するオブジェクト情報(図5参照)が生成されてオブジェクト情報保持部220に格納される。
Through the above processing, all the original images stored in the recording medium 207 (see FIG. 4) are sequentially stored in the
ここで、オブジェクトの判定例を図6に示す。
オブジェクト候補抽出部310は、図6に示される原画像1301に対して、例えば「顔」、「ネクタイ」、「りんご」、「マーカ」のオブジェクトテンプレートを作用させ(具体的な手法は上述のテンプレートとの相互相関を計算する、など任意の既存技術を用いる)、原画像1301から、図6に示されるように、最も「顔らしい領域」としてオブジェクト候補1311を、最も「ネクタイらしい領域」としてオブジェクト候補1312を、最も「リンゴらしい領域」としてオブジェクト候補1313を、「マーカらしい領域」としてオブジェクト候補1314をそれぞれ抽出する。これらの候補1311〜1314が、オブジェクト候補群1302である。
Here, FIG. 6 shows an object determination example.
The object
なお、オブジェクトの位置、大きさは、抽出したオブジェクトを囲む四角形の一つの対角線の始点と終点の座標で表すことが可能である。また、抽出したオブジェクトを囲む円の中心の座標と、半径の大きさによってオブジェクトの位置、大きさを表すようにしてもよい。この場合、オブジェクトの大きさは、この実施の形態1においてはオブジェクトの周囲を含め、余裕をみて表されているが、余裕なしに表すようにしてもよい。 Note that the position and size of the object can be represented by the coordinates of the start point and end point of one diagonal line of the rectangle surrounding the extracted object. Further, the position and size of the object may be represented by the coordinates of the center of the circle surrounding the extracted object and the size of the radius. In this case, the size of the object is represented with a margin including the periphery of the object in the first embodiment, but may be represented without a margin.
次に、オブジェクト候補判定部320は、それぞれの領域の候補1311〜1314について、上述のようにオブジェクト判定を行うことにより「顔か否か」、「ネクタイか否か」、「リンゴか否か」が判定され、オブジェクトの種別が決定される。判定方法は例えば、上述のような色分布による手法(顔であれば肌色が多い)や、形状による手法(ネクタイの典型的な形を利用する)がある。なお、オブジェクト候補1313は「リンゴらしい色」を含んでいないため、「リンゴではない」と判定され、オブジェクトの種別は「不明」とされる。
Next, the object
さらに、オブジェクト優先度判定部330は、図7に示されるオブジェクト優先度設定テーブル331を予め保持しており、このオブジェクト優先度設定テーブル331を用いて、それぞれの領域の候補1311〜1314について、種別との対応関係からオブジェクトの優先度「5」、「3」、「1」、「3」をそれぞれ取得する。
Furthermore, the object
これにより図6に示される原画像1301(ファイル名:a001.jpg)に対応するオブジェクト情報(図5参照)が生成されてオブジェクト情報保持部220に格納される。
Thereby, object information (see FIG. 5) corresponding to the original image 1301 (file name: a001.jpg) shown in FIG. 6 is generated and stored in the object
なお、図7に示されるオブジェクト優先度設定テーブル331においては、オブジェクトの種類として、「人の顔」、「ネクタイ」、「ネックレス」、…、「リンゴ」、「ミカン」、…、「マーカ」、「イレーザ」、…、「不明」が予め登録されているが、オブジェクト候補判定部320で種別を判定できる限り、人物(全身)、人物(ウエストショット)、人物(ブレストショット)、犬、猫などの動物、レモン等の植物、机、椅子、書籍、値札等の動産、観光案内地図や、駅名、会社名など文字列を含む看板等の不動産等、あらゆる種類のオブジェクトに適用できるのはいうまでもない。
In the object priority setting table 331 shown in FIG. 7, “person's face”, “tie”, “necklace”,..., “Apple”, “mandarin orange”,. , “Erase”,..., “Unknown” are registered in advance, but as long as the object
また、「人の顔」、「ネクタイ」、「ネックレス」、…のオブジェクトについてその優先度が「5」、「3」、「3」、…に予め設定されているが、ユーザが自己の嗜好にあわせて設定するようにしてもよい。 In addition, the priority of the objects “person's face”, “tie”, “necklace”,... Is preset to “5”, “3”, “3”,. You may make it set according to.
これによって、表示の対象となる全ての原画像につき、それぞれオブジェクトの位置等が取得され、オブジェクトを中心とした画像処理が可能となる。
次に、上記のように構成された画像表示装置1でサムネイル画像を生成する時の動作について説明する。
As a result, the positions of the objects and the like are obtained for all the original images to be displayed, and image processing centered on the objects becomes possible.
Next, an operation when a thumbnail image is generated by the
図8は、表示用画像生成部40のサムネイル画像生成処理部410におけるサムネイル画像生成時のアルゴリズムを示すフローチャートである。
なお、この画像表示装置1では表示器50に9個のサムネイル画像を一覧表示するため、1つのサムネイル画像を4800(水平80×垂直60)画素で形成するように構成されている。
FIG. 8 is a flowchart showing an algorithm at the time of thumbnail image generation in the thumbnail image generation processing unit 410 of the display
The
サムネイル画像生成処理部410は、画像保持部210に保持される全ての原画像について、原画像ごとに以下の処理を繰り返し実行する(ループB)。
まず、サムネイル画像生成処理部410は、対応するオブジェクト情報を参照し、原画像にオブジェクトが存在するか否か判断する(S200)。存在する場合(S200でYes)、サムネイル画像の対象をオブジェクトの領域に決定する(S202)。なお、オブジェクトが複数存在する場合、優先度が高い領域に決定される。領域の決定が終わると、サムネイル画像生成処理部410は、オブジェクト領域と表示器50との画素数の割合から、オブジェクト領域の縮小率を算出し(S204)、算出した割合に基づいて間引き等を行うことによって、オブジェクトについてのサムネイル画像を生成し(S206)、そのサムネイル画像をサムネイル画像保持部230に保存する(S208)。
The thumbnail image generation processing unit 410 repeatedly executes the following processing for each original image for all original images held in the image holding unit 210 (loop B).
First, the thumbnail image generation processing unit 410 refers to corresponding object information and determines whether an object exists in the original image (S200). If it exists (Yes in S200), the target of the thumbnail image is determined as the object area (S202). If there are a plurality of objects, the area is determined to have a high priority. When the determination of the area is completed, the thumbnail image generation processing unit 410 calculates the reduction ratio of the object area from the ratio of the number of pixels between the object area and the display 50 (S204), and performs thinning or the like based on the calculated ratio. By doing so, a thumbnail image of the object is generated (S206), and the thumbnail image is stored in the thumbnail image holding unit 230 (S208).
一方、オブジェクトが存在しないと判断した場合(S200でNo)、サムネイル画像生成処理部410は、サムネイル画像の対象を原画像の全体に決定し(S210)、原画像の全体と表示器50との画素数の割合から、原画像の縮小率を算出し(S212)、算出した割合に基づいて間引き等を行うことによって、原画像全体についてのサムネイル画像を生成し(S214)、そのサムネイル画像を保存する(S216)。
On the other hand, if it is determined that the object does not exist (No in S200), the thumbnail image generation processing unit 410 determines the target of the thumbnail image as the entire original image (S210), and the entire original image and the
画像保持部210に保持される全ての原画像について、原画像ごとにサムネイル画像の生成が終わると、サムネイル画像生成処理部410は、サムネイル画像の生成を終了する。
When the generation of thumbnail images for all original images held in the
ここで、図9(a)および(b)は、サムネイル画像について一覧表示を行った例を示している。
図9(a)は、オブジェクトを中心としたサムネイル画像について一覧表示した場合を示している。この表示例のようにオブジェクトを抽出して表示することで、画像の中に含まれているものが何かをユーザに分かりやすく提示することができる。
Here, FIGS. 9A and 9B show examples in which thumbnail images are displayed as a list.
FIG. 9A shows a case where thumbnail images centered on an object are displayed as a list. By extracting and displaying the object as in this display example, it is possible to present to the user what is included in the image in an easy-to-understand manner.
図9(b)は、従来例と同様に原画像全体から作成したサムネイル画像である。このサムネイルの一覧表示では、画像一枚一枚の表示される大きさが非常に小さくなるため、画像の中に含まれているものが何かを視認することは、大変困難になるのがよくわかる。 FIG. 9B shows a thumbnail image created from the entire original image as in the conventional example. In this thumbnail list display, the size of each displayed image is very small, so it is often very difficult to see what is contained in the image. Recognize.
次いで、表示用画像生成処理について説明する。
図10は、表示用画像生成処理を示すフローチャートである。
まず、表示用画像生成部40のサムネイル画像生成処理部410は、サムネイル画像を一覧表示し(S300)、サムネイル画像が選択されるのを待つ(S302)。この選択は、サムネイル画像に付された番号の入力や、カーソルキーの移動によって行われる。サムネイル画像が選択されると、表示用画像生成部40は、対応する原画像を読み出し(S304)、続いて、オブジェクト情報を読み出して(S306)、原画像にオブジェクトが存在するか否かを判断する(S308)。
Next, display image generation processing will be described.
FIG. 10 is a flowchart showing display image generation processing.
First, the thumbnail image generation processing unit 410 of the display
オブジェクトが存在する場合(S308でYes)、表示用画像生成部40は、エフェクトの種別を決定し(S310)、エフェクトの種別に応じた表示用画像を生成する(S312)。生成された表示用画像は、表示用画像保持部250を介して表示器50に転送され、表示器50によって表示される(S314)。
When the object exists (Yes in S308), the display
一方、オブジェクトが存在しない場合(S308でNo)、表示用画像生成部40は、原画像全体から表示用画像を生成する(S316)。生成された表示用画像(全体画像)は、表示用画像保持部250を介して表示器50に転送され、表示器50によって表示される(S314)。
On the other hand, when the object does not exist (No in S308), the display
表示器50への転送が終わると、表示用画像生成部40は、戻るボタン(F1ボタン)が押下されたか否か判断する(S318)。戻るボタンが押下された場合(S318でYes)、画像の閲覧が終了したとみなしてステップS300に戻り、サムネイル画像が選択されるのを待つ。これにより図9(a)に示されるサムネイル画像に対応する表示用画像を順次閲覧することができる。
When the transfer to the
戻るボタンが押下されていない場合(S318でNo)、表示用画像生成部40は、保存ボタンが押下されたか否かを判断する(S320)。保存ボタンが押下された場合(S320でYes)、表示用画像をユーザ指定画像保持部240に保存し(S322)、ステップS324に進む。保存ボタンが押下されていない場合(S320でNo)、表示用画像生成部40は、ステップS324に進む。これにより、ユーザが気に入った表示用画像だけをユーザ指定画像保持部240に保存しておき、気に入った表示用画像だけを表示させることが可能となる。
When the return button has not been pressed (No in S318), the display
ステップS324においては、表示用画像生成部40は、オンフックボタンが押下された否か判断する(S324)。オンフックボタンが押下されていない場合(S324でNo)、表示用画像生成部40は、ユーザが表示用画像を閲覧中であるとみなしてステップS312に戻り、表示用画像を生成する。
In step S324, the display
オンフックボタンが押下された場合(S324でYes)、表示用画像生成部40は、ユーザによる表示用画像の閲覧が終了したとみなして、表示用画像生成処理を終了する。
When the on-hook button is pressed (Yes in S324), the display
図11は、エフェクトの種別に応じた表示用画像生成処理のサブルーチンを示すフローチャートである。 FIG. 11 is a flowchart illustrating a subroutine of display image generation processing corresponding to the type of effect.
まず、表示用画像生成部40は、エフェクトの種別を決定する(S400)。この決定は、拡大・縮小処理、視点移動処理、ズームイン・アウト処理および切り出し処理をランダムに選択することにより行われる。
First, the display
決定されたエフェクトが拡大・縮小処理である場合、拡大縮小処理部420は、まず表示用画像生成の初期であるか否かを判断する(S402)。表示用画像生成の初期である場合(S402でYes)、拡大縮小処理部420は、原画像中のオブジェクト(人の顔)の領域と、全体画像の領域とを表示領域に決定し(S404)、拡大フラグに「1」をセットし(S406)、オブジェクト(人の顔)の領域から拡大表示画像を生成し(S408)、図10に示されるメインルーチンにリターンする。
If the determined effect is enlargement / reduction processing, the enlargement /
この拡大表示画像は、原画像中のオブジェクト(人の顔)の領域と表示器50との画素数の割合から、オブジェクト(人の顔)の領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図12(a)に示されるように、オブジェクト(人の顔)の領域だけが表示される。
This enlarged display image was calculated by calculating the enlargement / reduction ratio of the object (human face) area from the ratio of the number of pixels of the object (human face) area and the
一方、表示用画像生成の初期でない場合(S402でNo)、拡大縮小処理部420は、拡大フラグが「1」であるか否か(S410)と、センターボタンが押下されたか否か(S412)とを、順次判断する。判断の結果、拡大フラグが「1」で(S410でYes)、センターボタンが押下された場合(S412でYes)、拡大縮小処理部420は、拡大画像の閲覧が終了したとみなして、拡大フラグに「0」をセットし(S414)、全体画像の領域から縮小画像を生成し(S416)、図10に示されるメインルーチンにリターンする。
On the other hand, when it is not the initial stage of display image generation (No in S402), the enlargement /
この縮小表示画像は、原画像全体の領域と表示器50との画素数の割合から、原画像の縮小率を算出し、算出した割合に基づいて間引き等を行うことによって、生成される。これにより表示器50には図12(b)に示されるように、全体画像が表示される。
This reduced display image is generated by calculating the reduction ratio of the original image from the ratio of the number of pixels of the entire area of the original image and the
これに対して、判断の結果、拡大フラグが「0」で(S410でNo)、センターボタンが押下された場合(S412でYes)、縮小画像の閲覧が終了したとみなして、ステップS414に戻り、拡大フラグに「1」をセットし(S406)、オブジェクト(人の顔)の領域から拡大表示画像を生成する(S408)。 On the other hand, as a result of the determination, if the enlargement flag is “0” (No in S410) and the center button is pressed (Yes in S412), it is regarded that the browsing of the reduced image is completed, and the process returns to step S414. Then, “1” is set in the enlargement flag (S406), and an enlarged display image is generated from the area of the object (human face) (S408).
センターボタンが押下されていない場合(S412でNo)、拡大縮小処理部420は、拡大画像または縮小画像の閲覧中であるとみなして、図10に示されるメインルーチンにリターンする。
If the center button has not been pressed (No in S412), the enlargement /
このような拡大画像によって、被写体を大きく見せたり、細部までよく見せたりすることができ、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。 Such an enlarged image makes it possible to make the subject appear larger or show details, to reduce visual image quality degradation, improve visibility, and reduce the user's operation load.
また、縮小表示画像についても原画像全体から作成されているので、従来よりも視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。
ステップS400において、決定されたエフェクトが視点移動処理である場合、視点移動処理部430は、まず表示用画像生成の初期であるか否かを判断する(S420)。表示用画像生成の初期である場合(S420でYes)、視点移動処理部430は、原画像中のオブジェクト(ブレストショット)の領域と、視点を右横に移動した領域とを表示領域に決定し(S422)、右横に移動した領域から表示用画像を生成し(S424)、図10に示されるメインルーチンにリターンする。
Further, since the reduced display image is also created from the entire original image, it is possible to reduce visual image quality degradation, improve visibility, and reduce the user's operation load.
In step S400, when the determined effect is the viewpoint movement process, the viewpoint
この表示画像は、原画像中の視点を右横に移動した領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図13(a)に示されるように、オブジェクト(ブレストショット)の半分とその人の回りの領域が表示される。
This display image is obtained by calculating the enlargement / reduction ratio of the object area from the ratio of the number of pixels of the area where the viewpoint in the original image is moved to the right and the
一方、表示用画像生成の初期でない場合(S420でNo)、視点移動処理部430は、所定時間(例えば、2秒)が経過するのを待つ(S426)。所定の時間が経過すると(S426でYes)、視点移動処理部430は、右横画像の閲覧が終了したとみなして、オブジェクト(ブレストショット)の領域から表示用画像を生成し(S428)、図10に示されるメインルーチンにリターンする。
On the other hand, when the display image generation is not initial (No in S420), the viewpoint
この表示画像は、原画像中のオブジェクトの領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図13(b)に示されるように、オブジェクト(ブレストショット)の画像だけが表示される。
In this display image, the enlargement / reduction ratio of the object area is calculated from the ratio of the number of pixels between the object area and the
このような表示画像によって、オブジェクトの周囲からオブジェクトまで広い範囲にわたって大きく見せたり、細部までよく見せたりすることができ、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。 With such a display image, the object can be enlarged over a wide range from the object's surroundings to the object, and the details can be shown well, reducing visual image quality degradation, improving visibility, and user operation load Can also be reduced.
ステップS400において、決定されたエフェクトがズームイン・アウト処理である場合、ズームイン・アウト処理部440は、まず表示用画像生成の初期であるか否かを判断する(S430)。表示用画像生成の初期である場合(S430でYes)、ズームイン・アウト処理部440は、原画像中のオブジェクト(ウエストショット)の領域と、視点を固定したままズームインした領域とを表示領域に決定し(S432)、ズームインした領域から表示用画像を生成し(S434)、図10に示されるメインルーチンにリターンする。
If the determined effect is the zoom-in / out process in step S400, the zoom-in / out processing
このズームイン画像は、原画像中のズームインした領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図14(a)に示されるように、視点を画面中央とし、オブジェクト(ブレストショット)にズームアップした領域が表示される。
In this zoomed-in image, the enlargement / reduction ratio of the object area is calculated from the ratio of the number of pixels of the zoomed-in area in the original image and the
一方、表示用画像生成の初期でない場合(S430でNo)、ズームイン・アウト処理部440は、所定時間(例えば、2秒)が経過するのを待つ(S436)。所定の時間が経過すると(S436でYes)、ズームイン・アウト処理部440は、ズームアップした画像の閲覧が終了したとみなして、オブジェクト(ブレストショット)の領域から表示用画像を生成し(S438)、図10に示されるメインルーチンにリターンする。
On the other hand, when the display image generation is not initial (No in S430), the zoom-in / out processing
このズームアウト画像は、原画像中のズームアウトした領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図14(b)に示されるように、オブジェクト(ウエストショット)とその回りの画像が表示される。
This zoomed-out image calculates the enlargement / reduction ratio of the object area from the ratio of the number of pixels of the zoomed-out area in the original image and the
このようなズームイン画像やズームアウト画像によって、オブジェクトまで接近することによって、オブジェクトを大きく見せたり、細部までよく見せたり、オブジェクトから離れることによって、その周囲の広い範囲にわたってよく見せたり、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。 With such zoomed-in and zoomed-out images, you can get close to the object to make it look larger, show details, and move away from the object to make it look good over a wide area. It is possible to reduce deterioration of the image quality, improve visibility, and reduce the operation load on the user.
なお、ズームイン・アウト処理部440の視点は必ずしも固定されている必要は無く、処理中に視点が移動してもよい。
ステップS400において、決定されたエフェクトが切り出し処理である場合、切り出し処理部450は、まず表示用画像生成の初期であるか否かを判断する(S440)。表示用画像生成の初期である場合(S440でYes)、切り出し処理部450は、原画像中のオブジェクト(ブレストショット)の領域と、その人の顔を切り出した領域とを表示領域に決定し(S442)、オブジェクト(ブレストショット)の領域から表示用画像を生成し(S444)、図10に示されるメインルーチンにリターンする。
Note that the viewpoint of the zoom-in / out processing
In step S400, when the determined effect is the clipping process, the clipping processing unit 450 first determines whether or not it is the initial stage of display image generation (S440). When it is the initial stage of display image generation (Yes in S440), the cutout processing unit 450 determines the area of the object (breast shot) in the original image and the area of the person's face cut out as display areas ( In step S442, a display image is generated from the object (breast shot) area (S444), and the process returns to the main routine shown in FIG.
この表示画像は、原画像中のオブジェクト(ブレストショット)の領域と表示器50との画素数の割合から、オブジェクトの領域の拡大率・縮小率を算出し、算出した割合に基づいて補完や、間引き等を行うことによって、生成される。これにより表示器50には図15(a)に示されるように、オブジェクト(ブレストショット)の領域が表示される。
This display image calculates the enlargement / reduction ratio of the object area from the ratio of the number of pixels of the object (breast shot) area and the
一方、表示用画像生成の初期でない場合(S440でNo)、切り出し処理部450は、所定時間(例えば、2秒)が経過するのを待つ(S446)。所定の時間が経過すると(S446でYes)、切り出し処理部450は、ブレストショット画像の閲覧が終了したとみなして、オブジェクト(人の顔)の領域だけを切り出して表示用画像を生成し(S448)、図10に示されるメインルーチンにリターンする。 On the other hand, when it is not the initial stage of display image generation (No in S440), the cutout processing unit 450 waits for a predetermined time (for example, 2 seconds) to elapse (S446). When the predetermined time has elapsed (Yes in S446), the cutout processing unit 450 regards that the browsing of the breast shot image is finished, and cuts out only the area of the object (human face) to generate a display image (S448). ), The process returns to the main routine shown in FIG.
この切り出し画像は、オブジェクト(人の顔)の領域の外側をカットし、カットした領域に黒色を描くこと等により生成される。これにより表示器50には図15(b)に示されるように、オブジェクト(人の顔)だけを切り出した画像が表示される。
This cut-out image is generated by cutting the outside of the area of the object (human face) and drawing black in the cut area. As a result, an image obtained by cutting out only the object (human face) is displayed on the
このような切り出し画像によって、不要な領域の画像をマスクしたり、撮影時のコメント等で飾ったりすることができ、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。 With such a cut-out image, an image of an unnecessary area can be masked or decorated with a comment or the like at the time of shooting, reducing visual image quality deterioration, improving visibility, and user operation load Can also be reduced.
なお、オブジェクトを切り出した背景には、任意の画像・テキスト・テクスチャ(貼り付ける模様・絵柄)を表示することができる。これらのデータは予め画像保持部210に保持しておいたものを利用しても、新しく表示用画像生成部40が生成しても、外部インタフェース部10を通じて取得してもよい。
An arbitrary image / text / texture (pattern to be pasted / pattern) can be displayed on the background from which the object is cut out. These data may be stored in advance in the
次いで、スライドショー部460が実行する処理について説明する。
図16は、スライドショー460部が実行する処理を示すフローチャートである。
スライドショー部460は、画像保持部210に保持されている全ての表示用画像について、表示用画像ごとに以下の処理を繰り返し実行する(ループC)。
Next, processing executed by the
FIG. 16 is a flowchart showing processing executed by the
The
スライドショー部460は、ユーザ指定画像保持部240からユーザの指定によって記憶された表示用画像を読み出し(S500)、その表示用画像を表示器50に表示させ(S502)、所定時間(例えば、2秒)経過するのを待つ(S504)。
The
このような処理を繰り返すことにより全ての表示用画像について、一定時間ずつの表示が終わると、スライドショー部460は、スライドショーを終了する。
ここで、ユーザ指定画像保持部240には、ユーザが気に入った画像のうち、視認性を向上させた画像が保持されるのが一般的である。
By repeating such processing, the
Here, the user-designated
したがって、スライドショーにおいても、視覚的な画質の劣化を軽減し、視認性を向上させ、ユーザの操作負荷も軽減することができる。
なお、この実施の形態1においては、拡大画像が表示されている場合においてセンターボタンが押下されたとき縮小画像を生成して表示し、縮小画像が表示されている場合においてセンターボタンが押下されたとき拡大画像を生成して表示したが、図17に示されるように、拡大画像421と縮小画像422とを交互に自動的に表示するようにしてもよい。これによって、ユーザの操作負荷を軽減することが可能となる。
Therefore, even in a slide show, it is possible to reduce visual image quality deterioration, improve visibility, and reduce a user's operation load.
In the first embodiment, a reduced image is generated and displayed when the center button is pressed when an enlarged image is displayed, and the center button is pressed when a reduced image is displayed. At this time, the enlarged image is generated and displayed. However, as shown in FIG. 17, the
また、上記実施の形態1においては、表示器50に画像だけを表示したが、図18に示されるように画面中に、拡大画像423の表示の際には「戻る」、「全体」、「保存」のアイコンを、縮小画像424の表示の際には「戻る」、「拡大」、「保存」のアイコンを、表示するようにしてもよい。これにより、GUIによる操作性を向上させることができ、ユーザの操作負荷も軽減される。
In the first embodiment, only the image is displayed on the
また、上記実施の形態1では、全体画像と人の顔の拡大画像との2つの画像を生成して表示するようにしたが、図19に示されるように全体画像425aから人の顔の拡大画像425dまで徐々に倍率を変更して滑らかに移行することもできる。これによって、視覚効果を向上させることができる。
In the first embodiment, two images, that is, the entire image and the enlarged image of the human face are generated and displayed. However, as shown in FIG. 19, the enlarged human face is displayed from the
さらに、上記実施の形態1では、視点移動処理部430において、狭い範囲での視点移行を行ったが、さらに所定の視覚効果を加えながら表示することもできる。この具体例を以下述べる。
Furthermore, in the first embodiment, the viewpoint
ここでは、原画像を図20(a)に示される撮影画像であるとする。これまで説明してきた実施の形態1により、自動的に全体表示もしくはオブジェクトの拡大表示を行うことが可能であるが、ここでは、画像の全体像をつかみながらROIに徐々に注目していく表示手法を説明する。 Here, it is assumed that the original image is a captured image shown in FIG. Although the entire display or the enlarged display of the object can be automatically performed according to the first embodiment described so far, here, a display method in which attention is gradually paid to the ROI while grasping the entire image. Will be explained.
ここで、オブジェクト判定部30により、撮影画像中のROIとしてオブジェクト(顔)が抽出されたとし、最終的に表示したい領域(最終表示領域)を、図20(b)に示される左側の四角で囲まれる領域とする。一方、最終表示領域や、他のオブジェクトから最も遠い図20(a)に示される四角で囲まれる領域を初期表示領域とする。この場合、当然であるが表示領域の大きさは初期表示領域と最終表示領域とで等しい。そして、初期表示領域から、オブジェクトの「マーカ」、「不明」、「ネクタイ」、最終表示領域までを結ぶ表示領域移動線(オブジェクトを巡回するスプライン線)を引くことができる。このスプライン線に沿って視点を移動し、初期表示領域から徐々に最終表示領域に至るような表示もできる。
Here, it is assumed that the object (face) is extracted as the ROI in the captured image by the
この場合、表示器50に表示される画像は、図21に示す初期表示領域画像426a〜最終表示領域画像426gのように時間軸で推移する。これによって初期表示領域から徐々に最終表示領域に至るパノラマ画像が表示され、視覚効果を飛躍的に高めることができる。
In this case, the image displayed on the
もちろん、初期表示の位置/大きさや最終表示領域の位置/大きさ、表示領域の移動方法などは上記の限りではなく、全ては任意である。
即ち、拡大縮小処理部420、視点移動処理部430、ズームイン・アウト処理部440、切り出し処理部450の組み合わせによって可能な任意の処理であり、任意形状領域を任意の拡大率で任意の視点移動を組み合わせながら、ズームイン・アウト処理を加えて全体画像とオブジェクトを表示することができる。
Of course, the position / size of the initial display, the position / size of the final display area, the method of moving the display area, etc. are not limited to the above, but are all arbitrary.
That is, it is an arbitrary process that can be performed by a combination of the enlargement /
また、上記実施の形態1を通じて、縮小表示される画像と拡大表示される画像データとは、それぞれ原画像から独立に生成することも、従属的に生成することもできる。独立生成する場合は、縮小化された画像を改めて拡大することなく拡大表示ができるため、より良い画質が得られる。従属生成する場合には、特に縮小表示される画像をベースにすることにより内部メモリの削減が可能である。 Further, through the first embodiment, the image to be reduced and the image data to be enlarged can be generated independently from the original image or can be generated dependently. In the case of independent generation, since a reduced image can be enlarged and displayed without being enlarged again, better image quality can be obtained. In the case of subordinate generation, it is possible to reduce the internal memory by using an image that is particularly reduced and displayed as a base.
また、携帯電話機やPDA、ゲーム機、デジタルカメラ、ビデオカメラ、パーソナルコンピュータ(PC)、ノート型のPC、カーナビゲーションなどのように表示装置をもつ一般の電気機器を画像表示装置とみなして利用することができる。 In addition, a general electric device having a display device such as a mobile phone, a PDA, a game machine, a digital camera, a video camera, a personal computer (PC), a notebook PC, or a car navigation is regarded as an image display device. be able to.
また、単一の画像表示だけではなくスライドショー(ショートフィルム)的に、複数の画像を連続的に表示する場合にも適用することができる。この場合、例えばカメラ付き携帯電話機やデジタルカメラのように、撮像素子数(CCD画素数)が端末表示画面の画素数よりも大きく、且つ一般に画像データが多数(複数枚)保存されていることが自然である端末で、端末内の画像を連続表示する際に、単に縮小画像をスライドショー的に見るだけでなく、ROIへのズームアップなど、見たい場所の拡大表示などを加えつつ、動画編集されたようにスタイリッシュな表示を行なうこともできる。 Further, the present invention can be applied not only to displaying a single image but also to displaying a plurality of images continuously in a slide show (short film). In this case, the number of image sensors (the number of CCD pixels) is larger than the number of pixels on the terminal display screen, and a large number (a plurality of) of image data is generally stored, such as a camera-equipped mobile phone or a digital camera. When displaying images in a terminal on a natural terminal, the video is edited while adding not only a slide show of the reduced images, but also an enlarged display of the desired location, such as zooming in to the ROI. As you can see, it is possible to display stylishly.
また、外部出力を持ち、特に連続表示(上記のスタイリッシュなスライドショー的再生表示)を動画として、もしくは静止画と再生方法を記述したデータファイルとして保存することや、ビデオ出力として外部に出力することもできる。 In addition, it has an external output, and in particular, it can be saved as a moving image or a data file describing the still image and the playback method, and can be output to the outside as a video output. it can.
さらに、拡大・縮小時に任意の効果音を付与することや、上記のスライドショー的再生時に音楽を付与することもできる。
(実施の形態2)
次に、本発明の実施の形態2に係るショートフィルム生成装置について図22〜30を用いて説明する。
Furthermore, an arbitrary sound effect can be given at the time of enlargement / reduction, and music can be given at the time of the above-described slide show reproduction.
(Embodiment 2)
Next, the short film production | generation apparatus which concerns on
図22は、本発明の実施の形態2に係るショートフィルム生成装置の機能的な構成を示すブロック図である。
このショートフィルム生成装置500は、入力された1つ以上の静止画を用いて、短編映像(ショートフィルム)のシナリオを生成したり、静止画をシナリオに従ってショートフィルムを再生したりするコンピュータ装置であり、操作入力部501、画像入力部502、文字領域抽出部503、画像蓄積部504、シナリオ生成部505、画像再生部506および表示部507を備える。
FIG. 22 is a block diagram showing a functional configuration of the short film generating apparatus according to
The short
操作入力部501は、静止画像データの取り込み指示や、静止画像の選択等、ユーザからの操作入力を受け付けるキーボードやマウス等の入力装置である。
画像入力部502は、デジタルカメラ100等で撮影されたJPEG圧縮形式等の静止画像データを、装置内に取り込む処理部であり、USB(Universal Serial Bus)やIEEE(Institute of Electrical and Electronic Engineers)1394等のインタフェースによって実現される。
The
The
文字領域抽出部503は、装置内に取り込まれた静止画像に四角形の文字領域が含まれているか否かを判別し、文字領域が含まれている場合にその文字領域に関する文字領域情報を抽出する処理部であり、パターンマッチング法、エッジ検出法などを用いたOCR(Optical Character Reader)によって実現される。ここで、文字領域情報には、静止画像中における文字領域の位置や、文字領域の形状、サイズおよび色彩等が含まれ、文字領域抽出部503は、抽出した文字領域情報を装置内のメモリに保持する。
The character
画像蓄積部504は、デジタルカメラ100で撮影されたJPEG圧縮形式等の静止画像データを蓄積するハードディスク等の記憶装置である。
シナリオ生成部505は、ユーザから受け付けた画像の選択結果を操作入力部501から取得し、選択された画像の再生順および視覚効果を決定し、再生情報であるシナリオを生成する処理部であり、CPUやメモリによって実現される。
The
The
画像再生部506は、シナリオ生成部505において生成されたシナリオに従って画像蓄積部504から静止画像を読み出し、シナリオで指定された視覚効果を施しながら15フレーム/秒で再生する動作を繰り返す処理部であり、CPUやメモリによって実現される。
The
表示部507は、シナリオ生成部505や画像再生部506からの制御を受けてユーザインタフェース画面や画像を表示するCRTディスプレイや液晶ディスプレイ等である。
このように構成されたショートフィルム生成装置500の各部の処理動作について、以下、詳しく説明する。
The
The processing operation of each part of the short
図23は、文字領域抽出部503の処理手順を示すフロー図である。
まず、ユーザがデジタルカメラ100で撮影した静止画像のデータは、画像入力部502を介して直接ショートフィルム生成装置500に取り込まれる(S600)。
FIG. 23 is a flowchart showing the processing procedure of the character
First, still image data captured by the user with the
このとき、文字領域抽出部503は、画像入力部502から取り込まれた静止画像データから文字領域の抽出を行なう(S602)。また、このとき、文字領域抽出部503は、その静止画像データのファイル名と、文字領域の種別を示す文字領域抽出情報を記述するためのフィールドを生成して、メモリに保持しておく。
At this time, the character
ここで、静止画像データに文字領域が含まれていない場合(S604のNo)、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"抽出なし"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S606)。
Here, when the character area is not included in the still image data (No in S604), the character
一方、静止画像データに文字領域が含まれている場合(S604のYes)、文字領域抽出部503は、文字領域情報を参照して、その画像に含まれる文字領域が縦長領域(縦横の比率が2対1以上)であるか否かを判断する(S608)。
On the other hand, if the still image data includes a character region (Yes in S604), the character
文字領域が縦長領域である場合(S608のYes)、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"縦長領域"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S610)。
When the character region is a vertically long region (Yes in S608), the character
文字領域が縦長領域でない場合は(S608のNo)、文字領域抽出部503は、文字領域情報を参照して、その画像に含まれる文字領域が横長領域(縦横の比率が1対2以上)であるか否かを判断する(S612)。
If the character area is not a vertically long area (No in S608), the character
ここで、文字領域が横長領域である場合(S612のYes)、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"横長領域"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S614)。
When the character area is a horizontally long area (Yes in S612), the character
一方、文字領域が横長領域でない場合(S612のNo)、すなわち、文字領域が正方形に近い形の場合、文字領域抽出部503は、メモリに保持している文字領域抽出情報のフィールドに、"正方形領域"を追加し、静止画像データを画像蓄積部504に格納して処理動作を終了する(S616)。
On the other hand, when the character area is not a horizontally long area (No in S612), that is, when the character area is nearly square, the character
図24は、シナリオ生成部505の処理手順を示すフロー図である。
まず、操作入力部501が、ユーザからショートフィルム生成ボタンを押下する操作を受け付けると、操作入力部501は、シナリオ生成部505にシナリオ生成指示を出力する。
FIG. 24 is a flowchart showing the processing procedure of the
First, when the
シナリオ生成部505は、シナリオ生成指示を取得すると、ユーザに画像蓄積部504に格納されている画像から複数枚を選択するように促す画面(画像選択画面)を生成して、表示部507に出力する(S650)。
When the
ここで、操作入力部501は、ユーザから、表示部507に表示される画像の中から再生する静止画像を選択する操作を受け付けると(S652のYes)、シナリオ生成部505に選択された画像の情報を出力する。
Here, when the
そして、シナリオ生成部505は、選択された画像の撮影時刻情報をチェックし、各画像の再生情報を撮影時刻順に並べて連結リスト化したシナリオ外枠を生成する(S654)。
Then, the
ここで、操作入力部501が、ユーザから、5枚の静止画像(画像1、画像2、画像3、画像4および画像5)の選択を受け付けた場合に生成されるシナリオ外枠を図25に示す。なお、この5枚の静止画像の撮影時刻は、画像1、画像2、画像3、画像4、画像5の順に時系列に並んでいるとする。
Here, FIG. 25 shows a scenario outer frame generated when the
図25に示すように、シナリオ外枠は、シナリオヘッダ600、シナリオ先頭リスト601、シナリオ第2リスト602、シナリオ第3リスト603、シナリオ第4リスト604およびシナリオ第5リスト605が、連結リスト化されることにより構成される。
As shown in FIG. 25, the scenario outer frame includes a
このとき、シナリオヘッダ600には、シナリオ名と画像数がセットされ、シナリオ外枠の各リスト601〜605には、各画像の再生情報のうち画像ファイル名、画像蓄積部504における格納場所および文字領域抽出情報がセットされる。
At this time, the
そして、シナリオヘッダ600の全再生時間や、シナリオ外枠の各リスト601〜605の視覚効果情報や再生時間情報は、この段階では空白状態となっている。
再び図24を参照してシナリオ生成部505の処理手順の説明を続けると、シナリオ生成部505は、生成したシナリオ外枠のシナリオ先頭リスト601を参照し(S656)、シナリオ先頭リスト601に示される画像に対して割り当てる視覚効果を決定する。
The total playback time of the
Referring to FIG. 24 again, when the description of the processing procedure of the
このとき、シナリオ生成部505は、視覚効果を決定するためにシナリオ外枠にセットされた文字領域抽出情報をチェックして、シナリオ先頭リスト601に示される画像(画像1)が、文字領域が抽出された画像であるか否かを判断する(S658)。
At this time, the
文字領域が抽出された画像である場合(S658のYes)、シナリオ生成部505は、さらに、その文字領域抽出情報を参照して画像に含まれる文字領域が縦長領域であるか否かを判断する(S660)。
When the character region is an extracted image (Yes in S658), the
文字領域が縦長領域であれば(S660のYes)、シナリオ生成部505は、その文字領域に対する上から下方向へのPan効果を、シナリオ先頭リスト601の視覚効果情報に追加する(S662)。なお、上記実施の形態1では、上下方向へ表示領域を移動させる視覚効果をtilt(ティルト)と称しているが、以下では、上下方向へのPan効果と称することにする。
If the character region is a vertically long region (Yes in S660), the
一方、文字領域が縦長領域でなければ(S660のNo)、シナリオ生成部505は、その文字領域抽出情報を参照して画像に含まれる文字領域が横長領域であるか否かを判断する(S664)。
On the other hand, if the character region is not a vertically long region (No in S660), the
文字領域が横長領域である場合(S664のYes)、シナリオ生成部505は、その文字領域に対する左から右方向へのPan効果を、シナリオ先頭リスト601の視覚効果情報に追加する(S666)。
When the character area is a horizontally long area (Yes in S664), the
文字領域が横長領域でない場合(S664のNo)、すなわち、文字領域が正方形領域である場合、シナリオ生成部505は、その文字領域に対するズームイン効果を、シナリオ先頭リスト601の視覚効果情報に追加する(S668)。
When the character region is not a horizontally long region (No in S664), that is, when the character region is a square region, the
これに対して、シナリオ先頭リスト601に示される画像が、文字領域が抽出された画像でない場合(S668のNo)、シナリオ生成部505は、ランダム関数により乱数を発生させて3で除算して(S670)、除算した余りを求めることにより、画像に割り当てる視覚効果を決定する。
On the other hand, when the image shown in the
すなわち、シナリオ生成部505は、余りが1ならば(S672のYes)、画像に対するフェードイン効果をシナリオ先頭リスト601の視覚効果情報に追加し(S674)、余りが2ならば(S676のYes)、画像に対するフェードアウト効果をシナリオ先頭リスト601の視覚効果情報に追加する(S678)。また、余りが0ならば(S676のNo)、シナリオ先頭リスト601の視覚効果情報に視覚効果を施さないことを示すフラグを追加する。
That is, if the remainder is 1 (Yes in S672), the
さらに、シナリオ生成部505は、割り当てる視覚効果をシナリオ先頭リスト601の視覚効果情報に追加する際に、併せて画像の再生時間を設定して、シナリオ先頭リスト601の再生時間情報に追加する。ここでは、文字領域に対する上下もしくは左右のPan効果、または、ズームイン効果を施す画像の再生時間は3秒、それ以外の画像の再生時間は2秒に設定する。
Furthermore, when adding the visual effect to be assigned to the visual effect information in the
その後、シナリオ生成部505は、視覚効果情報および再生時間情報を追加したリストが最後のリストであるか否かを判断し(S680)、最後のリストであれば(S680のYes)、シナリオ生成の処理動作を終了し、最後のリストでなければ(S680のNo)、シナリオ外枠の次のリストを参照し(S682)、画像または画像に含まれる文字領域に対する視覚効果を決定する処理動作を繰り返す。
Thereafter, the
このようにして、シナリオ生成部505が、再生順において先頭の画像(画像1)から最後の画像(画像5)まで視覚効果を割り当てる処理動作を繰り返すと、図26に示すシナリオが完成する。
In this manner, when the
図26は、完成したシナリオを示す図である。
この完成したシナリオにおいて、シナリオヘッダ610には、全再生時間12秒を示す情報が記述され、画像1の再生情報が記述されるシナリオ先頭リスト611には、フェードアウト効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリスト611〜615にも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。
FIG. 26 shows a completed scenario.
In this completed scenario, information indicating the total playback time of 12 seconds is described in the
すなわち、この完成したシナリオによれば、画像1、画像2、画像3、画像4、画像5の順に再生され、画像1には、フェードアウト効果、画像2には、文字領域に対するズームイン効果、画像3には、文字領域に対する左右方向へのPan効果、画像4には、フェードイン効果の視覚効果をそれぞれに施すことが示されており、画像5には、視覚効果を施さないことが示されている。また、画像の再生時間は、それぞれ2秒、3秒、3秒、2秒、2秒(計12秒)であることが示されている。
That is, according to this completed scenario,
図27は、画像再生部506が、このようにして生成されたシナリオを用いて、画像を再生する処理手順を示すフロー図である。
まず、画像再生部506は、シナリオ生成部505により生成されたシナリオのアドレス情報を受け取り、シナリオ先頭リストを参照して(S700)、シナリオ先頭リストに格納された画像(画像1)の再生情報、すなわち、画像ファイル名、画像蓄積部504における格納場所、文字領域抽出情報、視覚効果情報、再生時間情報および次リスト情報を取得する。
FIG. 27 is a flowchart showing a processing procedure in which the
First, the
次に、画像再生部506は、取得した再生情報に基づいて、画像蓄積部504における格納場所から、画像ファイル名と一致する圧縮形式の静止画像データを読み出す(S702)。 画像再生部506は、読み出した圧縮形式の静止画像データを解凍すると、取得した再生時間情報(フレーム数)に基づいて、時間管理を行いながら、視覚効果情報において示される視覚効果(フェードアウト効果)を施して、画像を再生し表示部507に出力表示させる(S704)。
Next, the
画像の再生が終了すると、画像再生部506は、取得した次リスト情報を参照して、そのリストがシナリオにおける最後のリストであるか否かを判断する(S706)。
最後のリストでなければ(S706のNo)、画像再生部506は、次リスト情報に基づいて、シナリオの次のリストを参照して(S708)、次の画像(画像2)の再生情報を取得し、最後の画像(画像5)の再生処理が終了するまで、上記の処理動作を繰り返す。
When the image reproduction ends, the
If it is not the last list (No in S706), the
一方、シナリオにおける最後のリストであれば(S706のYes)、すなわち、次リスト情報が、"NULL"であれば、画像再生部506は、画像再生の処理動作を終了する。
On the other hand, if it is the last list in the scenario (Yes in S706), that is, if the next list information is “NULL”, the
ここで、図28を用いて、画像に含まれる文字領域に対する視覚効果について説明する。
図28は、ショートフィルム生成装置500における画面表示の第1例を示す図である。
Here, the visual effect on the character area included in the image will be described with reference to FIG.
FIG. 28 is a diagram illustrating a first example of a screen display in the short
ここでは、画像に含まれる文字領域に左右方向へのPan効果が施されている場合について説明する。
まず、ショートフィルム生成装置500の画像再生部506は、表示部507に第1表示画像例623を出力表示する。図28に示すように、この第1表示画像例623には、横長領域の第1文字領域624が含まれており、この第1文字領域624に左右方向へのPan効果が施されている。
Here, a case will be described in which a Pan effect in the left-right direction is applied to a character region included in an image.
First, the
次に、ショートフィルム生成装置500の画像再生部506は、第1表示画像例623に含まれる第1文字領域624を拡大して、表示部507に、第2表示画像例623aを出力表示する。そして、画像再生部506は、第1文字領域624の表示部分を右方向へ移動させて、第3表示画像例623bおよび第4表示画像例623cを順次、表示部507に出力表示する。第4表示画像例623cを表示した後、画像再生部506は、この画像の再生を終了して、次の画像の再生処理に移行する。
Next, the
画像に含まれる文字領域に対して、このような視覚効果を施すことによって、その画像の特性(撮影場所など)を強調することができ、ショートフィルムを閲覧するユーザに大きなインパクトを与えることができる。 By applying such a visual effect to the character area included in the image, it is possible to emphasize the characteristics of the image (such as the shooting location), and to have a great impact on the user viewing the short film. .
なお、上記シナリオ生成部505において、画像に含まれる文字領域に施される視覚効果は、上下または左右方向へのPan効果やズームイン効果に限られるものではない。例えば、画像全体を表示した後に文字領域に焦点を当てるフォーカスイン効果や、反対に、文字領域に焦点を当てた後に画像全体を表示するフォーカスアウト効果を施したり、また、文字領域を複数のパーツに分けて、文字領域を構成する各パーツを表示画面外から順次スライドさせて表示するスライドイン効果や、反対に、各パーツを表示画面外へ順次スライドさせて消すスライドアウト効果を施したりしてもよい。
In the
図29を用いて、画像に含まれる文字領域にフォーカスアウト効果が施されている場合について説明する。
図29は、ショートフィルム生成装置500における画面表示の第2例を示す図である。
A case where the focus-out effect is applied to the character area included in the image will be described with reference to FIG.
FIG. 29 is a diagram illustrating a second example of the screen display in the short
まず、ショートフィルム生成装置500の画像再生部506は、表示部507に第2表示画像例633aを出力表示する。図29に示すように、この第2表示画像例633aには、横長領域の第1文字領域634が含まれており、この第1文字領域634にフォーカスアウト効果が施されている。
First, the
次に、ショートフィルム生成装置500の画像再生部506は、第1文字領域634に当てられている焦点を拡大させて、表示部507に、画像全体を示す第1表示画像例633を出力表示し、その後、この画像の再生を終了して、次の画像の再生処理に移行する。
Next, the
なお、図29における画像表示の推移を示す矢印を逆方向にすれば、すなわち、第1表示画像例633を表示した後、第1文字領域634へ順次焦点を絞るように表示して、第2表示画像例633aを表示すれば、フォーカスイン効果が施されていることになる。
If the arrow indicating the transition of the image display in FIG. 29 is reversed, that is, after the first display image example 633 is displayed, the
また、図30を用いて、画像に含まれる文字領域にスライドイン効果が施されている場合について説明する。
図30は、ショートフィルム生成装置500における画面表示の第3例を示す図である。
Further, a case where a slide-in effect is applied to a character area included in an image will be described with reference to FIG.
FIG. 30 is a diagram illustrating a third example of screen display in the short
まず、ショートフィルム生成装置500の画像再生部506は、表示部507に第2表示画像例643aを出力表示する。図30に示すように、この第2表示画像例643aには、横長領域の第1文字領域644が含まれており、この第1文字領域644にスライドイン効果が施されている。
First, the
次に、ショートフィルム生成装置500の画像再生部506は、第1文字領域644のパーツ("奈良駅"の"奈"の部分)を表示画面の外からスライドさせて表示することで、表示部507に第3表示画像例643bを表示出力する。
Next, the
続いて、ショートフィルム生成装置500の画像再生部506は、第1文字領域644の次のパーツ("奈良駅"の"良"の部分)を表示画面の外からスライドさせて表示することで、表示部507に第4表示画像例643cを表示出力する。
Subsequently, the
最後に、ショートフィルム生成装置500の画像再生部506は、第1文字領域644の最後のパーツ("奈良駅"の"駅"の部分)を表示画面の外からスライドさせて表示することで、表示部507に第1表示画像例643を表示出力し、その後、この画像の再生を終了して、次の画像の再生処理に移行する。
Finally, the
このように、本実施の形態2に係るショートフィルム生成装置500によれば、文字領域抽出部503が静止画像に含まれる文字領域を抽出し、シナリオ生成部505が静止画像に含まれる文字領域に対して相応しい視覚効果を選択するので、よりインパクトのあるショートフィルムを生成することができる。
As described above, according to the short
なお、本実施の形態2では、文字領域情報のうち、文字領域の形状(縦横比)に基づいて画像に含まれる文字領域に施す視覚効果を選択するとしているが、文字領域の他のサイズ(面積または縦または横の長さ)や、色彩(文字や下地の色)に基づいて画像に含まれる文字領域に施す視覚効果を選択するとしてもよい。具体的には、所定の面積よりも小さい文字領域に対して拡大効果を施したり、道路標識の地名のように、青地に白で描かれている文字領域や、緑地に白で描かれている文字領域等に対して拡大効果を施したりすることが考えられる。 In the second embodiment, the visual effect to be applied to the character area included in the image is selected based on the shape (aspect ratio) of the character area from the character area information. The visual effect to be applied to the character region included in the image may be selected based on the area or the vertical or horizontal length) or the color (character or background color). Specifically, the text area that is smaller than the predetermined area is enlarged, or the text area that is drawn in white on a blue background, such as the name of a road sign, or white in a green area. For example, it may be possible to apply an enlargement effect to a character area or the like.
また、画像に含まれる文字領域に対して、その文字領域の色彩を変更したり、予め用意した他の文字で置き換えたりする視覚効果を施すことによって、文字領域を強調し、広告宣伝等の用途に適したショートフィルムを生成するとしてもよい。 In addition, the character area is emphasized by changing the color of the character area included in the image, or by replacing it with another character prepared in advance. A short film suitable for the above may be generated.
さらに、本実施の形態2では、デジタルカメラ100で撮影された画像は、画像入力部502を介して装置内に直接取り込まれるとしたが、デジタルカメラ100で撮影された画像をメモリカード等の記録媒体を介して装置内に取り込むようにしてもよい。
Further, in the second embodiment, the image captured by the
またさらに、本実施の形態2における画像または画像に含まれる文字領域に施す視覚効果は、例示に過ぎず、これらの視覚効果に限定されるものでないことは、言うまでもない。
(実施の形態3)
続いて、本発明の実施の形態3に係るショートフィルム生成装置について図31〜37を用いて説明する。
Furthermore, it goes without saying that the visual effect applied to the image or the character region included in the image in the second embodiment is merely an example, and is not limited to these visual effects.
(Embodiment 3)
Then, the short film production | generation apparatus which concerns on
本実施の形態3に係るショートフィルム生成装置の構成および処理動作は、上記実施の形態2に係るショートフィルム生成装置500と略共通するが、シナリオ生成部における構成および処理動作が異なる。
The configuration and processing operation of the short film generation device according to the third embodiment are substantially the same as those of the short
以下、この異なる点を中心に説明する。なお、上記実施の形態2と同一の構成要素には、同一の符号を付して説明を省略することとする。
図31は、実施の形態3におけるショートフィルム生成装置の構成を示すブロック図である。
Hereinafter, this difference will be mainly described. Note that the same components as those in the second embodiment are denoted by the same reference numerals and description thereof is omitted.
FIG. 31 is a block diagram showing a configuration of a short film generating apparatus in the third embodiment.
図31に示すように、このショートフィルム生成装置510は、操作入力部501、画像入力部502、文字領域抽出部503、画像蓄積部504、シナリオ生成部508、画像再生部506および表示部507を備える。
As shown in FIG. 31, the short
操作入力部501は、静止画像に含まれる文字領域の選択等、ユーザからの操作入力を受け付ける。
シナリオ生成部508は、ユーザが選択した文字領域の情報(文字領域選択情報)を操作入力部501から取得し、選択された文字領域に関する文字領域情報等に基づいて、再生画像の選択、タイトル画像の生成、選択された画像の再生順および視覚効果の決定、および、再生情報であるシナリオの生成を行なう処理部であり、選択画像決定部509を備える。
The
The
選択画像決定部509は、選択された文字領域を含む静止画像(キー画像)の撮影時刻情報に基づいて、そのキー画像の前後所定時間内(例えば、3時間以内等)に撮影された静止画像を再生する画像として選択する処理部であり、CPUやメモリによって実現される。
Based on the shooting time information of the still image (key image) including the selected character area, the selected
このような構成を備えるショートフィルム生成装置510の各部の処理動作について、シナリオ生成部508を中心に、以下、詳しく説明する。
図32は、シナリオ生成部508の処理手順を示すフロー図である。
The processing operation of each part of the short
FIG. 32 is a flowchart showing the processing procedure of the
まず、操作入力部501が、ユーザからショートフィルム生成ボタンを押下する操作を受け付けると、操作入力部501は、シナリオ生成部508にシナリオ生成指示を出力する。
First, when the
シナリオ生成部508は、シナリオ生成指示を取得すると、文字領域を選択するように促す画面(文字領域選択画面)を生成して、表示部507に出力する(S800)。このとき、シナリオ生成部508は、画像蓄積部504に格納されている画像のうち、文字領域抽出部503において文字領域が抽出された画像について、例えば、その文字領域部分を破線で囲む等して、その文字領域部分を明示することによって、文字領域選択画面を生成する。また、文字領域が抽出された画像が複数存在する場合には、シナリオ生成部508は、次ボタンを含む文字領域選択画面を生成し、操作入力部501が、ユーザから次ボタンを押下する操作を受け付けると、シナリオ生成部508は、次の文字領域が抽出された画像に文字領域選択画面を切り替える。
When the
ここで、操作入力部501は、ユーザから、表示部507に表示される文字領域選択画面の中から文字領域を選択する操作を受け付けると(S802のYes)、文字領域選択情報をシナリオ生成部508に出力する。
Here, when the
続いて、シナリオ生成部508は、選択画像決定部509において、その文字領域を含む画像(キー画像)の撮影時刻情報に基づいて、キー画像の前後所定時間以内に撮影された画像を全て、再生する画像として選択する(S804)。
Subsequently, the
この選択画像決定部509における画像選択について、図33を用いて説明する。
図33は、選択画像決定部509の画像選択を模式的に示す図である。
図33において、撮影時刻順に、撮影画像(画像7〜15)が並べられている様子が示されている。
Image selection in the selected
FIG. 33 is a diagram schematically illustrating image selection performed by the selected
FIG. 33 shows a state in which captured images (
ここで、操作入力部501が、ユーザから画像10に含まれる文字領域を選択する操作を受け付けると、選択画像決定部509は、画像10をキー画像700に決定する。
そして、選択画像決定部509は、このキー画像700の撮影時刻から前後所定時間t内に撮影された画像を全て、再生する画像として選択する。
Here, when the
Then, the selected
図33では、画像8と画像13とがキー画像の撮影時刻から前後所定時間t内に撮影された画像であることが示されているので、選択画像決定部509は、画像8〜画像13までを選択画像701として扱うことになる。
In FIG. 33, since the
このようにして、選択画像決定部509において、再生する画像が選択されると、シナリオ生成部508は、選択された画像の撮影時刻情報をチェックし、各画像の再生情報を撮影時刻順に並べて連結リスト化したシナリオ外枠を生成する(図32のS806)。
In this manner, when an image to be reproduced is selected in the selected
ここで、図33に示したように、選択画像決定部509において、6枚の静止画像(画像8〜画像13)が選択された場合に生成されるシナリオ外枠を図34に示す。
図34は、シナリオ外枠を示す図である。
Here, as shown in FIG. 33, FIG. 34 shows a scenario outer frame generated when six selected still images (
FIG. 34 is a diagram showing a scenario outer frame.
図34に示すように、シナリオ外枠は、シナリオヘッダ710、シナリオ先頭リスト711、シナリオ第2リスト712、シナリオ第3リスト713、シナリオ第4リスト714、シナリオ第5リスト715、シナリオ第6リスト716およびシナリオ第7リスト717が、連結リスト化されることにより構成される。
As shown in FIG. 34, the scenario outline includes a
このとき、シナリオヘッダ710には、シナリオ名と画像数がセットされ、シナリオ先頭リスト711には、ショートフィルムのタイトル用に予め画像蓄積部504に格納されているタイトル画像(例えば、黒などの単一色の画面)の再生情報のうち画像ファイル名および画像蓄積部504における格納場所がセットされる。また、残りのシナリオ外枠の各リスト712〜717には、各画像の再生情報のうち画像ファイル名および画像蓄積部504における格納場所がセットされる。
At this time, the scenario header and the number of images are set in the
そして、シナリオヘッダ210の全再生時間や、シナリオ外枠の各リスト711〜717の視覚効果情報や再生時間情報は、この段階では空白状態となっている。
再び図32を参照してシナリオ生成部508の処理手順の説明を続けると、シナリオ生成部508は、生成したシナリオ外枠のシナリオ先頭リスト711を参照し(S808)、シナリオ先頭リスト711に示される画像に対して割り当てる視覚効果を決定する。
The total playback time of the
When the description of the processing procedure of the
このとき、シナリオ生成部508は、画像ファイル名をチェックして、シナリオ先頭リスト711に示される画像が、タイトル画像であるか否かを判断する(S810)。
タイトル画像である場合(S810のYes)、シナリオ生成部508は、そのタイトル画像の画像中央部にユーザの選択した文字領域を埋め込むことを表す文字埋め込み効果を、シナリオ先頭リスト711の視覚効果情報に追加する(S812)。
At this time, the
In the case of a title image (Yes in S810), the
タイトル画像ではなく、その他の画像の場合には(S810のNo)、シナリオ生成部508は、ランダム関数により乱数を発生させて4で除算して(S814)、除算した余りを求めることにより、画像に割り当てる視覚効果を決定する。
In the case of an image other than the title image (No in S810), the
すなわち、シナリオ生成部508は、余りが1ならば(S816のYes)、画像に対するフェードイン効果をシナリオ先頭リスト711の視覚効果情報に追加し(S818)、余りが2ならば(S820のYes)、画像に対するフェードアウト効果をシナリオ先頭リスト711の視覚効果情報に追加する(S822)。また、余りが0ならば(S824のYes)、画像の中央部分へのズームイン効果をシナリオ先頭リスト711の視覚効果情報に追加し(S826)、余りが3ならば(S824のNo)、シナリオ先頭リスト711の視覚効果情報に視覚効果を施さないことを示すフラグを追加する。
That is, if the remainder is 1 (Yes in S816), the
さらに、シナリオ生成部508は、割り当てる視覚効果をシナリオ先頭リスト711に追加する際に、併せて画像の再生時間情報を設定して、シナリオ先頭リスト711の再生時間情報に追加する。ここでは、ズームイン効果を施す画像の再生時間は3秒(45フレーム)、それ以外の画像の再生時間は2秒(30フレーム)に設定する。
Further, when adding the visual effect to be assigned to the
その後、シナリオ生成部508は、視覚効果情報および再生時間情報を追加したリストが最後のリストであるか否かを判断し(S828)、最後のリストであれば(S828のYes)、シナリオ生成の処理動作を終了し、最後のリストでなければ(S828のNo)、シナリオ外枠の次のリストを参照して(S830)、画像に対する視覚効果を決定する処理動作を繰り返す。
Thereafter, the
このようにして、シナリオ生成部508が、再生順において先頭の画像(タイトル画像)から最後の画像(画像13)まで視覚効果を割り当てる処理動作を繰り返すと、図35に示すシナリオが完成する。
In this way, when the
図35は、完成したシナリオを示す図である。
この完成したシナリオにおいて、シナリオヘッダ720には、全再生時間16秒を示す情報が記述され、タイトル画像の再生情報が記述されるシナリオ先頭リスト721には、文字埋め込み効果を割り当てる視覚効果情報が記述され、再生時間2秒の再生時間情報が記述されている。同様に、各画像の再生情報が記述されるリスト722〜727にも、それぞれ割り当てられる視覚効果情報と再生時間情報とが記述されている。
FIG. 35 is a diagram showing a completed scenario.
In this completed scenario, information indicating the total playback time of 16 seconds is described in the
すなわち、この完成したシナリオによれば、タイトル画像、画像8、画像9、画像10、画像11、画像12、画像13の順に再生され、タイトル画像には文字埋め込み効果、画像8にはフェードイン効果、画像9にはズームイン効果、画像10にはフェードアウト効果、画像12にはズームイン効果をそれぞれに施すことが示されており、画像11および画像13には、視覚効果を施さないことが示されている。また、画像の再生時間は、それぞれ2秒、2秒、3秒、2秒、2秒、3秒、2秒(計16秒)であることが示されている。
That is, according to this completed scenario, the title image, the
この後、画像再生部506は、シナリオ生成部508により生成されたシナリオのアドレス情報を受け取り、シナリオ先頭リストを参照して、シナリオ先頭リストに格納された画像(タイトル画像)の再生情報を取得する。そして、画像再生部506は、取得した再生情報に基づいて画像蓄積部504から圧縮形式の静止画像データを読み出して解凍し、再生時間情報(フレーム数)に基づいて、時間管理を行いながら、視覚効果情報において指示された視覚効果(文字埋め込み効果)を施して、画像を再生し表示部507に出力表示させる。
Thereafter, the
画像の再生が終了すると、画像再生部506は、シナリオの次のリストを参照して、次の画像(画像8)の再生情報を取得し、最後の画像(画像13)の再生処理が終了するまで、上記の処理動作を繰り返す。
When the image reproduction ends, the
このような処理動作を経て、ショートフィルム生成装置510が再生するショートフィルムの画面表示例を、図36および図37に示す。
図36は、ショートフィルム生成装置510の画面表示の第1例を示す図である。
36 and 37 show examples of screen display of a short film reproduced by the short
FIG. 36 is a diagram illustrating a first example of a screen display of the short
図36では、タイトル画像の表示例である第1表示画像例730と、画像8〜13の表示例である第1表示画像例731〜第7表示画像例736との合計7枚の表示画像例が示されており、ショートフィルム生成装置510が第1表示画像例730から順に再生を開始していく様子が示されている。
In FIG. 36, a total of seven display image examples including a first display image example 730, which is a display example of a title image, and a first display image example 731 to a seventh display image example 736, which are display examples of images 8-13. The short
ここで、第1表示画像例730は、図36のシナリオ先頭リスト721に従って再生されるタイトル画像であり、キー画像とされた画像10の文字領域、すなわち、第4表示画像例733に含まれる横長領域の第1文字領域733a("Broadway")を埋め込む視覚効果が割り当てられており、ショートフィルム生成装置510は、この第1表示画像例730を2秒間表示した後、第2表示画像例731に表示を切り替える。
Here, the first display image example 730 is a title image reproduced according to the
そして、第2表示画像例731は、図36のシナリオ第2リスト722に従って再生される画像8であり、フェードイン効果が割り当てられており、ショートフィルム生成装置510は、第1表示画像例730から第2表示画像例731に表示を切り替える際に、画像を徐々に鮮明にさせて第2表示画像例731を表示する。
The second display image example 731 is an
続いて、ショートフィルム生成装置510は、再生順に並べられた画像9〜画像13までを、同様にシナリオのリストに従って再生し、第3表示画像例732〜第7表示画像例736までを順に表示する。
Subsequently, the short
なお、文字領域抽出部503において、抽出される文字領域は、漢字やアルファベットに限られるものでなく、平仮名文字などであってもよい。文字領域抽出部503が、パターンマッチング用のテンプレートを言語ごとに保持することによって、多言語に及ぶ文字領域の抽出を行なうことが可能となる。このことは、上記実施の形態1におけるオブジェクト判定部300や、上記実施の形態2においても同様である。
Note that the character region extracted by the character
図37は、ショートフィルム生成装置510の画面表示の第2例を示す図である。
図37においても、図36と同様に、タイトル画像の表示例である第1表示画像例740と、第1表示画像例741〜第7表示画像例746の合計7枚の表示画像例が示されており、ショートフィルム生成装置510が第1表示画像例740から順に再生を開始していく様子が示されている。
FIG. 37 is a diagram illustrating a second example of the screen display of the short
FIG. 37 also shows a total of seven display image examples, a first display image example 740 that is a display example of a title image, and a first display image example 741 to a seventh display image example 746, as in FIG. It is shown that the short
ここでは、第1表示画像例740に、第4表示画像例743(キー画像)に含まれる縦長領域の第1文字領域743a("鎌倉大仏")を埋め込む視覚効果が割り当てられていることが分かる。このように、縦長領域の文字領域をタイトル画像に埋め込むことも可能である。
Here, it is understood that the visual effect for embedding the
また、第5表示画像例744では、これに含まれる平仮名の第2文字領域744b("おみくじ")が抽出されていることが分かる。このように、平仮名の文字領域を抽出することも可能である。
Further, in the fifth display image example 744, it can be seen that the
このように、本実施の形態3のショートフィルム生成装置510によれば、ユーザにより選択された文字領域を含む静止画像をキー画像として、シナリオ生成部508が再生する画像を自動選択するので、ユーザが再生する画像を選択するという手間を省くことができる。
As described above, according to the short
また、ユーザにより選択された文字領域を、タイトル画像に自動で埋め込むので、ユーザがタイトルに使用する文字をキーボード等を用いて入力する必要をなくすこともできる。 In addition, since the character region selected by the user is automatically embedded in the title image, it is possible to eliminate the need for the user to input characters used for the title using a keyboard or the like.
なお、本実施の形態3では、ユーザが操作入力部501を介して文字領域を候補から選択するようにしたが、シナリオ生成部508が文字領域の大きさ等の条件から判断して、自動決定するようにしてもよい。ここで、ショートフィルム生成装置510は、デフォルト値でタイトル画像に用いる文字領域を自動決定することとし、操作入力部501がユーザからタイトル用の文字入力を受け付けた場合には、ユーザの所望するタイトル文字をタイトル画像に用いることとしてもよい。
In the third embodiment, the user selects a character area from the candidates via the
また、選択画像決定部509は、ユーザにより選択されたキー画像の撮影時刻を基準に前後所定時間内に撮影された画像を再生する画像として選択するとしたが、選択画像決定部509は、キー画像からの時間範囲ではなく、画像を撮影時刻順に並べて次の画像との撮影時刻間隔をチェックして所定時間以上の間隔がある場合に、その次の画像を別グループとして区切ってグループ分けを行ない、キー画像が含まれるグループに属する画像を再生する画像として選択することとしてもよい。
In addition, the selected
さらに、シナリオ生成部508は、シナリオの先頭リストにタイトル画像の再生情報を配置しているが、シナリオ中に配置せずに、画像再生部506がシナリオ実行前に文字領域を組み込んだタイトル画像を表示部507に出力表示するとしてもよい。また、タイトル画像についても、黒画面でなく、キー画像そのものをタイトル画像として使用してもよい。
Furthermore, the
また、上記実施の形態2と同様に、デジタルカメラ100で撮影された画像は、画像入力部502を介して装置内に直接取り込まれるとしたが、デジタルカメラ100で撮影された画像をメモリカード等の記録媒体を介して装置内に取り込むようにしてもよい。
Further, as in the second embodiment, the image captured by the
また、上記実施の形態2と同様に、本実施の形態3における画像または画像に含まれる文字領域に施す視覚効果は、例示に過ぎず、これらの視覚効果に限定されるものでないことは、言うまでもない。 Further, as in the second embodiment, the visual effect applied to the image or the character area included in the image in the third embodiment is merely an example, and it goes without saying that the visual effect is not limited to these visual effects. Yes.
本発明に係る画像表示装置は、携帯型端末、例えば、携帯電話機やPDAなどのような、原画像の画素数よりも少ない画素数の表示装置を備える画像表示装置として有用である。 The image display device according to the present invention is useful as an image display device including a display device having a number of pixels smaller than the number of pixels of the original image, such as a portable terminal such as a mobile phone or a PDA.
また、本発明に係るショートフィルム生成装置は、画像再生機能付き携帯電話機やパーソナルコンピュータ等への適用が可能であり、特に、大量の静止画像データを格納しているパーソナルコンピュータ等に好適である。 The short film generation apparatus according to the present invention can be applied to a mobile phone with an image reproduction function, a personal computer, and the like, and is particularly suitable for a personal computer storing a large amount of still image data.
1 画像表示装置
10 外部インタフェース部
20 メモリ部
30 オブジェクト判定部
40 表示用画像生成部
50 表示器
100、910 デジタルカメラ
110 画像撮像部
120 画像入力部
130 ユーザIF部
210 画像保持部
250 表示用画像保持部
310 オブジェクト候補抽出部
320 オブジェクト候補判定部
330 オブジェクト優先度判定部
410 サムネイル画像生成処理部
420 拡大縮小処理部
430 視点移動処理部
440 ズームイン・アウト処理部
450 切り出し処理部
460 スライドショー
500、510、900 ショートフィルム生成装置
501、901 操作入力部
502、902 画像入力部
503 文字領域抽出部
504、903 画像蓄積部
505、508、904 シナリオ生成部
506、905 画像再生部
507、906 表示部
509 選択画像決定部
600、610、710、720、920、930、940 シナリオヘッダ
601、611、711、721、921、931、941 シナリオ先頭リスト
602、612、712、722、922、932、942 シナリオ第2リスト
603、613、713、723、923、933、943 シナリオ第3リスト
604、614、714、724、924、934、944 シナリオ第4リスト
605、615、715、725、925、935、945 シナリオ第5リスト
623、633、643、730、740 第1表示画像例
623a、633a、643a、731、741 第2表示画像例
623b、643b、732、742 第3表示画像例
623c、643c、733、743 第4表示画像例
624、634、644、731a〜736a、741a〜746a 第1文字領域
700 キー画像
701 選択画像
716、726、946 シナリオ第6リスト
717、727 シナリオ第7リスト
734、744 第5表示画像例
744b 第2文字領域
735、745 第6表示画像例
736、746 第7表示画像例
950 表示画像例
951 第1表示領域
952 表示推移線
953 第2表示領域
DESCRIPTION OF SYMBOLS 1 Image display apparatus 10 External interface part 20 Memory part 30 Object determination part 40 Display image generation part 50 Display 100,910 Digital camera 110 Image pick-up part 120 Image input part 130 User IF part 210 Image holding part 250 Image holding part for display Unit 310 object candidate extraction unit 320 object candidate determination unit 330 object priority determination unit 410 thumbnail image generation processing unit 420 enlargement / reduction processing unit 430 viewpoint movement processing unit 440 zoom in / out processing unit 450 cut out processing unit 460 slide show 500, 510, 900 Short film generation apparatus 501, 901 Operation input unit 502, 902 Image input unit 503 Character area extraction unit 504, 903 Image storage unit 505, 508, 904 Scenario generation unit 506, 90 Image playback unit 507, 906 Display unit 509 Selected image determination unit 600, 610, 710, 720, 920, 930, 940 Scenario header 601, 611, 711, 721, 921, 931, 941 Scenario head list 602, 612, 712, 722, 922, 932, 942 Scenario second list 603, 613, 713, 723, 923, 933, 943 Scenario third list 604, 614, 714, 724, 924, 934, 944 Scenario fourth list 605, 615, 715 , 725, 925, 935, 945 Scenario 5th list 623, 633, 643, 730, 740 First display image example 623a, 633a, 643a, 731, 741 Second display image example 623b, 643b, 732, 742 Third display Image example 623c, 6 3c, 733, 743 Fourth display image example 624, 634, 644, 731a to 736a, 741a to 746a First character area 700 Key image 701 Selected image 716, 726, 946 Scenario sixth list 717, 727 Scenario seventh list 734 744, fifth display image example 744b second character area 735, 745 sixth display image example 736, 746 seventh display image example 950 display image example 951 first display area 952 display transition line 953 second display area
Claims (8)
前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段と、
前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定手段と、
ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成手段とを備え、
前記オブジェクト判定手段は、
オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定部と、
判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定部とを有し、
前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出する
ことを特徴とする画像表示装置。 An image display device comprising display means for displaying an image,
Original image holding means for holding an original image formed with a number of pixels larger than the number of displayable pixels in the display means;
Object determination that determines whether or not an object is included in the original image held in the original image holding means, and generates object information on each object when at least one or more objects are included Means,
Based on the original image designated by the user and at least one or more pieces of the object information corresponding to the original image, at least a part of the object area that is an area including the object in the original image is converted into the original image. A display image generating unit that extracts the image and generates a display image in accordance with the number of displayable pixels in the display unit ;
The object determination means includes
Based on the shape of the object, the type of the object is determined from among a plurality of types of objects including a plurality of types of persons, animals, plants, movables, and real estate. An object type determination unit embedded in the object information;
An object priority setting unit that embeds the priority corresponding to the determined type of the object in the object information;
The display image generating means generates an object region corresponding to the object information indicating that the priority is high among at least one of the object information based on the priority embedded in the object information. An image display device characterized by being extracted from an image.
前記原画像に含まれるオブジェクトの位置および大きさを抽出し、抽出したオブジェクトの位置および大きさを前記オブジェクト情報に埋め込むオブジェクト抽出部を備え、
前記表示用画像生成手段は、前記オブジェクト情報に埋め込まれたオブジェクトの位置および大きさに基づいて、前記原画像から抽出する部分を決定する
ことを特徴とする請求項1記載の画像表示装置。 The object determination means includes
An object extraction unit that extracts the position and size of an object included in the original image and embeds the extracted position and size of the object in the object information;
The image display apparatus according to claim 1, wherein the display image generation unit determines a portion to be extracted from the original image based on a position and a size of an object embedded in the object information.
前記オブジェクト情報に基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、予め定められた画素数のサムネイル画像を生成するサムネイル画像生成手段を備える
ことを特徴とする請求項1または2記載の画像表示装置。 The display image generation means further includes:
Based on the object information, thumbnail image generation for extracting at least a part of an object area, which is an area including an object in the original image, from the original image and generating a thumbnail image having a predetermined number of pixels The image display apparatus according to claim 1, further comprising: means.
前記表示用画像生成手段は、前記サムネイル画像生成手段が生成した各原画像のサムネイル画像を、前記表示手段に一覧表示させる
ことを特徴とする請求項3記載の画像表示装置。 The original image holding means holds a plurality of original images,
4. The image display device according to claim 3 , wherein the display image generating means causes the display means to display a list of thumbnail images of the original images generated by the thumbnail image generating means.
ことを特徴とする請求項4記載の画像表示装置。 The image display device according to claim 4, wherein the predetermined number of pixels is the number of pixels assigned to display one thumbnail image in the display unit.
ことを特徴とする請求項1〜5の何れか1項に記載の画像表示装置。 The display image generating means determines a portion to be extracted from the original image so that the number of pixels extracted from the original image is equal to the number of pixels that can be displayed on the display means. Item 6. The image display device according to any one of Items 1 to 5 .
前記画像表示装置は、
前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段を備えており、
前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定ステップと、
ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成ステップとを含み、
前記オブジェクト判定ステップは、
オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定ステップと、
判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定ステップとを含み、
前記表示用画像生成ステップでは、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出する
ことを特徴とする画像表示方法。 An image display method in an image display device comprising display means for displaying an image,
The image display device includes:
An original image holding means for holding an original image formed with a larger number of pixels than the displayable number of pixels in the display means;
Object determination that determines whether or not an object is included in the original image held in the original image holding means, and generates object information about each object when at least one or more objects are included Steps,
Based on the original image designated by the user and at least one or more pieces of the object information corresponding to the original image, at least a part of the object area that is an area including the object in the original image is converted to the original image. extracted from the image, seen including a display image generating step of generating a display image matched to the number of pixels that can be displayed on the display means,
The object determination step includes
Based on the shape of the object, from among a plurality of object types including a plurality of types of person, animal, plant, movable property, and real estate, determine the type of one object, and determine the determined object type An object type determination step embedded in the object information;
An object priority setting step for further embedding the priority corresponding to the determined type of the object in the object information,
In the display image generation step, based on the priority embedded in the object information, an object region corresponding to the object information indicating that the priority is high among at least one or more of the object information. An image display method characterized by extracting from an image.
前記画像表示装置は、
前記表示手段における表示可能な画素数よりも多い画素数で形成された原画像を保持する原画像保持手段を備えており、
前記原画像保持手段に保持されている原画像にオブジェクトが含まれているか否かを判別し、少なくとも1つ以上のオブジェクトが含まれている場合に、それぞれのオブジェクトに関するオブジェクト情報を生成するオブジェクト判定ステップと、
ユーザから指定された原画像と、当該原画像に対応する少なくとも1つ以上の前記オブジェクト情報とに基づいて、前記原画像におけるオブジェクトが含まれている領域であるオブジェクト領域の少なくとも一部を前記原画像から抽出して、前記表示手段における表示可能な画素数にあわせた表示用画像を生成する表示用画像生成ステップとをコンピュータに実行させ、
前記オブジェクト判定ステップは、
オブジェクトの形状に基づいて、人物、動物、植物、動産、および不動産のうち複数の種別を含む複数のオブジェクトの種別の中から、一つの前記オブジェクトの種別を判定し、判定したオブジェクトの種別を前記オブジェクト情報に埋め込むオブジェクト種別判定ステップと、
判定された前記オブジェクトの種別に対応する優先度を、さらに前記オブジェクト情報に埋め込むオブジェクト優先度設定ステップとを含み、
前記表示用画像生成ステップでは、前記オブジェクト情報に埋め込まれた優先度に基づいて、少なくとも1つ以上の前記オブジェクト情報のうち前記優先度が高いことを示す当該オブジェクト情報に対応するオブジェクト領域を前記原画像から抽出する
ことを特徴とするプログラム。 A program for an image display device comprising display means for displaying an image,
The image display device includes:
An original image holding means for holding an original image formed with a larger number of pixels than the displayable number of pixels in the display means;
Object determination that determines whether or not an object is included in the original image held in the original image holding means, and generates object information about each object when at least one or more objects are included Steps,
Based on the original image designated by the user and at least one or more pieces of the object information corresponding to the original image, at least a part of the object area that is an area including the object in the original image is converted to the original image. Extracting from the image, causing the computer to execute a display image generation step for generating a display image in accordance with the number of displayable pixels in the display means ,
The object determination step includes
Based on the shape of the object, from among a plurality of object types including a plurality of types of person, animal, plant, movable property, and real estate, determine the type of one object, and determine the determined object type An object type determination step embedded in the object information;
An object priority setting step for further embedding the priority corresponding to the determined type of the object in the object information,
In the display image generation step, based on the priority embedded in the object information, an object region corresponding to the object information indicating that the priority is high among at least one or more of the object information. A program characterized by extracting from an image .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2004173149A JP4519531B2 (en) | 2003-07-11 | 2004-06-10 | Image display device, image display method, and program |
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003273762 | 2003-07-11 | ||
JP2003277429 | 2003-07-22 | ||
JP2004173149A JP4519531B2 (en) | 2003-07-11 | 2004-06-10 | Image display device, image display method, and program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010068942A Division JP4990994B2 (en) | 2003-07-11 | 2010-03-24 | Short film generating apparatus, short film generating method, program, and recording medium |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005056390A JP2005056390A (en) | 2005-03-03 |
JP4519531B2 true JP4519531B2 (en) | 2010-08-04 |
Family
ID=34381759
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2004173149A Expired - Lifetime JP4519531B2 (en) | 2003-07-11 | 2004-06-10 | Image display device, image display method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4519531B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010166608A (en) * | 2003-07-11 | 2010-07-29 | Panasonic Corp | Short film producing device, short film producing method, program, and recording medium |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4581924B2 (en) | 2004-09-29 | 2010-11-17 | 株式会社ニコン | Image reproducing apparatus and image reproducing program |
JP4647343B2 (en) * | 2005-02-28 | 2011-03-09 | 富士フイルム株式会社 | Photo movie creation device and photo movie creation program |
JP4635675B2 (en) * | 2005-03-24 | 2011-02-23 | カシオ計算機株式会社 | Imaging apparatus and program |
JP4591167B2 (en) * | 2005-04-13 | 2010-12-01 | ノーリツ鋼機株式会社 | Image processing method |
JP4779500B2 (en) * | 2005-08-24 | 2011-09-28 | 株式会社ニコン | Control device, display device, and control program |
JP4741916B2 (en) * | 2005-09-21 | 2011-08-10 | 株式会社リコー | Image processing apparatus, image processing method, and computer-readable recording medium storing image processing program for executing the method |
JP2007089086A (en) | 2005-09-26 | 2007-04-05 | Sony Ericsson Mobilecommunications Japan Inc | Personal digital assistant and image management program |
JP4559964B2 (en) * | 2005-12-26 | 2010-10-13 | 株式会社日立国際電気 | Image processing program |
JP2007243411A (en) * | 2006-03-07 | 2007-09-20 | Fujifilm Corp | Image processing apparatus, method and program |
JP4799367B2 (en) * | 2006-10-27 | 2011-10-26 | 三洋電機株式会社 | Image reproducing apparatus and method, and imaging apparatus |
JP2008122772A (en) * | 2006-11-14 | 2008-05-29 | Seiko Epson Corp | Image display device, image display method, and its program |
US20100122204A1 (en) * | 2007-05-04 | 2010-05-13 | Koninklijke Philips Electronics N.V. | Automatic display of symmetric anatomical structure |
JP2010175316A (en) * | 2009-01-28 | 2010-08-12 | Yupiteru Corp | Gps instrument and program |
JP4987943B2 (en) | 2009-11-11 | 2012-08-01 | 株式会社東芝 | Electronic apparatus and image display method |
SG185147A1 (en) | 2011-04-08 | 2012-11-29 | Creative Tech Ltd | A method, system and electronic device for at least one of efficient graphic processing and salient based learning |
JP5868145B2 (en) * | 2011-11-29 | 2016-02-24 | キヤノン株式会社 | Image processing apparatus and control method thereof |
JP6091907B2 (en) * | 2013-01-23 | 2017-03-08 | Kddi株式会社 | Terminal device and display program |
JP6278702B2 (en) * | 2013-12-27 | 2018-02-14 | キヤノン株式会社 | Imaging apparatus, control method therefor, and program |
JP2015215740A (en) | 2014-05-09 | 2015-12-03 | キヤノン株式会社 | Information processing device, information processing method and program |
JP5925275B2 (en) * | 2014-10-11 | 2016-05-25 | オリンパス株式会社 | Imaging apparatus and imaging method |
JP2019036064A (en) * | 2017-08-10 | 2019-03-07 | ヤフー株式会社 | Advertising video creation support device, advertising video creation support method and advertising video creation support program |
CN114554109B (en) * | 2020-11-26 | 2024-07-19 | 华为技术有限公司 | Image frame self-adaptive clipping method and electronic equipment |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358522A (en) * | 2001-05-31 | 2002-12-13 | Olympus Optical Co Ltd | Device, method and program for supporting image selection |
JP2003108979A (en) * | 2001-09-27 | 2003-04-11 | Fuji Photo Film Co Ltd | Face area extraction method, device and program |
-
2004
- 2004-06-10 JP JP2004173149A patent/JP4519531B2/en not_active Expired - Lifetime
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002358522A (en) * | 2001-05-31 | 2002-12-13 | Olympus Optical Co Ltd | Device, method and program for supporting image selection |
JP2003108979A (en) * | 2001-09-27 | 2003-04-11 | Fuji Photo Film Co Ltd | Face area extraction method, device and program |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010166608A (en) * | 2003-07-11 | 2010-07-29 | Panasonic Corp | Short film producing device, short film producing method, program, and recording medium |
Also Published As
Publication number | Publication date |
---|---|
JP2005056390A (en) | 2005-03-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4990994B2 (en) | Short film generating apparatus, short film generating method, program, and recording medium | |
JP4519531B2 (en) | Image display device, image display method, and program | |
JP4774816B2 (en) | Image processing apparatus, image processing method, and computer program. | |
US6961446B2 (en) | Method and device for media editing | |
JP3793142B2 (en) | Moving image processing method and apparatus | |
JP4782105B2 (en) | Image processing apparatus and image processing method | |
US20070025637A1 (en) | Retargeting images for small displays | |
US20100182501A1 (en) | Information processing apparatus, information processing method, and program | |
JP2011081556A (en) | Information processor, method of processing information, program, and server | |
KR20070009174A (en) | Image extraction combination system and the method, and the image search method which uses it | |
JP2011119974A (en) | Panoramic image synthesizer, panoramic image synthesis method, and program | |
JP5892068B2 (en) | Image display device, image list display method, and image list display program | |
JP6314427B2 (en) | Imaging apparatus, information processing apparatus, control method, and program | |
KR101011194B1 (en) | Mobile apparatus with a picture conversion and drawing function and method of the same | |
JP2000023036A (en) | Image data processing method and its device and storage medium | |
US20070211961A1 (en) | Image processing apparatus, method, and program | |
JP2009081592A (en) | Video image recording apparatus | |
KR101738896B1 (en) | Fitting virtual system using pattern copy and method therefor | |
JP2010097449A (en) | Image composition device, image composition method and image composition program | |
JPH113346A (en) | Moving image file managing device | |
KR20140127131A (en) | Method for displaying image and an electronic device thereof | |
JP4200858B2 (en) | Information processing apparatus and method, recording medium, and program | |
JP5392244B2 (en) | Imaging apparatus, control method, and program | |
JP3993003B2 (en) | Display instruction apparatus, display system, display instruction program, terminal, and program | |
JP2005191770A (en) | Highlight still image generating/distributing system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070328 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100202 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100324 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100420 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100519 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130528 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4519531 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130528 Year of fee payment: 3 |