JP2016054524A - Program and display device - Google Patents

Program and display device Download PDF

Info

Publication number
JP2016054524A
JP2016054524A JP2015225949A JP2015225949A JP2016054524A JP 2016054524 A JP2016054524 A JP 2016054524A JP 2015225949 A JP2015225949 A JP 2015225949A JP 2015225949 A JP2015225949 A JP 2015225949A JP 2016054524 A JP2016054524 A JP 2016054524A
Authority
JP
Japan
Prior art keywords
image
subject
procedure
program
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015225949A
Other languages
Japanese (ja)
Other versions
JP6319273B2 (en
Inventor
啓一 新田
Keiichi Nitta
啓一 新田
麻理 杉原
Mari Sugihara
麻理 杉原
貴世 森川
Takayo Morikawa
貴世 森川
岳志 西
Takashi Nishi
岳志 西
斎藤 郁哉
Ikuya Saito
郁哉 斎藤
香太郎 植田
Kotaro Ueda
香太郎 植田
佑子 服部
Yuko Hattori
佑子 服部
太郎 牧垣
Taro Makigaki
太郎 牧垣
坂本 浩一
Koichi Sakamoto
浩一 坂本
小船井 一惠
Kazue Kofunai
一惠 小船井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2015225949A priority Critical patent/JP6319273B2/en
Publication of JP2016054524A publication Critical patent/JP2016054524A/en
Application granted granted Critical
Publication of JP6319273B2 publication Critical patent/JP6319273B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide a presentation capable of drawing an interest of viewer's with respect to an image that is reproduced and displayed, and making the viewer to feel interesting and not to feel boring.SOLUTION: A presentation is provided in which a subject is moved or deformed on an image to match a music by making a computer to perform: an image analysis procedure for analyzing an image photographed by an imaging apparatus; a region extraction procedure for extracting one or a plurality of subject regions out of the image on the basis of the analysis result of the image analysis procedure; an image generation procedure for generating a plurality of new images by moving or deforming the subject regions on the image; and an image reproduction procedure for sequentially reproducing and displaying the plurality of new images generated in the image generation procedure while reproducing a preselected music.SELECTED DRAWING: Figure 5

Description

本発明は、プログラムおよび表示装置に関する。   The present invention relates to a program and a display device.

撮像された画像に演出を施して視聴者に提示する再生演出装置として、画像を切り換える際に切り換え前後の画像に対してフェード効果、ワイプ効果、オーバーラップ効果などの特殊効果による演出を施すようにしたものが知られている。   As a reproduction effect device that produces effects on captured images and presents them to viewers, when switching images, effects are produced by special effects such as fade effect, wipe effect, and overlap effect on images before and after switching. Is known.

特開2005−167689号公報Japanese Patent Laying-Open No. 2005-167689

複数の画像を単純に切り換えて提示するのに比べれば、上述した従来の再生演出装置によればある程度の視覚的効果が認められるが、視聴者の興味を引きつけるには今ひとつ物足りない。例えば人が集まる場所の壁に設置されるフォトフレームなどでは、再生表示される画像に視聴者の興味を引きつけ、面白いと感じさせ、飽きさせない演出が求められる。   Compared to simply switching and presenting a plurality of images, the above-described conventional reproduction effect device can achieve a certain level of visual effect, but it is not enough to attract viewers' interest. For example, in a photo frame or the like installed on a wall where people gather, there is a demand for an effect that attracts the viewer's interest to the reproduced and displayed image, makes it feel interesting, and does not get bored.

本発明の第1の態様によるプログラムは、画像から特定の領域または被写体を抽出する抽出手順と、前記特定の領域または被写体の移動または変形によって生じる空白領域が補間可能な範囲内において、前記画像内で前記特定の領域または被写体を移動または変形させ、前記空白領域を前記空白領域の周囲の領域の画像を用いて補間した画像を生成する画像生成手順と、前記画像生成手順で生成された画像を表示する表示手順と、をコンピューターに実行させる。   The program according to the first aspect of the present invention includes an extraction procedure for extracting a specific area or subject from an image, and a blank area generated by movement or deformation of the specific area or subject within an interpolable range. The image generation procedure for generating an image obtained by moving or deforming the specific area or subject and interpolating the blank area using an image of the area around the blank area, and the image generated by the image generation procedure Let the computer execute the display procedure to display.

本発明によるプログラムによれば、再生表示される画像に対して、視聴者の興味を引きつけ、面白いと感じさせ、飽きさせない演出を施すことができる。   According to the program of the present invention, it is possible to produce an effect that attracts the viewer's interest, makes it feel interesting, and does not get bored with respect to the reproduced and displayed image.

一実施の形態の構成を示す図The figure which shows the structure of one embodiment 画像を切り換えて再生表示する際の再生演出方法を説明する図The figure explaining the reproduction production method at the time of switching and displaying an image 画像を切り換えて再生表示する際の再生演出方法を説明する図The figure explaining the reproduction production method at the time of switching and displaying an image 再生演出方法1の動作を示すフローチャートFlow chart showing operation of reproduction effect method 1 画像の中の被写体を移動、変形させる再生演出方法を説明する図The figure explaining the reproduction production | presentation method which moves and deform | transforms the to-be-photographed object in an image 画像の中の被写体の移動または変形にともなう隠れの再生演出方法を説明する図The figure explaining the reproduction reproduction method of the hiding accompanying the movement or deformation of the subject in the image 画像の中の被写体を楽曲に合わせて移動し変形する例を示す図The figure which shows the example which moves the subject in a picture according to music, and transforms 画像の中の被写体を楽曲に合わせて移動し変形する例を示す図The figure which shows the example which moves the subject in a picture according to music, and transforms 再生演出方法4の動作を示すフローチャートFlow chart showing operation of reproduction effect method 4

図1は一実施の形態の再生演出装置1の構成を示すブロック図である。記憶装置2は各種の記録媒体2aを挿入可能なスロットを備えており、記録媒体2aから読み出された画像データおよび楽曲データを記憶する一方、演出を施された画像データおよび楽曲データを記録媒体2aに書き込む。なお、この再生演出装置1による演出対象の画像は、デジタルスチルカメラで撮像された画像もしくは動画像の中のフレーム画像、あるいはビデオカメラで撮像された映像の中のフレーム画像などが含まれる。マイクロフォン(以下、マイクという)3は再生演出装置1の周囲の音声すなわち人の声や車の音、あるいは楽曲の音などを集音する。カメラ4は、再生演出装置1の周囲、特に再生演出装置1の前で再生表示される画像および楽曲を視聴する人々を撮像する。   FIG. 1 is a block diagram illustrating a configuration of a reproduction effect device 1 according to an embodiment. The storage device 2 includes a slot into which various recording media 2a can be inserted. The storage device 2 stores image data and music data read from the recording medium 2a, while recording image data and music data that have been rendered. Write to 2a. It should be noted that the image to be produced by the reproduction effect device 1 includes a frame image in an image or a moving image taken by a digital still camera, a frame image in a video taken by a video camera, or the like. A microphone (hereinafter referred to as a microphone) 3 collects sounds around the reproduction effect device 1, that is, human voice, car sound, music sound, and the like. The camera 4 picks up images of people who view the image and music reproduced and displayed around the reproduction effect device 1, particularly in front of the reproduction effect device 1.

操作部5は、ユーザーあるいは視聴者が再生演出装置1に対して種々の操作を行うための操作部材を備えている。コンピューター6は図示しないCPUやメモリなどのハードウエアと、ソフトウエア形態により構成された制御部6a、解析部6b、処理部6cなどを備え、画像に各種演出を施し、演出処理後の画像をLCDなどのディスプレイ7に再生表示するとともに、選択あるいは識別された楽曲(詳細後述)をスピーカー8から再生する。制御部6aは一連の演出処理を制御する。また、解析部6bは演出対象の画像と楽曲を解析し、処理部6cは解析結果に基づいて画像に各種の演出処理を施す。   The operation unit 5 includes operation members for the user or viewer to perform various operations on the reproduction effect device 1. The computer 6 includes hardware such as a CPU and a memory (not shown), a control unit 6a configured in software form, an analysis unit 6b, a processing unit 6c, and the like, performs various effects on the image, and displays the image after the effect processing on the LCD. Are reproduced and displayed on the display 7, and the selected or identified music (details will be described later) is reproduced from the speaker 8. The control unit 6a controls a series of effect processes. The analysis unit 6b analyzes the image and music to be produced, and the processing unit 6c performs various types of production processing on the image based on the analysis result.

上述した再生演出装置1による一実施の形態の再生演出方法を説明する。   A reproduction effect method according to an embodiment by the above-described reproduction effect device 1 will be described.

《再生演出方法1》
まず、図2および図3を参照して表示中の画像から別の画像に表示画像を切り換える、すなわちシーンチェンジするときの再生演出方法を説明する。図2(a)および図3(a)は切り換える前の画像、図2(b)および図3(b)は切り換え後の画像を示す。まず、切り換え前後の画像からそれぞれの特徴を検出し、特徴が類似している領域を抽出する。画像の特徴としては明るさ、色成分、エッジ、テクスチャーなどがあり、切り換え前後の画像の領域において画像の特徴量の差がそれぞれの特徴のしきい値以下であればそれらの領域は類似していると判定する。
<< Playing production method 1 >>
First, referring to FIG. 2 and FIG. 3, a description will be given of a reproduction effect method when a display image is switched from an image being displayed to another image, that is, when a scene change is performed. 2A and 3A show images before switching, and FIGS. 2B and 3B show images after switching. First, each feature is detected from the images before and after switching, and a region where the features are similar is extracted. Image features include brightness, color components, edges, textures, etc. If the difference in image feature values is less than or equal to each feature threshold in the image regions before and after switching, these regions are similar. It is determined that

図2に示す例では、画像(a)の青空の領域Aと画像(b)の青空の領域Bとが、画像の特徴量の差がしきい値以下で互いに類似している。次に、ディスプレイ7に表示されている切り換え前の画像(a)において、(a)に破線枠で示すように切り出し領域が順次小さくなるようにトリミングしてディスプレイ7に再生表示し、最終的に原画像(a)の中の青空の領域Aに擬似的にズームインする。なお、図2(a)では、破線枠で示される切り出し領域が縮小される様子を段階的に示しているが、実際には破線枠で示す切り出し領域はスムーズに縮小する。   In the example shown in FIG. 2, the blue sky region A of the image (a) and the blue sky region B of the image (b) are similar to each other with a difference in image feature amount being equal to or less than a threshold value. Next, in the pre-switching image (a) displayed on the display 7, trimming is performed so that the cutout area becomes smaller as indicated by the broken line frame in (a), and the image is reproduced and displayed on the display 7. A pseudo zoom-in is performed on a blue sky region A in the original image (a). In FIG. 2A, the cutout area indicated by the broken line frame is reduced in stages, but in actuality, the cutout area indicated by the broken line frame is reduced smoothly.

ここで、擬似的なズームインとは、撮像装置による撮像時にズームレンズの焦点距離を変えてズームインするカメラワークを行わず、撮像された原画像(a)の内の一部の領域を切り出してディスプレイ7に拡大表示しながら、切り出し領域を順次小さくして一部の被写体領域(ここでは青空)の領域Aをズームアップする手法である。なお、トリミングにより原画像(a)の一部の領域を切り出してディスプレイ7の表示画面に表示する際に、切り出し領域が小さくなるにしたがって画素数が少なくなり、これをそのままディスプレイ7に表示させると、表示された切り出し領域の画像が小さくなってしまう。このため、切り出し領域の画像データに対し、ディスプレイ7の表示画面の画素解像度に合わせて解像度変換(画素数変換)を行い、常に一定の画素解像度で切り出し領域の画像をディスプレイ7上に再生表示する。これにより、擬似的なズームインが実現される。   Here, the pseudo zoom-in means that a part of the captured original image (a) is cut out and displayed without performing camera work for zooming in by changing the focal length of the zoom lens during imaging by the imaging device. 7 is a method of zooming up the area A of a part of the subject area (here, the blue sky) by sequentially reducing the cutout area while zooming in on the display. When a part of the original image (a) is cut out and displayed on the display screen of the display 7 by trimming, the number of pixels decreases as the cut-out area decreases, and this is displayed on the display 7 as it is. The displayed image of the cutout area becomes small. Therefore, resolution conversion (number of pixels conversion) is performed on the image data of the cutout area in accordance with the pixel resolution of the display screen of the display 7, and the image of the cutout area is always reproduced and displayed on the display 7 with a constant pixel resolution. . Thereby, pseudo zoom-in is realized.

切り出し前の画像(a)において青空の領域Aまで擬似的なズームインを行った後、この青空領域Aの画像から、切り換え後の画像(b)の青空の領域Bをトリミングにより切り出した画像に切り換えてディスプレイ7に再生表示する。その後、切り換え後の画像(b)において、(b)に破線枠で示すように切り出し領域が順次大きくなるようにトリミングしてディスプレイ7に表示し、最終的に原画像(b)の全範囲まで擬似的にズームアウトする。なお、図2(b)では、破線枠で示される切り出し領域が拡大される様子を段階的に示しているが、実際には破線枠で示す切り出し領域はスムーズに拡大する。   After pseudo zooming in to the blue sky area A in the image (a) before cutting out, the image in the blue sky area A is switched to the image cut out by trimming the blue sky area B in the image (b) after switching. To display on the display 7. After that, in the image (b) after the switching, trimming is performed so that the cutout area is sequentially enlarged as shown by the broken line frame in (b), and the result is displayed on the display 7 and finally the entire range of the original image (b). Zoom out pseudo. In FIG. 2 (b), the cutout area indicated by the broken line frame is shown in a stepwise manner, but the cutout area indicated by the broken line frame is actually enlarged smoothly.

ここで、擬似的なズームアウトとは、撮像装置による撮像時にズームレンズの焦点距離を変えてズームアウトするカメラワークを行わず、撮像された原画像(b)の内の一部の領域を切り出してディスプレイ7に拡大表示しながら、切り出し領域を順次大きくして広い範囲の被写体領域までズームダウンする手法である。なお、トリミングにより原画像(b)の一部の領域を切り出してディスプレイ7の表示画面に表示する際に、切り出し領域が大きくなるにしたがって画素数が多くなり、表示された切り出し領域の画像が細かくなるので、ディスプレイ7の表示画面の画素解像度に合わせて切り出し領域の画像に対し解像度変換(画素数変換)を行い、常に一定の画素解像度で切り出し領域の画像をディスプレイ7上に表示する。これにより擬似的なズームアウト(ズームダウン)が実現される。   Here, the pseudo zoom-out means that a part of the captured original image (b) is cut out without performing the camera work of zooming out by changing the focal length of the zoom lens during imaging by the imaging device. This is a technique of zooming down to a wide range of subject areas by sequentially increasing the cutout area while enlarging and displaying on the display 7. Note that when a part of the original image (b) is cut out by trimming and displayed on the display screen of the display 7, the number of pixels increases as the cutout area increases, and the image of the displayed cutout area becomes finer. Therefore, resolution conversion (pixel number conversion) is performed on the image of the cutout region in accordance with the pixel resolution of the display screen of the display 7, and the image of the cutout region is always displayed on the display 7 with a constant pixel resolution. Thereby, pseudo zoom-out (zoom-down) is realized.

一方、図3に示す例では、切り換え前の画像(a)の黒目の領域Aと、切り換え後の画像(b)の夜空の領域Bとが、画像の特徴量の差がしきい値以下で互いに類似していると判定された。なお、画像(b)の夜空の領域Bには花火が上がっているが、花火がないときの暗い夜空の画像特徴量と、画像(a)の黒目の画像特徴量とを比較した結果の判定である。次に、ディスプレイ7に表示されている切り換え前の画像(a)において、切り出し領域が順次小さくなるようにトリミングしてディスプレイ7に表示し、最終的に原画像(a)の中の黒目の領域Aに擬似的にズームインする。なお、図3(a)では、画像切り換え前の最終的な切り出し領域を示す実線枠のみを示し、図2(a)に示されるような段階的な切り出し領域を示す枠の図示を省略している。   On the other hand, in the example shown in FIG. 3, the difference in image feature amount between the black eye area A of the image (a) before switching and the night sky area B of the image (b) after switching is less than the threshold value. It was determined that they were similar to each other. In addition, although the fireworks are rising in the area B of the night sky of the image (b), the determination of the result of comparing the image feature amount of the dark night sky when there is no fireworks and the image feature amount of the black eye of the image (a) It is. Next, in the image (a) before switching displayed on the display 7, the trimming area is trimmed so as to be sequentially reduced and displayed on the display 7, and finally the black eye area in the original image (a) is displayed. Zoom in on A pseudo. In FIG. 3A, only the solid line frame indicating the final cutout area before the image switching is shown, and the stepped cutout area frame as shown in FIG. 2A is not shown. Yes.

切り出し前の画像(a)において黒目の領域Aまで擬似的なズームインを行った後、この黒目の領域Aの画像から、切り換え後の画像(b)の夜空の領域Bをトリミングにより切り出した画像に切り換えてディスプレイ7に表示する。その後、切り換え後の画像(b)において、切り出し領域が順次大きくなるようにトリミングしてディスプレイ7に表示し、最終的に原画像(b)の全範囲まで擬似的にズームアウトする。なお、図3(b)では、画像切り換え直後の切り出し領域を示す実線枠のみを示し、図2(b)に示されるような段階的な切り出し領域を示す枠の図示を省略している。また、上述のように、各大きさの切り出し領域内の画像データは、ディスプレイ7に表示される際に、画素数変換がなされるので、図3(a)(b)の例にも示されるとおり、切り換え前画像の最終的な切り出し領域の大きさ(画素数)と、切り換え後画像の初期の切り出し領域の大きさ(画素数)は、必ずしも同じである必要はない。   After performing pseudo zoom-in to the black-eye area A in the image (a) before cropping, the image of the black-eye area A is converted into an image cut out by trimming the area B in the night sky of the image (b) after switching. Switch to display on the display 7. Thereafter, in the image (b) after the switching, trimming is performed so that the cut-out area becomes sequentially larger and the result is displayed on the display 7, and finally the image is zoomed out to the entire range of the original image (b). In FIG. 3B, only a solid line frame indicating a cutout region immediately after image switching is shown, and a frame indicating a stepped cutout region as shown in FIG. 2B is omitted. Further, as described above, the image data in each size cut-out region is converted in the number of pixels when displayed on the display 7, and is also shown in the examples of FIGS. 3 (a) and 3 (b). As described above, the final size (number of pixels) of the pre-switching image and the initial size (number of pixels) of the post-switching image need not necessarily be the same.

図4は、上述した再生演出方法1において、制御部6aが行う制御動作を示したフローチャートである。制御部6aは、ステップS001で、ディスプレイ7に先に表示する第1画像の解析を、解析部6bで行わせ、特徴量が同じとみなせる領域毎の特徴量を抽出する。続くステップS002で、制御部6aは、記憶装置2に記憶される、第1画像以外の画像について、ステップS001と同様の領域毎の特徴量(例えば、主要色やエッジ量、エッジ方向など)の抽出を行う。なお、ステップS002、および後述するステップS003では、第1画像についでディスプレイ7に再生表示する第2画像を選択するため、連写画像など、第1画像と同じ被写体を、第1画像と似たような構図で撮影した画像については、ステップS002、およびステップS003の処理の対象とはしないことが好ましい。第1画像と同じ被写体を、第1画像と似たような構図で撮影したか否かの判断は、例えば、特徴情報として、1999年 David Loweにより提案されたSIFT(Scale Invariant Feature Transform)特徴量などを用いて行うことができる。このSIFT特徴量は、回転・スケールの変化に対して不変な局所情報であるため、複雑な被写体でもロバストな物体認識が可能である。この特徴量に基づいて2つの画像の比較を行うことで、2つの画像で同じ被写体を撮影したか、またその構図が類似しているかについて判断することができる。   FIG. 4 is a flowchart showing a control operation performed by the control unit 6a in the reproduction effect method 1 described above. In step S001, the control unit 6a causes the analysis unit 6b to analyze the first image previously displayed on the display 7, and extracts the feature amount for each region that can be regarded as having the same feature amount. In subsequent step S002, the control unit 6a stores, for the image other than the first image stored in the storage device 2, the feature amount for each region (for example, main color, edge amount, edge direction, etc.) similar to that in step S001. Perform extraction. In step S002 and step S003, which will be described later, in order to select the second image to be reproduced and displayed on the display 7 after the first image, the same subject as the first image, such as a continuous shot image, is similar to the first image. It is preferable that an image shot with such a composition is not a target of processing in steps S002 and S003. Judgment whether or not the same subject as the first image was shot with a composition similar to the first image is, for example, as SIFT (Scale Invariant Feature Transform) feature amount proposed by David Lowe in 1999 as feature information Etc. can be used. Since this SIFT feature quantity is local information that is invariant to changes in rotation and scale, robust object recognition is possible even for complex subjects. By comparing the two images based on this feature amount, it is possible to determine whether the same subject is photographed with the two images and whether the composition is similar.

ステップS003では、ステップS002で抽出された特徴量のうち、ステップS001で抽出された特徴量に最も類似する領域(第2領域)を有する画像(第2画像)と、その画面内位置についての情報を取得する。ステップS003に続くステップS004で、制御部6aは、第1画像の全画面をディスプレイ7に表示させる。ステップS005で、ステップS003で抽出された第2画像の第2領域に特徴量の類似する、第1画像中の第1領域に向けて、ディスプレイ7に表示される画像の切り出し領域を徐々に縮小した画像を生成し、これを順次ディスプレイ7に表示させて、擬似的にズームインを行う。続くステップS006で、第2画像の第2領域に、ディスプレイ7の表示画面を切り換える。なお、第1領域、第2領域の画面アスペクト比は、ディスプレイ7のアスペクト比と同じに設定することが望ましい。制御部6aは、続くステップS007で、第2領域を包含し、かつサイズが徐々に大きくなる切り出し領域を第2画像上で設定した上で、上述の画素数変換により表示画像データを生成し、これを順次ディスプレイ7に表示させて、擬似的ズームアウトを行う。   In step S003, an image (second image) having an area (second area) most similar to the feature quantity extracted in step S001 among the feature quantities extracted in step S002, and information about the position in the screen To get. In step S004 following step S003, the control unit 6a causes the display 7 to display the full screen of the first image. In step S005, the cutout area of the image displayed on the display 7 is gradually reduced toward the first area in the first image that has a similar feature amount to the second area of the second image extracted in step S003. The generated images are generated and sequentially displayed on the display 7 to perform pseudo zoom-in. In a succeeding step S006, the display screen of the display 7 is switched to the second area of the second image. The screen aspect ratio of the first area and the second area is preferably set to be the same as the aspect ratio of the display 7. In the subsequent step S007, the control unit 6a sets a cutout region that includes the second region and gradually increases in size on the second image, and then generates display image data by the above-described pixel number conversion. This is sequentially displayed on the display 7 to perform pseudo zoom-out.

図2および図3に示すシーンチェンジの再生演出例1では、切り換え前後の画像の中の画像特徴量が類似した領域として青空の領域、および黒目の領域と夜空の領域を例に挙げて説明したが、特徴量が類似した領域の画像を切り換え画像に用いる代わりに、切り換え前後の画像の中の共通の被写体領域の画像を切り換え画像としてもよい。例えば、切り換え前後の画像の中から建物の窓、ドアなどをトリミングにより切り出し、これらの切り出し画像を切り換え前後の画像としてもよい。なお、画像の中から建物の窓やドアなどの領域を切り出すには、画像中のエッジ成分を抽出して建物の外形を検出し、その建物の内側の所定の大きさのエッジ閉曲線を抽出すればよい。   In the scene change reproduction effect example 1 shown in FIG. 2 and FIG. 3, the blue sky area, the black eye area, and the night sky area have been described as examples of areas having similar image feature amounts in the images before and after switching. However, instead of using an image of a region having a similar feature amount as a switching image, an image of a common subject region in the images before and after switching may be used as the switching image. For example, building windows and doors may be cut out from images before and after switching, and these cut-out images may be used as images before and after switching. To cut out areas such as windows and doors of buildings from the image, extract the edge components in the image to detect the outline of the building, and extract an edge closed curve of a predetermined size inside the building. That's fine.

切り換え前の画像の中の窓の領域に擬似的にズームインし、切り換え後の画像の窓の領域から擬似的にズームアウトするシーンチェンジにおいて、切り換え前の画像で窓の領域に擬似的にズームインする過程で画像の明るさを徐々に増し、最終的にズームインした窓の領域の画像を“白飛び”(画像データの明るさを最大レベルに飽和させる)させた後、切り換え後の画像の中の窓の領域の画像を“白飛び”状態で表示させ、切り換え後の画像で窓の領域から擬似的にズームアウトする過程において画像の明るさを徐々に適正な明るさに変えていく演出としてもよい。あるいは、“白飛び”させる代わりに、切り換え前の画像のトンネルや洞窟の領域に擬似的にズームインしてする過程で最終的に“黒つぶれ”(画像データの明るさを最小レベルに減少させる)にし、切り換え後の画像の中のトンネルや洞窟の領域を“黒つぶれ”に表示した後、切り換え後の画像でトンネルや洞窟の領域から擬似的にズームアウトする過程で画像の明るさを徐々に増していく構成としてもよい。   In a scene change that artificially zooms in to the window area in the image before switching and zooms out from the window area in the image after switching, zooms in to the window area in the image before switching After gradually increasing the brightness of the image in the process, the image of the window area that was finally zoomed in is “exposed” (saturates the brightness of the image data to the maximum level), and then in the image after switching As an effect of displaying the image of the window area in a “out-of-white” state and gradually changing the brightness of the image to an appropriate brightness in the process of pseudo zooming out from the window area in the switched image Good. Or, instead of “blowing out”, in the process of zooming in on the tunnel or cave area of the image before switching, finally “blackout” (reducing the brightness of the image data to the minimum level) And display the tunnel or cave area in the image after switching in “blackout”, then gradually increase the brightness of the image in the process of zooming out from the tunnel or cave area in the image after switching It may be configured to increase.

このように、複数の画像の中の一枚の画像を表示した後に次の画像に切り換えるシーンチェンジにおいて、切り換え前後の画像の中から特徴量が類似する領域や同じ種類の被写体の領域を抽出し、切り換え前の画像の抽出領域へ擬似的なズームインを行った後、切り換え後の画像の抽出領域から擬似的なズームアウトを行うようにしたので、複数の画像を切り換えながら再生表示する際に視聴者の興味を引きつけ、面白いと感じさせ、飽きさせない演出を施すことができる。   In this way, in a scene change in which one image of a plurality of images is displayed and then switched to the next image, regions with similar feature amounts or regions of the same type of subject are extracted from the images before and after switching. After performing pseudo zoom-in to the image extraction area before switching, and then performing pseudo zoom-out from the image extraction area after switching, viewing is performed when switching and playing back multiple images. It attracts the people's interests, makes them feel interesting, and gives them a stunning performance.

なお、上述した再生演出方法1では異なる2枚の画像を切り換える際の演出処理を説明したが、1枚の画像の中から特徴量が類似する2つの領域を抽出し、一方の領域に擬似的にズームインし、他方の領域から擬似的なズームアウトを行うように演出してもよい。これにより、1枚の画像を再生表示する場合でも、視聴者の興味を引きつけ、面白いと感じさせ、飽きさせない演出を施すことができる。   In the playback effect method 1 described above, the effect process when switching between two different images has been described. However, two regions having similar feature amounts are extracted from one image, and the one region is simulated. It is also possible to produce an effect such that a pseudo zoom-out is performed from the other area. As a result, even when one image is reproduced and displayed, it is possible to produce an effect that attracts the viewer's interest, makes it feel interesting, and does not get bored.

《再生演出方法2》
次に、画像の中の一部の被写体を移動または変形する再生演出方法を説明する。図5は、画像の中に写っている道路標識を移動し変形する演出例を示す図である。再生表示対象の画像を解析して色成分、エッジ、テクスチャーなどの特徴に基づいて1または複数の被写体を識別する。さらに、これらの被写体の移動と変形が可能か否かを判別する。つまり、画像上で被写体の移動と変形を行った場合に、移動と変形を行った後に空白領域が発生するが、この空白領域を被写体領域の周囲の画像データを用いて補間する必要がある。移動または変形させる被写体に隣接する画像データを用いて移動または変形にともなう空白領域の補間が可能であれば、その被写体を移動または変形させることができる。
<< Playing production method 2 >>
Next, a reproduction effect method for moving or transforming a part of the subject in the image will be described. FIG. 5 is a diagram illustrating an effect example in which a road sign shown in the image is moved and deformed. An image to be reproduced and displayed is analyzed to identify one or more subjects based on features such as color components, edges, and texture. Further, it is determined whether or not these subjects can be moved and deformed. That is, when the subject is moved and deformed on the image, a blank area is generated after the movement and deformation. However, it is necessary to interpolate the blank area using image data around the subject area. If interpolation of a blank area accompanying movement or deformation is possible using image data adjacent to the object to be moved or deformed, the object can be moved or deformed.

図5(a)において、画像の中に写っている交通標識200を、移動し変形する被写体として注目する。画像からエッジの交点などを抽出して画像の特徴点を検出し、被写体とその領域を識別する。図5(a)に示す画像から黒丸(●)印とバツ(×)印の特徴点が検出され、交通標識200を被写体として識別する。交通標識200に隣接する画像の領域には、上部の背景に木の葉の画像領域があり、下部の背景に子供と木の幹の画像領域がある。この交通標識200を画像上で移動または変形する場合に、移動または変形によって生じる空白領域を、背景の木の葉の画像データもしくは子供と木の幹の画像データを用いて補間し、補修しなければならない。   In FIG. 5 (a), attention is paid to the traffic sign 200 shown in the image as an object to be moved and deformed. The feature point of the image is detected by extracting the intersection of the edges from the image, and the subject and its area are identified. Feature points of black circles (●) and crosses (x) are detected from the image shown in FIG. 5A, and the traffic sign 200 is identified as a subject. In the image area adjacent to the traffic sign 200, there is an image area of a tree leaf on the upper background, and an image area of a child and a tree trunk on the lower background. When the traffic sign 200 is moved or deformed on the image, the blank area generated by the movement or deformation must be interpolated using the image data of the leaves of the background tree or the image data of the child and the tree trunk and repaired. .

ここで、移動または変形対象の被写体領域に隣接する領域が、(1)その領域の画像の低周波数成分が少なく、高周波数成分が多く、かつその方向性がランダムな領域(例えば木の葉のような画像の領域)か、あるいは、(2)その領域の画像の高周波数成分が少なく、低周波数成分が多く、かつその方向性がランダムな領域(例えば曇り空のような画像の領域)か、あるいは(3)その領域の画像の高周波数成分、低周波数成分ともに低い領域(例えば青空のような画像の領域)か、の何れかであれば、そのような領域の画像を用いて被写体の移動または変形後の空白領域を補間により補修することができる。また、移動または変形対象の被写体領域の周囲に空白領域を補間可能な画像の領域があっても、空白領域とその周囲の補間可能な領域との間の境界部を目立たなくするために“ぼかし”を入れるために、周囲の補間可能な領域の面積が少なくとも空白領域よりも十分に広くなければならない。また、空白領域がその周囲の補間可能な領域に包含されていることが好ましい。   Here, the area adjacent to the subject area to be moved or deformed is (1) an area in which the low frequency component of the image in the area is small, the high frequency component is large, and the directionality is random (such as a leaf) (Region of the image), or (2) the region of the image of the region having a small number of high frequency components, a large amount of low frequency components, and a random direction (for example, a region of an image such as a cloudy sky), or ( 3) If the high frequency component and low frequency component of the image in the region are either low regions (for example, an image region such as a blue sky), the subject is moved or deformed using the image in such a region. Later blank areas can be repaired by interpolation. In addition, even if there is an image area in which a blank area can be interpolated around the subject area to be moved or deformed, “blurring” is performed to make the boundary between the blank area and the surrounding interpolable area inconspicuous. In order to include "," the area of the surrounding interpolable area must be at least sufficiently larger than the blank area. Moreover, it is preferable that the blank area is included in the surrounding interpolable area.

図5(a)に示す例では、交通標識200の上部の周辺(背景)には木の葉の画像領域があり、この木の葉の画像の領域は交通標識200の上部を移動または変形(ここでは、縮小)したときの空白領域よりも十分に広く、かつ、空白領域の大部分を包含しており、さらに、上記(1)に記載のように、木の葉の画像は空白領域を容易に補間可能な画像であるから、交通標識200の上部(黒丸の特徴点で囲まれた領域)を移動または変形可能である。一方、交通標識200の下部の周辺(背景)には子供と木の幹の画像領域があり、この子供と木の幹の画像の領域は交通標識200の下部を移動または変形(縮小)したときの空白領域よりも十分に広いとは言えず、かつ、空白領域の周囲に複雑に入り組んでおり、また、子供と木の幹の画像は上述したような一様な画像ではないから、空白領域を容易に補間可能な画像ではない。したがって、交通標識200の下部(バツの特徴点で囲まれた領域)を移動または変形することは困難である。図5(a)に示す交通標識200の上部のみ、図5(b)に示すように移動することができ、かつ図5(c)に示すように変形すなわち縮小することができる。なお、交通標識200の下部でも拡大変形ならば可能である。ここで、上記の空白領域の境界線は、理想的には、その全てが木の葉の画像領域と接していることが望ましいが、例えば図5(b)に示されるように、必ずしもその全てが木の葉の画像領域と接していなくてもよい。一般的には、境界を表す閉曲線の60%以上の長さで、補間可能な領域(上記の例では木の葉の画像領域)と接していれば十分であると考えられる。   In the example shown in FIG. 5A, there is an image area of a leaf in the vicinity (background) of the upper part of the traffic sign 200, and this image area of the leaf moves or deforms (in this case, reduced) in the upper part of the traffic sign 200. ), Which is sufficiently larger than the blank area at that time and includes most of the blank area. Further, as described in the above (1), the leaf image is an image in which the blank area can be easily interpolated. Therefore, it is possible to move or deform the upper part of the traffic sign 200 (the area surrounded by the black circle feature points). On the other hand, there is an image area of a child and a tree trunk in the lower part (background) of the traffic sign 200, and this child and tree trunk image area is moved or deformed (reduced) in the lower part of the traffic sign 200. The blank area is not sufficiently wide than the blank area, and is complicatedly intertwined around the blank area, and the image of the child and the trunk of the tree is not a uniform image as described above. It is not an image that can be easily interpolated. Therefore, it is difficult to move or deform the lower part of the traffic sign 200 (the area surrounded by the cross feature points). Only the upper part of the traffic sign 200 shown in FIG. 5 (a) can move as shown in FIG. 5 (b), and can be deformed or reduced as shown in FIG. 5 (c). Note that the lower part of the traffic sign 200 can be enlarged and deformed. Here, ideally, it is desirable that all of the border lines of the blank area are in contact with the image area of the leaf of the tree, but for example, as shown in FIG. It may not be in contact with the image area. In general, it is considered that it is sufficient if the length is 60% or more of the closed curve representing the boundary and is in contact with an interpolable region (in the above example, an image region of a leaf).

画像上の被写体の移動または変形処理は、ポリゴンによる手法等、周知の手法により実現することができる。カメラにより撮像された画像を解析して画像の中から1または複数の被写体の領域を抽出し、この被写体領域を画像上で少しずつ移動または変形して複数枚の画像を新たに生成する。そして、生成された複数枚の画像を順次ディスプレイ7に再生表示させ、あたかもその被写体が画像上で時間経過と共に、動的に移動または変形しているかのような動画像を提示する。この際に、被写体の移動量または変形量を小さくして、所定の移動量または変形量に至るまでの間に多くの画像を新たに生成するほど、それらを順次再生表示させたときの被写体の動きが滑らかになる。   The movement or deformation process of the subject on the image can be realized by a known method such as a polygon method. The image captured by the camera is analyzed to extract one or more subject areas from the image, and the subject area is moved or deformed little by little on the image to newly generate a plurality of images. Then, the generated plurality of images are sequentially reproduced and displayed on the display 7, and a moving image is presented as if the subject is moving or deforming dynamically over time. At this time, as the amount of movement or deformation of the subject is reduced and more images are newly generated until the predetermined amount of movement or deformation is reached, the image of the subject when the images are sequentially reproduced and displayed is increased. The movement becomes smooth.

このように、画像中の被写体を移動または変形する演出では、被写体に隣接する画像が被写体の移動、変形にともなう空白領域を補間可能な画像であり、かつその領域が空白領域を包含する十分に広い領域であれば、当該被写体の移動または変形が可能である。換言すれば、被写体の移動、変形にともなう空白領域を補間可能な画像の領域が空白領域に隣接し、空白領域がその隣接画像領域の範囲内にある場合には、その被写体の容易な移動または変形が可能である。再生表示する画像の中から上述した移動または変形可能な条件に合う被写体を抽出し、その被写体を移動または変形する演出を施すことによって、画像を再生表示する際に視聴者の興味を引きつけ、面白いと感じさせ、飽きさせなくすることができる。そのため、上述した範囲内における被写体の移動量または変形量が所定量未満の被写体を移動または変形の対象としない。また、被写体の移動量または変形量が所定量以上の被写体が存在しない画像を再生演出対象としない構成とすることができる。   In this way, in the effect of moving or deforming the subject in the image, the image adjacent to the subject is an image that can interpolate a blank area due to the movement and deformation of the subject, and the area sufficiently includes the blank area. If it is a wide area, the subject can be moved or deformed. In other words, when an area of an image that can interpolate a blank area due to movement or deformation of the subject is adjacent to the blank area and the blank area is within the range of the adjacent image area, the subject can be easily moved or Deformation is possible. By extracting the subject that meets the above-mentioned conditions that can be moved or deformed from the image to be reproduced and displayed, and applying the effect of moving or deforming the subject, the viewer's interest is attracted and displayed when the image is reproduced and displayed. You can make them feel and get bored. Therefore, a subject whose amount of movement or deformation of the subject within the above-described range is less than a predetermined amount is not targeted for movement or deformation. In addition, an image in which there is no subject whose amount of movement or deformation of the subject is greater than or equal to a predetermined amount can be set as a reproduction effect target.

次に、画像中で移動した被写体を他の被写体の背後に隠れさせる演出方法について説明する。一般に、カメラから遠くにある被写体ほど画像の消失点に近い位置に写り込む。例えば地面が写っているような画像では、被写界においてカメラから遠い被写体ほど、被写体と地面との境界が、撮像画面上の消失点に近い位置になる。消失点は、例えば、撮像画像からエッジを検出し、検出したエッジをハフ変換して複数の直線を抽出し、抽出された複数の直線に基づき、これら複数の直線を延長したときの交差する点を抽出することで、撮像画像上の位置を算出することができる。したがって、撮像画像を解析して複数の被写体領域を抽出し、各被写体領域の下端の画像上の位置から、当該撮像画像を撮像した撮像装置の撮像レンズ光軸方向の、複数の被写体の相対的な位置関係を求めることができる。   Next, an effect method for hiding a subject moved in an image behind another subject will be described. In general, a subject farther from the camera is reflected closer to the vanishing point of the image. For example, in an image in which the ground is shown, the farther from the camera in the field, the closer the boundary between the subject and the ground is closer to the vanishing point on the imaging screen. A vanishing point is, for example, a point that intersects when an edge is detected from a captured image, a plurality of straight lines are extracted by performing a Hough transform on the detected edge, and the plurality of straight lines are extended based on the plurality of extracted straight lines. The position on the captured image can be calculated by extracting. Therefore, by analyzing the captured image and extracting a plurality of subject areas, the relative position of the plurality of subjects in the direction of the optical axis of the imaging lens of the imaging device that captured the captured image is determined from the position on the lower end image of each subject area. Can be obtained.

図6(a)において、交通標識300と地面との境界Xは、木201と地面との境界Yよりも画像上で下側にある。この一実施の形態では、各被写体領域の下端の画像上の上下方向の位置に基づいて各被写体の被写界における奥行き方向の位置を求め、被写体を移動させる際に奥行き方向の位置に基づいて他の被写体の背後に隠れさせる。交通標識300を移動させる場合に、交通標識300の地面との境界を図6(a)に示すXの位置から、木201と地面との境界Yの位置よりも消失点側(X‘)に移動させ、図6(b)に示すように交通標識300の一部を木201の背後に隠れさせる。このように、被写体の被写界における奥行き方向の位置に基づいて、被写体を移動または変形させたときに他の被写体の背後に隠れさせる演出(オクルージョン)を施すようにしたので、被写体の移動または変形にともなって他の被写体の背後に隠れて見えなくなるはずのものが見えてしまい、視聴者が違和感を感じるのを防止することができる。   In FIG. 6A, the boundary X between the traffic sign 300 and the ground is on the lower side of the image than the boundary Y between the tree 201 and the ground. In this embodiment, the position in the depth direction in the object scene of each subject is obtained based on the position in the vertical direction on the image at the lower end of each subject area, and based on the position in the depth direction when moving the subject. Hide behind other subjects. When the traffic sign 300 is moved, the boundary of the traffic sign 300 with the ground is moved from the position X shown in FIG. 6A to the vanishing point side (X ′) from the position of the boundary Y between the tree 201 and the ground. It is moved and a part of the traffic sign 300 is hidden behind the tree 201 as shown in FIG. In this way, based on the position of the subject in the depth direction, an effect (occlusion) that hides behind the other subject when the subject is moved or deformed is provided. Along with the deformation, things that should be hidden behind other subjects can be seen, preventing the viewer from feeling uncomfortable.

なお、図6に示す画像中の被写体の移動、変形および隠れの再生演出例では、交通標識300のみを移動、変形および隠す例を示したが、上述した移動、変形および隠れの条件に合う被写体であればどのような被写体を移動、変形および隠れの対象にしてもよいし、対象被写体が複数個あってもよい。   In the example of the reproduction, rendering and hiding of the subject in the image shown in FIG. 6, only the traffic sign 300 is moved, deformed and hidden. However, the subject that meets the above-described moving, deforming and hiding conditions is shown. Any object may be used as a target to be moved, deformed, and hidden, and there may be a plurality of target objects.

《再生演出方法3》
画像を再生表示するときに楽曲を再生しながら画像に演出を施す再生演出方法を説明する。楽曲データは記録媒体2aから記憶装置2に読み込まれ記憶されており、ディスプレイ7に画像を再生表示するときにスピーカー8により再生する。なお、通信装置(不図示)を介して外部の例えばウエブから楽曲データを取得するようにしてもよい。楽曲データにはメタデータとしてスタンダード・ジャズ、バラード、ロックなどの楽曲のジャンル、3拍子や4拍子などの楽曲のリズムとテンポなどが記憶されており、楽曲データ(メタデータ)をコンピューター6の解析部6bにより解析することで、これらの情報を取得することができる。メタデータとしてこれらの情報が記憶されていない場合には、リズムとテンポは例えばバスドラムの音により把握することができる。バスドラムの音は、楽曲データ(音楽データ)の周波数解析を行うことによって抽出することができる。
<< Playing production method 3 >>
A reproduction effect method for providing an effect to an image while reproducing a music piece when the image is reproduced and displayed will be described. The music data is read and stored in the storage device 2 from the recording medium 2a, and is reproduced by the speaker 8 when an image is reproduced and displayed on the display 7. Note that music data may be acquired from an external web, for example, via a communication device (not shown). The music data stores the genre of music such as standard jazz, ballad, and rock as metadata, and the rhythm and tempo of the music such as 3 and 4 beats. The music data (metadata) is analyzed by the computer 6. Such information can be acquired by analyzing by the part 6b. When these pieces of information are not stored as metadata, the rhythm and tempo can be grasped by, for example, bass drum sounds. The sound of the bass drum can be extracted by performing frequency analysis of music data (music data).

画像とともに再生する楽曲は、ユーザーあるいは視聴者が手動で選択してもよいし、コンピューター6の制御部6aにより自動で選択する構成としてもよい。楽曲の自動選択方法には、画像データに関連付けて記録されている撮像日情報(年月日時情報)に応じて選択する方法がある。例えば12月中旬から下旬に撮像された画像とともに再生するのであれば、クリスマスに関連した楽曲を選択する。あるいは、画像データに関連付けて記録されている撮像地情報に応じた楽曲を選択する方法がある。例えば沖縄で撮像された画像とともに楽曲を再生するのであれば沖縄の民謡を選択する。このような画像の撮像日時や撮像地に基づいて楽曲を選択することによって、旅行写真を鑑賞するときなどに視聴者の画像への興味をいっそう強くさせることができる。さらに、画像を再生する場所に応じて楽曲を選択するようにしてもよい。再生する場所は製品(本再生演出装置1、あるいは同装置に再生演出動作を行わせる再生演出プログラム)の仕向地により特定できる。ユーザーあるいは視聴者が操作部5により再生地を手動で設定してもよい。さらにまた、再生する1または複数の画像の解析結果に基づいて、例えば「運動会」など、画像に映されているイベントを識別し、イベントに適した楽曲を自動選択するようにしてもよい。あるいは、画像再生装置1の周囲に流れている楽曲をマイク3で集音し、コンピューター6の解析部6bでジャンルやリズム、テンポなどを解析して楽曲を識別するようにし、解析結果に応じて、画像に演出を施す構成としてもよい。また、上記のメタデータが楽曲データに関連付けて記憶されておらず、楽曲の識別が困難な場合には、楽曲データを解析した結果得られる、リズムやテンポの情報に応じて画像に演出を施すようにしてもよい。   The music to be reproduced together with the image may be manually selected by the user or the viewer, or may be automatically selected by the control unit 6a of the computer 6. As an automatic music selection method, there is a method of selecting music according to imaging date information (year / month / date / time information) recorded in association with image data. For example, if the image is reproduced together with an image picked up from mid-December, a music related to Christmas is selected. Alternatively, there is a method of selecting music according to imaging location information recorded in association with image data. For example, if you want to play music along with images taken in Okinawa, select Okinawan folk songs. By selecting music based on the date and time of image capture and the location of the image, the viewer's interest in the image can be further enhanced when viewing travel photos. Furthermore, the music may be selected according to the place where the image is reproduced. The reproduction place can be specified by the destination of the product (the reproduction effect device 1 or a reproduction effect program that causes the device to perform a reproduction effect operation). The user or the viewer may manually set the playback location using the operation unit 5. Furthermore, based on the analysis result of one or a plurality of images to be reproduced, for example, an event shown in the image such as “athletic meet” may be identified, and a music suitable for the event may be automatically selected. Alternatively, the music flowing around the image reproduction apparatus 1 is collected by the microphone 3, and the analysis unit 6b of the computer 6 analyzes the genre, rhythm, tempo, etc. to identify the music, and according to the analysis result The image may be rendered. If the above metadata is not stored in association with the music data and it is difficult to identify the music, the image is rendered according to the rhythm and tempo information obtained as a result of analyzing the music data. You may do it.

選択または識別された楽曲に応じて画像の中の被写体の移動および変形パターンを生成し、演出を施した画像をディスプレイ7に表示するとともに、選択された楽曲または識別結果の楽曲、あるいは解析結果のリズムやテンポに合った楽曲をスピーカー8から再生する。   The movement and deformation pattern of the subject in the image is generated according to the selected or identified music, and the rendered image is displayed on the display 7, and the selected music, the identified music, or the analysis result The music that matches the rhythm and tempo is played from the speaker 8.

例えば、図6(a)に示す画像において交通標識300をコピーして合計3本にし、3本の交通標識を図7、図8に示すように楽曲に合わせて移動、変形させる。なお、図7、及び図8においては3本の交通標識の楽曲に合わせた動きのみを示し、図6(a)に示す他の被写体の図示を省略する。図7(a)はある楽曲のリズムの一例を示し、図7(b)〜(f)は、図7(a)のリズムに合わせて3本の交通標識が移動、変形する、つまり、3本の交通標識が楽曲に合わせて“踊る”様子を示す。図7(a)に示すリズム進行に合わせて、図7(b)、(c)、(d)では、3本の交通標識が、1本ずつ交通標識の矢印の向きを変えながら交通標識の支柱を曲げて変形し、図7(e)では交通標識の矢印の向きを固定したままで交通標識の支柱を曲げて変形し、図7(f)では交通標識の支柱を伸縮させることで高さを変えて交通標識(矢印表示部)の位置を移動させている。なお、図7において、(a)のリズムは、(b)の移動、変形時と同様に、(c)、(d)の移動、変形時にも繰り返される。また、楽曲のリズムに合わせて交通標識の本数を変える構成としてもよい。図8は、この一例を示しており、(a)に示す楽曲のリズム進行に合わせて、(b)に示すように交通標識の本数を徐々に増加させ、最後の音で全ての交通標識を画面上から消去させている。   For example, in the image shown in FIG. 6A, the traffic signs 300 are copied to make a total of three, and the three traffic signs are moved and deformed in accordance with the music as shown in FIGS. 7 and 8 show only movements in accordance with the music of the three traffic signs, and illustration of other subjects shown in FIG. 6A is omitted. FIG. 7 (a) shows an example of the rhythm of a certain musical piece, and FIGS. 7 (b) to (f) show that three traffic signs move and deform according to the rhythm of FIG. 7 (a). The traffic signs on the book show how they “dancing” to the music. In line with the rhythm progression shown in Fig. 7 (a), in Fig. 7 (b), (c), (d), the three traffic signs change the direction of the traffic sign arrows one by one. In FIG. 7 (e), the direction of the arrow of the traffic sign is fixed and the direction of the traffic sign is bent and deformed, and in FIG. The position of the traffic sign (arrow display part) is changed. In FIG. 7, the rhythm of (a) is repeated at the time of movement and deformation of (c) and (d) as in the case of movement and deformation of (b). Moreover, it is good also as a structure which changes the number of traffic signs according to the rhythm of a music. FIG. 8 shows an example of this. In accordance with the rhythm progression of the music shown in (a), the number of traffic signs is gradually increased as shown in (b), and all traffic signs are displayed with the last sound. Erasing from the screen.

なお、楽曲のメロディーに合わせて画像中の被写体を移動、変形させたり、楽曲のメロディー、リズムおよびテンポに合わせて被写体を移動、変形させる演出を行ってもよい。あるいは、楽曲の曲調によって演出を変えてもよい。例えばスローなバラード調の楽曲に対しては、昼間の画像から空の色の赤色成分を強くして夕焼け空の画像に徐々に変化させた後、画像全体を暗くして夜景にし、画像解析により認識された画像中の家屋の窓や街路灯を順次点灯させていくような演出がよい。また、選択あるいは識別された楽曲の題名や歌詞に応じて画像の演出を変えてもよいし、場合によっては楽曲が選択あるいは識別された後に楽曲に合う画像を選択し、その画像に楽曲に合った演出処理を施すようにしてもよい。このような曲調の認識は、楽曲のメタデータによらず、楽曲データそのものを解析して認識する構成としてもよい。   In addition, the subject in the image may be moved and deformed according to the melody of the music, or the subject may be moved and deformed according to the melody, rhythm and tempo of the music. Alternatively, the production may be changed according to the tone of the music. For example, for a slow ballad-like song, the red component of the sky color is strengthened from the daytime image and gradually changed to an image of the sunset sky, and then the entire image is darkened to make a night view. It is good to produce lighting in which the windows and street lights of houses in the recognized image are turned on sequentially. In addition, the presentation of the image may be changed according to the title or lyrics of the selected or identified music. In some cases, an image that matches the music is selected after the music is selected or identified, and the image matches the music. You may make it perform the production process. Such music-tone recognition may be configured to analyze and recognize music data itself, regardless of music metadata.

記憶装置2には予め被写体の移動、変形あるいは隠れなどを規定した種々の演出テンプレートが記憶されており、コンピューター6の処理部6cは、記憶装置2に記憶されている種々の演出テンプレートの中から、選択あるいは識別された楽曲にマッチする演出テンプレートを選択し、画像に演出処理を施す。このとき、ディスプレイ7の画像表示のフレームレートは一定であるので、演出画像の再生速度、つまり演出画像の生成枚数は楽曲のリズムに応じて決定するのが望ましい。   The storage device 2 stores in advance various effect templates that prescribe the movement, deformation or hiding of the subject, and the processing unit 6c of the computer 6 selects from the various effect templates stored in the storage device 2. An effect template that matches the selected or identified music piece is selected, and effect processing is performed on the image. At this time, since the frame rate of the image display on the display 7 is constant, it is desirable to determine the playback speed of the effect image, that is, the number of effect images generated according to the rhythm of the music.

《再生演出方法4》
画像の解析により認識された被写体の種類に応じて、時間的に移動(変化)するアニメーションを画像の被写体領域に関連した領域に重畳して再生表示する再生演出方法を説明する。例えば画像解析により画像の中に湯豆腐などの料理が写っていることが認識された場合には、料理から立ち上る湯気を時間経過とともに変化させる演出処理を施す。この場合、湯気の画像は予め記憶装置2に演出テンプレート画像として記憶されている。また、昼間に撮像された画像に車が写っている場合には、この画像を夜景に変える演出処理を施す際にライトを点灯・点滅させたり、青空が写っている画像の中に予め演出テンプレート画像として記憶されている雲の画像を重畳し、雲を時間経過とともに移動させたり、あるいは街角でスナップ撮影された画像に予め演出テンプレート画像として記憶されている雪の画像を重畳し、雪を降らせてもよい。
<< Playing production method 4 >>
A reproduction effect method will be described in which an animation that moves (changes) in time according to the type of subject recognized by image analysis is superimposed and superimposed on a region related to the subject region of the image. For example, when it is recognized by image analysis that a dish such as yudofu is reflected in the image, an effect process is performed to change the steam rising from the dish over time. In this case, the steam image is stored in advance in the storage device 2 as an effect template image. In addition, when a car is reflected in an image captured in the daytime, a lighting template is turned on or blinked when performing an effect process for changing this image into a night view, or an effect template is created in advance in an image showing a blue sky. The cloud image stored as an image is superimposed, and the cloud is moved over time, or the snow image stored in advance as a production template image is superimposed on the image snap-photographed at the street corner to make snow fall May be.

図9は、上記の再生演出方法2乃至4において、制御部6aが行う制御動作を示したフローチャートである。制御部6aは、ステップS100で、記憶装置2に記憶される画像の中から、ディスプレイ7に再生表示する1フレームの画像を選択する。ステップS101で、制御部6aは、ディスプレイ7に再生表示する画像を解析し、色成分、エッジ、テクスチャーなどの特徴に基づいて、1または複数の被写体を識別し、被写体の移動と変形が可能か否かを判断する。なお、この判断において、上述のとおり、所定量以上の移動、変形が可能か否かをもとに判断する構成としてもよい。ステップS101で、被写体の移動と変形が不可能と判断された場合には、ステップS102で、ディスプレイ7に再生表示する画像として、まだ選択されていない画像を選択する。一方、ステップS101で、被写体の移動と変形が可能と判断された場合には、ステップS103で、移動、変形の可能な被写体領域と、可能な移動量、可能な変形量情報を取得する。さらに、上記移動可能な被写体と地面との境界部と、消失点との間の画面上の離間情報(距離情報)も合わせて取得する。   FIG. 9 is a flowchart showing a control operation performed by the control unit 6a in the reproduction effect methods 2 to 4 described above. In step S100, the control unit 6a selects one frame image to be reproduced and displayed on the display 7 from the images stored in the storage device 2. In step S101, the control unit 6a analyzes the image reproduced and displayed on the display 7, identifies one or a plurality of subjects based on characteristics such as color components, edges, and textures, and can the subject be moved and deformed? Judge whether or not. In this determination, as described above, a determination may be made based on whether or not movement or deformation of a predetermined amount or more is possible. If it is determined in step S101 that the subject cannot be moved and deformed, an image that has not yet been selected is selected as an image to be reproduced and displayed on the display 7 in step S102. On the other hand, if it is determined in step S101 that the subject can be moved and deformed, in step S103, a subject region that can be moved and deformed, a possible amount of movement, and information on the amount of deformation that can be obtained are acquired. Furthermore, the separation information (distance information) on the screen between the boundary between the movable subject and the ground and the vanishing point is also acquired.

ステップS104で、記憶装置2に記憶されており、画像と共に再生しようとする楽曲データにメタデータが記憶されているか否かについて判断し、ステップS104で肯定判定された場合には、ステップS106で、メタデータから、リズム(拍子)やテンポ等の情報を取得する。一方、ステップS104で否定判定された場合には、ステップS105で、楽曲データの解析により、リズム(拍子)とテンポ等の情報を取得する。続くステップS107で、制御部6aは、上記の移動、変形可能な被写体を、選択された楽曲に合わせて、移動、変形させる画像データを生成する。この際に、被写体がもとの位置から、ある位置までの移動を、例えば4拍の拍数の間で行うことを考えた場合に、ディスプレイ7の表示のフレームレートは固定であるので、移動過程の画像の生成フレーム数は、楽曲のテンポによって決定される。制御部6aは、楽曲データのメタデータ、あるいは楽曲データの解析によりテンポ等の情報を取得し、これをもとに上記被写体の移動、変形パターンと、各移動、変形処理における遷移過程の画像の生成枚数とを決定し、画像生成を行う。また、上記被写体を移動、変形させる際に、他の被写体に隠れるか否かを判断するために、画面内の上記の移動、変形対象被写体以外の被写体の奥行き情報を取得するために、これら被写体の地面との境界部と消失点との間の離間情報を取得し、ステップS103で取得した離間情報が、ステップS107で取得した離間情報より小さくなった場合には、移動、変形対象被写体の移動、変形により、当該移動、変形対象被写体に隠れが発生すると判断し、このような画像を生成する。   In step S104, it is determined whether or not the metadata is stored in the music data that is stored in the storage device 2 and is to be reproduced together with the image. If the determination in step S104 is affirmative, the determination is made in step S106. Information such as rhythm (time signature) and tempo is acquired from the metadata. On the other hand, if a negative determination is made in step S104, information such as rhythm (time signature) and tempo is acquired by analyzing the music data in step S105. In subsequent step S107, the control unit 6a generates image data for moving and deforming the object that can be moved and deformed according to the selected music. At this time, when the subject is moved from the original position to a certain position, for example, between 4 beats, the frame rate of the display 7 is fixed. The number of image frames generated in the process is determined by the tempo of the music. The control unit 6a obtains information such as the tempo by analyzing the metadata of the music data or the music data, and based on this information, the movement of the subject, the deformation pattern, and the image of the transition process in each movement and deformation process are obtained. The number of generated images is determined and image generation is performed. In addition, when moving or deforming the subject, in order to determine whether or not the subject is hidden by another subject, in order to obtain depth information of subjects other than the subject to be moved or deformed in the screen, these subjects If the distance information between the boundary with the ground and the vanishing point is acquired, and the distance information acquired in step S103 is smaller than the distance information acquired in step S107, the movement or movement of the deformation target subject is performed. Then, it is determined that the subject to be moved or deformed is hidden by the deformation, and such an image is generated.

一方、ステップS103で取得した離間情報が、ステップS107で取得した離間情報より大きくなった場合には、移動、変形対象被写体の移動、変形により、当該移動、変形対象被写体に隠れが発生しないと判断し、このような画像を生成する。また、同様にステップS107で、湯豆腐やおでんなどの特定被写体が写っていることが認識された場合には、当該被写体領域に関連する領域(例えば上部)に、湯気などのアニメーション画像を重畳させた画像を生成する。
制御部6aは、ステップS108で、選択された楽曲と、ステップS107で生成された画像を順次再生する。なお、上述のステップS104で選択される楽曲は、再生する画像の撮影日時、撮影場所、撮影イベント、再生日時、再生場所などをもとに選択される構成としてもよい。
On the other hand, if the separation information acquired in step S103 is larger than the separation information acquired in step S107, it is determined that the movement or deformation target subject is not hidden by the movement or deformation of the subject. Then, such an image is generated. Similarly, in the case where it is recognized in step S107 that a specific subject such as yudofu or oden is captured, an animation image such as steam is superimposed on a region related to the subject region (for example, the upper part). Generate an image.
In step S108, the control unit 6a sequentially reproduces the selected music and the image generated in step S107. Note that the music selected in step S104 described above may be selected based on the shooting date / time, shooting location, shooting event, playback date / time, playback location, and the like of the image to be played back.

上述した一実施の形態では、本願発明の再生演出プログラムおよび再生演出装置を画像再生装置に組み込んだ例を示したが、本願発明の再生演出プログラムおよび再生演出装置を撮像装置に組み込んでもよい。また、本願発明の再生演出プログラムを一般のパソコンで実行させる構成としてもよい。   In the above-described embodiment, the example of incorporating the reproduction effect program and the reproduction effect device of the present invention into the image reproduction device has been described. However, the reproduction effect program and the reproduction effect device of the present invention may be incorporated into the imaging device. Further, the reproduction effect program of the present invention may be executed on a general personal computer.

なお、上述した実施の形態の再生演出方法とそれらの変形例において、再生演出方法どうし、または再生演出方法と変形例とのあらゆる組み合わせが可能である。   In addition, in the reproduction | regeneration production | generation method of embodiment mentioned above and those modifications, every combination with the reproduction | regeneration production | generation methods or a reproduction | regeneration production | generation method and a modification is possible.

上述した実施の形態の再生演出方法とその変形例によれば以下のような作用効果を奏することができる。まず、カメラにより撮像された画像を解析して画像の中から画像の特徴が類似する第1および第2の領域を抽出し、画像の中から第1の領域を含む第1の切り出し領域を設定し、第1の切り出し領域を第1の領域まで徐々に縮小しながら、第1の切り出し領域の画像をディスプレイに表示させた後、画像の中から第2の領域を含む第2の切り出し領域を設定し、第2の切り出し領域を第2の領域から徐々に拡大しながら、第2の切り出し領域の画像をディスプレイ7に表示させるようにしたので、再生表示される画像に対して、視聴者の興味を引きつけ、面白いと感じさせ、飽きさせない演出を施すことができる。   According to the reproduction effect method of the embodiment described above and its modifications, the following operational effects can be obtained. First, an image captured by a camera is analyzed to extract first and second regions having similar image characteristics from the image, and a first cutout region including the first region is set from the image. Then, after gradually reducing the first cutout area to the first area, the image of the first cutout area is displayed on the display, and then the second cutout area including the second area is selected from the image. Since the second cutout area is gradually enlarged from the second area and the image of the second cutout area is displayed on the display 7, the viewer's image is reproduced and displayed. It is possible to create a production that attracts interest, makes you feel interesting, and does not get bored.

また、カメラにより撮像された画像を解析するとともに、この解析結果に基づいて画像の中から1または複数の被写体の領域を抽出し、被写体の領域を画像上で移動または変形させて複数枚の新しい画像を生成し、予め選択された楽曲をスピーカーにより放送しながら複数枚の新しい画像を順次ディスプレイに再生表示させるようにしたので、楽曲に合わせて被写体が画像上で移動または変形する演出を施すことができ、再生表示される画像に対して、視聴者の興味を引きつけ、面白いと感じさせ、飽きさせないようにすることができる。   In addition, the image captured by the camera is analyzed, one or more subject areas are extracted from the image based on the analysis result, and the subject areas are moved or deformed on the image to obtain a plurality of new images. An image is generated, and a plurality of new images are reproduced and displayed sequentially on the display while broadcasting a pre-selected song through a speaker, so that the subject moves or deforms on the image according to the song. This makes it possible to attract the viewer's interest in the image that is reproduced and displayed, to make it feel interesting, and not to get bored.

1;再生演出装置、2;記憶装置、6a;制御部、6b;解析部、6c;処理部、7;ディスプレイ、8;スピーカー DESCRIPTION OF SYMBOLS 1; Reproduction production | presentation apparatus, 2; Memory | storage device, 6a; Control part, 6b; Analysis part, 6c; Processing part, 7; Display, 8;

Claims (13)

画像から特定の領域または被写体を抽出する抽出手順と、
前記特定の領域または被写体の移動または変形によって生じる空白領域が補間可能な範囲内において、前記画像内で前記特定の領域または被写体を移動または変形させ、前記空白領域を前記空白領域の周囲の領域の画像を用いて補間した画像を生成する画像生成手順と、
前記画像生成手順で生成された画像を表示する表示手順と、
をコンピューターに実行させるプログラム。
An extraction procedure to extract a specific area or subject from the image;
The specific area or the subject is moved or deformed in the image within a range in which the blank area caused by the movement or deformation of the specific area or the subject can be interpolated, and the blank area is changed to an area around the blank area. An image generation procedure for generating an interpolated image using the image;
A display procedure for displaying the image generated in the image generation procedure;
A program that runs a computer.
請求項1に記載のプログラムにおいて、
前記抽出手順では、前記画像からエッジの交点を特徴点として検出して前記特徴点で囲まれた領域を前記特定の領域として抽出する、または色成分またはエッジまたはテクスチャーに基づいて被写体を前記特定の被写体として抽出するプログラム。
The program according to claim 1,
In the extraction procedure, an intersection of edges is detected as a feature point from the image and a region surrounded by the feature point is extracted as the specific region, or a subject is detected based on a color component, edge, or texture. A program to extract as a subject.
請求項1または2に記載のプログラムにおいて、
前記画像生成手順では、前記特定の領域の移動量または変形量を変化させた画像を複数生成、または前記特定の被写体の移動量または変形量を変化させた画像を複数生成し、
前記表示手順では、前記画像生成手順で生成された複数の画像を順次表示するプログラム。
In the program according to claim 1 or 2,
In the image generation procedure, a plurality of images in which the movement amount or deformation amount of the specific area is changed, or a plurality of images in which the movement amount or deformation amount of the specific subject is changed, are generated.
In the display procedure, a program for sequentially displaying a plurality of images generated in the image generation procedure.
請求項1〜3のいずれか一項に記載のプログラムにおいて、
前記画像生成手順では、前記補間可能な範囲が所定範囲である画像の、前記特定の領域または被写体を移動または変形の対象とするプログラム。
In the program according to any one of claims 1 to 3,
In the image generation procedure, a program for moving or deforming the specific region or subject of an image in which the interpolable range is a predetermined range.
請求項1〜4のいずれか一項に記載のプログラムにおいて、
前記抽出手順では、前記画像上の前記被写体の領域の下端の位置に基づいて前記被写体の被写界における奥行き方向の位置を推定し、
前記画像生成手順では、前記特定の領域または前記特定の被写体を移動または変形させるときに、前記被写体の被写界における奥行き方向の位置に基づいて、前記被写体が他の被写体の陰に隠れる画像を生成するプログラム。
In the program according to any one of claims 1 to 4,
In the extraction procedure, the position in the depth direction in the object scene of the subject is estimated based on the position of the lower end of the region of the subject on the image,
In the image generation procedure, when moving or deforming the specific area or the specific subject, an image in which the subject is hidden behind other subjects based on the position of the subject in the depth direction in the field of view. The program to generate.
請求項1〜5のいずれか一項に記載のプログラムにおいて、
楽曲を再生する再生手順をコンピューターに実行させ、
前記表示手順では、前記再生手順で再生された楽曲に合わせて、前記画像生成手順で生成された画像を表示するプログラム。
In the program according to any one of claims 1 to 5,
Let the computer execute the playback procedure to play music,
In the display procedure, a program for displaying the image generated in the image generation procedure in accordance with the music reproduced in the reproduction procedure.
請求項6に記載のプログラムにおいて、
前記再生手順では、前記画像が撮像された日に応じた楽曲、または前記画像が撮像された場所に応じた楽曲を選択するプログラム。
The program according to claim 6,
In the reproduction procedure, a program for selecting music corresponding to the date when the image was captured or music corresponding to the location where the image was captured.
請求項6に記載のプログラムにおいて、
前記再生手順では、前記画像生成手順で生成された画像を表示する日に応じた楽曲、または前記画像生成手順で生成された画像を表示する場所に応じた楽曲を選択するプログラム。
The program according to claim 6,
In the reproduction procedure, a program for selecting music corresponding to a date on which an image generated in the image generation procedure is displayed or music corresponding to a place where the image generated in the image generation procedure is displayed.
請求項6に記載のプログラムにおいて、
前記再生手順では、前記画像に映されているイベントを識別し、識別したイベントに応じた楽曲を選択するプログラム。
The program according to claim 6,
In the reproduction procedure, a program for identifying an event shown in the image and selecting a music piece corresponding to the identified event.
請求項6〜9のいずれか一項に記載のプログラムにおいて、
前記表示手順では、前記再生手順で再生された楽曲に合わせて、前記特定の領域または被写体を移動または変形させながら前記画像生成手順で生成された画像を表示するプログラム。
In the program according to any one of claims 6 to 9,
In the display procedure, a program for displaying an image generated in the image generation procedure while moving or deforming the specific area or subject in accordance with the music reproduced in the reproduction procedure.
請求項7〜9のいずれか一項に記載のプログラムにおいて、
前記画像生成手順では、前記選択された楽曲に応じて前記画像生成手順で生成される画像の生成枚数を決定するプログラム。
In the program according to any one of claims 7 to 9,
In the image generation procedure, a program for determining a generation number of images generated in the image generation procedure according to the selected music piece.
請求項1〜11のいずれか一項に記載のプログラムにおいて、
前記表示手順では、前記画像に写っている被写体を識別し、識別した被写体に応じたアニメーションを前記画像に重畳させるとともに、前記アニメーションを時間的に変化させて表示するプログラム。
In the program according to any one of claims 1 to 11,
In the display procedure, a subject identified in the image is identified, an animation corresponding to the identified subject is superimposed on the image, and the animation is displayed while being temporally changed.
画像を記憶する記憶部と、
請求項1〜12のいずれか一項に記載のプログラムを実行するコンピューターと、
画像を表示する表示部とを備える表示装置。
A storage unit for storing images;
A computer that executes the program according to any one of claims 1 to 12,
A display device comprising a display unit for displaying an image.
JP2015225949A 2015-11-18 2015-11-18 Program and display device Expired - Fee Related JP6319273B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015225949A JP6319273B2 (en) 2015-11-18 2015-11-18 Program and display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015225949A JP6319273B2 (en) 2015-11-18 2015-11-18 Program and display device

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014144414A Division JP2014200109A (en) 2014-07-14 2014-07-14 Reproduction rendering program and reproduction rendering device

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018073261A Division JP2018107834A (en) 2018-04-05 2018-04-05 Reproduction presentation program and reproduction presentation device

Publications (2)

Publication Number Publication Date
JP2016054524A true JP2016054524A (en) 2016-04-14
JP6319273B2 JP6319273B2 (en) 2018-05-09

Family

ID=55745490

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015225949A Expired - Fee Related JP6319273B2 (en) 2015-11-18 2015-11-18 Program and display device

Country Status (1)

Country Link
JP (1) JP6319273B2 (en)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200801A (en) * 1993-12-28 1995-08-04 Toppan Printing Co Ltd Deformed image producing device
JPH07234949A (en) * 1994-02-23 1995-09-05 Hitachi Ltd Method and system for supporting preparation of perspective drawing
JP2001141494A (en) * 1999-11-10 2001-05-25 Mitsubishi Electric Corp On-vehicle navigation system
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2005037276A (en) * 2003-07-16 2005-02-10 Sony Corp On-vehicle information reproduction recording device and its information reproduction recording method
JP2005276400A (en) * 2003-06-30 2005-10-06 Matsushita Electric Ind Co Ltd Content reproducing device and method
JP2006148344A (en) * 2004-11-17 2006-06-08 Fuji Photo Film Co Ltd Edit condition setting apparatus and edit condition setting program for photo movie
JP2007221681A (en) * 2006-02-20 2007-08-30 Nikon Corp Image reproducing apparatus, music processing program, and image reproducing program
JP2008010966A (en) * 2006-06-27 2008-01-17 Xing Inc Moving picture generation system and method
JP2009044329A (en) * 2007-08-07 2009-02-26 Nikon Corp Program, image processing method, and image processor

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07200801A (en) * 1993-12-28 1995-08-04 Toppan Printing Co Ltd Deformed image producing device
JPH07234949A (en) * 1994-02-23 1995-09-05 Hitachi Ltd Method and system for supporting preparation of perspective drawing
JP2001141494A (en) * 1999-11-10 2001-05-25 Mitsubishi Electric Corp On-vehicle navigation system
JP2003264740A (en) * 2002-03-08 2003-09-19 Cad Center:Kk Observation scope
JP2005276400A (en) * 2003-06-30 2005-10-06 Matsushita Electric Ind Co Ltd Content reproducing device and method
JP2005037276A (en) * 2003-07-16 2005-02-10 Sony Corp On-vehicle information reproduction recording device and its information reproduction recording method
JP2006148344A (en) * 2004-11-17 2006-06-08 Fuji Photo Film Co Ltd Edit condition setting apparatus and edit condition setting program for photo movie
JP2007221681A (en) * 2006-02-20 2007-08-30 Nikon Corp Image reproducing apparatus, music processing program, and image reproducing program
JP2008010966A (en) * 2006-06-27 2008-01-17 Xing Inc Moving picture generation system and method
JP2009044329A (en) * 2007-08-07 2009-02-26 Nikon Corp Program, image processing method, and image processor

Also Published As

Publication number Publication date
JP6319273B2 (en) 2018-05-09

Similar Documents

Publication Publication Date Title
JP5613991B2 (en) Reproduction effect program and reproduction effect device
US10706892B2 (en) Method and apparatus for finding and using video portions that are relevant to adjacent still images
KR101605983B1 (en) Image recomposition using face detection
JP5355422B2 (en) Method and system for video indexing and video synopsis
US8548249B2 (en) Information processing apparatus, information processing method, and program
US10861159B2 (en) Method, system and computer program product for automatically altering a video stream
US8421819B2 (en) Pillarboxing correction
JPH11234560A (en) Multimedia edit method and device therefor
JP2004110821A (en) Method for automatically creating multimedia presentation and its computer program
US20040264939A1 (en) Content-based dynamic photo-to-video methods and apparatuses
US9749550B2 (en) Apparatus and method for tuning an audiovisual system to viewer attention level
Bano et al. ViComp: composition of user-generated videos
JP2018107834A (en) Reproduction presentation program and reproduction presentation device
US20170256081A1 (en) Information processing apparatus, information processing system, information processing method, and program
JP6319273B2 (en) Program and display device
KR100758304B1 (en) Method for making a multi-view panoramic video content and method for playing thereof
JP2014200109A (en) Reproduction rendering program and reproduction rendering device
JP2013207530A (en) Information processing device, information processing method and program
CN111800663B (en) Video synthesis method and device
KR20100065318A (en) Method and device for creating a modified video from an input video
Schindler et al. On the unsolved problem of shot boundary detection for music videos
US11837258B2 (en) Scene-creation using high-resolution video perspective manipulation and editing techniques
JP2017225037A (en) Image processing apparatus and imaging apparatus
JP2024051665A (en) Video synthesis system, video synthesis method, and program
Yangyang Computational Media Aesthetics for Media Synthesis

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170104

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170904

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180306

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180319

R150 Certificate of patent or registration of utility model

Ref document number: 6319273

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees