JP4219906B2 - Video content creation device and video content creation program - Google Patents
Video content creation device and video content creation program Download PDFInfo
- Publication number
- JP4219906B2 JP4219906B2 JP2005099604A JP2005099604A JP4219906B2 JP 4219906 B2 JP4219906 B2 JP 4219906B2 JP 2005099604 A JP2005099604 A JP 2005099604A JP 2005099604 A JP2005099604 A JP 2005099604A JP 4219906 B2 JP4219906 B2 JP 4219906B2
- Authority
- JP
- Japan
- Prior art keywords
- meta information
- photo
- image data
- information
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
この発明はビデオコンテンツ作成装置に関し、特にたとえば、痴呆症者の過去の写真を使って思い出ビデオのようなビデオコンテンツを作成する、新規なビデオコンテンツ作成装置に関する。 The present invention relates to a video content creation device, and more particularly to a novel video content creation device that creates video content such as a memory video using past photographs of persons with dementia.
高齢者人口が急増している昨今、痴呆症者(または認知症者。ただし、以下の説明では、便宜上、痴呆症者という語を使用する。)に対して充実した介護を提供することは緊急の課題と言える。しかし、一般に痴呆症者の介護者として世話に当たる家族は、24時間常に痴呆症者から目を離すことができず、そのストレスを原因とする痴呆症者への虐待が最近、社会的な問題となっている。こういった痴呆症者、介護者の両者のストレスを軽減するには、痴呆症者の心理的な安定を引き出すことが重要である。そのための手法として昔の映画や音楽、本人の写真などを視聴させる回想法がある。しかし、話しかけを実施する人が必要であり在宅では行いにくい。 With the rapid increase in the elderly population, it is urgent to provide adequate care for people with dementia (or people with dementia. However, in the following explanation, the term dementia will be used for convenience) It can be said that. However, families who are generally cared for as a caregiver for dementia cannot keep an eye on the dementia for 24 hours. Abuse of dementia due to the stress has recently become a social problem. It has become. In order to reduce the stress of both dementia and caregivers, it is important to bring out psychological stability of the dementia. For this purpose, there is a recollection method that lets you watch old movies, music, and photos of the person. However, it is difficult to do it at home because it requires someone to speak.
このため、非特許文献1において、思い出ビデオを用いる手法が提案されている。思い出ビデオとは、痴呆症者の昔の写真のスライドショービデオに、BGMやナレーションを加えたものである。
思い出ビデオは痴呆症者の安定した精神状態を形成する上で有効性が確認されているが、思い出ビデオの作成は映像編集のノウハウが必要であり、一般の介護者が簡単に行えるものではない。 Although the memorized video has been confirmed to be effective in creating a stable mental state of dementia, the creation of the memorized video requires video editing know-how and is not easy for ordinary caregivers to do. .
また、このような思い出ビデオは、興味や集中力をできるだけ失わないで痴呆症者に観てもらえるものであること望ましい。 In addition, it is desirable that such a memorized video be viewed by a person with dementia without losing interest and concentration as much as possible.
それゆえに、この発明の主たる目的は、比較的簡単に、痴呆症者の過去の写真を使って思い出ビデオのようなビデオコンテンツを作成できる、ビデオコンテンツ作成装置を提供することである。 Therefore, a main object of the present invention is to provide a video content creation device capable of creating video content such as a memory video using a past photograph of a demented person relatively easily.
この発明の他の目的は、痴呆症者に観てもらい易い思い出ビデオのようなビデオコンテンツを作成できる、ビデオコンテンツ作成装置を提供することである。 Another object of the present invention is to provide a video content creation device capable of creating video content such as a memory video that is easily viewed by a person with dementia.
請求項1の発明は、写真画像データを入力する写真データ入力手段、写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、写真画像データを関連するメタ情報とともに格納する記憶手段、メタ情報を用いて記憶手段から写真画像データを検索する検索手段、および検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、生成手段はメタ情報に基づいて映像効果を適用する映像効果適用手段を含み、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、映像効果適用手段はリージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成装置である。
The invention of
請求項1の発明では、たとえばイメージスキャナなどを含む写真データ入力装置(20。実施例で相当する部分または要素を示す参照符号。以下同様。)から、写真画像データをコンピュータ(12)に入力する。コンピュータ内にはその写真画像データにメタ情報を付与するための手段、たとえばDublin Core、Image Regions、FOAFなどを設けておく。これらのメタ情報付与手段によって、入力した写真画像データに関連するメタ情報を付与して、コンピュータは、写真画像データを関連するメタ情報とともに記憶手段(22)に格納する。検索手段(12,S2)が、メタ情報を用いて記憶手段か写真画像データを検索する。生成手段(12,S6)は、その検索した写真画像データを、メタ情報に従って編集することによって、たとえばAVI形式やFlashムービー形式で、スライドショーのようなビデオコンテンツを生成する。ここで、生成手段に含まれる映像効果適用手段(12,S22,S36)は、メタ情報に従って映像効果、たとえばズームアップ、パン、フェードアウト、フェードインなどを適用する。そして、上記写真が痴呆症者の昔の写真であれば、ビデオコンテンツは思い出ビデオと呼べる。 According to the first aspect of the present invention, for example, photographic image data is input to the computer (12) from a photographic data input device (20. Reference numerals indicating parts or elements corresponding to the embodiments; the same applies hereinafter) including an image scanner. . In the computer, means for giving meta information to the photographic image data, for example, Dublin Core, Image Regions, FOAF, etc. are provided. The meta information related to the inputted photographic image data is given by these meta information giving means, and the computer stores the photographic image data in the storage means (22) together with the related meta information. The search means (12, S2) searches the storage means or the photographic image data using the meta information. The generation means (12, S6) generates video content such as a slide show in the AVI format or the Flash movie format, for example, by editing the retrieved photographic image data according to the meta information. Here, the video effect applying means (12, S22, S36) included in the generating means applies video effects such as zoom-up, pan, fade-out, fade-in, etc. according to the meta information. And if the picture is an old picture of a person with dementia, the video content can be called a memory video.
請求項1の発明では、メタ情報を用いて写真画像データを編集するので、ビデオコンテンツの製作にあまり慣れていなくても、たとえば痴呆症者の昔の写真を用いて、比較的簡単に、思い出ビデオのようなビデオコンテンツを作成することができる。しかも、メタ情報に従った種々の映像効果を適用するので、思い出ビデオを観る痴呆症者の興味や集中力を持続させ易く、思い出ビデオの効果の一層の向上が期待できる。
また、1つの写真画像中にリージョンを設定している場合、メタ情報付与手段によって、そのリージョンのメタ情報、たとえばリージョンの座標位置、高さ、幅などが登録される。したがって、そのようなリージョン情報が各リージョン間の間隔情報を含むことになる。そして、映像効果適用手段(12,S22)は、そのリージョン間間隔情報に応じて異なる映像効果を適用する。たとえば、リージョン間間隔が所定の閾値以下の場合には、1つのリージョンをズームアップした後、後続のリージョンをパンする。リージョン間間隔が所定の閾値以上の場合には、パンに代えて、1つのリージョンをズームアップした後、そのリージョンをフェードアウトしかつ後続のリージョンをフェードインさせる。メタ情報のリージョン間間隔情報を用いて、自動的に適宜の映像効果が付与されるので、映像効果付与のための面倒な操作がいらない。
In the invention of
Further, when a region is set in one photographic image, meta information of the region, for example, the coordinate position, height, width, etc. of the region is registered by the meta information adding means. Therefore, such region information includes interval information between the regions. Then, the video effect applying means (12, S22) applies different video effects according to the inter-region interval information. For example, when the inter-region interval is equal to or smaller than a predetermined threshold, after zooming up one region, the subsequent region is panned. When the inter-region interval is equal to or greater than a predetermined threshold, instead of panning, one region is zoomed up, then that region is faded out, and the subsequent region is faded in. Since the appropriate video effect is automatically given using the inter-region interval information of the meta information, a troublesome operation for giving the video effect is not required.
請求項2の発明は、メタ情報は各写真画像データ中に設定されている写真情報を含み、映像効果適用手段は前記写真情報に応じて映像効果を適用する、請求項1記載のビデオコンテンツ作成装置である。
According to a second aspect of the invention, the meta information includes picture information that is set in each photographic image data, the image effect applying means for applying a video effect according to the photographic information, create video content according to
請求項2の発明では、映像効果適用手段(12,S36)は、写真情報に従った映像効果を付与する。したがって、写真情報を用いて、自動的に適宜の映像効果が付与されるので、映像効果付与のための面倒な操作がいらない。 In the invention of claim 2 , the video effect applying means (12, S36) gives a video effect according to the photographic information. Therefore, since an appropriate video effect is automatically given using the photographic information, a troublesome operation for giving the video effect is not required.
請求項3の発明は、写真情報は日付情報を含み、映像効果適用手段は日付情報による各写真間の年代差に応じて異なる映像効果を適用する、請求項2記載のビデオコンテンツ作成装置である。
The invention of
請求項3の発明では、複数の写真画像を取り込んだとき、メタ情報付与手段に含まれる撮影日付よって、各写真間の年代差を検出することができる。そして、映像効果適用手段(12,S36)は、その各写真間の年代差に応じて異なる映像効果を適用する。たとえば、年代差が所定の閾値以下の場合には、前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる。年代差が所定の閾値以上の場合には、次の写真をスライドインさせる。このように、各写真間の年代差を用いて、自動的に適宜の映像効果が付与されるので、映像効果付与のための面倒な操作がいらない。 According to the third aspect of the present invention, when a plurality of photograph images are captured, the age difference between the photographs can be detected based on the photographing date included in the meta information providing means. The video effect applying means (12, S36) applies different video effects according to the age difference between the photographs. For example, if the age difference is less than or equal to a predetermined threshold, the next photo is faded in while fading out the previous photo, and they are overlapped. If the age difference is greater than or equal to a predetermined threshold, the next photo is slid in. In this way, since an appropriate video effect is automatically given using the age difference between each photograph, a troublesome operation for giving the video effect is not required.
請求項4の発明は、写真情報は人物情報を含み、映像効果適用手段は人物情報に従って映像効果を適用する、請求項2または3記載のビデオコンテンツ作成装置である。 According to a fourth aspect of the present invention, there is provided the video content creating apparatus according to the second or third aspect , wherein the photographic information includes person information, and the video effect applying means applies the video effect according to the person information.
請求項4の発明では、人物情報によって、被写体が視聴者に思い出深い人物であることが分かったときには、コンピュータは、たとえばその被写体があるリージョンだけに映像効果を適用する。
In the invention of
請求項5の発明は、写真情報は色調情報を含み、映像効果適用手段は色調情報に従って映像効果を適用する、請求項2ないし4のいずれかに記載のビデオコンテンツ作成装置である。 A fifth aspect of the present invention is the video content creation device according to any one of the second to fourth aspects, wherein the photographic information includes color tone information, and the video effect applying means applies the video effect according to the color tone information.
請求項5の発明では、色調情報を検出し、たとえば写真がモノクロからカラーへ変わったような場合、たとえばカラー写真をまずモノクロ調に表示した後、徐々にカラー表示に遷移させていくような映像効果を付与する。
According to the invention of
請求項6の発明は、ビデオコンテンツ作成装置のコンピュータに、写真画像データを入力する写真データ入力ステップ、写真画像データに関連してメタ情報を付与するためのメタ情報付与ステップ、写真画像データを関連するメタ情報とともに格納する記憶ステップ、メタ情報を用いて記憶手段から写真画像データを検索する検索ステップ、および検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成ステップを実行させ、そして生成ステップにおいてはメタ情報に基づいて映像効果を適用する映像効果適用ステップを実行させ、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、映像効果適用ステップではリージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成プログラムである。
請求項7の発明は、写真画像データを関連するメタ情報とともに格納する記憶手段、メタ情報を用いて記憶手段から写真画像データを検索する検索手段、および検索手段によって検索した写真画像データに従ってサムネイル画像を表示するサムネイル画像表示領域および写真リスト欄を有する再生順序設定領域を含むGUI画面を表示する表示手段を備え、サムネイル画像表示領域で表示しているサムネイル画像を写真リスト欄にドラッグアンドドロップすることによって、検索した写真データのうち実際に使用する複数の写真を選択し、写真リスト欄におけるリスト搭載順を変更することによって複数の再生順序を変更できるようにし、写真リスト欄に搭載している写真の写真画像データとそれに関連するメタ情報とを記憶手段から読み出す読出し手段、および読出し手段が読み出した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、生成手段はリージョン情報に従って当該リージョンの画像を所定位置に位置合わせする位置合わせ手段を含み、さらに生成手段はリージョン情報に基づいて映像効果を適用する映像効果適用手段を含む、ビデオコンテンツ作成装置である。
請求項8の発明は、写真画像データを入力する写真データ入力手段、写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、写真画像データを関連するメタ情報とともに格納する記憶手段、メタ情報を用いて記憶手段から写真画像データを検索する検索手段、および検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、生成手段はメタ情報に基づいて映像効果を適用する映像効果適用手段を含み、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、映像効果適用手段はリージョン情報に応じて映像効果を適用する、ビデオコンテンツ作成装置である。
The invention of
The invention of claim 7 is a storage means for storing photographic image data together with related meta information, a search means for searching photographic image data from the storage means using the meta information, and a thumbnail image according to the photographic image data searched by the search means. A display means for displaying a GUI screen including a thumbnail image display area for displaying and a reproduction order setting area having a photo list field, and dragging and dropping the thumbnail image displayed in the thumbnail image display area to the photo list field By selecting multiple photos to be actually used from the searched photo data and changing the list loading order in the photo list column, you can change the multiple playback order, and the photos loaded in the photo list column Read out photographic image data and related meta information from the storage means Readout means, and generation means for generating a series of video contents by editing the photographic image data read out by the readout means in accordance with the meta information, the meta information being region information of a region set in one photographic image data And generating means includes positioning means for aligning an image of the region at a predetermined position in accordance with the region information, and further generating means includes video effect applying means for applying a video effect based on the region information. Device.
The invention of claim 8 is a photographic data input means for inputting photographic image data, a meta information giving means for giving meta information in relation to the photographic image data, and a storage means for storing the photographic image data together with related meta information. A search means for searching for photographic image data from the storage means using the meta information, and a generating means for generating a series of video contents by editing the photographic image data searched by the search means according to the meta information, Including video effect applying means for applying a video effect based on meta information, the meta information including region information of a region set in one photographic image data, and the video effect applying means corresponding to the region information. This is a video content creation device to which is applied.
この発明によれば、たとえば痴呆症者の過去の写真にメタ情報を付与し、そのメタ情報を利用して写真画像を編集することによって、比較的簡単に、思い出ビデオのようなビデオコンテンツを作成することができる。しかも、メタ情報に従った種々の映像効果を適用するので、思い出ビデオを観る痴呆症者の興味や集中力を持続させ易く、思い出ビデオの効果の一層の向上が期待できる。 According to the present invention, for example, by adding meta information to a past photo of a person with dementia and editing a photo image using the meta information, video content such as a memory video can be created relatively easily. can do. Moreover, since various video effects according to the meta information are applied, it is easy to maintain the interest and concentration of the demented person who watches the memory video, and further improvement of the memory video effect can be expected.
この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。 The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.
図1を参照して、この実施例のビデオコンテンツ作成装置10は、コンピュータ12を含む。このコンピュータ12としては、パーソナルコンピュータやワークステーションが利用可能である。
With reference to FIG. 1, a video
コンピュータ12にはハードディスクやRAMのような内部メモリ14が設けられていて、その内部メモリ14には、メタ情報を入力するためのツールとして、たとえば、いずれも商品名である、Dublin Core (http://dublincore.org)、Image Regions (http://www.w3.org)、FOAF (http://www.foaf−project.org)、Jena2(2.1) (http://jena.sourceforge.net)などが設定されている。これらはいずれも、写真画像データに関連するメタ情報を入力または登録もしくは付与する手段として機能する。
The
ここで、メタ情報とは、データに関する構造化した情報を意味し、実施例の場合、取り扱う写真画像データの詳細を構造的に記述する情報である。 Here, meta information means structured information regarding data, and in the case of the embodiment, is information that structurally describes details of photographic image data to be handled.
Dublin Coreはメタ情報を取り扱う代表的なツールとして知られていて、さらに、写真中の人物の顔やオブジェクトの領域(以後、「リージョン」と呼ぶ。)を複数個指定し、これをメタ情報として保持するためにImage Regionsを利用する。リージョンが人の場合には、FOAFを利用して人のメタ情報を付与する。リージョンは静止画である写真に対して、そこへのズーム、リージョン間のパンといったエフェクトを加えるために用いる。メタ情報をRDFの形式でデータベースに格納するために、Jena2(2.1)を使用する。 Dublin Core is known as a representative tool for handling meta information. In addition, a person's face and object area (hereinafter referred to as "region") in a photo is specified and used as meta information. Use Image Regions to hold. If the region is a person, add meta information of the person using FOAF. Regions are used to add effects such as zooming and panning between regions to still photos. Jena2 (2.1) is used to store the meta information in the database in the RDF format.
コンピュータ12は図示しないが、グラフィックボードまたはプロセサやサウンドボードまたはプロセサを内蔵していて、それらを通して、GUI画面や他のグラフィックス(映像)がモニタ16に表示されるとともに、スピーカ18からBGMなどの音声が出力される。
Although not shown, the
コンピュータ12にはさらに、写真データ入力装置20が接続される。この写真データ入力装置20は、イメージスキャナ、ディジタルカメラ(デジカメ)、インタネット(Web)などの少なくとも1つを含む。イメージスキャナは、痴呆症者の過去の写真をスキャンしてカラーまたはモノクロの写真画像データを入力する。デジカメはリアルタイムで撮影した写真画像データを入力できる他、過去の写真を撮影してそれらの写真画像データを入力するという使い方もできる。インタネットは、遠隔地から送信される痴呆症者の過去の写真の写真画像データを入力し、さらには必要に応じて痴呆症者の過去にまつわる事象の写真画像データを取り込むために使用できる。さらに他の種類の写真データ入力装置が用いられてもよい。
Further, a photographic
さらに、コンピュータ12には、インタフェース24を介してデータベース22が結合される。この実施例では、データベース22にはPostgreSQL 7.4(http://www.postgresql.org)というリレーショナルデータベースを用いる。
Further, a
なお、図示していないが、コンピュータ12は当然、キーボードやマウスなどの入力手段を持っている。
Although not shown, the
ここで、図1実施例の動作の説明に先立って、この実施例の特徴である映像効果の付与について説明する。 Here, prior to the description of the operation of the embodiment in FIG. 1, the application of the video effect which is a feature of this embodiment will be described.
発明者等は、映像編集の経験のある複数のクリエータに、写真から思い出ビデオに変換する際に付加できる映像効果(各写真に付与したエフェクト,写真間のトランジション)について、どのようなものが想定できるか、聞き取り調査した。その結果は、以下のA-1〜A−3およびB−1〜B−5であった。
(A) エフェクト
A-1:写真中の人物の顔を含む矩形領域(以下,リージョンと呼ぶ)に対するズームアップ,パンという,いわゆるケンバーンズ(Ken Burns)効果(http://en.wikipedia.org/wiki/Ken_Burns参照)。
A−2:パンの代わりに、ズームアップされたリージョンをフェードアウトして、次のリージョンをフェードインする。
A−3:カラー写真をまずモノクロ調に表示した後、徐々にカラー表示に遷移させていく。
(B)トランジション
B-1:前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる。
B-2:次の写真をスライドインさせる。
B-3:前の写真をディゾルブして次の写真に遷移する。
B-4:前の写真をページピール(右下隅から捲り上げるような効果)して次の写真に遷移する。
B-5:前の写真を中心の縦軸で回転させて、次の写真に遷移する。
The inventors have assumed what kind of video effects (effects given to each photo, transitions between photos) that can be added to multiple creators with video editing experience when converting from photos to memory videos. An interview was conducted to see if this could be done. The results were the following A-1 to A-3 and B-1 to B-5.
(A) Effect A-1: A so-called Ken Burns effect (http://en.wikipedia.org) called zoom-up or panning on a rectangular area including a human face in a photograph (hereinafter referred to as a region). / Wiki / Ken_Burns).
A-2: Instead of panning, the zoomed-up region is faded out, and the next region is faded in.
A-3: First, a color photograph is displayed in monochrome, and then gradually changed to color display.
(B) Transition B-1: Fade out the next photo while fading out the previous photo, and overlap them.
B-2: Slide in the next photo.
B-3: Dissolve the previous photo and move to the next photo.
B-4: The previous photo is page peeled (an effect that rises from the lower right corner) and transitions to the next photo.
B-5: The previous photo is rotated about the vertical axis at the center to transition to the next photo.
上記の結果を踏まえて、表1に示すような思い出ビデオをレンダリングするためのテンプレートを作成した。表1の「使用された情報」に挙げた項目を写真に付与すべきアノテーション(anotation:注釈。「メタ情報」ということもある。)とし、アノテーションオントロジ(ontology)として設計した。アノテーション付与の枠組みとして、セマンティックWeb(これは、検索性能の向上や利便性を高める次世代Web技術で、「メタ情報(内容を説明する付加情報)」と「オントロジ(メタデータを記述する用語の定義)」という2つの技術を用いる。)の枠組みを用いた。すなわち、アノテーションは、RDF(Resource Description Framework)で記述される。これは、将来的には他人がアノテーションした写真を自分や家族の思い出ビデオに利用するような情報交換を考えたとき、Webとの親和性を考慮したためである。 Based on the above results, we created a template to render the memories video as shown in Table 1. The items listed in “Used information” in Table 1 were designed as annotations (ontology) as annotations (anotation: “meta information”). Semantic Web (this is a next-generation Web technology that improves search performance and enhances convenience as a framework for adding annotations. Definition) ”is used. That is, the annotation is described in RDF (Resource Description Framework). This is because, in the future, when considering information exchange in which a photograph annotated by another person is used for a memory video of oneself or family, the affinity with the Web is taken into consideration.
さらに、発明者等は、既存のボキャブラリを可能な限り利用するという方針をたて、図1実施例のための実験では、撮影された日付や出来事に関しては、書誌情報に関する標準的なボキャブラリである上述のDublin Coreで記述した。また、写真中の人物の情報を記述するためには、人の情報を記述するための標準的なボキャブラリである上述のFOAFを用いた。そして、写真中の人物領域を記述するためには,上述のImage Regionを使用し、写真の色調に関してはExif(http://it.jeita.or.jp/document/publica/standard/exif/english/jeida49e.htm参照)の色空間情報から取得できる。また、写真中の人物(被写体)との関係については、FOAFでknowsプロパティが定義されているが、思い出ビデオ作成においては本人と被写体の間柄をより詳細に定義する必要があるため、FOAFのknowsの属性を拡張して定義されたRELATIONSHIP(http://vocab.org/relationship/参照)を利用した。これを用いて、親子関係、親戚関係などを記述した。そのサンプルが後述の図7に示される。 Furthermore, the inventors have established a policy of using the existing vocabulary as much as possible, and in the experiment for the embodiment of FIG. 1, the date and event of shooting are standard vocabulary related to bibliographic information. It was described in the above Dublin Core. In addition, in order to describe the information of the person in the photograph, the above-mentioned FOAF, which is a standard vocabulary for describing the information of the person, was used. In order to describe a human region in a photograph, the above-described Image Region is used, and the color tone of the photograph is Exif (http://it.jeta.or.jp/document/publica/standard/exif/english). /Jeida49e.htm) color space information. Also, regarding the relationship with the person (subject) in the photo, the knows property is defined in FOAF, but in creating a memory video, it is necessary to define the relationship between the person and the subject in more detail, so FOAF knows RELATIONSHIP (http://vocab.org/relationship/reference) defined by extending the attributes of the above was used. This was used to describe parent-child relationships, relative relationships, etc. The sample is shown in FIG.
さらに、表1に挙げたエフェクト、トランジションに対して、思い出ビデオ作成に用いる映像効果のオントロジを表2のように定義した。 Furthermore, for the effects and transitions listed in Table 1, the ontology of the video effects used for creating the memory video is defined as shown in Table 2.
そして、写真のアノテーションから映像効果への変換ルールを記述し、テンプレートとして使用する。表3に、表1の「RT−8」のレンダリングテンプレートの表現例を示す。ただし、表1に示す他の識別子に付いても同様にテンプレートを作成しておくものとする。 Then, a conversion rule from photo annotation to video effect is described and used as a template. Table 3 shows a representation example of the rendering template “RT-8” in Table 1. However, a template is created in the same manner for other identifiers shown in Table 1.
ここでは、レンダリングテンプレート自身もRDFのステートメントとして記述し、 上述のRDQLを用いて、レンダリングテンプレートを検索することを想定している。なお、レンダリングオントロジについては、インタオペラビリティ(相互操作性)の必要性は低いため、別の独自形式を定義してもよい。 Here, the rendering template itself is also described as an RDF statement, and it is assumed that the rendering template is searched using the above-described RDQL. Note that the rendering ontology has a low necessity for interoperability (interoperability), so another unique format may be defined.
以下に説明する実施例では、以上説明した表3に示すようなテンプレートを利用して、思い出ビデオというビデオコンテンツに表1すなわち表2のような映像効果(エフェクト、トランジション)を付与する。 In the embodiment described below, the video effects (effects and transitions) shown in Table 1 or Table 2 are given to the video content called the memory video using the template shown in Table 3 described above.
図1の実施例のビデオコンテンツ作成装置10を用いて思い出ビデオを作成するためには、コンピュータ12などは図2に示す手順で動作する。
In order to create a memory video using the video
まず、ステップS1で、写真画像データを入力するとともに、メタ情報を登録する。具体的には、図1の写真データ入力装置20を用いて、主として、当該痴呆症者の過去の写真の写真画像データをコンピュータ12に入力する。
First, in step S1, photographic image data is input and meta information is registered. Specifically, photographic image data of a past photograph of the demented person is mainly input to the
このとき、図3に示すGUI(Graphical User Interface)画面26がモニタ16に表示される。このGUI26は、モニタ画面の左方の大部分を占める、写真表示編集領域28を含む。この写真表示編集領域28は、そこに入力した写真画像データの写真を表示し、さらには、リージョンを指定するなどの編集作業のために利用される。GUI26は、モニタ画面の右方に形成されるサムネイル表示領域30を含む。サムネイル表示領域30には、入力しかつ後述のようにして検索した写真画像データから使用する写真を選択するためにサムネイル画像を表示する。
At this time, a GUI (Graphical User Interface)
GUI26には、モニタ画面の下方に形成される、第1メタ情報入力領域32、モニタ画面のほぼ中央に形成される第2メタ情報入力領域34、およびモニタ画面の右下方に形成される再生順設定領域36が設けられる。メタ情報入力領域32には、領域28に表示もされている写真全般に関わるDublin Core で定義されたメタ情報を入力する。また、メタ情報入力領域34はポップアップ形式で入力時に現れる領域であり、それを用いて、FOAFを利用してリージョンが人の場合のメタ情報を入力する。そして、再生順設定領域36は、思い出ビデオに取り込んだ写真を再生する順番を設定するために利用され、後に説明するように、ドラッグアンドドロップで順番を入れ替えることができる。
The
ステップS1での写真入力およびメタ情報登録について、具体的に説明する。図4を参照し、今、写真データ入力装置20から図4に示すような写真(図面では線画であるが、実際は写真である。他の図面でも同様。)の写真画像データが入力されると、コンピュータ12は、モニタ16のGUI26の写真表示編集領域28にその画像データで表される写真(静止画)を表示する。それとともに、コンピュータ12は、その写真のサムネイル画像をサムネイル表示領域30に表示する。
The photo input and meta information registration in step S1 will be specifically described. Referring to FIG. 4, when photographic image data of a photograph (a drawing is a line drawing in the drawing but is actually a photograph. The same applies to other drawings) as shown in FIG. The
そして、図示しないマウス等を利用して、その写真中で2つのリージョン、リージョン1およびリージョン2を設定すると、図5に示すように、写真表示編集領域28中に、リージョン1およびリージョン2をそれぞれ特定する矩形枠29aおよび29bが表示される。このようなリージョン1およびリージョン2を指定すると、Image Regionsで定義される形式で、図6に示す各リージョンのメタ情報が設定される。つまり、リージョン1の原点(矩形枠の左上の角)の座標(x11,y11)およびそれの対角の座標(x12,y12)が登録され、さらにそのリージョン1の高さh1および幅w1もメタ情報として登録される。同様に、リージョン2についても、原点座標、対角座標、高さ、および幅が、それぞれ、x21,y21、x22,y22、h2、およびw2として登録される。
Then, using a mouse or the like (not shown), if two regions,
このようにしてステップS1で写真を入力し、メタ情報を登録すると、たとえば図7に示すようなデータベースができる。この図7では右に、図5に示した、実際の写真が表示されリージョンが指定されている写真表示編集領域28が描かれている。そして、楕円形の中に「dc:」とあり、それに関連する矩形の中のデータが、Dublin Coreで登録したメタ情報である。たとえば「dc:date」では日付「20040716(2004年7月16日)」が、「dc:title」では名称「at Disney Animal Kingdom(ディズニー動物王国にて)」が、「dc:description」では説明文「They are very happy.(彼等は非常に楽しそう)」がメタ情報として登録される。
Thus, if a photograph is input in step S1 and meta information is registered, a database as shown in FIG. 7, for example, is created. In FIG. 7, a photo
楕円形のなかに「imgReg:」とあるメタ情報は、Image Regionsでリージョンを指定したときのメタ情報である。「imgReg:has region」はリージョンが設定されていることを示すメタ情報であり、「imgReg:Rectangle」はリージョンが矩形であることを示し、「imgReg:regionDepict」はリージョンの説明で、「imgReg:boundingBox」はリージョンの原点位置とサイズ(高さh、幅w)とを含む。「imgReg:coords」はリージョンの原点位置および対角位置の座標である。 The meta information “imgReg:” in the ellipse is meta information when a region is designated by Image Regions. “ImgReg: has region” is meta information indicating that the region is set, “imgReg: Rectangle” indicates that the region is rectangular, “imgReg: regionDepict” is a description of the region, and “imgReg: “BoundingBox” includes the origin position and size (height h, width w) of the region. “ImgReg: coords” is the coordinates of the origin position and the diagonal position of the region.
また、「foaf:gender」で与えられるメタ情報は、リージョンが人である場合の性別(例示では「female(女)」)であり、「foaf:name」で与えられるメタ情報は名前(例示では「Haruka(はるか)」)であり、「foaf:Person」で与えられるメタ情報はViewer(この思い出ビデオを観る人)と写真に写った人との関係を示し、例示では、「孫(grandchild)」であることがわかる。 The meta information given by “foaf: gender” is the gender (“female (female)” in the example) when the region is a person, and the meta information given by “foaf: name” is the name (in the example "Haruka (Haruka)"), the meta information given by "foaf: Person" shows the relationship between the viewer (the person watching this memorable video) and the person in the photo. In the example, "grandchild" "It can be seen that it is.
なお、図7に示す各メタ情報は、それぞれ以下に示される。 In addition, each meta information shown in FIG. 7 is shown below, respectively.
xmlns:imgReg=“http://www.w3.org/2004/02/image−regions#”
xmlns:foaf=“xmlns.com/foaf/0.1”
xmlns:dc=“http://purl.org/dc/elements/1.1/”
このようにして、図2のステップS1で写真入力と、メタ情報登録が行なわれると、コンピュータ12は、その写真と、それに付与したメタ情報とをデータベース22に格納する。なお、上の説明では1枚の写真とそれのメタ情報について説明したが、入力装置20で写真画像データを入力する都度、同じようにして、図7に示すようなメタ情報が登録され、そのメタ情報を付与した写真データがデータベース22に格納される。
xmlns: imgReg = “http://www.w3.org/2004/02/image-regions#”
xmlns: foaf = “xmlns.com/foaf/0.1”
xmlns: dc = “http://purl.org/dc/elements/1.1/”
When the photo input and meta information registration are performed in step S1 of FIG. 2, the
その後、図2のステップS2では、ステップS1で入力した写真のうち、そのとき使う写真を検索する。ただし、写真の検索では、上で説明したメタ情報が利用される。メタ情報を利用した写真の検索条件としては、たとえば、以下のものが利用できる。 Thereafter, in step S2 in FIG. 2, the photograph used at that time is retrieved from the photographs input in step S1. However, the meta information described above is used in the photo search. For example, the following can be used as search conditions for photographs using meta information.
まず、FOAFではリージョンの種類が人であるとき、その人を特定するメタ情報を付与するのであるから、このFOAFのメタ情報を利用して、「特定の人物の写っている写真」を検索することができる。複数の人物を同時に検索できるが、この場合には、検索した名前の全員が写っている写真が対象となる。 First, in FOAF, when the region type is a person, meta information that identifies the person is added, so use this FOAF meta information to search for "photos of a specific person" be able to. A plurality of persons can be searched simultaneously, but in this case, a photograph in which all of the searched names are shown is targeted.
Dublin Coreのメタ情報を利用する場合には、「撮影年月日」で検索できる。たとえば、「From (第1指定日)〜To(第2指定日)」で第1指定日以降第2指定日以前に撮影した全ての写真が検索できる。「From (指定日)」でその指定日以降に撮影した全ての写真が検索できる。同様に、「To(指定日)」でその指定日以前に撮影した全ての写真が検索できる。また、「特定のプロパティに特定の値が含まれている写真」を検索できる。たとえば、「dc:title」に「Disney」の文字が含まれる写真など。ただし、複数同時に選択または検索可能であるが、複数選択時には、設定された検索条件を同時に充足する写真だけが対象となる。 When using the Dublin Core meta information, you can search by “shooting date”. For example, in “From (first specified date) to To (second specified date)”, it is possible to search for all photos taken after the first specified date and before the second specified date. With “From (specified date)”, you can search all photos taken after the specified date. Similarly, “To (specified date)” can be used to search for all photos taken before the specified date. In addition, it is possible to search for “photos whose specific properties include specific values”. For example, photos with “Disney” in “dc: title”. However, a plurality of images can be selected or searched at the same time, but at the time of selecting a plurality of images, only photographs that satisfy the set search conditions at the same time are targeted.
このようにして、ステップS2で写真の選択が終了したら、次に、ステップS3で、検索した写真から実際に使用する写真を選択するとともに、および複数の写真を選択したときには複数の写真の再生順序を指定または決定する。このステップS3のためのGUI26が図8に示される。ただし、便宜上この図8は図7以前の写真とは異なる写真を使用していることに留意されたい。
In this way, when the selection of the photos is completed in step S2, next, in step S3, the photos to be actually used are selected from the searched photos, and when a plurality of photos are selected, the reproduction order of the plurality of photos is selected. Specify or determine The
コンピュータ12は、たとえば図示しないメニューによって、ステップS3が選択されたときには、図8に示すGUI26をモニタ16に表示する。この図8のGUI26では、モニタ画面の右下方に、図3でも示した、再生順設定領域36が形成される。この再生順序設定領域36の拡大図が図9に示される。
For example, when step S3 is selected by a menu (not shown), the
再生順序設定領域36は、写真リスト欄38を含み、図8に示すように、サムネイル表示領域30に表示されたサムネイル画像を写真リスト欄38にドラッグアンドドロップすることによって、使用する写真を選択できる。つまり、ステップS2の写真検索ステップで検索した写真のサムネイル画像が、すべてサムネイル表示領域30に表示されるので、その一覧画像の中の写真を写真リスト欄38にドラッグアンドドロップすることによって、写真を選択することができる。なお、写真リスト欄38には、名称(name)、タイトル(title)、日付(date)の各コラムが設定される。
The reproduction
また、再生順序設定領域36には、図9に示すように、ソート指定欄40と、思い出ビデオのスライドショーの生成を指示する生成ボタン42、写真の削除のために使用する削除ボタン44、および選択した写真のプレビューをするときに押す(クリックする)プレビューボタン46が設けられる。カーソルを写真リスト欄38のどれかの写真に合わせ、その状態でプレビューボタン46が操作されると、図8に示すプレビュー領域48に、プレビュー画像が表示される。
Further, in the playback
なお、ソート指定欄40には、選択した写真をソーティングするときのプロパティ、たとえば登録日などが設定される。そして、このソート指定欄40に特定のプロパティが、たとえばプルダウンメニューによって設定されると、コンピュータ12は、たとえばそのプロパティに対する値の昇順で写真をソートする。
In the
さらに、写真リスト欄38に登録した写真リストの順序で再生されるので、もし、再生順序を変更したい場合には、その写真リスト欄38の1行をドラッグアンドドロップして動かすことによって、リスト搭載順すなわち再生の順番を入れ替えればよい。
Furthermore, since the images are played back in the order of the photo list registered in the
つづいて、図2のステップS4で、写真の再生時に流すBGMのプレイリストを登録または選択する。この実施例では、たとえばMP3形式の楽曲ファイルをサポートしていて、その中からBGMとして使う楽曲をプレイリストに登録すれば、BGMがそのプレイリストに沿って、再生される。また、プレイリストとしてたとえばM3U形式を用いれば、Winamp(アプリケーション名)などの一般的なソフトで作成したプレイリストをそのまま使用できる。 Subsequently, in step S4 of FIG. 2, a BGM playlist to be played at the time of reproduction of the photo is registered or selected. In this embodiment, for example, an MP3 format music file is supported, and if a music used as a BGM is registered in the playlist, the BGM is reproduced along the playlist. If, for example, the M3U format is used as a playlist, a playlist created with general software such as Winamp (application name) can be used as it is.
ステップS4では、まず、図示しないメニユーで、「プレイリスト選択または登録」を選ぶ。そうすると、図10に示すGUI26がモニタ16に表示される。そして、このGUI26のプレイリスト作成ボタン52をクリックすると、図11に示す、新規プレイリスト登録欄54が表示される。この登録欄54には、プレイリストの名称(図示の例では、「Sample」)を設定するための名称欄56および入力した名称でよいときの決定(了解)ボタン58が形成される。そして、名称欄56に名称を入力し、了解ボタン58をクリックすると、図12に示す、空のプレイリスト60が表示される。
In step S4, first, “play list selection or registration” is selected in a menu (not shown). Then, the
図13に示す、MP3ファイル一覧62を表示し、その中の適宜の楽曲をプレイリスト60にドラッグアンドドロップすることによって、プレイリスト60に、BGMとして使用する楽曲を順次選択または登録することができる。図示の例では、「MYアルバム」という楽曲一覧62(図13)を用いて、主として、童謡が選択された。
The
このようにして、写真データの入力、メタ情報の登録、写真の検索、選択、楽曲の選択などの各ステップが実行され、図9に示す生成ボタン42を押すと、思い出ビデオの生成を開始する。したがって、図2のステップS5では、生成ボタン42がクリックされたかどうか判断する。もし“YES”ならそのまま次のステップS6に進むが、“NO”なら、図2の任意のステップS1−S4に戻って該当の作業を再開することができる。
In this way, steps such as inputting photo data, registering meta information, searching for photos, selecting, selecting a song are executed, and when the
つまり、図2の各ステップS1−S4はそれぞれ、メニューでの選択によって、任意の時間に任意の作業量で何回も実行可能であるので、オペレータは、時間のあるときに、必要なだけ必要な作業を行なえばよい。いずれの場合にも、前回までの作業の結果はデータベース22に格納されているので、今回の作業では、まず、データベース22から前回までのデータを読み出し、その後それに続行した処理またはそれを変更する処理を行う。
That is, each step S1-S4 in FIG. 2 can be executed any number of times at an arbitrary time by selecting from the menu, so that the operator needs as much as necessary when there is time. You just have to do this. In any case, since the result of the previous work is stored in the
そして、ステップS5で生成ボタン42のオンが検出されると、次のステップS6で、思い出ビデオのスライドショービデオ(RVML)を生成する。
When it is detected in step S5 that the
ここで、「RVML」とは、swfを完全に表現できるように設計されたXMLの一種であり、すべてのバージョンのswf動画はRVMLとして表現できる。ただし、swfは、Flashのバージョンやフレームレートなどの情報を持つファイルヘッダを除くと、基本的にはタグの列だけである。たとえば、定義タグで図形を定義し、操作タグでその図形をフレームに配置し、表示タグで現在のフレームを画面に描画する、というパターンが1フレームに相当し、これを繰り返す。 Here, “RVML” is a kind of XML designed so that swf can be completely expressed, and all versions of swf moving images can be expressed as RVML. However, swf is basically only a column of tags excluding a file header having information such as a Flash version and a frame rate. For example, a pattern in which a figure is defined by a definition tag, the figure is arranged in a frame by an operation tag, and the current frame is drawn on the screen by a display tag corresponds to one frame, and this is repeated.
そして、生成されたRVMLは、RVMLからFlashツールであるKineticFusion(http://www.kinesissoftware.com)を使用すれば、Flashムービー形式の思い出ビデオが作成できる。 The generated RVML can create a Flash movie format memory video by using KineticFusion (http://www.kinesissoftware.com), which is a Flash tool, from the RVML.
図2のステップS6は、具体的には、図15に示す手順で実行される。最初のステップS11では、コンピュータ12は、生成ボタン42の操作に応答して、まず、BGMとしてのプレイリスト60(図14)の楽曲の再生を開始する。以後、楽曲は、そのプレイリスト60に沿って、順次切り替わり、かつ連続的に再生される。つまり、コンピュータ12は、プレイリスト60に登録した楽曲データを読み出し、それをサウンドボードまたはプロセサで処理させることによって、スピーカ18(図1)から、当該プレイリストの楽曲が音声として再生される。
Specifically, step S6 of FIG. 2 is executed according to the procedure shown in FIG. In the first step S11, in response to the operation of the
次のステップS13では、コンピュータ12は、モニタ16の表示画面に形成されたGUI26の写真表示編集領域28(図3)の幅をSw、高さをShとして設定する。
In the next step S13, the
ついで、ステップS15で、コンピュータ12は、写真個数nをインクリメント(n=n+1)する。そして、次のステップS17では、写真リスト欄38(図9)に挙げられたn番目の写真がフェードイン態様で、表示編集領域28に表示される。つまり、コンピュータ12は、データベース22(図1)から写真リスト欄38のn番目の写真とそれに付随するメタ情報とを読み出し、n番目の写真を表示する。ただし、最初はn=1であるので、1番目の写真がフェードイン表示される。その後、ステップS19での一定時間のポーズの後、次のステップS21で、コンピュータ12は、そのn番目の写真にリージョンが指定されているかどうか、たとえばImage Regionsのメタ情報があるかで判断する。リージョンが指定されているなら、次のステップS23で、コンピュータ12は、リージョン番号mをインクリメント(m+1)する。そして、ステップS25で、m番目のリージョンのImage Regionsのメタ情報を参照する。このメタ情報に、m番目のリージョンの位置データやサイズデータが含まれる。したがって、次のステップS27で、コンピュータ12は、そのようなメタ情報および先に設定した表示領域の高さShおよび幅Swを利用して、m番目のリージョンを、領域28の中央に位置合わせする。
In step S15, the
一例として、そのリージョンの幅をw1、高さをh1とすると、拡大率をmin[Sw/w1, Sh/h1]として、そのリージョンがちょうど表示画面28の中央に収まるまで、1フレームずつ、表示画面28に対して写真画像を横軸にdX、縦軸にdY移動し、dZ分拡大して表示する。
As an example, if the width of the region is w1 and the height is h1, the enlargement ratio is min [Sw / w1, Sh / h1], and the frame is displayed frame by frame until it just fits in the center of the
ただし、このステップS27では、そのリージョンの画像を表示領域の中央に位置合わせするだけでなく、たとえば、左上、右下など他の位置に位置合わせするようにしてもよい。 However, in step S27, the image of the region is not only aligned with the center of the display area, but may be aligned with other positions such as upper left and lower right, for example.
その後、ステップS29でのポーズの後、次のステップS31で、コンピュータ12は、残りリージョンがなくなったかどうかを判断する。つまり、Image Regionsのメタ情報からリージョン個数がわかるので、このステップS31では、ステップS23でインクリメントした結果がそのリージョン個数に等しくなったかどうか判断すればよい。
Thereafter, after the pause in step S29, in the next step S31, the
残りリージョンがあれば、次のステップS32において、コンピュータ12は、表1に示す識別子RT−1、RT−2およびRT−4で示される映像効果A−1、A−2を付与する。
If there are remaining regions, in the next step S32, the
具体的には、コンピュータ12は、図7のようなメタ情報のうち、リージョン座標値(imgReg:coords)およびリージョン境界値(imgReg:boundingBox)から、複数のリージョン間間隔、X方向(横方向)間隔およびY方向(縦方向)間隔を算出する。そして、それらのリージョン間間隔が所定の閾値以上か以下かを判別する。そして、X方向(横方向)間隔およびY方向(縦方向)間隔のいずれかが閾値以下のときには、ケンバーンズ効果を使用するべく、写真中の人物の顔を含むリージョンに対するズームアップをした後、次のリージョンへパンさせる。逆に、X方向(横方向)間隔およびY方向(縦方向)間隔のいずれかが閾値以上のときには、パンの代わりに、ズームアップされたリージョンをフェードアウトして、次のリージョンをフェードインさせる。
Specifically, the
また、図7に示すfoaf:personで示す被写体情報が、視聴者に思い出深い被写体であると、その被写体のリージョンだけにズームアップをし、その後、リージョン間間隔に応じたパンかフェードアウト、フェードインからの処理を行う。 Also, if the subject information indicated by foaf: person shown in FIG. 7 is a subject that is memorable to the viewer, it zooms up only to the region of that subject, and then pans or fades out and fades in according to the inter-region spacing. Perform the process.
ただし、このステップS32において識別子RT−1、−2および−4のような映像効果をA−1およびA−2を自動的に付与するためには、表3で例示した変換テンプレートが用いられる。 However, the conversion templates exemplified in Table 3 are used in order to automatically give A-1 and A-2 video effects such as identifiers RT-1, -2, and -4 in step S32.
その後、先のステップS23に戻り、ステップS23−S32を繰り返し実行する。 Then, it returns to previous step S23 and repeats steps S23-S32.
ステップS31で“NO”なら、つまり、写真リスト欄38でn番目のその写真の全てのリージョンの処理が終わったなら、次のステップS33で、コンピュータ12は、n番目の写真を写真表示編集領域28からフェードアウトさせる。
If “NO” in the step S31, that is, if all the regions of the nth photo in the
続いて、ステップS35において、コンピュータ12は、処理すべき写真の残りがなくなったかどうかを判断する。つまり、図9で示される写真リスト中の写真の数は予め判っているので、このステップS35では、ステップS15でインクリメントした結果がその枚数に等しくなったかどうか判断すればよい。
Subsequently, in step S35, the
写真が未だ残っていれば、次のステップS36において、コンピュータ12は、表1に示す識別子RT−3、RT−5、RT−6、RT−7およびRT−8で示される映像効果A−3やB−1およびB−5を付与する。
If the photograph still remains, in the next step S36, the
具体的には、コンピュータ12は、メタ情報のうち、図7には図示していない、写真の色調のメタ情報を前述のExifの色空間情報から取得し、その色情報が、前の写真がモノクロで今回の写真がカラーのような色変化を示しているかどうか判断する。色変化情報があれば、コンピュータ12は、今回のカラー写真をまずモノクロ調に表示した後、徐々にカラー表示に遷移させていくという映像効果を付与する。
Specifically, the
また、コンピュータ12は、図7に示すメタ情報のうち、撮影日(date)のデータを取得し、前の写真と今回の写真との間の年代差を算出する。そして、その年代差が所定の閾値以上か以下か判別する。前の写真との間の年代差が閾値以下のときには、コンピュータ12は、前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる、という映像効果を付与する。前の写真との間の年代差が閾値以上のときには、コンピュータ12は、前の写真を中心の縦軸で回転させて、今回の写真に遷移する、という映像効果を付与する。
Further, the
さらに、コンピュータ12は、図7に示すメタ情報のうち、撮影日や出来事(title)を参照して、シナリオが一貫しているかどうか、判断する。これは、たとえば、写真が年代順に取り込まれているか、とか同じ年代であれば季節の順序に従っているかなどを判断すればよい。そして、シナリオが一貫していると判断したときには、前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる、という映像効果を付与する。
Further, the
さらに、上述のようにして算出した写真の年代差が所定の閾値以下ではあるが、かつシナリオの転換点であるような場合、たとえば、進学した、結婚した、子供が生まれた、などのような場合には、コンピュータ12は、前の写真を中心の縦軸で回転させて、今回の写真に遷移する、という映像効果を付与する。
In addition, when the age difference of the photograph calculated as described above is below a predetermined threshold and is a turning point of the scenario, for example, you have entered a school, married, a child was born, etc. In this case, the
ただし、このステップS36での映像効果を自動的に付与するためには、表3で例示した変換テンプレートが用いられる。 However, the conversion template exemplified in Table 3 is used to automatically give the video effect in step S36.
なお、先のステップS35で写真残数があると判断したときには、先のステップS15に戻り、ステップS15−S36を繰り返し実行する。ステップS35で“NO”なら、コンピュータ12はステップS37でBGMを停止し、終了する。
When it is determined in the previous step S35 that there is a remaining number of photos, the process returns to the previous step S15, and steps S15 to S36 are repeatedly executed. If “NO” in the step S35, the
このようにして、ステップS6すなわち図15に従って、写真画像データをそれに関連するメタ情報を用いて編集しさらには映像効果付与することによって、一連のビデオコンテンツ(思い出ビデオ)が生成(レンダリング)される。そして、レンダリングが終了すると、レンダリング結果は、前述のRVMLの形式でコンピュータ12のハードディスクなどの内部メモリ14(図1)に保存する。そして、RVMLからFlashムービーなどに変換して、他の記憶媒体に格納することによって、他のパソコンなどで再生することもできる。つまり、一連のビデオコンテンツは何らかの記憶装置または記憶媒体に格納されて、痴呆症者の介護のために利用される。
[評価実験]
アノテーションオントロジとレンダリングテンプレートの妥当性を検証するために,表3で述べたレンダリングテンプレートに従って生成した思い出ビデオと、クリエータが制作したそれらとの印象の違いを評価する実験を実施した。印象評価の実験では、アンケート調査をベースとするため、健常者を被験者として実施した。以下にその評価実験の概要と結果を述べる。
In this way, a series of video content (recollection video) is generated (rendered) by editing the photographic image data using the meta-information related to the photographic image data and adding the video effect according to step S6, that is, FIG. . When the rendering is completed, the rendering result is stored in the internal memory 14 (FIG. 1) such as the hard disk of the
[Evaluation experiment]
In order to verify the validity of the annotation ontology and the rendering template, an experiment was conducted to evaluate the difference in impression between the memories video generated according to the rendering template described in Table 3 and those created by the creator. Since the impression evaluation experiment was based on a questionnaire survey, healthy subjects were used as subjects. The outline and results of the evaluation experiment are described below.
まず、一定の映像編集経験を有するクリエータ3名がそれぞれ15枚程度の写真の素材を用いて、5分程度の思い出ビデオを各自1編、それぞれのテーマで、Adobe社の映像編集ソフトウェアPremiere(商品名)を用いて作成した。 First, 3 creators who have a certain video editing experience, each using about 15 photo materials, and about 5 minutes of recollection video for each one, each theme, Adobe video editing software Premiere (product Name).
次に各クリエータは、実施例のオーサリングツールを用いて、前述の写真に対して写真の日付、タイトル、リージョンといったメタ情報を付与した。各クリエータには、オーサリングツールがケンバーンズ効果のようなレンダリング技法を使用することは事前に告知した。しかし、彼らが実際に付与したメタ情報に基づいてレンダリングされた映像は、アノテーション作業を終了するまで知ることができないようにした。これは、クリエータがレンダリング効果を想定してアノテーションすることを、できるだけ避けるためである。そして、そのようなアノテーションに基づいて、実施例にしたがって、映像効果付のスライドショー(思いでビデオ)を作成した。 Next, each creator gave meta information such as a photo date, title, and region to the above-described photo using the authoring tool of the embodiment. Each creator was informed in advance that the authoring tool would use a rendering technique such as the Cambridge effect. However, the video rendered based on the meta information that they actually gave is not known until the annotation work is completed. This is to prevent the creator from annotating the rendering effect as much as possible. Then, based on such annotations, a slide show with video effects (video with thought) was created according to the embodiment.
また、比較のために、思い出ビデオに使用した写真に映像効果を施さずに作成したスライドショーも用意した。 For comparison, we also prepared a slideshow that was created without applying video effects to the photos used for the memories video.
次に、これらコンテンツを被験者に提示してその印象を評価した。評価方法にはSD法(岩下豊彦:SD法によるイメージの測定。川島書店)で用いられるアンケート形式を採用した。具体的には、思い出ビデオの印象評価に適当と考えられる22個の形容詞(たとえば、好き、やぼったい、特色のある等)に対し、それと相対する形容詞(たとえば、好き←どちらでもない→嫌い)との間でどのような印象を得たか、11段階で評価させた。健常者21名の評価者に対し、なるべく順序効果を与えないよう考慮した手順でコンテンツを提示し、1コンテンツ視聴毎に評価させた。その結果をMANOVA(分散分析:Krzanowski, W. J.: Principles of Multivariate Analysis. Oxford University Press, 1988.)を用い、上記3種類のビデオコンテンツへの印象に有意差があるか分析した。 Next, these contents were presented to the subject and the impression was evaluated. As the evaluation method, the questionnaire format used in the SD method (Toyohiko Iwashita: Image measurement by the SD method. Kawashima Shoten) was adopted. Specifically, for 22 adjectives that are considered appropriate for impression evaluation of memories video (for example, like, hateful, featured, etc.) I was allowed to evaluate 11 levels of what impressions were obtained. The contents were presented to 21 healthy evaluators in a procedure that considered as little order effect as possible, and evaluated for each content viewing. The results were analyzed using MANOVA (Analysis of Variance: Krzanowski, W. J .: Principles of Multivariate Analysis. Oxford University Press, 1988.) to determine whether there was a significant difference in the impressions of the above three types of video content.
この印象評価の実験からは、実施例のオーサリングンツールで自動生成した思い出ビデオと、映像編集経験のあるクリエータが映像編集ソフトウェアを用いて制作したそれとは、被験者に対して変わりない印象を与えたことがわかった。
痴呆症者への思い出ビデオの効果の評価
また、実施例のオーサリングツールが自動生成した思い出ビデオが、実際の痴呆症者に与える効果を評価したが、その結果、実施例による思い出ビデオは、他のコンテンツに比較して痴呆症者をより集中させ、また楽しませている傾向が見られることを示している。
From this impression evaluation experiment, the memory video automatically generated by the authoring tool of the example and that produced by video editing software by creators with video editing experience gave the same impression to the subjects. I understood it.
Evaluation of the effect of the memory video for people with dementia The effect of the memory video automatically generated by the authoring tool of the example on the actual person with dementia was evaluated. It shows that people with dementia tend to be more concentrated and entertained compared to the content.
10 …ビデオコンテンツ作成装置
12 …コンピュータ
14 …内部メモリ
16 …モニタ
20 …写真データ入力装置
22 …データベース
26 …GUI
28 …写真表示編集領域
30 …サムネイル表示領域
32,34 …メタ情報入力領域
36 …再生順設定領域
38 …写真リスト欄
42 …生成ボタン
60 …プレイリスト
DESCRIPTION OF
28 ... Photo
Claims (8)
前記写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、
前記写真画像データを関連する前記メタ情報とともに格納する記憶手段、
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索手段、および
前記検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、
前記生成手段は前記メタ情報に基づいて映像効果を適用する映像効果適用手段を含み、
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、
前記映像効果適用手段は前記リージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成装置。 Photo data input means for inputting photo image data,
Meta information giving means for giving meta information in relation to the photographic image data;
Storage means for storing the photographic image data together with the related meta information;
Search means for searching photographic image data from the storage means using the meta information, and generating means for generating a series of video contents by editing the photographic image data searched by the search means according to meta information,
It said generating means viewed contains a video effect applying means for applying a video effect based on the meta information,
The meta information includes inter-region interval information of a region set in one photo image data,
The video content creation device, wherein the video effect applying unit applies different video effects according to the inter-region interval information .
前記映像効果適用手段は前記写真情報に応じて映像効果を適用する、請求項1記載のビデオコンテンツ作成装置。 The meta information includes photo information set in each photo image data,
The video content creation apparatus according to claim 1, wherein the video effect applying unit applies a video effect according to the photographic information.
前記映像効果適用手段は前記日付情報による各写真間の年代差に応じて異なる映像効果を適用する、請求項2記載のビデオコンテンツ作成装置。 The photo information includes date information,
3. The video content creation apparatus according to claim 2 , wherein the video effect applying unit applies different video effects according to the age difference between the photos based on the date information.
前記映像効果適用手段は前記人物情報に従って映像効果を適用する、請求項2または3記載のビデオコンテンツ作成装置。 The photo information includes person information,
4. The video content creation apparatus according to claim 2 , wherein the video effect applying unit applies the video effect according to the person information.
前記映像効果適用手段は前記色調情報に従って映像効果を適用する、請求項2ないし4のいずれかに記載のビデオコンテンツ作成装置。 The photographic information includes color tone information,
5. The video content creation device according to claim 2 , wherein the video effect applying unit applies a video effect according to the color tone information.
写真画像データを入力する写真データ入力ステップ、
前記写真画像データに関連してメタ情報を付与するためのメタ情報付与ステップ、
前記写真画像データを関連する前記メタ情報とともに格納する記憶ステップ、
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索ステップ、および
前記検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成ステップを実行させ、そして
前記生成ステップにおいては前記メタ情報に基づいて映像効果を適用する映像効果適用ステップを実行させ、
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、
前記映像効果適用ステップでは前記リージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成プログラム。 In the computer of the video content creation device,
Photo data input step for inputting photo image data,
Meta information giving step for giving meta information in relation to the photographic image data,
Storing the photographic image data together with the associated meta information;
A search step of searching for photographic image data from the storage means using the meta information, and a generation step of generating a series of video content by editing the photographic image data searched by the search means according to the meta information, In the generating step, a video effect applying step for applying a video effect based on the meta information is executed ,
The meta information includes inter-region interval information of a region set in one photo image data,
A video content creation program that applies different video effects according to the inter-region interval information in the video effect applying step .
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索手段、およびSearch means for searching photographic image data from the storage means using the meta information; and
前記検索手段によって検索した写真画像データに従ってサムネイル画像を表示するサムネイル画像表示領域および写真リスト欄を有する再生順序設定領域を含むGUI画面を表示する表示手段を備え、Display means for displaying a GUI screen including a thumbnail image display area for displaying thumbnail images according to the photo image data searched by the search means and a playback order setting area having a photo list field;
前記サムネイル画像表示領域で表示しているサムネイル画像を前記写真リスト欄にドラッグアンドドロップすることによって、前記検索した写真データのうち実際に使用する複数の写真を選択し、By dragging and dropping the thumbnail image displayed in the thumbnail image display area to the photo list field, a plurality of photos to be actually used are selected from the searched photo data,
前記写真リスト欄におけるリスト搭載順を変更することによって前記複数の再生順序を変更できるようにし、The plurality of playback orders can be changed by changing the list loading order in the photo list column,
前記写真リスト欄に搭載している写真の写真画像データとそれに関連するメタ情報とを前記記憶手段から読み出す読出し手段、およびReading means for reading out the photographic image data of the photo mounted in the photo list column and the meta information related thereto from the storage means, and
前記読出し手段が読み出した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、Generating means for generating a series of video contents by editing the photographic image data read by the reading means according to meta information;
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、前記生成手段は前記リージョン情報に従って当該リージョンの画像を所定位置に位置合わせする位置合わせ手段を含み、さらにThe meta information includes region information of a region set in one photographic image data, and the generation unit includes an alignment unit that aligns an image of the region at a predetermined position according to the region information.
前記生成手段は前記リージョン情報に基づいて映像効果を適用する映像効果適用手段を含む、ビデオコンテンツ作成装置。The video content creating apparatus, wherein the generating means includes video effect applying means for applying a video effect based on the region information.
前記写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、Meta information giving means for giving meta information in relation to the photographic image data;
前記写真画像データを関連する前記メタ情報とともに格納する記憶手段、Storage means for storing the photographic image data together with the related meta information;
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索手段、および Search means for searching photographic image data from the storage means using the meta information; and
前記検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、Generating means for generating a series of video content by editing photographic image data searched by the search means according to meta information;
前記生成手段は前記メタ情報に基づいて映像効果を適用する映像効果適用手段を含み、The generating means includes video effect applying means for applying a video effect based on the meta information,
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、The meta information includes region information of a region set in one photo image data,
前記映像効果適用手段は前記リージョン情報に応じて映像効果を適用する、ビデオコンテンツ作成装置。The video content creation device, wherein the video effect applying means applies a video effect according to the region information.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005099604A JP4219906B2 (en) | 2005-03-30 | 2005-03-30 | Video content creation device and video content creation program |
US11/260,444 US7694213B2 (en) | 2004-11-01 | 2005-10-27 | Video content creating apparatus |
GB0522104A GB2419768B (en) | 2004-11-01 | 2005-10-28 | Video content creating apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005099604A JP4219906B2 (en) | 2005-03-30 | 2005-03-30 | Video content creation device and video content creation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006279861A JP2006279861A (en) | 2006-10-12 |
JP4219906B2 true JP4219906B2 (en) | 2009-02-04 |
Family
ID=37214071
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005099604A Expired - Fee Related JP4219906B2 (en) | 2004-11-01 | 2005-03-30 | Video content creation device and video content creation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4219906B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4976837B2 (en) * | 2006-12-19 | 2012-07-18 | ローランド株式会社 | Video creation device |
-
2005
- 2005-03-30 JP JP2005099604A patent/JP4219906B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2006279861A (en) | 2006-10-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7694213B2 (en) | Video content creating apparatus | |
US9570107B2 (en) | System and method for semi-automatic video editing | |
JP4424389B2 (en) | Movie creation device, movie creation method, and program | |
US8201073B2 (en) | System and method for automating the creation of customized multimedia content | |
US9554111B2 (en) | System and method for semi-automatic video editing | |
US8966369B2 (en) | High quality semi-automatic production of customized rich media video clips | |
US8977958B2 (en) | Community-based software application help system | |
US20090132920A1 (en) | Community-based software application help system | |
JP2004032763A (en) | System and method for automatically authoring video composition by using video cliplet | |
KR101406332B1 (en) | Recording-and-reproducing apparatus and recording-and-reproducing method | |
Hardman et al. | Canonical processes of semantically annotated media production | |
Cesar et al. | Fragment, tag, enrich, and send: Enhancing social sharing of video | |
US8406610B2 (en) | Systems and methods of editing media data | |
JP4343027B2 (en) | Slideshow creation apparatus and method, and program | |
Otto et al. | Camera, Intervention and Cultural Critique: An Introduction | |
US7610554B2 (en) | Template-based multimedia capturing | |
JP4043472B2 (en) | Video content creation device | |
JP4446124B2 (en) | How to create video content | |
JP4219906B2 (en) | Video content creation device and video content creation program | |
JP4291294B2 (en) | Video content creation device and video content creation program | |
JP2006157197A (en) | Photo movie generating apparatus and program | |
WO2019041303A1 (en) | Client album management system based on cloud computing technology, and interaction method thereof | |
JP4323172B2 (en) | Information editing system, information editing apparatus, and information editing program | |
WO2013014754A1 (en) | Image display apparatus, method for displaying images, and image display program | |
JP2022176567A (en) | Reproduction information generation device, moving image editing device and moving image editing program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080313 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080318 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080516 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081111 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081112 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111121 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121121 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131121 Year of fee payment: 5 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |