JP4219906B2 - Video content creation device and video content creation program - Google Patents

Video content creation device and video content creation program Download PDF

Info

Publication number
JP4219906B2
JP4219906B2 JP2005099604A JP2005099604A JP4219906B2 JP 4219906 B2 JP4219906 B2 JP 4219906B2 JP 2005099604 A JP2005099604 A JP 2005099604A JP 2005099604 A JP2005099604 A JP 2005099604A JP 4219906 B2 JP4219906 B2 JP 4219906B2
Authority
JP
Japan
Prior art keywords
meta information
photo
image data
information
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005099604A
Other languages
Japanese (ja)
Other versions
JP2006279861A (en
Inventor
教彰 桑原
和宏 桑原
信二 鉄谷
伸治 安部
清 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ATR Advanced Telecommunications Research Institute International
Original Assignee
ATR Advanced Telecommunications Research Institute International
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ATR Advanced Telecommunications Research Institute International filed Critical ATR Advanced Telecommunications Research Institute International
Priority to JP2005099604A priority Critical patent/JP4219906B2/en
Priority to US11/260,444 priority patent/US7694213B2/en
Priority to GB0522104A priority patent/GB2419768B/en
Publication of JP2006279861A publication Critical patent/JP2006279861A/en
Application granted granted Critical
Publication of JP4219906B2 publication Critical patent/JP4219906B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明はビデオコンテンツ作成装置に関し、特にたとえば、痴呆症者の過去の写真を使って思い出ビデオのようなビデオコンテンツを作成する、新規なビデオコンテンツ作成装置に関する。   The present invention relates to a video content creation device, and more particularly to a novel video content creation device that creates video content such as a memory video using past photographs of persons with dementia.

高齢者人口が急増している昨今、痴呆症者(または認知症者。ただし、以下の説明では、便宜上、痴呆症者という語を使用する。)に対して充実した介護を提供することは緊急の課題と言える。しかし、一般に痴呆症者の介護者として世話に当たる家族は、24時間常に痴呆症者から目を離すことができず、そのストレスを原因とする痴呆症者への虐待が最近、社会的な問題となっている。こういった痴呆症者、介護者の両者のストレスを軽減するには、痴呆症者の心理的な安定を引き出すことが重要である。そのための手法として昔の映画や音楽、本人の写真などを視聴させる回想法がある。しかし、話しかけを実施する人が必要であり在宅では行いにくい。   With the rapid increase in the elderly population, it is urgent to provide adequate care for people with dementia (or people with dementia. However, in the following explanation, the term dementia will be used for convenience) It can be said that. However, families who are generally cared for as a caregiver for dementia cannot keep an eye on the dementia for 24 hours. Abuse of dementia due to the stress has recently become a social problem. It has become. In order to reduce the stress of both dementia and caregivers, it is important to bring out psychological stability of the dementia. For this purpose, there is a recollection method that lets you watch old movies, music, and photos of the person. However, it is difficult to do it at home because it requires someone to speak.

このため、非特許文献1において、思い出ビデオを用いる手法が提案されている。思い出ビデオとは、痴呆症者の昔の写真のスライドショービデオに、BGMやナレーションを加えたものである。
安田ほか:痴呆症者への思い出写真ビデオの作成と集中度の評価。第28回高次脳機能障害学会総会(2004)
For this reason, Non-Patent Document 1 proposes a technique using a memorized video. The memory video is a slide show video of old photos of people with dementia plus BGM and narration.
Yasuda et al .: Created a memorable photo video for people with dementia and evaluated concentration. 28th Annual Meeting of the Society for Higher Brain Dysfunction (2004)

思い出ビデオは痴呆症者の安定した精神状態を形成する上で有効性が確認されているが、思い出ビデオの作成は映像編集のノウハウが必要であり、一般の介護者が簡単に行えるものではない。   Although the memorized video has been confirmed to be effective in creating a stable mental state of dementia, the creation of the memorized video requires video editing know-how and is not easy for ordinary caregivers to do. .

また、このような思い出ビデオは、興味や集中力をできるだけ失わないで痴呆症者に観てもらえるものであること望ましい。   In addition, it is desirable that such a memorized video be viewed by a person with dementia without losing interest and concentration as much as possible.

それゆえに、この発明の主たる目的は、比較的簡単に、痴呆症者の過去の写真を使って思い出ビデオのようなビデオコンテンツを作成できる、ビデオコンテンツ作成装置を提供することである。   Therefore, a main object of the present invention is to provide a video content creation device capable of creating video content such as a memory video using a past photograph of a demented person relatively easily.

この発明の他の目的は、痴呆症者に観てもらい易い思い出ビデオのようなビデオコンテンツを作成できる、ビデオコンテンツ作成装置を提供することである。   Another object of the present invention is to provide a video content creation device capable of creating video content such as a memory video that is easily viewed by a person with dementia.

請求項1の発明は、写真画像データを入力する写真データ入力手段、写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、写真画像データを関連するメタ情報とともに格納する記憶手段、メタ情報を用いて記憶手段から写真画像データを検索する検索手段、および検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、生成手段はメタ情報に基づいて映像効果を適用する映像効果適用手段を含み、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、映像効果適用手段はリージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成装置である。 The invention of claim 1 is a photographic data input means for inputting photographic image data, a meta information giving means for giving meta information related to the photographic image data, and a storage means for storing the photographic image data together with the related meta information. A search means for searching for photographic image data from the storage means using the meta information, and a generating means for generating a series of video contents by editing the photographic image data searched by the search means according to the meta information, look including video effect applying means for applying a video effect based on the meta information, the meta information includes a region between the interval information of the region that is set in one of the photographic image data, the image effect applying means interregion interval information This is a video content creation apparatus that applies different video effects depending on the video content.

請求項1の発明では、たとえばイメージスキャナなどを含む写真データ入力装置(20。実施例で相当する部分または要素を示す参照符号。以下同様。)から、写真画像データをコンピュータ(12)に入力する。コンピュータ内にはその写真画像データにメタ情報を付与するための手段、たとえばDublin Core、Image Regions、FOAFなどを設けておく。これらのメタ情報付与手段によって、入力した写真画像データに関連するメタ情報を付与して、コンピュータは、写真画像データを関連するメタ情報とともに記憶手段(22)に格納する。検索手段(12,S2)が、メタ情報を用いて記憶手段か写真画像データを検索する。生成手段(12,S6)は、その検索した写真画像データを、メタ情報に従って編集することによって、たとえばAVI形式やFlashムービー形式で、スライドショーのようなビデオコンテンツを生成する。ここで、生成手段に含まれる映像効果適用手段(12,S22,S36)は、メタ情報に従って映像効果、たとえばズームアップ、パン、フェードアウト、フェードインなどを適用する。そして、上記写真が痴呆症者の昔の写真であれば、ビデオコンテンツは思い出ビデオと呼べる。   According to the first aspect of the present invention, for example, photographic image data is input to the computer (12) from a photographic data input device (20. Reference numerals indicating parts or elements corresponding to the embodiments; the same applies hereinafter) including an image scanner. . In the computer, means for giving meta information to the photographic image data, for example, Dublin Core, Image Regions, FOAF, etc. are provided. The meta information related to the inputted photographic image data is given by these meta information giving means, and the computer stores the photographic image data in the storage means (22) together with the related meta information. The search means (12, S2) searches the storage means or the photographic image data using the meta information. The generation means (12, S6) generates video content such as a slide show in the AVI format or the Flash movie format, for example, by editing the retrieved photographic image data according to the meta information. Here, the video effect applying means (12, S22, S36) included in the generating means applies video effects such as zoom-up, pan, fade-out, fade-in, etc. according to the meta information. And if the picture is an old picture of a person with dementia, the video content can be called a memory video.

請求項1の発明では、メタ情報を用いて写真画像データを編集するので、ビデオコンテンツの製作にあまり慣れていなくても、たとえば痴呆症者の昔の写真を用いて、比較的簡単に、思い出ビデオのようなビデオコンテンツを作成することができる。しかも、メタ情報に従った種々の映像効果を適用するので、思い出ビデオを観る痴呆症者の興味や集中力を持続させ易く、思い出ビデオの効果の一層の向上が期待できる。
また、1つの写真画像中にリージョンを設定している場合、メタ情報付与手段によって、そのリージョンのメタ情報、たとえばリージョンの座標位置、高さ、幅などが登録される。したがって、そのようなリージョン情報が各リージョン間の間隔情報を含むことになる。そして、映像効果適用手段(12,S22)は、そのリージョン間間隔情報に応じて異なる映像効果を適用する。たとえば、リージョン間間隔が所定の閾値以下の場合には、1つのリージョンをズームアップした後、後続のリージョンをパンする。リージョン間間隔が所定の閾値以上の場合には、パンに代えて、1つのリージョンをズームアップした後、そのリージョンをフェードアウトしかつ後続のリージョンをフェードインさせる。メタ情報のリージョン間間隔情報を用いて、自動的に適宜の映像効果が付与されるので、映像効果付与のための面倒な操作がいらない。
In the invention of claim 1, since the photographic image data is edited using the meta information, even if the user is not very familiar with the production of the video content, for example, using an old photograph of a dementia patient, Video content such as video can be created. Moreover, since various video effects according to the meta information are applied, it is easy to maintain the interest and concentration of the demented person who watches the memory video, and further improvement of the memory video effect can be expected.
Further, when a region is set in one photographic image, meta information of the region, for example, the coordinate position, height, width, etc. of the region is registered by the meta information adding means. Therefore, such region information includes interval information between the regions. Then, the video effect applying means (12, S22) applies different video effects according to the inter-region interval information. For example, when the inter-region interval is equal to or smaller than a predetermined threshold, after zooming up one region, the subsequent region is panned. When the inter-region interval is equal to or greater than a predetermined threshold, instead of panning, one region is zoomed up, then that region is faded out, and the subsequent region is faded in. Since the appropriate video effect is automatically given using the inter-region interval information of the meta information, a troublesome operation for giving the video effect is not required.

請求項の発明は、メタ情報は各写真画像データ中に設定されている写真情報を含み、映像効果適用手段は前記写真情報に応じて映像効果を適用する、請求項記載のビデオコンテンツ作成装置である。 According to a second aspect of the invention, the meta information includes picture information that is set in each photographic image data, the image effect applying means for applying a video effect according to the photographic information, create video content according to claim 1, wherein Device.

請求項の発明では、映像効果適用手段(12,S36)は、写真情報に従った映像効果を付与する。したがって、写真情報を用いて、自動的に適宜の映像効果が付与されるので、映像効果付与のための面倒な操作がいらない。 In the invention of claim 2 , the video effect applying means (12, S36) gives a video effect according to the photographic information. Therefore, since an appropriate video effect is automatically given using the photographic information, a troublesome operation for giving the video effect is not required.

請求項の発明は、写真情報は日付情報を含み、映像効果適用手段は日付情報による各写真間の年代差に応じて異なる映像効果を適用する、請求項記載のビデオコンテンツ作成装置である。 The invention of claim 3 is the video content creation device according to claim 2 , wherein the photo information includes date information, and the video effect applying means applies different video effects according to the age difference between the photos based on the date information. .

請求項の発明では、複数の写真画像を取り込んだとき、メタ情報付与手段に含まれる撮影日付よって、各写真間の年代差を検出することができる。そして、映像効果適用手段(12,S36)は、その各写真間の年代差に応じて異なる映像効果を適用する。たとえば、年代差が所定の閾値以下の場合には、前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる。年代差が所定の閾値以上の場合には、次の写真をスライドインさせる。このように、各写真間の年代差を用いて、自動的に適宜の映像効果が付与されるので、映像効果付与のための面倒な操作がいらない。 According to the third aspect of the present invention, when a plurality of photograph images are captured, the age difference between the photographs can be detected based on the photographing date included in the meta information providing means. The video effect applying means (12, S36) applies different video effects according to the age difference between the photographs. For example, if the age difference is less than or equal to a predetermined threshold, the next photo is faded in while fading out the previous photo, and they are overlapped. If the age difference is greater than or equal to a predetermined threshold, the next photo is slid in. In this way, since an appropriate video effect is automatically given using the age difference between each photograph, a troublesome operation for giving the video effect is not required.

請求項の発明は、写真情報は人物情報を含み、映像効果適用手段は人物情報に従って映像効果を適用する、請求項2または3記載のビデオコンテンツ作成装置である。 According to a fourth aspect of the present invention, there is provided the video content creating apparatus according to the second or third aspect , wherein the photographic information includes person information, and the video effect applying means applies the video effect according to the person information.

請求項の発明では、人物情報によって、被写体が視聴者に思い出深い人物であることが分かったときには、コンピュータは、たとえばその被写体があるリージョンだけに映像効果を適用する。 In the invention of claim 4 , when it is found from the person information that the subject is a person who is memorable to the viewer, the computer applies the video effect only to the region in which the subject is present, for example.

請求項5の発明は、写真情報は色調情報を含み、映像効果適用手段は色調情報に従って映像効果を適用する、請求項2ないし4のいずれかに記載のビデオコンテンツ作成装置である。 A fifth aspect of the present invention is the video content creation device according to any one of the second to fourth aspects, wherein the photographic information includes color tone information, and the video effect applying means applies the video effect according to the color tone information.

請求項の発明では、色調情報を検出し、たとえば写真がモノクロからカラーへ変わったような場合、たとえばカラー写真をまずモノクロ調に表示した後、徐々にカラー表示に遷移させていくような映像効果を付与する。 According to the invention of claim 5 , when the color tone information is detected, for example, when the photograph changes from monochrome to color, for example, a color photograph is first displayed in monochrome tone and then gradually shifted to color display. Gives an effect.

請求項の発明は、ビデオコンテンツ作成装置のコンピュータに、写真画像データを入力する写真データ入力ステップ、写真画像データに関連してメタ情報を付与するためのメタ情報付与ステップ、写真画像データを関連するメタ情報とともに格納する記憶ステップ、メタ情報を用いて記憶手段から写真画像データを検索する検索ステップ、および検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成ステップを実行させ、そして生成ステップにおいてはメタ情報に基づいて映像効果を適用する映像効果適用ステップを実行させ、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、映像効果適用ステップではリージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成プログラムである。
請求項7の発明は、写真画像データを関連するメタ情報とともに格納する記憶手段、メタ情報を用いて記憶手段から写真画像データを検索する検索手段、および検索手段によって検索した写真画像データに従ってサムネイル画像を表示するサムネイル画像表示領域および写真リスト欄を有する再生順序設定領域を含むGUI画面を表示する表示手段を備え、サムネイル画像表示領域で表示しているサムネイル画像を写真リスト欄にドラッグアンドドロップすることによって、検索した写真データのうち実際に使用する複数の写真を選択し、写真リスト欄におけるリスト搭載順を変更することによって複数の再生順序を変更できるようにし、写真リスト欄に搭載している写真の写真画像データとそれに関連するメタ情報とを記憶手段から読み出す読出し手段、および読出し手段が読み出した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、生成手段はリージョン情報に従って当該リージョンの画像を所定位置に位置合わせする位置合わせ手段を含み、さらに生成手段はリージョン情報に基づいて映像効果を適用する映像効果適用手段を含む、ビデオコンテンツ作成装置である。
請求項8の発明は、写真画像データを入力する写真データ入力手段、写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、写真画像データを関連するメタ情報とともに格納する記憶手段、メタ情報を用いて記憶手段から写真画像データを検索する検索手段、および検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、生成手段はメタ情報に基づいて映像効果を適用する映像効果適用手段を含み、メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、映像効果適用手段はリージョン情報に応じて映像効果を適用する、ビデオコンテンツ作成装置である。
The invention of claim 6 relates to a picture data input step for inputting picture image data, a meta information giving step for giving meta information in relation to the picture image data, and picture image data related to the computer of the video content creation device. Storing with the meta information to be stored, a search step for searching the photographic image data from the storage means using the meta information, and editing the photographic image data searched by the search means according to the meta information to generate a series of video contents A generation step is executed, and in the generation step, a video effect application step for applying a video effect based on the meta information is executed . The meta information is inter-region interval information of a region set in one photo image data. Between the regions in the video effect application step Applying a video effect vary depending on the information, a video content creation program.
The invention of claim 7 is a storage means for storing photographic image data together with related meta information, a search means for searching photographic image data from the storage means using the meta information, and a thumbnail image according to the photographic image data searched by the search means. A display means for displaying a GUI screen including a thumbnail image display area for displaying and a reproduction order setting area having a photo list field, and dragging and dropping the thumbnail image displayed in the thumbnail image display area to the photo list field By selecting multiple photos to be actually used from the searched photo data and changing the list loading order in the photo list column, you can change the multiple playback order, and the photos loaded in the photo list column Read out photographic image data and related meta information from the storage means Readout means, and generation means for generating a series of video contents by editing the photographic image data read out by the readout means in accordance with the meta information, the meta information being region information of a region set in one photographic image data And generating means includes positioning means for aligning an image of the region at a predetermined position in accordance with the region information, and further generating means includes video effect applying means for applying a video effect based on the region information. Device.
The invention of claim 8 is a photographic data input means for inputting photographic image data, a meta information giving means for giving meta information in relation to the photographic image data, and a storage means for storing the photographic image data together with related meta information. A search means for searching for photographic image data from the storage means using the meta information, and a generating means for generating a series of video contents by editing the photographic image data searched by the search means according to the meta information, Including video effect applying means for applying a video effect based on meta information, the meta information including region information of a region set in one photographic image data, and the video effect applying means corresponding to the region information. This is a video content creation device to which is applied.

この発明によれば、たとえば痴呆症者の過去の写真にメタ情報を付与し、そのメタ情報を利用して写真画像を編集することによって、比較的簡単に、思い出ビデオのようなビデオコンテンツを作成することができる。しかも、メタ情報に従った種々の映像効果を適用するので、思い出ビデオを観る痴呆症者の興味や集中力を持続させ易く、思い出ビデオの効果の一層の向上が期待できる。   According to the present invention, for example, by adding meta information to a past photo of a person with dementia and editing a photo image using the meta information, video content such as a memory video can be created relatively easily. can do. Moreover, since various video effects according to the meta information are applied, it is easy to maintain the interest and concentration of the demented person who watches the memory video, and further improvement of the memory video effect can be expected.

この発明の上述の目的,その他の目的,特徴および利点は、図面を参照して行う以下の実施例の詳細な説明から一層明らかとなろう。   The above object, other objects, features and advantages of the present invention will become more apparent from the following detailed description of embodiments with reference to the drawings.

図1を参照して、この実施例のビデオコンテンツ作成装置10は、コンピュータ12を含む。このコンピュータ12としては、パーソナルコンピュータやワークステーションが利用可能である。   With reference to FIG. 1, a video content creation apparatus 10 of this embodiment includes a computer 12. As the computer 12, a personal computer or a workstation can be used.

コンピュータ12にはハードディスクやRAMのような内部メモリ14が設けられていて、その内部メモリ14には、メタ情報を入力するためのツールとして、たとえば、いずれも商品名である、Dublin Core (http://dublincore.org)、Image Regions (http://www.w3.org)、FOAF (http://www.foaf−project.org)、Jena2(2.1) (http://jena.sourceforge.net)などが設定されている。これらはいずれも、写真画像データに関連するメタ情報を入力または登録もしくは付与する手段として機能する。   The computer 12 is provided with an internal memory 14 such as a hard disk or a RAM. In the internal memory 14, as a tool for inputting meta information, for example, Dublin Core (http: //Doublelincore.org), Image Regions (http://www.w3.org), FOAF (http://www.foaf-project.org), Jena2 (2.1) (http://jena.sourceforge.net) ) Etc. are set. All of these function as means for inputting, registering or giving meta information related to photographic image data.

ここで、メタ情報とは、データに関する構造化した情報を意味し、実施例の場合、取り扱う写真画像データの詳細を構造的に記述する情報である。   Here, meta information means structured information regarding data, and in the case of the embodiment, is information that structurally describes details of photographic image data to be handled.

Dublin Coreはメタ情報を取り扱う代表的なツールとして知られていて、さらに、写真中の人物の顔やオブジェクトの領域(以後、「リージョン」と呼ぶ。)を複数個指定し、これをメタ情報として保持するためにImage Regionsを利用する。リージョンが人の場合には、FOAFを利用して人のメタ情報を付与する。リージョンは静止画である写真に対して、そこへのズーム、リージョン間のパンといったエフェクトを加えるために用いる。メタ情報をRDFの形式でデータベースに格納するために、Jena2(2.1)を使用する。   Dublin Core is known as a representative tool for handling meta information. In addition, a person's face and object area (hereinafter referred to as "region") in a photo is specified and used as meta information. Use Image Regions to hold. If the region is a person, add meta information of the person using FOAF. Regions are used to add effects such as zooming and panning between regions to still photos. Jena2 (2.1) is used to store the meta information in the database in the RDF format.

コンピュータ12は図示しないが、グラフィックボードまたはプロセサやサウンドボードまたはプロセサを内蔵していて、それらを通して、GUI画面や他のグラフィックス(映像)がモニタ16に表示されるとともに、スピーカ18からBGMなどの音声が出力される。   Although not shown, the computer 12 includes a graphic board, a processor, a sound board, or a processor, through which a GUI screen and other graphics (video) are displayed on the monitor 16 and from the speaker 18 to the BGM or the like. Audio is output.

コンピュータ12にはさらに、写真データ入力装置20が接続される。この写真データ入力装置20は、イメージスキャナ、ディジタルカメラ(デジカメ)、インタネット(Web)などの少なくとも1つを含む。イメージスキャナは、痴呆症者の過去の写真をスキャンしてカラーまたはモノクロの写真画像データを入力する。デジカメはリアルタイムで撮影した写真画像データを入力できる他、過去の写真を撮影してそれらの写真画像データを入力するという使い方もできる。インタネットは、遠隔地から送信される痴呆症者の過去の写真の写真画像データを入力し、さらには必要に応じて痴呆症者の過去にまつわる事象の写真画像データを取り込むために使用できる。さらに他の種類の写真データ入力装置が用いられてもよい。   Further, a photographic data input device 20 is connected to the computer 12. The photograph data input device 20 includes at least one of an image scanner, a digital camera (digital camera), the Internet (Web), and the like. The image scanner scans past photographs of persons with dementia and inputs color or monochrome photographic image data. Digital cameras can input photographic image data taken in real time, and can also be used to take past photographs and input those photographic image data. The Internet can be used to input photographic image data of a past photo of a dementia person transmitted from a remote place, and to capture photographic image data of an event related to the past of the dementia person as needed. Still other types of photo data input devices may be used.

さらに、コンピュータ12には、インタフェース24を介してデータベース22が結合される。この実施例では、データベース22にはPostgreSQL 7.4(http://www.postgresql.org)というリレーショナルデータベースを用いる。   Further, a database 22 is coupled to the computer 12 via an interface 24. In this embodiment, a relational database called PostgreSQL 7.4 (http://www.postgresql.org) is used as the database 22.

なお、図示していないが、コンピュータ12は当然、キーボードやマウスなどの入力手段を持っている。   Although not shown, the computer 12 naturally has input means such as a keyboard and a mouse.

ここで、図1実施例の動作の説明に先立って、この実施例の特徴である映像効果の付与について説明する。   Here, prior to the description of the operation of the embodiment in FIG. 1, the application of the video effect which is a feature of this embodiment will be described.

発明者等は、映像編集の経験のある複数のクリエータに、写真から思い出ビデオに変換する際に付加できる映像効果(各写真に付与したエフェクト,写真間のトランジション)について、どのようなものが想定できるか、聞き取り調査した。その結果は、以下のA-1〜A−3およびB−1〜B−5であった。
(A) エフェクト
A-1:写真中の人物の顔を含む矩形領域(以下,リージョンと呼ぶ)に対するズームアップ,パンという,いわゆるケンバーンズ(Ken Burns)効果(http://en.wikipedia.org/wiki/Ken_Burns参照)。
A−2:パンの代わりに、ズームアップされたリージョンをフェードアウトして、次のリージョンをフェードインする。
A−3:カラー写真をまずモノクロ調に表示した後、徐々にカラー表示に遷移させていく。
(B)トランジション
B-1:前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる。
B-2:次の写真をスライドインさせる。
B-3:前の写真をディゾルブして次の写真に遷移する。
B-4:前の写真をページピール(右下隅から捲り上げるような効果)して次の写真に遷移する。
B-5:前の写真を中心の縦軸で回転させて、次の写真に遷移する。
The inventors have assumed what kind of video effects (effects given to each photo, transitions between photos) that can be added to multiple creators with video editing experience when converting from photos to memory videos. An interview was conducted to see if this could be done. The results were the following A-1 to A-3 and B-1 to B-5.
(A) Effect A-1: A so-called Ken Burns effect (http://en.wikipedia.org) called zoom-up or panning on a rectangular area including a human face in a photograph (hereinafter referred to as a region). / Wiki / Ken_Burns).
A-2: Instead of panning, the zoomed-up region is faded out, and the next region is faded in.
A-3: First, a color photograph is displayed in monochrome, and then gradually changed to color display.
(B) Transition B-1: Fade out the next photo while fading out the previous photo, and overlap them.
B-2: Slide in the next photo.
B-3: Dissolve the previous photo and move to the next photo.
B-4: The previous photo is page peeled (an effect that rises from the lower right corner) and transitions to the next photo.
B-5: The previous photo is rotated about the vertical axis at the center to transition to the next photo.

上記の結果を踏まえて、表1に示すような思い出ビデオをレンダリングするためのテンプレートを作成した。表1の「使用された情報」に挙げた項目を写真に付与すべきアノテーション(anotation:注釈。「メタ情報」ということもある。)とし、アノテーションオントロジ(ontology)として設計した。アノテーション付与の枠組みとして、セマンティックWeb(これは、検索性能の向上や利便性を高める次世代Web技術で、「メタ情報(内容を説明する付加情報)」と「オントロジ(メタデータを記述する用語の定義)」という2つの技術を用いる。)の枠組みを用いた。すなわち、アノテーションは、RDF(Resource Description Framework)で記述される。これは、将来的には他人がアノテーションした写真を自分や家族の思い出ビデオに利用するような情報交換を考えたとき、Webとの親和性を考慮したためである。   Based on the above results, we created a template to render the memories video as shown in Table 1. The items listed in “Used information” in Table 1 were designed as annotations (ontology) as annotations (anotation: “meta information”). Semantic Web (this is a next-generation Web technology that improves search performance and enhances convenience as a framework for adding annotations. Definition) ”is used. That is, the annotation is described in RDF (Resource Description Framework). This is because, in the future, when considering information exchange in which a photograph annotated by another person is used for a memory video of oneself or family, the affinity with the Web is taken into consideration.

Figure 0004219906
Figure 0004219906

さらに、発明者等は、既存のボキャブラリを可能な限り利用するという方針をたて、図1実施例のための実験では、撮影された日付や出来事に関しては、書誌情報に関する標準的なボキャブラリである上述のDublin Coreで記述した。また、写真中の人物の情報を記述するためには、人の情報を記述するための標準的なボキャブラリである上述のFOAFを用いた。そして、写真中の人物領域を記述するためには,上述のImage Regionを使用し、写真の色調に関してはExif(http://it.jeita.or.jp/document/publica/standard/exif/english/jeida49e.htm参照)の色空間情報から取得できる。また、写真中の人物(被写体)との関係については、FOAFでknowsプロパティが定義されているが、思い出ビデオ作成においては本人と被写体の間柄をより詳細に定義する必要があるため、FOAFのknowsの属性を拡張して定義されたRELATIONSHIP(http://vocab.org/relationship/参照)を利用した。これを用いて、親子関係、親戚関係などを記述した。そのサンプルが後述の図7に示される。   Furthermore, the inventors have established a policy of using the existing vocabulary as much as possible, and in the experiment for the embodiment of FIG. 1, the date and event of shooting are standard vocabulary related to bibliographic information. It was described in the above Dublin Core. In addition, in order to describe the information of the person in the photograph, the above-mentioned FOAF, which is a standard vocabulary for describing the information of the person, was used. In order to describe a human region in a photograph, the above-described Image Region is used, and the color tone of the photograph is Exif (http://it.jeta.or.jp/document/publica/standard/exif/english). /Jeida49e.htm) color space information. Also, regarding the relationship with the person (subject) in the photo, the knows property is defined in FOAF, but in creating a memory video, it is necessary to define the relationship between the person and the subject in more detail, so FOAF knows RELATIONSHIP (http://vocab.org/relationship/reference) defined by extending the attributes of the above was used. This was used to describe parent-child relationships, relative relationships, etc. The sample is shown in FIG.

さらに、表1に挙げたエフェクト、トランジションに対して、思い出ビデオ作成に用いる映像効果のオントロジを表2のように定義した。   Furthermore, for the effects and transitions listed in Table 1, the ontology of the video effects used for creating the memory video is defined as shown in Table 2.

Figure 0004219906
Figure 0004219906

そして、写真のアノテーションから映像効果への変換ルールを記述し、テンプレートとして使用する。表3に、表1の「RT−8」のレンダリングテンプレートの表現例を示す。ただし、表1に示す他の識別子に付いても同様にテンプレートを作成しておくものとする。   Then, a conversion rule from photo annotation to video effect is described and used as a template. Table 3 shows a representation example of the rendering template “RT-8” in Table 1. However, a template is created in the same manner for other identifiers shown in Table 1.

Figure 0004219906
Figure 0004219906

ここでは、レンダリングテンプレート自身もRDFのステートメントとして記述し、 上述のRDQLを用いて、レンダリングテンプレートを検索することを想定している。なお、レンダリングオントロジについては、インタオペラビリティ(相互操作性)の必要性は低いため、別の独自形式を定義してもよい。   Here, the rendering template itself is also described as an RDF statement, and it is assumed that the rendering template is searched using the above-described RDQL. Note that the rendering ontology has a low necessity for interoperability (interoperability), so another unique format may be defined.

以下に説明する実施例では、以上説明した表3に示すようなテンプレートを利用して、思い出ビデオというビデオコンテンツに表1すなわち表2のような映像効果(エフェクト、トランジション)を付与する。   In the embodiment described below, the video effects (effects and transitions) shown in Table 1 or Table 2 are given to the video content called the memory video using the template shown in Table 3 described above.

図1の実施例のビデオコンテンツ作成装置10を用いて思い出ビデオを作成するためには、コンピュータ12などは図2に示す手順で動作する。   In order to create a memory video using the video content creation apparatus 10 of the embodiment of FIG. 1, the computer 12 and the like operate according to the procedure shown in FIG.

まず、ステップS1で、写真画像データを入力するとともに、メタ情報を登録する。具体的には、図1の写真データ入力装置20を用いて、主として、当該痴呆症者の過去の写真の写真画像データをコンピュータ12に入力する。   First, in step S1, photographic image data is input and meta information is registered. Specifically, photographic image data of a past photograph of the demented person is mainly input to the computer 12 using the photographic data input device 20 of FIG.

このとき、図3に示すGUI(Graphical User Interface)画面26がモニタ16に表示される。このGUI26は、モニタ画面の左方の大部分を占める、写真表示編集領域28を含む。この写真表示編集領域28は、そこに入力した写真画像データの写真を表示し、さらには、リージョンを指定するなどの編集作業のために利用される。GUI26は、モニタ画面の右方に形成されるサムネイル表示領域30を含む。サムネイル表示領域30には、入力しかつ後述のようにして検索した写真画像データから使用する写真を選択するためにサムネイル画像を表示する。   At this time, a GUI (Graphical User Interface) screen 26 shown in FIG. The GUI 26 includes a photo display editing area 28 that occupies most of the left side of the monitor screen. The photo display / editing area 28 displays a photo of the photo image data input thereto, and is used for editing work such as designating a region. The GUI 26 includes a thumbnail display area 30 formed on the right side of the monitor screen. A thumbnail image is displayed in the thumbnail display area 30 in order to select a photo to be used from photographic image data that has been input and searched as described below.

GUI26には、モニタ画面の下方に形成される、第1メタ情報入力領域32、モニタ画面のほぼ中央に形成される第2メタ情報入力領域34、およびモニタ画面の右下方に形成される再生順設定領域36が設けられる。メタ情報入力領域32には、領域28に表示もされている写真全般に関わるDublin Core で定義されたメタ情報を入力する。また、メタ情報入力領域34はポップアップ形式で入力時に現れる領域であり、それを用いて、FOAFを利用してリージョンが人の場合のメタ情報を入力する。そして、再生順設定領域36は、思い出ビデオに取り込んだ写真を再生する順番を設定するために利用され、後に説明するように、ドラッグアンドドロップで順番を入れ替えることができる。   The GUI 26 includes a first meta information input area 32 formed below the monitor screen, a second meta information input area 34 formed substantially at the center of the monitor screen, and a playback order formed on the lower right side of the monitor screen. A setting area 36 is provided. In the meta information input area 32, meta information defined in Dublin Core related to all the photographs displayed in the area 28 is input. Further, the meta information input area 34 is an area that appears at the time of input in a pop-up format, and is used to input meta information when the region is a person using FOAF. The playback order setting area 36 is used to set the order in which the photos taken in the memory video are played back, and the order can be changed by drag and drop as will be described later.

ステップS1での写真入力およびメタ情報登録について、具体的に説明する。図4を参照し、今、写真データ入力装置20から図4に示すような写真(図面では線画であるが、実際は写真である。他の図面でも同様。)の写真画像データが入力されると、コンピュータ12は、モニタ16のGUI26の写真表示編集領域28にその画像データで表される写真(静止画)を表示する。それとともに、コンピュータ12は、その写真のサムネイル画像をサムネイル表示領域30に表示する。   The photo input and meta information registration in step S1 will be specifically described. Referring to FIG. 4, when photographic image data of a photograph (a drawing is a line drawing in the drawing but is actually a photograph. The same applies to other drawings) as shown in FIG. The computer 12 displays the photograph (still image) represented by the image data in the photograph display editing area 28 of the GUI 26 of the monitor 16. At the same time, the computer 12 displays a thumbnail image of the photo in the thumbnail display area 30.

そして、図示しないマウス等を利用して、その写真中で2つのリージョン、リージョン1およびリージョン2を設定すると、図5に示すように、写真表示編集領域28中に、リージョン1およびリージョン2をそれぞれ特定する矩形枠29aおよび29bが表示される。このようなリージョン1およびリージョン2を指定すると、Image Regionsで定義される形式で、図6に示す各リージョンのメタ情報が設定される。つまり、リージョン1の原点(矩形枠の左上の角)の座標(x11,y11)およびそれの対角の座標(x12,y12)が登録され、さらにそのリージョン1の高さh1および幅w1もメタ情報として登録される。同様に、リージョン2についても、原点座標、対角座標、高さ、および幅が、それぞれ、x21,y21、x22,y22、h2、およびw2として登録される。   Then, using a mouse or the like (not shown), if two regions, region 1 and region 2, are set in the photo, region 1 and region 2 are respectively displayed in the photo display editing area 28 as shown in FIG. The specified rectangular frames 29a and 29b are displayed. When such region 1 and region 2 are designated, meta information of each region shown in FIG. 6 is set in a format defined by Image Regions. That is, the coordinates (x11, y11) of the origin of the region 1 (the upper left corner of the rectangular frame) and the diagonal coordinates (x12, y12) thereof are registered, and the height h1 and width w1 of the region 1 are also set as meta. Registered as information. Similarly, for the region 2, the origin coordinates, diagonal coordinates, height, and width are registered as x21, y21, x22, y22, h2, and w2, respectively.

このようにしてステップS1で写真を入力し、メタ情報を登録すると、たとえば図7に示すようなデータベースができる。この図7では右に、図5に示した、実際の写真が表示されリージョンが指定されている写真表示編集領域28が描かれている。そして、楕円形の中に「dc:」とあり、それに関連する矩形の中のデータが、Dublin Coreで登録したメタ情報である。たとえば「dc:date」では日付「20040716(2004年7月16日)」が、「dc:title」では名称「at Disney Animal Kingdom(ディズニー動物王国にて)」が、「dc:description」では説明文「They are very happy.(彼等は非常に楽しそう)」がメタ情報として登録される。   Thus, if a photograph is input in step S1 and meta information is registered, a database as shown in FIG. 7, for example, is created. In FIG. 7, a photo display editing area 28 shown in FIG. 5 in which an actual photo is displayed and a region is designated is drawn on the right. Then, there is “dc:” in the ellipse, and the data in the rectangle related to it is meta information registered in Dublin Core. For example, “dc: date” has the date “200407716 (July 16, 2004)”, “dc: title” has the name “at Disney Animal Kingdom”, and “dc: description” has the description The sentence “They are very happy.” Is registered as meta information.

楕円形のなかに「imgReg:」とあるメタ情報は、Image Regionsでリージョンを指定したときのメタ情報である。「imgReg:has region」はリージョンが設定されていることを示すメタ情報であり、「imgReg:Rectangle」はリージョンが矩形であることを示し、「imgReg:regionDepict」はリージョンの説明で、「imgReg:boundingBox」はリージョンの原点位置とサイズ(高さh、幅w)とを含む。「imgReg:coords」はリージョンの原点位置および対角位置の座標である。   The meta information “imgReg:” in the ellipse is meta information when a region is designated by Image Regions. “ImgReg: has region” is meta information indicating that the region is set, “imgReg: Rectangle” indicates that the region is rectangular, “imgReg: regionDepict” is a description of the region, and “imgReg: “BoundingBox” includes the origin position and size (height h, width w) of the region. “ImgReg: coords” is the coordinates of the origin position and the diagonal position of the region.

また、「foaf:gender」で与えられるメタ情報は、リージョンが人である場合の性別(例示では「female(女)」)であり、「foaf:name」で与えられるメタ情報は名前(例示では「Haruka(はるか)」)であり、「foaf:Person」で与えられるメタ情報はViewer(この思い出ビデオを観る人)と写真に写った人との関係を示し、例示では、「孫(grandchild)」であることがわかる。   The meta information given by “foaf: gender” is the gender (“female (female)” in the example) when the region is a person, and the meta information given by “foaf: name” is the name (in the example "Haruka (Haruka)"), the meta information given by "foaf: Person" shows the relationship between the viewer (the person watching this memorable video) and the person in the photo. In the example, "grandchild" "It can be seen that it is.

なお、図7に示す各メタ情報は、それぞれ以下に示される。   In addition, each meta information shown in FIG. 7 is shown below, respectively.

xmlns:imgReg=“http://www.w3.org/2004/02/image−regions#”
xmlns:foaf=“xmlns.com/foaf/0.1”
xmlns:dc=“http://purl.org/dc/elements/1.1/”
このようにして、図2のステップS1で写真入力と、メタ情報登録が行なわれると、コンピュータ12は、その写真と、それに付与したメタ情報とをデータベース22に格納する。なお、上の説明では1枚の写真とそれのメタ情報について説明したが、入力装置20で写真画像データを入力する都度、同じようにして、図7に示すようなメタ情報が登録され、そのメタ情報を付与した写真データがデータベース22に格納される。
xmlns: imgReg = “http://www.w3.org/2004/02/image-regions#”
xmlns: foaf = “xmlns.com/foaf/0.1”
xmlns: dc = “http://purl.org/dc/elements/1.1/”
When the photo input and meta information registration are performed in step S1 of FIG. 2, the computer 12 stores the photo and the meta information assigned thereto in the database 22. In the above description, one photo and its meta information have been described. However, every time photographic image data is input by the input device 20, meta information as shown in FIG. Photo data to which meta information is added is stored in the database 22.

その後、図2のステップS2では、ステップS1で入力した写真のうち、そのとき使う写真を検索する。ただし、写真の検索では、上で説明したメタ情報が利用される。メタ情報を利用した写真の検索条件としては、たとえば、以下のものが利用できる。   Thereafter, in step S2 in FIG. 2, the photograph used at that time is retrieved from the photographs input in step S1. However, the meta information described above is used in the photo search. For example, the following can be used as search conditions for photographs using meta information.

まず、FOAFではリージョンの種類が人であるとき、その人を特定するメタ情報を付与するのであるから、このFOAFのメタ情報を利用して、「特定の人物の写っている写真」を検索することができる。複数の人物を同時に検索できるが、この場合には、検索した名前の全員が写っている写真が対象となる。   First, in FOAF, when the region type is a person, meta information that identifies the person is added, so use this FOAF meta information to search for "photos of a specific person" be able to. A plurality of persons can be searched simultaneously, but in this case, a photograph in which all of the searched names are shown is targeted.

Dublin Coreのメタ情報を利用する場合には、「撮影年月日」で検索できる。たとえば、「From (第1指定日)〜To(第2指定日)」で第1指定日以降第2指定日以前に撮影した全ての写真が検索できる。「From (指定日)」でその指定日以降に撮影した全ての写真が検索できる。同様に、「To(指定日)」でその指定日以前に撮影した全ての写真が検索できる。また、「特定のプロパティに特定の値が含まれている写真」を検索できる。たとえば、「dc:title」に「Disney」の文字が含まれる写真など。ただし、複数同時に選択または検索可能であるが、複数選択時には、設定された検索条件を同時に充足する写真だけが対象となる。   When using the Dublin Core meta information, you can search by “shooting date”. For example, in “From (first specified date) to To (second specified date)”, it is possible to search for all photos taken after the first specified date and before the second specified date. With “From (specified date)”, you can search all photos taken after the specified date. Similarly, “To (specified date)” can be used to search for all photos taken before the specified date. In addition, it is possible to search for “photos whose specific properties include specific values”. For example, photos with “Disney” in “dc: title”. However, a plurality of images can be selected or searched at the same time, but at the time of selecting a plurality of images, only photographs that satisfy the set search conditions at the same time are targeted.

このようにして、ステップS2で写真の選択が終了したら、次に、ステップS3で、検索した写真から実際に使用する写真を選択するとともに、および複数の写真を選択したときには複数の写真の再生順序を指定または決定する。このステップS3のためのGUI26が図8に示される。ただし、便宜上この図8は図7以前の写真とは異なる写真を使用していることに留意されたい。   In this way, when the selection of the photos is completed in step S2, next, in step S3, the photos to be actually used are selected from the searched photos, and when a plurality of photos are selected, the reproduction order of the plurality of photos is selected. Specify or determine The GUI 26 for this step S3 is shown in FIG. However, for the sake of convenience, it should be noted that FIG. 8 uses a photo different from the photo before FIG.

コンピュータ12は、たとえば図示しないメニューによって、ステップS3が選択されたときには、図8に示すGUI26をモニタ16に表示する。この図8のGUI26では、モニタ画面の右下方に、図3でも示した、再生順設定領域36が形成される。この再生順序設定領域36の拡大図が図9に示される。   For example, when step S3 is selected by a menu (not shown), the computer 12 displays the GUI 26 shown in FIG. In the GUI 26 of FIG. 8, a reproduction order setting area 36 shown in FIG. 3 is formed at the lower right of the monitor screen. An enlarged view of the reproduction order setting area 36 is shown in FIG.

再生順序設定領域36は、写真リスト欄38を含み、図8に示すように、サムネイル表示領域30に表示されたサムネイル画像を写真リスト欄38にドラッグアンドドロップすることによって、使用する写真を選択できる。つまり、ステップS2の写真検索ステップで検索した写真のサムネイル画像が、すべてサムネイル表示領域30に表示されるので、その一覧画像の中の写真を写真リスト欄38にドラッグアンドドロップすることによって、写真を選択することができる。なお、写真リスト欄38には、名称(name)、タイトル(title)、日付(date)の各コラムが設定される。   The reproduction order setting area 36 includes a photo list field 38, and as shown in FIG. 8, a photo to be used can be selected by dragging and dropping the thumbnail image displayed in the thumbnail display area 30 to the photo list field 38. . In other words, since all thumbnail images of the photos searched in the photo search step of step S2 are displayed in the thumbnail display area 30, by dragging and dropping the photos in the list image to the photo list column 38, the photos can be selected. You can choose. In the photo list column 38, columns of name (name), title (title), and date (date) are set.

また、再生順序設定領域36には、図9に示すように、ソート指定欄40と、思い出ビデオのスライドショーの生成を指示する生成ボタン42、写真の削除のために使用する削除ボタン44、および選択した写真のプレビューをするときに押す(クリックする)プレビューボタン46が設けられる。カーソルを写真リスト欄38のどれかの写真に合わせ、その状態でプレビューボタン46が操作されると、図8に示すプレビュー領域48に、プレビュー画像が表示される。   Further, in the playback order setting area 36, as shown in FIG. 9, a sort designation field 40, a generation button 42 for instructing generation of a slide show of a memorable video, a delete button 44 used for deleting a photo, and a selection A preview button 46 to be pressed (clicked) when previewing the photograph taken is provided. When the cursor is placed on any photo in the photo list field 38 and the preview button 46 is operated in this state, a preview image is displayed in the preview area 48 shown in FIG.

なお、ソート指定欄40には、選択した写真をソーティングするときのプロパティ、たとえば登録日などが設定される。そして、このソート指定欄40に特定のプロパティが、たとえばプルダウンメニューによって設定されると、コンピュータ12は、たとえばそのプロパティに対する値の昇順で写真をソートする。   In the sort designation field 40, properties for sorting the selected photos, such as registration date, are set. Then, when a specific property is set in the sort specification field 40 by, for example, a pull-down menu, the computer 12 sorts the photos in ascending order of the value for the property, for example.

さらに、写真リスト欄38に登録した写真リストの順序で再生されるので、もし、再生順序を変更したい場合には、その写真リスト欄38の1行をドラッグアンドドロップして動かすことによって、リスト搭載順すなわち再生の順番を入れ替えればよい。   Furthermore, since the images are played back in the order of the photo list registered in the photo list column 38, if you want to change the playback order, drag and drop one line in the photo list column 38 to move the list. What is necessary is just to change order, ie, the order of reproduction | regeneration.

つづいて、図2のステップS4で、写真の再生時に流すBGMのプレイリストを登録または選択する。この実施例では、たとえばMP3形式の楽曲ファイルをサポートしていて、その中からBGMとして使う楽曲をプレイリストに登録すれば、BGMがそのプレイリストに沿って、再生される。また、プレイリストとしてたとえばM3U形式を用いれば、Winamp(アプリケーション名)などの一般的なソフトで作成したプレイリストをそのまま使用できる。   Subsequently, in step S4 of FIG. 2, a BGM playlist to be played at the time of reproduction of the photo is registered or selected. In this embodiment, for example, an MP3 format music file is supported, and if a music used as a BGM is registered in the playlist, the BGM is reproduced along the playlist. If, for example, the M3U format is used as a playlist, a playlist created with general software such as Winamp (application name) can be used as it is.

ステップS4では、まず、図示しないメニユーで、「プレイリスト選択または登録」を選ぶ。そうすると、図10に示すGUI26がモニタ16に表示される。そして、このGUI26のプレイリスト作成ボタン52をクリックすると、図11に示す、新規プレイリスト登録欄54が表示される。この登録欄54には、プレイリストの名称(図示の例では、「Sample」)を設定するための名称欄56および入力した名称でよいときの決定(了解)ボタン58が形成される。そして、名称欄56に名称を入力し、了解ボタン58をクリックすると、図12に示す、空のプレイリスト60が表示される。   In step S4, first, “play list selection or registration” is selected in a menu (not shown). Then, the GUI 26 shown in FIG. 10 is displayed on the monitor 16. When the playlist creation button 52 of the GUI 26 is clicked, a new playlist registration field 54 shown in FIG. 11 is displayed. In the registration field 54, a name field 56 for setting the name of the playlist (“Sample” in the illustrated example) and a determination (acceptance) button 58 when the input name is acceptable are formed. When a name is entered in the name field 56 and the OK button 58 is clicked, an empty play list 60 shown in FIG. 12 is displayed.

図13に示す、MP3ファイル一覧62を表示し、その中の適宜の楽曲をプレイリスト60にドラッグアンドドロップすることによって、プレイリスト60に、BGMとして使用する楽曲を順次選択または登録することができる。図示の例では、「MYアルバム」という楽曲一覧62(図13)を用いて、主として、童謡が選択された。   The MP3 file list 62 shown in FIG. 13 is displayed, and by dragging and dropping an appropriate music piece in the MP3 file list 62 to the play list 60, the music pieces used as BGM can be sequentially selected or registered in the play list 60. . In the example shown in the figure, nursery rhymes are mainly selected using the music list 62 (FIG. 13) called “MY album”.

このようにして、写真データの入力、メタ情報の登録、写真の検索、選択、楽曲の選択などの各ステップが実行され、図9に示す生成ボタン42を押すと、思い出ビデオの生成を開始する。したがって、図2のステップS5では、生成ボタン42がクリックされたかどうか判断する。もし“YES”ならそのまま次のステップS6に進むが、“NO”なら、図2の任意のステップS1−S4に戻って該当の作業を再開することができる。   In this way, steps such as inputting photo data, registering meta information, searching for photos, selecting, selecting a song are executed, and when the generation button 42 shown in FIG. 9 is pressed, generation of a memory video is started. . Therefore, in step S5 of FIG. 2, it is determined whether or not the generation button 42 has been clicked. If "YES", the process proceeds to the next step S6 as it is, but if "NO", the process can be resumed by returning to any step S1-S4 in FIG.

つまり、図2の各ステップS1−S4はそれぞれ、メニューでの選択によって、任意の時間に任意の作業量で何回も実行可能であるので、オペレータは、時間のあるときに、必要なだけ必要な作業を行なえばよい。いずれの場合にも、前回までの作業の結果はデータベース22に格納されているので、今回の作業では、まず、データベース22から前回までのデータを読み出し、その後それに続行した処理またはそれを変更する処理を行う。   That is, each step S1-S4 in FIG. 2 can be executed any number of times at an arbitrary time by selecting from the menu, so that the operator needs as much as necessary when there is time. You just have to do this. In any case, since the result of the previous work is stored in the database 22, in this work, first, the data up to the previous time is read from the database 22, and then the process that continues or changes the process. I do.

そして、ステップS5で生成ボタン42のオンが検出されると、次のステップS6で、思い出ビデオのスライドショービデオ(RVML)を生成する。   When it is detected in step S5 that the generation button 42 is turned on, in the next step S6, a slide show video (RVML) of a memory video is generated.

ここで、「RVML」とは、swfを完全に表現できるように設計されたXMLの一種であり、すべてのバージョンのswf動画はRVMLとして表現できる。ただし、swfは、Flashのバージョンやフレームレートなどの情報を持つファイルヘッダを除くと、基本的にはタグの列だけである。たとえば、定義タグで図形を定義し、操作タグでその図形をフレームに配置し、表示タグで現在のフレームを画面に描画する、というパターンが1フレームに相当し、これを繰り返す。   Here, “RVML” is a kind of XML designed so that swf can be completely expressed, and all versions of swf moving images can be expressed as RVML. However, swf is basically only a column of tags excluding a file header having information such as a Flash version and a frame rate. For example, a pattern in which a figure is defined by a definition tag, the figure is arranged in a frame by an operation tag, and the current frame is drawn on the screen by a display tag corresponds to one frame, and this is repeated.

そして、生成されたRVMLは、RVMLからFlashツールであるKineticFusion(http://www.kinesissoftware.com)を使用すれば、Flashムービー形式の思い出ビデオが作成できる。   The generated RVML can create a Flash movie format memory video by using KineticFusion (http://www.kinesissoftware.com), which is a Flash tool, from the RVML.

図2のステップS6は、具体的には、図15に示す手順で実行される。最初のステップS11では、コンピュータ12は、生成ボタン42の操作に応答して、まず、BGMとしてのプレイリスト60(図14)の楽曲の再生を開始する。以後、楽曲は、そのプレイリスト60に沿って、順次切り替わり、かつ連続的に再生される。つまり、コンピュータ12は、プレイリスト60に登録した楽曲データを読み出し、それをサウンドボードまたはプロセサで処理させることによって、スピーカ18(図1)から、当該プレイリストの楽曲が音声として再生される。   Specifically, step S6 of FIG. 2 is executed according to the procedure shown in FIG. In the first step S11, in response to the operation of the generation button 42, the computer 12 first starts playing the music of the playlist 60 (FIG. 14) as BGM. Thereafter, the music is sequentially switched along the playlist 60 and continuously reproduced. That is, the computer 12 reads out music data registered in the playlist 60 and processes the data with a sound board or a processor, so that the music in the playlist is reproduced as sound from the speaker 18 (FIG. 1).

次のステップS13では、コンピュータ12は、モニタ16の表示画面に形成されたGUI26の写真表示編集領域28(図3)の幅をSw、高さをShとして設定する。   In the next step S13, the computer 12 sets the width of the photo display editing area 28 (FIG. 3) of the GUI 26 formed on the display screen of the monitor 16 as Sw and the height as Sh.

ついで、ステップS15で、コンピュータ12は、写真個数nをインクリメント(n=n+1)する。そして、次のステップS17では、写真リスト欄38(図9)に挙げられたn番目の写真がフェードイン態様で、表示編集領域28に表示される。つまり、コンピュータ12は、データベース22(図1)から写真リスト欄38のn番目の写真とそれに付随するメタ情報とを読み出し、n番目の写真を表示する。ただし、最初はn=1であるので、1番目の写真がフェードイン表示される。その後、ステップS19での一定時間のポーズの後、次のステップS21で、コンピュータ12は、そのn番目の写真にリージョンが指定されているかどうか、たとえばImage Regionsのメタ情報があるかで判断する。リージョンが指定されているなら、次のステップS23で、コンピュータ12は、リージョン番号mをインクリメント(m+1)する。そして、ステップS25で、m番目のリージョンのImage Regionsのメタ情報を参照する。このメタ情報に、m番目のリージョンの位置データやサイズデータが含まれる。したがって、次のステップS27で、コンピュータ12は、そのようなメタ情報および先に設定した表示領域の高さShおよび幅Swを利用して、m番目のリージョンを、領域28の中央に位置合わせする。   In step S15, the computer 12 increments the number of photographs n (n = n + 1). In the next step S17, the nth photo listed in the photo list field 38 (FIG. 9) is displayed in the display editing area 28 in a fade-in manner. That is, the computer 12 reads the nth photo in the photo list column 38 and the meta information associated therewith from the database 22 (FIG. 1), and displays the nth photo. However, since n = 1 at the beginning, the first photo is displayed in a fade-in manner. Thereafter, after a fixed time pause in step S19, in the next step S21, the computer 12 determines whether or not a region is designated in the nth photo, for example, whether there is meta information of Image Regions. If the region is designated, in the next step S23, the computer 12 increments the region number m (m + 1). In step S25, the meta information of Image Regions of the mth region is referred to. This meta information includes position data and size data of the mth region. Therefore, in the next step S27, the computer 12 uses the meta information and the previously set display area height Sh and width Sw to align the mth region with the center of the area 28. .

一例として、そのリージョンの幅をw1、高さをh1とすると、拡大率をmin[Sw/w1, Sh/h1]として、そのリージョンがちょうど表示画面28の中央に収まるまで、1フレームずつ、表示画面28に対して写真画像を横軸にdX、縦軸にdY移動し、dZ分拡大して表示する。   As an example, if the width of the region is w1 and the height is h1, the enlargement ratio is min [Sw / w1, Sh / h1], and the frame is displayed frame by frame until it just fits in the center of the display screen 28. The photographic image is displayed on the screen 28 by moving dX on the horizontal axis and dY on the vertical axis, and enlarged by dZ.

ただし、このステップS27では、そのリージョンの画像を表示領域の中央に位置合わせするだけでなく、たとえば、左上、右下など他の位置に位置合わせするようにしてもよい。   However, in step S27, the image of the region is not only aligned with the center of the display area, but may be aligned with other positions such as upper left and lower right, for example.

その後、ステップS29でのポーズの後、次のステップS31で、コンピュータ12は、残りリージョンがなくなったかどうかを判断する。つまり、Image Regionsのメタ情報からリージョン個数がわかるので、このステップS31では、ステップS23でインクリメントした結果がそのリージョン個数に等しくなったかどうか判断すればよい。   Thereafter, after the pause in step S29, in the next step S31, the computer 12 determines whether or not there are no remaining regions. That is, since the number of regions can be known from the image region meta information, in step S31, it may be determined whether the result incremented in step S23 is equal to the number of regions.

残りリージョンがあれば、次のステップS32において、コンピュータ12は、表1に示す識別子RT−1、RT−2およびRT−4で示される映像効果A−1、A−2を付与する。   If there are remaining regions, in the next step S32, the computer 12 assigns video effects A-1 and A-2 indicated by identifiers RT-1, RT-2 and RT-4 shown in Table 1.

具体的には、コンピュータ12は、図7のようなメタ情報のうち、リージョン座標値(imgReg:coords)およびリージョン境界値(imgReg:boundingBox)から、複数のリージョン間間隔、X方向(横方向)間隔およびY方向(縦方向)間隔を算出する。そして、それらのリージョン間間隔が所定の閾値以上か以下かを判別する。そして、X方向(横方向)間隔およびY方向(縦方向)間隔のいずれかが閾値以下のときには、ケンバーンズ効果を使用するべく、写真中の人物の顔を含むリージョンに対するズームアップをした後、次のリージョンへパンさせる。逆に、X方向(横方向)間隔およびY方向(縦方向)間隔のいずれかが閾値以上のときには、パンの代わりに、ズームアップされたリージョンをフェードアウトして、次のリージョンをフェードインさせる。   Specifically, the computer 12 uses a region coordinate value (imgReg: coords) and a region boundary value (imgReg: boundingBox) in the meta information as shown in FIG. The interval and the Y direction (vertical direction) interval are calculated. Then, it is determined whether the inter-region spacing is greater than or less than a predetermined threshold. When either the X direction (horizontal direction) interval or the Y direction (vertical direction) interval is equal to or less than the threshold value, after zooming in on the region including the face of the person in the photo to use the Cambridge effect, Pan to the next region. Conversely, when either the X direction (horizontal direction) interval or the Y direction (vertical direction) interval is equal to or greater than the threshold, the zoomed-up region is faded out and the next region is faded in instead of panning.

また、図7に示すfoaf:personで示す被写体情報が、視聴者に思い出深い被写体であると、その被写体のリージョンだけにズームアップをし、その後、リージョン間間隔に応じたパンかフェードアウト、フェードインからの処理を行う。   Also, if the subject information indicated by foaf: person shown in FIG. 7 is a subject that is memorable to the viewer, it zooms up only to the region of that subject, and then pans or fades out and fades in according to the inter-region spacing. Perform the process.

ただし、このステップS32において識別子RT−1、−2および−4のような映像効果をA−1およびA−2を自動的に付与するためには、表3で例示した変換テンプレートが用いられる。   However, the conversion templates exemplified in Table 3 are used in order to automatically give A-1 and A-2 video effects such as identifiers RT-1, -2, and -4 in step S32.

その後、先のステップS23に戻り、ステップS23−S32を繰り返し実行する。   Then, it returns to previous step S23 and repeats steps S23-S32.

ステップS31で“NO”なら、つまり、写真リスト欄38でn番目のその写真の全てのリージョンの処理が終わったなら、次のステップS33で、コンピュータ12は、n番目の写真を写真表示編集領域28からフェードアウトさせる。   If “NO” in the step S31, that is, if all the regions of the nth photo in the photo list column 38 have been processed, in the next step S33, the computer 12 displays the nth photo in the photo display editing area. Fade out from 28.

続いて、ステップS35において、コンピュータ12は、処理すべき写真の残りがなくなったかどうかを判断する。つまり、図9で示される写真リスト中の写真の数は予め判っているので、このステップS35では、ステップS15でインクリメントした結果がその枚数に等しくなったかどうか判断すればよい。   Subsequently, in step S35, the computer 12 determines whether there is no remaining photo to be processed. That is, since the number of photos in the photo list shown in FIG. 9 is known in advance, in this step S35, it may be determined whether or not the result incremented in step S15 is equal to the number.

写真が未だ残っていれば、次のステップS36において、コンピュータ12は、表1に示す識別子RT−3、RT−5、RT−6、RT−7およびRT−8で示される映像効果A−3やB−1およびB−5を付与する。   If the photograph still remains, in the next step S36, the computer 12 causes the video effect A-3 indicated by the identifiers RT-3, RT-5, RT-6, RT-7, and RT-8 shown in Table 1. Or B-1 and B-5.

具体的には、コンピュータ12は、メタ情報のうち、図7には図示していない、写真の色調のメタ情報を前述のExifの色空間情報から取得し、その色情報が、前の写真がモノクロで今回の写真がカラーのような色変化を示しているかどうか判断する。色変化情報があれば、コンピュータ12は、今回のカラー写真をまずモノクロ調に表示した後、徐々にカラー表示に遷移させていくという映像効果を付与する。   Specifically, the computer 12 acquires meta information of a color tone of a photograph (not shown in FIG. 7) from the above-described Exif color space information among the meta information, and the color information is obtained from the previous photo. Judge whether the current photo shows a color change such as color in monochrome. If there is the color change information, the computer 12 gives the video effect that the current color photograph is first displayed in monochrome and then gradually changed to color display.

また、コンピュータ12は、図7に示すメタ情報のうち、撮影日(date)のデータを取得し、前の写真と今回の写真との間の年代差を算出する。そして、その年代差が所定の閾値以上か以下か判別する。前の写真との間の年代差が閾値以下のときには、コンピュータ12は、前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる、という映像効果を付与する。前の写真との間の年代差が閾値以上のときには、コンピュータ12は、前の写真を中心の縦軸で回転させて、今回の写真に遷移する、という映像効果を付与する。   Further, the computer 12 acquires data of the shooting date (date) from the meta information shown in FIG. 7 and calculates the age difference between the previous photo and the current photo. Then, it is determined whether the age difference is greater than or equal to a predetermined threshold value. When the age difference from the previous photo is less than or equal to the threshold value, the computer 12 gives the video effect of fading in the next photo while fading out the previous photo and overlapping them. When the age difference from the previous photo is equal to or greater than the threshold, the computer 12 gives the video effect that the previous photo is rotated about the vertical axis at the center to transition to the current photo.

さらに、コンピュータ12は、図7に示すメタ情報のうち、撮影日や出来事(title)を参照して、シナリオが一貫しているかどうか、判断する。これは、たとえば、写真が年代順に取り込まれているか、とか同じ年代であれば季節の順序に従っているかなどを判断すればよい。そして、シナリオが一貫していると判断したときには、前の写真をフェードアウトしながら次の写真をフェードインし、それらをオーバーラップさせる、という映像効果を付与する。   Further, the computer 12 determines whether or not the scenario is consistent with reference to the shooting date and the event (title) in the meta information shown in FIG. For example, it may be determined whether the photos are taken in chronological order, or if they are of the same age, the order of the seasons is followed. When it is determined that the scenario is consistent, a video effect is applied in which the next photo is faded in while the previous photo is faded out, and they are overlapped.

さらに、上述のようにして算出した写真の年代差が所定の閾値以下ではあるが、かつシナリオの転換点であるような場合、たとえば、進学した、結婚した、子供が生まれた、などのような場合には、コンピュータ12は、前の写真を中心の縦軸で回転させて、今回の写真に遷移する、という映像効果を付与する。   In addition, when the age difference of the photograph calculated as described above is below a predetermined threshold and is a turning point of the scenario, for example, you have entered a school, married, a child was born, etc. In this case, the computer 12 gives the video effect that the previous photo is rotated about the vertical axis at the center to transition to the current photo.

ただし、このステップS36での映像効果を自動的に付与するためには、表3で例示した変換テンプレートが用いられる。   However, the conversion template exemplified in Table 3 is used to automatically give the video effect in step S36.

なお、先のステップS35で写真残数があると判断したときには、先のステップS15に戻り、ステップS15−S36を繰り返し実行する。ステップS35で“NO”なら、コンピュータ12はステップS37でBGMを停止し、終了する。   When it is determined in the previous step S35 that there is a remaining number of photos, the process returns to the previous step S15, and steps S15 to S36 are repeatedly executed. If “NO” in the step S35, the computer 12 stops the BGM in a step S37 and ends.

このようにして、ステップS6すなわち図15に従って、写真画像データをそれに関連するメタ情報を用いて編集しさらには映像効果付与することによって、一連のビデオコンテンツ(思い出ビデオ)が生成(レンダリング)される。そして、レンダリングが終了すると、レンダリング結果は、前述のRVMLの形式でコンピュータ12のハードディスクなどの内部メモリ14(図1)に保存する。そして、RVMLからFlashムービーなどに変換して、他の記憶媒体に格納することによって、他のパソコンなどで再生することもできる。つまり、一連のビデオコンテンツは何らかの記憶装置または記憶媒体に格納されて、痴呆症者の介護のために利用される。
[評価実験]
アノテーションオントロジとレンダリングテンプレートの妥当性を検証するために,表3で述べたレンダリングテンプレートに従って生成した思い出ビデオと、クリエータが制作したそれらとの印象の違いを評価する実験を実施した。印象評価の実験では、アンケート調査をベースとするため、健常者を被験者として実施した。以下にその評価実験の概要と結果を述べる。
In this way, a series of video content (recollection video) is generated (rendered) by editing the photographic image data using the meta-information related to the photographic image data and adding the video effect according to step S6, that is, FIG. . When the rendering is completed, the rendering result is stored in the internal memory 14 (FIG. 1) such as the hard disk of the computer 12 in the RVML format described above. Then, it can be played back on another personal computer or the like by converting the RVML into a Flash movie or the like and storing it in another storage medium. That is, a series of video contents is stored in some storage device or storage medium and used for the care of a person with dementia.
[Evaluation experiment]
In order to verify the validity of the annotation ontology and the rendering template, an experiment was conducted to evaluate the difference in impression between the memories video generated according to the rendering template described in Table 3 and those created by the creator. Since the impression evaluation experiment was based on a questionnaire survey, healthy subjects were used as subjects. The outline and results of the evaluation experiment are described below.

まず、一定の映像編集経験を有するクリエータ3名がそれぞれ15枚程度の写真の素材を用いて、5分程度の思い出ビデオを各自1編、それぞれのテーマで、Adobe社の映像編集ソフトウェアPremiere(商品名)を用いて作成した。   First, 3 creators who have a certain video editing experience, each using about 15 photo materials, and about 5 minutes of recollection video for each one, each theme, Adobe video editing software Premiere (product Name).

次に各クリエータは、実施例のオーサリングツールを用いて、前述の写真に対して写真の日付、タイトル、リージョンといったメタ情報を付与した。各クリエータには、オーサリングツールがケンバーンズ効果のようなレンダリング技法を使用することは事前に告知した。しかし、彼らが実際に付与したメタ情報に基づいてレンダリングされた映像は、アノテーション作業を終了するまで知ることができないようにした。これは、クリエータがレンダリング効果を想定してアノテーションすることを、できるだけ避けるためである。そして、そのようなアノテーションに基づいて、実施例にしたがって、映像効果付のスライドショー(思いでビデオ)を作成した。   Next, each creator gave meta information such as a photo date, title, and region to the above-described photo using the authoring tool of the embodiment. Each creator was informed in advance that the authoring tool would use a rendering technique such as the Cambridge effect. However, the video rendered based on the meta information that they actually gave is not known until the annotation work is completed. This is to prevent the creator from annotating the rendering effect as much as possible. Then, based on such annotations, a slide show with video effects (video with thought) was created according to the embodiment.

また、比較のために、思い出ビデオに使用した写真に映像効果を施さずに作成したスライドショーも用意した。   For comparison, we also prepared a slideshow that was created without applying video effects to the photos used for the memories video.

次に、これらコンテンツを被験者に提示してその印象を評価した。評価方法にはSD法(岩下豊彦:SD法によるイメージの測定。川島書店)で用いられるアンケート形式を採用した。具体的には、思い出ビデオの印象評価に適当と考えられる22個の形容詞(たとえば、好き、やぼったい、特色のある等)に対し、それと相対する形容詞(たとえば、好き←どちらでもない→嫌い)との間でどのような印象を得たか、11段階で評価させた。健常者21名の評価者に対し、なるべく順序効果を与えないよう考慮した手順でコンテンツを提示し、1コンテンツ視聴毎に評価させた。その結果をMANOVA(分散分析:Krzanowski, W. J.: Principles of Multivariate Analysis. Oxford University Press, 1988.)を用い、上記3種類のビデオコンテンツへの印象に有意差があるか分析した。   Next, these contents were presented to the subject and the impression was evaluated. As the evaluation method, the questionnaire format used in the SD method (Toyohiko Iwashita: Image measurement by the SD method. Kawashima Shoten) was adopted. Specifically, for 22 adjectives that are considered appropriate for impression evaluation of memories video (for example, like, hateful, featured, etc.) I was allowed to evaluate 11 levels of what impressions were obtained. The contents were presented to 21 healthy evaluators in a procedure that considered as little order effect as possible, and evaluated for each content viewing. The results were analyzed using MANOVA (Analysis of Variance: Krzanowski, W. J .: Principles of Multivariate Analysis. Oxford University Press, 1988.) to determine whether there was a significant difference in the impressions of the above three types of video content.

この印象評価の実験からは、実施例のオーサリングンツールで自動生成した思い出ビデオと、映像編集経験のあるクリエータが映像編集ソフトウェアを用いて制作したそれとは、被験者に対して変わりない印象を与えたことがわかった。
痴呆症者への思い出ビデオの効果の評価
また、実施例のオーサリングツールが自動生成した思い出ビデオが、実際の痴呆症者に与える効果を評価したが、その結果、実施例による思い出ビデオは、他のコンテンツに比較して痴呆症者をより集中させ、また楽しませている傾向が見られることを示している。
From this impression evaluation experiment, the memory video automatically generated by the authoring tool of the example and that produced by video editing software by creators with video editing experience gave the same impression to the subjects. I understood it.
Evaluation of the effect of the memory video for people with dementia The effect of the memory video automatically generated by the authoring tool of the example on the actual person with dementia was evaluated. It shows that people with dementia tend to be more concentrated and entertained compared to the content.

この発明の一実施例のビデオコンテンツ作成装置を示すブロック図である。It is a block diagram which shows the video content production apparatus of one Example of this invention. 図1実施例の全体動作を示すフロー図である。It is a flowchart which shows the whole operation | movement of FIG. 1 Example. 図1実施例のGUIの一例を示す図解図である。It is an illustration figure which shows an example of GUI of FIG. 1 Example. 図2のステップS1で利用する写真入力およびメタ情報登録時のGUIの表示の一例を示す図解図である。FIG. 3 is an illustrative view showing one example of GUI display at the time of photo input and meta information registration used in step S1 of FIG. 2; 図4においてリージョンの切り出しを示す図解図である。FIG. 5 is an illustrative view showing segmentation in FIG. 4. 図5のリージョンのメタ情報を示す図解図である。It is an illustration figure which shows the meta information of the region of FIG. 写真とメタ情報との関連を例示する図解図である。It is an illustration figure which illustrates the relationship between a photograph and meta information. 図2のステップS3での写真の選択および再生順設定動作時のGUIの一例を示す図解図である。FIG. 5 is an illustrative view showing one example of a GUI during a photo selection and playback order setting operation in step S3 of FIG. 2; 図8のGUIにおける再生順設定領域を示す図解図である。FIG. 9 is an illustrative view showing a reproduction order setting area in the GUI of FIG. 8. 図2のステップS4でのプレイリスト作成時のGUIの一部を示す図解図である。FIG. 3 is an illustrative view showing a part of GUI at the time of creating a playlist in step S4 of FIG. 2; 図11のGUIに形成される新規プレイリスト登録欄を示す図解図である。It is an illustration figure which shows the new play list registration column formed in GUI of FIG. 図8のGUIに形成されるプレイリストの一部の一部を示す図解図である。It is an illustration figure which shows a part of play list formed in GUI of FIG. プレイリスト登録に用いる楽曲一覧の一例を示す図解図である。It is an illustration figure which shows an example of the music list used for play list registration. 登録済みプレイリストの一例を示す図解図である。It is an illustration figure which shows an example of the registered play list. 図2のステップS6での思い出ビデオ生成動作を詳細に示すフロー図である。It is a flowchart which shows in detail the memory | video video generation operation | movement in FIG.2 S6.

符号の説明Explanation of symbols

10 …ビデオコンテンツ作成装置
12 …コンピュータ
14 …内部メモリ
16 …モニタ
20 …写真データ入力装置
22 …データベース
26 …GUI
28 …写真表示編集領域
30 …サムネイル表示領域
32,34 …メタ情報入力領域
36 …再生順設定領域
38 …写真リスト欄
42 …生成ボタン
60 …プレイリスト
DESCRIPTION OF SYMBOLS 10 ... Video content creation apparatus 12 ... Computer 14 ... Internal memory 16 ... Monitor 20 ... Photo data input device 22 ... Database 26 ... GUI
28 ... Photo display edit area 30 ... Thumbnail display area 32, 34 ... Meta information input area 36 ... Playback order setting area 38 ... Photo list field 42 ... Generate button 60 ... Play list

Claims (8)

写真画像データを入力する写真データ入力手段、
前記写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、
前記写真画像データを関連する前記メタ情報とともに格納する記憶手段、
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索手段、および
前記検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、
前記生成手段は前記メタ情報に基づいて映像効果を適用する映像効果適用手段を含み、
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、
前記映像効果適用手段は前記リージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成装置。
Photo data input means for inputting photo image data,
Meta information giving means for giving meta information in relation to the photographic image data;
Storage means for storing the photographic image data together with the related meta information;
Search means for searching photographic image data from the storage means using the meta information, and generating means for generating a series of video contents by editing the photographic image data searched by the search means according to meta information,
It said generating means viewed contains a video effect applying means for applying a video effect based on the meta information,
The meta information includes inter-region interval information of a region set in one photo image data,
The video content creation device, wherein the video effect applying unit applies different video effects according to the inter-region interval information .
前記メタ情報は各写真画像データ中に設定されている写真情報を含み、
前記映像効果適用手段は前記写真情報に応じて映像効果を適用する、請求項1記載のビデオコンテンツ作成装置。
The meta information includes photo information set in each photo image data,
The video content creation apparatus according to claim 1, wherein the video effect applying unit applies a video effect according to the photographic information.
前記写真情報は日付情報を含み、
前記映像効果適用手段は前記日付情報による各写真間の年代差に応じて異なる映像効果を適用する、請求項記載のビデオコンテンツ作成装置。
The photo information includes date information,
3. The video content creation apparatus according to claim 2 , wherein the video effect applying unit applies different video effects according to the age difference between the photos based on the date information.
前記写真情報は人物情報を含み、
前記映像効果適用手段は前記人物情報に従って映像効果を適用する、請求項2または3記載のビデオコンテンツ作成装置。
The photo information includes person information,
4. The video content creation apparatus according to claim 2 , wherein the video effect applying unit applies the video effect according to the person information.
前記写真情報は色調情報を含み、
前記映像効果適用手段は前記色調情報に従って映像効果を適用する、請求項2ないし4のいずれかに記載のビデオコンテンツ作成装置。
The photographic information includes color tone information,
5. The video content creation device according to claim 2 , wherein the video effect applying unit applies a video effect according to the color tone information.
ビデオコンテンツ作成装置のコンピュータに、
写真画像データを入力する写真データ入力ステップ、
前記写真画像データに関連してメタ情報を付与するためのメタ情報付与ステップ、
前記写真画像データを関連する前記メタ情報とともに格納する記憶ステップ、
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索ステップ、および
前記検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成ステップを実行させ、そして
前記生成ステップにおいては前記メタ情報に基づいて映像効果を適用する映像効果適用ステップを実行させ、
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン間間隔情報を含み、
前記映像効果適用ステップでは前記リージョン間間隔情報に応じて異なる映像効果を適用する、ビデオコンテンツ作成プログラム。
In the computer of the video content creation device,
Photo data input step for inputting photo image data,
Meta information giving step for giving meta information in relation to the photographic image data,
Storing the photographic image data together with the associated meta information;
A search step of searching for photographic image data from the storage means using the meta information, and a generation step of generating a series of video content by editing the photographic image data searched by the search means according to the meta information, In the generating step, a video effect applying step for applying a video effect based on the meta information is executed ,
The meta information includes inter-region interval information of a region set in one photo image data,
A video content creation program that applies different video effects according to the inter-region interval information in the video effect applying step .
写真画像データを関連するメタ情報とともに格納する記憶手段、Storage means for storing photographic image data together with related meta information;
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索手段、およびSearch means for searching photographic image data from the storage means using the meta information; and
前記検索手段によって検索した写真画像データに従ってサムネイル画像を表示するサムネイル画像表示領域および写真リスト欄を有する再生順序設定領域を含むGUI画面を表示する表示手段を備え、Display means for displaying a GUI screen including a thumbnail image display area for displaying thumbnail images according to the photo image data searched by the search means and a playback order setting area having a photo list field;
前記サムネイル画像表示領域で表示しているサムネイル画像を前記写真リスト欄にドラッグアンドドロップすることによって、前記検索した写真データのうち実際に使用する複数の写真を選択し、By dragging and dropping the thumbnail image displayed in the thumbnail image display area to the photo list field, a plurality of photos to be actually used are selected from the searched photo data,
前記写真リスト欄におけるリスト搭載順を変更することによって前記複数の再生順序を変更できるようにし、The plurality of playback orders can be changed by changing the list loading order in the photo list column,
前記写真リスト欄に搭載している写真の写真画像データとそれに関連するメタ情報とを前記記憶手段から読み出す読出し手段、およびReading means for reading out the photographic image data of the photo mounted in the photo list column and the meta information related thereto from the storage means, and
前記読出し手段が読み出した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、Generating means for generating a series of video contents by editing the photographic image data read by the reading means according to meta information;
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、前記生成手段は前記リージョン情報に従って当該リージョンの画像を所定位置に位置合わせする位置合わせ手段を含み、さらにThe meta information includes region information of a region set in one photographic image data, and the generation unit includes an alignment unit that aligns an image of the region at a predetermined position according to the region information.
前記生成手段は前記リージョン情報に基づいて映像効果を適用する映像効果適用手段を含む、ビデオコンテンツ作成装置。The video content creating apparatus, wherein the generating means includes video effect applying means for applying a video effect based on the region information.
写真画像データを入力する写真データ入力手段、Photo data input means for inputting photo image data,
前記写真画像データに関連してメタ情報を付与するためのメタ情報付与手段、Meta information giving means for giving meta information in relation to the photographic image data;
前記写真画像データを関連する前記メタ情報とともに格納する記憶手段、Storage means for storing the photographic image data together with the related meta information;
前記メタ情報を用いて前記記憶手段から写真画像データを検索する検索手段、および  Search means for searching photographic image data from the storage means using the meta information; and
前記検索手段によって検索した写真画像データをメタ情報に従って編集することによって一連のビデオコンテンツを生成する生成手段を備え、Generating means for generating a series of video content by editing photographic image data searched by the search means according to meta information;
前記生成手段は前記メタ情報に基づいて映像効果を適用する映像効果適用手段を含み、The generating means includes video effect applying means for applying a video effect based on the meta information,
前記メタ情報は1つの写真画像データ中に設定されているリージョンのリージョン情報を含み、The meta information includes region information of a region set in one photo image data,
前記映像効果適用手段は前記リージョン情報に応じて映像効果を適用する、ビデオコンテンツ作成装置。The video content creation device, wherein the video effect applying means applies a video effect according to the region information.
JP2005099604A 2004-11-01 2005-03-30 Video content creation device and video content creation program Expired - Fee Related JP4219906B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2005099604A JP4219906B2 (en) 2005-03-30 2005-03-30 Video content creation device and video content creation program
US11/260,444 US7694213B2 (en) 2004-11-01 2005-10-27 Video content creating apparatus
GB0522104A GB2419768B (en) 2004-11-01 2005-10-28 Video content creating apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005099604A JP4219906B2 (en) 2005-03-30 2005-03-30 Video content creation device and video content creation program

Publications (2)

Publication Number Publication Date
JP2006279861A JP2006279861A (en) 2006-10-12
JP4219906B2 true JP4219906B2 (en) 2009-02-04

Family

ID=37214071

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005099604A Expired - Fee Related JP4219906B2 (en) 2004-11-01 2005-03-30 Video content creation device and video content creation program

Country Status (1)

Country Link
JP (1) JP4219906B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4976837B2 (en) * 2006-12-19 2012-07-18 ローランド株式会社 Video creation device

Also Published As

Publication number Publication date
JP2006279861A (en) 2006-10-12

Similar Documents

Publication Publication Date Title
US7694213B2 (en) Video content creating apparatus
US9570107B2 (en) System and method for semi-automatic video editing
JP4424389B2 (en) Movie creation device, movie creation method, and program
US8201073B2 (en) System and method for automating the creation of customized multimedia content
US9554111B2 (en) System and method for semi-automatic video editing
US8966369B2 (en) High quality semi-automatic production of customized rich media video clips
US8977958B2 (en) Community-based software application help system
US20090132920A1 (en) Community-based software application help system
JP2004032763A (en) System and method for automatically authoring video composition by using video cliplet
KR101406332B1 (en) Recording-and-reproducing apparatus and recording-and-reproducing method
Hardman et al. Canonical processes of semantically annotated media production
Cesar et al. Fragment, tag, enrich, and send: Enhancing social sharing of video
US8406610B2 (en) Systems and methods of editing media data
JP4343027B2 (en) Slideshow creation apparatus and method, and program
Otto et al. Camera, Intervention and Cultural Critique: An Introduction
US7610554B2 (en) Template-based multimedia capturing
JP4043472B2 (en) Video content creation device
JP4446124B2 (en) How to create video content
JP4219906B2 (en) Video content creation device and video content creation program
JP4291294B2 (en) Video content creation device and video content creation program
JP2006157197A (en) Photo movie generating apparatus and program
WO2019041303A1 (en) Client album management system based on cloud computing technology, and interaction method thereof
JP4323172B2 (en) Information editing system, information editing apparatus, and information editing program
WO2013014754A1 (en) Image display apparatus, method for displaying images, and image display program
JP2022176567A (en) Reproduction information generation device, moving image editing device and moving image editing program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080313

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080318

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081112

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111121

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121121

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131121

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees