JP2005122276A - Content-constituting method, content-generating device, and program - Google Patents
Content-constituting method, content-generating device, and program Download PDFInfo
- Publication number
- JP2005122276A JP2005122276A JP2003353755A JP2003353755A JP2005122276A JP 2005122276 A JP2005122276 A JP 2005122276A JP 2003353755 A JP2003353755 A JP 2003353755A JP 2003353755 A JP2003353755 A JP 2003353755A JP 2005122276 A JP2005122276 A JP 2005122276A
- Authority
- JP
- Japan
- Prior art keywords
- content
- needs
- viewer
- action
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 91
- 239000000463 material Substances 0.000 claims abstract description 80
- 230000035945 sensitivity Effects 0.000 claims abstract description 22
- 239000000470 constituent Substances 0.000 claims abstract description 20
- 230000015654 memory Effects 0.000 claims abstract description 17
- 238000009826 distribution Methods 0.000 claims description 30
- 239000000203 mixture Substances 0.000 claims description 23
- 238000012545 processing Methods 0.000 claims description 8
- 238000001514 detection method Methods 0.000 claims description 5
- 238000009877 rendering Methods 0.000 claims description 4
- 238000003780 insertion Methods 0.000 claims description 3
- 230000037431 insertion Effects 0.000 claims description 3
- 230000004044 response Effects 0.000 claims 1
- 238000003860 storage Methods 0.000 description 25
- 230000000694 effects Effects 0.000 description 24
- 238000010586 diagram Methods 0.000 description 18
- 239000000284 extract Substances 0.000 description 9
- 238000011068 loading method Methods 0.000 description 9
- 238000002474 experimental method Methods 0.000 description 7
- 238000011156 evaluation Methods 0.000 description 5
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000000556 factor analysis Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 230000010355 oscillation Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000036760 body temperature Effects 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000001125 extrusion Methods 0.000 description 1
- 238000012966 insertion method Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000002994 raw material Substances 0.000 description 1
- 238000011069 regeneration method Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Television Signal Processing For Recording (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
Description
テレビ、映画、Webページなどのコンテンツを、視聴者や配信者の感性を反映させて構成することが可能なコンテンツ構成方法、コンテンツ作成装置、およびプログラムに関する。 The present invention relates to a content configuration method, a content creation apparatus, and a program that can configure content such as a television, a movie, and a Web page by reflecting the sensitivity of viewers and distributors.
今日、私達は、テレビ、ラジオ、新聞、雑誌、映画、音楽、Webページなど、多種多様なメデイアに囲まれて生活している。そして、それらメデイアのコンテンツは、メデイア固有の特性やコンセプトを熟知した製作者や編集者がそれまでに蓄積した知見や経験、あるいは勘などに基づいて製作されている。コンテンツの配信者は、コンセプトが決定すると、製作者や編集者によってそれまでに製作された作品内容が分析され、そのコンセプトを実現するのにふさわしい、定評のある製作者や編集者が選出され、選出された製作者や編集者に依頼されるのが一般的である。 Today, we live in a wide variety of media, including television, radio, newspapers, magazines, movies, music, and web pages. These media contents are produced based on knowledge, experience, or intuition accumulated by producers and editors who are familiar with the characteristics and concepts unique to media. Once the concept has been determined, the content distributor will analyze the contents of the work that has been produced so far by the producer or editor, and select a well-established producer or editor suitable for realizing the concept. It is common to be asked to a selected producer or editor.
しかしながら、定評のある製作者や編集者は人数が限られていることやスケジュール調整が難しいという課題がある。また、生活必需品化しつつあるパーソナルコンピュータとのマンマシンインタフェースを人にやさしい状態にして人間中心の情報環境を形成するためには、従来の知見や経験、あるいは勘などによる方法のみに依存していてはコスト負担が大き過ぎる上、益々増大するニーズに供給が追いつかない状態が想定される。 However, there are problems that the number of established producers and editors is limited and it is difficult to adjust the schedule. In addition, in order to create a human-centered information environment with a human-friendly man-machine interface with personal computers that are becoming daily necessities, it depends only on methods based on conventional knowledge, experience, and intuition. It is assumed that the cost burden is too great and the supply cannot keep up with the increasing needs.
そこで、一般人による映像表現を支援するため、予め用意された映像オブジェクトを、マウスやキーボードを用いてインタラクティブに加工し、映像を生成するシステムや、アーチィストにより表現された映像生成プログラムのパラメータと、脳波、体温、脈拍などの生体情報とを対応付け、映像の作成技術やセンスを問われることなく、アーチィスティックで質の高い映像が簡単に生成できるようにしたものがある。 Therefore, in order to support video expression by the general public, video objects prepared in advance are processed interactively using a mouse or keyboard to generate a video, parameters of a video generation program expressed by an artist, and an electroencephalogram. In addition, there is one that associates biometric information such as body temperature and pulse rate, and can easily generate a high-quality video with an archistic, regardless of the creation technique and sense of the video.
さらに、映像生成プログラムのパラメータに複数人の生体情報を対応つけ、絶えず変化し続ける動画的な映像生成を可能にしたものもある(特許文献1参照)。 Furthermore, there is a video image generation program that associates biometric information of a plurality of persons with the ability to generate video images that are constantly changing (see Patent Document 1).
また、予め決められた制御構造や既存のコンテンツの制御構造に、動画、静止画または音声を貼り付けることにより、多種多様な新規のコンテンツが作成できるようにしたものがある(特許文献2参照)。 In addition, there is one in which a variety of new contents can be created by pasting a moving image, a still image, or sound into a predetermined control structure or an existing content control structure (see Patent Document 2). .
また、ウインドウに表示される静止画像の仮想空間に臨場感を与えるため、時代、季節、天候などの客観条件、およびさびしい、強い、怒りなどの主観条件双方が指定されたときに静止画像上に表示されたアイコンの移動場所にマッチした効果音が聞こえるようにしたものがある(特許文献3参照)。 In addition, in order to give a sense of reality to the virtual space of still images displayed in the window, when both objective conditions such as era, season, and weather and subjective conditions such as lonely, strong, and anger are specified, they are displayed on the still image. There is one in which a sound effect that matches the moving location of the displayed icon can be heard (see Patent Document 3).
一方、映像以外の文字情報の分野においては、多数の文書の中からユーザが欲するファイルを抽出する方法に関し、因子分析により得られた少ない次元の因子座標上の座標値を付してそれぞれの文書ファイルをデータベースに格納し、ユーザの多種多様な感性評価語の中から特定の形容詞が入力されたときに、その形容詞とユークリッド距離が最小となるファイルを抽出して所望の情報が取り出せるようにしたものがある(特許文献4参照)。 On the other hand, in the field of character information other than video, regarding the method of extracting the file that the user wants from a large number of documents, each document is attached with coordinate values on the factor coordinates of a small number of dimensions obtained by factor analysis. The file is stored in the database, and when a specific adjective is input from a variety of user's sensitivity evaluation words, the file with the smallest distance between the adjective and the Euclidean distance can be extracted to retrieve the desired information. There is a thing (refer patent document 4).
また、ワードプロセッサやデスクトップパブリッシングなどの文書作成装置を用いて文書作成する際に、体裁を整えて仕上げを行うためのレイアウト編集が重要になる一方、使用者の優れた感性と熟練が要求され、相当な作業時間が必要となることから、レイアウト編集の雛形となる複数の文書テンプレートをデータベースに格納しておき、予めレベルが設定された複数の印象語によりそのデータベースから所定のテンプレートを選び出せるようにしたものがある(特許文献5参照)。
しかしながら、映像を含むマルチメディアの分野において、人間の感性をニーズとして捉えるとともに、製作者や編集者などの経験や勘などに依存せず、特定の意図をもって動きのあるコンテンツを作成したい場合には、上述した技術をそのまま適用するのは困難である。一方、著名な製作者や編集者に作成を依頼する場合にはコスト負担が大きい上、製作時間が相当程度かかるという課題がある。 However, in the field of multimedia including video, if you want to create human moving sensibility as a need and create content with specific intentions, without depending on the experience or intuition of the producer or editor, etc. It is difficult to apply the above-described technique as it is. On the other hand, when a famous producer or editor is requested to create, there is a problem that the cost burden is large and the production time is considerably long.
本発明は、上記の事情に鑑み、人の感性にマッチしたコンテンツの作成をある程度自動化することにより、従来の文字主体の動きのないコンテンツによる情報伝達から、映像主体の動きのあるコンテンツによる情報伝達への変革を促し、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できるコンテンツ構成方法、コンテンツ作成装置、およびプログラムを提供することを目的とする。 In view of the above circumstances, the present invention automates the creation of content that matches human sensibility to some extent, thereby transferring information from content that does not have character-based motion to content that has motion based on video. Content composition method, content creation device, which can easily create sensibility-based content that can be easily enjoyed by viewers with low information literacy, and can enjoy “while watching” like television And to provide a program.
上記の目的を達成する請求項1記載のコンテンツ構成方法は、視聴者の感性情報を複数の形容詞で表現し、表現された該形容詞との相関関係に基づいて所定のオブジェクトを抽出し、視聴者に合わせたコンテンツを構成することを特徴とする。 The content composition method according to claim 1, which achieves the above object, expresses viewer's sensibility information with a plurality of adjectives, extracts a predetermined object based on a correlation with the expressed adjectives, and It is characterized in that the contents are tailored to each other.
このように、複数の形容詞で表現された視聴者の感性情報によりオブジェクトを抽出するので視聴者の感性を主体とするコンテンツが容易に作成される。 As described above, since the object is extracted based on the viewer's sensitivity information expressed by a plurality of adjectives, the content mainly based on the viewer's sensitivity is easily created.
上記の目的を達成する請求項2記載のコンテンツ構成方法は、コンテンツの配信者の配信ニーズを複数の形容詞で表現し、表現された該形容詞との相関関係に基づいて所定のオブジェクトを抽出し、該配信ニーズに合わせたコンテンツを構成することを特徴とする。 The content configuration method according to claim 2, which achieves the above object, expresses the delivery needs of a content distributor with a plurality of adjectives, extracts a predetermined object based on a correlation with the expressed adjectives, The content according to the delivery needs is configured.
このように、複数の形容詞で表現された配信ニーズによりオブジェクトを抽出するので配信者の感性を主体とするコンテンツが容易に作成される。 Thus, since an object is extracted according to the delivery needs expressed by a plurality of adjectives, content mainly based on the sensibility of the distributor can be easily created.
上記の目的を達成する請求項8記載のコンテンツ構成方法は、Webページに表示されたオリジナルコンテンツを再構成する方法であって、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、上記Webページを視聴する視聴状況に基づいて視聴者ニーズが取得されるニーズ取得手段とを備え、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
上記オリジナルコンテンツの構成要素に、上記データベースに格納された上記データを上記視聴者ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とする。
The content composition method according to claim 8, which achieves the above object, is a method for reconstructing original content displayed on a Web page,
Viewer needs are acquired based on a database storing data representing actions of each component of content including telop, image, sound, and background music, and viewing status of viewing the Web page. Needs acquisition means,
Enter the data that represents the telop, still image, and read-out voice used for the original content,
The data including the action is configured by attaching the data stored in the database to the constituent elements of the original content according to the viewer needs.
このように、Webページに表示されたオリジナルコンテンツの構成要素を、視聴者ニーズに応じてアクションが表現されるデータをくくりつけることにより、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できる。 In this way, by combining the elements of the original content displayed on the Web page with data that expresses the action according to the viewer's needs, it is possible to enjoy “watching” like a television and to reduce information. Easily create sensitive content that can be easily accepted by literacy viewers.
上記の目的を達成する請求項9記載のコンテンツ構成方法は、Webページに表示されたオリジナルコンテンツを再構成する方法であって、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、上記Webページを配信する配信者の配信ニーズが取得されるニーズ取得手段とを備え、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
上記オリジナルコンテンツの構成要素に、上記データベースに格納された上記データを上記配信ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とする。
The content composition method according to claim 9, which achieves the above object, is a method for reconstructing original content displayed on a web page,
A database storing data representing actions of each component of content including telop, image, sound, background music, and needs acquisition means for acquiring distribution needs of a distributor who distributes the Web page And
Enter the data that represents the telop, still image, and read-out voice used for the original content,
The data including the action is configured by attaching the data stored in the database to the constituent elements of the original content according to the distribution needs.
このように、Webページに表示されたオリジナルコンテンツの構成要素を、配信ニーズに応じてアクションが表現されるデータをくくりつけることにより、テレビジョンのように「ながら見」が楽しめる、感性主体のコンテンツを容易に作成できる。
上記の目的を達成する請求項10記載のコンテンツ構成方法は、画面に所定のコンテンツを表示させるコンテンツ構成方法であって、
静止画、動画、音声、音楽を含む、コンテンツの素材を表現するデータ、および画像の切り替え、画像の演出、テロップの挿入、音の演出、およびバック・グラウンド・ミュージックを含む、該素材のアクションを表現するデータ双方が格納されたデータベースと、コンテンツの視聴状況を収集し、視聴者ニーズを検出するニーズ検出手段とを備え、
上記ニーズ検出手段により検出された視聴者ニーズに応じて上記データベースに格納された上記素材を表現するデータ及び上記アクションを表現するデータの組み合わせを行い、アクションを含むコンテンツを構成することを特徴とする。
In this way, the content of the original content displayed on the Web page can be enjoyed while watching like a television, by combining the data expressing the action according to the distribution needs. Can be easily created.
The content configuration method according to
Data representing content material, including still images, video, audio, music, and actions of the material, including image switching, image rendering, telop insertion, sound rendering, and background music A database in which both data to be expressed are stored, and a need detection unit that collects the viewing status of content and detects viewer needs,
In accordance with the viewer needs detected by the needs detection means, the data representing the material stored in the database and the data representing the action are combined to constitute content including the action. .
このように、データベースに格納された静止画、動画、音声、音楽などの素材を表現するデータと画像の切り替え、テロップの挿入、音の演出などのアクションを表現するデータを視聴者ニーズに応じて組み合わせるので、感性を主体とする動きのあるコンテンツを容易に作成できる。 In this way, data that expresses actions such as data and image switching, telop insertion, sound production, etc. that represent materials such as still images, moving images, audio, and music stored in the database, according to viewer needs Since they are combined, it is possible to easily create content that moves mainly based on sensitivity.
上記の目的を達成する請求項14記載のコンテンツ作成装置は、アクションを含むコンテンツを作成するコンテンツ作成装置であって、
上記コンテンツの視聴者の感性情報を取得する感性情報取得手段と、
上記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
上記感性情報により、上記メモリに記憶された上記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とする。
The content creation device according to claim 14, which achieves the above object, is a content creation device that creates content including an action,
Kansei information acquisition means for acquiring Kansei information of viewers of the content,
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
Content creation means for configuring predetermined content including an action by combining the material stored in the memory and data representing the action based on the sensitivity information is provided.
このように感性により分類され、素材やアクションが表現されるデータがメモリに記憶されていて、コンテンツ作成手段がそれらのデータを感性情報取得手段で取得された視聴者の感性情報により組み合わせてコンテンツを構成するので、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できる。 In this way, data classified according to sensibilities and representing materials and actions is stored in the memory, and the content creation means combines the data with the viewer's sensibility information acquired by the sensibility information acquisition means, and the contents are combined. Since it is configured, it is possible to easily create content based on sensibility that can be enjoyed while watching like a television and can be easily accepted by viewers with low information literacy.
上記の目的を達成する請求項15記載のコンテンツ構成方法は、アクションを含むコンテンツを作成するコンテンツ作成装置であって、
上記コンテンツを配信する配信者の配信ニーズを取得する配信ニーズ取得手段と、
上記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
上記配信ニーズにより、上記メモリに記憶された上記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とする。
The content configuration method according to claim 15, which achieves the above object, is a content creation device for creating content including an action,
A distribution needs acquisition means for acquiring distribution needs of a distributor who distributes the content;
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
According to the above distribution needs, the content creation means for configuring the predetermined content including the action by combining the material stored in the memory and the data expressing the action is provided.
このように感性により分類され、素材やアクションが表現されるデータがメモリに記憶されていて、コンテンツ作成手段がそれらのデータを配信ニーズ取得手段で取得された視配信ニーズにより組み合わせてコンテンツを構成するので、テレビジョンのように「ながら見」が楽しめる、感性主体のコンテンツを容易に作成できる。 In this way, data classified according to sensibilities and representing materials and actions are stored in the memory, and the content creation means combines the data according to the visual distribution needs acquired by the distribution needs acquisition means to constitute the content. Therefore, it is possible to easily create sensibility-based content that can be enjoyed while watching as with a television.
上記の目的を達成する請求項16記載のコンテンツ構成方法は、コンピュータに表示されたWebページのオリジナルコンテンツを再構成するプログラムであって、
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
上記Webページを視聴する視聴状況を収集し、収集された該視聴状況に基づいて視聴者ニーズを検出するステップと、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
上記データベースから、検出された上記視聴者ニーズに応じた上記データを抽出し、上記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とする。
The content composition method according to claim 16, which achieves the above object, is a program for reconstructing original content of a Web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Collecting viewing status for viewing the web page and detecting viewer needs based on the collected viewing status;
Processing the input data in which the telop, still image, and reading sound used for the original content are expressed;
Extracting the data corresponding to the detected viewer needs from the database, causing the constituent elements of the original content to execute the step of attaching the extracted data, and including the action on the original content It is characterized by reconstructing content.
このように、Webページのオリジナルコンテンツにテロップや静止画、読み上げ音声などを貼り付けたり、オリジナルコンテンツの構成要素に、視聴状況から検出された視聴者ニーズに応じて、データベースから抽出したアクション用のデータをくくりつけて再構成するジョブを実行させるので、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できるプログラムが得られる。 In this way, pasting telops, still images, read-out audio, etc. to the original content of the Web page, or the action content extracted from the database according to the viewer needs detected from the viewing status in the constituent elements of the original content Jobs that combine and reconstruct data can be executed, making it possible to easily create sensibility-based content that can be enjoyed while watching like a television and easily accepted by viewers with low information literacy. A program is obtained.
上記の目的を達成する請求項17記載のコンテンツ構成方法は、コンピュータに表示されたWebページのオリジナルコンテンツを再構成するプログラであって、
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
上記Webページを配信する配信者の配信ニーズを取得するステップと、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
上記データベースから、取得された上記配信ニーズに応じた上記データを抽出し、上記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とする。
The content composition method according to claim 17, which achieves the above object, is a program for reconstructing the original content of a Web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Acquiring distribution needs of a distributor who distributes the Web page;
Processing the input data in which the telop, still image, and reading sound used for the original content are expressed;
Content that includes the action, extracting the data according to the acquired delivery needs from the database, and causing the constituent elements of the original content to execute the step of attaching the extracted data. It is characterized by reconfiguring.
このように、Webページのオリジナルコンテンツにテロップや静止画、読み上げ音声などを貼り付けたり、オリジナルコンテンツの構成要素に、配信ニーズに応じて、データベースから抽出したアクション用のデータをくくりつけて再構成するジョブを実行させるので、テレビジョンのように「ながら見」が楽しめる、感性主体のコンテンツを容易に作成できるプログラムが得られる。 In this way, pasting telops, still images, read-out audio, etc. on the original content of a Web page, or reorganizing the original content by combining action data extracted from the database according to distribution needs This makes it possible to create a program that can easily create sensibility-based content that can be enjoyed while watching like a television.
本発明のコンテンツ構成方法、コンテンツ作成装置、およびプログラムによれば、人の感性にマッチした、動きのあるコンテンツの作成がある程度自動化されるので、映像主体で、アクションが含まれるコンテンツの提供が容易になり、テレビジョンのように「ながら見」が楽しめる上、老若男女を問わず容易に受容されるコンテンツを提供することが可能になる。 According to the content configuration method, the content creation device, and the program of the present invention, creation of moving content that matches human sensibility is automated to some extent, so it is easy to provide content that is mainly video and includes action. In addition to being able to enjoy “watching” like a television, it becomes possible to provide content that can be easily accepted regardless of age or sex.
以下に、本発明のコンテンツ構成方法、コンテンツ作成装置、およびプログラムの実施形態について説明する。
(第1の実施形態)
第1の実施形態は、インターネットのプロバイダなどが、オリジナルコンテンツ(例えばWebページ)をもとに、コンテンツ視聴者のニーズやコンテンツ配信者のニーズを取得し、それらのニーズに応じてオリジナルコンテンツにアクションを加えて再構成する場合を例にして説明する。
Hereinafter, embodiments of the content configuration method, the content creation device, and the program of the present invention will be described.
(First embodiment)
In the first embodiment, an Internet provider or the like acquires the needs of content viewers and the needs of content distributors based on original content (for example, Web pages), and takes action on the original content according to those needs. An example of reconfiguration with the above will be described.
図1は、本発明のコンテンツ作成装置の第1の実施形態を示す概略構成図である。 FIG. 1 is a schematic configuration diagram showing a first embodiment of a content creation apparatus of the present invention.
図1に示す第1の実施形態のコンテンツ作成装置には、本発明のコンテンツ構成方法が用いられ、本発明のプログラムがインストールされている。本実施形態のコンテンツ作成装置は、インターネットプロバイダのサーバから所定のWebページに関する情報を取得する情報取得部10と、情報取得部10により取得された情報に基づいて視聴者ニーズとコンテンツの素材を抽出し、その素材にアクションを付加してオリジナルコンテンツを再構成するコンテンツ作成部20とを備えている。
The content creating method of the first embodiment shown in FIG. 1 uses the content composition method of the present invention, and the program of the present invention is installed. The content creation apparatus according to the present embodiment extracts an
情報取得部10は、さらに、Webページに表示されるオリジナルコンテンツを取得するオリジナルコンテンツ取得部11と、Webページにアクセスする視聴者の視聴状況に関する情報を取得する視聴状況取得部12とを有する。
The
コンテンツ作成部20は、視聴状況に関する情報から視聴者ニーズを検出する視聴者ニーズ取得部22と、オリジナルコンテンツを構成要素毎に分解し、検出した視聴者ニーズに基づいて必要な構成要素を抽出して情報格納部に一時格納するコンテンツ分解部21と、コンテンツの構成要素となる素材が表現されるデータや、予め感性により分類された、アクションが表現されるデータを格納する情報格納部25と、視聴者ニーズにマッチしたアクション表現用データを抽出し、情報格納部25に一時格納された構成要素にそのアクション表現用データをリンクさせ、オリジナルコンテンツに動きのある演出効果を加えて取得したオリジナルコンテンツを再構成するコンテンツ再生部30とを有する。
The
ここで、本実施形態では、分解され、抽出された素材用データにアクション表現用データをリンクさせてくくりつけ、再構成することにしているが、これに限定する必要はなく、例えば所定の言語を用いたプログラム処理により再構成してもよい。 Here, in this embodiment, the action expression data is linked to the decomposed and extracted material data, and is reconstructed. However, the present invention is not limited to this, and for example, a predetermined language is used. You may reconfigure | reconstruct by the program processing using.
今、オリジナルコンテンツ取得部11にオリジナルコンテンツが入力されると、そのオリジナルコンテンツ11は、コンテンツ分解部21により素材(オブジェクト)O1、O2、…Onに分解される。
Now, when the original content is input to the original
一方、オリジナルコンテンツの入力により視聴状況取得部12には視聴状況が取得され、取得された視聴状況は、視聴者ニーズ取得部22において視聴状況空間に写像され、さらに視聴ニーズ空間に写像されて、形容詞で表現された視聴者ニーズが把握される。
On the other hand, the viewing status is acquired in the viewing
ここで、視聴状況を継続して取得することにより、時々刻々変化する視聴者ニーズを把握することができる。 Here, by continuously acquiring the viewing status, it is possible to grasp viewer needs that change from moment to moment.
一般に、ユーザがコンテンツを視聴する場合には、n個の視聴属性(視聴場所、視聴時間帯、視聴に用いられる端末、視聴者の年齢、性別など)が存在する。これらの視聴属性情報の中から、視聴属性情報をm個(m>n)選択して、本実施形態で用いる視聴属性を取得することができる。例えば、視聴場所、視聴に用いられる端末の種類、視聴時間帯を選択し、それぞれの条件を離散軸上にプロットする。なお、視聴時間帯のように連続値を有するものは、例えば、6:00〜10:00は「朝」、23:00〜3:00は、「深夜」などの離散的な値に変換することにより同一空間内に配置することができる。 Generally, when a user views content, there are n viewing attributes (viewing place, viewing time zone, terminal used for viewing, viewer age, gender, etc.). From these viewing attribute information, m viewing attribute information (m> n) can be selected to obtain viewing attributes used in the present embodiment. For example, the viewing location, the type of terminal used for viewing, and the viewing time zone are selected, and each condition is plotted on a discrete axis. For example, those having continuous values such as viewing hours are converted into discrete values such as “morning” at 6:00 to 10:00 and “midnight” at 23:00 to 3:00. Thus, they can be arranged in the same space.
視聴属性が決定すると、その視聴状況に応じて視聴ニーズが決定する。例えば、視聴場所、視聴に用いられる端末の種類、視聴時間帯が視聴属性として選択され、あるユーザから「自宅で、夜、パソコンを使ってWebページにアクセスした」という視聴状況が得られたときは、その視聴属性は「自宅」「PC」「夜」であり、「ゆっくり」「落ち着いて」などの形容詞をキーワードとしてその視聴ニーズは、「情報を細部まで知りたい」ということであると決定する。 When the viewing attribute is determined, the viewing needs are determined according to the viewing situation. For example, when the viewing location, the type of terminal used for viewing, and the viewing time zone are selected as viewing attributes, and a viewing situation such as “accessing a web page using a computer at home at night” is obtained from a certain user. The viewing attributes are "Home", "PC", "Night", and the viewing needs are determined to be "I want to know details in detail" using adjectives such as "slowly" and "settled" as keywords. To do.
ここで、視聴状況から視聴ニーズを求めるには、例えば視聴状況空間における視聴属性に応じて、パラメータが得られる対応表を備えるとともに、視聴ニーズ空間において、そのパラメータから形容詞が得られる対応表を備える方法がある。また、視聴属性に応じて決定される形容詞と視聴率とに基づいて、因子分析により求めることにしてもよい。 Here, in order to obtain the viewing needs from the viewing situation, for example, according to the viewing attribute in the viewing situation space, a correspondence table for obtaining parameters is provided, and in the viewing needs space, a correspondence table for obtaining adjectives from the parameters is provided. There is a way. Further, it may be obtained by factor analysis based on the adjective determined according to the viewing attribute and the audience rating.
このようにして求めた視聴者ニーズにより分解された素材から所定の素材が抽出され、情報格納部25に一時格納される。そして、コンテンツ再生部30は、情報格納部25に一時格納された素材に、視聴者ニーズに応じたアクション表現用データをリンクさせ、オリジナルコンテンツにアクションを付加しオリジナルコンテンツを再構成する。
A predetermined material is extracted from the material decomposed according to the viewer needs determined in this way, and is temporarily stored in the
本実施形態の情報取得部10は、視聴状況取得部12を有し、コンテンツ作成部20は、視聴者ニーズ取得部22を有することにより視聴者ニーズを把握するように構成されているが、視聴者ニーズ取得部に代えて、コンテンツを配信する配信者の配信ニーズを把握する配信ニーズ取得部を備え、視聴者ニーズに代えて配信ニーズを把握することにしてもよい。その場合、情報取得部における視聴状況取得部12は、必ずしも必要ない。なお、配信ニーズは、企画会議などで決定されたコンセプトや聞き取り調査などに基づいて把握することができる。
The
さらに、本実施形態のコンテンツ作成装置は、パーソナルコンピュータ、あるいはサーバに本発明のプログラムがインストールされたものであってもよい。 Furthermore, the content creation device of the present embodiment may be a personal computer or a server in which the program of the present invention is installed.
次に、本発明のコンテンツ構成方法、及び本発明のプログラムの実施形態を示す処理手順について説明する。なお、この処理手順は、コンテンツ作成装置の作用に相当する。 Next, a content configuration method of the present invention and a processing procedure showing an embodiment of the program of the present invention will be described. This processing procedure corresponds to the operation of the content creation device.
図2は、本発明のコンテンツ構成方法、及び本発明のプログラムの第1の実施形態を示す処理手順である。 FIG. 2 is a processing procedure showing the first embodiment of the content configuration method of the present invention and the program of the present invention.
図2に示すように、本実施形態のコンテンツ構成方法は、インターネットプロバイダのサーバから所定のWebページに関する情報を取得する情報取得手順(S1)と、視聴者ニーズを検出し、検出した視聴者ニーズに基づいてオリジナルコンテンツから必要な構成要素を抽出して情報格納部に一時格納するコンテンツ構成手順(S2)と、情報格納部に一時格納された構成要素にアクション表現用データをリンクさせてオリジナルコンテンツを再構成するコンテンツ再生手順(S3)とを備えている。 As shown in FIG. 2, the content configuration method according to the present embodiment includes an information acquisition procedure (S1) for acquiring information related to a predetermined Web page from a server of an Internet provider, viewer needs, and detected viewer needs. A content composition procedure (S2) for extracting necessary constituent elements from the original content and temporarily storing them in the information storage section based on the content, and linking the action expression data to the constituent elements temporarily stored in the information storage section And a content reproduction procedure (S3) for reconfiguring.
以下、図3に基づいて情報取得手順(S1)の詳細を、図6に基づいてコンテンツ構成手順(S2)の詳細を、図7に基づいて、コンテンツ再生手順(S3)の詳細をそれぞれ説明する。 Hereinafter, the details of the information acquisition procedure (S1) will be described based on FIG. 3, the details of the content configuration procedure (S2) based on FIG. 6, and the details of the content reproduction procedure (S3) based on FIG. .
図3は、情報取得手順(S1)の詳細を示す図である。 FIG. 3 is a diagram showing details of the information acquisition procedure (S1).
図3に示すように、情報取得手順(S1)は、所定のWebページにアクセスした視聴者の視聴状況に関する情報を取得する視聴状況取得手順(S101)と、所定のWebページに表示されたオリジナルコンテンツを入力するコンテンツ入力手順(S102)とを有する。 As shown in FIG. 3, the information acquisition procedure (S1) includes a viewing status acquisition procedure (S101) for acquiring information related to a viewing status of a viewer who has accessed a predetermined Web page, and an original displayed on the predetermined Web page. A content input procedure (S102) for inputting content.
視聴状況取得手順(S101)において、視聴者の視聴状況は、サービスプロバイダのサーバに、例えば視聴者(インターネットのユーザ)からホームページにアクセスされた回数がカウントされるようにカウンタを設け、そのカウンタの数値を時間帯別に集計することなどにより取得することができる。また、所定のパーソナルコンピュータからアクセスされたものであるか、携帯電話などのモバイル端末からアクセスされたものであるかなど、アクセスされた端末機毎の情報や、その端末機の設置地域など、アクセスした場所の情報が取得できるようにしてもよい。さらに、視聴者入力による助力を得て、より詳細な属性情報を取得することにしてもよい。 In the viewing status acquisition procedure (S101), the viewing status of the viewer is provided with a counter in the service provider's server so that the number of times the viewer (Internet user) accesses the home page is counted, for example. It can be obtained by counting the numerical values by time zone. In addition, access information such as information on each accessed terminal, such as whether it was accessed from a predetermined personal computer or a mobile terminal such as a mobile phone, and the location of the terminal, etc. It may be possible to acquire information on the location. Further, more detailed attribute information may be obtained by obtaining assistance from viewer input.
コンテンツ入力手順(S102)において、オリジナルコンテンツは、視聴者がキーワード検索などによりアクセスしたホームページや、URLを直接入力してアクセスしたWebページに表示されるコンテンツから取得することができる。 In the content input procedure (S102), the original content can be acquired from the homepage accessed by the viewer by keyword search or the content displayed on the Web page accessed by directly entering the URL.
図4は、視聴者が視聴したいコンテンツを選択する情報が入力される表示画面の一例を示す図である。 FIG. 4 is a diagram illustrating an example of a display screen on which information for selecting content that the viewer wants to view is input.
図4に示すパーソナルコンピュータ(以下「PC」と略称する。)の表示画面には、視聴者(インターネットのユーザ)がホームページを検索するダイアログボックス100が表示される。ダイアログボックス100には、キーワードを入力することにより検索エンジンで該当のホームページを検索するドキュメントウインドウW1と、URLを入力することによりWebページに直接アクセスするドキュメントウインドウW2と、ユーザが準備した画像や音声などの素材やアクションを表現するデータをメモリに記憶させるためのドキュメントウインドウW3と、いわゆる「お勧めページ」にリンクされたお勧めコンテンツ101が設けられている。
On the display screen of the personal computer (hereinafter abbreviated as “PC”) shown in FIG. 4, a
このダイアログボックス100の所定のドキュメントウインドウW1、W2、W3に、所定の情報が入力され、「実行」ボタン102がクリックされると、サービスプロバイダのサーバには、各ユーザからの情報が集約され、ホームページ毎、あるいはWebページ毎の視聴状況が取得される。
When predetermined information is input to predetermined document windows W1, W2, and W3 of this
図5は、PCのダイアログボックスから入力された情報がコンテンツの構成要素となる素材として情報格納部に格納される状況を示す図である。 FIG. 5 is a diagram illustrating a situation in which information input from a PC dialog box is stored in the information storage unit as a material that is a component of content.
図5に示すように、ダイアログボックスのドキュメントウインドウW1からキーワードが入力されると(S101−01)、検索エンジンが起動し、入力されたキーワードに該当するページの一覧が表示される(S101−02)。
スクロールバーを移動してその一覧から該当ページを検索する(S101−03)。
該当ページが見つかったとき、そのページ内の情報がオリジナルコンテンツとして取得され(S101−04)、取得された情報は、分解され、所定の素材が情報格納部に格納される(S101−10)。
As shown in FIG. 5, when a keyword is input from the document window W1 of the dialog box (S101-01), the search engine is activated and a list of pages corresponding to the input keyword is displayed (S101-02). ).
The scroll bar is moved to search for the corresponding page from the list (S101-03).
When the corresponding page is found, the information in the page is acquired as original content (S101-04), the acquired information is decomposed, and a predetermined material is stored in the information storage unit (S101-10).
また、ダイアログボックスからキーワードに代えてURLが直接入力されると(S101−05)、そのURLに該当するホームページに直接アクセスされる。そして、アクセスされたそのホームページ内の情報がオリジナルコンテンツとして取得され(S101−06)、取得された情報は、分解され、所定の情報が情報格納部に格納される(S101−10)。 When a URL is directly input from the dialog box instead of a keyword (S101-05), the home page corresponding to the URL is directly accessed. The accessed information in the home page is acquired as original content (S101-06), the acquired information is decomposed, and predetermined information is stored in the information storage unit (S101-10).
さらに、ダイアログボックスから、キーワードやURLに代えて、ユーザが準備した、例えばデジタルカメラやビデオカメラで撮影された映像データや、CVDやDVDに記録された映像や音楽のデジタルデータなどが入力されると(S101−07)、それらのデジタルデータは、素材情報として取得され(S101−08)、取得された情報は、情報格納部に格納される(S101−10)。 In addition, instead of keywords and URLs, for example, video data taken by a digital camera or video camera, video recorded on a CVD or DVD, digital music data, or the like is input from the dialog box. (S101-07), the digital data is acquired as material information (S101-08), and the acquired information is stored in the information storage unit (S101-10).
また、表示画面に表示された、いわゆる「お勧めページ」がクリックされると、そのお勧めページ内の情報がオリジナルコンテンツとして取得され(S101−09)、取得された情報は、分解され、所定の情報が情報格納部に格納される(S101−10)。 When a so-called “recommended page” displayed on the display screen is clicked, information in the recommended page is acquired as the original content (S101-09), and the acquired information is disassembled and predetermined. Is stored in the information storage unit (S101-10).
図6は、コンテンツ構成手順(S2)の詳細を示す図である。
図6に示すように、コンテンツ構成手順(S2)は、コンテンツ入力手順(S102)において取得されたオリジナルコンテンツからコンテンツの構成要素となる素材を抽出するため、その素材を構成要素毎に分解する素材分解手順(S201)と、視聴状況取得手順(S101)において取得された視聴状況を集計し、視聴場所、端末機などの属性情報を2次元または3次元空間に投影して所定のパラメータを得る視聴状況空間写像手順(S202)と、視聴者状況空間写像手順で得られたパラメータを2次元または3次元空間に投影して、形容詞で表現される視聴者ニーズを把握する視聴ニーズ空間写像手順(S203)と、把握された視聴ニーズに基づいて、素材分解手順(S201)において分解された構成要素の中から所定の素材を抽出し、情報格納部に一時格納するコンテンツ構成手順(S204)とを有する。
FIG. 6 is a diagram showing details of the content configuration procedure (S2).
As shown in FIG. 6, in the content composition procedure (S2), in order to extract a material that is a component of the content from the original content acquired in the content input procedure (S102), a material that decomposes the material for each component Viewing that obtains predetermined parameters by totaling the viewing situation acquired in the disassembling procedure (S201) and the viewing situation obtaining procedure (S101), and projecting attribute information such as viewing location and terminal on a two-dimensional or three-dimensional space The situation space mapping procedure (S202) and the viewing needs space mapping procedure (S203) for projecting the parameters obtained by the viewer situation space mapping procedure onto a two-dimensional or three-dimensional space to grasp the viewer needs expressed by adjectives. ) And a predetermined material from among the components disassembled in the material disassembling procedure (S201) based on the grasped viewing needs Extracted, and a content configuration steps for temporarily storing the information storing section (S204).
図7は、コンテンツ再生手順(S3)の詳細を説明する図である。 FIG. 7 is a diagram for explaining the details of the content reproduction procedure (S3).
図7の上段に示すように、コンテンツ分解部21により分解された素材(O0、O1、O2、‥O8)には、画像要素(画像1、画像2‥‥画像i)、音声要素(音1、音2、‥‥音j)、テキスト要素(テキスト1、テキスト2、‥‥テキストk)などのさまざまな素材5が含まれている。
As shown in the upper part of FIG. 7, the material (
そこで、それらの素材5から、視聴者ニーズにしたがって、図7の下段に示すように、画像要素に関しては、例えば画像1、画像5、画像2を、音声要素に関しては、例えば画像1と画像5とが表示されている間に流れる音2、画像2が表示されているときに流れる音7を、テキスト要素に関しては、例えば画像5に添付されたテキスト3を抽出し、情報格納部に一時格納されている。 Therefore, from these materials 5, according to the viewer's needs, as shown in the lower part of FIG. 7, for example, image 1, image 5, and image 2 are related to image elements, and for example, image 1 and image 5 are related to audio elements. For example, the text 2 attached to the image 5 is extracted and temporarily stored in the information storage unit. Has been.
コンテンツ再生部30は、視聴者ニーズにしたがって「カット」「フェード」というアクション表現用データを抽出し、画像1と画像5とは「カット」で繋ぎ、画像5と画像2とは「フェード」で繋ぐ。また、音2と音7とを「フェード」で繋ぐ。 The content reproduction unit 30 extracts action expression data “cut” and “fade” according to the viewer's needs, and the images 1 and 5 are connected by “cut”, and the images 5 and 2 are “fade”. Connect. Also, the sound 2 and the sound 7 are connected by “fade”.
次に、視聴者ニーズにより、素材を抽出したり、その素材に加えるアクションを選択する方法について説明する。 Next, a method for extracting a material and selecting an action to be added to the material according to the viewer's needs will be described.
はじめに、コンテンツの構成要素となるさまざまなジャンルの素材やアクションに対し、一般的視聴者が受ける印象をSD法で分析し、それらの素材やアクションを感性により分類する尺度を、因子得点により求めた例について説明する。 First, the SD method was used to analyze impressions received by general viewers on materials and actions of various genres that are constituent elements of content, and a scale for classifying those materials and actions according to sensitivity was obtained from factor scores. An example will be described.
図8は、コンテンツを構成する構成要素となる素材やアクションの種類を調査・分類した一例を示す図である。 FIG. 8 is a diagram illustrating an example in which the types of materials and actions that are constituent elements of content are investigated and classified.
図8に示す例は、コンテンツの構成要素が画像、音声、テロップに大分類され、画像は、さらに画像と画像とを繋ぐ際の演出効果にかかわる「トランジション」に関するものと、画像そのものの演出効果にかかわる「エフェクト」に関するものに区分される。また、音声は、音声そのものの演出効果にかかわる「エフェクト」に関するものと、音声と音声とを繋ぐ際の演出効果にかかわる「効果音」に関するものに区分される。そして、それぞれの区分に対して、風景、人物、静寂、喧騒などのカテゴリと、カット、フェード、パンや具体的な曲名などの種類とによって小分類されている。 In the example shown in FIG. 8, the constituent elements of the content are roughly classified into images, sounds, and telops, and the images are related to “transitions” related to the effects when connecting the images and the effects of the images themselves. It is divided into those related to “effects”. The sound is classified into “effect” related to the effect of the sound itself and “effect sound” related to the effect when connecting the sound and the sound. Each category is subdivided into categories such as landscape, person, silence, and noise, and types such as cut, fade, pan, and specific song name.
なお、これらの調査対象のコンテンツとして、例えば画像の切り替えに関しては、映像編集ソフトである、Adobe Premier(商標)、テロップの動きに関しては、Microsoft Power Point(商標)、効果音に関しては、インターネットの音配信サイトなどが含まれる。 The contents to be investigated include, for example, video editing software Adobe Premier (trademark) for switching images, Microsoft Power Point (trademark) for telop movement, and Internet sound for sound effects. Includes distribution sites.
次に、調査結果に含まれる素材やアクションの中から代表的なものを抽出し、SD法による適用実験を行った。 Next, representative materials were extracted from the materials and actions included in the survey results, and applied experiments using the SD method were conducted.
図9は、実験のために抽出された24種類のオブジェクトを示す図である。 FIG. 9 is a diagram showing 24 types of objects extracted for the experiment.
図9に示すように、テロップは、「フェード」「ズーム」「ライズアップ」「スパイラルイン」「マグニファイ」「タイピング」という6種類のアクションを有するもの、画像効果は、「カット」「フェードイン」「パン(速い)」「パン(遅い)」「ズーム(速い)」「ズーム(遅い)」「ズーム+パン(速い)」「ズーム+パン(遅い)」「押し出し」「スポットライト」「ズーム切り替え」という11種類のアクションを有するもの、合成音声は、2種類のアクション、音楽(BGM)は、5種類のアクションそれぞれ有するものを抽出した。 As shown in FIG. 9, the telop has six types of actions such as “fade”, “zoom”, “rise-up”, “spiral-in”, “magnify”, and “typing”, and the image effects are “cut” and “fade-in”. “Pan (fast)” “Pan (slow)” “Zoom (fast)” “Zoom (slow)” “Zoom + Pan (fast)” “Zoom + Pan (slow)” “Push out” “Spotlight” “Zoom switching” "Having eleven types of actions", two types of synthesized speech, and music (BGM) having five types of actions.
実験は、図9に示すテロップ、画像、合成音声、音楽という4つのカテゴリ、24種類のオブジェクトについて、被験者ごとにランダムに提示し、SD法による6段階評価を行った。なお、この実験では、切り替え方法や提示方法などに関する評価を目的とするものであるが、コンテンツの構成要素により被験者の感性が変化する恐れがあることから、できるだけ無意味な文字や画像を素材として選択した。 In the experiment, four categories and 24 types of objects such as telop, image, synthesized speech, and music shown in FIG. 9 were randomly presented for each subject, and six-stage evaluation was performed by the SD method. The purpose of this experiment is to evaluate the switching method and presentation method. However, because the subject's sensibility may change depending on the components of the content, use as meaningless text and images as possible. Selected.
図10は、SD法におけるアンケートに用いた質問項目を示す図である。 FIG. 10 is a diagram showing the question items used in the questionnaire in the SD method.
図10に示すように、アンケートの質問項目としては、「あたたかい/つめたい」「派手な/地味な」「軽やかな/重々しい」などの対立する24の形容詞対を用いた。 As shown in FIG. 10, 24 questionable adjective pairs such as “warm / slow”, “flashy / plain”, “light / heavy”, etc. were used as question items in the questionnaire.
図11は、SD法による分析結果を示す図である。 FIG. 11 is a diagram showing the results of analysis by the SD method.
図11に示す分析結果は、それぞれの素材やアクションに対する質問項目のうち上位5つの形容詞がリストアップされている。 The analysis result shown in FIG. 11 lists the top five adjectives among the question items for each material and action.
この分析結果によれば、動きの少ないテロップ(テロップ01、テロップ02、テロップ03)は、「まとまり」「手軽さ」を感じさせる共通の効果があり、動きの大きいテロップ(テロップ04、テロップ05、テロップ06)は、テロップごとに「軽やか」「目立つ」「かたい」など特徴的な、異なる感じを与える効果がある。また、「フェード」「パン」「ズーム」という画像効果は、速度とは無関係に、「まとまり」を感じさせる傾向があり、「押し出し」「スポットライト」は、内容に拘わらず「かたい」「現実的な」印象を与えるという効果がある。さらに、合成音声は、「能動的な」「変化に富んだ」印象を与え、BGMは、「美しい」「まとまった」感じの印象を与える傾向が強い。
According to this analysis result, telops with little movement (
図12は、図11に示した分析結果を因子分析して求めた因子負荷量を一例として示す図である。 FIG. 12 is a diagram illustrating, as an example, factor loadings obtained by factor analysis of the analysis results illustrated in FIG.
ここに示した因子負荷量は、市販の因子分析用ソフトウエアを用いて容易に算出することができる。 The factor loading shown here can be easily calculated using commercially available factor analysis software.
図12に示すように、ここでは2つの因子に対する因子負荷量が求められ、第1因子は、「変化にとんだ」「派手な」などの形容詞が高い因子負荷量を示している。また、第2因子は、「あたたかい」「美しい」などの形容詞が高い因子負荷量を示している。 As shown in FIG. 12, factor loadings for two factors are obtained here, and the first factor indicates a factor loading with high adjectives such as “hangs on change” and “flashy”. The second factor indicates a high factor loading with adjectives such as “warm” and “beautiful”.
ここで、本実験においては2つの因子を求めているが、3つ以上の因子を求め、その中の寄与率が高いものを複数抽出することにしてもよい。 Here, although two factors are obtained in this experiment, three or more factors may be obtained, and a plurality of factors having a high contribution ratio may be extracted.
図13は、図12に示した第1因子と第2因子とを座標軸とする2次元平面に各形容詞の因子負荷量をプロットした図である。 FIG. 13 is a diagram in which the factor loading of each adjective is plotted on a two-dimensional plane having the first factor and the second factor shown in FIG. 12 as coordinate axes.
図13に示すように、ここでは、第1因子の軸を動揺軸と命名され、第2因子の軸を柔軟軸と命名されている。 As shown in FIG. 13, here, the axis of the first factor is named as the oscillation axis, and the axis of the second factor is named as the flexible axis.
プロットされた形容詞によって表現される意味を分析すると、動揺軸により、構成要素の揺れや動きが表現されることがわかり、正極性の値が大きくなればなるほど喧騒の度合いが強くなる傾向にあり、負極性の値が大きくなればなるほど静寂の度合いが強くなる傾向にある。例えば、「変化に富んだ」「派手な」「目立つ」「個性的な」「面白い」という感じは、喧騒の度合いが強く、「かたい」「現実的な」「手軽な」という感じは、静寂の度合いが強いと判断される。 Analyzing the meaning expressed by the plotted adjectives, it can be seen that the oscillation axis expresses the shaking and movement of the component, and the greater the positive value, the more the degree of noise tends to become, The greater the negative polarity value, the stronger the degree of silence. For example, the feelings of “various”, “flashy”, “conspicuous”, “individual”, “interesting” are strong, and the feeling of “hard”, “realistic”, “easy” It is judged that the degree of silence is strong.
一方、柔軟軸は、構成要素のフレキシビリティが表現されていることがわかり、正極性の値が大きくなればなるほど柔軟の度合いが強くなる傾向にあり、負極性の値が大きくなればなるほど堅硬の度合いが強くなる傾向にある。例えば、「あたたかい」「美しい」「自然な」という感じは、柔軟の度合いが強く、「かたい」「現実的な」という感じは、堅硬の度合いが強いと判断される。 On the other hand, the flexible axis shows that the flexibility of the component is expressed, and the greater the positive value, the stronger the degree of flexibility, and the greater the negative value, the stiffer The degree tends to be strong. For example, a feeling of “warm”, “beautiful”, and “natural” has a high degree of flexibility, and a feeling of “hard” and “realistic” has a strong degree of rigidity.
したがって、各形容詞により表現される視聴者の印象と、図11に示した分析結果とを対比し、形容詞で表現された視聴者ニーズとコンテンツの構成要素となる素材やアクションが視聴者に与える印象との相関関係により、視聴者ニーズに応じた素材やアクションを抽出することができることがわかる。 Therefore, the viewer's impression expressed by each adjective and the analysis result shown in FIG. 11 are contrasted, and the viewer needs expressed by the adjective and the impression that the material or action that constitutes the content gives to the viewer It can be seen that the material and action according to the viewer's needs can be extracted by the correlation.
ここでは、2つの座標軸を用い、因子負荷量を2次元平面にプロットしているが、3つの座標軸を用いて2次元平面にプロットすることにしてもよい。 Here, two coordinate axes are used and the factor loading is plotted on a two-dimensional plane, but it may be plotted on a two-dimensional plane using three coordinate axes.
図14は、図11に示した分析結果、及び図12に示した因子負荷量とを用いて算出した因子得点に基づいてプロットした24種類のオブジェクトを示す図である。 FIG. 14 is a diagram showing 24 types of objects plotted based on the factor scores calculated using the analysis results shown in FIG. 11 and the factor loadings shown in FIG.
図14に示す24種類のオブジェクトは、図13に示した動揺軸と柔軟軸とを座標軸とし、因子得点を座標メモリとする2次元平面にプロットされている。 The 24 types of objects shown in FIG. 14 are plotted on a two-dimensional plane with the oscillation axis and the flexible axis shown in FIG. 13 as coordinate axes and factor scores as coordinate memories.
ここで、因子得点は、例えば24種類のオブジェクトそれぞれに対する分析結果における形容詞の評価点を集計した総合評価点に対する、第1及び第2因子それぞれの因子負荷量を係数、因子得点を変数とする連立方程式を、市販のソフトウエアを用いて解くことにより求めることができる。 Here, the factor score is, for example, a combination of the factor loadings of the first and second factors as coefficients and the factor score as a variable with respect to the overall evaluation score obtained by aggregating the adjective evaluation points in the analysis results for each of 24 types of objects. The equation can be obtained by solving using commercially available software.
2次元平面にプロットされた24種類のオブジェクトを、動揺軸方向に眺めると、スポットライトを当てた画像(画像効果10)、スパイラルするテロップ(テロップ04)の因子得点が高く、カット及び遅いパンの画像(画像効果01、画像効果04)、フェードするテロップ(テロップ01)の得点は低いことがわかる。また、柔軟軸方向に眺めると、BGM(BGM01〜05)、フェードインする画像及びテロップ(画像効果02、テロップ01)の得点が高く、速いズームの画像(画像効果05)、タイピングのテロップ(テロップ06)、合成音(合成音02)の得点は低いことがわかる。
When 24 types of objects plotted on a two-dimensional plane are viewed in the direction of the sway axis, the spotlighted image (image effect 10) and spiral telop (telop 04) have high factor scores, and cut and slow panning It can be seen that the scores of the image (
したがって、因子得点をプロットする動揺軸と柔軟軸とのイメージがつかみ易くなるように、例えば動揺軸を「元気度−落着度」と改名し、柔軟軸を「こだわり度」と改名することができる。 Therefore, in order to make it easier to grasp the image of the rocking axis and the flexible axis for plotting the factor scores, for example, the rocking axis can be renamed as “Energeticness-Degree of Degree”, and the flexible axis can be renamed as “Degree of Attention” .
このように改名し、座標空間の意義がわかりやすい場合には、座標空間のポジションと
視聴者ニーズ、あるいは配信ニーズから直接所定のオブジェクト、すなわちコンテンツを構成する素材やアクションを抽出することができる。
When the name is changed in this way and the significance of the coordinate space is easy to understand, a predetermined object, that is, a material or an action constituting the content can be directly extracted from the position of the coordinate space and the viewer's needs or the distribution needs.
したがって、情報格納部に、このような方法で求めた因子得点が与えられたアクション表現用データを格納することにより、座標値に変換された視聴者ニーズにマッチするデータを抽出することが可能になる。 Therefore, it is possible to extract data that matches the viewer needs converted into coordinate values by storing the action expression data given the factor score obtained by such a method in the information storage unit. Become.
なお、動揺軸と柔軟軸を座標とする2次元グラフを画面に表示させ、その座標上に視聴者ニーズをプロットし、そのプロットした地点からの距離が近い素材やアクションを選択することもできる。 It is also possible to display a two-dimensional graph with the swing axis and the flexible axis as coordinates on the screen, plot the viewer's needs on the coordinates, and select materials and actions that are close to the plotted point.
ここで、本実験は、コンテンツの構成要素により主観評価値が変化する可能性があることから、できるだけ無意味な文字や画像を構成要素として行っている。しかし、情報格納部に実際に格納される素材表現用データなどに付与される因子得点は、コンテンツの構成要素が加味されたものを求めるとともに、アクション表現用データについても、例えばカットが数回続いた場合やカットとフェードが繰り返される場合など、各オブジェクトが複合された場合の因子得点についても求め、格納しておくことが望ましい。
(第2の実施形態)
第2の実施形態は、コンテンツ構成要素となる素材など(画像、音声、テロップなど)が予め準備されていて、取得された視聴者ニーズにマッチした素材を抽出し、ニーズにマッチしたテンプレート上に、その抽出した素材を並べる一方、予め準備されているニーズにマッチしたアクションをそれらの素材にくくりつけて新たなコンテンツ(例えばアニメーションや広告など)を作成する場合を例にして説明する。
なお、第2の実施形態のコンテンツ作成装置は、第1の実施形態のコンテンツ作成装置における情報取得部に代えて、情報入力部を備え、コンテンツの構成要素に分解された素材及びアクションが分類されて入力され、情報格納部に格納される点、および情報格納部に、所定のシナリオに沿って、感性により分類されたテンプレート(雛形)が情報格納部に格納される点は相違するが、それ以外の点は共通する。したがって、相違点について説明する。
Here, since the subjective evaluation value may change depending on the constituent elements of the content, this experiment is performed using meaningless characters and images as constituent elements as much as possible. However, the factor score given to the material expression data that is actually stored in the information storage unit is obtained by adding the content components, and the action expression data continues to be cut several times, for example. It is desirable to obtain and store the factor score when each object is compounded, such as when cut or fade is repeated.
(Second Embodiment)
In the second embodiment, materials that are content components (images, sounds, telops, etc.) are prepared in advance, and a material that matches the acquired viewer needs is extracted and placed on a template that matches the needs. An example will be described in which new contents (for example, animations and advertisements) are created by arranging the extracted materials while matching actions that match the needs prepared in advance with those materials.
Note that the content creation device of the second embodiment includes an information input unit instead of the information acquisition unit in the content creation device of the first embodiment, and the materials and actions decomposed into content components are classified. However, there is a difference in that a template (model) classified according to sensibilities according to a predetermined scenario is stored in the information storage unit in the information storage unit. Other points are common. Therefore, the difference will be described.
図15は、本発明のコンテンツ作成装置の第2の実施形態を示す概略構成図である。 FIG. 15 is a schematic configuration diagram showing a second embodiment of the content creation apparatus of the present invention.
図15に示す第2の実施形態のコンテンツ作成装置は、予め準備された、コンテンツの構成要素となる素材及びアクション5を入力する情報入力部13と、情報入力部13から入力された情報を格納し、コンテンツを視聴する視聴者ニーズによりコンテンツの素材を抽出し、アクションが表現されるデータをその素材に付加してオリジナルコンテンツを再構成するコンテンツ作成部20とを備えている。
The content creation apparatus according to the second embodiment shown in FIG. 15 stores information input from the
ここで、本実施形態のコンテンツ作成装置は、パーソナルコンピュータ、あるいはサーバに本発明のプログラムがインストールされたものであってもよい。 Here, the content creation apparatus of the present embodiment may be a personal computer or a server in which the program of the present invention is installed.
情報入力部13は、CVDやDVDに収録された映像や音声、VTRやデジタルカメラに収録された映像などを、画面に表示させ、予めSD法による分析結果に応じて表示された素材やアクションを分類し、情報格納部25に格納する。また、外部から収集されたコンテンツの視聴状況を所定のフォーマットに変換することができる。
The
ここで、視聴状況は、例えば配信されるデジタル放送や各種配信サービスなどについて、ピープルメータやオンラインメータを用いて定期的に、継続的に視聴状況を調査し、コンピュータセンターで集計することにしてもよいし、調査員が調査票を用いて個別に視聴状況を調査し、コンピュータセンターで集計することにしてもよい。 Here, the viewing status is, for example, regularly surveyed using a people meter or online meter for distributed digital broadcasts and various distribution services, and aggregated at a computer center. Alternatively, the investigator may individually investigate the viewing situation using the survey form and totalize it at the computer center.
コンテンツ作成部20は、情報入力部13から入力された視聴状況に関する情報から視聴者ニーズを検出する視聴者ニーズ取得部22と、コンテンツの構成要素となる素材が表現されるデータやアクションが表現されるデータを、予め感性により分類して格納する情報格納部25と、視聴者ニーズにマッチした素材表現用データ及びアクション表現用データを抽出し、アクションを含むコンテンツを構成するコンテンツ再生部30とを有する。
The
ここで、本実施形態では、情報格納部25はデータベースを形成し、そのデータベースに、視聴者ニーズに対応させて静止画、テキスト、テロップ、および読み上げ音声など毎に、風景、人物などのカテゴリ別に分類された素材と、画像の切り替え効果、画像の演出効果、テロップの挿入方法、音の演出効果、およびBGM(バック・グラウンド・ミュージック)などに分類された、素材に動きを与えるアクションが格納されている。
Here, in the present embodiment, the
情報入力部13に、例えば取材によるニューソース、他のメディアから取得した映像や音声などの分解された素材やアクション(O0、O1、O2、…On)が入力されると、それらの素材やアクションは、感性により分類されて情報格納部25に格納される。
When the
一方、視聴率調査などにより視聴状況が収集されると、情報入力部13からその視聴状況が入力される。
On the other hand, when the viewing status is collected by a viewing rate survey or the like, the viewing status is input from the
入力された視聴状況は、視聴者ニーズ取得部22により視聴状況空間に写像され、さらに、視聴状況空間から視聴ニーズ空間に写像されて視聴ニーズが把握される。
The input viewing situation is mapped to the viewing status space by the viewer needs
コンテンツ再生部30は、把握された視聴ニーズに基づいて情報格納部25から素材及びアクションを抽出する一方、情報格納部25から視聴ニーズにマッチした、所定のシナリオを有するテンプレートを選択し、そのテンプレートに抽出された素材を並べるとともに、抽出されたアクションを加える。
The content reproduction unit 30 extracts a material and an action from the
これにより、視聴者ニーズにマッチした、アクションを含むコンテンツを構成することができる。 Thereby, the content including the action that matches the viewer needs can be configured.
ここで、本実施形態では、SD法の分析結果により分類されて格納された素材及びアクションを視聴者ニーズにより抽出してコンテンツを構成しているが、例えばデータベースにコンテンツの製作者や編集者が有する「形容詞で表現された知見」(例えば特定の演出により視聴者に与える効果に関する形容詞で表現された知見)を蓄積しておき、視聴者ニーズが把握されると、データベースに蓄積された「形容詞で表現された知見」によりコンテンツを構成することにしてもよい。 Here, in this embodiment, the contents and actions are classified and stored based on the analysis result of the SD method and extracted according to the viewer's needs, and the contents are configured. Accumulating “knowledge expressed in adjectives” (for example, knowledge expressed in adjectives related to effects given to viewers by a specific performance), and when viewer needs are grasped, The content may be configured based on the knowledge expressed in “
また、本実施形態のコンテンツ作成装置は、視聴者ニーズ取得部22により視聴者ニーズを把握するように構成されているが、視聴者ニーズ取得部22に代えて、コンテンツを配信する配信者の配信ニーズを把握する配信ニーズ取得部を備え、視聴者ニーズに代えて配信ニーズを把握することにしてもよい。
In addition, the content creation device according to the present embodiment is configured to grasp the viewer needs by the viewer need
図16は、コンテンツ再生部によりコンテンツが構成される状況を示す図である。 FIG. 16 is a diagram illustrating a situation in which content is configured by the content playback unit.
図16の上段に示すように、視聴者ニーズが落ち着きを求めており、例えば配信者がコンテンツとして「落ち着きを表現したい」場合には、データベースから、そのコンセプトに合致する「形容詞で表現された知見」に基づいて素材及びアクションを抽出し、画面に表示させる。この「形容詞で表現された知見」に基づいて抽出された素材及びアクションは、ある種のテンプレート(雛形)を形成しているので、コンテンツの配信者は、データベースに格納された画像要素(画像0、画像1、画像2‥‥画像i)、音声要素(音0、音1、音2、‥‥音j)、テキスト要素(テキスト0、テキスト1、テキスト2、‥‥テキストk)から、そのテンプレートにしたがって画像1、画像5、画像2、テキスト3、音2及び音7を抽出し、画面に順次表示させ、画像1と画像5とを抽出した「カット」で繋ぎ、画像5と画像2とを抽出した「フェード」で繋ぐ。また、音2と音7とを「フェード」で繋ぐ。
As shown in the upper part of FIG. 16, when the viewer needs calmness, for example, if the distributor wants to express calmness as content, the database finds “knowledge expressed in adjectives that matches the concept. The material and action are extracted on the basis of “” and displayed on the screen. Since the materials and actions extracted based on this “knowledge expressed by adjectives” form a certain template (template), the content distributor can use the image elements (image 0) stored in the database. , Image 1, image 2 ... image i), voice element (
また、下段に示すように、配信者が「楽しさを表現したい」場合には、同様に、そのコンセプトに合致する、ある種のテンプレート(雛形)を抽出する。 Further, as shown in the lower part, when the distributor wants to express fun, a certain type of template (model) that matches the concept is similarly extracted.
そして、テンプレートにしたがって画像1と画像5とを「スポットライト」で繋ぎ、画像5と画像2とを「ズーム切り替え」で繋ぐ。また、画像5にテキスト3を「装飾付文字」で繋ぎ、音2と音7とを「カット」で繋ぐ。 Then, according to the template, the image 1 and the image 5 are connected by “spotlight”, and the image 5 and the image 2 are connected by “zoom switching”. Further, the text 3 is connected to the image 5 by “characters with decoration”, and the sound 2 and the sound 7 are connected by “cut”.
このようにすることにより、視聴者ニーズにマッチするとともに、定評のある編集者などによる作品に近似したアクションのあるコンテンツを構成することができる。 In this way, it is possible to configure content that matches the needs of the viewer and that has an action similar to a work by a well-established editor or the like.
図17は、第2の実施形態のコンテンツ再生部により再生されたコンテンツを画面に表示させる場合の時系列を示す図である。 FIG. 17 is a diagram illustrating a time series when the content reproduced by the content reproduction unit according to the second embodiment is displayed on the screen.
図17に示すように、コンテンツ再生部により構成されたコンテンツは、例えばアニメーションなどとして画面に表示させるため、フレームごとの情報に変換することができる。 As shown in FIG. 17, the content configured by the content reproduction unit can be converted into information for each frame in order to be displayed on the screen as an animation, for example.
いま時間軸tに接する部分が画面に表示される時刻をt1、t2、t3‥、tnとすれば、例えば画面右下に表示されるオブジェクトGk1、Gk2、Gk3‥、Gknがそれぞれ図示されているように、O2、O4、O3、‥、O1であれば、画面には動きのある画像が表示される。 If the time at which the portion in contact with the time axis t is displayed on the screen is t1, t2, t3,..., Tn, for example, the objects Gk1, Gk2, Gk3,. Thus, if it is O2, O4, O3,..., O1, a moving image is displayed on the screen.
5 素材
10 情報取得部
11 オリジナルコンテンツ取得部
12 視聴状況取得部
13 情報入力部
20 コンテンツ作成部
21 コンテンツ分解部
22 視聴者ニーズ取得部
25 情報格納部
30 コンテンツ再生部
100 ダイアログボックス
101 お勧めコンテンツ
102 実行釦
5
Claims (17)
前記コンテンツの視聴状況の入力を受けて視聴者ニーズを検出し、
検出された前記視聴者ニーズを複数の形容詞で表現し、表現された該形容詞と相関関係を有する所定のオブジェクトを用いて、視聴者に合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。 The content composition method according to claim 1, wherein:
Detecting viewer needs in response to the viewing status of the content,
A content composition method characterized in that the detected viewer needs are expressed by a plurality of adjectives, and content corresponding to the viewer is configured using a predetermined object having a correlation with the expressed adjectives.
前記配信ニーズの入力を受け、該配信ニーズを複数の形容詞で表現し、表現された該形容詞と相関関係を有する所定のオブジェクトを用いて、前記配信者に合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。 The content composition method according to claim 2, wherein
Receiving the delivery needs, expressing the delivery needs with a plurality of adjectives, and using a predetermined object having a correlation with the expressed adjectives to constitute content suitable for the distributor Content composition method.
前記コンテンツを構成する素材が表現されるデータ及び該コンテンツを構成するアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させ、
前記メモリに記憶された前記それぞれのデータから、所定のデータを抽出して組み合わせを行うことにより前記コンテンツを構成し、
前記感性情報の変化に応じて前記組み合わせを変えることを特徴とするコンテンツ構成方法。 The content composition method according to claim 1, wherein:
The data representing the material constituting the content and the data representing the action constituting the content are classified according to sensitivity and stored in a memory,
The content is configured by extracting and combining predetermined data from the respective data stored in the memory,
The content composition method characterized by changing said combination according to the change of said sensitivity information.
前記コンテンツを構成する素材が表現されるデータ及び該コンテンツを構成するアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させ、
前記メモリに記憶された前記それぞれのデータから、所定のデータを抽出して組み合わせを行うことにより前記コンテンツを構成し、
前記配信ニーズの変化に応じて前記組み合わせを変えることを特徴とするコンテンツ構成方法。 The content composition method according to claim 2, wherein
The data representing the material constituting the content and the data representing the action constituting the content are classified according to sensitivity and stored in a memory,
The content is configured by extracting and combining predetermined data from the respective data stored in the memory,
A content composition method, wherein the combination is changed according to a change in the delivery needs.
コンテンツの配信者の配信ニーズを取得するとともに、該配信ニーズと前記感性情報との相関関係を取得し、
前記感性情報と前記配信ニーズとの変化に応じて前記組み合わせを変えることを特徴とするコンテンツ構成方法。 The content composition method according to claim 5, wherein
Acquire the distribution needs of the content distributor, acquire the correlation between the distribution needs and the sensitivity information,
The content composition method characterized by changing the said combination according to the change of the said sensitivity information and the said delivery needs.
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、前記Webページを視聴する視聴状況に基づいて視聴者ニーズが取得されるニーズ取得手段とを備え、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
前記オリジナルコンテンツの構成要素に、前記データベースに格納された前記データを前記視聴者ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。 A method for reconstructing original content displayed on a web page,
Viewer needs are acquired based on a database storing data representing actions of each component of content including telop, image, sound, and background music, and viewing status of viewing the Web page. Needs acquisition means,
Input data that represents the telop, still image, and read-out voice used for the original content,
A content composition method comprising constructing content including an action by attaching the data stored in the database to the constituent elements of the original content according to the viewer's needs.
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、前記Webページを配信する配信者の配信ニーズが取得されるニーズ取得手段とを備え、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
前記オリジナルコンテンツの構成要素に、前記データベースに格納された前記データを前記配信ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。 A method for reconstructing original content displayed on a web page,
A database storing data representing actions of each component of content including telop, image, sound, background music, and needs acquisition means for acquiring distribution needs of a distributor who distributes the Web page And
Input data that represents the telop, still image, and read-out voice used for the original content,
A content composition method, wherein content including an action is constructed by attaching the data stored in the database to the constituent elements of the original content according to the distribution needs.
静止画、動画、音声、音楽を含む、コンテンツの素材を表現するデータ、および画像の切り替え、画像の演出、テロップの挿入、音の演出、およびバック・グラウンド・ミュージックを含む、該素材のアクションを表現するデータ双方が格納されたデータベースと、コンテンツの視聴状況を収集し、視聴者ニーズを検出するニーズ検出手段とを備え、
前記ニーズ検出手段により検出された視聴者ニーズに応じて前記データベースに格納された前記素材を表現するデータ及び前記アクションを表現するデータの組み合わせを行い、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。 A content configuration method for displaying predetermined content on a screen,
Data representing content material, including still images, video, audio, music, and actions of the material, including image switching, image rendering, telop insertion, sound rendering, and background music A database in which both data to be expressed are stored, and a need detection unit that collects the viewing status of content and detects viewer needs,
According to the viewer needs detected by the needs detection means, the data representing the material stored in the database and the data representing the action are combined to constitute a content including an action. Content composition method.
前記ニーズ検出手段は、前記視聴者ニーズに代えて、コンテンツを配信する配信者の配信ニーズを検出するものであって、
前記ニーズ検出手段により検出された配信ニーズに応じて前記データベースに格納された前記素材を表現するデータ及び前記アクションを表現するデータの組み合わせを行い、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。 The content configuration method according to claim 10,
The needs detection means detects delivery needs of a distributor who delivers content instead of the viewer needs,
Content comprising an action by combining data representing the material and data representing the action stored in the database in accordance with the delivery needs detected by the needs detecting means Configuration method.
前記視聴者状況から視聴者ニーズを検出する際にSD法が用いられることを特徴とする
コンテンツ構成方法。 The content configuration method according to any one of claims 3, 8 and 10,
An SD method is used when detecting viewer needs from the viewer status.
前記視聴者ニーズに応じたテンプレートを用いて、前記視聴者に合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。 The content configuration method according to any one of claims 3, 8 and 10,
A content configuration method comprising: configuring a content suitable for the viewer by using a template according to the viewer needs.
前記コンテンツの視聴者の感性情報を取得する感性情報取得手段と、
前記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
前記感性情報により、前記メモリに記憶された前記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とするコンテンツ作成装置。 A content creation device for creating content including an action,
Kansei information acquisition means for acquiring Kansei information of viewers of the content;
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
Content creation comprising: content creation means for configuring predetermined content including an action by combining the material stored in the memory and data representing the action based on the sensitivity information apparatus.
前記コンテンツを配信する配信者の配信ニーズを取得する配信ニーズ取得手段と、
前記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
前記配信ニーズにより、前記メモリに記憶された前記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とするコンテンツ作成装置。 A content creation device for creating content including an action,
Distribution needs acquisition means for acquiring distribution needs of a distributor who distributes the content;
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
Content creation comprising: content creation means for configuring predetermined content including an action by combining data representing the material and the action stored in the memory according to the distribution needs apparatus.
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
前記Webページを視聴する視聴状況を収集し、収集された該視聴状況に基づいて視聴者ニーズを検出するステップと、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
前記データベースから、検出された前記視聴者ニーズに応じた前記データを抽出し、前記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とするプログラム。 A program for reconstructing original content of a web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Collecting viewing status for viewing the web page and detecting viewer needs based on the collected viewing status;
Processing input data in which a telop, a still image, and a reading voice used for the original content are expressed;
Extracting the data according to the detected viewer needs from the database, causing the constituent elements of the original content to execute the step of attaching the extracted data, and including the action on the original content A program characterized by being reconstructed into content.
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
前記Webページを配信する配信者の配信ニーズを取得するステップと、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
前記データベースから、取得された前記配信ニーズに応じた前記データを抽出し、前記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とするプログラム。 A program for reconstructing original content of a web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Acquiring a delivery need of a distributor who distributes the Web page;
Processing input data in which a telop, a still image, and a reading voice used for the original content are expressed;
Extracting the data corresponding to the acquired distribution needs from the database, and causing the constituent elements of the original content to execute the step of attaching the extracted data to the content including the action A program characterized by reconfiguring.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003353755A JP2005122276A (en) | 2003-10-14 | 2003-10-14 | Content-constituting method, content-generating device, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003353755A JP2005122276A (en) | 2003-10-14 | 2003-10-14 | Content-constituting method, content-generating device, and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2005122276A true JP2005122276A (en) | 2005-05-12 |
Family
ID=34611955
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003353755A Pending JP2005122276A (en) | 2003-10-14 | 2003-10-14 | Content-constituting method, content-generating device, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2005122276A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041764A (en) * | 2005-08-02 | 2007-02-15 | Sony Corp | Content preparation cost calculation device and method and computer program |
JP2007156978A (en) * | 2005-12-07 | 2007-06-21 | Nippon Telegr & Teleph Corp <Ntt> | Content configuration device, content configuration method and program for configuring content |
JP2012253673A (en) * | 2011-06-06 | 2012-12-20 | Avix Inc | Automatic production of short animation work based on html document |
JP2013038588A (en) * | 2011-08-08 | 2013-02-21 | I-Cubed Research Center Inc | Content processing device, content processing method, and program |
-
2003
- 2003-10-14 JP JP2003353755A patent/JP2005122276A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007041764A (en) * | 2005-08-02 | 2007-02-15 | Sony Corp | Content preparation cost calculation device and method and computer program |
JP2007156978A (en) * | 2005-12-07 | 2007-06-21 | Nippon Telegr & Teleph Corp <Ntt> | Content configuration device, content configuration method and program for configuring content |
JP2012253673A (en) * | 2011-06-06 | 2012-12-20 | Avix Inc | Automatic production of short animation work based on html document |
CN102982056A (en) * | 2011-06-06 | 2013-03-20 | 埃维克斯公司 | Automatic production of short dynamic image work based on HTML document |
CN102982056B (en) * | 2011-06-06 | 2017-04-12 | 埃维克斯公司 | Automatic production method of short dynamic image work and computer information processing system |
JP2013038588A (en) * | 2011-08-08 | 2013-02-21 | I-Cubed Research Center Inc | Content processing device, content processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Werner | Organizing music, organizing gender: algorithmic culture and Spotify recommendations | |
Amato et al. | AI in the media and creative industries | |
US6446083B1 (en) | System and method for classifying media items | |
Baur et al. | The streams of our lives: Visualizing listening histories in context | |
US7143357B1 (en) | System and methods for collaborative digital media development | |
TWI514171B (en) | System and methods for dynamic page creation | |
US20200013380A1 (en) | Systems and methods for transforming digital audio content into visual topic-based segments | |
US20140108932A1 (en) | Online search, storage, manipulation, and delivery of video content | |
JP2000250944A (en) | Information providing method and device, information receiving device and information describing method | |
US20220208155A1 (en) | Systems and methods for transforming digital audio content | |
JP2007535018A (en) | Multimedia digital content visualization and control technology | |
US20210294843A1 (en) | Playlist preview | |
Chambel et al. | Context perception in video-based hypermedia spaces | |
JP2007528063A (en) | Tutorial generation unit | |
WO2004079533A2 (en) | System and method for presentation at the election of a user of media event information and further media event information of media events all related to a preselected time period | |
US20240087547A1 (en) | Systems and methods for transforming digital audio content | |
Martins et al. | MovieClouds: content-based overviews and exploratory browsing of movies | |
Dias et al. | Interactive exploration of music listening histories | |
WO2007029207A2 (en) | Method, device and system for providing search results | |
JP2005122276A (en) | Content-constituting method, content-generating device, and program | |
CA3208553A1 (en) | Systems and methods for transforming digital audio content | |
Dang et al. | FmFinder: Search and filter your favorite songs | |
Christodoulou et al. | Digital art 2.0: art meets web 2.0 trend | |
Lopez-Gulliver et al. | Interfacing the web: multi-modal and immersive interaction with the internet | |
Breaden | Sound practices: On-line audio exhibits and the cultural heritage archive |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060414 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090407 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090901 |