JP2005122276A - Content-constituting method, content-generating device, and program - Google Patents

Content-constituting method, content-generating device, and program Download PDF

Info

Publication number
JP2005122276A
JP2005122276A JP2003353755A JP2003353755A JP2005122276A JP 2005122276 A JP2005122276 A JP 2005122276A JP 2003353755 A JP2003353755 A JP 2003353755A JP 2003353755 A JP2003353755 A JP 2003353755A JP 2005122276 A JP2005122276 A JP 2005122276A
Authority
JP
Japan
Prior art keywords
content
needs
viewer
action
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003353755A
Other languages
Japanese (ja)
Inventor
Yumi Tomioka
由実 富岡
Kota Hidaka
浩太 日高
Junji Takeuchi
順二 竹内
Shinya Nakajima
信弥 中嶌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2003353755A priority Critical patent/JP2005122276A/en
Publication of JP2005122276A publication Critical patent/JP2005122276A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a content-generating device etc., capable of easily generating sensitivity-principal contents which can be enjoyed while doing something else, such as watching television and that even a viewer of low information literacy easily accept. <P>SOLUTION: The content-generating device, which generates contents including actions, is equipped with a sensitivity information acquiring means for acquiring sensitivity information on the viewer of contents, an element acquiring means for storing data representing materials as constituent elements of the contents and data representing actions, while classifying them by sensitivity, and a content-generating means of constituting specified contents including the actions by combining the materials and the data, representing the actions, which are stored in the memory. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

テレビ、映画、Webページなどのコンテンツを、視聴者や配信者の感性を反映させて構成することが可能なコンテンツ構成方法、コンテンツ作成装置、およびプログラムに関する。   The present invention relates to a content configuration method, a content creation apparatus, and a program that can configure content such as a television, a movie, and a Web page by reflecting the sensitivity of viewers and distributors.

今日、私達は、テレビ、ラジオ、新聞、雑誌、映画、音楽、Webページなど、多種多様なメデイアに囲まれて生活している。そして、それらメデイアのコンテンツは、メデイア固有の特性やコンセプトを熟知した製作者や編集者がそれまでに蓄積した知見や経験、あるいは勘などに基づいて製作されている。コンテンツの配信者は、コンセプトが決定すると、製作者や編集者によってそれまでに製作された作品内容が分析され、そのコンセプトを実現するのにふさわしい、定評のある製作者や編集者が選出され、選出された製作者や編集者に依頼されるのが一般的である。   Today, we live in a wide variety of media, including television, radio, newspapers, magazines, movies, music, and web pages. These media contents are produced based on knowledge, experience, or intuition accumulated by producers and editors who are familiar with the characteristics and concepts unique to media. Once the concept has been determined, the content distributor will analyze the contents of the work that has been produced so far by the producer or editor, and select a well-established producer or editor suitable for realizing the concept. It is common to be asked to a selected producer or editor.

しかしながら、定評のある製作者や編集者は人数が限られていることやスケジュール調整が難しいという課題がある。また、生活必需品化しつつあるパーソナルコンピュータとのマンマシンインタフェースを人にやさしい状態にして人間中心の情報環境を形成するためには、従来の知見や経験、あるいは勘などによる方法のみに依存していてはコスト負担が大き過ぎる上、益々増大するニーズに供給が追いつかない状態が想定される。   However, there are problems that the number of established producers and editors is limited and it is difficult to adjust the schedule. In addition, in order to create a human-centered information environment with a human-friendly man-machine interface with personal computers that are becoming daily necessities, it depends only on methods based on conventional knowledge, experience, and intuition. It is assumed that the cost burden is too great and the supply cannot keep up with the increasing needs.

そこで、一般人による映像表現を支援するため、予め用意された映像オブジェクトを、マウスやキーボードを用いてインタラクティブに加工し、映像を生成するシステムや、アーチィストにより表現された映像生成プログラムのパラメータと、脳波、体温、脈拍などの生体情報とを対応付け、映像の作成技術やセンスを問われることなく、アーチィスティックで質の高い映像が簡単に生成できるようにしたものがある。   Therefore, in order to support video expression by the general public, video objects prepared in advance are processed interactively using a mouse or keyboard to generate a video, parameters of a video generation program expressed by an artist, and an electroencephalogram. In addition, there is one that associates biometric information such as body temperature and pulse rate, and can easily generate a high-quality video with an archistic, regardless of the creation technique and sense of the video.

さらに、映像生成プログラムのパラメータに複数人の生体情報を対応つけ、絶えず変化し続ける動画的な映像生成を可能にしたものもある(特許文献1参照)。   Furthermore, there is a video image generation program that associates biometric information of a plurality of persons with the ability to generate video images that are constantly changing (see Patent Document 1).

また、予め決められた制御構造や既存のコンテンツの制御構造に、動画、静止画または音声を貼り付けることにより、多種多様な新規のコンテンツが作成できるようにしたものがある(特許文献2参照)。   In addition, there is one in which a variety of new contents can be created by pasting a moving image, a still image, or sound into a predetermined control structure or an existing content control structure (see Patent Document 2). .

また、ウインドウに表示される静止画像の仮想空間に臨場感を与えるため、時代、季節、天候などの客観条件、およびさびしい、強い、怒りなどの主観条件双方が指定されたときに静止画像上に表示されたアイコンの移動場所にマッチした効果音が聞こえるようにしたものがある(特許文献3参照)。   In addition, in order to give a sense of reality to the virtual space of still images displayed in the window, when both objective conditions such as era, season, and weather and subjective conditions such as lonely, strong, and anger are specified, they are displayed on the still image. There is one in which a sound effect that matches the moving location of the displayed icon can be heard (see Patent Document 3).

一方、映像以外の文字情報の分野においては、多数の文書の中からユーザが欲するファイルを抽出する方法に関し、因子分析により得られた少ない次元の因子座標上の座標値を付してそれぞれの文書ファイルをデータベースに格納し、ユーザの多種多様な感性評価語の中から特定の形容詞が入力されたときに、その形容詞とユークリッド距離が最小となるファイルを抽出して所望の情報が取り出せるようにしたものがある(特許文献4参照)。   On the other hand, in the field of character information other than video, regarding the method of extracting the file that the user wants from a large number of documents, each document is attached with coordinate values on the factor coordinates of a small number of dimensions obtained by factor analysis. The file is stored in the database, and when a specific adjective is input from a variety of user's sensitivity evaluation words, the file with the smallest distance between the adjective and the Euclidean distance can be extracted to retrieve the desired information. There is a thing (refer patent document 4).

また、ワードプロセッサやデスクトップパブリッシングなどの文書作成装置を用いて文書作成する際に、体裁を整えて仕上げを行うためのレイアウト編集が重要になる一方、使用者の優れた感性と熟練が要求され、相当な作業時間が必要となることから、レイアウト編集の雛形となる複数の文書テンプレートをデータベースに格納しておき、予めレベルが設定された複数の印象語によりそのデータベースから所定のテンプレートを選び出せるようにしたものがある(特許文献5参照)。
特開平11−175234号公報 特開2000−184325号公報 特開平8−305829号公報 特開平8−87520号公報 特開平9−305598号公報
In addition, when creating a document using a document creation device such as a word processor or desktop publishing, it is important to edit the layout in order to finish and finish. On the other hand, excellent sensitivity and skill of the user are required. Since a lot of work time is required, a plurality of document templates, which are templates for layout editing, are stored in a database, and a predetermined template can be selected from the database by using a plurality of impression words with preset levels. (See Patent Document 5).
JP-A-11-175234 JP 2000-184325 A JP-A-8-305829 JP-A-8-87520 JP-A-9-305598

しかしながら、映像を含むマルチメディアの分野において、人間の感性をニーズとして捉えるとともに、製作者や編集者などの経験や勘などに依存せず、特定の意図をもって動きのあるコンテンツを作成したい場合には、上述した技術をそのまま適用するのは困難である。一方、著名な製作者や編集者に作成を依頼する場合にはコスト負担が大きい上、製作時間が相当程度かかるという課題がある。   However, in the field of multimedia including video, if you want to create human moving sensibility as a need and create content with specific intentions, without depending on the experience or intuition of the producer or editor, etc. It is difficult to apply the above-described technique as it is. On the other hand, when a famous producer or editor is requested to create, there is a problem that the cost burden is large and the production time is considerably long.

本発明は、上記の事情に鑑み、人の感性にマッチしたコンテンツの作成をある程度自動化することにより、従来の文字主体の動きのないコンテンツによる情報伝達から、映像主体の動きのあるコンテンツによる情報伝達への変革を促し、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できるコンテンツ構成方法、コンテンツ作成装置、およびプログラムを提供することを目的とする。   In view of the above circumstances, the present invention automates the creation of content that matches human sensibility to some extent, thereby transferring information from content that does not have character-based motion to content that has motion based on video. Content composition method, content creation device, which can easily create sensibility-based content that can be easily enjoyed by viewers with low information literacy, and can enjoy “while watching” like television And to provide a program.

上記の目的を達成する請求項1記載のコンテンツ構成方法は、視聴者の感性情報を複数の形容詞で表現し、表現された該形容詞との相関関係に基づいて所定のオブジェクトを抽出し、視聴者に合わせたコンテンツを構成することを特徴とする。   The content composition method according to claim 1, which achieves the above object, expresses viewer's sensibility information with a plurality of adjectives, extracts a predetermined object based on a correlation with the expressed adjectives, and It is characterized in that the contents are tailored to each other.

このように、複数の形容詞で表現された視聴者の感性情報によりオブジェクトを抽出するので視聴者の感性を主体とするコンテンツが容易に作成される。   As described above, since the object is extracted based on the viewer's sensitivity information expressed by a plurality of adjectives, the content mainly based on the viewer's sensitivity is easily created.

上記の目的を達成する請求項2記載のコンテンツ構成方法は、コンテンツの配信者の配信ニーズを複数の形容詞で表現し、表現された該形容詞との相関関係に基づいて所定のオブジェクトを抽出し、該配信ニーズに合わせたコンテンツを構成することを特徴とする。   The content configuration method according to claim 2, which achieves the above object, expresses the delivery needs of a content distributor with a plurality of adjectives, extracts a predetermined object based on a correlation with the expressed adjectives, The content according to the delivery needs is configured.

このように、複数の形容詞で表現された配信ニーズによりオブジェクトを抽出するので配信者の感性を主体とするコンテンツが容易に作成される。   Thus, since an object is extracted according to the delivery needs expressed by a plurality of adjectives, content mainly based on the sensibility of the distributor can be easily created.

上記の目的を達成する請求項8記載のコンテンツ構成方法は、Webページに表示されたオリジナルコンテンツを再構成する方法であって、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、上記Webページを視聴する視聴状況に基づいて視聴者ニーズが取得されるニーズ取得手段とを備え、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
上記オリジナルコンテンツの構成要素に、上記データベースに格納された上記データを上記視聴者ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とする。
The content composition method according to claim 8, which achieves the above object, is a method for reconstructing original content displayed on a Web page,
Viewer needs are acquired based on a database storing data representing actions of each component of content including telop, image, sound, and background music, and viewing status of viewing the Web page. Needs acquisition means,
Enter the data that represents the telop, still image, and read-out voice used for the original content,
The data including the action is configured by attaching the data stored in the database to the constituent elements of the original content according to the viewer needs.

このように、Webページに表示されたオリジナルコンテンツの構成要素を、視聴者ニーズに応じてアクションが表現されるデータをくくりつけることにより、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できる。   In this way, by combining the elements of the original content displayed on the Web page with data that expresses the action according to the viewer's needs, it is possible to enjoy “watching” like a television and to reduce information. Easily create sensitive content that can be easily accepted by literacy viewers.

上記の目的を達成する請求項9記載のコンテンツ構成方法は、Webページに表示されたオリジナルコンテンツを再構成する方法であって、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、上記Webページを配信する配信者の配信ニーズが取得されるニーズ取得手段とを備え、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
上記オリジナルコンテンツの構成要素に、上記データベースに格納された上記データを上記配信ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とする。
The content composition method according to claim 9, which achieves the above object, is a method for reconstructing original content displayed on a web page,
A database storing data representing actions of each component of content including telop, image, sound, background music, and needs acquisition means for acquiring distribution needs of a distributor who distributes the Web page And
Enter the data that represents the telop, still image, and read-out voice used for the original content,
The data including the action is configured by attaching the data stored in the database to the constituent elements of the original content according to the distribution needs.

このように、Webページに表示されたオリジナルコンテンツの構成要素を、配信ニーズに応じてアクションが表現されるデータをくくりつけることにより、テレビジョンのように「ながら見」が楽しめる、感性主体のコンテンツを容易に作成できる。

上記の目的を達成する請求項10記載のコンテンツ構成方法は、画面に所定のコンテンツを表示させるコンテンツ構成方法であって、
静止画、動画、音声、音楽を含む、コンテンツの素材を表現するデータ、および画像の切り替え、画像の演出、テロップの挿入、音の演出、およびバック・グラウンド・ミュージックを含む、該素材のアクションを表現するデータ双方が格納されたデータベースと、コンテンツの視聴状況を収集し、視聴者ニーズを検出するニーズ検出手段とを備え、
上記ニーズ検出手段により検出された視聴者ニーズに応じて上記データベースに格納された上記素材を表現するデータ及び上記アクションを表現するデータの組み合わせを行い、アクションを含むコンテンツを構成することを特徴とする。
In this way, the content of the original content displayed on the Web page can be enjoyed while watching like a television, by combining the data expressing the action according to the distribution needs. Can be easily created.

The content configuration method according to claim 10, which achieves the above object, is a content configuration method for displaying predetermined content on a screen,
Data representing content material, including still images, video, audio, music, and actions of the material, including image switching, image rendering, telop insertion, sound rendering, and background music A database in which both data to be expressed are stored, and a need detection unit that collects the viewing status of content and detects viewer needs,
In accordance with the viewer needs detected by the needs detection means, the data representing the material stored in the database and the data representing the action are combined to constitute content including the action. .

このように、データベースに格納された静止画、動画、音声、音楽などの素材を表現するデータと画像の切り替え、テロップの挿入、音の演出などのアクションを表現するデータを視聴者ニーズに応じて組み合わせるので、感性を主体とする動きのあるコンテンツを容易に作成できる。   In this way, data that expresses actions such as data and image switching, telop insertion, sound production, etc. that represent materials such as still images, moving images, audio, and music stored in the database, according to viewer needs Since they are combined, it is possible to easily create content that moves mainly based on sensitivity.

上記の目的を達成する請求項14記載のコンテンツ作成装置は、アクションを含むコンテンツを作成するコンテンツ作成装置であって、
上記コンテンツの視聴者の感性情報を取得する感性情報取得手段と、
上記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
上記感性情報により、上記メモリに記憶された上記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とする。
The content creation device according to claim 14, which achieves the above object, is a content creation device that creates content including an action,
Kansei information acquisition means for acquiring Kansei information of viewers of the content,
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
Content creation means for configuring predetermined content including an action by combining the material stored in the memory and data representing the action based on the sensitivity information is provided.

このように感性により分類され、素材やアクションが表現されるデータがメモリに記憶されていて、コンテンツ作成手段がそれらのデータを感性情報取得手段で取得された視聴者の感性情報により組み合わせてコンテンツを構成するので、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できる。   In this way, data classified according to sensibilities and representing materials and actions is stored in the memory, and the content creation means combines the data with the viewer's sensibility information acquired by the sensibility information acquisition means, and the contents are combined. Since it is configured, it is possible to easily create content based on sensibility that can be enjoyed while watching like a television and can be easily accepted by viewers with low information literacy.

上記の目的を達成する請求項15記載のコンテンツ構成方法は、アクションを含むコンテンツを作成するコンテンツ作成装置であって、
上記コンテンツを配信する配信者の配信ニーズを取得する配信ニーズ取得手段と、
上記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
上記配信ニーズにより、上記メモリに記憶された上記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とする。
The content configuration method according to claim 15, which achieves the above object, is a content creation device for creating content including an action,
A distribution needs acquisition means for acquiring distribution needs of a distributor who distributes the content;
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
According to the above distribution needs, the content creation means for configuring the predetermined content including the action by combining the material stored in the memory and the data expressing the action is provided.

このように感性により分類され、素材やアクションが表現されるデータがメモリに記憶されていて、コンテンツ作成手段がそれらのデータを配信ニーズ取得手段で取得された視配信ニーズにより組み合わせてコンテンツを構成するので、テレビジョンのように「ながら見」が楽しめる、感性主体のコンテンツを容易に作成できる。   In this way, data classified according to sensibilities and representing materials and actions are stored in the memory, and the content creation means combines the data according to the visual distribution needs acquired by the distribution needs acquisition means to constitute the content. Therefore, it is possible to easily create sensibility-based content that can be enjoyed while watching as with a television.

上記の目的を達成する請求項16記載のコンテンツ構成方法は、コンピュータに表示されたWebページのオリジナルコンテンツを再構成するプログラムであって、
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
上記Webページを視聴する視聴状況を収集し、収集された該視聴状況に基づいて視聴者ニーズを検出するステップと、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
上記データベースから、検出された上記視聴者ニーズに応じた上記データを抽出し、上記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とする。
The content composition method according to claim 16, which achieves the above object, is a program for reconstructing original content of a Web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Collecting viewing status for viewing the web page and detecting viewer needs based on the collected viewing status;
Processing the input data in which the telop, still image, and reading sound used for the original content are expressed;
Extracting the data corresponding to the detected viewer needs from the database, causing the constituent elements of the original content to execute the step of attaching the extracted data, and including the action on the original content It is characterized by reconstructing content.

このように、Webページのオリジナルコンテンツにテロップや静止画、読み上げ音声などを貼り付けたり、オリジナルコンテンツの構成要素に、視聴状況から検出された視聴者ニーズに応じて、データベースから抽出したアクション用のデータをくくりつけて再構成するジョブを実行させるので、テレビジョンのように「ながら見」が楽しめる上、情報低リテラシーの視聴者にも容易に受容される、感性主体のコンテンツを容易に作成できるプログラムが得られる。   In this way, pasting telops, still images, read-out audio, etc. to the original content of the Web page, or the action content extracted from the database according to the viewer needs detected from the viewing status in the constituent elements of the original content Jobs that combine and reconstruct data can be executed, making it possible to easily create sensibility-based content that can be enjoyed while watching like a television and easily accepted by viewers with low information literacy. A program is obtained.

上記の目的を達成する請求項17記載のコンテンツ構成方法は、コンピュータに表示されたWebページのオリジナルコンテンツを再構成するプログラであって、
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
上記Webページを配信する配信者の配信ニーズを取得するステップと、
上記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
上記データベースから、取得された上記配信ニーズに応じた上記データを抽出し、上記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とする。
The content composition method according to claim 17, which achieves the above object, is a program for reconstructing the original content of a Web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Acquiring distribution needs of a distributor who distributes the Web page;
Processing the input data in which the telop, still image, and reading sound used for the original content are expressed;
Content that includes the action, extracting the data according to the acquired delivery needs from the database, and causing the constituent elements of the original content to execute the step of attaching the extracted data. It is characterized by reconfiguring.

このように、Webページのオリジナルコンテンツにテロップや静止画、読み上げ音声などを貼り付けたり、オリジナルコンテンツの構成要素に、配信ニーズに応じて、データベースから抽出したアクション用のデータをくくりつけて再構成するジョブを実行させるので、テレビジョンのように「ながら見」が楽しめる、感性主体のコンテンツを容易に作成できるプログラムが得られる。   In this way, pasting telops, still images, read-out audio, etc. on the original content of a Web page, or reorganizing the original content by combining action data extracted from the database according to distribution needs This makes it possible to create a program that can easily create sensibility-based content that can be enjoyed while watching like a television.

本発明のコンテンツ構成方法、コンテンツ作成装置、およびプログラムによれば、人の感性にマッチした、動きのあるコンテンツの作成がある程度自動化されるので、映像主体で、アクションが含まれるコンテンツの提供が容易になり、テレビジョンのように「ながら見」が楽しめる上、老若男女を問わず容易に受容されるコンテンツを提供することが可能になる。   According to the content configuration method, the content creation device, and the program of the present invention, creation of moving content that matches human sensibility is automated to some extent, so it is easy to provide content that is mainly video and includes action. In addition to being able to enjoy “watching” like a television, it becomes possible to provide content that can be easily accepted regardless of age or sex.

以下に、本発明のコンテンツ構成方法、コンテンツ作成装置、およびプログラムの実施形態について説明する。
(第1の実施形態)
第1の実施形態は、インターネットのプロバイダなどが、オリジナルコンテンツ(例えばWebページ)をもとに、コンテンツ視聴者のニーズやコンテンツ配信者のニーズを取得し、それらのニーズに応じてオリジナルコンテンツにアクションを加えて再構成する場合を例にして説明する。
Hereinafter, embodiments of the content configuration method, the content creation device, and the program of the present invention will be described.
(First embodiment)
In the first embodiment, an Internet provider or the like acquires the needs of content viewers and the needs of content distributors based on original content (for example, Web pages), and takes action on the original content according to those needs. An example of reconfiguration with the above will be described.

図1は、本発明のコンテンツ作成装置の第1の実施形態を示す概略構成図である。   FIG. 1 is a schematic configuration diagram showing a first embodiment of a content creation apparatus of the present invention.

図1に示す第1の実施形態のコンテンツ作成装置には、本発明のコンテンツ構成方法が用いられ、本発明のプログラムがインストールされている。本実施形態のコンテンツ作成装置は、インターネットプロバイダのサーバから所定のWebページに関する情報を取得する情報取得部10と、情報取得部10により取得された情報に基づいて視聴者ニーズとコンテンツの素材を抽出し、その素材にアクションを付加してオリジナルコンテンツを再構成するコンテンツ作成部20とを備えている。   The content creating method of the first embodiment shown in FIG. 1 uses the content composition method of the present invention, and the program of the present invention is installed. The content creation apparatus according to the present embodiment extracts an information acquisition unit 10 that acquires information about a predetermined Web page from an Internet provider server, and extracts viewer needs and content materials based on the information acquired by the information acquisition unit 10. And a content creation unit 20 that reconfigures the original content by adding an action to the material.

情報取得部10は、さらに、Webページに表示されるオリジナルコンテンツを取得するオリジナルコンテンツ取得部11と、Webページにアクセスする視聴者の視聴状況に関する情報を取得する視聴状況取得部12とを有する。   The information acquisition unit 10 further includes an original content acquisition unit 11 that acquires original content displayed on a Web page, and a viewing status acquisition unit 12 that acquires information on the viewing status of a viewer who accesses the Web page.

コンテンツ作成部20は、視聴状況に関する情報から視聴者ニーズを検出する視聴者ニーズ取得部22と、オリジナルコンテンツを構成要素毎に分解し、検出した視聴者ニーズに基づいて必要な構成要素を抽出して情報格納部に一時格納するコンテンツ分解部21と、コンテンツの構成要素となる素材が表現されるデータや、予め感性により分類された、アクションが表現されるデータを格納する情報格納部25と、視聴者ニーズにマッチしたアクション表現用データを抽出し、情報格納部25に一時格納された構成要素にそのアクション表現用データをリンクさせ、オリジナルコンテンツに動きのある演出効果を加えて取得したオリジナルコンテンツを再構成するコンテンツ再生部30とを有する。   The content creating unit 20 decomposes the original content for each constituent element and extracts the necessary constituent elements based on the detected viewer needs, and the viewer needs acquiring section 22 that detects the viewer needs from the information regarding the viewing situation. A content disassembly unit 21 temporarily stored in the information storage unit, data expressing a material that is a constituent element of the content, an information storage unit 25 storing data classified in advance and data expressing an action, Original content acquired by extracting action expression data that matches the viewer's needs, linking the action expression data to components temporarily stored in the information storage unit 25, and adding a moving effect to the original content And a content reproduction unit 30 for reconfiguring the content.

ここで、本実施形態では、分解され、抽出された素材用データにアクション表現用データをリンクさせてくくりつけ、再構成することにしているが、これに限定する必要はなく、例えば所定の言語を用いたプログラム処理により再構成してもよい。   Here, in this embodiment, the action expression data is linked to the decomposed and extracted material data, and is reconstructed. However, the present invention is not limited to this, and for example, a predetermined language is used. You may reconfigure | reconstruct by the program processing using.

今、オリジナルコンテンツ取得部11にオリジナルコンテンツが入力されると、そのオリジナルコンテンツ11は、コンテンツ分解部21により素材(オブジェクト)O1、O2、…Onに分解される。   Now, when the original content is input to the original content acquisition unit 11, the original content 11 is decomposed by the content decomposition unit 21 into materials (objects) O1, O2,.

一方、オリジナルコンテンツの入力により視聴状況取得部12には視聴状況が取得され、取得された視聴状況は、視聴者ニーズ取得部22において視聴状況空間に写像され、さらに視聴ニーズ空間に写像されて、形容詞で表現された視聴者ニーズが把握される。   On the other hand, the viewing status is acquired in the viewing status acquisition unit 12 by input of the original content, and the acquired viewing status is mapped to the viewing status space in the viewer needs acquisition unit 22 and further mapped to the viewing needs space, The audience needs expressed in adjectives are grasped.

ここで、視聴状況を継続して取得することにより、時々刻々変化する視聴者ニーズを把握することができる。   Here, by continuously acquiring the viewing status, it is possible to grasp viewer needs that change from moment to moment.

一般に、ユーザがコンテンツを視聴する場合には、n個の視聴属性(視聴場所、視聴時間帯、視聴に用いられる端末、視聴者の年齢、性別など)が存在する。これらの視聴属性情報の中から、視聴属性情報をm個(m>n)選択して、本実施形態で用いる視聴属性を取得することができる。例えば、視聴場所、視聴に用いられる端末の種類、視聴時間帯を選択し、それぞれの条件を離散軸上にプロットする。なお、視聴時間帯のように連続値を有するものは、例えば、6:00〜10:00は「朝」、23:00〜3:00は、「深夜」などの離散的な値に変換することにより同一空間内に配置することができる。   Generally, when a user views content, there are n viewing attributes (viewing place, viewing time zone, terminal used for viewing, viewer age, gender, etc.). From these viewing attribute information, m viewing attribute information (m> n) can be selected to obtain viewing attributes used in the present embodiment. For example, the viewing location, the type of terminal used for viewing, and the viewing time zone are selected, and each condition is plotted on a discrete axis. For example, those having continuous values such as viewing hours are converted into discrete values such as “morning” at 6:00 to 10:00 and “midnight” at 23:00 to 3:00. Thus, they can be arranged in the same space.

視聴属性が決定すると、その視聴状況に応じて視聴ニーズが決定する。例えば、視聴場所、視聴に用いられる端末の種類、視聴時間帯が視聴属性として選択され、あるユーザから「自宅で、夜、パソコンを使ってWebページにアクセスした」という視聴状況が得られたときは、その視聴属性は「自宅」「PC」「夜」であり、「ゆっくり」「落ち着いて」などの形容詞をキーワードとしてその視聴ニーズは、「情報を細部まで知りたい」ということであると決定する。   When the viewing attribute is determined, the viewing needs are determined according to the viewing situation. For example, when the viewing location, the type of terminal used for viewing, and the viewing time zone are selected as viewing attributes, and a viewing situation such as “accessing a web page using a computer at home at night” is obtained from a certain user. The viewing attributes are "Home", "PC", "Night", and the viewing needs are determined to be "I want to know details in detail" using adjectives such as "slowly" and "settled" as keywords. To do.

ここで、視聴状況から視聴ニーズを求めるには、例えば視聴状況空間における視聴属性に応じて、パラメータが得られる対応表を備えるとともに、視聴ニーズ空間において、そのパラメータから形容詞が得られる対応表を備える方法がある。また、視聴属性に応じて決定される形容詞と視聴率とに基づいて、因子分析により求めることにしてもよい。   Here, in order to obtain the viewing needs from the viewing situation, for example, according to the viewing attribute in the viewing situation space, a correspondence table for obtaining parameters is provided, and in the viewing needs space, a correspondence table for obtaining adjectives from the parameters is provided. There is a way. Further, it may be obtained by factor analysis based on the adjective determined according to the viewing attribute and the audience rating.

このようにして求めた視聴者ニーズにより分解された素材から所定の素材が抽出され、情報格納部25に一時格納される。そして、コンテンツ再生部30は、情報格納部25に一時格納された素材に、視聴者ニーズに応じたアクション表現用データをリンクさせ、オリジナルコンテンツにアクションを付加しオリジナルコンテンツを再構成する。   A predetermined material is extracted from the material decomposed according to the viewer needs determined in this way, and is temporarily stored in the information storage unit 25. Then, the content reproduction unit 30 links the action expression data according to the viewer needs to the material temporarily stored in the information storage unit 25, adds an action to the original content, and reconstructs the original content.

本実施形態の情報取得部10は、視聴状況取得部12を有し、コンテンツ作成部20は、視聴者ニーズ取得部22を有することにより視聴者ニーズを把握するように構成されているが、視聴者ニーズ取得部に代えて、コンテンツを配信する配信者の配信ニーズを把握する配信ニーズ取得部を備え、視聴者ニーズに代えて配信ニーズを把握することにしてもよい。その場合、情報取得部における視聴状況取得部12は、必ずしも必要ない。なお、配信ニーズは、企画会議などで決定されたコンセプトや聞き取り調査などに基づいて把握することができる。   The information acquisition unit 10 of the present embodiment has a viewing status acquisition unit 12 and the content creation unit 20 has a viewer needs acquisition unit 22 so as to grasp the viewer needs. Instead of the viewer needs acquisition unit, a distribution needs acquisition unit that grasps the distribution needs of the distributor who distributes the content may be provided, and the distribution needs may be determined instead of the viewers needs. In that case, the viewing status acquisition unit 12 in the information acquisition unit is not necessarily required. The distribution needs can be grasped based on the concept determined by the planning meeting or the interview survey.

さらに、本実施形態のコンテンツ作成装置は、パーソナルコンピュータ、あるいはサーバに本発明のプログラムがインストールされたものであってもよい。   Furthermore, the content creation device of the present embodiment may be a personal computer or a server in which the program of the present invention is installed.

次に、本発明のコンテンツ構成方法、及び本発明のプログラムの実施形態を示す処理手順について説明する。なお、この処理手順は、コンテンツ作成装置の作用に相当する。   Next, a content configuration method of the present invention and a processing procedure showing an embodiment of the program of the present invention will be described. This processing procedure corresponds to the operation of the content creation device.

図2は、本発明のコンテンツ構成方法、及び本発明のプログラムの第1の実施形態を示す処理手順である。   FIG. 2 is a processing procedure showing the first embodiment of the content configuration method of the present invention and the program of the present invention.

図2に示すように、本実施形態のコンテンツ構成方法は、インターネットプロバイダのサーバから所定のWebページに関する情報を取得する情報取得手順(S1)と、視聴者ニーズを検出し、検出した視聴者ニーズに基づいてオリジナルコンテンツから必要な構成要素を抽出して情報格納部に一時格納するコンテンツ構成手順(S2)と、情報格納部に一時格納された構成要素にアクション表現用データをリンクさせてオリジナルコンテンツを再構成するコンテンツ再生手順(S3)とを備えている。   As shown in FIG. 2, the content configuration method according to the present embodiment includes an information acquisition procedure (S1) for acquiring information related to a predetermined Web page from a server of an Internet provider, viewer needs, and detected viewer needs. A content composition procedure (S2) for extracting necessary constituent elements from the original content and temporarily storing them in the information storage section based on the content, and linking the action expression data to the constituent elements temporarily stored in the information storage section And a content reproduction procedure (S3) for reconfiguring.

以下、図3に基づいて情報取得手順(S1)の詳細を、図6に基づいてコンテンツ構成手順(S2)の詳細を、図7に基づいて、コンテンツ再生手順(S3)の詳細をそれぞれ説明する。   Hereinafter, the details of the information acquisition procedure (S1) will be described based on FIG. 3, the details of the content configuration procedure (S2) based on FIG. 6, and the details of the content reproduction procedure (S3) based on FIG. .

図3は、情報取得手順(S1)の詳細を示す図である。   FIG. 3 is a diagram showing details of the information acquisition procedure (S1).

図3に示すように、情報取得手順(S1)は、所定のWebページにアクセスした視聴者の視聴状況に関する情報を取得する視聴状況取得手順(S101)と、所定のWebページに表示されたオリジナルコンテンツを入力するコンテンツ入力手順(S102)とを有する。   As shown in FIG. 3, the information acquisition procedure (S1) includes a viewing status acquisition procedure (S101) for acquiring information related to a viewing status of a viewer who has accessed a predetermined Web page, and an original displayed on the predetermined Web page. A content input procedure (S102) for inputting content.

視聴状況取得手順(S101)において、視聴者の視聴状況は、サービスプロバイダのサーバに、例えば視聴者(インターネットのユーザ)からホームページにアクセスされた回数がカウントされるようにカウンタを設け、そのカウンタの数値を時間帯別に集計することなどにより取得することができる。また、所定のパーソナルコンピュータからアクセスされたものであるか、携帯電話などのモバイル端末からアクセスされたものであるかなど、アクセスされた端末機毎の情報や、その端末機の設置地域など、アクセスした場所の情報が取得できるようにしてもよい。さらに、視聴者入力による助力を得て、より詳細な属性情報を取得することにしてもよい。   In the viewing status acquisition procedure (S101), the viewing status of the viewer is provided with a counter in the service provider's server so that the number of times the viewer (Internet user) accesses the home page is counted, for example. It can be obtained by counting the numerical values by time zone. In addition, access information such as information on each accessed terminal, such as whether it was accessed from a predetermined personal computer or a mobile terminal such as a mobile phone, and the location of the terminal, etc. It may be possible to acquire information on the location. Further, more detailed attribute information may be obtained by obtaining assistance from viewer input.

コンテンツ入力手順(S102)において、オリジナルコンテンツは、視聴者がキーワード検索などによりアクセスしたホームページや、URLを直接入力してアクセスしたWebページに表示されるコンテンツから取得することができる。   In the content input procedure (S102), the original content can be acquired from the homepage accessed by the viewer by keyword search or the content displayed on the Web page accessed by directly entering the URL.

図4は、視聴者が視聴したいコンテンツを選択する情報が入力される表示画面の一例を示す図である。   FIG. 4 is a diagram illustrating an example of a display screen on which information for selecting content that the viewer wants to view is input.

図4に示すパーソナルコンピュータ(以下「PC」と略称する。)の表示画面には、視聴者(インターネットのユーザ)がホームページを検索するダイアログボックス100が表示される。ダイアログボックス100には、キーワードを入力することにより検索エンジンで該当のホームページを検索するドキュメントウインドウW1と、URLを入力することによりWebページに直接アクセスするドキュメントウインドウW2と、ユーザが準備した画像や音声などの素材やアクションを表現するデータをメモリに記憶させるためのドキュメントウインドウW3と、いわゆる「お勧めページ」にリンクされたお勧めコンテンツ101が設けられている。   On the display screen of the personal computer (hereinafter abbreviated as “PC”) shown in FIG. 4, a dialog box 100 for a viewer (Internet user) to search for a home page is displayed. In the dialog box 100, a document window W1 for searching for a corresponding home page by a search engine by inputting a keyword, a document window W2 for directly accessing a Web page by inputting a URL, images and sounds prepared by the user, and the like. A document window W3 for storing data representing the material and action in the memory and recommended content 101 linked to a so-called “recommended page” are provided.

このダイアログボックス100の所定のドキュメントウインドウW1、W2、W3に、所定の情報が入力され、「実行」ボタン102がクリックされると、サービスプロバイダのサーバには、各ユーザからの情報が集約され、ホームページ毎、あるいはWebページ毎の視聴状況が取得される。   When predetermined information is input to predetermined document windows W1, W2, and W3 of this dialog box 100 and the “execute” button 102 is clicked, information from each user is collected on the service provider server, The viewing status for each home page or each Web page is acquired.

図5は、PCのダイアログボックスから入力された情報がコンテンツの構成要素となる素材として情報格納部に格納される状況を示す図である。   FIG. 5 is a diagram illustrating a situation in which information input from a PC dialog box is stored in the information storage unit as a material that is a component of content.

図5に示すように、ダイアログボックスのドキュメントウインドウW1からキーワードが入力されると(S101−01)、検索エンジンが起動し、入力されたキーワードに該当するページの一覧が表示される(S101−02)。
スクロールバーを移動してその一覧から該当ページを検索する(S101−03)。
該当ページが見つかったとき、そのページ内の情報がオリジナルコンテンツとして取得され(S101−04)、取得された情報は、分解され、所定の素材が情報格納部に格納される(S101−10)。
As shown in FIG. 5, when a keyword is input from the document window W1 of the dialog box (S101-01), the search engine is activated and a list of pages corresponding to the input keyword is displayed (S101-02). ).
The scroll bar is moved to search for the corresponding page from the list (S101-03).
When the corresponding page is found, the information in the page is acquired as original content (S101-04), the acquired information is decomposed, and a predetermined material is stored in the information storage unit (S101-10).

また、ダイアログボックスからキーワードに代えてURLが直接入力されると(S101−05)、そのURLに該当するホームページに直接アクセスされる。そして、アクセスされたそのホームページ内の情報がオリジナルコンテンツとして取得され(S101−06)、取得された情報は、分解され、所定の情報が情報格納部に格納される(S101−10)。   When a URL is directly input from the dialog box instead of a keyword (S101-05), the home page corresponding to the URL is directly accessed. The accessed information in the home page is acquired as original content (S101-06), the acquired information is decomposed, and predetermined information is stored in the information storage unit (S101-10).

さらに、ダイアログボックスから、キーワードやURLに代えて、ユーザが準備した、例えばデジタルカメラやビデオカメラで撮影された映像データや、CVDやDVDに記録された映像や音楽のデジタルデータなどが入力されると(S101−07)、それらのデジタルデータは、素材情報として取得され(S101−08)、取得された情報は、情報格納部に格納される(S101−10)。   In addition, instead of keywords and URLs, for example, video data taken by a digital camera or video camera, video recorded on a CVD or DVD, digital music data, or the like is input from the dialog box. (S101-07), the digital data is acquired as material information (S101-08), and the acquired information is stored in the information storage unit (S101-10).

また、表示画面に表示された、いわゆる「お勧めページ」がクリックされると、そのお勧めページ内の情報がオリジナルコンテンツとして取得され(S101−09)、取得された情報は、分解され、所定の情報が情報格納部に格納される(S101−10)。   When a so-called “recommended page” displayed on the display screen is clicked, information in the recommended page is acquired as the original content (S101-09), and the acquired information is disassembled and predetermined. Is stored in the information storage unit (S101-10).

図6は、コンテンツ構成手順(S2)の詳細を示す図である。
図6に示すように、コンテンツ構成手順(S2)は、コンテンツ入力手順(S102)において取得されたオリジナルコンテンツからコンテンツの構成要素となる素材を抽出するため、その素材を構成要素毎に分解する素材分解手順(S201)と、視聴状況取得手順(S101)において取得された視聴状況を集計し、視聴場所、端末機などの属性情報を2次元または3次元空間に投影して所定のパラメータを得る視聴状況空間写像手順(S202)と、視聴者状況空間写像手順で得られたパラメータを2次元または3次元空間に投影して、形容詞で表現される視聴者ニーズを把握する視聴ニーズ空間写像手順(S203)と、把握された視聴ニーズに基づいて、素材分解手順(S201)において分解された構成要素の中から所定の素材を抽出し、情報格納部に一時格納するコンテンツ構成手順(S204)とを有する。
FIG. 6 is a diagram showing details of the content configuration procedure (S2).
As shown in FIG. 6, in the content composition procedure (S2), in order to extract a material that is a component of the content from the original content acquired in the content input procedure (S102), a material that decomposes the material for each component Viewing that obtains predetermined parameters by totaling the viewing situation acquired in the disassembling procedure (S201) and the viewing situation obtaining procedure (S101), and projecting attribute information such as viewing location and terminal on a two-dimensional or three-dimensional space The situation space mapping procedure (S202) and the viewing needs space mapping procedure (S203) for projecting the parameters obtained by the viewer situation space mapping procedure onto a two-dimensional or three-dimensional space to grasp the viewer needs expressed by adjectives. ) And a predetermined material from among the components disassembled in the material disassembling procedure (S201) based on the grasped viewing needs Extracted, and a content configuration steps for temporarily storing the information storing section (S204).

図7は、コンテンツ再生手順(S3)の詳細を説明する図である。   FIG. 7 is a diagram for explaining the details of the content reproduction procedure (S3).

図7の上段に示すように、コンテンツ分解部21により分解された素材(O0、O1、O2、‥O8)には、画像要素(画像1、画像2‥‥画像i)、音声要素(音1、音2、‥‥音j)、テキスト要素(テキスト1、テキスト2、‥‥テキストk)などのさまざまな素材5が含まれている。   As shown in the upper part of FIG. 7, the material (O 0, O 1, O 2,... O8) decomposed by the content decomposition unit 21 includes an image element (image 1, image 2... Image i), and an audio element (sound 1). , Sound 2,... Sound j), and various materials 5 such as text elements (text 1, text 2,... Text k) are included.

そこで、それらの素材5から、視聴者ニーズにしたがって、図7の下段に示すように、画像要素に関しては、例えば画像1、画像5、画像2を、音声要素に関しては、例えば画像1と画像5とが表示されている間に流れる音2、画像2が表示されているときに流れる音7を、テキスト要素に関しては、例えば画像5に添付されたテキスト3を抽出し、情報格納部に一時格納されている。   Therefore, from these materials 5, according to the viewer's needs, as shown in the lower part of FIG. 7, for example, image 1, image 5, and image 2 are related to image elements, and for example, image 1 and image 5 are related to audio elements. For example, the text 2 attached to the image 5 is extracted and temporarily stored in the information storage unit. Has been.

コンテンツ再生部30は、視聴者ニーズにしたがって「カット」「フェード」というアクション表現用データを抽出し、画像1と画像5とは「カット」で繋ぎ、画像5と画像2とは「フェード」で繋ぐ。また、音2と音7とを「フェード」で繋ぐ。   The content reproduction unit 30 extracts action expression data “cut” and “fade” according to the viewer's needs, and the images 1 and 5 are connected by “cut”, and the images 5 and 2 are “fade”. Connect. Also, the sound 2 and the sound 7 are connected by “fade”.

次に、視聴者ニーズにより、素材を抽出したり、その素材に加えるアクションを選択する方法について説明する。   Next, a method for extracting a material and selecting an action to be added to the material according to the viewer's needs will be described.

はじめに、コンテンツの構成要素となるさまざまなジャンルの素材やアクションに対し、一般的視聴者が受ける印象をSD法で分析し、それらの素材やアクションを感性により分類する尺度を、因子得点により求めた例について説明する。   First, the SD method was used to analyze impressions received by general viewers on materials and actions of various genres that are constituent elements of content, and a scale for classifying those materials and actions according to sensitivity was obtained from factor scores. An example will be described.

図8は、コンテンツを構成する構成要素となる素材やアクションの種類を調査・分類した一例を示す図である。   FIG. 8 is a diagram illustrating an example in which the types of materials and actions that are constituent elements of content are investigated and classified.

図8に示す例は、コンテンツの構成要素が画像、音声、テロップに大分類され、画像は、さらに画像と画像とを繋ぐ際の演出効果にかかわる「トランジション」に関するものと、画像そのものの演出効果にかかわる「エフェクト」に関するものに区分される。また、音声は、音声そのものの演出効果にかかわる「エフェクト」に関するものと、音声と音声とを繋ぐ際の演出効果にかかわる「効果音」に関するものに区分される。そして、それぞれの区分に対して、風景、人物、静寂、喧騒などのカテゴリと、カット、フェード、パンや具体的な曲名などの種類とによって小分類されている。   In the example shown in FIG. 8, the constituent elements of the content are roughly classified into images, sounds, and telops, and the images are related to “transitions” related to the effects when connecting the images and the effects of the images themselves. It is divided into those related to “effects”. The sound is classified into “effect” related to the effect of the sound itself and “effect sound” related to the effect when connecting the sound and the sound. Each category is subdivided into categories such as landscape, person, silence, and noise, and types such as cut, fade, pan, and specific song name.

なお、これらの調査対象のコンテンツとして、例えば画像の切り替えに関しては、映像編集ソフトである、Adobe Premier(商標)、テロップの動きに関しては、Microsoft Power Point(商標)、効果音に関しては、インターネットの音配信サイトなどが含まれる。   The contents to be investigated include, for example, video editing software Adobe Premier (trademark) for switching images, Microsoft Power Point (trademark) for telop movement, and Internet sound for sound effects. Includes distribution sites.

次に、調査結果に含まれる素材やアクションの中から代表的なものを抽出し、SD法による適用実験を行った。   Next, representative materials were extracted from the materials and actions included in the survey results, and applied experiments using the SD method were conducted.

図9は、実験のために抽出された24種類のオブジェクトを示す図である。   FIG. 9 is a diagram showing 24 types of objects extracted for the experiment.

図9に示すように、テロップは、「フェード」「ズーム」「ライズアップ」「スパイラルイン」「マグニファイ」「タイピング」という6種類のアクションを有するもの、画像効果は、「カット」「フェードイン」「パン(速い)」「パン(遅い)」「ズーム(速い)」「ズーム(遅い)」「ズーム+パン(速い)」「ズーム+パン(遅い)」「押し出し」「スポットライト」「ズーム切り替え」という11種類のアクションを有するもの、合成音声は、2種類のアクション、音楽(BGM)は、5種類のアクションそれぞれ有するものを抽出した。   As shown in FIG. 9, the telop has six types of actions such as “fade”, “zoom”, “rise-up”, “spiral-in”, “magnify”, and “typing”, and the image effects are “cut” and “fade-in”. “Pan (fast)” “Pan (slow)” “Zoom (fast)” “Zoom (slow)” “Zoom + Pan (fast)” “Zoom + Pan (slow)” “Push out” “Spotlight” “Zoom switching” "Having eleven types of actions", two types of synthesized speech, and music (BGM) having five types of actions.

実験は、図9に示すテロップ、画像、合成音声、音楽という4つのカテゴリ、24種類のオブジェクトについて、被験者ごとにランダムに提示し、SD法による6段階評価を行った。なお、この実験では、切り替え方法や提示方法などに関する評価を目的とするものであるが、コンテンツの構成要素により被験者の感性が変化する恐れがあることから、できるだけ無意味な文字や画像を素材として選択した。   In the experiment, four categories and 24 types of objects such as telop, image, synthesized speech, and music shown in FIG. 9 were randomly presented for each subject, and six-stage evaluation was performed by the SD method. The purpose of this experiment is to evaluate the switching method and presentation method. However, because the subject's sensibility may change depending on the components of the content, use as meaningless text and images as possible. Selected.

図10は、SD法におけるアンケートに用いた質問項目を示す図である。   FIG. 10 is a diagram showing the question items used in the questionnaire in the SD method.

図10に示すように、アンケートの質問項目としては、「あたたかい/つめたい」「派手な/地味な」「軽やかな/重々しい」などの対立する24の形容詞対を用いた。   As shown in FIG. 10, 24 questionable adjective pairs such as “warm / slow”, “flashy / plain”, “light / heavy”, etc. were used as question items in the questionnaire.

図11は、SD法による分析結果を示す図である。   FIG. 11 is a diagram showing the results of analysis by the SD method.

図11に示す分析結果は、それぞれの素材やアクションに対する質問項目のうち上位5つの形容詞がリストアップされている。   The analysis result shown in FIG. 11 lists the top five adjectives among the question items for each material and action.

この分析結果によれば、動きの少ないテロップ(テロップ01、テロップ02、テロップ03)は、「まとまり」「手軽さ」を感じさせる共通の効果があり、動きの大きいテロップ(テロップ04、テロップ05、テロップ06)は、テロップごとに「軽やか」「目立つ」「かたい」など特徴的な、異なる感じを与える効果がある。また、「フェード」「パン」「ズーム」という画像効果は、速度とは無関係に、「まとまり」を感じさせる傾向があり、「押し出し」「スポットライト」は、内容に拘わらず「かたい」「現実的な」印象を与えるという効果がある。さらに、合成音声は、「能動的な」「変化に富んだ」印象を与え、BGMは、「美しい」「まとまった」感じの印象を与える傾向が強い。   According to this analysis result, telops with little movement (telop 01, telop 02, telop 03) have a common effect of feeling “group” and “easy”, and telops with large movement (telop 04, telop 05, The telop 06) has the effect of giving different and distinctive characteristics such as “light”, “conspicuous”, and “hard” for each telop. In addition, the image effects of “fade”, “pan”, and “zoom” tend to feel “group” regardless of the speed, and “extrusion” and “spotlight” are “hard”, “ It has the effect of giving a “realistic” impression. Furthermore, the synthesized speech gives an impression of “active” and “various”, and BGM tends to give an impression of “beautiful” and “collective” feeling.

図12は、図11に示した分析結果を因子分析して求めた因子負荷量を一例として示す図である。   FIG. 12 is a diagram illustrating, as an example, factor loadings obtained by factor analysis of the analysis results illustrated in FIG.

ここに示した因子負荷量は、市販の因子分析用ソフトウエアを用いて容易に算出することができる。   The factor loading shown here can be easily calculated using commercially available factor analysis software.

図12に示すように、ここでは2つの因子に対する因子負荷量が求められ、第1因子は、「変化にとんだ」「派手な」などの形容詞が高い因子負荷量を示している。また、第2因子は、「あたたかい」「美しい」などの形容詞が高い因子負荷量を示している。   As shown in FIG. 12, factor loadings for two factors are obtained here, and the first factor indicates a factor loading with high adjectives such as “hangs on change” and “flashy”. The second factor indicates a high factor loading with adjectives such as “warm” and “beautiful”.

ここで、本実験においては2つの因子を求めているが、3つ以上の因子を求め、その中の寄与率が高いものを複数抽出することにしてもよい。   Here, although two factors are obtained in this experiment, three or more factors may be obtained, and a plurality of factors having a high contribution ratio may be extracted.

図13は、図12に示した第1因子と第2因子とを座標軸とする2次元平面に各形容詞の因子負荷量をプロットした図である。   FIG. 13 is a diagram in which the factor loading of each adjective is plotted on a two-dimensional plane having the first factor and the second factor shown in FIG. 12 as coordinate axes.

図13に示すように、ここでは、第1因子の軸を動揺軸と命名され、第2因子の軸を柔軟軸と命名されている。   As shown in FIG. 13, here, the axis of the first factor is named as the oscillation axis, and the axis of the second factor is named as the flexible axis.

プロットされた形容詞によって表現される意味を分析すると、動揺軸により、構成要素の揺れや動きが表現されることがわかり、正極性の値が大きくなればなるほど喧騒の度合いが強くなる傾向にあり、負極性の値が大きくなればなるほど静寂の度合いが強くなる傾向にある。例えば、「変化に富んだ」「派手な」「目立つ」「個性的な」「面白い」という感じは、喧騒の度合いが強く、「かたい」「現実的な」「手軽な」という感じは、静寂の度合いが強いと判断される。   Analyzing the meaning expressed by the plotted adjectives, it can be seen that the oscillation axis expresses the shaking and movement of the component, and the greater the positive value, the more the degree of noise tends to become, The greater the negative polarity value, the stronger the degree of silence. For example, the feelings of “various”, “flashy”, “conspicuous”, “individual”, “interesting” are strong, and the feeling of “hard”, “realistic”, “easy” It is judged that the degree of silence is strong.

一方、柔軟軸は、構成要素のフレキシビリティが表現されていることがわかり、正極性の値が大きくなればなるほど柔軟の度合いが強くなる傾向にあり、負極性の値が大きくなればなるほど堅硬の度合いが強くなる傾向にある。例えば、「あたたかい」「美しい」「自然な」という感じは、柔軟の度合いが強く、「かたい」「現実的な」という感じは、堅硬の度合いが強いと判断される。   On the other hand, the flexible axis shows that the flexibility of the component is expressed, and the greater the positive value, the stronger the degree of flexibility, and the greater the negative value, the stiffer The degree tends to be strong. For example, a feeling of “warm”, “beautiful”, and “natural” has a high degree of flexibility, and a feeling of “hard” and “realistic” has a strong degree of rigidity.

したがって、各形容詞により表現される視聴者の印象と、図11に示した分析結果とを対比し、形容詞で表現された視聴者ニーズとコンテンツの構成要素となる素材やアクションが視聴者に与える印象との相関関係により、視聴者ニーズに応じた素材やアクションを抽出することができることがわかる。   Therefore, the viewer's impression expressed by each adjective and the analysis result shown in FIG. 11 are contrasted, and the viewer needs expressed by the adjective and the impression that the material or action that constitutes the content gives to the viewer It can be seen that the material and action according to the viewer's needs can be extracted by the correlation.

ここでは、2つの座標軸を用い、因子負荷量を2次元平面にプロットしているが、3つの座標軸を用いて2次元平面にプロットすることにしてもよい。   Here, two coordinate axes are used and the factor loading is plotted on a two-dimensional plane, but it may be plotted on a two-dimensional plane using three coordinate axes.

図14は、図11に示した分析結果、及び図12に示した因子負荷量とを用いて算出した因子得点に基づいてプロットした24種類のオブジェクトを示す図である。   FIG. 14 is a diagram showing 24 types of objects plotted based on the factor scores calculated using the analysis results shown in FIG. 11 and the factor loadings shown in FIG.

図14に示す24種類のオブジェクトは、図13に示した動揺軸と柔軟軸とを座標軸とし、因子得点を座標メモリとする2次元平面にプロットされている。   The 24 types of objects shown in FIG. 14 are plotted on a two-dimensional plane with the oscillation axis and the flexible axis shown in FIG. 13 as coordinate axes and factor scores as coordinate memories.

ここで、因子得点は、例えば24種類のオブジェクトそれぞれに対する分析結果における形容詞の評価点を集計した総合評価点に対する、第1及び第2因子それぞれの因子負荷量を係数、因子得点を変数とする連立方程式を、市販のソフトウエアを用いて解くことにより求めることができる。   Here, the factor score is, for example, a combination of the factor loadings of the first and second factors as coefficients and the factor score as a variable with respect to the overall evaluation score obtained by aggregating the adjective evaluation points in the analysis results for each of 24 types of objects. The equation can be obtained by solving using commercially available software.

2次元平面にプロットされた24種類のオブジェクトを、動揺軸方向に眺めると、スポットライトを当てた画像(画像効果10)、スパイラルするテロップ(テロップ04)の因子得点が高く、カット及び遅いパンの画像(画像効果01、画像効果04)、フェードするテロップ(テロップ01)の得点は低いことがわかる。また、柔軟軸方向に眺めると、BGM(BGM01〜05)、フェードインする画像及びテロップ(画像効果02、テロップ01)の得点が高く、速いズームの画像(画像効果05)、タイピングのテロップ(テロップ06)、合成音(合成音02)の得点は低いことがわかる。   When 24 types of objects plotted on a two-dimensional plane are viewed in the direction of the sway axis, the spotlighted image (image effect 10) and spiral telop (telop 04) have high factor scores, and cut and slow panning It can be seen that the scores of the image (image effect 01, image effect 04) and the faded telop (telop 01) are low. Further, when viewed in the flexible axis direction, BGM (BGM01 to 05), images to be faded in and telop (image effect 02, telop 01) have high scores, fast zoom image (image effect 05), typing telop (telop) 06), it can be seen that the score of the synthesized sound (synthesized sound 02) is low.

したがって、因子得点をプロットする動揺軸と柔軟軸とのイメージがつかみ易くなるように、例えば動揺軸を「元気度−落着度」と改名し、柔軟軸を「こだわり度」と改名することができる。   Therefore, in order to make it easier to grasp the image of the rocking axis and the flexible axis for plotting the factor scores, for example, the rocking axis can be renamed as “Energeticness-Degree of Degree”, and the flexible axis can be renamed as “Degree of Attention” .

このように改名し、座標空間の意義がわかりやすい場合には、座標空間のポジションと
視聴者ニーズ、あるいは配信ニーズから直接所定のオブジェクト、すなわちコンテンツを構成する素材やアクションを抽出することができる。
When the name is changed in this way and the significance of the coordinate space is easy to understand, a predetermined object, that is, a material or an action constituting the content can be directly extracted from the position of the coordinate space and the viewer's needs or the distribution needs.

したがって、情報格納部に、このような方法で求めた因子得点が与えられたアクション表現用データを格納することにより、座標値に変換された視聴者ニーズにマッチするデータを抽出することが可能になる。   Therefore, it is possible to extract data that matches the viewer needs converted into coordinate values by storing the action expression data given the factor score obtained by such a method in the information storage unit. Become.

なお、動揺軸と柔軟軸を座標とする2次元グラフを画面に表示させ、その座標上に視聴者ニーズをプロットし、そのプロットした地点からの距離が近い素材やアクションを選択することもできる。   It is also possible to display a two-dimensional graph with the swing axis and the flexible axis as coordinates on the screen, plot the viewer's needs on the coordinates, and select materials and actions that are close to the plotted point.

ここで、本実験は、コンテンツの構成要素により主観評価値が変化する可能性があることから、できるだけ無意味な文字や画像を構成要素として行っている。しかし、情報格納部に実際に格納される素材表現用データなどに付与される因子得点は、コンテンツの構成要素が加味されたものを求めるとともに、アクション表現用データについても、例えばカットが数回続いた場合やカットとフェードが繰り返される場合など、各オブジェクトが複合された場合の因子得点についても求め、格納しておくことが望ましい。
(第2の実施形態)
第2の実施形態は、コンテンツ構成要素となる素材など(画像、音声、テロップなど)が予め準備されていて、取得された視聴者ニーズにマッチした素材を抽出し、ニーズにマッチしたテンプレート上に、その抽出した素材を並べる一方、予め準備されているニーズにマッチしたアクションをそれらの素材にくくりつけて新たなコンテンツ(例えばアニメーションや広告など)を作成する場合を例にして説明する。

なお、第2の実施形態のコンテンツ作成装置は、第1の実施形態のコンテンツ作成装置における情報取得部に代えて、情報入力部を備え、コンテンツの構成要素に分解された素材及びアクションが分類されて入力され、情報格納部に格納される点、および情報格納部に、所定のシナリオに沿って、感性により分類されたテンプレート(雛形)が情報格納部に格納される点は相違するが、それ以外の点は共通する。したがって、相違点について説明する。
Here, since the subjective evaluation value may change depending on the constituent elements of the content, this experiment is performed using meaningless characters and images as constituent elements as much as possible. However, the factor score given to the material expression data that is actually stored in the information storage unit is obtained by adding the content components, and the action expression data continues to be cut several times, for example. It is desirable to obtain and store the factor score when each object is compounded, such as when cut or fade is repeated.
(Second Embodiment)
In the second embodiment, materials that are content components (images, sounds, telops, etc.) are prepared in advance, and a material that matches the acquired viewer needs is extracted and placed on a template that matches the needs. An example will be described in which new contents (for example, animations and advertisements) are created by arranging the extracted materials while matching actions that match the needs prepared in advance with those materials.

Note that the content creation device of the second embodiment includes an information input unit instead of the information acquisition unit in the content creation device of the first embodiment, and the materials and actions decomposed into content components are classified. However, there is a difference in that a template (model) classified according to sensibilities according to a predetermined scenario is stored in the information storage unit in the information storage unit. Other points are common. Therefore, the difference will be described.

図15は、本発明のコンテンツ作成装置の第2の実施形態を示す概略構成図である。   FIG. 15 is a schematic configuration diagram showing a second embodiment of the content creation apparatus of the present invention.

図15に示す第2の実施形態のコンテンツ作成装置は、予め準備された、コンテンツの構成要素となる素材及びアクション5を入力する情報入力部13と、情報入力部13から入力された情報を格納し、コンテンツを視聴する視聴者ニーズによりコンテンツの素材を抽出し、アクションが表現されるデータをその素材に付加してオリジナルコンテンツを再構成するコンテンツ作成部20とを備えている。   The content creation apparatus according to the second embodiment shown in FIG. 15 stores information input from the information input unit 13 and the information input unit 13 for inputting the material and action 5 prepared in advance. And a content creation unit 20 that extracts content material according to the needs of the viewer who views the content, and reconstructs the original content by adding data expressing the action to the material.

ここで、本実施形態のコンテンツ作成装置は、パーソナルコンピュータ、あるいはサーバに本発明のプログラムがインストールされたものであってもよい。   Here, the content creation apparatus of the present embodiment may be a personal computer or a server in which the program of the present invention is installed.

情報入力部13は、CVDやDVDに収録された映像や音声、VTRやデジタルカメラに収録された映像などを、画面に表示させ、予めSD法による分析結果に応じて表示された素材やアクションを分類し、情報格納部25に格納する。また、外部から収集されたコンテンツの視聴状況を所定のフォーマットに変換することができる。   The information input unit 13 displays video and audio recorded on a CVD or DVD, video recorded on a VTR or a digital camera, etc. on a screen, and displays materials and actions displayed in advance according to the analysis result by the SD method. The information is classified and stored in the information storage unit 25. Also, it is possible to convert the viewing status of content collected from the outside into a predetermined format.

ここで、視聴状況は、例えば配信されるデジタル放送や各種配信サービスなどについて、ピープルメータやオンラインメータを用いて定期的に、継続的に視聴状況を調査し、コンピュータセンターで集計することにしてもよいし、調査員が調査票を用いて個別に視聴状況を調査し、コンピュータセンターで集計することにしてもよい。   Here, the viewing status is, for example, regularly surveyed using a people meter or online meter for distributed digital broadcasts and various distribution services, and aggregated at a computer center. Alternatively, the investigator may individually investigate the viewing situation using the survey form and totalize it at the computer center.

コンテンツ作成部20は、情報入力部13から入力された視聴状況に関する情報から視聴者ニーズを検出する視聴者ニーズ取得部22と、コンテンツの構成要素となる素材が表現されるデータやアクションが表現されるデータを、予め感性により分類して格納する情報格納部25と、視聴者ニーズにマッチした素材表現用データ及びアクション表現用データを抽出し、アクションを含むコンテンツを構成するコンテンツ再生部30とを有する。   The content creation unit 20 represents a viewer needs acquisition unit 22 that detects viewer needs from information related to viewing status input from the information input unit 13, and data and actions that represent the material that is a component of the content. An information storage unit 25 that classifies data in advance according to sensibility and stores, and a content reproduction unit 30 that extracts material expression data and action expression data that match viewer needs and constitutes content including actions. Have.

ここで、本実施形態では、情報格納部25はデータベースを形成し、そのデータベースに、視聴者ニーズに対応させて静止画、テキスト、テロップ、および読み上げ音声など毎に、風景、人物などのカテゴリ別に分類された素材と、画像の切り替え効果、画像の演出効果、テロップの挿入方法、音の演出効果、およびBGM(バック・グラウンド・ミュージック)などに分類された、素材に動きを与えるアクションが格納されている。   Here, in the present embodiment, the information storage unit 25 forms a database, and in the database, for each category such as landscape, person, etc., for each still image, text, telop, and reading voice corresponding to the needs of the viewer. Stores classified materials and actions that give movement to the materials, classified into image switching effects, image effects, telop insertion methods, sound effects, BGM (background music), etc. ing.

情報入力部13に、例えば取材によるニューソース、他のメディアから取得した映像や音声などの分解された素材やアクション(O0、O1、O2、…On)が入力されると、それらの素材やアクションは、感性により分類されて情報格納部25に格納される。   When the information input unit 13 receives, for example, new sources from interviews, decomposed materials and actions (O0, O1, O2,... On) such as video and audio obtained from other media, those materials and actions. Are classified by sensitivity and stored in the information storage unit 25.

一方、視聴率調査などにより視聴状況が収集されると、情報入力部13からその視聴状況が入力される。   On the other hand, when the viewing status is collected by a viewing rate survey or the like, the viewing status is input from the information input unit 13.

入力された視聴状況は、視聴者ニーズ取得部22により視聴状況空間に写像され、さらに、視聴状況空間から視聴ニーズ空間に写像されて視聴ニーズが把握される。   The input viewing situation is mapped to the viewing status space by the viewer needs acquisition unit 22 and further mapped from the viewing status space to the viewing needs space to grasp the viewing needs.

コンテンツ再生部30は、把握された視聴ニーズに基づいて情報格納部25から素材及びアクションを抽出する一方、情報格納部25から視聴ニーズにマッチした、所定のシナリオを有するテンプレートを選択し、そのテンプレートに抽出された素材を並べるとともに、抽出されたアクションを加える。   The content reproduction unit 30 extracts a material and an action from the information storage unit 25 on the basis of the grasped viewing needs, and selects a template having a predetermined scenario that matches the viewing needs from the information storage unit 25. Line up the extracted materials and add the extracted actions.

これにより、視聴者ニーズにマッチした、アクションを含むコンテンツを構成することができる。   Thereby, the content including the action that matches the viewer needs can be configured.

ここで、本実施形態では、SD法の分析結果により分類されて格納された素材及びアクションを視聴者ニーズにより抽出してコンテンツを構成しているが、例えばデータベースにコンテンツの製作者や編集者が有する「形容詞で表現された知見」(例えば特定の演出により視聴者に与える効果に関する形容詞で表現された知見)を蓄積しておき、視聴者ニーズが把握されると、データベースに蓄積された「形容詞で表現された知見」によりコンテンツを構成することにしてもよい。   Here, in this embodiment, the contents and actions are classified and stored based on the analysis result of the SD method and extracted according to the viewer's needs, and the contents are configured. Accumulating “knowledge expressed in adjectives” (for example, knowledge expressed in adjectives related to effects given to viewers by a specific performance), and when viewer needs are grasped, The content may be configured based on the knowledge expressed in “

また、本実施形態のコンテンツ作成装置は、視聴者ニーズ取得部22により視聴者ニーズを把握するように構成されているが、視聴者ニーズ取得部22に代えて、コンテンツを配信する配信者の配信ニーズを把握する配信ニーズ取得部を備え、視聴者ニーズに代えて配信ニーズを把握することにしてもよい。   In addition, the content creation device according to the present embodiment is configured to grasp the viewer needs by the viewer need acquisition unit 22, but instead of the viewer needs acquisition unit 22, the distribution of the distributor who distributes the content A distribution needs acquisition unit that grasps needs may be provided, and distribution needs may be grasped instead of viewer needs.

図16は、コンテンツ再生部によりコンテンツが構成される状況を示す図である。   FIG. 16 is a diagram illustrating a situation in which content is configured by the content playback unit.

図16の上段に示すように、視聴者ニーズが落ち着きを求めており、例えば配信者がコンテンツとして「落ち着きを表現したい」場合には、データベースから、そのコンセプトに合致する「形容詞で表現された知見」に基づいて素材及びアクションを抽出し、画面に表示させる。この「形容詞で表現された知見」に基づいて抽出された素材及びアクションは、ある種のテンプレート(雛形)を形成しているので、コンテンツの配信者は、データベースに格納された画像要素(画像0、画像1、画像2‥‥画像i)、音声要素(音0、音1、音2、‥‥音j)、テキスト要素(テキスト0、テキスト1、テキスト2、‥‥テキストk)から、そのテンプレートにしたがって画像1、画像5、画像2、テキスト3、音2及び音7を抽出し、画面に順次表示させ、画像1と画像5とを抽出した「カット」で繋ぎ、画像5と画像2とを抽出した「フェード」で繋ぐ。また、音2と音7とを「フェード」で繋ぐ。   As shown in the upper part of FIG. 16, when the viewer needs calmness, for example, if the distributor wants to express calmness as content, the database finds “knowledge expressed in adjectives that matches the concept. The material and action are extracted on the basis of “” and displayed on the screen. Since the materials and actions extracted based on this “knowledge expressed by adjectives” form a certain template (template), the content distributor can use the image elements (image 0) stored in the database. , Image 1, image 2 ... image i), voice element (sound 0, sound 1, sound 2, ... sound j), text element (text 0, text 1, text 2, text k ... text k) Image 1, image 5, image 2, text 3, sound 2, and sound 7 are extracted according to the template, are sequentially displayed on the screen, and image 1 and image 5 are connected by the extracted “cut”, and image 5 and image 2 are connected. Connected with “fade” extracted. Also, the sound 2 and the sound 7 are connected by “fade”.

また、下段に示すように、配信者が「楽しさを表現したい」場合には、同様に、そのコンセプトに合致する、ある種のテンプレート(雛形)を抽出する。   Further, as shown in the lower part, when the distributor wants to express fun, a certain type of template (model) that matches the concept is similarly extracted.

そして、テンプレートにしたがって画像1と画像5とを「スポットライト」で繋ぎ、画像5と画像2とを「ズーム切り替え」で繋ぐ。また、画像5にテキスト3を「装飾付文字」で繋ぎ、音2と音7とを「カット」で繋ぐ。   Then, according to the template, the image 1 and the image 5 are connected by “spotlight”, and the image 5 and the image 2 are connected by “zoom switching”. Further, the text 3 is connected to the image 5 by “characters with decoration”, and the sound 2 and the sound 7 are connected by “cut”.

このようにすることにより、視聴者ニーズにマッチするとともに、定評のある編集者などによる作品に近似したアクションのあるコンテンツを構成することができる。   In this way, it is possible to configure content that matches the needs of the viewer and that has an action similar to a work by a well-established editor or the like.

図17は、第2の実施形態のコンテンツ再生部により再生されたコンテンツを画面に表示させる場合の時系列を示す図である。   FIG. 17 is a diagram illustrating a time series when the content reproduced by the content reproduction unit according to the second embodiment is displayed on the screen.

図17に示すように、コンテンツ再生部により構成されたコンテンツは、例えばアニメーションなどとして画面に表示させるため、フレームごとの情報に変換することができる。   As shown in FIG. 17, the content configured by the content reproduction unit can be converted into information for each frame in order to be displayed on the screen as an animation, for example.

いま時間軸tに接する部分が画面に表示される時刻をt1、t2、t3‥、tnとすれば、例えば画面右下に表示されるオブジェクトGk1、Gk2、Gk3‥、Gknがそれぞれ図示されているように、O2、O4、O3、‥、O1であれば、画面には動きのある画像が表示される。   If the time at which the portion in contact with the time axis t is displayed on the screen is t1, t2, t3,..., Tn, for example, the objects Gk1, Gk2, Gk3,. Thus, if it is O2, O4, O3,..., O1, a moving image is displayed on the screen.

本発明のコンテンツ作成装置の第1の実施形態を示す概略構成図である。It is a schematic block diagram which shows 1st Embodiment of the content creation apparatus of this invention. 本発明のコンテンツ構成方法、及び本発明のプログラムの第1の実施形態を示す処理手順である。It is the processing procedure which shows 1st Embodiment of the content structure method of this invention, and the program of this invention. 情報取得手順(S1)の詳細を示す図である。It is a figure which shows the detail of an information acquisition procedure (S1). 視聴者が視聴したいコンテンツを選択する情報が入力される表示画面の一例を示す図である。It is a figure which shows an example of the display screen into which the information which selects the content which a viewer wants to view is input. PCのダイアログボックスから入力された情報がコンテンツの構成要素となる素材として情報格納部に格納される状況を示す図である。It is a figure which shows the condition where the information input from the dialog box of PC is stored in an information storage part as a material used as the component of a content. コンテンツ構成手順(S2)の詳細を示す図である。It is a figure which shows the detail of a content structure procedure (S2). コンテンツ再生手順(S3)の詳細を説明する図である。It is a figure explaining the detail of a content reproduction | regeneration procedure (S3). コンテンツを構成する構成要素となる素材やアクションの種類を調査・分類した一例を示す図である。It is a figure which shows an example which investigated and classified the kind of the raw material used as the component which comprises a content, and an action. 実験のために抽出された24種類のオブジェクトを示す図である。It is a figure which shows 24 types of objects extracted for experiment. SD法におけるアンケートに用いた質問項目を示す図である。It is a figure which shows the question item used for the questionnaire in SD method. SD法による分析結果を示す図である。It is a figure which shows the analysis result by SD method. 図11に示した分析結果を因子分析して求めた因子負荷量を一例として示す図である。It is a figure which shows the factor load amount calculated | required by factor-analyzing the analysis result shown in FIG. 11 as an example. 図12に示した第1因子と第2因子とを座標軸とする2次元平面に各形容詞の因子負荷量をプロットした図である。It is the figure which plotted the factor load of each adjective on the two-dimensional plane which makes the 1st factor and 2nd factor shown in FIG. 12 a coordinate axis. 図11に示した分析結果、及び図12に示した因子負荷量とを用いて算出した因子得点に基づいてプロットした24種類のオブジェクトを示す図である。It is a figure which shows 24 types of objects plotted based on the factor score calculated using the analysis result shown in FIG. 11, and the factor load amount shown in FIG. 本発明のコンテンツ作成装置の第2の実施形態を示す概略構成図である。It is a schematic block diagram which shows 2nd Embodiment of the content creation apparatus of this invention. コンテンツ再生部によりコンテンツが構成される状況を示す図である。It is a figure which shows the condition where a content is comprised by the content reproduction part. 第2の実施形態のコンテンツ再生部により再生されたコンテンツを画面に表示させる場合の時系列を示す図である。It is a figure which shows the time series in the case of displaying the content reproduced | regenerated by the content reproduction part of 2nd Embodiment on a screen.

符号の説明Explanation of symbols

5 素材
10 情報取得部
11 オリジナルコンテンツ取得部
12 視聴状況取得部
13 情報入力部
20 コンテンツ作成部
21 コンテンツ分解部
22 視聴者ニーズ取得部
25 情報格納部
30 コンテンツ再生部
100 ダイアログボックス
101 お勧めコンテンツ
102 実行釦
5 Material 10 Information Acquisition Unit 11 Original Content Acquisition Unit 12 Viewing Status Acquisition Unit 13 Information Input Unit 20 Content Creation Unit 21 Content Decomposition Unit 22 Viewer Needs Acquisition Unit 25 Information Storage Unit 30 Content Playback Unit 100 Dialog Box 101 Recommended Content 102 Execute button

Claims (17)

視聴者の感性情報を複数の形容詞で表現し、表現された該形容詞との相関関係に基づいて所定のオブジェクトを抽出し、視聴者に合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。   A content composition method characterized by expressing viewer's sensibility information with a plurality of adjectives, extracting a predetermined object based on a correlation with the expressed adjectives, and constructing content according to the viewer. コンテンツの配信者の配信ニーズを複数の形容詞で表現し、表現された該形容詞との相関関係に基づいて所定のオブジェクトを抽出し、該配信ニーズに合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。   A content characterized in that the distribution needs of a content distributor are expressed by a plurality of adjectives, a predetermined object is extracted based on the correlation with the expressed adjectives, and content corresponding to the distribution needs is configured Configuration method. 前記請求項1記載のコンテンツ構成方法において、
前記コンテンツの視聴状況の入力を受けて視聴者ニーズを検出し、
検出された前記視聴者ニーズを複数の形容詞で表現し、表現された該形容詞と相関関係を有する所定のオブジェクトを用いて、視聴者に合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。
The content composition method according to claim 1, wherein:
Detecting viewer needs in response to the viewing status of the content,
A content composition method characterized in that the detected viewer needs are expressed by a plurality of adjectives, and content corresponding to the viewer is configured using a predetermined object having a correlation with the expressed adjectives.
前記請求項2記載のコンテンツ構成方法において、
前記配信ニーズの入力を受け、該配信ニーズを複数の形容詞で表現し、表現された該形容詞と相関関係を有する所定のオブジェクトを用いて、前記配信者に合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。
The content composition method according to claim 2, wherein
Receiving the delivery needs, expressing the delivery needs with a plurality of adjectives, and using a predetermined object having a correlation with the expressed adjectives to constitute content suitable for the distributor Content composition method.
前記請求項1記載のコンテンツ構成方法において、
前記コンテンツを構成する素材が表現されるデータ及び該コンテンツを構成するアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させ、
前記メモリに記憶された前記それぞれのデータから、所定のデータを抽出して組み合わせを行うことにより前記コンテンツを構成し、
前記感性情報の変化に応じて前記組み合わせを変えることを特徴とするコンテンツ構成方法。
The content composition method according to claim 1, wherein:
The data representing the material constituting the content and the data representing the action constituting the content are classified according to sensitivity and stored in a memory,
The content is configured by extracting and combining predetermined data from the respective data stored in the memory,
The content composition method characterized by changing said combination according to the change of said sensitivity information.
前記請求項2記載のコンテンツ構成方法において、
前記コンテンツを構成する素材が表現されるデータ及び該コンテンツを構成するアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させ、
前記メモリに記憶された前記それぞれのデータから、所定のデータを抽出して組み合わせを行うことにより前記コンテンツを構成し、
前記配信ニーズの変化に応じて前記組み合わせを変えることを特徴とするコンテンツ構成方法。
The content composition method according to claim 2, wherein
The data representing the material constituting the content and the data representing the action constituting the content are classified according to sensitivity and stored in a memory,
The content is configured by extracting and combining predetermined data from the respective data stored in the memory,
A content composition method, wherein the combination is changed according to a change in the delivery needs.
前記請求項5記載のコンテンツ構成方法において、
コンテンツの配信者の配信ニーズを取得するとともに、該配信ニーズと前記感性情報との相関関係を取得し、
前記感性情報と前記配信ニーズとの変化に応じて前記組み合わせを変えることを特徴とするコンテンツ構成方法。
The content composition method according to claim 5, wherein
Acquire the distribution needs of the content distributor, acquire the correlation between the distribution needs and the sensitivity information,
The content composition method characterized by changing the said combination according to the change of the said sensitivity information and the said delivery needs.
Webページに表示されたオリジナルコンテンツを再構成する方法であって、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、前記Webページを視聴する視聴状況に基づいて視聴者ニーズが取得されるニーズ取得手段とを備え、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
前記オリジナルコンテンツの構成要素に、前記データベースに格納された前記データを前記視聴者ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。
A method for reconstructing original content displayed on a web page,
Viewer needs are acquired based on a database storing data representing actions of each component of content including telop, image, sound, and background music, and viewing status of viewing the Web page. Needs acquisition means,
Input data that represents the telop, still image, and read-out voice used for the original content,
A content composition method comprising constructing content including an action by attaching the data stored in the database to the constituent elements of the original content according to the viewer's needs.
Webページに表示されたオリジナルコンテンツを再構成する方法であって、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータを格納したデータベースと、前記Webページを配信する配信者の配信ニーズが取得されるニーズ取得手段とを備え、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現されるデータを入力し、
前記オリジナルコンテンツの構成要素に、前記データベースに格納された前記データを前記配信ニーズに応じてくくりつけて、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。
A method for reconstructing original content displayed on a web page,
A database storing data representing actions of each component of content including telop, image, sound, background music, and needs acquisition means for acquiring distribution needs of a distributor who distributes the Web page And
Input data that represents the telop, still image, and read-out voice used for the original content,
A content composition method, wherein content including an action is constructed by attaching the data stored in the database to the constituent elements of the original content according to the distribution needs.
画面に所定のコンテンツを表示させるコンテンツ構成方法であって、
静止画、動画、音声、音楽を含む、コンテンツの素材を表現するデータ、および画像の切り替え、画像の演出、テロップの挿入、音の演出、およびバック・グラウンド・ミュージックを含む、該素材のアクションを表現するデータ双方が格納されたデータベースと、コンテンツの視聴状況を収集し、視聴者ニーズを検出するニーズ検出手段とを備え、
前記ニーズ検出手段により検出された視聴者ニーズに応じて前記データベースに格納された前記素材を表現するデータ及び前記アクションを表現するデータの組み合わせを行い、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。
A content configuration method for displaying predetermined content on a screen,
Data representing content material, including still images, video, audio, music, and actions of the material, including image switching, image rendering, telop insertion, sound rendering, and background music A database in which both data to be expressed are stored, and a need detection unit that collects the viewing status of content and detects viewer needs,
According to the viewer needs detected by the needs detection means, the data representing the material stored in the database and the data representing the action are combined to constitute a content including an action. Content composition method.
前記請求項10記載のコンテンツ構成方法において、
前記ニーズ検出手段は、前記視聴者ニーズに代えて、コンテンツを配信する配信者の配信ニーズを検出するものであって、
前記ニーズ検出手段により検出された配信ニーズに応じて前記データベースに格納された前記素材を表現するデータ及び前記アクションを表現するデータの組み合わせを行い、アクションを含むコンテンツを構成することを特徴とするコンテンツ構成方法。
The content configuration method according to claim 10,
The needs detection means detects delivery needs of a distributor who delivers content instead of the viewer needs,
Content comprising an action by combining data representing the material and data representing the action stored in the database in accordance with the delivery needs detected by the needs detecting means Configuration method.
前記請求項3、8又は10のうち何れか1項記載のコンテンツ構成方法において、
前記視聴者状況から視聴者ニーズを検出する際にSD法が用いられることを特徴とする
コンテンツ構成方法。
The content configuration method according to any one of claims 3, 8 and 10,
An SD method is used when detecting viewer needs from the viewer status.
前記請求項3、8又は10のうち何れか1項記載のコンテンツ構成方法において、
前記視聴者ニーズに応じたテンプレートを用いて、前記視聴者に合わせたコンテンツを構成することを特徴とするコンテンツ構成方法。
The content configuration method according to any one of claims 3, 8 and 10,
A content configuration method comprising: configuring a content suitable for the viewer by using a template according to the viewer needs.
アクションを含むコンテンツを作成するコンテンツ作成装置であって、
前記コンテンツの視聴者の感性情報を取得する感性情報取得手段と、
前記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
前記感性情報により、前記メモリに記憶された前記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とするコンテンツ作成装置。
A content creation device for creating content including an action,
Kansei information acquisition means for acquiring Kansei information of viewers of the content;
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
Content creation comprising: content creation means for configuring predetermined content including an action by combining the material stored in the memory and data representing the action based on the sensitivity information apparatus.
アクションを含むコンテンツを作成するコンテンツ作成装置であって、
前記コンテンツを配信する配信者の配信ニーズを取得する配信ニーズ取得手段と、
前記コンテンツの構成要素となる素材が表現されるデータ及び該素材のアクションが表現されるデータそれぞれを、感性により分類してメモリに記憶させる要素取得手段と、
前記配信ニーズにより、前記メモリに記憶された前記素材及びアクションが表現されるデータの組み合わせを行うことにより、アクションを含む所定のコンテンツを構成するコンテンツ作成手段とを備えたことを特徴とするコンテンツ作成装置。
A content creation device for creating content including an action,
Distribution needs acquisition means for acquiring distribution needs of a distributor who distributes the content;
Element acquisition means for classifying the data representing the material that is a component of the content and the data representing the action of the material according to sensitivity and storing them in a memory;
Content creation comprising: content creation means for configuring predetermined content including an action by combining data representing the material and the action stored in the memory according to the distribution needs apparatus.
コンピュータに表示されたWebページのオリジナルコンテンツを再構成するプログラムであって、
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
前記Webページを視聴する視聴状況を収集し、収集された該視聴状況に基づいて視聴者ニーズを検出するステップと、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
前記データベースから、検出された前記視聴者ニーズに応じた前記データを抽出し、前記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とするプログラム。
A program for reconstructing original content of a web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Collecting viewing status for viewing the web page and detecting viewer needs based on the collected viewing status;
Processing input data in which a telop, a still image, and a reading voice used for the original content are expressed;
Extracting the data according to the detected viewer needs from the database, causing the constituent elements of the original content to execute the step of attaching the extracted data, and including the action on the original content A program characterized by being reconstructed into content.
コンピュータに表示されたWebページのオリジナルコンテンツを再構成するプログラムであって、
コンピュータに、
テロップ、画像、音、バック・グラウンド・ミュージックを含む、コンテンツの構成要素それぞれのアクションが表現されるデータをデータベースに格納するステップと、
前記Webページを配信する配信者の配信ニーズを取得するステップと、
前記オリジナルコンテンツに用いるテロップ、静止画、及び読み上げ音声が表現される、入力されたデータの処理を行うステップと、
前記データベースから、取得された前記配信ニーズに応じた前記データを抽出し、前記オリジナルコンテンツの構成要素に、抽出された該データをくくりつけるステップとを実行させ、該オリジナルコンテンツをアクションが含まれるコンテンツに再構成することを特徴とするプログラム。
A program for reconstructing original content of a web page displayed on a computer,
On the computer,
Storing in a database data representing the actions of each component of the content, including telops, images, sounds, and background music;
Acquiring a delivery need of a distributor who distributes the Web page;
Processing input data in which a telop, a still image, and a reading voice used for the original content are expressed;
Extracting the data corresponding to the acquired distribution needs from the database, and causing the constituent elements of the original content to execute the step of attaching the extracted data to the content including the action A program characterized by reconfiguring.
JP2003353755A 2003-10-14 2003-10-14 Content-constituting method, content-generating device, and program Pending JP2005122276A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003353755A JP2005122276A (en) 2003-10-14 2003-10-14 Content-constituting method, content-generating device, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003353755A JP2005122276A (en) 2003-10-14 2003-10-14 Content-constituting method, content-generating device, and program

Publications (1)

Publication Number Publication Date
JP2005122276A true JP2005122276A (en) 2005-05-12

Family

ID=34611955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003353755A Pending JP2005122276A (en) 2003-10-14 2003-10-14 Content-constituting method, content-generating device, and program

Country Status (1)

Country Link
JP (1) JP2005122276A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041764A (en) * 2005-08-02 2007-02-15 Sony Corp Content preparation cost calculation device and method and computer program
JP2007156978A (en) * 2005-12-07 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> Content configuration device, content configuration method and program for configuring content
JP2012253673A (en) * 2011-06-06 2012-12-20 Avix Inc Automatic production of short animation work based on html document
JP2013038588A (en) * 2011-08-08 2013-02-21 I-Cubed Research Center Inc Content processing device, content processing method, and program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007041764A (en) * 2005-08-02 2007-02-15 Sony Corp Content preparation cost calculation device and method and computer program
JP2007156978A (en) * 2005-12-07 2007-06-21 Nippon Telegr & Teleph Corp <Ntt> Content configuration device, content configuration method and program for configuring content
JP2012253673A (en) * 2011-06-06 2012-12-20 Avix Inc Automatic production of short animation work based on html document
CN102982056A (en) * 2011-06-06 2013-03-20 埃维克斯公司 Automatic production of short dynamic image work based on HTML document
CN102982056B (en) * 2011-06-06 2017-04-12 埃维克斯公司 Automatic production method of short dynamic image work and computer information processing system
JP2013038588A (en) * 2011-08-08 2013-02-21 I-Cubed Research Center Inc Content processing device, content processing method, and program

Similar Documents

Publication Publication Date Title
Werner Organizing music, organizing gender: algorithmic culture and Spotify recommendations
Amato et al. AI in the media and creative industries
US6446083B1 (en) System and method for classifying media items
Baur et al. The streams of our lives: Visualizing listening histories in context
US7143357B1 (en) System and methods for collaborative digital media development
TWI514171B (en) System and methods for dynamic page creation
US20200013380A1 (en) Systems and methods for transforming digital audio content into visual topic-based segments
US20140108932A1 (en) Online search, storage, manipulation, and delivery of video content
JP2000250944A (en) Information providing method and device, information receiving device and information describing method
US20220208155A1 (en) Systems and methods for transforming digital audio content
JP2007535018A (en) Multimedia digital content visualization and control technology
US20210294843A1 (en) Playlist preview
Chambel et al. Context perception in video-based hypermedia spaces
JP2007528063A (en) Tutorial generation unit
WO2004079533A2 (en) System and method for presentation at the election of a user of media event information and further media event information of media events all related to a preselected time period
US20240087547A1 (en) Systems and methods for transforming digital audio content
Martins et al. MovieClouds: content-based overviews and exploratory browsing of movies
Dias et al. Interactive exploration of music listening histories
WO2007029207A2 (en) Method, device and system for providing search results
JP2005122276A (en) Content-constituting method, content-generating device, and program
CA3208553A1 (en) Systems and methods for transforming digital audio content
Dang et al. FmFinder: Search and filter your favorite songs
Christodoulou et al. Digital art 2.0: art meets web 2.0 trend
Lopez-Gulliver et al. Interfacing the web: multi-modal and immersive interaction with the internet
Breaden Sound practices: On-line audio exhibits and the cultural heritage archive

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060414

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090407

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090901