JP2010219849A - Image generation system, program, information storage medium, server system, and content distribution system - Google Patents

Image generation system, program, information storage medium, server system, and content distribution system Download PDF

Info

Publication number
JP2010219849A
JP2010219849A JP2009063914A JP2009063914A JP2010219849A JP 2010219849 A JP2010219849 A JP 2010219849A JP 2009063914 A JP2009063914 A JP 2009063914A JP 2009063914 A JP2009063914 A JP 2009063914A JP 2010219849 A JP2010219849 A JP 2010219849A
Authority
JP
Japan
Prior art keywords
keyword
scene
user
display
icon
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009063914A
Other languages
Japanese (ja)
Inventor
Hideo Teramoto
秀雄 寺本
Tomohiro Yamanaka
友尋 山中
Hirotaka Kinoshita
浩隆 木下
Narumi Aoyama
成美 青山
Satoshi Ouchi
聡 大内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cellius Inc
Original Assignee
Cellius Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Cellius Inc filed Critical Cellius Inc
Priority to JP2009063914A priority Critical patent/JP2010219849A/en
Publication of JP2010219849A publication Critical patent/JP2010219849A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image generation system capable of presenting each scene constituting video content and the keyword of each scene, and to provide a program, an information storage medium, a server system, or the like. <P>SOLUTION: The image generation system includes: a keyword acquiring part for acquiring at least one keyword associated with each scene of a plurality of scenes constituting video content; a scene acquiring part for acquiring at least one scene associated with each keyword of a plurality of keywords; and a display control part for performing control so as to display keywords associated with a selected scene in a list when a user selects the scene, and to display scenes associated with a selected keyword in a list when the user selects the keyword. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、画像生成システム、プログラム、情報記憶媒体、サーバシステム、及びコンテンツ配信システム等に関する。   The present invention relates to an image generation system, a program, an information storage medium, a server system, a content distribution system, and the like.

従来より、ドラマや映画などの各種映像コンテンツを配信するシステムが知られている。この映像配信システムの従来技術としては、例えば特許文献1に開示される技術などが知られている。   Conventionally, systems for distributing various video contents such as dramas and movies are known. As a conventional technique of this video distribution system, for example, a technique disclosed in Patent Document 1 is known.

このような映像配信システムでは、ドラマや映画などの作品は1話単位で配信される。このため、作品の名場面などをシーン単位で視聴することが難しかった。またユーザは、1人で映像コンテンツを鑑賞するため、作品のファンである複数のユーザが、名場面を語り合いながら視聴するというような状況を作り出すことができなかった。   In such a video distribution system, works such as dramas and movies are distributed in units of one episode. For this reason, it was difficult to view the famous scenes of the work in scene units. Further, since the user views the video content by himself, it has been impossible to create a situation in which a plurality of users who are fans of the work can watch and listen to the famous scenes.

特開2003−169089JP2003-169089

本発明の幾つかの態様によれば、映像コンテンツを構成する各シーンや各シーンのキーワードを提示できる画像生成システム、プログラム、情報記憶媒体、サーバシステム及びコンテンツ配信システム等を提供できる。   According to some aspects of the present invention, it is possible to provide an image generation system, a program, an information storage medium, a server system, a content distribution system, and the like that can present each scene constituting a video content and a keyword of each scene.

本発明の一態様は、映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくも1つのキーワードを取得するキーワード取得部と、複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得するシーン取得部と、ユーザがシーンを選択した場合に、選択されたシーンに関連づけられたキーワードをリスト表示し、ユーザがキーワードを選択した場合に、選択されたキーワードに関連づけられたシーンをリスト表示する制御を行う表示制御部とを含む画像生成システムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。   According to one aspect of the present invention, there is provided a keyword acquisition unit that acquires at least one keyword associated with each of a plurality of scenes constituting video content, and at least one scene associated with each keyword of the plurality of keywords. A scene acquisition unit to acquire, and when a user selects a scene, a list of keywords associated with the selected scene is displayed. When a user selects a keyword, a list of scenes associated with the selected keyword is displayed. The present invention relates to an image generation system including a display control unit that performs display control. The present invention also relates to a program that causes a computer to function as each of the above-described units, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、映像コンテンツの各シーンに関連づけられたキーワードが取得される。また、複数のキーワードの各キーワードに関連づけられたシーンが取得される。そして、ユーザがシーンを選択すると、そのシーンに関連付けられたキーワードがリスト表示される。またユーザがキーワードを選択すると、そのキーワードに関連づけられたシーンがリスト表示される。このようにすれば、映像コンテンツを構成する各シーンや各シーンのキーワードを提示できるようになり、これまでにないインターフェース環境の提供が可能になる。   According to an aspect of the present invention, a keyword associated with each scene of video content is acquired. In addition, a scene associated with each keyword of the plurality of keywords is acquired. When the user selects a scene, a list of keywords associated with the scene is displayed. When the user selects a keyword, scenes associated with the keyword are displayed in a list. In this way, it is possible to present each scene constituting the video content and keywords of each scene, and to provide an unprecedented interface environment.

また本発明の一態様では、前記表示制御部は、ユーザがキーワードを選択した場合に、選択されたキーワードに関連する情報又は前記情報のサイトへのリンク先情報を表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display information related to the selected keyword or link destination information to the site of the information when the user selects the keyword. .

このようにすれば、ユーザがキーワードを選択した場合に、そのキーワードに関連する情報(例えば商品情報、広告情報等)やそのサイトにユーザを誘導できるようになる。   In this way, when the user selects a keyword, the user can be guided to information related to the keyword (for example, product information, advertisement information, etc.) and the site.

また本発明の一態様では、前記表示制御部は、ユーザがシーンの選択決定操作又は選択操作を行った場合に、シーンの再生画面を表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display a scene reproduction screen when a user performs a scene selection determination operation or a selection operation.

このようにすれば、ユーザは、映像コンテンツをシーン単位で鑑賞できるようになる。   In this way, the user can view the video content in units of scenes.

また本発明の一態様では、前記表示制御部は、前記シーン再生画面においてユーザが入力した評価情報を表す演出効果を、ユーザがシーン又はキーワードを選択するためのメニュー画面において、シーン又はキーワードに対応づけて表示する制御を行ってもよい。   In one aspect of the present invention, the display control unit corresponds to a scene or keyword in a menu screen for the user to select a scene or a keyword, with a presentation effect representing evaluation information input by the user on the scene playback screen. It is also possible to control the display.

このようにすれば、シーン再生画面でのユーザの評価情報を、メニュー画面に表示されるシーンやキーワードに反映させることが可能になる。   In this way, the user evaluation information on the scene playback screen can be reflected in the scene and keywords displayed on the menu screen.

また本発明の一態様では、ユーザによるシーン又はキーワードの選択履歴を取得する選択履歴取得部を含み、前記表示制御部は、他ユーザによるシーン又はキーワードの選択履歴を表す演出効果を、ユーザがシーン又はキーワードを選択するためのメニュー画面において、シーン又はキーワードに対応づけて表示する制御を行ってもよい。   According to another aspect of the present invention, the display control unit includes a selection history acquisition unit that acquires a selection history of a scene or a keyword by a user. Alternatively, in a menu screen for selecting a keyword, the display may be performed in association with the scene or the keyword.

このようにすれば、他ユーザによるシーン又はキーワードの選択履歴を、メニュー画面に表示されるシーンやキーワードに反映させることが可能になる。   In this way, the scene or keyword selection history by other users can be reflected in the scene or keyword displayed on the menu screen.

また本発明の一態様では、前記表示制御部は、ユーザがシーンを選択した場合に、選択されたシーンに対する他ユーザのコメントを表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display another user's comment on the selected scene when the user selects a scene.

このようにすれば、ユーザは、シーンを選択すると、そのシーンに対する他ユーザのコメントを見ることが可能になり、ユーザコミュニティの拡がり等を実現できる。   In this way, when the user selects a scene, it becomes possible to see the comments of other users on the scene, and the user community can be expanded.

また本発明の一態様では、前記表示制御部は、ユーザがキーワードを選択した場合に、選択されたキーワードに対する他ユーザのコメントを表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display a comment of another user for the selected keyword when the user selects the keyword.

このようにすれば、ユーザは、キーワードを選択すると、そのキーワードに対する他ユーザのコメントを見ることが可能になり、ユーザコミュニティの拡がり等を実現できる。   In this way, when the user selects a keyword, it becomes possible to see the comments of other users on the keyword, and the user community can be expanded.

また本発明の一態様では、前記キーワードは、シーンの登場人物、シーンの場所、シーンの状況、及びシーンの時間情報の少なくとも1つのキーワードであってもよい。   In the aspect of the invention, the keyword may be at least one keyword of a scene character, a scene location, a scene situation, and a scene time information.

また本発明の一態様では、前記表示制御部は、ユーザがキーワードを選択した場合に、選択されたキーワードに関連する別のキーワードを表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display another keyword related to the selected keyword when the user selects the keyword.

このように、選択されたキーワードに関連する別のキーワードを表示することで、ユーザにその別のキーワードを想起させることが可能になる。   Thus, by displaying another keyword related to the selected keyword, the user can be reminded of the other keyword.

また本発明の一態様では、複数のキーワードのグループに対して上位キーワードが付与され、前記表示制御部は、ユーザがキーワードを選択した場合に、選択されたキーワードが属するグループに付与された上位キーワードを表示する制御を行ってもよい。   In one aspect of the present invention, a higher keyword is assigned to a plurality of keyword groups, and when the user selects a keyword, the display control unit assigns the higher keyword to the group to which the selected keyword belongs. You may perform control which displays.

このようにすれば、ユーザは、キーワードを選択すると、そのキーワードが属するグループの上位キーワードを知ることができ、その上位キーワードに属する他のキーワードの提示等が可能になる。   In this way, when the user selects a keyword, the user can know the upper keywords of the group to which the keyword belongs, and can present other keywords belonging to the upper keyword.

また本発明の一態様では、前記表示制御部は、ユーザがシーン又はキーワードを選択した場合に、選択されたシーン又はキーワードに関連づけられたユーザキーワードを表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display a user keyword associated with the selected scene or keyword when the user selects a scene or keyword.

このようにすれば、ユーザは、シーン又はキーワードを選択すると、そのシーン又はキーワードに関連づけられたユーザキーワードについても知ることができ、ユーザによるキーワードのカスタマイズ等が可能になる。   In this way, when the user selects a scene or keyword, the user can know the user keyword associated with the scene or keyword, and the user can customize the keyword.

また本発明の一態様では、前記表示制御部は、ユーザによりシーンが選択された後に、第1の方向への操作指示が行われた場合に、選択されたシーンに対する他ユーザのコメントをリスト表示し、第2の方向への操作指示が行われた場合に、選択されたシーンに関連づけられたキーワードをリスト表示する制御を行ってもよい。   In one aspect of the present invention, the display control unit displays a list of comments of other users on the selected scene when an operation instruction in the first direction is made after the user selects the scene. Then, when an operation instruction in the second direction is performed, control for displaying a list of keywords associated with the selected scene may be performed.

このようにすれば、ユーザは、シーンに対するコメントや、シーンに関連するキーワードを、第1、第2の方向への操作指示という簡素な操作で確認することが可能になる。   In this way, the user can confirm a comment on the scene and a keyword related to the scene by a simple operation such as an operation instruction in the first and second directions.

また本発明の一態様では、前記表示制御部は、ユーザによりキーワードが選択された後に、第1の方向への操作指示が行われた場合に、選択されたキーワードに対する他ユーザのコメントをリスト表示し、第2の方向への操作指示が行われた場合に、選択されたキーワードに関連づけられたシーンをリスト表示する制御を行ってもよい。   In one aspect of the present invention, the display control unit displays a list of comments of other users for the selected keyword when an operation instruction in the first direction is made after the keyword is selected by the user. Then, when an operation instruction in the second direction is performed, control for displaying a list of scenes associated with the selected keyword may be performed.

このようにすれば、ユーザは、キーワードに対するコメントや、キーワードに関連するシーンを、第1、第2の方向への操作指示という簡素な操作で確認することが可能になる。   In this way, the user can confirm a comment on the keyword and a scene related to the keyword by a simple operation such as an operation instruction in the first and second directions.

また本発明の一態様では、シーン又はキーワードを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定されるメニュー用オブジェクト空間を設定するメニュー用オブジェクト空間設定部と、仮想カメラを制御する仮想カメラ制御部とを含み、前記表示制御部は、前記メニュー用オブジェクト空間において前記仮想カメラから見える画像を、シーン又はキーワードを選択するためのメニュー画面として表示する制御を行ってもよい。   In one aspect of the present invention, a menu object space setting unit that sets a menu object space in which each icon object of a plurality of icon objects for selecting a scene or a keyword is arranged and set at each three-dimensional position; A virtual camera control unit that controls a virtual camera, wherein the display control unit performs control to display an image seen from the virtual camera in the menu object space as a menu screen for selecting a scene or a keyword. Also good.

このようにすれば、例えば2次元表示の場合に比べて多数のアイコンオブジェクトを配置設定して、シーン又はキーワードの選択のためのメニュー画面を表示できるようになり、これまでにないタイプのメニュー画面の表示が可能になる。   In this way, for example, a menu screen for selecting a scene or a keyword can be displayed by arranging and setting a large number of icon objects as compared with the case of a two-dimensional display. Can be displayed.

また本発明の一態様では、前記表示制御部は、前記仮想カメラから見て前記アイコンオブジェクトが移動して見える画像を、前記メニュー画面として表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display an image in which the icon object is viewed as viewed from the virtual camera as the menu screen.

このようにすれば、ユーザは、移動して見えるアイコンオブジェクトを選択して、アイコンオブジェクトに対応するシーン又はキーワードを選択できるようになる。   In this way, the user can select an icon object that appears to move and select a scene or keyword corresponding to the icon object.

また本発明の一態様では、前記表示制御部は、ユーザが前記アイコンオブジェクトを選択した場合に、前記仮想カメラから見て前記アイコンオブジェクトが接近して見える画像を表示する制御を行ってもよい。   In one aspect of the present invention, the display control unit may perform control to display an image in which the icon object looks close when viewed from the virtual camera when the user selects the icon object.

このようにすれば、ユーザは、選択したアイコンオブジェクトの接近画像を見て確認できるようになる。   In this way, the user can check and confirm the approach image of the selected icon object.

また本発明の一態様では、前記表示制御部は、選択された前記アイコンオブジェクトが静止し、他のアイコンオブジェクトが移動して見える画像を表示する制御を行ってもよい。   In the aspect of the invention, the display control unit may perform control to display an image in which the selected icon object is stationary and other icon objects appear to move.

このようにすれば、アイコンオブジェクトについては静止して見て、他のオブジェクトは移動して見えるため、実在感等のある画面の表示が可能になる。   In this way, since the icon object is viewed statically and the other objects appear to move, it is possible to display a screen with a sense of reality.

また本発明の一態様では、前記仮想カメラ制御部は、前記仮想カメラを軌道上で移動させる制御を行い、ユーザが前記アイコンオブジェクトを選択すると、選択された前記アイコンオブジェクトに前記仮想カメラを接近させる制御を行ってもよい。   In one aspect of the present invention, the virtual camera control unit performs control to move the virtual camera on a trajectory, and when the user selects the icon object, causes the virtual camera to approach the selected icon object. Control may be performed.

このように仮想カメラを軌道上で移動させることで、仮想カメラから見てアイコンオブジェクトが移動して見える画像を表示できる。そして、このように移動しているアイコンオブジェクトをユーザが選択すると、アイコンオブジェクトの接近画像が表示されるようになり、ユーザは、選択したアイコンオブジェクトの接近画像を見て確認できるようになる。   By moving the virtual camera in the trajectory in this way, it is possible to display an image that the icon object appears to move as viewed from the virtual camera. Then, when the user selects the icon object moving in this way, an approach image of the icon object is displayed, and the user can see and confirm the approach image of the selected icon object.

また本発明の一態様では、前記仮想カメラ制御部は、前記軌道の接線方向に対して前記軌道の中心側に、前記仮想カメラの方向を向ける制御を行ってもよい。   In the aspect of the invention, the virtual camera control unit may perform control to direct the direction of the virtual camera toward the center of the track with respect to the tangential direction of the track.

このようにすれば、アイコンオブジェクトのみならず軌道の中心付近も俯瞰できる画像を表示できる。   In this way, it is possible to display an image in which not only the icon object but also the vicinity of the center of the trajectory can be seen from.

また本発明の一態様では、前記複数のアイコンオブジェクトのうち、前記仮想カメラの位置から所定距離範囲内にあるアイコンオブジェクト、或いは前記仮想カメラの位置に近い所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定するアイコン設定部を含んでもよい。   In one aspect of the present invention, the user can select an icon object within a predetermined distance range from the virtual camera position or a predetermined number of icon objects close to the virtual camera position from the plurality of icon objects. An icon setting unit to be set for a simple icon object may be included.

このようにすれば、仮想カメラから近いアイコンオブジェクトが選択可能状態になるため、スムーズなインターフェース環境を提供できる。   In this way, since an icon object close to the virtual camera can be selected, a smooth interface environment can be provided.

また本発明の一態様では、前記表示制御部は、ユーザが操作するカーソルによりアイコンオブジェクトが選択された場合に、選択された前記アイコンオブジェクトにマーカを識別可能に表示する、或いは前記アイコンオブジェクトの移動速度又は画像を変化させる表示制御を行ってもよい。   In one aspect of the present invention, when the icon object is selected by a cursor operated by a user, the display control unit displays a marker on the selected icon object so that the marker can be identified, or moves the icon object. Display control for changing the speed or image may be performed.

このようにすれば、ユーザは、複数のアイコンオブジェクトのうちのいずれのアイコンオブジェクトが選択されたのかを、視覚的に容易に認識できるようになる。   In this way, the user can easily visually recognize which icon object of the plurality of icon objects has been selected.

また本発明の一態様では、前記仮想カメラ制御部は、ユーザによる操作部の操作に基づいて、前記仮想カメラの位置及び方向の少なくとも1つを制御してもよい。   In the aspect of the invention, the virtual camera control unit may control at least one of the position and direction of the virtual camera based on an operation of the operation unit by a user.

このようにすれば、ユーザの操作により仮想カメラの位置や方向を変化させて、アイコンオブジェクトを選択できるようになるため、これまでにないインターフェース環境を提供できる。   In this way, the icon object can be selected by changing the position and direction of the virtual camera by the user's operation, so that an unprecedented interface environment can be provided.

また本発明の他の態様は、映像コンテンツを配信するコンテンツ配信部と、映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくとも1つのキーワードを取得するキーワード取得部と、複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得するシーン取得部と、ユーザがシーンを選択した場合に、選択されたシーンに関連づけられたキーワードを、端末装置の表示部にリスト表示し、ユーザがキーワードを選択した場合に、選択されたキーワードに関連づけられたシーンを、前記端末装置の前記表示部にリスト表示するための処理を行う表示処理部とを含むサーバシステムに関係する。   According to another aspect of the present invention, a content distribution unit that distributes video content, a keyword acquisition unit that acquires at least one keyword associated with each scene of a plurality of scenes constituting the video content, a plurality of keyword A scene acquisition unit that acquires at least one scene associated with each keyword, and when the user selects a scene, the keyword associated with the selected scene is displayed in a list on the display unit of the terminal device. The present invention relates to a server system including a display processing unit that performs processing for displaying a list associated with a selected keyword on the display unit of the terminal device when a keyword is selected.

本発明の他の態様によれば、映像コンテンツの各シーンに関連づけられたキーワードが取得される。また、複数のキーワードの各キーワードに関連づけられたシーンが取得される。そして、ユーザがシーンを選択すると、そのシーンに関連付けられたキーワードが、端末装置の表示部にリスト表示される。またユーザがキーワードを選択すると、そのキーワードに関連づけられたシーンが、端末装置の表示部にリスト表示される。このようにすれば、映像コンテンツを構成する各シーンや各シーンのキーワードを提示できるようになり、これまでにないインターフェース環境の提供が可能になる。   According to another aspect of the present invention, a keyword associated with each scene of video content is acquired. In addition, a scene associated with each keyword of the plurality of keywords is acquired. When the user selects a scene, keywords associated with the scene are displayed in a list on the display unit of the terminal device. When the user selects a keyword, scenes associated with the keyword are displayed in a list on the display unit of the terminal device. In this way, it is possible to present each scene constituting the video content and keywords of each scene, and to provide an unprecedented interface environment.

また本発明の他の態様は、映像コンテンツを配信するコンテンツ配信部と、映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくとも1つのキーワードを取得するキーワード取得部と、複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得するシーン取得部と、ユーザがシーンを選択した場合に、選択されたシーンに関連づけられたキーワードを、端末装置の表示部にリスト表示し、ユーザがキーワードを選択した場合に、選択されたキーワードに関連づけられたシーンを、前記端末装置の前記表示部にリスト表示するための処理を行う表示処理部と、前記表示部を有する前記端末装置とを含むコンテンツ配信システムに関係する。   According to another aspect of the present invention, a content distribution unit that distributes video content, a keyword acquisition unit that acquires at least one keyword associated with each scene of a plurality of scenes constituting the video content, a plurality of keyword A scene acquisition unit that acquires at least one scene associated with each keyword, and when the user selects a scene, the keyword associated with the selected scene is displayed in a list on the display unit of the terminal device. When a keyword is selected, the display device includes a display processing unit that performs processing for displaying a list associated with the selected keyword on the display unit of the terminal device, and the terminal device having the display unit. Related to content distribution system.

本実施形態の画像生成システムの構成例。1 is a configuration example of an image generation system according to the present embodiment. シーンに関連づけられたキーワードがリスト表示される画面の例。An example of a screen that displays a list of keywords associated with a scene. キーワードに関連づけられたシーンがリスト表示される画面の例。An example of a screen that displays a list of scenes associated with a keyword. シーンに対してキーワードが関連づけられる第1のデータベースの説明図。Explanatory drawing of the 1st database with which a keyword is linked | related with a scene. 図5(A)〜図5(C)はキーワードに対してシーンが関連づけられる第2のデータベース等の説明図。FIGS. 5A to 5C are explanatory diagrams of a second database in which scenes are associated with keywords. 図6(A)、図6(B)はメタキーワード(上位キーワード)の説明図。6A and 6B are explanatory diagrams of meta keywords (higher keywords). 図7(A)、図7(B)はユーザキーワードの説明図。7A and 7B are explanatory diagrams of user keywords. シーンやキーワードの選択のためのメニュー画面の例。An example of the menu screen for scene and keyword selection. アイコンオブジェクトのキャッチ画面の例。An example of an icon object catch screen. シーンのオープン画面の例。An example of the scene open screen. シーンのオープン画面でのコメントのリスト表示の例。An example of a comment list display on the scene open screen. シーンのオープン画面でのキーワードのリスト表示の例。Example of keyword list display on the scene open screen. キーワードのオープン画面の例。Example of keyword open screen. キーワードのオープン画面での解説文の表示の例。An example of the explanation text displayed on the keyword open screen. キーワードのオープン画面でのシーンのリスト表示の例。An example of a scene list display on the keyword open screen. シーン再生画面の例。An example of the scene playback screen. アイコンオブジェクトのオブジェクトデータの例。An example of object data of an icon object. 図18(A)、図18(B)は軌道上で仮想カメラを移動させる手法の説明図。18A and 18B are explanatory diagrams of a method for moving a virtual camera on a trajectory. 仮想カメラの方向の設定手法の説明図。Explanatory drawing of the setting method of the direction of a virtual camera. 図20(A)、図20(B)はユーザにより選択可能なアイコンオブジェクトの設定手法の説明図。20A and 20B are explanatory diagrams of a method for setting icon objects that can be selected by the user. 図21(A)、図21(B)はアイコンオブジェクトの選択手法の説明図。FIGS. 21A and 21B are explanatory diagrams of a method for selecting an icon object. ユーザの操作により仮想カメラの位置、方向を制御する手法の説明図。Explanatory drawing of the method of controlling the position and direction of a virtual camera by a user's operation. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed process example of this embodiment. 図24(A)〜図24(D)はアイコンオブジェクトに画像エフェクトや選択履歴を表す画像を付与する手法の説明図。FIGS. 24A to 24D are explanatory diagrams of a method for giving an image representing an image effect or a selection history to an icon object. 図25(A)〜図25(C)は視野範囲外のアイコンオブジェクトの位置を変更する手法の説明図。FIG. 25A to FIG. 25C are explanatory diagrams of a method for changing the position of an icon object outside the visual field range. 本実施形態のサーバシステム、コンテンツ配信システムの構成例。1 is a configuration example of a server system and a content distribution system according to the present embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。   Hereinafter, this embodiment will be described. In addition, this embodiment demonstrated below does not unduly limit the content of this invention described in the claim. In addition, all the configurations described in the present embodiment are not necessarily essential configuration requirements of the present invention.

1.画像生成システム
図1に本実施形態の画像生成システム(画像表示システム)の構成例を示す。本実施形態の画像生成システムは、例えばゲーム装置、コンテンツ再生装置(HDDプレーヤ、DVDプレーヤ)、テレビ、携帯型端末装置、パーソナルコンピュータ等の種々の機器に適用できる。なお本実施形態の画像生成システムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. Image Generation System FIG. 1 shows a configuration example of an image generation system (image display system) of this embodiment. The image generation system according to the present embodiment can be applied to various devices such as a game device, a content playback device (HDD player, DVD player), a television, a portable terminal device, and a personal computer. Note that the image generation system of the present embodiment is not limited to the configuration of FIG. 1, and various modifications such as omitting some of the components (each unit) or adding other components are possible.

操作部160は、ユーザ(プレーヤ)が操作データを入力するためのものであり、その機能は、操作ボタン、方向キー、レバー、アナログスティック、リモコン、キーボード、ポインティングデバイス(マウス等)、マイク、或いはタッチパネル型ディスプレイなどにより実現できる。   The operation unit 160 is for a user (player) to input operation data, and functions thereof are operation buttons, direction keys, levers, analog sticks, remote controllers, keyboards, pointing devices (such as a mouse), microphones, or It can be realized with a touch panel display.

記憶部170は、処理部100や通信部196などのワーク領域となるもので、その機能はRAM(DRAM、VRAM)などにより実現できる。そして処理部100により実行されるプログラムや、プログラムの実行に必要なデータは、この記憶部170に保持される。   The storage unit 170 serves as a work area for the processing unit 100, the communication unit 196, and the like, and its function can be realized by a RAM (DRAM, VRAM) or the like. A program executed by the processing unit 100 and data necessary for executing the program are held in the storage unit 170.

記憶部170のオブジェクトデータ記憶部172は、オブジェクト空間設定のためのオブジェクトデータを記憶する。仮想カメラデータ記憶部174は、仮想カメラ制御部103の各種制御データを記憶する。画像データ記憶部175は、アイコンオブジェクト等のオブジェクトの画像データを記憶する。音データ記憶部176は、アイコンオブジェクト等に対応づけられた各種の音(音声、音楽)のデータを記憶する。描画バッファ177は画像を描画するためのバッファである。コンテンツ記憶部178は、映像コンテンツ、音楽コンテンツ、ゲームコンテンなどの各種コンテンツの情報を記憶する。   The object data storage unit 172 of the storage unit 170 stores object data for setting an object space. The virtual camera data storage unit 174 stores various control data of the virtual camera control unit 103. The image data storage unit 175 stores image data of objects such as icon objects. The sound data storage unit 176 stores data of various sounds (speech and music) associated with icon objects and the like. The drawing buffer 177 is a buffer for drawing an image. The content storage unit 178 stores information on various types of content such as video content, music content, and game content.

第1のデータベース182は、映像コンテンツを構成する複数のシーンの各シーン対して少なくとも1つのキーワード(1つ以上のキーワード)が関連づけて記憶されるデータベースである。第2のデータベース184は、各キーワードに対して少なくとも1つのシーン(1つ以上のキーワード)が関連づけて記憶されるデータベースである。なお第1、第2のデータベース182、184は、映像コンテンツを配信するサーバシステム等に設けてもよい。   The first database 182 is a database in which at least one keyword (one or more keywords) is stored in association with each scene of a plurality of scenes constituting video content. The second database 184 is a database in which at least one scene (one or more keywords) is stored in association with each keyword. The first and second databases 182 and 184 may be provided in a server system or the like that distributes video content.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、ブルーレイディスク、CD)、HDD(ハードディスクドライブ)、或いはメモリ(ROM等)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(操作部、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。   The information storage medium 180 (a computer-readable medium) stores programs, data, and the like, and functions as an optical disk (DVD, Blu-ray disk, CD), HDD (hard disk drive), or memory (ROM, etc.). ) Etc. The processing unit 100 performs various processes of the present embodiment based on a program (data) stored in the information storage medium 180. That is, in the information storage medium 180, a program for causing a computer (an apparatus including an operation unit, a processing unit, a storage unit, and an output unit) to function as each unit of the present embodiment (a program for causing the computer to execute processing of each unit). Is memorized.

表示部190は、本実施形態により生成された画像を出力するものであり、その機能は、LCD、プラズマディスプレイ、CRT、タッチパネル型ディスプレイ、或いはHMD(ヘッドマウントディスプレイ)などにより実現できる。音出力部192は、本実施形態により生成された音を出力するものであり、その機能は、スピーカ、或いはヘッドフォンなどにより実現できる。   The display unit 190 outputs an image generated according to the present embodiment, and its function can be realized by an LCD, a plasma display, a CRT, a touch panel display, an HMD (head mounted display), or the like. The sound output unit 192 outputs the sound generated by the present embodiment, and its function can be realized by a speaker, headphones, or the like.

補助記憶装置194(補助メモリ、2次メモリ)は、記憶部170の容量を補うために使用される記憶装置であり、SDメモリーカード、マルチメディアカードなどのメモリーカードなどにより実現できる。   The auxiliary storage device 194 (auxiliary memory, secondary memory) is a storage device used to supplement the capacity of the storage unit 170, and can be realized by a memory card such as an SD memory card or a multimedia card.

通信部196は、有線や無線のネットワークを介して外部(例えば他の画像生成システム、サーバシステム、ホスト)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。   The communication unit 196 communicates with the outside (for example, another image generation system, a server system, or a host) via a wired or wireless network, and functions as a communication ASIC or a communication processor. It can be realized by hardware and communication firmware.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバシステムが有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部、補助記憶装置)に配信してもよい。このようなサーバシステムによる情報記憶媒体の使用も本発明の範囲内に含めることができる。   A program (data) for causing a computer to function as each unit of the present embodiment is distributed from the information storage medium included in the server system to the information storage medium 180 (or the storage unit or auxiliary storage device) via the network and the communication unit 196. May be. Use of the information storage medium by such a server system can also be included in the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作データやプログラムなどに基づいて、各種演算処理、画像生成処理、音生成処理などを行う。処理部100は記憶部170をワーク領域として各種処理を行う。この処理部100の機能は、各種プロセッサ(CPU、DSP、GPU等)、ASIC(ゲートアレイ等)などのハードウェアや、プログラムにより実現できる。   The processing unit 100 (processor) performs various arithmetic processing, image generation processing, sound generation processing, and the like based on operation data from the operation unit 160, a program, and the like. The processing unit 100 performs various processes using the storage unit 170 as a work area. The functions of the processing unit 100 can be realized by hardware such as various processors (CPU, DSP, GPU, etc.), ASIC (gate array, etc.), and programs.

処理部100は、メニュー用オブジェクト空間設定部102、仮想カメラ制御部103、キーワード取得部104、シーン取得部105、選択履歴取得部106、表示制御部107、音制御部108、アイコン設定部110、位置更新部112を含む。なおこれらの一部の構成要素(例えばメニュー用オブジェクト空間設定部、仮想カメラ制御部、アイコン設定部、位置更新部)を省略したり、他の構成要素(例えばゲーム演算部、移動体演算部)を追加するなどの種々の変形実施が可能である。   The processing unit 100 includes a menu object space setting unit 102, a virtual camera control unit 103, a keyword acquisition unit 104, a scene acquisition unit 105, a selection history acquisition unit 106, a display control unit 107, a sound control unit 108, an icon setting unit 110, A position update unit 112 is included. Note that some of these components (for example, the menu object space setting unit, virtual camera control unit, icon setting unit, and position update unit) may be omitted, or other components (for example, the game calculation unit and the moving object calculation unit). Various modifications, such as adding, are possible.

メニュー用オブジェクト空間設定部102は、各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)をオブジェクト空間(3次元空間)に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクトデータ記憶部172には、オブジェクトの位置、回転角度、移動速度、移動方向等のデータであるオブジェクトデータがオブジェクトIDに対応づけて記憶され、このオブジェクトデータは、例えば位置更新部112等により更新される。   The menu object space setting unit 102 performs processing for setting various objects (objects composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces) in the object space (three-dimensional space). In other words, the position and rotation angle of the object in the world coordinate system (synonymous with direction and direction) are determined, and the rotation angle (rotation angle around the X, Y, and Z axes) is determined at that position (X, Y, Z). Place the object. Specifically, the object data storage unit 172 of the storage unit 170 stores object data such as the object position, rotation angle, moving speed, moving direction, and the like in association with the object ID. For example, it is updated by the position update unit 112 or the like.

そして本実施形態ではメニュー用オブジェクト空間設定部102はメニュー用オブジェクト空間の設定処理を行う。このメニュー用オブジェクト空間では、複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定される。   In this embodiment, the menu object space setting unit 102 performs a menu object space setting process. In the menu object space, the icon objects of the plurality of icon objects are arranged and set at respective three-dimensional positions.

ここでコンテンツは、例えばサーバシステム等から配信される映像コンテンツなどのマルチメディアのコンテンツである。或いはテレビやラジオの放送コンテンツであってもよい。或いは、HDDプレーヤ、光ディスクプレーヤなどのコンテンツ再生装置に記録される映像コンテンツであってもよい。またアイコンオブジェクトは、これらのコンテンツを選択(表象)するためのオブジェクト(表示物)である。このアイコンオブジェクトは、その属性情報としてオブジェクト空間(3次元空間)における3次元位置の情報を有するが、その形状は3次元形状には限定されず、2次元オブジェクト(例えばビルボード)であってもよいし、3次元オブジェクトであってもよい。またアイコンオブジェクトは、シーン等の画像を表すものあってもよいし、キーワード等の文字を表すものであってもよい。   Here, the content is, for example, multimedia content such as video content distributed from a server system or the like. Alternatively, it may be TV or radio broadcast content. Alternatively, it may be video content recorded on a content playback device such as an HDD player or an optical disc player. The icon object is an object (display object) for selecting (representing) these contents. This icon object has information on the three-dimensional position in the object space (three-dimensional space) as attribute information, but the shape is not limited to the three-dimensional shape, and even if it is a two-dimensional object (for example, a billboard) It may be a three-dimensional object. The icon object may represent an image such as a scene, or may represent a character such as a keyword.

また本実施形態の画像生成システムをゲーム装置等に適用する場合には、オブジェクト空間設定部102は、モデルオブジェクト(人、ロボット、車等の移動体)、マップ(地形)、建物、コース(道路)、樹木、壁などの表示物を表す各種オブジェクトをオブジェクト空間に配置設定する処理を行う。   When the image generation system according to the present embodiment is applied to a game device or the like, the object space setting unit 102 includes a model object (a moving object such as a person, a robot, or a car), a map (terrain), a building, a course (road). ), Processing for arranging and setting various objects representing display objects such as trees and walls in the object space.

仮想カメラ制御部103は、例えばメニュー用のオブジェクト空間内の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点)の制御処理を行う。具体的には、仮想カメラの位置(X、Y、Z)、方向(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向を制御する処理)を行う。或いは仮想カメラ制御部103は仮想カメラの画角等を制御してもよい。   The virtual camera control unit 103 performs, for example, a virtual camera (viewpoint) control process for generating an image that can be seen from a given (arbitrary) viewpoint in a menu object space. Specifically, a process for controlling the position (X, Y, Z) and direction (rotation angle around the X, Y, Z axes) of the virtual camera (process for controlling the viewpoint position and the line-of-sight direction) is performed. Alternatively, the virtual camera control unit 103 may control the angle of view of the virtual camera.

キーワード取得部104はキーワードの取得処理を行う。例えば映像コンテンツを構成する複数のシーン(場面)の各シーンに関連づけられた少なくとも1つのキーワード(キーワードID、キーワード名)を取得する。具体的には、各シーンに対してキーワードが関連づけられた第1のデータベース182を参照することで、各シーンに関連づけられたキーワードを取得する。なお第1のデータベース182がサーバシステム(ホスト)に設けられる場合には、各シーンに関連づけられた各キーワードのデータ(キーワードID、キーワード名)を、ネットワーク及び通信部196を介してサーバシステムから受信することで、キーワードの取得処理を実現する。   The keyword acquisition unit 104 performs keyword acquisition processing. For example, at least one keyword (keyword ID, keyword name) associated with each scene of a plurality of scenes (scenes) constituting the video content is acquired. Specifically, the keyword associated with each scene is obtained by referring to the first database 182 in which the keyword is associated with each scene. When the first database 182 is provided in the server system (host), data of each keyword (keyword ID, keyword name) associated with each scene is received from the server system via the network and the communication unit 196. By doing so, keyword acquisition processing is realized.

シーン取得部105はシーンの取得処理を行う。例えば複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーン(シーンID、シーン名)を取得する。具体的には、各キーワードに対してシーンが関連づけられた第2のデータベース184を参照することで、キーワードに関連づけられたシーンを取得する。なお第2のデータベース184がサーバシステムに設けられる場合には、各キーワードに関連づけられた各シーンのデータ(シーンID、シーン名)を、ネットワーク及び通信部196を介してサーバシステムから受信することで、シーンの取得処理を実現する。   The scene acquisition unit 105 performs scene acquisition processing. For example, at least one scene (scene ID, scene name) associated with each keyword of a plurality of keywords is acquired. Specifically, the scene associated with the keyword is acquired by referring to the second database 184 in which the scene is associated with each keyword. In the case where the second database 184 is provided in the server system, data of each scene (scene ID, scene name) associated with each keyword is received from the server system via the network and the communication unit 196. Realize the scene acquisition process.

選択履歴取得部106は、ユーザの選択履歴の取得処理を行う。例えばユーザが、シーンやキーワードをメニュー画面等で選択すると、その選択履歴を、ユーザによるシーン又はキーワードの選択履歴として取得する。   The selection history acquisition unit 106 performs user selection history acquisition processing. For example, when the user selects a scene or keyword on a menu screen or the like, the selection history is acquired as a scene or keyword selection history by the user.

表示制御部107は、各種画像を表示部190に表示する制御を行う。例えば処理部100で行われる種々の処理の結果に基づいて、アイコンオブジェクト等のオブジェクトの描画処理を行い、これにより画像を生成し、表示部190に出力する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ177(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、オブジェクト空間内において仮想カメラ(所与の視点)から見える画像が生成される。なお仮想カメラから見える画像等をサーバシステムにおいて生成し、表示制御部107が、サーバシステムから配信された画像(映像)を表示部190に表示する制御を行ってもよい。   The display control unit 107 performs control to display various images on the display unit 190. For example, an object such as an icon object is drawn based on the results of various processes performed by the processing unit 100, thereby generating an image and outputting the image to the display unit 190. Specifically, geometric processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, perspective transformation, or light source processing is performed. Based on the processing result, drawing data (the position of the vertex of the primitive surface) Coordinates, texture coordinates, color data, normal vector, α value, etc.) are created. Then, based on the drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is converted into image data in units of pixels such as a drawing buffer 177 (frame buffer, work buffer, etc.). Draw in a buffer that can be stored. Thereby, an image that can be seen from the virtual camera (given viewpoint) in the object space is generated. Note that an image or the like visible from the virtual camera may be generated in the server system, and the display control unit 107 may perform control to display the image (video) distributed from the server system on the display unit 190.

音制御部108は、処理部100で行われる種々の処理の結果に基づいて音処理を行い、BGM、効果音、又は音声などの音を生成し、音出力部192に出力するための制御を行う。   The sound control unit 108 performs sound processing based on the results of various processes performed by the processing unit 100, generates sound such as BGM, sound effects, or sound, and performs control for outputting the sound to the sound output unit 192. Do.

アイコン設定部110は、アイコンの各種状態(属性)を設定するための処理を行う。例えば複数のアイコンオブジェクトのうち、仮想カメラの位置から所定距離範囲内(所定ビューボリューム内、所定Z値以内)にあるアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクト(カーソルにより選択可能なアイコンオブジェクト)に設定する処理を行う。或いは、仮想カメラの位置に近い所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定してもよい。   The icon setting unit 110 performs processing for setting various states (attributes) of icons. For example, among a plurality of icon objects, an icon object that can be selected by the user (icon object that can be selected by the cursor) within a predetermined distance range (within a predetermined view volume and within a predetermined Z value) from the position of the virtual camera. Perform processing to set. Alternatively, a predetermined number of icon objects close to the position of the virtual camera may be set as icon objects that can be selected by the user.

位置更新部112は、オブジェクトの配置位置の更新処理等を行う。例えば、メニュー用オブジェクト空間に設定された複数のアイコンオブジェクトの配置位置(3次元位置)の更新処理を行う。   The position update unit 112 performs an update process of the arrangement position of the object. For example, update processing of the arrangement positions (three-dimensional positions) of a plurality of icon objects set in the menu object space is performed.

具体的には、位置更新部112は、コンテンツ量情報、コンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのジャンル情報、コンテンツのリコメンド情報、コンテンツの選択履歴情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報(付加情報の更新時間情報)の少なくとも1つに応じて、複数のアイコンオブジェクトの配置位置の更新処理を行う。ここでコンテンツ量情報は、コンテンツ数やコンテンツのデータ量である。コンテンツの人気度情報は、サービスを利用するユーザ等の人気度を表す情報である。コンテンツに対する評価情報は、ユーザがコンテンツに対して付与した評価を表す情報である。コンテンツの提示回数情報は、コンテンツの提示回数を表す情報であり、例えば映像コンテンツや音楽コンテンツの再生回数やゲームコンテンツのプレイ回数の情報である。コンテンツのジャンル情報は、コンテンツが属するジャンルの情報である。コンテンツのリコメンド情報は、サービス提供側(メーカ側)やユーザによるそのコンテンツに対するリコメンド情報である。コンテンツの選択履歴情報は、ユーザ(他ユーザ、フレンドユーザ)がコンテンツを選択した場合に、そのコンテンツの選択履歴を表す情報である。コンテンツの登録時間情報は、コンテンツの登録時刻や登録年月日の情報である。コンテンツの付加情報は、例えばユーザがコンテンツに付与したコメントや、シーンのあらすじや、キーワードの解説文などである。   Specifically, the position update unit 112 includes content amount information, content popularity information, content evaluation information, content presentation frequency information, content genre information, content recommendation information, content selection history information, content information Update processing of the arrangement positions of a plurality of icon objects is performed according to at least one of the registration time information and additional information added to the content (update time information of additional information). Here, the content amount information is the number of content and the data amount of content. Content popularity information is information representing the popularity of a user or the like who uses the service. The evaluation information for content is information representing evaluation given to the content by the user. The content presentation frequency information is information representing the content presentation frequency, for example, information on the number of times video content or music content has been played or the number of game content plays. The content genre information is information on the genre to which the content belongs. The content recommendation information is recommendation information for the content provided by the service provider (manufacturer) or the user. The content selection history information is information representing a content selection history when a user (another user or a friend user) selects the content. The content registration time information is content registration time and registration date information. The additional information of the content is, for example, a comment given to the content by the user, a synopsis of a scene, a commentary on a keyword, or the like.

また位置更新部112は、アイコンオブジェクトが仮想カメラの視野範囲外になった場合(仮想カメラから見えなくなった場合)に、視野範囲外になったアイコンオブジェクトの位置を変更する処理を行ってもよい。例えば視野範囲外になったアイコンオブジェクトが、再度視野範囲内に入るように、アイコンオブジェクトの位置を変更する。   Further, the position update unit 112 may perform a process of changing the position of the icon object that is out of the visual field range when the icon object is out of the visual field range of the virtual camera (when the icon object becomes invisible from the virtual camera). . For example, the position of the icon object is changed so that an icon object that is out of the visual field range falls within the visual field range again.

そして本実施形態では、キーワード取得部104が、シーンに関連づけられたキーワード(キーワードID)を取得し、シーン取得部105が、キーワードに関連づけられたシーン(シーンID)を取得する。そして表示制御部107は、ユーザがシーンを選択した場合には、選択されたシーンに関連づけられた少なくとも1つのキーワード(シーンから取得された少なくとも1つのキーワード)を、リスト表示する制御を行う。例えばキーワード名等が表示された画面を表示する。またユーザがキーワードを選択した場合には、選択されたキーワードに関連づけられた少なくとも1つのシーン(キーワードから取得された少なくとも1つのシーン)を、リスト表示する制御を行う。例えばシーンのアイコン画像やシーン名等が表示された画面を表示する。   In this embodiment, the keyword acquisition unit 104 acquires a keyword (keyword ID) associated with the scene, and the scene acquisition unit 105 acquires a scene (scene ID) associated with the keyword. When the user selects a scene, the display control unit 107 performs control to display a list of at least one keyword (at least one keyword acquired from the scene) associated with the selected scene. For example, a screen on which keyword names and the like are displayed is displayed. When the user selects a keyword, control is performed to display a list of at least one scene associated with the selected keyword (at least one scene acquired from the keyword). For example, a screen on which a scene icon image, a scene name, and the like are displayed is displayed.

また表示制御部107は、ユーザがキーワードを選択した場合に、選択されたキーワードに関連する情報(例えば商品情報、広告情報)や、その情報のサイトへのリンク先情報(URL)を表示する制御を行う。例えばキーワードに関連するキャラクタグッズ、おもちゃ、ゲームソフト、衣服、アクセサリ、装飾品、家具、日用品、家電等の商品や広告の情報や、その商品や広告のメーカ、ネットショップ、販売店等のサイトのリンク先情報を表示する。   In addition, when the user selects a keyword, the display control unit 107 displays information related to the selected keyword (for example, product information and advertisement information) and link information (URL) to the site of the information. I do. For example, character goods, toys, game software, clothes, accessories, decorations, furniture, daily necessities, home appliances, etc., information on products and advertisements, websites of manufacturers, online shops, dealers, etc. Display link destination information.

また表示制御部107は、ユーザがシーンの選択決定操作(又は選択操作)を行った場合に、選択されたシーンの再生画面を表示する制御を行う。或いは、そのシーンを含む映像コンテンツの再生画面を表示してもよい。   Further, the display control unit 107 performs control to display a reproduction screen of the selected scene when the user performs a scene selection determination operation (or selection operation). Alternatively, a playback screen for video content including the scene may be displayed.

そして表示制御部107は、このシーン再生画面においてユーザが入力した評価情報を表す演出効果(例えば画像エフェクト等)を、ユーザがシーン又はキーワードを選択するためのメニュー画面において、シーン又はキーワードに対応づけて表示する制御を行う。例えばシーン再生画面においてユーザが盛り上がって、そのシーンに高い評価を与えた場合に、その高い評価を表す演出効果(画像エフェクト等)を、シーンやキーワードを表すメニュー画面のアイコンオブジェクトに付加する。   The display control unit 107 associates the rendering effect (e.g., image effect) representing the evaluation information input by the user on the scene playback screen with the scene or keyword on the menu screen for the user to select a scene or keyword. Control to display. For example, when the user swells on the scene playback screen and gives a high evaluation to the scene, an effect (image effect or the like) indicating the high evaluation is added to the icon object on the menu screen indicating the scene or keyword.

また選択履歴取得部106が、ユーザによるシーン又はキーワードの選択履歴を取得したとする。この場合に表示制御部107は、他ユーザ(フレンドユーザ、一般ユーザ)によるシーン又はキーワードの選択履歴を表す演出効果(画像エフェクト等)を、ユーザがシーン又はキーワードを選択するためのメニュー画面において、シーン又はキーワードに対応づけて表示する制御を行う。例えば他ユーザの選択履歴を、メニュー画面のアイコンオブジェクト間を結ぶ移動軌跡の画像等で表現する。   Further, it is assumed that the selection history acquisition unit 106 acquires a selection history of scenes or keywords by the user. In this case, the display control unit 107 displays an effect (image effect or the like) representing a scene or keyword selection history by another user (friend user, general user) on a menu screen for the user to select a scene or keyword. Control is performed in association with a scene or keyword. For example, the selection history of another user is represented by an image of a movement trajectory connecting icon objects on the menu screen.

また表示制御部107は、ユーザがシーンを選択した場合に、選択されたシーンに対する他ユーザのコメントを表示する制御を行ってもよい。例えば、他ユーザがそのシーンに関して入力したコメントを、ユーザのシーンの選択時やシーンの鑑賞時に表示する。   In addition, when the user selects a scene, the display control unit 107 may perform control to display another user's comment on the selected scene. For example, a comment input by another user regarding the scene is displayed when the user selects a scene or views a scene.

また表示制御部107は、ユーザがキーワードを選択した場合に、選択されたキーワードに対する他ユーザのコメントを表示する制御を行う。例えば、他ユーザがそのキーワードに関して入力したコメントを、ユーザのキーワードの選択時やキーワードの説明文の鑑賞時に表示する。   In addition, when the user selects a keyword, the display control unit 107 performs control to display another user's comment on the selected keyword. For example, a comment input by another user regarding the keyword is displayed when the user selects a keyword or when viewing an explanatory note of the keyword.

なおキーワード(タグ)は、シーンの登場人物、シーンの場所、シーンの状況、或いはシーンの時間情報などである。ここでシーンの登場人物はドラマや映画の登場人物やアニメの登場キャラクタなどである。シーンの場所は、シーンの撮影場所やシーンの登場人物が現れる場所などである。シーンの状況は、例えば戦闘シーン、会話シーン、恋愛シーンなどのシーンの状況を表すものである。シーンの時間情報は、シーンの年月日や時刻を表すものである。   The keyword (tag) is a scene character, a scene location, a scene situation, or scene time information. Here, the characters in the scene are drama and movie characters, anime characters, and the like. The location of the scene is the location where the scene is filmed or where the characters in the scene appear. The scene status represents a scene status such as a battle scene, a conversation scene, or a love scene. The scene time information represents the date and time of the scene.

また表示制御部107は、ユーザがキーワードを選択した場合に、選択されたキーワードに関連する別のキーワードを表示する制御を行ってもよい。即ちキーワードの関連キーワードを表示する。   In addition, when the user selects a keyword, the display control unit 107 may perform control to display another keyword related to the selected keyword. That is, the related keyword of the keyword is displayed.

また本実施形態では、複数のキーワードのグループに対して上位キーワード(メタキーワード)を付与してもよい。そして表示制御部107は、ユーザがキーワードを選択した場合に、選択されたキーワードが属するグループに付与された上位キーワードを表示する制御を行う。例えば第1〜第kのキーワードに対して第1の上位キーワードが付与されたとする。そしてユーザが第1〜第kのキーワードの中の第mのキーワードを選択した場合に、第mのキーワードが属する第1の上位キーワードを表示する。   In the present embodiment, higher keywords (meta keywords) may be assigned to a plurality of keyword groups. Then, when the user selects a keyword, the display control unit 107 performs control to display the upper keyword assigned to the group to which the selected keyword belongs. For example, it is assumed that the first upper keyword is assigned to the first to kth keywords. When the user selects the m-th keyword among the first to k-th keywords, the first upper keyword to which the m-th keyword belongs is displayed.

また表示制御部107は、ユーザがシーン又はキーワードを選択した場合に、シーン又はキーワードに関連づけられたユーザキーワード(ユーザタグ、マイタグ)を表示する制御を行う。例えばユーザが第mのシーンを選択した場合には、第mのシーンに関連づけられたユーザキーワード(ユーザが第mのシーンに関連づけて付与したユーザキーワード)を表示する。またユーザが第mのキーワードを選択した場合に、第mのキーワードに関連づけられたユーザキーワード(ユーザが第mのキーワードに関連づけて付与したユーザキーワード)を表示する。   The display control unit 107 performs control to display a user keyword (user tag, my tag) associated with the scene or keyword when the user selects a scene or keyword. For example, when the user selects the mth scene, a user keyword associated with the mth scene (a user keyword assigned in association with the mth scene) is displayed. Further, when the user selects the m-th keyword, a user keyword associated with the m-th keyword (a user keyword assigned in association with the m-th keyword) is displayed.

また表示制御部107は、ユーザによりシーンが選択された後に、第1の方向(例えば左又は右方向、或いは上又は下方向)への操作指示(例えば第1の方向に画面をスクロールする操作指示)が行われた場合に、選択されたシーンに対する他ユーザのコメントをリスト表示する制御を行う。例えば、そのシーンに対して他ユーザが入力したコメントを表示する。また第2の方向(例えば右又は左方向、或いは下又は上方向)への操作指示(例えば第2の方向に画面をスクロールする操作指示)が行われた場合に、選択されたシーンに関連づけられたキーワードをリスト表示する制御を行う。例えば、第1のデータベース182においてそのシーンに関連づけられたキーワード(キーワード名)を表示する。   Further, the display control unit 107 selects an operation instruction in a first direction (for example, left or right direction, or upward or downward direction) (for example, an operation instruction to scroll the screen in the first direction) after a scene is selected by the user. ) Is performed, control is performed to display a list of comments of other users for the selected scene. For example, a comment input by another user for the scene is displayed. In addition, when an operation instruction in the second direction (for example, right or left direction, or downward or upward direction) (for example, an operation instruction to scroll the screen in the second direction) is performed, it is associated with the selected scene. Control to display the keyword list. For example, a keyword (keyword name) associated with the scene is displayed in the first database 182.

また表示制御部107は、ユーザによりキーワードが選択された後に、第1の方向への操作指示(例えば第1の方向に画面をスクロールする操作指示)が行われた場合に、選択されたキーワードに対する他ユーザのコメントをリスト表示する制御を行う。例えば、そのキーワードに対して他ユーザが入力したコメントを表示する。また第2の方向への操作指示(例えば第2の方向に画面をスクロールする操作指示)が行われた場合に、選択されたキーワードに関連づけられたシーンをリスト表示する制御を行う。例えば、第2のデータベース184においてそのキーワードに関連づけられたシーン(シーンのアイコン画像、シーン名)を表示する。   Further, the display control unit 107 responds to the selected keyword when an operation instruction in the first direction (for example, an operation instruction to scroll the screen in the first direction) is performed after the keyword is selected by the user. Controls the display of comments from other users. For example, a comment input by another user for the keyword is displayed. Further, when an operation instruction in the second direction (for example, an operation instruction to scroll the screen in the second direction) is performed, control is performed to display a list of scenes associated with the selected keyword. For example, the scene (scene icon image, scene name) associated with the keyword is displayed in the second database 184.

また本実施形態では、メニュー用オブジェクト空間設定部102は、アイコンオブジェクトが配置設定されるメニュー用オブジェクト空間の設定処理を行う。そして表示制御部107は、メニュー用オブジェクト空間において仮想カメラから見える画像を、メニュー画面として表示する制御を行う。即ち、アイコンオブジェクトにより表象されるシーンやキーワードを選択するためのメニュー画面を表示する制御を行う。   In the present embodiment, the menu object space setting unit 102 performs setting processing for a menu object space in which icon objects are arranged and set. The display control unit 107 performs control to display an image seen from the virtual camera in the menu object space as a menu screen. That is, control is performed to display a menu screen for selecting a scene and a keyword represented by the icon object.

なおアイコンオブジェクトは、例えばネットワークを介して配信される映像コンテンツや映像コンテンツの各シーンや各シーンのキーワードを選択するためのアイコンオブジェクトである。或いは、放送番組(テレビ番組、ラジオ番組)を選択するためのアイコンオブジェクトや、記録媒体(ハードディスク、光ディスク、外部メモリーカード)に記録される映像コンテンツを選択するためのアイコンオブジェクトであってもよい。   The icon object is an icon object for selecting video content distributed via a network, each scene of the video content, and a keyword of each scene. Alternatively, it may be an icon object for selecting a broadcast program (television program, radio program) or an icon object for selecting video content recorded on a recording medium (hard disk, optical disk, external memory card).

表示制御部107は、例えば仮想カメラから見てアイコンオブジェクトが移動して見える画像を、メニュー画面として表示する制御を行う。この場合に、仮想カメラ側を移動させてもよいし、アイコンオブジェクト側を移動させてもよい。またユーザがアイコンオブジェクトを選択した場合には、仮想カメラから見てアイコンオブジェクトが接近して見える画像を表示する。例えば仮想カメラを、アイコンオブジェクトの前方位置(近傍の位置)に移動させて、仮想カメラから見える画像を生成する。具体的には、選択されたアイコンオブジェクト(ポインティングされたアイコンオブジェクト)が静止し、他のアイコンオブジェクト(背景画像)が移動して見える画像を表示する。例えば、アイコンオブジェクトが仮想カメラに対して正対し、他のアイコンオブジェクト等の背景画像が回転して見える画像を生成する。   For example, the display control unit 107 performs control to display, as a menu screen, an image that the icon object appears to move when viewed from the virtual camera. In this case, the virtual camera side may be moved, or the icon object side may be moved. When the user selects an icon object, an image in which the icon object looks close when viewed from the virtual camera is displayed. For example, the virtual camera is moved to the front position (near position) of the icon object to generate an image that can be seen from the virtual camera. Specifically, the selected icon object (pointed icon object) is stationary, and the other icon objects (background image) are displayed as moving images. For example, an image is generated in which an icon object faces the virtual camera and a background image such as another icon object appears to rotate.

仮想カメラ制御部103は、仮想カメラを所定の軌道上で移動させる制御を行ってもよい。例えば仮想カメラを周回軌道上で移動させる制御を行う。このようにすれば、仮想カメラの視野範囲内に、アイコンオブジェクトを周期的に出現させることが可能になる。なお周回軌道としては、円軌道、楕円軌道、オーバル軌道等の種々の軌道を想定できる。   The virtual camera control unit 103 may perform control to move the virtual camera on a predetermined trajectory. For example, control is performed to move the virtual camera on the orbit. In this way, it is possible to cause the icon object to appear periodically within the visual field range of the virtual camera. Various orbits such as circular or elliptical or oval can be assumed as the circular orbit.

そしてユーザがアイコンオブジェクトを選択すると(アイコンオブジェクトをポインティングすると)、選択されたアイコンオブジェクトに仮想カメラを接近させる制御を行う。例えば仮想カメラを、アイコンオブジェクトの前方位置(近傍位置)に移動させて、仮想カメラから見える画像を生成する。この場合に仮想カメラ制御部103は、軌道の接線方向に対して、軌道の中心側に仮想カメラの方向が向くように制御することが望ましい。例えば仮想カメラの位置から軌道(例えば円軌道、楕円軌道)の中心に向かう方向と、軌道の接線方向との間の方向に、仮想カメラの方向を向ける。   When the user selects an icon object (points to the icon object), control is performed to bring the virtual camera closer to the selected icon object. For example, the virtual camera is moved to the front position (near position) of the icon object to generate an image that can be seen from the virtual camera. In this case, it is desirable that the virtual camera control unit 103 performs control so that the direction of the virtual camera is directed toward the center of the track with respect to the tangential direction of the track. For example, the direction of the virtual camera is directed in a direction between the direction from the virtual camera position toward the center of the trajectory (for example, a circular trajectory or an elliptical trajectory) and the tangential direction of the trajectory.

また、ユーザが操作するカーソルによりアイコンオブジェクトが選択(ポインティング)された場合に、表示制御部107は、選択されたアイコンオブジェクトにマーカを重畳表示(広義には識別可能に表示)するようにしてもよい。例えばマーカの画像とアイコンオブジェクトの画像が半透明合成された画像を生成する。或いは、カーソルによりアイコンオブジェクトが選択された場合に、アイコンオブジェクトの移動速度(仮想カメラに対する相対速度)や、アイコンオブジェクトの画像を変化させる表示制御を行ってもよい。例えばアイコンオブジェクトの移動速度を遅くしたり、アイコンオブジェクトの色や輝度を変化させたり、画像エフェクト(広義には演出効果)を付与する。なおカーソルがアイコンオブジェクトを選択(ポインティング)したか否かは、例えばアイコンオブジェクトの代表位置を中心とする所定範囲内に、カーソル位置が存在するか否かなどを判断することで実現できる。   Further, when an icon object is selected (pointed) by a cursor operated by the user, the display control unit 107 may superimpose a marker on the selected icon object (display it in a broadly identifiable manner). Good. For example, an image in which a marker image and an icon object image are translucently combined is generated. Alternatively, when the icon object is selected with the cursor, display control may be performed to change the moving speed of the icon object (relative speed with respect to the virtual camera) or the icon object image. For example, the moving speed of the icon object is slowed, the color and brightness of the icon object are changed, and an image effect (production effect in a broad sense) is given. Whether or not the cursor has selected (pointed to) the icon object can be realized by determining whether or not the cursor position is within a predetermined range centered on the representative position of the icon object, for example.

また仮想カメラ制御部103は、ユーザによる操作部160の操作に基づいて、仮想カメラの位置及び方向の少なくとも1つを制御するようにしてもよい。例えばユーザの操作により、仮想カメラを移動させたり、仮想カメラの方向を変化させる。   The virtual camera control unit 103 may control at least one of the position and direction of the virtual camera based on the operation of the operation unit 160 by the user. For example, the virtual camera is moved or the direction of the virtual camera is changed by a user operation.

また表示制御部107は、上述したコンテンツの人気度情報、コンテンツに対する評価情報、コンテンツの提示回数情報、コンテンツのリコメンド情報、コンテンツの登録時間情報、及びコンテンツに付加された付加情報の少なくとも1つに応じて、コンテンツに対応するアイコンオブジェクトの画像が変化する表示制御を行ってもよい。例えばアイコンオブジェクトの画像(色、輝度等)を変化させたり、アイコンオブジェクトに重畳表示する画像エフェクト(演出効果)を変化させる。   The display control unit 107 also includes at least one of the above-described content popularity information, content evaluation information, content presentation frequency information, content recommendation information, content registration time information, and additional information added to the content. Accordingly, display control in which the image of the icon object corresponding to the content changes may be performed. For example, the image (color, brightness, etc.) of the icon object is changed, or the image effect (effect effect) displayed superimposed on the icon object is changed.

また表示制御部107は、アイコンオブジェクトと仮想カメラとの位置関係(距離、方向等)に応じて、アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行ってもよい。例えば仮想カメラとの距離が第1の距離よりも遠い場合には、第1の情報詳細度でアイコンオブジェクトを表示し、第1の距離よりも近い場合には、第1の情報詳細度よりも詳細度が高い第2の情報詳細度でアイコンオブジェクトを表示する。なおアイコンオブジェクトと仮想カメラの距離は、奥行き距離(Z値)であってもよいし、直線距離であってもよい。また情報の詳細度が変化するとは、同時に表示される情報の種類が変化したり、表示される情報の情報量が変化することである。   The display control unit 107 may perform control to display an image in which the information detail level of the icon object changes according to the positional relationship (distance, direction, etc.) between the icon object and the virtual camera. For example, when the distance to the virtual camera is farther than the first distance, the icon object is displayed with the first information detail level, and when closer to the first distance, the icon object is displayed than the first information detail level. The icon object is displayed with the second information detail level having a high level of detail. The distance between the icon object and the virtual camera may be a depth distance (Z value) or a linear distance. The level of detail of information changes when the type of information displayed at the same time changes, or when the amount of information displayed is changed.

また仮想カメラ制御部103は、仮想カメラの画角を制御してもよい。例えば、初期設定情報やユーザの操作に基づいて仮想カメラの画角を制御する。そして表示制御部107は、仮想カメラの画角に応じて、アイコンオブジェクトの情報詳細度が変化する画像を表示する制御を行ってもよい。例えば画角が第1の画角よりも広い場合には、第1の情報詳細度でアイコンオブジェクトを表示し、第1の画角よりも狭い場合には、第1の情報詳細度よりも詳細度が高い第2の情報詳細度でアイコンオブジェクトを表示する。   The virtual camera control unit 103 may control the angle of view of the virtual camera. For example, the angle of view of the virtual camera is controlled based on the initial setting information and user operation. And the display control part 107 may perform control which displays the image from which the information detail level of an icon object changes according to the angle of view of a virtual camera. For example, when the angle of view is wider than the first angle of view, the icon object is displayed with the first information detail level, and when it is narrower than the first angle of view, it is more detailed than the first information detail level. The icon object is displayed with the second information detail level having a high degree.

また音制御部108は、アイコンオブジェクトの3次元位置に応じた音を出力する制御を行ってもよい。例えばアイコンオブジェクトの3次元位置に基づいて、仮想的な音場を生成して、サラウンド処理を行って、3次元位置が反映された音を出力する。   The sound control unit 108 may perform control to output a sound according to the three-dimensional position of the icon object. For example, a virtual sound field is generated based on the three-dimensional position of the icon object, and surround processing is performed to output a sound reflecting the three-dimensional position.

また音制御部108は、仮想カメラとアイコンオブジェクトとの位置関係に応じて変化する音を出力する制御を行ってもよい。例えば仮想カメラとアイコンオブジェクトとの距離が遠い場合には、音のレベルを小さくし、近い場合には音のレベルを大きくする。この場合に、出力される音は、各アイコンオブジェクトに対応づけられた音であることが望ましい。   The sound control unit 108 may perform control to output a sound that changes in accordance with the positional relationship between the virtual camera and the icon object. For example, when the distance between the virtual camera and the icon object is far, the sound level is decreased, and when the distance is close, the sound level is increased. In this case, it is desirable that the output sound is a sound associated with each icon object.

また例えば仮想カメラから見て第1のアイコンオブジェクトの方が第2のアイコンオブジェクトよりも手前側に位置していたとする。この場合に音制御部108は、第1のアイコンオブジェクトに対応づけられた音の方が第2のアイコンオブジェクトに関連づけられた音よりも優先して出力されるように制御する。例えば第1のアイコンオブジェクトの音だけが出力されたり、第1のアイコンオブジェクトの音の方が第2のアイコンオブジェクトの音よりも大きくなるように、音制御を行う。   Further, for example, it is assumed that the first icon object is located on the near side of the second icon object as viewed from the virtual camera. In this case, the sound control unit 108 performs control so that the sound associated with the first icon object is output with priority over the sound associated with the second icon object. For example, sound control is performed so that only the sound of the first icon object is output or the sound of the first icon object is larger than the sound of the second icon object.

またメニュー用オブジェクト空間設定部102は、メニュー用オブジェクト空間に設定された軌道上(1又は複数の軌道上)に、複数のアイコンオブジェクトを配置設定するようにしてもよい。例えば所定の位置を中心とする円軌道、楕円軌等の軌道上(周回軌道上)にアイコンオブジェクトを配置する。この場合に複数の軌道の各軌道上に対して、複数のコンテンツグループのうちの対応するコンテンツグループに属する複数のアイコンオブジェクトを配置設定してもよい。例えば第1の軌道上には、第1のコンテンツグループに属する複数のアイコンオブジェクトを配置し、第2の軌道上には、第2のコンテンツグループに属する複数のアイコンオブジェクトを配置する。   Further, the menu object space setting unit 102 may arrange and set a plurality of icon objects on a trajectory (on one or a plurality of trajectories) set in the menu object space. For example, the icon object is arranged on a circular or elliptical orbit such as a circular orbit (circular orbit) centered on a predetermined position. In this case, a plurality of icon objects belonging to the corresponding content group among the plurality of content groups may be arranged and set on each of the plurality of tracks. For example, a plurality of icon objects belonging to the first content group are arranged on the first trajectory, and a plurality of icon objects belonging to the second content group are arranged on the second trajectory.

また仮想カメラ制御部103は、複数のアイコンオブジェクトが配置設定される軌道に沿ったカメラ軌道上で、仮想カメラを移動(アイコンオブジェクトに対する相対的な移動)させる制御を行ってもよい。このカメラ軌道は、アイコンオブジェクトの軌道の外周又は内周に沿った軌道であってもよいし、アイコンオブジェクトの軌道の一部又は全部がカメラ軌道と一致していてもよい。また、各コンテンツグループに対応する各軌道に沿って各カメラ軌道を設け、各カメラ軌道上で仮想カメラを移動させてもよい。   Further, the virtual camera control unit 103 may perform control to move the virtual camera (relative movement with respect to the icon object) on a camera trajectory along a trajectory along which a plurality of icon objects are arranged and set. The camera trajectory may be a trajectory along the outer periphery or inner periphery of the icon object trajectory, or a part or all of the icon object trajectory may coincide with the camera trajectory. Alternatively, each camera trajectory may be provided along each trajectory corresponding to each content group, and the virtual camera may be moved on each camera trajectory.

2.本実施形態の手法
2.1 キーワード、シーンのリスト表示
本実施形態では、アニメ、映画、ドラマなどの映像コンテンツを、例えば30分〜2時間半などの作品単位による視聴(映像配信)ではなく、映像コンテンツの作品を、例えば数10秒〜数分のシーンに分割し、シーン単位で視聴できるようにしている。例えばサービス提供側が、映像コンテンツを名場面などのシーンに分割して提供する。また登場人物名(キャラクタ名)などをキーワード化(タグ化)したインターフェースによって、アニメ等の作品のファンが会話するときのように次々と連想しながら語り合って、映像を楽しむことを可能にしている。そして、ユーザのコメント(言葉)と映像を同時に楽しめるようにすることで、作品自体の魅力や面白さを高めるようにする。また映像作品と直接リンクする形で、ユーザの知識や思い出がシステムに蓄積される。そして登場人物名や登場キャラクタ名等をキーワード化することで、過去から現在に亘ってリリースされた作品をより楽しむための公式設定や関連映像がリンクした、作品のファンのための総合アーカイブが実現される。また、作品の関連商品やキャラクタグッズなどへリンクさせることで、eコマースの拡がりも実現する。
2. 2. Method of this embodiment 2.1 List display of keywords and scenes In this embodiment, video content such as animation, movies, and dramas is not viewed (video distribution) in units of works such as 30 minutes to 2.5 hours, for example. A work of video content is divided into scenes of, for example, several tens of seconds to several minutes, and can be viewed in scene units. For example, a service provider divides and provides video content into scenes such as famous scenes. In addition, an interface that uses characters (character names) as keywords (tags) makes it possible to enjoy videos by talking with each other while associating fans like animations. . Then, by making it possible to enjoy the user's comments (words) and video simultaneously, the attractiveness and fun of the work itself is enhanced. In addition, the user's knowledge and memories are stored in the system in the form of a direct link to the video work. Then, by using characters such as the names of characters and characters as keywords, a comprehensive archive for fans of the work, which links official settings and related videos to enjoy works released from the past to the present, is realized. Is done. In addition, it is possible to expand e-commerce by linking to related products and character goods.

図2、図3に本実施形態の画像生成システムにより表示される画面の例を示す。図2は、シーンに関連づけられたキーワードがリスト表示(一覧表示)される画面の例である。例えば後述するメニュー画面等において、ユーザがシーン(シーンに対応するアイコンオブジェクト)を選択すると、図2に示すような画面(シーンのオープン画面)が表示される。   2 and 3 show examples of screens displayed by the image generation system of this embodiment. FIG. 2 is an example of a screen on which keywords associated with a scene are displayed as a list (list display). For example, when a user selects a scene (icon object corresponding to a scene) on a menu screen described later, a screen (open scene screen) as shown in FIG. 2 is displayed.

図2では、C1に示すように、ユーザが選択したシーン(シーンのアイコン画像、シーン名)が表示される。またC2に示すように、シーンに関連づけられたキーワード(キーワード名)がリスト表示される。C1に示すシーンとC2に示すキーワードの関連づけは、例えば第1のデータベース182により実現される。   In FIG. 2, as shown by C1, the scene (scene icon image, scene name) selected by the user is displayed. As shown in C2, keywords (keyword names) associated with the scene are displayed in a list. The association between the scene shown in C1 and the keyword shown in C2 is realized by, for example, the first database 182.

また図2のようにシーンが選択された後、ユーザがシーンの選択の決定操作(或いは選択操作)を行うと、そのシーンの映像を再生するためのシーン再生画面が表示される(後述する図16を参照)。そして、このシーン再生画面において、ユーザがシーンの再生指示を行うことで、ユーザはそのシーンの映像を鑑賞できる。   In addition, when a user performs a selection operation (or selection operation) for selecting a scene after a scene is selected as shown in FIG. 2, a scene playback screen for playing back the video of the scene is displayed (see FIG. 2 described later). 16). Then, on the scene playback screen, when the user gives an instruction to play the scene, the user can view the video of the scene.

図3は、キーワードに関連づけられたシーンがリスト表示される画面の例である。例えば後述するメニュー画面等において、ユーザがキーワード(キーワードに対応するアイコンオブジェクト)を選択すると、図3に示すような画面(キーワードのオープン画面)が表示される。   FIG. 3 is an example of a screen that displays a list of scenes associated with the keyword. For example, when a user selects a keyword (icon object corresponding to a keyword) on a menu screen or the like to be described later, a screen (keyword open screen) as shown in FIG. 3 is displayed.

図3では、C3に示すように、ユーザが選択したキーワード(キーワード名、キーワードのアイコン画像)が表示される。またC4に示すように、キーワードに関連づけられたシーン(シーンのアイコン画像)が表示される。   In FIG. 3, as shown by C3, the keyword (keyword name, keyword icon image) selected by the user is displayed. Further, as shown at C4, a scene (scene icon image) associated with the keyword is displayed.

またC5では、C3のキーワードに関連する商品情報のサイトへのリンク先情報が表示される。例えばユーザがC5のリンク先情報をクリックすることで、ブラウザが立ち上がり、キーワードの関連商品等のメーカのサイトや販売サイトに移行できる。なおキーワードに関連する商品情報自体を直接表示するようにしてもよい。   In C5, link destination information to the site of product information related to the keyword of C3 is displayed. For example, when the user clicks on the link destination information of C5, the browser is launched, and it is possible to shift to a manufacturer's site such as a keyword related product or a sales site. In addition, you may make it display the merchandise information itself relevant to a keyword directly.

またC6では、C3のキーワードに対して他ユーザ(フレンドユーザ、フレンドユーザ以外の一般ユーザ)が書き込んだコメントが表示される。例えばコメントウィンドウが表示され、複数の他ユーザのコメントがリスト表示される。なお図2のシーン選択の場合の画面においても、選択されたシーンに対して他ユーザが書き込んだコメントを表示することが望ましい。   In C6, comments written by other users (friend users, general users other than friend users) for the keyword of C3 are displayed. For example, a comment window is displayed, and a plurality of comments from other users are displayed in a list. Note that it is desirable to display a comment written by another user on the selected scene also on the screen in the case of scene selection in FIG.

またC7では、複数のキーワードのグループに対して付与される上位キーワードであるメタキーワード(メタタグ)が表示される。例えば、この映像作品において、C3の「アスカRBX」は地球軍のロボットに属する。このため、C7では、C3のキーワードのグループに付与された「地球軍ロボット」のメタキーワードが表示される。このメタキーワードは、このメタキーワードに属するキーワードや、このメタキーワードを含むユーザキーワードにリンクしている。例えばユーザがC7のメタキーワードを選択(クリック)すると、メタキーワードのオープン画面が表示される。そしてこのオープン画面では、メタキーワードに属するキーワードや、メタキーワードを含むユーザキーワードがリスト表示される。またメタキーワードのアイコン画像や解説文やメタキーワード名等も表示される。   In C7, a meta keyword (meta tag) that is an upper keyword assigned to a group of a plurality of keywords is displayed. For example, in this video work, “Asuka RBX” of C3 belongs to the Earth Army robot. For this reason, at C7, the meta-keyword “Earth Army Robot” assigned to the keyword group C3 is displayed. The meta keyword is linked to a keyword belonging to the meta keyword and a user keyword including the meta keyword. For example, when the user selects (clicks) a meta keyword of C7, an open screen for the meta keyword is displayed. In this open screen, keywords belonging to the meta keyword and user keywords including the meta keyword are displayed in a list. Meta keyword icon images, explanations, meta keyword names, and the like are also displayed.

またC8では、ユーザが作成したユーザキーワード(マイタグ、ユーザタグ)が表示される。このユーザキーワードは、シーンやキーワードやメタキーワード(上位キーワード)にリンクしている。例えばユーザがC8のユーザキーワードを選択すると、ユーザキーワードのオープン画面が表示される。そしてこのオープン画面では、ユーザキーワードにリンクしたシーンやキーワードやメタキーワードが一覧表示される。またキーワード名、作者名、評価、ユーザのコメント(ひとこと)等も表示される。   In C8, a user keyword (my tag, user tag) created by the user is displayed. This user keyword is linked to a scene, a keyword, and a meta keyword (upper keyword). For example, when the user selects a C8 user keyword, an open screen for the user keyword is displayed. On this open screen, a list of scenes, keywords, and meta keywords linked to the user keyword is displayed. Also displayed are the keyword name, author name, evaluation, user comment (a word), and the like.

図4に、各シーン(シーンID)に対してキーワード(キーワードID)が関連づけられる第1のデータベース182の例を示す。例えばシーンSC1には、キーワードKW11、KW12、KW13等が関連づけられ、シーンSC2には、キーワードKW21、KW22、KW23等が関連づけられる。シーンSC3も同様である。   FIG. 4 shows an example of the first database 182 in which a keyword (keyword ID) is associated with each scene (scene ID). For example, keywords KW11, KW12, KW13, and the like are associated with the scene SC1, and keywords KW21, KW22, KW23, and the like are associated with the scene SC2. The same applies to the scene SC3.

例えばシーンSC1に関連づけられるキーワードKW11、KW12、KW13は、そのシーンSC1の登場人物(登場キャラクタ)、そのシーンSC1の場所、シーンSC1の状況(戦闘状況、会話状況等)、或いはシーンSC1の時間情報(年月日、時刻、季節等)を表すキーワードである。   For example, the keywords KW11, KW12, and KW13 associated with the scene SC1 are the characters (appearance characters) of the scene SC1, the location of the scene SC1, the situation (combat situation, conversation situation, etc.) of the scene SC1, or the time information of the scene SC1. This is a keyword representing (date, time, season, etc.).

例えば、配信対象や再生対象となる映像コンテンツは、サービス提供側等により複数のシーンに分割され、各シーンにはシーンIDが付与される。このシーンIDは、例えば作品ID、話数情報(第10話等)、エピソード中でのシーン番号(5番目のシーン等)などを含む。また各シーンに対しては、例えば所定文字数の「あらすじ」が関連(定義)づけられる。   For example, video content to be distributed or played is divided into a plurality of scenes by the service provider and the like, and a scene ID is assigned to each scene. This scene ID includes, for example, a work ID, number-of-story information (such as the 10th episode), a scene number in the episode (such as the fifth scene), and the like. Each scene is associated (defined) with, for example, a predetermined number of characters.

図5(A)に、各キーワード(キーワードID)に対してシーン(シーンID)が関連づけられる第2のデータベース184の例を示す。例えばキーワードKW1には、シーンSC11、SC12、SC13等が関連づけられ、キーワードKW2には、シーンSC21、SC22、SC23等が関連づけられる。キーワードKW3も同様である。   FIG. 5A shows an example of the second database 184 in which a scene (scene ID) is associated with each keyword (keyword ID). For example, the scenes SC11, SC12, and SC13 are associated with the keyword KW1, and the scenes SC21, SC22, and SC23 are associated with the keyword KW2. The same applies to the keyword KW3.

図5(B)に示すように、各キーワードに対してはショート解説文とロング解説文が関連づけられる。これらの解説文は、キーワードの内容をユーザに説明するための文である、ロング解説文は詳細な解説文である。   As shown in FIG. 5B, a short commentary and a long commentary are associated with each keyword. These explanatory texts are sentences for explaining the content of the keyword to the user, and the long explanatory texts are detailed explanatory texts.

図5(C)に示すように、各キーワード(普通タグ)には、別のキーワード(別の普通タグ)が関連キーワードとして関連づけられる。即ち作品のストーリーや設定による意味的な関連を、コンテンツのサービス提供側が判断してリンクさせる。例えば図5(C)では、キーワードKW1に対して、KW1とは別のキーワードであるKW4、KW18、KW35が関連キーワードとして関連づけられている。またキーワードKW2に対して、KW2とは別のキーワードであるKW8が関連キーワードとして関連づけられている。またキーワードKW3に対して、KW3とは別のキーワードであるKW12、KW48、KW55が関連キーワードとして関連づけられている。   As shown in FIG. 5C, each keyword (ordinary tag) is associated with another keyword (another ordinary tag) as a related keyword. In other words, the content service provider judges and links the semantic relationship according to the story and setting of the work. For example, in FIG. 5C, keywords KW4, KW18, and KW35, which are keywords different from KW1, are associated with the keyword KW1 as related keywords. Further, KW8, which is a keyword different from KW2, is associated with the keyword KW2 as a related keyword. Further, KW12, KW48, and KW55, which are keywords different from KW3, are associated with the keyword KW3 as related keywords.

図6(A)に、メタキーワード(上位キーワード)のデータベースの例を示す。メタキーワードは、通常のキーワード(普通タグ)に関連づけられた親フォルダのような特別なキーワードである。例えばメタキーワードMKWAには、その下位のキーワードKWA1、KWA2、KWA3等が関連づけられ、メタキーワードMKWBには、その下位のキーワードKWB1、KWB2、KWB3等が関連づけられる。メタキーワードMKWCも同様である。図6(B)に示すように、各メタキーワードには、そのメタキーワードを説明するショート解説文が関連づけられている。   FIG. 6A shows an example of a meta keyword (upper keyword) database. The meta keyword is a special keyword such as a parent folder associated with a normal keyword (ordinary tag). For example, the lower keywords KWA1, KWA2, and KWA3 are associated with the meta keyword MKWA, and the lower keywords KWB1, KWB2, and KWB3 are associated with the meta keyword MKWB. The same applies to the meta keyword MKWC. As shown in FIG. 6B, each metakeyword is associated with a short commentary explaining the metakeyword.

図7(A)に、ユーザキーワード(マイキーワード)のデータベースの例を示す。ユーザキーワードはユーザが自分自身で定義できるキーワード(タグ)である。図7(A)に示すように、ユーザキーワードUKWFには、シーンSCF1、SCF2や、キーワードKWF1、KWF2や、メタキーワードMKWF等が関連づけられる。ユーザキーワードUKWGには、シーンSCG1、SCG2や、キーワードKWG1、KWG2や、メタキーワードMKWG等が関連づけられる。   FIG. 7A shows an example of a database of user keywords (my keywords). The user keyword is a keyword (tag) that can be defined by the user. As shown in FIG. 7A, scenes SCF1, SCF2, keywords KWF1, KWF2, meta-keyword MKWF, and the like are associated with user keyword UKWF. The user keyword UKWG is associated with scenes SCG1, SCG2, keywords KWG1, KWG2, metakeyword MKWG, and the like.

また図7(B)に示すように、各ユーザキーワードには、アイコン画像、ユーザキーワード名、作者名、利用者数、評価、コメント等が関連づけられる。アイコン画像は、予め用意された複数の画像の中からユーザが選択して設定する画像である。ユーザキーワード名が、ユーザが自分で設定できるキーワード名である。作者名には、ユーザがユーザキーワードを作成した時に、例えば作成したユーザのネットワークID等が書き込まれる。利用者数は、そのユーザキーワードが、何人のユーザにキーワード登録されているかを、サーバシステム等により集計することで得られた人数である。評価は、そのユーザキーワードに対して寄せられた他ユーザの評価である。コメント(ひとこと)は、そのユーザキーワードに対するユーザの書き込みである。   As shown in FIG. 7B, an icon image, a user keyword name, an author name, the number of users, an evaluation, a comment, and the like are associated with each user keyword. The icon image is an image that the user selects and sets from a plurality of images prepared in advance. The user keyword name is a keyword name that can be set by the user. In the author name, when the user creates a user keyword, for example, the network ID of the created user is written. The number of users is the number of users obtained by counting the number of users registered as a keyword by the server system or the like. The evaluation is an evaluation of other users sent to the user keyword. A comment (word) is a user's writing for the user keyword.

以上のように本実施形態では、映像コンテンツが複数のシーンに分割される。そして、これらの複数のシーンの中から、ユーザが所望のシーンを選択すると、図2に示すような画面が表示され、そのシーンに関連するキーワードが表示される。そして、これらのキーワードの中から、ユーザが興味を持ったキーワードを選択すると、今度は、図3に示すような画面が表示される。そして、図3の画面では、選択されたキーワードに関連するシーンが表示される。そして、これらのシーンの中から、ユーザが所望のシーンを選択すると、図2のように、選択されたシーンに関連する複数のキーワードが表示される。   As described above, in this embodiment, video content is divided into a plurality of scenes. Then, when the user selects a desired scene from the plurality of scenes, a screen as shown in FIG. 2 is displayed, and keywords related to the scene are displayed. Then, when a keyword that the user is interested in is selected from these keywords, a screen as shown in FIG. 3 is displayed. In the screen of FIG. 3, a scene related to the selected keyword is displayed. When the user selects a desired scene from these scenes, a plurality of keywords related to the selected scene are displayed as shown in FIG.

このように、映像コンテンツを複数のシーンに分割し、シーン単位で鑑賞できるようにすることで、ユーザは、名場面や自分が好きな場面だけをピックアップして楽しむことができる。即ち、30分〜2時間半というような長い映像コンテンツを全て見なくても、好きなシーンだけをピックアップして鑑賞できる。また、そのシーンに対する他ユーザのコメント等を表示することで、そのシーンに関するユーザ同士の語り合いや思い出話等の話題が生じ、ユーザコミュニティの拡がりを実現できる。   As described above, by dividing the video content into a plurality of scenes so that the content can be viewed in units of scenes, the user can pick up and enjoy only the famous scenes or scenes that the user likes. That is, it is possible to pick up and watch only a favorite scene without viewing all long video contents such as 30 minutes to 2.5 hours. Also, by displaying other users' comments and the like on the scene, topics such as conversations between the users and memories about the scene arise, and the expansion of the user community can be realized.

また、そのシーンに登場する人物やシーンの状況等をユーザが忘れている場合にも、図2に示すようにシーンに関連するキーワードの一覧を表示することで、これらの人物やシーンの状況等をユーザは思い出すことができる。そして、ユーザが興味を持ったキーワードを選択することで、図3に示すようにそのキーワードに関連するシーンの一覧も表示されるようになる。例えばユーザが、図2においてキーワードとして表示される登場人物(キャラクタ)に興味を持って、そのキーワードを選択すると、図3に示すように、その人物に関連する他のシーンの一覧も表示される。従って、その人物に思い入れ等があるユーザは、その人物に関連する他のシーンについても鑑賞できるようになる。またその人物に関する他ユーザのコメント等も見ることができ、ユーザ同士の語り合いや思い出話等により、ユーザコミュニティの拡がりを実現できる。   In addition, even when the user forgets the person appearing in the scene and the situation of the scene, the list of keywords related to the scene is displayed as shown in FIG. Can be remembered by the user. Then, by selecting a keyword that the user is interested in, a list of scenes related to the keyword is also displayed as shown in FIG. For example, when the user is interested in a character (character) displayed as a keyword in FIG. 2 and selects the keyword, a list of other scenes related to the person is also displayed as shown in FIG. . Therefore, a user who has a feeling for the person can appreciate other scenes related to the person. In addition, other users' comments regarding the person can also be seen, and the expansion of the user community can be realized by talking and recollecting stories between users.

このように本実施形態では、ユーザは、シーンからキーワード、キーワードからシーン、更にシーンからキーワードというように、シーンとキーワードの相互リンクを利用して、図2や図3の画面を見て作品を楽しむことができる。これにより、映像コンテンツの作品をより深く楽しむことが可能になり、これまでにないタイプの映像コンテンツの提供が可能になる。また、他ユーザのコメントや、他ユーザが作成したユーザキーワードなどを見ることで、今までは気づかなかった作品や登場人物の魅力に気づいたり、作品内容をより深く理解できるようになる。   As described above, in this embodiment, the user uses the reciprocal links between scenes and keywords, such as scenes to keywords, keywords to scenes, and scenes to keywords. I can enjoy it. Thereby, it becomes possible to enjoy the work of video content more deeply, and it becomes possible to provide video content of an unprecedented type. Also, by viewing comments from other users and user keywords created by other users, you can notice the appeal of works and characters that you have not noticed before, and you can understand the contents of the work more deeply.

2.2 詳細な画面例
図8〜図16に、本実施形態の画像生成システムにより表示される詳細な画面例を示す。図8は、シーンやキーワードを選択するためのメニュー画面の例である。
2.2 Detailed Screen Examples FIGS. 8 to 16 show detailed screen examples displayed by the image generation system of the present embodiment. FIG. 8 shows an example of a menu screen for selecting a scene and a keyword.

例えば、これまでのコンテンツ選択のためのメニュー画面は、2次元表示であった。このため1つの画面に表示されるアイコンの数には限界があり、多数のアイコンを画面上に表示しようとすると、アイコンが小さくなってしまうなどの課題があった。   For example, the menu screen for content selection so far has been a two-dimensional display. For this reason, there is a limit to the number of icons displayed on one screen, and there has been a problem that when a large number of icons are displayed on the screen, the icons become small.

そこで図8では、メニュー画面を3次元表示にしている。具体的には、シーン、キーワードなどの多数のアイコン(サムネール)が浮遊した宇宙の星々の中にいるように見えるメニュー画面を表示する。また後述するように、ユーザの移動やコメント書き込みなどの行動(履歴)を表現し、ユーザ全体の盛り上がりを表現している。例えばユーザのフレンドユーザの名前や、フレンドユーザの移動軌跡や、フレンド以外の他ユーザの名前や、他ユーザの移動軌跡や、コメントの書き込みマーク(例えば直近5分間)が表示される。またシーンの再生数、オープン数等を表す画像エフェクト(オーラ)が表示される。また宇宙(軌道)の中心には、ユーザコミュニティの盛り上がりを表現するフレアも表示される。また宇宙空間をゆったりと感じさせるBGM音楽が流れると共に、シーンのセリフのサウンドが所定秒数毎にランダムに再生される。なお、以下ではメニュー画面等を3次元表示で行う場合について例にとり説明するが、本実施形態はこれに限定されず、メニュー画面等を2次元表示で行う場合も本実施形態の範囲に含まれる。   Therefore, in FIG. 8, the menu screen is three-dimensionally displayed. Specifically, a menu screen is displayed in which a large number of icons (thumbnails) such as scenes and keywords appear to be in floating stars. As will be described later, behavior (history) such as user movement and comment writing is expressed to express the excitement of the entire user. For example, the name of the user's friend user, the movement trajectory of the friend user, the name of a user other than the friend, the movement trajectory of another user, and a comment writing mark (for example, the last five minutes) are displayed. In addition, an image effect (aura) representing the number of scenes played, the number of opens, etc. is displayed. A flare that expresses the excitement of the user community is also displayed at the center of the universe (orbit). In addition, BGM music that makes you feel relaxed in outer space flows, and the sound of the speech of the scene is played back randomly every predetermined number of seconds. In the following, a case where a menu screen or the like is performed in a three-dimensional display will be described as an example. However, the present embodiment is not limited to this, and a case where a menu screen or the like is performed in a two-dimensional display is also included in the scope of the present embodiment. .

例えば図8では、映像コンテンツを構成する各シーンを表すアイコンオブジェクトIOB1、IOB2等が表示される。また各シーンに関連づけられたキーワードを表すアイコンオブジェクトIOB3、IOB4等が表示される。ユーザは、これらのアイコンオブジェクトを選択することで、各シーンや各キーワードを選択して、シーンの再生映像等を鑑賞できる。   For example, in FIG. 8, icon objects IOB1, IOB2, and the like representing scenes constituting video content are displayed. In addition, icon objects IOB3, IOB4, and the like representing keywords associated with each scene are displayed. By selecting these icon objects, the user can select each scene and each keyword to view a playback video of the scene.

具体的には本実施形態では、シーンやキーワードを選択するためのアイコンオブジェクトIOB1〜IOB4等が配置されるメニュー用オブジェクト空間を設定する。例えばこれらのアイコンオブジェクトの3次元位置(或いは3次元位置及び方向)のデータがオブジェクトデータとして用意される。そして、このメニュー用オブジェクト空間において、仮想カメラから見える画像を生成することで、図8に示すようなメニュー画面が表示部190に表示される。   Specifically, in this embodiment, a menu object space in which icon objects IOB1 to IOB4 for selecting scenes and keywords are arranged is set. For example, data of the three-dimensional positions (or three-dimensional positions and directions) of these icon objects are prepared as object data. Then, by generating an image that can be seen from the virtual camera in the menu object space, a menu screen as shown in FIG. 8 is displayed on the display unit 190.

この場合に、例えば仮想カメラから見てアイコンオブジェクトIOB1〜IOB4等が移動して見える画像を、メニュー画面として表示することが望ましい。即ち、ユーザが操作部160を操作しなくても、アイコンオブジェクトが遠くから近くに流れて行くように見える画像が表示される。具体的には後述するように、仮想カメラを所定軌道上で例えば一定速度で移動させることで、このような画像が表示される。このようにすることで、ユーザは、何も操作しなくても、アイコンオブジェクトが次から次へと遠くから近づいては消えるという画像を傍観できる。   In this case, for example, it is desirable to display, as a menu screen, an image in which the icon objects IOB1 to IOB4 and the like are viewed from the virtual camera. That is, even if the user does not operate the operation unit 160, an image is displayed in which the icon object appears to flow from far away. Specifically, as will be described later, such an image is displayed by moving the virtual camera on a predetermined trajectory, for example, at a constant speed. By doing in this way, the user can bystand the image that the icon object disappears as it approaches from the next to the next without any operation.

そしてユーザは、操作部160を操作することでカーソルCSを移動させて、空間内で移動するアイコンオブジェクトを選択(ポインティング)する。即ちアイコンオブジェクトの画像やキーワードを傍観しながら、興味を持ったアイコンオブジェクトの方にカーソルCSを移動させて、目的のアイコンオブジェクトを選択(補足、タッチ、クリック)する。   The user moves the cursor CS by operating the operation unit 160, and selects (points) an icon object that moves in the space. That is, while looking at the icon object image and keyword, the cursor CS is moved toward the icon object that is interested, and the target icon object is selected (supplemented, touched, clicked).

そして、カーソルCSによりアイコンオブジェクトIOB1が選択されると、図9に示すようにアイコンオブジェクトIOB1(シーン)のキャッチ画面(補足画面)が表示される。このキャッチ画面では、例えばシーン名、シーンのアイコン画像(サムネール画像)、シーンのオーラ、シーンに対する他ユーザのコメント等が表示される。例えばネットワーク上の他ユーザのコメントの中から所定数のコメントが取得され、1件ずつ次々に表示される。   When the icon object IOB1 is selected by the cursor CS, a catch screen (supplementary screen) of the icon object IOB1 (scene) is displayed as shown in FIG. In this catch screen, for example, a scene name, a scene icon image (thumbnail image), a scene aura, a comment of another user on the scene, and the like are displayed. For example, a predetermined number of comments are acquired from comments of other users on the network and displayed one by one.

具体的には、アイコンオブジェクトIOB1が選択(ポインティング)されると、軌道上で移動していた仮想カメラが、アイコンオブジェクトIOB1の前方位置(近傍)に移動して接近する。そして、このような接近状態において仮想カメラから見える画像を生成することで、図9に示すようなキャッチ画面が表示部190に表示される。   Specifically, when the icon object IOB1 is selected (pointed), the virtual camera that has moved on the trajectory moves to and approaches the front position (near the icon object IOB1). Then, by generating an image that can be seen from the virtual camera in such an approaching state, a catch screen as shown in FIG. 9 is displayed on the display unit 190.

なお、この状態でユーザがキャンセル操作を行った場合には、仮想カメラが元の軌道上の位置に戻り、図8に示すメニュー画面(宇宙メニュー)が再度表示される。   When the user performs a cancel operation in this state, the virtual camera returns to the original position on the orbit and the menu screen (space menu) shown in FIG. 8 is displayed again.

また図9では、目的となるアイコンオブジェクトIOB1が静止し、他のアイコンオブジェクトが移動して見える画像が表示される。例えば静止しているアイコンオブジェクトIOB1の周囲で他のアイコンオブジェクトが回って見えるような画像を生成する。このようにアイコンオブジェクトIOB1が拡大表示されると共に静止することで、アイコンオブジェクトIOB1がキャッチされたことをユーザに明確に伝えることができる。また静止しているアイコンオブジェクトIOB1の周りで他のアイコンオブジェクトがゆっくりと移動することで、アイコンオブジェクトIOB1の実在感等が増すようになる。   In FIG. 9, the target icon object IOB1 is stationary, and an image in which other icon objects appear to move is displayed. For example, an image is generated so that other icon objects can be seen around the stationary icon object IOB1. In this way, the icon object IOB1 is enlarged and displayed, and the icon object IOB1 can be clearly notified to the user by being stationary. Further, the other icon objects slowly move around the stationary icon object IOB1, thereby increasing the sense of reality of the icon object IOB1.

図9のシーンのキャッチ画面において、ユーザが選択決定操作を行うと、図10に示すようなシーンのオープン画面が表示される。そして、図10のオープン画面において、ユーザが例えば左方向(広義には第1の方向)に画面をスクロールさせる操作(広義には第1の方向への操作指示)を行うと、図11に示すように、シーンに対する他ユーザのコメントがリスト表示される。即ち、ユーザがシーンを選択した場合に、選択されたシーンに対する他ユーザのコメントが表示されるようになる。そしてユーザは、図11の状態で上下方向に操作指示を行うことで、リスト表示されたユーザの各コメントを確認できる。   When the user performs a selection determination operation on the scene catch screen of FIG. 9, a scene open screen as shown in FIG. 10 is displayed. Then, when the user performs an operation of scrolling the screen in the left direction (first direction in a broad sense) on the open screen in FIG. 10 (operation instruction in the first direction in a broad sense), for example, as shown in FIG. As described above, comments of other users on the scene are displayed in a list. That is, when a user selects a scene, comments from other users with respect to the selected scene are displayed. The user can confirm each comment of the user displayed in the list by performing an operation instruction in the vertical direction in the state of FIG.

一方、図10のシーンのオープン画面において、ユーザが例えば右方向(広義には第2の方向)に画面をスクロールさせる操作(広義には第2の方向への操作指示)を行うと、図12に示すように、シーンに関連づけられたキーワードがリスト表示される。即ち図4で説明した第1のデータベース182を用いて取得されたキーワードの一覧が表示される。そしてユーザは、図12の状態で上下方向に操作指示を行うことで、リスト表示された各キーワードを確認できる。   On the other hand, when the user performs an operation of scrolling the screen in the right direction (second direction in a broad sense) (operation instruction in the second direction in a broad sense) on the open screen of the scene in FIG. As shown, the keywords associated with the scene are displayed in a list. That is, a list of keywords acquired using the first database 182 described in FIG. 4 is displayed. Then, the user can confirm each keyword displayed in the list by performing an operation instruction in the vertical direction in the state of FIG.

以上のように本実施形態では、ユーザによりシーンが選択された後に、第1の方向への操作指示が行われた場合には、シーンに対する他ユーザのコメントをリスト表示し、第2の方向への操作指示が行われた場合には、シーンに関連づけられたキーワードをリスト表示する。これにより、ユーザは、シーンに対するコメントや、シーンに関連するキーワードを、第1、第2の方向への操作指示という簡素な操作で確認することができ、ユーザのインターフェース環境を向上できる。   As described above, in the present embodiment, when an operation instruction in the first direction is performed after a scene is selected by the user, comments from other users on the scene are displayed in a list and moved in the second direction. When the operation instruction is performed, keywords associated with the scene are displayed in a list. Thereby, the user can confirm a comment on the scene and a keyword related to the scene by a simple operation of operating instructions in the first and second directions, and the user interface environment can be improved.

なお図12では、「ケン田中」のキーワードにカーソルが位置する時に、「ケン田中」のアイコン画像(肖像画)を表示するようにしている。こうすることで、「ケン田中」というキーワードを忘れたユーザであっても、このアイコン画像からキーワードを思い出すことができ、ユーザの選択操作を手助けできる。また、アイコン画像に代えて、「ケン田中」を想起させる音声(例えば有名なセリフ)を出力してもよい。   In FIG. 12, the icon image (portrait) of “Ken Tanaka” is displayed when the cursor is positioned on the keyword “Ken Tanaka”. By doing so, even a user who has forgotten the keyword “Ken Tanaka” can remember the keyword from this icon image, and can assist the user's selection operation. Further, instead of the icon image, a sound (for example, a famous line) reminiscent of “Ken Tanaka” may be output.

図8のメニュー画面において、ユーザがキーワードのアイコンオブジェクトを選択すると、図9と同様の画面構成のキーワードのキャッチ画面が表される。そして、このキーワードのキャッチ画面において、ユーザが選択の決定操作を行うと、図13に示すようなキーワードのオープン画面が表示される。   When the user selects a keyword icon object on the menu screen of FIG. 8, a keyword catch screen having the same screen configuration as that of FIG. 9 is displayed. When the user performs a selection decision operation on the keyword catch screen, an open keyword screen as shown in FIG. 13 is displayed.

図13のキーワードのオープン画面において、ユーザが選択の決定操作を行うと、図14に示すようにキーワードの解説文が表示される。即ち図5(B)のロング解説文が表示される。   When the user performs a selection decision operation on the keyword open screen in FIG. 13, a keyword commentary is displayed as shown in FIG. 14. That is, the long explanation text in FIG. 5B is displayed.

また図13のキーワードのオープン画面において、ユーザが例えば左方向(第1の方向)に画面をスクロールさせる操作(第1の方向への操作指示)を行うと、図11と同様に、キーワードに対する他ユーザのコメントがリスト表示される。即ち、ユーザがキーワードを選択した場合に、選択されたキーワードに対する他ユーザのコメントが表示される。そしてユーザは、この状態で上下方向に操作指示を行うことで、リスト表示されたユーザの各コメントを確認できる。   In addition, when the user performs an operation for scrolling the screen in the left direction (first direction) (operation instruction in the first direction) on the keyword open screen in FIG. User comments are listed. That is, when the user selects a keyword, comments of other users for the selected keyword are displayed. In this state, the user can confirm each comment of the user displayed in the list by performing an operation instruction in the vertical direction.

一方、図13のキーワードのオープン画面において、ユーザが例えば右方向(第2の方向)に画面をスクロールさせる操作(第2の方向への操作指示)を行うと、図15に示すように、キーワードに関連づけられたシーンがリスト表示される。即ち図5(A)で説明した第2のデータベース184により取得されたシーンの一覧が表示される。そしてユーザは、図15の状態で上下方向に操作指示を行うことで、リスト表示された各シーンを確認できる。   On the other hand, when the user performs an operation for scrolling the screen in the right direction (second direction) (operation instruction in the second direction) on the keyword open screen in FIG. 13, as shown in FIG. A list of scenes associated with is displayed. That is, a list of scenes acquired by the second database 184 described with reference to FIG. Then, the user can check each scene displayed in the list by performing an operation instruction in the vertical direction in the state of FIG.

以上のように本実施形態では、ユーザによりキーワードが選択された後に、第1の方向への操作指示が行われた場合には、キーワードに対する他ユーザのコメントをリスト表示し、第2の方向への操作指示が行われた場合には、キーワードに関連づけられたシーンをリスト表示する。このようにすることで、ユーザは、キーワードに対するコメントや、キーワードに関連するシーンを、第1、第2の方向への操作指示という簡素な操作で確認することができ、ユーザのインターフェース環境を向上できる。   As described above, in the present embodiment, when an operation instruction in the first direction is performed after the keyword is selected by the user, the comments of other users on the keyword are displayed in a list, and the second direction is displayed. When the operation instruction is performed, scenes associated with the keyword are displayed in a list. By doing in this way, the user can confirm the comment on the keyword and the scene related to the keyword by a simple operation of operating instructions in the first and second directions, and improve the user interface environment. it can.

なお図15の画面で、ユーザが更に右方向(第2の方向)に画面をスクロールさせる操作を行うと、選択されたキーワードの関連キーワードがリスト表示される。即ち、ユーザがキーワードを選択した場合に、選択されたキーワードに関連する別のキーワードを表示する。具体的には、図5(C)のデータベースを用いて、キーワードの関連キーワードの一覧が表示されるようになる。   When the user further performs an operation of scrolling the screen in the right direction (second direction) on the screen of FIG. 15, related keywords of the selected keyword are displayed in a list. That is, when the user selects a keyword, another keyword related to the selected keyword is displayed. Specifically, a list of keywords related to the keyword is displayed using the database of FIG.

例えば図15において、ユーザが選択したキーワードは「ケン田中」である。この場合に本実施形態では、「ケン田中」が登場するシーンや、「ケン田中」が属する上位のキーワード(メタキーワード)や、「ケン田中」を含むユーザキーワードに加えて、「ケン田中」に関連する別のキーワードを関連キーワードとして表示する。具体的には、「ケン田中」の父である「ファーザー田中」や、「ケン田中」のライバルである「ダーク鈴木」や、「ケン田中」が操縦するロボットである「アスカRBX」などの関連キーワードを表示する。このようにすることで、ユーザが特定のキーワードである「ケン田中」を選択することで、「ファーザー田中」、「ダーク鈴木」、「アスカRBX」などの「ケン田中」に関連する別のキーワードについても想起できるようになる。   For example, in FIG. 15, the keyword selected by the user is “Ken Tanaka”. In this case, in this embodiment, in addition to the scene where “Ken Tanaka” appears, the high-order keyword (meta keyword) to which “Ken Tanaka” belongs, and the user keyword including “Ken Tanaka”, “Ken Tanaka” Display another related keyword as a related keyword. Specifically, "Father Tanaka", the father of "Ken Tanaka", "Dark Suzuki", a rival to "Ken Tanaka", and "Asuka RBX", a robot operated by "Ken Tanaka" Display keywords. In this way, when the user selects “Ken Tanaka” which is a specific keyword, another keyword related to “Ken Tanaka” such as “Father Tanaka”, “Dark Suzuki”, “Asuka RBX”, etc. You will be able to recall.

さて、図10のシーンのオープン画面において、ユーザがシーン選択の決定操作を行うと、図16に示すようなシーン再生画面が表示される。そしてユーザがシーン再生の選択決定操作を行うと、シーンの映像(動画)が再生されて、ユーザが鑑賞できるようになる。   Now, when the user performs a scene selection decision operation on the scene open screen of FIG. 10, a scene playback screen as shown in FIG. 16 is displayed. When the user performs a scene playback selection decision operation, the scene video (moving image) is played back so that the user can appreciate it.

また図16のシーン再生画面において、ユーザは、A1に示すコメントのアイコンを選択することで、シーンに対するコメントを入力できる。そして入力されたコメントは、他ユーザがそのシーンを鑑賞している際に表示されるようになる。   In the scene playback screen of FIG. 16, the user can input a comment for the scene by selecting the comment icon shown in A1. The input comment is displayed when another user is watching the scene.

またユーザは、A2に示すサムアップのアイコンを選択することで、ユーザの盛り上がりが表現される。例えば、シーンを見たユーザがサムアップボタンを押すと、図8のメニュー画面の対応するシーンのアイコンオブジェクトに対応づけて、ユーザの盛り上がり(人気度)を表す画像エフェクト(オーラ等)が表示されるようになる。   The user can express the excitement of the user by selecting the thumb-up icon indicated by A2. For example, when a user who sees a scene presses the thumb-up button, an image effect (aura or the like) representing the user's excitement (popularity) is displayed in association with the icon object of the corresponding scene on the menu screen of FIG. Become so.

またA3に示す「1話まるごと見る」のアイコンを選択すると、ユーザは、再生しているシーンを含む1話の映像コンテンツを鑑賞できる。そして、この際に例えば後述するサーバシステムによる課金処理が行われる。こうすることで、シーンを見たユーザが、その前後の話しなどに興味を持ってA3のアイコンを選択した場合に、そのユーザに対して課金することが可能になる。従って、ユーザにとって違和感を感じにくい課金処理を実現できると共に、シーンをきっかけとして課金処理を行うことで、効率的な課金を実現できる。   Further, when the “view one whole episode” icon shown in A3 is selected, the user can appreciate one episode of video content including the scene being reproduced. At this time, for example, billing processing by a server system described later is performed. In this way, when the user who sees the scene selects the A3 icon with an interest in the conversation before and after the scene, the user can be charged. Accordingly, it is possible to realize a billing process that makes it difficult for the user to feel uncomfortable, and to perform a billing process triggered by a scene, thereby realizing efficient billing.

図17にアイコンオブジェクトのオブジェクトデータの例を示す。このオブジェクトデータは、図1のオブジェクトデータ記憶部172のアイコンオブジェクトデータ記憶部173が記憶する。具体的にはアイコンオブジェクトデータ記憶部173は、各アイコンオブジェクトIOB1、IOB2、IOB3の3次元位置データ(X1、Y1、Z1)、(X2、Y2、Z2)、(X3、Y3、Z3)を記憶する。またアイコンオブジェクトの属性情報を記憶する。属性情報としては、アイコンオブジェクトのID、アイコンオブジェクトの種類情報(シーン、キーワード)、或いは画像エフェクト(演出効果)の情報等の種々の情報を想定できる。また3次元位置データに加えて、アイコンオブジェクトの方向データ(X、Y、Z軸回りの回転角度)を記憶するようにしてもよい。   FIG. 17 shows an example of object data of an icon object. This object data is stored in the icon object data storage unit 173 of the object data storage unit 172 in FIG. Specifically, the icon object data storage unit 173 stores three-dimensional position data (X1, Y1, Z1), (X2, Y2, Z2), and (X3, Y3, Z3) of the icon objects IOB1, IOB2, and IOB3. To do. Also, attribute information of the icon object is stored. As attribute information, various information such as icon object ID, icon object type information (scene, keyword), or image effect (effect) information can be assumed. In addition to the three-dimensional position data, icon object direction data (rotation angles about the X, Y, and Z axes) may be stored.

図18(A)に示すように本実施形態では、メニュー用のオブジェクト空間(3次元空間)に設定された軌道TR上で、仮想カメラVCが移動する。例えばユーザが何も操作をしていない状態では、軌道TR上で一定速度で仮想カメラVCが移動する。こうすることで、図8に示すように、あたかも宇宙空間で浮遊しているようなメニュー画面を表示できる。なお仮想カメラVCを静止させて、アイコンオブジェクトの方を移動させてもよい。また、ユーザの操作により、仮想カメラVCの移動方向を逆方向にして、逆回しできるようにしてもよい。   As shown in FIG. 18A, in this embodiment, the virtual camera VC moves on a trajectory TR set in a menu object space (three-dimensional space). For example, when the user is not performing any operation, the virtual camera VC moves at a constant speed on the trajectory TR. By doing so, as shown in FIG. 8, a menu screen as if floating in outer space can be displayed. The virtual camera VC may be stationary and the icon object may be moved. Further, the moving direction of the virtual camera VC may be reversed and can be rotated in reverse by a user operation.

そして図18(B)に示すように、ユーザがアイコンオブジェクトIOB1を選択すると、選択されたアイコンオブジェクトIOB1の方に仮想カメラVCが移動して接近する。具体的にはアイコンオブジェクトIOB1に正対し、且つ、軌道TRの中心CTの方向にカメラ方向が向く位置に、仮想カメラVCが移動する。これにより図9に示すようなキャッチ画面が表示部190に表示されるようになる。   As shown in FIG. 18B, when the user selects the icon object IOB1, the virtual camera VC moves toward the selected icon object IOB1. Specifically, the virtual camera VC moves to a position facing the icon object IOB1 and facing the camera direction in the direction of the center CT of the trajectory TR. As a result, a catch screen as shown in FIG. 9 is displayed on the display unit 190.

なお、図9のキャッチ画面から図8のメニュー画面に戻った場合には、図18(A)のように仮想カメラVCは軌道TR上の元の位置に戻る。また図9、図18(B)の表示は、アイコンオブジェクトIOB1となる2次元のビルボードポリゴンを、仮想カメラに対して正対させるビルボード表示などにより実現できる。   When returning from the catch screen of FIG. 9 to the menu screen of FIG. 8, the virtual camera VC returns to the original position on the trajectory TR as shown in FIG. 9 and 18B can be realized by a billboard display in which a two-dimensional billboard polygon serving as the icon object IOB1 is directly opposed to the virtual camera.

また図18(B)において、例えば仮想カメラVCの視線方向に沿った軸の回りで、仮想カメラVCをゆっくりとした速度で回転させる。こうすることで、図9で説明したように、アイコンオブジェクトIOB1は静止して見え、他のアイコンオブジェクトは移動して見え画像を生成できる。これによりアイコンオブジェクトIOB1の実在感が増すようになる。   In FIG. 18B, for example, the virtual camera VC is rotated at a slow speed around an axis along the viewing direction of the virtual camera VC. By doing so, as described with reference to FIG. 9, the icon object IOB1 appears to be stationary, and the other icon objects move and appear to generate an image. As a result, the presence of the icon object IOB1 increases.

なお図19に示すように、仮想カメラVCが軌道TR上で移動する際には、仮想カメラVCの方向VD(視線方向)を中心CT側に向けることが望ましい。即ち軌道TRの接線方向TDよりも中心CT側に、仮想カメラVCの方向VDを向ける。こうすることで、アイコンオブジェクトIOB1のみならず、軌道CT上の賑わった場所の画像が表示されるようになり、画像の演出効果を向上できる。この時、例えば中心CTの付近に、ユーザコミュニティの盛り上がりを示すフレア等を配置することで、画像の演出効果を更に向上できる。   As shown in FIG. 19, when the virtual camera VC moves on the trajectory TR, it is desirable to direct the direction VD (line-of-sight direction) of the virtual camera VC toward the center CT side. That is, the direction VD of the virtual camera VC is directed to the center CT side from the tangential direction TD of the trajectory TR. By doing so, not only the icon object IOB1, but also an image of a crowded place on the trajectory CT is displayed, and the effect of rendering the image can be improved. At this time, for example, by arranging a flare or the like indicating the excitement of the user community in the vicinity of the center CT, the effect of rendering the image can be further improved.

また本実施形態では図20(A)に示すように、仮想カメラVCの位置から所定距離範囲内にあるアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定する。具体的には、図8のメニュー画面においてユーザがアイコンオブジェクトを選択(ポインティング)する場合に、仮想カメラVCからの奥行き距離(Z)が所定範囲であるビューボリュームVVL内のアイコンオブジェクトのみを選択可能にする。   In this embodiment, as shown in FIG. 20A, an icon object within a predetermined distance range from the position of the virtual camera VC is set as an icon object that can be selected by the user. Specifically, when the user selects (points) an icon object on the menu screen of FIG. 8, only the icon object in the view volume VVL whose depth distance (Z) from the virtual camera VC is within a predetermined range can be selected. To.

例えばメニュー画面に多数のアイコンオブジェクトが表示されている場合に、全てのアイコンオブジェクトがカーソルCSにより選択可能(ポインティング可能)になってしまうと、ユーザが意図しない遠くのアイコンオブジェクトが選択されるようになってしまい、ユーザを混乱させるおそれがある。   For example, when a large number of icon objects are displayed on the menu screen, if all the icon objects become selectable (pointable) by the cursor CS, a distant icon object that is not intended by the user is selected. This may confuse the user.

この点、図20(A)のように所定距離範囲内(ビューボリュームVVL内)のアイコンオブジェクトのみをカーソルCSにより選択可能にすれば、ユーザは、視点から近いアイコンオブジェクトのみを選択できるようになり、混乱の少ないスムーズな操作インターフェースを提供できる。   In this regard, as shown in FIG. 20A, if only the icon objects within the predetermined distance range (in the view volume VVL) can be selected by the cursor CS, the user can select only the icon objects close to the viewpoint. , Provide a smooth operation interface with little confusion.

なお選択可能なアイコンオブジェクトの設定は図20(A)の手法に限定されない。例えば仮想カメラから近い所定数のアイコンオブジェクトのみを選択可能状態に設定してもよい。具体的には図20(B)の処理例に示すように、仮想カメラから近い順にアイコンオブジェクトを抽出する(ステップS1)。そして、抽出されたアイコンオブジェクトの数が所定数に達したか否かを判断し(ステップS2)、達していなかった場合にはステップS1に戻り、次に近いアイコンオブジェクトを抽出する。そして抽出されたアイコンオブジェクトの数が所定数に達すると、抽出された所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定する(ステップS3)。このようにすれば、ユーザは、仮想カメラの視点に近い所定数のアイコンオブジェクトだけを選択できるようになり、混乱の少ないスムーズな操作インターフェースを提供できる。   The setting of selectable icon objects is not limited to the method shown in FIG. For example, only a predetermined number of icon objects close to the virtual camera may be set to be selectable. Specifically, as shown in the processing example of FIG. 20B, icon objects are extracted in order from the closest to the virtual camera (step S1). Then, it is determined whether or not the number of extracted icon objects has reached a predetermined number (step S2). If not, the process returns to step S1 to extract the next closest icon object. When the number of extracted icon objects reaches a predetermined number, the predetermined number of extracted icon objects are set as icon objects that can be selected by the user (step S3). In this way, the user can select only a predetermined number of icon objects close to the viewpoint of the virtual camera, and can provide a smooth operation interface with less confusion.

またユーザが操作するカーソルによりアイコンオブジェクトが選択された場合に、選択されたことを表す画像表現を行うことが望ましい。例えば図21(A)では、カーソルCSによりアイコンオブジェクトIOBAが選択されると、選択されたアイコンオブジェクトIOBAにマーカMKが重畳表示(広義には識別可能に表示、狭義には半透明合成)される。こうすることで、ユーザは、多数のアイコンオブジェクトのうちのいずれのアイコンオブジェクトが選択されたのかを、視覚的に認識でき、ユーザのインターフェース環境を向上できる。   In addition, when an icon object is selected by a cursor operated by the user, it is desirable to perform an image representation that indicates the selection. For example, in FIG. 21A, when the icon object IOBA is selected by the cursor CS, the marker MK is superimposed on the selected icon object IOBA (displayed in an identifiable manner in a broad sense, and translucently synthesized in a narrow sense). . By doing so, the user can visually recognize which icon object of the many icon objects has been selected, and can improve the user interface environment.

なお図21(A)に示すようにマーカMKを表示するのではなく、図21(B)に示すように、アイコンオブジェクトIOBA自体の画像を変化させてもよい。例えば選択されたアイコンオブジェクトIOBAの色や輝度を変化させたり、点滅表示したりする。このようにしても、ユーザは、多数のアイコンオブジェクトのうちのいずれのアイコンオブジェクトが選択されたのかを、視覚的に認識できるようになる。また、例えばユーザが操作するカーソルCSがアイコンオブジェクトを選択(ポインティング)した時に、操作部160を振動させるようにしてもよい。   Instead of displaying the marker MK as shown in FIG. 21A, the image of the icon object IOBA itself may be changed as shown in FIG. For example, the color or brightness of the selected icon object IOBA is changed or blinked. Even in this way, the user can visually recognize which icon object of the many icon objects has been selected. Further, for example, when the cursor CS operated by the user selects (points) an icon object, the operation unit 160 may be vibrated.

なお、以上では仮想カメラが自動的に移動する場合について説明したが、ユーザの操作に応じて仮想カメラの位置や方向を変化させてもよい。   In addition, although the case where a virtual camera moves automatically was demonstrated above, you may change the position and direction of a virtual camera according to a user's operation.

例えば図22では、操作部160であるコントローラ161をユーザが操作すると、ユーザの操作に応じて仮想カメラVCの位置PVや方向DVが変化する。例えばコントローラ161の方向指示キーやアナログスティックや操作ボタンをユーザが操作することで、仮想カメラVCの位置PVや方向DVが制御される。このようにすれば、ユーザは、あたかも、宇宙船に乗って、宇宙空間のようなメニュー用のオブジェクト空間内で自由に移動して、所望のアイコンオブジェクトを選択できるようになり、これまでにないインターフェース環境を提供できる。   For example, in FIG. 22, when the user operates the controller 161 which is the operation unit 160, the position PV and the direction DV of the virtual camera VC change according to the user's operation. For example, when the user operates a direction instruction key, an analog stick, or an operation button of the controller 161, the position PV and the direction DV of the virtual camera VC are controlled. In this way, the user can select a desired icon object by moving freely in the object space for menus such as outer space, as if he / she got on the spaceship, and never before An interface environment can be provided.

図23に本実施形態の詳細な処理例のフローチャートを示す。まず、図18(A)で説明したように、仮想カメラを軌道上で所定速度で移動させる(ステップS11)。即ち1フレーム内において所定距離だけ移動させる。この際に図19に示すように仮想カメラの視線方向を中心側に向けるようにする。   FIG. 23 shows a flowchart of a detailed processing example of this embodiment. First, as described in FIG. 18A, the virtual camera is moved on the track at a predetermined speed (step S11). That is, it is moved by a predetermined distance within one frame. At this time, as shown in FIG. 19, the line-of-sight direction of the virtual camera is directed toward the center side.

次に、図20(A)で説明したように、仮想カメラの位置から所定距離範囲内(所定ビューボリューム内)にあるアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定する(ステップS12)。   Next, as described with reference to FIG. 20A, an icon object within a predetermined distance range (within a predetermined view volume) from the position of the virtual camera is set as an icon object that can be selected by the user (step S12).

次に、ユーザが操作するカーソルにより、ステップS12で選択可能状態に設定されたアイコンオブジェクトが選択されたか否かを判断する(ステップS13)。例えばアイコンオブジェクトの代表位置(中心位置)から所定距離内の範囲にカーソルが位置するか否かを判断する。そして、カーソルによりアイコンが選択された場合には、図21(A)に示すように、そのアイコンオブジェクトに対してマーカを重畳表示(識別可能に表示)して、そのアイコンオブジェクトが選択されたことをユーザに知らせる(ステップS14)。   Next, it is determined whether or not the icon object set in the selectable state in step S12 is selected by the cursor operated by the user (step S13). For example, it is determined whether or not the cursor is located within a predetermined distance from the representative position (center position) of the icon object. When an icon is selected with the cursor, as shown in FIG. 21A, a marker is superimposed on the icon object (displayed in an identifiable manner), and the icon object is selected. Is notified to the user (step S14).

次に、ユーザがアイコンオブジェクトの選択決定操作を行ったか否かを判断する(ステップS15)。そして選択決定操作が行われた場合には、図9のようなアイコンオブジェクトのキャッチ画面を表示する(ステップS16)。そして、このキャッチ画面においてユーザがシーン(又はキーワード)の選択決定操作を行ったか否かを判断し、選択決定操作を行った場合には、図10で説明したようにシーン(又はキーワード)のオープン画面を表示する(ステップS17、S18)。   Next, it is determined whether or not the user has performed an icon object selection decision operation (step S15). When the selection decision operation is performed, an icon object catch screen as shown in FIG. 9 is displayed (step S16). Then, in this catch screen, it is determined whether or not the user has performed a scene (or keyword) selection determination operation. When the selection determination operation is performed, the scene (or keyword) is opened as described with reference to FIG. A screen is displayed (steps S17 and S18).

以上の本実施形態の手法によれば、図8に示すように、多数のアイコンオブジェクトが1つの画面で表示されたメニュー画面を表示できる。即ち、アイコンオブジェクトの表示数に限界があった2次元表示のメニュー画面に比べて、一度に表示できるアイコンオブジェクトの数を格段に多くすることができる。   According to the method of the present embodiment described above, as shown in FIG. 8, a menu screen on which many icon objects are displayed on one screen can be displayed. That is, the number of icon objects that can be displayed at one time can be significantly increased compared to a two-dimensional display menu screen in which the number of icon objects displayed is limited.

また図8のメニュー画面では、ユーザの視点である仮想カメラの位置から奥側のアイコンオブジェクトは小さく表示され、手前側のアイコンオブジェクトは大きく表示される。従って、ユーザは、奥側の多数のアイコンオブジェクトについては無視できるようになるため、ユーザの利便性を向上できる。特に図20(A)、図20(B)で説明したように選択可能なアイコンオブジェクトを限定することで、ユーザの利便性を更に向上できる。   In the menu screen of FIG. 8, the icon object on the back side is displayed small from the position of the virtual camera that is the viewpoint of the user, and the icon object on the near side is displayed large. Therefore, since the user can ignore a large number of icon objects on the back side, the user's convenience can be improved. In particular, by limiting the selectable icon objects as described with reference to FIGS. 20A and 20B, user convenience can be further improved.

また図8では、手前側のアイコンオブジェクトについては大きく表示されるため、ユーザの選択操作が容易化され、ユーザのインターフェース環境を向上できる。また、ユーザが操作しなくても、傍観しているユーザの視界に、アイコンオブジェクトが次から次へと移動して来る。そして、ユーザは、移動して来るアイコンオブジェクトのアイコン画像を見てその内容を確認し、興味を持ったアイコンオブジェクトを選択することで、例えば図16のようにそのアイコンオブジェクトのコンテンツを楽しむことができる。従って、ユーザは、積極的な操作を行わなくても、受動的な状態で、興味を持ったコンテンツを選択して楽しむことが可能になり、これまでにないタイプのメニュー画面を提供できる。   In FIG. 8, the icon object on the near side is displayed large, so that the user's selection operation is facilitated and the user interface environment can be improved. Even if the user does not operate, the icon object moves from one to the next in the field of view of the user who is watching. Then, the user can enjoy the contents of the icon object as shown in FIG. 16, for example, by viewing the icon image of the moving icon object, confirming the contents, and selecting the icon object that is interested. it can. Therefore, the user can select and enjoy the content of interest in a passive state without performing an active operation, and can provide an unprecedented type of menu screen.

2.3 アイコンオブジェクトの画像変化
本実施形態では、図8のメニュー画面に表示されるアイコンオブジェクトの画像を種々の情報に基づいて変化させてもよい。
2.3 Image Change of Icon Object In the present embodiment, the icon object image displayed on the menu screen of FIG. 8 may be changed based on various information.

例えば図24(A)では、シーンのアイコン画像が描かれたアイコンオブジェクトIOBに対して、そのシーンについてのユーザの人気度や、ユーザが与えた評価に応じたエフェクト画像が重畳表示(識別可能に表示)されている。例えば人気度や評価が高まるにつれてエフェクト画像の種類を変化させたり、エフェクト画像の色や輝度を変化させる。こうすることで、図8のメニュー画面において、人気度や評価が高いコンテンツのアイコンオブジェクトが、ユーザの目に付くようになり、その人気度や評価が更に高まるようになる。   For example, in FIG. 24A, an icon object IOB on which an icon image of a scene is drawn is superimposed and displayed with an effect image corresponding to the user's popularity degree for the scene and the evaluation given by the user (identifiable). Displayed). For example, as the degree of popularity and evaluation increases, the type of effect image is changed, and the color and brightness of the effect image are changed. By doing so, on the menu screen of FIG. 8, icon objects of contents with high popularity and evaluation become visible to the user, and the popularity and evaluation are further increased.

また図24(B)では、シーンのアイコン画像が描かれたアイコンオブジェクトIOBに対して、そのシーンの再生回数や、コンテンツ提供側からのシーンに対するリコメンド情報を表す画像エフェクト(演出効果)が重畳表示されている。例えば再生回数が多くなるにつれてエフェクト画像の種類を変化させたり、エフェクト画像の色や輝度を変化させる。或いは、新着のシーンコンテンツなど、コンテンツ提供側のお勧めのコンテンツに対してエフェクト画像を付加する。こうすることで、図8のメニュー画面において、再生回数が多かったり、コンテンツ提供側のお勧めのコンテンツのアイコンオブジェクトが、ユーザの目に付くようになり、その再生回数が更に増えたり、コンテンツ提供側のお勧めのコンテンツへとユーザを誘導できる。   In FIG. 24B, an image effect (production effect) representing the number of times the scene is reproduced and recommendation information for the scene from the content providing side is superimposed on the icon object IOB on which the icon image of the scene is drawn. Has been. For example, as the number of times of reproduction increases, the type of the effect image is changed, and the color and brightness of the effect image are changed. Alternatively, an effect image is added to content recommended by the content provider such as newly arrived scene content. In this way, the menu screen of FIG. 8 has a large number of playbacks, and the icon object of the recommended content on the content provider side can be noticed by the user. Can lead users to the recommended content.

例えば図16で説明したように、ユーザがシーンの選択決定操作(再生指示)を行うと、選択されたシーンの再生画面が表示される。そして図16のシーン再生画面において、例えばA2に示すサムアップのアイコンを選択することで、ユーザがそのシーンの評価情報を入力したとする。すると、ユーザが入力した評価情報を表す図24(A)の画像エフェクト(演出効果)が、ユーザがシーン又はキーワードを選択するための図8のメニュー画面において、シーン又はキーワードに対応づけて表示される。こうすることで、他のユーザは、評価の高いシーン等を画像エフェクトを見て把握できるようになり、これまでにないタイプのメニュー画面を表示できる。   For example, as described with reference to FIG. 16, when the user performs a scene selection determination operation (playback instruction), a playback screen of the selected scene is displayed. Then, it is assumed that the user inputs the evaluation information of the scene by selecting the thumb-up icon shown in A2, for example, on the scene playback screen of FIG. Then, the image effect (production effect) of FIG. 24A representing the evaluation information input by the user is displayed in association with the scene or keyword on the menu screen of FIG. 8 for the user to select a scene or keyword. The In this way, other users can grasp a highly evaluated scene or the like by viewing the image effect, and can display a menu screen of an unprecedented type.

また図24(C)、図24(D)では、他ユーザによるアイコンオブジェクトの選択履歴を表す画像が、アイコンオブジェクトに対応づけて表示される。具体的には、直近の数分間における所定人数分の他ユーザについての選択履歴を表す画像を、アイコンオブジェクトに対応づけて表示する。   In FIGS. 24C and 24D, an image representing the selection history of icon objects by other users is displayed in association with the icon object. Specifically, an image representing a selection history of other users for a predetermined number of people in the latest several minutes is displayed in association with an icon object.

例えば図24(C)では、フレンドユーザ以外の一般の他ユーザが、アイコンオブジェクトをIOBA、IOBB、IOBCの順で選択したことを表す選択履歴の軌跡画像が、第1の色(例えば赤)で表示されている。また図24(D)では、ユーザのフレンドユーザが、アイコンオブジェクトをIOBD、IOBE、IOBFの順で選択したことを表す選択履歴の軌跡画像が、第2の色(例えば緑)で表示されている。   For example, in FIG. 24C, a general-purpose user other than the friend user selects the icon object in the order of IOBA, IOBB, and IOBC, and the trajectory image of the selection history is the first color (for example, red). It is displayed. In FIG. 24D, a trajectory image of a selection history indicating that the user's friend user has selected icon objects in the order of IOBD, IOBE, and IOBF is displayed in the second color (for example, green). .

このように例えば図8のメニュー画面において、ユーザがシーン又はキーワードを選択すると、その選択履歴が選択履歴取得部106により取得される。そして図24(C)、図24(D)に示すように、他ユーザによるシーン又はキーワードの選択履歴を表す画像エフェクト(演出効果)が、図8のメニュー画面において、シーン又はキーワードに対応づけて表示されるようになる。   As described above, for example, when the user selects a scene or a keyword on the menu screen of FIG. 8, the selection history is acquired by the selection history acquisition unit 106. Then, as shown in FIGS. 24C and 24D, an image effect (production effect) representing a scene or keyword selection history by another user is associated with the scene or keyword on the menu screen of FIG. It will be displayed.

こうすれば、図8のメニュー画面において、ユーザは、他ユーザがどのようなアイコンオブジェクトのコンテンツに興味を持って選択したのかを、視覚的に把握できる。そして、他ユーザの選択履歴と同じ順序でアイコンオブジェクトを選択して、コンテンツを楽しむことが可能になり、これまでにないタイプのメニュー画面を提供できる。   In this way, on the menu screen of FIG. 8, the user can visually grasp what icon object content the other user has selected with interest. Then, it is possible to select icon objects in the same order as the selection history of other users and enjoy the content, and to provide a menu screen of an unprecedented type.

なお、メニュー画面におけるアイコンオブジェクトの画像を変化させる手法は図24(A)〜図24(D)の手法には限定されない。例えばコンテンツの新規登録の時間情報(時刻、年月日)に基づいて、アイコンオブジェクトの画像を変化させてもよい。例えば新規に登録されたコンテンツについては、ユーザの目に付くように、そのコンテンツに対応するアイコンオブジェクトに対して画像エフェクトを付加する。或いは登録時間が古いコンテンツと新しいコンテンツとで、そのアイコンオブジェクトに付加する画像エフェクトを異ならせてもよい。   Note that the method of changing the image of the icon object on the menu screen is not limited to the method of FIGS. 24 (A) to 24 (D). For example, the image of the icon object may be changed based on time information (time and date) for newly registering content. For example, for a newly registered content, an image effect is added to an icon object corresponding to the content so as to be noticed by the user. Alternatively, the image effect to be added to the icon object may be different between content with an old registration time and new content.

またコンテンツに付加された付加情報に基づいて、アイコンオブジェクトの画像を変化させてもよい。例えばコンテンツに対して、付加情報である他ユーザのコメントが書かれた場合には、コメントの対象となったコンテンツに画像エフェクトを付加する。こうすることで、コメント等の付加情報が与えられたコンテンツのアイコンオブジェクトが、ユーザの目に付くようになり、ユーザをそのコンテンツに誘導できるようになる。   Further, the image of the icon object may be changed based on the additional information added to the content. For example, when another user's comment, which is additional information, is written on the content, an image effect is added to the content to be commented. By doing so, the icon object of the content to which additional information such as a comment is given becomes visible to the user, and the user can be guided to the content.

2.4 アイコンオブジェクトの配置位置の更新処理
本実施形態では、各種情報に基づいて、アイコンオブジェクトの配置位置の更新処理を行ってもよい。例えばコンテンツ量情報、人気度情報、評価情報、提示回数情報、ジャンル情報、リコメンド情報、コンテンツの登録時間情報、コンテンツに付加された付加情報(付加情報の更新時間情報)に基づいて、アイコンオブジェクトの配置位置の更新処理を行う。例えばコンテンツ量が増えるにつれて、軌道の数を増やしたり、人気度や評価が高いコンテンツや、提示回数(再生回数)が多いコンテンツを、ユーザに目立つ位置に配置する。或いはコンテンツのジャンルに応じてアイコンオブジェクトを整理して配置したり、サービス提供側のリコメンド情報や、コンテンツの登録時間情報である年月日や時刻に応じてアイコンオブジェクトの配置位置を変更する。またコンテンツに付加された他ユーザのコメントやシーンのあらすじやキーワードの解説文等の付加情報に応じて、アイコンオブジェクトの配置位置を変更する。
2.4 Icon Object Arrangement Position Update Processing In this embodiment, icon object arrangement position update processing may be performed based on various types of information. For example, based on content amount information, popularity information, evaluation information, presentation frequency information, genre information, recommendation information, content registration time information, additional information added to content (update time information of additional information), the icon object An arrangement position update process is performed. For example, as the amount of content increases, the number of trajectories is increased, content with a high degree of popularity and evaluation, and content with a large number of presentations (reproduction times) are arranged at positions that are conspicuous to the user. Alternatively, the icon objects are arranged and arranged according to the genre of the content, or the icon object arrangement position is changed according to the recommendation information on the service providing side and the date and time as the registration time information of the content. In addition, the arrangement position of the icon object is changed in accordance with additional information such as a comment of another user added to the content, a synopsis of the scene, or a commentary on a keyword.

或いは、アイコンオブジェクトが仮想カメラの視野範囲外になった場合に、視野範囲外になったアイコンオブジェクトの位置を変更するようにしてもよい。   Alternatively, when the icon object is outside the visual field range of the virtual camera, the position of the icon object outside the visual field range may be changed.

具体的には図25(A)において、アイコンオブジェクトIOBは仮想カメラVCの視野範囲外になっている。即ち仮想カメラVCのビューボリュームの外にアイコンオブジェクトIOBが移動している。この場合には図25(A)に示すように、視野範囲外になったアイコンオブジェクトIOBを移動させて、再度、仮想カメラVCの視野範囲内に入るようにしたり、短時間で仮想カメラVCの視野範囲内に入るようにする。   Specifically, in FIG. 25A, the icon object IOB is outside the visual field range of the virtual camera VC. That is, the icon object IOB is moved outside the view volume of the virtual camera VC. In this case, as shown in FIG. 25 (A), the icon object IOB outside the visual field range is moved so as to be within the visual field range of the virtual camera VC again, or the virtual camera VC can be moved in a short time. Keep within the field of view.

また図25(B)では、メニュー用オブジェクト空間として全ての領域を用意せずに、一部の領域RGだけを用意する。そして図25(B)のB1に示すように仮想カメラVCがこの領域RGの外に出た場合には、図25(C)のB2の位置に仮想カメラVCを移動させて、再度、領域RGに仮想カメラVCが入るようにする。   In FIG. 25B, not all areas are prepared as the menu object space, but only a partial area RG is prepared. When the virtual camera VC goes out of the region RG as shown at B1 in FIG. 25B, the virtual camera VC is moved to the position B2 in FIG. The virtual camera VC is inserted into

例えば図8のメニュー画面では、ユーザの視点に近づいたアイコンオブジェクトは、速い速度でユーザの視野範囲外に消えてしまう。このため、慣れないユーザにとって、アイコンオブジェクトの選択が難しく、アイコンオブジェクトの選択に失敗する場合がある。そして、一旦、アイコンオブジェクトの選択に失敗すると、アイコンオブジェクトが軌道上を回って、再度、ユーザの目の前に現れるのを待たなければならなくなり、ユーザの利便性を損ねるおそれがある。   For example, on the menu screen of FIG. 8, an icon object that has approached the user's viewpoint disappears outside the user's visual field range at a high speed. For this reason, it may be difficult for an unfamiliar user to select an icon object, and the icon object may fail to be selected. Once the icon object has failed to be selected, it is necessary to wait for the icon object to go around in the trajectory and appear in front of the user again, which may impair user convenience.

この点、図25(A)〜図25(C)の手法では、ユーザの視野範囲外に通り過ぎてしまったアイコンオブジェクトが、短時間で、再度、ユーザの視野範囲内に入るようになる。従って、ユーザは、選択に失敗したアイコンオブジェクトを、それほど時間を待つことなく、再度選択できるようになり、利便性を向上できる。   In this regard, in the method of FIGS. 25A to 25C, the icon object that has passed outside the user's visual field range again enters the user's visual field range in a short time. Therefore, the user can select the icon object that has failed to be selected again without waiting for much time, and the convenience can be improved.

なお、アイコンオブジェクトがユーザの視点に近づいた場合に、仮想カメラに対するアイコンオブジェクトの相対移動速度が遅くなるように制御してもよい。このようにすれば、ユーザが、目の前のアイコンオブジェクトの選択に失敗してしまう事態を低減できる。   Note that when the icon object approaches the user's viewpoint, the relative movement speed of the icon object with respect to the virtual camera may be controlled to be slow. In this way, it is possible to reduce the situation where the user fails to select the icon object in front of him.

2.5 立体視表示
本実施形態では図8のメニュー画面を、いわゆる立体視表示にしてもよい。こうすることで、ユーザの臨場感を更に向上できる。
2.5 Stereoscopic Display In this embodiment, the menu screen in FIG. 8 may be a so-called stereoscopic display. By doing so, the user's sense of reality can be further improved.

ここで、立体視の方式としては公知の種々の手法を採用できる。例えば眼鏡を使用する方式であってもよいし、眼鏡を使用しない方式であってもよい。また眼鏡を使用しない方式としては、バリフォーカルミラー方式、ホログラフィ等の体積型であってもよいし、レンティキュラ方式、パララックスバリア方式、インテグラル方式等の視差型であってもよい。   Here, various known methods can be adopted as the stereoscopic viewing method. For example, a method using glasses or a method not using glasses may be used. As a method not using glasses, a volume type such as a varifocal mirror method or holography may be used, or a parallax type such as a lenticular method, a parallax barrier method, or an integral method may be used.

具体的には、原画像に対してアナグリフ処理を行って左目用画像を右目用画像を生成し、ユーザが色フィルタ付きの眼鏡で画像を見ることで、メニュー画面等の立体視表示を実現する。或いはレンティキュラレンズ等の光学デバイスを表示部19の画面等に設けることで、立体視表示を実現してもよい。或いは、左目画像、右目用画像をフレーム毎に交互に表示し、ユーザが、液晶シャッタなどを備える眼鏡で画面を見ることで、立体視表示を実現してもよい。   Specifically, an anaglyph process is performed on the original image to generate a left-eye image and a right-eye image, and the user views the image with glasses with color filters, thereby realizing a stereoscopic display such as a menu screen. . Alternatively, stereoscopic display may be realized by providing an optical device such as a lenticular lens on the screen of the display unit 19 or the like. Alternatively, the left-eye image and the right-eye image may be alternately displayed for each frame, and the user may realize stereoscopic display by viewing the screen with glasses equipped with a liquid crystal shutter or the like.

このように図8のメニュー画面の立体視表示を行うことで、あたかも宇宙空間に浮かんでいるように感じるユーザの仮想現実感を更に増すことができる。また例えば図9のキャッチ画面の表示時に、アイコンオブジェクトの奥行き値を画面の手前側に設定して、画面からアイコンオブジェクトが飛び出して見えるような表現も可能になる。これにより、表示される画像のバラエティ度を増すことができる。   By performing the stereoscopic display of the menu screen in FIG. 8 in this way, it is possible to further increase the virtual reality of the user who feels as if he is floating in outer space. Further, for example, when the catch screen of FIG. 9 is displayed, the depth value of the icon object is set to the near side of the screen so that the icon object can be seen to pop out from the screen. Thereby, the variety degree of the image displayed can be increased.

3.サーバシステム
図26に本実施形態のサーバシステム及びコンテンツ配信システムの構成例を示す。図26では、複数の端末装置20-1〜20-nがネットワーク10を介してサーバシステム200に接続されている。そしてサーバシステム200は、ネットワーク10を介して、コンテンツを端末装置20-1〜20-nに配信する。またコンテンツ配信システムは、例えばサーバシステム200及び端末装置20-1〜20-nにより構成される。
3. Server System FIG. 26 shows a configuration example of the server system and content distribution system of the present embodiment. In FIG. 26, a plurality of terminal devices 20-1 to 20-n are connected to the server system 200 via the network 10. Then, the server system 200 distributes the content to the terminal devices 20-1 to 20-n via the network 10. The content distribution system includes, for example, a server system 200 and terminal devices 20-1 to 20-n.

ここでネットワーク10(配信網、通信回線)は、例えばインターネットを利用した通信路であり、直接接続のための専用線(専用ケーブル)やイーサネット(登録商標)等によるLANの他、電話通信網やケーブル網等の通信網を含むことができる。また通信方法については有線/無線を問わない。   Here, the network 10 (distribution network, communication line) is, for example, a communication path using the Internet. In addition to a dedicated line (dedicated cable) for direct connection, a LAN using Ethernet (registered trademark), a telephone communication network, A communication network such as a cable network may be included. The communication method may be wired / wireless.

また端末装置20-1〜20-nは、ゲーム装置(家庭用ゲーム装置)、コンテンツ再生装置、テレビ、携帯型端末装置、パーソナルコンピュータ等のクライアント端末である。   The terminal devices 20-1 to 20-n are client terminals such as game devices (home game devices), content playback devices, televisions, portable terminal devices, personal computers, and the like.

サーバシステム20は処理部210、記憶部270、通信部296を含む。なお、これらの一部の構成要素を省略したり、他の構成要素(例えば操作部)を追加するなどの種々の変形実施が可能である。   The server system 20 includes a processing unit 210, a storage unit 270, and a communication unit 296. Note that various modifications such as omitting some of these components or adding other components (for example, an operation unit) are possible.

処理部210は、コンテンツの配信処理やシステムの管理処理を行う。この処理部210の機能は、CPU等のプロセッサや、プロセッサ上で動作するプログラムなどにより実現できる。このプログラムは、コンピュータ読み取り可能な情報記憶媒体に記憶される。   The processing unit 210 performs content distribution processing and system management processing. The functions of the processing unit 210 can be realized by a processor such as a CPU, a program that runs on the processor, or the like. This program is stored in a computer-readable information storage medium.

記憶部270(データベース)は、処理部210や通信部296のワーク領域として機能するものであり、その機能はRAMやHDD等により実現できる。   The storage unit 270 (database) functions as a work area for the processing unit 210 and the communication unit 296, and the function can be realized by a RAM, an HDD, or the like.

通信部296は、端末装置20-1〜20-n(以下、適宜、端末装置20と呼ぶ)との通信処理を行うものであり、その機能は通信用のASICやファームウェアにより実現できる。   The communication unit 296 performs communication processing with the terminal devices 20-1 to 20-n (hereinafter referred to as the terminal device 20 as appropriate), and the function can be realized by a communication ASIC or firmware.

処理部210は、コンテンツ配信部212、管理処理部214、課金処理部216、メニュー用オブジェクト空間設定部218、キーワード取得部220、シーン取得部222、選択履歴取得部224、表示処理部230を含む。なおこれらの一部の構成要素を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。   The processing unit 210 includes a content distribution unit 212, a management processing unit 214, a billing processing unit 216, a menu object space setting unit 218, a keyword acquisition unit 220, a scene acquisition unit 222, a selection history acquisition unit 224, and a display processing unit 230. . Various modifications may be made such as omitting some of these components or adding other components.

コンテンツ配信部212は、コンテンツ(シーンコンテンツ)の配信処理を行う。具体的には、端末装置20からの要求等にしたがって、コンテンツ記憶部272からコンテンツの情報を読み出して、通信部296、ネットワーク10を介して端末装置20に配信する。このコンテンツ配信は、例えば、コンテンツ配信元のノードから受信したコンテンツのデータを記憶部にバッファリングし、バッファリングしたコンテンツのデータをリレー方式でコンテンツ配信先のノードに再送するバケツリレー方式であってもよい。   The content distribution unit 212 performs content (scene content) distribution processing. Specifically, in accordance with a request from the terminal device 20, content information is read from the content storage unit 272 and distributed to the terminal device 20 via the communication unit 296 and the network 10. This content distribution is, for example, a bucket relay method in which content data received from a content distribution source node is buffered in a storage unit, and the buffered content data is retransmitted to a content distribution destination node by a relay method. Also good.

管理処理部214はサーバの各種管理処理を行う。そして管理情報は管理情報記憶部274に記憶される。またユーザについての各種情報(ID、パスワード、課金情報等)は、ユーザ情報記憶部276に記憶される。   The management processing unit 214 performs various server management processes. The management information is stored in the management information storage unit 274. Various information (ID, password, billing information, etc.) about the user is stored in the user information storage unit 276.

課金処理部216はコンテンツ配信に対する課金処理を行う。例えばユーザがシーンを選択した後、そのシーンを含む映像コンテンツの配信を要求した場合に、そのユーザに対して課金する処理を行う。   The billing processing unit 216 performs billing processing for content distribution. For example, when a user selects a scene and then requests distribution of video content including the scene, the user is charged.

メニュー用オブジェクト空間設定部218は、メニュー用オブジェクト空間を設定するための処理を行う。ここでメニュー用オブジェクト空間には、配信されるコンテンツを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定される。なおメニュー用オブジェクト空間の配置設定処理の一部又は全部を端末装置側が担当するようにしてもよい。   The menu object space setting unit 218 performs processing for setting the menu object space. Here, in the menu object space, each icon object of a plurality of icon objects for selecting content to be distributed is arranged and set at each three-dimensional position. Note that the terminal device may be in charge of part or all of the arrangement setting process of the menu object space.

キーワード取得部220は、映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくとも1つのキーワードを取得する処理を行う。例えば第1のデータベース278を参照し、シーンに関連づけられたキーワード(キーワードID)を第1のデータベース278から読み出すことで、キーワードの取得処理を実現する。   The keyword acquisition unit 220 performs a process of acquiring at least one keyword associated with each of a plurality of scenes constituting the video content. For example, by referring to the first database 278 and reading out a keyword (keyword ID) associated with the scene from the first database 278, the keyword acquisition process is realized.

シーン取得部222は、複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得する処理を行う。例えば第2のデータベース280を参照し、キーワードに関連づけられたシーン(シーンID)を第2のデータベース280から読み出すことで、シーンの取得処理を実現する。   The scene acquisition unit 222 performs a process of acquiring at least one scene associated with each keyword of a plurality of keywords. For example, by referring to the second database 280 and reading out a scene (scene ID) associated with the keyword from the second database 280, a scene acquisition process is realized.

選択履歴取得部224は、ユーザによるシーン又はキーワードの選択履歴を取得する。例えばこの選択履歴の情報は、ユーザ情報記憶部276に記憶される。   The selection history acquisition unit 224 acquires a scene or keyword selection history by the user. For example, this selection history information is stored in the user information storage unit 276.

そして表示処理部230は、ユーザがシーンを選択した場合には、選択されたシーンに関連づけられたキーワードを、端末装置20の表示部にリスト表示するための処理を行う。また、ユーザがキーワードを選択した場合には、選択されたキーワードに関連づけられたシーンを、端末装置20の表示部にリスト表示するための処理を行う。また表示制御部230は、他ユーザによるシーン又はキーワードの選択履歴を表す画像エフェクト(演出効果)を、ユーザがシーン又はキーワードを選択するためのメニュー画面において、シーン又はキーワードに対応づけて、端末装置20の表示部において表示するための処理を行う。   When the user selects a scene, the display processing unit 230 performs a process for displaying a list of keywords associated with the selected scene on the display unit of the terminal device 20. When the user selects a keyword, a process for displaying a list of scenes associated with the selected keyword on the display unit of the terminal device 20 is performed. In addition, the display control unit 230 associates an image effect (production effect) representing a scene or keyword selection history by another user with the scene or keyword on the menu screen for the user to select the scene or keyword, and the terminal device Processing for displaying on the 20 display units is performed.

また表示処理部230は、メニュー用オブジェクト空間において仮想カメラから見える画像を、メニュー画面として端末装置20の表示部に表示するための処理を行う。またキャッチ画面、オープン画面、シーン再生画面等の各種画面を端末装置20の表示部に表示するための処理を行う。例えばメニュー画面等の各種画面をサーバ側で作成し、端末装置20が、作成された各種画面のURLにアクセスすることで、端末装置20の表示部に各種画面を表示してもよい。或いは、メニュー画面等の各種画面の画像データ(映像データ)をサーバ側が作成し、その画像データを端末装置20に送信することで、端末装置20の表示部にメニュー画面等の各種画面を表示してもよい。またサーバ側と端末装置側の分散処理により各種画面の作成処理及び表示処理を実現してもよい。   The display processing unit 230 performs processing for displaying an image seen from the virtual camera in the menu object space on the display unit of the terminal device 20 as a menu screen. Further, processing for displaying various screens such as a catch screen, an open screen, and a scene playback screen on the display unit of the terminal device 20 is performed. For example, various screens such as a menu screen may be created on the server side, and the terminal device 20 may display various screens on the display unit of the terminal device 20 by accessing URLs of the created various screens. Alternatively, the server side creates image data (video data) of various screens such as a menu screen and transmits the image data to the terminal device 20, thereby displaying various screens such as the menu screen on the display unit of the terminal device 20. May be. In addition, creation processing and display processing of various screens may be realized by distributed processing on the server side and the terminal device side.

また図1で説明した仮想カメラ制御部103、表示制御部107、音制御部108、アイコン設定部110、位置更新部112の処理の一部又は全部を、サーバ側の処理部210により実現してもよい。即ち図1の処理部100や記憶部170に含まれる各ブロックと同様の機能を有するブロックを、サーバシステム200の処理部210や記憶部270に設けてもよい。   In addition, a part or all of the processes of the virtual camera control unit 103, the display control unit 107, the sound control unit 108, the icon setting unit 110, and the position update unit 112 described in FIG. Also good. That is, a block having the same function as each block included in the processing unit 100 and the storage unit 170 in FIG. 1 may be provided in the processing unit 210 and the storage unit 270 of the server system 200.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語と共に記載された用語は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また、キーワードやシーンの取得手法、キーワードやシーンの表示手法、メニュー画面、キャッチ画面、オープン画面等の各種画面の表示手法、仮想カメラの制御手法、アイコンオブジェクトの制御手法等も、本実施形態で説明したものに限定されず、これらと均等な手法も本発明の範囲に含まれる。   Although the present embodiment has been described in detail as described above, it will be easily understood by those skilled in the art that many modifications can be made without departing from the novel matters and effects of the present invention. Accordingly, all such modifications are intended to be included in the scope of the present invention. For example, a term described together with a different term having a broader meaning or the same meaning at least once in the specification or the drawings can be replaced with the different term anywhere in the specification or the drawings. In this embodiment, keyword / scene acquisition method, keyword / scene display method, menu screen, catch screen, open screen display method, virtual camera control method, icon object control method, etc. It is not limited to what was demonstrated, The method equivalent to these is also contained in the scope of the present invention.

IOB アイコンオブジェクト、VC 仮想カメラ、
10 ネットワーク、20-1〜20-n 端末装置、
100 処理部、102 メニュー用オブジェクト空間設定部、
103 仮想カメラ制御部、104 キーワード取得部、105 シーン取得部、
106 選択履歴取得部、107 表示制御部、108 音制御部、
110 アイコン設定部、112 位置更新部、160 操作部、170 記憶部、
172 オブジェクトデータ記憶部、173 アイコンオブジェクトデータ記憶部、
174 仮想カメラデータ記憶部、175 画像データ記憶部、
176 音データ記憶部、177 描画バッファ、178 コンテンツ記憶部、
180 情報記憶媒体、182 第1のデータベース、184 第2のデータベース、
190 表示部、192 音出力部、194 補助記憶装置、196 通信部、
200 サーバシステム、210 処理部、212 コンテンツ配信部、
214 管理処理部、216 課金処理部、
218 メニュー用オブジェクト空間設定部、220 キーワード取得部、
222 シーン取得部、224 選択履歴取得部、230 表示処理部、
270 記憶部、272 コンテンツ記憶部、274 管理情報記憶部、
276 ユーザ情報記憶部、278 第1のデータベース、
280 第2のデータベース、296 通信部
IOB icon object, VC virtual camera,
10 network, 20-1 to 20-n terminal device,
100 processing unit, 102 object space setting unit for menu,
103 virtual camera control unit, 104 keyword acquisition unit, 105 scene acquisition unit,
106 selection history acquisition unit, 107 display control unit, 108 sound control unit,
110 icon setting unit, 112 position updating unit, 160 operation unit, 170 storage unit,
172 Object data storage unit, 173 Icon object data storage unit,
174 Virtual camera data storage unit, 175 image data storage unit,
176 sound data storage unit, 177 drawing buffer, 178 content storage unit,
180 information storage medium, 182 first database, 184 second database,
190 display unit, 192 sound output unit, 194 auxiliary storage device, 196 communication unit,
200 server system, 210 processing unit, 212 content distribution unit,
214 management processing unit, 216 billing processing unit,
218 Object space setting unit for menu, 220 keyword acquisition unit,
222 scene acquisition unit, 224 selection history acquisition unit, 230 display processing unit,
270 storage unit, 272 content storage unit, 274 management information storage unit,
276 user information storage unit, 278 first database,
280 Second database, 296 communication unit

Claims (26)

映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくとも1つのキーワードを取得するキーワード取得部と、
複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得するシーン取得部と、
ユーザがシーンを選択した場合に、選択されたシーンに関連づけられたキーワードをリスト表示し、ユーザがキーワードを選択した場合に、選択されたキーワードに関連づけられたシーンをリスト表示する制御を行う表示制御部と、
を含むことを特徴とする画像生成システム。
A keyword acquisition unit for acquiring at least one keyword associated with each of a plurality of scenes constituting the video content;
A scene acquisition unit that acquires at least one scene associated with each keyword of the plurality of keywords;
Display control for displaying a list of keywords associated with the selected scene when the user selects a scene, and displaying a list of scenes associated with the selected keyword when the user selects a keyword And
An image generation system comprising:
請求項1において、
前記表示制御部は、
ユーザがキーワードを選択した場合に、選択されたキーワードに関連する情報又は前記情報のサイトへのリンク先情報を表示する制御を行うことを特徴とする画像生成システム。
In claim 1,
The display control unit
An image generating system, wherein when a user selects a keyword, control is performed to display information related to the selected keyword or link destination information of the information to a site.
請求項1又は2において、
前記表示制御部は、
ユーザがシーンの選択決定操作又は選択操作を行った場合に、シーンの再生画面を表示する制御を行うことを特徴とする画像生成システム。
In claim 1 or 2,
The display control unit
An image generation system that performs control to display a scene reproduction screen when a user performs a scene selection determination operation or selection operation.
請求項3において、
前記表示制御部は、
前記シーン再生画面においてユーザが入力した評価情報を表す演出効果を、ユーザがシーン又はキーワードを選択するためのメニュー画面において、シーン又はキーワードに対応づけて表示する制御を行うことを特徴とする画像生成システム。
In claim 3,
The display control unit
Image generation characterized in that control is performed to display presentation effects representing evaluation information input by the user on the scene playback screen in association with the scene or keyword on a menu screen for the user to select a scene or keyword system.
請求項1乃至4のいずれかにおいて、
ユーザによるシーン又はキーワードの選択履歴を取得する選択履歴取得部を含み、
前記表示制御部は、
他ユーザによるシーン又はキーワードの選択履歴を表す演出効果を、ユーザがシーン又はキーワードを選択するためのメニュー画面において、シーン又はキーワードに対応づけて表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 4,
Including a selection history acquisition unit for acquiring a selection history of a scene or a keyword by a user;
The display control unit
An image generation system that performs control to display a presentation effect representing a selection history of a scene or a keyword by another user in association with the scene or the keyword on a menu screen for the user to select the scene or the keyword.
請求項1乃至5のいずれかにおいて、
前記表示制御部は、
ユーザがシーンを選択した場合に、選択されたシーンに対する他ユーザのコメントを表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 5,
The display control unit
An image generation system, wherein when a user selects a scene, control is performed to display another user's comment on the selected scene.
請求項1乃至6のいずれかにおいて、
前記表示制御部は、
ユーザがキーワードを選択した場合に、選択されたキーワードに対する他ユーザのコメントを表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 6.
The display control unit
An image generation system that performs control to display another user's comment on a selected keyword when the user selects a keyword.
請求項1乃至7のいずれかにおいて、
前記キーワードは、シーンの登場人物、シーンの場所、シーンの状況、及びシーンの時間情報の少なくとも1つのキーワードであることを特徴とする画像生成システム。
In any one of Claims 1 thru | or 7,
The image generation system according to claim 1, wherein the keyword is at least one keyword of a scene character, a scene location, a scene situation, and scene time information.
請求項1乃至8のいずれかにおいて、
前記表示制御部は、
ユーザがキーワードを選択した場合に、選択されたキーワードに関連する別のキーワードを表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 8.
The display control unit
An image generation system, wherein when a user selects a keyword, control is performed to display another keyword related to the selected keyword.
請求項1乃至9のいずれかにおいて、
複数のキーワードのグループに対して上位キーワードが付与され、
前記表示制御部は、
ユーザがキーワードを選択した場合に、選択されたキーワードが属するグループに付与された上位キーワードを表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 9,
Top keywords are given to groups of keywords,
The display control unit
An image generation system that performs control to display a high-order keyword assigned to a group to which a selected keyword belongs when a user selects a keyword.
請求項1乃至10のいずれかにおいて、
前記表示制御部は、
ユーザがシーン又はキーワードを選択した場合に、選択されたシーン又はキーワードに関連づけられたユーザキーワードを表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 10.
The display control unit
An image generation system that controls to display a user keyword associated with a selected scene or keyword when the user selects a scene or keyword.
請求項1乃至11のいずれかにおいて、
前記表示制御部は、
ユーザによりシーンが選択された後に、第1の方向への操作指示が行われた場合に、選択されたシーンに対する他ユーザのコメントをリスト表示し、第2の方向への操作指示が行われた場合に、選択されたシーンに関連づけられたキーワードをリスト表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 11,
The display control unit
When an operation instruction in the first direction is made after a scene is selected by the user, other users' comments on the selected scene are displayed in a list, and an operation instruction in the second direction is made In this case, the image generation system is characterized in that control is performed to display a list of keywords associated with the selected scene.
請求項1乃至12のいずれかにおいて、
前記表示制御部は、
ユーザによりキーワードが選択された後に、第1の方向への操作指示が行われた場合に、選択されたキーワードに対する他ユーザのコメントをリスト表示し、第2の方向への操作指示が行われた場合に、選択されたキーワードに関連づけられたシーンをリスト表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 to 12,
The display control unit
When an operation instruction in the first direction is performed after the keyword is selected by the user, comments of other users for the selected keyword are displayed in a list, and an operation instruction in the second direction is performed In this case, the image generation system is characterized in that control is performed to display a list of scenes associated with the selected keyword.
請求項1乃至13のいずれかにおいて、
シーン又はキーワードを選択するための複数のアイコンオブジェクトの各アイコンオブジェクトが、各3次元位置に配置設定されるメニュー用オブジェクト空間を設定するメニュー用オブジェクト空間設定部と、
仮想カメラを制御する仮想カメラ制御部とを含み、
前記表示制御部は、
前記メニュー用オブジェクト空間において前記仮想カメラから見える画像を、シーン又はキーワードを選択するためのメニュー画面として表示する制御を行うことを特徴とする画像生成システム。
In any one of Claims 1 thru | or 13.
A menu object space setting unit for setting a menu object space in which each icon object of a plurality of icon objects for selecting a scene or a keyword is arranged and set at each three-dimensional position;
A virtual camera control unit for controlling the virtual camera,
The display control unit
An image generation system that performs control to display an image seen from the virtual camera in the menu object space as a menu screen for selecting a scene or a keyword.
請求項14において、
前記表示制御部は、
前記仮想カメラから見て前記アイコンオブジェクトが移動して見える画像を、前記メニュー画面として表示する制御を行うことを特徴とする画像生成システム。
In claim 14,
The display control unit
An image generation system that performs control to display an image that the icon object appears to move as viewed from the virtual camera as the menu screen.
請求項14又は15において、
前記表示制御部は、
ユーザが前記アイコンオブジェクトを選択した場合に、前記仮想カメラから見て前記アイコンオブジェクトが接近して見える画像を表示する制御を行うことを特徴とする画像生成システム。
In claim 14 or 15,
The display control unit
When the user selects the icon object, the image generation system performs control to display an image in which the icon object looks close when viewed from the virtual camera.
請求項16において、
前記表示制御部は、
選択された前記アイコンオブジェクトが静止し、他のアイコンオブジェクトが移動して見える画像を表示する制御を行うことを特徴とする画像生成システム。
In claim 16,
The display control unit
An image generation system that controls to display an image in which the selected icon object is stationary and other icon objects appear to move.
請求項14乃至17のいずれかにおいて、
前記仮想カメラ制御部は、
前記仮想カメラを軌道上で移動させる制御を行い、ユーザが前記アイコンオブジェクトを選択すると、選択された前記アイコンオブジェクトに前記仮想カメラを接近させる制御を行うことを特徴とする画像生成システム。
In any of claims 14 to 17,
The virtual camera control unit
An image generation system, wherein control is performed to move the virtual camera on a trajectory, and when the user selects the icon object, control is performed to bring the virtual camera closer to the selected icon object.
請求項18において、
前記仮想カメラ制御部は、
前記軌道の接線方向に対して前記軌道の中心側に、前記仮想カメラの方向を向ける制御を行うことを特徴とする画像生成システム。
In claim 18,
The virtual camera control unit
An image generation system for controlling the direction of the virtual camera toward the center of the trajectory with respect to a tangential direction of the trajectory.
請求項14乃至19のいずれかにおいて、
前記複数のアイコンオブジェクトのうち、前記仮想カメラの位置から所定距離範囲内にあるアイコンオブジェクト、或いは前記仮想カメラの位置に近い所定数のアイコンオブジェクトを、ユーザにより選択可能なアイコンオブジェクトに設定するアイコン設定部を含むことを特徴とする画像生成システム。
In any of claims 14 to 19,
Icon setting that sets, among the plurality of icon objects, icon objects that are within a predetermined distance range from the position of the virtual camera or a predetermined number of icon objects that are close to the position of the virtual camera as icon objects that can be selected by the user An image generation system including a section.
請求項14乃至20のいずれかにおいて、
前記表示制御部は、
ユーザが操作するカーソルによりアイコンオブジェクトが選択された場合に、選択された前記アイコンオブジェクトにマーカを識別可能に表示する、或いは前記アイコンオブジェクトの移動速度又は画像を変化させる表示制御を行うことを特徴とする画像生成システム。
In any of claims 14 to 20,
The display control unit
When an icon object is selected by a cursor operated by a user, a marker is displayed on the selected icon object so as to be identifiable, or display control is performed to change a moving speed or an image of the icon object. Image generation system.
請求項14乃至21のいずれかにおいて、
前記仮想カメラ制御部は、
ユーザによる操作部の操作に基づいて、前記仮想カメラの位置及び方向の少なくとも1つを制御することを特徴とする画像生成システム。
A device according to any one of claims 14 to 21.
The virtual camera control unit
An image generation system that controls at least one of a position and a direction of the virtual camera based on an operation of an operation unit by a user.
映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくとも1つのキーワードを取得するキーワード取得部と、
複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得するシーン取得部と、
ユーザがシーンを選択した場合に、選択されたシーンに関連づけられたキーワードをリスト表示し、ユーザがキーワードを選択した場合に、選択されたキーワードに関連づけられたシーンをリスト表示する制御を行う表示制御部として、
コンピュータを機能させることを特徴とするプログラム。
A keyword acquisition unit for acquiring at least one keyword associated with each of a plurality of scenes constituting the video content;
A scene acquisition unit that acquires at least one scene associated with each keyword of the plurality of keywords;
Display control for displaying a list of keywords associated with the selected scene when the user selects a scene, and displaying a list of scenes associated with the selected keyword when the user selects a keyword As part
A program characterized by causing a computer to function.
コンピュータ読み取り可能な情報記憶媒体であって、請求項23に記載のプログラムを記憶したことを特徴とする情報記憶媒体。   24. A computer-readable information storage medium, wherein the program according to claim 23 is stored. 映像コンテンツを配信するコンテンツ配信部と、
映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくとも1つのキーワードを取得するキーワード取得部と、
複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得するシーン取得部と、
ユーザがシーンを選択した場合に、選択されたシーンに関連づけられたキーワードを、端末装置の表示部にリスト表示し、ユーザがキーワードを選択した場合に、選択されたキーワードに関連づけられたシーンを、前記端末装置の前記表示部にリスト表示するための処理を行う表示処理部と、
を含むことを特徴とするサーバシステム。
A content distribution unit for distributing video content;
A keyword acquisition unit for acquiring at least one keyword associated with each of a plurality of scenes constituting the video content;
A scene acquisition unit that acquires at least one scene associated with each keyword of the plurality of keywords;
When the user selects a scene, the keywords associated with the selected scene are displayed in a list on the display unit of the terminal device. When the user selects a keyword, the scene associated with the selected keyword is A display processing unit that performs processing for displaying a list on the display unit of the terminal device;
A server system comprising:
映像コンテンツを配信するコンテンツ配信部と、
映像コンテンツを構成する複数のシーンの各シーンに関連づけられた少なくとも1つのキーワードを取得するキーワード取得部と、
複数のキーワードの各キーワードに関連づけられた少なくとも1つのシーンを取得するシーン取得部と、
ユーザがシーンを選択した場合に、選択されたシーンに関連づけられたキーワードを、端末装置の表示部にリスト表示し、ユーザがキーワードを選択した場合に、選択されたキーワードに関連づけられたシーンを、前記端末装置の前記表示部にリスト表示するための処理を行う表示処理部と、
前記表示部を有する前記端末装置と、
を含むことを特徴とするコンテンツ配信システム。
A content distribution unit for distributing video content;
A keyword acquisition unit for acquiring at least one keyword associated with each of a plurality of scenes constituting the video content;
A scene acquisition unit that acquires at least one scene associated with each keyword of the plurality of keywords;
When the user selects a scene, the keywords associated with the selected scene are displayed in a list on the display unit of the terminal device. When the user selects a keyword, the scene associated with the selected keyword is A display processing unit that performs processing for displaying a list on the display unit of the terminal device;
The terminal device having the display unit;
A content distribution system comprising:
JP2009063914A 2009-03-17 2009-03-17 Image generation system, program, information storage medium, server system, and content distribution system Pending JP2010219849A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009063914A JP2010219849A (en) 2009-03-17 2009-03-17 Image generation system, program, information storage medium, server system, and content distribution system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009063914A JP2010219849A (en) 2009-03-17 2009-03-17 Image generation system, program, information storage medium, server system, and content distribution system

Publications (1)

Publication Number Publication Date
JP2010219849A true JP2010219849A (en) 2010-09-30

Family

ID=42978196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009063914A Pending JP2010219849A (en) 2009-03-17 2009-03-17 Image generation system, program, information storage medium, server system, and content distribution system

Country Status (1)

Country Link
JP (1) JP2010219849A (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212245A (en) * 2011-03-30 2012-11-01 Kddi Corp Image content generation device and computer program
WO2012161115A1 (en) * 2011-05-20 2012-11-29 日本放送協会 Program switching control device and program
US8635239B2 (en) 2011-06-29 2014-01-21 Kabushiki Kaisha Toshiba Information presenting apparatus, information presenting method and computer-readable recording medium
JP2015230682A (en) * 2014-06-06 2015-12-21 任天堂株式会社 Information processing program, information processor, control method for information processor, and information processing system
JP2017097888A (en) * 2016-12-14 2017-06-01 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
JP6189513B1 (en) * 2016-10-18 2017-08-30 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
CN108961396A (en) * 2018-07-03 2018-12-07 百度在线网络技术(北京)有限公司 Generation method, device and the terminal device of three-dimensional scenic
JP2019164792A (en) * 2014-04-07 2019-09-26 株式会社ソニー・インタラクティブエンタテインメント Game moving image distribution apparatus, game moving image distribution method and game moving image distribution program
WO2020017138A1 (en) * 2018-07-17 2020-01-23 株式会社アルファコード Timing game device and program for timing game
CN112287790A (en) * 2020-10-20 2021-01-29 北京字跳网络技术有限公司 Image processing method, image processing device, storage medium and electronic equipment
JP2021016083A (en) * 2019-07-11 2021-02-12 株式会社リコー Communication system, information processing apparatus, communication method, and program
JP2021033484A (en) * 2019-08-20 2021-03-01 ヤフー株式会社 Information display program, information display device, information display method, and distribution device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012212245A (en) * 2011-03-30 2012-11-01 Kddi Corp Image content generation device and computer program
JP6109736B2 (en) * 2011-05-20 2017-04-05 日本放送協会 Program switching control device and program
WO2012161115A1 (en) * 2011-05-20 2012-11-29 日本放送協会 Program switching control device and program
JPWO2012161115A1 (en) * 2011-05-20 2014-07-31 日本放送協会 Program switching control device and program
US8635239B2 (en) 2011-06-29 2014-01-21 Kabushiki Kaisha Toshiba Information presenting apparatus, information presenting method and computer-readable recording medium
JP2019164792A (en) * 2014-04-07 2019-09-26 株式会社ソニー・インタラクティブエンタテインメント Game moving image distribution apparatus, game moving image distribution method and game moving image distribution program
JP2015230682A (en) * 2014-06-06 2015-12-21 任天堂株式会社 Information processing program, information processor, control method for information processor, and information processing system
JP6189513B1 (en) * 2016-10-18 2017-08-30 株式会社コロプラ Information processing method, apparatus, and program for causing computer to execute information processing method
JP2018067091A (en) * 2016-10-18 2018-04-26 株式会社コロプラ Information processing method, apparatus, and program for causing computer to implement information processing method
JP2017097888A (en) * 2016-12-14 2017-06-01 ヤフー株式会社 Information processing apparatus, information processing method, and information processing program
CN108961396A (en) * 2018-07-03 2018-12-07 百度在线网络技术(北京)有限公司 Generation method, device and the terminal device of three-dimensional scenic
JP2020010802A (en) * 2018-07-17 2020-01-23 株式会社アルファコード Timing game device and timing game program
WO2020017138A1 (en) * 2018-07-17 2020-01-23 株式会社アルファコード Timing game device and program for timing game
US11364432B2 (en) 2018-07-17 2022-06-21 Alpha Code Inc. Timing game device and program for timing game
JP7141093B2 (en) 2018-07-17 2022-09-22 株式会社アルファコード TIMING GAME DEVICE AND TIMING GAME PROGRAM
JP2021016083A (en) * 2019-07-11 2021-02-12 株式会社リコー Communication system, information processing apparatus, communication method, and program
JP7400231B2 (en) 2019-07-11 2023-12-19 株式会社リコー Communication systems, information processing devices, communication methods and programs
JP2021033484A (en) * 2019-08-20 2021-03-01 ヤフー株式会社 Information display program, information display device, information display method, and distribution device
JP7013421B2 (en) 2019-08-20 2022-01-31 ヤフー株式会社 Information display program, information display device, information display method and distribution device
CN112287790A (en) * 2020-10-20 2021-01-29 北京字跳网络技术有限公司 Image processing method, image processing device, storage medium and electronic equipment

Similar Documents

Publication Publication Date Title
JP2010219849A (en) Image generation system, program, information storage medium, server system, and content distribution system
JP6737841B2 (en) System and method for navigating a three-dimensional media guidance application
JP6823915B2 (en) Systems and methods for participating in video display in real time and game systems
US11709576B2 (en) Providing a first person view in a virtual world using a lens
US8572177B2 (en) 3D social platform for sharing videos and webpages
US10803832B2 (en) Synchronizing holographic displays and 3D objects with physical video panels
US11086396B2 (en) Depth-keying of web content
US20110137727A1 (en) Systems and methods for determining proximity of media objects in a 3d media environment
US20140040949A1 (en) User control interface for interactive digital television
US20210211632A1 (en) Three-dimensional content distribution system, three-dimensional content distribution method and computer program
JP6718169B2 (en) Information presentation system, information presentation device and program
JP7048595B2 (en) Video content synchronization methods and equipment
WO2013032791A1 (en) Methods and systems for presenting a three-dimensional media guidance application
US11513658B1 (en) Custom query of a media universe database
JP2010218195A (en) Image generation system, program, information storage medium, and server system
KR102200239B1 (en) Real-time computer graphics video broadcasting service system
Bassbouss et al. Interactive 360° video and storytelling tool
CN115129280A (en) Virtual reality equipment and screen-casting media asset playing method
WO2011112296A1 (en) Incorporating media content into a 3d platform
Leonidis et al. Going beyond second screens: applications for the multi-display intelligent living room
CN116561439A (en) Social interaction method, device, equipment, storage medium and program product