JP2007115117A - Content providing server and content viewing system - Google Patents

Content providing server and content viewing system Download PDF

Info

Publication number
JP2007115117A
JP2007115117A JP2005307284A JP2005307284A JP2007115117A JP 2007115117 A JP2007115117 A JP 2007115117A JP 2005307284 A JP2005307284 A JP 2005307284A JP 2005307284 A JP2005307284 A JP 2005307284A JP 2007115117 A JP2007115117 A JP 2007115117A
Authority
JP
Japan
Prior art keywords
content
user
providing server
character
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005307284A
Other languages
Japanese (ja)
Inventor
Keiji Endo
恵司 遠藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
PC NET KK
Original Assignee
PC NET KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by PC NET KK filed Critical PC NET KK
Priority to JP2005307284A priority Critical patent/JP2007115117A/en
Publication of JP2007115117A publication Critical patent/JP2007115117A/en
Pending legal-status Critical Current

Links

Abstract

<P>PROBLEM TO BE SOLVED: To obtain presence and to make conversations to be actively performed by making each of users mutually share an impression or the like received by each of the users. <P>SOLUTION: A content providing server to be disclosed is connected to a plurality of user terminals through a network in order to request desired content by operation of each user to view the content. The content providing server displays a virtual meeting room 31 in which respective characters 21 to 23 selected by each of the users in a display part of the plurality of the user terminals and also displays the desired content in content display areas 32a to 32c in the meeting room 31. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、複数のユーザーに動画、静止画、音響、文書等のコンテンツを提供するコンテンツ提供サーバー及び、このコンテンツ提供サーバーとこのコンテンツ提供サーバーにアクセスしてコンテンツを視聴するための複数のユーザー端末とから構成されるコンテンツ視聴システムに関する。   The present invention provides a content providing server that provides a plurality of users with contents such as moving images, still images, sounds, and documents, and a plurality of user terminals for accessing the content providing server and accessing the content providing server to view the contents. Is related to the content viewing system.

最近では、インターネット等のネットワークに関する通信技術の飛躍的向上に伴って、電波によるテレビジョン放送とは別に、ネットワークを介してコンテンツ提供サーバーから複数のユーザー端末に動画、静止画、音響等のコンテンツが提供されている。例えば、従来のライブストリーミング放送装置には、複数のカメラ映像データについて合成処理して合成映像データを作製した後、この合成映像データを視聴用にネットワークに出力することによりライブ放送を行うものがある(例えば、特許文献1参照。)。以下、この技術を第1の従来例と呼ぶ。   Recently, along with the dramatic improvement of communication technology related to the Internet and other networks, content such as video, still images, and sound is transmitted from the content providing server to multiple user terminals via the network, apart from television broadcasting using radio waves. Is provided. For example, some conventional live streaming broadcasting apparatuses perform a live broadcast by synthesizing a plurality of camera video data to create composite video data and then outputting the composite video data to a network for viewing. (For example, refer to Patent Document 1). Hereinafter, this technique is referred to as a first conventional example.

また、最近では、アバター(avatar)を用いた複数ユーザー間でのコミュニケーションにおいて、アバターを自然に動作させるように制御するアバター制御システム(サーバー)が提案されている。ここで、アバターとは、チャットなどのコミュニケーションツールであって、ユーザー端末を操作するユーザーの分身としてユーザー端末を構成する表示部の画面上に登場するキャラクターをいう。この種のアバター制御システムの中には、テキスト情報受信手段と、アバター位置情報受信手段と、動作反応範囲設定手段と、対話相手決定手段と、テキスト情報送信手段とを備えているものがある。   Recently, an avatar control system (server) for controlling an avatar to operate naturally in communication between a plurality of users using an avatar has been proposed. Here, an avatar is a communication tool such as a chat, and refers to a character that appears on the screen of a display unit that constitutes a user terminal as a substitute for a user who operates the user terminal. Some avatar control systems of this type include text information receiving means, avatar position information receiving means, action reaction range setting means, dialogue partner determining means, and text information transmitting means.

テキスト情報受信手段は、一のユーザーから送信されるテキスト情報を受信する。アバター位置情報受信手段は、一のユーザーを含む複数のユーザーの各々から送信されるアバター位置情報を受信する。動作反応範囲設定手段は、アバター位置情報受信手段により受信されたアバター位置情報に基づいて、アバター毎に動作反応範囲を設定する。対話相手決定手段は、動作反応範囲設定手段により設定されたアバターの動作反応範囲に基づいて、一のユーザーの対話相手となる他のユーザーを決定する。テキスト情報送信手段は、テキスト情報受信手段により受信されたテキスト情報を、対話相手決定手段により対話相手に決定された他のユーザーに送信する(例えば、特許文献2参照。)。以下、この技術を第2の従来例と呼ぶ。   The text information receiving means receives text information transmitted from one user. The avatar position information receiving means receives avatar position information transmitted from each of a plurality of users including one user. The action reaction range setting means sets the action reaction range for each avatar based on the avatar position information received by the avatar position information receiving means. The conversation partner determination unit determines another user who is a conversation partner of one user based on the motion response range of the avatar set by the motion response range setting unit. The text information transmitting means transmits the text information received by the text information receiving means to another user determined as a conversation partner by the conversation partner determination means (see, for example, Patent Document 2). Hereinafter, this technique is referred to as a second conventional example.

特開2005−51703号公報(請求項1,請求項17,[0072]〜[0182]、図1)JP-A-2005-51703 (Claim 1, Claim 17, [0072] to [0182], FIG. 1) 特開2005−250859号公報(請求項1,[0024]〜[0067]、図1)Japanese Patent Laying-Open No. 2005-250859 (Claim 1, [0024] to [0067], FIG. 1)

上記した第1の従来例では、あくまで個々のユーザーがライブ放送をそれぞれ別個独立に視聴しているだけであり、他のユーザーが視聴している様子を知ることはできない。このため、多数のユーザーが同一のライブ放送を視聴しているにもかかわらず、各自が受けた感動等を互いに共有することができず、臨場感を得ることができない。また、上記した第2の従来例では、互いに共通の話題についてコミュニケーションを図ることができるが、話題の提供は専らユーザー各自が行う必要があるので、場合によっては、会話があまりはずまない場合がある。   In the first conventional example described above, each user only views the live broadcast separately and independently, and cannot know how other users are viewing. For this reason, even though many users are viewing the same live broadcast, the impressions received by each user cannot be shared with each other, and a sense of reality cannot be obtained. In the second conventional example described above, it is possible to communicate on a topic that is common to each other. However, since it is necessary for each user to provide the topic exclusively, in some cases, there is a case where the conversation does not come off much. is there.

本発明は、上述した事情に鑑みてなされたものであり、上述のような課題を解決することができるコンテンツ提供サーバー及びコンテンツ視聴システムを提供することを目的とする。   The present invention has been made in view of the above-described circumstances, and an object thereof is to provide a content providing server and a content viewing system that can solve the above-described problems.

上記課題を解決するために、請求項1記載の発明に係るコンテンツ提供サーバーは、各ユーザーの操作により所望のコンテンツを要求して視聴するための複数のユーザー端末とネットワークを介して接続され、前記複数のユーザー端末の表示部に、前記各ユーザーにより選択されたそれぞれのアバターが存在する3次元仮想空間を表示させるとともに、前記3次元仮想空間内において前記所望のコンテンツを表示させることを特徴としている。   In order to solve the above-described problem, a content providing server according to the invention described in claim 1 is connected via a network to a plurality of user terminals for requesting and viewing desired content by the operation of each user, The display unit of a plurality of user terminals displays a three-dimensional virtual space in which each avatar selected by each user is present, and displays the desired content in the three-dimensional virtual space. .

また、請求項2記載の発明は、請求項1記載のコンテンツ提供サーバーに係り、前記ユーザーの操作により対応するアバターが所定の動作をした場合には、対応する前記ユーザー端末の表示部に、前記3次元仮想空間内において前記所望のコンテンツの表示を開始させることを特徴としている。
また、請求項3記載の発明は、請求項1又は2に記載のコンテンツ提供サーバーに係り、あるコンテンツ内に他のコンテンツに関連した情報が含まれており、前記ユーザーの対応する前記ユーザー端末の操作により前記情報に基づく前記他のコンテンツの呼び出しが指示された場合には、前記他のコンテンツを前記あるコンテンツとともに前記3次元仮想空間内に表示させることを特徴としている。
The invention according to claim 2 relates to the content providing server according to claim 1, and when the corresponding avatar performs a predetermined operation by the user's operation, the display unit of the corresponding user terminal The display of the desired content is started in a three-dimensional virtual space.
The invention according to claim 3 relates to the content providing server according to claim 1 or 2, wherein information related to other content is included in a certain content, and the user terminal corresponding to the user When calling of the other content based on the information is instructed by an operation, the other content is displayed in the three-dimensional virtual space together with the certain content.

また、請求項4記載の発明に係るコンテンツ視聴システムは、請求項1乃至3のいずれかに記載のコンテンツ提供サーバーと、各ユーザーの操作により所望のコンテンツを要求して視聴するための複数のユーザー端末とがネットワークを介して接続されていることを特徴としている。   According to a fourth aspect of the present invention, there is provided a content viewing system according to any one of the first to third aspects, and a plurality of users for requesting and viewing desired content by the operation of each user. The terminal is connected via a network.

本発明によれば、ユーザー各自が受けた感動等を互いに共有することができ、臨場感を得ることができるとともに、会話が活発に行われる。   According to the present invention, impressions received by users can be shared with each other, a sense of reality can be obtained, and conversation can be actively performed.

実施の形態1.
図1は、本発明の実施の形態1に係るコンテンツ視聴システムの構成を示す概略図である。この例のコンテンツ視聴システムは、ネットワーク1と、コンテンツ提供サーバー2と、複数のユーザー端末3とから概略構成されている。
ネットワーク1は、例えば、構内ネットワーク(LAN: Local Area Network)、広域ネットワーク(WAN: Wide Area Network)、あるいはインターネット等からなる。ネットワーク1は、コンテンツ提供サーバー2と、複数のユーザー端末3とに、例えば、ツイスト・ペアケーブル、同軸ケーブルや光ファイバケーブル等により有線接続され、又は無線接続されている。
Embodiment 1 FIG.
FIG. 1 is a schematic diagram showing a configuration of a content viewing system according to Embodiment 1 of the present invention. The content viewing system in this example is schematically configured from a network 1, a content providing server 2, and a plurality of user terminals 3.
The network 1 includes, for example, a local area network (LAN), a wide area network (WAN), or the Internet. The network 1 is wired or wirelessly connected to the content providing server 2 and the plurality of user terminals 3 by, for example, a twisted pair cable, a coaxial cable, an optical fiber cable, or the like.

コンテンツ提供サーバー2は、例えば、このコンテンツ視聴システムを運営する運営機関のセンター等に設置されているものとする。コンテンツ提供サーバー2は、図2に示すように、制御部11と、操作部12と、表示部13と、通信制御部14と、記憶部15等を有するコンピュータ等の情報処理装置によって構成されている。制御部11は、CPU(中央処理装置)等からなり、記憶部15に記憶されているコンテンツ提供プログラム等の各種プログラムに基づいて、コンテンツ提供処理その他の処理を実行し、コンテンツ提供サーバー2の各部を制御する。即ち、例えば、コンテンツ提供プログラムが記憶部15から読み出されると、制御部11に読み込まれ、制御部11の動作を制御する。制御部11は、コンテンツ提供プログラムが起動されると、コンテンツ提供プログラムの制御により、コンテンツ提供処理を実行するのである。コンテンツ提供処理は、コンテンツ提供サーバー2にアクセスしてきたユーザー端末3に動画、静止画、音響、文書等の各種のコンテンツを提供するとともに、同一のコンテンツを同時に視聴している複数のユーザーの各自の分身であるキャラクター(アバター)を介したチャット等を支援する処理である。   It is assumed that the content providing server 2 is installed, for example, at the center of an operating organization that operates this content viewing system. As shown in FIG. 2, the content providing server 2 is configured by an information processing apparatus such as a computer having a control unit 11, an operation unit 12, a display unit 13, a communication control unit 14, a storage unit 15, and the like. Yes. The control unit 11 includes a CPU (central processing unit) and the like, and executes content provision processing and other processing based on various programs such as a content provision program stored in the storage unit 15. To control. That is, for example, when the content providing program is read from the storage unit 15, it is read by the control unit 11 and controls the operation of the control unit 11. When the content providing program is activated, the control unit 11 executes content providing processing under the control of the content providing program. The content providing process provides various types of content such as moving images, still images, sounds, and documents to the user terminal 3 that has accessed the content providing server 2, and each of a plurality of users who are simultaneously viewing the same content. This is a process for supporting a chat or the like via a character (avatar) as a substitute.

操作部12は、文字キー、エンターキー、あるいはファンクションキー等からなるキーボードや、マウス、タッチパッド、あるいはペンデバイス等のポインティングデバイスなどを有する。表示部13は、CRTディスプレイ、液晶ディスプレイ(LCD; Liquid Crystal Display)、エレクトロルミネセンス(EL:electroluminescence)ディスプレイ、あるいはプラズマディスプレイパネル(PDP; Plasma Display Panel)等からなる。通信制御部14は、モデムやルータ等からなり、制御部11がネットワーク1を介してユーザー端末3とデータ通信を行う際に用いられる。   The operation unit 12 includes a keyboard including character keys, enter keys, function keys, and the like, a pointing device such as a mouse, a touch pad, or a pen device. The display unit 13 includes a CRT display, a liquid crystal display (LCD), an electroluminescence (EL) display, or a plasma display panel (PDP). The communication control unit 14 includes a modem, a router, and the like, and is used when the control unit 11 performs data communication with the user terminal 3 via the network 1.

記憶部15は、RAMやROM、あるいはフラッシュメモリ等の半導体メモリ、FD(フレキシブルディスク)が装着されるFDドライブ、HD(ハード・ディスク)が装着されるHDドライブ、MO(光磁気)ディスクが装着されるMOディスクドライブ、あるいはCD(コンパクト・ディスク)−ROM、CD−R(Recordable)、CD−RW(Rewritable)やDVD(Digital Versatile Disk)−ROM、DVD−R、DVD−RW等が装着されるCD/DVDドライブ等からなる。記憶部15には、各種のコンテンツが予め又は順次更新されて記憶されるとともに、上記コンテンツ提供プログラムがアプリケーション・プログラムの1つとして予めインストール(搭載)されている。   The storage unit 15 is equipped with a semiconductor memory such as a RAM, a ROM, or a flash memory, an FD drive to which an FD (flexible disk) is mounted, an HD drive to which an HD (hard disk) is mounted, and an MO (magneto-optical) disk. MO disk drive or CD (compact disk) -ROM, CD-R (Recordable), CD-RW (Rewritable), DVD (Digital Versatile Disk) -ROM, DVD-R, DVD-RW, etc. CD / DVD drive. Various contents are stored in the storage unit 15 in advance or sequentially updated, and the content providing program is installed (installed) in advance as one of application programs.

コンテンツとしては、動画ファイル、静止画ファイル、音響ファイル、文書ファイル等がある。動画ファイルは、ストリーミング・データとして配信される。さらに、各静止画ファイル及び各動画ファイルには、必要に応じて解説が付与されている。なお、この明細書において、画像ファイルというときは、画像データのみから構成される画像ファイルだけでなく、画像データと、この画像データに対応した音響データとから構成される画像ファイルも含むものとする。即ち、動画ファイルは、動画データと、この動画データの撮影時に収録される音響データ、撮影後に付与された効果音データや解説音声データとから構成される動画ファイルも含む。一方、静止画ファイルであっても、静止画データと、この静止画データに付与された効果音データや解説音声データとから構成される静止画ファイルも含む。また、文書ファイルであっても、文字データだけから構成される文書ファイルでなく、文字データと画像データとから構成される文書ファイルも含む。さらに、生の画像又は音響のいずれかあるいは両方をリアルタイムでエンコードし、そのままストリーミング配信するライブストリーミング(live streaming)の場合には、図示しないが、コンテンツ提供サーバー2は、生の画像を撮影するためのカメラや生の音響を収集するためのマイク等が直接接続されるように構成し、またはカメラ又はマイクのいずれかあるいは両方からの電気信号をケーブルや無線を介して供給されるように構成する。   The content includes a moving image file, a still image file, an audio file, a document file, and the like. The moving image file is distributed as streaming data. Furthermore, explanations are given to each still image file and each moving image file as necessary. In this specification, the term “image file” includes not only an image file composed only of image data but also an image file composed of image data and acoustic data corresponding to the image data. That is, the moving image file includes a moving image file composed of moving image data, sound data recorded at the time of shooting the moving image data, sound effect data and commentary sound data provided after shooting. On the other hand, even a still image file includes a still image file composed of still image data and sound effect data and commentary audio data added to the still image data. A document file includes not only a document file composed of only character data but also a document file composed of character data and image data. Further, in the case of live streaming in which either or both of a raw image and / or sound are encoded in real time and streamed as it is, although not shown, the content providing server 2 captures the raw image. A camera or a microphone for collecting live sound is directly connected, or an electric signal from either or both of the camera and the microphone is supplied via a cable or wireless. .

図1に示すユーザー端末3は、例えば、各ユーザーの自宅、勤務先、インターネットカフェその他の立ち寄り先に設置されている。ユーザー端末3は、コンテンツ提供サーバー2と同様、制御部と、操作部と、表示部と、通信制御部と、記憶部とを有するコンピュータ等の情報処理装置によって構成されているが、制御部が実行する処理及び記憶部に記憶されるプログラムやデータが異なっている。即ち、制御部は、記憶部に記憶されているブラウザ(browser)等の各種プログラムに基づいて、コンテンツ視聴処理その他の処理を実行し、ユーザー端末3の各部を制御する。コンテンツ視聴処理は、コンテンツ提供サーバー2にアクセスし、当該ユーザー端末3の使用者であるユーザーが各種のコンテンツを視聴するとともに、他のユーザーとアバターを介したチャットを楽しむ等のために行う処理である。   The user terminal 3 shown in FIG. 1 is installed, for example, at each user's home, work place, Internet cafe, or other stopover. Like the content providing server 2, the user terminal 3 is configured by an information processing apparatus such as a computer having a control unit, an operation unit, a display unit, a communication control unit, and a storage unit. Processing to be executed and programs and data stored in the storage unit are different. That is, the control unit executes content viewing processing and other processes based on various programs such as a browser stored in the storage unit, and controls each unit of the user terminal 3. The content viewing process is a process performed for accessing the content providing server 2 so that a user who is a user of the user terminal 3 views various contents and enjoys chatting with other users via an avatar. is there.

次に、上記構成のコンテンツ視聴システムの動作について、図3〜図5を参照して説明する。前提として、コンテンツ視聴システムを運営する運営機関は、「abc株式会社(エービーシー株式会社)」であるとする。また、各ユーザーは、このコンテンツ視聴システムにより行われるコンテンツ視聴サービスを利用するために、既に会員登録を済ませているものとする。さらに、以下の説明で登場するユーザーは3名(男性2名、女性1名)であり、それぞれユーザーIDが「keiji」、「hiroshi」及び「marina」であるとする。   Next, the operation of the content viewing system configured as described above will be described with reference to FIGS. As a premise, it is assumed that an operating organization that operates the content viewing system is “abc Inc. (ABC Inc.)”. In addition, each user has already registered as a member in order to use the content viewing service provided by the content viewing system. Furthermore, it is assumed that there are three users (two men and one woman) appearing in the following description, and the user IDs are “keiji”, “hiroshi”, and “marina”, respectively.

各ユーザーは、既に動作可能状態にある又は電源を投入して動作可能状態としたユーザー端末3の操作部を操作して、ブラウザの起動を指示する。ブラウザが起動された後、ユーザーが操作部を操作して、このコンテンツ視聴システムの運営機関「abc株式会社(エービーシー株式会社)」が運営・管理するホームページのURLアドレス「http://www.abc.jp/」を入力し、コンテンツ提供サーバー2へのアクセスを指示する。   Each user operates the operation unit of the user terminal 3 that is already in an operable state or is turned on by turning on the power supply, and instructs activation of the browser. After the browser is started, the user operates the operation unit, and the URL address “http://www.abc” of the homepage operated and managed by the operating organization “abc Inc. (ABC Inc.)” of the content viewing system is operated. ".jp /" is entered to instruct access to the content providing server 2.

これにより、ユーザー端末3の制御部は、コンテンツ提供サーバー2にアクセスし、コンテンツ視聴処理の実行を開始する。この場合、ユーザー端末3を構成する表示部13には、例えば、図3に示す画面が表示される。そこで、ユーザーは、ユーザー端末3の操作部を操作して、ユーザーIDを入力してログインを行う。各ユーザーは、ログイン時にアバターとして、図3に示すように、7種類のキャラクターの中から1つを選択することができる。今の場合、ユーザーID「keiji」のユーザは、図3に示す左端のキャラクター21を選択し、ユーザーID「hiroshi」のユーザーは、図3に示す右から3番目のキャラクター22を選択し、ユーザーID「marina」のユーザーは、図3に示す左から3番目のキャラクター23を選択したものとする。   Accordingly, the control unit of the user terminal 3 accesses the content providing server 2 and starts executing the content viewing process. In this case, for example, the screen shown in FIG. 3 is displayed on the display unit 13 constituting the user terminal 3. Therefore, the user operates the operation unit of the user terminal 3 and inputs the user ID to log in. Each user can select one of seven types of characters as an avatar when logging in, as shown in FIG. In this case, the user with the user ID “keiji” selects the leftmost character 21 shown in FIG. 3, and the user with the user ID “hiroshi” selects the third character 22 from the right shown in FIG. It is assumed that the user with the ID “marina” has selected the third character 23 from the left shown in FIG.

ログインが行われると、各ユーザー端末3を構成する表示部には、例えば、図4に示す表示画面が表示される。図4の例では、バーチャルなミーティングルーム(3次元仮想空間)31において、壁面32には、3つのコンテンツ表示エリア32a〜32cが設けられている。また、部屋の略中央には、長テーブル33と、5つの椅子34〜38とが設置され、キャラクター21は椅子36に座り、キャラクター22は椅子36及び37近傍に立ち、キャラクター23は椅子34に座っている。キャラクター21〜23の近傍には、それぞれに対応したユーザーID「keiji」、「hiroshi」及び「marina」が示されており、後述するチャットにおける発言の際にこれらが自己及び相手の通称として利用される。   When the login is performed, for example, a display screen shown in FIG. 4 is displayed on the display unit constituting each user terminal 3. In the example of FIG. 4, in the virtual meeting room (three-dimensional virtual space) 31, the wall surface 32 is provided with three content display areas 32 a to 32 c. In addition, a long table 33 and five chairs 34 to 38 are installed in the approximate center of the room. The character 21 sits on the chair 36, the character 22 stands near the chairs 36 and 37, and the character 23 sits on the chair 34. Sit down. The corresponding user IDs “keiji”, “hiroshi”, and “marina” are shown in the vicinity of the characters 21 to 23, and these are used as common names of the self and the other party when speaking in the chat described later. The

図4の例では、各ユーザーは、3つのコンテンツ表示エリア32a〜32cに表示されている最大3つのコンテンツを同時に視聴することになる。また、図4では、キャラクター21及び23が椅子36及び34にそれぞれ座っているのに対し、キャラクター22が他の空いている椅子35、37及び38のいずれにも座っていないが、これは、キャラクター21とそのユーザー及びキャラクター23とそのユーザーが3つのコンテンツ表示エリア32a〜32cに表示されている最大3つのコンテンツを同時に視聴しているが、キャラクター22及びそのユーザーはまだ上記最大3つのコンテンツを視聴していないことを示している。   In the example of FIG. 4, each user views a maximum of three contents displayed in the three content display areas 32 a to 32 c at the same time. In FIG. 4, the characters 21 and 23 are sitting on the chairs 36 and 34, respectively, whereas the character 22 is not sitting on any of the other empty chairs 35, 37, and 38. The character 21 and the user and the character 23 and the user are viewing the maximum three contents displayed in the three content display areas 32a to 32c at the same time, but the character 22 and the user still have the above three contents. Indicates that you are not watching.

各ユーザーが操作部を構成するマウスを操作することにより、対応する各キャラクターを椅子に座らせたことは、以下の処理により認識される。即ち、あるユーザーが自己が使用するユーザー端末3の操作部を構成するマウスを操作して、対応するキャラクターをいずれかの椅子にドラッグ・アンド・ドロップすると、当該ユーザー端末3の制御部は、当該椅子が有しているステイタスコードを着席中に変更する。これにより、コンテンツ提供サーバーの制御部11は、着席中に変更されたステイタスコードに基づいて、当該キャラクターが当該椅子に座っていることを認識するのである。   It is recognized by the following process that each user operates a mouse constituting the operation unit to cause each corresponding character to sit on the chair. That is, when a user operates a mouse constituting the operation unit of the user terminal 3 used by the user and drags and drops the corresponding character on any chair, the control unit of the user terminal 3 Change the status code of the chair while seated. As a result, the control unit 11 of the content providing server recognizes that the character is sitting on the chair based on the status code changed while sitting.

また、図4において、バーチャルなミーティングルーム31の下方には、状態等表示エリア41、発言入力エリア42、ユーザーID表示エリア43及びコマンドボタン44〜51がそれぞれ設けられている。状態等表示エリア41には、現在の状態(図4の例では、ユーザー端末3がコンテンツ提供サーバー2に接続されていること)や各ユーザーの発言内容等が表示される。発言入力エリア42には、テキストボックス42a及びコマンドボタン42bが設けられており、各ユーザーが自己の発言内容をテキストボックス42aに入力した後、コマンドボタン42bを操作することにより、当該発言内容のコンテンツ提供サーバー2への送信を指示できるように構成されている。   In FIG. 4, a status display area 41, a speech input area 42, a user ID display area 43, and command buttons 44 to 51 are provided below the virtual meeting room 31. In the status display area 41, the current status (in the example of FIG. 4, the user terminal 3 is connected to the content providing server 2), the content of each user's remarks, and the like are displayed. In the comment input area 42, a text box 42a and a command button 42b are provided. After each user inputs his / her comment content into the text box 42a, the user operates the command button 42b, and the content of the comment content. It is configured to be able to instruct transmission to the providing server 2.

ユーザーID表示エリア43には、当該ユーザーのID(今の場合、「keiji」。)が表示されている。コマンドボタン44〜50は、コンテンツを視聴中に各ユーザーが自身の感情を表現したり、当該ミーティングルーム31に訪問しているユーザーに対して出題される問題やクイズ等に回答したりする際等に操作される。コマンドボタン51は、ログオフを指示するためのものである。   The user ID display area 43 displays the ID of the user (in this case, “keiji”). The command buttons 44 to 50 are used when each user expresses his / her feelings while viewing the content, or when he / she answers questions or quizzes that are given to the user visiting the meeting room 31. Operated. The command button 51 is for instructing logoff.

ここで、図5にコンテンツ表示エリア32aに表示されるコンテンツの一例を示す。図5の例は、運営機関である「abc株式会社(エービーシー株式会社)」のホームページを示している。このホームページは、例えば、コンテンツ表示エリア32bに表示されたコンテンツのリンク先のWebページである。即ち、コンテンツ表示エリア32bに表示されたコンテンツのリンク先の情報にマウスカーソルを移動させた後、ダブルクリックすると、コンテンツ表示エリア32aに「abc株式会社(エービーシー株式会社)」のホームページが表示される。同様に、コンテンツ表示エリア32aに表示されるコンテンツのリンク先のWebページ等は、他のコンテンツ表示エリア31a又は31cに表示され、コンテンツ表示エリア32cに表示されるコンテンツのリンク先のWebページ等は、他のコンテンツ表示エリア31a又は31bに表示される。   Here, FIG. 5 shows an example of content displayed in the content display area 32a. The example of FIG. 5 shows a home page of “abc Inc. (ABC Inc.)” which is an operating organization. This home page is, for example, a Web page linked to the content displayed in the content display area 32b. That is, when the mouse cursor is moved to the link information of the content displayed in the content display area 32b and then double-clicked, the homepage of “abc Inc. (ABC Inc.)” is displayed in the content display area 32a. . Similarly, the linked web page of the content displayed in the content display area 32a is displayed in the other content display area 31a or 31c, and the linked web page of the content displayed in the content display area 32c is It is displayed in the other content display area 31a or 31b.

このように、あるコンテンツ表示エリアに表示されているコンテンツのリンク先のWebページ等を他のコンテンツ表示エリアに表示するのは以下に示す理由による。即ち、あるコンテンツ表示エリアにコンテンツを表示している際に、当該コンテンツ内において、例えば、(1)あるWebサイトを紹介する、(2)当該コンテンツ等に対するアンケートを実施する、(3)クイズの回答を要求したり、プレゼントや寄付等の募集を実施したりすることがある。この場合、他のコンテンツ表示エリアに、(1)当該サイトのWebページを表示する、(2)当該アンケートの入力画面を表示する、(3)クイズの回答入力画面やプレゼントや寄付等の応募事項入力画面を表示するのである。   Thus, the Web page linked to the content displayed in a certain content display area is displayed in the other content display area for the following reason. That is, when displaying content in a certain content display area, for example, (1) Introducing a Web site in the content, (2) Conducting a questionnaire on the content, etc. (3) Quiz We may ask for answers and solicit gifts and donations. In this case, (1) display the web page of the site in another content display area, (2) display the questionnaire input screen, (3) application items such as a quiz response input screen and gifts and donations The input screen is displayed.

また、同一のウインドウ内で複数のコンテンツ表示エリアを設け、あるコンテンツ表示エリアに表示されているコンテンツのリンク先のWebページ等を他のコンテンツ表示エリアに表示するのは以下に示す理由による。即ち、他のウインドウを開いた場合、当該他のウインドウは、各ユーザーが自由に閉じたり、他のリンク先に移動したりすることが可能なものである。このため、今まで、ある特定のコンテンツ表示エリアに表示されている同一のコンテンツを視聴していた複数のユーザーは、新たに開いた他のウインドウに表示されるコンテンツ等の情報が他のユーザーが見ているコンテンツ等の情報とは異なるものを見てしまうおそれがある。そこで、このような不都合を回避し、ユーザー全員が情報を共有するとともに、コンテンツと連携したプロモーション等をできるようにするために、同一のウインドウ内で複数のコンテンツ表示エリアを設け、あるコンテンツ表示エリアに表示されているコンテンツのリンク先のWebページ等を他のコンテンツ表示エリアに表示するのである。   In addition, a plurality of content display areas are provided in the same window, and the Web page linked to the content displayed in a certain content display area is displayed in another content display area for the following reason. That is, when another window is opened, the other window can be freely closed by each user or moved to another link destination. For this reason, until now, a plurality of users who have been viewing the same content displayed in a specific content display area, the information such as the content displayed in another newly opened window is displayed by other users. There is a risk of seeing something different from information such as the content being viewed. Therefore, in order to avoid such inconvenience, all users can share information and perform promotions linked to content, a plurality of content display areas are provided in the same window, and a certain content display area is provided. The web page linked to the content displayed on the screen is displayed in another content display area.

また、各ユーザーは、チャットを行う際、発言入力エリア42のテキストボックス42aに自己の発言内容を入力して言葉により自己の感情等を表現するだけでなく、例えば、自己が使用するユーザー端末3の操作部を構成するマウスを操作して、対応するキャラクターをジャンプさせたり、ふて寝などさせたりして、より直接的に自己の感情等を表現しても良い。一方、コンテンツ提供サーバーの制御部11は、複数のキャラクター21〜23のうち、所定時間経過しても何ら操作されないものがある場合には、当該キャラクターをミーティングルーム31から退室させたり、強制的に眠らせたりしても良い。   Further, each user not only expresses his / her feelings and the like by words by inputting his / her speech contents into the text box 42a of the speech input area 42 when chatting, for example, the user terminal 3 used by himself / herself. By operating the mouse that constitutes the operation unit, the corresponding character may be caused to jump or sleep on the screen to express his / her feelings and the like more directly. On the other hand, the control unit 11 of the content providing server causes the character to leave the meeting room 31 or forcibly sleep when there is a character that is not operated even after a predetermined time has elapsed among the plurality of characters 21 to 23. You may do it.

このように、本発明の実施の形態1によれば、コンテンツの配信とアバターの制御とが同一のコンテンツ視聴システムにおいて行うことができるので、各ユーザーは、それぞれ各自の分身であるキャラクター(アバター)が存在するバーチャルなミーティングルーム31の中において、同一のコンテンツを同時に視聴することができる。従って、各ユーザーは、同一の場にいるという臨場感を得ることができる。また、各ユーザーは、キャラクター(アバター)を介したチャット等を行うことにより、他のユーザーが視聴している様子を知ることができ、各自が受けた感動等を互いに共有することができる。この場合、今まさに視聴しているコンテンツについてチャット等を行うことができるので、会話等が活発に行われる。さらに、各ユーザーは、言葉だけでなく、キャラクターの動きを用いて、より直接的に自己の感情等を表現することができる。また、本発明の実施の形態1によれば、各ユーザーは、同一コンテンツの同時視聴だけでなく、関連するWebサイトの閲覧、アンケートの回答やクイズへの応募などを行うことができ、より一層臨場感、ライブ感を得ることができる。   Thus, according to Embodiment 1 of the present invention, content distribution and avatar control can be performed in the same content viewing system, so that each user is a character (avatar) that is his or her own character. The same content can be simultaneously viewed in the virtual meeting room 31 where there is. Therefore, each user can get a sense of being in the same place. In addition, each user can know how other users are viewing by chatting via a character (avatar), and can share the impressions received by each other. In this case, since the chat or the like can be performed on the content that is just being viewed, the conversation or the like is actively performed. Furthermore, each user can express his / her feelings and the like more directly using not only words but also movements of characters. Further, according to the first embodiment of the present invention, each user can not only view the same content at the same time but also browse related websites, answer questionnaires and apply for quizzes, etc. A sense of reality and a live feeling can be obtained.

実施の形態2.
上述した実施の形態1では、バーチャルな部屋は、1つだけ設ける例を示したが、これに限定されず、複数設けても良い。バーチャルな部屋としては、例えば、営業報告する部屋、経理業務を処理する部屋、プレゼンテーションをする部屋、ブレーンストーミングする部屋などがある。この場合、当該部屋に出席すべきユーザーのキャラクターが椅子に座ることにより、特定のアプリケーション・プログラムを起動させるように構成しても良い。特定のアプリケーション・プログラムとしては、例えば、営業報告書を作成したワードプロセッサ・プログラム、経理伝票を作成した表計算プログラム、プレゼンテーションの内容を作成したプレゼンテーション・プログラムなどがある。このように構成すれば、離れた場所で同じような仕事をしている複数のユーザーがバーチャルな部屋に一堂に会して打ち合わせをする際に、打ち合わせに必要な個々のアプリケーション・プログラムを選択して起動する時間と手間を省くことができる。
また、これら特定のアプリケーション・プログラムは、当該部屋に出席すべきユーザー全員のキャラクターが椅子に座って初めて起動するように構成しても良い。このように構成すれば、各ユーザーに指定された時間に各自のユーザー端末3を処理しなければならないという意識を持たせることが可能となる。
Embodiment 2. FIG.
In Embodiment 1 described above, an example in which only one virtual room is provided has been described, but the present invention is not limited to this, and a plurality of virtual rooms may be provided. Examples of the virtual room include a room for reporting business, a room for processing accounting work, a room for presentation, and a room for brainstorming. In this case, a specific application program may be activated when a user character who should attend the room sits on a chair. Specific application programs include, for example, a word processor program that creates a business report, a spreadsheet program that creates an accounting slip, and a presentation program that creates presentation content. With this configuration, when multiple users working in the same place at a remote location meet in a virtual room to select a specific application program required for the meeting. This saves time and effort to start up.
Further, these specific application programs may be configured to be activated only when all the characters of the users who should attend the room sit on a chair. If comprised in this way, it will become possible to give the consciousness that each user terminal 3 must be processed at the time designated by each user.

実施の形態3.
上述した実施の形態1では、同一のウインドウ内で複数のコンテンツ表示エリアを設け、あるコンテンツ表示エリアに表示されているコンテンツのリンク先のWebページ等を他のコンテンツ表示エリアに表示する例を示したが、これに限定されない。例えば、各キャラクター(アバター)が同一コンテンツを視聴しているバーチャルな部屋が表示されるウインドウ(以下、「第1ウインドウ」と称する。)と、当該同一コンテンツが表示されるウインドウ(以下、「第2ウインドウ」と称する。)とを異ならせても良い。このように構成すれば、各ユーザーは、より大きな表示エリアに表示されたコンテンツを視聴することができる。この場合、各ユーザーが第2ウインドウを自由に閉じたり、他のリンク先に移動したりできないように構成する。また、各キャラクター(アバター)が座る位置に応じて第2ウインドウに表示されるコンテンツの表示され方を異ならせても良い。このように構成すれば、各ユーザーは、より一層臨場感を得ることができる。
Embodiment 3 FIG.
In the first embodiment described above, an example is shown in which a plurality of content display areas are provided in the same window, and a Web page linked to a content displayed in a certain content display area is displayed in another content display area. However, it is not limited to this. For example, a window (hereinafter referred to as “first window”) in which a virtual room where each character (avatar) is viewing the same content is displayed, and a window (hereinafter referred to as “first” in which the same content is displayed). May be different from each other. If comprised in this way, each user can view the content displayed on the larger display area. In this case, it is configured such that each user cannot freely close the second window or move to another link destination. Moreover, the display method of the content displayed in the second window may be varied depending on the position where each character (avatar) sits. If comprised in this way, each user can obtain a more realistic feeling.

実施の形態4.
上述した実施の形態1では、各ユーザー端末3は、いずれにもWebカメラ、マイク及び音響再生部が設けられていない例を示したが、これに限定されず、必要に応じて、Webカメラ、マイク及び音響再生部を設けても良い。この場合、各ユーザーは、対応するキャラクターに音響データや画像データを付与させることができる。具体的には、各ユーザーは、自己が使用するユーザー端末3の操作部を構成するマウスを操作して、音響データや画像データが付与されたキャラクターにマウスカーソルを移動させた後、ダブルクリックする。これにより、当該キャラクターに対応したWebカメラにより撮影された画像データが特定のコンテンツ表示エリアに表示されるとともに、音響再生部から当該キャラクターに対応したユーザーの音声が出力される。
Embodiment 4 FIG.
In Embodiment 1 mentioned above, although each user terminal 3 showed the example in which all are not provided with a web camera, a microphone, and a sound reproduction part, it is not limited to this, A web camera, A microphone and a sound reproduction unit may be provided. In this case, each user can give sound data and image data to the corresponding character. Specifically, each user operates the mouse that constitutes the operation unit of the user terminal 3 used by the user, moves the mouse cursor to a character to which acoustic data or image data is assigned, and then double-clicks. . As a result, the image data captured by the Web camera corresponding to the character is displayed in the specific content display area, and the sound of the user corresponding to the character is output from the sound reproduction unit.

このように構成すれば、文字だけを用いたチャットでは、イメージしにくい各キャラクターに対応したユーザーをより現実に近い形で認識することが可能となり、各ユーザーはより一層臨場感を得ることができる。また、例えば、グループミーティング等において、各ユーザーが初めてバーチャルな部屋に集結した際、各ユーザーが数十秒程度の音響データ及び画像データを用いて自己紹介することにより、対応するキャラクターを選択したユーザーをイメージすることが可能となる。従って、この自己紹介後は、文字だけを用いたチャットであってもより臨場感が増すことになる。   With this configuration, in a chat using only characters, it becomes possible to recognize a user corresponding to each character that is difficult to imagine in a form that is closer to reality, and each user can obtain a more realistic feeling. . Also, for example, when a user gathers in a virtual room for the first time at a group meeting or the like, each user introduces himself / herself using acoustic data and image data of about several tens of seconds to select the corresponding character. Can be imaged. Therefore, after this self-introduction, even a chat using only letters increases the sense of presence.

実施の形態5.
上述した各実施の形態では、本発明をコンテンツの鑑賞や業務処理によるバーチャル会議に利用する例を示したが、これに限定されない。本発明は、例えば、バーチャル店舗におけるショッピングにも適用することができる。この場合、顧客のキャラクターだけでなく、店員のキャラクターを登場させても良い。このように構成すれば、当該バーチャル店舗に現在どれだけの顧客が来店しているかや顧客がどのような商品を閲覧しているかが視覚的に表示される。また、顧客同士や顧客と店員とが会話をすることができ、商品購入の一助となる。
Embodiment 5. FIG.
In each of the above-described embodiments, examples have been shown in which the present invention is used for content appreciation and virtual meetings by business processing, but the present invention is not limited to this. The present invention can also be applied to shopping in a virtual store, for example. In this case, not only a customer character but also a clerk character may appear. With this configuration, it is visually displayed how many customers are currently visiting the virtual store and what products the customer is browsing. In addition, customers can talk with each other and between the customer and the store clerk, which helps to purchase products.

実施の形態6.
上述した各実施の形態では、本発明をコンテンツの鑑賞や業務処理によるバーチャル会議に利用する例を示したが、これに限定されない。本発明は、例えば、いわゆるeラーニングにも適用することができる。この場合、受講者である各ユーザーは、対応するキャラクターに自分のプロフィールを付与させることができる。このプロフィールを構成する項目としては、例えば、入社年、所属部署、学歴、所持する資格、受講歴、受講講座におけるレベル等がある。
Embodiment 6 FIG.
In each of the above-described embodiments, examples have been shown in which the present invention is used for content appreciation and virtual meetings by business processing, but the present invention is not limited to this. The present invention can also be applied to so-called e-learning, for example. In this case, each user who is a student can give his / her profile to the corresponding character. Items constituting this profile include, for example, the year of employment, the department to which the employee belongs, the academic background, the qualifications possessed, the attendance history, the level in the attendance course, and the like.

具体的な処理としては、例えば、以下に示すものとなる。まず、各ユーザーは、自己が使用するユーザー端末3の操作部を構成するマウスを操作して、ログイン時に選択したキャラクターにマウスカーソルを移動させた後右クリックし、会員登録時又はeラーニング受講申込時等に提供した自分のプロフィールの開示許可をするか否かを設定する。   Specific processing is as follows, for example. First, each user operates the mouse that constitutes the operation unit of the user terminal 3 used by the user, moves the mouse cursor to the character selected at the time of login, and then right-clicks to apply for membership registration or e-learning. Set whether or not to allow disclosure of your profile provided at any time.

講師は、受講者のプロフィールを把握したい場合には、当該受講者に対応したキャラクターにマウスカーソルを移動させた後、ダブルクリックする。これにより、当該キャラクターがプロフィールの開示許可に設定されている場合には、当該受講者のプロフィールが同一ウインドウ上にポップアップ表示される。このように構成すれば、講師は、受講者をレベル等に応じてグループ編成したり、受講者の理解度を把握したり、あるいは質問をしたりする際などにそのプロフィールを参考にすることができる。   If the instructor wants to grasp the student's profile, he or she moves the mouse cursor to the character corresponding to the student and then double-clicks it. As a result, when the character is set to allow profile disclosure, the student's profile pops up on the same window. In this way, the instructor can refer to his / her profile when grouping students according to their level, etc., grasping students' understanding, or asking questions. it can.

以上、この実施の形態を図面を参照して詳述してきたが、具体的な構成はこの実施の形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても本発明に含まれる。
例えば、上述の各実施の形態では、キャラクターが椅子に座った後、コンテンツ表示エリアの表面にマウスカーソルを移動させてダブルクリックすることにより、コンテンツ表示エリアにおいて対応するコンテンツの表示が開始され、当該コンテンツを視聴することができる例を示したが、これに限定されない。コンテンツ視聴のきっかけはどのようなものでも良く、例えば、キャラクターの顔をコンテンツ表示エリアに向かわせる、キャラクターの片手を挙げさせる、キャラクターをジャンプさせる、などでも良い。
また、上述した実施の形態1では、あるコンテンツ表示エリアに表示されるコンテンツのリンク先のWebページ等が他のコンテンツ表示エリアに表示される例を示したが、これに限定されず、あるコンテンツ表示エリアにサムネイル画像が表示されており、当該サムネイル画像がダブルクリックされると、他のコンテンツ表示エリアに当該サムネイル画像に対応した通常サイズの画像が表示されるように構成しても良い。
また、上述の各実施の形態は、その目的及び構成等に特に矛盾や問題がない限り、互いの技術を流用することができる。
The embodiment has been described in detail with reference to the drawings. However, the specific configuration is not limited to the embodiment, and there are design changes and the like without departing from the scope of the invention. Are also included in the present invention.
For example, in each of the above-described embodiments, after a character sits on a chair, moving the mouse cursor to the surface of the content display area and double-clicking starts display of the corresponding content in the content display area. Although an example in which content can be viewed has been shown, the present invention is not limited to this. The trigger for viewing the content may be anything. For example, the character's face may be directed to the content display area, the character's hand may be raised, or the character may be jumped.
In the first embodiment described above, an example in which a Web page linked to a content displayed in a certain content display area is displayed in another content display area is not limited to this. A thumbnail image may be displayed in the display area, and when the thumbnail image is double-clicked, a normal size image corresponding to the thumbnail image may be displayed in another content display area.
In addition, each of the above-described embodiments can divert each other's technology as long as there is no particular contradiction or problem in its purpose and configuration.

本発明の実施の形態1に係るコンテンツ視聴システムの構成を示すブロック図である。It is a block diagram which shows the structure of the content viewing-and-listening system which concerns on Embodiment 1 of this invention. 図1に示すコンテンツ視聴システムを構成するコンテンツ提供サーバーの構成を示すブロック図である。It is a block diagram which shows the structure of the content provision server which comprises the content viewing-and-listening system shown in FIG. ユーザー端末を構成する表示部に表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed on the display part which comprises a user terminal. ユーザー端末を構成する表示部に表示される表示画面の一例を示す図である。It is a figure which shows an example of the display screen displayed on the display part which comprises a user terminal. コンテンツ表示エリアに表示される表示の一例を示す図である。It is a figure which shows an example of the display displayed on a content display area.

符号の説明Explanation of symbols

1 ネットワーク
2 コンテンツ提供サーバー
3 ユーザー端末
11 制御部
12 操作部
13 表示部
14 通信制御部
15 記憶部
21〜23 キャラクター
31 ミーティングルーム
32 壁面
32a〜32c コンテンツ表示エリア
33 長テーブル
34〜38 椅子
41 状態等表示エリア
42 発言入力エリア
42a テキストボックス
42b,44〜51 コマンドボタン
43 ユーザーID表示エリア
DESCRIPTION OF SYMBOLS 1 Network 2 Content provision server 3 User terminal 11 Control part 12 Operation part 13 Display part 14 Communication control part 15 Memory | storage part 21-23 Character 31 Meeting room 32 Wall surface 32a-32c Content display area 33 Long table 34-38 Chair 41 Display of state etc. Area 42 Message input area 42a Text box 42b, 44 to 51 Command button 43 User ID display area

Claims (4)

各ユーザーの操作により所望のコンテンツを要求して視聴するための複数のユーザー端末とネットワークを介して接続され、
前記複数のユーザー端末の表示部に、前記各ユーザーにより選択されたそれぞれのアバターが存在する3次元仮想空間を表示させるとともに、前記3次元仮想空間内において前記所望のコンテンツを表示させる
ことを特徴とするコンテンツ提供サーバー。
Connected via a network to multiple user terminals for requesting and viewing desired content by each user's operation,
The display unit of the plurality of user terminals displays a three-dimensional virtual space in which each avatar selected by each user exists and displays the desired content in the three-dimensional virtual space. Content providing server.
前記ユーザーの操作により対応するアバターが所定の動作をした場合には、対応する前記ユーザー端末の表示部に、前記3次元仮想空間内において前記所望のコンテンツの表示を開始させる
ことを特徴とする請求項1記載のコンテンツ提供サーバー。
When the corresponding avatar performs a predetermined operation by the user's operation, the display unit of the corresponding user terminal is caused to start displaying the desired content in the three-dimensional virtual space. Item 1. A content providing server according to item 1.
あるコンテンツ内に他のコンテンツに関連した情報が含まれており、前記ユーザーの対応する前記ユーザー端末の操作により前記情報に基づく前記他のコンテンツの呼び出しが指示された場合には、前記他のコンテンツを前記あるコンテンツとともに前記3次元仮想空間内に表示させる
ことを特徴とする請求項1又は2に記載のコンテンツ提供サーバー。
When information related to other content is included in a certain content, and when calling of the other content based on the information is instructed by an operation of the user terminal corresponding to the user, the other content The content providing server according to claim 1, wherein the content is displayed together with the certain content in the three-dimensional virtual space.
請求項1乃至3のいずれかに記載のコンテンツ提供サーバーと、
各ユーザーの操作により所望のコンテンツを要求して視聴するための複数のユーザー端末とがネットワークを介して接続されていることを特徴とするコンテンツ視聴システム。
The content providing server according to any one of claims 1 to 3,
A content viewing system, characterized in that a plurality of user terminals for requesting and viewing desired content by the operation of each user are connected via a network.
JP2005307284A 2005-10-21 2005-10-21 Content providing server and content viewing system Pending JP2007115117A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005307284A JP2007115117A (en) 2005-10-21 2005-10-21 Content providing server and content viewing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005307284A JP2007115117A (en) 2005-10-21 2005-10-21 Content providing server and content viewing system

Publications (1)

Publication Number Publication Date
JP2007115117A true JP2007115117A (en) 2007-05-10

Family

ID=38097215

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005307284A Pending JP2007115117A (en) 2005-10-21 2005-10-21 Content providing server and content viewing system

Country Status (1)

Country Link
JP (1) JP2007115117A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011215701A (en) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd Event participation support system and event participating support server
JP2012528407A (en) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション Shared media selection method and system integrated with avatar
JP2018173829A (en) * 2017-03-31 2018-11-08 株式会社ルクレ Virtual conference program
JP7158781B1 (en) 2021-11-29 2022-10-24 クラスター株式会社 Terminal device, server, virtual reality space providing system, program, and virtual reality space providing method

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012528407A (en) * 2009-05-29 2012-11-12 マイクロソフト コーポレーション Shared media selection method and system integrated with avatar
US9118737B2 (en) 2009-05-29 2015-08-25 Microsoft Technology Licensing, Llc Avatar integrated shared media experience
US9423945B2 (en) 2009-05-29 2016-08-23 Microsoft Technology Licensing, Llc Avatar integrated shared media experience
US10368120B2 (en) 2009-05-29 2019-07-30 Microsoft Technology Licensing, Llc Avatar integrated shared media experience
JP2011215701A (en) * 2010-03-31 2011-10-27 Zenrin Datacom Co Ltd Event participation support system and event participating support server
JP2018173829A (en) * 2017-03-31 2018-11-08 株式会社ルクレ Virtual conference program
JP7158781B1 (en) 2021-11-29 2022-10-24 クラスター株式会社 Terminal device, server, virtual reality space providing system, program, and virtual reality space providing method
JP2023079553A (en) * 2021-11-29 2023-06-08 クラスター株式会社 Terminal device, server, virtual reality space providing system, program, and virtual reality space providing method

Similar Documents

Publication Publication Date Title
JP6159449B2 (en) TV chat system
US9148627B2 (en) System and method for interactive internet video conferencing
US6938069B1 (en) Electronic meeting center
JP6101973B2 (en) Voice link system
US8725826B2 (en) Linking users into live social networking interactions based on the users&#39; actions relative to similar content
US7580867B2 (en) Methods for interactively displaying product information and for collaborative product design
US6175842B1 (en) System and method for providing dynamic three-dimensional multi-user virtual spaces in synchrony with hypertext browsing
US6155840A (en) System and method for distributed learning
JP3172870U (en) System for providing and managing interactive services
JP4391691B2 (en) Computer network
JP2002522998A (en) Computer architecture and processes for audio conferencing over local and global networks, including the Internet and intranets
CA2946727A1 (en) Telepresence apparatus and method enabling a case-study approach to lecturing and teaching
AU2004248274A1 (en) Intelligent collaborative media
JP2007115117A (en) Content providing server and content viewing system
JP2005055846A (en) Remote educational communication system
JP5338612B2 (en) Electronic conference system
JP2001167031A (en) Device and method for providing information
JP2022016424A (en) System for streaming distribution and video conferencing
US11943516B1 (en) System and method for interactive web-browsing via user equipment
US20240147024A1 (en) System and method for interactive web-browsing via user equipment
Karat et al. That’s entertainment!
Sachs et al. Virtual Visit $^{\trade} $: Improving Communication for Those Who Need it Most
Lou et al. PresenceScape: Virtual world mediated rich communication
JP2024507092A (en) Image processing method, device, and computer program
Gross et al. Social TV from a Computer-Supported Cooperative Work Perspective