JP4625058B2 - Virtual space broadcasting device - Google Patents

Virtual space broadcasting device Download PDF

Info

Publication number
JP4625058B2
JP4625058B2 JP2007211887A JP2007211887A JP4625058B2 JP 4625058 B2 JP4625058 B2 JP 4625058B2 JP 2007211887 A JP2007211887 A JP 2007211887A JP 2007211887 A JP2007211887 A JP 2007211887A JP 4625058 B2 JP4625058 B2 JP 4625058B2
Authority
JP
Japan
Prior art keywords
virtual space
user
image
avatar
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007211887A
Other languages
Japanese (ja)
Other versions
JP2009048303A (en
Inventor
祐 宮崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yahoo Japan Corp
Original Assignee
Yahoo Japan Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yahoo Japan Corp filed Critical Yahoo Japan Corp
Priority to JP2007211887A priority Critical patent/JP4625058B2/en
Publication of JP2009048303A publication Critical patent/JP2009048303A/en
Application granted granted Critical
Publication of JP4625058B2 publication Critical patent/JP4625058B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Transfer Between Computers (AREA)

Description

本発明は、ネットワーク上の仮想空間での画像情報をリモートで得るための装置に関する。特に、携帯情報端末を用い、ユーザが仮想空間内で撮影した画像に関する情報と仮想空間内でのユーザ行動情報を得るための装置及びプログラムに関する。   The present invention relates to an apparatus for remotely obtaining image information in a virtual space on a network. In particular, the present invention relates to an apparatus and a program for using a portable information terminal to obtain information about an image captured by a user in a virtual space and user behavior information in the virtual space.

昨今、インターネット上に仮想空間を構築し、現実世界の空間と類似の、あるいは仮想空間ならではの特徴を生かした様々なサービスを提供することが始まっている(例えば、非特許文献1参照)。   In recent years, a virtual space has been constructed on the Internet, and various services that are similar to the real world space or that make use of the unique characteristics of the virtual space have begun to be provided (see, for example, Non-Patent Document 1).

非特許文献1に示された仮想空間は、ユーザが創造し発展させてゆく永続的な3Dオンライン・スペースであり、3Dコンテンツを設計し販売する能力と、土地とマイクロ通貨(実際の現金に交換可能)を所有し開発する能力とを組み合わせ、仮想空間に本物のビジネスを構築することができる。   The virtual space shown in Non-Patent Document 1 is a permanent 3D online space created and developed by users, the ability to design and sell 3D content, land and micro currency (exchanged for real cash) Combined with the ability to own and develop), you can build a real business in virtual space.

このような仮想空間においては、ユーザの仮想空間における情報取得やまたはユーザ間の意思疎通の方法が重要である。例えば、ユーザは仮想空間において、現実の世界と同じように、仮想空間上で情報を得て行動する。そのため、例えば、特許文献1には、インターネットを介して各端末の利用者が同一の仮想空間を共有し、ユーザ相互の間で文字によるチャット、音声による会話等の情報交換を行いうる技術が開示されている。また、仮想空間において、ユーザは自分の分身であるアバターを用いて他のユーザとの意思疎通を行い、このアバターはユーザ自身によって外見等を編集できることが開示されている(例えば、特許文献2参照)。   In such a virtual space, it is important to acquire information in the user's virtual space or to communicate between users. For example, in the virtual space, the user obtains information in the virtual space and acts in the same manner as in the real world. Therefore, for example, Patent Document 1 discloses a technique in which users of each terminal share the same virtual space via the Internet and can exchange information such as text chat and voice conversation between users. Has been. In addition, it is disclosed that in a virtual space, a user communicates with other users using an avatar that is his or her own character, and this avatar can edit the appearance and the like by the user himself (see, for example, Patent Document 2). ).

マイケル・リマズイスキー(他)著 中川 蘭丸 訳、セカンドライフ公式ガイド、インプレスR&D版、2007年05月Translated by Rimmaru Nakagawa, Second Life Official Guide, Impress R & D Edition, May 2007 特開2001−154966号公報JP 2001-154966 A 特開平9−244845号公報JP-A-9-244845

しかし、上記の文献に記載された方法においては、ユーザが仮想空間上で様々な情報を得るためには、仮想空間自体が高度なコンピュータ・グラフィックスを駆使して構築されているという特徴があり、ゲーム装置のような高性能な3Dグラフィックス機能を備えたパーソナル・コンピュータ等を用いる必要があり、ユーザが仮想空間で行う操作は、室内のパーソナル・コンピュータ等でしか行いずらいという課題があった。   However, the method described in the above document has a feature that the virtual space itself is constructed using advanced computer graphics in order for the user to obtain various information in the virtual space. Therefore, it is necessary to use a personal computer having a high-performance 3D graphics function such as a game device, and there is a problem that an operation performed by a user in a virtual space can be performed only by an indoor personal computer. It was.

現在では、携帯電話、PHS(Personal Handy−phone System)、PDA(Personal Digital Assistant)等の携帯情報端末は急速に普及しており、日常の生活において不可欠なものになっている。れらの携帯情報端末を用いて自宅のパーソナル・コンピュータと情報をやりとりすることも広く行われるようになってきた。したがって、携帯電話等の携帯情報端末と自宅等におけるパーソナル・コンピュータとの両者において連続性を保ったまま仮想空間を利用することができれば、ユーザは上記のような制約を受けることなくより広く仮想空間を介するサービスを楽しむことができる。   At present, portable information terminals such as mobile phones, PHS (Personal Handy-phone System), and PDA (Personal Digital Assistant) are rapidly spreading and are indispensable in daily life. The exchange of information with a personal computer at home using these portable information terminals has been widely performed. Therefore, if a virtual space can be used while maintaining continuity in both a portable information terminal such as a mobile phone and a personal computer at home or the like, the user can use the virtual space more widely without being restricted as described above. You can enjoy the service through.

本発明は、上記課題に鑑み、現実空間におけるユーザの行動範囲が屋内でのパーソナル・コンピュータ等の近傍に制約されないように、また、仮想空間の内容を、モバイル環境、例えば携帯電話等で仮想空間内の画像情報を閲覧することにより、電車での移動等のユーザの空いた時間に仮想空間サービスを利用することができるような手段を提供することを目的とする。また、仮想空間を介するサービスを更に加速させるために、ユーザが利用手段をパーソナル・コンピュータ等から携帯情報端末に、また逆に携帯情報端末からパーソナル・コンピュータ等に変更することにおいて、同一仮想空間へのアクセスの連続性が維持できるモバイル環境での仮想空間アクセス手段を提供することを目的とする。   In view of the above-described problems, the present invention prevents the user's action range in the real space from being constrained to the vicinity of an indoor personal computer or the like, and the content of the virtual space is changed to a virtual space in a mobile environment such as a mobile phone. It is an object of the present invention to provide a means that allows a user to use a virtual space service at a time when the user is free, such as traveling on a train, by browsing image information inside. Further, in order to further accelerate the service through the virtual space, the user changes the use means from a personal computer or the like to a portable information terminal, and conversely, from the portable information terminal to the personal computer or the like, to the same virtual space. An object of the present invention is to provide a virtual space access means in a mobile environment that can maintain the continuity of access.

本発明では、以下のような解決手段を提供する。   The present invention provides the following solutions.

(1) コンピュータ・ネットワークを利用した仮想空間における撮影画像を送信する仮想空間放送装置であって、
携帯情報端末からユーザの指示を受け付ける指示受信部と、
前記仮想空間内における前記ユーザの分身であるアバターを前記仮想空間内において予め定めた行動パターンによって移動させるアバター自動移動制御部と、
前記仮想空間内における任意の地点の画像を取得するための複数のカメラを前記ユーザの指示によって、前記仮想空間内の複数の位置に配置するカメラ位置決定部と、
前記複数のカメラによって撮影された画像を取得し、前記ユーザのアバターの行動記録として行動動画ファイルを作成する行動画像生成部と、
前記行動動画ファイルを送信する放送配信部と、
を備えた仮想空間放送装置。
(1) A virtual space broadcasting device that transmits a captured image in a virtual space using a computer network,
An instruction receiving unit that receives a user instruction from the portable information terminal;
An avatar automatic movement control unit for moving an avatar, which is a substitute of the user in the virtual space, according to a predetermined action pattern in the virtual space;
A camera position determination unit that arranges a plurality of cameras for acquiring images of arbitrary points in the virtual space at a plurality of positions in the virtual space according to the user's instruction;
An action image generation unit that acquires images taken by the plurality of cameras and creates an action video file as an action record of the user's avatar;
A broadcast distribution unit for transmitting the behavior video file;
A virtual space broadcasting device comprising:

このような構成によれば、本発明の仮想空間放送装置を用いることによって、ユーザは携帯情報端末からリモートで仮想空間のサービスにアクセスし、ユーザの分身であるアバターに指令を与えることができる。指令を与えられたアバターが行動する際に、仮想空間内の任意の位置からの画像が複数のカメラによって撮影される。撮影された複数の画像からユーザの行動記録として、行動動画ファイルが作成され、ユーザの携帯情報端末や仮想空間の他のユーザ端末に送信する。   According to such a configuration, by using the virtual space broadcasting apparatus of the present invention, the user can remotely access the virtual space service from the portable information terminal and give an instruction to the avatar that is the user's alternation. When an avatar given a command acts, an image from an arbitrary position in the virtual space is taken by a plurality of cameras. An action moving image file is created as a user action record from a plurality of captured images, and is transmitted to the user's portable information terminal and other user terminals in the virtual space.

(2) 前記仮想空間内において遭遇した他のユーザのアバターとの会話において、自動応答する会話制御部と、
前記他のユーザのアバターとの会話の内容を前記ユーザのアバターの行動情報と結合する会話行動情報結合部と、
を更に備えた、(1)に記載の仮想空間情報要約作成装置。
(2) a conversation control unit that automatically responds in a conversation with an avatar of another user encountered in the virtual space;
A conversation behavior information combining unit that combines the content of the conversation with the other user's avatar with the behavior information of the user's avatar;
The virtual space information summary creation device according to (1), further comprising:

このような構成によれば、仮想空間上で他のユーザのアバターに遭遇した場合は、ユーザが与えた行動パターンに従って、その他のアバターと会話(チャット)を楽しむことができる。会話は予め登録された応答パターンに従って自動的に行われる。例えば、他のアバターから「こんにちは」と話しかけれたら、「こんにちは、お元気そうですね」というような会話がユーザの指示なしに自動的に行われる。想定されていない会話の場合でも差しさわりのない返答をする。このような会話の記録も行動情報に結合して記録される。この結果から得られた行動情報はユーザの携帯情報端末や他のユーザ端末にアバターの行動結果としての動画ファイルと共に送信される。   According to such a configuration, when an avatar of another user is encountered in the virtual space, a conversation (chat) with other avatars can be enjoyed according to the behavior pattern given by the user. The conversation is automatically performed according to a response pattern registered in advance. For example, if you are spoken to as "Hello" from the other avatars, "Hello, your healthy it is going" conversation like that is performed automatically without user's instruction. Reply without hesitation even in unexpected conversations. Such a conversation record is also recorded in combination with the action information. The action information obtained from the result is transmitted to the user's portable information terminal or other user terminal together with the moving image file as the action result of the avatar.

(3) 前記複数のカメラのうち少なくとも1つは前記アバターの目線位置に設置される、(1)に記載の仮想空間放送装置。 (3) The virtual space broadcasting apparatus according to (1), wherein at least one of the plurality of cameras is installed at a line of sight of the avatar.

(4) 前記ユーザの指示によって、前記複数のカメラの撮影を切り替えを可能とする、(1)乃至(3)に記載の仮想空間放送装置。 (4) The virtual space broadcasting apparatus according to (1) to (3), wherein the photographing of the plurality of cameras can be switched according to an instruction from the user.

(3)または(4)の構成によれば、カメラ位置の1つはユーザのアバターの目線位置に提供され、他の位置に設置された画像を随時切り替えることによって、携帯情報端末からであっても臨場感ある画像を楽しむことができる。   According to the configuration of (3) or (4), one of the camera positions is provided at the line of sight of the user's avatar, and is switched from time to time by switching an image installed at another position. You can also enjoy realistic images.

(5) 前記ユーザの指示は、前記仮想空間内の所定の位置及び時間を予め定めたシナリオを基に行われる、(1)に記載の仮想空間放送装置。 (5) The virtual space broadcasting apparatus according to (1), wherein the user instruction is performed based on a scenario in which a predetermined position and time in the virtual space are determined in advance.

(6) 前記撮影された動画ファイルの該当情報を検出し、前記他のユーザの端末に対して送信する会話行動情報送信部を更に備えた、(1)に記載の仮想空間放送装置。 (6) The virtual space broadcasting device according to (1), further including a conversation behavior information transmission unit that detects corresponding information of the captured moving image file and transmits the detected information to the terminal of the other user.

このような構成によれば、ユーザからアバターに与える指令はその都度コマンドとして与える代わりに、予め定めた行動パターン(シナリオ)で与えておくことができる。こうすることで、ユーザは、そのシナリオに従ってアバターが行動する間は指令を与える必要がなく、後でそのシナリオの行動結果だけを受信することができる。   According to such a configuration, a command given from the user to the avatar can be given in a predetermined action pattern (scenario) instead of being given as a command each time. By doing so, the user does not need to give a command while the avatar acts according to the scenario, and can receive only the action result of the scenario later.

(7) 前記放送配信部は、前記撮影された動画ファイルを前記ユーザのブログを格納したブログサーバに送信する、(1)に記載の仮想空間放送装置。 (7) The virtual broadcast device according to (1), wherein the broadcast distribution unit transmits the captured moving image file to a blog server storing the user's blog.

このような構成によれば、動画ファイルをユーザの携帯情報端末に送信するだけでなく、ユーザ自身が作成したブログにも掲載できるので、他のユーザからも閲覧できる。   According to such a configuration, not only the moving image file can be transmitted to the user's portable information terminal but also posted on a blog created by the user himself / herself, so that it can be viewed by other users.

(8) コンピュータ・ネットワークを利用した仮想空間における撮影画像を送信するためのコンピュータ・プログラムであって、
携帯情報端末からユーザの指示を受け付けるステップと、
前記仮想空間内における前記ユーザの分身であるアバターを前記仮想空間内において予め定めた行動パターンによって移動させるステップと、
前記仮想空間内における任意の地点の画像を取得するための複数のカメラを前記仮想空間内の複数の位置に配置するステップと、
前記複数のカメラによって撮影された画像を取得し、前記ユーザのアバターの行動記録として行動動画ファイルを作成するステップと、
前記仮想空間内において遭遇した他のユーザのアバターとの会話に自動応答するステップと、
前記会話の内容を前記ユーザのアバターの行動情報と結合するステップと、
前記行動動画ファイルを送信するステップと、
をコンピュータに実行させる、コンピュータ・プログラム。
(8) A computer program for transmitting a captured image in a virtual space using a computer network,
Receiving a user instruction from the portable information terminal;
Moving an avatar that is a substitute of the user in the virtual space according to a predetermined action pattern in the virtual space;
Arranging a plurality of cameras for acquiring images of arbitrary points in the virtual space at a plurality of positions in the virtual space;
Acquiring images taken by the plurality of cameras, and creating an action video file as an action record of the user's avatar;
Automatically responding to conversations with other users' avatars encountered in the virtual space;
Combining the content of the conversation with action information of the user's avatar;
Transmitting the behavior video file;
A computer program that causes a computer to execute.

このような構成によれば、本発明の仮想空間放送装置はコンピュータ・プログラムの形で提供される。したがって、一般的なコンピュータに上記のステップを実行させるプログラムをインストールすることで、専用のハードウェアを開発することなく容易に実現できる。   According to such a configuration, the virtual space broadcasting apparatus of the present invention is provided in the form of a computer program. Therefore, by installing a program for executing the above steps in a general computer, it can be easily realized without developing dedicated hardware.

本発明によれば、仮想空間における特に画像情報に対して屋内の利用環境と連続性のあるサービスをモバイル環境に対しても、提供することができる。   According to the present invention, it is possible to provide a service having a continuity with an indoor use environment for image information in a virtual space, even for a mobile environment.

以下、本発明の実施形態について図を参照しながら説明する。なお、これらの実施形態はあくまでも一例であって、本発明の技術的範囲はこれに限られるものではない。   Hereinafter, embodiments of the present invention will be described with reference to the drawings. Note that these embodiments are merely examples, and the technical scope of the present invention is not limited thereto.

[仮想空間放送装置の機能構成]
図1は、本発明の好適な実施形態の一例に係る仮想空間放送装置10の機能の概略を示したものである。以下、仮想空間放送装置10を単に本装置と呼ぶことにする。
[Functional configuration of virtual space broadcasting device]
FIG. 1 shows an outline of functions of a virtual space broadcasting apparatus 10 according to an example of a preferred embodiment of the present invention. Hereinafter, the virtual space broadcasting apparatus 10 will be simply referred to as this apparatus.

本装置は、ユーザの携帯情報端末30(例えば、携帯電話機)から、指示またはシナリオを受け付けるユーザ指示受信部11、ユーザがその都度与える指示、またはユーザが予め与えられたシナリオデータ21に従ってアバターを仮想空間内で自動的に行動させるアバター自動移動制御部12、仮想空間サービスを提供する仮想空間提供サーバ40にアクセスして、仮想空間内の複数のカメラの位置を決定するカメラ位置決定部13、仮想空間提供サーバ40から得られた画像データ22から、ユーザの分身であるアバターの行動した結果を行動情報(行動動画)として作成する行動画像生成部14、他のアバターとの会話(チャット)を制御する会話制御部15、得られた会話内容(会話データ23)を記録し、アバターの行動情報と結合する会話行動情報結合部16、会話の相手の他のユーザ端末50に送信する会話行動情報送信部17、及び会話内容を含む行動動画をユーザの携帯情報端末30やブログサーバ60へ送信する、放送配信部18を備えている。   This apparatus virtually transmits an avatar according to a user instruction receiving unit 11 that receives an instruction or a scenario from a user's portable information terminal 30 (for example, a mobile phone), an instruction that the user gives each time, or scenario data 21 that is given in advance by the user. An avatar automatic movement control unit 12 that automatically moves in space, a virtual space providing server 40 that provides a virtual space service, a camera position determination unit 13 that determines the positions of a plurality of cameras in the virtual space, a virtual The action image generation unit 14 that creates the action information (behavior video) of the action of the avatar that is the user's alternation from the image data 22 obtained from the space providing server 40, and controls conversation (chat) with other avatars. Conversation control unit 15 to record the obtained conversation content (conversation data 23) and combine it with avatar action information The conversation behavior information combining unit 16, the conversation behavior information transmission unit 17 that transmits to the other user terminal 50 of the conversation partner, and a behavior video including the conversation contents to the user's portable information terminal 30 and the blog server 60, broadcasting A distribution unit 18 is provided.

図示するように、仮想空間サービスを提供する機能自体は外部の一または複数の仮想空間提供サーバによって構築される。本装置内部の各機能ブロックの詳細については後述する。なお、このような構成は、あくまで一例であり、機能的に同等な他のバリエーションの構成を排除するものでないことはいうまでもない。   As shown in the figure, the function for providing the virtual space service itself is constructed by one or more external virtual space providing servers. Details of each functional block in the apparatus will be described later. Note that such a configuration is merely an example, and needless to say, the configuration of other functionally equivalent variations is not excluded.

[仮想空間放送装置のハードウェア構成]
図2は、本発明の好適な実施形態の一例に係る仮想空間放送装置10のハードウェア構成を示す図である。
[Hardware configuration of virtual space broadcasting device]
FIG. 2 is a diagram illustrating a hardware configuration of the virtual space broadcasting device 10 according to an example of the preferred embodiment of the present invention.

本装置は、典型的なサーバのようなコンピュータ装置であってよく、制御部108を構成するCPU110(マルチプロセッサ構成ではCPU120等複数のCPUが追加されてもよい)、バスライン107、通信I/F140、メインメモリ150、BIOS(Basic Input Output System)160、USBポート190、グラフィックコントローラ130、I/Oコントローラ170、並びにキーボード及びマウス180等の入力手段や表示装置122を備える。グラフィックコントローラ130は、仮想空間の画像を処理するために主に使用される。I/Oコントローラ170には、テープドライブ172、ハードディスク174、光ディスクドライブ176、半導体メモリ178、等の記憶部109を接続することができる。BIOS160は、本装置の起動時にCPU110が実行するブートプログラムや、本装置のハードウェアに依存するプログラム等を格納する。ハードディスク174は、本装置として機能するための各種プログラム及び本発明の機能を実行するプログラムを記憶する。光ディスクドライブ176としては、例えば、DVD−ROMドライブ、CD−ROMドライブ、DVD−RAMドライブ、CD−RAMドライブ等を使用することができる。この場合は各ドライブに対応した光ディスク177を使用する。光ディスク177から光ディスクドライブ176によりプログラムまたはデータを読み取り、I/Oコントローラ170を介してメインメモリ150またはハードディスク174に提供することもできる。また、同様にテープドライブ172に対応したテープメディア171を主としてバックアップのために使用することもできる。   This device may be a computer device such as a typical server, and includes a CPU 110 constituting the control unit 108 (a plurality of CPUs such as the CPU 120 may be added in a multiprocessor configuration), a bus line 107, a communication I / O. F140, main memory 150, BIOS (Basic Input Output System) 160, USB port 190, graphic controller 130, I / O controller 170, keyboard and mouse 180, and other input means and display device 122. The graphic controller 130 is mainly used to process a virtual space image. A storage unit 109 such as a tape drive 172, a hard disk 174, an optical disk drive 176, or a semiconductor memory 178 can be connected to the I / O controller 170. The BIOS 160 stores a boot program executed by the CPU 110 when the apparatus is activated, a program depending on the hardware of the apparatus, and the like. The hard disk 174 stores various programs for functioning as the apparatus and programs for executing the functions of the present invention. As the optical disk drive 176, for example, a DVD-ROM drive, a CD-ROM drive, a DVD-RAM drive, a CD-RAM drive, or the like can be used. In this case, the optical disk 177 corresponding to each drive is used. A program or data can be read from the optical disk 177 by the optical disk drive 176 and provided to the main memory 150 or the hard disk 174 via the I / O controller 170. Similarly, the tape medium 171 corresponding to the tape drive 172 can be used mainly for backup.

本装置に提供されるプログラムは、ハードディスク174、光ディスク177、またはメモリカード等の記録媒体に格納されて提供される。このプログラムは、I/Oコントローラ170を介して、記録媒体から読み出され、または通信I/F140を介してダウンロードされることによって、本装置にインストールされ実行されてもよい。   The program provided to the apparatus is provided by being stored in a recording medium such as the hard disk 174, the optical disk 177, or a memory card. The program may be installed in the apparatus and executed by being read from the recording medium via the I / O controller 170 or downloaded via the communication I / F 140.

上述のプログラムは、内部または外部の記憶媒体に格納されてもよい。ここで、記憶媒体としては、磁気記録媒体、光磁気記録媒体、光学記録媒体、電子媒体を含むが、これらに限定されない。前記磁気記録媒体には、磁気テープ、フレキシブルディスク、ハードディスク174、磁気ランダムアクセスメモリ(MRAM)等を含み、光磁気記録媒体には光磁気ディスク(MO及びMD)等を含み、光学記録媒体には追記型コンパクトディスク(CD)、追記型デジタル多目的ディスク(DVD)、追記型ブルーレイディスク、追記型ホログラフィック・ディスク等を含み、電子媒体には電気書き込み可能読み出し専用メモリ、ランダムアクセスメモリ、フラッシュメモリ、シリコン・ストレージ・ディスク等を含む。また、専用通信回線やインターネット等の通信回線に接続されたサーバシステムに設けたハードディスク174または光ディスクライブラリ等の記憶装置を記録媒体として使用し、通信回線を介してプログラムを本装置に提供してもよい。   The above program may be stored in an internal or external storage medium. Here, examples of the storage medium include, but are not limited to, a magnetic recording medium, a magneto-optical recording medium, an optical recording medium, and an electronic medium. The magnetic recording medium includes a magnetic tape, a flexible disk, a hard disk 174, a magnetic random access memory (MRAM), and the like. The magneto-optical recording medium includes a magneto-optical disk (MO and MD). Includes write-once compact discs (CDs), write-once digital multipurpose discs (DVDs), write-once Blu-ray discs, write-once holographic discs, etc., and electronic media with electrically writable read-only memory, random access memory, flash memory, Includes silicon storage disks. Further, a storage device such as a hard disk 174 or an optical disk library provided in a server system connected to a communication line such as a dedicated communication line or the Internet may be used as a recording medium, and a program may be provided to the apparatus via the communication line. Good.

ここで、表示装置122は、本装置の管理者によるデータの入力を受け付ける画面を表示したり、演算処理結果の画面を表示したりするものであり、ブラウン管表示装置(CRT)、液晶表示装置(LCD)等のディスプレイ装置を含む。入力手段は、ユーザによる入力の受け付けを行うものであり、キーボード及びマウス180等により構成してもよい。通信I/F140は、本装置を専用ネットワークまたは公共ネットワークを介して端末と接続できるようにするためのネットワーク・アダプタである。通信I/F140は、モデム、ケーブル・モデム及びイーサネット(登録商標)・アダプタを含んでよい。   Here, the display device 122 displays a screen for accepting data input by an administrator of the device, or displays a calculation result screen. The display device 122 is a cathode ray tube display device (CRT), a liquid crystal display device ( LCD). The input means accepts input by the user, and may be configured with a keyboard and mouse 180 or the like. The communication I / F 140 is a network adapter for enabling the apparatus to be connected to a terminal via a dedicated network or a public network. The communication I / F 140 may include a modem, a cable modem, and an Ethernet (registered trademark) adapter.

以上の例は、ハードウェア構成について説明したが、一般的なコンピュータに、上記の機能を実行させるプログラムをインストールして、そのコンピュータを本装置として動作させることにより実現することもできる。   In the above example, the hardware configuration has been described. However, it may be realized by installing a program for executing the above functions in a general computer and operating the computer as the present apparatus.

[処理フロー]
図3は、本装置の処理フローを示したものである。まず、ステップS10において、ユーザの携帯情報端末30から指示(コマンド)またはシナリオを受信する。シナリオは携帯情報端末30から与えてもよいが、ユーザの自宅のパーソナル・コンピュータ等から本装置に予め与えておいてもよい。このシナリオデータは、コマンドの列であってもよいが、後述の例に示すような自然言語であってもよく、ステップS11において、解析され、行動パターンとして取得する。
[Processing flow]
FIG. 3 shows the processing flow of this apparatus. First, in step S10, an instruction (command) or a scenario is received from the user's portable information terminal 30. The scenario may be given from the portable information terminal 30 or may be given in advance to the apparatus from a personal computer at the user's home. The scenario data may be a sequence of commands, but may be a natural language as shown in an example described later, and is analyzed and acquired as an action pattern in step S11.

次に、ステップS12において、指令または行動パターンによってアバターを移動させる。指令の場合は、一の行動パターンのみが与えられたと考えてもよい。また、行動パターンとは、例えば、「12時になったらアバターがA地点からB地点に移動する」のような単一動作及びその単一動作の集合であってもよい。アバターが移動する際、ステップS13において、アバター周辺の画像を取得する。画像を取得するタイミングは一定時間毎であってもよいが、アバターの目線位置のカメラだけでなく、仮想空間内に定点カメラを複数台設置し、アバターがその位置に来た場合に、その定点カメラからの画像を取得するようにしてもよい。カメラの機能や撮影画像自体は仮想空間提供サーバ40から得られるものとする。   Next, in step S12, the avatar is moved according to the command or the action pattern. In the case of a command, it may be considered that only one action pattern is given. The behavior pattern may be, for example, a single action such as “Avatar moves from point A to point B at 12:00” and a set of the single actions. When the avatar moves, an image around the avatar is acquired in step S13. The timing to acquire the image may be every fixed time, but not only the camera at the avatar's eye position but also multiple fixed point cameras in the virtual space, and when the avatar comes to that position, that fixed point You may make it acquire the image from a camera. It is assumed that the camera function and the captured image itself are obtained from the virtual space providing server 40.

次に、ステップS14において、カメラ画像を所得する。ステップS15において、その画像から動画ファイル(例えば、Flash、MPEG、AVI、MOV形式等)を作成する。例えば、撮影された画像が、3台のカメラから撮影された画像であれば、予め定めれた編集パターン(例えば、2〜3秒毎にカメラ画像を切り替える等)によって動画を作成してもよい。また、撮影された画像全体からエッジ処理によって部分画像を切り出し、その部分画像と類似する画像を検索し、類似画像情報からその画像の特徴量を抽出するようにしてもよい。このような技術は公知であり、(例えば、特開2006−114053参照)、このようにすることによって、画像に写った建物が、例えばショッピングモールであることが認識できる。この画像の特徴量はテキストとして送信可能なので画像そのものを送信することに比べてデータ量が大幅に減少できる。   Next, in step S14, a camera image is obtained. In step S15, a moving image file (for example, Flash, MPEG, AVI, MOV format, etc.) is created from the image. For example, if the captured image is an image captured from three cameras, a moving image may be created using a predetermined editing pattern (for example, switching camera images every 2 to 3 seconds). . Alternatively, a partial image may be cut out from the entire captured image by edge processing, an image similar to the partial image may be searched, and a feature amount of the image may be extracted from similar image information. Such a technique is publicly known (see, for example, Japanese Patent Application Laid-Open No. 2006-114053). By doing so, it can be recognized that the building shown in the image is, for example, a shopping mall. Since the feature amount of the image can be transmitted as text, the data amount can be greatly reduced as compared with the case where the image itself is transmitted.

もちろん、仮想空間内の建物や構造物はすべてその位置がデータで管理されているのでアバターの現在位置から、周辺画像の建造物を認識することは容易である。しかし、例えば、アバターの目線から撮影された画像を解析することによって、より詳細な画像の特徴量を得ることができる。例えば、ショッピングモール内のある店の前に立った場合、そのショーウィンドーを撮影すると陳列物が何であるのかといった情報も得ることができる。たとえ陳列物が複数であっても部分画像を抽出すれば、例えば、「洋服」や「椅子」等のオブジェクトも認識することができ、それを文字情報として「要約」することでユーザに簡潔に伝えることができる。   Of course, since the positions of all the buildings and structures in the virtual space are managed by data, it is easy to recognize the building in the surrounding image from the current position of the avatar. However, for example, a more detailed image feature amount can be obtained by analyzing an image taken from the avatar's line of sight. For example, when standing in front of a store in a shopping mall, it is possible to obtain information such as what the display is by photographing the show window. If a partial image is extracted even if there are multiple items, for example, objects such as “clothes” and “chairs” can be recognized, and it can be concise to the user by “summarizing” them as character information. I can tell you.

更に、ステップS16では、他のアバターと遭遇したかどうかが判断される。そして、ステップS17〜S19では、他のユーザのアバターに遭遇した場合の処理を行う。ここで、「遭遇」とは、一定距離内(例えば1メートル以内)にアバターどうしが接近した場合と定義してもよいし、アバターどうしが接触した場合と定義してもよい。通常は、アバターに対して「会話する」のようなコマンドを与えて、相手が応答すれば会話が開始するが、本装置ではアバターに対して、会話を自動的に開始するようにシナリオデータで与えておくことができる。例えば、ショッピングモールの○○店に入った場合、そこの「店員」アバターに話しかけ、自動的に買い物までを済ますことができるようなシナリオ、あるいはプログラムを与えることができる。このような自動会話応答は、公知の技術を利用して行うことができるが、後述するようなチャットボットシステムを利用することで複数の会話相手に対しても同時に会話自動応答することが実現できる(ステップS17)。   In step S16, it is determined whether another avatar has been encountered. And in step S17-S19, the process when the other user's avatar is encountered is performed. Here, “encounter” may be defined as a case where avatars approach each other within a certain distance (for example, within 1 meter), or may be defined as a case where avatars contact each other. Normally, when a command such as “conversation” is given to the avatar and the other party responds, the conversation starts. However, in this device, the scenario data is used to automatically start the conversation for the avatar. Can be given. For example, when entering a store in a shopping mall, it is possible to give a scenario or a program that allows the user to talk to the “clerk” avatar there and automatically complete the shopping. Such an automatic conversation response can be performed by using a known technique, but by using a chatbot system as described later, it is possible to realize an automatic conversation response to a plurality of conversation partners at the same time. (Step S17).

ここで、ステップS18では、この会話内容をアバターの行動情報に結合する。例えば、会話の内容の記録にアバター内の行動情報(空間位置情報、時間情報等)を含ませるようにする。そして、ステップS19では、このような会話内容と行動情報を結合した会話情報を送信する。送信先はユーザの端末であってもよいが、他のアバターのユーザの端末であってもよい。   Here, in step S18, this conversation content is combined with the action information of the avatar. For example, action information (spatial position information, time information, etc.) in the avatar is included in the recording of the conversation content. In step S19, conversation information obtained by combining such conversation contents and behavior information is transmitted. The transmission destination may be a user terminal, but may be a user terminal of another avatar.

以上のステップS10〜S19の処理をすべての行動パターン(ここでは行動パターンは、単一動作を仮定している)が終了するまで繰り返す(ステップS20)。このようにして最後に、ステップS21において、すべての行動パターンが終了すると、それらの行動記録とさしての動画ファイルが作成され、ユーザの携帯情報端末にメール等で送信される。ユーザはこの動画ファイルを、モバイル環境、例えば電車内で見ることによって、仮想空間内のサービスを利用することができる。すなわち、本発明の装置を使用することで、外出先からでも仮想空間のサービスを臨場間を保ちつつ連続的(シームレス)に楽しむことができる。   The processes in steps S10 to S19 are repeated until all action patterns (here, the action pattern assumes a single action) (step S20). Thus, finally, in step S21, when all the action patterns are completed, a moving image file as a record of those actions is created and transmitted to the user's portable information terminal by e-mail or the like. The user can use the service in the virtual space by viewing the moving image file in a mobile environment such as a train. That is, by using the apparatus of the present invention, it is possible to enjoy the virtual space service continuously (seamlessly) while staying on the spot, even from the outside.

[行動パターンの具体例]
図4は、行動パターン(シナリオ)の概念的な具体例を示したものである。図4(a)では、行動パターン(シナリオ1)として、12時に自宅から○○ショッピングモールに歩いて行くという行動パターンと、14時に○○ショッピングモールからXX公園に行くという行動パターンが示されている。
[Specific examples of behavior patterns]
FIG. 4 shows a conceptual concrete example of an action pattern (scenario). In FIG. 4A, as an action pattern (scenario 1), an action pattern of walking from XX shopping mall to XX shopping mall from 12:00 and an action pattern of going from XX shopping mall to XX park at 14:00 are shown. Yes.

図4(b)では、○○ショッピングモール内での更に詳細な行動パターンとして、他のユーザとの会話パターン(シナリオ2)が示されている。例えば、○○店では、行動としては「見るだけ」がセットされているので、店員が話しかけてきても無視するか、「見てるだけです」とかのみを応答する。一方、△△店では、行動として、「気に入ったものがあると買い物する」がセットされているので、アバター視線からのカメラ映像が頻繁に撮影され、商品の特徴の識別を行う。予め定められた気に入った条件を満たせば店員を呼ぶこともできる。店員が話しかけてきた場合は、予め想定される受け答えをするようにする。このような自動受け答えは、限られたシチュエーションでは十分可能である。例えば、インターネット上のホームページにおいて、閲覧者からの商品に対する自然言語での問い合わせに自動応答するチャットボットシステムが既に実用化されている。図4(c)では、同様に、XX公園での会話パターン(シナリオ3)が示されている。 FIG. 4B shows a conversation pattern (scenario 2) with another user as a more detailed action pattern in the shopping mall. For example, since “only look” is set as the action at the store, the store clerk ignores it even if it speaks, or responds only “I just look”. On the other hand, at the Δ △ store, “shop if there is something you like” is set as an action, so camera images from the avatar line of sight are frequently taken to identify the features of the product. You can also call a clerk if you meet a pre-determined favorite condition. When the store clerk talks to you, make sure to answer in advance. Such automatic answering is possible in a limited number of situations. For example, on a homepage on the Internet, a chatbot system that automatically responds to inquiries in natural language about products from viewers has already been put into practical use. FIG. 4C similarly shows a conversation pattern (scenario 3) in XX park.

[会話制御部(チャットボットシステム)]
図5は、図1の会話制御部15のより詳細な機能ブロックを示したものである。
[Conversation control unit (chat bot system)]
FIG. 5 shows more detailed functional blocks of the conversation control unit 15 of FIG.

会話制御部15は、複数のチャンネルを備えた通信部211、応答メッセージ生成部212、応答メッセージキューイング部213、応答メッセージ提示部216を備える。また、バッファ制御部215は、質問と応答を対応させて記憶するキュー構造のバッファを制御し、記憶部214には、そのキューバッファとして、アクティブ・キャッシュバッファ217とインアクティブ・キャッシュバッファ218の2本を備える。ここで、通信部211が複数のチャンネルを備えるのは、一度に複数のユーザ(対話相手)に応答可能とするためである。また、記憶部214にバッファを2本備えるのは処理の高速化のためである。   The conversation control unit 15 includes a communication unit 211 having a plurality of channels, a response message generation unit 212, a response message queuing unit 213, and a response message presentation unit 216. Further, the buffer control unit 215 controls a buffer having a queue structure that stores the question and the response in association with each other. The storage unit 214 includes two active cache buffers 217 and inactive cache buffers 218 as the queue buffers. Provide a book. Here, the reason why the communication unit 211 includes a plurality of channels is to enable response to a plurality of users (dialogue partners) at a time. The reason why the storage unit 214 includes two buffers is to speed up the processing.

複数のユーザが発した発話(質問)はバッファ制御部215によって、発話要素ごと分解されてキューイングされ、そのキューに含まれた発話要素それぞれに対して応答(回答)である応答要素が作成される。応答メッセージキューイング部213によって、発話要素と応答要素がアクティブ・キャッシュバッファ217とインアクティブ・キャッシュバッファ218とにキューイングされる。更に、応答メッセージ提示部216によって、応答要素が適切なタイミング(一定時間の間をおく等)で対話相手に自然なスピードで提示される。このようにすることで、質問者(発話者)の発言が、数行にわたるような長文の質問であっても、その長文を発話要素に分解し、発話要素毎に応答要素を作成して発話者が理解できるような自然なタイミングで提示することができる。   The utterances (questions) uttered by a plurality of users are disassembled and queued for each utterance element by the buffer control unit 215, and a response element that is a response (answer) is created for each utterance element included in the queue. The The response message queuing unit 213 queues the speech element and the response element in the active cache buffer 217 and the inactive cache buffer 218. Further, the response message presenting unit 216 presents the response element to the conversation partner at a natural speed at an appropriate timing (for example, after a certain period of time). By doing this, even if the questioner (speaker) speaks a long sentence that spans several lines, the long sentence is broken down into utterance elements and a response element is created for each utterance element. It can be presented at a natural timing that the person can understand.

なお、上述の例では、複数のユーザと同時応答を可能とするチャットボットシステムを示したが、単一のユーザのみを想定した公知のチャットボットシステムを利用してもよい。   In the above example, a chatbot system that enables simultaneous response with a plurality of users is shown, but a known chatbot system that assumes only a single user may be used.

[カメラ位置決定部]
図6は、図1のカメラ位置決定部13の概念を示した図である。図示するように、この例では3台のカメラ100〜102を例示している。カメラ100は、ユーザ(アバターAとする)の目線位置に備えられ、カメラ101は、上空からの空間センシングを行うためのカメラである。また、カメラ102は、鳥や電柱等からの斜め俯瞰位置からの空間センシングを行うカメラである。実際には、カメラ101やカメラ102は1台である必要はなく、仮想空間上の任意の位置に設置でき、それぞれカメラのIDを指定することによって、撮影画像の切り替えがユーザからの指示またはシナリオによって容易に行えるようにする。また、他のユーザのアバターと会話する時など、自分の目線だけでなく相手の目線から自分を撮影する等、相手に自分がどう見えるかを知るために相手目線のカメラを備えるようにしてもよい。
[Camera position determination unit]
FIG. 6 is a diagram showing the concept of the camera position determination unit 13 in FIG. As illustrated, in this example, three cameras 100 to 102 are illustrated. The camera 100 is provided at a user's (Avatar A) eye line position, and the camera 101 is a camera for performing spatial sensing from the sky. The camera 102 is a camera that performs spatial sensing from an oblique overhead position from a bird, a power pole, or the like. Actually, the camera 101 and the camera 102 do not need to be one, but can be installed at an arbitrary position in the virtual space, and by specifying the ID of each camera, switching of the captured image is an instruction or scenario from the user. To make it easier. Also, when talking with other users' avatars, you can have a camera that looks at the other person's line of sight, such as shooting yourself from the other person's line of sight, not just your own line of sight. Good.

[カメラ画像テキスト部]
図7は、図1には図示していないが、行動画像生成部14のオプションとして使用可能な、カメラ画像テキスト部(テキストカメラ)の機能ブロックを示したものである。カメラで撮影した画像からその画像の特徴量を表すテキストを生成するのがカメラ画像テキスト部の役割である。カメラ画像テキスト部は、公知の類似画像検索技術(前述の特開2006−114053等)を利用し、更に次の図で説明するような画像に含まれる部分画像の共起情報を用いてもよい。
[Camera image text part]
Although not shown in FIG. 1, FIG. 7 shows functional blocks of a camera image text part (text camera) that can be used as an option of the action image generation part 14. The role of the camera image text part is to generate text representing the feature amount of the image taken from the camera. The camera image text part may use known similar image search technology (the above-mentioned Japanese Patent Application Laid-Open No. 2006-114053 or the like), and may further use co-occurrence information of partial images included in the image as described in the next figure. .

図7は、カメラ画像テキスト部が有する機能部分、当該機能を果たす上で利用するデータベース309〜311、及びカメラ画像テキスト部への入力と出力との関係を示した全体図である。カメラ画像テキスト部は、空間画像情報の入力を受け付ける空間画像入力部302と、空間画像入力部302によって入力を受け付けた画像から部分画像を取得する部分画像取得部303と、部分画像取得部303によって取得された部分画像から特徴情報を抽出する特徴情報抽出部304と、特徴情報抽出部304によって抽出された特徴情報に基づき画像辞書DB309に記録された画像辞書を検索し、当該部分画像に係るアイテム候補名を取得する候補アイテム取得部305と、候補アイテム取得部305により取得されたアイテム候補名について、アイテム共起辞書DB310に記録されたアイテム共起辞書を参照してアイテム名を決定するアイテム決定部306と、アイテム決定部306で決定されたアイテム名に基づきタイトル/アイテム相関辞書DB311に記録されたタイトル/アイテム相関辞書を参照してタイトル名を決定するタイトル名決定部307と、それぞれ決定されたタイトル名とアイテム名を出力するタイトル名/アイテム名出力部308とを備える。なお、カメラ画像テキスト部には、空間画像情報312が2次元の画像データとして入力され、タイトル名/アイテム名情報313がテキストデータとして出力される。   FIG. 7 is an overall view showing the functional part of the camera image text part, the databases 309 to 311 used for performing the function, and the relationship between the input and output to the camera image text part. The camera image text unit includes a spatial image input unit 302 that receives input of spatial image information, a partial image acquisition unit 303 that acquires a partial image from an image received by the spatial image input unit 302, and a partial image acquisition unit 303. A feature information extraction unit 304 that extracts feature information from the acquired partial image, an image dictionary recorded in the image dictionary DB 309 based on the feature information extracted by the feature information extraction unit 304, and an item related to the partial image A candidate item acquisition unit 305 that acquires a candidate name, and an item determination that determines an item name with reference to the item co-occurrence dictionary recorded in the item co-occurrence dictionary DB 310 for the item candidate name acquired by the candidate item acquisition unit 305 306 and the title based on the item name determined by the item determination unit 306 A title name determining unit 307 that determines a title name with reference to the title / item correlation dictionary recorded in the item correlation dictionary DB 311; a title name / item name output unit 308 that outputs the determined title name and item name; Is provided. In the camera image text portion, spatial image information 312 is input as two-dimensional image data, and title name / item name information 313 is output as text data.

候補アイテム取得部305は参照する画像辞書を備える。この画像辞書には、部分画像の特徴情報を記録した検索用タグと、当該特徴情報を有するアイテムのアイテム名やアイテム番号等のコンテンツが対応付けられて記録されている。特徴情報としては、例えば、アイテムの輪郭やアイテムを構成する色数等がある。画像辞書は、画像辞書DB309上に記録されている。   The candidate item acquisition unit 305 includes an image dictionary to be referred to. In this image dictionary, a search tag that records feature information of a partial image and contents such as an item name and an item number of an item having the feature information are recorded in association with each other. The feature information includes, for example, the outline of the item and the number of colors constituting the item. The image dictionary is recorded on the image dictionary DB 309.

更に、異なるアイテム間の共起関係を表すアイテム別共起度テーブルを備え、アイテム共起辞書の一部を構成する。ここで、共起度とは、異なる2つのアイテムが同一の画像の中に出現する比率をいう。例えば、母親が画像に出現しても赤ちゃんが画像に出現するとは限らないが、赤ちゃんが出現すると母親も出現する比率が高いように、アイテム番号iのアイテムiとアイテム番号jのアイテムjの2つのアイテムがある場合、アイテムiが出現したときにアイテムjが一緒に出現する比率ki_jと、アイテムjが出現したときにアイテムiが一緒に出現する比率kj_iは本来異なるものであるが、これらが異なる場合は、いずれか大きい方に合わせてki_j=kj_iとすることもできる。そのようにすると簡便な取り扱いが可能となるからである。本実施形態においては、ki_j=kj_iとすることを前提とする。アイテム別共起度テーブルは、アイテム共起辞書DB310上に記録されている。   Furthermore, a co-occurrence degree table for each item representing the co-occurrence relationship between different items is provided to constitute a part of the item co-occurrence dictionary. Here, the co-occurrence degree refers to a ratio at which two different items appear in the same image. For example, even if the mother appears in the image, the baby does not necessarily appear in the image, but the item i of item number i and the item j of item number j 2 have a high ratio so that the mother also appears when the baby appears. When there is one item, the ratio ki_j where the item j appears together when the item i appears is different from the ratio kj_i where the item i appears together when the item j appears. If they are different, ki_j = kj_i can be set in accordance with whichever is larger. This is because simple handling is possible. In the present embodiment, it is assumed that ki_j = kj_i. The item co-occurrence degree table is recorded in the item co-occurrence dictionary DB 310.

また、同一のアイテムが1つの画像に複数存在する場合(例えば、公園における木や花等)、同一のアイテム間の共起関係を表すアイテム別複数共起度テーブルも用意し、アイテム共起辞書の一部を構成する。あるアイテムが1つ出現した場合に同一画像内に2つ目の同一アイテムが出現する比率を第2列目、あるアイテムが2つ出現した場合に同一画像内に3つ目の同一アイテムが出現する比率を第3列目というように、1つの画像内にn個の同一アイテムが出現した場合に、同じ画像内に、(n+1)個目の同一アイテムが出現する比率を(n+1)列目に表示している。アイテム別複数共起度テーブルは、アイテム共起辞書DB310上に記録されている。   In addition, when there are a plurality of the same item in one image (for example, a tree or a flower in a park), an item co-occurrence degree table that shows a co-occurrence relationship between the same items is also prepared. Part of The ratio of the second same item appearing in the same image when one item appears in the second column, and the third same item appearing in the same image when two items appear When the n same items appear in one image, such as the third column, the ratio of the (n + 1) th same item appears in the (n + 1) th column in the same image. Is displayed. The item-specific multiple co-occurrence degree table is recorded in the item co-occurrence dictionary DB 310.

カメラ画像テキスト部の処理フローについて説明する。まず、2次元の空間画像の入力を受け付ける。空間画像は静止画であっても動画であってもよい。画像の入力の受け付けは、静止画像の場合は1枚の静止画像、動画像の場合はその動画像を構成する複数枚の静止画像を1単位として行う。   A processing flow of the camera image text portion will be described. First, an input of a two-dimensional spatial image is accepted. The spatial image may be a still image or a moving image. Acceptance of image input is performed with one still image in the case of a still image and a plurality of still images constituting the moving image as a unit in the case of a moving image.

次に、取得した画像から、エッジ処理により部分画像を切り出す。静止画像であれば、1枚の画像から部分画像が切り出されるが、動画の場合は、1つの動画を構成する複数の静止画像から部分画像が切り出されることになる。そして、切り出した部分画像から特徴情報を抽出する。特徴情報としては、部分画像の輪郭や部分画像の色数等がある。このような技術は前述のように公知であり、このようにすることによって、画像に写った家具が、例えばソファーであることが認識できる。この画像の特徴量はテキストとして送信可能なので画像そのものを送信することに比べてデータ量が大幅に減少できる。   Next, a partial image is cut out from the acquired image by edge processing. In the case of a still image, a partial image is cut out from one image, but in the case of a moving image, the partial image is cut out from a plurality of still images constituting one moving image. Then, feature information is extracted from the cut out partial image. The feature information includes the outline of the partial image and the number of colors of the partial image. Such a technique is known as described above, and by doing so, it can be recognized that the furniture shown in the image is, for example, a sofa. Since the feature amount of the image can be transmitted as text, the data amount can be greatly reduced as compared with the case where the image itself is transmitted.

次に、画像辞書を参照し、すでに実用化されている類似画像検索技術に基づき、特徴情報の類似度が高い順にアイテム名とアイテム番号を取得する。その際、可能性の低い候補を排除するために、類似度が一定の基準(例えば20パーセント)以上のものを選ぶようにしてもよい。通常、複数個の候補アイテムが選ばれる。この基準は、適宜変更して、最適なものにすればよい。類似画像検索では、検索の対象となる画像から視覚的な情報を数百次元の数値列データ(画像特徴量)で示し、データどうしの似ている度合い(類似度)を、画像特徴量ベクトル間の距離、すなわち、この画像特徴量の違いとして評価する。   Next, referring to the image dictionary, based on the similar image search technology already put into practical use, item names and item numbers are acquired in descending order of the similarity of the feature information. At that time, in order to exclude candidates with low possibility, it is possible to select those whose similarity is equal to or higher than a certain standard (for example, 20%). Usually, a plurality of candidate items are selected. This criterion may be changed as appropriate to make it optimal. In the similar image search, visual information from the image to be searched is indicated by numerical sequence data (image feature amount) of several hundred dimensions, and the degree of similarity (similarity) between the data is determined between the image feature amount vectors. , That is, the difference between the image feature amounts.

このようにして、1つの部分画像について候補アイテムが取得されると、類似度が高い順に候補アイテムテーブルに登録し、同一画像に更に別の部分画像があれば、同様の処理を行う。そしてすべての部分画像が切り出されると次の処理に移る。   In this way, when candidate items are acquired for one partial image, they are registered in the candidate item table in descending order of similarity, and the same processing is performed if there is another partial image in the same image. Then, when all the partial images are cut out, the process proceeds to the next process.

次に、各部分画像について取得された候補アイテムのうち、それぞれの最上位の類似度(最高類似度)を比較し、高い方から2つの候補アイテムを選ぶ。例えば、部分画像αの最高類似度は0.92、部分画像βの最高類似度は0.88、部分画像γの最高類似度は0.75とすると、部分画像αと部分画像βについて、アイテム別共起度テーブルを参照しながら、アイテム名の決定を行う。   Next, among the candidate items acquired for each partial image, the highest similarity (the highest similarity) is compared, and two candidate items are selected from the highest one. For example, if the highest similarity of the partial image α is 0.92, the highest similarity of the partial image β is 0.88, and the highest similarity of the partial image γ is 0.75, the items for the partial image α and the partial image β The item name is determined while referring to the separate co-occurrence degree table.

なお、上述のカメラ画像テキスト部の構成はあくまでも一例であり、画像から特徴量を抽出し、それを文字情報で表すことができれば、他の任意の公知技術を用いることができる。また、仮想空間上のオブジェクトは、すべてコンピュータ上のデータであるので、オブジェクトのデータ情報を更に用いることで、仮想空間上での画像の特徴量を抽出することは現実世界の画像情報を解析することよりもはるかに容易である。   Note that the above-described configuration of the camera image text portion is merely an example, and any other known technique can be used as long as a feature amount can be extracted from the image and represented by character information. In addition, since all objects in the virtual space are data on the computer, extracting the feature amount of the image in the virtual space by further using the object data information analyzes the image information in the real world. Is much easier than that.

このようにカメラ画像テキスト部は、画像データからその特徴をテキストで表すことができるので、これを必要に応じて画像データと共に送信することで、送信量を大幅に減少させることができる。このことは、モバイル端末での通信速度が、動画ファイルの受信には必ずしも十分でないことを考えれば有用である。   Thus, since the camera image text part can express the feature from the image data as text, the transmission amount can be greatly reduced by transmitting the feature together with the image data as necessary. This is useful in view of the fact that the communication speed at the mobile terminal is not always sufficient for receiving a moving image file.

[カメラ画像]
図8は、図6で例示した3台のカメラを用いた仮想空間内の風景を撮影した画像の例を示したものである。図8(a)は、カメラ100から撮影したユーザ目線の画像(または映像)である。また、図8(b)は、上空真上からの画像(映像)である。図8(c)は、斜め上空の鳥目線の画像(映像)である。これらの画像(映像)は必ずしも動画でなくても一定時間毎に撮影された静止画であってもよい。この複数の静止画を連続させて擬似的な動画のように見せることも可能だからである。もちろんユーザからの指示またはシナリオデータにより、送信する画像を特定のカメラの映像に選択したり、複数のカメラが撮影した画像を適時編集した編集画像を送信させるようにしてもよい。
[Camera image]
FIG. 8 shows an example of an image obtained by photographing a landscape in a virtual space using the three cameras illustrated in FIG. FIG. 8A shows an image (or video) of the user's line of sight photographed from the camera 100. FIG. 8B shows an image (video) from directly above the sky. FIG. 8C is an image (video) of a bird's eye view obliquely above. These images (videos) may not necessarily be moving images but may be still images taken at regular intervals. This is because it is possible to make a plurality of still images continue to look like a pseudo moving image. Of course, according to an instruction from the user or scenario data, an image to be transmitted may be selected as a video of a specific camera, or an edited image obtained by appropriately editing images taken by a plurality of cameras may be transmitted.

[想定場面]
図9は、1つの実施例におけるユーザの利用場面のイメージの一例を示したものである。行動画像生成部14が作成した動画ファイルを中心に、ユーザの携帯情報端末(ここでは携帯電話)に、仮想空間上でのユーザ(アバター)の記録された行動が携帯電話に表示される。このようにしてユーザは、仮想空間上で自分とは外見も年齢もまったく異なるアバターのイメージの画像を見ることができる。
[Assumed scene]
FIG. 9 shows an example of an image of a user's usage scene in one embodiment. The action recorded by the user (avatar) in the virtual space is displayed on the mobile phone on the user's mobile information terminal (here, the mobile phone), centering on the moving image file created by the action image generation unit 14. In this way, the user can see an image of an avatar image that is completely different from his / her appearance and age in the virtual space.

また、動画だけでなく、ユーザの行動記録を文章でも送信するために、行動記録データのテキスト情報の部分を要約するようにしてもよい。文章を要約する技術については、RSS(Rich Site Summary)技術等様々な公知技術を利用してもよい。このように、ユーザの行動情報を画像だけでなく、適時文字情報も送信できるので、モバイル端末の通信負荷を過剰にすることなく、ユーザの使用環境の場面場面に応じて、仮想空間サービスを自宅のパーソナル・コンピュータで使用する場合のように連続性を失うことなく利用できる。   Moreover, in order to transmit not only a moving picture but a user's action record also in text, you may make it summarize the text information part of action record data. As a technique for summarizing sentences, various known techniques such as an RSS (Rich Site Summary) technique may be used. In this way, the user's behavior information can be transmitted not only with images but also with timely text information, so that the virtual space service can be installed at home according to the scene of the user's usage environment without overloading the communication load of the mobile terminal. It can be used without losing continuity as in the case of using with a personal computer.

以上、本発明に係る実施形態について説明したが、本発明は上述した実施形態に限るものではない。また、本発明の実施形態に記載された効果は、本発明から生じる最も好適な効果を列挙したに過ぎず、本発明による効果は、本発明の実施形態に記載されたものに限定されるものではない。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not restricted to embodiment mentioned above. The effects described in the embodiments of the present invention are only the most preferable effects resulting from the present invention, and the effects of the present invention are limited to those described in the embodiments of the present invention. is not.

本発明の好適な実施形態の一例に係る仮想空間放送装置10の機能の概略を示す図である。It is a figure which shows the outline of the function of the virtual space broadcasting apparatus 10 which concerns on an example of suitable embodiment of this invention. 仮想空間放送装置10のハードウェア構成を示す図である。2 is a diagram illustrating a hardware configuration of a virtual space broadcasting device 10. FIG. 仮想空間放送送置10の処理フローを示す図である。It is a figure which shows the processing flow of the virtual space broadcasting transmission apparatus. 行動パターン(シナリオ)の概念的な具体例を示す図である。It is a figure which shows the conceptual specific example of an action pattern (scenario). 会話制御部15のより詳細な機能ブロックを示す図である。FIG. 3 is a diagram showing more detailed functional blocks of a conversation control unit 15. カメラ位置決定部13の概念を示す図である。It is a figure which shows the concept of the camera position determination part. オプションのカメラ画像テキスト部の機能ブロックを示す図である。It is a figure which shows the functional block of the optional camera image text part. 3台のカメラを用いた仮想空間内の風景を撮影した画像の例を示す図である。It is a figure which shows the example of the image which image | photographed the scenery in the virtual space using three cameras. ユーザの利用場面のイメージの一例を示す図である。It is a figure which shows an example of the image of a user's usage scene.

符号の説明Explanation of symbols

10 仮想空間放送装置
11 ユーザ指示受信部
12 アバター自動移動制御部
13 カメラ位置決定部
14 行動画像生成部
15 会話制御部
16 会話行動情報結合部
17 会話行動情報送信部
18 放送配信部
21 シナリオデータ
22 画像データ
30 携帯情報端末
40 仮想空間提供サーバ
50 他ユーザ端末
60 ブログサーバ
211 通信部
212 応答メッセージ生成部
213 応答メッセージキューイング部
214 記憶部
215 バッファ制御部
216 応答メッセージ提示部
217 アクティブ・キャッシュバッファ
218 インアクティブ・キャッシュバッファ
302 空間画像入力部
303 部分画像取得部
304 特徴情報抽出部
305 候補アイテム取得部
306 アイテム決定部
307 タイトル名決定部
308 タイトル名/アイテム名出力部
309 画像辞書DB
310 アイテム共起辞書DB
311 タイトル/アイテム相関辞書DB
312 空間画像情報
313 タイトル名/アイテム名情報
DESCRIPTION OF SYMBOLS 10 Virtual space broadcasting apparatus 11 User instruction | indication receiving part 12 Avatar automatic movement control part 13 Camera position determination part 14 Action image generation part 15 Conversation control part 16 Conversation action information coupling | bond part 17 Conversation action information transmission part 18 Broadcast delivery part 21 Scenario data 22 Image data 30 Mobile information terminal 40 Virtual space providing server 50 Other user terminal 60 Blog server 211 Communication unit 212 Response message generation unit 213 Response message queuing unit 214 Storage unit 215 Buffer control unit 216 Response message presentation unit 217 Active cache buffer 218 Inactive cache buffer 302 Spatial image input unit 303 Partial image acquisition unit 304 Feature information extraction unit 305 Candidate item acquisition unit 306 Item determination unit 307 Title name determination unit 308 Title name Item Name output unit 309 image dictionary DB
310 Item Co-occurrence Dictionary DB
311 Title / Item Correlation Dictionary DB
312 Spatial image information 313 Title name / item name information

Claims (8)

コンピュータ・ネットワークを利用した仮想空間における撮影画像を送信する仮想空間放送装置であって、
携帯情報端末からユーザの指示を受け付ける指示受信部と、
前記仮想空間内における前記ユーザの分身であるアバターを前記仮想空間内において予め定めた行動パターンによって移動させるアバター自動移動制御部と、
前記仮想空間内における任意の地点の画像を取得するための複数のカメラを前記ユーザの指示によって、前記仮想空間内の複数の位置に配置するカメラ位置決定部と、
前記複数のカメラによって撮影された画像を取得し、前記ユーザのアバターの行動記録として行動動画ファイルを作成する行動画像生成部と、
前記仮想空間内において遭遇した他のユーザのアバターとの会話に自動応答する会話制御部と、
前記行動動画ファイルを送信する放送配信部と、
を備えた仮想空間放送装置。
A virtual space broadcasting device that transmits a captured image in a virtual space using a computer network,
An instruction receiving unit that receives a user instruction from the portable information terminal;
An avatar automatic movement control unit for moving an avatar, which is a substitute of the user in the virtual space, according to a predetermined action pattern in the virtual space;
A camera position determination unit that arranges a plurality of cameras for acquiring images of arbitrary points in the virtual space at a plurality of positions in the virtual space according to the user's instruction;
An action image generation unit that acquires images taken by the plurality of cameras and creates an action video file as an action record of the user's avatar;
A conversation control unit that automatically responds to conversations with other users' avatars encountered in the virtual space;
A broadcast distribution unit for transmitting the behavior video file;
A virtual space broadcasting device comprising:
前記仮想空間内において遭遇した他のユーザのアバターとの会話において、自動応答する会話制御部と、
前記他のユーザのアバターとの会話の内容を前記ユーザのアバターの行動情報と結合する会話行動情報結合部と、
を更に備えた、請求項1に記載の仮想空間情報要約作成装置。
In a conversation with another user's avatar encountered in the virtual space, a conversation control unit that automatically responds,
A conversation behavior information combining unit that combines the content of the conversation with the other user's avatar with the behavior information of the user's avatar;
The virtual space information summary creation device according to claim 1, further comprising:
前記複数のカメラのうち少なくとも1つは前記アバターの目線位置に設置される、請求項1に記載の仮想空間放送装置。   The virtual space broadcasting apparatus according to claim 1, wherein at least one of the plurality of cameras is installed at a line of sight of the avatar. 前記ユーザの指示によって、前記複数のカメラの撮影の切り替えを可能とする、請求項1乃至請求項3に記載の仮想空間放送装置。   The virtual space broadcasting apparatus according to claim 1, wherein photographing of the plurality of cameras can be switched according to an instruction from the user. 前記ユーザの指示は、前記仮想空間内の所定の位置及び時間を予め定めたシナリオを基に行われる、請求項1に記載の仮想空間放送装置。   The virtual space broadcasting apparatus according to claim 1, wherein the user's instruction is performed based on a scenario in which a predetermined position and time in the virtual space are determined in advance. 前記撮影された動画ファイルの該当情報を検出し、前記他のユーザの端末に対して送信する会話行動情報送信部を更に備えた、請求項1に記載の仮想空間放送装置。   The virtual space broadcasting apparatus according to claim 1, further comprising a conversational behavior information transmitting unit that detects corresponding information of the captured moving image file and transmits the detected information to the terminal of the other user. 前記放送配信部は、前記撮影された動画ファイルを前記ユーザのブログを格納したブログサーバに送信する、請求項1に記載の仮想空間放送装置。   The virtual broadcast apparatus according to claim 1, wherein the broadcast distribution unit transmits the captured moving image file to a blog server that stores the user's blog. コンピュータ・ネットワークを利用した仮想空間における撮影画像を送信するためのコンピュータ・プログラムであって、
携帯情報端末からユーザの指示を受け付けるステップと、
前記仮想空間内における前記ユーザの分身であるアバターを前記仮想空間内において予め定めた行動パターンによって移動させるステップと、
前記仮想空間内における任意の地点の画像を取得するための複数のカメラを前記仮想空間内の複数の位置に配置するステップと、
前記複数のカメラによって撮影された画像を取得し、前記ユーザのアバターの行動記録として行動動画ファイルを作成するステップと、
前記仮想空間内において遭遇した他のユーザのアバターとの会話に自動応答するステップと、
前記会話の内容を前記ユーザのアバターの行動情報と結合するステップと、
前記行動動画ファイルを送信するステップと、
をコンピュータに実行させる、コンピュータ・プログラム。
A computer program for transmitting a captured image in a virtual space using a computer network,
Receiving a user instruction from the portable information terminal;
Moving an avatar that is a substitute of the user in the virtual space according to a predetermined action pattern in the virtual space;
Arranging a plurality of cameras for acquiring images of arbitrary points in the virtual space at a plurality of positions in the virtual space;
Acquiring images taken by the plurality of cameras, and creating an action video file as an action record of the user's avatar;
Automatically responding to conversations with other users' avatars encountered in the virtual space;
Combining the content of the conversation with action information of the user's avatar;
Transmitting the behavior video file;
A computer program that causes a computer to execute.
JP2007211887A 2007-08-15 2007-08-15 Virtual space broadcasting device Expired - Fee Related JP4625058B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007211887A JP4625058B2 (en) 2007-08-15 2007-08-15 Virtual space broadcasting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007211887A JP4625058B2 (en) 2007-08-15 2007-08-15 Virtual space broadcasting device

Publications (2)

Publication Number Publication Date
JP2009048303A JP2009048303A (en) 2009-03-05
JP4625058B2 true JP4625058B2 (en) 2011-02-02

Family

ID=40500477

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007211887A Expired - Fee Related JP4625058B2 (en) 2007-08-15 2007-08-15 Virtual space broadcasting device

Country Status (1)

Country Link
JP (1) JP4625058B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6836379B2 (en) * 2016-12-05 2021-03-03 株式会社コロプラ An information processing method, a device, and a program that causes a computer to execute the information processing method.
JP7115265B2 (en) 2018-11-30 2022-08-09 富士通株式会社 Dialogue control method, dialogue control program, dialogue control device, information presentation method and information presentation device
JP6721727B1 (en) * 2019-01-08 2020-07-15 ソフトバンク株式会社 Information processing apparatus control program, information processing apparatus control method, and information processing apparatus
JP2024079858A (en) * 2021-03-26 2024-06-12 株式会社KPMG Ignition Tokyo Virtual space × Digital twin × Serendipity

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10328416A (en) * 1997-05-28 1998-12-15 Sony Corp Providing medium, shared virtual space providing device and its method
JP2000040161A (en) * 1998-07-23 2000-02-08 Nippon Telegr & Teleph Corp <Ntt> Method and system for actualizing broadcast type content in three-dimensional shared virtual space and storage medium stored with broadcast type content actualizing program in three-dimensional virtual space
JP2001084209A (en) * 1999-09-16 2001-03-30 Nippon Telegr & Teleph Corp <Ntt> Method and device for recording virtual space history and recording medim with the method recorded therein
JP2004021606A (en) * 2002-06-17 2004-01-22 Nec Corp Internet service providing system using virtual space providing server

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10328416A (en) * 1997-05-28 1998-12-15 Sony Corp Providing medium, shared virtual space providing device and its method
JP2000040161A (en) * 1998-07-23 2000-02-08 Nippon Telegr & Teleph Corp <Ntt> Method and system for actualizing broadcast type content in three-dimensional shared virtual space and storage medium stored with broadcast type content actualizing program in three-dimensional virtual space
JP2001084209A (en) * 1999-09-16 2001-03-30 Nippon Telegr & Teleph Corp <Ntt> Method and device for recording virtual space history and recording medim with the method recorded therein
JP2004021606A (en) * 2002-06-17 2004-01-22 Nec Corp Internet service providing system using virtual space providing server

Also Published As

Publication number Publication date
JP2009048303A (en) 2009-03-05

Similar Documents

Publication Publication Date Title
US10659499B2 (en) Providing selectable content items in communications
JP6510536B2 (en) Method and apparatus for processing presentation information in instant communication
CN104205209B (en) Playback controlling apparatus, playback controls method
JP2023539820A (en) Interactive information processing methods, devices, equipment, and media
US20140278403A1 (en) Systems and methods for interactive synthetic character dialogue
JP2015534154A (en) Augmented reality sample generation
CN109474843A (en) The method of speech control terminal, client, server
CN103430217A (en) Input support device, input support method, and recording medium
KR101123370B1 (en) service method and apparatus for object-based contents for portable device
JP4625057B2 (en) Virtual space information summary creation device
JP4625058B2 (en) Virtual space broadcasting device
Bednarek The television title sequence: A visual analysis of Flight of the Conchords
US20230027035A1 (en) Automated narrative production system and script production method with real-time interactive characters
KR102086780B1 (en) Method, apparatus and computer program for generating cartoon data
US11532111B1 (en) Systems and methods for generating comic books from video and images
JP6070584B2 (en) Information processing apparatus, information processing method, and program
KR101564659B1 (en) System and method for adding caption using sound effects
JP3987483B2 (en) Multimedia content distribution system
EP4395242A1 (en) Artificial intelligence social facilitator engine
KR102361883B1 (en) server for providing user-customized character goods on online platform and server therefor
US20220124385A1 (en) Systems and methods for generating digital video content from non-video content
WO2023239804A1 (en) Voice chat translation
JP5860575B1 (en) Voice recording program, voice recording terminal device, and voice recording system
Pachano Gamifying History: The Role of Augmented Reality in Increasing Interest in Cultural Heritage Among Young Adults
JP2019185242A (en) Automatic music selection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090331

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20101026

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20101104

R150 Certificate of patent or registration of utility model

Ref document number: 4625058

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131112

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

LAPS Cancellation because of no payment of annual fees
R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350