JP7279646B2 - Information processing device, information processing method and program - Google Patents

Information processing device, information processing method and program Download PDF

Info

Publication number
JP7279646B2
JP7279646B2 JP2019570313A JP2019570313A JP7279646B2 JP 7279646 B2 JP7279646 B2 JP 7279646B2 JP 2019570313 A JP2019570313 A JP 2019570313A JP 2019570313 A JP2019570313 A JP 2019570313A JP 7279646 B2 JP7279646 B2 JP 7279646B2
Authority
JP
Japan
Prior art keywords
user
information
control unit
communication
users
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019570313A
Other languages
Japanese (ja)
Other versions
JPWO2019155735A1 (en
Inventor
慧 高橋
孝悌 清水
亮平 安田
亜由美 中川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2019155735A1 publication Critical patent/JPWO2019155735A1/en
Application granted granted Critical
Publication of JP7279646B2 publication Critical patent/JP7279646B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems
    • H04N7/157Conference systems defining a virtual conference space and using avatars or agents
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/10Architectures or entities
    • H04L65/1059End-user terminal functionalities specially adapted for real-time communication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L65/00Network arrangements, protocols or services for supporting real-time applications in data packet communication
    • H04L65/1066Session management
    • H04L65/1083In-session procedures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/52Network services specially adapted for the location of the user terminal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/024Multi-user, collaborative environment

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and a program.

インターネットのようなコンピュータ・ネットワーク上で構築された所定の空間的広がりを持つ仮想世界において、複数のユーザが同時に参加してリアルタイム・コミュニケーションを行うことができる技術の開発が進められている。 2. Description of the Related Art In a virtual world with a predetermined spatial extent built on a computer network such as the Internet, technology is being developed that allows multiple users to participate simultaneously and perform real-time communication.

例えば、以下の特許文献1には、仮想空間にログインしたユーザのアバタが利用可能な仮想携帯電話を用いて呼出動作を行うことにより、他のユーザとコミュニケーションを行うことができる会話支援システムが開示されている。 For example, Patent Literature 1 below discloses a conversation support system that enables communication with other users by performing a calling operation using a virtual mobile phone that can be used by the user's avatar who has logged into the virtual space. It is

特開2001-154966号公報JP-A-2001-154966

しかし、特許文献1に開示されているような会話支援システムでは、コミュニケーション中のユーザのアバタが仮想空間からログアウトした場合、連続して実空間に存在するそのユーザとコミュニケーションを行うことはできないため、ユーザ間のコミュニケーション空間の切り替えにはなお改善の余地がある。 However, in the conversation support system disclosed in Patent Document 1, when the user's avatar who is in communication logs out of the virtual space, it is not possible to continuously communicate with the user existing in the real space. There is still room for improvement in switching communication spaces between users.

そこで、本開示では、上記事情に鑑みて、ユーザ間のコミュニケーションの場を仮想空間と実空間の間でスムーズに切り替えることが可能な、情報処理装置、情報処理方法及びプログラムを提案する。 Therefore, in view of the above circumstances, the present disclosure proposes an information processing device, an information processing method, and a program that can smoothly switch the place of communication between users between the virtual space and the real space.

本開示によれば、実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間上において、ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、実空間におけるユーザの位置に関する位置情報及びユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、位置情報及び属性情報の少なくともいずれか一方に応じて、実空間で実施されるコミュニケーションと、仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、を備える情報処理装置が提供される。 According to the present disclosure, in a virtual space where a virtual image corresponding to a real image of a user existing in the real space is generated, a communication control unit that controls communication between users via the virtual image of the user. a user information acquisition unit that acquires at a predetermined timing attribute information including at least position information about the user's position in real space and information about the degree of intimacy between users; and at least one of the position information and the attribute information. An information processing apparatus is provided that includes a switching control unit that controls switching between communication performed in a real space and communication performed in a virtual space.

また、本開示によれば、実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間上において、ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御することと、実空間におけるユーザの位置に関する位置関連情報及びユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得することと、位置情報及び属性情報の少なくともいずれか一方に応じて、実空間で実施されるコミュニケーションと、仮想空間で実施されるコミュニケーションとの切り替えを制御すること、を含む情報処理方法が提供される。 In addition, according to the present disclosure, in a virtual space where a virtual image corresponding to a real image of a user existing in the real space is generated, communication between users can be controlled via the virtual image of the user. and acquiring, at a predetermined timing, attribute information including at least position-related information about the user's position in the real space and information about the degree of intimacy between the users; An information processing method is provided that includes controlling switching between communication performed in a real space and communication performed in a virtual space.

また、本開示によれば、コンピュータに、実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間上において、ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部、実空間におけるユーザの位置に関する位置関連情報及びユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得する情報取得部、位置情報及び属性情報の少なくともいずれか一方に応じて、実空間で実施されるコミュニケーションと、仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部、として機能させるためのプログラムが提供される。 Further, according to the present disclosure, in a virtual space in which a computer generates a virtual image corresponding to a real image of a user existing in the real space, communication is performed between users via the virtual image of the user. a communication control unit that controls; an information acquisition unit that acquires at a predetermined timing attribute information including at least position-related information about the user's position in real space and information about the degree of intimacy between users; and at least one of the position information and the attribute information. According to one, a program is provided for functioning as a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space.

本開示によれば、実空間におけるユーザの位置に関する位置情報及びユーザ間の親密度に関する情報を少なくとも含む属性情報に応じて、仮想空間に出力させる内容が制御される。 According to the present disclosure, the content to be output to the virtual space is controlled according to the attribute information including at least the position information regarding the user's position in the real space and the information regarding the degree of intimacy between the users.

以上説明したように本開示によれば、コミュニケーション空間を仮想空間と実空間の間でスムーズに切り替えることが可能となる。 As described above, according to the present disclosure, it is possible to smoothly switch the communication space between the virtual space and the real space.

なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は、上記の効果に代えて、本明細書に示されたいずれかの効果、又は、本明細書から把握され得る他の効果が奏されてもよい。 In addition, the above effects are not necessarily limited, and together with the above effects or instead of the above effects, any of the effects shown in this specification, or other effects that can be grasped from this specification effect may be exhibited.

本開示の実施形態に係る情報処理装置の構成の一例を示すブロック図である。1 is a block diagram showing an example of the configuration of an information processing device according to an embodiment of the present disclosure; FIG. 同実施形態に係る情報処理システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the information processing system which concerns on the same embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of an information processor concerning the embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of an information processor concerning the embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of an information processor concerning the embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of an information processor concerning the embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of an information processor concerning the embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of an information processor concerning the embodiment. 同実施形態に係る情報処理装置の動作を説明するための説明図である。It is an explanatory view for explaining operation of an information processor concerning the embodiment. 同実施形態に係る情報処理装置の動作の流れの一例を説明するための流れ図である。It is a flow chart for explaining an example of the flow of operation of the information processing apparatus according to the embodiment. 同実施形態に係る情報処理装置の動作の流れの一例を説明するための流れ図である。It is a flow chart for explaining an example of the flow of operation of the information processing apparatus according to the embodiment. 同実施形態に係る情報処理装置のハードウェア構成例を示すブロック図である。It is a block diagram which shows the hardware structural example of the information processing apparatus which concerns on the same embodiment.

以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。 Preferred embodiments of the present disclosure will be described in detail below with reference to the accompanying drawings. In the present specification and drawings, constituent elements having substantially the same functional configuration are denoted by the same reference numerals, thereby omitting redundant description.

また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、同一符号のみを付する。 In addition, in this specification and drawings, a plurality of components having substantially the same functional configuration may be distinguished by attaching different alphabets after the same reference numerals. However, when there is no particular need to distinguish between a plurality of constituent elements having substantially the same functional configuration, only the same reference numerals are used.

なお、説明は以下の順序で行うものとする。
<<構成>>
<<動作>>
<動作例1>
<動作例2>
<<ハードウェア構成>>
<<結び>>
Note that the description will be given in the following order.
<<Configuration>>
<<Operation>>
<Operation example 1>
<Operation example 2>
<<Hardware configuration>>
<< Conclusion >>

<<構成>>
まず、図1及び図2を参照して本開示の一実施形態に係る情報処理装置10の構成を説明する。図1は、本開示の一実施形態に係る情報処理装置10の構成例を示すブロック図である。図2は、本開示の一実施形態に係る情報処理システム5の構成例を示すブロック図である。
<<Configuration>>
First, the configuration of an information processing apparatus 10 according to an embodiment of the present disclosure will be described with reference to FIGS. 1 and 2. FIG. FIG. 1 is a block diagram showing a configuration example of an information processing device 10 according to an embodiment of the present disclosure. FIG. 2 is a block diagram showing a configuration example of an information processing system 5 according to an embodiment of the present disclosure.

本実施形態に係る情報処理装置10は、複数のユーザが相互に通信を行い、互いに相手の姿の映像やアバタを表示画面に表示しながらコミュニケーションを行う装置である。本実施形態に係る情報処理システム5では、図2に示すように、ネットワーク20を介して、複数の情報処理装置10が相互に接続され、仮想空間での相互コミュニケーションが実施される。本実施形態に係る情報処理装置10は、実空間に存在するユーザの実像に対応する仮想像を仮想空間上に生成し、仮想像を介してユーザ間のコミュニケーションを実現する装置である。本実施形態に係る情報処理装置10は、ユーザが移動しながら使用可能な構成の装置であり、例えばメガネ型ディスプレイやヘッドマウントディスプレイ(Head Mount Display:HMD)等のように、ユーザが装着して使用する装置であってもよく、スマートフォン等のような表示装置を備える携帯可能な通信機器であってもよい。 The information processing apparatus 10 according to the present embodiment is an apparatus in which a plurality of users communicate with each other and communicate with each other while displaying images and avatars of each other on a display screen. In the information processing system 5 according to the present embodiment, as shown in FIG. 2, a plurality of information processing apparatuses 10 are interconnected via a network 20 to perform mutual communication in virtual space. The information processing apparatus 10 according to the present embodiment is an apparatus that generates a virtual image in a virtual space corresponding to a real image of a user existing in the real space, and realizes communication between users through the virtual image. The information processing device 10 according to the present embodiment is a device that can be used while the user is moving, and is worn by the user, such as a glasses type display or a head mounted display (HMD). It may be a device to be used, or a portable communication device having a display device such as a smartphone.

ネットワーク20は、例えばインターネット等のような公知の情報通信技術を用いて実現され、複数の情報処理装置10を相互に接続することが可能であり、同時に複数のユーザがコミュニケーションを実施することを可能とする。 The network 20 is implemented using a known information communication technology such as the Internet, and is capable of interconnecting a plurality of information processing apparatuses 10 and allowing a plurality of users to communicate at the same time. and

本実施形態に係る情報処理装置10は、図1に示すように、ユーザに関するユーザ情報や、ユーザの動作に関する動作情報、ユーザが発する音声に関する音声情報等の情報を取得する情報取得部110と、情報取得部110により取得された情報に応じて、コミュニケーションが実施される空間を切り替える切替制御部120と、ユーザ間で相互に実施されるコミュニケーションの接続状態等のコミュニケーションにおける各種機能を制御するコミュニケーション制御部130と、を少なくとも備える。更に、本実施形態に係る情報処理装置10は、認識判断部140と、通信制御部150と、記憶部160とを備えることが好ましい。 As shown in FIG. 1, the information processing apparatus 10 according to the present embodiment includes an information acquisition unit 110 that acquires information such as user information about a user, motion information about a user's action, voice information about a voice uttered by a user, A switching control unit 120 that switches the space in which communication is carried out according to the information acquired by the information acquisition unit 110, and a communication control that controls various functions in communication such as the connection state of communication mutually carried out between users. and at least a portion 130 . Furthermore, the information processing apparatus 10 according to this embodiment preferably includes a recognition determination section 140 , a communication control section 150 and a storage section 160 .

[情報取得部110]
本実施形態に係る情報処理装置10は、情報取得部110を備える。情報取得部110は、ユーザが実施しているコミュニケーションの空間を円滑に切り替えるための情報を取得する。この情報取得部110は、ユーザ情報取得部112を少なくとも備え、動作情報取得部114と、音声情報取得部116とを更に有していてもよい。取得する情報内容に応じて、ユーザ情報取得部112と、動作情報取得部114と、音声情報取得部116の少なくともいずれかが機能することで、ユーザが実施しているコミュニケーションの空間を円滑に切り替えるための各種の情報が取得される。
[Information acquisition unit 110]
The information processing apparatus 10 according to this embodiment includes an information acquisition unit 110 . The information acquisition unit 110 acquires information for smoothly switching the communication space that the user is implementing. The information acquisition section 110 includes at least a user information acquisition section 112 , and may further include a motion information acquisition section 114 and a voice information acquisition section 116 . At least one of the user information acquisition unit 112, the motion information acquisition unit 114, and the voice information acquisition unit 116 functions according to the content of the information to be acquired, thereby smoothly switching the space for communication performed by the user. Various kinds of information for

(ユーザ情報取得部112)
ユーザ情報取得部112は、実空間におけるユーザの位置に関する位置情報及びユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得する。詳細には、ユーザ情報取得部112は、そのユーザ情報取得部112が備えられる情報処理装置10の位置情報を取得してもよい。また、ユーザ情報取得部112は、後述する通信制御部150を介して、他のユーザの位置情報及び属性情報を取得する機能を有してもよい。
(User information acquisition unit 112)
The user information acquisition unit 112 acquires, at a predetermined timing, attribute information including at least position information about the user's position in the real space and information about the degree of intimacy between users. Specifically, the user information acquisition unit 112 may acquire location information of the information processing device 10 in which the user information acquisition unit 112 is provided. The user information acquisition unit 112 may also have a function of acquiring position information and attribute information of other users via the communication control unit 150, which will be described later.

ユーザ情報取得部112は、公知の位置情報取得システムを利用して、ユーザの位置情報を取得してもよい。公知の位置情報取得システムとして、例えば、GNSS(Global Navigation Satellite Sysytem:全球測位衛星システム)や、屋内測位システム、モバイルネットワークやWi-Fi(登録商標)の基地局測位システム等の位置取得システムが利用されてもよい。また、情報処理装置10には、例えば、ビーコンのような位置検知に用いられるタグが付与されていてもよく、ユーザ情報取得部112は、このタグに関する情報を位置情報として受信してもよい。さらに、情報処理装置10は、ユーザの方向の同定が可能な通信機能を有していてもよく、ユーザ情報取得部112は、このユーザの方向に関する情報を位置情報として取得してもよい。 The user information acquisition unit 112 may acquire user position information using a known position information acquisition system. Known position information acquisition systems include, for example, GNSS (Global Navigation Satellite System), indoor positioning systems, mobile networks, Wi-Fi (registered trademark) base station positioning systems, and other position acquisition systems. may be Further, the information processing apparatus 10 may be provided with a tag such as a beacon that is used for position detection, and the user information acquisition unit 112 may receive information regarding this tag as position information. Furthermore, the information processing apparatus 10 may have a communication function capable of identifying the user's direction, and the user information acquisition unit 112 may acquire information regarding this user's direction as position information.

また、先だって説明したように、他のユーザの位置情報は、通信制御部150を介して他のユーザから取得されてもよいが、他のユーザの位置情報の取得には、他の公知の位置情報取得技術が利用されてもよい。例えば、本実施形態に係る情報処理装置10は、実空間の環境画像を撮像する撮像装置を備えていてもよく、この撮像装置により生成された撮像画像を利用して、他のユーザの位置情報を取得してもよい。他のユーザの位置情報の取得には、例えば、特開2010-16743号公報、特許第5869883号公報、特開2017-182739号公報等に開示されている、各種の位置推定技術を適宜利用することができる。情報処理装置10に備えられる撮像装置は、例えば、デジタルスチルカメラやデジタルビデオカメラ等のような、撮像機能を有する公知の撮像装置であってもよい。また、ユーザ情報取得部112は、実空間上に設けられた外部カメラ等で撮像された他のユーザの画像に基づいて取得される他のユーザの位置情報を、公知のネットワーク等を介することで取得してもよい。 In addition, as described above, other users' location information may be acquired from other users via the communication control unit 150, but acquisition of other users' location information may involve other known location information. Information acquisition techniques may be utilized. For example, the information processing apparatus 10 according to the present embodiment may include an imaging device that captures an environment image of a real space, and uses the captured image generated by this imaging device to obtain location information of other users. may be obtained. Various position estimation techniques disclosed in Japanese Unexamined Patent Application Publication No. 2010-16743, Japanese Patent No. 5869883, Japanese Unexamined Patent Application Publication No. 2017-182739, etc., for example, are appropriately used to acquire location information of other users. be able to. The imaging device provided in the information processing apparatus 10 may be, for example, a known imaging device having an imaging function, such as a digital still camera or a digital video camera. In addition, the user information acquisition unit 112 acquires location information of other users based on images of the other users captured by an external camera or the like provided in real space, via a known network or the like. may be obtained.

ユーザ情報取得部112は、コミュニケーションを実施しているユーザ間の離隔距離が大きいときは、GNSSや屋内測位システムでユーザ相互の大まかな位置情報を取得し、離隔距離が小さくなり、撮像装置によりユーザが撮像されたときは、画像処理にて他のユーザの位置情報を取得してもよい。 The user information acquisition unit 112 acquires rough position information between the users using GNSS or an indoor positioning system when the separation distance between the users who are communicating is large. is captured, the position information of the other user may be acquired by image processing.

また、位置情報には、ユーザ間の離隔距離等、複数のユーザの位置に基づいて取得される二次的な情報も含まれる。 The location information also includes secondary information obtained based on the locations of multiple users, such as distances between users.

また、ユーザ情報取得部112が取得する属性情報の一つである、ユーザ間の親密度に関する情報には、例えば、本実施形態に係る情報処理装置10を利用して実施されたコミュニケーションの頻度、時間や会話内容等の情報や、記憶部160などに格納されたコンタクトリストにおけるユーザ情報の有無などが含まれる。このコミュニケーションの頻度、時間や会話内容等の情報は、情報処理装置10に備えられる記憶部160に履歴情報として保存されてもよい。 In addition, the information on the degree of intimacy between users, which is one of the attribute information acquired by the user information acquisition unit 112, includes, for example, the frequency of communication performed using the information processing apparatus 10 according to the present embodiment, Information such as time and content of conversation, presence/absence of user information in the contact list stored in storage unit 160, and the like are included. Information such as the communication frequency, time, and conversation content may be stored as history information in the storage unit 160 provided in the information processing apparatus 10 .

また、属性情報には、本実施形態に係る情報処理装置10を利用している間に取得される、ユーザの表情、ジェスチャーや声質等の非言語的なコミュニケーション情報(以降、単に「非言語コミュニケーション情報」と略記する。)が含まれてもよい。ユーザ情報取得部112の機能の一部は、例えば、既に説明したような撮像装置によって実現されてもよい。使用される撮像装置は、本実施形態に係る情報処理装置10のユーザが発する音声を収音する機能を有するものであることが好ましく、このような撮像装置により、非言語コミュニケーション情報は取得されてもよい。更に、非言語コミュニケーション情報に応じたユーザの精神状態が予め設定されることで、ユーザ情報取得部112は、ユーザの精神状態に関する精神状態情報を取得することができる。この精神状態情報も属性情報に含まれる。なお、精神状態情報は、情報処理装置10が機械学習することで、非言語コミュニケーション情報から自動的に生成されてもよい。また、本実施形態に係る情報処理装置10には、例えば、ユーザの属性に関するタグが付与されていてもよく、ユーザ情報取得部112は、このタグに関する情報を属性情報として取得してもよい。 In addition, the attribute information includes non-verbal communication information such as user's facial expressions, gestures, and voice quality (hereinafter simply referred to as "non-verbal communication abbreviated as "information".) may be included. A part of the functions of the user information acquisition unit 112 may be implemented by, for example, an imaging device as already described. The imaging device used preferably has a function of picking up the voice uttered by the user of the information processing device 10 according to the present embodiment, and nonverbal communication information is acquired by such an imaging device. good too. Furthermore, by presetting the user's mental state according to the non-verbal communication information, the user information acquisition unit 112 can acquire mental state information regarding the user's mental state. This mental state information is also included in the attribute information. The mental state information may be automatically generated from the non-verbal communication information through machine learning by the information processing device 10 . For example, the information processing apparatus 10 according to the present embodiment may be given a tag related to a user's attribute, and the user information acquisition unit 112 may acquire information related to this tag as attribute information.

先だって説明したように、ユーザ情報取得部112は、他のユーザの属性情報を、通信制御部150を介して取得してもよい。さらに、ユーザ情報取得部112は、上記のように、情報処理装置10に別途備えられる撮像装置によって取得されてもよいし、実空間上に設けられた撮像装置により取得された画像や音声によって取得されてもよい。 As described above, the user information acquisition section 112 may acquire attribute information of other users via the communication control section 150 . Furthermore, as described above, the user information acquisition unit 112 may be acquired by an imaging device separately provided in the information processing device 10, or by an image or sound acquired by an imaging device provided in the real space. may be

ユーザ情報取得部112は、ユーザの位置情報及び属性情報並びに他のユーザの位置情報及び属性情報を、所定のタイミングで取得する。ユーザ情報取得部112は、例えば、位置情報及び属性情報を随時取得してもよいし、ユーザが予め設定したタイミングで取得してもよい。また、ユーザ情報取得部112は、位置情報及び属性情報を後述する切替制御部120及びコミュニケーション制御部130の少なくともいずれかに随時送信してもよいし、予め設定したタイミングで送信してもよい。 The user information acquisition unit 112 acquires position information and attribute information of a user and position information and attribute information of other users at a predetermined timing. For example, the user information acquisition unit 112 may acquire the position information and the attribute information at any time, or at a timing preset by the user. Also, the user information acquisition unit 112 may transmit the position information and the attribute information to at least one of the switching control unit 120 and the communication control unit 130, which will be described later, at any time, or may transmit the information at a preset timing.

(動作情報取得部114)
動作情報取得部114は、ユーザの身振りや手振り等の動作に関する動作情報を取得する。動作情報取得部114で取得される動作情報は、後述する切替制御部120に送信され、ユーザ間で実施されるコミュニケーションの空間を切り替えるトリガーの一種として用いられてもよい。また、この動作情報は、複数のユーザの中から通信を接続するユーザを選択してコミュニケーションを開始する際のトリガーとして用いられてもよい。
(Motion information acquisition unit 114)
The motion information acquisition unit 114 acquires motion information related to motions such as gestures and hand movements of the user. The motion information acquired by the motion information acquisition unit 114 may be transmitted to the switching control unit 120, which will be described later, and used as a kind of trigger for switching spaces for communication between users. Further, this operation information may be used as a trigger when selecting a user to connect communication from among a plurality of users and starting communication.

動作情報取得部114の機能は、例えば上記のような撮像機能を有する公知の撮像装置によって実現されてもよい。より詳細には、動作情報の取得には、例えば、公知のジェスチャー認識技術を利用することができ、例えば、特開2013-205983号公報等に開示されている技術を適宜利用することができる。 The function of the motion information acquisition unit 114 may be realized by, for example, a known imaging device having the imaging function as described above. More specifically, to acquire the motion information, for example, a known gesture recognition technology can be used, and for example, the technology disclosed in Japanese Unexamined Patent Application Publication No. 2013-205983 can be used as appropriate.

(音声情報取得部116)
音声情報取得部116は、ユーザが発する音声に関する音声情報を取得する。音声情報取得部116で取得された音声情報は、後述するコミュニケーション制御部130を介して、他のユーザに提供されてもよい。また、音声情報取得部116は、公知の音声認識技術を利用して音声情報を解析し、その音声情報の内容を認識する音声認識をすることで音声認識情報を取得してもよい。音声情報取得部116で取得された音声情報は、後述する切替制御部120に送信され、ユーザ間で実施されるコミュニケーションの空間を切り替えるトリガーの一種として用いられてもよい。音声情報取得部116の機能は、収音マイク等の音声収音装置により実現されてもよいし、情報処理装置10に別途設けられた撮像装置に備えられた収音装置によって実現されてもよい。また、音声情報取得部116は、情報処理装置10の周辺で発生する音声を取得してもよい。
(Voice information acquisition unit 116)
The voice information acquisition unit 116 acquires voice information related to the voice uttered by the user. The voice information acquired by the voice information acquisition unit 116 may be provided to other users via the communication control unit 130, which will be described later. Further, the voice information acquisition unit 116 may acquire voice recognition information by analyzing voice information using a known voice recognition technology and recognizing the contents of the voice information. The voice information acquired by the voice information acquisition unit 116 may be transmitted to the switching control unit 120, which will be described later, and used as a kind of trigger for switching spaces for communication between users. The function of the audio information acquisition unit 116 may be realized by a sound collecting device such as a sound collecting microphone, or may be realized by a sound collecting device provided in an imaging device separately provided in the information processing device 10. . Further, the voice information acquisition unit 116 may acquire voices generated around the information processing device 10 .

[切替制御部120]
本実施形態に係る情報処理装置10は、切替制御部120を備える。切替制御部120は、情報取得部110から送信された位置情報及び属性情報の少なくともいずれか一方に応じて、実空間上で実施されるコミュニケーションと仮想空間で実施されるコミュニケーションとの切り替えを制御する。切替制御部120は、例えば、実空間上でコミュニケーションを実施している複数のユーザ間の離隔距離が所定の閾値以上となったときに、そのユーザ間の通信を接続し、仮想空間上でのコミュニケーションを実施可能としてもよい。切替制御部120は、ユーザ間の離隔距離と時間情報とに応じてコミュニケーション空間を切り替えることができる。例えば、ユーザ間の離隔距離が所定の閾値以上となった場合でも、その離隔距離が所定の閾値以上である状態が維持される時間が、所定の時間より短い場合は、実空間でのコミュニケーションが維持されてもよい。また、例えば、切替制御部120は、仮想空間上でコミュニケーションを実施している複数のユーザ間の離隔距離が所定の閾値以下となったときに、ユーザ間の通信の接続を解除し、実空間上でのコミュニケーションを実施可能としてもよい。
[Switching control unit 120]
The information processing apparatus 10 according to this embodiment includes a switching control unit 120 . The switching control unit 120 controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information transmitted from the information acquisition unit 110. . For example, when the separation distance between a plurality of users communicating in the real space becomes equal to or greater than a predetermined threshold, the switching control unit 120 connects the communication between the users and enables communication in the virtual space. Communication may be enabled. The switching control unit 120 can switch the communication space according to the separation distance between users and time information. For example, even if the separation distance between users is equal to or greater than a predetermined threshold, if the time period during which the separation distance is equal to or greater than the predetermined threshold is shorter than the predetermined time, communication in real space may not be possible. may be maintained. Further, for example, when the separation distance between a plurality of users communicating in the virtual space becomes equal to or less than a predetermined threshold, the switching control unit 120 disconnects the communication between the users, It may be possible to perform communication on the

また、切替制御部120は、属性情報の一つであるユーザ間の親密度に応じて、コミュニケーション空間を切り替えることができる。例えば、情報処理装置10を利用して実施された特定のユーザ間のコミュニケーションの頻度や時間が所定の頻度もしくは時間以上である場合に、コミュニケーション空間を実空間から仮想空間に切り替えてもよい。 In addition, the switching control unit 120 can switch the communication space according to the degree of intimacy between users, which is one piece of attribute information. For example, when the frequency or duration of communication between specific users using the information processing device 10 is equal to or greater than a predetermined frequency or duration, the communication space may be switched from the real space to the virtual space.

切替制御部120は、更に、動作情報取得部124で取得された動作情報に応じて、ユーザ間のネットワーク接続を確立させ、ユーザ間で実施されるコミュニケーション空間を実空間から仮想空間へ切り替えてもよい。詳細には、動作情報に応じた切り替えに関する制御内容が切替制御部120に予め設定され、切替制御部120は、取得された動作情報に応じてコミュニケーション空間を切り替えることができる。例えば、実空間でコミュニケーションを実施しているユーザのいずれかが、その場における別れを意図する動作(例えば、手を振るなどの動作)を行った場合、切替制御部120は、動作情報取得部114から取得した動作情報に基づき、コミュニケーション空間を実空間から仮想空間に切り替えてもよい。このように、コミュニケーション空間が実空間から仮想空間に切り替えられることで、ユーザは、途切れることなく自然に会話を継続することが可能となる。なお、情報処理装置10が、機械学習することで、ユーザの動作意図と動作情報とが関連付けられてもよく、切替制御部120は、その動作情報に基づいて、コミュニケーション空間を実空間から仮想空間に切り替えてもよい。 The switching control unit 120 further establishes a network connection between users according to the motion information acquired by the motion information acquisition unit 124, and switches the communication space between the users from the real space to the virtual space. good. More specifically, the switching control unit 120 is set in advance with control details related to switching according to the motion information, and the switching control unit 120 can switch the communication space according to the acquired motion information. For example, when any of the users who are communicating in the real space performs an action intended to break up on the spot (for example, an action such as waving), the switching control unit 120 performs the action information acquisition unit Based on the motion information acquired from 114, the communication space may be switched from the real space to the virtual space. By switching the communication space from the real space to the virtual space in this way, the user can naturally continue the conversation without interruption. Note that the information processing apparatus 10 may perform machine learning to associate the user's action intention with the action information, and the switching control unit 120 changes the communication space from the real space to the virtual space based on the action information. You can switch to

切替制御部120は、更に、音声情報取得部116により取得された音声情報に応じてユーザ間のネットワーク接続を確立させ、コミュニケーション空間を実空間から仮想空間へ切り替えてもよい。詳細には、音声情報取得部116から取得した音声認識情報に応じた切替に関する制御内容が予め設定され、切替制御部120は、音声認識情報に応じてコミュニケーション空間を切り替えることができる。具体的には、実空間でコミュニケーションを実施している複数のユーザのいずれかの音声情報取得部116が、その場における別れの挨拶等の所定の音声情報を取得し、その音声情報の内容を解析してその音声情報に対応する音声認識情報を取得する。切替制御部120は、音声情報取得部116から取得したその音声認識情報に基づいて、コミュニケーション空間を実空間から仮想空間に切り替えてもよい。同様に、音声情報取得部116が所定の音声情報を取得した場合に、切替制御部120は、コミュニケーション空間を仮想空間から実空間に切り替えてもよい。 The switching control unit 120 may further establish a network connection between users according to the voice information acquired by the voice information acquisition unit 116, and switch the communication space from the real space to the virtual space. More specifically, control details regarding switching are set in advance according to the voice recognition information acquired from the voice information acquisition unit 116, and the switching control unit 120 can switch the communication space according to the voice recognition information. Specifically, the voice information acquisition unit 116 of one of a plurality of users communicating in real space acquires predetermined voice information such as a farewell greeting on the spot, and the content of the voice information is obtained. It analyzes and acquires the speech recognition information corresponding to the speech information. The switching control section 120 may switch the communication space from the real space to the virtual space based on the speech recognition information acquired from the speech information acquisition section 116 . Similarly, when voice information acquisition section 116 acquires predetermined voice information, switching control section 120 may switch the communication space from the virtual space to the real space.

切替制御部120は、更に、動作情報取得部114により取得された動作情報に応じて、複数のユーザの中から、他のユーザの少なくとも1人を選択してコミュニケーション空間を実空間から仮想空間に切り替えてもよい。具体的には、実空間でコミュニケーションを実施している複数のユーザの仮想像が、仮想空間上に表示されており、仮想像を選択する動作に相当する動作情報を切替制御部120は受信した場合、切替制御部120は、その動作情報の対象となる他のユーザと実施されるコミュニケーションを実空間から仮想空間に切り替えてもよい。 The switching control unit 120 further selects at least one other user from among the plurality of users according to the motion information acquired by the motion information acquisition unit 114, and changes the communication space from the real space to the virtual space. You can switch. Specifically, virtual images of a plurality of users communicating in real space are displayed in the virtual space, and switching control unit 120 receives action information corresponding to the action of selecting a virtual image. In this case, the switching control unit 120 may switch the communication performed with the other user who is the target of the motion information from the real space to the virtual space.

[コミュニケーション制御部130]
本実施形態に係る情報処理装置10は、コミュニケーション制御部130を備える。コミュニケーション制御部130は、実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間上において、ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションの接続状態をはじめ、コミュニケーションにおける各種の機能を統括的に制御する。コミュニケーション制御部130は、例えば、情報処理装置10に備えられるディスプレイにコミュニケーション相手の映像やアバタを表示させながら、ユーザ同士の会話を可能にする機能を有する。また、コミュニケーション制御部130は、情報取得部110で取得される、ユーザ情報、動作情報や音声情報によっては、コミュニケーション空間を仮想空間に切り替えることなく、通信を終了してもよい。
[Communication control unit 130]
The information processing device 10 according to this embodiment includes a communication control unit 130 . The communication control unit 130 controls the connection state of communication mutually implemented between users via the virtual image of the user in the virtual space where the virtual image corresponding to the real image of the user existing in the real space is generated, Overall control of various functions in communication. The communication control unit 130 has a function of allowing users to have a conversation while displaying an image or an avatar of a communication partner on a display provided in the information processing apparatus 10, for example. Further, communication control section 130 may end communication without switching the communication space to the virtual space depending on the user information, motion information, and voice information acquired by information acquisition section 110 .

コミュニケーション制御部130は、情報取得部110により取得される各種の情報や、認識判断部140により取得される、実空間におけるコミュニケーション相手の実像の認識確認情報を含むユーザ認識情報等に応じて、出力内容を制御する出力制御部132を備える。 The communication control unit 130 outputs according to various information acquired by the information acquisition unit 110 and user recognition information including recognition confirmation information of the real image of the communication partner in real space acquired by the recognition determination unit 140. It has an output control unit 132 that controls the content.

図3を参照しながら、出力制御部132の機能を説明する。出力制御部132は、実空間における他のユーザの実像に相当する仮想像を仮想空間上に表示させる。例えば、図3に示すように、ユーザU1が利用する情報処理装置10に備えられた出力制御部132は、仮想空間U1Vとコミュニケーション相手であるユーザU2の仮想像をユーザU1に提供することができる。同様に、ユーザU2が利用する情報処理装置10に備えられた出力制御部132は、仮想空間U2Vとコミュニケーション相手であるユーザU1の仮想像をユーザU1に提供することができる。 The function of the output control unit 132 will be described with reference to FIG. The output control unit 132 displays in the virtual space a virtual image corresponding to the real image of another user in the real space. For example, as shown in FIG. 3, the output control unit 132 provided in the information processing apparatus 10 used by the user U1 can provide the user U1 with a virtual space U1V and a virtual image of the user U2 who is the communication partner. . Similarly, the output control unit 132 provided in the information processing apparatus 10 used by the user U2 can provide the virtual space U2V and the virtual image of the user U1 who is the communication partner to the user U1.

出力制御部132は、情報取得部110で取得された、他のユーザのユーザ情報を随時取得して仮想像に反映することで、最新の他のユーザの実像に相当する仮想像を表示させることが可能である。他のユーザの仮想像がリアルタイムに更新されるため、例えば図4に示すように、ユーザU2の表情が笑顔から怒った表情に変化したタイミングに合わせて、ユーザU2の仮想像VI2も怒った表情に変化し、ユーザU1はその様子を認識することができる。 The output control unit 132 acquires the user information of other users acquired by the information acquisition unit 110 at any time and reflects it on the virtual image, thereby displaying the virtual image corresponding to the latest real image of the other user. is possible. Since the virtual images of other users are updated in real time, as shown in FIG. 4, the virtual image VI2 of the user U2 also changes to an angry expression at the timing when the facial expression of the user U2 changes from a smile to an angry expression. , and the user U1 can recognize this state.

仮想空間上に表示させる仮想像は、例えば、ユーザが利用する情報処理装置10に別途備えられ、実空間の外部環境を撮像する機能を有する撮像装置で撮像された他のユーザの画像でもよいし、撮像された他のユーザの画像に対して所定の変換処理を実施した画像であってもよい。また、他のユーザの画像には、情報処理装置10に別途設けられ、その情報処理装置10のユーザの少なくとも顔の一部を撮像する撮像装置によって取得される画像が利用されてもよい。具体的には、撮像装置によって撮像されたユーザの顔の一部の画像情報を、予め準備された3次元モデルにレンダリングする際のパラメータとして適用して仮想像は生成されてもよい。 The virtual image to be displayed in the virtual space may be, for example, an image of another user captured by an imaging device separately provided in the information processing device 10 used by the user and having a function of capturing an image of the external environment in the real space. Alternatively, the image may be an image obtained by subjecting a captured image of another user to predetermined conversion processing. In addition, an image acquired by an imaging device that is separately provided in the information processing device 10 and captures at least part of the face of the user of the information processing device 10 may be used as the image of the other user. Specifically, the virtual image may be generated by applying image information of a part of the user's face captured by an imaging device as a parameter for rendering a three-dimensional model prepared in advance.

出力制御部132は、さらに、ユーザ情報取得部112により取得されるユーザの位置情報及び属性情報の少なくともいずれか一方に応じて、仮想空間に出力させる内容を制御してもよい。出力制御部132は、例えば、実空間上でコミュニケーションを実施しているユーザ間の離隔距離が所定の閾値以上となったときに、仮想空間上に他のユーザの仮想像を表示させてもよい。また、出力制御部132は、実空間上の同一の場所でコミュニケーションを実施していた複数のユーザがそれぞれ異なる場所に移動を開始する直前に取得されたユーザの表情や声質等の属性情報に応じて、仮想像が表示されるように出力してもよい。 The output control unit 132 may further control the content to be output to the virtual space according to at least one of the user's position information and attribute information acquired by the user information acquisition unit 112 . The output control unit 132 may display a virtual image of another user in the virtual space, for example, when the separation distance between users communicating in the real space is greater than or equal to a predetermined threshold. . In addition, the output control unit 132 controls the output control unit 132 according to attribute information such as facial expressions and voice quality of users acquired immediately before a plurality of users communicating in the same place in the real space start to move to different places. may be output so that a virtual image is displayed.

また、出力制御部132は、実空間でコミュニケーションが実施されている間に、上記撮像装置によって撮像された他のユーザの画像情報を利用して、他のユーザの仮想像を制御してもよい。具体的には、出力制御部132は、撮像された他のユーザの外観に対応するように他のユーザの仮想像を変更させてもよい。出力制御部132は、仮想空間でコミュニケーションが実施され、表示されている他のユーザの仮想像と他のユーザの実像とが異なっている場合において、他のユーザのユーザ情報がユーザ情報取得部112により取得されたときは、例えばモーフィング等の実像と仮想像との差分が徐々に小さくなるような処理を行ってもよい。 In addition, the output control unit 132 may control the virtual image of the other user by using the image information of the other user captured by the imaging device while the communication is being performed in the real space. . Specifically, the output control unit 132 may change the virtual image of the other user so as to correspond to the captured appearance of the other user. When communication is performed in the virtual space and the displayed virtual image of the other user is different from the real image of the other user, the output control unit 132 outputs the user information of the other user to the user information acquisition unit 112. When the image is acquired by , processing such as morphing may be performed to gradually reduce the difference between the real image and the virtual image.

また、出力制御部132は、インターネット等既存のネットワーク上にアップロードされている他のユーザの写真や動画などの画像情報を利用して、他のユーザの仮想像を制御してもよい。具体的には、出力制御部132は、ネットワーク上にアップロードされている他のユーザの写真等の画像情報を、予め準備された3次元モデルにレンダリングする際のパラメータとして適用して、仮想像を生成してもよい。 In addition, the output control unit 132 may control the virtual image of another user by using image information such as photos and videos of another user uploaded on an existing network such as the Internet. Specifically, the output control unit 132 applies image information such as photographs of other users uploaded on the network as parameters when rendering a three-dimensional model prepared in advance to generate a virtual image. may be generated.

出力制御部132は、更に、相互に接続された他のユーザの仮想像を、所定の表示方法で出力させてもよい。出力制御部132は、例えば、図5に示すように、ユーザU2の実像RI2が帽子を着用している場合は、仮想像VI2が帽子を被るような動作を行って、実像RI2と同様に帽子を着用した仮想像VI2に変更させてもよい。また、例えば、出力制御部132は、仮想像が実像の位置に移動するように仮想像を出力させてもよい。仮想像の移動の様子の表示方法は、例えば、歩み寄るような表示方法でもよい。しかしながら、仮想像が実像の位置に移動するような表示方法は、実像に重なりさえすれば特段限られず、例えば、図6下図に示すような、仮想像が実像に向かって移動したかのような軌跡が表示されてもよい。 The output control unit 132 may further output virtual images of other users connected to each other in a predetermined display method. For example, as shown in FIG. 5, when the real image RI2 of the user U2 is wearing a hat, the output control unit 132 performs an operation such that the virtual image VI2 wears the hat. may be changed to the virtual image VI2 wearing the . Further, for example, the output control unit 132 may output the virtual image so that the virtual image moves to the position of the real image. A method of displaying the movement of the virtual image may be, for example, a method of displaying a compromise. However, the display method in which the virtual image moves to the position of the real image is not particularly limited as long as it overlaps the real image. For example, as shown in the lower diagram of FIG. A trajectory may be displayed.

ここで、実際の実像の動きと仮想空間に出力させた仮想像の動きとの間にはずれが生じることがあり、仮想像が、実像に歩み寄るような表示方法で出力されると、ユーザにとって違和感を覚える場合がある。しかしながら、出力制御部132が、上記のように仮想像を制御することで、ユーザは、仮想像を実像の動きと仮想像の動きとの間に生じる可能性がある動きのずれを気にすることが少なくなる。従って、出力制御部132は、更に、後述する、実空間上においてユーザが他のユーザの実像を認識したか否かを判断する機能を有する認識判断部140により取得されたユーザ認識情報を受信し、受信したユーザ認識情報に基づいた表示方法で仮想像が表示されるようにしてもよい。例えば、図6に示すように、認識判断部140により、ユーザU1がユーザU2の実像RI2を認識したと判断した後、出力制御部132は、仮想像VI2が実像RI2に向かって移動したかのような軌跡が表示されるように制御してもよい。出力制御部132は、上記のような表示方法のみに限られず、仮想像の動作の様子が表現される表示方法であれば、あらゆる表示方法で仮想像を出力させることができてもよい。 Here, a deviation may occur between the actual movement of the real image and the movement of the virtual image output in the virtual space. may remember However, the output control unit 132 controls the virtual image as described above, so that the user is concerned about the shift in movement that may occur between the movement of the real image and the movement of the virtual image. less things. Therefore, the output control unit 132 further receives user recognition information acquired by a recognition determination unit 140 having a function of determining whether or not the user has recognized a real image of another user in the real space, which will be described later. Alternatively, the virtual image may be displayed by a display method based on the received user recognition information. For example, as shown in FIG. 6, after the recognition determination unit 140 determines that the user U1 has recognized the real image RI2 of the user U2, the output control unit 132 determines whether the virtual image VI2 has moved toward the real image RI2. You may control so that such a locus|trajectory may be displayed. The output control unit 132 is not limited to the display method described above, and may output the virtual image in any display method as long as the display method expresses the behavior of the virtual image.

出力制御部132は、更に、相互に通信が接続された他のユーザの仮想像を実像の位置に移動するように表示させた後、仮想像を消去させるように制御してもよい。切替制御部120は、他のユーザの仮想像が消去された後、仮想空間において確立しているユーザ間の接続を解除してもよい。仮想像が実像の位置に移動するような表示方法は、先だって説明したように、例えば、図6下図に示すような、仮想像VI2が実像RI2に向かって移動したかのような軌跡が表示されてもよい。出力制御部132が、他のユーザの仮想像を実像の位置に移動するように表示させた後に仮想像を消去させるように制御することで、ユーザは、他のユーザの実像の位置を容易に把握することができる。 Further, the output control unit 132 may control to erase the virtual images after displaying the virtual images of the other users who are connected to each other so as to move to the position of the real images. The switching control unit 120 may release the connection established between the users in the virtual space after the virtual image of the other user is deleted. The display method in which the virtual image moves to the position of the real image is, as described above, a trajectory as if the virtual image VI2 were moving toward the real image RI2, as shown in the lower diagram of FIG. 6, for example. may The output control unit 132 displays the virtual image of the other user so as to move to the position of the real image, and then controls the virtual image to disappear, so that the user can easily locate the position of the real image of the other user. can grasp.

出力制御部132は、更に、相互に通信が接続された他のユーザの仮想像が他のユーザの実像方向を示すように出力させてもよい。出力制御部132は、例えば、仮想空間でコミュニケーションが実施されている場合において、実空間上におけるユーザ間の離隔距離が所定の閾値以下になったとき、図7に示すように、例えば、ユーザU2の仮想像VI2が、ユーザ情報取得部112により取得されたユーザ情報に基づいた実像RI2の位置を向くように表示されてもよい。他のユーザの仮想像が実像方向を向くように表示されることで、ユーザは、実空間における他のユーザの位置(すなわち実像)を容易に把握することが可能となる。 The output control unit 132 may further output a virtual image of another user connected to each other so as to indicate the real image direction of the other user. For example, in the case where communication is being carried out in the virtual space, the output control unit 132 controls, for example, the user U2 as shown in FIG. may be displayed so as to face the position of the real image RI2 based on the user information acquired by the user information acquisition unit 112 . By displaying the virtual image of the other user so as to face the direction of the real image, the user can easily grasp the position of the other user in the real space (that is, the real image).

出力制御部132は、更に、相互に接続された他のユーザにより予め設定された仮想像を出力させてもよい。具体的には、ユーザ情報取得部112は、他のユーザが設定した所定のユーザ情報のみを出力制御部132に送信し、他の方法で取得されるユーザ情報を出力制御部132に送信しなくてもよい。このときのユーザ情報は、他のユーザが設定した情報であってもよく、出力制御部132は、例えば、そのユーザ情報を反映した結果、実像の外観と異なる仮想像が表示されるように制御してもよい。 The output control unit 132 may further output a virtual image preset by another mutually connected user. Specifically, the user information acquisition unit 112 transmits only predetermined user information set by other users to the output control unit 132, and does not transmit user information acquired by other methods to the output control unit 132. may The user information at this time may be information set by another user, and the output control unit 132 controls such that, for example, as a result of reflecting the user information, a virtual image different in appearance from the real image is displayed. You may

出力制御部132は、更に、相互に接続された他のユーザの仮想像であり、実空間の態様と異なる態様で出力された仮想像を、他のユーザの実像に重畳して表示させるように制御してもよい。詳細には、出力制御部132は、例えば、図8に示すように、ユーザU2の実像RI2と外観が異なるように、ユーザU1が設定した態様でユーザU2の仮想像VI2が表示されるように出力させてもよい。出力制御部132は、実像と異なる態様の他のユーザの仮想像が、他のユーザの実像に重畳して表示されるように制御することで、実空間に存在すると違和感が生じるような態様の他のユーザを仮想空間上にのみ表示させることが可能である。その結果、他のユーザが実空間の他のユーザの周囲に存在する人間から不要な注目を受けることなく、ユーザは、周囲の人間が関与することのない限られたコミュニケーションを実施することができる。その結果、本実施形態に係る情報処理装置10を利用してコミュニケーションを実施するユーザは、例えば、ユーザ間のみで、あたかも仮装してパーティ等を開催しているかのような感覚を得ることができる。 The output control unit 132 further superimposes the virtual images of the other users connected to each other on the real images of the other users, which are output in a manner different from the real space. may be controlled. Specifically, as shown in FIG. 8, for example, the output control unit 132 controls the virtual image VI2 of the user U2 to be displayed in a manner set by the user U1 so that the appearance is different from the real image RI2 of the user U2. You can output. The output control unit 132 controls such that the virtual image of the other user, which is different from the real image, is superimposed on the real image of the other user and displayed, so that the virtual image of the other user is displayed in a manner that makes the user feel uncomfortable if it exists in the real space. It is possible to display other users only in the virtual space. As a result, users can conduct limited communications that do not involve people around them, without the other users receiving unwanted attention from people around other users in real space. . As a result, users who communicate using the information processing apparatus 10 according to the present embodiment can feel as if they are holding a party or the like wearing costumes only among themselves, for example. .

出力制御部132は、更に、相互に通信が接続された他のユーザと実空間でコミュニケーションを行っている間、他のユーザの仮想像を、実像の態様とは異なる態様で表示させてもよい。出力制御部132は、例えば、図9に示すように、ユーザ間が実空間でコミュニケーションを実施する際にも、仮想像VI2を出力させたまま、機能が停止していることを示すような態様で仮想像VI2を表示させていてもよい。その後、出力制御部132は、ユーザ間のコミュニケーションが実空間から仮想空間に切り替えられると、実像と別の態様で表示されていた仮想像が実像に対応するような態様で表示されるように制御してもよい。そして、ユーザ間の引き続きコミュニケーションが実施されてもよい。 Further, the output control unit 132 may display a virtual image of the other user in a form different from the real image while communicating in real space with another user who is mutually connected for communication. . For example, as shown in FIG. 9, the output control unit 132 is configured to indicate that the function is stopped while outputting the virtual image VI2 even when the users communicate in the real space. , the virtual image VI2 may be displayed. After that, when the communication between the users is switched from the real space to the virtual space, the output control unit 132 controls so that the virtual image displayed in a different form from the real image is displayed in a form corresponding to the real image. You may Further communication between users may then take place.

本実施形態に係る情報処理装置10は、音声出力機能を有する音声出力部を備えていてもよく、ユーザに対して出力される音声情報は、音声出力部により出力されてもよい。そして、出力制御部132は、更に、音声情報取得部116により取得された音声情報が所定の位置から疑似的に出力されるように制御してもよい。すなわち、音像の位置を実像の位置に徐々に近づけ、実像の位置と音像の位置が一致したときに、音声情報の出力が停止され、ユーザは、実空間上の他のユーザすなわち実像の音声を認識できるようにしてもよい。また、実空間から仮想空間にコミュニケーション空間が切り替えられるときは、出力制御部132は、実像の位置と音像の位置を一致させて音声情報を出力させてもよい。更に、出力制御部132は、ユーザ間の離隔距離に応じて、音量を変化させてもよい。詳細には、出力制御部132は、例えば、公知の音声出力技術等を利用して、音像の位置を制御してもよい。これにより、ユーザは、仮想空間上であたかも他のユーザ本人と実際に会って会話をしているかのような感覚を得ることができる。 The information processing apparatus 10 according to the present embodiment may include an audio output unit having an audio output function, and the audio information output to the user may be output by the audio output unit. The output control unit 132 may further perform control such that the voice information acquired by the voice information acquisition unit 116 is artificially output from a predetermined position. That is, the position of the sound image is gradually brought closer to the position of the real image, and when the position of the real image and the position of the sound image match, the output of the voice information is stopped, and the user can hear the voice of another user in the real space, that is, the voice of the real image. It may be made recognizable. Also, when the communication space is switched from the real space to the virtual space, the output control unit 132 may match the position of the real image and the position of the sound image to output the audio information. Furthermore, the output control unit 132 may change the volume according to the separation distance between users. Specifically, the output control unit 132 may control the position of the sound image using, for example, a known audio output technology. This allows the user to feel as if he or she is actually meeting and conversing with another user in the virtual space.

実際には、出力される音声情報の出力タイミングと、実像から発せられる音声の発生タイミングには、ずれが生じることがある。そのため、出力制御部132は、例えば、公知技術の一つである音声分離技術を利用して、実像が発する音声をキャンセルし、仮想像からその音声情報を出力するように制御してもよい。また、実像が発する音声だけでなく、実空間に存在する音声全てを遮断し、必要に応じて音声情報を再構成して仮想空間から出力させてもよい。また、出力制御部132は、仮想空間を出力する出力装置映像出力条件や音声出力条件を制御してもよい。 In practice, there may be a gap between the output timing of audio information to be output and the generation timing of audio emitted from a real image. For this reason, the output control unit 132 may use, for example, one of known techniques, audio separation technology, to cancel audio emitted by the real image and output the audio information from the virtual image. Moreover, not only the sound emitted by the real image but also all sounds existing in the real space may be blocked, and the sound information may be reconstructed and output from the virtual space as necessary. Also, the output control unit 132 may control video output conditions and audio output conditions of an output device that outputs the virtual space.

出力制御部132は、コミュニケーションを実施する他のユーザの仮想像が表示されるように制御するだけでなく、例えば、ユーザが飼っているペット等の、ユーザが指定する何かしらのオブジェクトが仮想空間上に仮想像として表示されるように制御してもよい。ユーザが指定することで生成された仮想像は、コミュニケーションを実施している複数のユーザに対して提供されてもよいし、オブジェクトを指定したユーザのみに提供されてもよい。 The output control unit 132 not only performs control so that a virtual image of another user who communicates is displayed, but also displays some object specified by the user, such as a pet owned by the user, in the virtual space. may be controlled to be displayed as a virtual image in A virtual image generated by a user's designation may be provided to a plurality of users who are communicating with each other, or may be provided only to the user who designated the object.

また、出力制御部132は、仮想空間を出力する出力装置映像出力条件や音声出力条件を制御してもよい。 Also, the output control unit 132 may control video output conditions and audio output conditions of an output device that outputs the virtual space.

[認識判断部140]
本実施形態に係る情報処理装置10は、認識判断部140を備えていてもよく、認識判断部140は、実空間上で、ユーザが相互に通信が接続された他のユーザの実像を認識したか否かを判断する機能を有していてもよい。認識判断部140による、他のユーザの実像の認識判断は、公知の視点認識技術を利用して行われてもよい。認識判断部140は、例えば、視点認識技術を利用してユーザの視点位置が検出され、その視点位置に関する視点位置情報と、ユーザ情報取得部112により取得された他のユーザの位置情報途に基づき、ユーザが他のユーザの実像を認識したか否かを判断してもよい。
[Recognition judgment unit 140]
The information processing apparatus 10 according to the present embodiment may include a recognition determination unit 140, and the recognition determination unit 140 recognizes a real image of another user with whom the user is mutually connected for communication on the real space. It may have a function of judging whether or not The recognition determination of the real image of the other user by the recognition determination unit 140 may be performed using a known viewpoint recognition technology. The recognition determination unit 140 detects the viewpoint position of the user using, for example, viewpoint recognition technology, and detects the viewpoint position based on the viewpoint position information about the viewpoint position and the position information of other users acquired by the user information acquisition unit 112. , it may be determined whether the user has recognized the real image of another user.

また、認識判断部140は、公知の音声認識技術を利用して、ユーザが他のユーザの実像を認識したか否かを判断してもよい。認識判断部140は、例えば、音声認識技術を利用して、ユーザが他のユーザに対して呼びかける際に使用する言葉等のユーザ判断用の音声情報を検出したときに、他のユーザの実像を認識したと判断してもよい。このとき、認識判断部140は、音声情報に加えて、ユーザ情報取得部112により取得された位置情報を利用することで、位置情報を利用しない場合と比較して、より高精度で他のユーザの実像の認識判断を行うことができる。 Further, the recognition determination unit 140 may determine whether or not the user has recognized the real image of another user using a known voice recognition technology. For example, the recognition determination unit 140 uses voice recognition technology to detect voice information for user determination, such as words used by a user when calling another user, and recognizes the real image of the other user. You can assume that you recognize it. At this time, the recognition determination unit 140 uses the position information acquired by the user information acquisition unit 112 in addition to the voice information, so that the recognition determination unit 140 can recognize other users with higher accuracy than when the position information is not used. real image recognition judgment can be performed.

[通信制御部150]
通信制御部150は、ネットワーク20を介したユーザ間の通信を制御し、コミュニケーション制御部130の制御指示に応じて、所定の他のユーザとの通信を接続し、又は接続を解除する処理を実行する。また、通信制御部150は、情報取得部110により取得された、ユーザの位置情報や属性情報、動作情報、音声情報等を通信が接続された他のユーザに提供する処理を実行する。
[Communication control unit 150]
The communication control unit 150 controls communication between users via the network 20, and executes processing for connecting or disconnecting communication with a predetermined other user according to control instructions from the communication control unit 130. do. In addition, the communication control unit 150 executes processing for providing the user's location information, attribute information, motion information, voice information, etc. acquired by the information acquisition unit 110 to other users connected to the communication.

[記憶部160]
記憶部160は、本実施形態に係る情報処理装置10が備える記憶装置の一例である。記憶部160には、情報処理装置10が、上記のような各種の処理を実施する際に利用する各種のプログラムやデータベース等が適宜記録されている。記憶部160には、上記のような情報取得部が取得した各種の情報が履歴情報として記録されていてもよい。更に、記憶部160には、例えば、情報取得部110や認識判断部140等がそれぞれの処理を行う際に、保存する必要が生じた様々な処理の途中経過等が適宜記録されてもよい。情報取得部110や認識判断部140が実行する処理に限られず、本実施形態に係る情報処理装置10が何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等が適宜記録されてもよい。この記憶部160は、情報取得部110、切替制御部120、コミュニケーション制御部130、認識判断部140等が、自由にリード/ライト処理を実施することが可能である。
[Storage unit 160]
The storage unit 160 is an example of a storage device included in the information processing apparatus 10 according to this embodiment. In the storage unit 160, various programs, databases, and the like that are used by the information processing apparatus 10 when executing various types of processing as described above are appropriately recorded. Various types of information acquired by the information acquisition unit as described above may be recorded in the storage unit 160 as history information. Furthermore, in the storage unit 160, for example, when the information acquisition unit 110, the recognition determination unit 140, and the like perform their respective processes, intermediate progress of various processes that need to be saved may be appropriately recorded. Not limited to the processing executed by the information acquisition unit 110 and the recognition determination unit 140, various parameters that need to be saved when the information processing apparatus 10 according to the present embodiment performs some processing, progress of the processing, etc. may be recorded. The storage unit 160 allows the information acquisition unit 110, the switching control unit 120, the communication control unit 130, the recognition determination unit 140, and the like to freely perform read/write processing.

ここまで、情報処理装置10の構成の一例について詳細に説明した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。続いて、情報処理装置10の動作の一例について詳細に説明する。 So far, an example of the configuration of the information processing apparatus 10 has been described in detail. Each component described above may be configured using general-purpose members and circuits, or may be configured by hardware specialized for the function of each component. Also, the functions of each component may be performed entirely by a CPU or the like. Therefore, it is possible to appropriately change the configuration to be used according to the technical level at which the present embodiment is implemented. Next, an example of the operation of the information processing device 10 will be described in detail.

<<動作>>
<動作例1>
本実施形態に係る情報処理装置10の動作について、図10を参照しながら説明する。図10は、本実施形態に係る情報処理装置10の動作の流れの一例を示す流れ図である。まず、仮想空間で実施されているコミュニケーションが実空間で実施されるコミュニケーションに切り替えられる動作について説明する。本動作例では、ユーザU1とユーザU2とが離れた場所に存在し、ユーザU1及びユーザU2が本実施形態に係る情報処理装置10を利用しながら、実空間において待ち合わせ場所で合流する場合を例に挙げて説明する。
<<Operation>>
<Operation example 1>
The operation of the information processing apparatus 10 according to this embodiment will be described with reference to FIG. FIG. 10 is a flowchart showing an example of the operation flow of the information processing apparatus 10 according to this embodiment. First, the operation of switching communication performed in the virtual space to communication performed in the real space will be described. In this operation example, the user U1 and the user U2 exist in separate locations, and while using the information processing apparatus 10 according to the present embodiment, the user U1 and the user U2 meet at a meeting place in real space. will be described.

最初に、ユーザU1とユーザU2との通信が接続された状態で本実施形態に係る動作が開始され、ユーザU1及びユーザU2のユーザ情報が取得、交換される(S101)。詳細には、ユーザU1及びユーザU2が利用する情報処理装置10のユーザ情報取得部112により、ユーザU1及びユーザU2それぞれの位置情報や属性情報等のユーザ情報が取得される。取得されたそれぞれのユーザ情報は、通信制御部150を通じて互いに送受信される。次いで、取得されたユーザ情報に基づいて、ユーザU1及びユーザU2それぞれの仮想像が表示される(S103)。詳細には、図2に示すように、ユーザU1の情報処理装置10には、仮想空間U1Vが生成され、仮想空間U1V上にユーザU2の仮想像VI2が生成される。同様に、ユーザU2の情報処理装置10には、仮想空間U2Vが生成され、仮想空間U2V上にユーザU1の仮想像VI1が生成される。生成される仮想空間は、実空間上に他のユーザが表示されたものであるが、例えば、ユーザが飼っているペット等のユーザが指定する何かしらのオブジェクトを仮想空間上に仮想像として表示させてもよい。そして、ユーザU1は、仮想空間U1V上で仮想像VI2と会話することができ、ユーザU2は、仮想空間仮想像VI2上で仮想像VI1と会話可能になる。 First, the operation according to the present embodiment is started while the user U1 and the user U2 are connected for communication, and the user information of the user U1 and the user U2 is acquired and exchanged (S101). Specifically, the user information acquiring unit 112 of the information processing apparatus 10 used by the user U1 and the user U2 acquires user information such as position information and attribute information of each of the users U1 and U2. Each acquired user information is transmitted and received through the communication control unit 150 . Next, virtual images of the user U1 and the user U2 are displayed based on the acquired user information (S103). Specifically, as shown in FIG. 2, a virtual space U1V is generated in the information processing device 10 of the user U1, and a virtual image VI2 of the user U2 is generated in the virtual space U1V. Similarly, a virtual space U2V is generated in the information processing device 10 of the user U2, and a virtual image VI1 of the user U1 is generated in the virtual space U2V. The generated virtual space is displayed by another user in the real space. may Then, the user U1 can converse with the virtual image VI2 in the virtual space U1V, and the user U2 can converse with the virtual image VI1 in the virtual space virtual image VI2.

S101及びS103が随時繰り返され、ユーザ情報取得部112により、ユーザU1及びユーザU2の最新のユーザ情報が取得されるとともに、仮想像U1V及び仮想像U2Vは、最新のユーザ情報に応じた仮想像U1V及び仮想像U2Vに随時更新される。次いで、認識判断部140により、ユーザが他のユーザを認識したか否かが判断される(S105)。詳細には、ユーザU1とユーザU2との間の離隔距離が所定の閾値以下になり、ユーザU1及びユーザU2が同一環境に存在すると、例えば、図5上図に示すように、ユーザU2の仮想像VI2は、ユーザU2の実像RI2の方向を向いてもよい。そして、ユーザU1が実空間上のユーザU2(すなわちユーザU2の実像RI2)を発見すると、認識判断部140は、ユーザU1の発見に伴う認識情報により、ユーザU2の実像RI2を認識したと判断してもよい。このとき、S101及びS103でユーザ情報が最新に更新されているものの、ユーザU2の実像RI2と仮想像VI2との外観が異なる場合、出力制御部132により、仮想像VI2の外観を実像RI2に対応するように変化させてもよい。例えば、図5下図に示すように、実像RI2が帽子を着用している場合は、出力制御部132は、仮想像VI2が帽子を被るような動作を行って着用するように仮想像VI2を制御してもよい。 S101 and S103 are repeated as needed, and the user information acquisition unit 112 acquires the latest user information of the user U1 and the user U2, and the virtual image U1V and the virtual image U2V are generated according to the latest user information. and the virtual image U2V are updated at any time. Next, the recognition determination unit 140 determines whether or not the user has recognized another user (S105). Specifically, when the separation distance between the user U1 and the user U2 becomes equal to or less than a predetermined threshold and the user U1 and the user U2 exist in the same environment, for example, as shown in the upper diagram of FIG. Image VI2 may be oriented toward real image RI2 of user U2. Then, when user U1 discovers user U2 (that is, real image RI2 of user U2) in the real space, recognition determination unit 140 determines that real image RI2 of user U2 has been recognized based on recognition information associated with the discovery of user U1. may At this time, although the user information has been updated to the latest in S101 and S103, if the appearance of the real image RI2 and the virtual image VI2 of the user U2 are different, the output control unit 132 changes the appearance of the virtual image VI2 to correspond to the real image RI2. may be changed to For example, when the real image RI2 is wearing a hat as shown in the lower diagram of FIG. You may

S101及びS103において、ユーザ情報取得部112により、ユーザ情報が最新に更新されているものの、ユーザU2が予め設定したユーザ情報のみを仮想像VI2に反映させた場合、実像RI2の外観と異なる仮想像VI2が表示される。その結果、ユーザU1は、ユーザU2の実像RI2を確認したときに、初めて実際のユーザU2の姿を確認することができる。 In S101 and S103, although the user information is updated to the latest by the user information acquisition unit 112, if only the user information set in advance by the user U2 is reflected in the virtual image VI2, the appearance of the virtual image VI2 is different from that of the real image RI2. VI2 is displayed. As a result, the user U1 can confirm the actual appearance of the user U2 for the first time when confirming the real image RI2 of the user U2.

続いて、出力制御部132は、ユーザU2の仮想像VI2をユーザU2の実像RI2の位置に移動させてもよい(S107)。出力制御部132は、仮想像VI2を実像RI2の位置に歩み寄るように移動させてもよい。実像RI2の外観と仮想像VI2の外観が大きく異なるときは、ユーザU1が違和感を覚える可能性があるため、出力制御部132は、何かしらのアニメーションを出力させて、仮想像VI2が実像RI2に向かって移動したことを示す内容を出力させてもよい。出力制御部132は、例えば、図6下に示すように、実像RI2の位置に向かって移動したかのような軌跡等の表示を出力させてもよい。そして、ユーザU2の仮想像VI2がユーザU2の実像RI2の位置に移動後、出力制御部132は、仮想像VI2を消去させ(S109)、通信制御部150は、接続された通信を解除してもよい(S111)。本実施形態に係る情報処理装置10が、上記のように動作することで、ユーザU1とユーザU2との間のコミュニケーションが実施される空間が、仮想空間から実空間に連続的に、かつ自然に切り替えられる。 Subsequently, the output control unit 132 may move the virtual image VI2 of the user U2 to the position of the real image RI2 of the user U2 (S107). The output control unit 132 may move the virtual image VI2 so as to approach the position of the real image RI2. If the appearance of the real image RI2 and the appearance of the virtual image VI2 are significantly different, the user U1 may feel uncomfortable. It is also possible to output the content indicating that the For example, the output control unit 132 may output a display of a trajectory or the like as if the real image RI2 were moved toward the position of the real image RI2, as shown in the lower part of FIG. After the virtual image VI2 of the user U2 moves to the position of the real image RI2 of the user U2, the output control unit 132 erases the virtual image VI2 (S109), and the communication control unit 150 cancels the connected communication. (S111). By operating the information processing apparatus 10 according to the present embodiment as described above, the space in which communication between the user U1 and the user U2 is carried out changes continuously and naturally from the virtual space to the real space. can be switched.

S109において、出力制御部132は、例えば図8に示すように、ユーザU2の実像RI2と異なる態様の仮想像VI2が、実像RI2に重畳するように表示を制御してもよい。また、出力制御部132は、仮想像VI2を消去させなくてもよく、例えば図9に示すように、機能が停止していることを示すような態様で仮想像VI2を表示させていてもよい。 In S109, the output control unit 132 may control display so that a virtual image VI2 different from the real image RI2 of the user U2 is superimposed on the real image RI2, as shown in FIG. 8, for example. Further, the output control unit 132 may not erase the virtual image VI2, and may display the virtual image VI2 in a manner indicating that the function is stopped, as shown in FIG. 9, for example. .

<動作例2>
続いて、本実施形態に係る情報処理装置10の別の動作について、図11を参照しながら説明する。図11は、本実施形態に係る情報処理装置10の動作の流れの一例を示す流れ図である。実空間上で実施されているコミュニケーションが仮想空間上で実施されるコミュニケーションに切り替えられる動作について説明する。本動作例では、実空間上の同一の場所に存在するユーザU1とユーザU2とが、それぞれ異なる場所に移動する場合を例に挙げて説明する。
<Operation example 2>
Next, another operation of the information processing apparatus 10 according to this embodiment will be described with reference to FIG. 11 . FIG. 11 is a flowchart showing an example of the operation flow of the information processing apparatus 10 according to this embodiment. A description will be given of an operation in which communication carried out in real space is switched to communication carried out in virtual space. In this operation example, a case in which user U1 and user U2, who are present at the same place in real space, move to different places will be described as an example.

最初に、ユーザU1とユーザU2との通信が接続された状態で本実施形態に係る動作が開始される。ユーザU1が利用する情報処理装置10に備えられる情報取得部110は、ユーザU1のユーザ情報を取得する(S201)。このとき、情報取得部110は、ユーザU1のユーザ情報だけでなく、ユーザU1の動作情報や音声情報を取得してもよい。次いで、ユーザU1が利用する情報処理装置10に備えられるコミュニケーション制御部130は、ユーザU1の指示に応じて、ユーザU1に提供される仮想空間U1Vを生成する(S203)。コミュニケーション制御部130は、ユーザU1の指示だけでなく、情報取得部110により取得されたユーザU1のユーザ情報等に応じて、自動的に仮想空間U1Vを生成してもよい。例えば、ユーザU1とユーザU2との間の離隔距離が所定値以上となったときに、自動的に仮想空間U1Vが生成されてもよい。また、ユーザU1とユーザU2とが、それぞれ異なる場所に移動を開始する直前のユーザU2の表情や声質等の属性情報により、自動的に仮想空間U1Vが生成されてもよい。ユーザU1が複数のユーザとコミュニケーションを図りたい場合は、ユーザU1の所定の操作により、そのユーザを選択して複数の他のユーザの仮想像を仮想空間U1V上に生成してもよい。次いで、ユーザU1及びユーザU2のユーザ情報が交換され(S205)、ユーザU2の仮想像VI2が生成される(S207)。S205及びS207は、動作例1で既に説明したS101及びS103と同様であるため、詳細な説明は省略する。 First, the operation according to the present embodiment is started while the user U1 and the user U2 are connected for communication. The information acquisition unit 110 provided in the information processing apparatus 10 used by the user U1 acquires user information on the user U1 (S201). At this time, the information acquisition unit 110 may acquire not only the user information of the user U1, but also the motion information and voice information of the user U1. Next, communication control unit 130 provided in information processing apparatus 10 used by user U1 generates virtual space U1V provided to user U1 according to an instruction from user U1 (S203). The communication control unit 130 may automatically generate the virtual space U1V according to the user information of the user U1 acquired by the information acquisition unit 110 as well as the instruction of the user U1. For example, the virtual space U1V may be automatically generated when the separation distance between the user U1 and the user U2 is greater than or equal to a predetermined value. Further, the virtual space U1V may be automatically generated based on attribute information such as the facial expression and voice quality of the user U2 immediately before the user U1 and the user U2 start moving to different places. If the user U1 wishes to communicate with a plurality of users, the user U1 may perform a predetermined operation to select that user and generate virtual images of a plurality of other users in the virtual space U1V. User information of user U1 and user U2 is then exchanged (S205), and a virtual image VI2 of user U2 is generated (S207). Since S205 and S207 are the same as S101 and S103 already described in Operation Example 1, detailed description thereof will be omitted.

最後に、コミュニケーション制御部130により、コミュニケーションの終了処理が実行される(S209)。コミュニケーションの終了処理は、例えば、別れの挨拶等の所定の音声情報が音声情報取得部116により取得された場合に、音声情報取得部116が音声認識を行って音声認識情報を生成し、コミュニケーション制御部130は、その音声認識情報を基にコミュニケーションを終了してもよい。また、情報処理装置10が、例えば、AR(Augmented Reality)グラス等のウェアラブル装置で実現されている場合、ユーザが装着しているウェアラブル装置を身体から取り外すことでコミュニケーションは終了してもよい。 Finally, the communication control unit 130 executes communication end processing (S209). For example, when predetermined voice information such as a farewell greeting is acquired by the voice information acquisition unit 116, the voice information acquisition unit 116 performs voice recognition to generate voice recognition information, and communication control is performed. Unit 130 may terminate the communication based on the speech recognition information. Further, when the information processing device 10 is realized by a wearable device such as AR (Augmented Reality) glasses, communication may be terminated by removing the wearable device worn by the user from the body.

ここまで、本実施形態に係る情報処理装置10の動作例について詳細に説明した。続いて、他の動作例について詳細に説明する。 So far, the operation example of the information processing apparatus 10 according to the present embodiment has been described in detail. Next, another operation example will be described in detail.

<<ハードウェア構成>>
以上、本開示に係る実施形態について説明した。上述した情報処理は、ソフトウェアと、以下に説明する情報処理装置のハードウェアとの協働により実現される。
<<Hardware configuration>>
The embodiment according to the present disclosure has been described above. The information processing described above is realized by cooperation between software and hardware of the information processing apparatus described below.

図12は、本実施形態に係る情報処理装置のハードウェア構成を示したブロック図である。情報処理装置は、CPU(Central Processing Unit)180と、ROM(Read Only Memory)181と、RAM(Random Access Memory)182と、ホストバス183と、ブリッジ184と、外部バス185と、インタフェース186と、表示装置188と、音声出力装置189と、ストレージ装置(HDD)190と、ネットワークインタフェース913とを備える。本実施形態に係る情報処理装置は、入力装置187と、ドライブ191とを有してもよい。 FIG. 12 is a block diagram showing the hardware configuration of the information processing apparatus according to this embodiment. The information processing apparatus includes a CPU (Central Processing Unit) 180, a ROM (Read Only Memory) 181, a RAM (Random Access Memory) 182, a host bus 183, a bridge 184, an external bus 185, an interface 186, It comprises a display device 188 , an audio output device 189 , a storage device (HDD) 190 and a network interface 913 . The information processing apparatus according to this embodiment may have an input device 187 and a drive 191 .

CPU180は、演算処理装置及び制御装置として機能し、各種プログラムに従って情報処理装置内の動作全般を制御する。また、CPU180は、マイクロプロセッサであってもよい。ROM181は、CPU180が使用するプログラムや演算パラメータ等を記憶する。RAM182は、CPU180の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス183により相互に接続されている。CPU180、ROM181及びRAM182とソフトウェアとの協働により、情報取得部110、切替制御部120、コミュニケーション制御部130、認識判断部140等の機能が実現され得る。 The CPU 180 functions as an arithmetic processing device and a control device, and controls general operations within the information processing device according to various programs. CPU 180 may also be a microprocessor. The ROM 181 stores programs used by the CPU 180, calculation parameters, and the like. The RAM 182 temporarily stores programs used in the execution of the CPU 180, parameters that change as appropriate during the execution, and the like. These are interconnected by a host bus 183 comprising a CPU bus or the like. The functions of the information acquisition unit 110, the switching control unit 120, the communication control unit 130, the recognition determination unit 140, and the like can be realized by the cooperation of the CPU 180, the ROM 181, the RAM 182, and the software.

ホストバス183は、ブリッジ184を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス185に接続されている。なお、必ずしもホストバス183、ブリッジ184及び外部バス185を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。 The host bus 183 is connected via a bridge 184 to an external bus 185 such as a PCI (Peripheral Component Interconnect/Interface) bus. Note that the host bus 183, bridge 184 and external bus 185 do not necessarily have to be configured separately, and these functions may be implemented in one bus.

入力装置187は、タッチパネル、ボタン、マイクロフォン、センサ、スイッチ及びレバーなどメンバーが情報を入力するための入力手段と、メンバーによる入力に基づいて入力信号を生成し、CPU180に出力する入力制御回路などから構成され得る。 The input device 187 includes input means for members to input information such as touch panels, buttons, microphones, sensors, switches and levers, and an input control circuit that generates an input signal based on the input by the member and outputs it to the CPU 180. can be configured.

表示装置188は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置などの表示装置を含む。 The display device 188 includes, for example, a CRT (Cathode Ray Tube) display device, a liquid crystal display (LCD) device, an OLED (Organic Light Emitting Diode) device, or the like.

ストレージ装置190は、本実施形態にかかる情報処理装置の記憶部の一例として構成されたデータ記憶用の装置である。ストレージ装置190は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置及び記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置190は、例えば、HDD(Hard Disk Drive)やSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置190は、ストレージを駆動し、CPU180が実行するプログラムや各種データを記憶する。 The storage device 190 is a data storage device configured as an example of a storage unit of the information processing device according to this embodiment. The storage device 190 may include a storage medium, a recording device that records data on the storage medium, a reading device that reads data from the storage medium, a deletion device that deletes data recorded on the storage medium, and the like. The storage device 190 is configured by, for example, a HDD (Hard Disk Drive), an SSD (Solid Storage Drive), or a memory having equivalent functions. The storage device 190 drives storage and stores programs executed by the CPU 180 and various data.

ドライブ191は、記憶媒体用リーダライタであり、情報処理装置に内蔵、あるいは外付けされる。ドライブ191は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体193に記録されている情報を読み出して、RAM182またはストレージ装置190に出力する。また、ドライブ191は、リムーバブル記憶媒体193に情報を書き込むこともできる。 The drive 191 is a reader/writer for storage media, and is built in or externally attached to the information processing apparatus. The drive 191 reads information recorded in a removable storage medium 193 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory, and outputs the information to the RAM 182 or the storage device 190 . Drive 191 can also write information to removable storage medium 193 .

ネットワークインタフェース192は、例えば、ネットワーク20に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース192は、無線LAN(Local Area Network)対応端末であっても、有線による通信を行うワイヤー端末であってもよい。 The network interface 192 is, for example, a communication interface configured with a communication device or the like for connecting to the network 20 . The network interface 192 may be a terminal compatible with a wireless LAN (Local Area Network) or a wire terminal that performs wired communication.

<<結び>>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
<< Conclusion >>
Although the preferred embodiments of the present disclosure have been described in detail above with reference to the accompanying drawings, the technical scope of the present disclosure is not limited to such examples. It is obvious that those who have ordinary knowledge in the technical field of the present disclosure can conceive of various modifications or modifications within the scope of the technical idea described in the claims. is naturally within the technical scope of the present disclosure.

また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は、上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。 Also, the effects described herein are merely illustrative or exemplary, and are not limiting. In other words, the technology according to the present disclosure can produce other effects that are obvious to those skilled in the art from the description of this specification in addition to or instead of the above effects.

なお、以下のような構成も本開示の技術的範囲に属する。
(1)
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間上において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、
実空間における前記ユーザの位置に関する位置情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、
前記位置情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、を備える情報処理装置。
(2)
前記ユーザの動作に関する動作情報を取得する動作情報取得部をさらに備え、
前記切替制御部は、前記ユーザの前記動作情報又は相互に接続された他のユーザの前記動作情報の少なくともいずれか一方に応じて、前記ユーザ間のネットワーク接続を確立させて、前記コミュニケーション空間を前記実空間から前記仮想空間へ切り替える、(1)に記載の情報処理装置。
(3)
前記ユーザが発する音声に関する音声情報を取得する音声情報取得部をさらに備え、
前記切替制御部は、前記ユーザの前記音声情報又は相互に接続された他のユーザの前記音声情報の少なくともいずれか一方に応じて、前記ユーザ間のネットワーク接続を確立させて、前記コミュニケーション空間を前記実空間から前記仮想空間へ切り替える、(1)又は(2)に記載の情報処理装置。
(4)
前記ユーザの動作に関する動作情報を取得する動作情報取得部を更に備え、
前記切替制御部は、動作情報取得部により取得された前記動作情報に応じて、複数の前記ユーザの中から他のユーザの少なくとも1人を選択して、前記実空間で実施されるコミュニケーションから前記仮想空間で実施されるコミュニケーションに切り替える、(1)~(3)のいずれか1つに記載の情報処理装置。
(5)
前記コミュニケーション制御部は、前記位置情報及び前記属性情報の少なくともいずれかに応じて、前記仮想空間に出力させる内容を制御する出力制御部を更に備える、(1)~(4)のいずれか1つに記載の情報処理装置。
(6)
前記出力制御部は、前記ユーザが相互に接続された他のユーザの前記仮想像を、所定の表示方法で出力させる、(1)~(5)のいずれか1つに記載の情報処理装置。
(7)
相互に接続された他のユーザを認識し、ユーザ認識に関するユーザ認識情報を取得する認識判断部をさらに備え、
前記出力制御部は、前記認識判断部から送信された前記ユーザ認識情報を受信した後、前記他のユーザの前記仮想像を所定の表現方法で出力させて、前記他のユーザの前記実像と、前記他のユーザの前記仮想像を同期させる、(1)~(6)のいずれか1つに記載の情報処理装置。
(8)
前記出力制御部は、相互に接続された他のユーザの前記仮想像が、前記他のユーザの実像方向を示すように出力させる、(1)~(7)のいずれか1つに記載の情報処理装置。
(9)
前記出力制御部は、相互に接続された他のユーザの前記仮想像を前記実像の位置で消去させ、
前記切替制御部は、仮想空間において確立している前記ユーザ間の接続を解除する、(1)~(8)のいずれか1つに記載の情報処理装置。
(10)
前記出力制御部は、相互に接続された他のユーザにより予め設定された仮想像を出力させる、(1)~(9)のいずれか1つに記載の情報処理装置。
(11)
前記出力制御部は、相互に接続された他のユーザの前記仮想像であり、前記実空間の態様と異なる態様で出力された前記仮想像を、前記他のユーザの実像に重畳して表示させる、(1)~(10)のいずれか1つに記載の情報処理装置。
(12)
前記出力制御部は、前記ユーザが相互に接続された他のユーザと実空間でコミュニケーションを行っている間、前記他のユーザの前記仮想像を、実空間の態様とは異なる態様で表示させる、(1)~(11)のいずれか1つに記載の情報処理装置。
(13)
前記ユーザが発する音声に関する音声情報を取得する音声情報取得部を更に備え、
前記コミュニケーション制御部は、前記位置情報と前記属性情報とに応じて、前記仮想空間に出力させる内容を制御する出力制御部を更に備え、
前記出力制御部は、前記音声情報取得部により取得された前記音声情報の出力位置を制御する、(1)~(12)のいずれか1つに記載の情報処理装置。
(14)
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間上において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御することと、
実空間における前記ユーザの位置に関する位置関連情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得することと、
前記位置関連情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御すること、を含む情報処理方法。
(15)
コンピュータに、
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間上において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部、
実空間における前記ユーザの位置に関する位置関連情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得する情報取得部、
前記位置関連情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部、として機能させるためのプログラム。
Note that the following configuration also belongs to the technical scope of the present disclosure.
(1)
a communication control unit for controlling mutual communication between users via the virtual image of the user in the virtual space where the virtual image corresponding to the real image of the user existing in the real space is generated;
a user information acquisition unit configured to acquire, at a predetermined timing, attribute information including at least position information relating to the position of the user in real space and information relating to the degree of intimacy between the users;
an information processing apparatus comprising a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information. .
(2)
further comprising a motion information acquisition unit that acquires motion information related to the user's motion;
The switching control unit establishes a network connection between the users according to at least one of the operation information of the user and the operation information of other mutually connected users, and switches the communication space to the The information processing apparatus according to (1), which switches from a real space to the virtual space.
(3)
further comprising a voice information acquisition unit that acquires voice information related to the voice uttered by the user;
The switching control unit establishes a network connection between the users according to at least one of the voice information of the user and the voice information of other mutually connected users to switch the communication space to the The information processing device according to (1) or (2), which switches from a real space to the virtual space.
(4)
further comprising a motion information acquisition unit that acquires motion information related to the user's motion;
The switching control unit selects at least one other user from among the plurality of users according to the motion information acquired by the motion information acquisition unit, and selects the user from the communication performed in the real space. The information processing device according to any one of (1) to (3), which switches to communication performed in a virtual space.
(5)
Any one of (1) to (4), wherein the communication control unit further comprises an output control unit that controls content to be output to the virtual space according to at least one of the position information and the attribute information. The information processing device according to .
(6)
The information processing apparatus according to any one of (1) to (5), wherein the output control unit outputs the virtual images of other users with whom the users are mutually connected in a predetermined display method.
(7)
further comprising a recognition determination unit that recognizes other users connected to each other and acquires user recognition information related to user recognition;
The output control unit, after receiving the user recognition information transmitted from the recognition determination unit, causes the virtual image of the other user to be output in a predetermined expression method, and outputs the real image of the other user, The information processing device according to any one of (1) to (6), which synchronizes the virtual image of the other user.
(8)
The information according to any one of (1) to (7), wherein the output control unit causes the virtual images of the mutually connected other users to be output so as to indicate the real image directions of the other users. processing equipment.
(9)
The output control unit erases the virtual images of other users connected to each other at the positions of the real images;
The information processing apparatus according to any one of (1) to (8), wherein the switching control unit cancels the connection established between the users in the virtual space.
(10)
The information processing apparatus according to any one of (1) to (9), wherein the output control unit outputs a virtual image preset by another mutually connected user.
(11)
The output control unit superimposes and displays the virtual image, which is the virtual image of the mutually connected other users and is output in a mode different from the mode of the real space, on the real image of the other user. , (1) to (10).
(12)
The output control unit causes the virtual image of the other user to be displayed in a manner different from that of the real space while the user is communicating with another user connected to each other in the real space. The information processing device according to any one of (1) to (11).
(13)
further comprising a voice information acquisition unit that acquires voice information related to the voice uttered by the user;
The communication control unit further includes an output control unit that controls content to be output to the virtual space according to the position information and the attribute information,
The information processing apparatus according to any one of (1) to (12), wherein the output control section controls an output position of the audio information acquired by the audio information acquisition section.
(14)
Controlling mutual communication between users via the virtual image of the user on the virtual space where the virtual image corresponding to the real image of the user existing in the real space is generated;
Acquiring at a predetermined timing attribute information including at least position-related information about the position of the user in real space and information about the degree of intimacy between the users;
An information processing method, comprising controlling switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position-related information and the attribute information.
(15)
to the computer,
A communication control unit that controls communication between users via the virtual image of the user in the virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
an information acquisition unit that acquires, at a predetermined timing, attribute information including at least position-related information about the position of the user in real space and information about the degree of intimacy between the users;
functioning as a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position-related information and the attribute information; program.

5 情報処理システム
10 情報処理装置
20 ネットワーク
110 情報取得部
112 ユーザ情報取得部
114 動作情報取得部
116 音声情報取得部
120 切替制御部
130 コミュニケーション制御部
140 認識判断部
150 通信制御部
160 記憶部
550 表示制御装置
5 information processing system 10 information processing device 20 network 110 information acquisition unit 112 user information acquisition unit 114 motion information acquisition unit 116 voice information acquisition unit 120 switching control unit 130 communication control unit 140 recognition determination unit 150 communication control unit 160 storage unit 550 display Control device

Claims (12)

実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、
実空間における前記ユーザの位置に関する位置情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、
前記位置情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、
前記ユーザの動作に関する動作情報を取得する動作情報取得部と、
を備え、
前記切替制御部は、前記動作情報取得部により取得された前記動作情報に応じて、複数の前記ユーザの中から他のユーザの少なくとも1人を選択して、前記実空間で実施されるコミュニケーションから前記仮想空間で実施されるコミュニケーションに切り替える、
情報処理装置。
a communication control unit for controlling communication between users via the virtual image of the user in a virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
a user information acquisition unit configured to acquire, at a predetermined timing, attribute information including at least position information relating to the position of the user in real space and information relating to the degree of intimacy between the users;
a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information;
a motion information acquisition unit that acquires motion information related to the user's motion;
with
The switching control unit selects at least one other user from among the plurality of users according to the motion information acquired by the motion information acquisition unit, and selects at least one other user from the communication performed in the real space. switching to communication conducted in said virtual space;
Information processing equipment.
前記ユーザが発する音声に関する音声情報を取得する音声情報取得部をさらに備え、
前記切替制御部は、前記ユーザの前記音声情報又は相互に接続された他のユーザの前記音声情報の少なくともいずれか一方に応じて、前記ユーザ間のネットワーク接続を確立させて、コミュニケーションが実施される空間を前記実空間から前記仮想空間へ切り替える、請求項1に記載の情報処理装置。
further comprising a voice information acquisition unit that acquires voice information related to the voice uttered by the user;
The switching control unit establishes a network connection between the users according to at least one of the voice information of the user and the voice information of other mutually connected users, and communication is performed. 2. The information processing apparatus according to claim 1, wherein the space is switched from the real space to the virtual space.
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、
実空間における前記ユーザの位置に関する位置情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、
前記位置情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、
相互に接続された他のユーザを認識し、ユーザ認識に関するユーザ認識情報を取得する認識判断部と、
備え、
前記コミュニケーション制御部は、前記位置情報及び前記属性情報の少なくともいずれかに応じて、前記仮想空間に出力させる内容を制御する出力制御部を更に備え、
前記出力制御部は、前記認識判断部から送信された前記ユーザ認識情報を受信した後、前記他のユーザの前記仮想像を所定の表現方法で出力させて、前記他のユーザの前記実像と、前記他のユーザの前記仮想像を同期させる、
報処理装置。
a communication control unit for controlling communication between users via the virtual image of the user in a virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
a user information acquisition unit configured to acquire, at a predetermined timing, attribute information including at least position information relating to the position of the user in real space and information relating to the degree of intimacy between the users;
a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information;
a recognition determination unit that recognizes other mutually connected users and acquires user recognition information related to user recognition ;
with
The communication control unit further comprises an output control unit that controls content to be output to the virtual space according to at least one of the position information and the attribute information,
The output control unit, after receiving the user recognition information transmitted from the recognition determination unit, causes the virtual image of the other user to be output in a predetermined expression method, and outputs the real image of the other user, synchronizing the virtual image of the other user;
Information processing equipment.
前記出力制御部は、前記ユーザが相互に接続された他のユーザの前記仮想像を、所定の表示方法で出力させる、請求項に記載の情報処理装置。 4. The information processing apparatus according to claim 3 , wherein said output control unit outputs said virtual images of other users with whom said users are mutually connected in a predetermined display method. 実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、
実空間における前記ユーザの位置に関する位置情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、
前記位置情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、
を備え、
前記コミュニケーション制御部は、前記位置情報及び前記属性情報の少なくともいずれかに応じて、前記仮想空間に出力させる内容を制御する出力制御部を更に備え、
前記出力制御部は、相互に接続された他のユーザの前記仮想像が、前記他のユーザの実像方向を示すように出力させる、
報処理装置。
a communication control unit for controlling communication between users via the virtual image of the user in a virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
a user information acquisition unit configured to acquire, at a predetermined timing, attribute information including at least position information relating to the position of the user in real space and information relating to the degree of intimacy between the users;
a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information;
with
The communication control unit further comprises an output control unit that controls content to be output to the virtual space according to at least one of the position information and the attribute information,
The output control unit causes the virtual images of the mutually connected other users to be output so as to indicate the real image direction of the other users.
Information processing equipment.
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、
実空間における前記ユーザの位置に関する位置情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、
前記位置情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、
を備え、
前記コミュニケーション制御部は、前記位置情報及び前記属性情報の少なくともいずれかに応じて、前記仮想空間に出力させる内容を制御する出力制御部を更に備え、
前記出力制御部は、相互に接続された他のユーザの前記仮想像を前記実像の位置で消去させ、
前記切替制御部は、前記仮想空間において確立している前記ユーザ間の接続を解除する、
報処理装置。
a communication control unit for controlling communication between users via the virtual image of the user in a virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
a user information acquisition unit configured to acquire, at a predetermined timing, attribute information including at least position information relating to the position of the user in real space and information relating to the degree of intimacy between the users;
a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information;
with
The communication control unit further comprises an output control unit that controls content to be output to the virtual space according to at least one of the position information and the attribute information,
The output control unit erases the virtual images of other users connected to each other at the positions of the real images;
the switching control unit cancels the connection established between the users in the virtual space;
Information processing equipment.
前記出力制御部は、前記相互に接続された他のユーザにより予め設定された仮想像を出力させる、請求項4又は5に記載の情報処理装置。 6. The information processing apparatus according to claim 4 , wherein said output control unit outputs a virtual image preset by said other mutually connected users. 実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、
実空間における前記ユーザの位置に関する位置情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、
前記位置情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、
を備え、
前記コミュニケーション制御部は、前記位置情報及び前記属性情報の少なくともいずれかに応じて、前記仮想空間に出力させる内容を制御する出力制御部を更に備え、
前記出力制御部は、相互に接続された他のユーザの前記仮想像であり、前記実空間の態様と異なる態様で出力された前記仮想像を、前記他のユーザの実像に重畳して表示させる、
報処理装置。
a communication control unit for controlling communication between users via the virtual image of the user in a virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
a user information acquisition unit configured to acquire, at a predetermined timing, attribute information including at least position information relating to the position of the user in real space and information relating to the degree of intimacy between the users;
a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information;
with
The communication control unit further comprises an output control unit that controls content to be output to the virtual space according to at least one of the position information and the attribute information,
The output control unit superimposes and displays the virtual image, which is the virtual image of the mutually connected other users and is output in a mode different from the mode of the real space, on the real image of the other user. ,
Information processing equipment.
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部と、
実空間における前記ユーザの位置に関する位置情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得するユーザ情報取得部と、
前記位置情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部と、
を備え、
前記コミュニケーション制御部は、前記位置情報及び前記属性情報の少なくともいずれかに応じて、前記仮想空間に出力させる内容を制御する出力制御部を更に備え、
前記出力制御部は、前記実空間において前記ユーザが相互に接続された他のユーザとコミュニケーションを行っている間、前記他のユーザの前記仮想像を、前記実空間の態様とは異なる態様で表示させる、
報処理装置。
a communication control unit for controlling communication between users via the virtual image of the user in a virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
a user information acquisition unit configured to acquire, at a predetermined timing, attribute information including at least position information relating to the position of the user in real space and information relating to the degree of intimacy between the users;
a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position information and the attribute information;
with
The communication control unit further comprises an output control unit that controls content to be output to the virtual space according to at least one of the position information and the attribute information,
The output control unit displays the virtual image of the other user in a mode different from the mode of the real space while the user is communicating with other interconnected users in the real space. let
Information processing equipment.
前記ユーザが発する音声に関する音声情報を取得する音声情報取得部を更に備え、
前記出力制御部は、
前記位置情報と前記属性情報とに応じて、前記仮想空間に出力させる内容を制御し、
前記音声情報取得部により取得された前記音声情報の出力位置を制御する、
請求項5に記載の情報処理装置。
further comprising a voice information acquisition unit that acquires voice information related to the voice uttered by the user;
The output control unit is
controlling content to be output to the virtual space according to the position information and the attribute information;
controlling an output position of the audio information acquired by the audio information acquiring unit;
The information processing device according to claim 5 .
情報処理装置が、
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御することと、
実空間における前記ユーザの位置に関する位置関連情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得することと、
前記位置関連情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御することと、
前記ユーザの動作に関する動作情報を取得することと、
を含み、
取得された前記動作情報に応じて、複数の前記ユーザの中から他のユーザの少なくとも1人を選択して、前記実空間で実施されるコミュニケーションから前記仮想空間で実施されるコミュニケーションに切り替えることを含む、
情報処理方法。
The information processing device
In a virtual space where a virtual image corresponding to a real image of a user existing in the real space is generated, controlling communication mutually implemented between users via the virtual image of the user;
Acquiring at a predetermined timing attribute information including at least position-related information about the position of the user in real space and information about the degree of intimacy between the users;
controlling switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position-related information and the attribute information ;
obtaining motion information about the user's motion;
including
Selecting at least one other user from among the plurality of users according to the acquired operation information, and switching from the communication performed in the real space to the communication performed in the virtual space. include,
Information processing methods.
コンピュータに、
実空間に存在するユーザの実像に対応する仮想像が生成される仮想空間において、前記ユーザの仮想像を介してユーザ間で相互に実施されるコミュニケーションを制御するコミュニケーション制御部、
実空間における前記ユーザの位置に関する位置関連情報及び前記ユーザ間の親密度に関する情報を少なくとも含む属性情報を、所定のタイミングで取得する情報取得部、
前記位置関連情報及び前記属性情報の少なくともいずれか一方に応じて、前記実空間で実施されるコミュニケーションと、前記仮想空間で実施されるコミュニケーションとの切り替えを制御する切替制御部、及び、
前記ユーザの動作に関する動作情報を取得する動作情報取得部、
として機能させるためのプログラムであって、
前記切替制御部は、前記動作情報取得部により取得された前記動作情報に応じて、複数の前記ユーザの中から他のユーザの少なくとも1人を選択して、前記実空間で実施されるコミュニケーションから前記仮想空間で実施されるコミュニケーションに切り替える、
プログラム。
to the computer,
A communication control unit that controls communication between users via the virtual image of the user in a virtual space where a virtual image corresponding to the real image of the user existing in the real space is generated;
an information acquisition unit that acquires, at a predetermined timing, attribute information including at least position-related information about the position of the user in real space and information about the degree of intimacy between the users;
a switching control unit that controls switching between communication performed in the real space and communication performed in the virtual space according to at least one of the position-related information and the attribute information ;
a motion information acquisition unit that acquires motion information related to the user's motion;
A program for functioning as
The switching control unit selects at least one other user from among the plurality of users according to the motion information acquired by the motion information acquisition unit, and selects at least one other user from the communication performed in the real space. switching to communication conducted in said virtual space;
program.
JP2019570313A 2018-02-07 2018-11-28 Information processing device, information processing method and program Active JP7279646B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018020439 2018-02-07
JP2018020439 2018-02-07
PCT/JP2018/043825 WO2019155735A1 (en) 2018-02-07 2018-11-28 Information processing device, information processing method, and program

Publications (2)

Publication Number Publication Date
JPWO2019155735A1 JPWO2019155735A1 (en) 2021-02-18
JP7279646B2 true JP7279646B2 (en) 2023-05-23

Family

ID=67548875

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019570313A Active JP7279646B2 (en) 2018-02-07 2018-11-28 Information processing device, information processing method and program

Country Status (4)

Country Link
US (1) US11553009B2 (en)
EP (1) EP3751422A4 (en)
JP (1) JP7279646B2 (en)
WO (1) WO2019155735A1 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10846898B2 (en) * 2019-03-28 2020-11-24 Nanning Fugui Precision Industrial Co., Ltd. Method and device for setting a multi-user virtual reality chat environment
US20200410764A1 (en) * 2019-06-28 2020-12-31 Snap Inc. Real-time augmented-reality costuming
US11759711B2 (en) * 2021-09-28 2023-09-19 Sony Group Corporation Method for quasi-random placement of virtual items in an extended reality (XR) space
JP7133257B1 (en) 2022-01-14 2022-09-08 株式会社キッズプレート Program, information processing method, information processing device, and information processing system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008270913A (en) 2007-04-16 2008-11-06 Ntt Docomo Inc Controller, mobile communication system, and communication terminal
JP2010268305A (en) 2009-05-15 2010-11-25 Nippon Telegr & Teleph Corp <Ntt> Video mail communication method, device, and program
JP2015080120A (en) 2013-10-17 2015-04-23 コニカミノルタ株式会社 Image processing system, image processing device, and mobile terminal device
JP2017102897A (en) 2016-09-20 2017-06-08 株式会社コロプラ Avatar display system, user terminal, and program

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001154966A (en) 1999-11-29 2001-06-08 Sony Corp System and method for supporting virtual conversation being participation possible by users in shared virtual space constructed and provided on computer network and medium storing program
JP2002259318A (en) * 2001-02-27 2002-09-13 Victor Co Of Japan Ltd Method for displaying picture of person in virtual reality space
SE519929C2 (en) * 2001-07-26 2003-04-29 Ericsson Telefon Ab L M Procedure, system and terminal for changing or updating during ongoing calls eg. avatars on other users' terminals in a mobile telecommunications system
US7003040B2 (en) * 2002-09-24 2006-02-21 Lg Electronics Inc. System and method for multiplexing media information over a network using reduced communications resources and prior knowledge/experience of a called or calling party
US20080215975A1 (en) * 2007-03-01 2008-09-04 Phil Harrison Virtual world user opinion & response monitoring
JP4990234B2 (en) 2008-07-07 2012-08-01 オリンパス株式会社 Ranging device, ranging method, ranging program or imaging device
US9480919B2 (en) * 2008-10-24 2016-11-01 Excalibur Ip, Llc Reconfiguring reality using a reality overlay device
JP5423379B2 (en) * 2009-08-31 2014-02-19 ソニー株式会社 Image processing apparatus, image processing method, and program
CN102472620B (en) 2010-06-17 2016-03-02 松下电器产业株式会社 Image processing apparatus and image processing method
JP5765019B2 (en) * 2011-03-31 2015-08-19 ソニー株式会社 Display control apparatus, display control method, and program
US20150312561A1 (en) * 2011-12-06 2015-10-29 Microsoft Technology Licensing, Llc Virtual 3d monitor
JP2013205983A (en) 2012-03-27 2013-10-07 Sony Corp Information input apparatus, information input method, and computer program
JP2014071499A (en) * 2012-09-27 2014-04-21 Kyocera Corp Display device and control method
US9619911B2 (en) * 2012-11-13 2017-04-11 Qualcomm Incorporated Modifying virtual object display properties
US9256072B2 (en) * 2013-10-02 2016-02-09 Philip Scott Lyren Wearable electronic glasses that detect movement of a real object copies movement of a virtual object
US9898844B2 (en) * 2013-12-31 2018-02-20 Daqri, Llc Augmented reality content adapted to changes in real world space geometry
US9990774B2 (en) * 2014-08-08 2018-06-05 Sony Interactive Entertainment Inc. Sensory stimulus management in head mounted display
US20170061700A1 (en) * 2015-02-13 2017-03-02 Julian Michael Urbach Intercommunication between a head mounted display and a real world object
JP6596883B2 (en) * 2015-03-31 2019-10-30 ソニー株式会社 Head mounted display, head mounted display control method, and computer program
US10775878B2 (en) * 2015-04-10 2020-09-15 Sony Interactive Entertainment Inc. Control of personal space content presented via head mounted display
KR101830657B1 (en) * 2015-04-27 2018-02-21 엘지전자 주식회사 Mobile terminal and control method for the mobile terminal
CN107683497B (en) * 2015-06-15 2022-04-08 索尼公司 Information processing apparatus, information processing method, and program
WO2017047178A1 (en) * 2015-09-16 2017-03-23 ソニー株式会社 Information processing device, information processing method, and program
JP6569452B2 (en) * 2015-10-08 2019-09-04 富士通株式会社 Image generation system, image generation program, and image generation method
US10176636B1 (en) * 2015-12-11 2019-01-08 A9.Com, Inc. Augmented reality fashion
JP2017182739A (en) 2016-03-31 2017-10-05 富士通株式会社 Gaze detection device, gaze detection method and computer program for gaze detection
US9883144B2 (en) 2016-05-12 2018-01-30 Fuji Xerox Co., Ltd. System and method for replacing user media streams with animated avatars in live videoconferences
US10521947B2 (en) * 2017-09-29 2019-12-31 Sony Interactive Entertainment Inc. Rendering of virtual hand pose based on detected hand input
US10500496B2 (en) * 2018-01-12 2019-12-10 International Business Machines Corporation Physical obstacle avoidance in a virtual reality environment

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008270913A (en) 2007-04-16 2008-11-06 Ntt Docomo Inc Controller, mobile communication system, and communication terminal
JP2010268305A (en) 2009-05-15 2010-11-25 Nippon Telegr & Teleph Corp <Ntt> Video mail communication method, device, and program
JP2015080120A (en) 2013-10-17 2015-04-23 コニカミノルタ株式会社 Image processing system, image processing device, and mobile terminal device
JP2017102897A (en) 2016-09-20 2017-06-08 株式会社コロプラ Avatar display system, user terminal, and program

Also Published As

Publication number Publication date
EP3751422A4 (en) 2021-04-21
JPWO2019155735A1 (en) 2021-02-18
CN111670431A (en) 2020-09-15
US20210037063A1 (en) 2021-02-04
US11553009B2 (en) 2023-01-10
WO2019155735A1 (en) 2019-08-15
EP3751422A1 (en) 2020-12-16

Similar Documents

Publication Publication Date Title
JP7279646B2 (en) Information processing device, information processing method and program
JP7127645B2 (en) Information processing device, information processing method, and program
JP5898378B2 (en) Information processing apparatus and application execution method
US10466777B2 (en) Private real-time communication between meeting attendees during a meeting using one or more augmented reality headsets
US11170580B2 (en) Information processing device, information processing method, and recording medium
CN111158469A (en) Visual angle switching method and device, terminal equipment and storage medium
WO2019216419A1 (en) Program, recording medium, augmented reality presentation device, and augmented reality presentation method
CN111045511B (en) Gesture-based control method and terminal equipment
KR102463806B1 (en) Electronic device capable of moving and method for operating thereof
WO2019206186A1 (en) Lip motion recognition method and device therefor, and augmented reality device and storage medium
WO2018139203A1 (en) Information processing device, information processing method, and program
JP2017076202A (en) Reaction output system, reaction output program, and reaction output method
WO2020174554A1 (en) Video display device and video display method
JP2021002145A (en) Virtual space providing system, virtual space providing method, and program
WO2019054037A1 (en) Information processing device, information processing method and program
WO2019138682A1 (en) Information processing device, information processing method, and program
CN111670431B (en) Information processing device, information processing method, and program
JP7094759B2 (en) System, information processing method and program
US20210385101A1 (en) Information processing apparatus and information processing method
US11740773B2 (en) Information processing device and method
WO2022003912A1 (en) Information processing system, and information processing terminal
US20240012599A1 (en) Information processing apparatus, information processing method, and program
WO2023079847A1 (en) Information processing device, information processing method, and storage medium
WO2023090163A1 (en) Information processing device, information processing method, and program
KR20220013235A (en) Method for performing a video calling, display device for performing the same method, and computer readable medium storing a program for performing the same method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230424

R151 Written notification of patent or utility model registration

Ref document number: 7279646

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151