JP7131542B2 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP7131542B2
JP7131542B2 JP2019505761A JP2019505761A JP7131542B2 JP 7131542 B2 JP7131542 B2 JP 7131542B2 JP 2019505761 A JP2019505761 A JP 2019505761A JP 2019505761 A JP2019505761 A JP 2019505761A JP 7131542 B2 JP7131542 B2 JP 7131542B2
Authority
JP
Japan
Prior art keywords
user
virtual object
virtual
information
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019505761A
Other languages
English (en)
Other versions
JPWO2018168247A1 (ja
Inventor
龍一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2018168247A1 publication Critical patent/JPWO2018168247A1/ja
Application granted granted Critical
Publication of JP7131542B2 publication Critical patent/JP7131542B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/847Cooperative playing, e.g. requiring coordinated actions from several players to achieve a common goal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Architecture (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置、情報処理方法およびプログラムに関する。
近年、仮想空間を利用したサービスが普及している。例えば、ユーザは、仮想空間を利用したゲームをプレイすることによって、臨場感のある体験をすることができる。また、離れた位置にいる複数のユーザは、仮想空間を利用して会議を行うことができる。
特許文献1では、上述した仮想空間を利用したサービスに関するシステムが開示されている。特許文献1で開示されているシステムでは、現実のユーザの位置に基づいて、仮想空間における各ユーザの仮想オブジェクトの位置が決定される。
特開2014-17776号公報
しかしながら特許文献1に開示されている技術は、現実のユーザの位置のような特定の情報に基づいて、仮想オブジェクトの位置が決定されるため、仮想オブジェクトに対する柔軟な設定が困難だった。
そこで本開示では、仮想空間における柔軟な仮想オブジェクトの設定が可能な、情報処理装置、情報処理方法およびプログラムが提案される。
本開示によれば、第1のユーザの状態に関する第1の状態情報を取得する情報取得部と、前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報に基づいて設定する設定部と、を備える情報処理装置が提供される。
また、本開示によれば、第1のユーザの状態に関する第1の状態情報を取得することと、前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報に基づいてプロセッサにより設定することと、を含む、情報処理方法が提供される。
また、本開示によれば、プロセッサに、第1のユーザの状態に関する第1の状態情報を取得させ、前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報に基づいて設定させる、プログラムが提供される。
本開示によれば、仮想空間における柔軟な仮想オブジェクトの設定が可能となる。
なお、上記の効果は必ずしも限定されず、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
図1は、本開示の実施形態による情報処理システムを模式的に示す図である。 図2は、本開示の実施形態による表示装置および状態検出装置の構成を示す図である。 図3は、本開示の実施形態によるサーバの構成を示す図である。 図4は、本開示の実施形態における仮想空間のシーンと静的パラメータとの関係を示す図である。 図5は、本開示の実施形態における会議のシーンの構成を示す図である。 図6は、本開示の実施形態におけるコンサートのシーンの構成を示す図である。 図7は、本開示の実施形態における情報処理方法の一例を示す図である。 図8は、本開示の実施形態における動的パラメータと仮想オブジェクト間の距離との関係を示す図である。 図9は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図10は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図11は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図12は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図13は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図14は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図15は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図16は、本開示の実施形態における情報処理方法の一例を示す図である。 図17は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図18は、本開示の実施形態による仮想オブジェクト間の距離が設定される例を示す図である。 図19は、本開示の実施形態による仮想オブジェクトのグループ化が行われる例を示す図である。 図20は、本開示の実施形態における仮想オブジェクトのグループと動的パラメータとの関係を示す図である。 図21は、本開示の実施形態に係るサーバのハードウェア構成の一例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行う。
1.情報処理システムの概要
2.情報処理システムを構成する装置の構成
3.静的パラメータを用いた仮想オブジェクトの設定方法
4.動的パラメータを用いた仮想オブジェクトの設定方法
5.動的パラメータを用いた仮想オブジェクトのグループ化
6.装置のハードウェア構成
7.補足事項
8.むすび
<1.情報処理システムの概要>
以下では、本開示の実施形態による情報処理システムの概要について説明される。図1は、本実施形態の情報処理システムの構成を示す図である。本実施形態の情報処理システムは、表示装置100と、状態検出装置200と、ネットワーク300と、サーバ400から構成される。なお、表示装置100、状態検出装置200およびサーバ400は、本実施形態の情報処理を実行する情報処理装置の一例である。また、表示装置100と状態検出装置200は、1つの情報処理装置によって構成されてもよい。
本実施形態による情報処理システムでは、仮想空間を用いたサービスが提供される。サーバ400は、仮想空間に関する制御を行い、また仮想空間に関する画像情報を生成する。そしてサーバ400は、生成した画像情報をネットワーク300を介して、各ユーザの表示装置100に送信する。各ユーザの表示装置100は、受信した画像情報に基づいて仮想空間に関する映像をユーザに提示する。
また、本実施形態による情報処理システムでは、各ユーザの静的パラメータに基づいて、各ユーザに対応する仮想オブジェクトの位置が設定される。静的パラメータには、ユーザの属性またはユーザの仮想空間における役割が含まれる。また、仮想空間には、複数のシーンが設定される。例えば、仮想空間の複数のシーンは、会議、授業、コンサート、演劇、映画、アトラクション、ゲームなどのシーンを含む。
例えば、シーンが会議であり、ユーザの役割が発表者である場合、仮想オブジェクトは、仮想空間において発表を行うユーザの位置に配置される。このように、仮想オブジェクトの配置が行われることによって、例えば、ユーザは、仮想空間における仮想オブジェクトの位置を設定しなくてもよく、容易に仮想空間を用いたサービスを受けることができる。したがって、ユーザは、ユーザの目的により集中することができる。静的パラメータを用いた仮想オブジェクトの配置方法については、図4から図7を用いて後述される。
また、本実施形態の情報処理システムでは、ユーザの動的パラメータに基づいて、各ユーザに対応する仮想オブジェクトの位置が設定される。動的パラメータには、ユーザの状態を示す、ユーザの挙動またはユーザの生体情報に関する情報が含まれる。したがって、動的パラメータは、ユーザの状態情報と呼ばれてもよい。なお、ユーザの挙動に関する情報には、ユーザの表情、瞬き、姿勢、発声、視線の向きに関する情報のいずれか1つが含まれる。また、ユーザの生体情報には、ユーザの心拍数、体温、発汗に関する情報のいずれか1つが含まれる。
ユーザの動的パラメータは、表示装置100および/または状態検出装置200によって検出される。なお、動的パラメータは、ユーザに装着されるウェアラブルデバイスによって検出されてもよい。検出された動的パラメータは、サーバ400に送信される。サーバ400は、受信した動的パラメータに基づいて、仮想オブジェクトに対する制御を行う。
例えば、サーバ400は、ユーザの動的パラメータに基づいて、ユーザの感情を推定する。推定されるユーザの感情は、複数に区分されてもよい。例えば、推定される感情は、ポジティブ(積極的)、ニュートラル(通常)およびネガティブ(消極的)の3つに区分されてもよい。そして、サーバ400は、推定したユーザの感情に基づいて、仮想オブジェクトに対する制御を行う。
例えば、サーバ400は、推定されたユーザの感情に基づいて、複数の仮想オブジェクトの間の距離を設定してもよい。このとき、推定される感情がポジティブである場合、サーバ400は、複数の仮想オブジェクトの間の距離を小さくしてもよい。また、推定される感情がネガティブである場合、サーバ400は、複数の仮想オブジェクトの間の距離を大きくしてもよい。このように、仮想オブジェクトの間の距離が設定されることによって、例えば、ユーザは、不快なユーザの仮想オブジェクトから離れることができ、親密なユーザの仮想オブジェクトに近づくことができる。したがって、本実施形態の情報処理システムは、コミュニケーションを取っている間のユーザの姿勢または表情など、ユーザが無意識に行う行動から、各ユーザ快適に過ごせる距離を設定し、相手との距離を自動的に調整することができる。
また、サーバ400は、ユーザによって異なる仮想空間の映像を提示してもよい。例えば、ユーザAが、ユーザBに対してネガティブな感情を有すると推定される場合、サーバ400は、ユーザAの表示装置100に提供される仮想空間の映像において、ユーザBの仮想オブジェクトを離して表示させてもよい。一方、サーバ400は、ユーザBの表示装置100に提供される仮想空間の映像において、ユーザAの仮想オブジェクトとの距離を変更しなくてもよい。このように、仮想オブジェクトの間の距離が設定されることによって、例えば、ユーザAは、不快なユーザの仮想オブジェクトから離れることができる一方、ユーザAがユーザBを不快に感じていることをユーザBに認識されることが回避される。したがって、本実施形態の情報処理システムは、相手に不快感を与えずにユーザがコミュニケーションを取りやすい位置に仮想オブジェクトの位置を調整することができる。動的パラメータを用いた仮想オブジェクトの設定については、図8から図20を用いて後述される。
<2.情報処理システムを構成する装置の構成>
以上では、本開示の実施形態による情報処理システムの概要について説明された。以下では、本開示の実施形態による情報処理システムを構成する装置の構成について説明される。
(2-1.表示装置および状態検出装置の構成)
図2は、本実施形態の表示装置100および状態検出装置200の構成の一例を示す図である。最初に、表示装置100の構成について説明される。本実施形態の表示装置100は、例えば、処理部102と、通信部104と、表示部106と、撮像部108と、センサ110とを備える。また、処理部102は、表情検出部112と、視線検出部114とを有する。また、本実施形態の表示装置100は、ユーザの頭に装着されるヘッドマウントディスプレイであってもよい。
処理部102は、表示装置100の各構成からの信号を処理する。例えば処理部102は、通信部104から送られてくる信号の復号処理を行い、データを抽出する。また、処理部102は、表示部106に送信する画像情報を処理する。また、処理部102は、撮像部108またはセンサ110から取得されるデータを処理してもよい。
通信部104は、外部装置(図2では状態検出装置200)と近距離無線によって通信を行う通信部であり、例えばIEEE802委員会によって規定される通信方式(例えばBluetooth(登録商標))を用いて通信を行ってもよい。また通信部104は、Wi-Fiなどの通信方式を用いて通信を行ってもよい。なお、上述した通信方式は一例であり、通信部104の通信方式は、これに限られない。
表示部106は、画像を表示するために用いられる。例えば、表示部106は、サーバ400から受信されるデータに基づく、仮想空間の画像を表示する。撮像部108は、ユーザの顔を撮影するために用いられる。本実施形態において、撮像部108は、特にユーザの目を撮像するために用いられる。
センサ110は、表示装置100の動きを検知する。例えば、センサ110は、加速度センサ、ジャイロセンサ、地磁気センサなどから構成される。加速度センサは、表示装置100に対する加速度を検知する。ジャイロセンサは、表示装置100に対する角加速度および角速度を検知する。地磁気センサは、地磁気を検知し、検知された地磁気に基づいて表示装置100の方向が算出される。
表情検出部112は、撮像部108から取得される画像情報に基づいて、ユーザの表情を検出する。例えば、表情検出部112は、パターンマッチングを行うことによって、ユーザの表情を検出してもよい。具体的には、表情検出部112は、統計的に分類されている所定の表情における人の目の形または動きと、撮像部108から取得されるユーザの目の形または動きを比較することによって、ユーザの表情を検出してもよい。
視線検出部114は、撮像部108から取得される画像情報およびセンサ110から取得されるデータに基づいて、ユーザの視線を検出する。具体的には、視線検出部114は、センサ110から取得されるデータに基づいてユーザの頭の方向を検出し、また撮像部108から取得されるユーザの眼球の動きを検出することによって、ユーザの視線を検出してもよい。また、視線検出部114は、撮像部108から取得される画像情報に基づいて、まばたきを検出してもよい。
以上では、本開示の実施形態による表示装置100の構成について説明された。次に、本開示の実施形態による状態検出装置200の構成について説明される。
本実施形態の状態検出装置200は、ユーザの状態に関する状態情報を取得するために用いられる。状態情報には、ユーザの挙動に関する情報およびユーザの生体情報に関する情報が含まれる。状態検出装置200は、例えば、処理部202と、第1通信部204と、第2通信部206と、撮像部208とを備える。また、処理部202は、身体状態検出部212を有する。
処理部202は、状態検出装置200の各構成からの信号を処理する。例えば処理部202は、第1通信部204から送られてくる信号の処理を行ってもよい。また、処理部202は、撮像部208から取得されるデータを処理してもよい。
第1通信部204は、外部装置(図2では表示装置100)と近距離無線によって通信を行う通信部であり、例えばIEEE802委員会によって規定される通信方式(例えばBluetooth(登録商標))を用いて通信を行ってもよい。また第1通信部204は、Wi-Fiなどの通信方式を用いて通信を行ってもよい。なお、上述した通信方式は一例であり、第1通信部204の通信方式は、これに限られない。
第2通信部206は、有線通信または無線通信によって外部装置(本実施形態ではサーバ400)と通信を行う通信部であり、例えばEthernet(登録商標)に準拠する通信方式を用いて通信を行ってもよい。
撮像部208は、ユーザの身体全体を撮影するために用いられる。また、撮像部208は、赤外線を検知してもよい。マイクロフォン210は、状態検出装置200の周囲の音から音声データを取得する。
身体状態検出部212は、撮像部208から取得される画像情報に基づいて、ユーザの挙動およびユーザの生体情報を判定する。例えば、身体状態検出部212は、エッジ検出などの既存の画像処理を行うことによってユーザの動きまたは姿勢を検出してもよい。例えば、身体状態検出部212は、ユーザが前傾姿勢となっていること、ユーザが腕を組んでいること、ユーザが汗をかいていること、を検出してもよい。また、身体状態検出部212は、撮像部208から取得される赤外線のデータに基づいて、ユーザの体温を検出してもよい。また、身体状態検出部212は、マイクロフォン210から取得される音声データに基づいて、ユーザが声を出していることを検出してもよい。また、身体状態検出部212は、ユーザに装着されるウェアラブル端末からユーザの心拍に関する情報を取得してもよい。
なお、図2においては、表示装置100および状態検出装置200は、2つの装置から構成される。しかしながら、表示装置100および状態検出装置200は、1つの装置から構成されてもよい。例えば、撮像装置およびマイクロフォンを有するテレビなどのユーザから離れて設置される表示装置100によって、図2に示されるような表示装置100および状態検出装置200は、構成されてもよい。この場合、撮像装置からのデータに基づいて、ユーザの視線、表情、挙動、生体情報が検出されてもよい。また、マイクロフォンからのデータに基づいて、ユーザが声を出していることが検出されてもよい。
(2-2.サーバの構成)
以上では、本開示の実施形態による表示装置100および状態検出装置200の構成について説明された。以下では、本開示の実施形態によるサーバ400の構成について説明される。
図3は、本実施形態の情報処理方法に係る処理を行うことが可能な、サーバ400の構成の一例を示す図である。サーバ400は、例えば、処理部402と、通信部404と、記憶部406とを備える。また処理部402は、情報取得部408と、設定部410と、情報生成部412と、を備える。
処理部402は、サーバ400の各構成からの信号を処理する。例えば処理部402は、通信部404から送られてくる信号の復号処理を行い、データを抽出する。また処理部402は、記憶部406からデータを読み出し、読み出されたデータに対する処理を行う。
また、処理部402は、仮想空間に対する様々な処理を行う。なお、処理部402は、各ユーザの表示装置100に対してそれぞれの仮想空間が設定され、当該複数の仮想空間における仮想オブジェクトの配置等に基づいて、各ユーザの表示装置100に異なる仮想空間の映像を提示してもよい。つまり、各ユーザの表示装置100に対する仮想空間における仮想オブジェクトの位置は、それぞれの仮想空間ごとに異なる。
また、処理部402は、1つの仮想空間に対する処理を行い、当該1つの仮想空間における仮想オブジェクトの配置等に基づいて、各ユーザの表示装置100に異なる仮想空間の映像を提示してもよい。つまり、処理部402は、当該1つの仮想空間における仮想オブジェクトの配置に対して補正を行い、各ユーザの表示装置100に対する画像情報を生成してもよい。このように1つの仮想空間に対する処理を行うことによって、処理部402の処理負担は小さくなる。
通信部404は、有線通信または無線通信によって外部装置と通信を行う通信部であり、例えばEthernet(登録商標)に準拠する通信方式を用いて通信を行ってもよい。記憶部406は、処理部402によって使用される各種のデータを格納する。
情報取得部408は、表示装置100または状態検出装置200から、後述するユーザの動的パラメータを取得する。また、情報取得部408は、後述するユーザの静的パラメータを記憶部406またはアプリケーションから取得する。
設定部410は、情報取得部408が取得した静的パラメータまたは動的パラメータに基づいて、仮想空間に対する設定または変更を行う。例えば、設定部410は、仮想空間内のユーザに対応する仮想オブジェクトに対する設定を行ってもよい。具体的には、設定部410は、仮想オブジェクトの配置を設定する。また、設定部410は、仮想オブジェクト間の距離を設定する。
情報生成部412は、設定部410が行った設定に基づいて、表示装置100で表示するための画像情報を生成する。なお、上述したように情報生成部412は、各ユーザの表示装置100に対して、異なる仮想空間の画像情報を生成してもよい。
<3.静的パラメータを用いた仮想オブジェクトの設定方法>
以上では、本開示の実施形態による情報処理システムを構成する各装置の構成について説明された。以下では、本開示の実施形態による静的パラメータを用いた仮想オブジェクトの設定方法について説明される。
本実施形態では、ユーザの静的パラメータを用いて、仮想空間における仮想オブジェクトに対する設定が行われる。例えば、本実施形態による情報処理システムでは、ユーザの静的パラメータに基づいて、仮想オブジェクトの位置が設定される。なお、静的パラメータは、予めサーバ400の記憶部406等に記憶されている情報であってもよく、センサ110または撮像部108、208などによって検出される情報に基づいて、本実施形態の情報処理が行われている間に変更されない情報を意味する。
また、本実施形態による情報処理システムでは、上述した仮想オブジェクトに対する設定が行われる場合、予め設定される仮想空間のシーンが用いられる。例えば、仮想空間のシーンには、会議、授業、コンサート、演劇、映画、アトラクション、ゲームなどのシーンが含まれる。
図4は、仮想空間のシーンと、仮想オブジェクトの設定のために用いられる静的パラメータとの関係を示す図である。例えば、シーンが会議の場合、ユーザの属性に関する情報である、ユーザの基本情報、ユーザの所属部署、ユーザの役職などの情報が、仮想オブジェクトの設定のために用いられる。なお、ユーザの基本情報には、ユーザの年齢、性別、国籍、使用言語、身体情報が含まれてもよい。ここで身体情報には、ユーザの身長、体重に関する情報が含まれてもよい。また、会議におけるユーザの役割(例えば、発表者、司会、傍聴者)、会議への参加回数に関する情報が、仮想オブジェクトの設定のために用いられてもよい。
なお、ユーザの役割は、ユーザによって設定されてもよく、スケジュール管理のためのアプリケーションから取得されてもよい。例えば、ユーザが、スケジュール管理のためのアプリケーションにおいて、会議における発表者であることを登録している場合、当該アプリケーションから役割に関する情報が取得されてもよい。また、同様に、シーン(この例では、会議)に関する情報も、アプリケーションから取得されてもよい。このように、アプリケーションから情報が取得されることによって、ユーザは、仮想空間における設定を行わずに、より容易に仮想空間を用いたサービスを受けることができる。したがって、ユーザは、ユーザの目的により集中することができる。
また、シーンがコンサートの場合、ユーザの基本情報、コンサートにおけるユーザの役割(例えば、出演者、観客)、コンサートへの参加回数に関する情報が、仮想オブジェクトの設定のために用いられてもよい。また、シーンが授業の場合、ユーザの基本情報、授業におけるユーザの役割(例えば、先生、生徒)に関する情報が、仮想オブジェクトの設定のために用いられてもよい。
図5は、シーンとして会議が設定される場合の、予め設定される仮想オブジェクトのレイアウトを示す図である。図5において白丸で表される位置は、ユーザの仮想オブジェクトを配置することが可能な位置を示す。
例えば、発表者または司会者であるユーザの仮想オブジェクトは、「A」で示される位置に配置されてもよい。また、傍聴者であるユーザの仮想オブジェクトは、「A」で示される位置以外に配置されてもよい。
また、傍聴者であるユーザのうち、役職が高いユーザの仮想オブジェクトは、「A」で示される位置に近い位置に配置されてもよい。また、傍聴者であるユーザのうち、所定の目的に関する会議(例えば、所定のプロジェクトに関する会議)における参加回数が多いユーザの仮想オブジェクトは、「A」で示される位置に近い位置に配置されてもよい。また、性別が同じユーザの仮想オブジェクトは、隣り合うように配置されてもよい。また、所属部署が同じユーザの仮想オブジェクトは、隣り合うように配置されてもよい。
図6は、シーンとしてコンサートが設定される場合の、仮想オブジェクトのレイアウトを示す図である。図6では、例えば、出演者であるユーザの仮想オブジェクトは、「A」で示される位置に配置されてもよい。また、観客であるユーザの仮想オブジェクトは、「A」で示される位置以外に配置されてもよい。
また、観客であるユーザのうち、特定の出演者のコンサートにおける参加回数が多いユーザの仮想オブジェクトは、「A」で示される位置に近い位置に配置されてもよい。また、性別が同じユーザの仮想オブジェクトは、隣り合うように配置されてもよい。
以上説明したように本開示の情報処理システムでは、ユーザの静的パラメータに基づいて、ユーザに対応する仮想オブジェクトの位置が設定される。このように、仮想オブジェクトの配置が行われることによって、ユーザは、仮想空間における仮想オブジェクトの位置を設定しなくてもよく、容易に仮想空間を用いたサービスを受けることができる。
図7は、上述した静的パラメータを用いた仮想オブジェクトの設定を行うための情報処理を示すフロー図である。S102において、情報取得部408は、ユーザの静的パラメータを記憶部406またはアプリケーションから取得する。
次に、S104において、設定部410は、仮想空間におけるシーンを判定する。例えば、設定部410は、ユーザからの登録情報に基づいてシーンを設定してもよく、アプリケーションからの情報に基づいてシーンを設定してもよい。
S106において、設定部410は、S102において取得された静的パラメータおよびS104において判定されたシーンに基づいて、仮想オブジェクトを配置する。そして、S108において、情報生成部412は、S106において設定された仮想オブジェクトの配置等に基づいて、各ユーザの表示装置100に対する表示画像を生成する。
<4.動的パラメータを用いた仮想オブジェクトの設定方法>
以上では、本開示の実施形態による静的パラメータを用いた仮想オブジェクトの設定方法について説明された。以下では、本開示の実施形態による動的パラメータを用いた仮想オブジェクトの設定方法について説明される。
本実施形態では、ユーザの動的パラメータを用いて、仮想空間における仮想オブジェクトに対する設定が行われる。例えば、本実施形態による情報処理システムでは、ユーザの動的パラメータに基づいて、仮想オブジェクトの位置が設定される。具体的には、本実施形態による情報処理システムでは、ユーザの動的パラメータに基づいて、複数の仮想オブジェクトの間の距離が設定される。なお、動的パラメータは、センサ110または撮像部108、208などによって検出される情報に基づいて、本実施形態の情報処理が行われている間に随時更新される情報を意味する。
図8は、仮想オブジェクトの設定のために用いられる動的パラメータと、当該動的パラメータを用いて推定されるユーザの感情と、設定される仮想オブジェクト間の距離との関係を示す図である。図8に示されるように、動的パラメータは、設定される仮想オブジェクト間の距離または推定されるユーザの感情に対応付けて区分される。
図8では、動的パラメータとして、ユーザの挙動およびユーザの生体情報に関する情報が含まれる。例えば、ユーザの挙動には、ユーザが、「目を凝らすこと」、「前傾姿勢を取ること」、「大きな声を出すこと」、「髪を触ること」、「まばたきをすること」、「腕を組むこと」、「汗をかいていること」が含まれてもよい。また、ユーザの生体情報には、ユーザの「体温」、「心拍」に関する情報が含まれてもよい。
そして、動的パラメータは、ユーザの感情を推定するために用いられる。図8では、ユーザが、目を凝らす、前傾姿勢を取るまたは大きな声を出す状態となれば、ユーザは、ポジティブな感情であると推定される。また、ユーザが、髪を触る、多くの(高頻度で)まばたきをする、腕を組むまたは汗をかく状態となれば、ユーザは、ネガティブな感情であると推定される。また、ユーザの体温が上昇したまたは心拍数が上昇した場合、ユーザは、ネガティブな感情であると推定される。また、上記のユーザの状態が検出されない場合、ユーザの感情は、ニュートラルであると推定される。
なお、上述した動的パラメータと推定される感情は一例であり、上述した例に限られない。また、上述した動的パラメータと推定される感情との関係は一例であり、上述した例に限られない。例えば、ユーザの体温が上昇した場合、ユーザの感情はポジティブであると推定されてもよい。
そして、推定されるユーザの感情がポジティブである場合、仮想オブジェクト間の距離は、小さくなる。また、推定されるユーザの感情がネガティブである場合、仮想オブジェクト間の距離は、大きくなる。また、推定されるユーザの感情がニュートラルである場合、仮想オブジェクト間の距離は、変更されない。なお、距離を変化させる大きさは、一律であってもよく、検出される動的パラメータに応じて可変にされてもよい。例えば、ユーザの心拍数の上昇度に応じて、距離を変化させる大きさは変えられてもよい。
図9から図15は、本実施形態の情報処理システムにおける仮想オブジェクト間の距離の変化を示す図である。なお、本実施形態では、各ユーザの表示装置100に対して異なる仮想空間の映像が提示される。上述したように、各ユーザの表示装置100に対してそれぞれの仮想空間が設定され、当該複数の仮想空間における仮想オブジェクトの配置等に基づいて、各ユーザの表示装置100に異なる仮想空間の映像が提示されてもよい。また、複数のユーザの表示装置100に共有される1つの仮想空間における仮想オブジェクトの配置等に基づいて、各ユーザの表示装置100に異なる仮想空間の映像が提示されてもよい。
以下では、簡略化のために、各ユーザの表示装置100に対して、それぞれ仮想空間が設定される例について説明される。したがって、図9から図15において、「ユーザA」と記される図は、ユーザAの表示装置100に対する仮想空間を意味し、「ユーザB」と記される図は、ユーザBの表示装置100に対する仮想空間を意味する。
図9は、上述した静的パラメータに基づいて設定される仮想オブジェクトの初期位置を示す図である。図9で示されるように、最初、ユーザAの表示装置100に対する仮想空間における仮想オブジェクト間の距離と、ユーザBの表示装置100に対する仮想空間における仮想オブジェクト間の距離とは、同じである。
図10は、ユーザのポジティブな感情が推定される場合の仮想オブジェクト間の距離の変更を示す図である。例えば、ユーザBが前傾姿勢を取った場合、ユーザBは、ユーザAに対してポジティブな感情を有すると推定される。よって、ユーザBの表示装置100に対する仮想空間における仮想オブジェクト間の距離は、小さくなる。つまり、ユーザBの表示装置100に対する仮想空間において、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトに近づく。なお、この場合、ユーザBの表示装置100において、ユーザAの仮想オブジェクトがユーザBから近い位置に配置されるように、ユーザAの仮想オブジェクトの表示態様が設定される。つまり、ユーザBの表示装置100において、ユーザAの仮想オブジェクトが大きく表示されるように、ユーザAの仮想オブジェクトの表示態様が設定される。
一方、ユーザBがユーザAに対してポジティブな感情を有すると推定される場合であっても、ユーザAの表示装置100に対する仮想空間における仮想オブジェクト間の距離は、変更されない。
図11は、ユーザのネガティブな感情が推定される場合の仮想オブジェクト間の距離の変更を示す図である。例えば、ユーザBが腕を組んだ場合、ユーザBは、ユーザAに対してネガティブな感情を有すると推定される。よって、ユーザBの表示装置100に対する仮想空間における仮想オブジェクト間の距離は、大きくなる。つまり、ユーザBの表示装置100に対する仮想空間において、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトから遠のく。なお、この場合、ユーザBの表示装置100において、ユーザAの仮想オブジェクトがユーザBから遠い位置に配置されるように、ユーザAの仮想オブジェクトの表示態様が設定される。つまり、ユーザBの表示装置100において、ユーザAの仮想オブジェクトが小さく表示されるように、ユーザAの仮想オブジェクトの表示態様が設定される。
一方、ユーザBがユーザAに対してネガティブな感情を有すると推定される場合であっても、ユーザAの表示装置100に対する仮想空間における仮想オブジェクト間の距離は、変更されない。以上のように、それぞれのユーザの表示装置100に対する仮想空間において、異なった処理が行われることによって、ユーザAは、ユーザBがユーザAに対してどのような感情を有しているかを認識できない。特に、ユーザBがユーザAに対してネガティブな感情を有している場合、ユーザBがユーザAに対してネガティブな感情を有していることが、ユーザAに認識されないため、上述したような処理は有益である。
以上では、本実施形態における基本的な仮想オブジェクトの設定について説明された。以下では、他の仮想オブジェクトが侵入できないパーソナルスペースが、仮想オブジェクトに対して設定される例について説明される。なお、パーソナルスペースは、他の仮想オブジェクトが侵入できない領域を示すため、非干渉領域と呼ばれてもよい。図12から図15において、パーソナルスペースは、点線を用いて示される。
図12は、ユーザBに対応する仮想オブジェクトに対してパーソナルスペースが設定される例を示す図である。また、図12は、ユーザのポジティブな感情が推定される場合の仮想オブジェクト間の距離の変更を示す図である。図12で示されるように、ユーザBの表示装置100に対する仮想空間において、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトに近づく。
ユーザAに対応する仮想オブジェクトがユーザBに対応する仮想オブジェクトに近づいていくと、ポイントPで示されるように、ユーザAに対応する仮想オブジェクトがパーソナルスペースの一部に接触する。このとき、ユーザAに対応する仮想オブジェクトは、それ以上ユーザBに対応する仮想オブジェクトに近づけなくなる。
このように、非干渉領域が設定されることによって、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトに近づきすぎることを回避することができる。これにより、ユーザBは、圧迫感を感じずに仮想空間におけるサービスを受けることができる。
図13は、ユーザAに対応する仮想オブジェクトに対しても、パーソナルスペースが設定される例を示す図である。また、図13は、ユーザのポジティブな感情が推定される場合の仮想オブジェクト間の距離の変更を示す図である。図13で示されるように、ユーザBの表示装置100に対する仮想空間において、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトに近づく。
ユーザAに対応する仮想オブジェクトがユーザBに対応する仮想オブジェクトに近づいていくと、ポイントPで示されるように、ユーザAに対応する仮想オブジェクトに対して設定されるパーソナルスペースが、ユーザBに対応する仮想オブジェクトに対して設定されるパーソナルスペースの一部に接触する。このとき、ユーザAに対応する仮想オブジェクトは、それ以上ユーザBに対応する仮想オブジェクトに近づかなくなる。
このように、非干渉領域が設定されることによって、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトに近づきすぎることを回避することができる。これにより、ユーザAに対応する仮想オブジェクトがユーザBに対応する仮想オブジェクトに対して不用意に接近することなく、ユーザAは、仮想空間におけるサービスを受けることができる。
なお、上述したパーソナルスペースに対する処理は一例である。したがって、図14に示されるように、ユーザAおよびユーザBの双方の仮想オブジェクトに対してパーソナルスペースが設定される場合、ユーザBの仮想オブジェクトに対して設定されるパーソナルスペースが優先されてもよい。
つまり、図14においてポイントPで示されるように、ユーザAに対応する仮想オブジェクトが、ユーザBの仮想オブジェクトに対して設定されるパーソナルスペースに接触するまで、仮想オブジェクト間の距離は小さくされてもよい。
また、図15に示されるように、ユーザAおよびユーザBの双方の仮想オブジェクトに対してパーソナルスペースが設定される場合、ユーザAの仮想オブジェクトに対して設定されるパーソナルスペースが優先されてもよい。
つまり、図15においてポイントPで示されるように、ユーザBに対応する仮想オブジェクトが、ユーザAの仮想オブジェクトに対して設定されるパーソナルスペースに接触するまで、仮想オブジェクト間の距離は小さくされてもよい。
また、パーソナルスペースの大きさは、上述した静的パラメータに基づいて、設定されてもよい。例えば、ユーザの身長に応じて、パーソナルスペースの大きさは、設定されてもよい。具体的には、ユーザの身長が大きい場合、当該ユーザのパーソナルスペースの大きさは、大きく設定されてもよい。また、ユーザの役職に応じて、パーソナルスペースの大きさは、設定されてもよい。具体的には、ユーザの役職が高い場合、当該ユーザのパーソナルスペースの大きさは、大きく設定されてもよい。
図16は、上述した動的パラメータを用いた仮想オブジェクトの設定を行うための情報処理を示すフロー図である。S202において、情報取得部408は、ユーザの動的パラメータを表示装置100または状態検出装置200から取得する。
次にS204において、設定部410は、取得された動的パラメータに基づいて、ユーザの感情を推定する。そして、S206において設定部410は、S204で推定された感情に基づいて、仮想オブジェクト間の距離を設定する。
S208において、設定部410は、S206で設定された距離において、仮想オブジェクトに設定されたパーソナルスペースに干渉があるか否かを判定する。S208において干渉がある場合、S210において、設定部410は、干渉が無いように、仮想オブジェクト間の距離を再設定する。S208において干渉が無い場合、処理はS212に進む。
S212において、情報生成部412は、S206またはS210において設定された仮想オブジェクト間の距離に基づいて、各ユーザの表示装置100に対する表示画像を生成する。
なお、上述した情報処理の例では、設定部410は、動的パラメータの区分に基づいて、ユーザの感情を推定した。しかしながら、設定部410は、ユーザの感情を推定しなくてもよい。つまり、動的パラメータの区分と、仮想オブジェクト間の距離の設定は、直接関連付けられてもよい。具体的には、ユーザが目を凝らした場合、仮想オブジェクト間の距離は小さくなってもよい。また、ユーザの体温が上昇した場合、仮想オブジェクト間の距離は大きくなってもよい。
なお、本実施形態の情報処理は、複数人に対する仮想オブジェクトの設定にも適用される。図17は、3人で本実施形態のシステムを使用する場合の、各ユーザの表示装置100に対する仮想空間の状況を示す図である。
図17では、ユーザA、ユーザB、ユーザCに対応する仮想オブジェクトが、三角形上に配置されている。なお、図17において、矢印は、ユーザA、ユーザB、ユーザCに対応する仮想オブジェクトの向きを示す。
図18は、図17で示された仮想オブジェクト間の距離が、動的パラメータに基づいて再設定された場合の、各ユーザの表示装置100に対する仮想空間の状況を示す図である。したがって図18では、ユーザAはユーザBに対してポジティブな感情を有し、ユーザBはユーザCに対してポジティブな感情を有し、ユーザCはユーザAに対してポジティブな感情を有する。この場合、各ユーザに対応する仮想オブジェクトが重ならないように、仮想オブジェクトは、正三角形(3人以上であれば正多角形)の辺に沿って、移動してもよい。
なお、図18に示すように、仮想オブジェクト間の距離が変更された後にユーザが首ふりなどの動作を行うと、顔の向きが正しい方向に向かない可能性がある。したがって、本実施形態では、このようなユーザの首を振る動作に対する映像の補正を行う。
例えば、図18に示されるユーザBの表示装置100に対する仮想空間において、ユーザBがユーザAの方向に顔を向ける場合、ユーザBの仮想オブジェクトは、60°首を振る動作を行う。しかしながら、図18に示されるユーザAの表示装置100に対する仮想空間においては、ユーザBが60°首を振る動作を行っても、ユーザBの仮想オブジェクトは、ユーザAの方向に向かない。これは、ユーザAの表示装置100に対する仮想空間とユーザBの表示装置100に対する仮想空間との間で、ユーザAの仮想オブジェクトとユーザBの仮想オブジェクトとの位置関係が異なるからである。
したがって、本実施形態では、ユーザBが60°首を振る動作を行った場合に、設定部410は、ユーザBはユーザAの方向に顔を向けたいと推定し、情報生成部412は、ユーザAの表示装置100に対する仮想空間において、ユーザBの仮想オブジェクトの首を90°振ったように見せる映像処理を行う。これによって、各ユーザの表示装置100における仮想空間の表示が違和感なく行われる。
<5.動的パラメータを用いた仮想オブジェクトのグループ化>
以上では、本開示の実施形態による動的パラメータを用いた仮想オブジェクトの設定方法について説明される。以下では、本開示の実施形態による動的パラメータを用いた仮想オブジェクトのグループ化について説明される。
図19は、動的パラメータを用いて、仮想オブジェクトがグループ化される例を示す図である。図19では、コンサートのシーンにおいて、観客であるユーザに対応する仮想オブジェクトが配置される位置が、3つのグループにグループ分けされる。本実施形態では、動的パラメータに基づいて、各ユーザの仮想オブジェクトが3つのグループのうちの1つに分類される。例えば、3つのグループは、コンサートを静かに聞くユーザのグループ、歌いたいユーザのグループ、踊りたいユーザのグループに分類されてもよい。
そして、コンサートを静かに聞くユーザのグループの仮想オブジェクトは、図19の「3」で示される位置に配置されてもよい。また、歌いたいユーザのグループの仮想オブジェクトは、図19の「1」で示される位置に配置されてもよい。また、踊りたいユーザのグループの仮想オブジェクトは、図19の「2」で示される位置に配置されてもよい。
図20は、分類されるグループと、動的パラメータとの関係を示す図である。例えば、ユーザが、座っているまたは声を出していない場合、当該ユーザは、コンサートを静かに聞くユーザのグループに分類されてもよい。また、ユーザが、声を出している場合、当該ユーザは、歌いたいユーザのグループに分類されてもよい。また、ユーザが、立っているまたは体を動かしている場合、当該ユーザは、踊りたいユーザのグループに分類されてもよい。
なお、上述されたグループの分類は、シーンがコンサートである場合の一例であり、グループの分類はこれに限られない。例えば、シーンが会議である場合、グループは、発言するユーザのグループ、メモを取るユーザのグループに分類されてもよい。
なお、上述したグループは、検出される動的パラメータの変化に応じて、変更されてもよい。例えば、座っていたユーザが立った場合、静かに聞くグループから踊るグループに、グループが変更されてもよい。
このようにユーザが、動的パラメータに応じてグループ化されることによって、より正確が類似するユーザ同士のコミュニケーションを図ることができる。特に、コンサートの仮想空間においては、踊るユーザが、静かに聞くユーザを邪魔するなど、性格が異なるユーザによって、邪魔をされることが回避される。
<6.装置のハードウェア構成>
以下では、図21を参照しながら、本開示の実施形態に係るサーバ400のハードウェア構成について、詳細に説明する。図21は、本開示の実施形態に係るサーバ400のハードウェア構成を説明するためのブロック図である。
サーバ400は、主に、CPU901と、ROM903と、RAM905と、を備える。また、サーバ400は、更に、ホストバス907と、ブリッジ909と、外部バス911と、インターフェース913と、入力装置915と、出力装置917と、ストレージ装置919と、ドライブ921と、接続ポート923と、通信装置925とを備える。
CPU901は、中心的な処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919、又はリムーバブル記録媒体927に記録された各種プログラムに従って、サーバ400内の動作全般又はその一部を制御する。なお、CPU901は、処理部402の機能を有してもよい。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバーなどユーザが操作する操作手段である。また入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。ユーザは、この入力装置915を操作することにより、サーバ400に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプなどの表示装置や、スピーカ及びヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、サーバ400が行った各種処理により得られた結果を出力する。具体的には、表示装置は、サーバ400が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、サーバ400の記憶部406の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種データなどを格納する。
ドライブ921は、記録媒体用リーダライタであり、サーバ400に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD-DVDメディア、Blu-ray(登録商標)メディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、又は、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート923は、機器をサーバ400に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS-232Cポート、光オーディオ端子、HDMI(登録商標)(High-Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、サーバ400は、外部接続機器929から直接各種データを取得したり、外部接続機器929に各種データを提供したりする。
通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線又は無線LAN(Local Area Network)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
<7.補足事項>
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属する。
例えば、上述した例では、仮想空間および仮想オブジェクトに対する制御または処理は、サーバ400によって行われた。しかしながら、本実施形態の情報処理システムは、サーバ400を含まずに構成されてもよい。例えば、本実施形態の情報処理システムによる情報処理は、複数の表示装置100および状態検出装置200が連動することによって行われてもよい。このとき、複数の表示装置100および状態検出装置200のうちの1つが、サーバ400の代わりに、本実施形態においてサーバ400が行う制御または処理を行ってもよい。また、複数の表示装置100および状態検出装置200が分散して、本実施形態においてサーバ400が行う制御または処理を行ってもよい。
また、上述した例では、仮想オブジェクトの間の距離が変更される例が説明された。しかしながら、仮想オブジェクトの表示態様の変更の例は、これに限られない。例えば、ユーザBが、ネガティブな感情を有すると判定される場合、ユーザAに対応する仮想オブジェクトは、例えば、動物の仮想オブジェクトに置き換えられてもよい。また、ユーザAに対応する仮想オブジェクトの一部がデフォルメされてもよい。例えば、ユーザAに対応する仮想オブジェクトの目が大きくなるように、デフォルメが行われてもよい。
また、図10を用いた例では、ユーザBがユーザAに対してポジティブな感情を有すると推定される場合、ユーザBの表示装置100に対する仮想空間において、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトに近づいた。つまり、ユーザBの動的パラメータの変化に基づいて、ユーザBの表示装置100に対応する仮想空間におけるユーザAの仮想オブジェクトの位置が変更された。しかしながら、ユーザAの動的パラメータの変化に基づいて、ユーザBの表示装置100に対応する仮想空間におけるユーザAの仮想オブジェクトの位置が変更されてもよい。つまり、ユーザAがユーザBに対してポジティブな感情を有すると推定される場合、ユーザBの表示装置100に対する仮想空間において、ユーザAに対応する仮想オブジェクトが、ユーザBに対応する仮想オブジェクトに近づいてもよい。なお、このような制御は、ユーザAがユーザBに対してポジティブな感情を有した場合に行われてもよく、ユーザAがユーザBに対してネガティブな感情を有した場合には行われなくてもよい。
また、表示装置100の処理部102、状態検出装置200の処理部202およびサーバ400の処理部402を、上述したような動作を行わせるためのコンピュータプログラムが提供されてもよい。また、このようなプログラムが記憶された記憶媒体が提供されてもよい。
<8.むすび>
以上説明したように本開示の情報処理システムでは、各ユーザの静的パラメータに基づいて、各ユーザに対応する仮想オブジェクトの位置が設定される。このように、仮想オブジェクトの配置が行われることによって、ユーザは、仮想空間における仮想オブジェクトの位置を設定しなくてもよく、容易に仮想空間を用いたサービスを受けることができる。したがって、ユーザは、ユーザの目的により集中することができる。
また、本開示の情報処理システムでは、ユーザの動的パラメータに基づいて、各ユーザに対応する仮想オブジェクトの位置が設定される。このように、仮想オブジェクトの間の距離が設定されることによって、ユーザは、不快なユーザの仮想オブジェクトから離れることができ、親密なユーザの仮想オブジェクトに近づくことができる。したがって、本実施形態の情報処理システムは、コミュニケーションを取っている間のユーザの姿勢または表情など、ユーザが無意識に行う行動から、各ユーザ快適に過ごせる距離を設定し、相手との距離を自動的に調整することができる。
また、本開示の情報処理システムでは、ユーザによって異なる仮想空間の映像が提示されてもよい。このように、仮想空間に対する制御が行われることによって、例えば、ユーザAは、不快なユーザの仮想オブジェクトから離れることができる一方、ユーザAがユーザBを不快に感じていることが、ユーザBに認識されることが回避される。したがって、本実施形態の情報処理システムは、相手に不快感を与えずにユーザがコミュニケーションを取りやすい位置に仮想オブジェクトの位置を調整することができる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
第1のユーザの状態に関する第1の状態情報を取得する情報取得部と、
前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報に基づいて設定する設定部と、を備える情報処理装置。
(2)
前記表示態様の設定は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離の設定を含む、前記(1)に記載の情報処理装置。
(3)
前記第1の状態情報は、複数の区分に分類され、
前記設定部は、前記第1の状態情報の前記区分を判定し、
前記判定の結果、前記第1のユーザが積極的であると判定される場合、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を小さくし、
前記第1のユーザが消極的であると判定される場合、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を大きくする、前記(2)に記載の情報処理装置。
(4)
前記設定部は、前記第1のユーザの第1の装置に対する前記仮想空間における前記第2の仮想オブジェクトの表示態様と、前記第2のユーザの第2の装置に対する前記仮想空間における前記第1の仮想オブジェクトの表示態様と、を異ならせる、前記(1)から前記(3)のいずれか1項に記載の情報処理装置。
(5)
前記設定部は、前記第1の状態情報に基づいて、前記第1の装置に対する前記仮想空間における前記第2の仮想オブジェクトの表示態様を変更し、
前記第1の状態情報に基づく、前記第2の装置に対する前記仮想空間における前記第1の仮想オブジェクトの表示態様の変更を行わない、前記(4)に記載の情報処理装置。
(6)
前記第1の装置に対する前記仮想空間と、前記第2の装置に対する前記仮想空間は、同じ仮想空間である、前記(4)または前記(5)に記載の情報処理装置。
(7)
前記設定部は、前記第1の仮想オブジェクトに対する非干渉領域または前記第2の仮想オブジェクトに対する非干渉領域に基づいて、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、前記(2)から前記(6)のいずれか1項に記載の情報処理装置。
(8)
前記第1の仮想オブジェクトに対する前記非干渉領域は、前記第1のユーザの属性に関する情報に基づいて設定され、
前記第2の仮想オブジェクトに対する前記非干渉領域は、前記第2のユーザの属性に関する情報に基づいて設定される、前記(7)に記載の情報処理装置。
(9)
前記設定部は、前記第1の仮想オブジェクトに対する非干渉領域内に前記第2の仮想オブジェクトが侵入しないように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、前記(7)に記載の情報処理装置。
(10)
前記設定部は、前記第2の仮想オブジェクトに対する非干渉領域内に前記第1の仮想オブジェクトが侵入しないように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、前記(7)に記載の情報処理装置。
(11)
前記設定部は、前記第1の仮想オブジェクトに対する非干渉領域と前記第2の仮想オブジェクトに対する非干渉領域とが重複しないように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、前記(7)に記載の情報処理装置。
(12)
前記情報取得部は、前記第2のユーザの状態に関する第2の状態情報を取得し、
前記設定部は、前記第2の仮想オブジェクトの表示態様を、前記第2の状態情報に基づいて設定する、前記(1)から前記(11)のいずれか1項に記載の情報処理装置。
(13)
前記第1の状態情報は、前記第1のユーザの挙動または生体情報に関する情報であり、前記第2の状態情報は、前記第2のユーザの挙動または生体情報に関する情報である、前記(12)に記載の情報処理装置。
(14)
前記挙動に関する情報には、ユーザの表情、瞬き、姿勢、発声、視線の向きに関する情報のいずれか1つが含まれ、前記生体情報には、ユーザの心拍数、体温、発汗に関する情報のいずれか1つが含まれる、前記(13)に記載の情報処理装置。
(15)
前記設定部は、前記第1の状態情報に基づいて、前記第1の仮想オブジェクトを、前記仮想空間における複数のグループのうちの1つのグループに設定する、前記(1)から前記(14)のいずれか1項に記載の情報処理装置。
(16)
前記設定部は、前記第1のユーザの静的パラメータに基づいて、前記第1の仮想オブジェクトの前記仮想空間における位置を設定する、前記(1)から前記(15)のいずれか1項に記載の情報処理装置。
(17)
前記静的パラメータは、前記第1のユーザのユーザ属性または前記第1のユーザの前記仮想空間における役割を含む、前記(16)に記載の情報処理装置。
(18)
前記仮想空間は、複数のシーンを有し、
前記設定部は、前記仮想空間として設定される複数の前記シーンのうちの1つに応じて、前記第1の仮想オブジェクトの位置を設定する、前記(16)または前記(17)に記載の情報処理装置。
(19)
第1のユーザの状態に関する第1の状態情報を取得することと、
前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報に基づいてプロセッサにより設定することと、を含む、情報処理方法。
(20)
プロセッサに、第1のユーザの状態に関する第1の状態情報を取得させ、
前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報に基づいて設定させる、プログラム。
100 表示装置
102 処理部
104 通信部
106 表示部
108 撮像部
110 センサ
112 表情検出部
114 視線検出部
200 状態検出装置
202 処理部
204 第1通信部
206 第2通信部
208 撮像部
210 マイクロフォン
212 身体状態検出部
300 ネットワーク
400 サーバ
402 処理部
404 通信部
406 記憶部
408 情報取得部
410 設定部
412 情報生成部

Claims (20)

  1. 第1のユーザの状態に関する第1の状態情報および仮想空間に参加する各ユーザの静的パラメータを取得する情報取得部と、
    前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される前記仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報および前記静的パラメータに基づいて設定する設定部と、を備え、
    前記設定部は、
    前記仮想空間に、予め定められた場面設定であるシーンを設定するとともに、同一の場面設定である前記シーンに参加した前記第2のユーザの参加回数に応じて、仮想空間における前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが配置される距離を設定する、情報処理装置。
  2. 前記表示態様の設定は、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離の設定を含む、請求項1に記載の情報処理装置。
  3. 前記第1の状態情報は、複数の区分に分類され、
    前記設定部は、前記第1の状態情報の前記区分を判定し、
    前記判定の結果、前記第1のユーザが積極的であると判定される場合、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を小さくし、
    前記第1のユーザが消極的であると判定される場合、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を大きくする、請求項2に記載の情報処理装置。
  4. 前記設定部は、前記第1のユーザの第1の装置に対する前記仮想空間における前記第2の仮想オブジェクトの表示態様と、前記第2のユーザの第2の装置に対する前記仮想空間における前記第1の仮想オブジェクトの表示態様と、を異ならせる、請求項1に記載の情報処理装置。
  5. 前記設定部は、前記第1の状態情報に基づいて、前記第1の装置に対する前記仮想空間における前記第2の仮想オブジェクトの表示態様を変更し、
    前記第1の状態情報に基づく、前記第2の装置に対する前記仮想空間における前記第1の仮想オブジェクトの表示態様の変更を行わない、請求項4に記載の情報処理装置。
  6. 前記第1の装置に対する前記仮想空間と、前記第2の装置に対する前記仮想空間は、同じ仮想空間である、請求項4に記載の情報処理装置。
  7. 前記設定部は、前記第1の仮想オブジェクトに対する非干渉領域または前記第2の仮想オブジェクトに対する非干渉領域に基づいて、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、請求項2に記載の情報処理装置。
  8. 前記第1の仮想オブジェクトに対する前記非干渉領域は、前記第1のユーザの属性に関する情報に基づいて設定され、
    前記第2の仮想オブジェクトに対する前記非干渉領域は、前記第2のユーザの属性に関する情報に基づいて設定される、請求項7に記載の情報処理装置。
  9. 前記設定部は、前記第1の仮想オブジェクトに対する非干渉領域内に前記第2の仮想オブジェクトが侵入しないように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、請求項7に記載の情報処理装置。
  10. 前記設定部は、前記第2の仮想オブジェクトに対する非干渉領域内に前記第1の仮想オブジェクトが侵入しないように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、請求項7に記載の情報処理装置。
  11. 前記設定部は、前記第1の仮想オブジェクトに対する非干渉領域と前記第2の仮想オブジェクトに対する非干渉領域とが重複しないように、前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとの間の距離を設定する、請求項7に記載の情報処理装置。
  12. 前記情報取得部は、前記第2のユーザの状態に関する第2の状態情報を取得し、
    前記設定部は、前記第2の仮想オブジェクトの表示態様を、前記第2の状態情報に基づいて設定する、請求項1に記載の情報処理装置。
  13. 前記第1の状態情報は、前記第1のユーザの挙動または生体情報に関する情報であり、前記第2の状態情報は、前記第2のユーザの挙動または生体情報に関する情報である、請求項12に記載の情報処理装置。
  14. 前記挙動に関する情報には、ユーザの表情、瞬き、姿勢、発声、視線の向きに関する情報のいずれか1つが含まれ、前記生体情報には、ユーザの心拍数、体温、発汗に関する情報のいずれか1つが含まれる、請求項13に記載の情報処理装置。
  15. 前記設定部は、前記第1の状態情報に基づいて、前記第1の仮想オブジェクトを、前記仮想空間における複数のグループのうちの1つのグループに設定する、請求項1に記載の情報処理装置。
  16. 前記設定部は、前記第1のユーザの前記静的パラメータに基づいて、前記第1の仮想オブジェクトの前記仮想空間における位置を設定する、請求項1に記載の情報処理装置。
  17. 前記静的パラメータは、前記第1のユーザのユーザ属性または前記第1のユーザの前記仮想空間における役割を含む、請求項16に記載の情報処理装置。
  18. 前記仮想空間は、複数のシーンを有し、
    前記設定部は、前記仮想空間として設定される複数の前記シーンのうちの1つに応じて、前記第1の仮想オブジェクトの位置を設定する、請求項16に記載の情報処理装置。
  19. 第1のユーザの状態に関する第1の状態情報および仮想空間に参加する各ユーザの静的パラメータを取得することと、
    前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される前記仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報および前記静的パラメータに基づいてプロセッサにより設定することと、を含み、
    前記設定することは、
    前記仮想空間に、予め定められた場面設定であるシーンを設定するとともに、同一の場面設定である前記シーンに参加した前記第2のユーザの参加回数に応じて、仮想空間における前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが配置される距離を設定することを含む、情報処理方法。
  20. プロセッサに、第1のユーザの状態に関する第1の状態情報および仮想空間に参加する各ユーザの静的パラメータを取得させ、
    前記第1のユーザに対応する第1の仮想オブジェクトと第2のユーザに対応する第2の仮想オブジェクトとが配置される前記仮想空間における前記第2の仮想オブジェクトの表示態様を、前記第1の状態情報および前記静的パラメータに基づいて設定させ、さらに、前記仮想空間に、予め定められた場面設定であるシーンを設定させるとともに、同一の場面設定である前記シーンに参加した前記第2のユーザの参加回数に応じて、仮想空間における前記第1の仮想オブジェクトと前記第2の仮想オブジェクトとが配置される距離を設定させる、プログラム。
JP2019505761A 2017-03-15 2018-02-02 情報処理装置、情報処理方法およびプログラム Active JP7131542B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017049545 2017-03-15
JP2017049545 2017-03-15
PCT/JP2018/003680 WO2018168247A1 (ja) 2017-03-15 2018-02-02 情報処理装置、情報処理方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2018168247A1 JPWO2018168247A1 (ja) 2020-01-23
JP7131542B2 true JP7131542B2 (ja) 2022-09-06

Family

ID=63522068

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019505761A Active JP7131542B2 (ja) 2017-03-15 2018-02-02 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (3) US11244510B2 (ja)
JP (1) JP7131542B2 (ja)
WO (1) WO2018168247A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7466083B2 (ja) * 2021-11-25 2024-04-12 株式会社カプコン ゲームプログラム、ゲーム装置、ゲームシステム

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005235142A (ja) 2004-01-21 2005-09-02 Nomura Research Institute Ltd ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
JP2008107895A (ja) 2006-10-23 2008-05-08 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
JP4645355B2 (ja) 2005-08-11 2011-03-09 ソニー株式会社 情報処理装置および方法、並びにプログラム
WO2011027475A1 (ja) 2009-09-07 2011-03-10 株式会社東芝 テレビ会議装置
JP2014056308A (ja) 2012-09-11 2014-03-27 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム、および映像コミュニケーション方法
JP2014149712A (ja) 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
WO2016181670A1 (ja) 2015-05-11 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2017098780A1 (ja) 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018020766A1 (ja) 2016-07-28 2018-02-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08298544A (ja) * 1995-04-26 1996-11-12 Atsushi Matsushita 分散環境にある者同士のコミュニケーション自動開始システム
JPH09288645A (ja) * 1996-04-19 1997-11-04 Atsushi Matsushita 大部屋的仮想オフィスシステム
JPH10254851A (ja) 1997-03-10 1998-09-25 Atsushi Matsushita メンバの集中度と気配の伝達に着目した仮想オフィスシステム
US9383819B2 (en) * 2013-06-03 2016-07-05 Daqri, Llc Manipulation of virtual object in augmented reality via intent
JP2016157253A (ja) * 2015-02-24 2016-09-01 セイコーエプソン株式会社 生体情報処理システム、サーバーシステム及び情報処理方法
JP6788327B2 (ja) * 2015-02-27 2020-11-25 株式会社ソニー・インタラクティブエンタテインメント 表示制御プログラム、表示制御装置、及び表示制御方法
US10365784B2 (en) * 2017-03-08 2019-07-30 Colopl, Inc. Information processing method and apparatus for executing the information processing method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005235142A (ja) 2004-01-21 2005-09-02 Nomura Research Institute Ltd ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
JP4645355B2 (ja) 2005-08-11 2011-03-09 ソニー株式会社 情報処理装置および方法、並びにプログラム
JP2008107895A (ja) 2006-10-23 2008-05-08 Nomura Research Institute Ltd 仮想空間提供サーバ、仮想空間提供システム及びコンピュータプログラム
WO2011027475A1 (ja) 2009-09-07 2011-03-10 株式会社東芝 テレビ会議装置
JP2014056308A (ja) 2012-09-11 2014-03-27 Nippon Telegr & Teleph Corp <Ntt> 映像コミュニケーションシステム、および映像コミュニケーション方法
JP2014149712A (ja) 2013-02-01 2014-08-21 Sony Corp 情報処理装置、端末装置、情報処理方法及びプログラム
WO2016181670A1 (ja) 2015-05-11 2016-11-17 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
WO2017098780A1 (ja) 2015-12-11 2017-06-15 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2018020766A1 (ja) 2016-07-28 2018-02-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
本田 新九郎 他,在宅勤務者の疎外感の解消を実現した位置アウェアネス・アウェアネススペースに基づく仮想オフィス環境,情報処理学会論文誌 ,日本,社団法人 情報処理学会 ,1997年07月15日,第38巻 、第7号,第1454-1646頁
石津 拓 ほか,仮想空間における対エージェント認知距離の測定,第69回(平成19年)全国大会講演論文集(4) インタフェース コンピュータと人間社会,日本,社団法人 情報処理学会,2007年03月06日,第4-191~4-192頁
野口 康人 他,複合現実感を用いた分散会議における複数アバタの配置と表現,情報処理学会論文誌,日本,社団法人 情報処理学会,2007年01月15日, 第48巻、 第1号,第54-62頁

Also Published As

Publication number Publication date
US11244510B2 (en) 2022-02-08
WO2018168247A1 (ja) 2018-09-20
US20220122333A1 (en) 2022-04-21
US20230316685A1 (en) 2023-10-05
JPWO2018168247A1 (ja) 2020-01-23
US20200005545A1 (en) 2020-01-02

Similar Documents

Publication Publication Date Title
US10275121B1 (en) Systems and methods for customized avatar distribution
KR102553190B1 (ko) 외부 조건들에 기초한 웨어러블 디스플레이 디바이스의 자동 제어
US10933321B2 (en) Information processing device and information processing method
WO2014156388A1 (ja) 情報処理装置、通知状態制御方法及びプログラム
JP2023520463A (ja) 最適視線弁別のためのアバタカスタマイズ
WO2014156389A1 (ja) 情報処理装置、提示状態制御方法及びプログラム
TWI766165B (zh) 用於放鬆身心的引導式虛擬實境系統
US20210350604A1 (en) Audiovisual presence transitions in a collaborative reality environment
JP7107302B2 (ja) 情報処理装置、情報処理方法、およびプログラム
JP7319172B2 (ja) 画像処理装置、画像処理方法及び画像処理システム
JP7066115B2 (ja) パブリックスピーキング支援装置、及びプログラム
US20230316685A1 (en) Information processing apparatus, information processing method, and program
CN113426129B (zh) 自定义角色的相貌调整方法、装置、终端和存储介质
WO2019215983A1 (ja) 情報処理システム、情報処理方法、および記録媒体
US11941177B2 (en) Information processing device and information processing terminal
JPWO2018216402A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20190373242A1 (en) Information processing apparatus, information processing method, and program
JP7204984B1 (ja) プログラム、方法、情報処理装置
US11947733B2 (en) Muting mode for a virtual object representing one or more physical elements
JP2023036171A (ja) ユーザ行動支援装置、方法およびプログラム
WO2022249604A1 (ja) 情報処理装置、情報処理方法、及び情報処理プログラム
WO2022244298A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2022118746A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
WO2022118747A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
WO2022118748A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210121

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220707

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R151 Written notification of patent or utility model registration

Ref document number: 7131542

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151