JP6702322B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP6702322B2
JP6702322B2 JP2017526213A JP2017526213A JP6702322B2 JP 6702322 B2 JP6702322 B2 JP 6702322B2 JP 2017526213 A JP2017526213 A JP 2017526213A JP 2017526213 A JP2017526213 A JP 2017526213A JP 6702322 B2 JP6702322 B2 JP 6702322B2
Authority
JP
Japan
Prior art keywords
user
information
state
information processing
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017526213A
Other languages
English (en)
Other versions
JPWO2017002473A1 (ja
Inventor
佑輔 中川
佑輔 中川
呂尚 高岡
呂尚 高岡
真一 河野
真一 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2017002473A1 publication Critical patent/JPWO2017002473A1/ja
Application granted granted Critical
Publication of JP6702322B2 publication Critical patent/JP6702322B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/422Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle automatically for the purpose of assisting the player, e.g. automatic braking in a driving game
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/211Input arrangements for video game devices characterised by their sensors, purposes or types using inertial sensors, e.g. accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/212Input arrangements for video game devices characterised by their sensors, purposes or types using sensors worn by the player, e.g. for measuring heart beat or leg activity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/215Input arrangements for video game devices characterised by their sensors, purposes or types comprising means for detecting acoustic signals, e.g. using a microphone
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/217Input arrangements for video game devices characterised by their sensors, purposes or types using environment-related information, i.e. information generated otherwise than by the player, e.g. ambient temperature or humidity
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/25Output arrangements for video game devices
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/428Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving motion or position input signals, e.g. signals representing the rotation of an input controller or a player's arm motions sensed by accelerometers or gyroscopes
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • A63F13/525Changing parameters of virtual cameras
    • A63F13/5255Changing parameters of virtual cameras according to dedicated instructions from a player, e.g. using a secondary joystick to rotate the camera around a player's character
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/85Providing additional services to players
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/80Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
    • A63F2300/8082Virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/011Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Ecology (AREA)
  • Environmental Sciences (AREA)
  • Environmental & Geological Engineering (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Cardiology (AREA)
  • General Health & Medical Sciences (AREA)
  • Heart & Thoracic Surgery (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Information Transfer Between Computers (AREA)

Description

本開示は、情報処理装置、情報処理方法及びプログラムに関する。
近年、情報処理技術の発達に伴い、バーチャルリアリティ(Virtual Reality:VR)技術、特に、ヘッドマウントディスプレイ(Head Mounted Display:HMD)技術の進歩が目覚ましい。HMD技術を例えばゲームに応用し、HMDをユーザの頭に装着することで、ユーザは、没入感のあるゲームを体験することが可能となる。このようなゲームでは、通常のゲームパットではなく、身体動作をゲーム操作に用いることで、より没入感のある体験を可能としている(例えば、以下の特許文献1を参照。)。
特開2012−79177号公報
しかしながら、これらのVR技術を用いると、あるユーザが視認している映像を遠隔地の他のユーザと共有する映像共有システムや、オンラインゲーム等では、身体動作がそのまま他のユーザに伝達されてしまう。そのため、ユーザが、他のユーザが不快に思う可能性のある動作等を思わず実施してしまった場合に、このような動作が他のユーザに伝達されてしまう可能性がある。
そのため、身体動作等を行うことで生成される情報を他者と共有する場合に、不適切な身体動作等によって生成された情報が他者に伝達されることを抑制可能な技術が求められる。
そこで、本開示では、身体動作等を行うことで生成される情報を他者と共有する場合に、不適切な身体動作等によって生成された情報が他者に伝達されることを抑制することが可能な、情報処理装置、情報処理方法及びプログラムを提案する。
本開示によれば、1又は複数のセンサによる検出結果を利用して認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得する取得部と、前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御する制御部と、を備える情報処理装置が提供される。
また、本開示によれば、1又は複数のセンサによる検出結果を利用して認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得することと、前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御することと、を含む情報処理方法が提供される。
また、本開示によれば、1又は複数のセンサによる検出結果を利用して、ユーザの動作又は状態の少なくとも何れか一方を認識する認識部による認識結果を取得可能なコンピュータに、前記認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得する取得機能と、前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御する制御機能と、を実現させるためのプログラムが提供される。
本開示によれば、1又は複数のセンサによる検出結果を利用して認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果が取得され、認識結果が特定のユーザの動作又は状態を示すと判断される場合に、特定のユーザの動作又は状態に関する情報をユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いが、対象に応じて制御される。
以上説明したように本開示によれば、身体動作等を行うことで生成される情報を他者と共有する場合に、不適切な身体動作等によって生成された情報が他者に伝達されることを抑制することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、又は、上記の効果に代えて、本明細書に示されたいずれかの効果、又は、本明細書から把握され得る他の効果が奏されてもよい。
本開示の第1の実施形態に係る情報処理システムを模式的に示した説明図である。 同実施形態に係る情報処理システムの機能の一例を模式的に説明した説明図である。 同実施形態に係る情報処理システムの機能の一例を模式的に説明した説明図である。 同実施形態に係る情報処理装置と連携するプラットフォームの構成の一例を示したブロック図である。 同実施形態に係る情報処理装置の構成の一例を示したブロック図である。 同実施形態に係る情報処理装置で着目する不適切な情報の一例を示した説明図である。 同実施形態に係る情報処理装置で着目する不適切な情報の一例を示した説明図である。 同実施形態に係る情報処理装置で着目する不適切な情報の認識手法を示した説明図である。 同実施形態に係る情報処理装置が備える制御部の構成の一例を示したブロック図である。 同実施形態に係る情報処理装置が備える反映内容判断部の構成の一例を示したブロック図である。 同実施形態に係る反映内容判断部における判断処理を説明するための説明図である。 同実施形態に係る情報処理装置が備える情報修正部における情報修正処理の一例を説明するための説明図である。 同実施形態に係る情報処理装置が備える情報修正部における情報修正処理の一例を説明するための説明図である。 同実施形態に係る情報処理装置が備える情報修正部における情報修正処理の一例を説明するための説明図である。 同実施形態に係る情報処理装置が備える情報修正部における情報修正処理の一例を説明するための説明図である。 同実施形態に係る情報処理装置における反映内容判断処理の他の一例を説明するための説明図である。 同実施形態に係る情報処理システムにおける表示画面の一例を模式的に示した説明図である。 同実施形態に係る情報処理システムにおける表示画面の一例を模式的に示した説明図である。 同実施形態に係る情報処理方法の流れの一例を示した流れ図である。 同実施形態に係るプラットフォームの変形例を模式的に示した説明図である。 同実施形態に係るプラットフォームの変形例を模式的に示した説明図である。 同実施形態に係るプラットフォームの変形例を模式的に示した説明図である。 同実施形態に係る情報処理方法の流れの一例を示した流れ図である。 同変形例に係る情報処理方法の流れの一例を示した説明図である。 同変形例に係る情報処理方法の流れの一例を示した説明図である。 同変形例に係る情報処理方法の流れの一例を示した説明図である。 本開示の実施形態に係る情報処理装置のハードウェア構成の一例を示したブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施形態
1.1.情報処理システムについて
1.1.1.情報処理システムの全体構造について
1.1.2.プラットフォームの構成について
1.2.情報処理装置について
1.3.情報処理方法について
1.4.変形例について
2.ハードウェア構成について
(第1の実施形態)
<情報処理システムについて>
まず、図1〜図3を参照しながら、本開示の第1の実施形態に係る情報処理システムの構成について、簡単に説明する。
図1は、本開示の第1の実施形態に係る情報処理システムを模式的に示した説明図である。図2A及び図2Bは、本実施形態に係る情報処理システムの機能の一例を模式的に説明した説明図である。図3は、本実施形態に係る情報処理装置と連携するプラットフォームの構成の一例を示したブロック図である。
[情報処理システムの全体構造について]
本実施形態に係る情報処理システム1は、図1に模式的に示したように、インターネット等の公知のネットワーク3により互いに接続された情報処理装置10と、複数のプラットフォーム20A,20B・・・(以下、複数のプラットフォームを、「プラットフォーム20」と総称することがある。)と、から構成されている。
本実施形態に係る情報処理装置10は、各プラットフォーム20を介して複数のユーザが共有している情報について、ユーザ間での双方向の情報の送受信を仲介する装置である。この情報処理装置10は、以下で詳述するように、例えばオンラインゲーム等の所定のアプリケーションを実行することで、ネットワーク3上に仮想空間を創出し、この仮想空間を介して複数のユーザが情報を共有してもよい。また、この情報処理装置10は、以下で詳述するように、あるユーザが視認している空間に関する映像データを、遠隔地に存在している他のユーザに共有させるアプリケーションを実行することで、ネットワーク3を介して、複数のユーザが情報を共有してもよい。
この情報処理装置10の詳細な構成や機能については、以下で改めて説明する。
各ユーザが所持しているプラットフォーム20は、情報処理装置10において実施される各アプリケーションを介して情報を共有するためのハードウェアやソフトウェアを備えたコンピュータである。各ユーザは、このプラットフォーム20に対して身体動作等を利用したユーザ操作を行うことで、情報処理装置10を介して他のユーザとの間で情報を共有することが可能である。
なお、図1では、情報処理装置10に対して、ネットワーク3を介して2台のプラットフォーム20が接続している場合を図示しているが、情報処理装置10に接続しているプラットフォーム20の台数は2台に限定されるものではなく、情報処理装置10に3台以上のより多くのプラットフォーム20が接続されていてもよいことは言うまでもない。
続いて、図2A及び図2Bを参照しながら、ユーザ間での情報の共有方法の具体例について、簡単に説明する。
図2Aは、情報処理装置10が、いわゆるオンラインゲーム等のユーザ没入型のアプリケーションを実行することで、ネットワーク3上にゲームの設定世界等の仮想空間を構築し、この仮想空間を介して、ユーザ間で情報が共有される場合のシステムを模式的に示したものである。この場合、情報処理装置10は、所定のアプリケーションを実行することで、ネットワーク3上に仮想空間を構築する。また、各プラットフォーム20は、情報処理装置10が実行しているアプリケーションに接続が可能な所定のアプリケーションを実行することで、ネットワーク3上に構築されている仮想空間にアクセスし、かかる仮想空間を介してユーザ間で情報を共有する。
各プラットフォーム20を所持しているユーザは、プラットフォーム20に有線又は無線により接続された各種センサ21やヘッドマウントディスプレイ23等を介して、身体動作等を利用したユーザ操作を実施する。ユーザが実施した身体動作等は、各種センサ21によって検出され、ユーザの動作や状態等に関するセンサ検出結果を表わす情報が、情報処理装置10へと出力される。また、プラットフォーム20は、プラットフォーム20に直接接続されている各種センサ21のみならず、プラットフォーム20がネットワーク3等を介して情報を取得可能な周囲の各種センサから、センサの検出結果に関する情報を取得することが可能である。
各種センサ21が検出するユーザの動作や状態に関する検出結果の一例としては、例えば、ユーザの身体的な動作や、ユーザの表情や、発汗状態や脈等のユーザの生体情報といった、ユーザの動作や状態に関する検出結果のみならず、ユーザやユーザの周囲に存在するにおいや、音や、振動などといった、ユーザを取り巻く環境に関する検出結果をも含むものとする。
本実施形態に係る情報処理装置10は、プラットフォーム20から出力された、ユーザの動作や状態等に関するセンサ検出結果を表わす情報を認識して、かかる情報の認識結果を、構築している仮想空間に反映させる。これにより、他のユーザは、ユーザの実施した身体動作や、それに伴って生じた仮想空間における現象を、共有することが可能となる。
ここで、各種センサ21やヘッドマウントディスプレイ23の実装状態については、特に限定されるものではなく、各種センサ21やヘッドマウントディスプレイ23が個別に存在していてもよいし、各種センサ21が組み込まれたヘッドマウントディスプレイ23が存在していてもよい。また、ユーザが入力操作を行うデバイスは、各種センサ21やヘッドマウントディスプレイ23等に限定されるものではなく、各種のウェアラブルデバイスを入力デバイスとして用いることが可能である。
また、各種センサ21の具体的な例は特に限定されるものではないが、例えば、測距カメラや赤外線カメラ等も含む各種カメラ、加速度センサやジャイロセンサのようなモーションセンサ、照度センサ、気圧センサ、においセンサ、マイクなどの音響センサ、振動センサ、発汗や脈拍等を含む各種の生体情報を検出可能な生体センサ等を挙げることができる。
図2Bは、情報処理装置10が、ユーザ間で映像データの共有を行うアプリケーションを実行し、このアプリケーションを介して、ユーザ間で情報が共有される場合のシステムを模式的に示したものである。この場合、情報処理装置10は、所定のアプリケーションを実行することで、あるプラットフォーム20から送信される、ユーザの視認している空間に関する撮像データを記録するとともに、プラットフォーム20間の相互通信を仲介する。また、各プラットフォーム20は、所定のアプリケーションを実行することで、情報処理装置10を介して映像データの共有や、映像データの単独での操作を行う。
各プラットフォーム20を所持しているユーザは、プラットフォーム20に有線又は無線により接続された各種センサ21を装着しながら、ユーザの存在している空間を視認することで、空間に関する映像データや、かかる空間に関する他のセンサ検出データを生成し、ユーザが視認中の空間に関するセンサ検出結果を表わす情報が、情報処理装置10へと出力される。これにより、他のユーザは、あるユーザが視認している空間に関する各種の情報を共有することが可能となる。
以上、図1〜図2Bを参照しながら、本実施形態に係る情報処理システム1の全体構成について、簡単に説明した。
[プラットフォームの構成について]
次に、図3を参照しながら、本実施形態に係る情報処理システム1を構成するプラットフォーム20の構成の一例を、簡単に説明する。図3は、本実施形態に係る情報処理装置と連携するプラットフォームの構成の一例を示したブロック図である。
本実施形態に係るプラットフォーム20は、例えば図3に示したように、統括制御部201と、センサ出力取得部203と、通信制御部205と、出力制御部207と、記憶部209と、を主に備える。
統括制御部201は、例えば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)等により実現される。統括制御部201は、プラットフォーム20で実行される各種の機能や動作を統括的に制御する処理部である。統括制御部201は、例えば後述する記憶部209等に格納されている各種のアプリケーションを実行することで、プラットフォーム20にアプリケーションに対応する機能を実現させることができる。この際、統括制御部201は、記憶部209等に格納されている設定データ等を適宜参照しながら、プラットフォーム20において各種のアプリケーションを実行していく。
この統括制御部201は、後述するセンサ出力取得部203が取得した、身体動作等によるユーザ操作の情報を取得して、かかるユーザ操作に応じてアプリケーションの実行を制御するとともに、取得したセンサの出力結果に関する情報を、後述する通信制御部205を介して情報処理装置10に出力する。また、統括制御部201は、通信制御部205を介して取得した情報処理装置10からの出力を、アプリケーションの実行に反映させるとともに、後述する出力制御部207を介して、アプリケーションの実行結果をユーザに出力する。
センサ出力取得部203は、例えば、CPU、ROM、RAM、入力装置、通信装置等により実現される。センサ出力取得部203は、上記のような各種センサ21が検出した、ユーザの動作又は状態の少なくとも何れか一方に関するセンサ出力のデータを取得する。センサ出力取得部203が取得した各種センサ21からのセンサ出力のデータは、統括制御部201に出力されて、統括制御部201が実行している各種アプリケーションの制御に用いられる。また、このセンサ出力のデータは、統括制御部201及び通信制御部205を介して、情報処理装置10へと出力される。
通信制御部205は、例えば、CPU、ROM、RAM、通信装置等により実現される。通信制御部205は、ネットワーク3を介したプラットフォーム20と情報処理装置10との間の通信を制御する処理部である。この通信制御部205を介して、統括制御部201は、センサ出力のデータや、アプリケーションのユーザによる設定データ等といった各種のデータや情報を、情報処理装置10に出力するとともに、情報処理装置10から各種のデータや情報を取得することが可能となる。
出力制御部207は、例えば、CPU、ROM、RAM、出力装置、通信装置等により実現される。出力制御部207は、統括制御部201から出力された各種のデータや情報を、ユーザに対して五感情報を伝達することが可能な出力装置に出力するための制御を行う処理部である。このような出力装置としては、例えば、プラットフォーム20に接続された各種センサ21等や、ヘッドマウントディスプレイ23や、各種のディスプレイ25や、スピーカ、触覚ディスプレイ等のようなその他の出力装置27等がある。これにより、統括制御部201によって実行されるアプリケーションの実行結果が、ユーザに提供される。
記憶部209は、例えば本実施形態に係るプラットフォーム20が備えるRAMやストレージ装置等により実現される。記憶部209には、本実施形態に係るプラットフォーム20が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、又は、各種のデータベースやプログラム等が、適宜記録される。特に、この記憶部209には、情報処理装置10が実行するアプリケーションと連携を図るためのアプリケーションに関する実体データや、かかるアプリケーションでのユーザによる設定データ等が記録されている。このような各種の情報が格納されている記憶部209は、統括制御部201、センサ出力取得部203、通信制御部205、出力制御部207等が、データのリード/ライト処理を自由に行うことが可能である。
以上、本実施形態に係るプラットフォーム20の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
なお、上述のような本実施形態に係るプラットフォームの各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
以上、図1〜図3を参照しながら、本実施形態に係る情報処理システム1について、簡単に説明した。
<情報処理装置について>
次に、図4〜図12Bを参照しながら、本実施形態に係る情報処理装置について、詳細に説明する。
図4は、本実施形態に係る情報処理装置の構成の一例を示したブロック図である。図5A及び図5Bは、本実施形態に係る情報処理装置で着目する不適切な情報の一例を示した説明図である。図6は、本実施形態に係る情報処理装置で着目する不適切な情報の認識手法を示した説明図である。図7は、本実施形態に係る情報処理装置が備える制御部の構成の一例を示したブロック図であり、図8は、本実施形態に係る情報処理装置が備える反映内容判断部の構成の一例を示したブロック図である。図9は、本実施形態に係る反映内容判断部における判断処理を説明するための説明図である。図10A〜図10Dは、本実施形態に係る情報処理装置が備える情報修正部における情報修正処理の一例を説明するための説明図である。図11は、本実施形態に係る情報処理装置における反映内容判断処理の他の一例を説明するための説明図である。図12A及び図12Bは、本実施形態に係る情報処理システムにおける表示画面の一例を模式的に示した説明図である。
本実施形態に係る情報処理装置10は、例えばオンラインゲーム等の各種ゲームアプリケーションや、前述の映像共有アプリケーション等といった各種のアプリケーションを実行することで、プラットフォーム20を操作しているユーザ間で各種の情報を共有させる装置である。ユーザは、プラットフォーム20に対し、身体動作等により入力操作を行うが、ユーザは、意識的に、又は、無意識に、他のユーザに対して不快感を与えるような動作や、ユーザ個人が特定されてしまうような危険な動作を行ってしまう可能性がある。そこで、本実施形態に係る情報処理装置10は、上記のような、他のユーザに対して不快感を与えかねないような動作や危険な動作をまとめて不適切な動作等と考え、ユーザが不適切な動作に対応する身体動作を行ったか否かを自動的に認識する。また、本実施形態に係る情報処理装置10は、上記のような不適切な動作がユーザによって実施された場合には、不適切な動作に対応する情報に対して適切な修正を施したうえで、他のユーザと修正後の情報を共有させる。
上記のような機能を実現する本実施形態に係る情報処理装置10は、図4に示したように、認識部101と、制御部103と、通信制御部105と、記憶部107と、を主に備える。
本実施形態に係る認識部101は、例えば、CPU、ROM、RAM等により実現される。認識部101は、ユーザの動作又は状態の少なくとも何れか一方を検出する1又は複数のセンサによる検出結果を利用して、ユーザの動作又は状態の少なくとも何れか一方を認識する。このような認識処理に用いられるユーザの動作又は状態の少なくとも何れか一方に関するセンサの検出結果は、プラットフォーム20から送信され、後述する通信制御部105を介して取得したものである。
認識部101は、プラットフォーム20から送信された、ユーザの動作又は状態の少なくとも何れかに関するセンサの検出結果を利用し、後述する記憶部107等に予め記録されている、センサの検出結果とユーザの動作又は状態との対応付けに関するデータベース等を参照して、センサの検出結果から、ユーザの動作や状態を認識する。
ここで、本実施形態に係る認識部101は、上記のような認識処理によって、先だって説明した不適切な動作等がユーザによって行われたか否かについても判断する。以下では、図5A及び図5Bを参照しながら、不適切な動作等について、より具体的に説明する。
認識部101が着目する不適切な動作等は、図5A及び図5Bに示したように、ユーザの身体的な動作、ユーザの表情、視覚に関する動作等、触覚に関する動作等、聴覚に関する動作等、嗅覚に関する動作等、ユーザの生体情報、ユーザの個人情報・・・等に大別できる。
ユーザの身体的な動作に伴う不適切な動作等としては、図5Aに示したように、ユーザのくせや、アプリケーションに関係のない動作や、不快な生理現象や、特に不快ではない生理現象や、侮辱する動作や、迷惑動作等がある。
くせは、一般的に他者に知られたくない情報であり、他者からしても、あまり見たくない情報に該当する。また、ある個人に特徴的なくせの場合には、個人を特定されてしまう可能性がある。このようなくせとしては、特に限定されるものではないが、例えば、びんぼうゆすりや、体の揺れや、体の特定の部位を触る、等といった動作を挙げることができる。
アプリケーションに関係のない動作が、あるユーザによって情報共有中に行われると、情報を共有している他者の中には、不快に思う人が存在する可能性がある。このようなアプリケーションに関係のない動作としても、特に限定されるものではないが、例えば、スマートフォン等のアプリケーションに関係のない機器を触る、お菓子を食べる、等といった動作を挙げることができる。
不快な生理現象は、不快に思う人がいるという理由から、不適切な動作等として取り扱われるべきものである。このような不快な生理現象としては、特に限定されるものではないが、例えば、げっぷや、おなら等といった生理現象を挙げることができる。また、しゃっくりや、あくび等といった生理現象は、不快な生理現象ではないものの、他者がこのような動作を行うと、気になってしまうものである。また、このようなしゃっくりや、あくびといった生理現象は、出来れば他者に隠したい動作である。
また、中指を立てる等といったハンドサインに代表される動作や、相手のモノマネをする等といった行為は、相手を侮辱する動作として忌避されるものである。また、例えば仮想空間において相手に付きまとったり、同じ動作をひたすら繰り返したりする等といった動作は、迷惑な動作である。このような動作は、一般的に他人が不愉快に思う動作である。
一方、ユーザの表情に関する不適切な動作等としては、図5Aに示したように、例えば、ユーザの泣き顔や、退屈そうな顔や、怒っている顔等がある。
泣き顔は、他者に見られたくないことがあるため、不適切な動作として取り扱うことが好ましい。また、情報共有中に退屈そうな顔をされると、他者は不愉快に思うものであり、他者から怒られると不愉快になるものである。従って、このような退屈そうな顔や怒っている顔も、不適切な動作として取り扱うことが好ましい。
視覚に関する不適切な動作等としては、図5Bに示したように、例えば、特定対象へ視線を向けるといった動作や、視線の揺れ等といったものがある。特定対象へ視線を向けるという動作は、ユーザの興味や関心を推定できてしまうことがあり、例えば、オンラインゲーム等において、他のキャラクター等に対してこのような動作を行ってしまい、視線の方向が他者に把握されてしまうと、他のユーザが不快に思うことが生じうる。また、視線の揺れについても、個人を特定される可能性があるため、好ましくない。
触覚に関する不適切な動作等としては、図5Bに示したように、所定強度を超える振動や、連続的な振動を伴う動作がある。所定強度を超える振動や連続的な振動を他者と共有してしまうと、他者は、このような振動を不快に思う可能性がある。そのため、このような動作は、不適切な動作等として取り扱われることが好ましい。
聴覚に関する不適切な動作等として、例えば咀嚼音を挙げることができる。あるユーザがアプリケーションを介して情報を共有している最中に食事を行って、咀嚼音が検出されてしまうことが考えられる。しかしながら、咀嚼音は、一般的に不愉快に思う音であるため、このような音は、不適切な動作等として取り扱われることが好ましい。
嗅覚に関する不適切な動作等としては、図5Bに示したように、体臭/香水の香りといったにおいや、家のにおい/料理のにおい等といったにおいを挙げることができる。このようなにおいが他者と共有されてしまうと、他のユーザの中には、このようなにおいを不快に思う人が存在する可能性がある。従って、このようなにおいは、不適切な動作等として取り扱われることが好ましい。
生体情報に関する不適切な動作等としては、図5Bに示したように、ユーザの発汗状態や、脈等がある。例えばオンラインゲーム等において、ユーザの発汗状態まで再現されたとすると、仮想空間に更なるリアリティを付加することが可能となるが、他者の中には不快に思う人が存在する可能性がある。また、あるユーザの脈が共有されたとしても、不快に思う人は少ないと思われるが、脈を解析することで、ユーザの患っている病気が特定されたり、年齢が特定されたりする可能性があるため、好ましくない。従って、このような生体情報は、不適切な動作等として取り扱われることが好ましい。
なお、近年の技術の発達により、触覚や嗅覚を伝送する技術や、生体情報を伝送する技術についても、著しい進歩が認められるため、本実施形態では、上記のような触覚・嗅覚・生体情報に関しても、不適切な動作等として着目している。
個人情報に関する不適切な動作等としては、図5Bに示したように、ユーザの住環境に関する情報や、ユーザの名前等がある。例えば、ユーザの住居の周囲での騒音等が検出されてしまった場合には、ユーザの住居が特定されてしまう可能性がある。また、アプリケーションを介して他のユーザと情報を共有している最中に、例えばユーザの家人がユーザの名前を呼んでしまったり、ユーザの名前が記載された物体が写り込んでしまったりした場合などには、ユーザの名前が他者に伝達されてしまう可能性もある。そこで、このような情報についても、不適切な動作等として取り扱われることが好ましい。
また、図5A及び図5Bに示したものは、あくまでも一例であって、図5A及び図5Bに示した動作等以外にも、不適切な動作等として取り扱うことが可能である。
本実施形態に係る認識部101は、図5A及び図5Bに示したような不適切な動作等を認識するために、図6に示したような認識手法を用いることが可能である。
例えば、認識部101は、認識手法Aとして、カメラの検出結果を利用することが可能である。すなわち、認識部101は、ユーザの動きをトラッキングした検出結果を利用し、対象領域内に対象物体が入ったか否かにより、「くせ」や「アプリケーションに関係のない動作」が生じたか否かを認識することが可能である。
認識部101は、認識手法Bとして、加速度センサやジャイロセンサ等のモーションセンサの検出結果を利用することが可能である。すなわち、認識部101は、これらモーションセンサの検出結果により、ユーザの動きを判定することが可能である。また、認識部101は、モーションセンサの検出結果を利用して、いわゆる機械学習処理によりユーザの動きを学習し、対象動作を予測して推定することが可能である。なお、動き判定処理や機械学習処理の詳細については、特に限定されるものではなく、公知の技術を利用することが可能である。このような認識処理により、認識部101は、例えば、「くせ」、「アプリケーションに関係のない動作」、「不快な生理現象」、「特に不快ではない生理現象」、「侮辱する動作」、「迷惑動作」等が生じたか否かを認識することが可能である。
認識部101はまた、認識手法Cとして、カメラの検出結果を利用することが可能である。すなわち、認識部101は、ユーザの動きを撮像した撮像画像と、不適切な行動等の画像と、をマッチングし、マッチングの類似度に応じて、認識を行うことが可能である。このようなマッチング処理については、特に限定されるものではなく、公知のマッチング処理を利用することが可能である。このような認識処理により、認識部101は、例えば、「くせ」、「アプリケーションに関係のない動作」、「侮辱する動作」、「泣き顔」、「退屈そうな顔」、「怒っている顔」、「名前」等に対応する動作等が行われたか否かを認識することが可能である。
認識部101は、認識手法Dとして、プラットフォーム20の周囲に存在する環境センサからの検出結果を活用し、これから行われる動作や発生する情報等を認識することが可能である。例えば、ユーザの住居におけるキッチンの照度センサの検出結果に基づき、これから料理という動作が行われることを認識し、更に、料理に伴うにおいが発生する、等といった一連の動作や状態を認識することができる。また、このような認識手法により、認識部101は、例えば「住環境の情報」等に対応する動作等が行われたか否かを認識することが可能となる。
認識部101は、認識手法Eとして、においセンサの検出結果を利用することが可能である。すなわち、認識部101は、においセンサの検出結果を利用して、発生するにおいを分析し、特定のにおいが発生しているか否かを検知することができる。このような認識処理により、認識部101は、例えば、「体臭・香水の香り」や、「家の匂い・料理の匂い」等に対応する動作等が発生したか否かを認識することが可能となる。
認識部101は、認識手法Fとして、モーションセンサやカメラの検出結果を利用し、加速度センサやカメラの画像の特徴量が所定値を繰り返すか否かに基づき、認識を行うことが可能である。このような認識処理により、認識部101は、例えば、「迷惑動作」等に対応する動作等が発生したか否かを認識することが可能となる。
認識部101は、認識手法Gとして、マイクの検出結果を利用した認識処理を行うことが可能である。すなわち、認識部101は、特定の不快な音の波長やスペクトルを予め学習又は設定しておき、マイクの検出結果として入力された音と、これらの学習/認識内容とを比較することで、音に関する認識処理を行うことが可能となる。これにより、認識部101は、「咀嚼音」、「住環境の情報」、「名前」等に対応する動作等が発生したか否かを認識することが可能となる。
認識部101は、認識手法Hとして、振動センサの検出結果を利用した認識処理を行うことが可能である。すなわち、認識部101は、波長の最大振幅や所定時間内の平均振幅値等に関する閾値を予め設定した上で、振動センサの検出結果から算出した波長の最大振幅や平均振幅値が設定された閾値を超えるか否かに基づき、触覚に関する認識処理を行うことが可能となる。これにより、認識部101は、「所定強度を超える振動や連続的な振動」等に対応する動作等が発生したか否かを認識することが可能となる。
認識部101は、認識手法I及びJとして、生体センサの検出結果を利用した認識処理を行うことが可能である。すなわち、認識部101は、生体センサ(特に、発汗センサ)からの検出結果から発汗量を特定し、所定の閾値を超えるか否かに基づき、「発汗」に対応する動作等が発生したか否かを認識することが可能となる。また、認識部101は、生体センサ(特に、脈波センサ)からの検出結果から特徴量を解析し、年齢や病気等の所定の特徴量が含まれているか否かに基づき、「脈」に対応する動作等が発生したか否かを認識することが可能となる。
認識部101は、認識手法Kとして、カメラの検出結果を利用した認識処理を行うことが可能である。すなわち、認識部101は、カメラの検出結果(すなわち、撮像画像)から公知の方法により視線の位置を推定し、視線の方向を判定することが可能となる。ここで、視線の位置については、公知の機械学習処理により推定することが可能となる。このような認識処理を行うことで、認識部101は、例えば、「特定対象へ視線を向ける」、「視線の揺れ」等に対応する動作等が発生したか否かを認識することが可能となる。
また、認識部101は、図6に示したような認識手法A〜Kのうちのいくつかを適宜組み合わせて、様々な認識処理を行うことが可能である。更に、認識部101は、図6に示したような認識手法A〜K以外の公知の認識手法を利用して、様々な動作や状況等を認識することが可能である。
認識部101は、以上のような処理を行うことで、センサの検出結果に基づきプラットフォーム20を操作しているユーザの動作や状態等を認識すると、得られた認識結果に関する情報を、制御部103に出力する。
再び図4に戻って、本実施形態に係る情報処理装置10が備える制御部103について、詳細に説明する。
制御部103は、例えば、CPU、ROM、RAM等により実現される。制御部103は、本実施形態に係る情報処理装置10の機能や動作を統括的に制御する。また、制御部103は、認識部101により特定のユーザの動作又は状態が検出された場合に、検出された当該特定のユーザの動作又は状態に関する情報を着目しているユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、かかる対象に応じて制御する。
より詳細には、制御部103は、認識部101による認識結果に応じて、認識されたユーザの動作又は状態に関する情報の内容を修正し、修正後のユーザの動作又は状態に関する情報を、通知情報に反映させる。すなわち、制御部103は、(a)ユーザの動作又は状態に関する情報の内容を抑制するか、(b)ユーザの動作又は状態に関する情報の内容を他の内容へと置換するか、(c)ユーザの動作又は状態に関する情報の内容の一部を隠蔽するか、(d)ユーザの動作又は状態に関する情報の内容の全てを隠蔽するか、という、(a)〜(d)の何れかの修正を選択してもよい。
このような処理を実施する制御部103は、例えば図7に模式的に示したように、反映内容判断部121と、情報修正部123と、アプリケーション実行部125と、を有する。
反映内容判断部121は、例えば、CPU、ROM、RAM等により実現される。反映内容判断部121は、認識部101から出力された認識結果に関する情報を参照して、着目しているプラットフォーム20のユーザによってどのような身体動作等が実施されたのかを確認し、ユーザによって行われた身体動作等に応じて、着目しているユーザ以外の対象に対して、どの程度身体動作等に対応する情報を反映させるかを判断する処理部である。
ここで、着目しているユーザ以外の対象としては、例えば、複数のユーザ間で共有される仮想空間を提供するアプリケーションを利用している、他のユーザや仮想空間そのものや、第1のユーザが視認している空間の映像を第2のユーザと共有する映像共有機能を提供するアプリケーションを利用している、他のユーザ等を挙げることができる。
反映内容判断部121は、認識部101から出力された認識結果に関する情報を参照し、図5A及び図5Bに示したような不適切な動作等が行われていない場合には、着目しているユーザ以外の対象に対して、情報を修正することなく反映しても良いと判断する。その上で、反映内容判断部121は、認識部101から出力された認識結果に関する情報を、そのまま後述するアプリケーション実行部125へと出力し、アプリケーションの実行に反映させる。
また、反映内容判断部121は、認識部101から出力された認識結果に関する情報を参照して、図5A及び図5Bに示したような不適切な動作等が行われている場合には、行われた不適切な動作等に応じて、着目しているユーザ以外の対象に対して情報をどの程度反映させるかを判断する。その上で、反映内容判断部121は、着目しているユーザ以外の対象に対して通知される通知情報への反映度合いを示す情報と、認識部101から出力された認識結果に関する情報と、を、後述する情報修正部123へと出力し、不適切な動作等を含む情報を、適切に修正させる。
このような処理を実施する反映内容判断部121は、例えば図8に一例を示したように、情報種別判別部131と、関係性判断部133と、反映内容決定部135と、を有している。
情報種別判別部131は、例えば、CPU、ROM、RAM等により実現される。情報種別判別部131は、認識部101から出力された認識結果を参照して、まず、図5A及び図5Bに示したような不適切な動作等が行われたか否かを判断する。不適切な動作等が行われていないと判断される場合、情報種別判別部131は、その旨を後述する反映内容決定部135へと通知する。
一方、不適切な動作等が行われたと判断された場合、情報種別判別部131は、行われた不適切な動作等を表わす情報の種別を判断する。すなわち、情報種別判別部131は、行われた不適切な動作等に関する認識結果を示した情報を参照し、かかる不適切な動作等が、以下の4つの区分のうち、どの区分に属するかを判断する。
(1)不適切な動作等の程度を抑えれば不適切な動作等ではなくなるもの
(2)不適切な動作等に対応する部分を適切な動作等に置換可能であるもの
(3)不適切な動作等に対応する部分のみを隠蔽可能であるもの
(4)不適切な動作等に対応する部分のみを隠蔽できないもの
上記のような4つの区分への判断処理は、例えば図9に示したような流れで行われる。すなわち、情報種別判別部131は、認識結果に関する情報を参照して、まず、不適切な動作等に関する情報が含まれているかを判断する(判断1)。ここで、不適切な動作等に関する情報が含まれていないと判断される場合、情報種別判別部131は、認識結果に関する情報を修正せずに情報を他者へ送信すればよい旨を判断する(処理1)。
一方、不適切な動作等に関する情報が含まれている場合には、情報種別判別部131は、続いて、不適切な動作等に関する情報の程度を抑えれば、不適切な動作等ではなくなるか否かを判断する(判断2)。ここで、「程度を抑える」とは、例えば、表情に関する不適切な動作等が行われていた場合に表情の程度を弱める(例えば、図10Aに示したように、ものすごく怒っている表情を、少しだけ怒っている表情へと修正する)等、不適切な動作等を例えばベクトル量と考えたときに、ベクトルの方向はそのままにベクトルの大きさを小さくする操作を意味する。程度を抑えれば不適切な情報ではなくなると判断される場合、情報種別判別部131は、着目している認識結果は、上記(1)に区分される情報であると判断し、程度を抑えて情報を他者に送信すればよい旨を判断する(処理2)。
一方、例えば、「侮辱する動作」等のように程度を抑えても不適切な動作等ではなくならないと判断される場合、情報種別判別部131は、不適切な動作等を表わす情報が置換可能であるか否かを判断する(判断3)。ここで、「置換する」とは、例えば、表情に関する不適切な動作等が行われていた場合に表情そのものを変更する(例えば、図10Bに示したように、ものすごく怒っている表情を、笑っている表情に置き換える)等、不適切な動作等を例えばベクトル量と考えたときに、ベクトルの方向そのものを変更してしまう操作を意味する。置換可能な情報であると判断される場合、情報種別判別部131は、着目している認識結果は、上記(2)に区分される情報であると判断し、情報を置換してから他者に送信すればよい旨を判断する(処理3)。
一方、置換可能な情報が存在しない等で、不適切な動作等を置換することが不可能であると判断される場合、情報種別判別部131は、不適切な動作等を表わす情報のみを隠蔽可能であるか否かを判断する(判断4)。例えば、図10Cに示したように、「侮辱する動作」に対応するようなハンドサインが身体動作として行われた場合を考える。この際に、ハンドサインに対応する部分のみにモザイクをかけたり、ハンドサインに対応する部分を削除したりするなどしても、ユーザの動作等に関する情報の全体としては情報が成立する場合には、情報種別判別部131は、着目している認識結果は、上記(3)に区分される情報であると判断し、該当する部分の情報を隠蔽してから他者に送信すればよい旨を判断する(処理4)。
一方、例えば体全体を使ったジェスチャーや、動作が速く一部のみを隠蔽できない場合等のように、不適切な動作等のみを隠蔽できないと判断される場合には、情報種別判別部131は、着目している認識結果は、上記(4)に区分される情報であると判断し、例えば図10Dに示したように、不適切な動作等の表示を全て削除したり、表示の更新を止めたりするなどといった、情報の全てを隠蔽してから他者に送信すればよい旨を判断する(処理5)。
このように、情報種別判別部131は、認識結果に含まれる動作等を客観的に判断して、認識結果に対応する動作等に関する情報が、どのような種別の情報であるかを判別する。認識結果に対応する動作等に関する情報の判別結果が得られると、情報種別判別部131は、得られた判別結果を、反映内容決定部135に出力する。
再び図8に戻って、反映内容判断部121が有する関係性判断部133について説明する。
関係性判断部133は、例えば、CPU、ROM、RAM等により実現される。関係性判断部133は、着目しているユーザと、着目しているユーザとは異なる対象と、の間に、どのような関係性があるかを判断する処理部である。
本実施形態に係る反映内容判断部121では、基本的には、情報種別判別部131によって決定された(1)〜(4)の情報の区分に応じて、後述する反映内容決定部135により、不適切な動作等が存在しなくなる程度まで、予め設定された設定情報に基づき、不適切な動作等に関する情報の他者への反映内容が決定される。しかしながら、着目しているユーザと、着目しているユーザとは異なる対象と、の間に、ある特定の関係性が存在している場合には、反映内容決定部135は、例外的に、不適切な動作等に関する情報の他者への反映内容を緩和することが好ましい。
そこで、関係性判断部133は、記憶部107等に格納されているユーザに関するユーザ情報やアプリケーションに関する設定情報と、後述するアプリケーション実行部125から得られるアプリケーションの実行状況に関する情報と、を参照して、着目しているユーザと、着目しているユーザとは異なる対象と、の間の関係性を判断する。
ここで、記憶部107等には、アプリケーション(例えば、オンラインゲーム等の仮想空間を共有するアプリケーション)の全てのユーザに関する、アプリケーションの実行状況等も含む各種のユーザ情報が保持されているものとする。
また、記憶部107等には、情報処理装置10やプラットフォーム20でのアプリケーション実行レベルにおけるアプリケーションの設定情報(すなわち、全てのユーザに対する基本的なアプリケーションの設定情報)や、各ユーザが独自に設定したアプリケーションの設定情報等、アプリケーションに関する全ての設定情報が保持されているものとする。この設定情報には、例えば図5Aや図5Bに示したような不適切な動作等について、どのような動作をユーザ自身が行った場合にはどの程度まで他のユーザに反映させるか、他のユーザが不適切な動作等を行った場合に、どの程度までその情報の反映を受け付けるか、というような、静的な条件設定が記載されているものとする。
例えば、関係性判断部133は、情報処理装置10において実行されているアプリケーションがオンラインゲーム等のゲームである場合に、着目しているユーザ動作等を反映させるべき全てのユーザのユーザ情報を参照して、アプリケーション内(すなわち、ゲームという仮想空間内)におけるユーザの代理であるキャラクター間の関係性を判断することができる。すなわち、ユーザAに対応する仮想空間内のキャラクターAと、ユーザBに対応する仮想空間内のキャラクターBと、が所定時間以上、一緒に仮想空間内で活動しており、親密なキャラクター同士であると判断できる場合には、キャラクターAに対応するユーザAと、キャラクターBに対応するユーザBと、の関係性が親密であると判断することができる。この場合、関係性判断部133は、ユーザAとユーザBとの間の情報の反映度合いに関しては、情報量の抑制度合いを緩和するように判断することができる。これにより、例えば、ユーザの表情に関する不適切な動作の反映度合いなどのように、「設定情報」に基づき予め静的に決定されている反映度合いが、キャラクター間の関係性という動的な条件に基づき、親しいが故に許容される程度まで、例外的に処理される。
また、関係性判断部133は、上記のようなユーザ情報を参照し、例えば、ユーザAがユーザBを「友達」として設定しているか否かといったユーザ間の関係性や、年齢、性別、アプリケーションの総実行時間等といった各種属性に着目して、ユーザ間の関係性を判断することも可能である。この場合に、関係性判断部133は、上記のような関係性や属性が近いものほど、情報量の抑制度合いを緩和し、関係性や属性が遠いものほど、情報量の抑制を強めたりすることができる。この場合についても、「設定情報」に基づき予め静的に決定されている反映度合いが、ユーザ間の関係性という動的な条件に基づき、例外的に処理される。
なお、上記のようなキャラクター間/ユーザ間の関係性の判断処理は、着目しているユーザ動作等を反映させるべき全てのユーザに対して、それぞれ独立に実施されることが好ましい。
また、関係性判断部133は、着目しているユーザと、アプリケーションそのものとの関係性を判断してもよい。情報処理装置10において実行されているアプリケーションがオンラインゲーム等のゲームである場合、ゲームという仮想空間内では、様々なイベントが発生している。この場合に、関係性判断部133は、イベントの雰囲気がユーザ動作によって壊されないように、不適切な動作等の反映度合いを例外的に処理するように判断してもよい。これにより、例えばゲームという仮想空間内で悲しいイベントが発生している場合に、ユーザが場の雰囲気を壊すようなふざけた動作を行ったとしても動作が反映されないように、情報の反映度合いを制御することが可能となる。
関係性判断部133は、以上のようにして、着目しているユーザと、着目しているユーザとは異なる対象と、の間の関係性の判断結果を、後述する反映内容決定部135に出力する。
反映内容決定部135は、例えば、CPU、ROM、RAM等により実現される。反映内容決定部135は、情報種別判別部131による判断結果、及び、関係性判断部133による判断結果を利用して、着目しているユーザの動作又は状態を、着目しているユーザとは異なる対象にどの程度反映させるかの詳細を決定する。
より詳細には、反映内容決定部135は、不適切な動作等は行われておらず、着目しているユーザの動作又は状態を、抑制することなく対象に対して反映させればよいと総合的に判断できる場合には、その旨をアプリケーション実行部125に出力する。
また、反映内容決定部135は、不適切な動作等が行われていると判断する場合には、不適切な動作等に関する情報の種別や、上記のような様々な関係性を考慮して、情報の反映度合いを決定する。
この際に、反映内容決定部135は、基本的には、不適切な動作等が存在しなくなる程度まで、予め設定された設定情報に基づき、不適切な動作等に関する情報の他者への反映内容を決定する。すなわち、反映内容決定部135は、情報の送信側のユーザの設定情報と、情報の受信側のユーザの設定情報とに応じて、情報が授受される当事者同士の関係性に基づいて反映内容(すなわち、情報の修正の度合い)を決定する。また、反映内容決定部135は、情報が授受される当事者同士のみならず、例えばゲーム等における当事者同士以外の第3者等のような、単に情報を広い意味で共有するだけのユーザの設定情報に更に基づいて、二次的に反映内容を決定してもよい。
また、反映内容決定部135は、例外的に、ユーザと対象との間の動的な関係性に応じて、反映内容(情報の修正の度合い)を決定してもよいし、情報の送信側のユーザの設定情報と情報の受信側のユーザの設定情報という、情報が授受される当事者同士の関係性と、ユーザと対象との間の動的な関係性と、の双方に基づいて、反映内容(情報の修正の度合い)を決定してもよい。
反映内容決定部135は、このようにして情報の反映内容を決定すると、決定した内容を情報修正部123に出力する。
以上、図8〜図10を参照しながら、反映内容判断部121の詳細な構成について説明した。
なお、上記の説明では、反映内容判断部121が、認識部101による認識結果の内容にのみ基づいて、反映内容を判断する場合について説明したが、反映内容判断部121は、認識部101による認識処理に用いられるセンサ検出結果が、どのような場所(エリア)で得られたかに基づいて、反映内容を判断してもよい。すなわち、反映内容判断部121は、認識部101による認識処理に用いられるセンサ検出結果が、所定の場所で得られたものでない場合に、該当するセンサ検出結果に対応する認識結果を反映させないように処理してもよい。例えば図11に模式的に示したように、プラットフォーム20との位置関係に基づき、仮想的な境界線が予め設定されている場合を考える。この際、反映内容判断部121は、プラットフォーム20の設置空間のうち所定の位置で検出されたセンサ検出結果から得られた認識結果のみを、反映内容の判断に利用する、等といった処理を行うことも可能である。
次に、再び図7に戻って、本実施形態に係る制御部103が備える情報修正部123について説明する。
情報修正部123は、例えば、CPU、ROM、RAM等により実現される。情報修正部123は、反映内容判断部121から出力された判断結果に基づいて、着目しているユーザによって実施された不適切な動作等に関する情報を修正する。
情報修正部123によって実施される修正処理は、先だって説明したように、(a)ユーザの動作又は状態に関する情報の内容の程度を抑制する、(b)ユーザの動作又は状態に関する情報の内容を他の内容へと置換する、(c)ユーザの動作又は状態に関する情報の内容の一部を隠蔽する、(d)ユーザの動作又は状態に関する情報の内容の全てを隠蔽する、という4種類の処理に大別できる。
情報修正部123は、情報の内容の程度を抑制する場合、例えば、顔の表情の度合いを抑制する、汗の量を少なくする、ユーザに対応するキャラクターが長時間付きまとえないようにする、音や振動等に対応する波形信号の特定の帯域に対してフィルタを作用させる、等といった修正方法を採用する。
情報修正部123は、情報の置換を行う場合、例えば、不快な動作を他の動作に置換する、動作をテンプレート化して正規化された情報に置換する、音や振動を他の音や振動に置換したりノイズを重畳させたりする、表情等を表わす画像を置換する、等といった修正方法を採用する。
情報修正部123は、情報の一部を隠蔽する場合、例えば、特定の動作や表情に対してモザイクをかける、特定の音や振動のみを削除する、脈の情報から特定の特徴量を削除する、等といった修正方法を採用する。
情報修正部123は、情報の全てを隠蔽する場合、例えば、特定の動作が検知されたらそのプレイヤーを消去したり更新を止めたりする、特定の音が検知されたら一定期間すべての音を消去する、特定の振動が検知されたら全ての振動を消去する、等といった修正方法を採用する。
なお、情報修正部123によって実施される修正処理は、上記(a)〜(d)の4種類に限定されるものではなく、上記4種類の修正処理の何れかを適宜組み合わせて、不適切な動作等に関する情報を修正することが可能である。
なお、国や文化が異なれば、情報に対する感じ方にも差が生じるものである。例えば、こぶしを握った状態で親指を立てる動作(「グッジョブ」等の意味で用いられるハンドサイン)は、アメリカ等では相手を褒める動作であるが、イランでは相手を侮辱する動作となる。従って、情報修正部123は、情報が共有されるユーザの文化等を踏まえたうえで、上記のような修正処理を行うことが好ましい。なお、このような文化等の違いを修正処理に反映させるためには、記憶部107等に、不適切な動作等に関する情報や置換に用いる情報等について、国や文化等の違いに起因する異なる意味が存在するか否かのデータベース等を予め作成しておき、かかるデータベース等を更に参照することで実施可能である。
情報の修正を行うに際しては、「特定の動作を認識したあとに、かかる特定の動作に関連する他の動作等に関する情報を修正する」といった、認識した情報と修正すべき情報とが異なる場合も考えうる。例えば、「電話をかける」という動作を認識した場合に、「電話をかける」という動作に関する情報を修正するのではなく、電話における通話内容(すなわち、音声情報)を修正(隠蔽)するということも考えられる。これにより、あるユーザが電話をかけているという動作は他のユーザに伝達されるため、相手が取り込み中であるという状態はユーザ間で共有することが可能となり、ユーザの利便性を向上させることができる。そこで、情報修正部123は、例えば上記のような特定の動作について、認識した情報と修正すべき情報とが異なる場合の修正処理を例外的にデータベース等に記録しておき、より細かな情報修正処理を実行してもよい。
また、例えば脈などの生体情報のように、はじめから個人情報が含まれる可能性が高いと判断可能なものについては、情報修正部123は、判断結果によらず、情報を隠蔽するようにしてもよい。
情報修正部123は、以上のような修正処理を実施した後、修正後の情報を、アプリケーション実行部125に出力する。
アプリケーション実行部125は、例えば、CPU、ROM、RAM等により実現される。アプリケーション実行部125は、本実施形態に係る情報処理装置10がその機能として実現しているアプリケーションを実行している処理部である。また、アプリケーション実行部125は、あるユーザから、身体動作等によるユーザ入力が行われた場合に、反映内容判断部121や情報修正部123から出力された情報を利用して、ユーザ入力に対応する情報をアプリケーションに反映させる。その後、アプリケーション実行部125は、情報反映後のアプリケーションの実行状態に関する情報を、後述する通信制御部105を介して、通知情報として各プラットフォーム20に送信させる。これにより、情報処理装置10に接続しているプラットフォーム20のユーザは、情報処理装置10で実行されているアプリケーションから得られる通知情報を、随時把握することが可能となる。
なお、アプリケーション実行部125は、本実施形態に係る情報修正部123により、あるユーザが実施した身体動作等に起因して、アプリケーションに反映される情報の修正が施された場合に、修正が行われた旨をユーザに通知するようにしてもよい。このような通知の具体的な方法は特に限定されるものではなく、例えば、アプリケーション実行部125は、修正が行われた旨を表わすようなアイコン等のオブジェクトを、プラットフォーム20の表示画面に表示させるようにしてもよい。
このようなオブジェクトの一例を、アプリケーションとしてオンラインゲームが実行されている場合を例に挙げて、図12A及び図12Bに示した。図12Aに示した例では、プラットフォーム20の表示画面に設けられるユーザ情報表示領域に対して、修正が行われた旨を表わすオブジェクトとして、情報の反映度合いを表わすオブジェクトである反映度提示オブジェクトが表示されている。この反映度提示オブジェクトは、矢印を用いたオブジェクトであり、表示画面を見ているユーザとは別のユーザとの間で、どの程度の情報の抑制がなされているかを示したものである。例えば、右向きの矢印は、他のユーザから自分自身へと送信されている情報の反映度合いを表しており、左向きの矢印は、自分自身から他のユーザへと送信されている情報の反映度合いを表している。このオブジェクトは、送受信されている情報が抑制されているほど、該当する矢印の大きさが短くなるように設定される。このようなオブジェクトを表示することで、ユーザは、情報処理装置10によって情報の抑制が行われたか否かを、容易に判定することが可能となる。
また、図12Aに示したような反映度提示オブジェクトは、表示画面のユーザ情報表示領域だけでなく、例えば図12Bに示したように、キャラクターのグラフィックの頭の上等の位置に表示しても良いことは、言うまでもない。
以上、本実施形態に係る制御部103の構成について、詳細に説明した。
なお、以上の説明では、情報処理装置10がオンラインゲーム等のゲームアプリケーションを実行している場合を具体例として挙げて、詳細な説明を行ったが、以上説明したような情報の修正処理は、第1のユーザが視認している空間の映像を第2のユーザと共有する映像共有機能を提供するアプリケーションについても同様に適用することが可能である。
上記のような映像共有アプリケーションでは、ヘッドマウントカメラ等のセンサを装着したユーザ(以下では、便宜的に、ユーザAとする。)が視認している空間の情報が、他のユーザ(以下では、便宜的に、ユーザBとする。)と共有されることとなる。
この場合に、ユーザAが視認している空間に対応する映像の中に不適切な情報が含まれる可能性や、ユーザAの頭部や視線に不適切な動作が含まれる可能性が考えられる。映像の中に不適切な情報が含まれる場合には、ゲームアプリケーションの場合と同様に、不適切な情報に対して、モザイク処理を行ったり、該当する情報を削除したりすることで、不適切な情報を削除することができる。また、ユーザがくしゃみなどの生理現象を行った場合や、不注意な視線の動きを行った場合には、伝達される情報に不適切な動作が含まれることとなる。この場合についても、ゲームアプリケーションの場合と同様に、情報を置換したり、程度を抑制したりすることで、不適切な動作を隠蔽することが可能である。
更に、上記のような映像共有アプリケーションにおいて、ユーザBは、ジェスチャーインプットデバイスを用いることで、ユーザAに対して動作を間接的に伝達することも考えられる。この場合においても、ユーザBの意図しない動きが、ユーザAへと伝達してしまう可能性がある。この場合においても、ゲームアプリケーションの場合と同様な情報の修正処理を行うことが可能である。例えば、カメラやモーションセンサ等を利用して、ユーザBの動きを監視しておき、不適切な動作が生じた場合に、ジェスチャーインプットデバイスから送信される情報を意図的に抑制することで、不適切な情報がユーザAへと伝達することを防止することができる。
以下では、再び図4に戻って、本実施形態に係る情報処理装置10が備える通信制御部105について説明する。
通信制御部105は、例えば、CPU、ROM、RAM、通信装置等により実現される。通信制御部105は、ネットワーク3を介した情報処理装置10とプラットフォーム20との間の通信を制御する処理部である。この通信制御部105を介して、認識部101や制御部103は、センサ出力のデータや、アプリケーションのユーザによる設定データ等といった各種のデータや情報を各プラットフォーム20から取得するとともに、各プラットフォーム20に対して、上記のような通知情報を含むアプリケーションの実行状況を表わす各種の情報を送信することが可能となる。
記憶部107は、例えば本実施形態に係る情報処理装置10が備えるRAMやストレージ装置等により実現される。記憶部107には、本実施形態に係る情報処理装置10が、何らかの処理を行う際に保存する必要が生じた様々なパラメータや処理の途中経過等、又は、各種のデータベースやプログラム等が、適宜記録される。特に、この記憶部107には、情報処理装置10が実行するアプリケーションに関する実体データや、かかるアプリケーションでの全てのユーザによる設定データや、かかるアプリケーションを利用している全てのユーザに関するユーザ情報等が記録されている。このような各種の情報が格納されている記憶部107は、認識部101、制御部103、通信制御部105等が、データのリード/ライト処理を自由に行うことが可能である。
以上、本実施形態に係る情報処理装置10の機能の一例を示した。上記の各構成要素は、汎用的な部材や回路を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。また、各構成要素の機能を、CPU等が全て行ってもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用する構成を変更することが可能である。
なお、上述のような本実施形態に係る情報処理装置の各機能を実現するためのコンピュータプログラムを作製し、パーソナルコンピュータ等に実装することが可能である。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体も提供することができる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリなどである。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信してもよい。
<情報処理方法について>
次に、図13を参照しながら、本実施形態に係る情報処理方法の流れの一例について、簡単に説明する。図13は、本実施形態に係る情報処理方法の流れの一例を示した流れ図である。
本実施形態に係る情報処理装置10では、通信制御部105が、各プラットフォーム20から送信された、ユーザの動作/状態に関するセンサの検出結果に関する情報を取得する(ステップS101)。その後、通信制御部105は、取得したユーザの動作/状態に関するセンサの検出結果に関する情報を、認識部101及び制御部103に出力する。
情報処理装置10の認識部101は、取得されたセンサ検出結果から、上記説明したような認識手法を利用して、ユーザの動作や状態を認識する(ステップS103)。認識部101は、センサ検出結果からユーザの動作や状態に関する認識結果が得られると、得られた認識結果を制御部103に出力する。
情報処理装置10の制御部103は、認識部101による認識結果を参照して、上記説明したような処理を行うことで、ユーザの動作や状態に関する情報の通知情報への反映度合いを判断する(ステップS105)。その後、制御部103は、得られた判断結果に基づき、得られたユーザの動作や状態に関する情報の中に、不適切な動作等に関する情報(不適切な情報)が存在しているか否かを確認する(ステップS107)。
ユーザの動作や状態に関する情報の中に不適切な情報が含まれていない場合には、制御部103は、以下のステップS111の動作を実行する。一方、ユーザの動作や状態に関する情報の中に不適切な情報が含まれている場合には、制御部103は、上記説明したような処理を行って、着目している情報の共有対象に応じて情報を修正する(ステップS109)。その後、制御部103は、得られた修正後の情報を利用して、ステップS111の動作を実行する。
ユーザの動作や状態に関する情報の中に不適切な情報が含まれていない場合、又は、ユーザの動作や状態に関する情報に含まれる不適切な情報を修正した後に、制御部103は、着目しているユーザの動作や状態に関する情報を通知情報として出力して、他のユーザと共有させる(ステップS111)。
このような処理を行うことで、本実施形態に係る情報処理方法では、身体動作等を行うことで生成される情報を他者と共有する場合に、不適切な身体動作等によって生成された情報が他者に伝達されることを抑制することが可能となる。
<変形例について>
次に、本実施形態に係る情報処理装置及び情報処理方法のいくつかの変形例について、図14A〜図15Dを参照しながら簡単に説明する。図14A〜図14Cは、本実施形態に係るプラットフォームの変形例を模式的に示した説明図である。図15A〜図15Dは、本変形例に係る情報処理方法の流れの一例を示した説明図である。
以上の説明では、図1に示したような情報処理システム1において、主に情報処理装置10が中心となって、上記のような認識処理及び情報修正処理を行う場合について、詳細に説明した。しかしながら、図4に示した情報処理装置10の認識部101又は制御部103の少なくとも何れかは、複数のコンピュータに分散して実現され、これら複数のコンピュータが協働することで、上記のような認識処理及び情報修正処理を実現してもよい。特に、図4に示した情報処理装置10の認識部101又は制御部103の少なくとも何れかは、情報処理装置10と各プラットフォーム20とに分散して実現され、情報処理装置10で実施される認識処理や情報修正処理の少なくとも一部が、プラットフォーム20で実施されてもよい。
例えば図14Aに示した例では、図4に示した情報処理装置10が有する処理部のうち、認識部101の機能が、各プラットフォーム20に分散して実現されている場合を模式的に示している。この場合には、本実施形態に係る情報処理装置10の認識部101と同様の機能を有し同様の構成を有する認識部221が、プラットフォーム20の統括制御部201の一機能として実現されている。この際、情報処理装置10が有する通信制御部105は、例えば、プラットフォーム20の認識部221による認識結果を示す情報を取得する取得部として機能する。
また、図14Bに示した例では、図4に示した情報処理装置10が有する処理部のうち、制御部103の機能(特に、反映内容判断部121及び情報修正部123の機能)が、各プラットフォーム20に分散して実現されている場合を模式的に示している。この場合には、本実施形態に係る情報処理装置10の制御部103と同様の機能を有し同様の構成を有する情報反映制御部223が、プラットフォーム20の統括制御部201の一機能として実現されている。この際、プラットフォーム20が有する通信制御部205は、例えば、情報処理装置10の認識部101による認識結果を示す情報を取得する取得部として機能する。
更に、図14Cに示した例では、図4に示した情報処理装置10が有する処理部のうち、認識部101及び制御部103の機能が、各プラットフォーム20に分散して実現されている場合を模式的に示している。この場合には、本実施形態に係る情報処理装置10の認識部101と同様の機能を有し同様の構成を有する認識部221と、本実施形態に係る情報処理装置10の制御部103と同様の機能を有し同様の構成を有する情報反映制御部223とが、プラットフォーム20の統括制御部201の一機能として実現されている。
図14A〜図14Cに示したように、情報処理装置10と各プラットフォーム20との間で処理を分散させることで、サーバとして機能する情報処理装置10の負荷を低減することが可能となる。
上記の実施形態において説明したような、情報処理装置10が中心となって処理を行う場合の処理の流れを、情報処理装置10と各プラットフォーム20との間の連携状況に着目して記載すると、図15Aのようになる。なお、以下の図15A〜図15Dでは、便宜的に情報処理装置10と連携するプラットフォーム20の台数を2台としている。
図15Aに示したように、サーバとして機能する情報処理装置10が中心となって処理を行う場合には、各プラットフォーム20(プラットフォームA及びプラットフォームB)は、各ユーザによって設定された設定情報(ユーザレベルでの設定情報)を、予め情報処理装置10に送信しておく(ステップS201)。また、情報処理装置10では、各プラットフォーム20から取得した全てのユーザに関する設定情報を、記憶部107等に記録しておく(ステップS203)。
いま、便宜的にプラットフォームAを所持しているユーザAが、身体動作等を利用してある情報を発信したとする(ステップS205)。すると、この情報は、情報処理装置10へと送信され、情報処理装置10は、記憶部107等に保持されているアプリケーションレベルでの判断基準と、関係するユーザ間での全ての設定情報に基づき、情報の認識処理及び必要に応じた修正処理を実施する(ステップS207)。その後、情報処理装置10は、修正後の情報を、ユーザBが所持するプラットフォームBに通知情報として提供する(ステップS209)。
ユーザBが所持するプラットフォームBでは、情報処理装置10から提供された通知情報を利用して、かかる情報を表示画面に表示させる(ステップS211)。これにより、ユーザA−ユーザB間で情報が共有される。
図15Aに示したような場合には、よりスペックが高く設計される情報処理装置10において、ほぼ全ての処理を実施することが可能となるが、接続されるプラットフォーム20の数が多くなるほど、サーバとして機能する情報処理装置10に負荷が集中することとなる。
一方、図15Bでは、情報処理装置10及び各プラットフォーム20で処理が分散される場合を示している。この場合に、プラットフォームAを所持しているユーザAが、身体動作等を利用してある情報を発信したとする(ステップS221)。プラットフォームAは、プラットフォームAに記録されている、プラットフォームAとしての設定(すなわち、プラットフォームのレベルでの設定情報)に基づき、発信された情報の認識・修正を行う(ステップS223)。その後、プラットフォームAは、ユーザ設定に基づき、ユーザAに特化したレベルでの認識・修正を実施する(ステップS225)。その後、プラットフォームAは、2段階の認識・修正を経た情報を、情報処理装置10へ送信する。
情報処理装置10は、プラットフォームAから情報を取得すると、記憶部107等に保持されているアプリケーションレベルでの判断基準及び設定情報に基づいて、再度、取得した情報の認識・修正を行い(ステップS227)、プラットフォームBに通知情報として提供する。
通知情報の提供を受けたプラットフォームBでは、ユーザ設定に基づき、ユーザBに特化したレベルでの認識・修正を実施する(ステップS229)。その後、プラットフォームBは、修正後の情報を利用して、かかる情報を表示画面に表示させる(ステップS231)。これにより、ユーザA−ユーザB間で情報が共有される。
このように、図15Bに示した例では、情報の発信者であるプラットフォームAが主に中心となって、情報の認識・修正を行う場合を示している。しかしながら、このような場合には、各プラットフォーム及び情報処理装置10において、認識・修正処理が複数回行われるため、リソースの状態によっては情報の共有に遅延が生じる可能性がある。
一方、図15Cに示した例において、プラットフォームAを所持しているユーザAが、身体動作等を利用してある情報を発信したとする(ステップS241)。プラットフォームAは、プラットフォームAに記録されている、プラットフォームAとしての設定(すなわち、プラットフォームのレベルでの設定情報)に基づき、発信された情報の認識を行う(ステップS243)。その後、プラットフォームAは、ユーザ設定に基づき、ユーザAに特化したレベルでの認識を実施する(ステップS245)。その後、プラットフォームAは、2段階の認識を経た情報を、情報処理装置10へ送信する。
情報処理装置10は、プラットフォームAから情報を取得すると、記憶部107等に保持されているアプリケーションレベルでの判断基準及び設定情報に基づいて、再度、取得した情報の認識を行い(ステップS247)、プラットフォームBに提供する。
情報の提供を受けたプラットフォームBでは、ユーザ設定に基づき、ユーザBに特化したレベルでの認識を実施する(ステップS249)。その後、プラットフォームBは、プラットフォームA、情報処理装置10及びプラットフォームBにおける全ての認識結果を踏まえて、情報の修正を行う(ステップS251)。その後、プラットフォームBは、修正後の情報を利用して、かかる情報を表示画面に表示させる(ステップS253)。これにより、ユーザA−ユーザB間で情報が共有される。
このように、図15Cに示した例では、情報の受信者であるプラットフォームBが主に中心となって、情報の修正を行う場合を示している。このような場合には、修正処理が情報の受け手となるプラットフォームで一括して行われるため、システム全体として無駄な部分を減らすことができる。しかしながら、このような形態では、情報の受け手となるプラットフォームに負荷が集中してしまう。
一方、図15Dに示した例は、情報の認識処理は、各プラットフォーム20に分散しつつ、修正処理は情報処理装置10で実施する場合について図示したものである。この場合に、プラットフォームAを所持しているユーザAが、身体動作等を利用してある情報を発信したとする(ステップS261)。プラットフォームAは、プラットフォームAに記録されている、プラットフォームAとしての設定(すなわち、プラットフォームのレベルでの設定情報)に基づき、発信された情報の認識を行う(ステップS263)。その後、プラットフォームAは、ユーザ設定に基づき、ユーザAに特化したレベルでの認識を実施する(ステップS265)。その後、プラットフォームAは、2段階の認識を経た情報を、情報処理装置10へ送信する。
情報処理装置10は、プラットフォームAから情報を取得すると、記憶部107等に保持されているアプリケーションレベルでの判断基準及び設定情報に基づいて、再度、取得した情報の認識を行い(ステップS267)、プラットフォームBに提供する。
情報の提供を受けたプラットフォームBでは、ユーザ設定に基づき、ユーザBに特化したレベルでの認識を実施し(ステップS269)、得られた認識結果を情報処理装置10に送信する。
情報処理装置10は、プラットフォームBによる認識結果を取得すると、プラットフォームA、情報処理装置10及びプラットフォームBにおける全ての認識結果を踏まえて、情報の修正を行い(ステップS271)、修正後の情報をプラットフォームBに通知情報として提供する。
その後、プラットフォームBは、情報処理装置10から提供された通知情報を利用して、かかる情報を表示画面に表示させる(ステップS273)。これにより、ユーザA−ユーザB間で情報が共有される。
図15Dに示したような形態では、ユーザ個人の判定基準(すなわち、設定情報)を、外部の装置に提供しなくとも良いため、個人情報の流出に対する安全性が高まるとともに、情報の修正処理を、よりスペックが高く設計される情報処理装置10で実施することができる。しかしながら、情報の受け手となるプラットフォームでは、修正処理をサーバである情報処理装置10に依頼するため、情報の共有に遅延が生じる可能性がある。
以上、図14A〜図15Dを参照しながら、本実施形態に係る情報処理装置及び情報処理方法の変形例について、簡単に説明した。
(ハードウェア構成について)
次に、図16を参照しながら、本開示の実施形態に係る情報処理装置10のハードウェア構成について、詳細に説明する。図16は、本開示の実施形態に係る情報処理装置10のハードウェア構成を説明するためのブロック図である。
情報処理装置10は、主に、CPU901と、ROM903と、RAM905と、を備える。また、情報処理装置10は、更に、ホストバス907、ブリッジ909、外部バス911、インターフェース913、センサ914、入力装置915、出力装置917、ストレージ装置919、ドライブ921、接続ポート923及び通信装置925を備える。
CPU901は、演算処理装置及び制御装置として機能し、ROM903、RAM905、ストレージ装置919、又はリムーバブル記録媒体927に記録された各種プログラムに従って、情報処理装置10内の動作全般又はその一部を制御する。ROM903は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM905は、CPU901が使用するプログラムや、プログラムの実行において適宜変化するパラメータ等を一次記憶する。これらはCPUバス等の内部バスにより構成されるホストバス907により相互に接続されている。
ホストバス907は、ブリッジ909を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス911に接続されている。
入力装置915は、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ及びレバーなどユーザが操作する操作手段である。また、入力装置915は、例えば、赤外線やその他の電波を利用したリモートコントロール手段(いわゆる、リモコン)であってもよいし、情報処理装置10の操作に対応した携帯電話やPDA等の外部接続機器929であってもよい。さらに、入力装置915は、例えば、上記の操作手段を用いてユーザにより入力された情報に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。情報処理装置10のユーザは、この入力装置915を操作することにより、情報処理装置10に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置917は、取得した情報をユーザに対して視覚的又は聴覚的に通知することが可能な装置で構成される。このような装置として、CRTディスプレイ装置、液晶ディスプレイ装置、プラズマディスプレイ装置、ELディスプレイ装置及びランプなどの表示装置や、スピーカ及びヘッドホンなどの音声出力装置や、プリンタ装置、携帯電話、ファクシミリなどがある。出力装置917は、例えば、情報処理装置10が行った各種処理により得られた結果を出力する。具体的には、表示装置は、情報処理装置10が行った各種処理により得られた結果を、テキスト又はイメージで表示する。他方、音声出力装置は、再生された音声データや音響データ等からなるオーディオ信号をアナログ信号に変換して出力する。
ストレージ装置919は、情報処理装置10の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置919は、例えば、HDD(Hard Disk Drive)等の磁気記憶部デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等により構成される。このストレージ装置919は、CPU901が実行するプログラムや各種データ、及び外部から取得した各種データなどを格納する。
ドライブ921は、記録媒体用リーダライタであり、情報処理装置10に内蔵、あるいは外付けされる。ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録されている情報を読み出して、RAM905に出力する。また、ドライブ921は、装着されている磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体927に記録を書き込むことも可能である。リムーバブル記録媒体927は、例えば、DVDメディア、HD−DVDメディア、Blu−rayメディア等である。また、リムーバブル記録媒体927は、コンパクトフラッシュ(登録商標)(CompactFlash:CF)、フラッシュメモリ、又は、SDメモリカード(Secure Digital memory card)等であってもよい。また、リムーバブル記録媒体927は、例えば、非接触型ICチップを搭載したICカード(Integrated Circuit card)又は電子機器等であってもよい。
接続ポート923は、機器を情報処理装置10に直接接続するためのポートである。接続ポート923の一例として、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)ポート等がある。接続ポート923の別の例として、RS−232Cポート、光オーディオ端子、HDMI(High−Definition Multimedia Interface)ポート等がある。この接続ポート923に外部接続機器929を接続することで、情報処理装置10は、外部接続機器929から直接各種データを取得したり、外部接続機器929に各種データを提供したりする。
通信装置925は、例えば、通信網931に接続するための通信デバイス等で構成された通信インターフェースである。通信装置925は、例えば、有線又は無線LAN(Local Area Network)、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード等である。また、通信装置925は、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は、各種通信用のモデム等であってもよい。この通信装置925は、例えば、インターネットや他の通信機器との間で、例えばTCP/IP等の所定のプロトコルに則して信号等を送受信することができる。また、通信装置925に接続される通信網931は、有線又は無線によって接続されたネットワーク等により構成され、例えば、インターネット、家庭内LAN、赤外線通信、ラジオ波通信又は衛星通信等であってもよい。
以上、本開示の実施形態に係る情報処理装置10の機能を実現可能なハードウェア構成の一例を示した。上記の各構成要素は、汎用的な部材を用いて構成されていてもよいし、各構成要素の機能に特化したハードウェアにより構成されていてもよい。従って、本実施形態を実施する時々の技術レベルに応じて、適宜、利用するハードウェア構成を変更することが可能である。
なお、本開示の実施形態に係るプラットフォーム20の機能を実現可能なハードウェア構成は、上記情報処理装置10の機能を実現可能なハードウェア構成と同様の構成であるため、以下では詳細な説明は省略する。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、又は、上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
1又は複数のセンサによる検出結果を利用して認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得する取得部と、
前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御する制御部と、
を備える、情報処理装置。
(2)
前記制御部は、前記認識部による認識結果に応じて、認識された前記ユーザの動作又は状態に関する情報の内容を修正し、修正後の前記ユーザの動作又は状態に関する情報を、前記通知情報に反映させる、(1)に記載の情報処理装置。
(3)
前記制御部は、前記認識部による認識結果に応じて、前記ユーザの動作又は状態に関する情報の内容を抑制するか、前記ユーザの動作又は状態に関する情報の内容を他の内容へと置換するか、前記ユーザの動作又は状態に関する情報の内容の少なくとも一部を隠蔽するか、の何れかの修正を選択する、(1)又は(2)に記載の情報処理装置。
(4)
前記制御部は、前記ユーザと前記対象との間の動的な関係性に応じて、前記修正の度合いを変更する、(1)〜(3)の何れか1つに記載の情報処理装置。
(5)
前記制御部は、前記ユーザの動作又は状態に関する情報を送信する側のユーザにおける、前記反映度合いの設定情報と、前記ユーザの動作又は状態に関する情報を受信する側のユーザにおける、前記反映度合いの設定情報と、に応じて、前記修正の度合いを変更する、(1)〜(3)の何れか1つに記載の情報処理装置。
(6)
前記制御部は、前記ユーザの動作又は状態に関する情報を送信する側のユーザ、及び、前記ユーザの動作又は状態に関する情報を受信する側のユーザの間の動的な関係性と、前記ユーザの動作又は状態に関する情報を送信する側のユーザにおける、前記反映度合いの設定情報、及び、前記ユーザの動作又は状態に関する情報を受信する側のユーザにおける、前記反映度合いの設定情報と、の双方に応じて、前記修正の度合いを変更する、(1)〜(3)の何れか1つに記載の情報処理装置。
(7)
前記制御部は、第1のユーザから第2のユーザへの前記ユーザの動作又は状態に関する情報の前記反映度合いを表わすオブジェクトを、前記第1のユーザ及び前記第2のユーザが参照している表示画面に表示させる、(1)〜(6)の何れか1つに記載の情報処理装置。
(8)
前記特定のユーザの動作又は状態は、ユーザの身体的な動作、ユーザの表情、ユーザに関する生体情報、ユーザ又はユーザの周囲に存在するにおいもしくは音、振動の少なくとも何れかである、(1)〜(7)の何れか1つに記載の情報処理装置。
(9)
前記センサは、カメラ、モーションセンサ、気圧センサ、においセンサ、振動センサ、マイク、照度センサ、生体センサの少なくとも何れかである、(1)〜(8)の何れか1つに記載の情報処理装置。
(10)
前記対象は、複数のユーザ間で共有される仮想空間を提供するアプリケーションを利用している、他のユーザである、(1)〜(9)の何れか1つに記載の情報処理装置。
(11)
前記対象は、第1のユーザが視認している空間の映像を第2のユーザと共有する映像共有機能を提供するアプリケーションを利用している、他のユーザである、(1)〜(9)の何れか1つに記載の情報処理装置。
(12)
前記認識部、又は、前記制御部の少なくとも何れかは、複数のコンピュータに分散して実現される、(1)〜(11)の何れか1つに記載の情報処理装置。
(13)
1又は複数のセンサによる検出結果を利用して認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得することと、
前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御することと、
を含む、情報処理方法。
(14)
1又は複数のセンサによる検出結果を利用して、ユーザの動作又は状態の少なくとも何れか一方を認識する認識部による認識結果を取得可能なコンピュータに、
前記認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得する取得機能と、
前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御する制御機能と、
を実現させるためのプログラム。
1 情報処理システム
10 情報処理装置
20 プラットフォーム
101 認識部
103 制御部
105 通信制御部
107 記憶部
121 反映内容判断部
123 情報修正部
125 アプリケーション実行部
131 情報種別判別部
133 関係性判断部
135 反映内容決定部
201 統括制御部
203 センサ出力取得部
205 通信制御部
207 出力制御部
209 記憶部
221 認識部
223 情報反映制御部

Claims (16)

  1. 1又は複数のセンサによる検出結果を利用して認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得する取得部と、
    前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御する制御部と、
    を備え
    前記取得部は、前記認識結果として、前記センサによる検出結果を利用して認識される 、前記ユーザの現実空間での視線方向を取得し、
    前記制御部は、前記認識結果が特定のユーザの動作又は状態を示すと判断される場合と して、仮想空間に存在する前記ユーザの代理である第1のキャラクターの視線方向である 仮想視線方向であって、前記現実空間での視線方向が反映された仮想視線方向が、前記仮 想空間に存在する所定のオブジェクトに向けられていると判断される場合には、前記ユー ザとは異なるユーザであって、前記仮想空間を共有するユーザである他のユーザが参照し ている表示画面に表示させる前記第1のキャラクターに、当該仮想視線方向を反映させる 反映度合いを、前記ユーザと前記他のユーザとの間での所定の情報に応じて抑制する情報処理装置。
  2. 前記制御部は、前記認識部による認識結果に応じて、認識された前記ユーザの動作又は状態に関する情報の内容を修正し、修正後の前記ユーザの動作又は状態に関する情報を、前記通知情報に反映させる、請求項1に記載の情報処理装置。
  3. 前記制御部は、前記認識部による認識結果に応じて、前記ユーザの動作又は状態に関する情報の内容を抑制するか、前記ユーザの動作又は状態に関する情報の内容を他の内容へと置換するか、前記ユーザの動作又は状態に関する情報の内容の少なくとも一部を隠蔽するか、の何れかの修正を選択する、請求項2に記載の情報処理装置。
  4. 前記制御部は、前記ユーザと前記対象との間の動的な関係性に応じて、前記修正の度合いを変更する、請求項2に記載の情報処理装置。
  5. 前記制御部は、前記ユーザと前記対象とがより近しい関係性にあるほど、前記修正の度 合いをより緩やかな度合いへと変更する、請求項4に記載の情報処理装置。
  6. 前記制御部は、前記ユーザの動作又は状態に関する情報を送信する側のユーザにおける、前記反映度合いの設定情報と、前記ユーザの動作又は状態に関する情報を受信する側のユーザにおける、前記反映度合いの設定情報と、に応じて、前記修正の度合いを変更する、請求項2に記載の情報処理装置。
  7. 前記制御部は、前記ユーザの動作又は状態に関する情報を送信する側のユーザ、及び、前記ユーザの動作又は状態に関する情報を受信する側のユーザの間の動的な関係性と、前記ユーザの動作又は状態に関する情報を送信する側のユーザにおける、前記反映度合いの設定情報、及び、前記ユーザの動作又は状態に関する情報を受信する側のユーザにおける、前記反映度合いの設定情報と、の双方に応じて、前記修正の度合いを変更する、請求項2に記載の情報処理装置。
  8. 前記制御部は、第1のユーザから第2のユーザへの前記ユーザの動作又は状態に関する情報の前記反映度合いを表わすオブジェクトを、前記第1のユーザ及び前記第2のユーザが参照している表示画面に表示させる、請求項1に記載の情報処理装置。
  9. 前記特定のユーザの動作又は状態は、ユーザの身体的な動作、ユーザの表情、ユーザに関する生体情報、ユーザ又はユーザの周囲に存在するにおいもしくは音、振動の少なくとも何れかである、請求項1に記載の情報処理装置。
  10. 前記センサは、カメラ、モーションセンサ、気圧センサ、においセンサ、振動センサ、マイク、照度センサ、生体センサの少なくとも何れかである、請求項1に記載の情報処理装置。
  11. 前記対象は、複数のユーザ間で共有される仮想空間を提供するアプリケーションを利用している、他のユーザである、請求項1に記載の情報処理装置。
  12. 前記対象は、第1のユーザが視認している空間の映像を第2のユーザと共有する映像共有機能を提供するアプリケーションを利用している、他のユーザである、請求項1に記載の情報処理装置。
  13. 前記認識部、又は、前記制御部の少なくとも何れかは、複数のコンピュータに分散して実現される、請求項1に記載の情報処理装置。
  14. 前記仮想空間は、所定のオンラインゲームに対応する仮想空間である、請求項1に記載 の情報処理装置。
  15. 1又は複数のセンサによる検出結果を利用して認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得することと、
    前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御することと、
    を含み、
    前記認識結果として、前記センサによる検出結果を利用して認識される、前記ユーザの 現実空間での視線方向を取得し、
    前記認識結果が特定のユーザの動作又は状態を示すと判断される場合として、仮想空間 に存在する前記ユーザの代理である第1のキャラクターの視線方向である仮想視線方向で あって、前記現実空間での視線方向が反映された仮想視線方向が、前記仮想空間に存在す る所定のオブジェクトに向けられていると判断される場合には、前記ユーザとは異なるユ ーザであって、前記仮想空間を共有するユーザである他のユーザが参照している表示画面 に表示させる前記第1のキャラクターに、当該仮想視線方向を反映させる反映度合いを、 前記ユーザと前記他のユーザとの間での所定の情報に応じて抑制する、
    情報処理方法。
  16. 1又は複数のセンサによる検出結果を利用して、ユーザの動作又は状態の少なくとも何れか一方を認識する認識部による認識結果を取得可能なコンピュータに、
    前記認識部で認識される、ユーザの動作又は状態の少なくとも何れか一方を示す認識結果を取得する取得機能と、
    前記認識結果が特定のユーザの動作又は状態を示すと判断される場合に、当該特定のユーザの動作又は状態に関する情報を前記ユーザとは異なる対象に対して伝える通知情報に、当該特定のユーザの動作又は状態に関する情報を反映させる程度である反映度合いを、当該対象に応じて制御する制御機能と、
    を実現させ、
    前記取得機能は、前記認識結果として、前記センサによる検出結果を利用して認識され る、前記ユーザの現実空間での視線方向を取得し、
    前記制御機能は、前記認識結果が特定のユーザの動作又は状態を示すと判断される場合 として、仮想空間に存在する前記ユーザの代理である第1のキャラクターの視線方向であ る仮想視線方向であって、前記現実空間での視線方向が反映された仮想視線方向が、前記 仮想空間に存在する所定のオブジェクトに向けられていると判断される場合には、前記ユ ーザとは異なるユーザであって、前記仮想空間を共有するユーザである他のユーザが参照 している表示画面に表示させる前記第1のキャラクターに、当該仮想視線方向を反映させ る反映度合いを、前記ユーザと前記他のユーザとの間での所定の情報に応じて抑制する、ためのプログラム。
JP2017526213A 2015-06-30 2016-05-17 情報処理装置、情報処理方法及びプログラム Active JP6702322B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015131164 2015-06-30
JP2015131164 2015-06-30
PCT/JP2016/064641 WO2017002473A1 (ja) 2015-06-30 2016-05-17 情報処理装置、情報処理方法及びプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020082215A Division JP6992839B2 (ja) 2015-06-30 2020-05-07 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2017002473A1 JPWO2017002473A1 (ja) 2018-04-19
JP6702322B2 true JP6702322B2 (ja) 2020-06-03

Family

ID=57608198

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017526213A Active JP6702322B2 (ja) 2015-06-30 2016-05-17 情報処理装置、情報処理方法及びプログラム
JP2020082215A Active JP6992839B2 (ja) 2015-06-30 2020-05-07 情報処理装置、情報処理方法及びプログラム

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2020082215A Active JP6992839B2 (ja) 2015-06-30 2020-05-07 情報処理装置、情報処理方法及びプログラム

Country Status (4)

Country Link
US (2) US10315111B2 (ja)
JP (2) JP6702322B2 (ja)
CN (1) CN107735776B (ja)
WO (1) WO2017002473A1 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2562025B (en) * 2017-02-13 2020-01-01 Sony Interactive Entertainment Inc Simulation method and system
US10994209B2 (en) * 2017-11-27 2021-05-04 Sony Interactive Entertainment America Llc Shadow banning in social VR setting
KR102661487B1 (ko) 2018-05-04 2024-04-26 구글 엘엘씨 검출된 제스처 및 시선에 기초하여 자동화된 어시스턴트 기능 호출
JP7263505B2 (ja) 2018-05-04 2023-04-24 グーグル エルエルシー ホットワードを用いない自動アシスタント機能の適応
WO2019212569A1 (en) 2018-05-04 2019-11-07 Google Llc Adapting automated assistant based on detected mouth movement and/or gaze
KR20200019486A (ko) * 2018-08-14 2020-02-24 삼성전자주식회사 전자 장치, 그 제어 방법 및 전자 시스템
JP6721727B1 (ja) * 2019-01-08 2020-07-15 ソフトバンク株式会社 情報処理装置の制御プログラム、情報処理装置の制御方法、及び、情報処理装置
US11511199B2 (en) * 2019-02-28 2022-11-29 Vsn Vision Inc. Systems and methods for creating and sharing virtual and augmented experiences
KR200489627Y1 (ko) * 2019-06-11 2019-07-12 황영진 증강현실을 이용한 멀티플레이 교육 시스템
CN113646733A (zh) * 2019-06-27 2021-11-12 苹果公司 辅助表情
JP7275940B2 (ja) * 2019-07-08 2023-05-18 オムロン株式会社 制御プログラムおよび方法
JP6737942B1 (ja) * 2019-09-30 2020-08-12 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム
US20210263582A1 (en) * 2020-02-26 2021-08-26 Mursion, Inc. Systems and methods for automated control of human inhabited characters
JP7291106B2 (ja) * 2020-07-16 2023-06-14 株式会社バーチャルキャスト コンテンツ配信システム、コンテンツ配信方法、及びコンテンツ配信プログラム

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0812706B2 (ja) * 1993-03-25 1996-02-07 株式会社エイ・ティ・アール通信システム研究所 視線アニメーション表示装置
JPH08256316A (ja) * 1995-03-17 1996-10-01 Toshiba Corp 通信会議システム
CA2460332A1 (en) * 2001-09-12 2003-04-10 Opentv, Inc. A method and apparatus for disconnected chat room lurking in an interactive television environment
JP4354313B2 (ja) * 2004-01-21 2009-10-28 株式会社野村総合研究所 ユーザ間親密度測定システム及びユーザ間親密度測定プログラム
JP4645355B2 (ja) * 2005-08-11 2011-03-09 ソニー株式会社 情報処理装置および方法、並びにプログラム
US8243116B2 (en) * 2007-09-24 2012-08-14 Fuji Xerox Co., Ltd. Method and system for modifying non-verbal behavior for social appropriateness in video conferencing and other computer mediated communications
US8600731B2 (en) * 2009-02-04 2013-12-03 Microsoft Corporation Universal translator
JP5208810B2 (ja) * 2009-02-27 2013-06-12 株式会社東芝 情報処理装置、情報処理方法、情報処理プログラム、およびネットワーク会議システム
JP2010239583A (ja) * 2009-03-31 2010-10-21 Brother Ind Ltd 通信端末装置、通信端末装置の通信制御方法、通信制御プログラム
JP2012043284A (ja) * 2010-08-20 2012-03-01 Nippon Telegr & Teleph Corp <Ntt> プレゼンス情報管理装置、プレゼンス情報管理方法及びプレゼンス情報管理プログラム
JP2012054897A (ja) * 2010-09-03 2012-03-15 Sharp Corp 会議システム、情報処理装置、及び情報処理方法
CN105898429B (zh) * 2011-02-25 2019-05-28 英派尔科技开发有限公司 能够增强现实演出的方法、设备和增强现实设备
JP2014021707A (ja) * 2012-07-18 2014-02-03 Nikon Corp 情報入出力装置、及び情報入出力方法
US10469416B2 (en) 2012-09-06 2019-11-05 Sony Corporation Information processing device, information processing method, and program
WO2014115393A1 (ja) 2013-01-24 2014-07-31 ソニー株式会社 画像表示装置及び画像表示方法、並びに画像表示システム
US10203762B2 (en) * 2014-03-11 2019-02-12 Magic Leap, Inc. Methods and systems for creating virtual and augmented reality

Also Published As

Publication number Publication date
US20190255439A1 (en) 2019-08-22
JPWO2017002473A1 (ja) 2018-04-19
US20180185753A1 (en) 2018-07-05
WO2017002473A1 (ja) 2017-01-05
CN107735776A (zh) 2018-02-23
JP6992839B2 (ja) 2022-01-13
CN107735776B (zh) 2021-07-13
US10315111B2 (en) 2019-06-11
JP2020144901A (ja) 2020-09-10
US10933321B2 (en) 2021-03-02

Similar Documents

Publication Publication Date Title
JP6702322B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11568643B2 (en) Automatic control of wearable display device based on external conditions
US20230333377A1 (en) Display System
US20210074072A1 (en) Multimodal inputs for computer-generated reality
US20230020616A1 (en) User interfaces for altering visual media
JP7258766B2 (ja) 割り込みに対するゲーム内反応
US20220404620A1 (en) Methods and devices related to extended reality
JPWO2018173383A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US11169599B2 (en) Information processing apparatus, information processing method, and program
US20240086142A1 (en) Dynamically adjusting a personal boundary of an avatar in an xr environment
WO2023188904A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20230254448A1 (en) Camera-less representation of users during communication sessions
Lages Nine Challenges for Immersive Entertainment
US20200066116A1 (en) Information processing apparatus, information processing method, and program
NZ794186A (en) Automatic control of wearable display device based on external conditions

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190208

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190214

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190222

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190507

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190507

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200318

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200407

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200420

R151 Written notification of patent or utility model registration

Ref document number: 6702322

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151