JP2017069687A - 情報処理装置及び情報処理方法並びにプログラム - Google Patents

情報処理装置及び情報処理方法並びにプログラム Download PDF

Info

Publication number
JP2017069687A
JP2017069687A JP2015191485A JP2015191485A JP2017069687A JP 2017069687 A JP2017069687 A JP 2017069687A JP 2015191485 A JP2015191485 A JP 2015191485A JP 2015191485 A JP2015191485 A JP 2015191485A JP 2017069687 A JP2017069687 A JP 2017069687A
Authority
JP
Japan
Prior art keywords
information
user
talking
person
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015191485A
Other languages
English (en)
Inventor
安田 亮平
Ryohei Yasuda
亮平 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2015191485A priority Critical patent/JP2017069687A/ja
Priority to CN201680055269.7A priority patent/CN108028957B/zh
Priority to PCT/JP2016/069372 priority patent/WO2017056604A1/ja
Priority to US15/759,628 priority patent/US10712998B2/en
Publication of JP2017069687A publication Critical patent/JP2017069687A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M11/00Telephonic communication systems specially adapted for combination with other electrical systems
    • H04M11/06Simultaneous speech and data transmission, e.g. telegraphic transmission over the same conductors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/10Earpieces; Attachments therefor ; Earphones; Monophonic headphones
    • H04R1/1083Reduction of ambient noise
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2460/00Details of hearing devices, i.e. of ear- or headphones covered by H04R1/10 or H04R5/033 but not provided for in any of their subgroups, or of hearing aids covered by H04R25/00 but not provided for in any of its subgroups
    • H04R2460/07Use of position data from wide-area or local-area positioning systems in hearing devices, e.g. program or information selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/033Headphones for stereophonic communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/15Aspects of sound capture and related signal processing for recording or reproduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Headphones And Earphones (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Telephonic Communication Services (AREA)

Abstract

【課題】周囲からの情報が聴覚的又は視覚的に制限されたユーザに対する周囲からの話掛け動作を示す話掛け動作情報が特定され、ユーザと当該ユーザに話し掛けた人物とのコミュニケーションを向上する。【解決手段】情報処理装置は、周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出する検出部と、話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき話掛け動作を示す話掛け動作情報を特定する特定部と、を備える。【選択図】図5

Description

本開示は、情報処理装置及び情報処理方法並びにプログラムに関する。
近年、ノイズキャンセル機能付きのヘッドホン装置又はイヤホン装置や、頭部装着型ディスプレイ(HMD:Head Mounted Display)装置が普及してきている。これらの装置を利用するユーザは、周囲からの情報が聴覚的に又は視覚的に遮断され、容易に没入感を体験できるようになっている。一方、これらの装置を利用するユーザは、没入感を味わえる反面、周囲の人物から話し掛けられたことを認知することが困難となる。
これに対して、特許文献1には、ユーザの外部の状況を表す外部情報に基づいて、外部情報をユーザに対して通知する必要度を判断し、判断された必要度に基づいて、ユーザに対する外部情報の通知状態を切り替える技術が開示されている。かかる技術によれば、遮蔽型HMD装置を装着しているユーザと外部の人物とがより円滑にコミュニケーションを取ることができる。
国際公開第2014/156388号
しかしながら、特許文献1に開示された技術では、外部情報をユーザに対して通知する必要度に応じて、外部の画像情報や音声情報がユーザに対して表示又は出力されるが、ユーザが話し掛けられた時点からの画像情報や音声情報が表示又は出力されるものではない。周囲の人物は、ユーザに一旦話し掛けた後に、ユーザがいる方向とは異なる方向を向いたり、ユーザから離れたりし得る。その場合、外部の画像情報や音声情報が表示又は出力されたとしても、誰から話し掛けられたのか分からなくなることが考えられる。これに対して、周囲の人物がユーザに話し掛けた際の、話し掛けた人物の動作が特定できれば、ユーザと当該ユーザに話し掛けた人物とのコミュニケーションがさらに向上すると考えられる。
そこで、本開示では、周囲からの情報が聴覚的又は視覚的に制限されたユーザに対する周囲からの話掛け動作を示す話掛け動作情報が特定され、ユーザと当該ユーザに話し掛けた人物とのコミュニケーションを向上可能な、新規かつ改良された情報処理装置及び情報処理方法又はプログラムを提案する。
本開示によれば、周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出する検出部と、話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき話掛け動作を示す話掛け動作情報を特定する特定部と、を備える、情報処理装置が提供される。
また、本開示によれば、周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出することと、話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき話掛け動作を示す話掛け動作情報を特定することと、を含む、情報処理方法が提供される。
また、本開示によれば、コンピュータに、周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出する機能と、話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき話掛け動作を示す話掛け動作情報を特定する機能と、を実現させるためのプログラムが提供される。
以上説明したように本開示によれば、周囲からの情報が聴覚的又は視覚的に制限されたユーザに対する周囲からの話掛け動作を示す話掛け動作情報が特定され、ユーザと当該ユーザに話し掛けた人物とのコミュニケーションの向上を図ることができようになる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
第1の実施の形態にかかる情報処理システムの使用状態を示す説明図である。 同実施形態にかかる情報処理システムの構成の一例を示す機能ブロック図である。 同実施形態にかかる情報処理装置の統合制御部の構成の一例を示す機能ブロック図である。 人物がユーザを見ているか否かを判定する方法の例について示す説明図である。 特定部が特定する話掛け動作情報の一覧を示す図である。 画像表示を変化させる例を示す説明図である。 話し掛けている人物がいる方向をアイコンで示した説明図である。 話し掛けている人物がいる方向をレーダマップで示した説明図である。 レーダマップの別の例を示す説明図である。 発話内容のテキストメッセージを表示した例を示す説明図である。 同実施形態にかかる情報処理装置による処理を示すフローチャートである。 音声情報のタイムシフト再生処理を示す説明図である。 音声情報のタイムシフト再生処理を示すフローチャートである。 同実施形態の第1の変形例にかかる情報処理装置の統合制御部の構成の一例を示す機能ブロック図である。 話掛け履歴情報の例を示す説明図である。 動画シーンを再生している様子を示す説明図である。 同実施形態の第2の変形例にかかる情報処理装置の統合制御部の構成の一例を示す機能ブロック図である。 ユーザへの通知動作が許可されている状態を周囲の人物へ通知する様子を示す説明図である。 ユーザへの通知動作が禁止されている状態を周囲の人物へ通知する様子を示す説明図である。 ユーザの状態を周囲の人物へ通知する様子を示す説明図である。 同実施形態の第4の変形例にかかる情報処理システムの使用状態を示す説明図である。 同実施形態の第4の変形例にかかる情報処理システムの構成の一例を示す機能ブロック図である。 第2の実施の形態にかかる情報処理システムの構成の一例を示す機能ブロック図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.第1の実施の形態
1−1.情報処理システムの概要
1−2.情報処理システムの構成
1−3.情報処理装置
1−4.装置による処理
1−5.第1の実施の形態のまとめ
1−6.変形例
2.第2の実施の形態
3.第3の実施の形態
<<1.第1の実施の形態>>
<1−1.情報処理システムの概要>
まず、本開示の第1の実施の形態にかかる情報処理装置110を備える情報処理システムの全体概要について説明する。図1は、本実施形態にかかる情報処理システムの使用状態を示す説明図である。かかる情報処理システムでは、周囲からの情報が聴覚的に又は視覚的に制限される装置(以下、「没入体感装置」ともいう。)を装着したユーザAがいる空間の画像及び音声が、撮像部10a,10b及び図示しない集音部を用いてモニタリングされている。ここでは、没入体感装置として、HMD装置100及びノイズキャンセル機能付きのヘッドホン装置30が示されている。
また、HMD装置100の情報処理装置110は、例えば、周囲の人物XによるユーザAへの話掛け動作を検出した場合には、モニタリングされている画像情報及び音声情報に基づいて、当該話掛け動作を示す情報(以下、「話掛け動作情報」という。)を特定する。そして、情報処理装置110は、特定された話掛け動作情報に基づいてHMD装置100及びヘッドホン装置30のうちの少なくとも一方を制御し、ユーザAに対して話し掛けられていることを通知する。これにより、没入体験をしているユーザAが、周囲からの話掛け動作を認識することができる。
なお、以下、撮像装置等により撮像されるユーザAの周囲の画像を「周囲画像」ともいい、集音部等により集音されるユーザAの周囲の音声を「周囲音声」ともいう。また、話掛け動作を示す情報である「話掛け動作情報」とは、ユーザAがいる空間に備えられた各種の装置によって検知され、情報処理装置110によって取得可能な情報のうち、ユーザAの周囲の人物X,Y,ZがユーザAに対して話し掛けているときの動きや発話を内容に含む情報を意味する。
<1−2.情報処理システムの構成>
次に、本実施形態にかかる情報処理システムの構成の一例について説明する。図2は、情報処理システムの構成の一例を示す機能ブロック図である。本実施形態にかかる情報処理システムは、撮像装置10と、ヘッドホン装置30と、HMD装置100とを備えている。
[1−2−1.撮像装置]
撮像装置10は、撮像部10a,10bと、制御部12と、通信部14とを備え、没入体感装置を装着しているユーザAの周囲をモニタリングする。通信部14は、HMD装置100の情報処理装置110と通信を行う。具体的には、通信部14は、制御部12から提供される視線情報を情報処理装置110に送信する。視線情報は、情報処理装置110において、ユーザAの周囲に、ユーザAの方向を向いている人物がいないかを判断するために用いられる。
制御部12は、撮像装置10の動作を制御する。具体的に、制御部12は、あらかじめ設定された時間間隔で撮像部10a,10bに撮像を指示し、撮像部10a,10bの撮像により得られる周囲画像の情報である周囲画像情報に基づいて視線情報を生成する。そして、制御部12は、通信部14に、生成した視線情報を周囲画像情報とともに情報処理装置110に向けて送信する。例えば、制御部12は、撮像部10a,10bから提供される周囲画像に含まれる人物を解析することによって、人物の視線を検出し、検出した視線を示す視線情報を生成する。なお、視線の検出には、例えば、虹彩もしくは瞳孔の位置又は人体の頭部の動き等に基づく視線検出技術等の一般的な技術が用いられる。
撮像部10a,10bは、制御部12の指示に基づいて撮像を行う。具体的に、撮像部10a,10bは、ユーザAの周囲を動画又は静止画の形式で撮像し、撮像により得られる周囲画像を制御部12に提供する。例えば、撮像部10a,10bは、光を集光する撮影レンズ及びズームレンズなどの撮像光学系、及びCCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等の信号変換素子を備えることができる。また、撮像部10a,10bは、IR(Infrared)カメラであってもよく、上記の可視光カメラとIRカメラとの組み合わせであってもよい。
本実施形態の情報処理システムでは、2台の撮像部10a,10bを備えるが、撮像部の数は2台に限られない。撮像部は1台であってもよいし、2台以上であってもよい。また、撮像部10a,10bは、壁等に固定されたものであってもよく、移動式のものであってもよい。この場合、移動式の撮像部とは、ユーザAあるいは周囲の人物X,Y,Zが頭部等に装着して利用するカメラも含み得る。
なお、制御部12は、撮像部10a,10bにより撮像された周囲画像情報に基づいて、ユーザAの周囲にいる人物X,Y,Zの視線の代わりに顔向きを検出し、当該顔向き情報を周囲画像情報とともに情報処理装置110に送信してもよい。顔向きの検出には、例えば、顔面の構成要素の特徴点に基づく顔向き検出技術等の一般的な技術が用いられる。
[1−2−2.没入体感装置]
没入体感装置としてのHMD装置100は、ゴーグル状の形状を有する表示装置50を装着したユーザAに対して、周囲からの情報を視覚的に制限した状態で、ユーザAの眼の前で各種の視覚的な情報を表示する。ユーザAは、同時に、ヘッドホン装置30を装着し、周囲からの情報を聴覚的にも制限された状態で、提供されるコンテンツの音声であるコンテンツ音声を視聴することにより、没入体験をすることができる。HMD装置100は、表示装置50と情報処理装置110とを備える。
表示装置50は、ゴーグル状の形状の内側に位置し、ユーザAの顔面側に向けられる画像表示部52と、ゴーグル状の形状の外側に位置し、ユーザAの顔面とは反対側に向けられる外部通知部56とを有する。例えば、画像表示部52は、情報処理装置110によって制御され、ユーザAの右眼及び左眼に対応する位置にそれぞれ設けられた二つの表示画面からなり、ユーザAに対して三次元画像(3D画像)を提供することができる。
ユーザAは、画像表示部52の表示画面を参照することにより、例えば映画やビデオゲーム等のコンテンツの画像であるコンテンツ画像を楽しむことができる。また、画像表示部52は、ユーザAの周囲の人物によるユーザAへの話掛け動作が検出された場合に、ユーザAに対する通知表示を行う。なお、画像表示部52は、一つの表示画面からなるものであってもよい。
外部通知部56は、ユーザAの周囲に向けて情報を提示する。外部通知部56は、画像情報を表示するものに限られず、LED(Light Emitting Diode)等の照明光の点灯状態によって、周囲の人物に情報を提示するものであってもよい。なお、本実施形態のシステムでは、HMD装置100の表示装置50が、外部通知部56を備えていなくてもよい。
情報処理装置110は、HMD装置100及びそれに接続されたヘッドホン装置30を統合的に制御する。情報処理装置110は、通信部112と、記憶部114と、統合制御部120とを備える。
通信部112は、撮像装置10や表示装置50、ヘッドホン装置30と通信を行う。具体的に、通信部112は、撮像装置10から視線情報及び周囲画像情報を受信し、ヘッドホン装置30から周囲音声の情報である周囲音声情報を受信する。周囲画像情報及び周囲音声情報は、ユーザAのいる空間をモニタリングしている周囲情報の一例である。また、通信部112は、表示装置50に画像情報あるいは駆動信号を送信し、ヘッドホン装置30に音声情報を送信する。通信部112の行う通信は、有線通信であってもよく、無線通信であってもよい。
記憶部114は、統合制御部120の制御処理に関連する情報を記憶する。具体的に、記憶部114は、受信される視線情報、周囲画像情報及び周囲音声情報、表示装置50に表示させる画像情報等を記憶する。記憶部114は、例えば、RAM(Random Access Memory)等の記憶素子とし得る。また、情報処理装置110は、統合制御部120により実行されるソフトウェアプログラムや、各種の制御処理に用いるパラメータ等を記憶したり、ユーザAに提供される種々のコンテンツのデータを記憶したりする図示しない記憶装置を備え得る。
統合制御部120は、受信される視線情報や周囲画像情報、周囲音声情報に基づいて、ユーザAの周囲の人物によるユーザAへの話掛け動作を検出する処理を行う。また、統合制御部120は、ユーザAへの話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき話掛け動作情報を特定し、ユーザAに対して、ユーザAが話し掛けられていることを通知する各種の処理を行う。統合制御部120の具体的な機能構成については後述する。
[1−2−3.ヘッドホン装置]
没入体感装置としてのヘッドホン装置30は、HMD装置100に接続されて、HMD装置100の操作音や、提供されるコンテンツに付随する音声であるコンテンツ音声を出力する。かかるヘッドホン装置30は、ノイズキャンセル機能を有してもよい。音声を出力する機器は、ヘッドホン装置30に限られず、例えばイヤホン装置であってもよい。ヘッドホン装置30は、音声出力部34と、集音部32と、制御部36と、通信部38とを備える。
通信部38は、HMD装置100の情報処理装置110と通信を行う。具体的には、通信部38は、情報処理装置110から提供されるコンテンツ音声や操作音等の音声情報を受信する。また、通信部38は、集音部32により集音された周囲音声情報を情報処理装置110に送信する。周囲音声情報は、情報処理装置110において、周囲の人物によるユーザAに対する発話の有無を判断するために用いられる。
音声出力部34は、制御部36により制御され、コンテンツ音声や操作音等を出力する。また、音声出力部34は、ユーザAの周囲の人物によるユーザAへの話掛け動作が検出された場合に、ユーザAに対する音声による通知を行う。集音部32は、ユーザAの周囲をモニタリングするために音声を集音し、周囲音声信号を制御部36に提供する。集音部32は、例えば、少なくとも二つのマイクロホンからなり、両耳に対応するスピーカーボックスやヘッドバンド等に設けられてもよい。複数のマイクロホンにより周囲音声を集音することにより、音源定位処理によって、音源の位置を推定することが可能になる。
制御部36は、通信部38に、周囲音声信号を情報処理装置110に送信させる。また、制御部36は、情報処理装置110から送信されるコンテンツ音声や操作音の情報に基づき、音声出力部34に音声出力をさせる。制御部36は、例えば、コンテンツ音声が出力されている間、周囲の音をユーザAに聞こえにくくするノイズキャンセル制御を実行する。例えば、制御部36は、情報処理装置110からの送信される音声情報に対応する波長に対して、集音部32によって集められた周囲の音声の波長を反転させて重ね合わせて、音声出力部34から出力させてもよい。これにより、ユーザAは、周囲の音が聞こえにくくなって、さらに没入感を得やすくなっている。
なお、本実施形態では、集音部32がヘッドホン装置30の構成要素となっているが、集音部32がHMD装置100の表示装置50に設けられてもよい。あるいは、集音部32は、HMD装置100やヘッドホン装置30とは独立した装置として、情報処理装置110に直接接続されていてもよい。また、ヘッドホン装置30の制御部36を省略し、当該制御部36の機能を、HMD装置100の情報処理装置110が有してもよい。
また、上述したHMD装置100の表示装置50に設けられたような外部通知部56が、ヘッドホン装置30に設けられていてもよい。あるいは、HMD装置100の表示装置50の外部通知部56と併せて、ヘッドホン装置30にも外部通知部が設けられてもよい。ヘッドホン装置30に外部通知部を設ける場合、例えば、左右の耳にそれぞれ対応するスピーカーボックスの外側面や、当該スピーカーボックスを接続するヘッドバンドに外部通知部を設け得る。
<1−3.情報処理装置>
次に、情報処理装置110の具体的な構成例について詳細に説明する。図3は、情報処理装置110の統合制御部120の構成の一例を示す機能ブロック図である。かかる情報処理装置110において、統合制御部120は、検出部122と、特定部124と、内部通知制御部126と、禁止処理部128とを備える。これらの各部は、具体的には、CPUによるソフトウェアプログラムの実行により実現される機能部である。
[1−3−1.検出部]
検出部122は、視線情報、周囲画像情報及び周囲音声情報に基づいて、ユーザAの周囲の人物によるユーザAへの話掛け動作を検出する。具体的に、検出部122は、周囲の人物がユーザAの方向を向いた状態で発話をしたと判断される場合に、ユーザAが話し掛けられたことを検出し得る。例えば、検出部122は、受信された視線情報に基づき定められる人物Xの視野範囲にユーザAが存在している場合に、周囲の人物XがユーザAを見ていると判断してもよい。人物XがユーザAを見ていると判断された場合、検出部122は、記憶部114に、受信される画像情報及び音声情報の記録を開始させてもよい。また、検出部122は、ユーザAを見ている人物Xの方向から集音される周囲音声の音声レベルが所定レベル以上になったときに、当該人物Xが発話をしたと判断してもよい。
図4は、人物XがユーザAを見ているか否かを判定する方法の例について示す説明図である。図4に示す例では、人物Xの視線方向に基づいて視野範囲が定められ、当該視野範囲にユーザAが位置しているか否かが判定される。視野範囲は、検出される視線方向を、人物Xの両眼の間の位置を中心として適宜の角度で左右両方向に回転させて定められる範囲とし得る。かかる視野範囲がなす角度θは、例えば45°とし得るが、これに限られない。また、視野範囲は、人物Xからの距離によって制限されてもよい。ユーザAの位置は、例えば、HMD装置100の表示装置50に備えられたGPSセンサにより検出される情報に基づいて特定してもよい。
このとき、周囲の人物Xの視野範囲に、ユーザAだけでなく、他の人物も存在する場合等、当該人物XがユーザAを見ているか否かの確度が低い場合には、ユーザAを見ていると判定しないようにしてもよい。これにより、ユーザAが実際には話し掛けられていないにもかかわらず、話掛け動作が検出されるおそれを低減することができる。
また、検出部122は、ユーザAを見ている人物Xがいると判断した場合に、発話検出処理を行う。例えば、ユーザAを見ている人物Xが検出されたときに、ビームフォーミング処理によって当該人物Xがいる方向の周囲音声を集音部32に集音させてもよい。そして、検出部122は、受信された特定の方向の周囲音声の音声レベルが、所定レベル以上になったときに、人物XがユーザAに対して話し掛けたと判定してもよい。これにより、ユーザAが話し掛けられていないにもかかわらず、ユーザAの周囲音声が偶然大きくなった場合に、ユーザAが話し掛けられたと判定されるおそれが低減される。
なお、発話検出処理は上記の方法に限られない。例えば、検出部122は、受信される周囲音声の音声レベルにより発話検出をする代わりに、受信される周囲音声のトーンの変化に基づいて、ユーザAを見ている人物XがユーザAに話し掛けたと判定してもよい。あるいは、検出部122は、受信される周囲画像情報に基づいて、ユーザAを見ている人物Xの口の動きを検出し、口の動きと併せて周囲音声の音声レベルが所定レベル以上になったときに、人物XがユーザAに対して話し掛けたと判定してもよい。
また、検出部122は、受信される音声情報に含まれる発話を音声認識処理し、当該音声認識結果に基づいて、ユーザAを見ている人物XがユーザAに話し掛けたと判定してもよい。例えば、発話中に、ユーザAの名前やニックネーム等、ユーザAを特定可能な言葉が含まれる場合に、検出部122は、ユーザAを見ている人物XがユーザAに話し掛けたと判定してもよい。
[1−3−2.特定部]
特定部124は、ユーザAの周囲の人物XによるユーザAへの話掛け動作が検出されたときに、受信される周囲画像情報、視線情報及び周囲音声情報に基づいて、話掛け動作情報を特定する。特定部124は、特定される話掛け動作情報を、記憶部114に記憶させる。上述のとおり、話掛け動作情報には、ユーザAの周囲の人物X,Y,ZがユーザAに対して話し掛けているときの動きや発話の情報が含まれ得る。
(1−3−2−1.音声情報及び画像情報)
本実施形態では、検出部122によって、周囲の人物XによるユーザAへの話掛け動作が検出されたときに、特定部124は、引き続き受信され記憶部114に記録される画像情報のうち、当該人物Xが含まれる画像情報を話掛け動作情報の一つとして特定してもよい。また、検出部122によって、周囲の人物XによるユーザAへの話掛け動作が検出されたときに、特定部124は、引き続き受信され記憶部114に記録される音声情報のうち、人物Xの発話と思われる音声情報を話掛け動作情報の一つとして特定してもよい。このとき、特定部124は、音声情報に含まれる発話の音声認識結果をテキスト化してもよい。
また、特定部124は、例えば、継続して受信される音声情報が途切れたときまでの動画像及び音声を話掛け動作情報として特定してもよい。具体的に、特定部124は、継続して受信される音声情報が途切れて所定時間が経過したときに、人物XによるユーザAへの話掛け動作が終了したと見做して、画像情報及び音声情報を話掛け動作情報の特定を終了してもよい。さらに、特定部124は、ユーザAを見ていた人物Xの視野範囲からユーザAの位置が外れたときに、記憶部114による画像情報及び音声情報の記録を停止させてもよい。
なお、特定される話掛け動作情報の終期は、音声情報が途切れた時点に限られない。例えば、特定部124は、ユーザAに対して話し掛けた人物Xの口の動きを画像情報で分析し、当該人物Xの口の動きが止まった時点を話掛け動作情報の終期としてもよい。また、特定部124は、音声情報の音声レベルが所定レベル未満になって所定時間経過した時点を、話掛け動作情報の終期としてもよい。また、記憶部114による画像情報及び音声情報の記録を停止させる時期は、ユーザAを見ていた人物Xの視野範囲からユーザAの位置が外れた時点に限られない。特定部124は、話掛け動作情報の特定を終了するときに、同時に、画像情報及び音声情報の記録を停止させてもよい。その他、特定部124は、話掛け動作が検出された後の適宜の条件の成立時に、画像情報及び音声情報の記録を停止させてもよい。
(1−3−2−2.位置情報)
特定部124は、画像情報及び音声情報の記録と併せて、ユーザAと当該ユーザAに話し掛けた人物Xとの位置情報を特定してもよい。その際に、特定部124は、ユーザAが存在する空間におけるユーザAと人物Xとの相対位置だけでなく、ユーザAが向いている方向に対して人物Xがどの位置にいるかを特定してもよい。ユーザAが向いている方向は、例えば、HMD装置100の表示装置50に備えられるGPSセンサによる位置情報や、撮像装置10から送信される画像情報に基づいて検出してもよい。また、ユーザAに話し掛ける人物Xの位置は、例えば、受信される画像情報及び視線情報に基づいて検出してもよい。
(1−3−2−3.人物属性情報)
特定部124は、画像情報及び音声情報の記録と併せて、ユーザAに対して話し掛けた人物Xの属性情報を特定し、記憶部114に記憶させてもよい。具体的に、特定部124は、人物Xの名前やID、性別、ユーザAとの関係性等の情報を特定してもよい。例えば、特定部124は、撮像装置10から送信される画像情報に基づいて、顔認識処理や特徴量演算の方法により、あらかじめ記憶部114等に記憶されたデータベースを参照して人物を特定し、当該データベースに紐付けられた属性情報を特定してもよい。
例えば、ユーザAに対して話し掛けた人物Xが、ユーザAにとって会社の同僚や上司のような仕事上の関係にある人である場合には、当該人物Xが話し掛けてくる理由が仕事に関することである可能性が高い。また、当該人物Xが、ユーザAの友人や家族のようなプライベート上の関係にある人である場合には、当該人物Xが話し掛けてくる理由がプライベートに関することである可能性が高い。したがって、ユーザAに対して話し掛けた人物Xの属性情報を特定することにより、ユーザAは、話掛け動作に対して反応すべき必要性を判断しやすくなる。
(1−3−2−4.その他の特定情報)
特定部124は、上記した情報以外に、ユーザAが人物Xから話し掛けられた日時や、話し掛けられたときに利用しているコンテンツの情報を特定し、記憶部114に記憶させてもよい。コンテンツの情報は、利用しているコンテンツの種類あるいは名称であってよい。例えば、特定部124は、『使用コンテンツ=映画「映画タイトル○○」』や『使用コンテンツ=ビデオゲーム「ゲームタイトル○○」』、『使用コンテンツ=ミュージック「アルバムタイトル○○」』等のように、コンテンツの情報を特定してもよい。
あるいは、特定部124は、話し掛けられたときに利用していたコンテンツの画像データを特定し、記憶部114に記憶させてもよい。記憶させる画像データは、例えば、視聴していたコンテンツ画像の静止画のデータや、音楽コンテンツのアルバムのデザインの画像データとしてもよい。ユーザAが話し掛けられたときに利用していたコンテンツの情報をともに特定することにより、話し掛けられたときの状況がコンテンツの内容に関連づけられ、ユーザAが話掛け動作情報を後で確認したときに思い出しやすくなる。
(1−3−2−5.特定情報一覧)
図5は、それぞれの話掛け動作に対して特定部124が特定し得る情報の一覧を例示している。特定部124は、ユーザAに対する人物Xの話掛け動作が検出されたときに、日時、撮像装置10により撮像された画像情報、集音部32により集音された音声情報、発話内容のテキスト情報、話し掛けた人物Xの属性情報、話し掛けられたときに利用していたコンテンツの情報を特定し、話掛け動作情報群として記憶部114に記憶させてもよい。
[1−3−3.内部通知制御部]
内部通知制御部126は、特定部124によって特定された話掛け動作情報に基づいて、ユーザAに対する通知を行う。ここで、ユーザAに対する通知には、表示装置50の画像表示部52の表示画面に画像を表示させ、及び、ヘッドホン装置30の音声出力部34から音声を出力させることの少なくとも一方が含まれ得る。例えば、内部通知制御部126は、特定部124により特定され、記憶部114に記憶された話掛け動作情報を再生してもよい。その際に、内部通知制御部126は、以下の通知方法のうちのいずれか一つ又は複数を組み合わせて、話掛け動作情報を再生してもよい。
(1−3−3−1.通知方法1:音声タイムシフト再生)
内部通知制御部126は、特定部124により特定される音声情報を、タイムシフト再生により、ユーザAの周囲の人物Xが実際に話し掛けた時刻から遅れて再生してもよい。このとき、人物Xの発話が終了する前から再生を開始してもよいし、人物Xの発話が終了した後で再生を開始してもよい。周囲の人物Xの発話の音声情報がタイムシフト再生されることにより、ユーザAは、話し掛けられたときの発話を始めから聞くことができる。
これにより、ユーザAは、まさに話し掛けられたときの様子を知ることができるため、例えば、話し掛けた人物Xの感情の状態や緊急度合い等を把握しやすくなる。したがって、ユーザAは、話掛け動作に対して反応した方がよいかを判断できるようになり、ユーザAと話し掛けた人物Xとの間のコミュニケーションが向上し得る。また、話し掛けた理由の緊急度が低い場合には、ユーザAは、引き続きHMD装置100により提供されるコンテンツを楽しむことができるため、没入感が失われにくくなる。
また、タイムシフト再生を行う場合、内部通知制御部126は、現実の発話時期から、対応する音声情報の再生時期までの遅延時間を徐々に短くし、リアルタイムの音声に切り替えてもよい。例えば、内部通知制御部126は、記憶部114に一旦記憶させた音声情報を、1.5倍程度の適宜の倍率の速度で再生しつつ、遅延時間が最小になった後に、ノイズキャンセル機能をオフにさせて、周囲音声が直接ユーザAに視聴されるようにしてもよい。
(1−3−3−2.通知方法2:画像タイムシフト再生)
内部通知制御部126は、特定部124により特定される画像情報を、音声情報の再生の場合と同様に、タイムシフト再生してもよい。また、画像情報のタイムシフト再生を行う場合、内部通知制御部126は、記憶部114に一旦記憶させた画像情報を、1.5倍程度の適宜の倍率の速度で再生しつつ、遅延時間が最小になった後に、撮像装置10から送信される画像情報を画像表示部52に表示させてもよい。これにより、ユーザAは、画像情報に基づいて話し掛けられたときの様子を知ることができるため、話し掛けた人物Xの感情の状態や緊急度合い等を把握しやすくなる。したがって、ユーザAと話し掛けた人物Xとの間のコミュニケーションが向上し得るとともに、ユーザAの没入感が失われにくくなる。
また、内部通知制御部126は、特定された画像情報を画像表示部52に表示させる際には、表示画面の全体に話掛け動作情報としての画像情報を表示させてもよい。あるいは、内部通知制御部126は、特定された画像情報を画像表示部52に表示させる際に、話掛け動作情報としての画像情報を、利用しているコンテンツ画像に対して重畳表示させてもよい。特定された画像情報をコンテンツ画像に重畳表示させることにより、例えば、ユーザAが、利用中のコンテンツに集中したい場合に、周囲の人物Xの話掛け動作に対する反応をせずに、コンテンツの利用を継続することができる。
なお、特定された画像情報を、音声情報と併せてタイムシフト再生する場合には、内部通知制御部126は、同じ時刻に録画あるいは録音された画像情報及び音声情報が同時に再生されるように制御を行い得る。
(1−3−3−3.通知方法3:再生準備)
内部通知制御部126は、特定された画像情報及び音声情報のうちの少なくとも一方を再生するにあたり、あらかじめ準備動作をさせてもよい。例えば、内部通知制御部126は、特定された音声情報を再生する前に、当該音声がユーザAに聞こえやすくなるように、コンテンツ音声の音量を小さくしてもよい。また、内部通知制御部126は、特定された話掛け動作情報を再生する前に、現在利用している音楽コンテンツや動画コンテンツ、テレビゲーム等の再生や進行を一時的に停止させてもよい。
また、内部通知制御部126は、特定された音声情報を再生する前に、ヘッドホン装置30のノイズキャンセル機能を一時的に停止させてもよい。これにより、周囲の音声が聞き取りやすくなって、周囲の人物Xからの話掛け動作に対して反応した後に、リアルタイムで会話をすることができるようになる。
かかる準備動作の開始指示は、例えば、検出部122により、周囲の人物XによるユーザAへの話掛け動作が検出されたときに出力されてよい。そして、内部通知制御部126は、かかる準備動作が実行され始めた後に、話掛け動作情報の再生を開始してよい。また、内部通知制御部126は、話掛け動作情報の再生を停止するときに、同時に、かかる準備動作を終了してよい。
また、内部通知制御部126は、これらの再生準備に先立って、数秒後にコンテンツが一時停止されることをユーザAに予告してもよい。例えば、内部通知制御部126は、再生準備の開始指示を出力する3〜5秒前に、あらかじめ設定された通知音や音声、あるいは、アイコン表示やテキスト表示等によって、再生準備動作の予告をさせてもよい。これにより、利用中のコンテンツが突然停止してユーザAが驚くことを防ぐことができる。あるいは、ユーザAは、情報処理装置110によってコンテンツが停止される前に、適宜のタイミングで自らコンテンツを停止させることができる。
(1−3−3−4.通知方法4:バーチャルサラウンド)
内部通知制御部126は、ユーザAの向きに対する人物Xの位置情報が特定されている場合には、音声情報を再生する際に、当該位置情報に基づいて音声情報を出力させてもよい。具体的に、内部通知制御部126は、バーチャルサラウンド技術を利用して、人物Xがいる方向から音声が聞こえるように音声出力を制御してもよい。バーチャルサラウンドは、例えば、ヘッドホン装置30の左右のスピーカーボックスから出力する音声信号をバイノーラル信号化するとともに、クロストークを打消す処理を行うことによって実現し得る。
あるいは、内部通知制御部126は、頭部伝達関数を再現することによってヘッドホン装置30により立体音響効果を得る手法である音像定位処理を実行し、人物Xがいる方向から音声情報が聞こえるようにしてもよい。このように音声出力による通知を行うことにより、ユーザAが話し掛けられたことを知ったときに、話し掛けた人物Xがいる方向に向いて反応しやすくなる。これにより、ユーザAと話し掛けた人物Xとのコミュニケーションの向上が図られる。
(1−3−3−5.通知方法5:表示態様変化)
内部通知制御部126は、特定された画像情報を画像表示部52に表示させる際に、画像表示の態様を変化させてもよい。例えば、図6に示すように、内部通知制御部126は、検出部122が周囲の人物XによるユーザAへの話掛け動作を検出してからの話掛け動作の継続時間に基づいて、重畳表示させる画像Pの大きさを変化させてもよい。図6の例では、話掛け動作の継続時間が長くなるにつれて、重畳表示させる画像Pが次第に大きくなっている。これにより、ユーザAに対して、話し掛けられている時間を認識させることができ、話し掛けている人物Xへの反応を促すことができる。一方、話掛け動作の継続時間に基づいて、重畳表示させる画像Pの大きさを次第に小さくすることにより、反応する意思がユーザAにない場合に、ユーザAが話掛け動作を気にすることなくコンテンツの利用を継続することができる。
なお、画像の表示の仕方を変化させる方法は、画像の大きさを変化させることに限られない。例えば、内部通知制御部126は、重畳表示させる画像の透明度を変化させてもよい。話掛け動作の継続時間に基づいて、重畳表示させる画像の透明度を次第に低下させることにより、反応する意思がユーザAにない場合に、ユーザAが話掛け動作を気にすることなくコンテンツの利用を継続することができる。一方、話掛け動作の継続時間に基づいて、重畳表示させる画像の透明度を次第に上昇させることにより、ユーザAに対して、人物Xへの反応を促すことができる。
(1−3−3−6.通知方法6:アニメーション表示)
内部通知制御部126は、特定された話掛け動作情報に基づいて、アイコンやアニメーションを画像表示部52に表示させてもよい。例えば、図7に示すように、ユーザAの向いている方向に対する人物Xの位置情報に基づき、人物Xが存在している方向を吹き出しや矢印等のアイコンIで表示してもよい。かかるアイコンIの表示を行うことにより、ユーザAが、話し掛けている人物Xの位置を容易に把握することができ、反応する際に、人物Xがいる方向に向かって返事をすることができる。したがって、ユーザAと人物Xとのコミュニケーションが円滑になり得る。
(1−3−3−7.通知方法7:レーダ表示)
内部通知制御部126は、特定された話掛け動作情報に基づいて、ユーザAの向きに対するユーザAに話し掛けた人物Xの位置情報を画像表示部52にレーダ表示させてもよい。例えば、図8は、ユーザAを上から見下ろした形で、ユーザAの位置を中心とするレーダマップLM中に、ユーザAに話し掛けた人物Xがいる方向を表示した例を示す。図8に示したレーダマップLMの表示の例では、上方が、現在のユーザA自身が向いている方向を示す。すなわち、この例は、ユーザAが、右後方から人物Xに話し掛けられていることを示している。
この例では、話し掛けている人物Xがいる位置に当該人物Xの顔画像が表示されているが、適宜の図形であってもよい。また、表示される人物Xの表示は、ユーザAの向いている方向に対する人物Xの位置の変化に応じて変化させてもよい。例えば、内部通知制御部126は、ユーザA又は人物Xの移動に伴って、人物Xを示す顔画像あるいは図形を移動させてよい。また、図9に示すように、内部通知制御部126は、HMD装置100の表示装置50等に設けられる地磁気センサ等によって取得し得る東西南北の方位情報を表示させてもよい。
このようなレーダ表示を行うことにより、ユーザAが、話し掛けている人物Xの位置を容易に把握することができ、反応する際に、人物Xがいる方向に向かって返事をすることができる。また、例えば、話掛け動作情報として特定された音声情報をタイムシフト再生している間に、かかるレーダ表示がされていれば、タイムシフト再生中に、話し掛けた人物XがそのままユーザAの周囲にいるか否かを知ることができる。したがって、ユーザAと人物Xとのコミュニケーションが円滑になり得る。
また、内部通知制御部126は、話し掛けている人物XとユーザAとの距離を示す情報をレーダ表示中に表示させてもよい。例えば、図8及び図9のレーダ表示の例では、人物XとユーザAとの距離に応じて、人物Xの顔画像とユーザAの位置表示との間に表示される図形(三角形の図形)の数が異なっている。なお、人物XとユーザAとの距離の表示方法は、図8及び図9の例に限られない。
また、内部通知制御部126は、レーダ表示中に、話し掛けている人物X以外に、ユーザAの周囲に存在する人物を併せて表示させてもよい。この場合、話し掛けた人物XがユーザAに分かるように、人物Xの表示に特徴を持たせてもよい。例えば、話し掛けた人物Xの表示を、他の人物の表示よりも大きくさせたり、点滅させたりしてもよい。また、話し掛けた人物X以外の人物の表示の透明度を高めてもよい。
(1−3−3−8.通知方法8:テキスト表示)
内部通知制御部126は、特定された話掛け動作情報に基づいて、テキストメッセージTMを表示させてもよい。例えば、図10に示すように、内部通知制御部126は、特定部124により特定された発話のテキスト情報を表示させてもよい。図10では、「○○さん、ちょっといい?」とのテキストメッセージTMが表示されている。その他、表示させるテキストメッセージTMは、あらかじめ設定された固定メッセージとしてもよい。固定メッセージは、特定された話掛け動作情報群に含まれる情報に基づき、記憶部114等に記憶されたメッセージ群の中から選択されて、表示されてもよい。例えば、特定された人物Xの位置情報に基づいて、「右後ろの人から話し掛けられています。」等のように表示させることができる。
(1−3−3−9.通知方法9:人物属性表示)
内部通知制御部126は、特定された話掛け動作情報に基づいて、話し掛けた人物Xの属性情報を画像表示部52に表示させてもよい。具体的に、内部通知制御部126は、特定部124により特定された人物Xの名前、ID、性別、ユーザAとの関係性等の情報を画像表示部52に表示してもよい。人物Xの属性情報が表示されることにより、ユーザAは、話し掛けた人物Xを容易に知ることができ、反応すべき優先度合いを判断することができる。
[1−3−4.禁止処理部]
禁止処理部128は、内部通知制御部126による、ユーザAが話し掛けられたことをユーザAに対して通知する制御を禁止する。例えば、ユーザAがHMD装置100やヘッドホン装置30を装着した状態で眠っている場合や、ユーザAがコンテンツに集中している場合等、ユーザAが話し掛けられたくない場合が考えられる。禁止処理部128は、そのような場合に、ユーザAに対して、話し掛けられたことが通知されないようにする。
(1−3−4−1.ユーザ状態による禁止)
例えば、禁止処理部128は、ユーザAの状態を示す情報に基づいて、内部通知制御部126による画像表示部52や音声出力部34への通知処理を禁止してもよい。例えば、禁止処理部128は、ユーザA自身によって通知動作を禁止するよう設定されている場合に、内部通知制御部126による通知処理を禁止してもよい。あるいは、禁止処理部128は、ユーザAが睡眠中の場合や、ユーザAの集中レベルが所定レベル以上の場合に、内部通知制御部126による通知処理を禁止してもよい。ユーザAが睡眠中であるか否かや、ユーザAの集中レベルは、例えば、ユーザAの心拍数や発汗状態、脳波等を検出する生体センサの検出情報に基づき判定してもよい。あるいは、ユーザAが睡眠中であるか否かは、HMD装置100の表示装置50に設けられるユーザAの視線を検出するセンサの検出情報に基づき判定してもよい。
(1−3−4−2.人物属性による禁止)
禁止処理部128は、特定された話掛け動作情報に含まれる、話し掛けた人物Xの属性情報に基づいて、内部通知制御部126による通知処理を禁止してもよい。例えば、話し掛けた人物XがユーザAの知らない人物であったり、あるいは、ユーザA自身が通知を禁止するよう設定した人物であったりする場合に、禁止処理部128は、内部通知制御部126による通知処理を禁止してもよい。これにより、ユーザAは、話し掛けてくる人物によって、あらかじめ反応の優先度を決めておくことができ、没入感が損なわれるおそれを低減することができる。
(1−3−4−3.時間設定による禁止)
禁止処理部128は、あらかじめ設定される時間に、内部通知制御部126による画像表示部52や音声出力部34への通知処理を禁止してもよい。例えば、ユーザAは、内部通知制御部126による通知処理の禁止を開始する時刻及び解除する時刻をあらかじめ設定したり、通知処理を禁止する時間をあらかじめタイマ設定したりすることにより、通知処理を禁止する時間を管理してもよい。これにより、ユーザAは、あらかじめ決められた時間の間、没入体験を阻害されないようにしてもよい。また、あらかじめ設定した時間を周囲の人物に知らせておくことにより、周囲の人物にとっても話し掛けたにもかかわらず反応されないことによる不満を感じることがなくなる。
(1−3−4−4.周囲音量による禁止)
禁止処理部128は、周囲音声の音声レベルが、現在聞いているコンテンツ音声の音声レベルよりも所定以上大きい場合に、内部通知制御部126による音声出力部34への通知処理を禁止してもよい。例えば、禁止処理部128は、現在聞いているコンテンツ音声の音声レベルに対する周囲音声の音声レベルの比率によって、通知処理を禁止するか否かを判定してもよい。また、禁止処理部128は、現在聞いているコンテンツ音声の音声レベルと周囲音声の音声レベルとの差によって、通知処理を禁止するか否かを判定してもよい。これにより、ユーザAに対して、急に大きな音声を聞かせないようにして、ユーザAが驚かないようにすることができる。
(1−3−4−5.コンテンツの状態による禁止)
禁止処理部128は、現在利用しているコンテンツの状態に基づいて、内部通知制御部126による音声出力部34への通知処理を禁止してもよい。例えば、禁止処理部128は、現在視聴している映画や、利用しているビデオゲームにおいて、ユーザAに集中状態が求められる特定のシーンやタイミングで、通知処理を禁止してもよい。かかる特定のシーンやタイミングは、あらかじめコンテンツごとに設定されていてもよく、あるいは、コンテンツ音声の盛り上がりやコンテンツ画像の色合いの変化等に基づいて判断されてもよい。また、禁止処理部128は、ユーザAがあらかじめ禁止設定をした種類や特定のコンテンツが利用されているときに、通知処理を禁止してもよい。これにより、ユーザAが、利用しているコンテンツで盛り上がっているにもかかわらず、周囲の人物から話し掛けられて、没入感が損なわれるおそれを低減することができる。
<1−4.装置による処理>
次に、本実施形態にかかる情報処理装置110による処理の一例について説明する。図11は、情報処理装置110による処理を概念的に示すフローチャートである。
[1−4−1.基本フロー]
まず、情報処理装置110は、HMD装置100及びヘッドホン装置30を装着したユーザAに視線を向けている人物がいるか否かを判定する(ステップS12)。具体的に、情報処理装置110の検出部122は、撮像装置10から送信される周囲画像情報及び視線情報に基づき、ユーザAの周囲に、視野範囲にユーザAの位置が含まれる人物がいるか否かを判定する。このとき、ユーザAの位置がある人物の視野範囲に含まれるものの、ユーザAの近くに別の人物がいる場合には、ユーザAに視線を向けている人物がいると判定しないようにしてもよい。
情報処理装置110は、ユーザAに視線を向けている人物がいないと判定される場合(S12:No)、ステップS22に進む。この場合、情報処理装置110は、記憶部114による画像情報及び音声情報の記録を停止状態にした後(ステップS22)、ステップS12に戻る。一方、情報処理装置110は、ユーザAに視線を向けている人物Xがいると判定される場合(S12:Yes)、ステップS14に進む。次いで、情報処理装置110は、引き続き受信される画像情報及び音声情報を記憶部114に記録させる。
次いで、情報処理装置110は、ユーザAに視線を向けている人物XがユーザAに対して話し掛けているか否かを判定する(ステップS16)。具体的に、検出部122は、集音部32により集音されて送信される周囲音声情報に基づいて発話検出処理を行う。例えば、検出部122は、ビームフォーミング処理により、ユーザAを見ている人物Xがいる方向の周囲音声を集音部32に集音させ、受信された周囲音声の音声レベルが所定レベル以上になっているか否かを判定する。検出部122は、受信された周囲音声のトーンの変化に基づいて、上記判定を行ってもよい。
情報処理装置110は、ユーザAに視線を向けている人物がユーザAに話し掛けていると判定されない場合(S16:No)、ステップS12に戻って、フローを繰り返す。一方、情報処理装置110は、ユーザAに視線を向けている人物XがユーザAに話し掛けていると判定された場合(S16:Yes)、ステップS18に進む。次いで、情報処理装置110は、記憶部114に記録される画像情報及び音声情報に基づいて、人物XによるユーザAに対する話掛け動作を示す情報を特定する(ステップS18)。
具体的に、情報処理装置110の特定部124は、人物XによるユーザAへの話掛け動作が検出されたときに、引き続き受信され記録されている画像情報のうち、当該人物Xが含まれる画像情報を話掛け動作情報の一つとして特定してもよい。また、特定部124は、人物XによるユーザAへの話掛け動作が検出されたときに、引き続き受信され記録されている音声情報のうち、当該人物Xの発話と思われる音声情報を話掛け動作情報の一つとして特定してもよい。
このとき、特定部124は、音声情報に含まれる人物Xの発話を音声認識し、テキスト化してもよい。また、特定部124は、画像情報及び音声情報と併せて、ユーザAと人物Xとの位置情報や、人物Xの属性情報、話し掛けられた日時、話し掛けられたときに利用していたコンテンツの情報等を特定してもよい。また、特定部124は、例えば、人物XによるユーザAに対する発話が所定時間以上途切れたときに、話掛け動作情報の特定を終了する。
情報処理装置110は、特定された話掛け動作情報を記憶部114に記憶させる。例えば、特定部124は、図5に示すような話掛け動作情報群として、記憶部114に記憶させる。
次いで、情報処理装置110は、記憶部114による画像情報及び音声情報の記録を停止させる(ステップS20)。具体的に、特定部124は、話掛け動作情報の特定を終了した後、人物Xの視線がユーザAから外れたときに、記憶部114による画像情報及び音声情報の記録を停止させる。以降、情報処理装置110は、ステップS12に戻って、これまで説明したフローを繰り返し行う。
以上のように、本実施形態にかかる情報処理装置110は、没入体感装置としてのHMD装置100及びヘッドホン装置30を装着したユーザAに対して、当該ユーザAの周囲の人物Xが話し掛けたときに、話掛け動作情報を特定し、記憶部114に記憶する。これにより、ユーザAは、話し掛けられた時点から遅れて話掛け動作が通知される際に、ユーザAが話し掛けられている様子を知ることができる。
[1−4−2.タイムシフト再生処理]
次に、本実施形態にかかる情報処理装置110による処理の例として、話掛け動作情報としての音声情報を特定し、当該音声情報をタイムシフト再生するフローについて説明する。図12は、情報処理装置110による音声情報のタイムシフト再生処理を示す説明図であり、上段に録音データを示し、下段に再生データを示す。また、図13は、情報処理装置110による音声情報のタイムシフト再生処理を概念的に示すフローチャートである。
まず、情報処理装置110は、時刻Aにおいて、撮像装置10から送信される画像情報及び視線情報に基づいて、ユーザAの方向を見ている人物を検出する(ステップS32)。具体的には、検出部122は、図11のフローチャートにおけるステップS12の処理にしたがって、周囲の人物の視線情報により特定される視野範囲にユーザAの位置が含まれるか否かにより、当該判定を行ってもよい。
ユーザAの方向を見る人物が検出されると、情報処理装置110は、記憶部114に、受信される音声情報の記録を開始させる(ステップS34)。具体的には、検出部122は、ユーザAの方向を見る人物Xが検出された後に引き続き受信される音声情報を記憶部114に記憶させる。
次いで、情報処理装置110は、時刻Bにおいて、ユーザAの方向を見ている人物Xが発話したことを検出する(ステップS36)。具体的には、検出部122は、図11のフローチャートにおけるステップS16の処理にしたがって発話検出処理を行い、人物Xがいる方向の音声レベルが所定レベル以上になっているか否かにより、当該判定を行ってもよい。
ユーザAを見ている人物Xの発話が検出されると、情報処理装置110は、発話が検出された時刻B以降に受信される音声情報を、話掛け動作情報として特定し、記憶部114に記憶させる(ステップS38)。具体的に、特定部124は、発話が検出された以降に受信される音声情報を、話掛け動作情報の一つとして記憶部114に記憶させる。
さらに、情報処理装置110は、話掛け動作情報として特定され記憶される音声情報の再生準備を開始する(ステップS40)。具体的に、内部通知制御部126は、ユーザAが現在視聴しているコンテンツ音声の音量を小さくさせたり、現在利用しているコンテンツの再生や進行を一時的に停止させたりしてもよい。あるいは、内部通知制御部126は、ヘッドホン装置30のノイズキャンセル機能を一時的に停止させてもよい。
次いで、情報処理装置110は、時刻Cにおいて、話掛け動作情報として特定され記憶されている音声情報の再生を開始させる(ステップS42)。具体的に、内部通知制御部126は、人物Xによる実際の発話のタイミングから少し遅れて、記録された音声情報を再生し、ヘッドホン装置30の音声出力部34から出力させる。内部通知制御部126は、再生準備が整った後に速やかに音声情報の再生を開始させてもよいし、あらかじめ設定された時間差で音声情報の再生を開始させてもよい。このとき、バーチャルサウンド技術により、人物Xがいる方向から音声が聞こえるようにしてもよい。
次いで、情報処理装置110は、時刻Dにおいて、人物Xによる発話の終了を検出する(ステップS44)。具体的に、特定部124は、人物Xのいる方向からの音声情報が途切れて所定時間経過した場合に、人物Xによる発話の終了を検出してもよい。これにより、話掛け動作情報としての音声情報の特定が終了する。
人物Xによる発話の終了が検出された時刻Dでは、情報処理装置110は、音声情報の再生を停止させる(ステップS46)。具体的に、内部通知制御部126は、ステップS44で特定が終了されるまでの音声情報を再生させた後に、再生を停止させる。
次いで、情報処理装置110は、時刻Eにおいて、ユーザAの方向を見ていた人物Xの視線がユーザAから外れたことを検出する(ステップS48)。具体的に、検出部122は、受信される画像情報及び視線情報に基づいて、ユーザAの位置が、ユーザAを見ていた人物Xの視野範囲から外れたか否かにより、当該判定を行ってもよい。
ユーザAの方向を見ていた人物Xの視線がユーザAから外れたことが検出されると、情報処理装置110は、記憶部114による、画像情報及び音声情報の記録を停止させる。ステップS44において発話の終了が検出された時点で、人物Xの視線がユーザAから外れている場合には、音声情報の再生を停止させることと併せて、画像情報及び音声情報の記録を停止させてもよい。
なお、ここでは話掛け動作情報としての音声情報のタイムシフト再生処理について説明したが、話掛け動作情報として特定される画像情報についても同様の手順でタイムシフト再生させてもよい。また、音声情報及び画像情報を同じタイミングでタイムシフト再生させることによって、ユーザAは、自身が話し掛けられている様子を視覚及び聴覚で知ることができる。
このように、情報処理装置110は、人物XによるユーザAの話掛け動作を検出したときに、受信される画像情報及び音声情報から話掛け動作情報を特定し、タイムシフト再生させる。したがって、ユーザAは、自身が話し掛けられた後の様子ではなく、話し掛けられているときの様子を知ることができる。これにより、ユーザAは、話し掛けている人物Xの感情の状態や緊急度合い等を知った上で反応することができ、ユーザAと、ユーザAに話し掛けている人物Xとのコミュニケーションを向上させることができる。
<1−5.第1の実施の形態のまとめ>
以上のように、本開示の第1の実施の形態によれば、情報処理装置110は、ユーザAの周囲の画像情報や、周囲の人物の視線情報、周囲の音声情報を受信し、これらの周囲情報に基づいて、周囲の人物XによるユーザAへの話掛け動作を検出する。そして、情報処理装置110は、周囲の人物Xによる話掛け動作を検出した場合、受信された周囲情報に基づいて、話掛け動作情報を特定する。このため、人物XがユーザAに話し掛けた時点から、話し掛けられていることをユーザAに通知するまでの間に時間差が生じる場合であっても、ユーザAに話し掛けられたことを通知する際に、自身が話し掛けられているときの様子を知らせることができる。その結果、ユーザAは、人物Xの話し掛けの状態に応じて、反応の要否や反応の示し方を判断することができ、ユーザAとユーザAに話し掛ける人物Xとのコミュニケーションを向上させることができる。
また、情報処理装置110は、ユーザAに話し掛ける人物Xの画像情報、及び、人物Xの発話内容を含む音声情報と併せて、ユーザAの向きに対する人物Xの位置情報や人物Xの属性情報、話し掛けられた日時、利用していたコンテンツの情報を話掛け動作情報として特定し得る。これにより、ユーザAは、人物Xに話し掛けられたときの情報をより詳細に知ることができ、人物Xへの反応の要否や反応の示し方をより判断しやすくなる。
また、情報処理装置110は、特定した話掛け動作情報に基づいて、画像表示部52に画像を表示させ、及び、音声出力部34から音声を出力させ得る。このとき、情報処理装置110は、画像情報及び音声情報をタイムシフト再生させることにより、ユーザAが話し掛けられた時点からユーザAに通知されるまでに時間差が生じる場合であっても、ユーザAは話し掛けられているときの様子を知ることができる。
また、情報処理装置110は、特定された画像情報及び音声情報を再生する前に、コンテンツを一時停止させたり、音量を下げたり、あるいは、ヘッドホン装置30のノイズキャンセル機能を一時停止させる等の準備動作をさせ得る。これにより、ユーザAは、話し掛けられたことを知らせる通知を認識しやすくなって、話し掛けた人物Xとのコミュニケーションを向上させることができる。
また、情報処理装置110は、特定された音声情報を再生する際に、人物Xがいる方向から音声が聞こえるように音声出力を制御し得る。これにより、ユーザAは、人物Xからの話し掛けに反応する際に、人物Xのいる方向に向かって返事をすることができる。
また、情報処理装置110は、特定された画像情報を表示させる際に、話し掛けられている時間に基づいて、画像表示を変化させ得る。これにより、ユーザAに対して、話し掛けている人物Xへの反応を促したり、あるいは、画像表示を次第に目立たなくしてコンテンツの利用を継続させやすくしたりすることができる。
また、情報処理装置110は、ユーザAに対して、話し掛けられていることを通知する際に、アニメーション表示やレーダ表示を用いて、ユーザAの向きに対する人物Xの位置情報を提供し得る。これにより、ユーザAは、人物Xの話し掛けに反応する際に、人物Xのいる方向に向かって返事をすることができる。また、話掛け動作情報がタイムシフト再生される場合には、タイムシフト再生中に、話し掛けた人物Xがそのまま周囲にいるか否かを知ることができる
また、情報処理装置110は、ユーザAに対して話し掛けられていることを通知する際に、テキストメッセージを画像表示部52に表示させ得る。これにより、ユーザAは、人物Xによる話掛け動作あるいは人物Xの発話内容を視覚的に認知することができる。
また、情報処理装置110は、ユーザAに対して話し掛けられていることを通知する際に、人物Xの属性情報を画像表示部52に表示させ得る。これにより、ユーザAは、話し掛けた人物Xを容易に知ることができ、反応すべき優先度合いを判断することができる。
また、情報処理装置110は、所定の条件下において、話し掛けられていることをユーザAに対して通知する制御を禁止し得る。これにより、ユーザAが没入体感装置を装着したまま眠っている場合や、コンテンツに集中している場合等、ユーザAが話し掛けられたくないような場合に、通知動作が行われることがなくなる。
<1−6.変形例>(第1実施形態:割込み処理→履歴保存の態様)
以上、本開示の第1の実施の形態について説明した。なお、本実施形態は、上述の例に限定されない。以下、本実施形態の変形例のいくつかを説明する。
[1−6−1.第1の変形例]
本実施形態の第1の変形例として、情報処理装置110は、特定部124により特定された話掛け動作情報に基づいて、ユーザAが話し掛けられたときの履歴情報である話掛け履歴情報を生成してもよい。具体的には、情報処理装置110は、周囲の人物によるユーザAへの話掛け動作を検出するごとに、受信される画像情報及び音声情報に基づいて話掛け動作情報を特定し、記憶部114に記憶させる。そして、情報処理装置110は、ユーザAの入力操作により履歴確認動作が選択された場合に、それまでに記憶されている話掛け動作情報に基づいて話掛け履歴情報を生成し、画像表示部52に一覧表示させる。これにより、ユーザAは、例えばコンテンツの利用を終了した後で、当該コンテンツを利用している間にユーザAに話し掛けてきた人物、及びそのときの様子を確認することができる。
図14は、第1の変形例にかかる情報処理装置110の統合制御部120の構成の一例を示す機能ブロック図である。かかる統合制御部120は、第1の実施の形態にかかる統合制御部120に、履歴生成部136が付加されている。検出部122、特定部124、内部通知制御部126及び禁止処理部128は、それぞれ上述した各部と同様の機能を有し得る。履歴生成部136は、ユーザAの入力操作により履歴確認動作が選択された場合に、記憶部114を参照して話掛け動作情報に基づき話掛け履歴情報を生成する。内部通知制御部126は、生成された話掛け履歴情報を画像表示部52に表示させる。
図15は、画像表示部52に表示させる履歴表示の一例を示す。かかる履歴表示の例では、話し掛けられたときに視聴していたコンテンツ画像S、話し掛けられた時間T、話し掛けた人物の顔写真F、発話内容の音声認識結果V、及び、話し掛けられたときに禁止処理中であったことを示すアイコンHが表示されている。また、コンテンツ画像S及び時間Tは、非表示選択ボタンN1,N2を選択することによって、非表示とすることができる。
かかる履歴表示の例において、コンテンツ画像Sは、話し掛けられたときの動画シーンの静止画像である。ユーザAがかかるコンテンツ画像Sを選択したときに、履歴生成部136は、当該動画シーンを再生させてもよい。例えば、履歴生成部136は、話し掛けられたときから数秒(例えば5秒)遡って動画シーンを再生させてもよい。あるいは、履歴生成部136は、当該コンテンツ画像Sのシーンから数秒間動画シーンを再生させてもよい。このとき、履歴生成部136は、動画シーンを再生させる際に、話し掛けられたときに内部通知制御部126により実行された通知処理を再現させてもよい。例えば、図16に示すように、履歴生成部136は、動画シーンの再生に伴って、レーダマップLMを重畳表示させたり、発話の音声情報を出力させたりしてもよい。
また、履歴生成部136は、発話内容の音声認識結果Vを表示させる際に、発話内容の全文ではなく、冒頭から所定の文字数を表示させてもよい。また、履歴生成部136は、表示されたテキストメッセージの続きがある場合には、「・・・」等の、続きがあることを示す表示をさせてもよい。さらに、履歴生成部136は、ユーザAが発話内容の音声認識結果のいずれかをカーソル選択している間に、テキストメッセージをスクロール表示させてもよい。
このように、本実施形態の第1の変形例によれば、情報処理装置110は、ユーザAに対する話掛け動作の履歴を表示させることができる。したがって、ユーザAは、没入体感装置を装着していた間における話掛け動作を、時間が経過した後に確認することができる。これにより、ユーザAは、睡眠中であったり、コンテンツに集中していたりしたために反応できなかった人物に対して、後に要件の確認等をすることができるようになり、ユーザAとユーザAに話し掛けた人物とのコミュニケーションの向上を図ることができる。
なお、上述の例では、履歴生成部136は、ユーザAの入力操作にしたがって話掛け履歴情報を生成していたが、利用していたコンテンツの終了時又は停止時に、自動的に話掛け履歴情報を生成し、画像表示部52に表示させてもよい。また、図15に示した履歴表示は一例に過ぎず、表示されている話掛け動作情報の一部が省略されていてもよいし、別の話掛け動作情報に置き換えられ、又は、別の話掛け動作情報が追加されていてもよい。
[1−6−2.第2の変形例]
本実施形態の第2の変形例として、情報処理装置110は、表示装置50の外部通知部56に、周囲への通知表示をさせてもよい。例えば、情報処理装置110は、ユーザAに話し掛けても良い状態か否か、情報処理システムの対応状態、あるいはユーザAの状態を、周囲に通知させてもよい。これにより、没入体感装置を装着したユーザAの周囲にいる人物が、ユーザAに対して話し掛けて良い状況か否かを事前に判断したり、ユーザAに話し掛けている間に、話し掛けていることが伝わっているのか不安に感じたりしないようにすることができる。
図17は、第2の変形例にかかる情報処理装置110の統合制御部120の構成の一例を示す機能ブロック図である。かかる統合制御部120は、第1の実施の形態にかかる統合制御部120に、外部通知制御部132が付加されている。検出部122、特定部124、内部通知制御部126及び禁止処理部128は、それぞれ上述した各部と同様の機能を有し得る。外部通知制御部132は、検出部122、特定部124、又は禁止処理部128の動作又は設定に基づいて、所定の通知表示を表示装置50の外部通知部56に表示させる。
具体的に、外部通知制御部132は、禁止処理部128の設定に基づいて、現在、ユーザAへの通知動作の許可状態を外部通知部56に表示させてもよい。図18は、ユーザAへの通知動作が許可されている状態を示し、図19は、ユーザAへの通知動作が禁止されている状態を示している。例えば、外部通知制御部132は、ユーザAへの通知動作が許可されている場合にはHMD装置100の表示装置50の外部通知部56に表示させない一方、ユーザAへの通知動作が禁止されている場合には表示装置50の外部通知部56に禁止状態を示すアイコンIHを表示させてもよい。また、ヘッドホン装置30のスピーカーボックスに外部通知部が設けられている場合、外部通知制御部132は、ユーザAへの通知動作が許可されているときには青色を、ユーザAへの通知動作が禁止されている場合には赤色を、外部通知部に表示させてもよい。
また、外部通知制御部132は、ユーザAへの通知動作の許可状態を表示させるにあたり、ユーザAの対応可能状態を通知させてもよい。例えば、音声だけであれば聞くことができること、緊急案件であれば話し掛けてもよいこと、すぐに対応可能であること、あるいは、話し掛けることで追ってコンタクトすること、等を周囲の人物に伝える表示をさせてもよい。これにより、周囲の人物の利便性を向上させることができる。
また、外部通知制御部132は、検出部122が、ユーザAの方向を見ている人物を検出している間、情報処理システムの対応状態を通知表示させてもよい。例えば、外部通知制御部132は、検出部122が、ユーザAの方向を見ている人物を検出していることを周囲に通知するために、表示装置50あるいはヘッドホン装置30に設けられたLED等の光源を点滅させてもよい。また、外部通知制御部132は、検出部122が、周囲の人物によるユーザAへの話掛け動作を検出して、記憶部114に対して、受信される画像情報や音声情報の記録を開始させた場合に、録画あるいは録音中であることを示すインジケータを点灯させてもよい。さらに、外部通知制御部132は、画像情報や音声情報を記録している間、集音される音声の大きさに応じて、表示を変化させてもよい。例えば、外部通知制御部132は、音声レベルに応じて、表示を点滅させたり、アニメーションにより変化させたりしてもよい。
また、外部通知制御部132は、ユーザAの状態を外部通知部56に表示させてもよい。例えば、外部通知制御部132は、ユーザAに取り付けられた生体センサ等により検出される生体情報に基づいて、ユーザAの状態を表示させてもよい。生体センサは、例えば、ユーザAの心拍数や発汗状態、脳波等を検出し得るセンサであって、検出される生体情報は情報処理装置110によって読み込み可能になっている。
図20は、外部通知制御部132により、ユーザAの状態がHMD装置100の表示装置50の外部通知部56に表示されている例を示す。例えば、外部通知制御部132は、脳波等の情報に基づいて、ユーザAが眠っていると判断される場合、外部通知部56のLED表示LDの明るさを暗くさせてもよい。また、外部通知制御部132は、生体情報に基づいてユーザAの集中度を推定し、外部通知部56にレベルメータLIを表示させてもよい。
また、外部通知制御部132は、生体情報に基づいて、ユーザAが意識を失ったことを検出した場合には、HMD装置100あるいはヘッドホン装置30に備えられる音声出力部等から大音量で警告音等を出力させるとともに、全ての光源を点滅させてもよい。これにより、周囲の人物が、ユーザAの異常に気付きやすくなる。
外部通知制御部132は、上記のような通知表示をさせる際に、周囲の人物、あるいは、話し掛けている人物の位置情報に基づいて、通知表示をさせる部分や装置を異ならせてもよい。例えば、外部通知制御部132は、周囲の人物、あるいは、話し掛けている人物の位置の方向に表示が向けられるように、通知表示をさせる部分や装置を異ならせてもよい。
また、外部通知制御部132は、周囲の人物、あるいは、話し掛けている人物の属性情報に基づいて、通知表示をさせる部分や装置、表示内容を異ならせてもよい。例えば、外部通知制御部132は、人物の身長に応じて表示位置を異ならせてもよい。あるいは、外部通知制御部132は、人物の年齢層、ユーザAとの関係性、特定の人物等に応じて、表示内容を異ならせてもよい。これにより、周囲の人物に対して通知表示を見やすくさせたり、周囲の人物を不快にさせないようにしたりできる。
このように、本実施形態の第2の変形例によれば、外部通知制御部132が、ユーザAに話し掛けても良い状態か否か、情報処理システムの対応状態、あるいはユーザAの状態を、外部通知部56に通知表示させる。これにより、ユーザAの周囲の人物の利便性や快適性を高めることができる。また、かかる通知表示がされることにより、ユーザAの周囲にいる人物であって、ユーザAに話し掛けようとしていない人物の注意を引くこともできる。
[1−6−3.第3の変形例]
本実施形態の第3の変形例として、情報処理装置110は、ユーザAの周囲の人物の視線方向あるいは顔向きの代わりに、人物の動作に基づいてユーザAに対する関心の有無を検出してもよい。具体的に、検出部122は、ユーザAの周囲の人物の動作に基づいてユーザAに関心のある人物を特定し、さらに、当該人物が発話をしたと判定されたときに、当該人物によるユーザAへの話掛け動作を検出してもよい。
ユーザAに対する関心の有無を判断するための動作としては、例えば、ユーザAに対して接近することや、特定のジェスチャをすることが挙げられる。特定のジェスチャは、ユーザAに対して腕を伸ばす、手を振る等、ユーザAに対して話し掛けようとする意思を表す仕草であってよい。検出部122は、これらの人物の動作を、撮像装置10から送信される画像情報に基づいて検出してもよい。
このように、本実施形態の第3の変形例によれば、検出部122が、ユーザAの周囲の人物の動作に基づき、ユーザAに対する関心の有無を検出し、当該人物が発話をしたと判定されたときに、当該人物によるユーザAへの話掛け動作を検出する。これにより、当該人物がユーザAの方を向いていない状態でユーザAに話し掛けた場合であっても、検出部122は、当該話掛け動作を検出することができる。したがって、ユーザAに話し掛けた人物が、ユーザAからの反応がないことによって不快になるおそれを低減することができ、ユーザAとユーザAに話し掛けた人物とのコミュニケーションを向上させることができる。
[1−6−4.第4の変形例]
本実施形態の第4の変形例として、情報処理装置110は、ユーザAの周囲の人物の視線方向の代わりに、周囲の人物が頭部等に装着している撮像装置により撮像される画像情報に基づいて、ユーザAの顔向きを検出してもよい。具体的に、検出部122は、周囲の人物が装着している撮像装置により撮像される画像情報にユーザAが含まれる場合に、当該人物がユーザAの方向に顔を向けていると判断し、さらに、当該人物が発話をしたと判定されたときに、当該人物による話掛け動作を検出してもよい。
図21は、第4の変形例の情報処理システムの使用状態を示す説明図である。かかる情報処理システムでは、没入体感装置を装着したユーザAがいる空間にいる人物X,Y,Zが装着している頭部装着型の撮像装置60A,60B,60Cにより、ユーザAの周囲の画像情報がモニタリングされている。また、かかる情報処理システムにおいても、ユーザAが利用するヘッドホン装置30等に備えられた集音部32によって集音される音声情報がモニタリングされている。
第4の変形例の情報処理装置110では、各人物X,Y,Zが装着している頭部装着型の撮像装置60A,60B,60Cによって撮像される画像情報が、ユーザAの周囲の人物X,Y,ZがユーザAの方向を向いているかを判断するために用いられる。そして、情報処理装置110は、ユーザAを含む画像情報を送信してきた撮像装置60Aを装着している人物Xによる発話を検出したときに、当該人物XによるユーザAへの話掛け動作を検出する。情報処理装置110は、人物XによるユーザAへの話掛け動作を検出した場合には、受信される画像情報及び音声情報に基づいて話掛け動作情報を特定し、当該話掛け動作情報に基づいて、ユーザAに対して話し掛けられていることを通知する。
図22は、第4の変形例の情報処理システムの構成の一例を示す機能ブロック図である。かかる情報処理システムは、頭部装着型撮像装置60A,60B,60Cと、ヘッドホン装置30と、HMD装置100とを備えている。撮像装置60A,60B,60Cは、それぞれ撮像部61が一つである点、及び、制御部62による視線情報の生成機能が省略されてもよい点を除いて、上述の撮像装置10と同様の構成とすることができる。また、情報処理装置110の基本的な機能構成は、図3に例示した機能ブロック図により示される。
第4の変形例では、検出部122は、撮像装置60A,60B,60Cにより撮像される画像情報、及び、集音部32で集音される音声情報に基づいて、ユーザAの周囲の人物によるユーザAへの話掛け動作を検出する。例えば、検出部122は、受信された画像情報に基づき、撮像装置60Aにより撮像された画像情報にユーザAが含まれている場合に、当該撮像装置60Aを装着している人物XがユーザAの方向に顔を向けていると判断してもよい。さらに、検出部122は、当該人物Xが発話をしたと判定されたときに、当該人物XによるユーザAへの話掛け動作を検出してもよい。
検出部122は、例えば、画像処理によって、HMD装置100の表示装置50やヘッドホン装置30を装着した人物が映っているか否かを判断することによって、受信される画像情報にユーザAが含まれているか否かを判定してもよい。あるいは、HMD装置100の表示装置50又はヘッドホン装置30の一部に識別標識等を設けておき、検出部122は、画像情報中に当該識別標識を検出した場合に、ユーザAが含まれていると判定してもよい。
このように、本実施形態の第4の変形例によれば、検出部122が、ユーザAの周囲の人物X,Y,Zが装着している撮像装置60A,60B,60Cにより撮像された画像情報に基づき、人物XがユーザAの方向へ顔を向けていることを検出する。また、検出部122は、当該人物Xが発話をしたと判定されたときに、当該人物XによるユーザAへの話掛け動作を検出する。これにより、視線情報の生成処理を伴わずに、検出部122は、当該話掛け動作を検出することができる。
<<2.第2の実施の形態>>
本開示にかかる第2の実施の形態として、HMD装置やヘッドホン装置のような没入体感装置をユーザが装着しない場合であっても、ユーザが視覚的にあるいは聴覚的に周囲から制限され得る状態において、本技術を適用した例について説明する。
ユーザAが閉鎖空間の内部に入ることで、HMD装置やヘッドホン装置のような没入体感装置をユーザが装着しない場合であっても、周辺の視野や音声が制限される場面がある。例えば、楽器や歌の練習をしたりするなど、大音量を伴う行為をする場合に使用される防音室の内部では、ユーザは、外部の情報が視覚的に及び聴覚的に制限され得る。また、疲労回復や健康増進のために使用される酸素カプセル装置の内部では、ユーザは、外部の情報が視覚的に及び聴覚的に制限され得る。さらに、近年では、電気自動車等においても、内部の乗員が、外部の情報を視覚的に及び聴覚的に制限され得る移動体が開発されている。
かかる閉鎖空間内にいるユーザAに対して、当該閉鎖空間の外からユーザAに話し掛けた場合、ユーザAは話し掛けられたことに気付かず、コミュニケーションを確保しづらいと考えられる。本開示の情報処理装置を備えた情報処理システムは、かかる閉鎖空間内のユーザAと、閉鎖空間外の人物とのコミュニケーションの向上にも利用し得る。
図23は、本実施形態にかかる情報処理システムの構成の一例を示す機能ブロック図である。本実施形態にかかる情報処理システムは、第1の実施の形態にかかる情報処理システムと同様の構成要素により構成され得る。また、各構成要素が持つ機能についても、第1の実施の形態にかかる情報処理システムと同様とし得る。
このうち、撮像装置10は、閉鎖空間CSの外部を撮像可能な位置に設けられる。撮像装置10は、閉鎖空間構成体90に取り付けられてもよく、閉鎖空間構成体90が存在する空間のいずれかの位置に設置されてもよい。集音部32は、閉鎖空間CSの外部の音声を集音可能な位置に設けられる。集音部32の数は一つに限定されない。画像表示部52及び音声出力部34は、閉鎖空間構成体90の内部に設けられる。画像表示部52は、HMD装置の表示装置であってもよく、表示パネルや投射型表示装置等の表示機器であってもよい。音声出力部34は、ヘッドホン装置又はイヤホン装置であってもよく、スピーカ装置であってもよい。外部通知部56は、閉鎖空間CSの外部から視認可能な位置に設けられる。外部通知部56は、閉鎖空間構成体90に取り付けられてもよく、閉鎖空間構成体90が存在する空間のいずれかの位置に設置されてもよい。情報処理装置110は、システム全体と情報を送受信可能であれば、設置する位置は特に限定されない。
本実施形態にかかる情報処理システムにおいても、情報処理装置110が、受信される視線情報や周囲画像情報、周囲音声情報に基づいて、閉鎖空間CSの外にいる人物による、ユーザAへの話掛け動作を検出する処理を行う。また、情報処理装置110は、閉鎖空間CS内のユーザAへの話掛け動作が検出された場合に、モニタリングされている周囲情報から話掛け動作情報を特定し、ユーザAに対して、ユーザAが話し掛けられていることを通知する各種の処理を行う。情報処理装置110の具体的な処理内容については、第1の実施の形態で説明した各種処理内容を適用し得る。
また、本実施形態にかかる情報処理システムでは、例えば、閉鎖空間構成体90の一部が瞬間調光ガラスにより構成されている場合、外部からの話掛け動作を検出したときに、情報処理装置110の内部通知制御部126は、瞬間調光ガラスを透過状態にすることで、内部のユーザAに話し掛けられていることを通知してもよい。また、本実施形態にかかる情報処理システムでは、内部通知制御部126は、閉鎖空間構成体90の内壁面等に、当該壁の外部の映像を表示させてもよい。さらに、本実施形態にかかる情報処理システムでは、閉鎖空間構成体90が複数の窓を備える場合、外部から話し掛ける人物がいる方向の窓へと、内部のユーザAの視線を誘導する表示を、他の窓や内壁面等に表示させてもよい。
このように、本実施形態にかかる情報処理システムにおいても、情報処理装置110は、閉鎖空間CSの外部にいる人物による、閉鎖空間CSの内部にいるユーザAへの話掛け動作を検出し、話掛け動作情報を特定することができる。また、情報処理装置110は、特定した話掛け動作情報に基づいて、閉鎖空間CSの内部のユーザAに対する通知処理を行う。これにより、内部にいるユーザAは、自身が話し掛けられたときの様子を知ることができる。したがって、ユーザAは、外部の人物の話し掛けの状態に応じて、反応の要否や反応の示し方を判断することができ、ユーザAとユーザAに話し掛ける人物とのコミュニケーションを向上させることができる。
<<3.第3の実施の形態>>
本開示にかかる第3の実施の形態として、第2の実施の形態の適用例のようにユーザAが完全な閉鎖空間に置かれるのではなく、外部を限定的に視認することができる空間(以下、「準閉鎖空間」ともいう。)にユーザAが置かれた状態において、本技術を適用した例について説明する。
例えば、周囲が全体的に又は部分的にパーティションで仕切られたスペースで、学習や仕事をする場合等において、側方の一部や上部は空間的に遮られていないものの、ユーザAが向いている方向によっては、外部の情報が視覚的に又は聴覚的に制限される場合がある。また、トレーニングマシーンや乗用のシミュレーションマシン等、ユーザの側方は空間的に遮られていないものの、ユーザの前後や上部が空間的に遮られ、外部の情報が視覚的に又は聴覚的に制限される場合がある。
かかる準閉鎖空間内にいるユーザAに対して、当該準閉鎖空間の外からユーザAに話し掛けた場合、ユーザAが向いている方向によっては、ユーザAは話し掛けられたことに気付きにくく、コミュニケーションを確保しづらいと考えられる。本開示の情報処理装置を備えた情報処理システムは、かかる準閉鎖空間内のユーザAと、準閉鎖空間外の人物とのコミュニケーションの向上にも利用し得る。
本実施形態にかかる情報処理システムの構成は、図23に例示した情報処理システムの構成と同様とし得る。ただし、本実施形態では、準閉鎖空間の外部を撮像する撮像装置10や、外部の周囲音声を集音する集音部32は、主として、ユーザAから見て、空間的に遮られている方向に備えられてもよい。
本実施形態にかかる情報処理システムにおいても、情報処理装置110が、受信される視線情報や周囲画像情報、周囲音声情報に基づいて、準閉鎖空間(CS)の外にいる人物による、ユーザAへの話掛け動作を検出する処理を行う。また、情報処理装置110は、準閉鎖空間(CS)内のユーザAへの話掛け動作が検出された場合に、モニタリングされている周囲情報から話掛け動作情報を特定し、ユーザAに対して、ユーザAが話し掛けられていることを通知する各種の処理を行う。情報処理装置110の具体的な処理内容については、第1の実施の形態で説明した各種処理内容を適用し得る。
また、本実施形態にかかる情報処理システムおいても、第2の実施の形態にかかる情報処理システムの場合と同様に、瞬間調光ガラスを利用した通知動作や、外部映像表示、ユーザAの視線を誘導する表示を行ってもよい。さらに、本実施形態にかかる情報処理システムでは、準閉鎖空間の内部のユーザAの視線を検出し、ユーザAが、外部から話し掛ける人物がいる方向を向いていると判定される場合には、情報処理装置110は、視角的な通知表示を行わないようにしてもよい。
また、本実施形態にかかる情報処理システムでは、ユーザAが音声出力部34を利用している場合に、情報処理装置110は、音声出力部34から出力されている音波の指向特性、音量、ユーザAの頭部の位置等の情報に基づいて、ユーザAが外部からの話し掛けに伴う音声を直接聞き取ることができるかを判定してもよい。そして、情報処理装置110は、ユーザAが外部からの話し掛けに伴う音声を直接聞き取りにくいと判定される場合にのみ、音声出力による通知を行わせてもよい。情報処理装置110は、音声出力のオンオフだけではなく、通知音声の音量を調節してもよい。
このように、本実施形態にかかる情報処理システムにおいても、情報処理装置110は、準閉鎖空間の外部にいる人物による、準閉鎖空間の内部にいるユーザAへの話掛け動作を検出し、話掛け動作情報を特定することができる。また、情報処理装置110は、特定した話掛け動作情報に基づいて、準閉鎖空間の内部のユーザAに対する通知処理を行う。これにより、内部にいるユーザAは、自身が話し掛けられたときの様子を知ることができる。したがって、ユーザAは、外部の人物の話し掛けの状態に応じて、反応の要否や反応の示し方を判断することができ、ユーザAとユーザAに話し掛ける人物とのコミュニケーションを向上させることができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、第1の実施の形態では、没入体感装置としてHMD装置100及びヘッドホン装置30を例に採って説明したが、本開示の技術はかかる例に限られない。例えば、没入体感装置として、脳に対して視聴情報の信号を直接送り、仮想現実を体験可能な頭部装着型の装置を利用している場合であっても、本技術を適用することができる。この場合においても、情報処理装置110は、第1の実施の形態で例示した処理を実行することによって、ユーザAと、ユーザAに話し掛ける人物とのコミュニケーションを向上させることができる。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示にかかる技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出する検出部と、
前記話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき前記話掛け動作を示す話掛け動作情報を特定する特定部と、
を備える、情報処理装置。
(2)前記モニタリングされている周囲情報は、音声情報及び画像情報のうちの少なくとも一方の情報を含む、前記(1)に記載の情報処理装置。
(3)特定された前記話掛け動作情報に基づいて前記ユーザへの通知制御を行う内部通知制御部を備える、前記(1)又は(2)に記載の情報処理装置。
(4)前記内部通知制御部は、特定された前記話掛け動作情報としての音声情報及び画像情報のうちの少なくとも一方の情報をタイムシフト再生する、前記(3)に記載の情報処理装置。
(5)前記内部通知制御部は、前記タイムシフト再生による遅延時間を徐々に短くし、リアルタイムの音声出力又は画像表示に切り替える、前記(4)に記載の情報処理装置。
(6)前記内部通知制御部は、前記話掛け動作を行う人物の位置情報を取得し、前記話掛け動作情報と併せて当該位置情報に基づいて前記ユーザへの通知制御を行う、前記(3)〜(5)のいずれか1項に記載の情報処理装置。
(7)前記内部通知制御部は、前記話掛け動作を行う人物の位置情報を取得し、当該位置情報に基づいて音声情報を出力させる、前記(6)に記載の情報処理装置。
(8)前記内部通知制御部は、前記位置情報に基づいて画像表示部にマップ表示させる、前記(6)又は(7)に記載の情報処理装置。
(9)前記内部通知制御部は、前記ユーザが利用しているコンテンツ音声の音量を小さくした後、特定された前記話掛け動作情報としての音声情報を出力させる、前記(3)〜(8)のいずれか1項に記載の情報処理装置。
(10)前記装置は、ノイズキャンセル機能を有するヘッドホン装置又はイヤホン装置を含み、
前記内部通知制御部は、前記ノイズキャンセル機能を抑制又は停止した後、特定された前記話掛け動作情報としての音声情報を出力させる、前記(3)〜(9)のいずれか1項に記載の情報処理装置。
(11)前記内部通知制御部は、前記ユーザが利用しているコンテンツを停止した後、前記ユーザへの通知を行わせる、前記(3)〜(10)のいずれか1項に記載の情報処理装置。
(12)前記内部通知制御部は、前記コンテンツを停止する前に、予告動作を行わせる、前記(11)に記載の情報処理装置。
(13)前記内部通知制御部は、前記ユーザが利用しているコンテンツ画像に周囲の画像を重畳表示させる、前記(3)〜(12)のいずれか1項に記載の情報処理装置。
(14)前記ユーザへの通知制御の許可状態を周囲に通知する外部通知制御部を備える、前記(1)〜(13)のいずれか1項に記載の情報処理装置。
(15)前記外部通知制御部は、前記ユーザの方向を向いている人物が検出されたときに前記ユーザへの通知制御の許可状態を通知させる、前記(14)に記載の情報処理装置。
(16)前記外部通知制御部は、前記話掛け動作に伴う音声の録音状態又は画像の録画状態を周囲に通知させる、前記(14)又は(15)に記載の情報処理装置。
(17)特定された前記話掛け動作情報に基づいて、話掛け履歴情報を生成する履歴生成部を備える、前記(1)〜(16)のいずれか1項に記載の情報処理装置。
(18)前記話掛け履歴情報は、話し掛け時刻、話し掛け時に利用していたコンテンツ、話掛け動作を行った人物、話し掛け時の発話内容、及び前記ユーザへの通知制御の禁止状態のうちの少なくとも一つの情報を含む、前記(17)に記載の情報処理装置。
(19)周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出することと、
前記話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき前記話掛け動作を示す話掛け動作情報を特定することと、
を含む、情報処理方法。
(20)コンピュータに、
周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出する機能と、
前記話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき前記話掛け動作を示す話掛け動作情報を特定する機能と、
を実現させるためのプログラム。
10 撮像装置
30 ヘッドホン装置
32 集音部
34 音声出力部
50 表示装置
52 画像表示部
56 外部通知部
60A・60B・60C 頭部装着型撮像装置
100 HMD装置
110 情報処理装置
120 統合制御部

Claims (20)

  1. 周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出する検出部と、
    前記話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき前記話掛け動作を示す話掛け動作情報を特定する特定部と、
    を備える、情報処理装置。
  2. 前記モニタリングされている周囲情報は、音声情報及び画像情報のうちの少なくとも一方の情報を含む、請求項1に記載の情報処理装置。
  3. 特定された前記話掛け動作情報に基づいて前記ユーザへの通知制御を行う内部通知制御部を備える、請求項1に記載の情報処理装置。
  4. 前記内部通知制御部は、特定された前記話掛け動作情報としての音声情報及び画像情報のうちの少なくとも一方の情報をタイムシフト再生する、請求項3に記載の情報処理装置。
  5. 前記内部通知制御部は、前記タイムシフト再生による遅延時間を徐々に短くし、リアルタイムの音声出力又は画像表示に切り替える、請求項4に記載の情報処理装置。
  6. 前記内部通知制御部は、前記話掛け動作を行う人物の位置情報を取得し、前記話掛け動作情報と併せて当該位置情報に基づいて前記ユーザへの通知制御を行う、請求項3に記載の情報処理装置。
  7. 前記内部通知制御部は、前記話掛け動作を行う人物の位置情報を取得し、当該位置情報に基づいて音声情報を出力させる、請求項6に記載の情報処理装置。
  8. 前記内部通知制御部は、前記位置情報に基づいて画像表示部にマップ表示させる、請求項6に記載の情報処理装置。
  9. 前記内部通知制御部は、前記ユーザが利用しているコンテンツ音声の音量を小さくした後、特定された前記話掛け動作情報としての音声情報を出力させる、請求項3に記載の情報処理装置。
  10. 前記装置は、ノイズキャンセル機能を有するヘッドホン装置又はイヤホン装置を含み、
    前記内部通知制御部は、前記ノイズキャンセル機能を抑制又は停止した後、特定された前記話掛け動作情報としての音声情報を出力させる、請求項3に記載の情報処理装置。
  11. 前記内部通知制御部は、前記ユーザが利用しているコンテンツを停止した後、前記ユーザへの通知を行わせる、請求項3に記載の情報処理装置。
  12. 前記内部通知制御部は、前記コンテンツを停止する前に、予告動作を行わせる、請求項11に記載の情報処理装置。
  13. 前記内部通知制御部は、前記ユーザが利用しているコンテンツ画像に周囲の画像を重畳表示させる、請求項3に記載の情報処理装置。
  14. 前記ユーザへの通知制御の許可状態を周囲に通知する外部通知制御部を備える、請求項1に記載の情報処理装置。
  15. 前記外部通知制御部は、前記ユーザの方向を向いている人物が検出されたときに前記ユーザへの通知制御の許可状態を通知させる、請求項14に記載の情報処理装置。
  16. 前記外部通知制御部は、前記話掛け動作に伴う音声の録音状態又は画像の録画状態を周囲に通知させる、請求項14に記載の情報処理装置。
  17. 特定された前記話掛け動作情報に基づいて、話掛け履歴情報を生成する履歴生成部を備える、請求項1に記載の情報処理装置。
  18. 前記話掛け履歴情報は、話し掛け時刻、話し掛け時に利用していたコンテンツ、話掛け動作を行った人物、話し掛け時の発話内容、及び前記ユーザへの通知制御の禁止状態のうちの少なくとも一つの情報を含む、請求項17に記載の情報処理装置。
  19. 周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出することと、
    前記話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき前記話掛け動作を示す話掛け動作情報を特定することと、
    を含む、情報処理方法。
  20. コンピュータに、
    周囲からの情報が聴覚的又は視覚的に制限される装置を利用しているユーザに対する、周囲からの話掛け動作を検出する機能と、
    前記話掛け動作が検出された場合に、モニタリングされている周囲情報に基づき前記話掛け動作を示す話掛け動作情報を特定する機能と、
    を実現させるためのプログラム。
JP2015191485A 2015-09-29 2015-09-29 情報処理装置及び情報処理方法並びにプログラム Pending JP2017069687A (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015191485A JP2017069687A (ja) 2015-09-29 2015-09-29 情報処理装置及び情報処理方法並びにプログラム
CN201680055269.7A CN108028957B (zh) 2015-09-29 2016-06-30 信息处理装置、信息处理方法和机器可读介质
PCT/JP2016/069372 WO2017056604A1 (ja) 2015-09-29 2016-06-30 情報処理装置及び情報処理方法並びにプログラム
US15/759,628 US10712998B2 (en) 2015-09-29 2016-06-30 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015191485A JP2017069687A (ja) 2015-09-29 2015-09-29 情報処理装置及び情報処理方法並びにプログラム

Publications (1)

Publication Number Publication Date
JP2017069687A true JP2017069687A (ja) 2017-04-06

Family

ID=58423097

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015191485A Pending JP2017069687A (ja) 2015-09-29 2015-09-29 情報処理装置及び情報処理方法並びにプログラム

Country Status (4)

Country Link
US (1) US10712998B2 (ja)
JP (1) JP2017069687A (ja)
CN (1) CN108028957B (ja)
WO (1) WO2017056604A1 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019102062A (ja) * 2017-12-07 2019-06-24 パナソニックIpマネジメント株式会社 ヘッドマウントディスプレイ及びその制御方法
JP2019121318A (ja) * 2018-01-11 2019-07-22 富士ゼロックス株式会社 音伝達装置及びプログラム
WO2020178961A1 (ja) * 2019-03-04 2020-09-10 マクセル株式会社 ヘッドマウント情報処理装置
JP2021009667A (ja) * 2019-06-28 2021-01-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 妨害回避の処理方法、装置及び記憶媒体
JP2021090136A (ja) * 2019-12-03 2021-06-10 富士フイルムビジネスイノベーション株式会社 情報処理システム及びプログラム
JP2021105808A (ja) * 2019-12-26 2021-07-26 株式会社リコー 発話者認識システム、発話者認識方法、及び発話者認識プログラム
WO2022202065A1 (ja) * 2021-03-22 2022-09-29 株式会社Nttドコモ 表示制御装置
JP7150114B1 (ja) 2021-09-02 2022-10-07 株式会社ドワンゴ コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
EP4277301A1 (en) 2022-05-11 2023-11-15 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and computer program product
US12025794B2 (en) 2019-03-12 2024-07-02 Sony Group Corporation Information processing device and image processing method

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10695663B2 (en) * 2015-12-22 2020-06-30 Intel Corporation Ambient awareness in virtual reality
JP7167910B2 (ja) * 2017-03-27 2022-11-09 ソニーグループ株式会社 情報処理装置、情報処理方法、およびプログラム
US11086597B2 (en) * 2017-11-06 2021-08-10 Google Llc Methods and systems for attending to a presenting user
EP3495942B1 (en) * 2017-12-07 2023-05-24 Panasonic Intellectual Property Management Co., Ltd. Head-mounted display and control method thereof
US10362385B1 (en) * 2018-03-05 2019-07-23 Harman International Industries, Incorporated Controlling perceived ambient sounds based on focus level
US10841533B2 (en) * 2018-03-23 2020-11-17 Raja Singh Tuli Telepresence system with virtual reality
CN108777827B (zh) * 2018-06-14 2019-12-31 Oppo广东移动通信有限公司 无线耳机、音量调整方法及相关产品
US10627896B1 (en) * 2018-10-04 2020-04-21 International Business Machines Coporation Virtual reality device
US10679602B2 (en) * 2018-10-26 2020-06-09 Facebook Technologies, Llc Adaptive ANC based on environmental triggers
JP7263825B2 (ja) * 2019-02-19 2023-04-25 オムロン株式会社 情報処理装置、情報処理方法、および情報処理プログラム
CN111326175A (zh) * 2020-02-18 2020-06-23 维沃移动通信有限公司 一种对话者的提示方法及穿戴设备
JP7424156B2 (ja) 2020-03-25 2024-01-30 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
JP7443877B2 (ja) 2020-03-25 2024-03-06 株式会社Jvcケンウッド 音声出力制御装置、音声出力システム、音声出力制御方法およびプログラム
JP7447602B2 (ja) 2020-03-25 2024-03-12 株式会社Jvcケンウッド コンテンツ出力制御装置、コンテンツ出力システム、コンテンツ出力制御方法およびプログラム
US20220191305A1 (en) * 2020-12-11 2022-06-16 International Business Machines Corporation Identifying a voice command boundary
GB2608997B (en) * 2021-07-15 2024-02-07 Sony Interactive Entertainment Inc Alert system and method for virtual reality headset
US20230398435A1 (en) * 2022-05-27 2023-12-14 Sony Interactive Entertainment LLC Methods and systems for dynamically adjusting sound based on detected objects entering interaction zone of user
WO2024003988A1 (ja) * 2022-06-27 2024-01-04 日本電信電話株式会社 制御装置、制御方法、およびプログラム
CN116033312B (zh) * 2022-07-29 2023-12-08 荣耀终端有限公司 耳机控制方法及耳机

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020141599A1 (en) * 2001-04-03 2002-10-03 Philips Electronics North America Corp. Active noise canceling headset and devices with selective noise suppression
JP2006151065A (ja) * 2004-11-26 2006-06-15 Denso Corp 車両用ナビゲーション装置及び車載システム
US8180029B2 (en) * 2007-06-28 2012-05-15 Voxer Ip Llc Telecommunication and multimedia management method and apparatus
WO2013085278A1 (ko) * 2011-12-06 2013-06-13 경북대학교 산학협력단 선택적 주의 집중 모델을 이용한 모니터링 장치 및 그 모니터링 방법
US9208772B2 (en) * 2011-12-23 2015-12-08 Bose Corporation Communications headset speech-based gain control
US9401058B2 (en) * 2012-01-30 2016-07-26 International Business Machines Corporation Zone based presence determination via voiceprint location awareness
KR20140007703A (ko) * 2012-07-10 2014-01-20 삼성전자주식회사 영상 디스플레이 장치 및 메뉴 디스플레이 방법
US9191744B2 (en) * 2012-08-09 2015-11-17 Logitech Europe, S.A. Intelligent ambient sound monitoring system
KR102052153B1 (ko) * 2013-02-15 2019-12-17 삼성전자주식회사 보청기를 제어하는 휴대 단말 및 방법
US9270244B2 (en) * 2013-03-13 2016-02-23 Personics Holdings, Llc System and method to detect close voice sources and automatically enhance situation awareness
WO2014156389A1 (ja) * 2013-03-29 2014-10-02 ソニー株式会社 情報処理装置、提示状態制御方法及びプログラム
EP2981070B1 (en) * 2013-03-29 2021-09-29 Sony Group Corporation Information processing device, notification state control method, and program
US9075435B1 (en) * 2013-04-22 2015-07-07 Amazon Technologies, Inc. Context-aware notifications
US9264824B2 (en) * 2013-07-31 2016-02-16 Starkey Laboratories, Inc. Integration of hearing aids with smart glasses to improve intelligibility in noise
KR20150101612A (ko) * 2014-02-27 2015-09-04 엘지전자 주식회사 폐쇄형 시야(Closed-view)를 제공하는 헤드 마운티드 디스플레이 및 그 제어 방법
US8874448B1 (en) * 2014-04-01 2014-10-28 Google Inc. Attention-based dynamic audio level adjustment
US9508335B2 (en) * 2014-12-05 2016-11-29 Stages Pcs, Llc Active noise control and customized audio system

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019102062A (ja) * 2017-12-07 2019-06-24 パナソニックIpマネジメント株式会社 ヘッドマウントディスプレイ及びその制御方法
JP7065353B2 (ja) 2017-12-07 2022-05-12 パナソニックIpマネジメント株式会社 ヘッドマウントディスプレイ及びその制御方法
JP7172041B2 (ja) 2018-01-11 2022-11-16 富士フイルムビジネスイノベーション株式会社 音伝達装置及びプログラム
JP2019121318A (ja) * 2018-01-11 2019-07-22 富士ゼロックス株式会社 音伝達装置及びプログラム
WO2020178961A1 (ja) * 2019-03-04 2020-09-10 マクセル株式会社 ヘッドマウント情報処理装置
JP7252313B2 (ja) 2019-03-04 2023-04-04 マクセル株式会社 ヘッドマウント情報処理装置
JPWO2020178961A1 (ja) * 2019-03-04 2021-12-23 マクセル株式会社 ヘッドマウント情報処理装置
US12025794B2 (en) 2019-03-12 2024-07-02 Sony Group Corporation Information processing device and image processing method
JP2021009667A (ja) * 2019-06-28 2021-01-28 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド 妨害回避の処理方法、装置及び記憶媒体
US11366688B2 (en) 2019-06-28 2022-06-21 Baidu Online Network Technology (Beijing) Co., Ltd. Do-not-disturb processing method and apparatus, and storage medium
CN113015062A (zh) * 2019-12-03 2021-06-22 阿加玛艾克斯株式会社 信息处理系统、存储介质及信息处理方法
US11856355B2 (en) 2019-12-03 2023-12-26 Agama-X Co., Ltd. Information processing system and non-transitory computer readable medium storing program
JP2021090136A (ja) * 2019-12-03 2021-06-10 富士フイルムビジネスイノベーション株式会社 情報処理システム及びプログラム
JP2021105808A (ja) * 2019-12-26 2021-07-26 株式会社リコー 発話者認識システム、発話者認識方法、及び発話者認識プログラム
JP7388188B2 (ja) 2019-12-26 2023-11-29 株式会社リコー 発話者認識システム、発話者認識方法、及び発話者認識プログラム
WO2022202065A1 (ja) * 2021-03-22 2022-09-29 株式会社Nttドコモ 表示制御装置
JP7150114B1 (ja) 2021-09-02 2022-10-07 株式会社ドワンゴ コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
WO2023032736A1 (ja) * 2021-09-02 2023-03-09 株式会社ドワンゴ コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
JP2023036147A (ja) * 2021-09-02 2023-03-14 株式会社ドワンゴ コミュニケーション支援システム、コミュニケーション支援方法、及びコミュニケーション支援プログラム
EP4277301A1 (en) 2022-05-11 2023-11-15 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and computer program product

Also Published As

Publication number Publication date
WO2017056604A1 (ja) 2017-04-06
CN108028957A (zh) 2018-05-11
CN108028957B (zh) 2021-10-08
US20180260187A1 (en) 2018-09-13
US10712998B2 (en) 2020-07-14

Similar Documents

Publication Publication Date Title
WO2017056604A1 (ja) 情報処理装置及び情報処理方法並びにプログラム
US11856148B2 (en) Methods and apparatus to assist listeners in distinguishing between electronically generated binaural sound and physical environment sound
US20220337693A1 (en) Audio/Video Wearable Computer System with Integrated Projector
JP6361649B2 (ja) 情報処理装置、通知状態制御方法及びプログラム
US20180020313A1 (en) Systems and Methods for Spatial Audio Adjustment
TWI378262B (ja)
JP4367663B2 (ja) 画像処理装置、画像処理方法、プログラム
JP7092108B2 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230045237A1 (en) Wearable apparatus for active substitution
WO2014156389A1 (ja) 情報処理装置、提示状態制御方法及びプログラム
JP2019523607A (ja) 空間化オーディオを用いた複合現実システム
WO2017098773A1 (ja) 情報処理装置、情報処理方法およびプログラム
JPWO2017098775A1 (ja) 情報処理装置、情報処理方法およびプログラム
EP3996385A1 (en) Daydream-aware information recovery system
JP2020501275A (ja) 画像処理システムおよび方法
WO2019171802A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2016157678A1 (ja) 情報処理装置、情報処理方法及びプログラム
TW202347096A (zh) 用於受損使用者或具備殘疾的使用者之智慧眼鏡介面
JP2020194517A (ja) 翻訳システムおよび翻訳システムセット