JP4926916B2 - 情報処理装置、情報処理方法、およびコンピュータプログラム - Google Patents

情報処理装置、情報処理方法、およびコンピュータプログラム Download PDF

Info

Publication number
JP4926916B2
JP4926916B2 JP2007289965A JP2007289965A JP4926916B2 JP 4926916 B2 JP4926916 B2 JP 4926916B2 JP 2007289965 A JP2007289965 A JP 2007289965A JP 2007289965 A JP2007289965 A JP 2007289965A JP 4926916 B2 JP4926916 B2 JP 4926916B2
Authority
JP
Japan
Prior art keywords
sound
user
information
processing apparatus
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007289965A
Other languages
English (en)
Other versions
JP2009116690A5 (ja
JP2009116690A (ja
Inventor
泰弘 奥野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007289965A priority Critical patent/JP4926916B2/ja
Priority to PCT/JP2008/070540 priority patent/WO2009060981A1/en
Priority to US12/741,344 priority patent/US20100265164A1/en
Publication of JP2009116690A publication Critical patent/JP2009116690A/ja
Publication of JP2009116690A5 publication Critical patent/JP2009116690A5/ja
Application granted granted Critical
Publication of JP4926916B2 publication Critical patent/JP4926916B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • H04S7/304For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S1/00Two-channel systems
    • H04S1/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S1/005For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Stereophonic System (AREA)

Description

本発明は、現実空間と仮想空間とを重畳させてユーザに提示するための技術に関するものである。
従来より、複合現実感(MR : Mixed Reality)提示装置が存在する。複合現実感提示装置の例としては、映像表示部、現実映像撮影部、仮想映像生成部、位置姿勢検出部、現実映像と仮想映像とを合成する映像合成部、を備えているものがある。
現実映像撮影部は、例えば、頭部装着型ディスプレイ(HMD: Head Mounted Display)に取り付けられた小型のカメラであって、HMD前面の風景を現実映像として撮影する。そして、撮影した現実映像はデータとして、計算機のメモリ内に記録される。
位置姿勢検出部は、例えば、位置姿勢センサであり、現実映像撮影部の位置姿勢を検出する。なお、現実映像撮影部の位置姿勢は、磁気を用いた方法や、画像処理を用いた方法によって求めることができる。
仮想映像生成部は、三次元モデリングされたCGを、現実空間と同じスケールの仮想空間中に配置し、上記現実映像撮影部の位置姿勢と同じ位置姿勢からその仮想空間のシーンをレンダリングすることで、仮想映像を生成する。
映像合成部は、現実映像撮影部によって得られた現実映像上に、仮想映像生成部によって得られた仮想映像を重畳することで、複合現実感映像を生成する。映像合成部の動作例としては、現実映像撮影部によってキャプチャされた現実映像を計算機のビデオメモリに書き込み、その上に仮想映像生成部によって仮想映像を書き込ませる制御動作があげられる。
HMDが光学シースルー方式のものである場合、現実映像撮影部は不要である。そして、位置姿勢検出部は、HMDの視点位置姿勢を計測する。また、映像合成部は仮想映像をHMDに送出する。
以上のようにして得られる複合現実感映像を、HMD等の映像表示部に表示することで、観察者は、現実空間中に仮想物体が出現したかのような感覚を得ることができる。
ここで、仮想物体を「音源」とする場合には、従来技術である3次元音響再生技術を用いて、仮想物体の位置に応じた3次元音響再生を行えば良い(特許文献1)。
特開平05−336599号公報
従来、仮想空間のシーン中で発せられる音響を3次元音響で提示したり、仮想音を現実空間中で響かせたように現実の音響環境を加味して加工して提示することが行われてきた。しかし、現実音源からの現実音を仮想物体の配置を変更することで変化させ、変化させた現実音を観察者に提示することはできなかった。例えば、遮蔽物としての仮想物体を、音源としての現実物体にかぶせることで、係る音源からの現実音を遮蔽するような体験をさせることはできなかった。
本発明は以上の問題に鑑みて成されたものであり、音源としての現実物体が発する現実音を、仮想物体の配置位置を鑑みて適宜変更して提示する為の技術を提供することを目的とする。
本発明の目的を達成するために、例えば、本発明の情報処理装置は以下の構成を備える。
即ち、現実空間に存在する音源用現実物体からの音を収音する収音手段と、
前記音源用現実物体の位置情報を取得する音源位置取得手段と、
ユーザの位置情報を取得するユーザ位置取得手段と、
前記ユーザの位置情報に基づいて、前記現実空間に対応する仮想空間の仮想空間画像を生成する仮想空間画像生成手段と、
前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力手段と、
前記仮想空間に存在する仮想物体であって、前記ユーザが動かすことのできる仮想物体であって、前記収音した音を調整するための仮想物体の位置情報を取得する調整位置取得手段と、
前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報の位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した調整する調整手段と、
前記調整された音を前記ユーザに対して出力する出力手段と
を備えることを特徴とする。
また、本発明の目的を達成するために、例えば、本発明の情報処理装置は以下の構成を備える。
即ち、現実空間に存在する音源用現実物体からの音を収音する収音手段と、
前記音源用現実物体の位置情報を取得する音源位置取得手段と、
ユーザに直接届く前記音源用現実物体からの音を軽減する遮音手段と、
前記ユーザの位置情報を取得するユーザ位置取得手段と、
前記ユーザが動かすことのできる調整用現実物体であって、前記ユーザに聴かせる音を調整するための調整用現実物体の位置情報を、センサを用いて取得することにより、前記現実空間に対応する仮想空間に存在する仮想物体であって、前記調整用現実物体に追従する仮想物体の位置情報を取得する調整位置取得手段と、
前記ユーザの位置情報に基づいて、前記仮想空間の仮想空間画像を生成する仮想空間画像生成手段と、
前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力手段と、
前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報との位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した音を調整する調整手段と、
前記調整された音を前記ユーザに対して出力する出力手段と
を備えることを特徴とする。
本発明の目的を達成するために、例えば、本発明の情報処理方法は以下の構成を備える。
即ち、情報処理装置の収音手段が、現実空間に存在する音源用現実物体からの音を収音する収音工程と、
前記情報処理装置の音源位置取得手段が、前記音源用現実物体の位置情報を取得する音源位置取得工程と、
前記情報処理装置のユーザ位置取得手段が、ユーザの位置情報を取得するユーザ位置取得工程と、
前記情報処理装置の仮想空間画像生成手段が、前記ユーザの位置情報に基づいて、前記現実空間に対応する仮想空間の仮想空間画像を生成する仮想空間画像生成工程と、
前記情報処理装置の画像出力手段が、前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力工程と、
前記情報処理装置の調整位置取得手段が、前記仮想空間に存在する仮想物体であって、前記ユーザが動かすことのできる仮想物体であって、前記収音した音を調整するための仮想物体の位置情報を取得する調整位置取得工程と、
前記情報処理装置の調整手段が、前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報の位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した調整する調整工程と、
前記情報処理装置の出力手段が、前記調整された音を前記ユーザに対して出力する出力工程と
を備えることを特徴とする。
また、本発明の目的を達成するために、例えば、本発明の情報処理方法は以下の構成を備える。
即ち、情報処理装置の収音手段が、現実空間に存在する音源用現実物体からの音を収音する収音工程と、
前記情報処理装置の音源位置取得手段が、前記音源用現実物体の位置情報を取得する音源位置取得工程と、
前記情報処理装置の遮音手段が、ユーザに直接届く前記音源用現実物体からの音を軽減する遮音工程と、
前記情報処理装置のユーザ位置取得手段が、前記ユーザの位置情報を取得するユーザ位置取得工程と、
前記情報処理装置の調整位置取得手段が、前記ユーザが動かすことのできる調整用現実物体であって、前記ユーザに聴かせる音を調整するための調整用現実物体の位置情報を、センサを用いて取得することにより、前記現実空間に対応する仮想空間に存在する仮想物体であって、前記調整用現実物体に追従する仮想物体の位置情報を取得する調整位置取得工程と、
前記情報処理装置の仮想空間画像生成手段が、前記ユーザの位置情報に基づいて、前記仮想空間の仮想空間画像を生成する仮想空間画像生成工程と、
前記情報処理装置の画像出力手段が、前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力工程と、
前記情報処理装置の調整手段が、前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報との位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した音を調整する調整工程と、
前記情報処理装置の出力手段が、前記調整された音を前記ユーザに対して出力する出力工程と
を備えることを特徴とする。
本発明の構成によれば、音源としての現実物体が発する現実音を、仮想物体の配置位置を鑑みて適宜変更して提示することができる。
以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つに過ぎない。
[第1の実施形態]
図1は、本実施形態に係るシステムのハードウェア構成例を示すブロック図である。図1に示す如く、本実施形態に係るシステムは、コンピュータ100、マイク110、ヘッドフォン109、センサコントローラ105、位置姿勢センサ106a〜106c、HMD104、ビデオカメラ103、により構成されている。
先ず、マイク110について説明する。マイク110は周知の如く、周囲の音を収集するためのもので、収集した音を示す信号は音データに変換されてコンピュータ100に入力される。マイク110は、現実空間中の所定の位置に配置しても良いし、現実空間中に配置する「音を発生する現実物体(音源としての現実物体)」の上(現実物体上)に配置しても良い。
次に、ヘッドフォン109について説明する。
ヘッドフォン109は周知の如く、ユーザの耳を覆い、係る耳に音を供給するための音出力装置である。本実施形態では、ヘッドフォン109は、現実空間中における音ではなく、コンピュータ100から供給された音データに従った音のみを供給することができるのであれば、如何なるものを用いても良い。例えば、周知のノイズキャンセル機能を有するヘッドフォンであっても良い。ノイズキャンセル機能とは周知の通り、ヘッドフォンの装着者に対して現実空間中の音が聞こえないようにする機能であり、単なる密閉によって得られる音の遮蔽よりもいっそうの遮蔽を実現することができる。本実施形態では、通常はマイク110からコンピュータ100に入力された音がそのままヘッドフォン109に出力される。しかし、後述するように、ユーザの視点と、音源としての現実物体と、仮想物体と、の位置関係が予め定められた条件を満たした場合には、マイク110が収集した音をコンピュータ100が調整し、調整後の音をヘッドフォン109に出力する。
次に、HMD104について説明する。
HMD104には、ビデオカメラ103、位置姿勢センサ106aが取り付けてある。ビデオカメラ103は、現実空間の動画像を撮像するものであり、撮像した各フレームの画像(現実空間画像)は順次、コンピュータ100に送出される。なお、HMD104がステレオ視を可能にする構成を有している場合には、ビデオカメラ103は左右に1台ずつHMD104に設ければよい。
位置姿勢センサ106aは、自身の位置姿勢を計測するためのもので、計測した結果は信号としてセンサコントローラ105に送出される。センサコントローラ105は、位置姿勢センサ106aから受けた信号に基づいて、位置姿勢センサ106aの位置姿勢情報を求め、求めた位置姿勢情報はコンピュータ100に送出される。
なお、センサコントローラ105には更に、位置姿勢センサ106b、106cも接続されている。位置姿勢センサ106bは、音を発生する現実物体(音源としての現実物体)に取り付けられるもので、位置姿勢センサ106cは、現実空間中の所定の位置に配置される、若しくはユーザが手に把持するものである。位置姿勢センサ106b、106cは何れも位置姿勢センサ106aと同様に、自身の位置姿勢を計測するためのものである。位置姿勢センサ106b、106cはそれぞれ、計測した結果を信号としてセンサコントローラ105に送出する。センサコントローラ105は、位置姿勢センサ106b、106cから受けた信号に基づいてそれぞれ、位置姿勢センサ106b、106cの位置姿勢情報を求め、求めた位置姿勢情報はコンピュータ100に送出される。
なお、位置姿勢センサ106a〜106c、センサコントローラ105で構成されるセンサシステムには磁気センサや光学式センサなど、様々なセンサシステムを用いることができる。なお、センサを用いて、対象物の位置姿勢情報を取得するための技術については周知であるので、これについての説明は省略する。
また、HMD104には周知の通り表示画面が設けられており、係る表示画面は、HMD104を頭部に装着したユーザの眼前に位置するように設けられている。
次に、コンピュータ100について説明する。コンピュータ100は、CPU101、メモリ107,108を有し、それぞれはバス102に接続されている。なお、図1に示したコンピュータ100の構成は、以下の説明で用いる部分だけを示したもので、係る構成のみでコンピュータ100を構成するわけではない。
CPU101は、コンピュータ100が行うものとして後述する各処理を、メモリ107に格納されているプログラム111〜114、メモリ108に格納されているデータ122〜129、を用いて実行する。
メモリ107には、プログラム111〜114が格納されており、それぞれのプログラム111〜114は、CPU101による処理対象となる。
メモリ108には、データ122〜129が格納されており、それぞれのデータ122〜129は、CPU101による処理対象となる。
なお、それぞれのメモリ107,108に格納する情報はこれに限定するものではなく、以下の説明において既知の情報として説明するものや、当業者であれば説明せずとも当然用いるものであろう情報についても格納されているものとする。また、メモリ107、108に格納する情報の割り振りについては図1に示した割り振りに限定するものではない。また、メモリ107、108のそれぞれを別個のメモリとするのではなく、1つのメモリとしても良い。
プログラム111〜114、データ122〜129のそれぞれについては後述する。
また、図1では、マイク110、ヘッドフォン109、センサコントローラ105、HMD104、ビデオカメラ103は何れも、バス102に直接接続されている。しかし実際には、それぞれの機器は不図示のI/F(インターフェース)を介してバス102に接続されているものとする。
次に、コンピュータ100が行う処理について、同処理のフローチャートを示す図2〜4を用いて説明する。なお以下の説明で特に触れない限り、各フローチャートに従った処理を実行する主体はCPU101である。
図2は、コンピュータ100が行うメインの処理のフローチャートである。
図2において、先ずステップS201では、CPU101は、ビデオカメラ103から送出された現実空間画像(現実映像)を取得し、これを現実空間画像データ122としてメモリ108に格納する。
次にステップS202では、CPU101は、センサコントローラ105から送出された、位置姿勢センサ106aの位置姿勢情報を取得する。そして、取得した位置姿勢情報に、ビデオカメラ103と位置姿勢センサ106aとの位置姿勢関係を示す関係情報を加えることで、ビデオカメラ103(視点)の位置姿勢情報を求める。そして求めた視点の位置姿勢情報を、カメラ位置姿勢データ123としてメモリ108に格納する。
次にステップS203では、CPU101は、メモリ107に格納されている現実音源位置取得プログラム111を実行する。これにより、CPU101は、センサコントローラ105から送出された位置姿勢センサ106bの位置姿勢情報、即ち、音源としての現実物体の位置姿勢情報を取得する。そして、取得した音源としての現実物体の位置姿勢情報を、現実音源位置姿勢データ124としてメモリ108に格納する。
次にステップS204では、CPU101は、メモリ108に格納されてる仮想シーンデータ126を読み出し、読み出した仮想シーンデータ126に基づいて、仮想空間を構築する。仮想シーンデータ126には、仮想空間を構成する各仮想物体の配置位置姿勢(位置情報、姿勢情報)や、仮想空間中に配置する光源の種類、光の照射方向、光の色などのデータが含まれている。更に、仮想シーンデータ126には、仮想物体の形状情報も含まれている。形状情報とは、例えば、仮想物体がポリゴンで構成されている場合、ポリゴンの法線ベクトルデータ、ポリゴンの属性やその色、ポリゴンを構成する各頂点の座標値データ、テクスチャマップデータ等を含む情報である。従って、仮想シーンデータ126に基づいて仮想空間を構築することで、仮想空間中に各仮想物体を配置することができる。なお、位置姿勢センサ106cに対応付けられている仮想物体については、位置姿勢センサ106cの位置姿勢で仮想空間中に配置されるものとする。この場合、センサコントローラ105から送出された位置姿勢センサ106cの位置姿勢情報が示す位置姿勢に、位置姿勢センサ106cに対応付けられている仮想物体を配置する。
次にステップS205では、CPU101は、メモリ107に格納されている現実音取得プログラム113を実行する。これにより、CPU101は、マイク110から送出された音データを取得する。
そしてCPU101は、現実音加工プログラム112を実行する。これにより、CPU101は、現実物体の位置情報、仮想物体の位置情報、視点の位置情報、を用いて、現実物体、仮想物体、視点のそれぞれの位置関係を求める。そしてCPU101は、求めた位置関係が予め定められた条件を満たすか否かを判断し、満たすと判断した場合には、ステップS205で取得した音データを調整する。即ち、係る音データが示す音の音量や音質を、これらの位置情報に基づいて操作する。そして調整後の音データは、現実音再生設定データ127としてメモリ108に格納される。そして、CPU101は、音声再生プログラム114を実行する。これにより、CPU101は、メモリ108に格納した現実音再生設定データ127に基づいた音信号をヘッドフォン109に送出する。ステップS205における処理の詳細については後述する。
次に、ステップS206では、CPU101は、ステップS202でメモリ108に格納したカメラ位置姿勢データ123が示す位置姿勢、を有する視点を、ステップS204で構築した仮想空間中に配置する。そして、係る視点から見える仮想空間の画像(仮想空間画像)を生成する。そして生成した仮想空間画像を、CG画像データ128としてメモリ108に格納する。
次に、ステップS207では、CPU101は、ステップS201でメモリ108に格納した現実空間画像データ122が示す現実空間画像の上に、ステップS206でメモリ108に格納したCG画像データ128が示す仮想空間画像を重畳させる。なお、現実空間画像上に仮想空間画像を重畳させるための技術については様々なものがあり、本実施形態では何れを用いても良い。そしてCPU101は、生成した合成画像(現実空間画像上に仮想空間画像を重畳させた重畳画像)を、複合現実画像データ129としてメモリ108に格納する。
次に、ステップS208では、CPU101は、ステップS207でメモリ108に格納した複合現実画像データ129を、映像信号としてHMD104に対して送出する。これにより、HMD104を頭部に装着したユーザの眼前には、係る合成画像が表示されることになる。
次に、CPU101が、不図示の操作部から本処理を終了する指示が入力されたことを検知した、或いは本処理を終了する条件が満たされたことを検知した場合、ステップS209を介して本処理を終了させる。一方、CPU101が何れも検知していない場合には、ステップS209を介してステップS201に処理を戻し、次のフレームの合成画像をユーザに提示すべく、ステップS201以降の処理を行う。
次に、上記ステップS205における処理について説明する。
図3は、ステップS205における処理の詳細を示すフローチャートである。
先ずステップS301では、CPU101は、メモリ107に格納されている現実音取得プログラム113を実行する。これにより、CPU101は、マイク110から送出された音データを取得する。上述のようにマイク110は「音を発生する現実物体(音源としての現実物体)」の上(現実物体上)に配置しても良い。しかしこの場合、マイク110の位置姿勢が位置姿勢センサ106bが計測する位置姿勢とほぼ同じになるように、位置姿勢センサ106bの近傍位置に取り付けることが好ましい。更に、マイク110は、HMD104を頭部に装着するユーザの耳など、ユーザに取り付けても良い。また、マイク110からコンピュータ100内に入力された音データのフォーマットについてはもちろん、コンピュータ100が扱える形式のものであるとする。
次にステップS302ではCPU101は、現実音加工プログラム112を実行する。これによりCPU101は、音源としての現実物体の位置情報、仮想物体の位置情報、視点の位置情報、を用いて、現実物体、仮想物体、視点のそれぞれの位置関係を求める。そしてCPU101は、求めた位置関係が予め定められた条件を満たすか否かを判断し、満たすと判断した場合には、ステップS301で取得した音データを調整する。即ち、係る音データが示す音の音量や音質を、これらの位置情報に基づいて操作する。そして調整後の音データは、現実音再生設定データ127としてメモリ108に格納される。ステップS302における処理の詳細については後述する。
次にステップS303では、CPU101は、音声再生プログラム114を実行する。これにより、CPU101は、ステップS302でメモリ108に格納した現実音再生設定データ127に基づいた音信号をヘッドフォン109に送出する。なお、仮想物体が音を発するなど、他の音も発生させる場合には、係る音のデータに基づいた音信号を作成し、作成した音信号と現実音再生設定データ127に基づいた音信号とを合成することで得られる合成信号をヘッドフォン109に送出する。
そして図3に示したフローチャートに従った処理は終了させ、図2に示したステップS206にリターンする。
次に、上記ステップS302における処理の詳細について説明する。
図4は、ステップS302における処理の詳細を示すフローチャートである。図4に示したフローチャートが示す処理は、音源としての現実物体、仮想物体、視点のそれぞれの位置関係が予め定められた条件を満たすか否かを判断し、満たすと判断した場合には音データを調整する、という一連の処理の一例である。即ち図4に示したフローチャートの処理では、音源としての現実物体の位置と視点の位置とを結ぶ線分と、仮想物体と、の交点が1以上存在するか否かを判断する。そして係る判断の結果、存在する場合には、係る現実物体から発せられる音が仮想物体によって遮蔽されているものと判断する。そしてこの場合、マイク110から取得した音データが示す音のボリューム(音量)を下げるように、この音データを調整する。
図5は、図4のフローチャートに従った処理を実行する場合に想定している現実空間の様子を示す図である。図5では音源としての現実物体502上には位置姿勢センサ106bが配されている。従って、位置姿勢センサ106bが計測する位置姿勢は、位置姿勢センサ106b自身の位置姿勢であると共に、現実物体502の位置姿勢でもある。また、マイク110は、現実空間中の所定の位置(現実物体502から発せられる音を収集可能な位置)に配されている。もちろん、マイク110は、現実物体502上に配しても良い。
また、ユーザ501は手に位置姿勢センサ106cを把持している。
また、503は板状の仮想物体であり、位置姿勢センサ106cが計測する位置姿勢で配置される(図5では仮想物体503と位置姿勢センサ106cの両方を図示すべく、位置姿勢センサ106cと仮想物体503とはずらして記している)。即ち、ユーザが位置姿勢センサ106cを把持した手を動かすと、位置姿勢センサ106cの位置姿勢も変わるので、これに伴い、仮想物体503の位置姿勢も変化することになり、その結果、ユーザ501は、仮想物体503の位置姿勢を操作することができる。
ここで、図5では、現実物体502の位置(即ち、位置姿勢センサ106bが計測した位置)と視点の位置577とを結ぶ線分598は、仮想物体503と、交点599で交差している。この場合、コンピュータ100は、現実物体502から発せられる音が、仮想物体503によって遮蔽されているものと判断する。そしてコンピュータ100は、マイク110から取得した音データが示す音のボリューム(音量)を下げるように、この音データを調整する。そして調整後の音データに基づいた音信号をヘッドフォン109に出力する。これにより、ヘッドフォン109を装着したユーザ501は、「現実物体502から発せられた音が仮想物体503によって遮蔽されたので聞こえる音のボリュームが小さくなった」、と感じることができる。
なお、ユーザ501が更に手を動かし、上記交点599が存在しなくなった場合には、音データに対する上記調整処理は行わず、係る音データに基づいた音信号をヘッドフォン109に出力する。これにより、ヘッドフォン109を装着したユーザ501は、現実物体502から発せられた音が仮想物体503に遮蔽されることなく、聞こえる音のボリュームが元に戻った、と感じることができる。
図4において、ステップS401では、上記ステップS203で取得した音源としての現実物体の位置姿勢情報から、位置情報を取得する。更に、ステップS202で取得した視点の位置姿勢情報から、位置情報を取得する。そして、音源としての現実物体の位置情報が示す位置と、視点の位置情報が示す位置と、を結ぶ線分を求める。
次に、ステップS402では、ステップS401で求めた線分と、上記ステップS204で配置した1以上の仮想物体のそれぞれとの交差判定を行い、線分との交点の有無を判定する。本実施形態では説明を簡単にするために、仮想空間中に配する仮想物体の数は1つとする。
ステップS402における処理の結果、仮想空間中に配した仮想物体が、ステップS401で求めた線分と交差する場合には、処理をステップS404に進める。一方、交差しない場合には、処理をステップS403に進める。
ステップS403では、マイク110から取得した音データに対しては何もせず、そのまま音信号に変換してヘッドフォン109に送出しても良い。しかし、図4では、マイク110から取得した音データが示す音のボリュームを既定値のボリュームとすべく、この音データを調整する。音データを調整してボリュームを増減させるための技術については周知であるので、これについての説明は省略する。そして、図3のステップS303にリターンする。これにより、調整後の音データに基づいて音信号を生成し、係る音信号をヘッドフォン109に出力することができる。
一方、ステップS404では、マイク110から取得した音データが示す音のボリューム(音量)を、予め定められた量だけ下げるように、この音データを調整する。そして、図3のステップS303にリターンする。これにより、調整後の音データに基づいて音信号を生成し、係る音信号をヘッドフォン109に出力することができる。
以上説明した処理により、音源としての現実物体から発せられた音が、仮想物体によって遮蔽されたと判断した場合には、係る音のボリュームを下げてから、ユーザに提供する。これにより、ユーザは、仮想物体が音を遮蔽したように感じることができる。
なお、本実施形態では、音源としての現実物体の位置と視点の位置とを通る線分と、仮想物体との交差判定を行ったが、代わりに、係る線分を軸とする所定のサイズの領域内に仮想物体の一部若しくは全部が含まれているのか否かを判断するようにしても良い。そして、含まれていると判断した場合には、上記ステップS404における処理を行う。一方、含まれていないと判断した場合には、上記ステップS403における処理を行う。
また、本実施形態では、仮想物体表面のどこに交点があるのかについては考慮せず、単に交点があるか否かのみを判定していた。しかし、仮想物体上における交点の位置に応じて、ボリュームを下げる量を異ならせても良い。この場合、例えば、仮想物体の表面を複数の分割領域に分割し、それぞれの分割領域毎にボリュームを下げる量を設定しておく。そして、交点がどの分割領域内に存在するのかを特定することで、特定した分割領域に対応する量だけボリュームを下げる。また、仮想物体の領域の中に音源としての現実物体が含まれるかどうかで、ボリュームを下げる量を変更しても良い。
また、仮想物体の材質を示す材質情報を参照し、参照した材質情報に基づいて、ボリュームを下げる量を異ならせてもよい。例えば、交点における材質情報が示す材質の硬度が高いことを示す数値である場合には、ボリュームを下げる量を大きくし、逆に、交点における材質情報が示す材質の硬度が低いことを示す数値である場合には、ボリュームを下げる量を小さくする。
また、本実施形態では、音データの調整の一例として、音データが示す音のボリュームを操作していた。しかし、本実施形態は、音の他の要素について変更するようにしても良い。例えば、マイク110から取得した音データが示す音の周波数毎にフィルタをかける(イコライジングする)ようにしても良い。例えば、低周波成分のみを減じたり、逆に高周波成分のみを減じたりすることが可能である。
また、仮想物体の材質を示す材質情報を参照し、参照した材質情報に基づいて、音データが示す音の音質を変更するようにこの音データを調整するようにしても良い。
また、本実施形態では、仮想物体が、音源としての現実物体から発せられる音を遮蔽する場合を例に取り説明した。しかし拡声器を模した仮想物体を、音源としての現実物体と視点との間に位置させる場合(拡声器において口を付ける部分に相当する、仮想物体の部分が音源としての現実物体の方を向いているとする)、音データが示す音のボリュームを上げるようにしても良い。
また、音源としての現実物体の位置は不明であるものの、視点から音源としての現実物体への方向が分かっている場合には、係る方向に直線を延長することで、係る直線と係る仮想物体との交点判定を行えばよい。仮想物体が、音源としての現実物体の奥側にある場合には正確な解とはならない。しかし、特定の条件下(仮想物体が必ずユーザのそばに位置しており、且つ仮想物体とユーザとの間に音源としての現実物体が位置していないことが仮定できるような場合)であれば、ユーザからの音源の方位のみを知る手法を用いることができる。
なお、本実施形態では、HMD104にはビデオシースルー方式のものを用いたが、光学シースルー方式のものを用いても良い。その場合、HMD104への音信号の送信については変わらないが、HMD104への画像の送信に関しては上記説明とは若干異なる。即ち、HMD104が光学シースルー方式のものである場合には、HMD104には仮想空間画像のみを送信することになる。
また、ビデオカメラ103の位置姿勢情報を取得するためにはセンサシステムを用いた位置姿勢取得方法以外の方法を用いても良い。例えば、現実空間中に指標を配し、係る現実空間をビデオカメラ103が撮像することで得られる画像を用いて、係るビデオカメラ103の位置姿勢情報を求める方法を用いても良い。係る方法は周知の技術である。
また、音源としての現実物体の位置情報を取得する場合に、現実物体に位置姿勢センサを取り付ける代わりに、マイクロフォンアレイを用いて、現実物体の位置情報を取得するようにしても良い。
[第2の実施形態]
第1の実施形態では、音源としての現実物体を1つとして説明しているが、音源としての現実物体が複数個、現実空間中に配されている場合であっても、第1の実施形態を個々の現実物体に適用すれば良い。
即ち、それぞれの音源としての現実物体に対してマイク110を設け、更に、それぞれの現実物体毎に位置姿勢センサ106cを設ける。そしてコンピュータ100は、それぞれの現実物体毎に、第1の実施形態で説明したような処理を行い、最後に、それぞれの現実物体から収集した音を合成してヘッドフォン109に出力する。
本実施形態の場合、音取得と音源の位置取得が同時に行われる、すなわち、複数の音源の位置推定と音分離が同時に行えるような、マイクロフォンアレイのようなシステムを用いても良い。
[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。
本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。
本発明の第1の実施形態に係るシステムのハードウェア構成例を示すブロック図である。 コンピュータ100が行うメインの処理のフローチャートである。 ステップS205における処理の詳細を示すフローチャートである。 ステップS302における処理の詳細を示すフローチャートである。 図4のフローチャートに従った処理を実行する場合に想定している現実空間の様子を示す図である。

Claims (26)

  1. 現実空間に存在する音源用現実物体からの音を収音する収音手段と、
    前記音源用現実物体の位置情報を取得する音源位置取得手段と、
    ユーザの位置情報を取得するユーザ位置取得手段と、
    前記ユーザの位置情報に基づいて、前記現実空間に対応する仮想空間の仮想空間画像を生成する仮想空間画像生成手段と、
    前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力手段と、
    前記仮想空間に存在する仮想物体であって、前記ユーザが動かすことのできる仮想物体であって、前記収音した音を調整するための仮想物体の位置情報を取得する調整位置取得手段と、
    前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報の位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した調整する調整手段と、
    前記調整された音を前記ユーザに対して出力する出力手段と
    を備えることを特徴とする情報処理装置。
  2. 前記調整位置取得手段が、前記ユーザが動かすことのできる調整用現実物体であって、前記仮想物体に追従される調整用現実物体であって、前記ユーザに聴かせる音を調整するための調整用現実物体の位置情報を取得することにより、前記仮想物体の位置情報を取得することを特徴とする請求項1に記載の情報処理装置。
  3. 前記調整用現実物体の位置は、センサを用いて取得することを特徴とする請求項2に記載の情報処理装置。
  4. 前記ユーザに直接届く前記音源用現実物体からの音を軽減する遮音手段を更に備えることを特徴とする請求項1乃至3の何れか1項に記載の情報処理装置。
  5. 前記遮音手段は、ヘッドフォンに備わり、
    前記出力手段が、前記ヘッドフォンに前記調整された音を出力することを特徴とする請求項4に記載の情報処理装置。
  6. 前記現実空間を撮像した現実空間画像を入力する画像入力手段と、
    前記現実空間画像と前記仮想空間画像とを合成した合成画像を生成する合成手段と
    を更に備え、
    前記画像出力手段が、前記ユーザに対して、前記合成画像を出力することを特徴とする請求項1に記載の情報処理装置。
  7. 前記調整手段が、前記収音した音の音量を変更することを特徴とする請求項1乃至6の何れか1項に記載の情報処理装置。
  8. 前記調整手段が、前記収音した音の全体の音量を下げることを特徴とする請求項7に記載の情報処理装置。
  9. 前記調整手段が、前記収音した音の全体の音量を上げることを特徴とする請求項7に記載の情報処理装置。
  10. 前記調整手段が、前記収音した音の音質を変更することを特徴とする請求項1乃至9の何れか1項に記載の情報処理装置。
  11. 前記調整手段が、前記収音した音に含まれる周波数帯域ごとの音を調整することを特徴とする請求項10に記載の情報処理装置。
  12. 前記調整手段が、前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報との位置関係に基づいて、前記収音した音を該仮想物体の種類に応じて調整することを特徴とする請求項1乃至11の何れか1項に記載の情報処理装置。
  13. 前記収音手段が、現実空間に存在する複数の音源用現実物体の各々からの音を収音し、
    前記音源位置取得手段が、前記複数の音源用現実物体の各々の位置情報を取得し、
    前記調整手段が、前記複数の音源用現実物体の各々の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報との位置関係に基づいて、前記収音した音の各々を調整することを特徴とする請求項1乃至12の何れか1項に記載の情報処理装置。
  14. 前記調整手段が、
    前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報との位置関係が予め定められた条件を満たすか否かを判断する判断手段と、
    前記位置関係が前記予め定められた条件を満たすと前記判断手段が判断した場合に、前記収音した音を調整することで、前記出力手段に出力する音を変更する変更手段と
    を備えることを特徴とする請求項1乃至13の何れか1項に記載の情報処理装置。
  15. 前記判断手段は、
    前記音源用現実物体の位置情報が示す位置と、前記ユーザの位置情報が示す位置と、を結ぶ線分を求める算出手段と、
    前記線分を軸とする領域内に前記仮想物体の一部若しくは全部が含まれているか否かを判断する領域判断手段と
    を備えることを特徴とする請求項14に記載の情報処理装置。
  16. 前記変更手段が、前記線分を軸とする領域内に前記仮想物体の一部若しくは全部が含まれていると前記領域判断手段が判断した場合に、前記収音した音のボリュームが下がるように、前記出力手段に出力する音を変更することを特徴とする請求項15に記載の情報処理装置。
  17. 前記調整手段が、前記仮想物体の材質を示す情報として予め設定された材質情報を参照し、前記収音した音を、該参照した材質情報に応じて調整することを特徴とする請求項1乃至16の何れか1項に記載の情報処理装置。
  18. 前記判断手段は、
    前記音源用現実物体の位置情報が示す位置と、前記ユーザの位置情報が示す位置と、を結ぶ線分を求める線分算出手段と、
    前記線分と前記仮想物体とに交点が存在するか否かを判断する交点判断手段と
    を備えることを特徴とする請求項14に記載の情報処理装置。
  19. 前記変更手段が、前記線分と前記仮想物体とに交点が存在すると前記交点判断手段が判断した場合に、前記収音した音のボリュームが下がるように、前記出力手段に出力する音を変更することを特徴とする請求項18に記載の情報処理装置。
  20. 前記変更手段が、前記交点の前記仮想物体上における位置に応じて、前記ボリュームを下げる量を変更することを特徴とする請求項19に記載の情報処理装置。
  21. 前記収音手段が、前記音源用現実物体上に配されたマイクから該音源用現実物体が発する音を収音することを特徴とする請求項1乃至20の何れか1項に記載の情報処理装置。
  22. 前記出力手段が、前記ヘッドフォンに、前記調整された音を出力し、
    前記ヘッドフォンは、該ヘッドフォンの装着者に対して現実空間中の音が聞こえないようにする機能を有していることを特徴とする請求項1乃至21の何れか1項に記載の情報処理装置。
  23. 現実空間に存在する音源用現実物体からの音を収音する収音手段と、
    前記音源用現実物体の位置情報を取得する音源位置取得手段と、
    ユーザに直接届く前記音源用現実物体からの音を軽減する遮音手段と、
    前記ユーザの位置情報を取得するユーザ位置取得手段と、
    前記ユーザが動かすことのできる調整用現実物体であって、前記ユーザに聴かせる音を調整するための調整用現実物体の位置情報を、センサを用いて取得することにより、前記現実空間に対応する仮想空間に存在する仮想物体であって、前記調整用現実物体に追従する仮想物体の位置情報を取得する調整位置取得手段と、
    前記ユーザの位置情報に基づいて、前記仮想空間の仮想空間画像を生成する仮想空間画像生成手段と、
    前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力手段と、
    前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報との位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した音を調整する調整手段と、
    前記調整された音を前記ユーザに対して出力する出力手段と
    を備えることを特徴とする情報処理装置。
  24. 情報処理装置の収音手段が、現実空間に存在する音源用現実物体からの音を収音する収音工程と、
    前記情報処理装置の音源位置取得手段が、前記音源用現実物体の位置情報を取得する音源位置取得工程と、
    前記情報処理装置のユーザ位置取得手段が、ユーザの位置情報を取得するユーザ位置取得工程と、
    前記情報処理装置の仮想空間画像生成手段が、前記ユーザの位置情報に基づいて、前記現実空間に対応する仮想空間の仮想空間画像を生成する仮想空間画像生成工程と、
    前記情報処理装置の画像出力手段が、前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力工程と、
    前記情報処理装置の調整位置取得手段が、前記仮想空間に存在する仮想物体であって、前記ユーザが動かすことのできる仮想物体であって、前記収音した音を調整するための仮想物体の位置情報を取得する調整位置取得工程と、
    前記情報処理装置の調整手段が、前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報の位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した調整する調整工程と、
    前記情報処理装置の出力手段が、前記調整された音を前記ユーザに対して出力する出力工程と
    を備えることを特徴とする情報処理方法。
  25. 情報処理装置の収音手段が、現実空間に存在する音源用現実物体からの音を収音する収音工程と、
    前記情報処理装置の音源位置取得手段が、前記音源用現実物体の位置情報を取得する音源位置取得工程と、
    前記情報処理装置の遮音手段が、ユーザに直接届く前記音源用現実物体からの音を軽減する遮音工程と、
    前記情報処理装置のユーザ位置取得手段が、前記ユーザの位置情報を取得するユーザ位置取得工程と、
    前記情報処理装置の調整位置取得手段が、前記ユーザが動かすことのできる調整用現実物体であって、前記ユーザに聴かせる音を調整するための調整用現実物体の位置情報を、センサを用いて取得することにより、前記現実空間に対応する仮想空間に存在する仮想物体であって、前記調整用現実物体に追従する仮想物体の位置情報を取得する調整位置取得工程と、
    前記情報処理装置の仮想空間画像生成手段が、前記ユーザの位置情報に基づいて、前記仮想空間の仮想空間画像を生成する仮想空間画像生成工程と、
    前記情報処理装置の画像出力手段が、前記ユーザに対して、前記仮想空間画像を含む画像を出力する画像出力工程と、
    前記情報処理装置の調整手段が、前記音源用現実物体の位置情報、前記ユーザの位置情報、及び前記仮想物体の位置情報との位置関係に基づいて、前記音源用現実物体と前記ユーザとの間に該仮想物体が存在する場合に前記収音した音を調整する調整工程と、
    前記情報処理装置の出力手段が、前記調整された音を前記ユーザに対して出力する出力工程と
    を備えることを特徴とする情報処理方法。
  26. コンピュータを請求項1乃至23の何れか1項に記載の情報処理装置各手段として機能させるためのコンピュータプログラム。
JP2007289965A 2007-11-07 2007-11-07 情報処理装置、情報処理方法、およびコンピュータプログラム Expired - Fee Related JP4926916B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007289965A JP4926916B2 (ja) 2007-11-07 2007-11-07 情報処理装置、情報処理方法、およびコンピュータプログラム
PCT/JP2008/070540 WO2009060981A1 (en) 2007-11-07 2008-11-05 Image processing apparatus and image processing method
US12/741,344 US20100265164A1 (en) 2007-11-07 2008-11-05 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007289965A JP4926916B2 (ja) 2007-11-07 2007-11-07 情報処理装置、情報処理方法、およびコンピュータプログラム

Publications (3)

Publication Number Publication Date
JP2009116690A JP2009116690A (ja) 2009-05-28
JP2009116690A5 JP2009116690A5 (ja) 2010-11-11
JP4926916B2 true JP4926916B2 (ja) 2012-05-09

Family

ID=40625863

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007289965A Expired - Fee Related JP4926916B2 (ja) 2007-11-07 2007-11-07 情報処理装置、情報処理方法、およびコンピュータプログラム

Country Status (3)

Country Link
US (1) US20100265164A1 (ja)
JP (1) JP4926916B2 (ja)
WO (1) WO2009060981A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012133250A (ja) * 2010-12-24 2012-07-12 Sony Corp 音情報表示装置、音情報表示方法およびプログラム
JP5832666B2 (ja) * 2011-12-20 2015-12-16 インテル・コーポレーション 複数のデバイスにまたがる拡張現実表現
US9041622B2 (en) 2012-06-12 2015-05-26 Microsoft Technology Licensing, Llc Controlling a virtual object with a real controller device
US9595109B1 (en) * 2014-01-30 2017-03-14 Inertial Labs, Inc. Digital camera with orientation sensor for optical tracking of objects
US9548014B2 (en) * 2014-08-04 2017-01-17 Canon Kabushiki Kaisha Information processing apparatus and information processing method
US10256859B2 (en) 2014-10-24 2019-04-09 Usens, Inc. System and method for immersive and interactive multimedia generation
GB201500397D0 (en) * 2015-01-11 2015-02-25 Holland Nigel A Cinema audio system for production audio replacement
US11783864B2 (en) * 2015-09-22 2023-10-10 Fyusion, Inc. Integration of audio into a multi-view interactive digital media representation
WO2017175366A1 (ja) * 2016-04-08 2017-10-12 株式会社日立製作所 映像表示装置および映像表示方法
MY195155A (en) * 2016-11-11 2023-01-11 Ericsson Telefon Ab L M Supporting an Augmented-Reality Software Application
WO2018128161A1 (ja) * 2017-01-06 2018-07-12 株式会社ソニー・インタラクティブエンタテインメント 音声出力装置、ヘッドマウントディスプレイ、音声出力方法及びプログラム
DE102018212902A1 (de) * 2018-08-02 2020-02-06 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Bestimmen eines digitalen Assistenten zum Ausführen einer Fahrzeugfunktion aus einer Vielzahl von digitalen Assistenten in einem Fahrzeug, computerlesbares Medium, System, und Fahrzeug
KR20210112726A (ko) * 2020-03-06 2021-09-15 엘지전자 주식회사 차량의 좌석별로 대화형 비서를 제공하는 방법
JP2021175043A (ja) 2020-04-22 2021-11-01 セイコーエプソン株式会社 頭部装着型表示装置、音声画像出力システム、及び、音声画像出力方法
WO2022044342A1 (ja) * 2020-08-31 2022-03-03 マクセル株式会社 ヘッドマウントディスプレイ及びその音声処理方法
KR20220059629A (ko) * 2020-11-03 2022-05-10 현대자동차주식회사 차량 및 그의 제어방법
WO2022125351A2 (en) * 2020-12-09 2022-06-16 Cerence Operating Company Automotive infotainment system with spatially-cognizant applications that interact with a speech interface

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4455675A (en) * 1982-04-28 1984-06-19 Bose Corporation Headphoning
JP3363921B2 (ja) * 1992-09-01 2003-01-08 富士通株式会社 音像定位装置
JPH06176131A (ja) * 1992-12-03 1994-06-24 Namco Ltd 画像合成装置及びこれを用いた仮想体験装置
JP3722335B2 (ja) * 1998-02-17 2005-11-30 ヤマハ株式会社 残響付加装置
JP2002157607A (ja) * 2000-11-17 2002-05-31 Canon Inc 画像生成システム、画像生成方法および記憶媒体
JP3977405B1 (ja) * 2006-03-13 2007-09-19 株式会社コナミデジタルエンタテインメント ゲーム音出力装置、ゲーム音制御方法、および、プログラム

Also Published As

Publication number Publication date
WO2009060981A1 (en) 2009-05-14
US20100265164A1 (en) 2010-10-21
JP2009116690A (ja) 2009-05-28

Similar Documents

Publication Publication Date Title
JP4926916B2 (ja) 情報処理装置、情報処理方法、およびコンピュータプログラム
JP5992210B2 (ja) 情報処理プログラム、情報処理装置、情報処理システム、および情報処理方法
US11663778B2 (en) Method and system for generating an image of a subject from a viewpoint of a virtual camera for a head-mountable display
KR102036545B1 (ko) 오디오, 비주얼 및 모션 분석 기능을 갖는 디지털 카메라
JP2009123018A (ja) 画像処理装置、画像処理方法
EP2478715B1 (en) Method for acquiring audio signals, and audio acquisition system thereof
JP6410769B2 (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP5818322B2 (ja) 映像生成装置、映像生成方法及びコンピュータプログラム
JP2001169309A (ja) 情報記録装置および情報再生装置
KR101963244B1 (ko) 현실 음향을 반영한 증강 현실 3차원 음향 구현 시스템 및 프로그램
GB2565301A (en) Three-dimensional video processing
JP6664456B2 (ja) 情報処理システム及びその制御方法、コンピュータプログラム
JP6499805B2 (ja) 映像表示装置および映像表示方法
CN112558302B (zh) 一种用于确定眼镜姿态的智能眼镜及其信号处理方法
CN117063489A (zh) 信息处理方法、程序和信息处理系统
JP2024056580A (ja) 情報処理装置及びその制御方法及びプログラム
JP2004032726A (ja) 情報記録装置および情報再生装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100927

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111017

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111207

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120110

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120208

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150217

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees