JP2020024744A - 情報処理装置、情報処理方法、及び、プログラム - Google Patents

情報処理装置、情報処理方法、及び、プログラム Download PDF

Info

Publication number
JP2020024744A
JP2020024744A JP2019198778A JP2019198778A JP2020024744A JP 2020024744 A JP2020024744 A JP 2020024744A JP 2019198778 A JP2019198778 A JP 2019198778A JP 2019198778 A JP2019198778 A JP 2019198778A JP 2020024744 A JP2020024744 A JP 2020024744A
Authority
JP
Japan
Prior art keywords
sound
unit
user
processing
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019198778A
Other languages
English (en)
Inventor
中川 俊之
Toshiyuki Nakagawa
俊之 中川
博隆 石川
Hirotaka Ishikawa
博隆 石川
泰樹 金間
Yasuki KANEMA
泰樹 金間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2020024744A publication Critical patent/JP2020024744A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B27/0172Head mounted characterised by optical features
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0132Head-up displays characterised by optical features comprising binocular systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • G02B2027/0178Eyeglass type
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Acoustics & Sound (AREA)
  • Optics & Photonics (AREA)
  • Multimedia (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Stereophonic System (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

【課題】表示領域外に存在する位置を、より的確に示すことができるようにする。【解決手段】表示領域外位置指定部は、画像表示部における表示領域外の位置を指定し、描画・音制御部は、ARオブジェクトを指定した位置に向けて移動させながら、音出力部からのARオブジェクトの音の出力を制御する。本技術は、例えば、左眼用と右眼用の一対の画像表示部を有する眼鏡型デバイスなどのウェアラブルコンピュータに適用することができる。【選択図】図5

Description

本技術は、情報処理装置、情報処理方法、及び、プログラムに関し、特に、表示領域外に存在する位置を、より的確に示すことができるようにした情報処理装置、情報処理方法、及び、プログラムに関する。
近年、ユーザが身につけて持ち歩くことができるウェアラブルコンピュータ(Wearable Computer)の研究が行われている(例えば、特許文献1参照)。この種のウェアラブルコンピュータとしては、ヘッドマウントディスプレイ(以下、HMD(Head Mounted Display)という)などの頭部に装着するディスプレイ装置が知られている。
また、仮想的なコンテンツを、実空間の対象物に重畳してユーザに提示する拡張現実(AR:Augmented Reality)と称される技術が注目されている(例えば、特許文献2参照)。このAR技術を利用することで、例えば、ユーザの現在位置に応じて、そのユーザがHMD等の透過型のディスプレイを通して見た風景に、その場所に関する情報(ARオブジェクト)をオーバーレイ表示させることができる。
さらに、特許文献3には、ユーザの現在位置と、目的地までの経路に応じて特定された方向に基づいて、音楽ソースの再生を制御する技術が開示されている。
特開2011−28763号公報 特開2013−92964号公報 特開2003−028663号公報
上述したように、HMD等のディスプレイに表示可能な領域は限られているため、その狭い表示領域内に、ユーザの視野外の情報はもちろん、ユーザの視野内の情報であっても表示することが困難となる場合がある。すなわち、画像による情報の表示は直感的で明確ではあるが、ディスプレイに表示可能な領域が限定的であるため、そのすべての情報を表示するには限界がある。
また、上述した特許文献3において、ヘッドホンは2chで再生するため、ユーザは一直線上の左右の位置であれば認識できるが、頭部伝達関数(HRTF:Head Related Transfer Function)を用いて立体的な音を表現した場合に、音のみを用いた位置表示では前後を誤認識してしまう可能性がある。その理由の一つとして、HRTFは本人のものではない場合に、普段耳で聞く自然界の音の聞こえ方とは異なっているために、位置を把握できないことがある。また、仮に、HRTFが本人のものであったとしても、再生するヘッドホンや再生装置の特性により聞こえ方が異なってしまう。
このように、表示領域が限られているディスプレイ装置においては、表示領域外の情報を示したいという要求があるが、特許文献3に開示されている音の再生方法を用いても、的確に表示領域外の情報を示すことはできない。
本技術はこのような状況に鑑みてなされたものであり、表示領域外に存在する位置を、より的確に示すことができるようにするものである。
本技術の一側面の情報処理装置は、音を出力する音出力部と、ユーザの視覚領域を示す領域情報を取得する領域情報取得部と、前記ユーザの視覚領域外の位置を指定する位置指定部と、前記ユーザの視覚領域内の位置から前記位置指定部によって指定された指定位置の範囲内で音像定位処理を行う制御部とを備え、前記制御部は、前記ユーザの位置を角度の頂点とする前記ユーザの視覚領域内の位置から前記指定位置との範囲内に基づいて音像定位処理を行う情報処理装置である。
本技術の一側面の情報処理方法又はプログラムは、本技術の一側面の情報処理装置に対応する情報処理方法又はプログラムである。
本技術の一側面の情報処理装置、情報処理方法、及び、プログラムにおいては、音が出力され、ユーザの視覚領域を示す領域情報が取得され、前記ユーザの視覚領域外の位置が指定され、前記ユーザの視覚領域内の位置から指定された指定位置の範囲内で音像定位処理が行われ、前記ユーザの位置を角度の頂点とする前記ユーザの視覚領域内の位置から前記指定位置との範囲内に基づいて音像定位処理が行われる。
本技術の一側面によれば、表示領域外に存在する位置を、より的確に示すことができる。
なお、ここに記載された効果は必ずしも限定されるものではなく、本開示中に記載されたいずれかの効果であってもよい。
本技術を適用したARシステムの一実施の形態の構成を示すブロック図である。 コントロールボックスとHMDの詳細構成を示すブロック図である。 スマートフォンの詳細構成を示すブロック図である。 ARサーバの詳細構成を示すブロック図である。 AR処理部の詳細構成を示すブロック図である。 ARシステムを構成する各装置で実行される処理を説明するフローチャートである。 ARオブジェクト対応処理1を説明するフローチャートである。 ARシステムにおける円筒座標系を示す図である。 円筒座標系における表示領域とARオブジェクトとの関係を示す図である。 円筒座標系における表示領域と音付ARオブジェクトとの関係を示す図である。 音付ARオブジェクト対応処理1を説明するフローチャートである。 ターゲットの位置の指定の例を示す図である。 音付ARオブジェクトの軌跡の設定の例を示す図である。 音オブジェクト画像の表示例を示す図である。 音付ARオブジェクト対応処理2を説明するフローチャートである。 ターゲットの位置の指定の例を示す図である。 音付ARオブジェクトの軌跡の設定の例を示す図である。 音オブジェクト画像の表示例を示す図である。 ARオブジェクト対応処理2を説明するフローチャートである。 音オブジェクト画像の表示例を示す図である。 音オブジェクトの2方向移動の例を示す図である。 ARオブジェクトの画像描画パスの例を示す図である。 VPTの概念を示す図である。 VPTの信号処理の例を示す図である。 ARオブジェクトの第1の音声パスを説明するための図である。 基本形の音処理を説明するための図である。 2方向移動の音処理を説明するための図である。 中間位置の音処理を説明するための図である。 連続音の音処理を説明するための図である。 ARオブジェクトの第2の音声パスを説明するための図である。 基本形の音処理を説明するための図である。 ARシステムの具体的な運用例1を示す図である。 ARシステムの具体的な運用例2を示す図である。
以下、図面を参照しながら本技術の実施の形態について説明する。
<ARシステムの構成>
図1は、本技術を適用したARシステムの一実施の形態の構成を示すブロック図である。
ARシステム1は、HMD(Head Mounted Display)20を装着したユーザに対して、その現在位置に応じた情報を、AR(拡張現実)技術により提示するものである。図1に示すように、ARシステム1は、コントロールボックス10、HMD20、スマートフォン30、及び、ARサーバ40から構成される。ただし、コントロールボックス10とHMD20とは、所定の規格に対応したケーブルにより接続されている。また、スマートフォン30とARサーバ40とは、無線ネットワークやインターネット80等介して相互に接続されている。
コントロールボックス10は、HMD20の制御用の機器であって、ユーザによる各種のボタンの操作に応じて、HMD20の動作を制御する。HMD20は、ウェアラブルコンピュータの一例であって、透過型のディスプレイやヘッドホンなどを有する眼鏡型デバイスである。HMD20では、通常の眼鏡においてフレームに取り付けられているレンズの位置に、左眼用と右眼用の一対の透過型のディスプレイが配置されており、ユーザの頭部に装着される。
また、コントロールボックス10は、近距離無線通信部を有しており、Bluetooth(登録商標)等の近距離無線通信規格に従い、スマートフォン30との間で無線通信を行い、各種のデータをやりとりすることができる。スマートフォン30は、GPS(Global Positioning System)機能を有しており、GPS衛星90からの信号を受信することで、HMD20を装着したユーザの現在位置を取得することができる。そして、スマートフォン30は、現在位置を示す情報を、インターネット80を介してARサーバ40に送信することで、その現在位置に応じたARオブジェクト情報を取得する。スマートフォン30は、無線通信によりARオブジェクト情報を、コントロールボックス10に送信する。
ここで、ARオブジェクト情報は、座標、画像、及び、音などの情報を含んでいる。座標情報は、例えば、HMD20を装着したユーザを中心としたその周囲の円筒座標系上の座標であって、ARオブジェクトの配置位置を示す。画像情報は、ARオブジェクトとして表示される画像に関する情報である。また、音情報は、ARオブジェクトを示すための音に関する情報である。以下の説明では、ARオブジェクトにおける、画像情報を「画像オブジェクト」と称し、音情報を「音オブジェクト」と称する。
ただし、ARオブジェクト情報は、画像オブジェクトとその座標情報を少なくとも含むが、音オブジェクトを含むかどうかは任意である。従って、ARオブジェクトのうち、音オブジェクトを含むものを、特に、「音付ARオブジェクト」と称する。また、音オブジェクトは、画像情報をさらに含んでおり、その画像を、「音オブジェクト画像」と称するものとする。
コントロールボックス10は、スマートフォン30から受信したARオブジェクト情報をHMD20に出力する。これにより、例えばHMD20を装着したユーザが透過型のディスプレイを通して見る対象物に、その対象物に関連した画像オブジェクトを重ねて表示したりすることができる。また、HMD20のヘッドホンから音オブジェクトに対応する音声を出力することができる。
ARシステム1は、以上のように構成される。
<各装置の構成例>
次に、図2乃至図5を参照して、図1のARシステム1を構成する各装置の構成例について説明する。
(コントロールボックスとHMDの詳細構成)
図2は、図1のコントロールボックス10とHMD20の詳細構成を示すブロック図である。上述したように、コントロールボックス10とHMD20とは、所定の規格に対応したケーブルにより接続されている。
図2に示すように、コントロールボックス10において、CPU(Central Processing Unit)101、ROM(Read Only Memory)102、RAM(Random Access Memory)103は、バス104により相互に接続されている。CPU101は、ROM102に記録された制御プログラムを実行することで、コントロールボックス10の各部の動作を制御する。また、RAM103には、各種のデータが適宜記録される。
バス104には、さらに、入出力インターフェース105が接続されている。入出力インターフェース105には、操作部106、接続部107、及び、無線通信部108が接続されている。操作部106は、コントロールボックス10に設けられた物理的なボタン等であり、ユーザの操作に応じて操作信号をCPU101に供給する。CPU101は、操作部106からの操作信号に応じて、HMD20の各部の動作を制御する。
接続部107は、所定の規格に対応したケーブルを介してHMD20と接続され、CPU101からの制御に従い、HMD20との間で各種のデータのやりとりを行う。無線通信部108は、近距離無線通信機能を有し、CPU101からの制御に従い、スマートフォン30との間で、所定の近距離無線通信規格による無線通信を行い、各種のデータをやりとりする。
また、図2に示すように、HMD20は、接続部201、地磁気センサ203、ジャイロセンサ204、加速度センサ205、ディスプレイ206、ヘッドホン207、及び、カメラ部208から構成され、それらは、入出力インターフェース202に接続されている。
地磁気センサ203は、HMD20の近傍の地磁気を検出する。ジャイロセンサ204は、HMD20の回転角度を検出する。加速度センサ205は、HMD20の重力加速度を検出する。地磁気センサ203、ジャイロセンサ204、及び、加速度センサ205による検出結果は、センサ値として、入出力インターフェース202を介して、接続部201に供給される。
接続部201は、地磁気センサ203、ジャイロセンサ204、及び、加速度センサ205からのセンサ値を、コントロールボックス10に出力する。これにより、コントロールボックス10では、それらのセンサ値を用い、HMD20の姿勢や向きを検出することができる。なお、コントロールボックス10は、それらのセンサ値を用い、いわゆる自律航法によりGPS機能を用いずに、ユーザの現在位置を取得するようにしてもよい。
ディスプレイ206は、上述した左眼用と右眼用の一対の透過型のディスプレイである。ディスプレイ206は、コントロールボックス10からの制御に従い、各種の画像を表示する。また、ヘッドホン207は、ユーザの左右の耳に近接した位置に配置される小型のヘッドホンである。ヘッドホン207は、コントロールボックス10からの制御に従い、各種の音声を出力する。
カメラ部208は、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の固体撮像素子を含んで構成される外向きカメラであり、ディスプレイ206を通して見える被写体を撮影するための機能を有する。カメラ部208は、被写体を撮影して所定の画像処理が施された画像データを、接続部201に供給する。接続部201は、カメラ部208からの画像データを、コントロールボックス10に出力する。これにより、コントロールボックス10では、画像データを用い、各種の処理を行うことができる。
(スマートフォンの詳細構成)
図3は、図1のスマートフォン30の詳細構成を示すブロック図である。
図3に示すように、スマートフォン30において、CPU301、ROM302、RAM303は、バス304により相互に接続されている。CPU301は、ROM302に記録された制御プログラムを実行することで、スマートフォン30の各部の動作を制御する。また、RAM303には、各種のデータが適宜記録される。
バス304には、さらに、入出力インターフェース305が接続されている。入出力インターフェース305には、タッチパネル306、スピーカ307、GPS部308、無線通信部309、及び、携帯通信部310が接続されている。
タッチパネル306は、表示部321と、その画面上に重畳されるタッチセンサ322とから構成される。表示部321は、液晶ディスプレイ(LCD:Liquid Crystal Display)等で構成され、CPU301からの制御に従い、各種の情報を表示する。また、タッチセンサ322は、ユーザによりタッチパネル306に対して行われる入力操作を、その操作が行われた場所のタッチパネル306上での位置とともに検出し、その検出信号をCPU301に供給する。CPU301は、タッチセンサ322からの検出信号に応じて、スマートフォン30の各部の動作を制御する。
スピーカ307は、CPU301からの制御に従い、音声信号に応じた音声を出力する。また、GPS部308は、CPU301からの制御に従い、アンテナを介して、GPS衛星90からの信号を受信することで、ユーザの現在位置を取得する。
無線通信部309は、近距離無線通信機能を有し、CPU301からの制御に従い、コントロールボックス10との間で、所定の近距離無線通信規格による無線通信を行い、各種のデータをやりとりする。また、携帯通信部310は、CPU301からの制御に従い、インターネット80を介してARサーバ40等との通信を行い、各種のデータをやりとりする。なお、詳細は図示していないが、スマートフォン30は、携帯電話機としての通話機能などのその他の機能を有している。
(ARサーバの詳細構成)
図4は、図1のARサーバ40の詳細構成を示すブロック図である。
図4に示すように、ARサーバ40において、CPU401、ROM402、RAM403は、バス404により相互に接続されている。CPU401は、ROM402に記録された制御プログラムを実行することで、ARサーバ40の各部の動作を制御する。また、RAM403には、各種のデータが適宜記録される。
バス404には、さらに、入出力インターフェース405が接続されている。入出力インターフェース405には、入力部406、表示部407、スピーカ408、通信部409、ARオブジェクト保持部410、及び、ドライブ411が接続されている。
入力部406は、キーボード、マウス、マイクロフォンなどから構成され、入力された情報を、CPU401に供給する。表示部407は、液晶ディスプレイ等で構成され、CPU401からの制御に従い、各種の情報を表示する。また、スピーカ408は、CPU401からの制御に従い、音声を出力する。通信部409は、CPU401からの制御に従い、インターネット80を介してスマートフォン30との通信を行い、各種のデータをやりとりする。
ARオブジェクト保持部410は、ARオブジェクト情報を保持している。ARオブジェクト情報は、例えば、実空間の対象物に重畳させるデータとしてあらかじめ用意され、ARオブジェクト保持部410に記録される。ARオブジェクト保持部410は、CPU401からの制御に従い、ARオブジェクト情報を通信部409に供給する。通信部409は、ARオブジェクト保持部410から読み出されたARオブジェクト情報を、インターネット80を介してスマートフォン30に送信する。
ドライブ411は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブルメディアが適宜装着され、CPU401からの制御に従い、それらのリムーバブルメディアを駆動する。
(AR処理部の詳細構成)
図5は、AR処理部500の詳細構成を示す図である。AR処理部500は、例えば、コントロールボックス10のCPU101が制御プログラムを実行することで、ソフトウェア的に実現される。ただし、HMD20等の他の電子機器によって、AR処理部500の機能が実現されるようにしてもよい。また、例えば、コントロールボックス10とHMD20、さらにはスマートフォン30などの機能を一体化した電子機器によって、AR処理部500の機能が実現されるようにしてもよい。
図5に示すように、AR処理部500は、センサ値取得部501、ARオブジェクト情報取得部502、HMD向き算出部503、表示領域座標算出部504、描画処理部505、音処理部506、及び、音付ARオブジェクト対応処理部507から構成される。
センサ値取得部501は、HMD20の地磁気センサ203、ジャイロセンサ204、及び、加速度センサ205により検出されたセンサ値を取得し、HMD向き算出部503に供給する。また、ARオブジェクト情報取得部502は、ARサーバ40から受信した現在位置に応じたARオブジェクト情報を取得し、ARオブジェクト情報に含まれる情報を、描画処理部505、音処理部506、及び、音付ARオブジェクト対応処理部507にそれぞれ供給する。具体的には、ARオブジェクト情報に含まれる情報のうち、座標情報は、描画処理部505及び音付ARオブジェクト対応処理部507に供給され、画像オブジェクトは、描画処理部505及び音付ARオブジェクト対応処理部507に供給され、音オブジェクトは、音処理部506及び音付ARオブジェクト対応処理部507に供給され、音オブジェクト画像は、音付ARオブジェクト対応処理部507に供給される。
HMD向き算出部503は、センサ値取得部501から供給されるセンサ値に基づいて、ユーザの頭部に装着されたHMD20の向きを算出し、表示領域座標算出部504及び音付ARオブジェクト対応処理部507に供給する。
表示領域座標算出部504は、HMD向き算出部503から供給されるHMD20の向きを示す情報に基づいて、HMD20のディスプレイ206の表示領域(以下、「表示領域A」とも記述する)の座標を算出し、その算出結果を表示領域情報として、描画処理部505及び音付ARオブジェクト対応処理部507に供給する。
描画処理部505には、表示領域座標算出部504からの表示領域情報と、ARオブジェクト情報取得部502からの座標情報及び画像オブジェクトがそれぞれ供給される。描画処理部505は、表示領域情報及び座標情報に基づいて、画像オブジェクトを、HMD20のディスプレイ206に表示させる。また、描画処理部505は、音付ARオブジェクト対応処理部507からの制御に従い、音オブジェクト画像を、HMD20のディスプレイ206に表示させる。
音処理部506は、音付ARオブジェクト対応処理部507からの制御に従い、ARオブジェクト情報取得部502から供給される音オブジェクトの音声信号に対応する音声を、HMD20のヘッドホン207から出力させる。
音付ARオブジェクト対応処理部507は、音付ARオブジェクトに関する処理を行う。音付ARオブジェクト対応処理部507は、表示領域外位置指定部521、軌跡設定部522、及び、描画・音制御部523から構成される。
表示領域外位置指定部521は、表示領域座標算出部504から供給される表示領域情報に基づいて、表示領域A外の示したい場所(以下、「ターゲットT」と称する)の位置を指定する。例えば、表示領域A外に存在するARオブジェクトをターゲットTとする場合には、その画像オブジェクトの座標情報が、ターゲットTの位置として指定される。ただし、ターゲットTはARオブジェクトに限らず、例えば、実空間に存在する対象物など、その位置を指定できる対象であればいずれであってもよい。
軌跡設定部522は、ARオブジェクト情報取得部502から供給される音オブジェクトの軌跡を設定する。ただし、軌跡設定部522は、音オブジェクトの軌跡として、少なくとも一度、表示領域A上を通過する軌跡を設定するようにする。
描画・音制御部523は、軌跡設定部522により設定された軌跡に従い、描画処理部505を制御して、音オブジェクト画像を、HMD20のディスプレイ206に表示させる。また、描画・音制御部523は、軌跡設定部522により設定された軌跡などの情報に従い、音処理部506を制御して、音オブジェクトの音声信号に対応する音声を、HMD20のヘッドホン207から出力させる。
また、描画・音制御部523は、HMD向き算出部503から供給されるHMD20の向きを示す情報に基づいて、音処理部506を制御して、ARオブジェクト(音オブジェクト)の高さを、HMD20のディスプレイ20の表示領域の中心高さに合わせる。
<各装置で実行される具体的な処理の内容>
まず、図6のフローチャートを参照して、ARシステム1を構成する各装置で実行される処理と、その処理に応じた情報の流れについて説明する。ただし、図6のフローチャートにおいて、ステップS101乃至S103の処理は、コントロールボックス101により実行され、ステップS201乃至S204の処理は、HMD20により実行される。また、ステップS301乃至S305の処理は、スマートフォン30により実行され、ステップS401乃至S403の処理は、ARサーバ40により実行される。
図6に示すように、HMD20においては、各センサによるセンシングを行うタイミングである、所定の間隔時間が経過したかどうかが判定され(S201)、所定の間隔時間が経過した場合、処理はステップS202に進められる。そして、地磁気センサ203、ジャイロセンサ204、及び、加速度センサ205によりセンシングが行われるので、接続部201は、それらのセンサの検出結果を、センサ値として、コントロールボックス10に出力する(S202)。なお、HMD20は、例えば1秒に30回、センサ値を取得する処理を行う。
コントロールボックス10において、センサ値取得部501は、接続部107を制御して、HMD20から出力されたセンサ値を取得する(S101)。
また、図6に示すように、スマートフォン30においては、GPS衛星90から現在位置を取得するタイミングである、所定の間隔時間が経過したかどうかが判定され(S301)、所定の間隔時間が経過した場合、処理はステップS302に進められる。そして、GPS部308は、CPU301からの制御に従い、アンテナを介して、GPS衛星90からの信号を受信することで、ユーザの現在位置を取得する(S302)。携帯通信部310は、CPU301からの制御に従い、インターネット80を介して、ユーザの現在位置を示す情報を、ARサーバ40に送信する(S303)。
ARサーバ40において、通信部409は、スマートフォン30から現在位置を示す情報が送信された場合、CPU401からの制御に従い、インターネット80を介してスマートフォン30から送信される現在位置を示す情報を取得する(S401)。そして、CPU401は、通信部409により取得された現在位置を示す情報に応じたARオブジェクト情報を、ARオブジェクト保持部410から取得する(S402)。通信部409は、CPU401からの制御に従い、現在位置を示す情報に応じたARオブジェクト情報を、インターネット80を介して、要求元のスマートフォン30に送信する(S403)。
スマートフォン30において、携帯通信部310は、CPU301からの制御に従い、インターネット80を介してARサーバ40から送信されてくるARオブジェクト情報を受信する(S304)。また、無線通信部309は、CPU301からの制御に従い、コントロールボックス10との間で、所定の近距離無線通信規格による無線通信を行い、ARオブジェクト情報を送信する(S305)。なお、スマートフォン30は、例えば10秒に1回、現在位置に応じたARオブジェクト情報を取得する処理を行う。
コントロールボックス10において、ARオブジェクト情報取得部502は、無線通信部108を制御して、スマートフォン30との間で、所定の近距離無線通信規格による無線通信を行い、ARオブジェクト情報を受信する(S102)。そして、AR処理部500によって、HMD20から取得したセンサ値や、ARサーバ40から提供されるユーザの現在位置に応じたARオブジェクト情報に応じて、ARオブジェクト対応処理が行われる(S103)。このARオブジェクト対応処理では、HMD20のディスプレイ206の表示領域A内のARオブジェクトについてはその画像オブジェクトが表示され、表示領域A外のARオブジェクトについてはその音オブジェクトによりその存在する位置が示される。このARオブジェクト対応処理の詳細については、図7及び図19のフローチャートを参照して後述する。
そして、ARオブジェクト対応処理が行われることで、HMD20のディスプレイ206には、ARオブジェクト対応処理に応じた画像が表示され(S203)、HMD20のヘッドホン207からは、ARオブジェクト対応処理に応じた音が出力される(S204)。
以上、ARシステム1を構成する各装置で実行される処理と、その処理に応じた情報の流れについて説明した。
(ARオブジェクト対応処理1)
次に、図7のフローチャートを参照して、AR処理部500により実行される、図6のステップS103に対応するARオブジェクト対応処理1について説明する。
ステップS501において、HMD向き算出部503は、センサ値取得部501からのセンサ値に基づいて、HMD20の向きを算出し、表示領域座標算出部504に供給する。
ステップS502において、表示領域座標算出部504は、HMD向き算出部503からのHMD20の向きを示す情報に基づいて、HMD20におけるディスプレイ206の表示領域Aの座標を算出し、その算出結果を表示領域情報として、描画処理部505及び音付ARオブジェクト対応処理部507に供給する。
ステップS503において、描画処理部505は、ARオブジェクト情報取得部502からの画像オブジェクトの座標情報と、表示領域座標算出部504からの表示領域情報に基づいて、ディスプレイ206の表示領域Aと、対象の画像オブジェクト(ARオブジェクト)にオーバーラップ部分があるかどうかを判定する。ステップS503において、オーバーラップ部分があると判定された場合、処理はステップS504に進められる。
ステップS504において、描画処理部505は、ステップS503の判定結果に従い、ディスプレイ206の表示領域Aに、オーバーラップ部分の画像オブジェクトを描画する。ここで、図8乃至図9を参照して、画像オブジェクト(ARオブジェクト)の描画処理の具体的な処理手順について説明する。
図8に示すように、HMD20を装着したユーザ2に、画像オブジェクト(ARオブジェクト)を提示する場合、ユーザ2を中心としてその周囲に円筒座標系Cを定義して、その円筒座標系C上で、表示領域Aや画像オブジェクトObの位置を定めることになる。すなわち、図8の円筒座標系Cでは、HMD20の向きに応じた表示領域Aと、ユーザの現在位置に応じた画像オブジェクトOb1,Ob2が配置されている。また、図9に示すように、表示領域Aと画像オブジェクトOb1は、オーバーラップOLの部分が重複している。したがって、図7のステップS504の画像オブジェクトの描画処理では、画像オブジェクトOb1のうち、オーバーラップOLの部分が、ディスプレイ206の表示領域Aに描画されることになる。
図7のフローチャートに戻り、ステップS503において、オーバーラップ部分がないと判定された場合、ステップS504の処理はスキップされ、処理はステップS505に進められる。例えば、図8の画像オブジェクトOb2は、表示領域A外となるので、ステップS504の描画処理の対象とはならない。
ステップS505においては、対象のARオブジェクトに音が付いているかどうかを判定する。ステップS505において、対象のARオブジェクトに音が付いている、すなわち、音付ARオブジェクトであると判定された場合、処理はステップS506に進められる。
ステップS506において、音付ARオブジェクト対応処理部507は、ARオブジェクト情報取得部502により取得されたARオブジェクト情報と、表示領域座標算出部504により算出された表示領域の座標に基づいて、音付ARオブジェクト対応処理を行う。この音付ARオブジェクト対応処理では、表示領域A外に存在するターゲットTの位置を、HMD20を装着したユーザ2に示すための処理が行われる。
すなわち、図10に示すように、例えば、図8の円筒座標系Cを上方から見た場合に、表示領域AとオーバーラップしているARオブジェクトが存在せずに、表示領域A外の音付ARオブジェクトObのみが存在するとき、HMD20を装着したユーザの視線の方向(前方の方向)と、音付ARオブジェクトObの方向との差分角度を、オブジェクト方向情報として算出する。そして、このオブジェクト方向情報を用い、音付ARオブジェクトOb(ターゲットT)を指し示す方向から、その音オブジェクトの音が聴こえるように音の出力を制御することで、表示領域A外に存在する音付ARオブジェクトOb(ターゲットT)の位置を示すようにする。この音付ARオブジェクト対応処理の詳細については、図11及び図15のフローチャートを参照して後述する。
図7のフローチャートに戻り、ステップS505において、対象のARオブジェクトに音が付いていないと判定された場合、ステップS506の処理はスキップされ、処理はステップS507に進められる。ステップS507においては、ARオブジェクト情報取得部502により取得されたすべてのARオブジェクトを処理したかどうかが判定される。ステップS507において、すべてのARオブジェクトを処理していないと判定された場合、処理はステップS508に進められる。
ステップS508においては、まだ処理を行っていないARオブジェクトの1つが、次の対象のARオブジェクトとして選択される。そして、上述したステップS503乃至S506の処理が繰り返されることで、選択された対象のARオブジェクトの画像オブジェクトが表示領域A上にあれば、そのオーバーラップ部分が描画され(S504)、さらに選択されたARオブジェクトが音付ARオブジェクトである場合には、音付ARオブジェクト対応処理が実行される(S506)。
このようにして、ARオブジェクト情報取得部502により取得された1又は複数のARオブジェクトに対する処理が順次実行され、ステップS507において、すべてのARオブジェクトを処理したと判定された場合、図7のARオブジェクト対応処理1は終了する。その後、処理は、図6のステップS103に戻り、それ以降の処理が実行される。
以上、ARオブジェクト対応処理1について説明した。ARオブジェクト対応処理1においては、音付ARオブジェクト対応処理が行われることで、HMD20のディスプレイ206の表示領域A外の位置(例えば音付ARオブジェクト等のターゲットTの位置)が指定され、音付ARオブジェクトを指定された位置に向けて移動させながら、その音オブジェクトの音の出力が制御されることになる。その結果、表示領域A外に存在する位置を、より的確に示して、ユーザに気付かせることができる。
なお、図7のARオブジェクト対応処理1においては、例えば1秒に30回、ARオブジェクト1個ごとに処理が行われる。
(音付ARオブジェクト対応処理1)
次に、図11のフローチャートを参照して、音付ARオブジェクト対応処理部507により実行される、図7のステップS506に対応する音付ARオブジェクト対応処理1について説明する。
ステップS521において、表示領域外位置指定部521は、表示領域A外に示したいターゲットTが存在するかどうかを判定する。ステップS521において、表示領域A外に示したいターゲットTが存在すると判定された場合、処理は、ステップS522に進められる。
ステップS522において、表示領域外位置指定部521は、表示領域A外のターゲットTの位置を指定する。例えば、図12に示すように、円筒座標系Cにおける表示領域A外に存在するターゲットT(例えば、音付ARオブジェクト等)の位置が指定されることになる。
図11のフローチャートに戻り、ステップS523において、軌跡設定部522は、音オブジェクトの軌跡を設定する。ただし、音オブジェクトの軌跡としては、少なくとも一度、表示領域A上を通過する軌跡であることが望ましい。例えば、図13に示すように、音オブジェクトの軌跡として、円筒座標系C上の位置P1乃至P7が設定される。図13の軌跡では、円筒座標系Cの中心にいるユーザ2に対して、音オブジェクトが、円筒座標系C上の位置P1乃至P7を順次移動することになる。図13では、位置P4乃至P6の軌跡の一部が、表示領域A上を通過している。
図11のフローチャートに戻り、ステップS524において、描画・音制御部523は、音オブジェクト画像を設定する。音オブジェクト画像は、音オブジェクトが表示領域Aを通過する際に、表示領域A上に表示される画像であって、ターゲットTを容易に特定できるような画像であると好適である。従って、音オブジェクト画像としては、例えばターゲットTを指し示す矢印などとすることができる。ただし、音オブジェクト画像は、デフォルトで固定の画像が設定されているようにしてもよく、その場合、ステップS524の処理は省略される。
ステップS525において、描画・音制御部523は、音処理部506を制御して、円筒座標系C上の始点、すなわち、図13の軌跡における位置P1に音オブジェクトを生成する。音オブジェクトが生成されると、処理はステップS526に進められる。ステップS526において、描画・音制御部523は、軌跡設定部522により設定された軌跡に従い、音処理部506を制御して、音オブジェクトを等速で移動させる。ステップS527において、描画・音制御部523は、音オブジェクトが表示領域A内を通過するかどうかを判定する。ステップS527において、音オブジェクトが表示領域A内を通過すると判定された場合、処理はステップS528に進められる。
ステップS528において、描画・音制御部523は、描画処理部505を制御して、音オブジェクト画像を、HMD20のディスプレイ206に表示させる。一方、ステップS527において、音オブジェクトが表示領域A内を通過しないと判定された場合、ステップS528の処理はスキップされ、処理はステップS529に進められる。ステップS529において、描画・音制御部523は、音オブジェクトが終点に達したかどうかを判定する。ステップS529において、音オブジェクトが終点に達していないと判定された場合、処理はステップS526に戻され、それ以降の処理が繰り返される。
すなわち、ステップS526乃至S529の処理が繰り返されることで、図13の軌跡において、音オブジェクトは、始点となる位置P1から音の出力を開始し、その音の出力を継続しながら等速で、円筒座標系C上の位置P2乃至P7を移動して、位置P7に達したところで、音の出力を停止することになる。ただし、軌跡全体のうち、一部の区間(例えば位置P4乃至位置P5の区間等)は、音オブジェクトが表示領域A内を通過するため、ディスプレイ206の表示領域Aに、矢印などの音オブジェクト画像が表示される。
ステップS529において、音オブジェクトが終点、すなわち、位置P7に達したと判定された場合、処理は、ステップS530に進められる。ステップS530において、描画・音制御部523は、音処理部506を制御して、終点に達した音オブジェクトを消去する。
具体的には、図14に示すように、図中の上下方向を時間軸とした場合に、時刻t1において、音オブジェクトが位置P2にあるときには、円筒座標系Ct1に示すように、音オブジェクトObは、表示領域A外となるので、音の出力のみがなされ、音オブジェクト画像の表示はなされていない。その後、時刻t2において、音オブジェクトObが位置P5に移動したときには、円筒座標系Ct2に示すように、音オブジェクトObは、表示領域A内となるので、音の出力とともに、音オブジェクト画像の表示がなされる。なお、実際には、矢印の音オブジェクト画像が等速に移動して、表示領域Aを左から右方向に横切るような画像が表示されることになる。
これにより、ユーザ2の視界に音オブジェクト画像が入って、音オブジェクトObの移動速度が見えることになるため、ユーザ2は、音だけでなく、矢印の画像を視覚的に認識して、表示領域Aの右方向にターゲットTが存在することを直感的に理解することができる。
その後、時刻t3において、音オブジェクトObが位置P7に移動したときには、円筒座標系Ct3に示すように、音オブジェクトObは表示領域Aを通過して、その領域外となるので、音の出力のみがなされる。そして、音オブジェクトObが位置P7に達すると、時刻t4における円筒座標系Ct4に示すように、音オブジェクトは消去され、音の出力が停止されることになる。
これにより、ユーザ2は、表示領域A内を等速に移動する音オブジェクト画像を認識した後に、音オブジェクト画像が視界から外れてから、音が消えるまでの時間がわかるため、ターゲットTが、自分が今向いている方向からどれだけ右側の位置に存在するかを直感的に理解することができる。
図11のフローチャートに戻り、ステップS531においては、ユーザ2がターゲットTの位置の方向を向いたかどうかが判定される。ここでは、例えば、HMD20に設けられた各種のセンサのセンサ値を用い、音オブジェクトが位置P7に達して消去された後のユーザ2の顔の向きを算出することで、ユーザ2がターゲットTの位置の方向を向いたかどうかが判定される。ステップS531において、ユーザ2がターゲットTの位置の方向を向いていないと判定された場合、処理はステップS525に戻される。
そして、ステップS525乃至S531の処理が繰り返されることで、再度、音オブジェクトの音とその音オブジェクト画像によって、表示領域A外に存在するターゲットTの位置を指し示すための処理が行われ、ユーザ2がターゲットTの位置の方向を向いたと判定された場合、図11の音付ARオブジェクト対応処理1は終了する。また、ステップS521において、表示領域A外に示したいターゲットTが存在しないと判定された場合においても、図11の音付ARオブジェクト対応処理1は終了する。その後、処理は、図7のステップS506に戻り、それ以降の処理が繰り返される。
以上、音付ARオブジェクト対応処理1について説明した。音付ARオブジェクト対応処理1においては、音付ARオブジェクトを指定された位置(例えば音付ARオブジェクト等のターゲットTの位置)に向けて移動させながら、その音オブジェクトの音の出力を制御するとともに、音オブジェクトが表示領域A内を通る場合には、その音オブジェクト画像が表示領域A内に表示されることになる。その結果、表示領域A外に存在する位置を音と画像によって、より的確に示して、ユーザに気付かせることができる。
(音付ARオブジェクト対応処理2)
次に、図15のフローチャートを参照して、音付ARオブジェクト対応処理部507により実行される、図7のステップS506に対応する音付ARオブジェクト対応処理2について説明する。
ステップS541乃至S542においては、図11のステップS521乃至S522と同様に、HMD20のディスプレイ206における表示領域A外に示したいターゲットTが存在する場合、そのターゲットTの位置が指定される。ここでは、例えば、図16に示すように、円筒座標系Cにおける表示領域A外に存在するターゲットT(例えば、音付ARオブジェクト等)の位置が指定される。
図15のフローチャートに戻り、ステップS543乃至S544においては、図11のステップS523乃至S524と同様に、音オブジェクトの軌跡と音オブジェクト画像がそれぞれ設定される。ここでは、例えば、図17示すように、音オブジェクトの軌跡として、円筒座標系Cにおける位置P1乃至P7が設定される。図17の軌跡では、音オブジェクトが位置P1乃至P5を順次移動して、円筒座標系Cの中心にいるユーザ2にある程度近づいたあと、位置P5乃至P7を順次移動して、ユーザ2に対して右方向に移動することになる。図17では、位置P1乃至P5の軌跡のほか、位置P5乃至P6の軌跡の一部が表示領域A内となる。また、音オブジェクト画像としては、例えば、「!」(感嘆符)などを設定することができる。
図15のフローチャートに戻り、ステップS545において、描画・音制御部523は、音処理部506を制御して、円筒座標系C上の始点、すなわち、図17の軌跡における位置P1に音オブジェクトを生成する。音オブジェクトが生成されると、処理はステップS546に進められる。
ステップS546において、描画・音制御部523は、音オブジェクトの一時停止のタイミングであるかどうかを判定する。ステップS546において、音オブジェクトの一時停止のタイミングであると判定された場合、処理は、ステップS547に進められる。
ステップS547において、描画・音制御部523は、音処理部506を制御して、音オブジェクトの移動を一時的に停止させる。これにより、音オブジェクトは、軌跡上のある位置に止まることになる。そして、ステップS548において、一時的に停止している音オブジェクトの一時停止終了のタイミングであるかどうかが判定される。ステップS548において、一時停止終了のタイミングでないと判定された場合、ステップS548の判定処理が繰り返される。すなわち、この場合、音オブジェクトはある軌跡上のある位置に止まり続けることになる。
一方、ステップS548において、一時停止終了のタイミングであると判定された場合、処理はステップS549に進められる。また、ステップS546において、音オブジェクトの一時停止のタイミングではないと判定された場合、ステップS547乃至S548の処理はスキップされ、処理はステップS549に進められる。
ステップS549において、描画・音制御部523は、軌跡設定部522により設定された軌跡に従い、音処理部506を制御して、音オブジェクトを等速で移動させる。
ステップS550乃至S551においては、図11のステップS527乃至S528と同様に、音オブジェクトが表示領域A内を通過するかどうかが判定され、音オブジェクトが表示領域A内を通過する場合には、音オブジェクト画像が、HMD20のディスプレイ206に表示される。また、ステップS552において、描画・音制御部523は、音オブジェクトが終点に達したかどうかを判定する。ステップS552において、音オブジェクトが終点に達していないと判定された場合、処理はステップS546に戻され、それ以降の処理が繰り返される。
すなわち、ステップS546乃至S552の処理が繰り返されることで、図17の軌跡において、音オブジェクトは、始点となる位置P1から音の出力を開始し、その音の出力を継続しながら等速でその直線上の位置P2乃至P5を順次移動する。そして、位置P5に達したところで、一時停止して所定の期間その位置に止まる。その後、音オブジェクトは移動を再開して、直線の軌跡の終点となる位置P5から進行方向を、ターゲットTの方向に変えて、位置P5乃至P7を移動して、位置P7に達したところで、音の出力を停止することになる。
ただし、軌跡全体のうち、一部の区間(例えば位置P1乃至P5の区間等)は、ユーザ2から見て表示領域A内にあるため、音オブジェクトがそれらの区間上にある場合には、ディスプレイ206の表示領域Aに、音オブジェクト画像が表示され、さらに位置P5で一時的に停止することになる。これにより、例えば、音オブジェクト画像として感嘆符(「!」)が設定されている場合、ユーザは、自身に近づいてきたその感嘆符に注目する可能性が高くなるが、感嘆符が一時的に表示領域内に止まることで、その可能性をさらに高めることができる。
ステップS552において、音オブジェクトが終点、すなわち、位置P7に達したと判定された場合、処理は、ステップS553に進められる。ステップS553において、描画・音制御部523は、音処理部506を制御して、終点に達した音オブジェクトを消去する。
具体的には、図18に示すように、図中の上下方向を時間軸とした場合に、時刻t1において、音オブジェクトが位置P1にあるときには、円筒座標系Ct1に示すように、音オブジェクトObは、表示領域A内にあるので、音の出力とともに、音オブジェクト画像の表示がなされる。この場合、位置P1は、位置P5と比べてユーザ2と離れているため、感嘆符の音オブジェクト画像の表示は小さいものとなる。
その後、時刻t2において、音オブジェクトが位置P5に移動したときには、円筒座標系Ct2に示すように、音オブジェクトObは、表示領域A内にあるので、音の出力とともに、音オブジェクト画像の表示がなされる。この場合、位置P5は、位置P1と比べてユーザ2と近づいているため、感嘆符の音オブジェクト画像の表示は大きくなる。すなわち、実際には、音オブジェクトが位置P1乃至P5の軌跡を順次移動することで、表示領域A内に表示される感嘆符の音オブジェクト画像が徐々に拡大されることになる。これにより、ユーザ2は、音だけでなく、感嘆符の音オブジェクト画像を視覚的に認識して、表示領域A外にターゲットTが存在することを直感的に理解することができる。
また、その後、音オブジェクトは、直線の軌跡の終点となる位置P5から進行方向を、ターゲットTの方向に変えて、位置P5乃至P7を移動することになるが、位置P5乃至P6の区間の一部が表示領域A内に含まれている。したがって、ユーザ2からすれば、自身に近づいてきた感嘆符の音オブジェクト画像が一時的に停止したあと、右側に移動するように見えるので、表示領域Aの右側にターゲットTが存在することを直感的に理解することができる。
そして、時刻t3において、音オブジェクトObが位置P7に移動したときには、円筒座標系Ct3に示すように、音オブジェクトObは表示領域A外となるので、音の出力のみがなされる。そして、音オブジェクトObが位置P7に達すると、時刻t4における円筒座標系Ct4に示すように、音オブジェクトは消去され、音の出力が停止されることになる。
図15のフローチャートに戻り、ステップS553の処理により終点に達した音オブジェクトが消去されると、処理は、ステップS554に進められる。ステップS554においては、図11のステップS531と同様に、ユーザ2がターゲットTの位置の方向を向いたかどうかが判定される。ステップS554において、ユーザ2がターゲットTの位置の方向を向いていないと判定された場合、処理はステップS545に戻される。
そして、ステップS545乃至S554の処理が繰り返されることで、再度、音オブジェクトの音とその音オブジェクト画像によって、表示領域A外に存在するターゲットTを指し示すための処理が行われ、ユーザ2がターゲットTの位置の方向を向いたと判定された場合、図15の音付ARオブジェクト対応処理2は終了する。その後、処理は、図7のステップS506に戻り、それ以降の処理が繰り返される。
以上、音付ARオブジェクト対応処理2について説明した。音付ARオブジェクト対応処理2においては、音付ARオブジェクトを指定された位置(例えば音付ARオブジェクト等のターゲットTの位置)に向けて移動させながら、その音オブジェクトの音の出力を制御するとともに、音オブジェクトが表示領域A内を通る場合には、その音オブジェクト画像が表示領域A内に表示されることになる。また、表示領域A内の音オブジェクト画像を一時的に停止させることができるため、表示領域A外に存在する位置を音と画像によって、より的確に示して、確実に、ユーザに気付かせることができる。
(ARオブジェクト対応処理2)
次に、図19のフローチャートを参照して、AR処理部500により実行される、図6のステップS103に対応するARオブジェクト対応処理2について説明する。
ステップS561乃至S562においては、図7のステップS501乃至S502と同様に、HMD20の向きが算出され、さらに、HMD20におけるディスプレイ206の表示領域座標Aの座標が算出される。
ステップS563において、描画・音制御部523は、HMD向き算出部503からのHMD20の向きを示す情報に基づいて、音オブジェクト(ARオブジェクト)の高さを、HMD20の表示領域Aの中心高さに合わせる。
具体的には、図20に示すように、図中の上下方向を時間軸とした場合に、時刻t1においては、円筒座標系Ct1に示すように、音オブジェクトOb(ARオブジェクトOb)がターゲットTに向かって移動しているが、例えば、HMD20を頭部に装着したユーザ2が首を上下に振った場合、表示領域Aの中心高さが変化する。時刻t2において、ユーザ2は首を下に向けているため、円筒座標系Ct2に示すように、表示領域Aの中心高さが図中の下方向に移動しているが、音オブジェクトObの高さを表示領域Aの中心高さに合わせるようにする。また、時刻t3において、ユーザ2は首を上に向けているため、円筒座標系Ct3に示すように、表示領域Aの中心高さが図中の上方向に移動しているが、音オブジェクトObの高さを表示領域Aの中心高さに合わせるようにする。
このような制御を行うことで、音オブジェクトOb(ARオブジェクトOb)は、常に、HMD20の表示領域Aの中心高さと同じ高さに制御されることになるため、その結果、必ず一度は、音オブジェクトObが表示領域A内を通ることになって、ユーザ2は、首を上下に振った場合などであっても、矢印などの音オブジェクト画像を視覚的に認識することになる。
図19のフローチャートに戻り、ステップS564乃至S569においては、図7のステップS503乃至S508と同様に、表示領域Aのオーバーラップ部分の画像オブジェクトが描画され、ARオブジェクトが音付ARオブジェクトである場合には、図11又は図15の音付ARオブジェクト対応処理が行われる。
以上、ARオブジェクト対応処理2について説明した。ARオブジェクト対応処理2においては、音付ARオブジェクト対応処理を行うに際して、円筒座標系Cにおける音オブジェクト(ARオブジェクト)の高さを、HMD20のディスプレイ20の表示領域Aの中心高さに合わせるため、ユーザが首を振った場合などであっても、表示領域A外に存在する位置を、より的確に示して、ユーザに気付かせることができる。
なお、図20においては、音オブジェクトObが表示領域A内で上方や下方にずれている場合について説明したが、ARオブジェクト対応処理2は、音オブジェクトObが表示領域A外で、上方や下方にずれている場合にも適用することができる。例えば、HMD20を頭部に装着したユーザ2が首を上下に振ることで、表示領域Aの中心高さが変化し、音オブジェクトObが表示領域A外の上方や下方を移動する場合でも、音オブジェクトObの高さを表示領域Aの中心高さに合わせることができる。
これにより、例えばユーザ2の首が上下方向に大きく動くことで、音オブジェクトObが表示領域Aから大きく外れてしまっている場合でも、音オブジェクトObを、表示領域A内を横切らせることができるため、ユーザ2に対して、音オブジェクト画像を、的確に気付かせることができる。
また、図20においては、上方や下方にずれた音オブジェクトObの高さを、表示領域Aの中心高さに合わせる場合を説明したが、音オブジェクトObの高さは、表示領域Aの中心高さに限らず、音オブジェクトOb(音オブジェクト画像)が表示領域A内を通過できるのであれば、その高さは任意に設定することができる。
なお、図19のARオブジェクト対応処理2においては、例えば1秒に30回、ARオブジェクト1個ごとに処理が行われる。
(音オブジェクトの2方向移動)
上述した例では、1個の音オブジェクトの移動を制御することによって、ターゲットTの位置を示すようにしたが、複数個の音オブジェクトの移動を制御することで、ターゲットTの位置を示すようにしてもよい。
図21に示すように、ターゲットTの位置を示すための音オブジェクトとして、音オブジェクトOb1と音オブジェクトOb2を生成して、ターゲットTの位置を示すように移動を制御する。具体的には、図中の左右方向を時間軸とした場合に、時刻t1において、2個の音オブジェクトOb1,Ob2は、ユーザ2の左後方に位置している。その後、時刻t1から所定間隔時間経過後の時刻t2において、音オブジェクトOb1はユーザ2の正面に移動する一方、音オブジェクトOb2はユーザ2の右後方に移動している。また、時刻t2から所定間隔時間経過後の時刻t3において、2個の音オブジェクトOb1,Ob2は、ユーザ2の右前方のターゲットTの近傍に移動している。
このように、図21の例では、複数の音オブジェクトOb1,Ob2を生成して、一方の音オブジェクトOb1を時計回りでターゲットTの位置に向けて移動させつつ、他方の音オブジェクトOb2を反時計回りでターゲットTの位置に向けて移動させながら、それらの音オブジェクトの音の出力を制御する。ただし、音オブジェクトOb1の音と、音オブジェクトOb2の音としては離散的な音をそれぞれ与えて、音を出力するタイミングをずらすことで、それらの音を独立に再生することができる。つまり、音オブジェクトOb1と音オブジェクトOb2の音が同一の場合に、音の立体化を識別し難くなることは知られているが、例えば、周波数やテンポ、音楽のジャンルなどを変更することでも、複数の音オブジェクトの音を独立して再生させることが可能となる。
これにより、複数の音オブジェクトがターゲットTの位置に向けて移動する際に、ユーザ2の前後、左右、又は上下など、ユーザ2の両側を移動することになるため、例えば、ユーザ2が動いて、HMD20の表示領域Aが円筒座標系C上を移動した場合でも、音オブジェクト画像を、確実に表示領域A内に通過させることができる。
<描画処理の詳細>
(AR描画パス)
図22は、ARオブジェクトの描画パスの例を示す図である。
図22に示すように、描画処理部505においては、画像オブジェクト処理部551−1乃至551−n(nは1以上の整数)が設けられており、1又は複数のARオブジェクトに含まれる画像オブジェクトに対する描画処理が行われる。具体的には、画像オブジェクト処理部551−1は、オーバーラップ検出部561−1及び描画部562−1から構成される。
オーバーラップ検出部561−1には、ARオブジェクト1乃至nのうち、ARオブジェクト1に含まれる画像オブジェクトの座標情報と、表示領域情報が入力される。オーバーラップ検出部561−1は、画像オブジェクトの座標情報と、表示領域情報に基づいて、表示領域Aと対象の画像オブジェクト(ARオブジェクト1)のオーバーラップ部分を検出し、その検出結果をオーバーラップ情報として、描画部562−1に供給する。
描画部562−1は、オーバーラップ検出部561−1からのオーバーラップ情報に基づいて、ディスプレイ206の表示領域Aに、オーバーラップ部分の画像オブジェクトを描画する。
画像オブジェクト処理部551−2乃至551−nは、画像オブジェクト処理部551−1と同様に構成される。すなわち、画像オブジェクト処理部551−2乃至551−nにおいては、各ARオブジェクトに含まれる画像オブジェクトごとに、表示領域Aとのオーバーラップ部分を描画する処理が行われる。ただし、ARオブジェクトが複数存在する場合には、Mix部552によるミックス処理が施された後で、HMD20のディスプレイ206に出力されることになる。
<音処理の詳細>
(VPTの概要)
HMD20のヘッドホン207によって、上述したような音オブジェクトの音の出力を実現するためには、バーチャルサラウンド技術を用いることになる。本技術では、このようなバーチャルサラウンド技術として、VPT(ソニー株式会社の登録商標)を利用するのが好適である。VPT(Virtualphones Technology)は、図23に示すように、音をユーザの頭内ではなく、頭外に定位させて、あたかも前方や後方に配置したスピーカから、音が自然に再生されているような音場を作り出すことができる。
具体的には、図24に示すように、VPTでは、音源から両耳までの伝達特性として、頭部伝達関数(HRTF:Head Related Transfer Function)を測定して、入力信号に測定されたHRTFを畳み込むことで、ヘッドホン再生でありながら、例えば5.1chや7.1chをスピーカで聴いているときと同じような音場を実現することができる。以下、VPTを適用した本技術の音処理について説明する。ただし、VPTとしては、7chサラウンド(0.1chのサブウーハーは使用しない)を適用するものとする。
(第1の音声パス)
図25は、ARオブジェクトの第1の音声パスを説明するための図である。
図25に示すように、音処理部506においては、音オブジェクト処理部571−1乃至571−n(nは1以上の整数)が設けられており、1又は複数のARオブジェクトに含まれる音オブジェクトに対する音処理が行われる。具体的には、音オブジェクト処理部571−1は、VPTフィルタ算出処理部581−1及びVPT処理部582−1から構成される。
VPTフィルタ算出処理部581−1には、ARオブジェクト1乃至nのうち、ARオブジェクト1のオブジェクト方向情報が入力される。オブジェクト方向情報は、HMD20を装着したユーザ2を基準にしたときの音オブジェクトの方向を示すものであって、例えば、図10の差分角度に相当する情報を用いることができる。
VPTフィルタ算出処理部581−1は、ARオブジェクト1のオブジェクト方向情報に基づいて、VPTフィルタ値を算出し、VPT処理部582−1に供給する。例えば、このVPTフィルタ値には、7chサラウンドのVPTを用いる場合、音オブジェクトのすべての位置により近くに配置されるように、ファントム処理などを実行して、7chのうち、複数のchに音情報を与えるような値が求められる。ただし、VPTフィルタ値には、必要に応じて表示領域Aの座標が反映されるようにしてもよい。
VPT処理部582−1は、VPTフィルタ算出処理部581−1からVPTフィルタ値が供給された場合、VPTフィルタ値を更新する。例えば、オブジェクト方向情報は、1秒間に30回算出されるので、その間隔に応じてVPTフィルタ値が算出され、更新される。また、VPT処理部582−1には、ARオブジェクト情報取得部502から、音オブジェクトの音声ストリームが供給される。VPT処理部582−1は、VPTフィルタ値に従い、入力信号としての音声ストリームに、HRTFを畳み込む。VPT処理後の音声ストリームは、Mix部572に供給される。例えば、7chサラウンドのVPTを用いる場合には、入力信号に、7chのHRTF係数をかけて、これらを畳み込むことで、2chの出力を得ることができる。
音オブジェクト処理部571−2乃至571−nは、音オブジェクト処理部571−1と同様に構成される。すなわち、音オブジェクト処理部571−2乃至571−nにおいては、各ARオブジェクトに含まれる音オブジェクトの音声ストリームごとに、VPTフィルタ値に応じたVPT処理が施される。これにより、Mix部572には、ARオブジェクト2乃至nのVPT処理後の音声ストリームが供給される。Mix部572は、VPT処理後の音声ストリーム1乃至nに対して、ミックス処理を施し、HMD20のヘッドホン207に出力する。例えば、音声ストリームは、wavファイル形式の波形からなり、VPT処理後の音声信号の波形がヘッドホン207により再生されることになる。
(基本形の音処理)
図26は、第1の音声パスにおける基本形の音処理を説明するための図である。
図26に示すように、7.1chサラウンドでは、サブウーハーを使用しない場合、スピーカの位置は、C,L,R,SL,SR,SBL,SBRの7箇所となる。すなわち、7chサラウンドでは、円の中心に位置するユーザ2の正面に、センタスピーカ(C)が配置され、前方から左右30°の位置には、フロントスピーカ(L,R)が配置される。また、前方から左右75°には、サラウンドスピーカ(SL,SR)が配置され、さらに前方から左右145°には、サラウンドバックスピーカ(SBL,SBR)が配置される。これらのスピーカのそれぞれが、左耳用と右耳用のHRTFを有している。
ここで、図26に示すように、ARオブジェクト1に含まれる音オブジェクトの軌跡として、位置Pa(始点)から位置Pe(終点)まで、位置Pg,位置Pfを順に通過する軌跡が設定された場合を想定する。この場合、音オブジェクトの位置と、7chサラウンドのスピーカの配置とは、ほぼ一致しているため、1方向に移動する音オブジェクトに対し、その位置に対応するスピーカのHRTFを割り当てればよい。
具体的には、時刻t1(1順目)において、VPTフィルタ算出処理部581−1は、オブジェクト方向情報に従い、位置Pa,すなわち、7chサラウンドのSL-ch(a)のHRTFを使用することを決定し、VPT処理部582−1のVPTフィルタ値を更新する。ただし、位置Pb乃至Pgに相当するチャンネルには無音が割り当てられる。VPT処理部582−1は、VPTフィルタ値に従い、音声信号として入力されるwavファイル形式の波形(例えば「ピ」音)に、SL-ch(a)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSL-ch(a)の右耳用のHRTFが畳み込まれる。この基本形の音処理の例では、音オブジェクトが1方向のみであり、音声パスは1本となるので、Mix部572は、VPT処理部582−1によるVPT処理後の音声信号を、ヘッドホン207に出力する。これにより、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
次に、時刻t1から所定の間隔時間経過後の時刻t2(2順目)において、オブジェクト方向情報が、位置Pgを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのSBL-ch(g)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−1においては、VPTフィルタ値に従い、音声信号にSBL-ch(g)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、SBL-ch(g)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
次に、時刻t2から所定の間隔時間経過後の時刻t3(3順目)において、オブジェクト方向情報が、位置Pfを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのSBR-ch(f)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−1においては、VPTフィルタ値に従い、音声信号にSBR-ch(f)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、SBR-ch(f)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
そして、時刻t3所定の間隔時間経過後の時刻t4(4順目)において、オブジェクト方向情報が、位置Peを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのSR-ch(e)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−1においては、VPTフィルタ値に従い、音声信号にSR-ch(e)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、SR-ch(e)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
このような一連の処理が行われることで、HMD20のヘッドホン207で再生される音(出力)は、2chのヘッドホンを使用しているのにも関わらず、あたかも、位置Pa,位置Pg,位置Pf,位置Peの立体位置に、「ピ」音が順に移動するかのように聴くことができる。なお、音オブジェクトの音情報として与えられる「ピ」音は一例であり、他の単発音を用いるようにしてもよい。
(2方向移動の音処理)
図27は、第1の音声パスにおける2方向移動の音処理を説明するための図である。
図27に示すように、ARオブジェクト1に含まれる音オブジェクト1の軌跡として、位置Pa(始点)から位置Pe(終点)まで、位置Pb,位置Pdを順に通過する第1の軌跡と、ARオブジェクト2に含まれる音オブジェクト2の軌跡として、位置Pa(始点)から位置Pe(終点)まで、位置Pg,位置Pfを順に通過する第2の軌跡が設定された場合を想定する。この場合、第1の軌跡及び第2の軌跡における音オブジェクト1,2の位置と、7chサラウンドのスピーカの配置とは、ほぼ一致しているため、2方向に移動する音オブジェクト1,2に対し、その位置に対応するスピーカのHRTFを割り当てればよい。ただし、第1の軌跡における音の出力タイミングと、第2の軌跡における音の出力タイミングは、ずらして出力するものとする。
具体的には、時刻t1(1順目)において、オブジェクト方向情報が、第1の軌跡と第2の軌跡の始点となる位置Paを示している場合、VPTフィルタ算出処理部581−1,581−2は、7chサラウンドのSL-ch(a)のHRTFを使用することを決定し、VPTフィルタ値を更新する。ただし、位置Pb乃至Pgに相当するチャンネルには無音が割り当てられる。VPT処理部582−1,582−2においては、VPTフィルタ値に従い、音声信号にSL-ch(a)の左耳用のHRTFが畳み込まれる。また、同様にして、別途、音声信号にSL-ch(a)の右耳用のHRTFが畳み込まれる。この2方向移動の音処理の例では、音オブジェクトの音声パスは2本となるので、Mix部572は、VPT処理部582−1,582−2によるVPT処理後の音声信号のうち、一方の音声信号を交互に選択して、HMD20のヘッドホン207に出力する。これにより、例えば、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
次に、時刻t1から所定の間隔時間経過後の時刻t2(2順目)において、オブジェクト方向情報が、位置Pbを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのL-ch(b)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−1においては、VPTフィルタ値に従い、音声信号にL-ch(b)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、L-ch(b)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
次に、時刻t1から所定の間隔時間経過後の時刻t3(3順目)において、オブジェクト方向情報が、位置Pgを示している場合、VPTフィルタ算出処理部581−2は、7chサラウンドのSBL-ch(g)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−2においては、VPTフィルタ値に従い、音声信号にSBL-ch(g)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、SBL-ch(g)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
次に、時刻t2から所定の間隔時間経過後の時刻t4(4順目)において、オブジェクト方向情報が、位置Pdを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのR-ch(d)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−1においては、VPTフィルタ値に従い、音声信号にR-ch(d)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、R-ch(d)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
次に、時刻t3から所定の間隔時間経過後の時刻t5(5順目)において、オブジェクト方向情報が、位置Pfを示している場合、VPTフィルタ算出処理部581−2は、7chサラウンドのSBR-ch(f)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−2においては、VPTフィルタ値に従い、音声信号にSBR-ch(f)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、SBR-ch(f)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
そして、時刻t4,t5から所定の間隔時間経過後の時刻t6(6順目)において、オブジェクト方向情報が、位置Peを示している場合、VPTフィルタ算出処理部581−1,581−2は、7chサラウンドのSR-ch(e)のHRTFを使用することを決定し、VPTフィルタ値を更新する。VPT処理部582−1,582−2においては、VPTフィルタ値に従い、音声信号にSR-ch(e)のHRTFが畳み込まれる。これにより、HMD20のヘッドホン207では、SR-ch(e)のHRTFを適用したVPT処理後の音声信号の波形が再生される。
このような一連の処理が行われることで、HMD20のヘッドホン207で再生される音(出力)は、2chのヘッドホンを使用しているのにも関わらず、あたかも、位置Pa,位置Pb,位置Pd,位置Peの立体位置に、「ピ」音が順に移動し、さらに、位置Pa,位置Pg,位置Pf,位置Peの立体位置に、「ピ」音が順に移動するかのように聴くことができる。なお、音オブジェクトの音情報として与えられる「ピ」音は一例であり、他の単発音を用いるようにしてもよい。
(中間位置の音処理)
図28は、第1の音声パスにおける中間位置の音処理を説明するための図である。
図28に示すように、音オブジェクトの軌跡として、位置Pa(始点)から位置Pe(終点)まで、位置Pg,位置Pfを順に通過する軌跡が設定された場合を想定する。この場合において、例えば音情報が「ピー」のような連続音である場合などに、それらの位置の中間位置での音を出力可能にすることで、位置Pa,位置Pg,位置Pf,位置Peごとの散発位置と比べて、音オブジェクトを連続的に移動させることができる。
具体的には、時刻t1(1順目)において、オブジェクト方向情報が、軌跡の始点となる位置Paを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのSL-ch(a)のHRTFを使用することを決定し、VPTフィルタ値を更新する。ただし、位置Pb乃至Pgに相当するチャンネルには無音が割り当てられる。VPT処理部582−1においては、VPTフィルタ値に従い、音声信号にSL-ch(a)の左耳用のHRTFが畳み込まれる。また、同様にして、別途、音声信号にSL-ch(a)の右耳用のHRTFが畳み込まれる。この中間位置の音処理の例では、音オブジェクトが1方向のみであり、音声パスは1本となるので、Mix部572は、VPT処理部582−1によるVPT処理後の音声信号を、HMD20のヘッドホン207に出力する。これにより、例えば、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
次に、時刻t1から所定の間隔時間経過後の時刻t2(2順目)において、オブジェクト方向情報が、位置Paと位置Pgとの中間位置である位置Pxを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのSL-ch(a)のHRTFとSL-ch(g)のHRTFを使用することを決定し、VPTフィルタ値を更新する。ただし、位置Pb乃至Pfに相当するチャンネルには無音が割り当てられる。VPT処理部582−1は、VPTフィルタ値に従い、音声信号として入力されるwavファイル形式の波形(例えば「ピ」音)に、SL-ch(a)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSL-ch(a)の右耳用のHRTFが畳み込まれる。さらに、VPT処理部582−1は、VPTフィルタ値に従い、音声信号として入力されるwavファイル形式の波形(例えば「ピ」音)に、SL-ch(g)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSL-ch(g)の右耳用のHRTFが畳み込まれる。
ただし、SL-ch(a)とSL-ch(g)の両者のゲインであるが、位置Pxが、位置Paと位置Pgの中間位置となるので、同一のゲインを与えるようにする。例えば、SL-ch(a)の値を0.7倍し、SL-ch(g)の値を0.7倍することで、それらを合成して得られる出力は、位置Pa単発と同等とすることができる。これにより、HMD20のヘッドホン207では、SL-ch(a)とSL-ch(g)のHRTFを適用したVPT処理後の音声信号の波形が再生され、位置Paと位置Pgとの中間位置である位置Pxからも「ピ」音を聴くことができる。
以降、図26の基本形の音処理と同様に、位置Pg,位置Pf,位置PeにおけるVPT処理が行われるが、中間位置の音処理においては、位置Pgと位置Pfの中間位置、及び、位置Pfと位置Peの中間位置においても、中間位置である位置Pxと同様のVPT処理が行われ、それらの中間位置からも「ピ」音を聴くことができる。
このような一連の処理が行われることで、HMD20のヘッドホン207で再生される音(出力)は、2chのヘッドホンを使用しているのにも関わらず、あたかも、位置Pa,位置Pg,位置Pf,位置Peの立体位置だけでなく、さらに、それらの位置の中間位置においても音が順に移動して、「ピ」音が連続的に移動するかのように聴くことができる。
(連続音の音処理)
図29は、第1の音声パスにおける連続音の音処理を説明するための図である。
図29に示すように、音オブジェクトの軌跡として、位置Pa(始点)から位置Pe(終点)まで、位置Pg,位置Pfを順に通過する軌跡が設定された場合を想定する。この場合において、例えば音情報が「ピー」のような連続音である場合などに、それらの位置の各区間においても音を出力可能にすることで、位置Pa,位置Pg,位置Pf,位置Peごとの散発位置と比べて、音オブジェクトを連続的に移動させることができる。
具体的には、時刻t1(1順目)において、オブジェクト方向情報が、軌跡の始点となる位置Paを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのSL-ch(a)のHRTFを使用することを決定し、VPTフィルタ値を更新する。ただし、位置Pb乃至Pgに相当するチャンネルには無音が割り当てられる。VPT処理部582−1においては、VPTフィルタ値に従い、音声信号にSL-ch(a)の左耳用のHRTFが畳み込まれる。また、同様にして、別途、音声信号にSL-ch(a)の右耳用のHRTFが畳み込まれる。この中間位置の例では、音オブジェクトが1方向のみであり、音声パスは1本となるので、Mix部572は、VPT処理部582−1によるVPT処理後の音声信号を、HMD20のヘッドホン207に出力する。これにより、例えば、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
次に、時刻t1から所定の間隔時間経過後の時刻t2(2順目)において、オブジェクト方向情報が、位置Pgを示している場合、VPTフィルタ算出処理部581−1は、7chサラウンドのSL-ch(a)とSBL-ch(g)のHRTFを使用することを決定し、VPTフィルタ値を更新する。ただし、位置Pb乃至Pfに相当するチャンネルには無音が割り当てられる。VPT処理部582−1は、VPTフィルタ値に従い、音声信号として入力されるwavファイル形式の波形(例えば「ピ」音)に、SL-ch(a)の左耳用のHRTFを畳み込む。さらに、VPT処理部582−1は、VPTフィルタ値に従い、音声信号として入力されるwavファイル形式の波形(例えば「ピ」音)に、SBL-ch(g)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSL-ch(a)の右耳用のHRTFとSBL-ch(g)の右耳用のHRTFが畳み込まれる。
ここで、位置Pa乃至Pgにおける、SL-ch(a)とSBL-ch(g)の両者のゲインの比率であるが、例えば、SL-ch(a)のレベルを、最大値から最小値に推移させる一方、SBL-ch(g)のレベルを最小値から最大値に推移させるなどして、両者のゲインの比率が相互に変更されるようにする。これにより、HMD20のヘッドホン207では、VPT処理後の音声信号の波形が再生され、位置Pa乃至Pgの区間において、「ピー」の連続音を聴くことができる。
以降、図26の基本形の音処理と同様に、位置Pg,位置Pf,位置PeにおけるVPT処理が行われるが、連続音の音処理においては、それらの位置の各区間において、位置Pa乃至Pgの区間と同様のVPT処理が行われ、位置Pg乃至Pfの区間と、位置Pf乃至Peの区間においても、「ピー」の連続音を聴くことができる。すなわち、始点から終点までの全ての区間において、「ピー」の音が連続的に移動するかのように聴くことができる。
なお、上述した連続音の音処理では、例えば位置Pgにおいて1つ前の位置Paのチャンネルの情報を用いて位置Pa乃至Pgの区間の連続音を出力するようにしたが、次の位置Pfのチャンネルの情報を得ることができるのであれば、その情報を用い、位置Pa乃至Pgの区間の連続音を出力するようにしてもよい。これにより、ユーザ2は、さらに好適に音が連続的に移動するかのように聴くことができる。
(第2の音声パス)
図30は、ARオブジェクトの第2の音声パスを説明するための図である。
図30に示すように、音処理部506は、対応ch制御部591、HRTF処理部592、及び、2ch化部593から構成される。
対応ch制御部591には、ARオブジェクト1乃至n(nは1以上の整数)の情報が入力される。対応ch制御部591は、複数のARオブジェクトの情報が入力された場合、各ARオブジェクトの情報に従い、所定のチャンネルにミックス音を生成して配置する。また、対応ch制御部591は、使用するHRTFを決定し、HRTF処理部592に供給する。
HRTF処理部592は、対応ch制御部591から供給されるHRTFに従い、音声信号の波形に、HRTFを畳み込む。2ch化部593は、HRTF処理部592からの音声信号を最終出力チャンネル数に応じて2ch化して、HMD20のヘッドホン207に出力する。
なお、対応ch制御部591は、各チャンネル間を移動するファイル(例えばwav形式のファイル)をあらかじめ用意して、これを所定のタイミングで再生することで、HRTF処理部592によって、各チャンネルのHRTFを畳み込み、2ch化部593によって、2ch化されるようにしてもよい。
(基本形の音処理)
図31は、第2の音声パスにおける基本形の音処理を説明するための図である。
図31に示すように、音オブジェクトの軌跡として、位置Pa(始点)から位置Pe(終点)まで、位置Pg,位置Pfを順に通過する軌跡が設定された場合を想定する。この場合、音オブジェクトの位置と、7chサラウンドのスピーカの配置とは、ほぼ一致しているため、1方向に移動する音オブジェクトに対し、その位置に対応するスピーカのHRTFを割り当てればよい。
具体的には、時刻t1(1順目)において、対応ch制御部591は、オブジェクト方向情報に従い、位置Pa,すなわち、7chサラウンドのSL-ch(a)のHRTFを使用することを決定し、その他の位置Pb乃至Pgに相当するチャンネルには無音を割り当てる。ただし、この例では、ARオブジェクトが1つ(1方向のみ)であるため、さらに足されることはない。続いて、HRTF処理部592は、音声信号として入力されるwavファイル形式の波形(例えば「ピ」音)に、SL-ch(a)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSL-ch(a)の右耳用のHRTFが畳み込まれる。そして、2ch化部593は、7chからなる音声信号を、最終出力チャンネル数に応じて2ch化して、HMD20のヘッドホン207に出力する。これにより、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
次に、時刻t1から所定の間隔時間経過後の時刻t2(2順目)において、オブジェクト方向情報が、位置Pgを示している場合、対応ch制御部591は、7chサラウンドのSBL-ch(g)のHRTFを使用することを決定する。続いて、HRTF処理部592は、音声信号として入力されるwavファイル形式の波形に、SBL-ch(g)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSBL-ch(g)の右耳用のHRTFが畳み込まれる。そして、2ch化部593は、7chからなる音声信号を2ch化することで、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
次に、時刻t2から所定の間隔時間経過後の時刻t3(3順目)において、オブジェクト方向情報が、位置Pfを示している場合、対応ch制御部591は、7chサラウンドのSBR-ch(f)のHRTFを使用することを決定する。続いて、HRTF処理部592は、音声信号として入力されるwavファイル形式の波形に、SBR-ch(f)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSBR-ch(f)の右耳用のHRTFが畳み込まれる。そして、2ch化部593は、7chからなる音声信号を2ch化することで、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
そして、時刻t3所定の間隔時間経過後の時刻t4(4順目)において、オブジェクト方向情報が、位置Peを示している場合、対応ch制御部591は、7chサラウンドのSR-ch(e)のHRTFを使用することを決定する。続いて、HRTF処理部592は、音声信号として入力されるwavファイル形式の波形に、SR-ch(e)の左耳用のHRTFを畳み込む。また、同様にして、別途、音声信号にSR-ch(e)の右耳用のHRTFが畳み込まれる。そして、2ch化部593は、7chからなる音声信号を2ch化することで、HMD20のヘッドホン207によって、VPT処理後の音声信号の波形が再生される。
このような一連の処理が行われることで、HMD20のヘッドホン207で再生される音(出力)は、2chのヘッドホンを使用しているのにも関わらず、あたかも、位置Pa,位置Pg,位置Pf,位置Peの立体位置に、「ピ」音が順に移動するかのように聴くことができる。
(変形例)
上述した音処理においては、音オブジェクトを等速で移動させる例について説明したが、音オブジェクトは必ずしも等速で移動させる必要はない。つまり、ユーザ2が好適に音の移動を聴くことができればよいのであって、音オブジェクトの移動速度を可変とすることもできる。
また、上述したように、音情報として与えられる「ピ」音は一例であって、他の単発音を用いることができるが、他の単発音だけに限定されず、さらにその他の複合音などであってもよい。要は、ユーザ2が、好適に音の移動を聴くことができればよい。
さらに、図15の音付ARオブジェクト対応処理2においては、ステップS543の処理で、音オブジェクトの軌跡として、図17に示した軌跡を設定するとして説明した。この図17の軌跡では、音オブジェクトが、左右方向以外の位置P1乃至P5を順次移動して、円筒座標系Cの遠方から近方に移動することになる。このとき、音オブジェクトは水平方向には移動していないが、音処理によって、位置に応じて音の大きさなどを変更することができる。
例えば、図17において、遠方の位置P1の音量を1.0とした場合に、位置P2の音量を位置P1の音量の1.1倍、位置P3の音量を位置P1の音量の1.2倍、位置P4の音量を位置P1の音量の1.3倍、位置P5の音量を位置P1の音量の1.4倍とすることができる。また、例えば、図17において、遠方の位置P1におけるHRTF残響量(図24)に対して、位置P2,P3,P4,P5と近接するごとに、徐々に残響量を減らすようにしてもよい。このような音処理を行うことで、例えば、ユーザ2に対して、音が近づいてくるような印象を与えることができる。なお、この音処理は一例であって、ユーザ2が、好適に音の移動を聴くことができるような音処理であれば、他の音処理を適用することができる。
また、上述したVPTの7chサラウンドにおいては、音オブジェクトを水平方向に移動させる構成を説明したが、例えばフロントスピーカ(L,R)の真上の位置に、フロントハイスピーカ(L(FH),R(FH))を配置するなど、上方向にVPT構成をとることで、水平方向のみならず、垂直方向にも音オブジェクトを移動させる構成を採用することができる。またさらに、上述した7ch以上の多チャンネルとし、それらのVPT構成をとることで、より立体的に音オブジェクトを構成することもできる。
例えば、フロントハイスピーカを配置して、音オブジェクトを垂直方向に移動可能とした場合に、ユーザ2が首を上下に振ることなどによって、音オブジェクトが表示領域A外の上方や下方を移動するときには、図20に示したように、音オブジェクトの高さを、HMD20の表示領域Aの中心高さなどに合わせる制御が行われることなる。
上述した図20の例の場合、音オブジェクトとその音オブジェクト画像の両方が、表示領域Aの中心付近に移動されることになるが、音オブジェクトの高さはそのままに、音オブジェクト画像のみを表示領域A内に移動させるようにしてもよい。すなわち、音オブジェクトとその音オブジェクト画像を分離して、音オブジェクトが表示領域A外の上方や下方を移動するような音処理を行う一方、その音オブジェクトの移動に伴い、音オブジェクト画像が表示領域A内を通過するようにする。このとき、表示領域A内を横切る音オブジェクト画像としては、例えば、矢印などの音オブジェクト画像そのものを表示してもよいが、音オブジェクトの高さに応じた矢印の影などを表示することで、ユーザ2は、音の移動を、より立体的に捉えることができる。
このように、音オブジェクトの音の出力位置は、表示領域A内を通過する音オブジェクト画像の表示位置と同一にしてもよいし、異なるようにしてもよい。
<具体的な運用例>
次に、図32及び図33を参照しながら、図1のARシステム1の具体的な運用例を説明する。
図32には、運用例1として、ARシステム1によって、地図検索用のアプリケーションを提供する場合を示している。例えば、地図検索用のアプリケーションによって、北の方向を指し示すように指示された場合、ターゲットTの位置として北の方向が指定される。そして、図中の右側の円筒座標系Cを上方から見た図に示すように、所定の始点からターゲットT(北の方向)の位置に向けて、音オブジェクトOb1,Ob2が、ユーザ2の両側をそれぞれ移動して、ターゲットTの位置の近傍に到達することになる。ただし、図中の左側の画面に示すように、音オブジェクトによる音の出力とともに、音オブジェクトOb1が表示領域Aを通過する場合には、矢印からなる音オブジェクト画像が表示されることになる。
このように、例えば、北の方向を誘導するための音の出力とともに、北の方向を指し示す矢印の画像が表示領域A内を横切るため、ユーザ2に対して、より直感的な位置情報を提供することができる。
図33は、運用例2として、ARシステム1によって、SNS(Social Networking Service)アプリケーションを提供する場合を示している。例えば、SNSアプリケーションを起動中に、ユーザ2の現在位置付近で、他のユーザによるつぶやきが行われた場合、ターゲットTの位置として、他のユーザがつぶやきを行った位置が指定される。すると、時刻t1において、音オブジェクトObの音を伴い、その音オブジェクト画像としての通知アイコンが表示領域A内に表示される。そして、時刻t1から所定間隔時間経過後の時刻t2,t3において、音オブジェクトObは、つぶやきのあった位置に向かって音を出力しながら移動するが、表示領域A内を移動している場合には、通知アイコンからなる音オブジェクト画像が表示されることになる。
このように、例えば、あるイベントに参加している他のユーザが、イベントに関するつぶやきを行った場合に、ARオブジェクトによる音と通知アイコンによって、そのつぶやいた場所が指し示されるので、ユーザ2は即座にその場所に移動して、イベントに参加することが可能となる。
<本技術を適用したコンピュータの説明>
前述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
また、コンピュータ(CPU)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディアに記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線又は無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディアをドライブに装着することにより、入出力インターフェースを介して、記録部にインストールすることができる。また、プログラムは、有線又は無線の伝送媒体を介して、通信部で受信し、記録部にインストールすることができる。その他、プログラムは、ROMや記録部に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
ここで、本明細書において、コンピュータに各種の処理を行わせるためのプログラムを記述する処理ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はなく、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含むものである。
また、プログラムは、1のコンピュータにより処理されるものであってもよいし、複数のコンピュータによって分散処理されるものであってもよい。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであってもよい。
さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
なお、本技術の実施の形態は、前述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
また、前述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。
なお、本技術は、以下のような構成をとることができる。
(1)
画像を表示する画像表示部と、
音を出力する音出力部と、
前記画像表示部における表示領域外の位置を指定する位置指定部と、
AR(Augmented Reality)オブジェクトを指定した前記位置に向けて移動させながら、前記ARオブジェクトの音の出力を制御する制御部と
を備える情報処理装置。
(2)
前記制御部は、前記ARオブジェクトが前記画像表示部における表示領域内を通る場合、前記ARオブジェクトの画像を表示させる
(1)に記載の情報処理装置。
(3)
前記ARオブジェクトは、複数存在している
(1)又は(2)に記載の情報処理装置。
(4)
前記制御部は、前記ARオブジェクトを指定した前記位置に向けて移動させる際に、ユーザの両側を移動させる
(3)に記載の情報処理装置。
(5)
前記制御部は、複数の前記ARオブジェクトの音を、タイミングをずらして出力する
(3)又は(4)に記載の情報処理装置。
(6)
前記画像表示部の向きを検出する検出部をさらに備え、
前記制御部は、前記画像表示部の向きに応じて、前記ARオブジェクトを移動させる
(1)又は(2)に記載の情報処理装置。
(7)
前記制御部は、前記ARオブジェクトの画像が前記表示領域内に表示されるように、前記ARオブジェクトを移動させる
(6)に記載の情報処理装置。
(8)
前記制御部は、前記ARオブジェクトの音の出力位置を、前記表示領域内の前記ARオブジェクトの画像の表示位置と同一になるようにする
(7)に記載の情報処理装置。
(9)
前記制御部は、前記ARオブジェクトの音の出力位置を、前記表示領域内の前記ARオブジェクトの画像の表示位置と異なるようにする
(7)に記載の情報処理装置。
(10)
前記情報処理装置は、左眼用と右眼用の一対の前記画像表示部を有する眼鏡型デバイスである
(1)に記載の情報処理装置。
(11)
情報処理装置の情報処理方法において、
前記情報処理装置が、
画像表示部における表示領域外の位置を指定し、
ARオブジェクトを指定した前記位置に向けて移動させながら、音出力部からの前記ARオブジェクトの音の出力を制御する
ステップを含む情報処理方法。
(12)
コンピュータを、
画像表示部における表示領域外の位置を指定する位置指定部と、
ARオブジェクトを指定した前記位置に向けて移動させながら、音出力部からの前記ARオブジェクトの音の出力を制御する制御部と
して機能させるためのプログラム。
1 ARシステム, 10 コントロールボックス, 20 HMD, 30 スマートフォン, 40 ARサーバ, 101 CPU, 107 接続部, 108 無線通信部, 201 接続部, 203 地磁気センサ, 204 ジャイロセンサ, 205 加速度センサ, 206 ディスプレイ, 207 ヘッドホン, 301 CPU, 309 無線通信部, 310 携帯通信部, 401 CPU, 409 通信部, 410 ARオブジェクト保持部, 500 AR処理部, 501 センサ値取得部, 502 ARオブジェクト情報取得部, 503 HMD向き算出部, 504 表示領域座標算出部, 505 描画処理部, 506 音処理部, 507 音付ARオブジェクト対応処理部, 521 表示領域外位置指定部, 522 軌跡設定部, 523 描画・音制御部

Claims (3)

  1. 音を出力する音出力部と、
    ユーザの視覚領域を示す領域情報を取得する領域情報取得部と、
    前記ユーザの視覚領域外の位置を指定する位置指定部と、
    前記ユーザの視覚領域内の位置から前記位置指定部によって指定された指定位置の範囲内で音像定位処理を行う制御部と
    を備え、
    前記制御部は、前記ユーザの位置を角度の頂点とする前記ユーザの視覚領域内の位置から前記指定位置との範囲内に基づいて音像定位処理を行う
    情報処理装置。
  2. 情報処理装置が、
    音を出力し、
    ユーザの視覚領域を示す領域情報を取得し、
    前記ユーザの視覚領域外の位置を指定し、
    前記ユーザの視覚領域内の位置から指定された指定位置の範囲内で音像定位処理を行うに際し、前記ユーザの位置を角度の頂点とする前記ユーザの視覚領域内の位置から前記指定位置との範囲内に基づいて音像定位処理を行う
    情報処理方法。
  3. コンピュータを、
    音を出力する音出力部と、
    ユーザの視覚領域を示す領域情報を取得する領域情報取得部と、
    前記ユーザの視覚領域外の位置を指定する位置指定部と、
    前記ユーザの視覚領域内の位置から前記位置指定部によって指定された指定位置の範囲内で音像定位処理を行う制御部と
    を備え、
    前記制御部は、前記ユーザの位置を角度の頂点とする前記ユーザの視覚領域内の位置から前記指定位置との範囲内に基づいて音像定位処理を行う
    情報処理装置として機能させるためのプログラム。
JP2019198778A 2013-11-05 2019-10-31 情報処理装置、情報処理方法、及び、プログラム Pending JP2020024744A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013229121 2013-11-05
JP2013229121 2013-11-05

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2015546599A Division JP6610258B2 (ja) 2013-11-05 2014-10-24 情報処理装置、情報処理方法、及び、プログラム

Publications (1)

Publication Number Publication Date
JP2020024744A true JP2020024744A (ja) 2020-02-13

Family

ID=53041369

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2015546599A Active JP6610258B2 (ja) 2013-11-05 2014-10-24 情報処理装置、情報処理方法、及び、プログラム
JP2019198778A Pending JP2020024744A (ja) 2013-11-05 2019-10-31 情報処理装置、情報処理方法、及び、プログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2015546599A Active JP6610258B2 (ja) 2013-11-05 2014-10-24 情報処理装置、情報処理方法、及び、プログラム

Country Status (7)

Country Link
US (5) US9851936B2 (ja)
EP (1) EP3067781B1 (ja)
JP (2) JP6610258B2 (ja)
KR (1) KR102343578B1 (ja)
CN (2) CN111736696A (ja)
RU (1) RU2678481C2 (ja)
WO (1) WO2015068587A1 (ja)

Families Citing this family (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8307086B2 (en) * 2008-08-19 2012-11-06 Facebook, Inc. Resource management of social network applications
CN104246864B (zh) * 2013-02-22 2016-06-29 索尼公司 头戴式显示器和图像显示装置
KR102343578B1 (ko) 2013-11-05 2021-12-28 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
US9332285B1 (en) * 2014-05-28 2016-05-03 Lucasfilm Entertainment Company Ltd. Switching modes of a media content item
KR102288060B1 (ko) * 2014-08-06 2021-08-10 삼성전자 주식회사 피사체의 소리를 수신하는 방법 및 이를 구현하는 전자장치
GB2534921B (en) * 2015-02-06 2021-11-17 Sony Interactive Entertainment Inc Head-mountable display system
JP6474278B2 (ja) * 2015-02-27 2019-02-27 株式会社ソニー・インタラクティブエンタテインメント 画像生成システム、画像生成方法、プログラム及び情報記憶媒体
KR102551239B1 (ko) * 2015-09-02 2023-07-05 인터디지털 씨이 페이튼트 홀딩스, 에스에이에스 확장된 장면에서의 내비게이션을 용이하게 하기 위한 방법, 장치 및 시스템
US11445305B2 (en) 2016-02-04 2022-09-13 Magic Leap, Inc. Technique for directing audio in augmented reality system
EP3469462A1 (en) 2016-06-14 2019-04-17 Orcam Technologies Ltd. Systems and methods for directing audio output of a wearable apparatus
US20190221184A1 (en) * 2016-07-29 2019-07-18 Mitsubishi Electric Corporation Display device, display control device, and display control method
WO2018042658A1 (ja) * 2016-09-05 2018-03-08 マクセル株式会社 携帯情報端末、頭部装着表示システム、及びその音声出力制御方法
CN109804644B (zh) * 2016-10-13 2021-06-01 连株式会社 声音输出方法、计算机装置及计算机可读记录介质
JP2018082308A (ja) 2016-11-16 2018-05-24 ソニー株式会社 情報処理装置、方法及びプログラム
JP6992767B2 (ja) * 2016-12-12 2022-01-13 ソニーグループ株式会社 Hrtf測定方法、hrtf測定装置、およびプログラム
CN106604200A (zh) * 2017-01-19 2017-04-26 浪潮(苏州)金融技术服务有限公司 一种音频数据处理方法和装置
WO2018156809A1 (en) * 2017-02-24 2018-08-30 Masimo Corporation Augmented reality system for displaying patient data
EP3585254B1 (en) 2017-02-24 2024-03-20 Masimo Corporation Medical device cable and method of sharing data between connected medical devices
CN110337318B (zh) * 2017-02-28 2024-06-14 奇跃公司 混合现实装置中的虚拟和真实对象记录
WO2018208616A1 (en) 2017-05-08 2018-11-15 Masimo Corporation System for pairing a medical system to a network controller by use of a dongle
US10264380B2 (en) * 2017-05-09 2019-04-16 Microsoft Technology Licensing, Llc Spatial audio for three-dimensional data sets
CN110999327B (zh) * 2017-07-31 2022-01-14 索尼公司 信息处理装置、信息处理方法以及程序
JP6966165B2 (ja) * 2017-08-04 2021-11-10 日本テレビ放送網株式会社 映像音声信号処理装置、その方法とプログラム
CN107632703A (zh) * 2017-09-01 2018-01-26 广州励丰文化科技股份有限公司 基于双目摄像头的混合现实音频控制方法及服务设备
WO2019081747A1 (en) * 2017-10-26 2019-05-02 Sony Semiconductor Solutions Corporation CAP DETERMINATION DEVICE AND METHOD, DEVICE, AND RENDERING METHOD
WO2019173566A1 (en) * 2018-03-08 2019-09-12 Bose Corporation Augmented reality software development kit
US20190378334A1 (en) * 2018-06-08 2019-12-12 Vulcan Inc. Augmented reality portal-based applications
WO2019237085A1 (en) 2018-06-08 2019-12-12 Vulcan Inc. Session-based information exchange
US20190385372A1 (en) * 2018-06-15 2019-12-19 Microsoft Technology Licensing, Llc Positioning a virtual reality passthrough region at a known distance
US10996831B2 (en) 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
KR102278342B1 (ko) * 2018-09-27 2021-07-16 주식회사 더픽트 가상현실 영상 편집 시스템 및 방법
CN118075651A (zh) 2018-10-05 2024-05-24 奇跃公司 用于音频空间化的加重
US10638248B1 (en) * 2019-01-29 2020-04-28 Facebook Technologies, Llc Generating a modified audio experience for an audio system
US10602302B1 (en) * 2019-02-06 2020-03-24 Philip Scott Lyren Displaying a location of binaural sound outside a field of view
KR102297532B1 (ko) * 2019-10-17 2021-10-06 실버라이닝스튜디오 주식회사 가상현실 사운드 기반의 컨텐츠 제공 방법 및 시스템
CN113467603B (zh) 2020-03-31 2024-03-08 抖音视界有限公司 音频处理方法、装置、可读介质及电子设备
US11126574B1 (en) 2021-02-12 2021-09-21 SambaNova Systems, Inc. Instrumentation profiling for reconfigurable processors
US12001750B2 (en) * 2022-04-20 2024-06-04 Snap Inc. Location-based shared augmented reality experience system

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5682172A (en) * 1994-12-30 1997-10-28 Forte Technologies, Inc. Headset for presenting video and audio signals to a wearer
JP4631987B2 (ja) 1998-10-19 2011-02-16 ソニー株式会社 情報処理端末、情報処理システム及び情報処理方法
US20030007648A1 (en) * 2001-04-27 2003-01-09 Christopher Currell Virtual audio system and techniques
JP3815270B2 (ja) * 2001-07-17 2006-08-30 ヤマハ株式会社 ナビゲーション装置及び制御プログラム
JP2003134510A (ja) * 2001-08-16 2003-05-09 Space Tag Inc 画像情報配信システム
JP4433385B2 (ja) * 2004-02-25 2010-03-17 ソニー・エリクソン・モバイルコミュニケーションズ株式会社 目的地案内装置および携帯端末装置
FI20045513A (fi) * 2004-12-31 2006-07-01 Nokia Corp Kynätyyppinen virtuaalinäyttö
JP4737215B2 (ja) * 2008-03-25 2011-07-27 富士ゼロックス株式会社 情報処理装置、画像読取装置及びプログラム
US8170222B2 (en) * 2008-04-18 2012-05-01 Sony Mobile Communications Ab Augmented reality enhanced audio
US9037468B2 (en) * 2008-10-27 2015-05-19 Sony Computer Entertainment Inc. Sound localization for user in motion
EP2465114B1 (en) * 2009-08-14 2020-04-08 Dts Llc System for adaptively streaming audio objects
US8941559B2 (en) * 2010-09-21 2015-01-27 Microsoft Corporation Opacity filter for display device
JP5675470B2 (ja) 2011-04-01 2015-02-25 オリンパス株式会社 画像生成システム、プログラム及び情報記憶媒体
JP5821526B2 (ja) 2011-10-27 2015-11-24 ソニー株式会社 画像処理装置、画像処理方法及びプログラム
US9454849B2 (en) * 2011-11-03 2016-09-27 Microsoft Technology Licensing, Llc Augmented reality playspaces with adaptive game rules
JP5832666B2 (ja) * 2011-12-20 2015-12-16 インテル・コーポレーション 複数のデバイスにまたがる拡張現実表現
JP6065370B2 (ja) * 2012-02-03 2017-01-25 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
RU131226U1 (ru) * 2012-12-10 2013-08-10 Общество с ограниченной ответственностью "АВИАРЕАЛ" Тренажерный комплекс для обучения сотрудников службы авиационной безопасности с применением системы дополненной реальности
KR102249577B1 (ko) * 2013-05-30 2021-05-07 찰스 안소니 스미스 Hud 객체 설계 및 방법
US9129430B2 (en) * 2013-06-25 2015-09-08 Microsoft Technology Licensing, Llc Indicating out-of-view augmented reality images
EP2830049A1 (en) * 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for efficient object metadata coding
KR102343578B1 (ko) * 2013-11-05 2021-12-28 소니그룹주식회사 정보 처리 장치, 정보 처리 방법 및 프로그램
EP3441966A1 (en) * 2014-07-23 2019-02-13 PCMS Holdings, Inc. System and method for determining audio context in augmented-reality applications

Also Published As

Publication number Publication date
US20180088893A1 (en) 2018-03-29
US20210326097A1 (en) 2021-10-21
US11068227B2 (en) 2021-07-20
US20190250875A1 (en) 2019-08-15
RU2678481C2 (ru) 2019-01-29
WO2015068587A1 (ja) 2015-05-14
RU2016116990A3 (ja) 2018-07-03
US20200183638A1 (en) 2020-06-11
CN105745602A (zh) 2016-07-06
EP3067781A1 (en) 2016-09-14
JPWO2015068587A1 (ja) 2017-03-09
US9851936B2 (en) 2017-12-26
US10599382B2 (en) 2020-03-24
US10303421B2 (en) 2019-05-28
KR20160079788A (ko) 2016-07-06
EP3067781B1 (en) 2023-03-08
JP6610258B2 (ja) 2019-11-27
RU2016116990A (ru) 2017-11-02
CN105745602B (zh) 2020-07-14
CN111736696A (zh) 2020-10-02
EP3067781A4 (en) 2017-07-26
KR102343578B1 (ko) 2021-12-28
US20160239252A1 (en) 2016-08-18

Similar Documents

Publication Publication Date Title
JP2020024744A (ja) 情報処理装置、情報処理方法、及び、プログラム
CN108141696B (zh) 用于空间音频调节的系统和方法
US20200264006A1 (en) Spatial audio navigation
EP3292378B1 (en) Binaural navigation cues
US20140153751A1 (en) Audio control based on orientation
JP6263098B2 (ja) 仮想音源を提供情報位置に配置する携帯端末、音声提示プログラム及び音声提示方法
KR20080080873A (ko) 입체 음향을 이용한 방향 안내 처리 방법 및 그를 적용한네비게이션 시스템
US11806621B2 (en) Gaming with earpiece 3D audio
US10667073B1 (en) Audio navigation to a point of interest
JP2017138277A (ja) 音声ナビゲーションシステム
WO2019045622A1 (en) HEADSET AND METHOD OF OPERATING THE HEADSET
US20190187954A1 (en) Content Discovery
JP6651231B2 (ja) 携帯情報端末、情報処理装置、及びプログラム
JP6957426B2 (ja) 再生装置、再生方法、及びプログラム
JP7384222B2 (ja) 情報処理装置、制御方法及びプログラム
WO2022070337A1 (ja) 情報処理装置、ユーザ端末、制御方法、非一時的なコンピュータ可読媒体、及び情報処理システム
US20230247380A1 (en) Information processing apparatus, information processing method, and sound output apparatus
KR20160073879A (ko) 3차원 오디오 효과를 이용한 실시간 내비게이션 시스템

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191112

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200625

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200630

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200824

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200908