JP7473489B2 - 出力制御装置、出力制御システム、および制御方法 - Google Patents

出力制御装置、出力制御システム、および制御方法 Download PDF

Info

Publication number
JP7473489B2
JP7473489B2 JP2021005317A JP2021005317A JP7473489B2 JP 7473489 B2 JP7473489 B2 JP 7473489B2 JP 2021005317 A JP2021005317 A JP 2021005317A JP 2021005317 A JP2021005317 A JP 2021005317A JP 7473489 B2 JP7473489 B2 JP 7473489B2
Authority
JP
Japan
Prior art keywords
virtual
output control
display
real
space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021005317A
Other languages
English (en)
Other versions
JP2022109795A (ja
Inventor
瞭吾 吉村
亮 小玉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Boshoku Corp
Toyota Central R&D Labs Inc
Original Assignee
Toyota Boshoku Corp
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Boshoku Corp, Toyota Central R&D Labs Inc filed Critical Toyota Boshoku Corp
Priority to JP2021005317A priority Critical patent/JP7473489B2/ja
Priority to US17/565,611 priority patent/US11849302B2/en
Priority to CN202111677351.2A priority patent/CN114765726A/zh
Publication of JP2022109795A publication Critical patent/JP2022109795A/ja
Application granted granted Critical
Publication of JP7473489B2 publication Critical patent/JP7473489B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/40Visual indication of stereophonic sound image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S19/00Satellite radio beacon positioning systems; Determining position, velocity or attitude using signals transmitted by such systems
    • G01S19/01Satellite radio beacon positioning systems transmitting time-stamped messages, e.g. GPS [Global Positioning System], GLONASS [Global Orbiting Navigation Satellite System] or GALILEO
    • G01S19/13Receivers
    • G01S19/14Receivers specially adapted for specific applications
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F9/00Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements
    • G09F9/30Indicating arrangements for variable information in which the information is built-up on a support by selection or combination of individual elements in which the desired character or characters are formed by combining individual elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/04Circuit arrangements, e.g. for selective connection of amplifier inputs/outputs to loudspeakers, for loudspeaker detection, or for adaptation of settings to personal preferences or hearing impairments
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/15Transducers incorporated in visual displaying devices, e.g. televisions, computer displays, laptops
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Stereophonic System (AREA)
  • Processing Or Creating Images (AREA)

Description

本開示は出力制御装置、出力制御システム、および制御方法に関する。
スピーカからの音声の出力を制御することによって、当該音声で形成される音の定位、すなわち「音像」の位置を制御する技術が従来から存在する。
特開2015-16787号公報
ところで、近年、AR(Augmented Reality:拡張現実)またはMR(Mixed Reality:複合現実)等において、ユーザにより臨場感のある視覚的および聴覚的体験を提供するための技術が求められている。
本開示の一態様は、移動体の搭乗者に臨場感のある映像および音声を提供することを目的とする。
上記の課題を解決するために、本開示の一態様に係る出力制御装置は、移動体の内部空間に設置されたディスプレイおよびスピーカを制御する出力制御装置であって、前記移動体の現実空間での位置である現実位置と、前記移動体の現実空間での向きとを特定する位置方向特定部と、仮想音源となる3次元オブジェクトである音源オブジェクトを3次元マップに配置した仮想空間を規定する仮想空間データを記憶装置から読み込む読込部と、前記移動体の前記現実位置および前記現実空間での向きに応じて、前記移動体の前記仮想空間での位置である仮想位置と、前記移動体の仮想空間での向きと、を決定する仮想位置決定部と、前記移動体の前記仮想位置および前記仮想空間での向きと、前記ディスプレイの設置位置とに基づいて、前記仮想空間の一部の領域の画像または一部のオブジェクトの画像を前記ディスプレイに表示させる表示制御部と、前記スピーカから音声を出力させる音声出力制御部と、を備え、前記音声出力制御部は、前記移動体の前記仮想空間での向きと、前記移動体の仮想位置と前記音源オブジェクトとの相対的な位置関係と、に基づいて前記スピーカからの出力音声により形成される音像の位置を制御する。
上記の課題を解決するために、本開示の一態様に係る制御方法は、移動体の内部空間に設置されたディスプレイおよびスピーカを制御するための制御方法であって、前記移動体の現実空間での位置である現実位置と、前記移動体の現実空間での向きとを特定する位置方向特定ステップと、仮想音源となる3次元オブジェクトである音源オブジェクトを3次元マップに配置した仮想空間を規定する仮想空間データを記憶装置から読み込む読込ステップと、前記移動体の前記現実位置および前記現実空間での向きに応じて、前記移動体の前記仮想空間での位置である仮想位置と、前記移動体の仮想空間での向きと、を決定する仮想位置決定ステップと、前記移動体の前記仮想位置および前記仮想空間での向きと、前記ディスプレイの設置位置とに基づいて、前記仮想空間の一部の領域の画像または一部のオブジェクトの画像を前記ディスプレイに表示させる表示制御ステップと、前記スピーカから音声を出力させる音声出力制御ステップと、を含み、前記音声出力制御ステップでは、前記移動体の前記仮想空間での向きと、前記移動体の仮想位置と前記音源オブジェクトとの相対的な位置関係と、に基づいて前記スピーカからの出力音声により形成される音像の位置を制御する。
前記の構成および処理によれば、現実空間での移動体の位置と向きに応じて、仮想空間での移動体の位置および向きを決定することができる。そして、この仮想空間での移動体の位置および向きに応じた画像をディスプレイに表示させることができる。さらに、仮想空間に配置されている音源オブジェクトを仮想的な音源としたときの、仮想空間での移動体と音源オブジェクトとの位置関係および方向に応じた位置に、該音源オブジェクトに対応する音声の音像を形成させることができる。
したがって、現実空間に存在する移動体の搭乗者に対して、本来は仮想的な音源である音源オブジェクトがあたかも本当に存在する音源であり、音を発しているかのような体験をさせることができる。すなわち、移動体の搭乗者に臨場感のある映像および音声を提供することができる。
前記出力制御装置において、前記位置方向特定部は、前記移動体の前記現実位置と前記現実空間での向きとを定期的に更新してもよく、前記仮想位置決定部は、更新後の前記現実位置および前記現実空間での向きに応じて前記仮想位置と前記仮想空間での向きとを更新してもよく、前記表示制御部は、更新後の前記仮想位置および前記仮想空間での向きに基づいて更新された前記一部の領域の画像または前記一部のオブジェクトの画像を前記ディスプレイに表示させてもよく、前記音声出力制御部は、更新後の前記仮想位置および前記仮想空間での向きに基づいて、前記音像の位置を更新してもよい。
前記の構成によれば、出力制御装置は、移動体の現実位置および現実の向きが変化した場合、変化後の現実位置および現実空間での向きを特定することができる。移動体の仮想位置および仮想空間での向きは、現実位置および現実空間での向きに応じて決定される。そして、ディスプレイに表示する領域の画像またはオブジェクトの画像と、スピーカが出力する音声で形成される音像の位置は、移動体の仮想位置および仮想空間での向きに応じて決定される。
したがって、前記の構成によれば、移動体の現実位置および現実の向きが変化した場合、当該変化を反映した画像表示および音声出力を実現することができる。
前記出力制御装置において、前記音声出力制御部は、前記仮想空間において前記仮想位置と前記音源オブジェクトとの距離が遠いほど、当該音源オブジェクトに対応する音声の出力音量が小さくなるように前記スピーカを制御してもよい。
前記の構成によれば、音の大きさで、移動体と音源オブジェクトとの位置関係を表すことができる。したがって、移動体の搭乗者により臨場感のある音響を体感させることができる。
前記出力制御装置において、前記仮想位置決定部は、前記仮想空間における任意の基準点と前記仮想位置との位置関係が、前記現実空間における任意の基準点と前記現実位置との位置関係と相似するように前記仮想位置を決定してもよく、前記表示制御部が前記ディスプレイに表示させる前記一部の領域の画像または前記一部のオブジェクトの画像は、前記仮想空間が前記現実空間と同一スケールで表示されるように決定されてもよい。
前記の構成によれば、移動体の搭乗者に、現実空間と仮想空間とが融合したかのような視覚的効果を与えることができる。
上記の課題を解決するために、本開示の一態様に係る制御システムは、前記出力制御装置と、前記移動体の前記現実位置に係るデータを測定する測位装置と、前記記憶装置と、前記ディスプレイと、前記スピーカと、を備え、前記出力制御装置の前記位置方向特定部は、前記測位装置から取得した前記現実位置に係るデータに基づいて、前記移動体の前記現実位置と、前記移動体の現実空間での向きとを特定する。前記の構成によれば、前記出力制御装置と同様の効果を奏する。
本開示の一態様によれば、移動体の搭乗者に臨場感のある映像および音声を提供することができる。
本開示の実施形態1に係る出力制御システムの動作の一例を示す図である。 前記出力制御システムを構成する各種装置の要部構成を示すブロック図である。 本開示の実施形態1に係る仮想空間の具体例を示した図である。 本開示の実施形態1に係る移動体におけるディスプレイおよびスピーカの設置例を示す図である。 本開示の実施形態1に係る出力制御装置における処理の流れを示すフローチャートである。 仮想空間における移動体と音源オブジェクトとの相対的な位置関係の変化と、現実空間における音像の位置の変化とを示す図である。 本開示の実施形態2に係る出力制御システムを構成する各種装置の要部構成を示すブロック図である。 本開示の実施形態2に係る出力制御システムにおける、バイブレータの設置例を示した図である。 本開示の実施形態3に係る出力制御システムを構成する各種装置の要部構成を示すブロック図である。
〔実施形態1〕
本実施形態に係る出力制御システムは、移動体の内部空間における画像および音声の出力を制御するシステムである。出力制御システムは、移動体の搭乗者に、現実世界とリンクした仮想空間の画像および音声を提供する。すなわち、出力制御システム100は、移動体の内部空間においてMR(Mixed Reality:複合現実)を実現する。
以下、本実施形態に係る出力制御システムを構成する各種装置の構成および動作について、図1~図6を用いて詳細に説明する。なお、本明細書における「画像」とは、静止画と動画の両方を含むこととする。また、本明細書における「音声」とは、人の声に限らず、効果音、環境音、BGM等を含む全ての音を意味することとする。
≪システムの動作例≫
始めに、出力制御システム100の動作概要を説明する。図1は、本実施形態に係る出力制御システム100の動作の一例を示す図である。図1は、出力制御システム100を搭載した移動体9の内部空間を、該内部空間に滞在する搭乗者P1の背後から見た図である。図1に示す通り、移動体9の内部空間には、座席S1と、運転席S2と、ディスプレイ4と、スピーカ5とが設置されている。なお、出力制御システム100において座席S1および運転席S2は必須の構成ではない。また、ディスプレイ4およびスピーカ5の数は図1に示した例に限定されない。
(移動体9の内部空間)
図1に示す移動体9の内部空間の場合、ディスプレイ4は運転席の正面、および座席S1の背面以外の、少なくとも2つの壁面に設けられている。また、図1の場合、運転席の正面はディスプレイ4ではなく窓になっている。なお、図1の例の場合、座席S1の背面の壁の構造は問わない。座席S1のうち1つには、移動体9の内部空間に滞在する搭乗者P1が座っている。以降、「移動体9の内部空間に滞在する搭乗者」のことを、単に「搭乗者」と称する。出力制御システム100はディスプレイ4それぞれに、仮想空間の風景を描画した画像を表示させる。また、出力制御システム100はスピーカ5それぞれに、仮想空間を表現するための音声を出力させる。
(仮想空間)
本明細書において「仮想空間」とは、所定範囲の3次元マップと、当該3次元マップに配置される種々の3次元オブジェクトとで構成される3次元の空間モデルを意味する。詳しくは後述するが、出力制御システム100は、移動体9の現実空間での位置および向きに応じて、移動体9の仮想空間での位置および向きを決定する。以降、便宜上、現実空間での位置のことを「現実位置」と称する。また、仮想空間での位置のことを「仮想位置」と称する。また、現実空間での向きを「現実の向き」、仮想空間での向きのことを「仮想の向き」と称する。出力制御システム100は、決定した移動体9の仮想位置および仮想の向きに応じて、ディスプレイ4における画像表示と、スピーカ5における音声出力とを制御する。
なお、本明細書において、現実空間と仮想空間の異同は問わない。例えば、仮想空間は、実際に移動体9が走行する現実空間を忠実にコピーした空間モデルであってもよいし、海の底または空中等、現実には移動体9が走行し得ないような空間を模した空間モデルであってもよい。また、仮想空間には、現実空間に存在するものまたは事象を模したマップおよびオブジェクトと、現実空間に存在しないものまたは事象を模したマップおよびオブジェクトとが混在していてもよい。
(表示制御と音声出力制御)
出力制御システム100は、移動体9の仮想位置および仮想の向きから見えると仮定される仮想空間の風景を描画した画像を生成する。出力制御システム100は生成した画像をディスプレイ4に表示させる。例えば、出力制御システム100において描画される仮想空間の領域は、移動体9の仮想位置および仮想の向きと、現実空間におけるディスプレイ4の位置および向きと、ディスプレイ4の大きさおよび形状と、に応じて決定される。
本実施形態では、特段の記載が無い限り、仮想空間の3次元マップおよび仮想空間の3次元オブジェクトはそれぞれ、いずれも風景として描画され得る(すなわち、透明ではない)マップおよびオブジェクトであることとする。しかしながら、仮想空間の3次元マップの少なくとも一部は、ディスプレイ4に表示されない透明のマップであってもよい。また、仮想空間の3次元オブジェクトの少なくとも一部は、ディスプレイ4に表示されない透明のオブジェクトであってもよい。
また、出力制御システム100は、仮想空間を表現するための音声をスピーカ5から出力させる。出力制御システム100は、移動体9の仮想位置および仮想の向きに搭乗者が居ると仮定した場合に聞こえると仮定される音声を特定し、当該音声を、当該仮想位置および仮想の向きでの聞こえ方を再現するように、スピーカ5から出力させる。
より具体的には、出力制御システム100は、スピーカ5を制御することによって、出力音声により形成される音像の位置を制御する。例えば、出力制御システム100は、移動体9の内部空間での音像の形成位置が、移動体9の仮想位置および仮想の向きから音源オブジェクトへの方向と同じ方向になるように、スピーカ5を制御する。図1の例では、ディスプレイ4に表示されたマンモス(すなわち、仮想空間上のオブジェクト)から音声が発せられていることを表現するため、出力制御システム100はスピーカ5を制御してマンモスの表示の近くに音像を形成させる。
(移動体9の動きと画像および音声の変化)
出力制御システム100は、移動体9の現実位置および現実の向きを随時特定し、これらに応じて移動体9の仮想位置および仮想の向きを随時更新する。さらに、出力制御システム100は、更新後の仮想位置および仮想の向きに応じて、ディスプレイ4に表示させる画像と、スピーカ5に出力させる音声および該音声の音像の位置も随時更新する。このように、出力制御システム100は、移動体9の動作に応じて、ディスプレイ4それぞれの表示と、スピーカ5それぞれの音声出力とをリアルタイムに変化させることができる。
例えば移動体9が走行中の場合、出力制御システム100は、例えば移動体9の走行に合わせて移り変わる仮想空間の風景を表示することができる。また例えば、出力制御システム100は、移動体9と音声の発生源であると仮定されているオブジェクトとの間の相対的な位置と、方向との移り変わりを、音像の形成位置の変化で表現することができる。これにより、出力制御システム100は搭乗者P1に、移動体9があたかも仮想空間内を走行しているかのような画像および立体音響を体験させることができる。
≪要部構成≫
次に、出力制御システム100を構成する各種装置の構成を説明する。図2は、本実施形態に係る出力制御システム100を構成する各種装置の要部構成を示すブロック図である。出力制御システム100は、出力制御装置1Aと、測位装置2と、記憶装置3と、ディスプレイ4と、スピーカ5とを含む。少なくとも、出力制御装置1Aと、ディスプレイ4と、スピーカ5は移動体9の内部空間に設置されている。また、本実施形態の例では、測位装置2および記憶装置3も移動体9の内部空間に設置されている。なお、記憶装置3は出力制御装置1Aに含まれていてもよい。
(測位装置2)
測位装置2は、移動体9の現実位置に係る情報を収集する。測位装置2は測定により得られた情報(測定データとも称する)を出力制御装置1Aに出力する。測位装置2の具体的な構造は特に限定されない。例えば、測位装置2は、移動体9の周囲の構造物を探知するLiDAR(Light Detection and Ranging)であってもよい。この場合、測定データとは、移動体9の周囲の構造物の、大きさおよび形状を示す情報である。また、測位装置2は、GPS受信機であってもよい。この場合、測定データとは、GPS衛星から受信する、緯度および経度を示す情報である。
(記憶装置3)
記憶装置3は、出力制御装置1Aの動作に必要な各種情報を記憶する装置である。記憶装置3は少なくとも、仮想空間データ31と、音源設定情報32と、音声データ33とを含む。また、記憶装置3は地図データ34を含んでいてもよい。
仮想空間データ31は、仮想空間の構築に係る各種データの集合である。仮想空間データ31には、例えば、仮想空間のマップデータと、仮想空間に配置されるオブジェクトのデータと、が含まれる。仮想空間データ31は予め作成されて記憶装置3に記憶される。本実施形態では、記憶装置3は1種類の仮想空間データ31を記憶していることとする。しかしながら、記憶装置3は複数種類の仮想空間データ31を記憶していてもよい。
(仮想空間の具体例)
図3は、仮想空間の具体例を示した図である。なお、図3は2次元の絵で仮想空間を模式的に示しているが、実際の仮想空間は3次元モデルである。また、図3では仮想空間における移動体9の位置および向きも併せて示している。
仮想空間には、仮想音源に設定されているオブジェクトである音源オブジェクトが1つ以上配置されている。「仮想音源」とは、仮想空間における音の発生源である。なお、ここで言う「音の発生源」とは、実際に音が発生するのではなく、あくまで音が発生するという設定を意味する。
図3の例では、マンモスのオブジェクトB1と、ビルのオブジェクトB2と、家屋のオブジェクトB3とがそれぞれ、音源オブジェクトである。このように、音源オブジェクトは動かないオブジェクトであってもよいし、規則的または不規則的に動くオブジェクトであってもよい。図3の例以外でも、例えば仮想空間が道路と町中を表現した空間である場合、音源オブジェクトは、踏切等、配置位置が変化しないオブジェクトであってもよいし、電車、自動車、または人等の配置位置が変化するオブジェクトであってもよい。
なお、音源オブジェクトは描画され得る、すなわち、ディスプレイ4に表示され得るオブジェクトであってもよいし、描画されない透明のオブジェクトであってもよい。例えば図3に示すマンモスのオブジェクトB1は、ディスプレイ4に表示され得るオブジェクト、かつ音源オブジェクトであってもよい。また例えば、図3に示すマンモスのオブジェクトB1は、ディスプレイ4に表示され得るオブジェクトであるが、音源オブジェクトでないこととしてもよい。そして、マンモスの音声または足音等、オブジェクトB1に関連する音声の音源オブジェクトは、オブジェクトB1とは異なる透明オブジェクトとして配置されていてもよい。
仮想空間データ31に含まれるオブジェクトのうち、どのオブジェクトが音源オブジェクトであるかは、音源設定情報32によって規定されている。音源設定情報32は、音源オブジェクトに対する音声データ33の割り当てを示す情報である。より具体的に言えば、音源設定情報32は、音源オブジェクトであるオブジェクトの識別情報と、音声データ33の識別情報と、を対応付けて記録した情報である。オブジェクトの識別情報とは、例えば、仮想空間データ31において各オブジェクトに割り振られているIDである。音声データ33の識別情報とは、例えば、音声データ33のファイル名である。
音源設定情報32には、音声データ33の音量を示す情報が含まれていてもよい。例えば、音源設定情報32は、音源オブジェクトの識別情報に対して、音声データ33の識別情報と、当該音声データ33の設定音量を示す情報と、を対応付けて記録した情報であってもよい。設定音量とは、移動体9の仮想位置から音源オブジェクトまでの距離がゼロである場合の、音声データ33の再生音量を示す。設定音量は、例えば1~100の数値で設定することができる。この場合、1が最も小さい音量であり、100が最も大きい音量であってよい。
音声データ33は、スピーカ5から出力される音声のデータである。音声データ33は出力制御装置1Aによって読み出され、後述する音声出力制御部15において再生およびエフェクトの付加等の加工を受けた後に、スピーカ5から出力される。音源設定情報32が音声データ33の設定音量を含む場合、音声出力制御部15は、仮想空間における移動体9の仮想位置から音源オブジェクトまでの距離に応じて、音声データ33の音量を減衰させてもよい。
地図データ34は、移動体9が走行し得る地域の地形、道路形状、目印となる構造物等の情報を含むデータである。出力制御システム100において地図データ34の取得方法は特に限定されない。例えば移動体9にカーナビゲーションシステムが備えられている場合、予め記憶装置3を当該カーナビゲーションシステムと接続させておき、地図データ34をダウンロードさせておいてもよい。
なお、地図データ34は、測位データから移動体9の現実位置を特定するときに用いられる。したがって、測位データから移動体9の現実位置が直接分かる場合は、記憶装置3は地図データ34を記憶していなくてもよい。例えば、測位装置2がGPS受信機である場合、測位データは緯度および経度を示しているため、地図データ34は必須の情報ではない。
(出力制御装置1A)
出力制御装置1Aは、ディスプレイ4およびスピーカ5を統括的に制御する装置である。出力制御装置1Aは、移動体9の現実位置および現実の向きに応じて画像を生成して、ディスプレイ4に供給する。また、出力制御装置1Aは、移動体9の現実位置および現実の向きに応じてスピーカ5から出力させる音声を決定し、該音声のスピーカ5からの出力態様を決定する。ここで、「音声の出力態様」とは、例えば、該音声により形成される音像の位置である。出力制御装置1Aは、スピーカ5に出力すべき音声を供給するとともに、出力制御装置1Aが決定した位置に音像が出来るようにスピーカ5における音声出力を制御する。
(出力制御装置1Aの詳細な構成)
出力制御装置1Aは、より詳細には、位置方向特定部11と、読込部12と、空間処理部13と、表示制御部14と、音声出力制御部15と、を含む。
位置方向特定部11は、測位装置2から取得した測位データから現実位置および現実の向きを特定する。位置方向特定部11は、特定した現実位置を示す情報、および、特定した現実の向きを示す情報を、空間処理部13に供給する。
位置方向特定部11は現実位置を、例えば以下のように特定する。測位装置2がLiDARである場合、位置方向特定部11はLiDARの測位データと、記憶装置3に記憶された地図データ34とを照合することによって、移動体9の現実位置を特定する。一方、測位装置2がGPS受信機であり、測位データがすでに移動体9の現実位置(例えば、緯度および経度)を示す情報である場合、位置方向特定部11は得られた測位データを、そのまま現実位置を示す情報とする。
位置方向特定部11は現実の向きを、例えば以下のように特定する。測位装置2がLiDARである場合、現実位置を特定する際の測位データと地図データ34との照合で、現実の向きも同時に特定することができる。測位装置2がLiDAR以外の装置である場合、位置方向特定部11はまず、測位データからの現実位置の特定を複数回行い、これらの現実位置を比較することで、現実位置の移動方向を特定する。位置方向特定部11は移動体9の現実位置の移動方向を移動体9の進行方向、すなわち移動体9の現実の向きであると特定する。なお、複数回特定した現実位置が変化していなかった場合、すなわち、移動体9が移動していない場合は、位置方向特定部11は前回特定した現実の向きをそのまま採用してよい。
読込部12は、記憶装置3から仮想空間データ31を読み込んで空間処理部13に供給する。読込部12における仮想空間データ31の読み込みのタイミング、および空間処理部13への供給のタイミングは特に限定されない。例えば、読込部12は、空間処理部からの要求を受けて仮想空間データ31を読み込んで空間処理部に供給してもよいし、仮想空間データ31が更新される度に、仮想空間データ31を読み込んで空間処理部13に供給してもよい。また、記憶装置3に複数種類の仮想空間データ31が記憶されている場合、読込部12はいずれの仮想空間データ31を読み込むかを決定してもよい。
空間処理部13は、仮想空間データ31を用いた種々の処理を実行する。空間処理部13は、より詳しくは、仮想位置決定部131と、音源決定部132と、表示画像作成部133と、を含む。
仮想位置決定部131は、位置方向特定部11から供給された移動体9の現実位置および現実の向きに応じて、移動体9の仮想位置および仮想の向きを決定する。仮想位置決定部131は、仮想位置を示す情報および仮想の向きを示す情報を、音声出力制御部15と、音源決定部132と、表示画像作成部133とに供給する。
仮想位置決定部131における仮想位置および仮想の向きの具体的な決定方法は、仮想空間データ31の種類および特徴に応じて適宜定められてよい。例えば、仮想位置決定部131は、現実空間における任意の1点と、仮想空間における任意の1点とをそれぞれ基準点と規定しておき、仮想空間における基準点と仮想位置との位置関係が、現実空間における基準点と現実位置との位置関係と相似するように、仮想位置を決定することが望ましい。なお、前述の基準点の定め方は特に限定しないが、例えば地図上の特定の緯度および経度の点を基準点としてもよいし、位置方向特定部11と仮想位置決定部131とが最初に決定する現実位置および仮想位置を、後の基準点としてもよい。
なお、後述する表示画像作成部133において、仮想空間が現実空間と同一のスケールで描画される場合、仮想位置決定部131は、移動体9の仮想位置が移動体9の現実位置と略一致するように決定してもよいまた、仮想位置決定部131は、移動体9の仮想の向きを、移動体9の現実の向きと略一致するように決定してもよい。これにより、現実空間での移動体9の位置と、仮想空間での移動体9の位置とをリンクさせることができる。
音源決定部132は、移動体9の仮想位置(および、仮想向き)に搭乗者が居る場合に音声が聞こえる、と仮定される音源オブジェクトを選定する。換言すると、音源決定部132は、音声出力される音声データ33に対応する音源オブジェクトを決定する。音源決定部132は、例えば、仮想空間上で移動体9の仮想位置から所定範囲内に存在している音源オブジェクトを選定する。音源決定部132は選定した音源オブジェクトの識別情報を仮想空間データ31に基づき特定する。音源決定部132は特定した音源オブジェクトの識別情報を、音声出力制御部15に供給する。
音源決定部132は、音源オブジェクトに割当てられている音声データ33の設定音量と、移動体9の仮想位置から音源オブジェクトまでの距離と、に基づいて、音源オブジェクトを選定してもよい。例えば、音源決定部132は下記手順1~手順4の処理を行うことで、音源オブジェクトを選定してもよい。
手順1:移動体9の仮想位置から各音源オブジェクトまでの距離をそれぞれ算出する。
手順2:音源設定情報32から、各音源オブジェクトに対応する音声データ33の設定音量を特定する。
手順3:音源オブジェクト毎に、手順1で算出した距離と設定音量とに基づいて再生音量を特定する。例えば、音源決定部132は、手順1で算出した距離が遠いほど、手順2で特定した設定音量を減衰させてよい。なお、距離がゼロである場合は設定音量がそのまま再生音量になる。
手順4:再生音量が閾値以上となる音源オブジェクトを、「音声出力される音声データ33に対応する音源オブジェクト」として選定する。
なお、「移動体9の仮想位置から各音源オブジェクトまでの距離」は絶対距離であってもよいし、相対距離であってもよい。また、手順1と手順2は順不同で実行されてよい。また、手順4における閾値は適宜設定されてよい。また、音源決定部132は、手順3で特定した再生音量を音声出力制御部15に伝えてもよい。
以上の手順によれば、例えば仮想空間上で、移動体9との距離が大きく離れている音源オブジェクトであっても、当該音源オブジェクトに割り当てられている音声データ33の再生音量が閾値以上であれば、当該音声データ33を出力対象とすることができる。したがって、例えば花火やサイレンなど、遠くから聞こえる音声についてより正確に再現することができる。
表示画像作成部133は、移動体9の仮想位置および仮想向きに応じて、ディスプレイ4に表示させる画像を作成する。表示画像作成部133は作成した画像を表示制御部14に供給する。なお、表示画像作成部133は表示制御部14に、供給した画像の表示タイミングを指示してもよい。また、ディスプレイ4が複数ある場合、表示画像作成部133は画像を供給する際に、当該画像をいずれのディスプレイ4に表示させるかも表示制御部14に指示してよい。
例えば、表示画像作成部133は仮想空間に、ディスプレイ4それぞれに対応する視野を有する仮想カメラを配置し、該仮想カメラの撮影範囲を、該仮想カメラに対応するディスプレイ4の表示画像として描画する。仮想カメラの位置、向き、および視野の形状および広さは、以下の(1)~(3)に基づき決定される。
(1)移動体9の仮想位置および仮想の向き
(2)現実空間における各ディスプレイ4の位置および向き
(3)各ディスプレイ4の大きさおよび形状
なお、出力制御システム100は、搭乗者の頭部の位置を撮影または測定等で検出可能な車内カメラおよび/または車内センサを含んでいてもよい。また、出力制御装置1Aは、前記車内カメラおよび/または車内センサと接続されていてもよい。出力制御装置1Aの空間処理部13は、車内カメラの撮影画像、および/または車内センサの測定結果に基づいて搭乗者の頭部の位置を特定してもよい。
空間処理部13が搭乗者の頭部の位置を特定する場合、表示画像作成部133は、上記(1)~(3)に加え、搭乗者の頭部の位置に基づき撮影画像から切り出す領域を決定してもよい。これにより、搭乗者の背の高さに応じた画像をディスプレイ4に表示させることができる。
具体的に、表示画像について図1の例を挙げて説明する。移動体9の進行方向を「前方」、進行方向と反対方向を「後方」とすると、図1に示す現実空間では、移動体9において運転席S2のある方向が前方である。そして、ディスプレイ4は移動体9の内部空間の右壁面および後方の壁面に、それぞれ略垂直に設置されている。この場合、表示画像作成部133は、内部空間の右壁面に設置されたディスプレイ4のために、仮想空間上での移動体9の右方向の風景を描画した画像を作成する。また、表示画像作成部133は、内部空間の後方の壁面に設置されたディスプレイ4のために、仮想空間上での移動体9の後方の風景を描画した画像を作成する。
これにより、図1に示すように、2台のディスプレイ4によって、仮想空間上での移動体9の右側から後方にかけての風景が表示される。すなわち、搭乗者P1の視点では、運転席の窓から見える現実の風景とともに、各ディスプレイ4から仮想空間の風景を見ることができる。なお、ここで言う「仮想空間の風景」には、当然ながらマップだけではなくオブジェクトも含まれる。例えば、3次元マップの一部または全部が描画されない透明のマップである場合、表示画像作成部133は、仮想空間の一部のオブジェクトを描画した画像を作成し、これを表示制御部14に出力してよい。
なお、表示画像作成部133は、仮想空間が現実空間と同一スケールで表示されるように、仮想カメラの倍率を決定してもよい。換言すると、表示画像作成部133はディスプレイ4において、仮想空間が現実空間と同一スケールで表示されるように、仮想空間の風景を拡大または縮小して描画してもよい。これにより、移動体の搭乗者に、現実空間と仮想空間とが融合したかのような視覚的効果を与えることができる。また、移動体9が走行中である場合でも、現実空間の風景と、仮想空間の風景とが同じ速度で動くこととなるため、搭乗者が所謂「3D酔い」を引き起こすことを防ぐことができる。
表示制御部14は、空間処理部13の表示画像作成部133から供給された画像をディスプレイ4に表示させる。表示画像作成部133から各ディスプレイ4に対する画像の表示タイミングが指示されている場合、表示制御部14は当該指示にしたがって、指定されたタイミングで各ディスプレイ4に画像を表示させる。また、ディスプレイ4が複数台ある場合、表示制御部14は、いずれの画像を、いずれのディスプレイ4に表示させるかについても、空間処理部13の指示にしたがって制御する。
音声出力制御部15は、音声出力および音像の形成に係る種々の処理を実行する。音声出力制御部15は、より詳しくは、再生部151と、音像制御部152と、割当決定部153とを含む。
再生部151は、音源決定部132が決定した音源オブジェクトに割り当てられた音声データ33を再生する。より詳しくは、再生部151はまず、音源決定部132が決定した音源オブジェクトの識別情報をキーとして記憶装置3の音源設定情報32を検索することで、当該音源オブジェクトに割当てられている音声データ33を特定する。次に、再生部151は、特定した音声データ33を記憶装置3から読み出して再生する。再生部151は音声を再生しつつ、順次、音像制御部152に供給する。なお、再生部151は再生する音声を、割当決定部153にも順次供給してよい。
なお、音源決定部132が決定した音源オブジェクトが複数ある場合、すなわち、再生する音声データ33が複数ある場合は、再生部151は複数の音声データ33を別個に再生しつつ、別個に音像制御部152(および割当決定部153)に供給する。また、音声出力制御部15が音源決定部132から音声データ33の再生音量を示す情報を受信した場合、再生部151は各音声データ33を、それぞれ決定された再生音量で再生してよい。
音像制御部152は、出力音声の音像の形成位置を決定する。なお、再生部151から同時に複数の音声が供給されている場合、音像制御部152は各音声について、それぞれ別個に音像の形成位置を決定してよい。音像制御部152による音像の形成位置の決定はリアルタイムで行われてよい。すなわち、音像制御部152は、出力する音声データ33の音像の形成位置をリアルタイムで制御してよい。
具体的には、音像制御部152は、少なくとも下記(1)および(2)に基づいて音像の位置を決定する。
(1)仮想位置決定部131が決定した移動体9の仮想の向き
(2)移動体9の仮想位置と音源オブジェクトとの相対的な位置関係
音像制御部152はさらに、後述する割当決定部153の決定したスピーカ5の割り当てに基づいて音像の位置を補正してもよい。
割当決定部153は、再生部151から順次供給される音声をどのスピーカ5から出力させるか(すなわち、再生音声をどのスピーカ5に割り当てるか)をリアルタイムで決定する。なお、移動体9に1台しかスピーカ5が搭載されていない場合、音声出力制御部15は割当決定部153を含んでいなくてもよい。また、再生部151から同時に複数の音声が供給されている場合、割当決定部153は各音声についてのスピーカ5の割り当てをそれぞれ別個に決定してよい。また、割当決定部153は決定したスピーカ5の割当を音像制御部152にフィードバックしてもよい。
このように、音声出力制御部15において、出力対象の音声データ33の再生、音像の形成位置の決定、および各スピーカ5への割り当てが決まると、音声出力制御部15は、各スピーカ5に対し、前述の割り当てに応じて音声出力を指示する。このとき、音声出力制御部15は、各スピーカ5からの実際の出力音量と、出力態様とも併せて指示する。これにより、音声出力制御部15は、スピーカ5を用いて音像制御部152が決定した位置に音像を作ることができる。
(ディスプレイ4およびスピーカ5)
ディスプレイ4は、出力制御装置1Aの制御に従って画像を表示する表示装置である。ディスプレイ4の種類は特に限定されない。例えば、ディスプレイ4は透明ディスプレイであってもよい。スピーカ5は、出力制御装置1Aの制御に従って音声を出力する音声出力装置である。スピーカ5の種類は特に限定されないが、スピーカ5は1台または複数台の協働によって、音の定位、すなわち音像を形成することが可能な音声出力装置である。また、スピーカ5は、音声出力の方向および音量等を調整することで、音像が形成される位置を変化させることが可能な音声出力装置である。
図4は、移動体9におけるディスプレイ4およびスピーカ5の設置例を示す図である。図4は移動体9を移動体9の天井面から見下ろした図である。ディスプレイ4およびスピーカ5は、例えば図4に示すように、移動体9の壁面に、搭乗者P1が座る座席S1を取り囲むように設置される。
より具体的な例を挙げると、ディスプレイ4は例えば、移動体9の内部空間において、進行方向の壁面を除いた3面の壁面のうち、1つ以上の壁面に、各壁面と略並行に設置される。スピーカ5は例えば、移動体9の内部空間における1つ以上の壁面、および/または天井面に設置される。なお、ディスプレイ4およびスピーカ5の設置位置はこれらの例に限られない。例えば、ディスプレイ4および/またはスピーカ5のうちいくつかは、移動体9の床面に設置されてもよい。
ディスプレイ4の設置位置、ディスプレイ4の大きさ、およびディスプレイ4の形状は、移動体9の動作に支障がない範囲で自由に定められてよい。例えば、移動体9が手動運転である場合、図1および図4に示すように、運転席S2の前面は窓にしておき、内部空間の他の壁面にディスプレイ4を設置するようにしてもよい。また例えば、移動体9が完全な自動運転である場合、運転席S2は存在しないため、移動体9の内部空間の壁面全てにディスプレイ4を設置してもよい。ただし、前述したMRを実現する場合は、移動体9の少なくとも一部の窓から、現実世界の風景が見えるようにディスプレイ4を設置することが望ましい。
ディスプレイ4が設置される高さ、およびディスプレイ4の向きは特に限定されない。しかしながら、ディスプレイ4は、搭乗者P1がディスプレイ4に映る画像を観賞し易い高さおよび向きで設置されることが望ましい。また、スピーカ5が設置される高さおよびスピーカ5の向きも特に限定されないが、スピーカ5は、スピーカ5それぞれが協働することによって、音像を適切な位置に形成できる高さおよび向きで設置される。なお、図1および図4の例では、ディスプレイ4とスピーカ5とは別個の装置であるが、ディスプレイ4とスピーカ5は一体に構成された装置であってもよい。
≪処理の流れ≫
図5は、出力制御装置1Aにおける処理の流れを示すフローチャートである。なお、図5に示す処理の開始タイミングは特に限定されない。例えば、出力制御装置1Aは、移動体9のエンジンが駆動したときに図5の処理を開始してもよい。また、出力制御装置1Aは、移動体9に備えられた入力装置(図示せず)等を介して搭乗者または移動体9の運転手等が所定の入力操作を行ったことをトリガとして、図5の処理を開始してもよい。
始めに、読込部12は記憶装置3から仮想空間データ31を読み込む(S11)。読込部12は読み込んだ仮想空間データ31を空間処理部13に供給する。
次に、位置方向特定部11は、測位装置2から取得した測位データに基づいて、移動体9の現実位置と、現実の向きとを特定する(S12)。位置方向特定部11は特定した現実位置および現実の向きを空間処理部13に供給する。
空間処理部13の仮想位置決定部131は、供給された現実位置および現実の向きから、仮想位置および仮想の向きを決定する(S13)。仮想位置決定部131は決定した仮想位置および仮想の向きを、音声出力制御部15と、音源決定部132と、表示画像作成部133とに供給する。
以降、S21~S23に示す表示制御に係る処理と、S31~S33に示す音声出力制御に係る処理と、は順不同、または並行して実行される。
表示画像作成部133は、仮想空間データ31が規定する仮想空間における、仮想カメラの配置点および仮想カメラの向きを決定する(S21)。仮想カメラは、ディスプレイ4の台数分配置され向きが決定される。
次に、表示画像作成部133は、仮想空間のうち、各仮想カメラに映る領域をそれぞれ描画することにより、各ディスプレイ4に表示させる画像を作成する(S22)。表示画像作成部133は作成した画像を表示制御部14に供給する。表示制御部14は表示画像作成部133から供給された画像を、ディスプレイ4に表示させる(S23)。
一方、音源決定部132は、仮想位置決定部131から供給された仮想位置および仮想の向きに応じて、割当てられた音声を出力する音源オブジェクトを決定する(S31)。音源決定部132は決定した音源オブジェクトの識別情報を音声出力制御部15に供給する。
音声出力制御部15の再生部151は、供給された識別情報から、再生する音声データ33を特定し、該音声データを再生する。再生部151は音声を再生しつつ音像制御部152(および割当決定部153)に順次供給する。
音像制御部152は、移動体9の仮想の向きと、移動体9の仮想位置および音源オブジェクトの相対的な位置関係と、に基づいて、出力する音声の音像の位置を決定する(S32)。音像制御部152は決定した音像の形成位置を、割当決定部153に伝える。割当決定部153は、再生部151の再生している音声を出力するスピーカ5を決定する。すなわち、割当決定部153は再生音声を1つ以上のスピーカ5に割り当てる。音声出力制御部15は、割当決定部153が決定したスピーカ5の割り当てで、音像制御部152が決定した位置に音像が形成されるように、各スピーカ5を制御する(S33)。
出力制御装置1Aは、S21~S23に示す表示制御に係る処理と、S31~S33に示す音声出力制御に係る処理とが終了した後、または、これらの処理を実行中の間に、再びS12の処理を実行する。すなわち、位置方向特定部11によるS12の処理は定期的に行われる。そして、S12において更新された現実位置および現実の向きに応じて、S12以降の処理が再び実行される。すなわち、現実位置および現実の向きが更新されると、仮想位置および仮想の向きが更新され、それによってディスプレイ4に表示される仮想空間の領域が更新されるとともに、スピーカ5の出力音声が形成する音像の位置が更新される。また、スピーカ5から出力される音声の音像の位置も更新されてよい。
このように、図5のS12以降の処理を繰り返すことによって、出力制御装置1Aは、移動体9が走行中の場合、随時変化する移動体9の現実位置および現実の向きに応じて、ディスプレイ4の表示およびスピーカ5の音声出力をリアルタイムで制御することができる。
≪仮想音源の位置と音像の位置≫
図6は、仮想空間における移動体9と音源オブジェクトとの相対的な位置関係の変化と、現実空間における音像の位置の変化とを示す図である。図中の移動体9の各部については、図3と同様であるので説明を繰り返さない。また、図6の例では2つのスピーカ5を用いて音像を形成させているが、ある音声を1つの、または3つ以上のスピーカ5から出力させることで、該音声の音像を形成させてもよい。
図6では、便宜上、移動体9と音源オブジェクトとの位置関係は仮想空間上での位置関係を示しており、移動体9の内部空間については現実空間で起こる事象を示している。また、図6では上段の図から中段の図、中段の図から下段の図へと時間が経過しているものとする。
図6の上段から中段に示すように、仮想空間上の移動体9から見て音源オブジェクトが後方に移動したとする。この場合、音像も、同様に後方に移動する。また、図6の中段から下段に示すように、移動体9に対し音源オブジェクトが右後方に移動したとする。この場合、音像も同様に右後方に移動する。
前述の通り、ディスプレイ4には音源オブジェクトを含む画像が表示されている。したがって、図6に示すように音像の位置を変化させることによって、音源オブジェクトの表示位置とリンクするように、音像の位置を変化させることができる。したがって、搭乗者P1に、より臨場感のある音響を体感させることができる。
なお、音声出力制御部15は、仮想空間において移動体9と音源オブジェクトとの距離が遠くなるほど、該音源オブジェクトに対応する音声が小さく出力されるように、スピーカ5からの出力音量を制御してもよい。
例えば、音源設定情報32が音声データ33の設定音量を含む情報であり、音源決定部132において各音声データ33の再生音量を特定している場合、移動体9の仮想位置から音源オブジェクトまでの距離が遠くなるほど、再生部151における音声データ33の再生音量は小さくなる。したがって、音声出力制御部15は、スピーカ5の音量の増幅量を変化させずともスピーカ5からの実際の出力音量を小さくすることができる。
また例えば、音声出力制御部15は、音源決定部132から、移動体9の仮想位置から音源オブジェクトまでの距離を示す情報を取得してもよい。そして、当該距離が遠くなるほど、当該音源オブジェクトに対応する音声の出力音量が小さくなるように、各スピーカ5を制御してもよい。
これにより、音像の位置だけでなく、音の大きさでも、現実空間の移動体9と、仮想空間の音源オブジェクトとの位置関係を表すことができる。したがって、搭乗者により臨場感のある音響を体感させることができる。
なお、音像制御部152は、仮想空間において移動体9と音源オブジェクトとの距離が遠くなるほど、該音源オブジェクトに対応する音声の高さが低くなるように、スピーカ5から出力される音声にエフェクトをかけてもよい。これにより、例えば救急車のサイレン等の音響効果を再現することができる。したがって、搭乗者により臨場感のある音響を体感させることができる。
〔実施形態2〕
本開示に係る出力制御装置は、音声出力に応じて振動子の動作を制御してもよい。以下、本開示の第2の実施形態について、図7および図8に基づき説明する。説明の便宜上、前述の実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。これは、以降の実施形態においても同様である。
図7は、本実施形態に係る出力制御システム200を構成する各種装置の要部構成を示すブロック図である。出力制御システム200は、バイブレータ6と、出力制御装置1Bとを含む点で、出力制御システム100と異なる。なお、出力制御システム200は、出力制御システム100と同様に、搭乗者の頭部の位置を検出可能な車内カメラおよび/または車内センサを含んでいてもよい。また、出力制御装置1Bは、前記車内カメラおよび/または車内センサと接続されていてもよい。
バイブレータ6は、搭乗者P1に振動を与える振動子である。出力制御システム200は、複数のバイブレータ6を備えていてもよい。図8は、出力制御システム200におけるバイブレータ6の設置例を示した図である。図8に示す通り、バイブレータ6は例えば、座席S1の背面および座面、ならびに、座席S1に搭乗者P1が座ったときに搭乗者P1の足が接する床面に設置されてよい。
出力制御装置1Bは、振動制御部16を含む点で、実施形態1に係る出力制御装置1Aと異なる。出力制御装置1Bにおいて、音声出力制御部15は、スピーカ5を動作させるときに、振動制御部16に当該スピーカ5への指示に応じた動作指示を出力する。
振動制御部16は、音声出力制御部15の指示にしたがってバイブレータ6の動作を制御する。例えば、振動制御部16は、どのバイブレータの、どの位置の振動子を、どのような態様で振動させるかを制御する。なお、ここで言う振動の態様とは、振動の強さ、振動の間隔、振動および停止のタイミング等を示す。
音声出力制御部15から振動制御部16への指示内容、指示タイミング、ならびに、振動制御部16におけるバイブレータ6の制御内容は、特に限定されない。例えば、音声出力制御部15は、振動制御部16への指示に、各スピーカ5からの出力音量を示す情報を含めてもよい。そして、振動制御部16は、各スピーカ5からの出力音量に応じて、バイブレータ6の振動位置および/または振動の強さを決定してもよい。
例えば、図8において搭乗者P1の左側の3台のスピーカ5からの音量が、搭乗者P1の前の2台、および右側の3台のスピーカ5からの音量よりも大きく設定されている場合、振動制御部16は、座席S1の背面のバイブレータ6の左側を、同バイブレータ6の右側よりも強く振動させてもよい。
以上の処理によれば、搭乗者P1に対して、音声データ33の出力に伴って、当該音声データ33の出力態様に連動する振動による刺激を与えることができる。例えば、音声データ33が重低音または衝撃音等である場合、搭乗者に当該音声データ33の出力とともに振動を与えることにより、実際に音が発生した場合に人間が体感する減少をより正確に再現することができる。したがって、搭乗者P1に、より臨場感のある音声を提供することができる。
〔実施形態3〕
出力制御システム100および200では、仮想空間を描画した画像がディスプレイ4の全面に表示されていた。しかしながら、本開示に係る出力制御システムは、現実世界を撮影した画像の一部に、仮想空間または該仮想空間に含まれているオブジェクトを重畳した画像を作成して、当該画像をディスプレイ4に表示させてもよい。すなわち、本開示に係る出力制御システムは、AR(Augmented Reality:拡張現実)空間における仮想体験を搭乗者に提供するシステムであってもよい。
また、出力制御システム100および200では、予め記憶された音声データ33をスピーカ5で再生していた。しかしながら、本開示に係る出力制御システムは、現実世界で発生した音と、音像の位置を調整した音声データ33とをスピーカ5から出力してもよい。以下、本開示の第3の実施形態について、図9に基づき説明する。
≪要部構成≫
図9は、本実施形態に係る出力制御システム300を構成する各種装置の要部構成を示すブロック図である。出力制御システム300は、カメラ7、マイク8、および出力制御装置1Cを備える点で、出力制御システム100および200と異なる。なお、出力制御システム300において、マイク8は必須の構成ではない。また、測位装置2がカメラである場合、測位装置2がカメラ7の機能を兼ねていてもよい。
なお、出力制御システム300は、搭乗者の頭部の位置を検出可能な車内カメラおよび/または車内センサを含んでいてもよい。そして、出力制御装置1Cは、前記車内カメラおよび/または車内センサと接続されていてもよい。
カメラ7は、移動体9の周囲の現実空間を撮影する。カメラ7は1台であっても複数台であってもよいが、1台または複数台のカメラ7によって移動体9の周囲360°の画像が撮影できることが好ましい。カメラ7は撮影画像を出力制御装置1Cに供給する。
マイク8は、移動体9の周囲の現実空間で発生した音声を取得するためのマイクである。マイク8は1台であっても複数台であってもよいが、1台または複数台のマイク8によって、移動体9の周囲360°の音声を取得できることが望ましい。マイク8は取得した音声の音声データを出力制御装置1Cに供給する。本実施形態では、以降「移動体9の周囲の現実空間で発生した音声」のことを、音声データ33と区別するため「環境音」と称する。しかしながら、本明細書における環境音は単なる物音ではなく、人の発話音声等あらゆる音が含まれていてよい。
出力制御装置1Cはカメラ7から撮影画像を取得する。また、出力制御装置1Cはマイク8から環境音を取得する。出力制御装置1Cの空間処理部13は、表示画像作成部134を含む。出力制御装置1Cの音声出力制御部15は、割当決定部154を含む。
表示画像作成部134は、カメラ7の撮影画像と仮想空間の一部の領域またはオブジェクトを描画した画像とを合成することで、各ディスプレイ4に表示させる画像を作成する。以降、特段の説明が無い箇所については、表示画像作成部134は実施形態1および2に記載の表示画像作成部133と同様の処理を実行することとする。
音声出力制御部15の割当決定部153は、音声データ33の割り当てに加え、マイク8から取得した環境音の割り当ても決定する。なお、出力制御システム300にマイク8が含まれていない場合、割当決定部153は実施形態1および2に係る割当決定部153と同様の処理を実行してよい。
なお、出力制御装置1Cに前述の車内カメラおよび/または車内センサが接続されている場合、出力制御装置1Cの空間処理部13は、車内カメラの撮影画像、および/または車内センサの測定結果に基づいて搭乗者の頭部の位置を特定してもよい。
(表示画像の作成)
表示画像作成部134は、カメラ7から取得した撮影画像からディスプレイ4それぞれに表示させる領域を切り出す。表示画像作成部134は、撮影画像から切り出す領域を、下記(1)~(3)に基づいて決定することが望ましい。
(1)移動体9の現実位置および現実の向き(すなわち、進行方向)
(2)現実空間における各ディスプレイ4の位置および向き
(3)各ディスプレイ4の大きさおよび形状
なお、空間処理部13が搭乗者の頭部の位置を特定可能な場合、表示画像作成部134は、上記(1)~(3)に加え、搭乗者の頭部の位置に基づき撮影画像から切り出す領域を決定してもよい。
(現実の風景と仮想空間の風景の合成)
表示画像作成部134は、撮影画像から切り出した画像に仮想空間の一部の領域またはオブジェクトの画像を合成することで、ディスプレイ4に表示させる画像を作成する。これにより、表示画像作成部134は、現実空間の風景と、仮想空間の風景またはオブジェクトとを合成することができる。なおこの場合、撮影画像から切り出した画像と仮想空間の画像とを合成する方法は特に限定されない。また、撮影画像から切り出した画像と仮想空間の画像との表示の割合およびレイアウトも特に限定されない。
具体例を挙げると、例えば表示画像作成部134は、撮影画像から、各ディスプレイ4が窓であった場合に移動体9の内部空間から見ることのできる領域を切り出してもよい。そして、切り出した画像、すなわち現実の風景の画像に、仮想空間上のあるオブジェクトの画像を合成して表示させてもよい。
以上の処理によれば、出力制御システム300は搭乗者に、現実世界に仮想空間の一部(前述の具体例では、あるオブジェクト)が現れたかのように見せることができる。すなわち、出力制御システム300は搭乗者に拡張現実(AR)を体感させることができる。また、出力制御システム300がマイク8を含む場合、出力制御システム300は、現実世界の環境音とともに、仮想空間を表現する音声を出力することができる。したがって、出力制御システム300は搭乗者に拡張現実(AR)を体感させることができる。
(実施形態3の変形例)
なお、図9では一例として、実施形態1に係る出力制御システム100に、本実施形態の特徴的構成を組み合わせた出力制御システム300を示している。しかしながら、出力制御システム300は、実施形態2に係る出力制御システム200の構成を含み、実施形態2において説明した処理を合わせて実行するシステムであってもよい。
〔実施形態4〕
前記各実施形態では、測位装置2は移動体9に搭載されている装置であった、しかしながら、出力制御システム100、200、および300において、測位装置2は移動体9とは別個に設置された装置であってもよい。
例えば、実施形態1~3にて説明した測位装置2は、道路近傍に設置された外部カメラであってもよい。外部カメラは道路を走行する移動体9を撮影する。外部カメラは通信機能を備えており、出力制御装置1A、1B、または1Cと通信可能である。また、出力制御装置1A、1B、または1Cは通信部を備えている。出力制御装置1A、1B、または1Cは当該通信部を介して道路上の前記外部カメラと通信することにより、該外部カメラの撮影画像を取得する。そして、位置方向特定部11は前記外部カメラの撮影画像と、地図データ34とから、移動体9の現実位置および現実の向きを特定する。
また例えば、測位装置2は、現実空間に点在する通信基地局であってもよい。この場合、出力制御装置1A、1B、または1Cは通信部を備え、少なくとも3点の前記通信基地局と同時に通信を行う。そして、位置方向特定部11は、通信基地局と、移動体9との相対的位置関係から移動体9の現実位置を特定する。また、位置方向特定部11は前述の通り現実位置を複数回特定し、その位置が変化した方向を、移動体9の進行方向、すなわち移動体9の現実の向きと特定する。
以上の構成によれば、移動体9に測位装置2を搭載しなくとも、例えば監視カメラまたは基地局等から取得する情報を用いて、移動体9の現実位置を特定することができる。したがって、移動体9に搭載する部品数を削減することができる。
〔ソフトウェアによる実現例〕
出力制御装置1A、1B、および1Cの制御ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、ソフトウェアによって実現してもよい。
後者の場合、出力制御装置1A、1B、および1Cは、各機能を実現するソフトウェアであるプログラムの命令を実行するコンピュータを備えている。このコンピュータは、例えば1つ以上のプロセッサを備えていると共に、上記プログラムを記憶したコンピュータ読み取り可能な記録媒体を備えている。そして、上記コンピュータにおいて、上記プロセッサが上記プログラムを上記記録媒体から読み取って実行することにより、本開示の目的が達成される。上記プロセッサとしては、例えばCPU(Central Processing Unit)を用いることができる。上記記録媒体としては、「一時的でない有形の媒体」、例えば、ROM(Read Only Memory)等の他、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、上記プログラムを展開するRAM(Random Access Memory)などをさらに備えていてもよい。また、上記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して上記コンピュータに供給されてもよい。なお、本開示の一態様は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
本開示は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本開示の技術的範囲に含まれる。
100、200、300 出力制御システム
1A、1B、1C 出力制御装置
2 測位装置
3 記憶装置
4 ディスプレイ
5 スピーカ
6 バイブレータ
7 カメラ
8 マイク
9 移動体
11 位置方向特定部
12 読込部
13 空間処理部
131 仮想位置決定部
132 音源決定部
133、134 表示画像作成部
14 表示制御部
15 音声出力制御部
151 再生部
152 音像制御部
153 割当決定部
16 振動制御部
31 仮想空間データ
32 音源設定情報
33 音声データ
34 地図データ

Claims (6)

  1. 移動体の内部空間に設置されたディスプレイおよびスピーカを制御する出力制御装置であって、
    前記移動体の現実空間での位置である現実位置と、前記移動体の現実空間での向きとを特定する位置方向特定部と、
    仮想音源となる3次元オブジェクトである音源オブジェクトを3次元マップに配置した仮想空間を規定する仮想空間データを記憶装置から読み込む読込部と、
    前記移動体の前記現実位置および前記現実空間での向きに応じて、前記移動体の前記仮想空間での位置である仮想位置と、前記移動体の仮想空間での向きと、を決定する仮想位置決定部と、
    前記移動体の前記仮想位置および前記仮想空間での向きと、前記ディスプレイの設置位置とに基づいて、前記仮想空間の一部の領域の画像または一部のオブジェクトの画像を前記ディスプレイに表示させる表示制御部と、
    前記スピーカから音声を出力させる音声出力制御部と、を備え、
    前記音声出力制御部は、前記移動体の前記仮想空間での向きと、前記移動体の仮想位置と前記音源オブジェクトとの相対的な位置関係と、に基づいて前記スピーカからの出力音声により形成される音像の位置を制御することを特徴とする、出力制御装置。
  2. 前記位置方向特定部は、前記移動体の前記現実位置と前記現実空間での向きとを定期的に更新し、
    前記仮想位置決定部は、更新後の前記現実位置および前記現実空間での向きに応じて前記仮想位置と前記仮想空間での向きとを更新し、
    前記表示制御部は、更新後の前記仮想位置および前記仮想空間での向きに基づいて更新された前記一部の領域の画像または前記一部のオブジェクトの画像を前記ディスプレイに表示させ、
    前記音声出力制御部は、更新後の前記仮想位置および前記仮想空間での向きに基づいて、前記音像の位置を更新することを特徴とする、請求項1に記載の出力制御装置。
  3. 前記音声出力制御部は、前記仮想空間において前記仮想位置と前記音源オブジェクトとの距離が遠いほど、当該音源オブジェクトに対応する音声の出力音量が小さくなるように前記スピーカを制御することを特徴とする、請求項1または2に記載の出力制御装置。
  4. 前記仮想位置決定部は、前記仮想空間における任意の基準点と前記仮想位置との位置関係が、前記現実空間における任意の基準点と前記現実位置との位置関係と相似するように前記仮想位置を決定し、
    前記表示制御部が前記ディスプレイに表示させる前記一部の領域の画像または前記一部のオブジェクトの画像は、前記仮想空間が前記現実空間と同一スケールで表示されるように決定されることを特徴とする、請求項1~3のいずれか1項に記載の出力制御装置。
  5. 請求項1~4のいずれか1項に記載の出力制御装置と、
    前記移動体の前記現実位置に係るデータを測定する測位装置と、
    前記記憶装置と、
    前記ディスプレイと、
    前記スピーカと、を備え、
    前記出力制御装置の前記位置方向特定部は、前記測位装置から取得した前記現実位置に係るデータに基づいて、前記移動体の前記現実位置と、前記移動体の現実空間での向きとを特定することを特徴とする、出力制御システム。
  6. 移動体の内部空間に設置されたディスプレイおよびスピーカを制御するための制御方法であって、
    前記移動体の現実空間での位置である現実位置と、前記移動体の現実空間での向きとを特定する位置方向特定ステップと、
    仮想音源となる3次元オブジェクトである音源オブジェクトを3次元マップに配置した仮想空間を規定する仮想空間データを記憶装置から読み込む読込ステップと、
    前記移動体の前記現実位置および前記現実空間での向きに応じて、前記移動体の前記仮想空間での位置である仮想位置と、前記移動体の仮想空間での向きと、を決定する仮想位置決定ステップと、
    前記移動体の前記仮想位置および前記仮想空間での向きと、前記ディスプレイの設置位置とに基づいて、前記仮想空間の一部の領域または一部のオブジェクトの画像を前記ディスプレイに表示させる表示制御ステップと、
    前記スピーカから音声を出力させる音声出力制御ステップと、を含み、
    前記音声出力制御ステップでは、前記移動体の前記仮想空間での向きと、前記移動体の仮想位置と前記音源オブジェクトとの相対的な位置関係と、に基づいて前記スピーカからの出力音声により形成される音像の位置を制御することを特徴とする、制御方法。
JP2021005317A 2021-01-15 2021-01-15 出力制御装置、出力制御システム、および制御方法 Active JP7473489B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021005317A JP7473489B2 (ja) 2021-01-15 2021-01-15 出力制御装置、出力制御システム、および制御方法
US17/565,611 US11849302B2 (en) 2021-01-15 2021-12-30 Output control device, output control system, and control method
CN202111677351.2A CN114765726A (zh) 2021-01-15 2021-12-31 输出控制装置、输出控制系统、及控制方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021005317A JP7473489B2 (ja) 2021-01-15 2021-01-15 出力制御装置、出力制御システム、および制御方法

Publications (2)

Publication Number Publication Date
JP2022109795A JP2022109795A (ja) 2022-07-28
JP7473489B2 true JP7473489B2 (ja) 2024-04-23

Family

ID=82365438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021005317A Active JP7473489B2 (ja) 2021-01-15 2021-01-15 出力制御装置、出力制御システム、および制御方法

Country Status (3)

Country Link
US (1) US11849302B2 (ja)
JP (1) JP7473489B2 (ja)
CN (1) CN114765726A (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11405720B2 (en) * 2020-12-22 2022-08-02 Meta Platforms Technologies, Llc High performance transparent piezoelectric transducers as an additional sound source for personal audio devices

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020223A (ja) 2002-06-12 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 車載用画像表示装置および車載用画像表示方法
JP2006050094A (ja) 2004-08-02 2006-02-16 Matsushita Electric Ind Co Ltd 映像音響再生システム
JP2011066763A (ja) 2009-09-18 2011-03-31 Mitsubishi Motors Corp 運転支援装置
WO2017208719A1 (ja) 2016-06-02 2017-12-07 ソニー株式会社 表示制御装置及び表示制御方法、表示装置、並びに移動体装置
JP2019137146A (ja) 2018-02-07 2019-08-22 トヨタ自動車株式会社 車両用表示装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8170222B2 (en) * 2008-04-18 2012-05-01 Sony Mobile Communications Ab Augmented reality enhanced audio
US20120212613A1 (en) * 2011-02-22 2012-08-23 Sekai Electronics, Inc. Vehicle virtual window system, components and method
US20130096820A1 (en) * 2011-10-14 2013-04-18 Continental Automotive Systems, Inc. Virtual display system for a vehicle
US20130181901A1 (en) * 2012-01-12 2013-07-18 Kanye Omari West Multiple Screens for Immersive Audio/Video Experience
JP5967026B2 (ja) 2013-07-11 2016-08-10 アンデン株式会社 車両接近通報装置
US9547173B2 (en) * 2013-10-03 2017-01-17 Honda Motor Co., Ltd. System and method for dynamic in-vehicle virtual reality
US10979843B2 (en) * 2016-04-08 2021-04-13 Qualcomm Incorporated Spatialized audio output based on predicted position data
US10390166B2 (en) * 2017-05-31 2019-08-20 Qualcomm Incorporated System and method for mixing and adjusting multi-input ambisonics
US10728689B2 (en) * 2018-12-13 2020-07-28 Qualcomm Incorporated Soundfield modeling for efficient encoding and/or retrieval

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004020223A (ja) 2002-06-12 2004-01-22 Nippon Telegr & Teleph Corp <Ntt> 車載用画像表示装置および車載用画像表示方法
JP2006050094A (ja) 2004-08-02 2006-02-16 Matsushita Electric Ind Co Ltd 映像音響再生システム
JP2011066763A (ja) 2009-09-18 2011-03-31 Mitsubishi Motors Corp 運転支援装置
WO2017208719A1 (ja) 2016-06-02 2017-12-07 ソニー株式会社 表示制御装置及び表示制御方法、表示装置、並びに移動体装置
JP2019137146A (ja) 2018-02-07 2019-08-22 トヨタ自動車株式会社 車両用表示装置

Also Published As

Publication number Publication date
JP2022109795A (ja) 2022-07-28
CN114765726A (zh) 2022-07-19
US20220232339A1 (en) 2022-07-21
US11849302B2 (en) 2023-12-19

Similar Documents

Publication Publication Date Title
KR102609668B1 (ko) 가상, 증강, 및 혼합 현실
US20230332914A1 (en) Spatial Audio Navigation
CN110651248B (zh) 用于三维数据集的空间音频
CN116156411A (zh) 用于交互式音频环境的空间音频
US9473699B2 (en) Storage medium storing information processing program, information processing device, information processing system, and information processing method
KR101901908B1 (ko) 오디오 신호 처리 방법 및 그에 따른 오디오 신호 처리 장치
JP5726201B2 (ja) 3次元立体視表示装置、3次元立体視表示制御装置、およびlsi回路
WO2017020132A1 (en) Augmented reality in vehicle platforms
JP2011523131A (ja) 表示画像の生成
JP2009116690A (ja) 画像処理装置、画像処理方法
JP2013198065A (ja) 音声提示装置
JP2006240383A (ja) クルージング支援車載情報システム
JP7473489B2 (ja) 出力制御装置、出力制御システム、および制御方法
JP2006266902A (ja) 環境音再生を伴うナビゲーション装置
CN109983784B (zh) 信息处理装置、方法和存储介质
WO2006095688A1 (ja) 情報再生装置、情報再生方法、情報再生プログラムおよびコンピュータに読み取り可能な記録媒体
CN113997863A (zh) 数据处理方法、装置和车辆
JP3899782B2 (ja) 模擬音発生装置及び模擬音発生方法
CN114902695A (zh) 信号处理装置和方法、声学再现装置和程序
US11756271B2 (en) Visualisation assembly
US20240284137A1 (en) Location Based Audio Rendering
WO2024034396A1 (ja) 情報処理装置、情報処理方法、プログラム
JP2022164079A (ja) 運転支援装置、運転支援方法及びプログラム
JP2024147696A (ja) 情報処理システム、情報処理方法および情報処理プログラム
JP2005147674A (ja) 景観記録ナビゲーション装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230705

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240222

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240411

R150 Certificate of patent or registration of utility model

Ref document number: 7473489

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150