JP2023030054A - Sound apparatus - Google Patents
Sound apparatus Download PDFInfo
- Publication number
- JP2023030054A JP2023030054A JP2022201028A JP2022201028A JP2023030054A JP 2023030054 A JP2023030054 A JP 2023030054A JP 2022201028 A JP2022201028 A JP 2022201028A JP 2022201028 A JP2022201028 A JP 2022201028A JP 2023030054 A JP2023030054 A JP 2023030054A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- image
- dimensional spatial
- predetermined space
- spatial image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000004807 localization Effects 0.000 claims abstract description 60
- 238000000034 method Methods 0.000 claims description 43
- 230000001172 regenerating effect Effects 0.000 claims 1
- 230000006870 function Effects 0.000 description 11
- 238000010586 diagram Methods 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000001934 delay Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000009434 installation Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
Images
Landscapes
- Stereophonic System (AREA)
- Optical Radar Systems And Details Thereof (AREA)
Abstract
Description
本発明は、複数スピーカから発せられる音により形成される所定空間内の音像を、その所定空間の特定位置に定位させる音響装置に関する。 The present invention relates to an acoustic device that localizes a sound image in a predetermined space formed by sounds emitted from a plurality of speakers at a specific position in the predetermined space.
例えば車載のオーディオシステムにおいて、複数のスピーカ各々の出力に遅延時間差を与えることにより、音像の定位位置を制御することは既に知られている。 For example, in an in-vehicle audio system, it is already known to control the localization position of a sound image by giving a delay time difference to each output of a plurality of speakers.
特許文献1には、定位位置受付ウインドウ300のダッシュボード画像350上の位置入力に応じて定位位置の指定を受け付け、受け付けた定位位置に音像が定位するように各スピーカ3に出力するオーディオ信号の遅延時間を設定することが記載されている。また、定位位置の指定は車両水平方向のレイアウト画像である車内レイアウト画像850を表示して定位位置の指定を受け付けることも記載されている。 Japanese Patent Application Laid-Open No. 2002-200000 discloses an audio signal output to each speaker 3 that accepts designation of a localization position in accordance with a position input on a dashboard image 350 of a localization position reception window 300, and localizes a sound image to the accepted localization position. Setting the delay time is described. It is also described that designation of the localization position is performed by displaying a vehicle interior layout image 850, which is a layout image in the horizontal direction of the vehicle, to receive the designation of the localization position.
特許文献1に記載の発明の場合、2次元的な位置で定位位置を指定しているため、例えば、車両の幅方向、高さ方向、奥行き方向うち、1方向については指定ができず、正確な定位位置の指定が困難であった。 In the case of the invention described in Patent Document 1, since the localization position is designated by a two-dimensional position, for example, one direction out of the width direction, the height direction, and the depth direction of the vehicle cannot be designated, and it cannot be specified accurately. It was difficult to specify the correct stereotactic position.
本発明が解決しようとする課題としては、正確な定位位置の指定を容易にすることが一例として挙げられる。 One example of the problem to be solved by the present invention is to facilitate designation of an accurate stereotactic position.
上記課題を解決するために、請求項1に記載の発明は、複数スピーカから発せられる音により形成される所定空間内の音像を前記所定空間の特定位置に定位させる定位制御部を備える音響装置であって、前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得部と、前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示部へ出力する出力部と、を備えることを特徴としている。 In order to solve the above-mentioned problems, the invention according to claim 1 is an acoustic device comprising a localization control unit that localizes a sound image in a predetermined space formed by sounds emitted from a plurality of speakers to a specific position in the predetermined space. an acquisition unit that acquires a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space; and a reception that can receive designation of the specific position. and an output unit configured to output the three-dimensional spatial image acquired by the acquisition unit to a display unit in order to accept designation of the specific position from the unit.
請求項7に記載の発明は、所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得部と、前記所定空間の特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示する表示部と、前記受付部で受け付けた前記特定位置を複数スピーカから発せられる音により形成される音像を定位させる位置の情報として出力する出力部と、を備えることを特徴としている。 According to a seventh aspect of the present invention, an acquisition unit acquires a three-dimensional spatial image of the predetermined space generated based on three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space; a display unit for displaying the three-dimensional spatial image acquired by the acquisition unit to accept the specification of the specific position from a reception unit capable of accepting the specification of the position; and the specific position received by the reception unit from multiple speakers. and an output unit for outputting information on a position for localizing a sound image formed by the emitted sound.
請求項8に記載の発明は、複数スピーカから発せられる音により形成される所定空間内の音像を前記所定空間の特定位置に定位させる音響装置で実行される音響制御方法であって、前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得工程と、前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得工程で取得した前記三次元空間画像を表示部へ出力する出力工程と、を含むことを特徴としている。 According to an eighth aspect of the invention, there is provided a sound control method executed by an acoustic device for localizing a sound image in a predetermined space formed by sounds emitted from a plurality of speakers at a specific position in the predetermined space, wherein an acquisition step of acquiring a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information; and an output step of outputting the three-dimensional spatial image acquired in the acquisition step to a display unit in order to accept designation.
請求項9に記載の発明は、請求項8に記載の音響制御方法を、コンピュータにより実行させることを特徴としている。 According to a ninth aspect of the invention, the acoustic control method according to the eighth aspect is executed by a computer.
以下、本発明の一実施形態にかかる音響装置を説明する。本発明の一実施形態にかかる音響装置は、取得部が所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した所定空間の三次元空間画像を取得し、出力部が特定位置の指定を受け付け可能な受付部から特定位置の指定を受け付けるために取得部が取得した三次元空間画像を表示部へ出力する。このようにすることにより、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、所定空間を再現した三次元空間画像により正確な定位位置の指定を容易にすることができる。 An acoustic device according to an embodiment of the present invention will be described below. An audio device according to an embodiment of the present invention acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired by an acquisition unit from a sensor capable of acquiring three-dimensional information of a predetermined space, and an output unit The three-dimensional spatial image acquired by the acquiring unit is output to the display unit in order to accept the specification of the specific position from the accepting unit capable of accepting the specification of the specific position. By doing so, it is possible to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and it is easy to specify an accurate localization position by the three-dimensional spatial image that reproduces the predetermined space. can be
また、三次元空間画像は、逐次更新され、出力部は、更新された三次元空間画像を出力するようにしてもよい。このようにすることにより、所定空間内における人物の出入りや位置の変化等に対応した三次元空間画像に基づいて特定位置の指定をすることができる。 Also, the three-dimensional spatial image may be sequentially updated, and the output unit may output the updated three-dimensional spatial image. By doing so, it is possible to designate a specific position based on a three-dimensional spatial image corresponding to the entry and exit of a person in a predetermined space, the change in position, and the like.
また、取得部が取得した三次元空間画像内の人物を識別する識別部を更に備え、出力部は、人物が識別された三次元空間画像を出力し、受付部は、人物の指定が可能であり、定位制御部は、受付部で人物が指定された場合は、指定された人物に対応する位置に音像を定位させてもよい。このようにすることにより、例えば車両の車室内の座席に人物が着席していた場合は、その人物を指定することで、当該人物に対応する位置に音像を定位させることが可能となる。 Further, an identification unit for identifying a person in the three-dimensional space image acquired by the acquisition unit is further provided, the output unit outputs the three-dimensional space image in which the person is identified, and the reception unit is capable of specifying the person. Yes, when a person is specified by the reception unit, the localization control unit may localize the sound image at a position corresponding to the specified person. By doing so, for example, when a person is seated in a seat inside the vehicle, by designating the person, it is possible to localize the sound image at the position corresponding to the person.
また、識別部は、複数の三次元空間画像から人物の頭部の位置の変化を検出し、定位制御部は、受付部で人物が指定された場合は、識別部で検出された頭部の位置の変化に基づいて頭部に音像の定位位置を追従させるようにしてもよい。このようにすることにより、例えば顔の向きや座席の角度等が変化した場合であっても、それらに応じて音像の定位位置を追従させることができる。 The identification unit detects a change in the position of the person's head from a plurality of three-dimensional spatial images. The localization position of the sound image may be tracked by the head based on the change in position. By doing so, even if the orientation of the face, the angle of the seat, or the like changes, the localization position of the sound image can be followed accordingly.
また、センサは、所定空間内に電磁波を出射して当該所定空間内の物体によって反射された電磁波を受信することで物体までの距離を測定可能となっていてもよい。このようにすることにより、所謂ライダ(LiDAR;Light Detection And Ranging)により取得された点群情報に基づいて三次元空間画像を生成することができる。 Further, the sensor may measure the distance to an object by emitting electromagnetic waves into a predetermined space and receiving electromagnetic waves reflected by an object in the predetermined space. By doing so, it is possible to generate a three-dimensional spatial image based on the point group information acquired by a so-called lidar (LiDAR: Light Detection And Ranging).
また、音響装置は車両に設置され、所定空間は車室空間であってもよい。このようにすることにより、車両の車室空間の音像を特定位置に定位させることができる。 Also, the audio device may be installed in a vehicle, and the predetermined space may be a vehicle interior space. By doing so, the sound image in the cabin space of the vehicle can be localized at a specific position.
また、本発明の一実施形態にかかる端末装置は、取得部が所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した所定空間の三次元空間画像を取得し、表示部が所定空間の特定位置の指定を受け付け可能な受付部から特定位置の指定を受け付けるために取得部が取得した三次元空間画像を表示する。そして、出力部が受付部で受け付けた特定位置を複数スピーカから発せられる音により形成される音像を定位させる位置の情報として出力する。このようにすることにより、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、所定空間を再現した三次元空間画像により端末装置から正確な定位位置の指定を容易にすることができる。 Further, the terminal device according to an embodiment of the present invention acquires and displays a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired by the acquisition unit from a sensor capable of acquiring three-dimensional information of the predetermined space. The three-dimensional spatial image acquired by the acquiring unit is displayed so that the unit can accept the specification of the specific position from the accepting unit that can accept the specification of the specific position in the predetermined space. Then, the output unit outputs the specific position received by the receiving unit as position information for localizing the sound image formed by the sounds emitted from the plurality of speakers. By doing so, it is possible to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and to accurately localize the localization position from the terminal device using the three-dimensional spatial image that reproduces the predetermined space. specification can be facilitated.
また、本発明の一実施形態にかかる音響制御方法は、取得工程で所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した所定空間の三次元空間画像を取得し、出力工程で特定位置の指定を受け付け可能な受付部から特定位置の指定を受け付けるために取得部が取得した三次元空間画像を表示部へ出力する。このようにすることにより、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、所定空間を再現した三次元空間画像により正確な定位位置の指定を容易にすることができる。 Further, the acoustic control method according to one embodiment of the present invention acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space in the acquiring step, In the output step, the three-dimensional spatial image acquired by the acquiring unit for accepting the specification of the specific position from the accepting unit capable of accepting the specification of the specific position is output to the display unit. By doing so, it is possible to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and it is easy to specify an accurate localization position by the three-dimensional spatial image that reproduces the predetermined space. can be
また、上述した音響制御方法を、コンピュータにより実行させてもよい。このようにすることにより、コンピュータを用いて、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、正確な定位位置の指定を容易にすることができる。 Also, the acoustic control method described above may be executed by a computer. By doing so, it is possible to use a computer to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and it is possible to easily specify an accurate localization position. .
本発明の第1の実施例にかかる音響装置を図1~図5を参照して説明する。音響装置10は、例えば自動車等の車両に搭載されている。音響装置10を有する音響システムの機能的構成を図1に示す。音響システムは、オーディオ機器1と、を遅延調整部2(2R、2L)と、スピーカ3(3R、3L)と、制御部4と、タッチパネル5と、表示部6と、ライダ7と、備えている。また、音響システムは、本実施例では、車両に搭載されて、所定の空間としての車室内の音響を制御する。
An acoustic device according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 5. FIG. The
オーディオ機器1は、CDプレイヤ、メモリーオーディオ、ラジオチューナ或いはストリーミング配信の受信装置などのユーザの聴取の目的となるオーディオ信号を出力する機器である。 The audio device 1 is a device, such as a CD player, a memory audio device, a radio tuner, or a receiving device for streaming distribution, which outputs an audio signal to be listened to by a user.
遅延調整部2は、本実施例では、左チャンネル用の遅延調整部2Lと右チャンネル用の遅延調整部2Rからなる。遅延調整部2Lは、オーディオ機器1から左チャネルのスピーカ3Lに出力される左チャネルのオーディオ信号を設定された遅延時間だけ遅延させる。遅延調整部2Rは、オーディオ機器1から右チャネルのスピーカ3Rに出力される右チャネルオーディオ信号を設定された遅延時間だけ遅延させる。
In this embodiment, the delay adjustment section 2 comprises a left channel
制御部4は、生成部41と、音像制御部42と、を備えている。制御部41は、例えばCPUを有するマイクロコンピュータで構成されている。生成部41と、音像制御部42と、はCPUで実行されるコンピュータプログラムの機能として実現すればよい。
The
生成部41は、ライダ7が出力した点群情報に対して周知の方法によりポリゴン等によってモデリングをして三次元空間画像を生成する。即ち、制御部4は、点群情報に基づき三次元空間画像を生成して取得する取得部として機能する。また、生成部41は、生成した三次元空間画像を表示部6に出力して表示部6に表示させる。即ち、制御部4(生成部41)は、三次元空間画像を表示部6へ出力する出力部として機能する。
The
音像制御部42は、タッチパネル5においてタッチされた位置座標を取得し、その位置座標に対応する三次元空間画像上の三次元座標(x,y,z)を特定する。そして、特定された三次元座標に対応する現実の空間における位置にスピーカ3L、3Rから発せられる音により形成される音像を定位させるように遅延調整部2L、2Rの遅延量を調整して設定する。即ち、制御部4(音像制御部42)は、スピーカ3L、3Rから発せられる音により形成される車室内の音像を特定位置に定位させる定位制御部として機能する。
The sound
タッチパネル5は、表示部6の表示面上に重ねるように配置されている。タッチパネル5は、例えば手指等で触れた位置の二次元座標が出力される周知の入力装置である。表示部6は、例えば液晶ディスプレイ等で構成されている。表示部6は、制御部4で生成された三次元空間画像等が表示される。なお、本実施例では、タッチパネル5は、表示部6の表示面上に重ねるように配置されているが、表示部6がダッシュボード上に配置され、タッチパッドとしてシフトレバーの近傍やステアリングホイール等に設けられているような、それぞれが分かれて配置されている形態であってもよい。
The
ライダ7は、所定空間として車室内あるいは車室内を走査できる位置に設置されている。ライダ7は、当該ライダ7が走査する周囲に存在する物体を認識するセンサであり、LiDAR(Light Detection And Ranging)とも表記される。ライダ7は、レーザ光等の電磁波を照射してその電磁波の反射波(反射光)により、走査範囲に存在する物体までの方向と距離を離散的に測定し、当該物体の位置や形状等を三次元の点群として認識する公知のセンサである。したがって、ライダ7で認識された点群は三次元情報としての点群情報として出力される。 The lidar 7 is installed in a vehicle interior as a predetermined space or at a position capable of scanning the interior of the vehicle. The lidar 7 is a sensor that recognizes an object existing in the surroundings scanned by the lidar 7, and is also referred to as LiDAR (Light Detection And Ranging). The lidar 7 emits an electromagnetic wave such as a laser beam, and discretely measures the direction and distance to an object existing within the scanning range based on the reflected wave (reflected light) of the electromagnetic wave, and determines the position, shape, etc. of the object. This is a known sensor that recognizes as a three-dimensional point cloud. Therefore, the point cloud recognized by the lidar 7 is output as point cloud information as three-dimensional information.
ライダ7は、1つに限らず、複数設置されていてもよい。ライダ7の数や設置位置は、例えば車両であれば、対象となる車室空間の大きさに応じて適宜定めればよい。 The number of riders 7 is not limited to one, and a plurality of riders may be installed. In the case of a vehicle, for example, the number and installation positions of the riders 7 may be appropriately determined according to the size of the vehicle interior space to be covered.
ここで、上述した遅延調整部2と、制御部4と、は本実施例にかかる音響装置10として機能する。
Here, the above-described delay adjustment unit 2 and
次に、上述した構成の音響装置10の動作(音響制御方法)について図2~図5を参照して説明する。図2に示したフローチャートは制御部4で実行される。また、図2に示したフローチャートを制御部4が有するCPUで実行するプログラムとして構成することで音響制御プログラムとすることができる。
Next, the operation (acoustic control method) of the
まず、ステップS11において、生成部41は、点群情報をライダ7から取得する。次に、ステップS12において、生成部41は、上述したように、ライダ7から取得した点群情報に対して周知の方法によりポリゴン等によってモデリングをして三次元空間画像を生成する。ライダ7が複数ある場合は、複数の点群情報を合成して三次元空間画像を生成してもよい。三次元空間画像の例を図3に示す。図3は、車両の車室内を左前方斜め上方の視点から見た三次元空間画像である。図3に示したのは左前方斜め上方からの視点であるが、タッチパネル5からの操作により回転やズームイン、ズームアウト等、任意の視点に変更可能となっている。
First, in step S<b>11 , the
次に、ステップS13において、生成部41は、ステップS12で生成した三次元空間画像を表示部6に表示させる。
Next, in step S13, the
次に、ステップS14において、音像制御部42は、タッチパネル5から音像を定位させる特定位置(以下、単に定位位置という)の指定を取得する(受け付ける)。ここで、表示部6に表示された三次元空間画像から定位位置を示す座標位置の特定方法について説明する。図3に示したような視点の三次元空間画像において、例えば運転席の位置をタッチして指定したとしても、表示部6における表示は二次元であるので、そのままでは正確な三次元の座標(x,y,z)を特定するのは困難である。そこで、本実施例では、まずは、図4に示したような車室を横から見た視点で表示して、ユーザにタッチパネル5をタッチさせることで、定位位置Pの車両の奥行き方向と高さ方向における位置を指定してもらい、次に、図5に示したような車室を前方から見た視点で表示して、ユーザにタッチパネル5をタッチさせることで、定位位置Pの車両の幅方向における位置をユーザに指定してもらう。このようにして、三次元空間画像における指定された定位位置の三次元の座標を特定する。
Next, in step S<b>14 , the sound
なお、図4と図5の表示順序は逆でもよい。図4と図5の表示順序は逆にした場合は、図5の表示において定位位置Pの車両の幅方向と高さ方向の位置をユーザに指定してもらい、続く図4の表示において定位位置Pの車両の奥行き方向の位置をユーザに指定してもらう。また、図4の表示後に図5を表示する際に、図4で指定した高さ方向に位置を表示させて図5における指定時に参照できるようにしてもよいし、図5の表示の際に定位位置Pの高さ方向の位置を再指定できるようにしてもよい。 Note that the display order of FIGS. 4 and 5 may be reversed. If the display order of FIGS. 4 and 5 is reversed, the user is asked to specify the position of the orientation position P in the width direction and height direction of the vehicle in the display of FIG. The user is asked to specify the position of P in the depth direction of the vehicle. Further, when displaying FIG. 5 after displaying FIG. 4, the position in the height direction specified in FIG. 4 may be displayed so that it can be referred to when specifying in FIG. The position of the localization position P in the height direction may be redesignated.
さらには、車室を横から見た視点ではなく、上から見た視点であってもよい。要するに、車両の幅方向、高さ方向、奥行き方向のうち、少なくとも2つの方向にかかる位置が特定できればよい。 Furthermore, the view may be from above instead of from the side. In short, it suffices if positions in at least two directions out of the width direction, the height direction, and the depth direction of the vehicle can be specified.
つまり、制御部4は、ステップS13では、音像を定位させる特定位置の指定を受け付け可能なタッチパネル5(受付部)から定位位置の指定を受け付けるために、三次元空間画像を表示部6へ出力し、ステップS14では、タッチパネル5から定位位置の指定を受け付けている。
That is, in step S13, the
次に、ステップS15において、音像制御部42は、ステップS14で指定された定位位置に音像が定位するように遅延調整部2L、2Rをそれぞれ調整する。具体的には、車室内のスピーカ3L、3Rの配置位置は予め判明しているため、三次元空間画像におけるスピーカ3L、3Rの位置座標も判明している。そして、ステップS14で指定された定位位置からスピーカ3Lまでの距離と、ステップS14で指定された定位位置からスピーカ3Rまでの距離と、をそれぞれ互いの座標に基づいて求める。そして、求めた距離の短い方のスピーカ3からの出力を距離長い方のスピーカ3との距離の差分に応じて遅延させる。
Next, in step S15, the sound
次に、ステップS16において、音像制御部42は、例えば再調整の要否についてのメッセージ等を表示部6に表示させ、再調整が必要との入力がタッチパネル5からあった場合(YESの場合)はステップS17に進む。一方、再調整が不要との入力がタッチパネル5からあった場合(NOの場合)はフローチャートを終了する。
Next, in step S16, the sound
次に、ステップS17において、三次元空間画像の再生成が必要か否かを判断し、必要な場合(YESの場合)はステップS11に戻り、不要な場合(NOの場合)はステップS14に戻る。ステップS17では、例えば表示部6に三次元空間画像の再生成が必要か表示してユーザに選択させる。ユーザが必要との選択をした場合はステップS11に戻り再度三次元空間画像を生成する。ユーザが不要との選択をした場合はステップS14に戻り定位位置の取得をする。このようにして、三次元空間画像は逐次更新され、必要に応じて更新された三次元空間画像が表示部6に出力される。
Next, in step S17, it is determined whether or not the three-dimensional spatial image needs to be regenerated. If necessary (YES), the process returns to step S11. If not necessary (NO), the process returns to step S14. . In step S17, for example, the
以上の説明から明らかなように、ステップS12が取得工程、ステップS13が出力工程として機能する。 As is clear from the above description, step S12 functions as an acquisition process, and step S13 functions as an output process.
なお、図2のフローチャートでは、三次元空間画像は逐次更新されていたが、一度生成し、その後は更新しないようにしてもよい。また、生成された三次元空間画像は、制御部4内のメモリ等に保存してもよい。また、保存先は制御部4内に限らず、例えば着脱自在なメモリーカード等であってもよいし、通信部等を備えて、外部サーバ等に送信して保存するようにしてもよい。外部サーバに保存した場合は、次回定位位置の指定を行う際は、ステップS11、S12を省略し、外部サーバから三次元空間画像を取得するステップを実行してからステップS13以降を実行すればよい。
In addition, in the flowchart of FIG. 2, the three-dimensional spatial image is sequentially updated, but it may be generated once and then not updated. Also, the generated three-dimensional spatial image may be stored in a memory or the like within the
本実施例によれば、音響装置1は、制御部4がライダ7から取得した点群情報に基づき生成した車室内の三次元空間画像を生成して取得し、定位位置の指定を受け付け可能なタッチパネル5から定位位置の指定を受け付けるために三次元空間画像を表示部6へ出力する。このようにすることにより、表示部6に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、車室空間を再現した三次元空間画像により正確な定位位置の指定を容易にすることができる。
According to this embodiment, the acoustic device 1 can generate and acquire a three-dimensional spatial image of the vehicle interior generated by the
また、三次元空間画像は、逐次更新され、制御部4は、更新された三次元空間画像を出力するようにしている。このようにすることにより、車室内における搭乗者の乗降等に対応した三次元空間画像に基づいて定位位置の指定をすることができる。
Also, the three-dimensional spatial image is successively updated, and the
次に、本発明の第2の実施例にかかる音響装置10Aを図6~図7を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。 Next, an acoustic device 10A according to a second embodiment of the invention will be described with reference to FIGS. 6 and 7. FIG. The same reference numerals are given to the same parts as those of the first embodiment described above, and the description thereof will be omitted.
図6に本実施例にかかる音響装置10Aを有する音響システムの機能的構成を示す。音響システムは、車載機20と、スピーカ3(3L、3R)と、ライダ7と、端末装置30と、を有している。ここで、スピーカ3(3L、3R)及びライダ7は、第1の実施例と同様である。
FIG. 6 shows a functional configuration of an audio system having an audio device 10A according to this embodiment. The acoustic system has an
車載機20は、例えば車両に搭載されている。車載機20は、図6に示したように、オーディオ機器1と、遅延調整部2(2L、2R)と、制御部4Aと、通信部8と、を備えている。
The in-
オーディオ機器1及び遅延調整部2は、第1の実施例と同様である。制御部4Aは、生成部41Aと、音像制御部42Aと、を備えている。
The audio equipment 1 and the delay adjustment section 2 are the same as in the first embodiment. The
生成部41Aは、三次元空間画像を生成することは第1の実施例と同様であるが、生成した三次元空間画像は、通信部8を介して端末装置30へ送信する点が第1の実施例と異なる。
The
音像制御部42Aは、算出された三次元座標に対応する現実の空間の位置にスピーカ3L、3Rから発せられる音により形成される音像を定位させるように遅延調整部2L、2Rの遅延量を調整することは第1の実施例と同様であるが、タッチパネル33をタッチされた位置座標を端末装置30から通信部8を介して取得し、その位置座標に対応する三次元空間画像上の三次元座標を特定する点が第1の実施例と異なる。
The sound
通信部8は、生成部41Aで生成された三次元空間画像を端末装置30へ送信し、端末装置30からタッチパネル33をタッチされた位置座標を受信する。通信部8は、例えば、Bluetooth(登録商標)やWi-Fi(登録商標)或いは赤外線通信等の無線通信により端末装置30と通信する。
The communication unit 8 transmits the three-dimensional spatial image generated by the
端末装置30は、例えばスマートフォン等の可搬性を有する電子機器である。端末装置30は、通信部31と、制御部32と、タッチパネル33と、表示部34と、を備えている。
The
通信部31は、タッチパネル33をタッチされた位置座標を車載機20へ送信し、車載機20から生成部41Aで生成された三次元空間画像を受信する。
The
制御部32は、端末装置30の全体制御を司る。制御部32は、通信部31が受信した三次元空間画像を表示部34に表示させ、タッチパネル33でタッチされた位置座標を取得し通信部31を介して車載機20へ送信する。
The
タッチパネル33は、表示部34の表示面上に重ねるように配置されている。タッチパネル33は、例えば手指等で触れた位置の二次元座標が出力される周知の入力装置である。表示部34は、例えば液晶ディスプレイ等で構成されている。表示部34は、制御部32から出力された三次元空間画像等が表示される。
The
ここで、上述した遅延調整部2と、制御部4と、通信部8と、は本実施例にかかる音響装置10Aとして機能する。
Here, the delay adjustment unit 2, the
また、端末装置30の通信部31は、ライダ7から取得した点群情報に基づき生成した車室内の三次元空間画像を取得する取得部と、タッチパネル33で受け付けた特定位置を音像を定位させる位置の情報として出力する出力部と、して機能する。また、表示部34は、車室内に音像を定位させる特定位置の指定を受け付け可能なタッチパネル33から特定位置の指定を受け付けるために通信部31が受信した三次元空間画像を表示する表示部として機能する。
In addition, the
次に、上述した構成の音響装置10Aの動作(音響制御方法)について図7を参照して説明する。図7に示したフローチャートは車載機20の制御部4Aと端末装置30の制御部32で実行される。
Next, the operation (acoustic control method) of the acoustic device 10A having the configuration described above will be described with reference to FIG. The flowchart shown in FIG. 7 is executed by the
まず、車載機20側の動作を説明する。ステップS21において、制御部4Aは、点群情報をライダ7から取得する。次に、ステップS22において、制御部4Aは、ライダ7から取得した点群情報に対して周知の方法により三次元空間画像を生成する。
First, the operation of the in-
次に、ステップS23において、制御部4Aは、端末装置30から三次元空間画像の要求情報を受信したことにより三次元空間画像の要求があったか否かを判断し、要求がない場合(NOの場合)はステップS21へ戻り、要求あった場合(YESの場合)はステップS24において、生成部41Aで生成された三次元空間画像を通信部8に端末装置30へ送信させる。ステップS23において、要求がないとしてステップS21へ戻った場合は再度点群情報を取得して(ステップS21)、三次元空間画像を再生成する(ステップS22)ことで逐次更新がされる。
Next, in step S23, the
次に、ステップS25において、制御部4Aは、端末装置30から定位位置情報を通信部8を介して受信する。そして、ステップS26において、制御部4Aは、ステップS24で受信した定位位置に音像が定位するように遅延調整部2L、2Rをそれぞれ調整してステップS21へ戻る。調整方法は第1の実施例と同様である。
Next, in step S25, the
ステップS21へ戻ると再度点群情報を取得して(ステップS21)、三次元空間画像を再生成する(ステップS22)ことで逐次更新される。そして、端末装置30から再生成された三次元空間画像の要求情報がある場合はステップS24以降が実行され、三次元空間画像の要求情報がない場合はステップS21へ戻る。
When the process returns to step S21, the point group information is acquired again (step S21), and the three-dimensional spatial image is regenerated (step S22), thereby sequentially updating. Then, if there is request information for a regenerated three-dimensional spatial image from the
次に、端末装置30側の動作を説明する。ステップS31において、制御部32は、三次元空間画像の要求情報を通信部31に車載機20へ送信させる。次に、ステップS32において、制御部32は、三次元空間画像を車載機20から通信部31を介して受信する。
Next, the operation of the
次に、ステップS33において、制御部32は、ステップS32で受信した三次元空間画像を表示部34に表示させる。
Next, in step S33, the
次に、ステップS34において、制御部32は、タッチパネル33から音像の定位位置の指定を取得する(受け付ける)。定位位置の取得方法は第1の実施例と同様である。
Next, in step S<b>34 , the
次に、ステップS35において、制御部32は、ステップS34で取得した定位位置を定位位置情報として通信部31に車載機20へ送信させる。
Next, in step S35, the
次に、ステップS36において、制御部32は、例えば再調整の要否についてのメッセージ等を表示部34に表示させ、再調整が必要との入力がタッチパネル33からあった場合(YESの場合)はステップS37に進む。一方、再調整が不要との入力がタッチパネル33からあった場合(NOの場合)はフローチャートを終了する。
Next, in step S36, the
次に、ステップS37において、三次元空間画像の再生成が必要か否かを判断し、必要な場合(YESの場合)はステップS31に戻り、不要な場合(NOの場合)はステップS34に戻る。ステップS37では、例えば表示部6に三次元空間画像の再生成が必要か表示してユーザに選択させる。ユーザが必要との選択をした場合はステップS31に戻り再生成された三次元空間画像を要求する。ユーザが不要との選択をした場合はステップS34に戻り定位位置の取得をする。
Next, in step S37, it is determined whether or not the three-dimensional spatial image needs to be regenerated. If necessary (YES), the process returns to step S31. If not necessary (NO), the process returns to step S34. . In step S37, for example, the
本実施例によれば、端末装置30は、制御部32がライダ7から取得した三次元情報に基づき生成した車室内の三次元空間画像を取得し、表示部34が車室内の定位位置の指定を受け付け可能なタッチパネル33から定位位置の指定を受け付けるために三次元空間画像を表示する。そして、通信部31が定位位置情報を出力する。このようにすることにより、表示部34に表示された三次元空間画像に基づいて音像を定位させる定位位置の指定が可能となり、端末装置30から正確な定位位置の指定を容易にすることができる。
According to this embodiment, the
また、可搬性のある端末装置30から定位位置の指定ができるので、車載機20の設置位置に関わらず、定位位置を指定することができる。
In addition, since the localization position can be specified from the portable
次に、本発明の第3の実施例にかかる音響装置10を図8~図10を参照して説明する。なお、前述した第1、第2の実施例と同一部分には、同一符号を付して説明を省略する。
Next, an
本実施例は、機能的構成は第1の実施例と同様であるが、音響装置10の動作(音響制御方法)が一部異なる。本実施例にかかる音響装置10の動作(音響制御方法)について図8を参照して説明する。図8に示したフローチャートは制御部4で実行される。
This embodiment has the same functional configuration as the first embodiment, but is partially different in the operation of the audio device 10 (sound control method). The operation (acoustic control method) of the
まず、ステップS41において、生成部41は、点群情報をライダ7から取得する。次に、ステップS42において、生成部41は、上述したように、ライダ7から取得した点群情報に対して三次元空間画像を生成する。
First, in step S<b>41 , the
ステップS42においては、生成部41は、三次元空間画像を生成する際に、車室内にいる人物(搭乗者)を点群情報からオブジェクト認識等により認識し、三次元空間画像内で人物を識別して表示可能となっている。即ち、制御部4(生成部41)が、三次元空間画像内の人物を識別する識別部として機能する。人物が識別された三次元空間画像の例を図9に示す。図9は、図6に人物を加えたものである。図9に示すように人物はそれぞれが識別できるように、例えば“A”、“B”といったラベルが付与されている。なお、ラベルに代えてそれぞれ人物に異なる色や模様等を付加するようにしてもよい。
In step S42, when generating a three-dimensional spatial image, the
次に、ステップS43において、生成部41は、ステップS42で生成した三次元空間画像を表示部6に表示させる。
Next, in step S43, the
次に、ステップS44において、音像制御部42は、タッチパネル5から音像を定位させる人物の指定を取得する(受け付ける)。例えば図8であれば、“A”又は“B”のいずれかをタッチすることで人物を指定することとなる。なお、本実施例では人物のタッチする位置は頭部であっても胴体であっても定位位置は顔の正面中央(頭部)とする。この定位位置の位置座標は、三次元空間画像内の人物の位置に基づいて自動的に特定される。また、人物をタッチした場合に自動的に特定される定位位置は、顔の正面中央に限らず耳など他の位置であってもよい。あるいは、例えば胸部をタッチした場合は胸部を定位位置としてもよい。
Next, in step S<b>44 , the sound
次に、ステップS45において、音像制御部42は、ステップS44で指定された人物の頭部に音像が定位するように遅延調整部2L、2Rをそれぞれ調整する。調整方法は第1の実施例と同様である。即ち、制御部4(音像制御部42)は、人物が指定された場合は、指定された人物に対応する位置に音像を定位させる。
Next, in step S45, the sound
次に、ステップS46において、生成部41は、点群情報をライダ7から取得する。このステップS46はステップS47の判断のために行うものである。そして、ステップS47において、追従位置に変化があるか否かを判断し、変化がある場合はステップS45へ戻り、変化がない場合はステップS46へ戻る。
Next, in step S<b>46 , the
ステップS47の追従位置とは、ステップS45で音像を定位させた人物の頭部である。これは、ステップS46で取得した点群情報から生成された三次元空間画像における人物の頭部の位置が、ステップS41又は前回実行したステップS46で取得した人物の頭部の位置から変化していた場合は、頭部が動いたとして、頭部の動きに追従すべくステップS45へ戻る。そして、ステップS46で取得した点群情報から生成された三次元空間画像における人物の頭部の位置に音像を定位させる。 The follow-up position in step S47 is the head of the person whose sound image is localized in step S45. This is because the position of the person's head in the three-dimensional spatial image generated from the point cloud information acquired in step S46 has changed from the position of the person's head acquired in step S41 or previously executed step S46. If so, it is determined that the head has moved, and the process returns to step S45 to follow the movement of the head. Then, the sound image is localized at the position of the person's head in the three-dimensional space image generated from the point group information acquired in step S46.
追従の例を図10に示す。図10は、座席に着席している人物が背もたれを倒して背もたれの角度を変化させた場合の例である。図10場合、座席の角度を変化させたことにより頭部の位置が変化しことに追従して定位位置Pが定位位置P’に移動する。 An example of tracking is shown in FIG. FIG. 10 shows an example in which a person sitting on a seat tilts the backrest to change the angle of the backrest. In the case of FIG. 10, when the angle of the seat is changed, the orientation position P moves to the orientation position P' following the change in the position of the head.
一方、ステップS46で取得した点群情報から生成された三次元空間画像における人物の頭部の位置が、ステップS41又は前回実行したステップS46で取得した人物の頭部の位置から変化していない場合は、頭部が動いていないとして、ステップS45は実行せずに、ステップS46で再度点群情報の取得を行う。 On the other hand, when the position of the person's head in the three-dimensional space image generated from the point cloud information acquired in step S46 has not changed from the position of the person's head acquired in step S41 or the previously executed step S46 If the head does not move, step S45 is not executed, and point cloud information is acquired again in step S46.
なお、本実施例において、ステップS46で取得した点群情報に基づいて三次元空間画像を生成して(更新して)表示部6に表示させてもよい。
In this embodiment, a three-dimensional spatial image may be generated (updated) based on the point cloud information acquired in step S46 and displayed on the
また、図8に示したフローチャートは、人物を指定した場合の動作であるが、例えば図9に示したような三次元空間画像において、“A”と“B”の間に音像を定位させる場合は、第1の実施例の要領で行えばよい。つまり、タッチ位置(指定した位置)に応じて、人物をタッチした場合はステップS44以降が実行され、人物以外をタッチした場合はステップS14以降が実行されるようにしてもよい。 The flowchart shown in FIG. 8 is the operation when a person is specified. For example, in the three-dimensional spatial image shown in FIG. may be performed in the same manner as in the first embodiment. That is, according to the touch position (specified position), steps S44 and subsequent steps may be executed when a person is touched, and steps S14 and subsequent steps may be executed when a person other than a person is touched.
本実施例によれば、制御部4の生成部41が、三次元空間画像内の人物を識別し、人物が識別された三次元空間画像を出力している。また、タッチパネル5は、人物の指定が可能であり、遅延調整部2は、タッチパネル5で人物が指定された場合は、指定された人物に対応する位置に音像を定位させている。このようにすることにより、例えば車両の車室内の座席に人物が着席していた場合は、その人物を指定することで、当該人物に対応する位置に音像を定位させることが可能となる。
According to this embodiment, the
また、制御部4は、複数の三次元空間画像から人物の頭部の位置の変化を検出し、遅延調整部2は、タッチパネル5で人物が指定された場合は、制御部4で検出された頭部の位置の変化に基づいて頭部に音像の定位位置を追従させるようにしている。このようにすることにより、例えば顔の向きや座席の角度等が変化した場合であっても、それらに応じて音像の定位位置を追従させることができる。
In addition, the
次に、本発明の第4の実施例にかかる音響装置10Aを図11を参照して説明する。なお、前述した第1~第3の実施例と同一部分には、同一符号を付して説明を省略する。 Next, an acoustic device 10A according to a fourth embodiment of the invention will be described with reference to FIG. The same parts as those of the first to third embodiments described above are denoted by the same reference numerals, and descriptions thereof are omitted.
本実施例は、機能的構成は第2の実施例と同様であるが、音響装置10Aの動作(音響制御方法)が一部異なる。本実施例にかかる音響装置10Aの動作(音響制御方法)について図11を参照して説明する。図11に示したフローチャートは車載機20の制御部4Aと端末装置30の制御部32で実行される。
This embodiment has the same functional configuration as the second embodiment, but is partially different in the operation (acoustic control method) of the audio device 10A. The operation (acoustic control method) of the acoustic device 10A according to this embodiment will be described with reference to FIG. The flowchart shown in FIG. 11 is executed by the
まず、車載機20側の動作を説明する。ステップS51において、制御部4Aは、点群情報をライダ7から取得する。次に、ステップS52において、制御部4Aは、周知の方法により三次元空間画像を生成する。なお、ステップS52で生成される三次元空間画像は、第3の実施例と同様に人物を識別して表示可能となっている。
First, the operation of the in-
次に、ステップS53において、制御部4Aは、端末装置30から三次元空間画像の要求情報を受信したことによる三次元空間画像の要求があったか否かを判断し、要求がない場合(NOの場合)は本ステップで待機し、要求あった場合(YESの場合)はステップS54において、生成部41Aで生成された三次元空間画像を通信部8に端末装置30へ送信させる。
Next, in step S53, the
次に、ステップS55において、制御部4Aは、端末装置30から音像を定位させる人物の指定の情報である人物指定情報を受信する。次に、ステップS55で受信した人物指定情報が示す人物の頭部に音像が定位するように遅延調整部2L、2Rをそれぞれ調整する。調整方法は第1、第3の実施例と同様である。
Next, in step S55, the
次に、ステップS57において、生成部41は、点群情報をライダ7から取得する。このステップS57はステップS58の判断のために行うものである。そして、ステップS58において、追従位置に変化があるか否かを判断し、変化がある場合はステップS56へ戻り、変化がない場合はステップS57へ戻る。なお、ステップS58の追従方法については、第3の実施例と同様である。
Next, in step S<b>57 , the
なお、本実施例においても、ステップS57で取得した点群情報に基づいて三次元空間画像を生成して(更新して)表示部6に表示させてもよい。
Also in this embodiment, a three-dimensional spatial image may be generated (updated) based on the point group information acquired in step S57 and displayed on the
次に、端末装置30側の動作を説明する。ステップS61において、制御部32は、車載機20に対して三次元空間画像の要求情報を通信部31に送信させる。次に、ステップS62において、車載機20から三次元空間画像を通信部31を介して受信する。
Next, the operation of the
次に、ステップS63において、制御部32は、ステップS62で受信した三次元空間画像を表示部34に表示させる。
Next, in step S63, the
次に、ステップS64において、制御部32は、タッチパネル5から音像を定位させる人物の指定を取得する(受け付ける)。人物の指定の取得方法は第3の実施例と同様である。
Next, in step S<b>64 , the
次に、ステップS65において、制御部32は、ステップS34で指定された人物を人物指定情報として車載機20へ通信部31に送信させる。
Next, in step S65, the
次に、ステップS66において、制御部32は、例えば再調整の要否についてのメッセージ等を表示部34に表示させ、再調整が必要との入力がタッチパネル33からあった場合(YESの場合)はステップS64に戻る。一方、再調整が不要との入力がタッチパネル33からあった場合(NOの場合)はフローチャートを終了する。
Next, in step S66, the
なお、本実施例においても、ステップS66で再調整が必要との入力があった場合に三次元空間画像の再生成が必要か否かについて判断するようにしてもよい。 Also in the present embodiment, if there is an input indicating that readjustment is necessary in step S66, it may be determined whether or not the three-dimensional spatial image needs to be regenerated.
本実施例によれば、端末装置30は、制御部32がライダ7から取得した三次元情報に基づき生成した車室内の人物が識別された三次元空間画像を取得し、表示部34が車室内の定位位置の指定を受け付け可能なタッチパネル33から音像を定位させる人物の指定を受け付けるために三次元空間画像を表示する。そして、通信部31が人物指定情報を出力する。このようにすることにより、例えば車両の車室内の座席に人物が着席していた場合は、端末装置30からその人物を指定することで、当該人物に対応する位置に音像を定位させることが可能となる。
According to the present embodiment, the
また、制御部4Aは、複数の三次元空間画像から人物の頭部の位置の変化を検出し、遅延調整部2は、タッチパネル5で人物が指定された場合は、制御部4Aで検出された頭部の位置の変化に基づいて頭部に音像の定位位置を追従させるようにしている。このようにすることにより、例えば顔の向きや座席の角度等が変化した場合であっても、それらに応じて音像の定位位置を追従させることができる。
In addition, the
なお、上述した実施例は、センサとしてライダで説明したが他のセンサであってもよい。例えばステレオカメラ等三次元空間画像を生成するための三次元情報を取得することが
できるセンサであればよい。
In the above-described embodiment, the lidar is used as the sensor, but other sensors may be used. For example, any sensor capable of acquiring three-dimensional information for generating a three-dimensional spatial image, such as a stereo camera, may be used.
なお、上述した実施例は、所定空間として車両の車室で説明したが、車室に限らず、建物内の室内空間であってもよい。また、上述した実施例は、右チャンネルと左チャンネルの2チャンネルの音響システムで説明したが、4つのスピーカからなる4チャンネルの音響システム等複数のスピーカにより音像を定位させる音響システムで適用できる。 In the above-described embodiment, the predetermined space is described as a vehicle compartment, but the predetermined space is not limited to the vehicle compartment, and may be an indoor space in a building. Further, although the above-described embodiment has been described with a two-channel sound system of right and left channels, it can be applied to a sound system that localizes a sound image using a plurality of speakers, such as a four-channel sound system consisting of four speakers.
また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の音響装置を具備する限り、勿論、本発明の範疇に含まれるものである。 Moreover, the present invention is not limited to the above embodiments. That is, those skilled in the art can carry out various modifications according to conventionally known knowledge without departing from the gist of the present invention. As long as the acoustic device of the present invention is still provided even with such modification, it is of course included in the scope of the present invention.
2 遅延調整部(定位制御部)
3 スピーカ
4 制御部(取得部、出力部、識別部)
4A 制御部(取得部、識別部)
5 タッチパネル(受付部)
6 表示部
7 ライダ
8 通信部(出力部)
10、10A 音響装置
20 車載機
30 端末装置
31 通信部(取得部)
32 制御部(出力部)
33 タッチパネル(受付部)
34 表示部
2 delay adjustment section (localization control section)
3
4A Control unit (acquisition unit, identification unit)
5 Touch panel (reception part)
6 display unit 7 lidar 8 communication unit (output unit)
DESCRIPTION OF
32 control unit (output unit)
33 touch panel (reception part)
34 Display
Claims (16)
前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得部と、
前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示部へ出力する出力部と、
を備えることを特徴とする音響装置。 An acoustic device comprising a localization control unit that localizes a sound image in a predetermined space formed by sounds emitted from a plurality of speakers to a specific position in the predetermined space,
an acquisition unit for acquiring a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space;
an output unit for outputting to a display unit the three-dimensional spatial image acquired by the acquiring unit in order to accept the specification of the specific position from the accepting unit capable of accepting the specification of the specific position;
An acoustic device comprising:
前記出力部は、更新された前記三次元空間画像を出力することを特徴とする請求項1に記載の音響装置。 The three-dimensional spatial image is sequentially updated,
2. The acoustic device according to claim 1, wherein the output unit outputs the updated three-dimensional spatial image.
前記出力部は、前記人物が識別された前記三次元空間画像を出力し、
前記受付部は、前記人物の指定が可能であり、
前記定位制御部は、前記受付部で前記人物が指定された場合は、指定された前記人物に対応する位置に前記音像を定位させる、
ことを特徴とする請求項1または2に記載の音響装置。 further comprising an identification unit that identifies a person in the three-dimensional spatial image obtained by the obtaining unit;
The output unit outputs the three-dimensional spatial image in which the person is identified,
The reception unit is capable of specifying the person,
When the person is specified by the reception unit, the localization control unit localizes the sound image at a position corresponding to the specified person.
3. The acoustic device according to claim 1 or 2, characterized by:
前記定位制御部は、前記受付部で前記人物が指定された場合は、前記識別部で検出された前記頭部の位置の変化に基づいて前記頭部に前記音像の定位位置を追従させることを特徴とする請求項3に記載の音響装置。 The identification unit detects a change in the position of the head of the person from the plurality of three-dimensional spatial images,
The localization control unit causes the head to follow the localization position of the sound image based on the change in the position of the head detected by the identification unit when the person is specified by the reception unit. 4. An acoustic device according to claim 3.
前記所定空間の特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示する表示部と、
前記受付部で受け付けた前記特定位置を複数スピーカから発せられる音により形成される音像を定位させる位置の情報として出力する出力部と、
を備えることを特徴とする端末装置。 an acquisition unit that acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space;
a display unit for displaying the three-dimensional spatial image acquired by the acquiring unit for accepting the specification of the specific position from the accepting unit capable of accepting the specification of the specific position in the predetermined space;
an output unit that outputs the specific position received by the reception unit as information on a position to localize a sound image formed by sounds emitted from a plurality of speakers;
A terminal device comprising:
前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得工程と、
前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得工程で取得した前記三次元空間画像を表示部へ出力する出力工程と、
を含むことを特徴とする音響制御方法。 A sound control method executed by an acoustic device for localizing a sound image in a predetermined space formed by sounds emitted from a plurality of speakers at a specific position in the predetermined space,
an acquisition step of acquiring a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space;
an output step of outputting the three-dimensional spatial image acquired in the acquisition step to a display unit in order to accept the designation of the specific position from a reception unit capable of accepting the designation of the specific position;
An acoustic control method comprising:
前記取得部が取得した前記三次元空間画像を表示部へ出力する出力部と、
前記表示部に出力された三次元空間画像における特定位置の指定を受け付ける受付部と、を備え、
前記出力部は、前記三次元空間画像に基づき、前記所定空間における幅方向、高さ方向及び奥行き方向のうち2つの方向が識別可能な画像を、前記表示部に少なくとも2つ出力し、
前記受付部は、前記表示部に少なくとも2つ出力された画像それぞれに対する前記特定位置の指定を受け付けること、
を特徴とする入力装置。 an acquisition unit that acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired from a sensor;
an output unit that outputs the three-dimensional spatial image acquired by the acquisition unit to a display unit;
a reception unit that receives designation of a specific position in the three-dimensional spatial image output to the display unit;
The output unit outputs to the display unit at least two images in which two directions out of a width direction, a height direction, and a depth direction in the predetermined space can be identified based on the three-dimensional space image,
The reception unit receives designation of the specific position for each of at least two images output to the display unit;
An input device characterized by:
前記受付部により当該1つ目の画像に対する前記特定位置の指定を受け付けた後、2つ目の画像が前記1つ目の画像に代わって前記表示部に表示され、
前記受付部により前記2つ目の画像に対する前記特定位置の指定を受け付ける、
ことを特徴とする請求項10に記載の入力装置。 a first image of the two images is displayed on the display unit;
After receiving the specification of the specific position for the first image by the receiving unit, a second image is displayed on the display unit instead of the first image,
receiving the designation of the specific position for the second image by the receiving unit;
11. The input device according to claim 10, characterized by:
当該画像を構成する前記2つの方向のうち1つの方向が互いに異なる画像である、
ことを特徴とする請求項10または11に記載の入力装置。 At least two of the images output to the display unit are
An image in which one of the two directions constituting the image is different from each other,
12. The input device according to claim 10 or 11, characterized in that:
ユーザが行った当該選択に応じて前記三次元空間画像の再生成を行う、
ことを特徴とする請求項10から12のうちいずれか一項に記載の入力装置。 The output unit outputs a selection regarding reproduction of the three-dimensional spatial image to the display unit;
regenerating the three-dimensional spatial image according to the selection made by the user;
13. The input device according to any one of claims 10 to 12, characterized in that:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022201028A JP2023030054A (en) | 2018-04-25 | 2022-12-16 | Sound apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018084267A JP2019193108A (en) | 2018-04-25 | 2018-04-25 | Sound apparatus |
JP2022201028A JP2023030054A (en) | 2018-04-25 | 2022-12-16 | Sound apparatus |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018084267A Division JP2019193108A (en) | 2018-04-25 | 2018-04-25 | Sound apparatus |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023030054A true JP2023030054A (en) | 2023-03-07 |
Family
ID=68391018
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018084267A Pending JP2019193108A (en) | 2018-04-25 | 2018-04-25 | Sound apparatus |
JP2022201028A Pending JP2023030054A (en) | 2018-04-25 | 2022-12-16 | Sound apparatus |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018084267A Pending JP2019193108A (en) | 2018-04-25 | 2018-04-25 | Sound apparatus |
Country Status (1)
Country | Link |
---|---|
JP (2) | JP2019193108A (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7494732B2 (en) | 2018-07-30 | 2024-06-04 | ソニーグループ株式会社 | Information processing device, information processing system, information processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3598714B2 (en) * | 1997-03-04 | 2004-12-08 | ソニー株式会社 | Sound processing device |
WO2006095688A1 (en) * | 2005-03-11 | 2006-09-14 | Pioneer Corporation | Information reproduction device, information reproduction method, information reproduction program, and computer-readable recording medium |
JP2007116363A (en) * | 2005-10-19 | 2007-05-10 | Fujitsu Ten Ltd | Acoustic space control apparatus |
-
2018
- 2018-04-25 JP JP2018084267A patent/JP2019193108A/en active Pending
-
2022
- 2022-12-16 JP JP2022201028A patent/JP2023030054A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2019193108A (en) | 2019-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10650798B2 (en) | Electronic device, method and computer program for active noise control inside a vehicle | |
US20180005528A1 (en) | Vehicle interface device | |
WO2019124158A1 (en) | Information processing device, information processing method, program, display system, and moving body | |
JP5890523B2 (en) | Audio signal processing apparatus and audio signal processing method | |
JP6564128B2 (en) | Notification control device and notification control method | |
US20200219320A1 (en) | Multimodal user interface for a vehicle | |
JP6443403B2 (en) | Vehicle control device | |
US11492001B2 (en) | Notification device | |
JP5668765B2 (en) | In-vehicle acoustic device | |
US20150285641A1 (en) | System and method for distribution of 3d sound | |
JP7091311B2 (en) | Information processing equipment, information processing methods, programs, and mobiles | |
JP2023030054A (en) | Sound apparatus | |
JP2018055614A (en) | Gesture operation system, and gesture operation method and program | |
US10889238B2 (en) | Method for providing a spatially perceptible acoustic signal for a rider of a two-wheeled vehicle | |
US20170158132A1 (en) | Vehicular display control apparatus | |
JP2021062811A (en) | Acoustic control system, acoustic control device and acoustic control method | |
JP2006115364A (en) | Voice output controlling device | |
US10292001B2 (en) | In-vehicle, multi-dimensional, audio-rendering system and method | |
JP2020154795A (en) | Output control device, output control method, and output control program | |
JP5292422B2 (en) | In-vehicle head position detection device, in-vehicle display device, and driving support device | |
US20230186651A1 (en) | Control device, projection system, control method, and program | |
GB2534165A (en) | Vehicle interface device | |
CN114765726A (en) | Output control device, output control system, and control method | |
JPH07193900A (en) | Head position detector for generating stereoscopic sound field | |
JP2007153078A (en) | On-vehicle voice output unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20221216 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20240305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20240426 |