JP2023030054A - Sound apparatus - Google Patents

Sound apparatus Download PDF

Info

Publication number
JP2023030054A
JP2023030054A JP2022201028A JP2022201028A JP2023030054A JP 2023030054 A JP2023030054 A JP 2023030054A JP 2022201028 A JP2022201028 A JP 2022201028A JP 2022201028 A JP2022201028 A JP 2022201028A JP 2023030054 A JP2023030054 A JP 2023030054A
Authority
JP
Japan
Prior art keywords
unit
image
dimensional spatial
predetermined space
spatial image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022201028A
Other languages
Japanese (ja)
Inventor
允禎 梁
Yunjeong Yang
真武 下平
Masatake Shimodaira
昌嗣 左近
Masatsugu Sakon
里紗 夏川
Risa Natsukawa
吉洋 安原
Yoshihiro Yasuhara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Electronic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Electronic Corp filed Critical Pioneer Electronic Corp
Priority to JP2022201028A priority Critical patent/JP2023030054A/en
Publication of JP2023030054A publication Critical patent/JP2023030054A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereophonic System (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

PROBLEM TO BE SOLVED: To make it easy to specify an exact position.
SOLUTION: An acoustic apparatus 1 generates and acquires a three-dimensional space image in a passenger compartment generated on the basis of point group information acquired from a lidar 7 by a control unit 4 and outputs the three-dimensional space image to a display unit 6 in order to accept a designation of a localization position from a touch panel 5 that can accept the designation of the localization position.
SELECTED DRAWING: Figure 1
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、複数スピーカから発せられる音により形成される所定空間内の音像を、その所定空間の特定位置に定位させる音響装置に関する。 The present invention relates to an acoustic device that localizes a sound image in a predetermined space formed by sounds emitted from a plurality of speakers at a specific position in the predetermined space.

例えば車載のオーディオシステムにおいて、複数のスピーカ各々の出力に遅延時間差を与えることにより、音像の定位位置を制御することは既に知られている。 For example, in an in-vehicle audio system, it is already known to control the localization position of a sound image by giving a delay time difference to each output of a plurality of speakers.

特許文献1には、定位位置受付ウインドウ300のダッシュボード画像350上の位置入力に応じて定位位置の指定を受け付け、受け付けた定位位置に音像が定位するように各スピーカ3に出力するオーディオ信号の遅延時間を設定することが記載されている。また、定位位置の指定は車両水平方向のレイアウト画像である車内レイアウト画像850を表示して定位位置の指定を受け付けることも記載されている。 Japanese Patent Application Laid-Open No. 2002-200000 discloses an audio signal output to each speaker 3 that accepts designation of a localization position in accordance with a position input on a dashboard image 350 of a localization position reception window 300, and localizes a sound image to the accepted localization position. Setting the delay time is described. It is also described that designation of the localization position is performed by displaying a vehicle interior layout image 850, which is a layout image in the horizontal direction of the vehicle, to receive the designation of the localization position.

特開2006-196941号公報JP 2006-196941 A

特許文献1に記載の発明の場合、2次元的な位置で定位位置を指定しているため、例えば、車両の幅方向、高さ方向、奥行き方向うち、1方向については指定ができず、正確な定位位置の指定が困難であった。 In the case of the invention described in Patent Document 1, since the localization position is designated by a two-dimensional position, for example, one direction out of the width direction, the height direction, and the depth direction of the vehicle cannot be designated, and it cannot be specified accurately. It was difficult to specify the correct stereotactic position.

本発明が解決しようとする課題としては、正確な定位位置の指定を容易にすることが一例として挙げられる。 One example of the problem to be solved by the present invention is to facilitate designation of an accurate stereotactic position.

上記課題を解決するために、請求項1に記載の発明は、複数スピーカから発せられる音により形成される所定空間内の音像を前記所定空間の特定位置に定位させる定位制御部を備える音響装置であって、前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得部と、前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示部へ出力する出力部と、を備えることを特徴としている。 In order to solve the above-mentioned problems, the invention according to claim 1 is an acoustic device comprising a localization control unit that localizes a sound image in a predetermined space formed by sounds emitted from a plurality of speakers to a specific position in the predetermined space. an acquisition unit that acquires a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space; and a reception that can receive designation of the specific position. and an output unit configured to output the three-dimensional spatial image acquired by the acquisition unit to a display unit in order to accept designation of the specific position from the unit.

請求項7に記載の発明は、所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得部と、前記所定空間の特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示する表示部と、前記受付部で受け付けた前記特定位置を複数スピーカから発せられる音により形成される音像を定位させる位置の情報として出力する出力部と、を備えることを特徴としている。 According to a seventh aspect of the present invention, an acquisition unit acquires a three-dimensional spatial image of the predetermined space generated based on three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space; a display unit for displaying the three-dimensional spatial image acquired by the acquisition unit to accept the specification of the specific position from a reception unit capable of accepting the specification of the position; and the specific position received by the reception unit from multiple speakers. and an output unit for outputting information on a position for localizing a sound image formed by the emitted sound.

請求項8に記載の発明は、複数スピーカから発せられる音により形成される所定空間内の音像を前記所定空間の特定位置に定位させる音響装置で実行される音響制御方法であって、前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得工程と、前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得工程で取得した前記三次元空間画像を表示部へ出力する出力工程と、を含むことを特徴としている。 According to an eighth aspect of the invention, there is provided a sound control method executed by an acoustic device for localizing a sound image in a predetermined space formed by sounds emitted from a plurality of speakers at a specific position in the predetermined space, wherein an acquisition step of acquiring a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information; and an output step of outputting the three-dimensional spatial image acquired in the acquisition step to a display unit in order to accept designation.

請求項9に記載の発明は、請求項8に記載の音響制御方法を、コンピュータにより実行させることを特徴としている。 According to a ninth aspect of the invention, the acoustic control method according to the eighth aspect is executed by a computer.

本発明の第1の実施例にかかる音響装置を有するシステムの機能構成図である。1 is a functional configuration diagram of a system having an acoustic device according to a first embodiment of the present invention; FIG. 図1に示された音響装置の動作のフローチャートである。2 is a flowchart of the operation of the audio device shown in FIG. 1; 三次元空間画像の例の図である。FIG. 3 is a diagram of an example of a three-dimensional spatial image; 図3に示された三次元空間画像について車室を横から見た視点で表示した図である。FIG. 4 is a view showing the three-dimensional spatial image shown in FIG. 3 from a side view of the vehicle compartment; 図3に示された三次元空間画像について車室を前方から見た視点で表示した図である。FIG. 4 is a view showing the three-dimensional space image shown in FIG. 3 from the viewpoint of the vehicle interior viewed from the front; 本発明の第2の実施例にかかる音響装置を有するシステムの機能構成図である。FIG. 10 is a functional configuration diagram of a system having an acoustic device according to a second embodiment of the present invention; 図6に示された音響装置の動作のフローチャートである。7 is a flowchart of the operation of the audio device shown in FIG. 6; 本発明の第3の実施例にかかる音響装置の動作を示したフローチャートである。9 is a flow chart showing the operation of the audio device according to the third embodiment of the present invention; 人物を識別して表示した例の図である。It is a figure of the example which identified and displayed a person. 人物に追従する動作の説明図である。FIG. 10 is an explanatory diagram of an operation of following a person; 本発明の第4の実施例にかかる音響装置の動作を示したフローチャートである。14 is a flow chart showing the operation of the audio device according to the fourth embodiment of the present invention;

以下、本発明の一実施形態にかかる音響装置を説明する。本発明の一実施形態にかかる音響装置は、取得部が所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した所定空間の三次元空間画像を取得し、出力部が特定位置の指定を受け付け可能な受付部から特定位置の指定を受け付けるために取得部が取得した三次元空間画像を表示部へ出力する。このようにすることにより、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、所定空間を再現した三次元空間画像により正確な定位位置の指定を容易にすることができる。 An acoustic device according to an embodiment of the present invention will be described below. An audio device according to an embodiment of the present invention acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired by an acquisition unit from a sensor capable of acquiring three-dimensional information of a predetermined space, and an output unit The three-dimensional spatial image acquired by the acquiring unit is output to the display unit in order to accept the specification of the specific position from the accepting unit capable of accepting the specification of the specific position. By doing so, it is possible to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and it is easy to specify an accurate localization position by the three-dimensional spatial image that reproduces the predetermined space. can be

また、三次元空間画像は、逐次更新され、出力部は、更新された三次元空間画像を出力するようにしてもよい。このようにすることにより、所定空間内における人物の出入りや位置の変化等に対応した三次元空間画像に基づいて特定位置の指定をすることができる。 Also, the three-dimensional spatial image may be sequentially updated, and the output unit may output the updated three-dimensional spatial image. By doing so, it is possible to designate a specific position based on a three-dimensional spatial image corresponding to the entry and exit of a person in a predetermined space, the change in position, and the like.

また、取得部が取得した三次元空間画像内の人物を識別する識別部を更に備え、出力部は、人物が識別された三次元空間画像を出力し、受付部は、人物の指定が可能であり、定位制御部は、受付部で人物が指定された場合は、指定された人物に対応する位置に音像を定位させてもよい。このようにすることにより、例えば車両の車室内の座席に人物が着席していた場合は、その人物を指定することで、当該人物に対応する位置に音像を定位させることが可能となる。 Further, an identification unit for identifying a person in the three-dimensional space image acquired by the acquisition unit is further provided, the output unit outputs the three-dimensional space image in which the person is identified, and the reception unit is capable of specifying the person. Yes, when a person is specified by the reception unit, the localization control unit may localize the sound image at a position corresponding to the specified person. By doing so, for example, when a person is seated in a seat inside the vehicle, by designating the person, it is possible to localize the sound image at the position corresponding to the person.

また、識別部は、複数の三次元空間画像から人物の頭部の位置の変化を検出し、定位制御部は、受付部で人物が指定された場合は、識別部で検出された頭部の位置の変化に基づいて頭部に音像の定位位置を追従させるようにしてもよい。このようにすることにより、例えば顔の向きや座席の角度等が変化した場合であっても、それらに応じて音像の定位位置を追従させることができる。 The identification unit detects a change in the position of the person's head from a plurality of three-dimensional spatial images. The localization position of the sound image may be tracked by the head based on the change in position. By doing so, even if the orientation of the face, the angle of the seat, or the like changes, the localization position of the sound image can be followed accordingly.

また、センサは、所定空間内に電磁波を出射して当該所定空間内の物体によって反射された電磁波を受信することで物体までの距離を測定可能となっていてもよい。このようにすることにより、所謂ライダ(LiDAR;Light Detection And Ranging)により取得された点群情報に基づいて三次元空間画像を生成することができる。 Further, the sensor may measure the distance to an object by emitting electromagnetic waves into a predetermined space and receiving electromagnetic waves reflected by an object in the predetermined space. By doing so, it is possible to generate a three-dimensional spatial image based on the point group information acquired by a so-called lidar (LiDAR: Light Detection And Ranging).

また、音響装置は車両に設置され、所定空間は車室空間であってもよい。このようにすることにより、車両の車室空間の音像を特定位置に定位させることができる。 Also, the audio device may be installed in a vehicle, and the predetermined space may be a vehicle interior space. By doing so, the sound image in the cabin space of the vehicle can be localized at a specific position.

また、本発明の一実施形態にかかる端末装置は、取得部が所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した所定空間の三次元空間画像を取得し、表示部が所定空間の特定位置の指定を受け付け可能な受付部から特定位置の指定を受け付けるために取得部が取得した三次元空間画像を表示する。そして、出力部が受付部で受け付けた特定位置を複数スピーカから発せられる音により形成される音像を定位させる位置の情報として出力する。このようにすることにより、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、所定空間を再現した三次元空間画像により端末装置から正確な定位位置の指定を容易にすることができる。 Further, the terminal device according to an embodiment of the present invention acquires and displays a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired by the acquisition unit from a sensor capable of acquiring three-dimensional information of the predetermined space. The three-dimensional spatial image acquired by the acquiring unit is displayed so that the unit can accept the specification of the specific position from the accepting unit that can accept the specification of the specific position in the predetermined space. Then, the output unit outputs the specific position received by the receiving unit as position information for localizing the sound image formed by the sounds emitted from the plurality of speakers. By doing so, it is possible to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and to accurately localize the localization position from the terminal device using the three-dimensional spatial image that reproduces the predetermined space. specification can be facilitated.

また、本発明の一実施形態にかかる音響制御方法は、取得工程で所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した所定空間の三次元空間画像を取得し、出力工程で特定位置の指定を受け付け可能な受付部から特定位置の指定を受け付けるために取得部が取得した三次元空間画像を表示部へ出力する。このようにすることにより、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、所定空間を再現した三次元空間画像により正確な定位位置の指定を容易にすることができる。 Further, the acoustic control method according to one embodiment of the present invention acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space in the acquiring step, In the output step, the three-dimensional spatial image acquired by the acquiring unit for accepting the specification of the specific position from the accepting unit capable of accepting the specification of the specific position is output to the display unit. By doing so, it is possible to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and it is easy to specify an accurate localization position by the three-dimensional spatial image that reproduces the predetermined space. can be

また、上述した音響制御方法を、コンピュータにより実行させてもよい。このようにすることにより、コンピュータを用いて、表示部に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、正確な定位位置の指定を容易にすることができる。 Also, the acoustic control method described above may be executed by a computer. By doing so, it is possible to use a computer to specify a specific position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit, and it is possible to easily specify an accurate localization position. .

本発明の第1の実施例にかかる音響装置を図1~図5を参照して説明する。音響装置10は、例えば自動車等の車両に搭載されている。音響装置10を有する音響システムの機能的構成を図1に示す。音響システムは、オーディオ機器1と、を遅延調整部2(2R、2L)と、スピーカ3(3R、3L)と、制御部4と、タッチパネル5と、表示部6と、ライダ7と、備えている。また、音響システムは、本実施例では、車両に搭載されて、所定の空間としての車室内の音響を制御する。 An acoustic device according to a first embodiment of the present invention will be described with reference to FIGS. 1 to 5. FIG. The audio device 10 is mounted in a vehicle such as an automobile, for example. FIG. 1 shows a functional configuration of an audio system having an audio device 10. As shown in FIG. The acoustic system includes an audio device 1, a delay adjustment unit 2 (2R, 2L), speakers 3 (3R, 3L), a control unit 4, a touch panel 5, a display unit 6, and a rider 7. there is Also, in this embodiment, the sound system is mounted on the vehicle and controls the sound inside the vehicle as a predetermined space.

オーディオ機器1は、CDプレイヤ、メモリーオーディオ、ラジオチューナ或いはストリーミング配信の受信装置などのユーザの聴取の目的となるオーディオ信号を出力する機器である。 The audio device 1 is a device, such as a CD player, a memory audio device, a radio tuner, or a receiving device for streaming distribution, which outputs an audio signal to be listened to by a user.

遅延調整部2は、本実施例では、左チャンネル用の遅延調整部2Lと右チャンネル用の遅延調整部2Rからなる。遅延調整部2Lは、オーディオ機器1から左チャネルのスピーカ3Lに出力される左チャネルのオーディオ信号を設定された遅延時間だけ遅延させる。遅延調整部2Rは、オーディオ機器1から右チャネルのスピーカ3Rに出力される右チャネルオーディオ信号を設定された遅延時間だけ遅延させる。 In this embodiment, the delay adjustment section 2 comprises a left channel delay adjustment section 2L and a right channel delay adjustment section 2R. The delay adjustment unit 2L delays the left-channel audio signal output from the audio device 1 to the left-channel speaker 3L by a set delay time. The delay adjustment unit 2R delays the right channel audio signal output from the audio device 1 to the right channel speaker 3R by a set delay time.

制御部4は、生成部41と、音像制御部42と、を備えている。制御部41は、例えばCPUを有するマイクロコンピュータで構成されている。生成部41と、音像制御部42と、はCPUで実行されるコンピュータプログラムの機能として実現すればよい。 The controller 4 includes a generator 41 and a sound image controller 42 . The control unit 41 is composed of, for example, a microcomputer having a CPU. The generation unit 41 and the sound image control unit 42 may be implemented as functions of computer programs executed by the CPU.

生成部41は、ライダ7が出力した点群情報に対して周知の方法によりポリゴン等によってモデリングをして三次元空間画像を生成する。即ち、制御部4は、点群情報に基づき三次元空間画像を生成して取得する取得部として機能する。また、生成部41は、生成した三次元空間画像を表示部6に出力して表示部6に表示させる。即ち、制御部4(生成部41)は、三次元空間画像を表示部6へ出力する出力部として機能する。 The generator 41 models the point group information output from the lidar 7 with polygons or the like by a well-known method to generate a three-dimensional spatial image. That is, the control unit 4 functions as an acquisition unit that generates and acquires a three-dimensional spatial image based on the point cloud information. In addition, the generation unit 41 outputs the generated three-dimensional spatial image to the display unit 6 and causes the display unit 6 to display the image. That is, the control unit 4 (generation unit 41) functions as an output unit that outputs the three-dimensional spatial image to the display unit 6. FIG.

音像制御部42は、タッチパネル5においてタッチされた位置座標を取得し、その位置座標に対応する三次元空間画像上の三次元座標(x,y,z)を特定する。そして、特定された三次元座標に対応する現実の空間における位置にスピーカ3L、3Rから発せられる音により形成される音像を定位させるように遅延調整部2L、2Rの遅延量を調整して設定する。即ち、制御部4(音像制御部42)は、スピーカ3L、3Rから発せられる音により形成される車室内の音像を特定位置に定位させる定位制御部として機能する。 The sound image control unit 42 acquires the position coordinates touched on the touch panel 5, and specifies the three-dimensional coordinates (x, y, z) on the three-dimensional space image corresponding to the position coordinates. Then, the delay amounts of the delay adjustment units 2L and 2R are adjusted and set so that the sound image formed by the sound emitted from the speakers 3L and 3R is localized at the position in the real space corresponding to the specified three-dimensional coordinates. . That is, the control unit 4 (sound image control unit 42) functions as a localization control unit that localizes the sound image in the vehicle interior formed by the sounds emitted from the speakers 3L and 3R to a specific position.

タッチパネル5は、表示部6の表示面上に重ねるように配置されている。タッチパネル5は、例えば手指等で触れた位置の二次元座標が出力される周知の入力装置である。表示部6は、例えば液晶ディスプレイ等で構成されている。表示部6は、制御部4で生成された三次元空間画像等が表示される。なお、本実施例では、タッチパネル5は、表示部6の表示面上に重ねるように配置されているが、表示部6がダッシュボード上に配置され、タッチパッドとしてシフトレバーの近傍やステアリングホイール等に設けられているような、それぞれが分かれて配置されている形態であってもよい。 The touch panel 5 is arranged so as to overlap the display surface of the display unit 6 . The touch panel 5 is a well-known input device that outputs two-dimensional coordinates of a position touched by a finger or the like. The display unit 6 is composed of, for example, a liquid crystal display. The display unit 6 displays a three-dimensional spatial image and the like generated by the control unit 4 . In this embodiment, the touch panel 5 is arranged so as to overlap the display surface of the display unit 6. However, the display unit 6 is arranged on the dashboard and can be used as a touch pad near the shift lever, the steering wheel, or the like. may be arranged separately, such as in the case of

ライダ7は、所定空間として車室内あるいは車室内を走査できる位置に設置されている。ライダ7は、当該ライダ7が走査する周囲に存在する物体を認識するセンサであり、LiDAR(Light Detection And Ranging)とも表記される。ライダ7は、レーザ光等の電磁波を照射してその電磁波の反射波(反射光)により、走査範囲に存在する物体までの方向と距離を離散的に測定し、当該物体の位置や形状等を三次元の点群として認識する公知のセンサである。したがって、ライダ7で認識された点群は三次元情報としての点群情報として出力される。 The lidar 7 is installed in a vehicle interior as a predetermined space or at a position capable of scanning the interior of the vehicle. The lidar 7 is a sensor that recognizes an object existing in the surroundings scanned by the lidar 7, and is also referred to as LiDAR (Light Detection And Ranging). The lidar 7 emits an electromagnetic wave such as a laser beam, and discretely measures the direction and distance to an object existing within the scanning range based on the reflected wave (reflected light) of the electromagnetic wave, and determines the position, shape, etc. of the object. This is a known sensor that recognizes as a three-dimensional point cloud. Therefore, the point cloud recognized by the lidar 7 is output as point cloud information as three-dimensional information.

ライダ7は、1つに限らず、複数設置されていてもよい。ライダ7の数や設置位置は、例えば車両であれば、対象となる車室空間の大きさに応じて適宜定めればよい。 The number of riders 7 is not limited to one, and a plurality of riders may be installed. In the case of a vehicle, for example, the number and installation positions of the riders 7 may be appropriately determined according to the size of the vehicle interior space to be covered.

ここで、上述した遅延調整部2と、制御部4と、は本実施例にかかる音響装置10として機能する。 Here, the above-described delay adjustment unit 2 and control unit 4 function as the acoustic device 10 according to this embodiment.

次に、上述した構成の音響装置10の動作(音響制御方法)について図2~図5を参照して説明する。図2に示したフローチャートは制御部4で実行される。また、図2に示したフローチャートを制御部4が有するCPUで実行するプログラムとして構成することで音響制御プログラムとすることができる。 Next, the operation (acoustic control method) of the acoustic device 10 having the above configuration will be described with reference to FIGS. 2 to 5. FIG. The flowchart shown in FIG. 2 is executed by the control unit 4 . Further, by configuring the flowchart shown in FIG. 2 as a program to be executed by the CPU of the control unit 4, the sound control program can be obtained.

まず、ステップS11において、生成部41は、点群情報をライダ7から取得する。次に、ステップS12において、生成部41は、上述したように、ライダ7から取得した点群情報に対して周知の方法によりポリゴン等によってモデリングをして三次元空間画像を生成する。ライダ7が複数ある場合は、複数の点群情報を合成して三次元空間画像を生成してもよい。三次元空間画像の例を図3に示す。図3は、車両の車室内を左前方斜め上方の視点から見た三次元空間画像である。図3に示したのは左前方斜め上方からの視点であるが、タッチパネル5からの操作により回転やズームイン、ズームアウト等、任意の視点に変更可能となっている。 First, in step S<b>11 , the generator 41 acquires point group information from the rider 7 . Next, in step S12, the generator 41 models the point group information acquired from the lidar 7 with polygons or the like by a well-known method to generate a three-dimensional spatial image, as described above. If there are multiple riders 7, a three-dimensional spatial image may be generated by synthesizing multiple pieces of point group information. An example of a three-dimensional spatial image is shown in FIG. FIG. 3 is a three-dimensional spatial image of the interior of the vehicle viewed from an oblique upper left viewpoint. Although FIG. 3 shows a viewpoint from diagonally upper left front, it is possible to change the viewpoint to an arbitrary viewpoint by operating the touch panel 5 to rotate, zoom in, zoom out, or the like.

次に、ステップS13において、生成部41は、ステップS12で生成した三次元空間画像を表示部6に表示させる。 Next, in step S13, the generation unit 41 causes the display unit 6 to display the three-dimensional spatial image generated in step S12.

次に、ステップS14において、音像制御部42は、タッチパネル5から音像を定位させる特定位置(以下、単に定位位置という)の指定を取得する(受け付ける)。ここで、表示部6に表示された三次元空間画像から定位位置を示す座標位置の特定方法について説明する。図3に示したような視点の三次元空間画像において、例えば運転席の位置をタッチして指定したとしても、表示部6における表示は二次元であるので、そのままでは正確な三次元の座標(x,y,z)を特定するのは困難である。そこで、本実施例では、まずは、図4に示したような車室を横から見た視点で表示して、ユーザにタッチパネル5をタッチさせることで、定位位置Pの車両の奥行き方向と高さ方向における位置を指定してもらい、次に、図5に示したような車室を前方から見た視点で表示して、ユーザにタッチパネル5をタッチさせることで、定位位置Pの車両の幅方向における位置をユーザに指定してもらう。このようにして、三次元空間画像における指定された定位位置の三次元の座標を特定する。 Next, in step S<b>14 , the sound image control unit 42 obtains (accepts) a designation of a specific position (hereinafter simply referred to as a localization position) for localizing the sound image from the touch panel 5 . Here, a method of specifying a coordinate position indicating a localization position from a three-dimensional spatial image displayed on the display unit 6 will be described. In the three-dimensional space image of the viewpoint shown in FIG. 3, even if the position of the driver's seat is specified by touching, for example, the display on the display unit 6 is two-dimensional, so the correct three-dimensional coordinates ( x, y, z) are difficult to specify. Therefore, in this embodiment, first, the vehicle interior as shown in FIG. After having the user specify the position in the direction, the vehicle interior as shown in FIG. Ask the user to specify the position in . In this way, the three-dimensional coordinates of the specified localization position in the three-dimensional spatial image are identified.

なお、図4と図5の表示順序は逆でもよい。図4と図5の表示順序は逆にした場合は、図5の表示において定位位置Pの車両の幅方向と高さ方向の位置をユーザに指定してもらい、続く図4の表示において定位位置Pの車両の奥行き方向の位置をユーザに指定してもらう。また、図4の表示後に図5を表示する際に、図4で指定した高さ方向に位置を表示させて図5における指定時に参照できるようにしてもよいし、図5の表示の際に定位位置Pの高さ方向の位置を再指定できるようにしてもよい。 Note that the display order of FIGS. 4 and 5 may be reversed. If the display order of FIGS. 4 and 5 is reversed, the user is asked to specify the position of the orientation position P in the width direction and height direction of the vehicle in the display of FIG. The user is asked to specify the position of P in the depth direction of the vehicle. Further, when displaying FIG. 5 after displaying FIG. 4, the position in the height direction specified in FIG. 4 may be displayed so that it can be referred to when specifying in FIG. The position of the localization position P in the height direction may be redesignated.

さらには、車室を横から見た視点ではなく、上から見た視点であってもよい。要するに、車両の幅方向、高さ方向、奥行き方向のうち、少なくとも2つの方向にかかる位置が特定できればよい。 Furthermore, the view may be from above instead of from the side. In short, it suffices if positions in at least two directions out of the width direction, the height direction, and the depth direction of the vehicle can be specified.

つまり、制御部4は、ステップS13では、音像を定位させる特定位置の指定を受け付け可能なタッチパネル5(受付部)から定位位置の指定を受け付けるために、三次元空間画像を表示部6へ出力し、ステップS14では、タッチパネル5から定位位置の指定を受け付けている。 That is, in step S13, the control unit 4 outputs the three-dimensional spatial image to the display unit 6 in order to receive the designation of the localization position from the touch panel 5 (reception unit) capable of receiving the designation of the specific position for localizing the sound image. In step S14, designation of a localization position is received from the touch panel 5. FIG.

次に、ステップS15において、音像制御部42は、ステップS14で指定された定位位置に音像が定位するように遅延調整部2L、2Rをそれぞれ調整する。具体的には、車室内のスピーカ3L、3Rの配置位置は予め判明しているため、三次元空間画像におけるスピーカ3L、3Rの位置座標も判明している。そして、ステップS14で指定された定位位置からスピーカ3Lまでの距離と、ステップS14で指定された定位位置からスピーカ3Rまでの距離と、をそれぞれ互いの座標に基づいて求める。そして、求めた距離の短い方のスピーカ3からの出力を距離長い方のスピーカ3との距離の差分に応じて遅延させる。 Next, in step S15, the sound image control section 42 adjusts the delay adjustment sections 2L and 2R so that the sound image is localized at the localization position specified in step S14. Specifically, since the arrangement positions of the speakers 3L and 3R in the vehicle interior are known in advance, the position coordinates of the speakers 3L and 3R in the three-dimensional spatial image are also known. Then, the distance from the localization position specified in step S14 to the speaker 3L and the distance from the localization position specified in step S14 to the speaker 3R are obtained based on their respective coordinates. Then, the output from the speaker 3 with the shorter distance obtained is delayed according to the difference in distance from the speaker 3 with the longer distance.

次に、ステップS16において、音像制御部42は、例えば再調整の要否についてのメッセージ等を表示部6に表示させ、再調整が必要との入力がタッチパネル5からあった場合(YESの場合)はステップS17に進む。一方、再調整が不要との入力がタッチパネル5からあった場合(NOの場合)はフローチャートを終了する。 Next, in step S16, the sound image control unit 42 causes the display unit 6 to display, for example, a message about whether or not readjustment is necessary. goes to step S17. On the other hand, if there is an input from the touch panel 5 indicating that readjustment is unnecessary (in the case of NO), the flow chart ends.

次に、ステップS17において、三次元空間画像の再生成が必要か否かを判断し、必要な場合(YESの場合)はステップS11に戻り、不要な場合(NOの場合)はステップS14に戻る。ステップS17では、例えば表示部6に三次元空間画像の再生成が必要か表示してユーザに選択させる。ユーザが必要との選択をした場合はステップS11に戻り再度三次元空間画像を生成する。ユーザが不要との選択をした場合はステップS14に戻り定位位置の取得をする。このようにして、三次元空間画像は逐次更新され、必要に応じて更新された三次元空間画像が表示部6に出力される。 Next, in step S17, it is determined whether or not the three-dimensional spatial image needs to be regenerated. If necessary (YES), the process returns to step S11. If not necessary (NO), the process returns to step S14. . In step S17, for example, the display section 6 displays whether or not the three-dimensional spatial image needs to be regenerated, and the user is allowed to select it. If the user selects that it is necessary, the process returns to step S11 to generate a three-dimensional spatial image again. If the user selects that it is not necessary, the process returns to step S14 to acquire the localization position. In this manner, the three-dimensional spatial image is successively updated, and the updated three-dimensional spatial image is output to the display section 6 as necessary.

以上の説明から明らかなように、ステップS12が取得工程、ステップS13が出力工程として機能する。 As is clear from the above description, step S12 functions as an acquisition process, and step S13 functions as an output process.

なお、図2のフローチャートでは、三次元空間画像は逐次更新されていたが、一度生成し、その後は更新しないようにしてもよい。また、生成された三次元空間画像は、制御部4内のメモリ等に保存してもよい。また、保存先は制御部4内に限らず、例えば着脱自在なメモリーカード等であってもよいし、通信部等を備えて、外部サーバ等に送信して保存するようにしてもよい。外部サーバに保存した場合は、次回定位位置の指定を行う際は、ステップS11、S12を省略し、外部サーバから三次元空間画像を取得するステップを実行してからステップS13以降を実行すればよい。 In addition, in the flowchart of FIG. 2, the three-dimensional spatial image is sequentially updated, but it may be generated once and then not updated. Also, the generated three-dimensional spatial image may be stored in a memory or the like within the control unit 4 . The storage destination is not limited to the control unit 4, and may be, for example, a detachable memory card or the like. If the images are stored in the external server, the next time the localization position is specified, steps S11 and S12 can be omitted, and steps S13 and subsequent steps can be executed after executing the step of acquiring the three-dimensional spatial image from the external server. .

本実施例によれば、音響装置1は、制御部4がライダ7から取得した点群情報に基づき生成した車室内の三次元空間画像を生成して取得し、定位位置の指定を受け付け可能なタッチパネル5から定位位置の指定を受け付けるために三次元空間画像を表示部6へ出力する。このようにすることにより、表示部6に表示された三次元空間画像に基づいて音像を定位させる特定位置の指定が可能となり、車室空間を再現した三次元空間画像により正確な定位位置の指定を容易にすることができる。 According to this embodiment, the acoustic device 1 can generate and acquire a three-dimensional spatial image of the vehicle interior generated by the control unit 4 based on the point cloud information acquired from the lidar 7, and can accept designation of the localization position. A three-dimensional spatial image is output to the display unit 6 in order to receive designation of the localization position from the touch panel 5 . By doing so, it is possible to designate a specific position for localizing a sound image based on the three-dimensional space image displayed on the display unit 6, and to designate an accurate localization position by a three-dimensional space image that reproduces the vehicle interior space. can be facilitated.

また、三次元空間画像は、逐次更新され、制御部4は、更新された三次元空間画像を出力するようにしている。このようにすることにより、車室内における搭乗者の乗降等に対応した三次元空間画像に基づいて定位位置の指定をすることができる。 Also, the three-dimensional spatial image is successively updated, and the control unit 4 outputs the updated three-dimensional spatial image. By doing so, it is possible to specify the localization position based on the three-dimensional spatial image corresponding to the boarding and alighting of the passenger in the vehicle compartment.

次に、本発明の第2の実施例にかかる音響装置10Aを図6~図7を参照して説明する。なお、前述した第1の実施例と同一部分には、同一符号を付して説明を省略する。 Next, an acoustic device 10A according to a second embodiment of the invention will be described with reference to FIGS. 6 and 7. FIG. The same reference numerals are given to the same parts as those of the first embodiment described above, and the description thereof will be omitted.

図6に本実施例にかかる音響装置10Aを有する音響システムの機能的構成を示す。音響システムは、車載機20と、スピーカ3(3L、3R)と、ライダ7と、端末装置30と、を有している。ここで、スピーカ3(3L、3R)及びライダ7は、第1の実施例と同様である。 FIG. 6 shows a functional configuration of an audio system having an audio device 10A according to this embodiment. The acoustic system has an onboard device 20 , speakers 3 ( 3 L, 3 R), a rider 7 and a terminal device 30 . Here, the speakers 3 (3L, 3R) and the rider 7 are the same as in the first embodiment.

車載機20は、例えば車両に搭載されている。車載機20は、図6に示したように、オーディオ機器1と、遅延調整部2(2L、2R)と、制御部4Aと、通信部8と、を備えている。 The in-vehicle device 20 is mounted in a vehicle, for example. The in-vehicle device 20 includes an audio device 1, a delay adjustment section 2 (2L, 2R), a control section 4A, and a communication section 8, as shown in FIG.

オーディオ機器1及び遅延調整部2は、第1の実施例と同様である。制御部4Aは、生成部41Aと、音像制御部42Aと、を備えている。 The audio equipment 1 and the delay adjustment section 2 are the same as in the first embodiment. The control unit 4A includes a generation unit 41A and a sound image control unit 42A.

生成部41Aは、三次元空間画像を生成することは第1の実施例と同様であるが、生成した三次元空間画像は、通信部8を介して端末装置30へ送信する点が第1の実施例と異なる。 The generation unit 41A generates a three-dimensional spatial image in the same manner as in the first embodiment. Different from the example.

音像制御部42Aは、算出された三次元座標に対応する現実の空間の位置にスピーカ3L、3Rから発せられる音により形成される音像を定位させるように遅延調整部2L、2Rの遅延量を調整することは第1の実施例と同様であるが、タッチパネル33をタッチされた位置座標を端末装置30から通信部8を介して取得し、その位置座標に対応する三次元空間画像上の三次元座標を特定する点が第1の実施例と異なる。 The sound image control unit 42A adjusts the delay amounts of the delay adjustment units 2L and 2R so as to localize the sound image formed by the sounds emitted from the speakers 3L and 3R at the position in the real space corresponding to the calculated three-dimensional coordinates. is the same as in the first embodiment, but the coordinates of the position where the touch panel 33 is touched are acquired from the terminal device 30 via the communication unit 8, and a three-dimensional image on the three-dimensional space image corresponding to the position coordinates This embodiment differs from the first embodiment in that the coordinates are specified.

通信部8は、生成部41Aで生成された三次元空間画像を端末装置30へ送信し、端末装置30からタッチパネル33をタッチされた位置座標を受信する。通信部8は、例えば、Bluetooth(登録商標)やWi-Fi(登録商標)或いは赤外線通信等の無線通信により端末装置30と通信する。 The communication unit 8 transmits the three-dimensional spatial image generated by the generation unit 41</b>A to the terminal device 30 and receives the coordinates of the position where the touch panel 33 is touched from the terminal device 30 . The communication unit 8 communicates with the terminal device 30 by wireless communication such as Bluetooth (registered trademark), Wi-Fi (registered trademark), or infrared communication.

端末装置30は、例えばスマートフォン等の可搬性を有する電子機器である。端末装置30は、通信部31と、制御部32と、タッチパネル33と、表示部34と、を備えている。 The terminal device 30 is, for example, a portable electronic device such as a smartphone. The terminal device 30 includes a communication section 31 , a control section 32 , a touch panel 33 and a display section 34 .

通信部31は、タッチパネル33をタッチされた位置座標を車載機20へ送信し、車載機20から生成部41Aで生成された三次元空間画像を受信する。 The communication unit 31 transmits the coordinates of the position where the touch panel 33 is touched to the vehicle-mounted device 20 and receives the three-dimensional spatial image generated by the generation unit 41A from the vehicle-mounted device 20 .

制御部32は、端末装置30の全体制御を司る。制御部32は、通信部31が受信した三次元空間画像を表示部34に表示させ、タッチパネル33でタッチされた位置座標を取得し通信部31を介して車載機20へ送信する。 The control unit 32 manages overall control of the terminal device 30 . The control unit 32 causes the display unit 34 to display the three-dimensional spatial image received by the communication unit 31 , acquires the position coordinates touched on the touch panel 33 , and transmits them to the vehicle-mounted device 20 via the communication unit 31 .

タッチパネル33は、表示部34の表示面上に重ねるように配置されている。タッチパネル33は、例えば手指等で触れた位置の二次元座標が出力される周知の入力装置である。表示部34は、例えば液晶ディスプレイ等で構成されている。表示部34は、制御部32から出力された三次元空間画像等が表示される。 The touch panel 33 is arranged so as to overlap the display surface of the display unit 34 . The touch panel 33 is a well-known input device that outputs two-dimensional coordinates of a position touched by a finger or the like. The display unit 34 is configured by, for example, a liquid crystal display. The display unit 34 displays a three-dimensional spatial image or the like output from the control unit 32 .

ここで、上述した遅延調整部2と、制御部4と、通信部8と、は本実施例にかかる音響装置10Aとして機能する。 Here, the delay adjustment unit 2, the control unit 4, and the communication unit 8 described above function as the acoustic device 10A according to the present embodiment.

また、端末装置30の通信部31は、ライダ7から取得した点群情報に基づき生成した車室内の三次元空間画像を取得する取得部と、タッチパネル33で受け付けた特定位置を音像を定位させる位置の情報として出力する出力部と、して機能する。また、表示部34は、車室内に音像を定位させる特定位置の指定を受け付け可能なタッチパネル33から特定位置の指定を受け付けるために通信部31が受信した三次元空間画像を表示する表示部として機能する。 In addition, the communication unit 31 of the terminal device 30 includes an acquisition unit that acquires a three-dimensional space image of the vehicle interior generated based on the point cloud information acquired from the rider 7, and a position that localizes the sound image at the specific position received by the touch panel 33 It functions as an output unit that outputs as information of In addition, the display unit 34 functions as a display unit that displays the three-dimensional spatial image received by the communication unit 31 in order to receive designation of a specific position from the touch panel 33 capable of receiving designation of a specific position for localizing a sound image inside the vehicle. do.

次に、上述した構成の音響装置10Aの動作(音響制御方法)について図7を参照して説明する。図7に示したフローチャートは車載機20の制御部4Aと端末装置30の制御部32で実行される。 Next, the operation (acoustic control method) of the acoustic device 10A having the configuration described above will be described with reference to FIG. The flowchart shown in FIG. 7 is executed by the control unit 4A of the vehicle-mounted device 20 and the control unit 32 of the terminal device 30. FIG.

まず、車載機20側の動作を説明する。ステップS21において、制御部4Aは、点群情報をライダ7から取得する。次に、ステップS22において、制御部4Aは、ライダ7から取得した点群情報に対して周知の方法により三次元空間画像を生成する。 First, the operation of the in-vehicle device 20 will be described. In step S<b>21 , the control unit 4</b>A acquires point group information from the rider 7 . Next, in step S22, the control section 4A generates a three-dimensional spatial image for the point cloud information obtained from the lidar 7 by a well-known method.

次に、ステップS23において、制御部4Aは、端末装置30から三次元空間画像の要求情報を受信したことにより三次元空間画像の要求があったか否かを判断し、要求がない場合(NOの場合)はステップS21へ戻り、要求あった場合(YESの場合)はステップS24において、生成部41Aで生成された三次元空間画像を通信部8に端末装置30へ送信させる。ステップS23において、要求がないとしてステップS21へ戻った場合は再度点群情報を取得して(ステップS21)、三次元空間画像を再生成する(ステップS22)ことで逐次更新がされる。 Next, in step S23, the control unit 4A determines whether or not there is a request for a 3D spatial image by receiving request information for a 3D spatial image from the terminal device 30, and if there is no request (in the case of NO ) returns to step S21, and if there is a request (if YES), the communication unit 8 is caused to transmit the three-dimensional spatial image generated by the generation unit 41A to the terminal device 30 in step S24. If there is no request in step S23 and the process returns to step S21, the point group information is obtained again (step S21), and the three-dimensional spatial image is regenerated (step S22), thereby sequentially updating.

次に、ステップS25において、制御部4Aは、端末装置30から定位位置情報を通信部8を介して受信する。そして、ステップS26において、制御部4Aは、ステップS24で受信した定位位置に音像が定位するように遅延調整部2L、2Rをそれぞれ調整してステップS21へ戻る。調整方法は第1の実施例と同様である。 Next, in step S25, the control section 4A receives the localization position information from the terminal device 30 via the communication section 8. FIG. Then, in step S26, the control section 4A adjusts the delay adjustment sections 2L and 2R so that the sound image is localized at the localization position received in step S24, and returns to step S21. The adjusting method is the same as in the first embodiment.

ステップS21へ戻ると再度点群情報を取得して(ステップS21)、三次元空間画像を再生成する(ステップS22)ことで逐次更新される。そして、端末装置30から再生成された三次元空間画像の要求情報がある場合はステップS24以降が実行され、三次元空間画像の要求情報がない場合はステップS21へ戻る。 When the process returns to step S21, the point group information is acquired again (step S21), and the three-dimensional spatial image is regenerated (step S22), thereby sequentially updating. Then, if there is request information for a regenerated three-dimensional spatial image from the terminal device 30, step S24 and subsequent steps are executed, and if there is no request information for a three-dimensional spatial image, the process returns to step S21.

次に、端末装置30側の動作を説明する。ステップS31において、制御部32は、三次元空間画像の要求情報を通信部31に車載機20へ送信させる。次に、ステップS32において、制御部32は、三次元空間画像を車載機20から通信部31を介して受信する。 Next, the operation of the terminal device 30 will be described. In step S<b>31 , the control unit 32 causes the communication unit 31 to transmit request information for a three-dimensional spatial image to the onboard device 20 . Next, in step S<b>32 , the control unit 32 receives the three-dimensional spatial image from the vehicle-mounted device 20 via the communication unit 31 .

次に、ステップS33において、制御部32は、ステップS32で受信した三次元空間画像を表示部34に表示させる。 Next, in step S33, the control unit 32 causes the display unit 34 to display the three-dimensional spatial image received in step S32.

次に、ステップS34において、制御部32は、タッチパネル33から音像の定位位置の指定を取得する(受け付ける)。定位位置の取得方法は第1の実施例と同様である。 Next, in step S<b>34 , the control unit 32 acquires (accepts) the designation of the localization position of the sound image from the touch panel 33 . The method of acquiring the stereotactic position is the same as in the first embodiment.

次に、ステップS35において、制御部32は、ステップS34で取得した定位位置を定位位置情報として通信部31に車載機20へ送信させる。 Next, in step S35, the control section 32 causes the communication section 31 to transmit the localization position acquired in step S34 to the vehicle-mounted device 20 as localization position information.

次に、ステップS36において、制御部32は、例えば再調整の要否についてのメッセージ等を表示部34に表示させ、再調整が必要との入力がタッチパネル33からあった場合(YESの場合)はステップS37に進む。一方、再調整が不要との入力がタッチパネル33からあった場合(NOの場合)はフローチャートを終了する。 Next, in step S36, the control unit 32 causes the display unit 34 to display, for example, a message about whether or not readjustment is necessary. The process proceeds to step S37. On the other hand, if there is an input from the touch panel 33 indicating that readjustment is unnecessary (in the case of NO), the flowchart ends.

次に、ステップS37において、三次元空間画像の再生成が必要か否かを判断し、必要な場合(YESの場合)はステップS31に戻り、不要な場合(NOの場合)はステップS34に戻る。ステップS37では、例えば表示部6に三次元空間画像の再生成が必要か表示してユーザに選択させる。ユーザが必要との選択をした場合はステップS31に戻り再生成された三次元空間画像を要求する。ユーザが不要との選択をした場合はステップS34に戻り定位位置の取得をする。 Next, in step S37, it is determined whether or not the three-dimensional spatial image needs to be regenerated. If necessary (YES), the process returns to step S31. If not necessary (NO), the process returns to step S34. . In step S37, for example, the display unit 6 displays whether or not the three-dimensional spatial image needs to be regenerated, and the user is prompted to select it. If the user selects that it is necessary, the process returns to step S31 to request the regenerated three-dimensional spatial image. If the user selects that it is not necessary, the process returns to step S34 to acquire the localization position.

本実施例によれば、端末装置30は、制御部32がライダ7から取得した三次元情報に基づき生成した車室内の三次元空間画像を取得し、表示部34が車室内の定位位置の指定を受け付け可能なタッチパネル33から定位位置の指定を受け付けるために三次元空間画像を表示する。そして、通信部31が定位位置情報を出力する。このようにすることにより、表示部34に表示された三次元空間画像に基づいて音像を定位させる定位位置の指定が可能となり、端末装置30から正確な定位位置の指定を容易にすることができる。 According to this embodiment, the terminal device 30 obtains a three-dimensional spatial image of the vehicle interior generated by the control unit 32 based on the three-dimensional information obtained from the lidar 7, and the display unit 34 designates the localization position in the vehicle interior. A three-dimensional spatial image is displayed in order to receive the designation of the localization position from the touch panel 33 capable of receiving the . Then, the communication unit 31 outputs the localization position information. By doing so, it is possible to specify a localization position for localizing a sound image based on the three-dimensional spatial image displayed on the display unit 34, and it is possible to easily specify an accurate localization position from the terminal device 30. .

また、可搬性のある端末装置30から定位位置の指定ができるので、車載機20の設置位置に関わらず、定位位置を指定することができる。 In addition, since the localization position can be specified from the portable terminal device 30, the localization position can be specified regardless of the installation position of the in-vehicle device 20. FIG.

次に、本発明の第3の実施例にかかる音響装置10を図8~図10を参照して説明する。なお、前述した第1、第2の実施例と同一部分には、同一符号を付して説明を省略する。 Next, an acoustic device 10 according to a third embodiment of the invention will be described with reference to FIGS. 8 to 10. FIG. The same parts as those in the first and second embodiments described above are denoted by the same reference numerals, and descriptions thereof are omitted.

本実施例は、機能的構成は第1の実施例と同様であるが、音響装置10の動作(音響制御方法)が一部異なる。本実施例にかかる音響装置10の動作(音響制御方法)について図8を参照して説明する。図8に示したフローチャートは制御部4で実行される。 This embodiment has the same functional configuration as the first embodiment, but is partially different in the operation of the audio device 10 (sound control method). The operation (acoustic control method) of the acoustic device 10 according to the present embodiment will be described with reference to FIG. The flow chart shown in FIG. 8 is executed by the controller 4 .

まず、ステップS41において、生成部41は、点群情報をライダ7から取得する。次に、ステップS42において、生成部41は、上述したように、ライダ7から取得した点群情報に対して三次元空間画像を生成する。 First, in step S<b>41 , the generator 41 acquires point group information from the rider 7 . Next, in step S42, the generator 41 generates a three-dimensional spatial image for the point group information acquired from the rider 7, as described above.

ステップS42においては、生成部41は、三次元空間画像を生成する際に、車室内にいる人物(搭乗者)を点群情報からオブジェクト認識等により認識し、三次元空間画像内で人物を識別して表示可能となっている。即ち、制御部4(生成部41)が、三次元空間画像内の人物を識別する識別部として機能する。人物が識別された三次元空間画像の例を図9に示す。図9は、図6に人物を加えたものである。図9に示すように人物はそれぞれが識別できるように、例えば“A”、“B”といったラベルが付与されている。なお、ラベルに代えてそれぞれ人物に異なる色や模様等を付加するようにしてもよい。 In step S42, when generating a three-dimensional spatial image, the generation unit 41 recognizes a person (passenger) in the vehicle interior by object recognition or the like from point cloud information, and identifies the person in the three-dimensional spatial image. can be displayed as That is, the control unit 4 (generation unit 41) functions as an identification unit that identifies a person in the three-dimensional spatial image. FIG. 9 shows an example of a three-dimensional spatial image in which a person has been identified. FIG. 9 is obtained by adding a person to FIG. As shown in FIG. 9, the persons are given labels such as "A" and "B" so that they can be identified. It should be noted that different colors, patterns, or the like may be added to each person in place of the label.

次に、ステップS43において、生成部41は、ステップS42で生成した三次元空間画像を表示部6に表示させる。 Next, in step S43, the generation unit 41 causes the display unit 6 to display the three-dimensional spatial image generated in step S42.

次に、ステップS44において、音像制御部42は、タッチパネル5から音像を定位させる人物の指定を取得する(受け付ける)。例えば図8であれば、“A”又は“B”のいずれかをタッチすることで人物を指定することとなる。なお、本実施例では人物のタッチする位置は頭部であっても胴体であっても定位位置は顔の正面中央(頭部)とする。この定位位置の位置座標は、三次元空間画像内の人物の位置に基づいて自動的に特定される。また、人物をタッチした場合に自動的に特定される定位位置は、顔の正面中央に限らず耳など他の位置であってもよい。あるいは、例えば胸部をタッチした場合は胸部を定位位置としてもよい。 Next, in step S<b>44 , the sound image control unit 42 acquires (accepts) the designation of the person whose sound image is to be localized from the touch panel 5 . For example, in FIG. 8, a person is specified by touching either "A" or "B". In this embodiment, the localization position is set to the front center of the face (head) regardless of whether the person touches the head or the body. The position coordinates of this localization position are automatically specified based on the position of the person in the three-dimensional spatial image. Also, the localization position that is automatically specified when a person is touched is not limited to the front center of the face, and may be another position such as an ear. Alternatively, for example, if the chest is touched, the chest may be the stereotactic position.

次に、ステップS45において、音像制御部42は、ステップS44で指定された人物の頭部に音像が定位するように遅延調整部2L、2Rをそれぞれ調整する。調整方法は第1の実施例と同様である。即ち、制御部4(音像制御部42)は、人物が指定された場合は、指定された人物に対応する位置に音像を定位させる。 Next, in step S45, the sound image control unit 42 adjusts the delay adjustment units 2L and 2R so that the sound image is localized on the head of the person specified in step S44. The adjusting method is the same as in the first embodiment. That is, when a person is specified, the control unit 4 (sound image control unit 42) localizes the sound image at a position corresponding to the specified person.

次に、ステップS46において、生成部41は、点群情報をライダ7から取得する。このステップS46はステップS47の判断のために行うものである。そして、ステップS47において、追従位置に変化があるか否かを判断し、変化がある場合はステップS45へ戻り、変化がない場合はステップS46へ戻る。 Next, in step S<b>46 , the generator 41 acquires point cloud information from the rider 7 . This step S46 is performed for the determination of step S47. Then, in step S47, it is determined whether or not there is a change in the follow-up position. If there is a change, the process returns to step S45, and if there is no change, the process returns to step S46.

ステップS47の追従位置とは、ステップS45で音像を定位させた人物の頭部である。これは、ステップS46で取得した点群情報から生成された三次元空間画像における人物の頭部の位置が、ステップS41又は前回実行したステップS46で取得した人物の頭部の位置から変化していた場合は、頭部が動いたとして、頭部の動きに追従すべくステップS45へ戻る。そして、ステップS46で取得した点群情報から生成された三次元空間画像における人物の頭部の位置に音像を定位させる。 The follow-up position in step S47 is the head of the person whose sound image is localized in step S45. This is because the position of the person's head in the three-dimensional spatial image generated from the point cloud information acquired in step S46 has changed from the position of the person's head acquired in step S41 or previously executed step S46. If so, it is determined that the head has moved, and the process returns to step S45 to follow the movement of the head. Then, the sound image is localized at the position of the person's head in the three-dimensional space image generated from the point group information acquired in step S46.

追従の例を図10に示す。図10は、座席に着席している人物が背もたれを倒して背もたれの角度を変化させた場合の例である。図10場合、座席の角度を変化させたことにより頭部の位置が変化しことに追従して定位位置Pが定位位置P’に移動する。 An example of tracking is shown in FIG. FIG. 10 shows an example in which a person sitting on a seat tilts the backrest to change the angle of the backrest. In the case of FIG. 10, when the angle of the seat is changed, the orientation position P moves to the orientation position P' following the change in the position of the head.

一方、ステップS46で取得した点群情報から生成された三次元空間画像における人物の頭部の位置が、ステップS41又は前回実行したステップS46で取得した人物の頭部の位置から変化していない場合は、頭部が動いていないとして、ステップS45は実行せずに、ステップS46で再度点群情報の取得を行う。 On the other hand, when the position of the person's head in the three-dimensional space image generated from the point cloud information acquired in step S46 has not changed from the position of the person's head acquired in step S41 or the previously executed step S46 If the head does not move, step S45 is not executed, and point cloud information is acquired again in step S46.

なお、本実施例において、ステップS46で取得した点群情報に基づいて三次元空間画像を生成して(更新して)表示部6に表示させてもよい。 In this embodiment, a three-dimensional spatial image may be generated (updated) based on the point cloud information acquired in step S46 and displayed on the display unit 6. FIG.

また、図8に示したフローチャートは、人物を指定した場合の動作であるが、例えば図9に示したような三次元空間画像において、“A”と“B”の間に音像を定位させる場合は、第1の実施例の要領で行えばよい。つまり、タッチ位置(指定した位置)に応じて、人物をタッチした場合はステップS44以降が実行され、人物以外をタッチした場合はステップS14以降が実行されるようにしてもよい。 The flowchart shown in FIG. 8 is the operation when a person is specified. For example, in the three-dimensional spatial image shown in FIG. may be performed in the same manner as in the first embodiment. That is, according to the touch position (specified position), steps S44 and subsequent steps may be executed when a person is touched, and steps S14 and subsequent steps may be executed when a person other than a person is touched.

本実施例によれば、制御部4の生成部41が、三次元空間画像内の人物を識別し、人物が識別された三次元空間画像を出力している。また、タッチパネル5は、人物の指定が可能であり、遅延調整部2は、タッチパネル5で人物が指定された場合は、指定された人物に対応する位置に音像を定位させている。このようにすることにより、例えば車両の車室内の座席に人物が着席していた場合は、その人物を指定することで、当該人物に対応する位置に音像を定位させることが可能となる。 According to this embodiment, the generation unit 41 of the control unit 4 identifies a person in the three-dimensional space image, and outputs the three-dimensional space image in which the person is identified. Also, the touch panel 5 can specify a person, and when a person is specified on the touch panel 5, the delay adjustment unit 2 localizes the sound image at a position corresponding to the specified person. By doing so, for example, when a person is seated in a seat inside the vehicle, by designating the person, it is possible to localize the sound image at the position corresponding to the person.

また、制御部4は、複数の三次元空間画像から人物の頭部の位置の変化を検出し、遅延調整部2は、タッチパネル5で人物が指定された場合は、制御部4で検出された頭部の位置の変化に基づいて頭部に音像の定位位置を追従させるようにしている。このようにすることにより、例えば顔の向きや座席の角度等が変化した場合であっても、それらに応じて音像の定位位置を追従させることができる。 In addition, the control unit 4 detects a change in the position of the person's head from a plurality of three-dimensional space images, and the delay adjustment unit 2 detects a change in the position of the person's head from the touch panel 5. The localization position of the sound image is made to follow the head based on the change in the position of the head. By doing so, even if the orientation of the face, the angle of the seat, or the like changes, the localization position of the sound image can be followed accordingly.

次に、本発明の第4の実施例にかかる音響装置10Aを図11を参照して説明する。なお、前述した第1~第3の実施例と同一部分には、同一符号を付して説明を省略する。 Next, an acoustic device 10A according to a fourth embodiment of the invention will be described with reference to FIG. The same parts as those of the first to third embodiments described above are denoted by the same reference numerals, and descriptions thereof are omitted.

本実施例は、機能的構成は第2の実施例と同様であるが、音響装置10Aの動作(音響制御方法)が一部異なる。本実施例にかかる音響装置10Aの動作(音響制御方法)について図11を参照して説明する。図11に示したフローチャートは車載機20の制御部4Aと端末装置30の制御部32で実行される。 This embodiment has the same functional configuration as the second embodiment, but is partially different in the operation (acoustic control method) of the audio device 10A. The operation (acoustic control method) of the acoustic device 10A according to this embodiment will be described with reference to FIG. The flowchart shown in FIG. 11 is executed by the control unit 4A of the vehicle-mounted device 20 and the control unit 32 of the terminal device 30. FIG.

まず、車載機20側の動作を説明する。ステップS51において、制御部4Aは、点群情報をライダ7から取得する。次に、ステップS52において、制御部4Aは、周知の方法により三次元空間画像を生成する。なお、ステップS52で生成される三次元空間画像は、第3の実施例と同様に人物を識別して表示可能となっている。 First, the operation of the in-vehicle device 20 will be described. In step S<b>51 , the control unit 4</b>A acquires point group information from the rider 7 . Next, at step S52, the control section 4A generates a three-dimensional spatial image by a well-known method. It should be noted that the three-dimensional space image generated in step S52 can be displayed by identifying a person as in the third embodiment.

次に、ステップS53において、制御部4Aは、端末装置30から三次元空間画像の要求情報を受信したことによる三次元空間画像の要求があったか否かを判断し、要求がない場合(NOの場合)は本ステップで待機し、要求あった場合(YESの場合)はステップS54において、生成部41Aで生成された三次元空間画像を通信部8に端末装置30へ送信させる。 Next, in step S53, the control unit 4A determines whether or not there is a request for a 3D spatial image due to the reception of request information for a 3D spatial image from the terminal device 30. If there is no request (NO ) waits in this step, and if there is a request (in the case of YES), the communication unit 8 is caused to transmit the three-dimensional spatial image generated by the generation unit 41A to the terminal device 30 in step S54.

次に、ステップS55において、制御部4Aは、端末装置30から音像を定位させる人物の指定の情報である人物指定情報を受信する。次に、ステップS55で受信した人物指定情報が示す人物の頭部に音像が定位するように遅延調整部2L、2Rをそれぞれ調整する。調整方法は第1、第3の実施例と同様である。 Next, in step S55, the control unit 4A receives from the terminal device 30 person designation information, which is information for designation of a person whose sound image is to be localized. Next, the delay adjusters 2L and 2R are adjusted so that the sound image is localized on the head of the person indicated by the person designation information received in step S55. The adjustment method is the same as in the first and third embodiments.

次に、ステップS57において、生成部41は、点群情報をライダ7から取得する。このステップS57はステップS58の判断のために行うものである。そして、ステップS58において、追従位置に変化があるか否かを判断し、変化がある場合はステップS56へ戻り、変化がない場合はステップS57へ戻る。なお、ステップS58の追従方法については、第3の実施例と同様である。 Next, in step S<b>57 , the generator 41 acquires point cloud information from the rider 7 . This step S57 is performed for the determination of step S58. Then, in step S58, it is determined whether or not there is a change in the follow-up position. If there is a change, the process returns to step S56, and if there is no change, the process returns to step S57. The follow-up method in step S58 is the same as in the third embodiment.

なお、本実施例においても、ステップS57で取得した点群情報に基づいて三次元空間画像を生成して(更新して)表示部6に表示させてもよい。 Also in this embodiment, a three-dimensional spatial image may be generated (updated) based on the point group information acquired in step S57 and displayed on the display unit 6. FIG.

次に、端末装置30側の動作を説明する。ステップS61において、制御部32は、車載機20に対して三次元空間画像の要求情報を通信部31に送信させる。次に、ステップS62において、車載機20から三次元空間画像を通信部31を介して受信する。 Next, the operation of the terminal device 30 will be described. In step S<b>61 , the control unit 32 causes the communication unit 31 to transmit request information for a three-dimensional spatial image to the vehicle-mounted device 20 . Next, in step S<b>62 , the three-dimensional spatial image is received from the vehicle-mounted device 20 via the communication unit 31 .

次に、ステップS63において、制御部32は、ステップS62で受信した三次元空間画像を表示部34に表示させる。 Next, in step S63, the control unit 32 causes the display unit 34 to display the three-dimensional spatial image received in step S62.

次に、ステップS64において、制御部32は、タッチパネル5から音像を定位させる人物の指定を取得する(受け付ける)。人物の指定の取得方法は第3の実施例と同様である。 Next, in step S<b>64 , the control unit 32 acquires (accepts) the designation of the person whose sound image is to be localized from the touch panel 5 . The method of obtaining the designation of a person is the same as in the third embodiment.

次に、ステップS65において、制御部32は、ステップS34で指定された人物を人物指定情報として車載機20へ通信部31に送信させる。 Next, in step S65, the control unit 32 causes the communication unit 31 to transmit the person specified in step S34 to the in-vehicle device 20 as person specifying information.

次に、ステップS66において、制御部32は、例えば再調整の要否についてのメッセージ等を表示部34に表示させ、再調整が必要との入力がタッチパネル33からあった場合(YESの場合)はステップS64に戻る。一方、再調整が不要との入力がタッチパネル33からあった場合(NOの場合)はフローチャートを終了する。 Next, in step S66, the control unit 32 causes the display unit 34 to display, for example, a message about whether or not readjustment is necessary. Return to step S64. On the other hand, if there is an input from the touch panel 33 indicating that readjustment is unnecessary (in the case of NO), the flowchart ends.

なお、本実施例においても、ステップS66で再調整が必要との入力があった場合に三次元空間画像の再生成が必要か否かについて判断するようにしてもよい。 Also in the present embodiment, if there is an input indicating that readjustment is necessary in step S66, it may be determined whether or not the three-dimensional spatial image needs to be regenerated.

本実施例によれば、端末装置30は、制御部32がライダ7から取得した三次元情報に基づき生成した車室内の人物が識別された三次元空間画像を取得し、表示部34が車室内の定位位置の指定を受け付け可能なタッチパネル33から音像を定位させる人物の指定を受け付けるために三次元空間画像を表示する。そして、通信部31が人物指定情報を出力する。このようにすることにより、例えば車両の車室内の座席に人物が着席していた場合は、端末装置30からその人物を指定することで、当該人物に対応する位置に音像を定位させることが可能となる。 According to the present embodiment, the terminal device 30 acquires a three-dimensional space image in which a person is identified in the vehicle interior generated by the control unit 32 based on the three-dimensional information acquired from the rider 7, and the display unit 34 displays the image in the vehicle interior. A three-dimensional spatial image is displayed in order to accept the specification of a person to localize the sound image from the touch panel 33 capable of accepting the specification of the localization position. Then, the communication section 31 outputs the person designation information. By doing so, for example, when a person is seated in a seat in the passenger compartment of the vehicle, by designating the person from the terminal device 30, it is possible to localize the sound image at the position corresponding to the person. becomes.

また、制御部4Aは、複数の三次元空間画像から人物の頭部の位置の変化を検出し、遅延調整部2は、タッチパネル5で人物が指定された場合は、制御部4Aで検出された頭部の位置の変化に基づいて頭部に音像の定位位置を追従させるようにしている。このようにすることにより、例えば顔の向きや座席の角度等が変化した場合であっても、それらに応じて音像の定位位置を追従させることができる。 In addition, the control unit 4A detects a change in the position of the person's head from a plurality of three-dimensional spatial images, and the delay adjustment unit 2 detects a change in the position of the person's head on the touch panel 5, and the control unit 4A detects The localization position of the sound image is made to follow the head based on the change in the position of the head. By doing so, even if the orientation of the face, the angle of the seat, or the like changes, the localization position of the sound image can be followed accordingly.

なお、上述した実施例は、センサとしてライダで説明したが他のセンサであってもよい。例えばステレオカメラ等三次元空間画像を生成するための三次元情報を取得することが
できるセンサであればよい。
In the above-described embodiment, the lidar is used as the sensor, but other sensors may be used. For example, any sensor capable of acquiring three-dimensional information for generating a three-dimensional spatial image, such as a stereo camera, may be used.

なお、上述した実施例は、所定空間として車両の車室で説明したが、車室に限らず、建物内の室内空間であってもよい。また、上述した実施例は、右チャンネルと左チャンネルの2チャンネルの音響システムで説明したが、4つのスピーカからなる4チャンネルの音響システム等複数のスピーカにより音像を定位させる音響システムで適用できる。 In the above-described embodiment, the predetermined space is described as a vehicle compartment, but the predetermined space is not limited to the vehicle compartment, and may be an indoor space in a building. Further, although the above-described embodiment has been described with a two-channel sound system of right and left channels, it can be applied to a sound system that localizes a sound image using a plurality of speakers, such as a four-channel sound system consisting of four speakers.

また、本発明は上記実施例に限定されるものではない。即ち、当業者は、従来公知の知見に従い、本発明の骨子を逸脱しない範囲で種々変形して実施することができる。かかる変形によってもなお本発明の音響装置を具備する限り、勿論、本発明の範疇に含まれるものである。 Moreover, the present invention is not limited to the above embodiments. That is, those skilled in the art can carry out various modifications according to conventionally known knowledge without departing from the gist of the present invention. As long as the acoustic device of the present invention is still provided even with such modification, it is of course included in the scope of the present invention.

2 遅延調整部(定位制御部)
3 スピーカ
4 制御部(取得部、出力部、識別部)
4A 制御部(取得部、識別部)
5 タッチパネル(受付部)
6 表示部
7 ライダ
8 通信部(出力部)
10、10A 音響装置
20 車載機
30 端末装置
31 通信部(取得部)
32 制御部(出力部)
33 タッチパネル(受付部)
34 表示部
2 delay adjustment section (localization control section)
3 speaker 4 control unit (acquisition unit, output unit, identification unit)
4A Control unit (acquisition unit, identification unit)
5 Touch panel (reception part)
6 display unit 7 lidar 8 communication unit (output unit)
DESCRIPTION OF SYMBOLS 10, 10A Acoustic device 20 Vehicle-mounted device 30 Terminal device 31 Communication part (acquisition part)
32 control unit (output unit)
33 touch panel (reception part)
34 Display

Claims (16)

複数スピーカから発せられる音により形成される所定空間内の音像を前記所定空間の特定位置に定位させる定位制御部を備える音響装置であって、
前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得部と、
前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示部へ出力する出力部と、
を備えることを特徴とする音響装置。
An acoustic device comprising a localization control unit that localizes a sound image in a predetermined space formed by sounds emitted from a plurality of speakers to a specific position in the predetermined space,
an acquisition unit for acquiring a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space;
an output unit for outputting to a display unit the three-dimensional spatial image acquired by the acquiring unit in order to accept the specification of the specific position from the accepting unit capable of accepting the specification of the specific position;
An acoustic device comprising:
前記三次元空間画像は、逐次更新され、
前記出力部は、更新された前記三次元空間画像を出力することを特徴とする請求項1に記載の音響装置。
The three-dimensional spatial image is sequentially updated,
2. The acoustic device according to claim 1, wherein the output unit outputs the updated three-dimensional spatial image.
前記取得部が取得した前記三次元空間画像内の人物を識別する識別部を更に備え、
前記出力部は、前記人物が識別された前記三次元空間画像を出力し、
前記受付部は、前記人物の指定が可能であり、
前記定位制御部は、前記受付部で前記人物が指定された場合は、指定された前記人物に対応する位置に前記音像を定位させる、
ことを特徴とする請求項1または2に記載の音響装置。
further comprising an identification unit that identifies a person in the three-dimensional spatial image obtained by the obtaining unit;
The output unit outputs the three-dimensional spatial image in which the person is identified,
The reception unit is capable of specifying the person,
When the person is specified by the reception unit, the localization control unit localizes the sound image at a position corresponding to the specified person.
3. The acoustic device according to claim 1 or 2, characterized by:
前記識別部は、複数の前記三次元空間画像から前記人物の頭部の位置の変化を検出し、
前記定位制御部は、前記受付部で前記人物が指定された場合は、前記識別部で検出された前記頭部の位置の変化に基づいて前記頭部に前記音像の定位位置を追従させることを特徴とする請求項3に記載の音響装置。
The identification unit detects a change in the position of the head of the person from the plurality of three-dimensional spatial images,
The localization control unit causes the head to follow the localization position of the sound image based on the change in the position of the head detected by the identification unit when the person is specified by the reception unit. 4. An acoustic device according to claim 3.
前記センサは、前記所定空間内に電磁波を出射して当該所定空間内の物体によって反射された電磁波を受信することで前記物体までの距離を測定可能となっていることを特徴とする請求項1から4のうちいずれか一項に記載の音響装置。 2. The sensor is capable of measuring the distance to the object by emitting electromagnetic waves into the predetermined space and receiving electromagnetic waves reflected by an object in the predetermined space. 5. The acoustic device according to any one of 4 to 4. 前記音響装置は車両に設置され、前記所定空間は車室空間であることを特徴とする請求項請求項1から5のうちいずれか一項に記載の音響装置。 6. The acoustic device according to any one of claims 1 to 5, wherein the acoustic device is installed in a vehicle, and the predetermined space is a vehicle interior space. 所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得部と、
前記所定空間の特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得部が取得した前記三次元空間画像を表示する表示部と、
前記受付部で受け付けた前記特定位置を複数スピーカから発せられる音により形成される音像を定位させる位置の情報として出力する出力部と、
を備えることを特徴とする端末装置。
an acquisition unit that acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space;
a display unit for displaying the three-dimensional spatial image acquired by the acquiring unit for accepting the specification of the specific position from the accepting unit capable of accepting the specification of the specific position in the predetermined space;
an output unit that outputs the specific position received by the reception unit as information on a position to localize a sound image formed by sounds emitted from a plurality of speakers;
A terminal device comprising:
複数スピーカから発せられる音により形成される所定空間内の音像を前記所定空間の特定位置に定位させる音響装置で実行される音響制御方法であって、
前記所定空間の三次元情報を取得可能なセンサから取得した三次元情報に基づき生成した前記所定空間の三次元空間画像を取得する取得工程と、
前記特定位置の指定を受け付け可能な受付部から前記特定位置の指定を受け付けるために前記取得工程で取得した前記三次元空間画像を表示部へ出力する出力工程と、
を含むことを特徴とする音響制御方法。
A sound control method executed by an acoustic device for localizing a sound image in a predetermined space formed by sounds emitted from a plurality of speakers at a specific position in the predetermined space,
an acquisition step of acquiring a three-dimensional spatial image of the predetermined space generated based on the three-dimensional information acquired from a sensor capable of acquiring three-dimensional information of the predetermined space;
an output step of outputting the three-dimensional spatial image acquired in the acquisition step to a display unit in order to accept the designation of the specific position from a reception unit capable of accepting the designation of the specific position;
An acoustic control method comprising:
請求項8に記載の音響制御方法を、コンピュータにより実行させることを特徴とする音響制御プログラム。 A sound control program for causing a computer to execute the sound control method according to claim 8 . センサから取得した三次元情報に基づき生成した所定空間の三次元空間画像を取得する取得部と、
前記取得部が取得した前記三次元空間画像を表示部へ出力する出力部と、
前記表示部に出力された三次元空間画像における特定位置の指定を受け付ける受付部と、を備え、
前記出力部は、前記三次元空間画像に基づき、前記所定空間における幅方向、高さ方向及び奥行き方向のうち2つの方向が識別可能な画像を、前記表示部に少なくとも2つ出力し、
前記受付部は、前記表示部に少なくとも2つ出力された画像それぞれに対する前記特定位置の指定を受け付けること、
を特徴とする入力装置。
an acquisition unit that acquires a three-dimensional spatial image of a predetermined space generated based on three-dimensional information acquired from a sensor;
an output unit that outputs the three-dimensional spatial image acquired by the acquisition unit to a display unit;
a reception unit that receives designation of a specific position in the three-dimensional spatial image output to the display unit;
The output unit outputs to the display unit at least two images in which two directions out of a width direction, a height direction, and a depth direction in the predetermined space can be identified based on the three-dimensional space image,
The reception unit receives designation of the specific position for each of at least two images output to the display unit;
An input device characterized by:
前記2つの画像のうち、1つ目の画像が前記表示部に表示され、
前記受付部により当該1つ目の画像に対する前記特定位置の指定を受け付けた後、2つ目の画像が前記1つ目の画像に代わって前記表示部に表示され、
前記受付部により前記2つ目の画像に対する前記特定位置の指定を受け付ける、
ことを特徴とする請求項10に記載の入力装置。
a first image of the two images is displayed on the display unit;
After receiving the specification of the specific position for the first image by the receiving unit, a second image is displayed on the display unit instead of the first image,
receiving the designation of the specific position for the second image by the receiving unit;
11. The input device according to claim 10, characterized by:
前記表示部に少なくとも2つ出力された前記画像は、
当該画像を構成する前記2つの方向のうち1つの方向が互いに異なる画像である、
ことを特徴とする請求項10または11に記載の入力装置。
At least two of the images output to the display unit are
An image in which one of the two directions constituting the image is different from each other,
12. The input device according to claim 10 or 11, characterized in that:
前記出力部は、前記三次元空間画像の再生成に関する選択を前記表示部に出力し、
ユーザが行った当該選択に応じて前記三次元空間画像の再生成を行う、
ことを特徴とする請求項10から12のうちいずれか一項に記載の入力装置。
The output unit outputs a selection regarding reproduction of the three-dimensional spatial image to the display unit;
regenerating the three-dimensional spatial image according to the selection made by the user;
13. The input device according to any one of claims 10 to 12, characterized in that:
前記表示部に少なくとも2つ出力された画像のうち、一方の画像からは、前記所定空間における幅方向、高さ方向及び奥行き方向のうち2つの方向における位置が指定され、もう一方の画像からは、前記2つの方向とは異なる残りの1つの方向における位置が指定されることを特徴とする請求項10から12のうちいずれか一項に記載の入力装置。 Of the at least two images output to the display unit, one image designates a position in two directions out of the width direction, the height direction, and the depth direction in the predetermined space, and the other image designates , a position in one remaining direction different from the two directions is specified. 複数スピーカから発せられる音により形成される音像を前記所定空間の前記特定位置に定位させる定位制御部を備えることを特徴とする請求項10から14のうちいずれか一項に記載の入力装置。 15. The input device according to any one of claims 10 to 14, further comprising a localization control unit that localizes a sound image formed by sounds emitted from a plurality of speakers to the specific position in the predetermined space. 前記受付部は、前記表示部に出力された少なくとも2つの前記画像に対する前記特定位置の指定を直接受付可能であることを特徴とする請求項10から15のうちいずれか一項に記載の入力装置。 16. The input device according to any one of claims 10 to 15, wherein the reception unit can directly receive designation of the specific position for at least two of the images output to the display unit. .
JP2022201028A 2018-04-25 2022-12-16 Sound apparatus Pending JP2023030054A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022201028A JP2023030054A (en) 2018-04-25 2022-12-16 Sound apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018084267A JP2019193108A (en) 2018-04-25 2018-04-25 Sound apparatus
JP2022201028A JP2023030054A (en) 2018-04-25 2022-12-16 Sound apparatus

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018084267A Division JP2019193108A (en) 2018-04-25 2018-04-25 Sound apparatus

Publications (1)

Publication Number Publication Date
JP2023030054A true JP2023030054A (en) 2023-03-07

Family

ID=68391018

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018084267A Pending JP2019193108A (en) 2018-04-25 2018-04-25 Sound apparatus
JP2022201028A Pending JP2023030054A (en) 2018-04-25 2022-12-16 Sound apparatus

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018084267A Pending JP2019193108A (en) 2018-04-25 2018-04-25 Sound apparatus

Country Status (1)

Country Link
JP (2) JP2019193108A (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7494732B2 (en) 2018-07-30 2024-06-04 ソニーグループ株式会社 Information processing device, information processing system, information processing method, and program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3598714B2 (en) * 1997-03-04 2004-12-08 ソニー株式会社 Sound processing device
WO2006095688A1 (en) * 2005-03-11 2006-09-14 Pioneer Corporation Information reproduction device, information reproduction method, information reproduction program, and computer-readable recording medium
JP2007116363A (en) * 2005-10-19 2007-05-10 Fujitsu Ten Ltd Acoustic space control apparatus

Also Published As

Publication number Publication date
JP2019193108A (en) 2019-10-31

Similar Documents

Publication Publication Date Title
US10650798B2 (en) Electronic device, method and computer program for active noise control inside a vehicle
US20180005528A1 (en) Vehicle interface device
WO2019124158A1 (en) Information processing device, information processing method, program, display system, and moving body
JP5890523B2 (en) Audio signal processing apparatus and audio signal processing method
JP6564128B2 (en) Notification control device and notification control method
US20200219320A1 (en) Multimodal user interface for a vehicle
JP6443403B2 (en) Vehicle control device
US11492001B2 (en) Notification device
JP5668765B2 (en) In-vehicle acoustic device
US20150285641A1 (en) System and method for distribution of 3d sound
JP7091311B2 (en) Information processing equipment, information processing methods, programs, and mobiles
JP2023030054A (en) Sound apparatus
JP2018055614A (en) Gesture operation system, and gesture operation method and program
US10889238B2 (en) Method for providing a spatially perceptible acoustic signal for a rider of a two-wheeled vehicle
US20170158132A1 (en) Vehicular display control apparatus
JP2021062811A (en) Acoustic control system, acoustic control device and acoustic control method
JP2006115364A (en) Voice output controlling device
US10292001B2 (en) In-vehicle, multi-dimensional, audio-rendering system and method
JP2020154795A (en) Output control device, output control method, and output control program
JP5292422B2 (en) In-vehicle head position detection device, in-vehicle display device, and driving support device
US20230186651A1 (en) Control device, projection system, control method, and program
GB2534165A (en) Vehicle interface device
CN114765726A (en) Output control device, output control system, and control method
JPH07193900A (en) Head position detector for generating stereoscopic sound field
JP2007153078A (en) On-vehicle voice output unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240426