JP7474175B2 - Sound image drawing device and sound image drawing method - Google Patents

Sound image drawing device and sound image drawing method Download PDF

Info

Publication number
JP7474175B2
JP7474175B2 JP2020169910A JP2020169910A JP7474175B2 JP 7474175 B2 JP7474175 B2 JP 7474175B2 JP 2020169910 A JP2020169910 A JP 2020169910A JP 2020169910 A JP2020169910 A JP 2020169910A JP 7474175 B2 JP7474175 B2 JP 7474175B2
Authority
JP
Japan
Prior art keywords
image
sound image
user
sound
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020169910A
Other languages
Japanese (ja)
Other versions
JP2022061771A (en
Inventor
正 宇治野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2020169910A priority Critical patent/JP7474175B2/en
Publication of JP2022061771A publication Critical patent/JP2022061771A/en
Application granted granted Critical
Publication of JP7474175B2 publication Critical patent/JP7474175B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、音像描画装置及び音像描画方法に関する。 The present invention relates to a sound image drawing device and a sound image drawing method.

従来、車両内において集音した音声データを基に音像を生成し、生成した音像を画像に重畳表示する方法が知られている(例えば、特許文献1又は2を参照)。また、音像の定位評価を行う際に、評価者が知覚した音像を俯瞰図及び正面図に手描きで描画する方法が知られている。 Conventionally, a method is known in which a sound image is generated based on voice data collected inside a vehicle and the generated sound image is superimposed on an image (see, for example, Patent Documents 1 and 2). In addition, a method is known in which, when evaluating the positioning of a sound image, an evaluator hand-draws the sound image perceived by the evaluator on an overhead view and a front view.

特開2020-12704号公報JP 2020-12704 A 特開2004-77277号公報JP 2004-77277 A

しかしながら、従来の技術方法では、評価者が知覚した音像を効率良く可視化することができない場合がある。例えば、特許文献1及び2に記載の自動的に音像を描画する方法では、評価者が知覚する主観的な音像を可視化することはできない。また、俯瞰図及び正面図に手描きで描画する方法は評価者の作業負荷を増大させる。 However, conventional technical methods may not be able to efficiently visualize the sound image perceived by the evaluator. For example, the methods of automatically drawing sound images described in Patent Documents 1 and 2 cannot visualize the subjective sound image perceived by the evaluator. In addition, the method of manually drawing the sound image on the overhead view and front view increases the workload of the evaluator.

本発明は、上記に鑑みてなされたものであって、評価者が知覚した音像を効率良く可視化することができる音像描画装置及び音像描画方法を提供することを目的とする。 The present invention has been made in consideration of the above, and aims to provide a sound image drawing device and a sound image drawing method that can efficiently visualize the sound image perceived by an evaluator.

上述した課題を解決し、目的を達成するために、本発明に係る音像描画装置は、音声出力制御部と、追跡部と、画像表示制御部と、格納部とを有する。音声出力制御部は、音響パラメータに従って音声出力装置に音声を出力させる。追跡部は、ユーザの身体の動きを追跡する。画像表示制御部は、追跡部によって得られたユーザの身体の動きの軌跡を基に生成されたオブジェクトを、撮影された画像に合成して表示装置に表示させる。格納部は、音響パラメータとオブジェクトを生成するための情報とを対応付けて記憶部に格納する。 In order to solve the above-mentioned problems and achieve the object, the sound image drawing device according to the present invention has an audio output control unit, a tracking unit, an image display control unit, and a storage unit. The audio output control unit causes the audio output device to output audio according to the acoustic parameters. The tracking unit tracks the user's body movements. The image display control unit synthesizes an object generated based on the trajectory of the user's body movements obtained by the tracking unit with a captured image and displays it on the display device. The storage unit associates the acoustic parameters with information for generating the object and stores them in the memory unit.

本発明によれば、評価者が知覚した音像を効率良く可視化することができる。 The present invention makes it possible to efficiently visualize the sound image perceived by the evaluator.

図1は、実施形態に係る音像描画システムの構成を示す図である。FIG. 1 is a diagram showing the configuration of a sound image rendering system according to an embodiment. 図2は、実施形態に係る音像描画装置の構成を示す機能ブロック図である。FIG. 2 is a functional block diagram showing the configuration of the sound image rendering device according to the embodiment. 図3は、オブジェクトの一例を示す図である。FIG. 3 is a diagram showing an example of an object. 図4は、オブジェクトの選択について説明する図である。FIG. 4 is a diagram illustrating the selection of an object. 図5は、オブジェクトの変形について説明する図である。FIG. 5 is a diagram illustrating the deformation of an object. 図6は、オブジェクトの一例を示す図である。FIG. 6 is a diagram showing an example of an object. 図7は、オブジェクトの再現について説明する図である。FIG. 7 is a diagram illustrating the reproduction of an object. 図8は、実施形態に係る音像描画装置が実行する処理の手順を示すフローチャートである。FIG. 8 is a flowchart showing the procedure of a process executed by the sound image drawing device according to the embodiment.

以下、添付図面を参照して、本願の開示する音像描画装置及び音像描画方法の実施形態を詳細に説明する。なお、以下に示す実施形態により本発明が限定されるものではない。 Below, embodiments of the sound image drawing device and sound image drawing method disclosed in the present application will be described in detail with reference to the attached drawings. Note that the present invention is not limited to the embodiments described below.

まず、図1を用いて、実施形態に係る音像描画装置を含む音像描画システムについて説明する。図1は、実施形態に係る音像描画システムの構成を示す図である。 First, a sound image drawing system including a sound image drawing device according to an embodiment will be described with reference to FIG. 1. FIG. 1 is a diagram showing the configuration of the sound image drawing system according to an embodiment.

音質評価において、集計者は、評価者が描画した音像を集計し解析する。図1のユーザUは評価者である。音像描画システム1は、評価者による音像の描画を支援することができる。なお、集計者及び評価者は、それぞれ解析者及び入力者と言い換えられてもよい。 In sound quality evaluation, the tallyer tallys up and analyzes the sound images drawn by the evaluators. User U in FIG. 1 is the evaluator. The sound image drawing system 1 can assist the evaluator in drawing the sound image. The tallyer and the evaluator may be rephrased as the analyst and the inputter, respectively.

図1に示すように、音像描画システム1は、車両10、音声出力装置20、表示装置30、カメラ40及び音像描画装置50を有する。例えば、車両10は自動車である。 As shown in FIG. 1, the sound image drawing system 1 includes a vehicle 10, an audio output device 20, a display device 30, a camera 40, and a sound image drawing device 50. For example, the vehicle 10 is an automobile.

音声出力装置20は、例えば車両10に備えられたスピーカである。また、表示装置30は、例えばユーザUによって装着されたVR(Virtual Reality)ゴーグルである。 The audio output device 20 is, for example, a speaker provided in the vehicle 10. The display device 30 is, for example, VR (Virtual Reality) goggles worn by the user U.

音像描画装置50は、音像に関する画像を表示装置30に表示させる。なお、表示装置30、カメラ40及び音像描画装置50は1つの装置として一体化されていてもよい。 The sound image drawing device 50 causes the display device 30 to display an image related to the sound image. Note that the display device 30, the camera 40, and the sound image drawing device 50 may be integrated into a single device.

音像描画装置50は、表示装置30と分離された別の装置であってもよい。その場合、音像描画装置50は、車両10に搭載されたECU(Electronic Control Unit)、又は車両10との間でデータ通信が可能なサーバによって実現されてもよい。 The sound image rendering device 50 may be a separate device from the display device 30. In that case, the sound image rendering device 50 may be realized by an ECU (Electronic Control Unit) mounted on the vehicle 10, or a server capable of data communication with the vehicle 10.

実施形態に係る音像描画方法では、音像描画装置50は、音響パラメータに従って音声出力装置20に音声を出力させる。 In the sound image rendering method according to the embodiment, the sound image rendering device 50 causes the audio output device 20 to output sound according to the acoustic parameters.

実施形態に係る音像描画方法では、音像描画装置50は、ユーザUの身体の動きを追跡する。 In the sound image drawing method according to the embodiment, the sound image drawing device 50 tracks the body movements of the user U.

実施形態に係る音像描画方法では、音像描画装置50は、追跡して得られたユーザUの身体の動きの軌跡を基に生成されたオブジェクトを、撮影された画像に合成して表示装置30に表示させる。 In the sound image drawing method according to the embodiment, the sound image drawing device 50 synthesizes an object generated based on the trajectory of the user U's body movements obtained by tracking with a captured image and displays it on the display device 30.

実施形態に係る音像描画方法では、音像描画装置50は、音響パラメータとオブジェクトを生成するための情報とを対応付けて記憶部に格納する。 In the sound image drawing method according to the embodiment, the sound image drawing device 50 stores the acoustic parameters and information for generating an object in a storage unit in association with each other.

このため、本実施形態によれば、評価者が知覚した音像を効率良く可視化することができる。 Therefore, according to this embodiment, the sound image perceived by the evaluator can be efficiently visualized.

図2は、実施形態に係る音像描画装置の構成を示す機能ブロック図である。図2に示すように、音像描画装置50は、IF部51、制御部52及び記憶部53を有する。 FIG. 2 is a functional block diagram showing the configuration of a sound image drawing device according to an embodiment. As shown in FIG. 2, the sound image drawing device 50 has an IF unit 51, a control unit 52, and a storage unit 53.

IF部51は、音像描画装置50を他の装置と接続するためのインタフェースである。音像描画装置50は、IF部51を介して音声出力装置20、表示装置30及びカメラ40と接続される。 The IF unit 51 is an interface for connecting the sound image drawing device 50 to other devices. The sound image drawing device 50 is connected to the audio output device 20, the display device 30, and the camera 40 via the IF unit 51.

音像描画装置50の制御部52及び記憶部53は、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ、入出力ポート等を有するコンピュータや各種の回路により実現される。 The control unit 52 and memory unit 53 of the sound image drawing device 50 are realized by, for example, a computer having a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), flash memory, input/output ports, etc., and various other circuits.

コンピュータのCPUは、例えばROMに記憶されたプログラムを読み出して実行することによって、制御部52の音声出力制御部521、追跡部522、画像表示制御部523及び格納部524として機能する。 The computer's CPU functions as the audio output control unit 521, tracking unit 522, image display control unit 523, and storage unit 524 of the control unit 52, for example, by reading and executing a program stored in the ROM.

また、記憶部53は、RAMやフラッシュメモリに対応する。RAMやフラッシュメモリは、音響情報531、オブジェクト情報532及び各種プログラムの情報等を記憶することができる。 The storage unit 53 corresponds to a RAM or a flash memory. The RAM or the flash memory can store acoustic information 531, object information 532, and information on various programs, etc.

なお、音像描画装置50は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 The sound image rendering device 50 may also acquire the above-mentioned programs and various information via other computers or portable recording media connected via a wired or wireless network.

音声出力制御部521は、音響パラメータに従って音声出力装置20に音声を出力させる。例えば、音声出力制御部521は、車両10内に備えられた音声出力装置20から、音響パラメータに従って音声を出力させる。 The audio output control unit 521 causes the audio output device 20 to output audio according to the acoustic parameters. For example, the audio output control unit 521 causes the audio output device 20 provided in the vehicle 10 to output audio according to the acoustic parameters.

音響情報531は、音響パラメータを含む。音声出力制御部521は、音響情報531から取得した音響パラメータを基に音声を出力させる。 The acoustic information 531 includes acoustic parameters. The audio output control unit 521 outputs audio based on the acoustic parameters obtained from the acoustic information 531.

音響パラメータは、音声の波形を再現するためのパラメータであってもよいし、あらかじめ作成された音声ファイルであってもよい。 The acoustic parameters may be parameters for reproducing the waveform of the sound, or may be a pre-created sound file.

追跡部522は、ユーザUの身体の動きを追跡する。例えば、追跡部522は、カメラ40から入力された画像を基にユーザUの手のひら等の部位を認識し、認識した部位の位置を随時計算することで当該部位を追跡する。 The tracking unit 522 tracks the body movements of the user U. For example, the tracking unit 522 recognizes a part of the user U, such as the palm of the hand, based on the image input from the camera 40, and tracks the part by continually calculating the position of the recognized part.

表示装置30、カメラ40及び追跡部522は、モーショントラッキング及び水平面の検出等が可能なAR(Augmented Reality)機器を実現することができる。 The display device 30, camera 40, and tracking unit 522 can realize an AR (Augmented Reality) device capable of motion tracking, horizontal plane detection, etc.

画像表示制御部523は、追跡部522によって得られたユーザUの身体の動きの軌跡を基に生成されたオブジェクトを、撮影された画像に合成して表示装置30に表示させる。 The image display control unit 523 synthesizes the object generated based on the trajectory of the user U's body movement obtained by the tracking unit 522 with the captured image and displays it on the display device 30.

ここで、ユーザUは、音声を聴くことによって知覚した音場を、身体の動きによって表現するものとする。このとき、ユーザUによって表現された音場を、音像描画装置50がオブジェクトとして描画したものを音像と呼ぶ。 Here, the user U expresses the sound field perceived by listening to the sound through body movements. In this case, the sound field expressed by the user U is rendered as an object by the sound image rendering device 50 and is called a sound image.

例えば、画像表示制御部523は、追跡部522によって得られたユーザUの身体の動きの軌跡を基に生成された3次元オブジェクトを、撮影された画像を背景とする仮想的な空間に描画する。これにより、ユーザUは音像を直感的に確認することができる。 For example, the image display control unit 523 renders a three-dimensional object generated based on the trajectory of the user U's body movement obtained by the tracking unit 522 in a virtual space with the captured image as the background. This allows the user U to intuitively confirm the sound image.

図3は、オブジェクトの一例を示す図である。図3の画面は、画像表示制御部523が表示装置30に表示させている画面の一例である。 Figure 3 is a diagram showing an example of an object. The screen in Figure 3 is an example of a screen that the image display control unit 523 causes the display device 30 to display.

図3の画面の背景は、カメラ40によって撮影された画像である。このように、画像表示制御部523は、オブジェクトを、ユーザUの視界を模した画像に重畳させて、ユーザUが装着しているゴーグル型の表示装置30に表示させる。 The background of the screen in FIG. 3 is an image captured by the camera 40. In this way, the image display control unit 523 superimposes the object on an image that mimics the field of view of the user U and displays it on the goggle-type display device 30 worn by the user U.

画像表示制御部523は、画面にオブジェクト301を表示させる。オブジェクト301は、3次元オブジェクトである。そのため、光源及びカメラ40の撮影位置等に応じた光沢及び影を表現することができる。 The image display control unit 523 displays the object 301 on the screen. The object 301 is a three-dimensional object. Therefore, it is possible to express gloss and shadow according to the light source and the shooting position of the camera 40, etc.

例えば、画像表示制御部523は、追跡部522によって得られたユーザUの手のひらの軌跡で囲まれる空間と一致するオブジェクトを生成する。また、画像表示制御部523は、軌跡を基に球、楕円体、直方体等のオブジェクトを生成してもよい。 For example, the image display control unit 523 generates an object that coincides with the space enclosed by the trajectory of the palm of the user U obtained by the tracking unit 522. The image display control unit 523 may also generate objects such as spheres, ellipsoids, and rectangular parallelepipeds based on the trajectory.

格納部524は、音響パラメータとオブジェクトを生成するための情報とを対応付けて記憶部53に格納する。例えば、格納部524は、オブジェクト301の重心、奥行き、高さ等の特徴量をオブジェクト情報532として記憶部53に格納する。 The storage unit 524 associates the acoustic parameters with information for generating an object and stores them in the memory unit 53. For example, the storage unit 524 stores features such as the center of gravity, depth, and height of the object 301 as object information 532 in the memory unit 53.

また、格納部524は、第1の画像に示されるマーカ11とオブジェクトとの位置関係を記憶部53に格納する。図3の例では、マーカ11は車両10のピラー部分に印字されているが、他の位置に印字されていてもよい。 The storage unit 524 also stores in the memory unit 53 the positional relationship between the marker 11 and the object shown in the first image. In the example of FIG. 3, the marker 11 is printed on the pillar portion of the vehicle 10, but it may be printed in another position.

図4は、オブジェクトの選択について説明する図である。ユーザUが生成済みのオブジェクトに対して所定の操作を行った場合、画像表示制御部523は、当該オブジェクトを選択状態にする。 Figure 4 is a diagram explaining the selection of an object. When a user U performs a predetermined operation on a generated object, the image display control unit 523 places the object in a selected state.

例えば、図4のオブジェクト301に対し、追跡部522によって得られた軌跡から、一定時間手のひらをかざす、素早くなでる、一定回数タップする等のジェスチャが検知された場合、画像表示制御部523はオブジェクト301を選択状態にする。 For example, when a gesture such as holding a palm over the object 301 in FIG. 4 for a certain period of time, stroking quickly, or tapping a certain number of times is detected from the trajectory obtained by the tracking unit 522, the image display control unit 523 sets the object 301 to a selected state.

画像表示制御部523は、追跡部522によって得られたユーザUの身体の動きに従って、3次元オブジェクトを移動、拡縮又は変形させる。例えば、画像表示制御部523は、選択状態になったオブジェクトを、ユーザUの身体の動きに応じて変形させることができる。 The image display control unit 523 moves, enlarges, reduces, or deforms the three-dimensional object according to the body movements of the user U obtained by the tracking unit 522. For example, the image display control unit 523 can deform an object that is in a selected state according to the body movements of the user U.

このように、ユーザUは直感的な操作によって音像の変形等を行うことができる。 In this way, user U can perform operations such as transforming the sound image through intuitive operations.

図5は、オブジェクトの変形について説明する図である。例えば、オブジェクト301が楕円体である場合、ユーザUが楕円体の長軸を圧縮するような動きをした場合、画像表示制御部523は、オブジェクト301を長軸方向に縮小する。 Figure 5 is a diagram explaining the deformation of an object. For example, if the object 301 is an ellipsoid, and the user U makes a movement that compresses the major axis of the ellipsoid, the image display control unit 523 shrinks the object 301 in the major axis direction.

その他にも、画像表示制御部523は、ユーザUのつまむ、押す、引く、切る、つぶす、のばす、握る等の動作を検知してオブジェクト301を変形させることができる。 In addition, the image display control unit 523 can detect user U's actions such as pinching, pushing, pulling, cutting, crushing, stretching, and squeezing, and can deform the object 301.

画像表示制御部523は、図6のように、複数のオブジェクトを表示させることができる。図6は、オブジェクトの一例を示す図である。 The image display control unit 523 can display multiple objects as shown in FIG. 6. FIG. 6 shows an example of objects.

また、画像表示制御部523は、音響パラメータに基づく音場を構成する要素のそれぞれに対応付けられたオブジェクトを描画する。 In addition, the image display control unit 523 draws objects associated with each of the elements that make up the sound field based on the acoustic parameters.

例えば、画像表示制御部523は、ユーザUによって表現された音場であって、帯域ごと(高域、中域、低域)に表現された音場のそれぞれを、個別のオブジェクトとして描画する。これにより、多様な音像の表現が可能になる。 For example, the image display control unit 523 renders the sound field represented by the user U in each frequency band (high, mid, low) as an individual object. This makes it possible to represent a variety of sound images.

また、音声が楽曲を再生するものである場合、画像表示制御部523は、パートごと又は楽器ごとにオブジェクトを描画してもよい。 In addition, if the audio is playing a piece of music, the image display control unit 523 may draw an object for each part or each instrument.

例えば、図6のオブジェクト302、オブジェクト303及びオブジェクト304は、それぞれ種類が異なる音源の音声を基にユーザUが生成したものであってもよい。 For example, objects 302, 303, and 304 in FIG. 6 may be generated by user U based on audio from different types of sound sources.

また、画像表示制御部523は、図6に示す複数のオブジェクトのうち、ユーザUによって選択されたオブジェクトを表示し、選択されていないオブジェクトを非表示にしてもよい。 The image display control unit 523 may also display the object selected by the user U from among the multiple objects shown in FIG. 6, and hide the unselected objects.

音像描画装置50は、記憶部53に格納されたオブジェクトを異なる日時及び場所で再現することができる。これにより、評価者以外のユーザUが、評価者が知覚した音場を追体験することができる。 The sound image rendering device 50 can reproduce the objects stored in the memory unit 53 at different dates, times, and locations. This allows users U other than the evaluator to re-experience the sound field perceived by the evaluator.

例えば、画像表示制御部523は、記憶部53に格納されたオブジェクトを生成するための情報を基に生成したオブジェクトを、撮影された画像である第1の画像と異なる第2の画像に合成して表示させる。図7は、オブジェクトの再現について説明する図である。 For example, the image display control unit 523 displays an object generated based on information for generating the object stored in the storage unit 53 by combining the object with a second image different from the first image, which is a captured image. FIG. 7 is a diagram for explaining the reproduction of an object.

図7は、車両10内で生成されたオブジェクトを、オフィス内で再現した場合の例である。図7に示すように、オフィス内の所定の場所に、マーカ11と同等の視覚的特徴を持つマーカ11aが印字されている。 Figure 7 shows an example of an object generated in a vehicle 10 being reproduced in an office. As shown in Figure 7, a marker 11a having visual characteristics equivalent to those of marker 11 is printed in a specified location in the office.

図6の背景の画像は第1の画像の一例である。また、図7の背景の画像は第2の画像の一例である。 The background image in Figure 6 is an example of a first image. The background image in Figure 7 is an example of a second image.

図7のオブジェクト302a、オブジェクト303a及びオブジェクト304aとマーカ11aとの位置関係は、図6のオブジェクト302、オブジェクト303及びオブジェクト304とマーカ11との位置関係と同等である。 The positional relationships between objects 302a, 303a, and 304a and marker 11a in FIG. 7 are the same as the positional relationships between objects 302, 303, and 304 and marker 11 in FIG. 6.

このように、音像描画装置50によれば、保存されたオブジェクトを、別の場所で再現することができるため、集計者は任意の場所で集計及び解析を行うことができる。 In this way, the sound image rendering device 50 allows the stored object to be reproduced in another location, allowing the tally-up person to perform tallying and analysis in any location.

また、画像表示制御部523は、第2の画像に示されるマーカと第2の画像に表示されるオブジェクトの位置関係が、記憶部53に記憶された位置関係と同じになるように、オブジェクトを第2の画像に合成して表示させる。 In addition, the image display control unit 523 composites the object into the second image and displays it so that the positional relationship between the marker shown in the second image and the object displayed in the second image is the same as the positional relationship stored in the memory unit 53.

これにより、位置関係を正確に再現することができる。 This allows the positional relationship to be reproduced accurately.

なお、保存されたオブジェクトの再現は、VRゴーグルに限らず、パーソナルコンピュータ、スマートフォン、タブレット端末等の3次元オブジェクトを描画する機能を備えた任意の装置上で行われてもよい。 The reproduction of the saved object is not limited to VR goggles, but may be performed on any device equipped with the function of rendering three-dimensional objects, such as a personal computer, smartphone, tablet terminal, etc.

図8を用いて、実施形態に係る音像描画装置50において実行される処理の手順について説明する。図8は、実施形態に係る音像描画装置が実行する処理の手順を示すフローチャートである。 The procedure of the process executed in the sound image drawing device 50 according to the embodiment will be described with reference to FIG. 8. FIG. 8 is a flowchart showing the procedure of the process executed by the sound image drawing device according to the embodiment.

図8に示すように、まず、音像描画装置50は、音響パラメータに従って音声出力装置20から音声を出力させる(ステップS101)。また、音像描画装置50は、カメラ40によって撮影された画像からユーザUの身体の動きを追跡する(ステップS102)。 As shown in FIG. 8, first, the sound image rendering device 50 causes the sound output device 20 to output sound in accordance with the acoustic parameters (step S101). The sound image rendering device 50 also tracks the body movements of the user U from the image captured by the camera 40 (step S102).

ここで、音像描画装置50は、ユーザUの身体の動きがオブジェクトを生成するための生成動作であるか否かを確認する(ステップS103)。 Here, the sound image drawing device 50 checks whether the body movement of the user U is a generation action for generating an object (step S103).

ユーザUの身体の動きが生成動作でない場合(ステップS103:No)、音像描画装置50はステップS105へ進む。 If the body movement of the user U is not a generating movement (step S103: No), the sound image rendering device 50 proceeds to step S105.

一方、ユーザUの身体の動きが生成動作である場合(ステップS103:Yes)、音像描画装置50は、身体の動きの軌跡を基にオブジェクトを生成し(ステップS104)、ステップS105へ進む。 On the other hand, if the body movement of the user U is a generating movement (step S103: Yes), the sound image rendering device 50 generates an object based on the trajectory of the body movement (step S104) and proceeds to step S105.

次に、音像描画装置50は、ユーザUの身体の動きがオブジェクトを選択するための選択動作であるか否かを確認する(ステップS105)。 Next, the sound image drawing device 50 checks whether the body movement of the user U is a selection action for selecting an object (step S105).

ユーザUの身体の動きが選択動作でない場合(ステップS105:No)、音像描画装置50はステップS107へ進む。 If the body movement of the user U is not a selection movement (step S105: No), the sound image rendering device 50 proceeds to step S107.

一方、ユーザUの身体の動きが選択動作である場合(ステップS105:Yes)、音像描画装置50は、オブジェクトを選択し(ステップS106)、ステップS107へ進む。 On the other hand, if the body movement of the user U is a selection motion (step S105: Yes), the sound image rendering device 50 selects an object (step S106) and proceeds to step S107.

さらに、音像描画装置50は、ユーザの身体の動きがオブジェクトを変形させるための変形動作であるか否かを確認する(ステップS107)。 Furthermore, the sound image drawing device 50 checks whether the user's body movement is a deformation action for deforming an object (step S107).

ユーザUの身体の動きが変形動作でない場合(ステップS107:No)、音像描画装置50はステップS109へ進む。 If the body movement of the user U is not a deformation movement (step S107: No), the sound image rendering device 50 proceeds to step S109.

一方、ユーザUの身体の動きが変形動作である場合(ステップS107:Yes)、音像描画装置50は、選択済みのオブジェクトを変形させ(ステップS108)、ステップS109へ進む。 On the other hand, if the body movement of the user U is a transformation movement (step S107: Yes), the sound image rendering device 50 transforms the selected object (step S108) and proceeds to step S109.

例えば、オブジェクトの生成動作、選択動作及び変形動作は、それぞれ図3、図4及び図5で説明した動作に対応するものである。 For example, the object creation, selection, and transformation operations correspond to the operations described in Figures 3, 4, and 5, respectively.

そして、音像描画装置50は、オブジェクトを描画する(ステップS109)。このとき、音像描画装置50は、オブジェクトの生成、選択又は変形の結果を描画するオブジェクトに反映させる。 Then, the sound image drawing device 50 draws the object (step S109). At this time, the sound image drawing device 50 reflects the result of the generation, selection, or transformation of the object in the object to be drawn.

ここで、ユーザUの作業が終了される場合(ステップS110:Yes)、音像描画装置50は、音響パラメータとオブジェクトの情報を対応付けて保存する(ステップS111)。 If user U's work is finished (step S110: Yes), the sound image rendering device 50 associates the acoustic parameters with the object information and stores them (step S111).

一方、ユーザUの作業が終了されない場合(ステップS110:No)、音像描画装置50は、ステップS101に戻り処理を繰り返す。 On the other hand, if user U's work has not been completed (step S110: No), the sound image rendering device 50 returns to step S101 and repeats the process.

このように、音像描画装置50は、オブジェクトの生成、選択及び変形と、オブジェクトの描画とを繰り返すことにより、リアルタイムにオブジェクトを変化させて表示させることができる。このため、ユーザUは直感的な評価及び入力を行うことができる。 In this way, the sound image drawing device 50 can change and display objects in real time by repeatedly generating, selecting, and transforming objects, and drawing the objects. This allows the user U to intuitively evaluate and input.

音像描画装置50によれば、特に2次元の紙面上に音像を描画する場合と比べて、評価者の思考を遮られることなく音像を生成することができる。 The sound image drawing device 50 can generate a sound image without interrupting the evaluator's thoughts, especially compared to drawing a sound image on a two-dimensional piece of paper.

なお、音像描画装置50は、作業が終了されるか否かを、ユーザUによる明示的な終了操作、及び時間経過等の条件により判定することができる。 The sound image drawing device 50 can determine whether the task is finished based on an explicit end operation by the user U and conditions such as the passage of time.

上述してきたように、実施形態に係る音像描画装置50は、音声出力制御部521と、追跡部522と、画像表示制御部523と、格納部524とを有する。音声出力制御部521は、音響パラメータに従って音声出力装置20に音声を出力させる。追跡部522は、ユーザUの身体の動きを追跡する。画像表示制御部523は、追跡部522によって得られたユーザUの身体の動きの軌跡を基に生成されたオブジェクトを、撮影された画像に合成して表示装置30に表示させる。格納部524は、音響パラメータとオブジェクトを生成するための情報とを対応付けて記憶部53に格納する。 As described above, the sound image drawing device 50 according to the embodiment has an audio output control unit 521, a tracking unit 522, an image display control unit 523, and a storage unit 524. The audio output control unit 521 causes the audio output device 20 to output audio in accordance with the acoustic parameters. The tracking unit 522 tracks the body movements of the user U. The image display control unit 523 synthesizes an object generated based on the trajectory of the body movements of the user U obtained by the tracking unit 522 with a captured image and displays it on the display device 30. The storage unit 524 associates the acoustic parameters with information for generating the object and stores them in the memory unit 53.

このように、音像描画装置50によれば、評価者は、自分が感じる音像の位置及び形状を、空間中で身体の動きで示すという直感的かつ簡単な動作により可視化することができる。さらに、音像描画装置50によれば、音響パラメータと音像を表すオブジェクトの3次元の情報が対応付けられて記憶される。このため、本実施形態によれば、評価者が知覚した音像を効率良く可視化することができる。さらに、その結果、評価者及び集計者による音質評価の作業効率が向上する。 In this way, the sound image drawing device 50 allows the evaluator to visualize the position and shape of the sound image he or she perceives through an intuitive and simple action of indicating the position and shape of the sound image through body movements in space. Furthermore, the sound image drawing device 50 stores the acoustic parameters and the three-dimensional information of the object representing the sound image in association with each other. Therefore, according to this embodiment, the sound image perceived by the evaluator can be efficiently visualized. Furthermore, as a result, the work efficiency of the sound quality evaluation by the evaluator and the tallying person is improved.

また、ゴーグル型の表示装置を利用することにより、ユーザUは、実空間を見ながらより正確に音場を表現することが可能になる。 In addition, by using a goggle-type display device, the user U can more accurately experience a sound field while viewing the real space.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細及び代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲及びその均等物によって定義される総括的な発明の概念の精神又は範囲から逸脱することなく、様々な変更が可能である。 Further advantages and modifications may readily occur to those skilled in the art. Therefore, the invention in its broader aspects is not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and equivalents thereof.

U ユーザ
1 音像描画システム
10 車両
11、11a マーカ
20 音声出力装置
30 表示装置
40 カメラ
50 音像描画装置
51 IF部
52 制御部
53 記憶部
301、302、303、304、302a、303a、304a オブジェクト
521 音声出力制御部
522 追跡部
523 画像表示制御部
524 格納部
531 音響情報
532 オブジェクト情報
REFERENCE SIGNS LIST U User 1 Sound image drawing system 10 Vehicle 11, 11a Marker 20 Sound output device 30 Display device 40 Camera 50 Sound image drawing device 51 IF section 52 Control section 53 Storage section 301, 302, 303, 304, 302a, 303a, 304a Object 521 Sound output control section 522 Tracking section 523 Image display control section 524 Storage section 531 Acoustic information 532 Object information

Claims (8)

音響パラメータに従って音声出力装置に音声を出力させる音声出力制御部と、
ユーザの身体の動きを追跡する追跡部と、
前記追跡部によって得られた前記ユーザの身体の動きの軌跡を基に生成されたオブジェクトを、撮影された画像に合成して表示装置に表示させる画像表示制御部と、
前記音響パラメータと前記オブジェクトを生成するための情報とを対応付けて記憶部に格納する格納部と、
を有することを特徴とする音像描画装置。
an audio output control unit that causes an audio output device to output audio in accordance with the acoustic parameters;
A tracking unit that tracks the user's body movements;
an image display control unit that synthesizes an object generated based on the trajectory of the user's body movement obtained by the tracking unit with a captured image and displays the object on a display device;
a storage unit that stores the acoustic parameters and information for generating the object in a storage unit in association with each other;
13. A sound image drawing device comprising:
前記画像表示制御部は、前記追跡部によって得られた前記ユーザの身体の動きの軌跡を基に生成された3次元オブジェクトを、撮影された画像を背景とする仮想的な空間に描画することを特徴とする請求項1に記載の音像描画装置。 The sound image drawing device according to claim 1, characterized in that the image display control unit draws a three-dimensional object generated based on the trajectory of the user's body movement obtained by the tracking unit in a virtual space with the captured image as the background. 前記画像表示制御部は、前記追跡部によって得られた前記ユーザの身体の動きに従って、前記3次元オブジェクトを移動、拡縮又は変形させることを特徴とする請求項2に記載の音像描画装置。 The sound image drawing device according to claim 2, characterized in that the image display control unit moves, enlarges, reduces, or deforms the three-dimensional object according to the body movement of the user obtained by the tracking unit. 前記画像表示制御部は、前記音響パラメータに基づく音場を構成する要素のそれぞれに対応付けられたオブジェクトを描画することを特徴とする請求項2に記載の音像描画装置。 The sound image drawing device according to claim 2, characterized in that the image display control unit draws objects corresponding to each of the elements that constitute the sound field based on the acoustic parameters. 前記画像表示制御部は、前記記憶部に格納された前記オブジェクトを生成するための情報を基に生成したオブジェクトを、前記撮影された画像である第1の画像と異なる第2の画像に合成して表示させることを特徴とする請求項1に記載の音像描画装置。 The sound image drawing device according to claim 1, characterized in that the image display control unit displays an object generated based on information for generating the object stored in the storage unit by synthesizing the object with a second image different from the first image, which is the captured image. 前記格納部は、前記第1の画像に示されるマーカと前記オブジェクトとの位置関係を前記記憶部に格納し、
前記画像表示制御部は、前記第2の画像に示されるマーカと前記第2の画像に表示される前記オブジェクトの位置関係が、前記記憶部に記憶された位置関係と同じになるように、前記オブジェクトを前記第2の画像に合成して表示させることを特徴とする請求項5に記載の音像描画装置。
The storage unit stores a positional relationship between the marker and the object shown in the first image in the memory unit;
The sound image drawing device of claim 5, characterized in that the image display control unit synthesizes and displays the object into the second image so that the positional relationship between the marker shown in the second image and the object displayed in the second image is the same as the positional relationship stored in the memory unit.
前記音声出力制御部は、車両内に備えられた音声出力装置から、前記音響パラメータに従って音声を出力させ、
前記画像表示制御部は、前記オブジェクトを、前記ユーザの視界を模した画像に重畳させて、前記ユーザが装着しているゴーグル型の表示装置に表示させることを特徴とする請求項1に記載の音像描画装置。
The audio output control unit outputs audio from an audio output device provided in the vehicle in accordance with the acoustic parameters;
The sound image drawing device according to claim 1, characterized in that the image display control unit superimposes the object on an image simulating the user's field of vision and displays it on a goggle-type display device worn by the user.
音像描画装置によって実行される音像描画方法であって、
音響パラメータに従って音声出力装置に音声を出力させる音声出力制御工程と、
ユーザの身体の動きを追跡する追跡工程と、
前記追跡工程によって得られた前記ユーザの身体の動きの軌跡を基に生成されたオブジェクトを、撮影された画像に合成して表示装置に表示させる画像表示制御工程と、
前記音響パラメータと前記オブジェクトを生成するための情報とを対応付けて記憶部に格納する格納工程と、
を含むことを特徴とする音像描画方法。
A sound image drawing method executed by a sound image drawing device, comprising:
an audio output control step of causing an audio output device to output audio in accordance with the acoustic parameters;
A tracking step of tracking a user's body movements;
an image display control step of synthesizing an object generated based on the trajectory of the user's body movement obtained by the tracking step with a captured image and displaying the image on a display device;
a storing step of storing the acoustic parameters and information for generating the object in a storage unit in association with each other;
13. A sound image drawing method comprising:
JP2020169910A 2020-10-07 2020-10-07 Sound image drawing device and sound image drawing method Active JP7474175B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020169910A JP7474175B2 (en) 2020-10-07 2020-10-07 Sound image drawing device and sound image drawing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020169910A JP7474175B2 (en) 2020-10-07 2020-10-07 Sound image drawing device and sound image drawing method

Publications (2)

Publication Number Publication Date
JP2022061771A JP2022061771A (en) 2022-04-19
JP7474175B2 true JP7474175B2 (en) 2024-04-24

Family

ID=81210595

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020169910A Active JP7474175B2 (en) 2020-10-07 2020-10-07 Sound image drawing device and sound image drawing method

Country Status (1)

Country Link
JP (1) JP7474175B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006214740A (en) 2005-02-01 2006-08-17 Ono Sokki Co Ltd Acoustic measurement system
WO2014016992A1 (en) 2012-07-27 2014-01-30 Necソフト株式会社 Three-dimensional user-interface device, and three-dimensional operation method
JP2015143987A (en) 2014-01-03 2015-08-06 ハーマン インターナショナル インダストリーズ インコーポレイテッド In-vehicle gesture interactive spatial audio system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006214740A (en) 2005-02-01 2006-08-17 Ono Sokki Co Ltd Acoustic measurement system
WO2014016992A1 (en) 2012-07-27 2014-01-30 Necソフト株式会社 Three-dimensional user-interface device, and three-dimensional operation method
JP2015143987A (en) 2014-01-03 2015-08-06 ハーマン インターナショナル インダストリーズ インコーポレイテッド In-vehicle gesture interactive spatial audio system

Also Published As

Publication number Publication date
JP2022061771A (en) 2022-04-19

Similar Documents

Publication Publication Date Title
US11423909B2 (en) Word flow annotation
US11354825B2 (en) Method, apparatus for generating special effect based on face, and electronic device
JP5735128B2 (en) Augmented reality system
EP2891955B1 (en) In-vehicle gesture interactive spatial audio system
US20190156204A1 (en) Training a neural network model
WO2021109678A1 (en) Video generation method and apparatus, electronic device, and storage medium
US10834445B2 (en) Annotating extended reality presentations
US20160027209A1 (en) Real-time immersive mediated reality experiences
US10713471B2 (en) System and method for simulating facial expression of virtual facial model
US20200402265A1 (en) Image processing apparatus, content processing system, and image processing method
CN112560605B (en) Interaction method, device, terminal, server and storage medium
CN113544634A (en) Apparatus, method and graphical user interface for composing a CGR file
TWI478043B (en) Systems and methods for app page template generation, and storage medium thereof
CN111930231B (en) Interaction control method, terminal device and storage medium
CN113728301A (en) Device, method and graphical user interface for manipulating 3D objects on a 2D screen
Park et al. Design evaluation of digital consumer products using virtual reality-based functional behaviour simulation
US11367416B1 (en) Presenting computer-generated content associated with reading content based on user interactions
US20140229823A1 (en) Display apparatus and control method thereof
US20240071377A1 (en) Method and device for presenting a cgr environment based on audio data and lyric data
JP7474175B2 (en) Sound image drawing device and sound image drawing method
CN113728359A (en) Apparatus, method and graphical user interface for generating CGR object
JP4635219B2 (en) Graphics dialogue apparatus and graphics dialogue program
JP2020037155A (en) Gesture control device and gesture control program
KR20140136713A (en) Methods and apparatuses of an learning simulation model using images
US20230283877A1 (en) Image control system and method for controlling image display

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230731

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240412

R150 Certificate of patent or registration of utility model

Ref document number: 7474175

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150