JP2006245936A - Sound processing apparatus, method of controlling sound processing apparatus, program, integrated circuit, and reproducing apparatus - Google Patents

Sound processing apparatus, method of controlling sound processing apparatus, program, integrated circuit, and reproducing apparatus Download PDF

Info

Publication number
JP2006245936A
JP2006245936A JP2005057876A JP2005057876A JP2006245936A JP 2006245936 A JP2006245936 A JP 2006245936A JP 2005057876 A JP2005057876 A JP 2005057876A JP 2005057876 A JP2005057876 A JP 2005057876A JP 2006245936 A JP2006245936 A JP 2006245936A
Authority
JP
Japan
Prior art keywords
sound
button
display
buffer
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005057876A
Other languages
Japanese (ja)
Inventor
Tomoteru Ogawa
智輝 小川
Yoshihiro Mori
美裕 森
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2005057876A priority Critical patent/JP2006245936A/en
Publication of JP2006245936A publication Critical patent/JP2006245936A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound processing apparatus for achieving localization of click sound associated with a button without increasing the memory capacity of a sound buffer. <P>SOLUTION: A graphic controller 105 writes information of a size of video screen, display positions and sizes of buttons in an interactive graphic stream to a display information buffer 102, a processing section 110 reads the written information, reads a monaural sound of a sound ID made to correspond to a button subjected to UO (user operation) 170 from the sound buffer 101 and provides an output delay and a strength difference between right and left sounds to the read monaural sound thereby processing the monaural sound into stereo sound data localized at the position of the button and provides an output of the data. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、BD-ROM等の再生におけるサウンド加工装置に関し、特にクリックサウンドを実現する技術に関する。   The present invention relates to a sound processing apparatus for reproducing a BD-ROM or the like, and more particularly to a technique for realizing a click sound.

ディジタルコンテンツの再生において、字幕を表示するか否か等の選択は、画面に表示された選択肢を示すボタンと呼ばれるオブジェクトの操作によりユーザが行えるようになっている。ただし、従来のDVD(Digital Versatile Disk)では、ユーザがボタンを押したときに、ボタン操作に同期したクリックサウンドを出力する規定はないため、ボタンを押したことをユーザが音声で確認することができない。これに対し、High Definition(HD)のコンテンツを対象としたBD-ROM(Blu-ray Disc-Read Only Memory)の仕様書には、クリックサウンドが規定されているので、ボタンが押されたことを確認することができる。   In the reproduction of digital content, the user can select whether or not to display subtitles by operating an object called a button indicating a choice displayed on the screen. However, in the conventional DVD (Digital Versatile Disk), when the user presses the button, there is no provision to output a click sound that is synchronized with the button operation, so the user can confirm that the button has been pressed by voice. Can not. On the other hand, the BD-ROM (Blu-ray Disc-Read Only Memory) specification for high definition (HD) content defines a click sound, so that the button is pressed. Can be confirmed.

このクリックサウンドは、BDにサウンドファイルとして記録されており、BDのコンテンツの再生開始前に、再生装置内のサウンドバッファと呼ばれるメモリ領域に格納される。再生中にユーザ操作により、画面に表示中のボタンが選択、または実行されると、そのボタンに関連付けられたサウンドがサウンドバッファから抽出され、出力されることでクリックサウンドが実現される。非特許文献1には、サウンドデータやボタンの定義を含むBD−ROMのデータ仕様が開示されている。
「System Description Blu-ray Disc Read-Only Format Part3」
This click sound is recorded as a sound file on the BD, and is stored in a memory area called a sound buffer in the playback device before the playback of the content of the BD. When a button displayed on the screen is selected or executed by a user operation during reproduction, a sound associated with the button is extracted from the sound buffer and output, and a click sound is realized. Non-Patent Document 1 discloses BD-ROM data specifications including definition of sound data and buttons.
"System Description Blu-ray Disc Read-Only Format Part3"

サウンドデータとして通常はモノラルのサウンドがいくつかおさめられ、あるボタンが選択されると、それに対応したサウンドが出力される。その際、スピーカが複数、たとえば左右にあっても、モノラルのサウンドがそのままで各スピーカから出力されるため、両スピーカの真中、つまり画面の中心に音像(音源)があると感じる、つまり定位することになる。そのため、ボタンが画面の端にあるとき、ユーザは違和感を抱くことになる。   Sound data usually contains several monaural sounds, and when a certain button is selected, the corresponding sound is output. At that time, even if there are multiple speakers, for example, left and right, monaural sound is output as it is from each speaker. It will be. Therefore, when the button is at the edge of the screen, the user feels uncomfortable.

ボタンごとにそのボタンの位置に定位するようにステレオ、つまり左右スピーカ別のサウンドをすべて用意すればこの違和感は解消できるが、サウンドデータのメモリー容量が大きくなるという問題が生じる。しかし、サウンドバッファのサイズが制限されているため、サウンドデータをステレオで用意することは実際上できない。   If all stereo, that is, sounds for each of the left and right speakers are prepared so that each button is localized at the position of the button, this sense of incongruity can be eliminated, but the problem is that the memory capacity of the sound data increases. However, since the size of the sound buffer is limited, it is practically impossible to prepare sound data in stereo.

本発明は、上記課題に鑑みてなされたものであり、サウンドデータの容量を増やすことなく、操作されたボタンの配置に応じる定位感を持ったクリックサウンドを生成するサウンド加工装置を提供することを目的とする。
上記課題を解決するために、本発明のサウンド加工装置は、グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力するサウンド加工装置であって、
オブジェクトに対応付けられたサウンドデータを記録しているサウンドバッファと、
ビデオ画面のサイズと各オブジェクトのビデオ画面での表示位置とからなる表示情報を前記グラフィックスストリームから抽出する抽出手段と、
抽出された表示情報に基づいて、指定されたオブジェクトの表示位置に音像が定位するように、前記オブジェクトに対応付けられたサウンドデータを前記サウンドバッファから読み出して加工し、加工したサウンドデータを出力する加工出力手段とを備える。
The present invention has been made in view of the above problems, and provides a sound processing device that generates a click sound with a sense of orientation according to the arrangement of operated buttons without increasing the volume of sound data. Objective.
In order to solve the above-described problems, the sound processing apparatus according to the present invention is associated with an object specified by a user among a plurality of objects included in a graphics stream, as a digital stream including the graphics stream is reproduced. A sound processing device that processes and outputs sound,
A sound buffer that records sound data associated with the object;
Extraction means for extracting display information comprising the size of the video screen and the display position of each object on the video screen from the graphics stream;
Based on the extracted display information, the sound data associated with the object is read from the sound buffer and processed so that the sound image is localized at the display position of the specified object, and the processed sound data is output. Machining output means.

上記構成により、たとえば複数のオブジェクトが画面上の左右上下の各方向に配置されているとき、各々のオブジェクトに関連付けされているクリックサウンドが同一のモノラルサウンドの場合でも、各オブジェクトの配置に応じた定位感を持ったクリックサウンドを実現することができる。また、各オブジェクトに関連付けられるクリックサウンドが異なる場合でも、各オブジェクトには異なるモノラルのクリックサウンドを関連付けておくだけで十分であり、定位を持たせたステレオのクリックサウンドを用意する必要がないため、クリックサウンドを格納しておくバッファ容量を大きくする必要がない効果がある。なお、ボタンもオブジェクトの一つである。   With the above configuration, for example, when a plurality of objects are arranged in the left, right, up, and down directions on the screen, even if the click sound associated with each object is the same monaural sound, it corresponds to the arrangement of each object. A click sound with a sense of orientation can be realized. Also, even if the click sound associated with each object is different, it is sufficient to associate a different monaural click sound with each object, and there is no need to prepare a stereo click sound with localization, There is an effect that it is not necessary to increase the buffer capacity for storing the click sound. A button is also an object.

また、再生される前記デジタルストリームは、BD-ROMに記録されたものであり、前記グラフィックスストリームは、インタラクティブグラフィックスストリームを含み、前記表示情報は、いずれもピクセルを単位として記録され、前記抽出手段は、前記表示情報をインタラクティブグラフィックスストリームから抽出することとしている。
これにより、BD-ROMで規定したオブジェクトに対応するクリックサウンドを得ることができる。
Further, the digital stream to be played back is recorded on a BD-ROM, the graphics stream includes an interactive graphics stream, and the display information is recorded in units of pixels, and the extraction is performed. The means extracts the display information from the interactive graphics stream.
As a result, a click sound corresponding to an object defined on the BD-ROM can be obtained.

また、前記抽出手段は、ビデオ画面の幅と各オブジェクトの水平方向の表示位置とからなる表示情報を抽出し、前記加工出力手段は、前記表示情報から、オブジェクトによるビデオ画面の幅に対する水平方向の分割比率を算出し、算出した分割比率に基づき前記オブジェクトに対応付けられたモノラルのサウンドデータをステレオのサウンドに加工し、左右の音の強度差と遅延との少なくとも一方を調節して音像が指定されたオブジェクトの水平方向の表示位置に定位するようにすることとしている。   In addition, the extraction unit extracts display information including a width of the video screen and a horizontal display position of each object, and the processing output unit extracts, from the display information, a horizontal direction with respect to the width of the video screen by the object. Calculate the division ratio, process the monaural sound data associated with the object based on the calculated division ratio into a stereo sound, and specify the sound image by adjusting at least one of the difference between the left and right sound intensity and the delay It is supposed that the object is positioned at the horizontal display position of the object.

これにより、ビデオ画面の水平方向のオブジェクトの配置に応じた定位感を持ったクリックサウンドを実現することができる。
また、前記抽出手段は、ビデオ画面の高さと各オブジェクトの垂直方向の表示位置とからなる表示情報を抽出し、前記加工出力手段は、前記抽出手段により抽出された表示情報のうち、音像が前記オブジェクトの垂直方向の位置に応じた印象を視聴者に与えるように前記オブジェクトに対応付けられたサウンドデータに、前記オブジェクトの垂直方向の位置の比率に応じて異なるフィルターをかけることとしている。
Thereby, it is possible to realize a click sound having a feeling of localization according to the arrangement of objects in the horizontal direction of the video screen.
In addition, the extraction unit extracts display information including a height of a video screen and a vertical display position of each object, and the processing output unit includes a sound image of the display information extracted by the extraction unit. In order to give the viewer an impression according to the vertical position of the object, different filters are applied to the sound data associated with the object according to the ratio of the vertical position of the object.

これにより、ビデオ画面の垂直方向のオブジェクトの配置に応じた印象を視聴者に与えることができるクリックサウンドを実現することができる。
また、前記加工手段は、前記オブジェクトの垂直方向の位置が画面の上半面にあるとき、ハイパスフィルターをかけ、下半面にあるとき、ローパスフィルターをかけることとしている。
Thereby, it is possible to realize a click sound that can give the viewer an impression according to the arrangement of objects in the vertical direction of the video screen.
The processing means applies a high-pass filter when the vertical position of the object is on the upper half of the screen, and applies a low-pass filter when it is on the lower half.

これにより、画面上の上の方にあるボタンに対しては、高音部が強調されて軽い印象を視聴者に与え、ボタンが画面の下の方にある場合には、低音部が強調されて重たい印象を視聴者に与えるようにクリックサウンドを加工することで、オブジェクトの垂直方向の位置に関連したイメージを視聴者に与えることができる。
また、前記複数のオブジェクトはいずれもボタンであることとしている。
As a result, for the buttons on the upper part of the screen, the treble part is emphasized to give a light impression to the viewer. When the buttons are on the lower part of the screen, the bass part is emphasized. By processing the click sound so as to give a heavy impression to the viewer, an image related to the vertical position of the object can be given to the viewer.
The plurality of objects are all buttons.

これにより、ボタンに対応するクリックサウンドが得られる。
また、再生表示を行うディスプレイのサイズと左右のスピーカの位置との情報を追加情報として記憶する記憶手段をさらに備え、前記加工出力手段は、前記表示情報と前記追加情報とに基づいて、指定されたオブジェクトの位置に定位するように前記オブジェクトに対応付けられたサウンドデータを加工することとしている。
Thereby, a click sound corresponding to the button is obtained.
The information processing apparatus further includes storage means for storing, as additional information, information on the size of the display for reproduction display and the positions of the left and right speakers, and the processing output means is designated based on the display information and the additional information. The sound data associated with the object is processed so as to be localized at the position of the object.

これにより、ディスプレイのサイズと、左右のスピーカの位置の情報に基づいて、左右のスピーカ間でのボタンの位置が正確に把握できるので、ボタンの位置に定位するステレオサウンドを得ることができる。
本発明のサウンド加工装置の制御方法は、オブジェクトに対応付けられたサウンドデータを記録しているサウンドバッファを有し、グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力するサウンド加工装置の制御方法であって、ビデオ画面のサイズと各オブジェクトのビデオ画面での表示位置とからなる表示情報を前記グラフィックスストリームから抽出する抽出ステップと、抽出された表示情報に基づいて、指定されたオブジェクトの表示位置に音像が定位するように、前記オブジェクトに対応付けられたサウンドデータを前記サウンドバッファから読み出して加工し、加工したサウンドデータを出力する加工出力ステップとを有する。
Thereby, since the position of the button between the left and right speakers can be accurately grasped based on the information on the size of the display and the positions of the left and right speakers, a stereo sound localized at the position of the button can be obtained.
A control method for a sound processing apparatus according to the present invention includes a sound buffer that records sound data associated with an object, and a plurality of digital streams included in the graphics stream accompanying reproduction of the digital stream including the graphics stream. A method of controlling a sound processing apparatus that processes and outputs a sound associated with an object designated by a user among objects, and displays display information including a size of a video screen and a display position of each object on the video screen. Based on the extraction step of extracting from the graphics stream and the extracted display information, the sound data associated with the object is read from the sound buffer so that the sound image is localized at the display position of the specified object. Processed and processed And a processing output step of outputting Undodeta.

この制御方法により、ボタンの表示位置に定位するクリックサウンドが得られる。
本発明のプログラムは、オブジェクトに対応付けられたサウンドデータを記録しているサウンドバッファを有し、グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力するサウンド加工装置に、ビデオ画面のサイズと各オブジェクトのビデオ画面での表示位置とからなる表示情報を前記グラフィックスストリームから抽出する抽出ステップと、抽出された表示情報に基づいて、指定されたオブジェクトの表示位置に音像が定位するように、前記オブジェクトに対応付けられたサウンドデータを前記サウンドバッファから読み出して加工し、加工したサウンドデータを出力する加工出力ステップとを実行させる。
By this control method, a click sound localized at the button display position can be obtained.
The program of the present invention has a sound buffer that records sound data associated with an object, and the user plays a digital stream including the graphics stream by a user among a plurality of objects included in the graphics stream. An extraction step for extracting, from the graphics stream, display information including a size of a video screen and a display position of each object on the video screen, to a sound processing device that processes and outputs a sound associated with a specified object; Based on the extracted display information, the sound data associated with the object is read from the sound buffer and processed so that the sound image is localized at the display position of the specified object, and the processed sound data is output Machining output To perform the steps.

このプログラムにより、ボタンの表示位置に定位するクリックサウンドが得られる。
本発明の集積回路は、グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力する集積回路であって、請求項1記載のサウンド加工装置の各手段を構成する。
By this program, a click sound localized at the button display position can be obtained.
The integrated circuit according to the present invention is an integrated circuit that processes and outputs a sound associated with an object designated by a user among a plurality of objects included in the graphics stream in accordance with the reproduction of the digital stream including the graphics stream. Thus, each means of the sound processing apparatus according to claim 1 is constituted.

この集積回路により、ボタンの表示位置に定位するクリックサウンドが得られる。
本発明の再生装置は、グラフィックスストリームを含むデジタルストリームの再生装置であって、請求項1記載のサウンド加工装置を備える。
この再生装置により、ボタンの表示位置に定位するクリックサウンドが得られる。
With this integrated circuit, a click sound localized at the button display position can be obtained.
A playback device according to the present invention is a playback device for a digital stream including a graphics stream, and includes the sound processing device according to claim 1.
With this playback device, a click sound localized at the button display position can be obtained.

以下、本発明に係るサウンド加工装置の実施の形態について、図面を参照して説明する。
(実施の形態1)
実施の形態1は、ボタンの水平方向の位置の定位を行なう。つまり、クリックサウンドを行なうボタンの画面上での水平表示位置に、音源が定位するようにモノラルサウンドを加工して、ステレオサウンドを作成し、出力する。
Hereinafter, embodiments of a sound processing apparatus according to the present invention will be described with reference to the drawings.
(Embodiment 1)
In the first embodiment, the position of the button in the horizontal direction is localized. That is, a monaural sound is processed so that a sound source is localized at a horizontal display position of a button for performing a click sound, and a stereo sound is created and output.

図1は、サウンド加工装置の構成を示す図である。サウンド加工装置は再生装置に組み込まれている。図1では、サウンド加工装置に関連する再生装置の主要部も示している。
サウンド加工装置の構成要素を図1を参照して説明する。
サウンド加工装置100は、サウンドバッファ101、表示情報バッファ102、グラフィックスコントローラ105、加工部110からなる。
FIG. 1 is a diagram illustrating a configuration of a sound processing apparatus. The sound processing device is incorporated in the playback device. FIG. 1 also shows a main part of a playback apparatus related to the sound processing apparatus.
The components of the sound processing apparatus will be described with reference to FIG.
The sound processing apparatus 100 includes a sound buffer 101, a display information buffer 102, a graphics controller 105, and a processing unit 110.

サウンドバッファ101は、対話用のオブジェクトとしてのボタン等が押下されたときに使用されるサウンド(音声)データを納める。サウンドデータは、BD−ROMと呼ばれるブルーレイディスクにsound.bdmvというサウンドデータファイルとして記録され、ムービー等のコンテンツ再生開始前に、そのサウンドデータが、再生装置によりサウンドバッファ101に格納される。   The sound buffer 101 stores sound (speech) data used when a button or the like as an interactive object is pressed. The sound data is recorded as a sound data file called sound.bdmv on a Blu-ray disc called a BD-ROM, and the sound data is stored in the sound buffer 101 by the playback device before starting playback of content such as a movie.

この様子を、図2と図3を使用して説明する。
図2は、BD−ROMを含む再生システムの概観の一例を示す図である。図2において、可搬性の記録媒体であるBD-ROM210は、再生装置220、テレビ230、リモコン240により形成されるシステムに、映画作品等を供給するという用途に供される。再生装置220には、サウンド加工装置100も含まれる。
This will be described with reference to FIG. 2 and FIG.
FIG. 2 is a diagram illustrating an example of an overview of a playback system including a BD-ROM. In FIG. 2, a BD-ROM 210 that is a portable recording medium is used for supplying movie works and the like to a system formed by a playback device 220, a television 230, and a remote controller 240. The playback device 220 also includes the sound processing device 100.

図3は、BD-ROM105の、サウンドデータファイルを含めたファイルの管理を行なうディレクトリの構成を示す図である。なお、BD-ROM105の構成301の詳細は、非特許文献1に記述されている。図3において、BD-ROMには、ROOTディレクトリの下にBDMVディレクトリがあり、BDMVディレクトリの配下には、タイトルを構成するIndex Tableが定義されたインデックスファイル(index.bdmv)、動的なシナリオを定義するムービーオブジェクトを含むファイル(MovieObject.bdmv)と、AVクリップ(01000.m2ts)を格納するSTREAMディレクトリ、AVクリップにおける論理的な再生経路(プレイリスト)を定義したプレイリストファイル(00000.mpls)を格納するPLAYLISTディレクトリ、AVクリップの管理情報を格納したクリップ情報ファイル(01000.clpi)を格納するCLIPINFディレクトリ、AUXDATAディレクトリ等が存在する。   FIG. 3 is a diagram showing the structure of a directory in the BD-ROM 105 that manages files including sound data files. Details of the configuration 301 of the BD-ROM 105 are described in Non-Patent Document 1. In FIG. 3, the BD-ROM has a BDMV directory under the ROOT directory, and under the BDMV directory, an index file (index.bdmv) in which an Index Table that constitutes a title is defined, a dynamic scenario. A file (MovieObject.bdmv) containing a movie object to be defined, a STREAM directory for storing an AV clip (01000.m2ts), and a playlist file (00000.mpls) defining a logical playback path (playlist) in the AV clip There are a PLAYLIST directory that stores the clip information, a CLIPINF directory that stores the clip information file (01000.clpi) that stores the management information of the AV clip, an AUXDATA directory, and the like.

sound.bdmvはAUXDATAディレクトリの下で格納されている。
BD-ROM105が装着されると、再生装置により、AUXDATAディレクトリのsound.bdmv120が読み込まれ、サウンドバッファ101に格納される。
図4は、サウンドデータの構成を示す図である。サウンドデータは、複数のサウンドを管理するためのsoundIndex411と、各サウンドを納めるsoundData412とからなる。soundIndex411には、モノラル/ステレオの別を示すチャネル数などの各サウンドの属性と、soundData412における当該サウンドのアドレスと長さが納められている。soundData412の各サウンドは、48KHz、16ビット単位のLPCM(Linear Pulse Code Modulation)のサンプルからなる。本実施の形態では、各サウンドはいずれもモノラルとする。
sound.bdmv is stored under the AUXDATA directory.
When the BD-ROM 105 is loaded, the playback device reads sound.bdmv 120 in the AUXDATA directory and stores it in the sound buffer 101.
FIG. 4 is a diagram showing the structure of sound data. The sound data includes a soundIndex 411 for managing a plurality of sounds and soundData 412 for storing each sound. The soundIndex 411 stores the attribute of each sound such as the number of channels indicating mono / stereo, and the address and length of the sound in the soundData 412. Each sound of the soundData 412 is composed of 48 kHz, 16-bit LPCM (Linear Pulse Code Modulation) samples. In this embodiment, each sound is monaural.

sound.bdmv120とサウンドバッファ101とは、いずれもサウンドデータ120の形式でサウンドデータを保持している。サウンドバッファ101は、2MBの固定長のサイズであり、したがってsound.bdmvはこのサイズ以下である。登録できるサウンド数は128までであり、各サウンドのIDは、格納順に0から順に付与される。
図1に戻って、表示情報バッファ102は、ボタンの位置等の表示情報を格納し、グラフィックスコントローラ105により更新され、加工部110により参照される。
Both sound.bdmv 120 and sound buffer 101 hold sound data in the form of sound data 120. The sound buffer 101 has a fixed-length size of 2 MB, so that sound.bdmv is smaller than this size. The number of sounds that can be registered is up to 128, and the ID of each sound is assigned in order from 0 in the storage order.
Returning to FIG. 1, the display information buffer 102 stores display information such as button positions, is updated by the graphics controller 105, and is referenced by the processing unit 110.

図5は、表示情報バッファ102に納められる表示情報の内容を示す図である。表示情報は、ビデオ場面のビデオ幅502、ビデオ高503、ボタン数504、各ボタン情報511からなる。
ビデオ画面のビデオ幅501とビデオ高502は、インタラクティブグラフィックスプレーン151の幅と高さにそれぞれ等しく、単位はピクセルである。
FIG. 5 is a diagram showing the contents of display information stored in the display information buffer 102. The display information includes a video width 502 of the video scene, a video height 503, the number of buttons 504, and button information 511.
The video width 501 and the video height 502 of the video screen are equal to the width and height of the interactive graphics plane 151, respectively, and the unit is pixels.

ボタン情報511は、ボタンID512、ボタンの水平位置513、ボタンの垂直位置514、ボタン幅515、ボタン高516からなり、いずれも単位はピクセルである。
図6は、画面とボタンとの関係を示す図であり、図5の例で示したビデオ画面とボタンを示したものである。表示情報において、ビデオ画面1001におけるボタン1011の表示位置(256,148)は、ボタンの矩形の左上点のそれであり、ボタンの中心の表示位置(320,180)は、ボタンのサイズであるボタン幅515とボタン高516のそれぞれの半分の値を、表示位置(256,148)に加えることにより得られる。
The button information 511 includes a button ID 512, a horizontal position 513 of the button, a vertical position 514 of the button, a button width 515, and a button height 516, all of which are in pixels.
FIG. 6 is a diagram showing the relationship between the screen and buttons, and shows the video screen and buttons shown in the example of FIG. In the display information, the display position (256, 148) of the button 1011 on the video screen 1001 is that of the upper left point of the button rectangle, and the display position (320, 180) at the center of the button is the button width which is the size of the button. The half value of each of 515 and button height 516 is obtained by adding to the display position (256, 148).

本実施の形態では、ボタンを定位させるとき、ボタンの中心の位置に定位させる。
本実施の形態では、また、ステレオ用の左スピーカ、右スピーカ(不図示)が画面の左端1015と右端1016にあるものと想定している。したがって、図6で示した例では、画面の左端1015からボタン1011までの距離と、ボタン1011から右端1016までの距離の比率が320:960、つまり画面の幅のうち左端から1:3の位置にボタンがある。
In this embodiment, when the button is localized, the button is localized at the center position of the button.
In the present embodiment, it is also assumed that a stereo left speaker and a right speaker (not shown) are at the left end 1015 and the right end 1016 of the screen. Therefore, in the example shown in FIG. 6, the ratio of the distance from the left edge 1015 of the screen to the button 1011 and the distance from the button 1011 to the right edge 1016 is 320: 960, that is, the position of 1: 3 from the left edge of the screen width. Has a button.

このような、画面の幅をボタンが分割する比率a:bは、画面の両端に左右のスピーカがあると想定する本実施の形態の場合、左右のスピーカ間を分割する比率でもある。このa:bの分割比率は、後述する加工部110が、そのボタンの位置に音源を定位させるために行われるサウンド加工においてパラメタとして使用される。
再び図1に戻って、グラフィックスコントローラ105は、インタラクティブフィクスストリームを再生処理するインタラクティブデコーダ150の一部でもある。グラフィックスコントローラ105は、コンポジションバッファ(以下「CB」と呼ぶ)155および復号オブジェクトバッファ(Decoded Object Buffer)156を検索し、インタラクティブフィクスストーリームに含まれる表示情報バッファ102の表示情報に該当する項目が、CB155または復号オブジェクトバッファ156に記録されていれば、それらを読み出して表示情報バッファ102に書き出す。
The ratio a: b at which the button divides the width of the screen as described above is also the ratio at which the left and right speakers are divided in the present embodiment where it is assumed that there are left and right speakers at both ends of the screen. The division ratio of a: b is used as a parameter in sound processing performed by the processing unit 110 described later to localize the sound source at the button position.
Returning to FIG. 1 again, the graphics controller 105 is also a part of the interactive decoder 150 that reproduces the interactive fixture stream. The graphics controller 105 searches the composition buffer (hereinafter referred to as “CB”) 155 and the decoded object buffer (Decoded Object Buffer) 156, and corresponds to the display information in the display information buffer 102 included in the interactive fixture story. However, if they are recorded in the CB 155 or the decoded object buffer 156, they are read out and written in the display information buffer 102.

ディジタルストーリームのどの項目が、表示情報のどの項目に該当するかに関して説明する前に、BD-ROMのディジタルストリームについて、次に簡単に述べる。
図7は、AVクリップと呼ばれるディジタルストリームの内容を示す図である。AVクリップは、図7で示すようにインタラクティブグラフィックスストリーム、プレゼンテーショングラフィックスストリーム、ビデオストリーム、オーディオストリームを多重化したストリームであり、MPEG2(MovingPictureExpertsGroup2)形式のTSパケット、たとえばインタラクティブグラフィックスのTSパケット701等からなるストリームである。インタラクティブグラフィックスのTSパケット701は、PESパケット702を分割したものであり、PESパケット702は、インタラクティブグラフィックスのセグメントを分割したものである。他のストリームも同様に、下位から順にTSパケット、PESパケット、セグメントという階層からなる。インタラクティブグラフィックスのセグメントにはICS(Interactive Composition Segment)、ODS(Object Definition Segment)等がある。
Before describing which items of the digital story correspond to which items of display information, the digital stream of the BD-ROM will be briefly described next.
FIG. 7 shows the contents of a digital stream called an AV clip. As shown in FIG. 7, the AV clip is a stream obtained by multiplexing an interactive graphics stream, a presentation graphics stream, a video stream, and an audio stream. Is a stream consisting of The interactive graphics TS packet 701 is obtained by dividing a PES packet 702, and the PES packet 702 is obtained by dividing an interactive graphics segment. Similarly, other streams are composed of layers of TS packets, PES packets, and segments in order from the bottom. Interactive graphics segments include ICS (Interactive Composition Segment) and ODS (Object Definition Segment).

図8は、ICSの内容を示す図である。
図8において、ICS801には、インタラクティブグラフィックスストリームの制御情報等が納められている。図8では、そのうち特に、ビデオのサイズを示すvideo_width802、video_height803、ボタン数を示すnumber_of_butons804と、各ボタンの情報811を示している。ボタン情報811において、ボタンID(button_id)812は、ボタンの識別子であり、UO(ユーザ操作)があったときグラフィックスコントローラ105は、どのボタンの操作であるかをボタンID(button_id)812として特定する。
FIG. 8 shows the contents of the ICS.
In FIG. 8, ICS 801 stores control information of an interactive graphics stream. FIG. 8 shows video_width 802 and video_height 803 indicating the size of the video, number_of_butons 804 indicating the number of buttons, and information 811 for each button. In the button information 811, a button ID (button_id) 812 is an identifier of the button, and when there is a UO (user operation), the graphics controller 105 identifies which button operation is the button ID (button_id) 812. To do.

ボタンの水平位置(button_horizontal_position)813および垂直位置(button_vertical_position)814はボタンの表示位置を示し、これはたとえば図6で示したボタン1011の矩形領域の左上角の表示位置を示す。また、normal_start_object_id_ref825は、ノーマル状態のボタンiをアニメーションで描画する場合、アニメーションを構成する複数ODSに付加された連番のうち、最初の番号がこのnormal_start_object_id_ref825に記述される。normal_end_object_id_ref826は、ノーマル状態のボタンiをアニメーションで描画する場合、アニメーションを構成する複数ODSに付加された連番たるobject_IDのうち、最後の番号がこのnormal_end_object_id_ref826に記述される。このnormal_end_object_id_ref826に示されるIDが、normal_start_object_id_ref825に示されるIDと同じである場合、このIDにて示されるグラフィックスオブジェクトの静止画が、ボタンiの絵柄になる。また、selected_state_sound_id_ref817は、当該ボタンが選択されたときに使用するサウンドのサウンドIDであり、selected_start_object_id_ref818は、当該ボタンが選択されたときに最初に、また、selected_end_object_id_ref819は最後に表示するオブジェクトのオブジェクトIDである。   The horizontal position (button_horizontal_position) 813 and the vertical position (button_vertical_position) 814 of the button indicate the display position of the button, and this indicates, for example, the display position of the upper left corner of the rectangular area of the button 1011 shown in FIG. Further, in normal_start_object_id_ref825, when the button i in the normal state is drawn with an animation, the first number is described in the normal_start_object_id_ref825 among the serial numbers added to the plurality of ODSs constituting the animation. In normal_end_object_id_ref 826, when the button i in the normal state is drawn with animation, the last number is described in the normal_end_object_id_ref 826 among the consecutive object_IDs added to the plurality of ODSs constituting the animation. When the ID indicated by the normal_end_object_id_ref 826 is the same as the ID indicated by the normal_start_object_id_ref 825, the still image of the graphics object indicated by the ID becomes the pattern of the button i. The selected_state_sound_id_ref 817 is the sound ID of the sound used when the button is selected, the selected_start_object_id_ref 818 is the object ID of the object displayed first when the button is selected, and the selected_end_object_id_ref 819 is the object ID of the object displayed last. .

当該ボタンの選択状態のサイズは、selected_start_object_id_ref818が示すオブジェクトのサイズである。同様に、アクティベートされたときに参照されるactivated_state_sound_id_ref820activated_start_object_id_ref721、activated_start_object_id_ref822がそれぞれ規定されており、それぞれの示す意味も同様である。なお、selected_start_object_id_ref818が指すオブジェクトのサイズとactivated_start_object_id_ref822の指すオブジェクトのサイズは同じである。   The size of the selected state of the button is the size of the object indicated by selected_start_object_id_ref 818. Similarly, activated_state_sound_id_ref 820 activated_start_object_id_ref 721 and activated_start_object_id_ref 822 that are referred to when activated are defined, and the meanings of these are also the same. Note that the size of the object pointed to by selected_start_object_id_ref 818 is the same as the size of the object pointed to by activated_start_object_id_ref 822.

また、number_of_navigation_commands823およびnavigation_commands824は当該ボタンがアクティベートされたとき、グラフィックスコントローラ105により実行されるコマンドの数とコマンドである。
図9は、ODSの内容を示す図である。
ODSは、一つまたは複数で一つのオブジェクトを定義する。図9に示した例においては、ODS901は、あるボタンオブジェクトを定義する2つのオブジェクトのうちの先頭のODSである。ODS901には、object_id911、last_in_sequence_flag912、object_data_fragment915等が記載される。
In addition, number_of_navigation_commands 823 and navigation_commands 824 are the number of commands and commands executed by the graphics controller 105 when the button is activated.
FIG. 9 shows the contents of ODS.
ODS defines one or more objects. In the example shown in FIG. 9, the ODS 901 is the head ODS of two objects defining a certain button object. The ODS 901 describes object_id 911, last_in_sequence_flag 912, object_data_fragment 915, and the like.

object_id911は、このオブジェクトのオブジェクトIDであり、last_in_sequence_flag912は、当該ODSが当該オブジェクトの定義を行なう最後のセグメントか否かのフラグである。object_data_fragment915において、object_data_length922は、ランレングス圧縮形式でオブジェクトの表示イメージを納めた圧縮オブジェクト925のうち、ODS901で定義した長さを示す。   object_id 911 is an object ID of this object, and last_in_sequence_flag 912 is a flag indicating whether or not the ODS is the last segment defining the object. In the object_data_fragment 915, object_data_length 922 indicates the length defined by the ODS 901 in the compressed object 925 that stores the display image of the object in the run-length compression format.

object_width923およびobject_height924は当該オブジェクトの幅と高さとを示し、図8のボタン情報811で示したボタンのボタン幅とボタン高は、selected_start_object_id_ref818あるいはactivated_start_object_id_ref822が示すオブジェクトID (object_id911)のオブジェクトの幅と高さである。
次に、図1を参照して、再生装置によりディジタルストーリームが処理され、出力に至るまでの概要を説明し、次にインタラクティブグラフィックスの処理の詳細と、表示情報バッファ102に格納される表示情報の各項目が、どこにあるかについて順次説明する。
object_width 923 and object_height 924 indicate the width and height of the object, and the button width and button height of the button indicated by the button information 811 in FIG. is there.
Next, referring to FIG. 1, an outline from when the digital story is processed by the playback device to output will be described, and then the details of the interactive graphics processing and the display stored in the display information buffer 102 will be described. The location of each item of information will be described sequentially.

MPEG2-TSパケット121が順次、PIDフィルタ122に入力され、各TSパケットのPIDに応じたトランスポートバッファ(TB)に分配される。例えば、インタラクティブグラフィックスストリームの場合、TSパケットのPIDは、0x1400〜141Fが与えられる。
たとえば、プレゼンテーショングラフィックスストリームの場合、プレゼンテーショングラフィックスデコーダ130がトランスポートバッファ123から、TSパケットを取り出して、復号し、プレゼンテーショングラフィックスデータを出力する。プレゼンテーショングラフィックスプレーン131はそのデータを入力して展開し、CLUT132により色表示処理され、ビデオ出力される。
MPEG2-TS packets 121 are sequentially input to the PID filter 122 and distributed to a transport buffer (TB) corresponding to the PID of each TS packet. For example, in the case of an interactive graphics stream, 0x1400 to 141F is given as the PID of the TS packet.
For example, in the case of a presentation graphics stream, the presentation graphics decoder 130 extracts TS packets from the transport buffer 123, decodes them, and outputs presentation graphics data. The presentation graphics plane 131 receives the data and expands it. The CLUT 132 performs color display processing and outputs the video.

また、ビデオストリームの場合、ビデオデコーダ140がTB124から、ビデオのTSパケットを取り出して復号(decode)し、ビデオデータを出力する。ビデオプレーン141は、そのデータを入力して展開し、ビデオ出力する。
また、オーディオの場合、オーディオデコーダ160がTB126から、TSパケットを取り出して復号し、オーディオデータを出力する。ミキサ161は、そのデータを入力して、サウンド加工装置100からのサウンドデータと共に出力する。
In the case of a video stream, the video decoder 140 extracts and decodes a video TS packet from the TB 124 and outputs video data. The video plane 141 inputs the data, expands it, and outputs the video.
In the case of audio, the audio decoder 160 extracts and decodes TS packets from the TB 126, and outputs audio data. The mixer 161 inputs the data and outputs it together with the sound data from the sound processing apparatus 100.

最後に、インタラクティブグラフィックスストリームの場合、インタラクティブグラフィックスデコーダ150がトランスポートバッファ123から、TSパケットを取り出して、復号し、オブジェクトデータを出力する。インタラクティブグラフィックスプレーン151はそのオブジェクトを展開する。展開されたオブジェクトはCLUT152で色表示処理され、ビデオ出力される。   Finally, in the case of an interactive graphics stream, the interactive graphics decoder 150 extracts the TS packet from the transport buffer 123, decodes it, and outputs object data. The interactive graphics plane 151 expands the object. The developed object is color-displayed by the CLUT 152 and output as a video.

次に、インタラクティブグラフィックスデコーダ(Interactive Graphics Decoder)150の処理を詳細に説明する。
インタラクティブグラフィックスデコーダ150は、EB(コーディッドデータバッファ)153、ストリームグラフィックスプロセサ154、CB155、復号オブジェクトバッファ156からなる。
Next, the processing of the interactive graphics decoder 150 will be described in detail.
The interactive graphics decoder 150 includes an EB (coded data buffer) 153, a stream graphics processor 154, a CB 155, and a decoding object buffer 156.

TB125からEB153への転送時に、TSパケットと、PESパケットの各ヘッダーは削除され、セグメントのデータとして格納される。ストリームグラフィックスプロセッサ154は、EB153に格納されているセグメントがICS801であれば、それをCB155に転送し、ODSであれば復号オブジェクトバッファ156に転送する。この段階で、表示のために必要なセグメントが全て該当のバッファに格納されている。   At the time of transfer from TB 125 to EB 153, the TS packet and each header of the PES packet are deleted and stored as segment data. The stream graphics processor 154 transfers the segment stored in the EB 153 to the CB 155 if the segment is the ICS 801, and transfers it to the decoding object buffer 156 if the segment is the ODS. At this stage, all segments necessary for display are stored in the corresponding buffer.

このとき、グラフィックスコントローラ105は、CB155に格納されているICS801から、video_width802とvideo_height803とを読み出し、図5に示す表示情報バッファ102に、それぞれビデオ幅502、ビデオ高503として書き出す。また、同様に、ICS801のnumber_of_butons804をボタン数504として表示情報バッファ102に書き出す。そして、各ボタンについて、button_id812をボタンID512とし、button_horizontal_position813とbutton_vertical_position814を、ボタンの水平位置513、ボタンの垂直位置514として表示情報バッファ102に書き出す。また、復号オブジェクトバッファ156のODS901において、selected_start_object_id_ref818のオブジェクトIDと一致するODS901(複数あれば先頭のODS)を検索し、そのobject_width923とobject_width923とを、それぞれ当該ボタンのボタン幅515とボタン高516として表示情報バッファ102に書き出す。   At this time, the graphics controller 105 reads the video_width 802 and video_height 803 from the ICS 801 stored in the CB 155 and writes them as the video width 502 and the video height 503 in the display information buffer 102 shown in FIG. Similarly, number_of_butons 804 of ICS 801 is written in the display information buffer 102 as the number of buttons 504. For each button, button_id 812 is set as button ID 512, and button_horizontal_position 813 and button_vertical_position 814 are written in the display information buffer 102 as button horizontal position 513 and button vertical position 514. Also, the ODS 901 in the decryption object buffer 156 is searched for an ODS 901 (or the first ODS if there is more than one) that matches the object ID of the selected_start_object_id_ref 818, and the object_width 923 and object_width 923 are displayed as the button width 515 and button height 516 of the button, respectively. Write to the information buffer 102.

そして、グラフィックスコントローラ105は、ICS801のセグメントに記載された項目のうちPTS( Presentation Time Stamp:不図示) の時刻が来ると、復号オブジェクトバッファ156に格納されているボタンのオブジェクトをインタラクティブグラフィックスプレーン151に出力する。
画面に表示されたボタンに対して、ユーザが選択(Select) あるいはアクティベート( ENTERキーを押下)によりUO(ユーザ操作)170を行うと、グラフィックスコントローラ105は、そのボタンのボタンIDと、そのボタンに関連付けられたクリックサウンドのサウンドIDとを、CB155のICS801および復号オブジェクトバッファ156のODSに基づいて特定し、加工部110に通知する。
Then, when the time of PTS (Presentation Time Stamp: not shown) comes among the items described in the ICS 801 segment, the graphics controller 105 converts the button object stored in the decoding object buffer 156 to the interactive graphics plane. 151 is output.
When the user performs UO (user operation) 170 by selecting (selecting) or activating (pressing the ENTER key) on the button displayed on the screen, the graphics controller 105 displays the button ID of the button and the button. Is identified based on the ICS 801 of the CB 155 and the ODS of the decoding object buffer 156, and is notified to the processing unit 110.

ここで、グラフィックスコントローラ105が特定する、ボタンに関連付けられたクリックサウンドのサウンドIDは、UO170がボタンの選択の場合、図8に示したICS801の当該ボタンIDと一致するbutton_id812のselected_state_sound_id_ref817であり、また、UO170がボタンのアクティベートの場合、activated_state_sound_id_ref820である。   Here, the sound ID of the click sound associated with the button specified by the graphics controller 105 is selected_state_sound_id_ref 817 of the button_id 812 that matches the button ID of the ICS 801 shown in FIG. 8 when the UO 170 selects the button. Further, when the UO 170 activates a button, activated_state_sound_id_ref 820 is obtained.

図10は、UO170において、ボタンの表示とリモコンの一例を示す図である。
図10(a)は、ボタンの表示例を示している。画面1001には、「字幕あり」と「字幕なし」の2つのボタンが示されている。初めて表示のとき、「字幕あり」を示すボタンとして、ボタン1011だけが表示されている。
ユーザは、図10(b)に示したリモコン240の上下左右の各キーを操作して、たとえば「字幕あり」ボタンを選択する。グラフィックスコントローラ105により、選択されたことを示すボタン1013をボタン1011に上書きして表示する。このとき図10の画面1001には、選択されたことを示すボタン等が一見して異なる位置に表示しているように見えるが、そうではなくボタン1011と同じ位置に表示する。リモコン240で、ユーザがさらに、Enterキーを押下すると、現在選択されているボタンがアクティベートの状態となり、グラフィックスコントローラ105は、アクティベートされたことを示すボタン1014をボタン1013に上書きして表示する。
FIG. 10 is a diagram illustrating an example of button display and a remote controller in the UO 170.
FIG. 10A shows an example of button display. The screen 1001 shows two buttons, “with caption” and “without caption”. When displaying for the first time, only the button 1011 is displayed as a button indicating “with caption”.
The user operates the up / down / left / right keys of the remote controller 240 shown in FIG. 10B to select, for example, the “with caption” button. The button 1013 indicating that the graphic controller 105 has been selected is overwritten on the button 1011 and displayed. At this time, on the screen 1001 in FIG. 10, it seems that a button or the like indicating selection is displayed at a different position, but it is displayed at the same position as the button 1011 instead. When the user further presses the Enter key on the remote controller 240, the currently selected button is activated, and the graphics controller 105 overwrites the button 1013 with the button 1014 indicating activation and displays the button.

図1に戻って、加工部110は、モノラルのサウンドデータをステレオのサウンドデータに加工し、そのステレオのサウンドデータを出力する。
加工部110は、グラフィックスコントローラ105から、ユーザ操作のあったボタンのボタンIDと、そのボタンに対応付けられたサウンドIDとからなる通知を受け取ると、サウンドIDが示すサウンドデータをサウンドバッファ101から読み出して、ボタンIDが示すボタンの表示位置に定位するように、読み出したサウンドデータをステレオサウンドに加工し、ミキサ161に出力する。ここで、ボタンの表示位置とは、ボタンの中心の水平方向の表示位置をいう。
Returning to FIG. 1, the processing unit 110 processes monaural sound data into stereo sound data, and outputs the stereo sound data.
When the processing unit 110 receives a notification from the graphics controller 105 including the button ID of the button operated by the user and the sound ID associated with the button, the processing unit 110 transmits the sound data indicated by the sound ID from the sound buffer 101. The read sound data is processed into a stereo sound so as to be localized at the button display position indicated by the button ID, and is output to the mixer 161. Here, the display position of the button refers to the display position in the horizontal direction at the center of the button.

図11は、ボタン等の表示を行なうディスプレイ1111と視聴者1115とを上方から見た平面図であり、サウンド加工で使用される各種パラメタを示している。図11を参照して、まず、加工部110によるサウンドデータの加工の際使用するパラメタについて説明する。
図11において、ディスプレイ1111の左端に左スピーカ1112が、また、右端に右スピーカ1113がある。また、ボタン1114の中心の水平方向の表示位置は、ピクセル幅がW、つまりビデオ幅Wで表示するディスプレイ1111をa:bに分割しているとする。上記で得られたボタン1114の中心の水平方向の位置をcとすると、a:b=c/W:(W-c)/W である。
FIG. 11 is a plan view of a display 1111 for displaying buttons and the like and a viewer 1115 as viewed from above, and shows various parameters used in sound processing. With reference to FIG. 11, first, parameters used in processing sound data by the processing unit 110 will be described.
In FIG. 11, the left speaker 1112 is at the left end of the display 1111 and the right speaker 1113 is at the right end. Further, it is assumed that the display position in the horizontal direction at the center of the button 1114 is that the display 1111 displaying the pixel width W, that is, the video width W is divided into a: b. When the horizontal position of the center of the button 1114 obtained above is c, a: b = c / W: (Wc) / W.

そして、ボタンの操作者である視聴者1115は、両耳間の長さがhであり、ディスプレイ1111の中心を通る垂線上の、ディスプレイ1111から距離dの位置にいる。ボタン1114から視聴者1115の右耳、左耳までの距離をそれぞれr、lとする。ここで、加工部110は、図7のビデオ幅Wとして、図7の表示情報バッファ102に格納されているビデオ幅502を読み込んで使用する。   A viewer 1115 who is an operator of the button has a distance between both ears h and is located at a distance d from the display 1111 on a vertical line passing through the center of the display 1111. The distances from the button 1114 to the viewer's 1115 right ear and left ear are r and l, respectively. Here, the processing unit 110 reads and uses the video width 502 stored in the display information buffer 102 of FIG. 7 as the video width W of FIG.

次に、加工部110によるサウンドデータの加工で使用する数式を説明する。ここで、音速をvとすると、l、rの2乗は、それぞれ式(1)、(2)のようになる。   Next, mathematical formulas used for processing sound data by the processing unit 110 will be described. Here, if the speed of sound is v, the squares of l and r are expressed by equations (1) and (2), respectively.

Figure 2006245936
Figure 2006245936

Figure 2006245936
これらの式からlとrをもとめ、次の式(3)に代入し、ステレオサウンドのRに対するLの遅延時間を求める。ここで、w、d、h、vには、たとえば、それぞれ0.6、2、0.2、340(メートル単位)の数値を代入する。ただし、d、h、vの値の設定は可変であり、上述の値に限られない。
Figure 2006245936
From these equations, l and r are obtained and substituted into the following equation (3) to obtain the L delay time for R of stereo sound. Here, numerical values of 0.6, 2, 0.2, and 340 (meter units) are substituted for w, d, h, and v, respectively. However, the settings of d, h, and v are variable and are not limited to the above values.

Figure 2006245936
また、L(左)の音の強度を、R(右)の音の強度に基づく式(4)により求める。
Figure 2006245936
Further, the intensity of the sound of L (left) is obtained by Expression (4) based on the intensity of the sound of R (right).

Figure 2006245936
加工部110はグラフィックスコントローラ105から指定のあったサウンドIDが示すモノラルのサウンドデータをステレオサウンドのRのサウンドとしてそのまま出力し、Lのサウンドは、式(4)で強度の加工を施したサウンドを、式(3)で示す時間だけ、Rに遅延して出力する。
Figure 2006245936
The processing unit 110 outputs the monaural sound data indicated by the sound ID designated from the graphics controller 105 as it is as the R sound of the stereo sound, and the sound of L is the sound that has been subjected to strength processing according to Equation (4). Is output after being delayed to R by the time indicated by the expression (3).

次に、サウンド加工装置100の動作について説明する。
図12は、実施の形態1におけるサウンド加工装置の動作の流れを示すフローチャートである。
AVクリップ740のディジタルストリームは、再生装置により、インタラクティブグラフィックスストリーム等に分かれて、インタラクティブグラフィックスデコーダ150等により復号される。インタラクティブグラフィックスストリームは、ICS801がCB155に、またODS901等が復号オブジェクトバッファ156に、それぞれ格納される。
Next, the operation of the sound processing apparatus 100 will be described.
FIG. 12 is a flowchart showing the operation flow of the sound processing apparatus according to the first embodiment.
The digital stream of the AV clip 740 is divided into an interactive graphics stream or the like by the playback device and decoded by the interactive graphics decoder 150 or the like. The interactive graphics stream is stored in the CB 155 for the ICS 801 and in the decoding object buffer 156 for the ODS 901 or the like.

グラフィックスコントローラ105は、CB155にICS801を検索し(S1305、ここで、Sはステップの略、以下同様)、格納されていれば、表示情報バッファ102をクリアし、video_width802とvideo_height803とを読み出し、表示情報バッファ102にそれぞれビデオ幅502、ビデオ高503として書き出す。また、同様に、ICS801のnumber_of_butons804をボタン数504として、また各ボタンについて、button_id812をボタンID512として、button_horizontal_position813とbutton_vertical_position814とをボタンの水平位置513、ボタンの垂直位置514として、それぞれ表示情報バッファ102に書き出す(S1310)。   The graphics controller 105 searches the CB 155 for the ICS 801 (S1305, where S is an abbreviation of step, the same applies hereinafter), and if stored, clears the display information buffer 102, reads video_width 802 and video_height 803, and displays them. The information is written in the information buffer 102 as a video width 502 and a video height 503, respectively. Similarly, number_of_butons 804 of ICS 801 is written as the number of buttons 504, and for each button, button_id 812 is set as button ID 512, button_horizontal_position 813 and button_vertical_position 814 are written into the display information buffer 102 as button horizontal position 513 and button vertical position 514, respectively. (S1310).

次に、グラフィックスコントローラ105は、復号オブジェクトバッファ156にselected_start_object_id_ref818のオブジェクトIDと一致するODS901(複数あれば先頭のODS)を検索し(S1315)、あればそのobject_width923とobject_width923とを、それぞれ当該ボタンのボタン幅515とボタン高516として表示情報バッファ102に書き出す(S1320)。   Next, the graphics controller 105 searches the decoding object buffer 156 for an ODS 901 (the leading ODS if there is a plurality) that matches the object ID of the selected_start_object_id_ref 818 (S1315). The button width 515 and button height 516 are written into the display information buffer 102 (S1320).

グラフィックスコントローラ105は、復号オブジェクトバッファ156にあるボタンオブジェクト等をインタラクティブグラフィックスプレーン151に出力する。
グラフィックスコントローラ105は、ボタン操作を受け付けるインタラクティブ処理の終了か否かを判定し(S1325)、終了のとき、サウンド加工装置100の動作は終了する(S1330)。
The graphics controller 105 outputs the button object and the like in the decoding object buffer 156 to the interactive graphics plane 151.
The graphics controller 105 determines whether or not the interactive process for accepting the button operation is finished (S1325), and when finished, the operation of the sound processing apparatus 100 is finished (S1330).

ユーザのボタン操作、つまりUO170を待つ(S1335)。UO170があれば、グラフィックスコントローラ105は、CB155にあるICS801と復号オブジェクトバッファ156にあるODS901等から、操作されたボタンのボタンIDを得るとともに、ボタンの選択操作のとき、ICS801の当該ボタンのselected_state_sound_id_ref817を、また同様に、アクティベート操作のとき、activated_state_sound_id_ref820を、当該ボタンに対応するサウンドIDとして得る(S1340)。   The user waits for a button operation, that is, UO 170 (S1335). If there is UO 170, the graphics controller 105 obtains the button ID of the operated button from the ICS 801 in the CB 155 and the ODS 901 in the decoding object buffer 156, and at the time of the button selection operation, the selected_state_sound_id_ref 817 of the button in the ICS 801. Similarly, in the activation operation, activated_state_sound_id_ref 820 is obtained as the sound ID corresponding to the button (S1340).

グラフィックスコントローラ105は、ボタンIDとサウンドIDとを加工部110に通知する。通知を受けた加工部110は、次に述べる加工処理を行なう(S1345)。
加工処理は加工部110が行なう。加工部110は、表示情報バッファ102からビデオ幅502と、通知されたボタンIDに該当するボタンの水平位置513とボタン幅128とを読み出す(S1360)。
The graphics controller 105 notifies the processing unit 110 of the button ID and the sound ID. The processing unit 110 that has received the notification performs the following processing (S1345).
The processing unit 110 performs the processing. The processing unit 110 reads the video width 502, the horizontal position 513 of the button corresponding to the notified button ID, and the button width 128 from the display information buffer 102 (S1360).

通知されたサウンドIDのサウンドデータをサウンドバッファ101から読み出す(S1360)。ボタンの中心の水平方向の位置を、ボタンの水平位置513とボタン幅515から算出する(S1370)。
ボタンがディスプレイ1111の幅を水平方向に分割する比率a:bを、ビデオ幅502とボタンの中心の水平方向の位置とから算出する(S1375)。
The sound data of the notified sound ID is read from the sound buffer 101 (S1360). The horizontal position of the center of the button is calculated from the horizontal position 513 of the button and the button width 515 (S1370).
A ratio a: b by which the button divides the width of the display 1111 in the horizontal direction is calculated from the video width 502 and the horizontal position of the center of the button (S1375).

加工部110は、図11に示すパラメタをもとに、式(1)(2)から、lとrとを求める。ここで、w、d、h、vには、たとえば、それぞれ0.6、2、0.2、340(メートル単位)の数値とする。
加工部110は、グラフィックスコントローラ105から指定のあったサウンドIDが示すモノラルのサウンドデータをステレオサウンドのR(チャネル)のサウンドとしてそのまま出力し、Lのサウンドは、式(4)で強度の加工を施したサウンドを、式(3)で示す時間だけRに対して遅延させ(S1380)、ミキサ161に出力する(S1385)。
The processing unit 110 obtains l and r from equations (1) and (2) based on the parameters shown in FIG. Here, w, d, h, and v are, for example, numerical values of 0.6, 2, 0.2, and 340 (meter units), respectively.
The processing unit 110 outputs the monaural sound data indicated by the sound ID designated by the graphics controller 105 as it is as the R (channel) sound of the stereo sound, and the sound of L is processed with the intensity according to Equation (4). The sound subjected to is delayed with respect to R by the time indicated by the expression (3) (S1380) and output to the mixer 161 (S1385).

(実施の形態2)
実施の形態2は、実施の形態1で行なったボタンの水平方向の位置の定位の補正を行なう。
実施の形態2の構成は、実施の形態1と同じであり、加工部110の処理だけが異なる。
(Embodiment 2)
In the second embodiment, the localization of the horizontal position of the button performed in the first embodiment is corrected.
The configuration of the second embodiment is the same as that of the first embodiment, and only the processing of the processing unit 110 is different.

図13(a)は、左右のスピーカがディスプレイから離れている場合のディスプレイとスピーカを正面からみた外観図であり、図13(b)は、ボタンの位置と定位する位置との関係を示す図である。
図13(a)は、ディスプレイ1401、左スピーカ1402、右スピーカ1403、ディスプレイ1401に向かって右方に表示されたボタン1404を示し、ディスプレイ1401の幅はw、スピーカ間の距離はs、各スピーカはディスプレイ1401から等距離にあることを示している。ここでX軸1411の原点は、ディスプレイ1401の中心である。
FIG. 13A is an external view of the display and the speaker when the left and right speakers are separated from the display, and FIG. 13B is a diagram illustrating the relationship between the position of the button and the position where it is localized. It is.
FIG. 13A shows a display 1401, a left speaker 1402, a right speaker 1403, and a button 1404 displayed on the right side of the display 1401. The width of the display 1401 is w, the distance between the speakers is s, and each speaker is shown. Indicates equidistant from the display 1401. Here, the origin of the X axis 1411 is the center of the display 1401.

実施の形態1では、図11に示すように、画面の両端の位置にスピーカの中心線が設置されていると想定して、水平方向の定位を実現した。そのとき、たとえばディスプレイ1401の右端近くにボタンがある場合、定位は実際のボタンが表示されている位置より右スピーカ1403の側に寄り、実際に定位すべきボタンの位置から右にずれてしまう。
図13(b)において、X軸は、ボタンのディスプレイでの水平方向の位置をピクセル単位で示し、Y軸は、図13(a)のX軸上において、加工後のステレオサウンドが定位する位置をメートル単位で示している。
In the first embodiment, as shown in FIG. 11, it is assumed that the center line of the speaker is installed at the positions of both ends of the screen, and the horizontal localization is realized. At this time, for example, when there is a button near the right end of the display 1401, the localization is closer to the right speaker 1403 than the position where the actual button is displayed, and is shifted to the right from the position of the button to be actually localized.
In FIG. 13 (b), the X axis indicates the horizontal position of the button display in pixels, and the Y axis is the position where the processed stereo sound is localized on the X axis in FIG. 13 (a). Is shown in meters.

グラフ1422は、ボタンの定位が正しく行なわれていることを示しており、グラフ1421は、実施の形態1による定位を示す図である。なお、sがwと等しい場合は、グラフ1421は、グラフ1422と同じとなる。
ボタンの位置とクリックサウンドの定位の位置のずれ1412は、加工部110が想定するスピーカの位置(ディスプレイの両端)と、実際のスピーカの位置のずれによって生じる。また、ディスプレイ1401の中央付近では、ボタンの表示位置と、クリックサウンドが定位する位置のずれは比較的小さいが、ボタンの表示位置が画面の両端に近いほど、そのずれが大きくなる。したがって、あらかじめスピーカの位置が画面から離れて設置されるものとして、加工部110が定位をするようにしてもよい。これは、グラフ1423で示したような定位をクリックサウンドに与えるようにすることで実現される。つまり、ボタンが画面の両端に近いほど、クリックサウンドの定位を、グラフ1421より内側になるように補正する。
A graph 1422 indicates that the buttons are correctly positioned, and a graph 1421 is a diagram illustrating the localization according to the first embodiment. When s is equal to w, the graph 1421 is the same as the graph 1422.
The difference 1412 between the button position and the click sound localization position is caused by the difference between the speaker position (both ends of the display) assumed by the processing unit 110 and the actual speaker position. Near the center of the display 1401, the difference between the display position of the button and the position where the click sound is localized is relatively small. However, the closer the display position of the button is to both ends of the screen, the larger the shift. Therefore, the processing unit 110 may be localized by assuming that the position of the speaker is previously set apart from the screen. This is realized by giving the localization a click sound as shown in the graph 1423. That is, the closer the button is to the both ends of the screen, the more the click sound localization is corrected to be inside the graph 1421.

この補正のためのグラフ1423を適用することにより、ずれの少ない、自然な定位を持ったクリックサウンドを出力することが可能となる。
(実施の形態3)
実施の形態3は、ボタンの垂直方向の位置に定位するようにモノラルサウンドを加工してステレオサウンドを作成し、出力する。
By applying the graph 1423 for this correction, it is possible to output a click sound having a natural localization with little deviation.
(Embodiment 3)
In the third embodiment, a monaural sound is processed so as to be localized at a position in the vertical direction of a button to create a stereo sound and output it.

本実施の形態におけるサウンド加工装置の構成は、実施の形態1と同様であり、加工部110の処理だけが異なる。本実施の形態における加工部110はフィルタ処理を行なうので、まずフィルタについて述べる。
図14は、実施の形態2において使用する各種フィルタの例を示す図である。
図14(a)は、ハイパスフィルタ1501の一例である。ハイパスフィルタ1501は、周波数が略2KHz以上の周波数帯域の音の強度はそのままとし、略2KHz未満の音の強度を0Hzに近づくほど音の強度を減少させる。したがって、このフィルタ処理の結果、高音が主に出力される。
The configuration of the sound processing apparatus in the present embodiment is the same as that of the first embodiment, and only the processing of the processing unit 110 is different. Since processing unit 110 in the present embodiment performs filter processing, the filter will be described first.
FIG. 14 is a diagram illustrating examples of various filters used in the second embodiment.
FIG. 14A shows an example of the high-pass filter 1501. The high-pass filter 1501 keeps the intensity of the sound in the frequency band having a frequency of approximately 2 kHz or higher as it is, and decreases the intensity of the sound closer to 0 Hz with the intensity of the sound less than approximately 2 kHz. Therefore, as a result of this filtering process, a high tone is mainly output.

図14(b)は、ローパスフィルタ1511の一例である。ローパスフィルタ1511は、ハイパスフィルタ1501とは逆に、周波数が略2KHz以上の周波数帯域の音の強度を、周波数が20KHzに近づくほど減少させ、略2KHz未満の音の強度をそのままとする。したがって、このフィルタ処理の結果、低音が主に出力される。
本実施の形態の加工部110は、グラフィックスコントローラ105から、UO170により操作されたボタンのボタンIDと、そのボタンに対応付けられたサウンドIDとを受け取ると、表示情報バッファ102に格納されているビデオ高502と、当該ボタンIDのボタンの垂直位置514とボタン高516とを読み出す。そして、ボタンの中心の垂直方向の位置を、ボタンの垂直位置514にボタン高516の半分の値を加算することにより算出する。
FIG. 14B is an example of the low-pass filter 1511. Contrary to the high-pass filter 1501, the low-pass filter 1511 decreases the intensity of sound in a frequency band having a frequency of approximately 2 kHz or higher as the frequency approaches 20 kHz, and leaves the intensity of sound less than approximately 2 kHz as it is. Therefore, bass is mainly output as a result of this filtering process.
When the processing unit 110 according to the present embodiment receives the button ID of the button operated by the UO 170 and the sound ID associated with the button from the graphics controller 105, the processing unit 110 stores the button ID in the display information buffer 102. The video height 502, the vertical position 514 of the button with the button ID, and the button height 516 are read out. Then, the vertical position of the center of the button is calculated by adding a half value of the button height 516 to the vertical position 514 of the button.

ボタンの中心の垂直方向の位置がボタン高516の半分以下の値のとき、ボタンは画面の上半面にあり、ボタンの中心の垂直方向の位置がボタン高516の半分以上の値のとき、ボタンは画面の下半面にある。
本実施の形態では、加工部110は、ボタンが画面の上半面にあるとき、ボタンに対応するモノラルサウンドに対しハイパスフィルタ1501で処理し、下半面にあるとき、ボタンに対応するモノラルサウンドに対しローパスフィルタ1502で処理することにより、ボタンの垂直方向の位置、つまりディスプレイ画面の上半分または下半分に応じた印象を与えるクリックサウンドを出力するようにする。
When the vertical position of the center of the button is less than half the button height 516, the button is on the upper half of the screen, and when the vertical position of the center of the button is more than half the button height 516, the button Is on the lower half of the screen.
In the present embodiment, the processing unit 110 processes the monaural sound corresponding to the button with the high-pass filter 1501 when the button is on the upper half of the screen, and processes the monaural sound corresponding to the button when the button is on the lower half. By processing with the low-pass filter 1502, a click sound that gives an impression corresponding to the vertical position of the button, that is, the upper half or the lower half of the display screen is output.

また、上記の変形例として、ボタンが上半面にあるとき、ハイパスフィルタ1501のかわりに、図14(c)のハイパスフィルタ1521を使用して、略2KHz以上の高帯域の音の強度をさらに増加させるようにしてもよい。同様に、ボタンが下半面にあるとき、ローパスフィルタ1511のかわりに、図14(c)のローパスフィルタ1521を使用して、略2KHz未満の低帯域の音の強度をさらに増加させるようにしてもよい。   Further, as a modification of the above, when the button is on the upper half surface, the high-pass filter 1521 of FIG. 14C is used instead of the high-pass filter 1501 to further increase the intensity of high-band sound of approximately 2 kHz or higher. You may make it make it. Similarly, when the button is on the lower half, the low-pass filter 1521 of FIG. 14C is used instead of the low-pass filter 1511 to further increase the intensity of the low-band sound of less than about 2 kHz. Good.

上記で述べた4種類のフィルタは、いずれも略2KHzを高帯域と低帯域の境界値としたが、この値は略2KHzからr略3KHzの範囲で可変であり、たとえば略3KHzとしてもよい。
また、フィルタ処理の対象となるサウンドを、モノラルサウンドとしたが、実施の形態1で加工された左右のステレオサウンドとして、水平方向の定位もあわせて行なうようにしてもよい。
In all of the four types of filters described above, approximately 2 kHz is set as a boundary value between the high band and the low band, but this value is variable in a range of approximately 2 kHz to r approximately 3 kHz, and may be approximately 3 kHz, for example.
In addition, although the sound to be filtered is a monaural sound, the left and right stereo sound processed in the first embodiment may also be subjected to horizontal localization.

(実施の形態4)
実施の形態4は、実施の形態1の構成に、さらにディスプレイの幅(m単位)とスピーカ間距離を構成情報として追加し、サウンド加工時に参照して、ボタンの水平方向における音源の定位の精度を上げるようにしている。
図15は、実施の形態4の構成を示す図である。
(Embodiment 4)
In the fourth embodiment, the display width (m unit) and the distance between the speakers are added as configuration information to the configuration of the first embodiment, and the sound source localization accuracy in the horizontal direction of the button is referred to during sound processing. I try to raise.
FIG. 15 is a diagram illustrating the configuration of the fourth embodiment.

本実施の形態におけるサウンド加工装置1600の構成は、構成情報バッファ1611と加工部1630とが実施の形態1と異なる。
以下では、実施の形態1との相違点だけ述べる。
図16(a)は、構成情報バッファ1611の例を示す図である。
図16(a)において、構成情報バッファ1611は、ディスプレイ幅1612、左右のスピーカ間距離1613からなる構成情報を格納している。構成情報バッファ1701への構成情報の書き込みは、前以って専用のツールにより行なう。
The configuration of the sound processing device 1600 in the present embodiment is different from that of the first embodiment in the configuration information buffer 1611 and the processing unit 1630.
Only differences from the first embodiment will be described below.
FIG. 16A shows an example of the configuration information buffer 1611.
In FIG. 16A, the configuration information buffer 1611 stores configuration information including a display width 1612 and a distance 1613 between the left and right speakers. The configuration information is written into the configuration information buffer 1701 with a dedicated tool in advance.

図16(b)は、構成情報バッファ1611の例で示した数値をもとにディスプレイ1111、左スピーカ1112、右スピーカ1113を、図11と同様に示した図である。これらの図の相違点は、図11では、スピーカ間距離1713が、ディスプレイ1111の幅と同じであるが、図16(b)では指定値としている。
図16(b)におけるボタン1114が、ディスプレイ幅wをa:bに分割する位置にあるとする。ディスプレイ幅をw、スピーカ間距離をsとし、各スピーカはディスプレイの中心から等距離にあるとする。
FIG. 16B is a diagram showing the display 1111, the left speaker 1112, and the right speaker 1113 similarly to FIG. 11 based on the numerical values shown in the example of the configuration information buffer 1611. The difference between these figures is that in FIG. 11, the inter-speaker distance 1713 is the same as the width of the display 1111, but in FIG.
It is assumed that the button 1114 in FIG. 16B is at a position where the display width w is divided into a: b. Assume that the display width is w, the distance between speakers is s, and each speaker is equidistant from the center of the display.

ボタン1114が、スピーカ間をm:nに分割するとすると、m:nは図16(b)に示すように
m:n = ((s−w)/2+aw/(a+b)) : ((s−w)/2+bw/(a+b))
となり、m、nは既知の値であるa,b,w,sにより算出できる。
式(3)で示す「Lの遅延時間」等の算出の際の前提である図11で示した分割比率a:bは、実際にはスピーカ間の分割比率である。
If the button 1114 divides the speakers into m: n, m: n is as shown in FIG.
m: n = ((s−w) / 2 + aw / (a + b)): ((s−w) / 2 + bw / (a + b))
M and n can be calculated from known values a, b, w, and s.
The division ratio a: b shown in FIG. 11, which is a premise for calculating “L delay time” shown in Expression (3), is actually a division ratio between speakers.

したがって、加工部1630は、構成情報バッファ1611の構成情報を読み出して、m:nを算出する。そして、式(1)と(2)のaに上記で得たmの値を、またbにnの値をそれぞれ代入し、残った変数d、l、rについては実施の形態1と同様な値を代入して、式(3)と(4)からLの遅延時間とLの音の強度とを得る。
左右のスピーカが、ディスプレイの両端から離れている場合、図13で示したような、実施の形態1による定位のずれ1412、あるいは実施の形態2で示した補正の必要がなくなり、ボタンの水平方向の位置への定位が精度高く実現できる。
Therefore, the processing unit 1630 reads the configuration information in the configuration information buffer 1611 and calculates m: n. Then, the value of m obtained above is substituted for a in the expressions (1) and (2), and the value of n is substituted for b. The remaining variables d, l, and r are the same as in the first embodiment. Substituting the values, L delay time and L sound intensity are obtained from equations (3) and (4).
When the left and right speakers are separated from both ends of the display, the localization shift 1412 according to the first embodiment as shown in FIG. 13 or the correction shown in the second embodiment is not necessary, and the horizontal direction of the button is eliminated. The position to the position can be realized with high accuracy.

以上、本発明を4つの実施の形態に基づいて説明してきたが、本発明は、それらに限定されないのはもちろんである。以下のような場合も本発明に含まれる。
実施の形態1では、表示情報バッファ102に、垂直方向の情報、たとえばビデオ高、ボタンの垂直位置、ボタン高も格納するとしたが、これらは実施の形態1だけでなく、実施の形態3,4においてはなくてもよい。逆に実施の形態2では、垂直方向の情報だけ格納するようにしてもよい。
As mentioned above, although this invention has been demonstrated based on four embodiment, of course, this invention is not limited to them. The following cases are also included in the present invention.
In the first embodiment, the display information buffer 102 also stores information in the vertical direction, for example, the video height, the vertical position of the button, and the button height, but these are not limited to the first embodiment but the third and fourth embodiments. It does not have to be. Conversely, in the second embodiment, only the information in the vertical direction may be stored.

また、実施の形態では、定位するボタンの位置を、ボタンの中心の位置としたが、たとえばボタン幅がビデオ幅に対して所定の比率以下の時、たとえば5%以下のとき、ボタンの矩形領域の角、たとえば左上角の位置としてもよい。
ステレオサウンドのLの遅延、音の強度の設定を式(3)、(4)に基づいて行ったが、これらの式に限定されるものではないのは勿論であり、実験等から得られた式を適用してもよい。
In the embodiment, the position of the button to be localized is the center position of the button. For example, when the button width is less than a predetermined ratio with respect to the video width, for example, 5% or less, the rectangular area of the button It may be the position of the upper left corner, for example, the upper left corner.
The stereo sound L delay and the sound intensity were set based on the equations (3) and (4). However, the present invention is not limited to these equations, and was obtained from experiments and the like. An expression may be applied.

本発明の制御方法を、コンピュータシステムを用いて実現するためのコンピュータプログラムであるとしてもよいし、前記プログラムを表すデジタル信号であるとしてもよい。
また、本発明は、前記プログラム又は前記デジタル信号を記録したコンピュータ読取り可能な記録媒体、例えば半導体メモリ等であるとしてもよい。
また、本発明は、電気通信回線、無線又は有線通信回線、若しくはインターネットに代表されるネットワーク等を経由して伝送される前記コンピュータプログラム又は前記デジタル信号であるとしてもよい。
The control method of the present invention may be a computer program for realizing using a computer system, or may be a digital signal representing the program.
The present invention may be a computer-readable recording medium that records the program or the digital signal, such as a semiconductor memory.
The present invention may be the computer program or the digital signal transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, or the like.

本発明に係るサウンド加工装置は、再生機器に付属する装置として映画産業や再生機器の産業において高い利用可能性をもつ。   The sound processing apparatus according to the present invention has high applicability in the movie industry and the reproduction equipment industry as an apparatus attached to the reproduction equipment.

実施の形態1のサウンド加工装置の構成を示す図である。1 is a diagram illustrating a configuration of a sound processing device according to a first embodiment. 上記実施の形態の再生装置を含む再生システムを示す図である。It is a figure which shows the reproducing | regenerating system containing the reproducing | regenerating apparatus of the said embodiment. BD-ROMの構成を示す図である。It is a figure which shows the structure of BD-ROM. サウンドデータの内容を示す図である。It is a figure which shows the content of sound data. 上記実施の形態の定位情報バッファの内容を示す図である。It is a figure which shows the content of the localization information buffer of the said embodiment. 上記実施の形態の画面とボタンとの関係を示す図である。It is a figure which shows the relationship between the screen of the said embodiment, and a button. 上記実施の形態のAVクリップの内容を示す図である。It is a figure which shows the content of the AV clip of the said embodiment. 上記実施の形態のICSの内容を示す図である。It is a figure which shows the content of ICS of the said embodiment. 上記実施の形態のODSの内容を示す図である。It is a figure which shows the content of ODS of the said embodiment. 上記実施の形態のボタンの表示とリモコンの一例を示す図である。It is a figure which shows an example of the display of the button of the said embodiment, and a remote control. 上記実施の形態のサウンドの加工のパラメタを示す図である。It is a figure which shows the parameter of the process of the sound of the said embodiment. 上記実施の形態のサウンド加工装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the sound processing apparatus of the said embodiment. 実施の形態2の画面の表示位置と定位位置の関係を示す図である。It is a figure which shows the relationship between the display position of the screen of Embodiment 2, and a localization position. 実施の形態3のフィルタの例を示す図である。10 is a diagram illustrating an example of a filter according to Embodiment 3. FIG. 実施の形態4のサウンド加工装置の構成を示す図である。It is a figure which shows the structure of the sound processing apparatus of Embodiment 4. FIG. 上記実施の形態の追加定位情報バッファの内容を示す図である。It is a figure which shows the content of the additional localization information buffer of the said embodiment.

符号の説明Explanation of symbols

100 サウンド加工装置
101 サウンドバッファ(Sound buffer)
102 表示情報バッファ
105 グラフィックスコントローラ(Graphics controller)
110 加工部
120 サウンドデータ(Sound data)
121 MPEG-2TSパケット(MPEG-2 Transport Stream Packet)
122 PIDフィルタ(PID Filter)
123-126 トランスポートバッファ(TB: Transport Buffer)
130 プレゼンテーショングラフィックスデコーダ(Presentation Graphics Decoder)
131 プレゼンテーショングラフィックスプレーン(Presentation Graphics Plane)
132 CLUT(Color LookUp Table:色参照テーブル)
140 ビデオデコーダ(Video Decoder)
141 ビデオプレーン(Video Plane)
150 インタラクティブグラフィックスデコーダ(Interactive Graphics Decoder)
151 インタラクティブグラフィックスプレーン((Interactive Graphics Plane)
152 CLUT
153 コーディッドデータバッファ(EB: Coded Data Buffer)
154 ストリームグラフィックスプロセッサ(Stream Graphics Processor)
155 コンポジションバッファ(CB: Composition Buffer)
156 復号オブジェクトバッファ(Decoded Object Buffer)
160 オーディオデコーダ(Audio Decoder)
161 ミキサ(audio Mixer)
210 BD−ROM
220 再生装置(Playback unit)
230 テレビ(TV)
240 リモコン(Remote Controller)
301 BD−ROMの構成
801 ICS(Interactive Composition Segment)
901 ODS(Object Definition Segment)
100 Sound processing equipment 101 Sound buffer
102 Display information buffer 105 Graphics controller (Graphics controller)
110 Processing unit 120 Sound data
121 MPEG-2TS packet (MPEG-2 Transport Stream Packet)
122 PID Filter
123-126 Transport Buffer (TB)
130 Presentation Graphics Decoder
131 Presentation Graphics Plane
132 CLUT (Color LookUp Table)
140 Video Decoder
141 Video Plane
150 Interactive Graphics Decoder
151 Interactive Graphics Plane (Interactive Graphics Plane)
152 CLUT
153 Coded Data Buffer (EB)
154 Stream Graphics Processor
155 Composition Buffer (CB)
156 Decoded Object Buffer
160 Audio Decoder
161 Mixer (audio Mixer)
210 BD-ROM
220 Playback unit
230 TV
240 Remote Controller
301 Composition of BD-ROM 801 ICS (Interactive Composition Segment)
901 ODS (Object Definition Segment)

Claims (11)

グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力するサウンド加工装置であって、
オブジェクトに対応付けられたサウンドデータを記録しているサウンドバッファと、
ビデオ画面のサイズと各オブジェクトのビデオ画面での表示位置とからなる表示情報を前記グラフィックスストリームから抽出する抽出手段と、
抽出された表示情報に基づいて、指定されたオブジェクトの表示位置に音像が定位するように、前記オブジェクトに対応付けられたサウンドデータを前記サウンドバッファから読み出して加工し、加工したサウンドデータを出力する加工出力手段とを備えることを特徴とするサウンド加工装置。
A sound processing device that processes and outputs a sound associated with an object designated by a user among a plurality of objects included in a graphics stream in accordance with reproduction of a digital stream including a graphics stream,
A sound buffer that records sound data associated with the object;
Extraction means for extracting display information comprising the size of the video screen and the display position of each object on the video screen from the graphics stream;
Based on the extracted display information, the sound data associated with the object is read from the sound buffer and processed so that the sound image is localized at the display position of the specified object, and the processed sound data is output. A sound processing apparatus comprising a processing output means.
再生される前記デジタルストリームは、BD-ROMに記録されたものであり、
前記グラフィックスストリームは、インタラクティブグラフィックスストリームを含み、
前記表示情報は、いずれもピクセルを単位として記録され、
前記抽出手段は、前記表示情報をインタラクティブグラフィックスストリームから抽出することを特徴とする請求項1記載のサウンド加工装置。
The digital stream to be played back is recorded on a BD-ROM,
The graphics stream includes an interactive graphics stream,
The display information is recorded in units of pixels,
The sound processing apparatus according to claim 1, wherein the extraction unit extracts the display information from an interactive graphics stream.
前記抽出手段は、ビデオ画面の幅と各オブジェクトの水平方向の表示位置とからなる表示情報を抽出し、
前記加工出力手段は、前記表示情報から、オブジェクトによるビデオ画面の幅に対する水平方向の分割比率を算出し、算出した分割比率に基づき前記オブジェクトに対応付けられたモノラルのサウンドデータをステレオのサウンドに加工し、左右の音の強度差と遅延との少なくとも一方を調節して音像が指定されたオブジェクトの水平方向の表示位置に定位するようにすることを特徴とする請求項2記載のサウンド加工装置。
The extraction means extracts display information consisting of the width of the video screen and the horizontal display position of each object,
The processing output means calculates a horizontal division ratio with respect to the width of the video screen by the object from the display information, and processes monaural sound data associated with the object into a stereo sound based on the calculated division ratio. 3. The sound processing apparatus according to claim 2, wherein the sound image is localized at a display position in a horizontal direction of the designated object by adjusting at least one of a difference in intensity between left and right sounds and a delay.
前記抽出手段は、ビデオ画面の高さと各オブジェクトの垂直方向の表示位置とからなる表示情報を抽出し、
前記加工出力手段は、前記抽出手段により抽出された表示情報のうち、音像が前記オブジェクトの垂直方向の位置に定位するように前記オブジェクトに対応付けられたサウンドデータに、前記オブジェクトの垂直方向の位置の比率に応じて異なるフィルターをかけることを特徴とする請求項1記載のサウンド加工装置。
The extraction means extracts display information composed of the height of the video screen and the vertical display position of each object,
The processing output means includes, in the display information extracted by the extraction means, the sound data associated with the object so that the sound image is localized at the vertical position of the object, and the vertical position of the object. 2. The sound processing apparatus according to claim 1, wherein different filters are applied according to the ratio of the sound.
前記加工手段は、前記オブジェクトの垂直方向の位置が画面の上半面にあるとき、ハイパスフィルターをかけ、下半面にあるとき、ローパスフィルターをかけることを特徴とする請求項4記載のサウンド加工装置。 5. The sound processing apparatus according to claim 4, wherein the processing means applies a high-pass filter when the vertical position of the object is on the upper half surface of the screen, and applies a low-pass filter when the object is on the lower half surface. 前記複数のオブジェクトはいずれもボタンであることを特徴とする請求項1記載のサウンド加工装置。 The sound processing apparatus according to claim 1, wherein each of the plurality of objects is a button. 再生表示を行うディスプレイのサイズと左右のスピーカの位置との情報を追加情報として記憶する記憶手段をさらに備え、
前記加工出力手段は、前記表示情報と前記追加情報とに基づいて、指定されたオブジェクトの位置に定位するように前記オブジェクトに対応付けられたサウンドデータを加工することを特徴とする請求項1記載のサウンド加工装置。
Storage means for storing information on the size of the display that performs playback display and the positions of the left and right speakers as additional information;
The processing output means processes sound data associated with the object based on the display information and the additional information so as to be localized at a specified object position. Sound processing equipment.
オブジェクトに対応付けられたサウンドデータを記録しているサウンドバッファを有し、グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力するサウンド加工装置の制御方法であって、
ビデオ画面のサイズと各オブジェクトのビデオ画面での表示位置とからなる表示情報を前記グラフィックスストリームから抽出する抽出ステップと、
抽出された表示情報に基づいて、指定されたオブジェクトの表示位置に音像が定位するように、前記オブジェクトに対応付けられたサウンドデータを前記サウンドバッファから読み出して加工し、加工したサウンドデータを出力する加工出力ステップとを有することを特徴とするサウンド加工装置の制御方法。
It has a sound buffer that records sound data associated with the object, and corresponds to the object specified by the user among multiple objects included in the graphics stream when playing a digital stream including the graphics stream A method of controlling a sound processing device that processes and outputs a sound attached thereto,
An extraction step of extracting display information comprising the size of the video screen and the display position of each object on the video screen from the graphics stream;
Based on the extracted display information, the sound data associated with the object is read from the sound buffer and processed so that the sound image is localized at the display position of the specified object, and the processed sound data is output. A method for controlling a sound processing apparatus, comprising: a processing output step.
オブジェクトに対応付けられたサウンドデータを記録しているサウンドバッファを有し、グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力するサウンド加工装置に、
ビデオ画面のサイズと各オブジェクトのビデオ画面での表示位置とからなる表示情報を前記グラフィックスストリームから抽出する抽出ステップと、
抽出された表示情報に基づいて、指定されたオブジェクトの表示位置に音像が定位するように、前記オブジェクトに対応付けられたサウンドデータを前記サウンドバッファから読み出して加工し、加工したサウンドデータを出力する加工出力ステップとを実行させるプログラム。
It has a sound buffer that records sound data associated with the object, and corresponds to the object specified by the user among multiple objects included in the graphics stream when playing a digital stream including the graphics stream To the sound processing device that processes and outputs the attached sound,
An extraction step of extracting display information comprising the size of the video screen and the display position of each object on the video screen from the graphics stream;
Based on the extracted display information, the sound data associated with the object is read from the sound buffer and processed so that the sound image is localized at the display position of the specified object, and the processed sound data is output. Program that executes machining output step.
グラフィックスストリームを含むデジタルストリームの再生に伴い、グラフィックスストリームに含まれる複数のオブジェクトのうちユーザにより指定されたオブジェクトに対応付けられたサウンドを加工し出力する集積回路であって、
請求項1記載のサウンド加工装置の各手段を構成することを特徴とする集積回路。
An integrated circuit that processes and outputs a sound associated with an object specified by a user among a plurality of objects included in the graphics stream in accordance with reproduction of the digital stream including the graphics stream,
An integrated circuit comprising each means of the sound processing apparatus according to claim 1.
グラフィックスストリームを含むデジタルストリームの再生装置であって、
請求項1記載のサウンド加工装置を備えることを特徴とする再生装置。
A playback device for a digital stream including a graphics stream,
A playback apparatus comprising the sound processing apparatus according to claim 1.
JP2005057876A 2005-03-02 2005-03-02 Sound processing apparatus, method of controlling sound processing apparatus, program, integrated circuit, and reproducing apparatus Pending JP2006245936A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005057876A JP2006245936A (en) 2005-03-02 2005-03-02 Sound processing apparatus, method of controlling sound processing apparatus, program, integrated circuit, and reproducing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005057876A JP2006245936A (en) 2005-03-02 2005-03-02 Sound processing apparatus, method of controlling sound processing apparatus, program, integrated circuit, and reproducing apparatus

Publications (1)

Publication Number Publication Date
JP2006245936A true JP2006245936A (en) 2006-09-14

Family

ID=37051876

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005057876A Pending JP2006245936A (en) 2005-03-02 2005-03-02 Sound processing apparatus, method of controlling sound processing apparatus, program, integrated circuit, and reproducing apparatus

Country Status (1)

Country Link
JP (1) JP2006245936A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054698A (en) * 2010-08-31 2012-03-15 Square Enix Co Ltd Video game processing device and video game processing program
CN112585429A (en) * 2018-08-22 2021-03-30 思睿逻辑国际半导体有限公司 Detection and adaptation of changes to resonant phase sensing systems with resistive-inductive-capacitive sensors

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012054698A (en) * 2010-08-31 2012-03-15 Square Enix Co Ltd Video game processing device and video game processing program
CN112585429A (en) * 2018-08-22 2021-03-30 思睿逻辑国际半导体有限公司 Detection and adaptation of changes to resonant phase sensing systems with resistive-inductive-capacitive sensors

Similar Documents

Publication Publication Date Title
JP4288613B2 (en) REPRODUCTION DEVICE AND REPRODUCTION METHOD, PROGRAM, RECORDING MEDIUM, AND DATA STRUCTURE
JP4496170B2 (en) Recording method, playback device, program, and playback method
CN106104689B (en) Recording medium, reproduction device, and reproduction method
JP6616540B2 (en) Reproduction method and reproduction apparatus
TW201626369A (en) Information processing device, information recording medium, information processing method, and program
JP2018014158A (en) Record medium, reproducing method and reproduction apparatus
JPWO2016039172A1 (en) REPRODUCTION DEVICE, REPRODUCTION METHOD, INFORMATION PROCESSING DEVICE, INFORMATION PROCESSING METHOD, PROGRAM, AND RECORDING MEDIUM
JPWO2009130862A1 (en) Information recording apparatus and information recording method
TWI330357B (en)
JP2006501598A (en) Recording medium having data structure for managing reproduction of graphic data, recording and reproducing method and apparatus
CN111599385B (en) Recording medium, reproduction method, and reproduction apparatus
TWI280565B (en) Recording medium having data structure including graphic data and recording and reproducing methods and apparatuses
TWI320174B (en)
JP2006245936A (en) Sound processing apparatus, method of controlling sound processing apparatus, program, integrated circuit, and reproducing apparatus
CN111899769B (en) Non-transitory computer readable medium, reproduction apparatus, and reproduction method
JP2007133938A (en) Information recording medium with flag showing propriety of audio mixing output, and device and method for reproducing the same
JP5097149B2 (en) Content data playback device
JP4784383B2 (en) Video playback method and video playback apparatus
JP2008130214A (en) Data structure, data management method, recording/playback device, and recording medium
KR20080070201A (en) Method and reproduction apparatus of providing additional subtitle
JPWO2005125196A1 (en) Information recording medium, information recording apparatus and method, information reproducing apparatus and method, and computer program
JP2004178728A (en) Tone quality display method, program for implementing the method, and dvd audio disk playback apparatus
JP2015167059A (en) Information processor, information recording device, information recording medium, information processing method and program
JP2007311922A (en) Recorder