JP2006270425A - Method and program for outputting sound, and information processor - Google Patents

Method and program for outputting sound, and information processor Download PDF

Info

Publication number
JP2006270425A
JP2006270425A JP2005084605A JP2005084605A JP2006270425A JP 2006270425 A JP2006270425 A JP 2006270425A JP 2005084605 A JP2005084605 A JP 2005084605A JP 2005084605 A JP2005084605 A JP 2005084605A JP 2006270425 A JP2006270425 A JP 2006270425A
Authority
JP
Japan
Prior art keywords
display
audio output
screen
audio
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005084605A
Other languages
Japanese (ja)
Inventor
Kimiko Kimata
喜美子 木俣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2005084605A priority Critical patent/JP2006270425A/en
Publication of JP2006270425A publication Critical patent/JP2006270425A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound output method for easily specifying which application an output sound belongs to, and to provide a sound output program, and an information processor. <P>SOLUTION: The sound output method is the one for allowing a plurality of application programs to respectively display a plurality of pictures on a display and outputting the sound corresponding to the respective pictures from a plurality of sound output devices. The method includes: a step for acquiring picture display information which indicates the display positions of the pictures on the display; a step for acquiring acoustic environmental information which indicates respective position relations between the display and the sound output devices; and a step for outputting the sound corresponding to the picture display information from the respective sound output devices, based on the acoustic environmental information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、音声出力方法、音声出力プログラム、及び情報処理装置に関し、特にプログラム表示デバイスの設置位置と音声出力デバイスの設置位置に対応した音声出力を行う音声出力方法、音声出力プログラム、及び情報処理装置に関する。   The present invention relates to an audio output method, an audio output program, and an information processing apparatus, and more particularly to an audio output method, an audio output program, and an information processing for performing audio output corresponding to an installation position of a program display device and an installation position of an audio output device. Relates to the device.

従来から、汎用的なパーソナル・コンピュータ(以下、PCと略す)は、音声や画像の入出力する機能を有している。近年、このようなPCを用いて、ネットワークを介したテレビ会議システムが開発されている。例えば、PCは、ディジタル通信網を介して複数人の映像と音声をリアルタイムに交換するテレビ会議システムに利用されている。
複数のユーザがこのテレビ会議システムに参加する場合には、各ユーザの画像・音声を出力するための複数の画面(ウィンドウ)が各ユーザのディスプレイ上に表示されている。この複数の画面を管理する技術が、特許文献1に開示されている。この特許文献1に開示されたマルチウィンドウシステムでは、聴覚情報出力を画面上のウィンドウ位置に対応した位置に定位させている。
Conventionally, general-purpose personal computers (hereinafter abbreviated as PCs) have a function of inputting and outputting voice and images. In recent years, a video conference system via a network has been developed using such a PC. For example, a PC is used in a video conference system that exchanges video and audio of a plurality of people in real time via a digital communication network.
When a plurality of users participate in this video conference system, a plurality of screens (windows) for outputting the images and sounds of each user are displayed on the display of each user. A technique for managing the plurality of screens is disclosed in Patent Document 1. In the multi-window system disclosed in Patent Document 1, the auditory information output is localized at a position corresponding to the window position on the screen.

PCは、音声出力をともなうアプリケーションや、テレビ会議システムに用いられる映像と音声を同時に通信相手それぞれから受信して表示するアプリケーションを同一PC装置上で複数動作させる。この場合、複数のアプリケーションや通信相手からほぼ同時に音声出力がなされると、ユーザは、それらの音声だけでは、どのアプリケーションからの出力なのか分かりにくい。そのため、ユーザは、画面表示を確認して音声出力しているアプリケーションを判別する必要がある。   The PC operates a plurality of applications on the same PC device that have audio output and applications that simultaneously receive and display video and audio used in the video conference system from each communication partner. In this case, if voices are output almost simultaneously from a plurality of applications or communication partners, it is difficult for the user to understand from which application the output is from only those voices. Therefore, the user needs to check the screen display and determine the application that is outputting the sound.

また、スピーカは、ディスプレイを中心にみて左右非対称に設置されたり、物理的に非常に離れた位置に設置されたりする。あるいは、ユーザは、スピーカではなくヘッドフォンを使用することもある。このような場合には、それぞれの通信相手の音声や音像の位置と、その相手のディスプレイ上での表示位置が食い違い、ユーザに不便を感じさせることがある。
特開平2−272625号公報
In addition, the speaker is installed asymmetrically with respect to the display, or is installed at a physically very distant position. Alternatively, the user may use headphones instead of speakers. In such a case, the position of the voice or sound image of each communication partner and the display position on the other party's display may be inconsistent, and the user may feel inconvenience.
JP-A-2-272625

このように、従来のPCでは、ユーザの視覚と聴覚にずれが生じるため、出力音声がどのアプリケーションのものかを容易に特定することができないという問題点があった。
本発明は、このような問題点を解決するためになされたもので、出力音声がどのアプリケーションのものかを容易に特定することができる音声出力方法、音声出力プログラム、及び情報処理装置を提供することを目的とする。
As described above, the conventional PC has a problem in that it is difficult to easily identify which application the output sound belongs to because the user's vision and hearing are different.
The present invention has been made to solve such problems, and provides an audio output method, an audio output program, and an information processing apparatus that can easily identify which application the output audio belongs to. For the purpose.

本発明に係る音声出力方法は、複数のアプリケーション・プログラムそれぞれが、ディスプレイ上に複数の画面を表示し、複数の音声出力デバイスから前記複数の画面それぞれに応じた音声を出力する方法であって、前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えたものである。   The audio output method according to the present invention is a method in which each of a plurality of application programs displays a plurality of screens on a display, and outputs a sound corresponding to each of the plurality of screens from a plurality of audio output devices, Acquiring screen display information indicating display positions of the plurality of screens on the display; acquiring acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices; and the acoustic environment information. And a step of outputting a sound corresponding to the screen display information from each of the plurality of sound output devices.

さらに、前記音声を出力するステップは、前記音響環境情報に基づいて、前記音声出力デバイスそれぞれが出力する音声の出力音量を制御するステップを有する。   Furthermore, the step of outputting the sound includes a step of controlling an output volume of the sound output from each of the sound output devices based on the acoustic environment information.

さらにまた、前記音声を出力するステップは、前記音響環境情報に基づいて、前記音声出力デバイスそれぞれが出力する音声の位相を制御するステップを有する。   Furthermore, the step of outputting the sound includes a step of controlling the phase of the sound output from each of the sound output devices based on the acoustic environment information.

また、前記音響環境情報は、前記ディスプレイと前記複数の音声出力デバイスそれぞれとの位置関係を示すデバイス配置情報を有し、前記複数の音声出力デバイスによって出力される音声は、前記デバイス配置情報に基づいて制御される。   The acoustic environment information includes device arrangement information indicating a positional relationship between the display and each of the plurality of audio output devices, and audio output by the plurality of audio output devices is based on the device arrangement information. Controlled.

最適な例としては、前記ディスプレイとの距離が小さい音声出力デバイスによって出力される音声の出力音量が小さくなるように、前記音声の出力音量を制御することができる。
他の最適な例としては、前記ディスプレイとの距離が小さい音声出力デバイスによって出力される音声の位相が遅延するように、前記音声の位相を制御したりすることができる。
As an optimal example, the output volume of the sound can be controlled so that the output volume of the sound output by the sound output device having a small distance from the display is small.
As another optimal example, the phase of the sound can be controlled such that the phase of the sound output by the sound output device having a small distance from the display is delayed.

本発明に係る音声出力方法は、前記画面表示情報を格納するステップを備えたものである。さらに、前記画面表示情報は、前記ディスプレイ上での前記画面の位置を示す画面位置情報であり、前記音声を出力するステップでは、前記画面位置関係に応じて、前記複数の音声出力デバイスそれぞれが前記音声を出力する。   The audio output method according to the present invention comprises a step of storing the screen display information. Further, the screen display information is screen position information indicating a position of the screen on the display, and in the step of outputting the sound, each of the plurality of sound output devices is configured according to the screen position relationship. Output audio.

最適な例としては、前記ディスプレイ上において前記画面が所定の音声出力デバイスに近い側に表示されている場合には、当該所定の音声出力デバイスによって出力される音声の出力音声が大きくなるように、前記音声の出力音声を制御することができる。   As an optimal example, when the screen is displayed on the display near the predetermined audio output device, the output sound of the audio output by the predetermined audio output device is increased. The output sound of the sound can be controlled.

さらに、本発明に係る音声出力方法は、前記音響環境情報を格納するステップを備えるものである。
最適な例としては、前記音響環境情報を格納するステップは、前記ディスプレイ上に、当該ディスプレイを示すディスプレイ用アイコンを表示するステップと、前記ディスプレイ上に、前記音声出力デバイスを示す音声出力デバイス用アイコンを表示するステップと、前記ディスプレイ上での前記ディスプレイ用アイコンと前記音声出力デバイス用アイコンとの位置関係に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を格納するステップを有することができる。
Furthermore, the audio output method according to the present invention comprises a step of storing the acoustic environment information.
As an optimal example, the step of storing the acoustic environment information includes a step of displaying a display icon indicating the display on the display, and a sound output device icon indicating the sound output device on the display. And storing device arrangement information indicating the positional relationship between the display and the audio output device in accordance with the positional relationship between the display icon and the audio output device icon on the display. Can have.

他の最適な例としては、前記音響環境情報を格納するステップは、前記ディスプレイ上に、前記音響環境情報を入力するための入力画面を表示するステップと、当該入力画面に、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を入力するステップと、当該入力されたデバイス配置情報に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示す数値を格納するステップを有する。   As another optimal example, the step of storing the acoustic environment information includes a step of displaying an input screen for inputting the acoustic environment information on the display, and the display and the audio on the input screen. A step of inputting device arrangement information indicating a positional relationship with the output device; and a step of storing a numerical value indicating the positional relationship between the display and the audio output device according to the input device arrangement information.

本発明に係るプログラムは、複数のアプリケーション・プログラムそれぞれが、ディスプレイ上に複数の画面を表示し、複数の音声出力デバイスから前記複数の画面それぞれに応じた音声を出力することをコンピュータに実現させるためのプログラムであって、前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えたものである。   The program according to the present invention causes a computer to realize that each of a plurality of application programs displays a plurality of screens on a display and outputs a sound corresponding to each of the plurality of screens from a plurality of sound output devices. A step of acquiring screen display information indicating display positions of the plurality of screens on the display, and a step of acquiring acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices. And outputting a sound corresponding to the screen display information from each of the plurality of sound output devices based on the acoustic environment information.

本発明に係る情報処理装置は、前記ディスプレイと、前記複数の音声出力デバイスとを有する情報処理装置であって、前記複数のアプリケーション・プログラムと、上記のようなプログラムとを、さらに有するものである。   An information processing apparatus according to the present invention is an information processing apparatus including the display and the plurality of audio output devices, and further includes the plurality of application programs and the program as described above. .

本発明によれば、出力音声がどのアプリケーションのものかを容易に特定することができる音声出力方法、音声出力プログラム、及び情報処理装置を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the audio | voice output method, the audio | voice output program, and information processing apparatus which can specify easily what application an output audio | voice belongs can be provided.

本発明は、PC上で動作する一般的なアプリケーションにおいて、複数のアプリケーションを同時に起動している場合に、画面上でのアプリケーション画面の表示位置・大きさに応じて音像位置を変化させるものである。最適な例としては、本発明は、音声出力をともなうアプリケーションを2種類以上同時並行的に動作させる場合に、画面上でのアプリケーション表示部の表示位置に応じて音像位置を変化させることができる。これによって、本発明を用いると、ディスプレイと音声出力デバイスの位置関係がどのような場合であっても、あたかもディスプレイ部分から音声が出ているかのようにユーザに音声を聞かせることができる。
また、本発明を用いると、同一アプリケーションで複数の画面表示を行うアプリケーションの場合でも、それぞれの画面表示位置・大きさに合わせて音像位置を変化させることができる。これによって、本発明を、例えば相手の映像と音声を同時に受信し、かつそれぞれの映像が画面に表示されながら音声通信も行う、テレビ会議やウェブ会議に適用することができ、臨場感のあるコミュニケーションを実現させることができる。
The present invention changes a sound image position according to a display position / size of an application screen on a screen when a plurality of applications are activated simultaneously in a general application operating on a PC. . As an optimal example, the present invention can change the sound image position according to the display position of the application display unit on the screen when two or more types of applications with audio output are operated simultaneously in parallel. Thus, when the present invention is used, it is possible to make the user hear the sound as if the sound is coming from the display portion, regardless of the positional relationship between the display and the sound output device.
Further, when the present invention is used, the sound image position can be changed in accordance with each screen display position and size even in the case of an application that displays a plurality of screens with the same application. As a result, the present invention can be applied to, for example, a video conference or a web conference in which the other party's video and audio are received at the same time and audio communication is performed while each video is displayed on the screen. Can be realized.

以下、本発明を実施するための最良の形態について説明する。
発明の実施の形態1.
発明の実施の形態1においては、本発明を、汎用的なPC上で複数のアプリケーションを同時に動作させる場合に適用した場合について説明する。
Hereinafter, the best mode for carrying out the present invention will be described.
Embodiment 1 of the Invention
In the first embodiment of the present invention, a case will be described in which the present invention is applied to a case where a plurality of applications are simultaneously operated on a general-purpose PC.

まず、図1を用いて、本発明に係る汎用PCの主な内部構成について説明する。図1は、このPCの内部構成の主たる構成の一例を示すブロック図である。
図1に示すように、PC10は、CPU11、メモリ12、外部記憶装置13、通信制御部14、キーボード・マウス15、ディスプレイ16、左スピーカ17、右スピーカ18、左マイク19、右マイク20、カメラ21を有する。
CPU11は、制御手段の一例であり、PC10の各種動作の処理制御を行う。メモリ12は、記憶手段の一例であり、RAM等から構成されている。
First, the main internal configuration of the general-purpose PC according to the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing an example of a main configuration of the internal configuration of the PC.
As shown in FIG. 1, the PC 10 includes a CPU 11, a memory 12, an external storage device 13, a communication control unit 14, a keyboard / mouse 15, a display 16, a left speaker 17, a right speaker 18, a left microphone 19, a right microphone 20, and a camera. 21.
The CPU 11 is an example of a control unit and performs processing control of various operations of the PC 10. The memory 12 is an example of a storage unit, and includes a RAM or the like.

外部記憶装置13は、記憶手段の一例であり、HDD等から構成されている。この外部記憶装置13は、PC10を動作させるためのアプリケーションを保存している。この保存されたアプリケーションは、画像や映像などの画面表示や、任意の音声出力があるアプリケーションとすることができる。また、このアプリケーションは、それ自身が画面表示や音声出力を行わないアプリケーションであってもよい。
通信制御部14は、PC10のネットワーク140への接続制御を行う通信手段の一例である。PC10は、通信制御部14を介してネットワーク140に接続し、実行時にネットワーク140を介した処理を行う。
The external storage device 13 is an example of a storage unit, and includes an HDD or the like. The external storage device 13 stores an application for operating the PC 10. The stored application may be an application having a screen display such as an image or a video or an arbitrary audio output. Further, this application may be an application that itself does not perform screen display or audio output.
The communication control unit 14 is an example of a communication unit that controls connection of the PC 10 to the network 140. The PC 10 is connected to the network 140 via the communication control unit 14 and performs processing via the network 140 at the time of execution.

キーボード・マウス15は、入力手段の一例であり、ユーザ入力のために使用される。また、キーボード・マウス15は、ユーザ入力制御部150によって制御されている。
ディスプレイ16は、表示手段の一例であり、液晶表示装置やCRT等とすることができる。このディスプレイ16は、画面表示制御部160によって制御されている。
左スピーカ17、右スピーカ18は、音声出力手段の一例であり、ディスプレイ16に向かって左右に配置されたステレオスピーカである。これらスピーカ17,18は、音声制御部170を介して制御されている。また、音声出力デバイスとしては、3チャネル以上の出力チャネルがあるスピーカや、ヘッドフォンを使用することができる。
マイク19、20は、音声入力手段の一例であり、音声制御部170を介して実装されたステレオマイクである。カメラ21は、撮像手段の一例であり、キャプチャデバイス210を介して実装されている。
The keyboard / mouse 15 is an example of an input unit, and is used for user input. The keyboard / mouse 15 is controlled by the user input control unit 150.
The display 16 is an example of a display unit, and may be a liquid crystal display device, a CRT, or the like. The display 16 is controlled by the screen display control unit 160.
The left speaker 17 and the right speaker 18 are examples of audio output means, and are stereo speakers arranged on the left and right sides of the display 16. These speakers 17 and 18 are controlled via the audio control unit 170. As the audio output device, a speaker having three or more output channels or headphones can be used.
The microphones 19 and 20 are examples of audio input means, and are stereo microphones that are mounted via the audio control unit 170. The camera 21 is an example of an imaging unit and is mounted via the capture device 210.

図1に示すように、PC10は、2つのデータベース画面表示情報DB22と音響環境情報DB23とを有する。
画面表示情報DB22は、ディスプレイ16に表示される画面に関する画面表示情報を保持するデータベースである。例えば、画面表示情報DB22は、ディスプレイ16上のアプリケーションの表示位置、他の実行されているアプリケーションの表示位置に関するアプリケーション表示位置情報を格納している。この表示位置情報には、例えば、画面の表示位置や大きさ等がある。
As shown in FIG. 1, the PC 10 has two database screen display information DB 22 and an acoustic environment information DB 23.
The screen display information DB 22 is a database that holds screen display information related to the screen displayed on the display 16. For example, the screen display information DB 22 stores application display position information related to the display position of an application on the display 16 and the display position of another application being executed. This display position information includes, for example, the display position and size of the screen.

音響環境情報DB23は、ディスプレイ16と音声出力デバイス間の距離の相対関係に関する情報を示す音声出力環境情報を格納している。この音声出力環境情報の一例として、ディスプレイ16の横幅に対する、ディスプレイ16の端から左右のスピーカ17,18までの相対位置関係がある。具体的には、この音声出力環境情報として、横幅30センチメートルのディスプレイ16に対し、右側のスピーカ18はディスプレイ16から10センチメートルしか離れていないが、左側のスピーカ17は2メートル離れていることを示す情報とすることができる。   The acoustic environment information DB 23 stores sound output environment information indicating information on the relative relationship between the distance between the display 16 and the sound output device. As an example of the audio output environment information, there is a relative positional relationship from the end of the display 16 to the left and right speakers 17 and 18 with respect to the horizontal width of the display 16. Specifically, as the audio output environment information, the right speaker 18 is only 10 cm away from the display 16 while the left speaker 17 is 2 meters away from the display 16 having a width of 30 cm. Can be used as information.

さらに、音響環境情報DB23は、PC10が有する音声出力デバイスに関する音響環境情報を保持するデータベースである。例えば、音響環境情報DB23は、音声を出力しているデバイスがスピーカかヘッドフォンか、スピーカやヘッドフォンの種類、あるいは音声のチャネル数等、音声出力デバイスの種類を示す音声出力デバイス情報を格納している。   Furthermore, the acoustic environment information DB 23 is a database that stores acoustic environment information related to the audio output device of the PC 10. For example, the acoustic environment information DB 23 stores audio output device information indicating the type of audio output device, such as whether the device outputting audio is a speaker or headphones, the type of speakers or headphones, or the number of audio channels. .

音声出力環境情報の他の例として、音声出力デバイスが上下、奥行き方向などの出力に対応している場合は、それぞれに対してのディスプレイ16との相対位置関係がある。
これらの音声出力デバイス情報や音響環境情報は、予め画面上で入力された定量的な固定値でもよいし、予め作成された数値例から所望の数値を画面上で選択するようにしてもよい。また、ユーザが希望の固定値を直接入力するようにしてもよい。さらに、例えば、GUI(Graphical User Interface)を用いて、ディスプレイ16とスピーカ17,18との配置状況を設定する定性的な設定方法によって入力することもできる。このGUIを用いた設定方法については、後述する。
As another example of the audio output environment information, when the audio output device supports output in the vertical direction and the depth direction, there is a relative positional relationship with the display 16 for each.
These audio output device information and acoustic environment information may be quantitative fixed values input in advance on the screen, or desired numerical values may be selected on the screen from numerical examples created in advance. Alternatively, the user may directly input a desired fixed value. Further, for example, the input can be performed by a qualitative setting method for setting the arrangement state of the display 16 and the speakers 17 and 18 using a GUI (Graphical User Interface). A setting method using this GUI will be described later.

このようなPC10が各種アプリケーションに基づいて動作を行うとき、CPU11は、このアプリケーションを外部記憶装置13から読み出してからメモリ12上に展開して実行する。これによって、アプリケーションが起動し、CPU11が制御する各種処理は、この起動したアプリケーションによって実行される。具体的には、起動したアプリケーションは、各種データを読み込んだり生成したり、あるいは各種データをメモリ12、通信制御部14等の各種機能部や画面表示情報DB22、音響環境情報DB23等の各種データベースに入力したりすることができる。   When such a PC 10 performs an operation based on various applications, the CPU 11 reads the application from the external storage device 13, expands it on the memory 12, and executes it. As a result, the application is activated, and various processes controlled by the CPU 11 are executed by the activated application. Specifically, the activated application reads or generates various data, or stores the various data in various databases such as the memory 12, the communication control unit 14, the screen display information DB 22, and the acoustic environment information DB 23. Or enter.

次に、本発明に係るPC10の処理動作について説明する。
まず、図2を用いて、本発明に係るPC10の全体処理について説明する。ここで、適宜図3を参照しながら説明する。図2は、本発明に係るPC10の処理動作の一例を示すフローチャートである。
ユーザは、初めにPC10において所定のアプリケーションを起動させる(S101)。この起動したアプリケーション・プログラムは、映像の画面表示位置、表示サイズなどの設定値(画面表示情報)を画面表示情報DB22から読み込む(S102)。アプリケーション・プログラムは、この読み込んだ設定値を画面表示制御部160に入力する。画面表示制御部160は、入力された設定値に基づいてディスプレイ16の表示制御を行い、映像の表示を行う。
Next, the processing operation of the PC 10 according to the present invention will be described.
First, the overall processing of the PC 10 according to the present invention will be described with reference to FIG. Here, it demonstrates, referring FIG. 3 suitably. FIG. 2 is a flowchart showing an example of the processing operation of the PC 10 according to the present invention.
The user first activates a predetermined application on the PC 10 (S101). The activated application program reads setting values (screen display information) such as the screen display position and display size of the video from the screen display information DB 22 (S102). The application program inputs the read setting value to the screen display control unit 160. The screen display control unit 160 performs display control of the display 16 based on the input set value, and displays video.

アプリケーションは、読み込んだ設定値に基づいて、左右のスピーカ17,18を合わせて出力する音声出力値を算出して決定する(S103)。この音声出力値の決定は、次のように行われる。
図3に、音声出力値の決定時における表示画面の一例が示されている。図3においては、3つのアプリケーションが起動し、ディスプレイ16の表示部分300の横に、左から3分割した画面301、画面302、画面303が表示されている。例えば、画面301にはワードプロセッサアプリケーション、画面302にはビデオ再生アプリケーション、画面303にはテレビ会議アプリケーションが表示されている。これらのアプリケーションによる音声出力はステレオ音声であり、画面301に対応する音声はL、R、画面302、画面303に対応する音声も同様にL、R、L、Rとする。このとき、PC10のディスプレイ16のすぐ脇に左右スピーカ17,18がある場合には、それぞれの出力音量L、Rは例えば、

Figure 2006270425
Figure 2006270425
となる。
従って、アプリケーション・プログラムは、音声出力値を決定するとき、画面301〜303に対応する音声L、R、L、R、L、Rを取得し、式(1)、式(2)から左右のスピーカ17,18それぞれの出力音量L、Rを算出する。 Based on the read setting value, the application calculates and determines an audio output value to be output by combining the left and right speakers 17 and 18 (S103). The audio output value is determined as follows.
FIG. 3 shows an example of a display screen when the audio output value is determined. In FIG. 3, three applications are activated, and a screen 301, a screen 302, and a screen 303 that are divided into three from the left are displayed beside the display portion 300 of the display 16. For example, a screen 301 displays a word processor application, a screen 302 displays a video playback application, and a screen 303 displays a video conference application. The audio output by these applications is stereo audio, and the audio corresponding to the screen 301 is L 1 , R 1 , and the audio corresponding to the screen 302 and the screen 303 is also L 2 , R 2 , L 3 , R 3 . . At this time, when the left and right speakers 17 and 18 are immediately adjacent to the display 16 of the PC 10, the respective output volumes L and R are, for example,
Figure 2006270425
Figure 2006270425
It becomes.
Therefore, the application program acquires the voices L 1 , R 1 , L 2 , R 2 , L 3 , and R 3 corresponding to the screens 301 to 303 when determining the voice output value, and the expressions (1) and (3) are obtained. From (2), the output volumes L and R of the left and right speakers 17 and 18 are calculated.

このようにすると、画面301に表示されているアプリケーションの音像位置は、画面301に対応した幅の中で決定される。そのため、画面302や画面303のアプリケーションの音像位置とは重ならず、聞こえている音声がどのアプリケーションのものかを判別しやすくなる。また、上記のようにすると、出力する音声のステレオ効果が損なわれず、臨場感を増すことができる。   In this way, the sound image position of the application displayed on the screen 301 is determined within a width corresponding to the screen 301. Therefore, it does not overlap with the sound image position of the application on the screen 302 or the screen 303, and it becomes easy to determine which application the sound being heard belongs to. Moreover, if it does as mentioned above, the stereo effect of the audio | voice to output is not impaired and a sense of reality can be increased.

また、図3では表示部分300を横に3分割した3つの画面301〜303が表示された場合であったが、表示部分300をn分割した場合は以下のようにL、Rを求めることができる。

Figure 2006270425
Figure 2006270425
In FIG. 3, three screens 301 to 303 obtained by dividing the display portion 300 into three are displayed. However, when the display portion 300 is divided into n, L and R can be obtained as follows. it can.
Figure 2006270425
Figure 2006270425

その後、アプリケーション・プログラムは、音響環境情報DB23から、ディスプレイ16とスピーカ17,18との位置関係等の音響環境情報を読み出し(S104)、読み出した音響環境情報に基づいて、実際のスピーカ17,18の出力音量を制御する(S105)。すなわち、アプリケーション・プログラムは、左スピーカ17からの出力音量と右スピーカ18からの出力音量によって実際に出力される出力音量が、設定値に基づいて決定された音声出力値となるように制御する。詳細には、アプリケーション・プログラムは、読み出した音響環境情報に基づいて音声の出力量を制御するための制御データを生成し、音声制御部170に入力する。音声制御部170は、この入力された制御データに基づき、スピーカ17,18それぞれに対して音声制御データを入力する。スピーカ17,18は、この音声制御データに基づいた適量の出力量で音声を出力する(S106)。   Thereafter, the application program reads acoustic environment information such as the positional relationship between the display 16 and the speakers 17 and 18 from the acoustic environment information DB 23 (S104), and based on the read acoustic environment information, the actual speakers 17 and 18 are read. Is controlled (S105). That is, the application program controls so that the output volume actually output by the output volume from the left speaker 17 and the output volume from the right speaker 18 becomes the audio output value determined based on the set value. Specifically, the application program generates control data for controlling the output amount of sound based on the read acoustic environment information, and inputs the control data to the sound control unit 170. The voice control unit 170 inputs voice control data to the speakers 17 and 18 based on the input control data. The speakers 17 and 18 output sound with an appropriate output amount based on the sound control data (S106).

アプリケーション・プログラムは、スピーカ17,18から音声が出力された後、当該アプリケーションの終了要求があるかどかを確認し(S107)、要求がない場合はループしてS101の処理へ戻る。また、アプリケーション・プログラムは、終了要求があった場合は各種処理を終了する。
このような一連の処理S101〜S107によって、例えば、ユーザがアプリケーションの表示画面のサイズを拡大・縮小したり、表示画面の表示位置を右から左へ移動させたりしても、その都度、出力音量や音像位置を画面表示に追従させることができる。
After the sound is output from the speakers 17 and 18, the application program checks whether or not there is a request to end the application (S107). If there is no request, the application program loops and returns to the processing of S101. Further, the application program ends various processes when there is a termination request.
Through such a series of processes S101 to S107, for example, each time the user enlarges / reduces the size of the display screen of the application or moves the display position of the display screen from right to left, the output volume And the sound image position can follow the screen display.

続いて、図4を用いて、本発明に係るPC10の画面表示情報の設定処理について説明する。図4は、この画面表示情報の設定処理の一例を示すフローチャートである。
ユーザは、キーボード・マウス15を用いて、ディスプレイ16の画面上に表示されているアプリケーションの表示位置や表示サイズを変更する(S111)。すると、アプリケーション・プログラムは、ユーザ入力制御部150からアプリケーションの表示位置や表示サイズを取得し(112)、画面表示情報DB22に格納する。これによって、その都度、画面表示情報DB22が更新され(S113)、画面表示情報の設定が完了する。
それとともに、アプリケーション・プログラムは、ユーザ入力制御部150から、この変更されたアプリケーションの表示位置や表示サイズを示すデータを取得する。アプリケーション・プログラムは、取得した表示位置や表示サイズを画面表示制御部160に入力し、画面表制御部160はこれらに基づいてディスプレイ16の表示画面を変更する(S114)。
Next, the screen display information setting process of the PC 10 according to the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing an example of the screen display information setting process.
The user changes the display position and display size of the application displayed on the screen of the display 16 using the keyboard / mouse 15 (S111). Then, the application program acquires the display position and display size of the application from the user input control unit 150 (112), and stores them in the screen display information DB 22. Thereby, the screen display information DB 22 is updated each time (S113), and the setting of the screen display information is completed.
At the same time, the application program acquires data indicating the display position and display size of the changed application from the user input control unit 150. The application program inputs the acquired display position and display size to the screen display control unit 160, and the screen table control unit 160 changes the display screen of the display 16 based on these (S114).

なお、ここでは最後のS114において表示画面の変更が行われているが、これに限らず、表示画面の変更をS111〜S114の途中で行ってもよい。例えば、S111におけるアプリケーションの表示位置・大きさの変更指示を行った後すぐに、S114の表示画面の変更を行い、続いてS112の表示位置・大きさの情報の取得、S113の画面表示情報DB22の変更を行ってもよい。   Here, the display screen is changed in the last S114. However, the present invention is not limited to this, and the display screen may be changed in the middle of S111 to S114. For example, immediately after an instruction to change the display position / size of the application in S111 is performed, the display screen is changed in S114, the display position / size information is acquired in S112, and the screen display information DB 22 in S113 is acquired. Changes may be made.

またさらに、ユーザがアプリケーション内での映像の表示位置を移動したりした場合についても、図4に示された処理と同様の処理が行われる。アプリケーション・プログラムは、ユーザ入力制御部150から映像の表示位置を取得し、画面表示情報DB22に格納する。これによって、画面表示情報DB22が更新され、画面表示情報の設定が完了する。
それとともに、アプリケーション・プログラムは、ユーザ入力制御部150から、この変更された表示位置を示すデータを取得する。アプリケーション・プログラムは、取得した表示位置を画面表示制御部160に入力し、画面表制御部160はこれらに基づいてディスプレイ16の表示画面を変更する。
Furthermore, when the user moves the display position of the video within the application, the same processing as that shown in FIG. 4 is performed. The application program acquires the display position of the video from the user input control unit 150 and stores it in the screen display information DB 22. Thereby, the screen display information DB 22 is updated, and the setting of the screen display information is completed.
At the same time, the application program acquires data indicating the changed display position from the user input control unit 150. The application program inputs the acquired display position to the screen display control unit 160, and the screen table control unit 160 changes the display screen of the display 16 based on these.

またさらに、ユーザが別のアプリケーションを起動した場合についても同様である。すなわち、この別のアプリケーションが起動するのに応じて、この別のアプリケーションのプログラムは、アプリケーションの起動を示すデータを取得し、画面表示情報DB22に格納する。これによって、画面表示情報DB22が更新され、画面表示情報の設定が完了する。それとともに、別個起動したアプリケーション・プログラムは、アプリケーションの表示画面を示すデータを画面表示制御部160に入力する。画面表制御部160は、これに基づいて、起動されたアプリケーション画面を表示する。   The same applies to the case where the user starts another application. That is, in response to the activation of this other application, the program of this other application acquires data indicating the activation of the application and stores it in the screen display information DB 22. Thereby, the screen display information DB 22 is updated, and the setting of the screen display information is completed. At the same time, the separately activated application program inputs data indicating the display screen of the application to the screen display control unit 160. Based on this, the screen table control unit 160 displays the activated application screen.

さらに続いて、図5を用いて、本発明に係るPC10の音響環境情報の設定処理について説明する。ここで、適宜図1及び図6を参照しながら説明する。図5は、この音響環境情報の設定処理の一例を示すフローチャートである。ここでは、上記のGUIを用いた設定方法について説明する。
ユーザは、キーボード・マウス15を用いて、ディスプレイ16の画面上で音響環境を入力する(S121)。図6に、ディスプレイ16に表示された表示画面の一例が示されている。図6に示すように、表示部分310下部のアイコンフィールド410に、ディスプレイ用アイコン411、左スピーカ用アイコン412、右スピーカ用アイコン413が予め用意されている。ユーザは、キーボード・マウス15を使用して、表示部分310上部の配置フィールド420にアイコン411〜413をドラッグ&ドロップ等によって移動させる。すると、アプリケーション・プログラムは、ユーザ入力制御部150を介して、アイコン411〜413の大きさと表示位置を自動的に読み取る。アプリケーション・プログラムは、この読み取ったデータに基づいて、ディスプレイ16とスピーカ17,18の位置関係を算出する(S122)。
Subsequently, the acoustic environment information setting process of the PC 10 according to the present invention will be described with reference to FIG. Here, description will be made with reference to FIGS. 1 and 6 as appropriate. FIG. 5 is a flowchart showing an example of the acoustic environment information setting process. Here, a setting method using the above-described GUI will be described.
The user inputs the acoustic environment on the screen of the display 16 using the keyboard / mouse 15 (S121). FIG. 6 shows an example of a display screen displayed on the display 16. As shown in FIG. 6, a display icon 411, a left speaker icon 412, and a right speaker icon 413 are prepared in advance in the icon field 410 below the display portion 310. The user uses the keyboard / mouse 15 to move the icons 411 to 413 to the arrangement field 420 at the top of the display portion 310 by drag and drop or the like. Then, the application program automatically reads the sizes and display positions of the icons 411 to 413 via the user input control unit 150. The application program calculates the positional relationship between the display 16 and the speakers 17 and 18 based on the read data (S122).

アプリケーション・プログラムは、算出した位置関係を示すデータを音響環境情報DB23へ格納し、音響環境DB23が更新される(S123)。これによって、音響環境情報の設定が完了し、ディスプレイ16とスピーカ17,18との相対位置が設定される。また、ディスプレイ16とスピーカ17,18の相対位置をより直感的に設定しやすくするように、アイコン411〜413を拡大、縮小できるようにしてもよい。また、左右のスピーカ17,18のアイコン412,413を右用、左用に分けず、ディスプレイ用アイコン411の左にあるスピーカアイコンを左スピーカ、右にあるスピーカアイコンを右スピーカと自動的に判別するようにしてもよい。   The application program stores data indicating the calculated positional relationship in the acoustic environment information DB 23, and the acoustic environment DB 23 is updated (S123). Thereby, the setting of the acoustic environment information is completed, and the relative position between the display 16 and the speakers 17 and 18 is set. The icons 411 to 413 may be enlarged or reduced so that the relative position between the display 16 and the speakers 17 and 18 can be set more intuitively. Further, the icons 412 and 413 of the left and right speakers 17 and 18 are not divided into right and left, and the speaker icon on the left of the display icon 411 is automatically discriminated as the left speaker and the speaker icon on the right is automatically discriminated as the right speaker. You may do it.

また、音響環境情報DB23の設定入力は、本発明に係る音響出力処理アプリケーションが起動していないときでも、ユーザ入力によって直接データベースを更新できるようにしておいてもよい。さらに、ユーザがこれらを入力しない場合に備えて、代表的な値を初期設定として設定しておいてもよい。
また、ユーザの直接入力によって音響環境情報DB22を更新する場合もまた、同様に処理が行われる。この場合は、アプリケーションが起動中である必要はない。
The setting input of the acoustic environment information DB 23 may be configured so that the database can be directly updated by user input even when the acoustic output processing application according to the present invention is not activated. Furthermore, representative values may be set as initial settings in case the user does not input them.
Further, when the acoustic environment information DB 22 is updated by direct user input, the same processing is performed. In this case, the application need not be running.

以上のように、本発明によれば、ディスプレイ16上に表示されている各アプリケーションの表示位置が画面表示情報DB22に格納されている。そのため、この格納された画面表示情報に基づいて、左右のスピーカ17,18それぞれから出力される音量を調節することができる。それ故、ディスプレイ16上に複数のアプリケーションが起動している場合でも、ディスプレイ16上に表示されている各アプリケーションの表示位置に、音像位置を対応させることができる。従って、ユーザは、出力音声がどのアプリケーションで出力した音声か、画面の内容を確認しなくても、音声を聞いただけで直感的に判別することができる。   As described above, according to the present invention, the display position of each application displayed on the display 16 is stored in the screen display information DB 22. Therefore, the volume output from each of the left and right speakers 17 and 18 can be adjusted based on the stored screen display information. Therefore, even when a plurality of applications are activated on the display 16, the sound image position can be associated with the display position of each application displayed on the display 16. Therefore, the user can intuitively discriminate by simply listening to the sound without confirming which application the output sound is the sound output from.

特に、コンソールアプリケーションなどで、同一のビープ音が出力されたりした場合には、ユーザは聞こえるビープ音の方向が判別することができるので、上記の効果が顕著となる。また、左右のスピーカ17,18が画面から遠いところに配置されている場合や、左右のスピーカ17,18の中央に画面がない場合でも、画面表示位置と音像位置とが対応しているので、上記の効果と同様の効果を得ることができる。   In particular, when the same beep sound is output in a console application or the like, the user can determine the direction of the beep sound that can be heard, and thus the above-described effect becomes remarkable. In addition, even when the left and right speakers 17 and 18 are arranged far from the screen or when there is no screen at the center of the left and right speakers 17 and 18, the screen display position and the sound image position correspond to each other. Effects similar to the above effects can be obtained.

さらに、ディスプレイ16の位置とスピーカ17,18の位置、種類などの音響環境情報が音響環境情報DB23に格納されている。それとともに、出力音量の変更時は、ディスプレイ16とスピーカ17,18それぞれまでの距離を、出力音量を決定付けるパラメータとして使用する。そのため、この音響環境情報に基づいて、スピーカ17,18からの出力音量を変えることができる。それ故、ディスプレイ16とスピーカ17,18の位置関係に依存せずに、ディスプレイ16の位置に対応した音像位置から音声を出力することができる。   Further, acoustic environment information such as the position of the display 16 and the positions and types of the speakers 17 and 18 is stored in the acoustic environment information DB 23. At the same time, when changing the output volume, the distance between the display 16 and each of the speakers 17 and 18 is used as a parameter for determining the output volume. Therefore, the output volume from the speakers 17 and 18 can be changed based on this acoustic environment information. Therefore, the sound can be output from the sound image position corresponding to the position of the display 16 without depending on the positional relationship between the display 16 and the speakers 17 and 18.

なお、モノラル出力のアプリケーションに関しては、音声出力を決める代表位置を決定することにより、本発明を適用可能になる。またなお、音声出力デバイスの出力チャネル数が2チャンネルだった場合は、ディスプレイの横幅と、ディスプレイ16の左右の端から音声出力デバイスまでの距離の相対関係がパラメータとすることができる。   For monaural output applications, the present invention can be applied by determining a representative position that determines audio output. In addition, when the number of output channels of the audio output device is 2, the relative relationship between the horizontal width of the display and the distance from the left and right ends of the display 16 to the audio output device can be used as a parameter.

さらにまた、音響環境情報DB32は、アプリケーションの起動状況にかかわらずいつでも、変更・更新することが可能である。それとともに、出力音量の決定時に毎回音響環境情報DB23の内容を参照する。そのため、アプリケーションが起動中か否かにかかわらず、音声出力デバイスの種類や位置を変更すると、出力音量の変更を随時追随することができる。それ故、ユーザは、常に最適な音響環境で音声を聞くことができる。   Furthermore, the acoustic environment information DB 32 can be changed / updated at any time regardless of the activation status of the application. At the same time, the contents of the acoustic environment information DB 23 are referred to every time the output volume is determined. Therefore, regardless of whether the application is running or not, changing the type and position of the audio output device can follow the change in the output volume at any time. Therefore, the user can always listen to the sound in an optimal acoustic environment.

このように、画面表示情報DB22の画面表示情報、音響環境情報DB23の音響環境情報を読み出しているので、アプリケーション画面の表示位置が変わったり、起動中のアプリケーションの数が増減したりしても、音像位置が追従する。そのため、ユーザはいつでも安心して自分の好みどおりの映像配置に変更することができる。   Thus, since the screen display information of the screen display information DB 22 and the acoustic environment information of the acoustic environment information DB 23 are read, even if the display position of the application screen changes or the number of running applications increases or decreases, The sound image position follows. Therefore, the user can change the video arrangement to his / her preference at any time with peace of mind.

また、ディスプレイ16とスピーカ17,18の相対位置をパラメータとしているため、定量的な距離を把握する必要がない。そのため、ユーザは、定量的な値で設定値を入力することなく、GUIなどのユーザインターフェースを用いて、感覚的にディスプレイとスピーカ17,18の音像位置を簡便に指定することができる。   Further, since the relative position between the display 16 and the speakers 17 and 18 is used as a parameter, there is no need to grasp a quantitative distance. Therefore, the user can easily specify the sound image positions of the display and the speakers 17 and 18 using a user interface such as a GUI without inputting a set value as a quantitative value.

発明の実施の形態2.
発明の実施の形態1においては、音声出力値の決定時における表示画面が画面301〜303に等分に分割されていたが、これに限らず、アプリケーションの起動画面を任意の場所に表示することができる。
図7に、音声出力値の決定時における表示画面の他の一例が示されている。図7においては、2つのアプリケーションが起動し、表示部分310に、2つの画面311、画面312が表示されている。表示部分310の左端を0とし、そこから各画面311,312の右端、左端までの長さをそれぞれxL1、xR1、xL2、xR2し、画面311の左端から右端までの長さをxdispとする。また、画面311に表示されているアプリケーションのステレオ音声をL、R、画面312の音声を同様にL、Rとする。ステレオ音声を再生するスピーカLとRは、ディスプレイ16の表示部分310の左端、右端に配置されている。
このとき、L、Rから出力される音声は例えばそれぞれ以下のようになる。

Figure 2006270425
Figure 2006270425
上記の画面311,312の数を2箇所ではなくn箇所とした場合は、以下のように表すことができる。
Figure 2006270425
Figure 2006270425
図8に、音声出力値の決定時における表示画面の他の一例が示されている。この図8は、アプリケーションからの音声出力がモノラルである場合の表示画面である。図8は図7と同様に、2つのアプリケーションを起動し、それぞれを画面に表示している。各画面に対する音声出力の基準点をあらかじめ決定しておく。基準点は通常、ディスプレイ16の表示部分における横方向の中央などにする。図8では、表示部分310の左端を0とし、そこから各基準点までの長さを、それぞれxM1,xM2し、画面311の左端から右端までの長さを図7と同様にxdispとする。また、画面311に表示されているアプリケーションのモノラル音声をM、画面312の音声を同様にMとする。音声を再生するステレオスピーカLとRは、画面の左端、右端に配置されている。
このとき、L、Rから出力される音声は例えばそれぞれ以下のようになる。
Figure 2006270425
Figure 2006270425
上記の画面311,312の数を2箇所ではなくn箇所とした場合は、以下のように表すことができる。
Figure 2006270425
Figure 2006270425
Embodiment 2 of the Invention
In the first embodiment of the invention, the display screen at the time of determining the audio output value is divided equally into the screens 301 to 303. However, the present invention is not limited to this, and the application startup screen is displayed at an arbitrary location. Can do.
FIG. 7 shows another example of the display screen when the audio output value is determined. In FIG. 7, two applications are activated, and two screens 311 and 312 are displayed on the display portion 310. The left end of the display portion 310 is set to 0, the lengths from there to the right end and the left end of each screen 311, 312 are respectively x L1 , x R1 , x L2 , x R2 , and the length from the left end to the right end of the screen 311 is Let x disp be. Further, the stereo sound of the application displayed on the screen 311 is assumed to be L 1 and R 1 , and the sound on the screen 312 is similarly assumed to be L 2 and R 2 . The speakers L and R for reproducing stereo sound are arranged at the left end and the right end of the display portion 310 of the display 16.
At this time, sounds output from L and R are as follows, for example.
Figure 2006270425
Figure 2006270425
When the number of the screens 311 and 312 is n instead of two, it can be expressed as follows.
Figure 2006270425
Figure 2006270425
FIG. 8 shows another example of the display screen when the audio output value is determined. FIG. 8 shows a display screen when the audio output from the application is monaural. As in FIG. 7, FIG. 8 starts two applications and displays them on the screen. A reference point for audio output for each screen is determined in advance. The reference point is usually set at the horizontal center of the display portion of the display 16 or the like. In FIG. 8, the left end of the display portion 310 is set to 0, the lengths from there to the respective reference points are x M1 and x M2 , respectively, and the length from the left end to the right end of the screen 311 is set to x disp as in FIG. And In addition, it is assumed that the monaural sound of the application displayed on the screen 311 is M 1 , and the sound of the screen 312 is similarly M 2 . Stereo speakers L and R for reproducing sound are arranged at the left and right ends of the screen.
At this time, sounds output from L and R are as follows, for example.
Figure 2006270425
Figure 2006270425
When the number of the screens 311 and 312 is n instead of two, it can be expressed as follows.
Figure 2006270425
Figure 2006270425

また、アプリケーションによって、モノラル音声出力とステレオ音声出力それぞれのアプリケーションが混ざって実行されていることがある。この場合は、式(7)、式(8)、式(11)、式(12)をLとRに分けて加算するなどすることで、適切な出力値を求めることができる。   Further, depending on the application, there may be cases where the monaural audio output and the stereo audio output are mixed and executed. In this case, an appropriate output value can be obtained by dividing Formula (7), Formula (8), Formula (11), and Formula (12) into L and R and adding them.

これらの方法を用いると、ディスプレイ16上の各アプリケーションが左右に離れて配置されていたり、逆に重なり合う位置に配置されていたりする場合も、各画面表示位置に適応した音像位置で音声を聞くことができる。つまり、各画面表示位置をどのように配置しても、それぞれの音像位置を柔軟に対応させることができる。また、音声出力デバイスが3チャネル以上ある場合など上下や奥行きなどの音像位置を表現できる場合には、映像の上下方向に関する位置の差を算出してもよい。   When these methods are used, even when the applications on the display 16 are arranged apart from each other on the left and right, or on the contrary, they are heard at a sound image position adapted to each screen display position. Can do. That is, no matter how the screen display positions are arranged, the respective sound image positions can be flexibly associated. In addition, when the sound image position such as up and down and depth can be expressed, such as when there are three or more audio output devices, the position difference in the vertical direction of the video may be calculated.

発明の実施の形態3.
発明の実施の形態1〜3においては、左右のスピーカ17,18から出力される音量をアプリケーション画面から決定しているが、PC10とスピーカ17,18との物理的な配置関係から決定することもできる。
図9に、PC10とスピーカ17,18との配置関係の一例が示されている。左スピーカ17と右スピーカ18の位置がディスプレイ16から離れており、左スピーカ17からディスプレイ16の左端までの距離をD、ディスプレイ16の左端から右端までの距離をDdisp、ディスプレイ16の右端から右スピーカ18までの距離をDとする。また、ディスプレイ16に隣接した位置に最適化した場合のスピーカ出力値を、左右それぞれLdisp、Rdispとする。このとき、左右のスピーカ17,18からの出力音量バランスL、Rは、例えば下記のように表すことができる。

Figure 2006270425
Figure 2006270425
Embodiment 3 of the Invention
In the first to third embodiments of the present invention, the sound volume output from the left and right speakers 17 and 18 is determined from the application screen, but may be determined from the physical arrangement relationship between the PC 10 and the speakers 17 and 18. it can.
FIG. 9 shows an example of an arrangement relationship between the PC 10 and the speakers 17 and 18. The positions of the left speaker 17 and the right speaker 18 are separated from the display 16, the distance from the left speaker 17 to the left end of the display 16 is D L , the distance from the left end to the right end of the display 16 is D disp , and the right end of the display 16 is Let the distance to the right speaker 18 be DR. In addition, the speaker output values when optimized at a position adjacent to the display 16 are L disp and R disp respectively. At this time, the output volume balances L and R from the left and right speakers 17 and 18 can be expressed as follows, for example.
Figure 2006270425
Figure 2006270425

このように、上記の式(13)、式(14)を用いることにより、ディスプレイ16がスピーカ17,18の中央にない場合であっても、ディスプレイ16の位置に適合した音像位置となるよう音量バランスを決定することができる。また、音声出力デバイスが上下や奥行きなどの音像位置を表現できる場合は、ディスプレイ位置に適合した音像位置になるよう、別途計算してもよい。   Thus, by using the above formulas (13) and (14), the sound volume is adjusted so that the sound image position is suitable for the position of the display 16 even when the display 16 is not in the center of the speakers 17 and 18. Balance can be determined. Further, when the sound output device can express the sound image position such as up and down and depth, the sound output device may be separately calculated so that the sound image position matches the display position.

発明の実施の形態4.
発明の実施の形態1〜3においては音声出力デバイスとしてスピーカが用いられた場合について説明したが、スピーカに替えてヘッドフォンを用いることができる。この場合にも、PC10の内部構成は同様であり、ヘッドフォンは、PC10の音声出力制御部170に接続されている。
Embodiment 4 of the Invention
In the first to third embodiments of the present invention, the case where a speaker is used as an audio output device has been described. However, headphones can be used instead of the speaker. Also in this case, the internal configuration of the PC 10 is the same, and the headphones are connected to the audio output control unit 170 of the PC 10.

図10に、音声出力デバイスとしてヘッドフォンを用いた場合の配置状態が示されている。図10に示すように、ユーザ50の正面にディスプレイ51が配置され、このユーザ50はヘッドフォン52を装着している。この場合、ユーザ50には、Ldispの音声が左隣の位置から聞こえ、Rdispの音声が右隣の位置から聞こえている。この場合、音声は180度の広がりを持ってユーザ50に聞こえるが、映像は正面に表示されている。ユーザ50にとっては、視覚と聴覚での感覚に不一致が生じるので、不快に感じたり、混乱を招いたりする可能性がある。 FIG. 10 shows an arrangement state when headphones are used as an audio output device. As shown in FIG. 10, a display 51 is disposed in front of the user 50, and the user 50 wears headphones 52. In this case, the user 50 can hear the voice of L disp from the position on the left and the voice of R disp from the position on the right. In this case, the sound is heard by the user 50 with a spread of 180 degrees, but the video is displayed on the front. For the user 50, there is a discrepancy between visual and auditory senses, which may cause uncomfortable feelings or confusion.

ヘッドフォン52が用いられる場合には、例えば、図11に示すように、アイコンフィールド410に、ヘッドフォン52の利用を示すチェックボックス414が用意されている。このチェックボックス414がチェックされている場合には、左右のスピーカ用アイコン412,413は、ヘッドフォン52の左右の音声出力デバイスに対応付けられている。
詳細には、ユーザがチェックボックス414をチェックすると、アプリケーション・プログラムは、チェックボックス14がチェックされたことを示すデータを取得し、このデータを音響環境情報DB23に格納する。アプリケーション・プログラムは、このチェックに関するデータとともに音響環境情報を音響環境情報DB23から読み込み、上記スピーカ17,18が用いられた場合の処理と同様の処理が行われる。これによって、予め決められた相対位置の情報を使用してヘッドフォン52に左右の音声出力デバイスから出力される音声出力量が算出される。
When the headphones 52 are used, for example, as shown in FIG. 11, a check box 414 indicating use of the headphones 52 is prepared in the icon field 410. When the check box 414 is checked, the left and right speaker icons 412 and 413 are associated with the left and right audio output devices of the headphones 52.
Specifically, when the user checks the check box 414, the application program acquires data indicating that the check box 14 is checked, and stores this data in the acoustic environment information DB 23. The application program reads the acoustic environment information from the acoustic environment information DB 23 together with the data relating to this check, and the same processing as that when the speakers 17 and 18 are used is performed. Accordingly, the audio output amount output from the left and right audio output devices to the headphones 52 is calculated using information on a predetermined relative position.

なお、ヘッドフォン52を用いた場合もまた、音声出力デバイス情報や音響環境情報の設定方法は、上記のようにGUIを用いた定性的な設定方法に限られない。定量的な設定方法の一例として、ユーザが予め画面上で希望する定量的な固定値を直接入力したり、予め作成された数値例から所望の数値を画面上で選択したりしてもよい。このように、ユーザが具体的な数値を入力することによって擬似的に環境を模擬することが可能となる。   Even when the headphones 52 are used, the setting method of the audio output device information and the acoustic environment information is not limited to the qualitative setting method using the GUI as described above. As an example of a quantitative setting method, a user may directly input a quantitative fixed value desired on the screen in advance, or may select a desired numerical value on the screen from numerical examples created in advance. In this way, the user can simulate the environment in a pseudo manner by inputting a specific numerical value.

また、配置フィールドにおいて、左右のスピーカ用アイコン412,413をディスプレイの横幅より十分離して配置して計算することにより、状況を擬似的に作り出すことができる。このような方法で、出力調整方法を利用すれば、聞こえる音像位置をディスプレイの見える位置にあわせて、中心部など好きな位置へずらすことができる。これにより、ユーザ50が実際に見ている画面の位置と、聞こえている音像位置が比較的一致するので、不快感を少なくすることができる。   Further, in the arrangement field, the situation can be created in a pseudo manner by calculating by arranging the left and right speaker icons 412 and 413 far apart from the horizontal width of the display. If the output adjustment method is used in this way, the position of the sound image that can be heard can be shifted to a desired position such as the center portion in accordance with the position where the display can be seen. As a result, the position of the screen that the user 50 is actually looking at and the position of the sound image that is heard are relatively matched, so that discomfort can be reduced.

また、図10においては、ヘッドフォン52における仮想的な左右の音声出力デバイスの配置を決定するものであったが、音声出力デバイスが3チャネル以上の出力チャネルである場合には上下方向も表現可能であり、5.1chシステムなどで奥行きなども表現可能である。このような場合には、図11と同様のGUIによって、ヘッドフォン52における仮想的な左右の音声出力デバイスの相対位置を設定できるようにすることができる。   In FIG. 10, the arrangement of the virtual left and right audio output devices in the headphone 52 is determined. However, when the audio output device has three or more output channels, the vertical direction can also be expressed. Yes, depth can be expressed with 5.1ch system. In such a case, it is possible to set the relative positions of the virtual left and right audio output devices in the headphones 52 using the same GUI as in FIG.

すなわち、ヘッドフォン52を音声出力デバイスとして用いた場合にも、ディスプレイ16と仮想的な左右の音声出力デバイスとの相対位置をパラメータとしている。そのため、定量的な距離が入力できなくても画面の表示位置と音像位置とを対応させることが可能となる。それ故、画面の表示位置内容やユーザからのディスプレイの見える角度などに応じて、発明の実施の形態1〜3と同様の効果を得ることができる。
このように、ヘッドフォン52への音声出力を行うたびに画面表示情報DB22の画面表示情報、音響環境情報DB23の音響環境情報を読み出しているので、アプリケーションの実行中に音声出力デバイスをスピーカ17,18からヘッドフォン52に変更したしても、音像位置が追従する。そのため、ユーザはいつでも安心して自分の好みどおりの映像配置に変更することができる。
That is, even when the headphone 52 is used as an audio output device, the relative position between the display 16 and the virtual left and right audio output devices is used as a parameter. Therefore, even if a quantitative distance cannot be input, it is possible to make the display position on the screen correspond to the sound image position. Therefore, the same effects as those of the first to third embodiments of the present invention can be obtained according to the display position contents of the screen, the viewing angle of the display from the user, and the like.
As described above, since the screen display information of the screen display information DB 22 and the acoustic environment information of the acoustic environment information DB 23 are read each time audio is output to the headphones 52, the audio output device is connected to the speakers 17 and 18 during execution of the application. Even if the headphone 52 is changed, the sound image position follows. Therefore, the user can change the video arrangement to his / her preference at any time with peace of mind.

発明の実施の形態5.
発明の実施の形態1〜4においては、汎用PC10上に画面表示と音声出力を同時に行うアプリケーションを複数実行した場合に、各アプリケーションの表示位置と音像位置を合わせる場合について説明した。
本実施形態においては、同一アプリケーション/システム内(以下、これをまとめてアプリケーションと呼ぶ)で、複数の画面表示部とそれぞれに対応する音声出力がある場合について説明する。本実施形態では、複数の通信相手からそれぞれ映像、音声を受信して表示、再生するテレビ会議システムを例に説明する。
なお、本実施形態では、汎用PC上でテレビ会議用アプリケーションを実行してテレビ会議を実現するものとして説明するが、本発明は、専用のハードウェアやシステムを用いてテレビ会議機能を実現するシステムに適用することができる。
Embodiment 5 of the Invention
In the first to fourth embodiments of the invention, a case has been described in which when a plurality of applications that simultaneously perform screen display and audio output are executed on the general-purpose PC 10, the display position of each application and the sound image position are matched.
In the present embodiment, a case will be described in which there are a plurality of screen display units and corresponding audio outputs in the same application / system (hereinafter collectively referred to as an application). In this embodiment, a video conference system that receives, displays, and reproduces video and audio from a plurality of communication partners will be described as an example.
In the present embodiment, the video conference application is executed by executing the video conference application on the general-purpose PC. However, the present invention is a system that realizes the video conference function using dedicated hardware and system. Can be applied to.

図12のように、汎用PCであるPC101、PC102、PC103は、ネットワーク140に接続されている。これらPC101〜103は同様に構成されている。ここでは、PC101の構成についてのみ説明し、その他のPC102,103の構成について省略する。図13に、本実施形態におけるPC101の主な内部構成が示されている。
図13に示すように、PC101は、ステレオスピーカとなる左右のスピーカ17,18、ステレオマイクとなるマイク19,20、カメラ21を備えている。また、スピーカはステレオスピーカではなく、3チャネル以上の出力を持つスピーカであってもよいし、スピーカに替えてヘッドフォンを用いることもできる。マイクにモノラルマイクを使用してもよい。さらに、映像を送信しない場合はカメラ21がなくてもよいが、その場合は通信相手の受信者は映像の代替になるような画面等が表示されているものとする。また、PC101のその他の構成は、PC10の構成における符号と同じ符号を付したデバイスは同じであり、ここではその説明を省略する。
As shown in FIG. 12, the general-purpose PCs PC 101, PC 102, and PC 103 are connected to the network 140. These PCs 101 to 103 are similarly configured. Here, only the configuration of the PC 101 will be described, and the configuration of the other PCs 102 and 103 will be omitted. FIG. 13 shows the main internal configuration of the PC 101 in this embodiment.
As illustrated in FIG. 13, the PC 101 includes left and right speakers 17 and 18 that are stereo speakers, microphones 19 and 20 that are stereo microphones, and a camera 21. Further, the speaker may not be a stereo speaker but may be a speaker having an output of three or more channels, or a headphone can be used instead of the speaker. A monaural microphone may be used as the microphone. Further, when the video is not transmitted, the camera 21 may not be provided. In this case, it is assumed that a screen or the like that can be used as a substitute for the video is displayed for the recipient of the communication partner. The other configurations of the PC 101 are the same devices having the same reference numerals as those in the configuration of the PC 10, and the description thereof is omitted here.

図13に示すように、PC101は、画面表示情報DB22に替えて受信映像表示情報DB221を有する。
受信映像表示情報DB221は、PC101が受信したデータをディスプレイ16に表示される画面に関する画面表示情報を保持するデータベースである。例えば、受信映像表示情報DB221は、ディスプレイ16上の通信相手の映像を表示するアプリケーションの表示位置等を格納している。この表示位置情報には、例えば、画面の表示位置や大きさ等がある。
受信映像表示情報DB221は、画面表示情報DB22と同様の機能を持つデータベースであり、各映像の表示位置を変更したり、データベースへの直接的なユーザ入力により随時更新されたりする。
As shown in FIG. 13, the PC 101 has a received video display information DB 221 instead of the screen display information DB 22.
The received video display information DB 221 is a database that holds screen display information related to a screen on which data received by the PC 101 is displayed on the display 16. For example, the received video display information DB 221 stores the display position of an application that displays the video of the communication partner on the display 16. This display position information includes, for example, the display position and size of the screen.
The received video display information DB 221 is a database having the same function as the screen display information DB 22, and the display position of each video is changed or updated as needed by direct user input to the database.

図14に、テレビ会議システムにおけるPC101の全体処理の一例を示すフローチャートが示されている。
図14に示すように、PC101は、テレビ会議用アプリケーションを起動し(S131)、他のPC102,103との通信を開始する(S132)。これによって、PC101は、ネットワーク28を介してPC20、PC30との通信中となり、それぞれの映像と音声を送受信する。このとき、アプリケーション・プログラムは、通信制御部14に対して、ネットワーク140との接続を実行するための制御信号を入力する。通信制御部140は、この制御信号に基づいて、通信制御を行ってネットワーク140との接続を確立している。
ここで、通信の接続方法はシステムによって異なる。例えば、P2P(Peer to Peer)方式の場合は、それぞれの端末からの映像や音声を送受信するため、会議に参加する各PC101〜103とそれぞれ通信を確立する。つまり、例えば自端末のほかに5端末と通信を行う場合は、PC10は5つの通信を確立する。なお、会議の参加者が自端末以外は1端末だった場合は、1対1の通信となる。また、MCU(Multipoint Control Unit)などのサーバを用いる場合は、一般にPCとMCU間とのみ通信を確立する。ただし、音声のみMCU方式で、映像はP2P方式など、上記の両方の性質を持った接続形態もありうる。
FIG. 14 is a flowchart showing an example of the overall processing of the PC 101 in the video conference system.
As shown in FIG. 14, the PC 101 activates the video conference application (S131), and starts communication with the other PCs 102 and 103 (S132). As a result, the PC 101 is communicating with the PC 20 and the PC 30 via the network 28, and transmits and receives the respective video and audio. At this time, the application program inputs a control signal for executing connection with the network 140 to the communication control unit 14. Based on this control signal, the communication control unit 140 performs communication control and establishes a connection with the network 140.
Here, the communication connection method differs depending on the system. For example, in the case of the P2P (Peer to Peer) method, in order to transmit and receive video and audio from each terminal, communication is established with each of the PCs 101 to 103 participating in the conference. That is, for example, when communicating with 5 terminals other than its own terminal, the PC 10 establishes 5 communications. In addition, when the participant of a meeting is 1 terminal other than an own terminal, it will become 1 to 1 communication. When using a server such as an MCU (Multipoint Control Unit), communication is generally established only between the PC and the MCU. However, there may be a connection form having both of the above properties, such as an audio only MCU system and a video P2P system.

テレビ会議用のアプリケーション・プログラムは、受信映像表示情報DB126から、受信したそれぞれの映像の表示位置情報に関する設定値(受信映像表示情報)を読み込み、画面に表示する(S133)。このアプリケーション・プログラムは、この読み込んだ設定値を画面表示制御部160に入力する。画面表示制御部160は、入力された設定値に基づいてディスプレイ16の表示制御を行い、映像の表示を行う。
テレビ会議用のアプリケーション・プログラムは、読み込んだ設定値に基づいて、左右のスピーカ17,18を合わせて出力する音声出力値を算出して決定する(S134)。この音声出力値の決定は、発明の実施の形態1〜3と同様に、受信した音声がステレオだった場合は式(7)、式(8)、モノラルだった場合は、式(11)、式(12)などの方法を用いて、映像の表示位置に応じた音像位置になるよう音量調節が行われる。
The TV conference application program reads the setting values (received video display information) related to the display position information of each received video from the received video display information DB 126 and displays them on the screen (S133). The application program inputs the read setting value to the screen display control unit 160. The screen display control unit 160 performs display control of the display 16 based on the input set value, and displays video.
The video conference application program calculates and determines an audio output value to be output by combining the left and right speakers 17 and 18 based on the read setting value (S134). As in the first to third embodiments of the present invention, the sound output value is determined by Expression (7) and Expression (8) when the received sound is stereo, and Expression (11) when the received sound is monaural. Using a method such as Expression (12), the volume is adjusted so that the sound image position corresponds to the display position of the video.

その後、テレビ会議用のアプリケーション・プログラムは、音響環境情報DB23から音響環境情報を読み出し(S135)、読み出した音響環境情報に基づいて、実際にスピーカ17,18の出力音量を制御する(S136)。スピーカ17,18は、この音響環境情報に基づいた適量の出力量で音声を出力する(S137)。このアプリケーション・プログラムは、スピーカ17,18から音声が出力された後、終了要求があるかどかを確認し(S138)、要求がない場合はループしてS131の処理へ戻る。また、テレビ会議用のアプリケーション・プログラムは、終了要求があった場合は各種処理を終了する。   Thereafter, the video conference application program reads the acoustic environment information from the acoustic environment information DB 23 (S135), and actually controls the output volume of the speakers 17 and 18 based on the read acoustic environment information (S136). The speakers 17 and 18 output sound with an appropriate output amount based on the acoustic environment information (S137). After the sound is output from the speakers 17 and 18, the application program checks whether there is an end request (S138), and if there is no request, loops and returns to the processing of S131. Further, the video conference application program terminates various processes when requested to terminate.

また、本実施形態におけるPC101が受信映像表示情報を設定する場合には、PC102,103を使用している通信相手が表示されたテレビ会議用アプリケーションの表示位置や表示サイズを変更する。PC101は、この表示位置・サイズの変更にともなって、PC10と同様の設定処理を行う。   When the PC 101 in this embodiment sets the received video display information, the display position and display size of the video conference application on which the communication partner using the PCs 102 and 103 is displayed are changed. The PC 101 performs the same setting process as the PC 10 in accordance with the change of the display position / size.

以上のように、テレビ会議システムのような、アプリケーション内で、複数の映像と音声を同時に表示・再生するシステムにおいても、本発明を利用することができる。本発明を適用すると、音声出力デバイスがどのような種類、位置にあっても、画面位置にあわせた音像位置で音声を聞くことができる。そのため、映像の表示位置と音声の音像位置が一致するので、ユーザは聞いている声がどの映像に映っている人の声か容易に判別できるようになる。   As described above, the present invention can also be used in a system that simultaneously displays and reproduces a plurality of videos and sounds in an application, such as a video conference system. By applying the present invention, it is possible to listen to the sound at the sound image position that matches the screen position regardless of the type and position of the sound output device. For this reason, the display position of the video and the sound image position of the sound coincide with each other, so that the user can easily determine which video the person is listening to.

また、会議中に映像の表示サイズや表示位置を変更しても、随時、音像位置を追従させることができるため、ユーザは安心して映像のサイズや位置を変更することができる。例えば、その時々に中心的に聞き取りたい人の映像の位置をディスプレイの中心に移動すれば、音声が中央から聞こえることになり集中しやすくなる。   In addition, even if the display size and display position of the video are changed during the conference, the sound image position can be tracked at any time, so that the user can change the video size and position with peace of mind. For example, if the position of the image of the person who wants to hear at the center is moved to the center of the display, the sound can be heard from the center and concentrated.

あるいは、表示サイズを大きくすれば、左右により広がりのある音声出力を得られ、その人の発言がより聞き取りやすくなる。また、ステレオで音声を受信した場合も、左右の音量差等のステレオ効果を損なうことなく音声出力することができる。このように、本発明をテレビ会議システムに適用すると、より臨場感のあるコミュニケーションを実現することができる。   Alternatively, if the display size is increased, a wider voice output can be obtained from the left and right, and the person's speech can be heard more easily. In addition, even when audio is received in stereo, audio can be output without impairing stereo effects such as left and right volume differences. As described above, when the present invention is applied to the video conference system, more realistic communication can be realized.

その他の発明の実施の形態.
発明の実施の形態1〜5においては、音声環境情報DB23の内容に基づいて音声出力デバイス(スピーカ17,18やヘッドフォン52)の音量を左右で調整することによって、アプリケーション画面の表示位置と音像位置とを対応させた。これに対して、左右の出力音声それぞれの位相を制御することによって、アプリケーション画面の表示位置と音像位置とを対応させることもできる。本実施形態においては、この位相調整による方法について説明する。ここで、適宜図1を参照しながら説明する。
Other Embodiments of the Invention
In the first to fifth embodiments of the present invention, the display position and the sound image position of the application screen are adjusted by adjusting the sound volume of the sound output devices (speakers 17, 18 and headphones 52) on the left and right based on the contents of the sound environment information DB23. And made it correspond. On the other hand, the display position of the application screen and the sound image position can be made to correspond by controlling the phases of the left and right output sounds. In this embodiment, a method by this phase adjustment will be described. Here, description will be made with reference to FIG.

アプリケーションの起動にともなって、起動したアプリケーション・プログラムは、映像の画面表示位置、表示サイズなどの設定値(画面表示情報)を画面表示情報DB22から読み込む。アプリケーション・プログラムは、この読み込んだ設定値を画面表示制御部160に入力する。画面表示制御部160は、入力された設定値に基づいてディスプレイ16の表示制御を行い、映像の表示を行う。   With the activation of the application, the activated application program reads setting values (screen display information) such as the screen display position and display size of the video from the screen display information DB 22. The application program inputs the read setting value to the screen display control unit 160. The screen display control unit 160 performs display control of the display 16 based on the input set value, and displays video.

アプリケーション・プログラムは、読み込んだ設定値に基づいて、左右のスピーカ17,18を合わせて出力する音声の位相を算出して決定する。アプリケーション・プログラムは、音響環境情報DB23から、ディスプレイ16とスピーカ17,18との位置関係等の音響環境情報を読み出す。アプリケーション・プログラムは、読み出した音響環境情報に基づいて、実際にスピーカ17,18から出力される音声の位相を制御する。   The application program calculates and determines the phase of the sound output from the left and right speakers 17 and 18 based on the read setting value. The application program reads the acoustic environment information such as the positional relationship between the display 16 and the speakers 17 and 18 from the acoustic environment information DB 23. The application program controls the phase of the sound actually output from the speakers 17 and 18 based on the read acoustic environment information.

詳細には、アプリケーション・プログラムは、読み出した音響環境情報に基づいて音声の位相を制御するための制御データを生成し、音声制御部170に入力する。音声制御部170は、この入力された制御データに基づき、スピーカ17,18それぞれに対して位相制御データを入力する。スピーカ17,18は、この位相制御データに基づいた左右で位相の異なる音声を出力する。すなわち、ユーザに到達する時間の異なる音声が左右のスピーカ17,18から出力される。
また、アプリケーション・プログラムは、スピーカ17,18から音声が出力された後、終了要求があるかどかを確認し、ループ若しくは終了処理を実行する。
このように出力音声の位相を利用することによっても、発明の実施の形態1〜5と同様の効果を得ることができる。
Specifically, the application program generates control data for controlling the phase of the voice based on the read acoustic environment information, and inputs the control data to the voice control unit 170. The audio control unit 170 inputs phase control data to the speakers 17 and 18 based on the input control data. The speakers 17 and 18 output sounds having different phases on the left and right based on the phase control data. That is, sounds having different times to reach the user are output from the left and right speakers 17 and 18.
The application program confirms whether there is an end request after the sound is output from the speakers 17 and 18, and executes a loop or end process.
Thus, the same effects as those of the first to fifth embodiments can be obtained also by using the phase of the output sound.

本発明に係るPCの内部構成の一例を示す模式図である。It is a schematic diagram which shows an example of the internal structure of PC concerning this invention. 本発明に係るPCの処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of processing operation of PC concerning the present invention. 本発明に係るPCの表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen of PC concerning this invention. 本発明に係るPCの処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of processing operation of PC concerning the present invention. 本発明に係るPCの処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of processing operation of PC concerning the present invention. 本発明に係るPCの表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen of PC concerning this invention. 本発明に係るPCの表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen of PC concerning this invention. 本発明に係るPCの表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen of PC concerning this invention. 本発明に係るPCの配置状態の一例を示す模式図である。It is a schematic diagram which shows an example of the arrangement | positioning state of PC which concerns on this invention. 本発明に係るPCの配置状態の一例を示す模式図である。It is a schematic diagram which shows an example of the arrangement | positioning state of PC which concerns on this invention. 本発明に係るPCの表示画面の一例を示す模式図である。It is a schematic diagram which shows an example of the display screen of PC concerning this invention. 本発明に係るPCの配置状態の一例を示す模式図である。It is a schematic diagram which shows an example of the arrangement | positioning state of PC which concerns on this invention. 本発明に係るPCの構成の一例を示す模式図である。It is a schematic diagram which shows an example of a structure of PC concerning this invention. 本発明に係るPCの処理動作の一例を示すフローチャートである。It is a flowchart which shows an example of processing operation of PC concerning the present invention.

符号の説明Explanation of symbols

10…PC、11…CPU、12…メモリ、13…外部記憶装置、14…通信制御部、
15…キーボード・マウス、16…ディスプレイ、17…左スピーカ、18…右スピーカ、
19…左マイク、20…右マイク、21…カメラ、
22…画面表示情報DB、23…音響環境情報DB
140…ネットワーク、150…ユーザ入力制御部、160…画像表示制御部、
170…音声制御部、210…キャプチャデバイス
DESCRIPTION OF SYMBOLS 10 ... PC, 11 ... CPU, 12 ... Memory, 13 ... External storage device, 14 ... Communication control part,
15 ... Keyboard / mouse, 16 ... Display, 17 ... Left speaker, 18 ... Right speaker,
19 ... Left microphone, 20 ... Right microphone, 21 ... Camera,
22 ... screen display information DB, 23 ... acoustic environment information DB
140 ... network, 150 ... user input control unit, 160 ... image display control unit,
170: Voice control unit, 210 ... Capture device

Claims (14)

複数のアプリケーション・プログラムそれぞれが、ディスプレイ上に複数の画面を表示し、複数の音声出力デバイスから前記複数の画面それぞれに応じた音声を出力する方法であって、
前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、
前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、
当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えた音声出力方法。
Each of a plurality of application programs displays a plurality of screens on a display, and outputs a sound corresponding to each of the plurality of screens from a plurality of sound output devices,
Obtaining screen display information indicating display positions of the plurality of screens on the display;
Obtaining acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices;
An audio output method comprising a step of outputting audio corresponding to the screen display information from each of the plurality of audio output devices based on the acoustic environment information.
前記音声を出力するステップは、前記音響環境情報に基づいて、前記音声出力デバイスそれぞれが出力する音声の出力音量を制御するステップを有することを特徴とする請求項1記載の音声出力方法。   2. The audio output method according to claim 1, wherein the step of outputting the audio includes a step of controlling an output volume of audio output from each of the audio output devices based on the acoustic environment information. 前記音声を出力するステップは、前記音響環境情報に基づいて、前記音声出力デバイスそれぞれが出力する音声の位相を制御するステップを有することを特徴とする請求項1記載の音声出力方法。   2. The sound output method according to claim 1, wherein the step of outputting the sound includes a step of controlling a phase of sound output from each of the sound output devices based on the acoustic environment information. 前記音響環境情報は、前記ディスプレイと前記複数の音声出力デバイスそれぞれとの位置関係を示すデバイス配置情報を有し、
前記複数の音声出力デバイスによって出力される音声は、前記デバイス配置情報に基づいて制御されることを特徴とする請求項2又は3記載の音声出力方法。
The acoustic environment information includes device arrangement information indicating a positional relationship between the display and each of the plurality of audio output devices,
The audio output method according to claim 2 or 3, wherein audio output by the plurality of audio output devices is controlled based on the device arrangement information.
前記ディスプレイとの距離が小さい音声出力デバイスによって出力される音声の出力音量が小さくなるように、前記音声の出力音量を制御することを特徴とする請求項2又は4記載の音声出力方法。   5. The audio output method according to claim 2, wherein the audio output volume is controlled so that an audio output volume output by an audio output device having a small distance from the display is reduced. 前記ディスプレイとの距離が小さい音声出力デバイスによって出力される音声の位相が遅延するように、前記音声の位相を制御することを特徴とする請求項3又は4記載の音声出力方法。   5. The audio output method according to claim 3, wherein the phase of the audio is controlled so that the phase of the audio output by the audio output device having a small distance from the display is delayed. 前記画面表示情報を格納するステップを、さらに備えることを特徴とする請求項1から6のいずれかに記載の音声出力方法。   The audio output method according to claim 1, further comprising a step of storing the screen display information. 前記画面表示情報は、前記ディスプレイ上での前記画面の位置を示す画面位置情報であり、
前記音声を出力するステップでは、前記画面位置関係に応じて、前記複数の音声出力デバイスそれぞれが前記音声を出力することを特徴とする請求項7記載の音声出力方法。
The screen display information is screen position information indicating a position of the screen on the display,
8. The audio output method according to claim 7, wherein in the step of outputting the audio, each of the plurality of audio output devices outputs the audio according to the screen positional relationship.
前記ディスプレイ上において前記画面が所定の音声出力デバイスに近い側に表示されている場合には、当該所定の音声出力デバイスによって出力される音声の出力音声が大きくなるように、前記音声の出力音声を制御することを特徴とする請求項8記載の音声出力方法。   When the screen is displayed on the display on the side close to the predetermined audio output device, the output audio of the audio is set so that the output audio of the audio output by the predetermined audio output device is increased. 9. The audio output method according to claim 8, wherein control is performed. 前記音響環境情報を格納するステップを、さらに備えることを特徴とする請求項1から9のいずれかに記載の音声出力方法。   The audio output method according to claim 1, further comprising a step of storing the acoustic environment information. 前記音響環境情報を格納するステップは、前記ディスプレイ上に、当該ディスプレイを示すディスプレイ用アイコンを表示するステップと、
前記ディスプレイ上に、前記音声出力デバイスを示す音声出力デバイス用アイコンを表示するステップと、
前記ディスプレイ上での前記ディスプレイ用アイコンと前記音声出力デバイス用アイコンとの位置関係に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を格納するステップを有することを特徴とする請求項10記載の音声出力方法。
Storing the acoustic environment information comprises displaying a display icon indicating the display on the display;
Displaying an audio output device icon indicating the audio output device on the display;
Storing device arrangement information indicating a positional relationship between the display and the audio output device according to a positional relationship between the display icon and the audio output device icon on the display. The audio output method according to claim 10.
前記音響環境情報を格納するステップは、前記ディスプレイ上に、前記音響環境情報を入力するための入力画面を表示するステップと、
当該入力画面に、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を入力するステップと、
当該入力されたデバイス配置情報に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示す数値を格納するステップを有することを特徴とする請求項10記載の音声出力方法。
Storing the acoustic environment information includes displaying an input screen for inputting the acoustic environment information on the display;
Inputting device arrangement information indicating a positional relationship between the display and the audio output device on the input screen;
11. The audio output method according to claim 10, further comprising a step of storing a numerical value indicating a positional relationship between the display and the audio output device according to the input device arrangement information.
複数のアプリケーション・プログラムそれぞれが、ディスプレイ上に複数の画面を表示し、複数の音声出力デバイスから前記複数の画面それぞれに応じた音声を出力することをコンピュータに実現させるためのプログラムであって、
前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、
前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、
当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えたコンピュータに実現させるための音声出力プログラム。
Each of the plurality of application programs is a program for causing a computer to display a plurality of screens on a display and to output a sound corresponding to each of the plurality of screens from a plurality of sound output devices,
Obtaining screen display information indicating display positions of the plurality of screens on the display;
Obtaining acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices;
An audio output program for causing a computer to include a step of outputting audio corresponding to the screen display information from each of the plurality of audio output devices based on the acoustic environment information.
前記ディスプレイと、
前記複数の音声出力デバイスとを有する情報処理装置であって、
前記複数のアプリケーション・プログラムと、
請求項13記載のプログラムとを、さらに有する情報処理装置。
The display;
An information processing apparatus having the plurality of audio output devices,
The plurality of application programs;
An information processing apparatus further comprising the program according to claim 13.
JP2005084605A 2005-03-23 2005-03-23 Method and program for outputting sound, and information processor Pending JP2006270425A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005084605A JP2006270425A (en) 2005-03-23 2005-03-23 Method and program for outputting sound, and information processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005084605A JP2006270425A (en) 2005-03-23 2005-03-23 Method and program for outputting sound, and information processor

Publications (1)

Publication Number Publication Date
JP2006270425A true JP2006270425A (en) 2006-10-05

Family

ID=37205923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005084605A Pending JP2006270425A (en) 2005-03-23 2005-03-23 Method and program for outputting sound, and information processor

Country Status (1)

Country Link
JP (1) JP2006270425A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011199903A (en) * 2011-06-09 2011-10-06 Toshiba Corp Information processing apparatus and audio output control method in the same
JP2013176140A (en) * 2013-04-25 2013-09-05 Sharp Corp Television device and speaker system
US8953100B2 (en) 2010-01-29 2015-02-10 Kabushiki Kaisha Toshiba Information processing apparatus and audio output control method of an information processing apparatus
JP2020145577A (en) * 2019-03-06 2020-09-10 Kddi株式会社 Acoustic signal synthesizer and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953100B2 (en) 2010-01-29 2015-02-10 Kabushiki Kaisha Toshiba Information processing apparatus and audio output control method of an information processing apparatus
JP2011199903A (en) * 2011-06-09 2011-10-06 Toshiba Corp Information processing apparatus and audio output control method in the same
JP2013176140A (en) * 2013-04-25 2013-09-05 Sharp Corp Television device and speaker system
JP2020145577A (en) * 2019-03-06 2020-09-10 Kddi株式会社 Acoustic signal synthesizer and program
JP7065801B2 (en) 2019-03-06 2022-05-12 Kddi株式会社 Acoustic signal synthesizer and program

Similar Documents

Publication Publication Date Title
JP6086188B2 (en) SOUND EFFECT ADJUSTING DEVICE AND METHOD, AND PROGRAM
JP6051208B2 (en) Present or shared state in the presence
CN107168518B (en) Synchronization method and device for head-mounted display and head-mounted display
US20220078374A1 (en) Methods To Improve Person-to-Person Interactions In Video Conferences
CN111492342B (en) Audio scene processing
EP4367846A1 (en) User-configurable spatial audio based conferencing system
WO2022241022A1 (en) Customized audio mixing for users in virtual conference calls
JP2006270425A (en) Method and program for outputting sound, and information processor
JP7052792B2 (en) Communication devices, communication methods, programs, and telepresence systems
CN114520950B (en) Audio output method, device, electronic equipment and readable storage medium
JP7472091B2 (en) Online call management device and online call management program
JP2005094271A (en) Virtual space sound reproducing program and device
US20240064485A1 (en) Systems and methods for sound-enhanced meeting platforms
JP6651231B2 (en) Portable information terminal, information processing device, and program
US11102606B1 (en) Video component in 3D audio
GB2598897A (en) Virtual meeting platform
KR101111734B1 (en) Sound reproduction method and apparatus distinguishing multiple sound sources
JP5282613B2 (en) Video conference device, video conference system, video conference control method, and program for video conference device
US11523242B1 (en) Combined HRTF for spatial audio plus hearing aid support and other enhancements
US11589184B1 (en) Differential spatial rendering of audio sources
JP7138217B2 (en) TERMINAL DEVICE, COMMUNICATION SYSTEM, CONTROL METHOD AND PROGRAM THEREOF
US11792581B2 (en) Using Bluetooth / wireless hearing aids for personalized HRTF creation
WO2023176389A1 (en) Information processing device, information processing method, and recording medium
US20240015462A1 (en) Voice processing system, voice processing method, and recording medium having voice processing program recorded thereon
US20230370801A1 (en) Information processing device, information processing terminal, information processing method, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080603

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20081007