JP2006270425A - Method and program for outputting sound, and information processor - Google Patents
Method and program for outputting sound, and information processor Download PDFInfo
- Publication number
- JP2006270425A JP2006270425A JP2005084605A JP2005084605A JP2006270425A JP 2006270425 A JP2006270425 A JP 2006270425A JP 2005084605 A JP2005084605 A JP 2005084605A JP 2005084605 A JP2005084605 A JP 2005084605A JP 2006270425 A JP2006270425 A JP 2006270425A
- Authority
- JP
- Japan
- Prior art keywords
- display
- audio output
- screen
- audio
- sound
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本発明は、音声出力方法、音声出力プログラム、及び情報処理装置に関し、特にプログラム表示デバイスの設置位置と音声出力デバイスの設置位置に対応した音声出力を行う音声出力方法、音声出力プログラム、及び情報処理装置に関する。 The present invention relates to an audio output method, an audio output program, and an information processing apparatus, and more particularly to an audio output method, an audio output program, and an information processing for performing audio output corresponding to an installation position of a program display device and an installation position of an audio output device. Relates to the device.
従来から、汎用的なパーソナル・コンピュータ(以下、PCと略す)は、音声や画像の入出力する機能を有している。近年、このようなPCを用いて、ネットワークを介したテレビ会議システムが開発されている。例えば、PCは、ディジタル通信網を介して複数人の映像と音声をリアルタイムに交換するテレビ会議システムに利用されている。
複数のユーザがこのテレビ会議システムに参加する場合には、各ユーザの画像・音声を出力するための複数の画面(ウィンドウ)が各ユーザのディスプレイ上に表示されている。この複数の画面を管理する技術が、特許文献1に開示されている。この特許文献1に開示されたマルチウィンドウシステムでは、聴覚情報出力を画面上のウィンドウ位置に対応した位置に定位させている。
Conventionally, general-purpose personal computers (hereinafter abbreviated as PCs) have a function of inputting and outputting voice and images. In recent years, a video conference system via a network has been developed using such a PC. For example, a PC is used in a video conference system that exchanges video and audio of a plurality of people in real time via a digital communication network.
When a plurality of users participate in this video conference system, a plurality of screens (windows) for outputting the images and sounds of each user are displayed on the display of each user. A technique for managing the plurality of screens is disclosed in
PCは、音声出力をともなうアプリケーションや、テレビ会議システムに用いられる映像と音声を同時に通信相手それぞれから受信して表示するアプリケーションを同一PC装置上で複数動作させる。この場合、複数のアプリケーションや通信相手からほぼ同時に音声出力がなされると、ユーザは、それらの音声だけでは、どのアプリケーションからの出力なのか分かりにくい。そのため、ユーザは、画面表示を確認して音声出力しているアプリケーションを判別する必要がある。 The PC operates a plurality of applications on the same PC device that have audio output and applications that simultaneously receive and display video and audio used in the video conference system from each communication partner. In this case, if voices are output almost simultaneously from a plurality of applications or communication partners, it is difficult for the user to understand from which application the output is from only those voices. Therefore, the user needs to check the screen display and determine the application that is outputting the sound.
また、スピーカは、ディスプレイを中心にみて左右非対称に設置されたり、物理的に非常に離れた位置に設置されたりする。あるいは、ユーザは、スピーカではなくヘッドフォンを使用することもある。このような場合には、それぞれの通信相手の音声や音像の位置と、その相手のディスプレイ上での表示位置が食い違い、ユーザに不便を感じさせることがある。
このように、従来のPCでは、ユーザの視覚と聴覚にずれが生じるため、出力音声がどのアプリケーションのものかを容易に特定することができないという問題点があった。
本発明は、このような問題点を解決するためになされたもので、出力音声がどのアプリケーションのものかを容易に特定することができる音声出力方法、音声出力プログラム、及び情報処理装置を提供することを目的とする。
As described above, the conventional PC has a problem in that it is difficult to easily identify which application the output sound belongs to because the user's vision and hearing are different.
The present invention has been made to solve such problems, and provides an audio output method, an audio output program, and an information processing apparatus that can easily identify which application the output audio belongs to. For the purpose.
本発明に係る音声出力方法は、複数のアプリケーション・プログラムそれぞれが、ディスプレイ上に複数の画面を表示し、複数の音声出力デバイスから前記複数の画面それぞれに応じた音声を出力する方法であって、前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えたものである。 The audio output method according to the present invention is a method in which each of a plurality of application programs displays a plurality of screens on a display, and outputs a sound corresponding to each of the plurality of screens from a plurality of audio output devices, Acquiring screen display information indicating display positions of the plurality of screens on the display; acquiring acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices; and the acoustic environment information. And a step of outputting a sound corresponding to the screen display information from each of the plurality of sound output devices.
さらに、前記音声を出力するステップは、前記音響環境情報に基づいて、前記音声出力デバイスそれぞれが出力する音声の出力音量を制御するステップを有する。 Furthermore, the step of outputting the sound includes a step of controlling an output volume of the sound output from each of the sound output devices based on the acoustic environment information.
さらにまた、前記音声を出力するステップは、前記音響環境情報に基づいて、前記音声出力デバイスそれぞれが出力する音声の位相を制御するステップを有する。 Furthermore, the step of outputting the sound includes a step of controlling the phase of the sound output from each of the sound output devices based on the acoustic environment information.
また、前記音響環境情報は、前記ディスプレイと前記複数の音声出力デバイスそれぞれとの位置関係を示すデバイス配置情報を有し、前記複数の音声出力デバイスによって出力される音声は、前記デバイス配置情報に基づいて制御される。 The acoustic environment information includes device arrangement information indicating a positional relationship between the display and each of the plurality of audio output devices, and audio output by the plurality of audio output devices is based on the device arrangement information. Controlled.
最適な例としては、前記ディスプレイとの距離が小さい音声出力デバイスによって出力される音声の出力音量が小さくなるように、前記音声の出力音量を制御することができる。
他の最適な例としては、前記ディスプレイとの距離が小さい音声出力デバイスによって出力される音声の位相が遅延するように、前記音声の位相を制御したりすることができる。
As an optimal example, the output volume of the sound can be controlled so that the output volume of the sound output by the sound output device having a small distance from the display is small.
As another optimal example, the phase of the sound can be controlled such that the phase of the sound output by the sound output device having a small distance from the display is delayed.
本発明に係る音声出力方法は、前記画面表示情報を格納するステップを備えたものである。さらに、前記画面表示情報は、前記ディスプレイ上での前記画面の位置を示す画面位置情報であり、前記音声を出力するステップでは、前記画面位置関係に応じて、前記複数の音声出力デバイスそれぞれが前記音声を出力する。 The audio output method according to the present invention comprises a step of storing the screen display information. Further, the screen display information is screen position information indicating a position of the screen on the display, and in the step of outputting the sound, each of the plurality of sound output devices is configured according to the screen position relationship. Output audio.
最適な例としては、前記ディスプレイ上において前記画面が所定の音声出力デバイスに近い側に表示されている場合には、当該所定の音声出力デバイスによって出力される音声の出力音声が大きくなるように、前記音声の出力音声を制御することができる。 As an optimal example, when the screen is displayed on the display near the predetermined audio output device, the output sound of the audio output by the predetermined audio output device is increased. The output sound of the sound can be controlled.
さらに、本発明に係る音声出力方法は、前記音響環境情報を格納するステップを備えるものである。
最適な例としては、前記音響環境情報を格納するステップは、前記ディスプレイ上に、当該ディスプレイを示すディスプレイ用アイコンを表示するステップと、前記ディスプレイ上に、前記音声出力デバイスを示す音声出力デバイス用アイコンを表示するステップと、前記ディスプレイ上での前記ディスプレイ用アイコンと前記音声出力デバイス用アイコンとの位置関係に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を格納するステップを有することができる。
Furthermore, the audio output method according to the present invention comprises a step of storing the acoustic environment information.
As an optimal example, the step of storing the acoustic environment information includes a step of displaying a display icon indicating the display on the display, and a sound output device icon indicating the sound output device on the display. And storing device arrangement information indicating the positional relationship between the display and the audio output device in accordance with the positional relationship between the display icon and the audio output device icon on the display. Can have.
他の最適な例としては、前記音響環境情報を格納するステップは、前記ディスプレイ上に、前記音響環境情報を入力するための入力画面を表示するステップと、当該入力画面に、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を入力するステップと、当該入力されたデバイス配置情報に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示す数値を格納するステップを有する。 As another optimal example, the step of storing the acoustic environment information includes a step of displaying an input screen for inputting the acoustic environment information on the display, and the display and the audio on the input screen. A step of inputting device arrangement information indicating a positional relationship with the output device; and a step of storing a numerical value indicating the positional relationship between the display and the audio output device according to the input device arrangement information.
本発明に係るプログラムは、複数のアプリケーション・プログラムそれぞれが、ディスプレイ上に複数の画面を表示し、複数の音声出力デバイスから前記複数の画面それぞれに応じた音声を出力することをコンピュータに実現させるためのプログラムであって、前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えたものである。 The program according to the present invention causes a computer to realize that each of a plurality of application programs displays a plurality of screens on a display and outputs a sound corresponding to each of the plurality of screens from a plurality of sound output devices. A step of acquiring screen display information indicating display positions of the plurality of screens on the display, and a step of acquiring acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices. And outputting a sound corresponding to the screen display information from each of the plurality of sound output devices based on the acoustic environment information.
本発明に係る情報処理装置は、前記ディスプレイと、前記複数の音声出力デバイスとを有する情報処理装置であって、前記複数のアプリケーション・プログラムと、上記のようなプログラムとを、さらに有するものである。 An information processing apparatus according to the present invention is an information processing apparatus including the display and the plurality of audio output devices, and further includes the plurality of application programs and the program as described above. .
本発明によれば、出力音声がどのアプリケーションのものかを容易に特定することができる音声出力方法、音声出力プログラム、及び情報処理装置を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the audio | voice output method, the audio | voice output program, and information processing apparatus which can specify easily what application an output audio | voice belongs can be provided.
本発明は、PC上で動作する一般的なアプリケーションにおいて、複数のアプリケーションを同時に起動している場合に、画面上でのアプリケーション画面の表示位置・大きさに応じて音像位置を変化させるものである。最適な例としては、本発明は、音声出力をともなうアプリケーションを2種類以上同時並行的に動作させる場合に、画面上でのアプリケーション表示部の表示位置に応じて音像位置を変化させることができる。これによって、本発明を用いると、ディスプレイと音声出力デバイスの位置関係がどのような場合であっても、あたかもディスプレイ部分から音声が出ているかのようにユーザに音声を聞かせることができる。
また、本発明を用いると、同一アプリケーションで複数の画面表示を行うアプリケーションの場合でも、それぞれの画面表示位置・大きさに合わせて音像位置を変化させることができる。これによって、本発明を、例えば相手の映像と音声を同時に受信し、かつそれぞれの映像が画面に表示されながら音声通信も行う、テレビ会議やウェブ会議に適用することができ、臨場感のあるコミュニケーションを実現させることができる。
The present invention changes a sound image position according to a display position / size of an application screen on a screen when a plurality of applications are activated simultaneously in a general application operating on a PC. . As an optimal example, the present invention can change the sound image position according to the display position of the application display unit on the screen when two or more types of applications with audio output are operated simultaneously in parallel. Thus, when the present invention is used, it is possible to make the user hear the sound as if the sound is coming from the display portion, regardless of the positional relationship between the display and the sound output device.
Further, when the present invention is used, the sound image position can be changed in accordance with each screen display position and size even in the case of an application that displays a plurality of screens with the same application. As a result, the present invention can be applied to, for example, a video conference or a web conference in which the other party's video and audio are received at the same time and audio communication is performed while each video is displayed on the screen. Can be realized.
以下、本発明を実施するための最良の形態について説明する。
発明の実施の形態1.
発明の実施の形態1においては、本発明を、汎用的なPC上で複数のアプリケーションを同時に動作させる場合に適用した場合について説明する。
Hereinafter, the best mode for carrying out the present invention will be described.
In the first embodiment of the present invention, a case will be described in which the present invention is applied to a case where a plurality of applications are simultaneously operated on a general-purpose PC.
まず、図1を用いて、本発明に係る汎用PCの主な内部構成について説明する。図1は、このPCの内部構成の主たる構成の一例を示すブロック図である。
図1に示すように、PC10は、CPU11、メモリ12、外部記憶装置13、通信制御部14、キーボード・マウス15、ディスプレイ16、左スピーカ17、右スピーカ18、左マイク19、右マイク20、カメラ21を有する。
CPU11は、制御手段の一例であり、PC10の各種動作の処理制御を行う。メモリ12は、記憶手段の一例であり、RAM等から構成されている。
First, the main internal configuration of the general-purpose PC according to the present invention will be described with reference to FIG. FIG. 1 is a block diagram showing an example of a main configuration of the internal configuration of the PC.
As shown in FIG. 1, the PC 10 includes a CPU 11, a memory 12, an
The CPU 11 is an example of a control unit and performs processing control of various operations of the PC 10. The memory 12 is an example of a storage unit, and includes a RAM or the like.
外部記憶装置13は、記憶手段の一例であり、HDD等から構成されている。この外部記憶装置13は、PC10を動作させるためのアプリケーションを保存している。この保存されたアプリケーションは、画像や映像などの画面表示や、任意の音声出力があるアプリケーションとすることができる。また、このアプリケーションは、それ自身が画面表示や音声出力を行わないアプリケーションであってもよい。
通信制御部14は、PC10のネットワーク140への接続制御を行う通信手段の一例である。PC10は、通信制御部14を介してネットワーク140に接続し、実行時にネットワーク140を介した処理を行う。
The
The communication control unit 14 is an example of a communication unit that controls connection of the PC 10 to the
キーボード・マウス15は、入力手段の一例であり、ユーザ入力のために使用される。また、キーボード・マウス15は、ユーザ入力制御部150によって制御されている。
ディスプレイ16は、表示手段の一例であり、液晶表示装置やCRT等とすることができる。このディスプレイ16は、画面表示制御部160によって制御されている。
左スピーカ17、右スピーカ18は、音声出力手段の一例であり、ディスプレイ16に向かって左右に配置されたステレオスピーカである。これらスピーカ17,18は、音声制御部170を介して制御されている。また、音声出力デバイスとしては、3チャネル以上の出力チャネルがあるスピーカや、ヘッドフォンを使用することができる。
マイク19、20は、音声入力手段の一例であり、音声制御部170を介して実装されたステレオマイクである。カメラ21は、撮像手段の一例であり、キャプチャデバイス210を介して実装されている。
The keyboard /
The
The
The
図1に示すように、PC10は、2つのデータベース画面表示情報DB22と音響環境情報DB23とを有する。
画面表示情報DB22は、ディスプレイ16に表示される画面に関する画面表示情報を保持するデータベースである。例えば、画面表示情報DB22は、ディスプレイ16上のアプリケーションの表示位置、他の実行されているアプリケーションの表示位置に関するアプリケーション表示位置情報を格納している。この表示位置情報には、例えば、画面の表示位置や大きさ等がある。
As shown in FIG. 1, the
The screen
音響環境情報DB23は、ディスプレイ16と音声出力デバイス間の距離の相対関係に関する情報を示す音声出力環境情報を格納している。この音声出力環境情報の一例として、ディスプレイ16の横幅に対する、ディスプレイ16の端から左右のスピーカ17,18までの相対位置関係がある。具体的には、この音声出力環境情報として、横幅30センチメートルのディスプレイ16に対し、右側のスピーカ18はディスプレイ16から10センチメートルしか離れていないが、左側のスピーカ17は2メートル離れていることを示す情報とすることができる。
The acoustic
さらに、音響環境情報DB23は、PC10が有する音声出力デバイスに関する音響環境情報を保持するデータベースである。例えば、音響環境情報DB23は、音声を出力しているデバイスがスピーカかヘッドフォンか、スピーカやヘッドフォンの種類、あるいは音声のチャネル数等、音声出力デバイスの種類を示す音声出力デバイス情報を格納している。
Furthermore, the acoustic
音声出力環境情報の他の例として、音声出力デバイスが上下、奥行き方向などの出力に対応している場合は、それぞれに対してのディスプレイ16との相対位置関係がある。
これらの音声出力デバイス情報や音響環境情報は、予め画面上で入力された定量的な固定値でもよいし、予め作成された数値例から所望の数値を画面上で選択するようにしてもよい。また、ユーザが希望の固定値を直接入力するようにしてもよい。さらに、例えば、GUI(Graphical User Interface)を用いて、ディスプレイ16とスピーカ17,18との配置状況を設定する定性的な設定方法によって入力することもできる。このGUIを用いた設定方法については、後述する。
As another example of the audio output environment information, when the audio output device supports output in the vertical direction and the depth direction, there is a relative positional relationship with the
These audio output device information and acoustic environment information may be quantitative fixed values input in advance on the screen, or desired numerical values may be selected on the screen from numerical examples created in advance. Alternatively, the user may directly input a desired fixed value. Further, for example, the input can be performed by a qualitative setting method for setting the arrangement state of the
このようなPC10が各種アプリケーションに基づいて動作を行うとき、CPU11は、このアプリケーションを外部記憶装置13から読み出してからメモリ12上に展開して実行する。これによって、アプリケーションが起動し、CPU11が制御する各種処理は、この起動したアプリケーションによって実行される。具体的には、起動したアプリケーションは、各種データを読み込んだり生成したり、あるいは各種データをメモリ12、通信制御部14等の各種機能部や画面表示情報DB22、音響環境情報DB23等の各種データベースに入力したりすることができる。
When such a
次に、本発明に係るPC10の処理動作について説明する。
まず、図2を用いて、本発明に係るPC10の全体処理について説明する。ここで、適宜図3を参照しながら説明する。図2は、本発明に係るPC10の処理動作の一例を示すフローチャートである。
ユーザは、初めにPC10において所定のアプリケーションを起動させる(S101)。この起動したアプリケーション・プログラムは、映像の画面表示位置、表示サイズなどの設定値(画面表示情報)を画面表示情報DB22から読み込む(S102)。アプリケーション・プログラムは、この読み込んだ設定値を画面表示制御部160に入力する。画面表示制御部160は、入力された設定値に基づいてディスプレイ16の表示制御を行い、映像の表示を行う。
Next, the processing operation of the
First, the overall processing of the
The user first activates a predetermined application on the PC 10 (S101). The activated application program reads setting values (screen display information) such as the screen display position and display size of the video from the screen display information DB 22 (S102). The application program inputs the read setting value to the screen
アプリケーションは、読み込んだ設定値に基づいて、左右のスピーカ17,18を合わせて出力する音声出力値を算出して決定する(S103)。この音声出力値の決定は、次のように行われる。
図3に、音声出力値の決定時における表示画面の一例が示されている。図3においては、3つのアプリケーションが起動し、ディスプレイ16の表示部分300の横に、左から3分割した画面301、画面302、画面303が表示されている。例えば、画面301にはワードプロセッサアプリケーション、画面302にはビデオ再生アプリケーション、画面303にはテレビ会議アプリケーションが表示されている。これらのアプリケーションによる音声出力はステレオ音声であり、画面301に対応する音声はL1、R1、画面302、画面303に対応する音声も同様にL2、R2、L3、R3とする。このとき、PC10のディスプレイ16のすぐ脇に左右スピーカ17,18がある場合には、それぞれの出力音量L、Rは例えば、
従って、アプリケーション・プログラムは、音声出力値を決定するとき、画面301〜303に対応する音声L1、R1、L2、R2、L3、R3を取得し、式(1)、式(2)から左右のスピーカ17,18それぞれの出力音量L、Rを算出する。
Based on the read setting value, the application calculates and determines an audio output value to be output by combining the left and
FIG. 3 shows an example of a display screen when the audio output value is determined. In FIG. 3, three applications are activated, and a
Therefore, the application program acquires the voices L 1 , R 1 , L 2 , R 2 , L 3 , and R 3 corresponding to the
このようにすると、画面301に表示されているアプリケーションの音像位置は、画面301に対応した幅の中で決定される。そのため、画面302や画面303のアプリケーションの音像位置とは重ならず、聞こえている音声がどのアプリケーションのものかを判別しやすくなる。また、上記のようにすると、出力する音声のステレオ効果が損なわれず、臨場感を増すことができる。
In this way, the sound image position of the application displayed on the
また、図3では表示部分300を横に3分割した3つの画面301〜303が表示された場合であったが、表示部分300をn分割した場合は以下のようにL、Rを求めることができる。
その後、アプリケーション・プログラムは、音響環境情報DB23から、ディスプレイ16とスピーカ17,18との位置関係等の音響環境情報を読み出し(S104)、読み出した音響環境情報に基づいて、実際のスピーカ17,18の出力音量を制御する(S105)。すなわち、アプリケーション・プログラムは、左スピーカ17からの出力音量と右スピーカ18からの出力音量によって実際に出力される出力音量が、設定値に基づいて決定された音声出力値となるように制御する。詳細には、アプリケーション・プログラムは、読み出した音響環境情報に基づいて音声の出力量を制御するための制御データを生成し、音声制御部170に入力する。音声制御部170は、この入力された制御データに基づき、スピーカ17,18それぞれに対して音声制御データを入力する。スピーカ17,18は、この音声制御データに基づいた適量の出力量で音声を出力する(S106)。
Thereafter, the application program reads acoustic environment information such as the positional relationship between the
アプリケーション・プログラムは、スピーカ17,18から音声が出力された後、当該アプリケーションの終了要求があるかどかを確認し(S107)、要求がない場合はループしてS101の処理へ戻る。また、アプリケーション・プログラムは、終了要求があった場合は各種処理を終了する。
このような一連の処理S101〜S107によって、例えば、ユーザがアプリケーションの表示画面のサイズを拡大・縮小したり、表示画面の表示位置を右から左へ移動させたりしても、その都度、出力音量や音像位置を画面表示に追従させることができる。
After the sound is output from the
Through such a series of processes S101 to S107, for example, each time the user enlarges / reduces the size of the display screen of the application or moves the display position of the display screen from right to left, the output volume And the sound image position can follow the screen display.
続いて、図4を用いて、本発明に係るPC10の画面表示情報の設定処理について説明する。図4は、この画面表示情報の設定処理の一例を示すフローチャートである。
ユーザは、キーボード・マウス15を用いて、ディスプレイ16の画面上に表示されているアプリケーションの表示位置や表示サイズを変更する(S111)。すると、アプリケーション・プログラムは、ユーザ入力制御部150からアプリケーションの表示位置や表示サイズを取得し(112)、画面表示情報DB22に格納する。これによって、その都度、画面表示情報DB22が更新され(S113)、画面表示情報の設定が完了する。
それとともに、アプリケーション・プログラムは、ユーザ入力制御部150から、この変更されたアプリケーションの表示位置や表示サイズを示すデータを取得する。アプリケーション・プログラムは、取得した表示位置や表示サイズを画面表示制御部160に入力し、画面表制御部160はこれらに基づいてディスプレイ16の表示画面を変更する(S114)。
Next, the screen display information setting process of the
The user changes the display position and display size of the application displayed on the screen of the
At the same time, the application program acquires data indicating the display position and display size of the changed application from the user
なお、ここでは最後のS114において表示画面の変更が行われているが、これに限らず、表示画面の変更をS111〜S114の途中で行ってもよい。例えば、S111におけるアプリケーションの表示位置・大きさの変更指示を行った後すぐに、S114の表示画面の変更を行い、続いてS112の表示位置・大きさの情報の取得、S113の画面表示情報DB22の変更を行ってもよい。
Here, the display screen is changed in the last S114. However, the present invention is not limited to this, and the display screen may be changed in the middle of S111 to S114. For example, immediately after an instruction to change the display position / size of the application in S111 is performed, the display screen is changed in S114, the display position / size information is acquired in S112, and the screen
またさらに、ユーザがアプリケーション内での映像の表示位置を移動したりした場合についても、図4に示された処理と同様の処理が行われる。アプリケーション・プログラムは、ユーザ入力制御部150から映像の表示位置を取得し、画面表示情報DB22に格納する。これによって、画面表示情報DB22が更新され、画面表示情報の設定が完了する。
それとともに、アプリケーション・プログラムは、ユーザ入力制御部150から、この変更された表示位置を示すデータを取得する。アプリケーション・プログラムは、取得した表示位置を画面表示制御部160に入力し、画面表制御部160はこれらに基づいてディスプレイ16の表示画面を変更する。
Furthermore, when the user moves the display position of the video within the application, the same processing as that shown in FIG. 4 is performed. The application program acquires the display position of the video from the user
At the same time, the application program acquires data indicating the changed display position from the user
またさらに、ユーザが別のアプリケーションを起動した場合についても同様である。すなわち、この別のアプリケーションが起動するのに応じて、この別のアプリケーションのプログラムは、アプリケーションの起動を示すデータを取得し、画面表示情報DB22に格納する。これによって、画面表示情報DB22が更新され、画面表示情報の設定が完了する。それとともに、別個起動したアプリケーション・プログラムは、アプリケーションの表示画面を示すデータを画面表示制御部160に入力する。画面表制御部160は、これに基づいて、起動されたアプリケーション画面を表示する。
The same applies to the case where the user starts another application. That is, in response to the activation of this other application, the program of this other application acquires data indicating the activation of the application and stores it in the screen
さらに続いて、図5を用いて、本発明に係るPC10の音響環境情報の設定処理について説明する。ここで、適宜図1及び図6を参照しながら説明する。図5は、この音響環境情報の設定処理の一例を示すフローチャートである。ここでは、上記のGUIを用いた設定方法について説明する。
ユーザは、キーボード・マウス15を用いて、ディスプレイ16の画面上で音響環境を入力する(S121)。図6に、ディスプレイ16に表示された表示画面の一例が示されている。図6に示すように、表示部分310下部のアイコンフィールド410に、ディスプレイ用アイコン411、左スピーカ用アイコン412、右スピーカ用アイコン413が予め用意されている。ユーザは、キーボード・マウス15を使用して、表示部分310上部の配置フィールド420にアイコン411〜413をドラッグ&ドロップ等によって移動させる。すると、アプリケーション・プログラムは、ユーザ入力制御部150を介して、アイコン411〜413の大きさと表示位置を自動的に読み取る。アプリケーション・プログラムは、この読み取ったデータに基づいて、ディスプレイ16とスピーカ17,18の位置関係を算出する(S122)。
Subsequently, the acoustic environment information setting process of the
The user inputs the acoustic environment on the screen of the
アプリケーション・プログラムは、算出した位置関係を示すデータを音響環境情報DB23へ格納し、音響環境DB23が更新される(S123)。これによって、音響環境情報の設定が完了し、ディスプレイ16とスピーカ17,18との相対位置が設定される。また、ディスプレイ16とスピーカ17,18の相対位置をより直感的に設定しやすくするように、アイコン411〜413を拡大、縮小できるようにしてもよい。また、左右のスピーカ17,18のアイコン412,413を右用、左用に分けず、ディスプレイ用アイコン411の左にあるスピーカアイコンを左スピーカ、右にあるスピーカアイコンを右スピーカと自動的に判別するようにしてもよい。
The application program stores data indicating the calculated positional relationship in the acoustic
また、音響環境情報DB23の設定入力は、本発明に係る音響出力処理アプリケーションが起動していないときでも、ユーザ入力によって直接データベースを更新できるようにしておいてもよい。さらに、ユーザがこれらを入力しない場合に備えて、代表的な値を初期設定として設定しておいてもよい。
また、ユーザの直接入力によって音響環境情報DB22を更新する場合もまた、同様に処理が行われる。この場合は、アプリケーションが起動中である必要はない。
The setting input of the acoustic
Further, when the acoustic
以上のように、本発明によれば、ディスプレイ16上に表示されている各アプリケーションの表示位置が画面表示情報DB22に格納されている。そのため、この格納された画面表示情報に基づいて、左右のスピーカ17,18それぞれから出力される音量を調節することができる。それ故、ディスプレイ16上に複数のアプリケーションが起動している場合でも、ディスプレイ16上に表示されている各アプリケーションの表示位置に、音像位置を対応させることができる。従って、ユーザは、出力音声がどのアプリケーションで出力した音声か、画面の内容を確認しなくても、音声を聞いただけで直感的に判別することができる。
As described above, according to the present invention, the display position of each application displayed on the
特に、コンソールアプリケーションなどで、同一のビープ音が出力されたりした場合には、ユーザは聞こえるビープ音の方向が判別することができるので、上記の効果が顕著となる。また、左右のスピーカ17,18が画面から遠いところに配置されている場合や、左右のスピーカ17,18の中央に画面がない場合でも、画面表示位置と音像位置とが対応しているので、上記の効果と同様の効果を得ることができる。
In particular, when the same beep sound is output in a console application or the like, the user can determine the direction of the beep sound that can be heard, and thus the above-described effect becomes remarkable. In addition, even when the left and
さらに、ディスプレイ16の位置とスピーカ17,18の位置、種類などの音響環境情報が音響環境情報DB23に格納されている。それとともに、出力音量の変更時は、ディスプレイ16とスピーカ17,18それぞれまでの距離を、出力音量を決定付けるパラメータとして使用する。そのため、この音響環境情報に基づいて、スピーカ17,18からの出力音量を変えることができる。それ故、ディスプレイ16とスピーカ17,18の位置関係に依存せずに、ディスプレイ16の位置に対応した音像位置から音声を出力することができる。
Further, acoustic environment information such as the position of the
なお、モノラル出力のアプリケーションに関しては、音声出力を決める代表位置を決定することにより、本発明を適用可能になる。またなお、音声出力デバイスの出力チャネル数が2チャンネルだった場合は、ディスプレイの横幅と、ディスプレイ16の左右の端から音声出力デバイスまでの距離の相対関係がパラメータとすることができる。
For monaural output applications, the present invention can be applied by determining a representative position that determines audio output. In addition, when the number of output channels of the audio output device is 2, the relative relationship between the horizontal width of the display and the distance from the left and right ends of the
さらにまた、音響環境情報DB32は、アプリケーションの起動状況にかかわらずいつでも、変更・更新することが可能である。それとともに、出力音量の決定時に毎回音響環境情報DB23の内容を参照する。そのため、アプリケーションが起動中か否かにかかわらず、音声出力デバイスの種類や位置を変更すると、出力音量の変更を随時追随することができる。それ故、ユーザは、常に最適な音響環境で音声を聞くことができる。
Furthermore, the acoustic environment information DB 32 can be changed / updated at any time regardless of the activation status of the application. At the same time, the contents of the acoustic
このように、画面表示情報DB22の画面表示情報、音響環境情報DB23の音響環境情報を読み出しているので、アプリケーション画面の表示位置が変わったり、起動中のアプリケーションの数が増減したりしても、音像位置が追従する。そのため、ユーザはいつでも安心して自分の好みどおりの映像配置に変更することができる。
Thus, since the screen display information of the screen
また、ディスプレイ16とスピーカ17,18の相対位置をパラメータとしているため、定量的な距離を把握する必要がない。そのため、ユーザは、定量的な値で設定値を入力することなく、GUIなどのユーザインターフェースを用いて、感覚的にディスプレイとスピーカ17,18の音像位置を簡便に指定することができる。
Further, since the relative position between the
発明の実施の形態2.
発明の実施の形態1においては、音声出力値の決定時における表示画面が画面301〜303に等分に分割されていたが、これに限らず、アプリケーションの起動画面を任意の場所に表示することができる。
図7に、音声出力値の決定時における表示画面の他の一例が示されている。図7においては、2つのアプリケーションが起動し、表示部分310に、2つの画面311、画面312が表示されている。表示部分310の左端を0とし、そこから各画面311,312の右端、左端までの長さをそれぞれxL1、xR1、xL2、xR2し、画面311の左端から右端までの長さをxdispとする。また、画面311に表示されているアプリケーションのステレオ音声をL1、R1、画面312の音声を同様にL2、R2とする。ステレオ音声を再生するスピーカLとRは、ディスプレイ16の表示部分310の左端、右端に配置されている。
このとき、L、Rから出力される音声は例えばそれぞれ以下のようになる。
このとき、L、Rから出力される音声は例えばそれぞれ以下のようになる。
In the first embodiment of the invention, the display screen at the time of determining the audio output value is divided equally into the
FIG. 7 shows another example of the display screen when the audio output value is determined. In FIG. 7, two applications are activated, and two
At this time, sounds output from L and R are as follows, for example.
At this time, sounds output from L and R are as follows, for example.
また、アプリケーションによって、モノラル音声出力とステレオ音声出力それぞれのアプリケーションが混ざって実行されていることがある。この場合は、式(7)、式(8)、式(11)、式(12)をLとRに分けて加算するなどすることで、適切な出力値を求めることができる。 Further, depending on the application, there may be cases where the monaural audio output and the stereo audio output are mixed and executed. In this case, an appropriate output value can be obtained by dividing Formula (7), Formula (8), Formula (11), and Formula (12) into L and R and adding them.
これらの方法を用いると、ディスプレイ16上の各アプリケーションが左右に離れて配置されていたり、逆に重なり合う位置に配置されていたりする場合も、各画面表示位置に適応した音像位置で音声を聞くことができる。つまり、各画面表示位置をどのように配置しても、それぞれの音像位置を柔軟に対応させることができる。また、音声出力デバイスが3チャネル以上ある場合など上下や奥行きなどの音像位置を表現できる場合には、映像の上下方向に関する位置の差を算出してもよい。
When these methods are used, even when the applications on the
発明の実施の形態3.
発明の実施の形態1〜3においては、左右のスピーカ17,18から出力される音量をアプリケーション画面から決定しているが、PC10とスピーカ17,18との物理的な配置関係から決定することもできる。
図9に、PC10とスピーカ17,18との配置関係の一例が示されている。左スピーカ17と右スピーカ18の位置がディスプレイ16から離れており、左スピーカ17からディスプレイ16の左端までの距離をDL、ディスプレイ16の左端から右端までの距離をDdisp、ディスプレイ16の右端から右スピーカ18までの距離をDRとする。また、ディスプレイ16に隣接した位置に最適化した場合のスピーカ出力値を、左右それぞれLdisp、Rdispとする。このとき、左右のスピーカ17,18からの出力音量バランスL、Rは、例えば下記のように表すことができる。
In the first to third embodiments of the present invention, the sound volume output from the left and
FIG. 9 shows an example of an arrangement relationship between the
このように、上記の式(13)、式(14)を用いることにより、ディスプレイ16がスピーカ17,18の中央にない場合であっても、ディスプレイ16の位置に適合した音像位置となるよう音量バランスを決定することができる。また、音声出力デバイスが上下や奥行きなどの音像位置を表現できる場合は、ディスプレイ位置に適合した音像位置になるよう、別途計算してもよい。
Thus, by using the above formulas (13) and (14), the sound volume is adjusted so that the sound image position is suitable for the position of the
発明の実施の形態4.
発明の実施の形態1〜3においては音声出力デバイスとしてスピーカが用いられた場合について説明したが、スピーカに替えてヘッドフォンを用いることができる。この場合にも、PC10の内部構成は同様であり、ヘッドフォンは、PC10の音声出力制御部170に接続されている。
Embodiment 4 of the Invention
In the first to third embodiments of the present invention, the case where a speaker is used as an audio output device has been described. However, headphones can be used instead of the speaker. Also in this case, the internal configuration of the
図10に、音声出力デバイスとしてヘッドフォンを用いた場合の配置状態が示されている。図10に示すように、ユーザ50の正面にディスプレイ51が配置され、このユーザ50はヘッドフォン52を装着している。この場合、ユーザ50には、Ldispの音声が左隣の位置から聞こえ、Rdispの音声が右隣の位置から聞こえている。この場合、音声は180度の広がりを持ってユーザ50に聞こえるが、映像は正面に表示されている。ユーザ50にとっては、視覚と聴覚での感覚に不一致が生じるので、不快に感じたり、混乱を招いたりする可能性がある。
FIG. 10 shows an arrangement state when headphones are used as an audio output device. As shown in FIG. 10, a
ヘッドフォン52が用いられる場合には、例えば、図11に示すように、アイコンフィールド410に、ヘッドフォン52の利用を示すチェックボックス414が用意されている。このチェックボックス414がチェックされている場合には、左右のスピーカ用アイコン412,413は、ヘッドフォン52の左右の音声出力デバイスに対応付けられている。
詳細には、ユーザがチェックボックス414をチェックすると、アプリケーション・プログラムは、チェックボックス14がチェックされたことを示すデータを取得し、このデータを音響環境情報DB23に格納する。アプリケーション・プログラムは、このチェックに関するデータとともに音響環境情報を音響環境情報DB23から読み込み、上記スピーカ17,18が用いられた場合の処理と同様の処理が行われる。これによって、予め決められた相対位置の情報を使用してヘッドフォン52に左右の音声出力デバイスから出力される音声出力量が算出される。
When the
Specifically, when the user checks the
なお、ヘッドフォン52を用いた場合もまた、音声出力デバイス情報や音響環境情報の設定方法は、上記のようにGUIを用いた定性的な設定方法に限られない。定量的な設定方法の一例として、ユーザが予め画面上で希望する定量的な固定値を直接入力したり、予め作成された数値例から所望の数値を画面上で選択したりしてもよい。このように、ユーザが具体的な数値を入力することによって擬似的に環境を模擬することが可能となる。
Even when the
また、配置フィールドにおいて、左右のスピーカ用アイコン412,413をディスプレイの横幅より十分離して配置して計算することにより、状況を擬似的に作り出すことができる。このような方法で、出力調整方法を利用すれば、聞こえる音像位置をディスプレイの見える位置にあわせて、中心部など好きな位置へずらすことができる。これにより、ユーザ50が実際に見ている画面の位置と、聞こえている音像位置が比較的一致するので、不快感を少なくすることができる。
Further, in the arrangement field, the situation can be created in a pseudo manner by calculating by arranging the left and
また、図10においては、ヘッドフォン52における仮想的な左右の音声出力デバイスの配置を決定するものであったが、音声出力デバイスが3チャネル以上の出力チャネルである場合には上下方向も表現可能であり、5.1chシステムなどで奥行きなども表現可能である。このような場合には、図11と同様のGUIによって、ヘッドフォン52における仮想的な左右の音声出力デバイスの相対位置を設定できるようにすることができる。
In FIG. 10, the arrangement of the virtual left and right audio output devices in the
すなわち、ヘッドフォン52を音声出力デバイスとして用いた場合にも、ディスプレイ16と仮想的な左右の音声出力デバイスとの相対位置をパラメータとしている。そのため、定量的な距離が入力できなくても画面の表示位置と音像位置とを対応させることが可能となる。それ故、画面の表示位置内容やユーザからのディスプレイの見える角度などに応じて、発明の実施の形態1〜3と同様の効果を得ることができる。
このように、ヘッドフォン52への音声出力を行うたびに画面表示情報DB22の画面表示情報、音響環境情報DB23の音響環境情報を読み出しているので、アプリケーションの実行中に音声出力デバイスをスピーカ17,18からヘッドフォン52に変更したしても、音像位置が追従する。そのため、ユーザはいつでも安心して自分の好みどおりの映像配置に変更することができる。
That is, even when the
As described above, since the screen display information of the screen
発明の実施の形態5.
発明の実施の形態1〜4においては、汎用PC10上に画面表示と音声出力を同時に行うアプリケーションを複数実行した場合に、各アプリケーションの表示位置と音像位置を合わせる場合について説明した。
本実施形態においては、同一アプリケーション/システム内(以下、これをまとめてアプリケーションと呼ぶ)で、複数の画面表示部とそれぞれに対応する音声出力がある場合について説明する。本実施形態では、複数の通信相手からそれぞれ映像、音声を受信して表示、再生するテレビ会議システムを例に説明する。
なお、本実施形態では、汎用PC上でテレビ会議用アプリケーションを実行してテレビ会議を実現するものとして説明するが、本発明は、専用のハードウェアやシステムを用いてテレビ会議機能を実現するシステムに適用することができる。
Embodiment 5 of the Invention
In the first to fourth embodiments of the invention, a case has been described in which when a plurality of applications that simultaneously perform screen display and audio output are executed on the general-
In the present embodiment, a case will be described in which there are a plurality of screen display units and corresponding audio outputs in the same application / system (hereinafter collectively referred to as an application). In this embodiment, a video conference system that receives, displays, and reproduces video and audio from a plurality of communication partners will be described as an example.
In the present embodiment, the video conference application is executed by executing the video conference application on the general-purpose PC. However, the present invention is a system that realizes the video conference function using dedicated hardware and system. Can be applied to.
図12のように、汎用PCであるPC101、PC102、PC103は、ネットワーク140に接続されている。これらPC101〜103は同様に構成されている。ここでは、PC101の構成についてのみ説明し、その他のPC102,103の構成について省略する。図13に、本実施形態におけるPC101の主な内部構成が示されている。
図13に示すように、PC101は、ステレオスピーカとなる左右のスピーカ17,18、ステレオマイクとなるマイク19,20、カメラ21を備えている。また、スピーカはステレオスピーカではなく、3チャネル以上の出力を持つスピーカであってもよいし、スピーカに替えてヘッドフォンを用いることもできる。マイクにモノラルマイクを使用してもよい。さらに、映像を送信しない場合はカメラ21がなくてもよいが、その場合は通信相手の受信者は映像の代替になるような画面等が表示されているものとする。また、PC101のその他の構成は、PC10の構成における符号と同じ符号を付したデバイスは同じであり、ここではその説明を省略する。
As shown in FIG. 12, the general-
As illustrated in FIG. 13, the
図13に示すように、PC101は、画面表示情報DB22に替えて受信映像表示情報DB221を有する。
受信映像表示情報DB221は、PC101が受信したデータをディスプレイ16に表示される画面に関する画面表示情報を保持するデータベースである。例えば、受信映像表示情報DB221は、ディスプレイ16上の通信相手の映像を表示するアプリケーションの表示位置等を格納している。この表示位置情報には、例えば、画面の表示位置や大きさ等がある。
受信映像表示情報DB221は、画面表示情報DB22と同様の機能を持つデータベースであり、各映像の表示位置を変更したり、データベースへの直接的なユーザ入力により随時更新されたりする。
As shown in FIG. 13, the
The received video
The received video
図14に、テレビ会議システムにおけるPC101の全体処理の一例を示すフローチャートが示されている。
図14に示すように、PC101は、テレビ会議用アプリケーションを起動し(S131)、他のPC102,103との通信を開始する(S132)。これによって、PC101は、ネットワーク28を介してPC20、PC30との通信中となり、それぞれの映像と音声を送受信する。このとき、アプリケーション・プログラムは、通信制御部14に対して、ネットワーク140との接続を実行するための制御信号を入力する。通信制御部140は、この制御信号に基づいて、通信制御を行ってネットワーク140との接続を確立している。
ここで、通信の接続方法はシステムによって異なる。例えば、P2P(Peer to Peer)方式の場合は、それぞれの端末からの映像や音声を送受信するため、会議に参加する各PC101〜103とそれぞれ通信を確立する。つまり、例えば自端末のほかに5端末と通信を行う場合は、PC10は5つの通信を確立する。なお、会議の参加者が自端末以外は1端末だった場合は、1対1の通信となる。また、MCU(Multipoint Control Unit)などのサーバを用いる場合は、一般にPCとMCU間とのみ通信を確立する。ただし、音声のみMCU方式で、映像はP2P方式など、上記の両方の性質を持った接続形態もありうる。
FIG. 14 is a flowchart showing an example of the overall processing of the
As shown in FIG. 14, the
Here, the communication connection method differs depending on the system. For example, in the case of the P2P (Peer to Peer) method, in order to transmit and receive video and audio from each terminal, communication is established with each of the
テレビ会議用のアプリケーション・プログラムは、受信映像表示情報DB126から、受信したそれぞれの映像の表示位置情報に関する設定値(受信映像表示情報)を読み込み、画面に表示する(S133)。このアプリケーション・プログラムは、この読み込んだ設定値を画面表示制御部160に入力する。画面表示制御部160は、入力された設定値に基づいてディスプレイ16の表示制御を行い、映像の表示を行う。
テレビ会議用のアプリケーション・プログラムは、読み込んだ設定値に基づいて、左右のスピーカ17,18を合わせて出力する音声出力値を算出して決定する(S134)。この音声出力値の決定は、発明の実施の形態1〜3と同様に、受信した音声がステレオだった場合は式(7)、式(8)、モノラルだった場合は、式(11)、式(12)などの方法を用いて、映像の表示位置に応じた音像位置になるよう音量調節が行われる。
The TV conference application program reads the setting values (received video display information) related to the display position information of each received video from the received video display information DB 126 and displays them on the screen (S133). The application program inputs the read setting value to the screen
The video conference application program calculates and determines an audio output value to be output by combining the left and
その後、テレビ会議用のアプリケーション・プログラムは、音響環境情報DB23から音響環境情報を読み出し(S135)、読み出した音響環境情報に基づいて、実際にスピーカ17,18の出力音量を制御する(S136)。スピーカ17,18は、この音響環境情報に基づいた適量の出力量で音声を出力する(S137)。このアプリケーション・プログラムは、スピーカ17,18から音声が出力された後、終了要求があるかどかを確認し(S138)、要求がない場合はループしてS131の処理へ戻る。また、テレビ会議用のアプリケーション・プログラムは、終了要求があった場合は各種処理を終了する。
Thereafter, the video conference application program reads the acoustic environment information from the acoustic environment information DB 23 (S135), and actually controls the output volume of the
また、本実施形態におけるPC101が受信映像表示情報を設定する場合には、PC102,103を使用している通信相手が表示されたテレビ会議用アプリケーションの表示位置や表示サイズを変更する。PC101は、この表示位置・サイズの変更にともなって、PC10と同様の設定処理を行う。
When the
以上のように、テレビ会議システムのような、アプリケーション内で、複数の映像と音声を同時に表示・再生するシステムにおいても、本発明を利用することができる。本発明を適用すると、音声出力デバイスがどのような種類、位置にあっても、画面位置にあわせた音像位置で音声を聞くことができる。そのため、映像の表示位置と音声の音像位置が一致するので、ユーザは聞いている声がどの映像に映っている人の声か容易に判別できるようになる。 As described above, the present invention can also be used in a system that simultaneously displays and reproduces a plurality of videos and sounds in an application, such as a video conference system. By applying the present invention, it is possible to listen to the sound at the sound image position that matches the screen position regardless of the type and position of the sound output device. For this reason, the display position of the video and the sound image position of the sound coincide with each other, so that the user can easily determine which video the person is listening to.
また、会議中に映像の表示サイズや表示位置を変更しても、随時、音像位置を追従させることができるため、ユーザは安心して映像のサイズや位置を変更することができる。例えば、その時々に中心的に聞き取りたい人の映像の位置をディスプレイの中心に移動すれば、音声が中央から聞こえることになり集中しやすくなる。 In addition, even if the display size and display position of the video are changed during the conference, the sound image position can be tracked at any time, so that the user can change the video size and position with peace of mind. For example, if the position of the image of the person who wants to hear at the center is moved to the center of the display, the sound can be heard from the center and concentrated.
あるいは、表示サイズを大きくすれば、左右により広がりのある音声出力を得られ、その人の発言がより聞き取りやすくなる。また、ステレオで音声を受信した場合も、左右の音量差等のステレオ効果を損なうことなく音声出力することができる。このように、本発明をテレビ会議システムに適用すると、より臨場感のあるコミュニケーションを実現することができる。 Alternatively, if the display size is increased, a wider voice output can be obtained from the left and right, and the person's speech can be heard more easily. In addition, even when audio is received in stereo, audio can be output without impairing stereo effects such as left and right volume differences. As described above, when the present invention is applied to the video conference system, more realistic communication can be realized.
その他の発明の実施の形態.
発明の実施の形態1〜5においては、音声環境情報DB23の内容に基づいて音声出力デバイス(スピーカ17,18やヘッドフォン52)の音量を左右で調整することによって、アプリケーション画面の表示位置と音像位置とを対応させた。これに対して、左右の出力音声それぞれの位相を制御することによって、アプリケーション画面の表示位置と音像位置とを対応させることもできる。本実施形態においては、この位相調整による方法について説明する。ここで、適宜図1を参照しながら説明する。
Other Embodiments of the Invention
In the first to fifth embodiments of the present invention, the display position and the sound image position of the application screen are adjusted by adjusting the sound volume of the sound output devices (
アプリケーションの起動にともなって、起動したアプリケーション・プログラムは、映像の画面表示位置、表示サイズなどの設定値(画面表示情報)を画面表示情報DB22から読み込む。アプリケーション・プログラムは、この読み込んだ設定値を画面表示制御部160に入力する。画面表示制御部160は、入力された設定値に基づいてディスプレイ16の表示制御を行い、映像の表示を行う。
With the activation of the application, the activated application program reads setting values (screen display information) such as the screen display position and display size of the video from the screen
アプリケーション・プログラムは、読み込んだ設定値に基づいて、左右のスピーカ17,18を合わせて出力する音声の位相を算出して決定する。アプリケーション・プログラムは、音響環境情報DB23から、ディスプレイ16とスピーカ17,18との位置関係等の音響環境情報を読み出す。アプリケーション・プログラムは、読み出した音響環境情報に基づいて、実際にスピーカ17,18から出力される音声の位相を制御する。
The application program calculates and determines the phase of the sound output from the left and
詳細には、アプリケーション・プログラムは、読み出した音響環境情報に基づいて音声の位相を制御するための制御データを生成し、音声制御部170に入力する。音声制御部170は、この入力された制御データに基づき、スピーカ17,18それぞれに対して位相制御データを入力する。スピーカ17,18は、この位相制御データに基づいた左右で位相の異なる音声を出力する。すなわち、ユーザに到達する時間の異なる音声が左右のスピーカ17,18から出力される。
また、アプリケーション・プログラムは、スピーカ17,18から音声が出力された後、終了要求があるかどかを確認し、ループ若しくは終了処理を実行する。
このように出力音声の位相を利用することによっても、発明の実施の形態1〜5と同様の効果を得ることができる。
Specifically, the application program generates control data for controlling the phase of the voice based on the read acoustic environment information, and inputs the control data to the
The application program confirms whether there is an end request after the sound is output from the
Thus, the same effects as those of the first to fifth embodiments can be obtained also by using the phase of the output sound.
10…PC、11…CPU、12…メモリ、13…外部記憶装置、14…通信制御部、
15…キーボード・マウス、16…ディスプレイ、17…左スピーカ、18…右スピーカ、
19…左マイク、20…右マイク、21…カメラ、
22…画面表示情報DB、23…音響環境情報DB
140…ネットワーク、150…ユーザ入力制御部、160…画像表示制御部、
170…音声制御部、210…キャプチャデバイス
DESCRIPTION OF
15 ... Keyboard / mouse, 16 ... Display, 17 ... Left speaker, 18 ... Right speaker,
19 ... Left microphone, 20 ... Right microphone, 21 ... Camera,
22 ... screen display information DB, 23 ... acoustic environment information DB
140 ... network, 150 ... user input control unit, 160 ... image display control unit,
170: Voice control unit, 210 ... Capture device
Claims (14)
前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、
前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、
当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えた音声出力方法。 Each of a plurality of application programs displays a plurality of screens on a display, and outputs a sound corresponding to each of the plurality of screens from a plurality of sound output devices,
Obtaining screen display information indicating display positions of the plurality of screens on the display;
Obtaining acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices;
An audio output method comprising a step of outputting audio corresponding to the screen display information from each of the plurality of audio output devices based on the acoustic environment information.
前記複数の音声出力デバイスによって出力される音声は、前記デバイス配置情報に基づいて制御されることを特徴とする請求項2又は3記載の音声出力方法。 The acoustic environment information includes device arrangement information indicating a positional relationship between the display and each of the plurality of audio output devices,
The audio output method according to claim 2 or 3, wherein audio output by the plurality of audio output devices is controlled based on the device arrangement information.
前記音声を出力するステップでは、前記画面位置関係に応じて、前記複数の音声出力デバイスそれぞれが前記音声を出力することを特徴とする請求項7記載の音声出力方法。 The screen display information is screen position information indicating a position of the screen on the display,
8. The audio output method according to claim 7, wherein in the step of outputting the audio, each of the plurality of audio output devices outputs the audio according to the screen positional relationship.
前記ディスプレイ上に、前記音声出力デバイスを示す音声出力デバイス用アイコンを表示するステップと、
前記ディスプレイ上での前記ディスプレイ用アイコンと前記音声出力デバイス用アイコンとの位置関係に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を格納するステップを有することを特徴とする請求項10記載の音声出力方法。 Storing the acoustic environment information comprises displaying a display icon indicating the display on the display;
Displaying an audio output device icon indicating the audio output device on the display;
Storing device arrangement information indicating a positional relationship between the display and the audio output device according to a positional relationship between the display icon and the audio output device icon on the display. The audio output method according to claim 10.
当該入力画面に、前記ディスプレイと前記音声出力デバイスとの位置関係を示すデバイス配置情報を入力するステップと、
当該入力されたデバイス配置情報に応じて、前記ディスプレイと前記音声出力デバイスとの位置関係を示す数値を格納するステップを有することを特徴とする請求項10記載の音声出力方法。 Storing the acoustic environment information includes displaying an input screen for inputting the acoustic environment information on the display;
Inputting device arrangement information indicating a positional relationship between the display and the audio output device on the input screen;
11. The audio output method according to claim 10, further comprising a step of storing a numerical value indicating a positional relationship between the display and the audio output device according to the input device arrangement information.
前記ディスプレイ上における前記複数の画面の表示位置を示す画面表示情報を取得するステップと、
前記ディスプレイと複数の音声出力デバイスそれぞれとの位置関係を示す音響環境情報を取得するステップと、
当該音響環境情報に基づいて、前記画面表示情報に応じた音声を前記複数の音声出力デバイスそれぞれから出力するステップを備えたコンピュータに実現させるための音声出力プログラム。 Each of the plurality of application programs is a program for causing a computer to display a plurality of screens on a display and to output a sound corresponding to each of the plurality of screens from a plurality of sound output devices,
Obtaining screen display information indicating display positions of the plurality of screens on the display;
Obtaining acoustic environment information indicating a positional relationship between the display and each of the plurality of audio output devices;
An audio output program for causing a computer to include a step of outputting audio corresponding to the screen display information from each of the plurality of audio output devices based on the acoustic environment information.
前記複数の音声出力デバイスとを有する情報処理装置であって、
前記複数のアプリケーション・プログラムと、
請求項13記載のプログラムとを、さらに有する情報処理装置。 The display;
An information processing apparatus having the plurality of audio output devices,
The plurality of application programs;
An information processing apparatus further comprising the program according to claim 13.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005084605A JP2006270425A (en) | 2005-03-23 | 2005-03-23 | Method and program for outputting sound, and information processor |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2005084605A JP2006270425A (en) | 2005-03-23 | 2005-03-23 | Method and program for outputting sound, and information processor |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2006270425A true JP2006270425A (en) | 2006-10-05 |
Family
ID=37205923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005084605A Pending JP2006270425A (en) | 2005-03-23 | 2005-03-23 | Method and program for outputting sound, and information processor |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2006270425A (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011199903A (en) * | 2011-06-09 | 2011-10-06 | Toshiba Corp | Information processing apparatus and audio output control method in the same |
JP2013176140A (en) * | 2013-04-25 | 2013-09-05 | Sharp Corp | Television device and speaker system |
US8953100B2 (en) | 2010-01-29 | 2015-02-10 | Kabushiki Kaisha Toshiba | Information processing apparatus and audio output control method of an information processing apparatus |
JP2020145577A (en) * | 2019-03-06 | 2020-09-10 | Kddi株式会社 | Acoustic signal synthesizer and program |
-
2005
- 2005-03-23 JP JP2005084605A patent/JP2006270425A/en active Pending
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8953100B2 (en) | 2010-01-29 | 2015-02-10 | Kabushiki Kaisha Toshiba | Information processing apparatus and audio output control method of an information processing apparatus |
JP2011199903A (en) * | 2011-06-09 | 2011-10-06 | Toshiba Corp | Information processing apparatus and audio output control method in the same |
JP2013176140A (en) * | 2013-04-25 | 2013-09-05 | Sharp Corp | Television device and speaker system |
JP2020145577A (en) * | 2019-03-06 | 2020-09-10 | Kddi株式会社 | Acoustic signal synthesizer and program |
JP7065801B2 (en) | 2019-03-06 | 2022-05-12 | Kddi株式会社 | Acoustic signal synthesizer and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6086188B2 (en) | SOUND EFFECT ADJUSTING DEVICE AND METHOD, AND PROGRAM | |
JP6051208B2 (en) | Present or shared state in the presence | |
CN107168518B (en) | Synchronization method and device for head-mounted display and head-mounted display | |
US20220078374A1 (en) | Methods To Improve Person-to-Person Interactions In Video Conferences | |
CN111492342B (en) | Audio scene processing | |
EP4367846A1 (en) | User-configurable spatial audio based conferencing system | |
WO2022241022A1 (en) | Customized audio mixing for users in virtual conference calls | |
JP2006270425A (en) | Method and program for outputting sound, and information processor | |
JP7052792B2 (en) | Communication devices, communication methods, programs, and telepresence systems | |
CN114520950B (en) | Audio output method, device, electronic equipment and readable storage medium | |
JP7472091B2 (en) | Online call management device and online call management program | |
JP2005094271A (en) | Virtual space sound reproducing program and device | |
US20240064485A1 (en) | Systems and methods for sound-enhanced meeting platforms | |
JP6651231B2 (en) | Portable information terminal, information processing device, and program | |
US11102606B1 (en) | Video component in 3D audio | |
GB2598897A (en) | Virtual meeting platform | |
KR101111734B1 (en) | Sound reproduction method and apparatus distinguishing multiple sound sources | |
JP5282613B2 (en) | Video conference device, video conference system, video conference control method, and program for video conference device | |
US11523242B1 (en) | Combined HRTF for spatial audio plus hearing aid support and other enhancements | |
US11589184B1 (en) | Differential spatial rendering of audio sources | |
JP7138217B2 (en) | TERMINAL DEVICE, COMMUNICATION SYSTEM, CONTROL METHOD AND PROGRAM THEREOF | |
US11792581B2 (en) | Using Bluetooth / wireless hearing aids for personalized HRTF creation | |
WO2023176389A1 (en) | Information processing device, information processing method, and recording medium | |
US20240015462A1 (en) | Voice processing system, voice processing method, and recording medium having voice processing program recorded thereon | |
US20230370801A1 (en) | Information processing device, information processing terminal, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20080425 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20080603 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20081007 |