JP4364024B2 - Mobile device - Google Patents

Mobile device Download PDF

Info

Publication number
JP4364024B2
JP4364024B2 JP2004078641A JP2004078641A JP4364024B2 JP 4364024 B2 JP4364024 B2 JP 4364024B2 JP 2004078641 A JP2004078641 A JP 2004078641A JP 2004078641 A JP2004078641 A JP 2004078641A JP 4364024 B2 JP4364024 B2 JP 4364024B2
Authority
JP
Japan
Prior art keywords
sound
data
unit
sound source
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2004078641A
Other languages
Japanese (ja)
Other versions
JP2005269231A (en
Inventor
紀子 松本
保 伊藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2004078641A priority Critical patent/JP4364024B2/en
Publication of JP2005269231A publication Critical patent/JP2005269231A/en
Application granted granted Critical
Publication of JP4364024B2 publication Critical patent/JP4364024B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a portable terminal by which a user can simultaneously and comfortably listen to reproduced sound and incoming tone even if there is an incoming call when sound reproduction is already executed. <P>SOLUTION: If a communication part 101 receives a request for the sound reproduction of incoming call notification when music data stored in a storage part 102 are read out and the music is reproduced from a sound output part 105 by the music data, a control part 107 controls a 3D sound preparing part 106 and forms the music data, by which the music data can be obtained from a sound source by setting a sound source position at an arbitrary position in a three-dimensional space, to the music data during listening. The control part 107 also forms incoming tone data, by which the incoming tone can be obtained from a sound source by setting the sound source at another arbitrary position in the three-dimensional space, to the incoming tone. The formed music data and incoming tone data are supplied to a sound output part 105. By this, the user can hear the music and the incoming tone as if they are obtained from the sound sources at different positions. <P>COPYRIGHT: (C)2005,JPO&amp;NCIPI

Description

本発明は、携帯電話機などの携帯端末に係り、特に、既に音再生にあるときの着信やメール受信などの報知音も同時に再生する携帯端末に関する。   The present invention relates to a portable terminal such as a cellular phone, and more particularly to a portable terminal that simultaneously reproduces a notification sound such as an incoming call or mail reception when sound reproduction is already in progress.

従来、複数の音の再生が必要となった場合の処理としては、音楽データ再生中着信があった場合、再生中の音楽データをフェードアウト処理しながら、着信音をフェードインして出力する機能や、通話中でも、視聴中の音楽をBGMとして再生する機能を有する携帯電話機が提案されている(例えば、特許文献1参照)。
特開2002−199056号公報
Conventionally, when a plurality of sounds need to be played back, if there is an incoming call while playing music data, the process of fading out the ringtone while outputting the music data being played back, There has been proposed a mobile phone having a function of reproducing music being viewed as BGM even during a call (see, for example, Patent Document 1).
Japanese Patent Laid-Open No. 2002-199056

携帯電話機では、音楽視聴などのために既に音を再生しているときに着信があると、その着信報知の音の再生が必要となる場合がある。   In a mobile phone, if there is an incoming call while a sound is already being reproduced for music viewing or the like, it may be necessary to reproduce the incoming call notification sound.

上記特許文献1に記載の従来の携帯端末では、音楽再生中に着信があると、再生中の音楽をフェードアウト処理しながら、着信音をフェードインして出力し、段階的に着信音へ移行することを可能にしているし、また、通話中でも、音楽データを通話音とをミキシングすることにより、再生中の音楽を通話中のBGMとして利用することも可能としている。   In the conventional portable terminal described in Patent Document 1, when an incoming call is received during music playback, the ringing tone is faded in and output while fading out the music being played back, and the tone is gradually shifted to the ring tone. In addition, even during a call, the music being played can be used as a BGM during a call by mixing the music data with the call sound.

しかしながら、かかる従来技術においては、着信があったときには、この音楽再生中にフェードアウトし、着信音のみの再生になってしまう。せっかく音楽を聴いていたのに、着信のために聞けなくなるのは、ユーザのこれまでの視聴環境を壊してしまい、ユーザにとって快適とは言えない。そこで、再生中の音と着信音とを合成して再生する方法が考えられるが、これらの音が混じってしまうため、聞きたい音データのみを聞き分けるのが難しく、違和感を感じるという問題がある。   However, in such a conventional technique, when an incoming call is received, it fades out during the music reproduction, and only the ring tone is reproduced. Even if the user listens to music, it becomes impossible for the user to listen to the incoming call because the user's conventional viewing environment is broken, which is not comfortable for the user. In view of this, a method of synthesizing and reproducing the sound being played and the ringtone can be considered. However, since these sounds are mixed, there is a problem that it is difficult to distinguish only the sound data to be heard, and it feels uncomfortable.

本発明の目的は既に音データの再生がなされているときに着信音データなどの音再生要求があっても、再生中の音データと音再生が要求される音データとを同時に快適に視聴することが可能な携帯端末を提供することにある。 The object of the present invention is to comfortably view the sound data being played back and the sound data required to be played back simultaneously, even if there is a sound playback request such as ringtone data when the sound data has already been played back. An object of the present invention is to provide a portable terminal that can be used .

本発明に係る携帯端末は、音データを保持する記憶部と、外部からの音声入力や操作などによる入力を行なう入力部と、外部との通信を行なう通信部と、音データを出力する音出力部と、文字データや画像データを表示する画像表示部と、3次元空間での音像の定位のためのに音像の位置を設定し、3D(3次元)音データを作成する3D音作成部と、記憶部,入力部,通信部,音出力部,画像表示部及び3D音作成部の制御を行なう制御部とを備え、制御部は、音再生の要求がある場合に音出力部により音データを出力中であるとき、音再生が要求される音データに対して3D音データを作成し、再生中の音データと作成された3D音データをミキシングし、ミキシングされた音データを音出力部に入力させるように、3D音作成部を制御し、音再生の要求がある場合に音出力部により音データを出力中でないとき、音再生が要求される音データに対して3D音データを作成せず、音再生が要求される音データを音出力部に入力させるように、3D音作成部を制御するものである。 A portable terminal according to the present invention includes a storage unit that stores sound data, an input unit that performs input by external voice input or operation, a communication unit that performs communication with the outside, and a sound output that outputs sound data An image display unit that displays character data and image data, a 3D sound creation unit that sets the position of a sound image for localization of the sound image in a three-dimensional space, and creates 3D (three-dimensional) sound data ; A control unit that controls the storage unit, the input unit, the communication unit, the sound output unit, the image display unit, and the 3D sound generation unit, and the control unit outputs sound data by the sound output unit when there is a request for sound reproduction. Is generated, 3D sound data is created for the sound data for which sound reproduction is required, the sound data being reproduced and the created 3D sound data are mixed, and the mixed sound data is output to the sound output unit. Control the 3D sound generator so that However, when sound data is not being output by the sound output unit when there is a request for sound reproduction, 3D sound data is not created for the sound data for which sound reproduction is requested, and the sound data for which sound reproduction is requested is generated. The 3D sound creation unit is controlled so as to be input to the sound output unit .

本発明によれば、既に音データの再生がなされているときに着信音データの再生などの音再生の要求があっても、再生中の音データと音再生が要求される音データとを同時に快適に視聴することが可能な携帯端末を提供することができる。 According to the present invention, even when there is a request for sound reproduction such as ringtone data reproduction when sound data has already been reproduced, the sound data being reproduced and the sound data for which sound reproduction is requested are simultaneously displayed. A portable terminal that can be comfortably viewed can be provided.

以下、本発明の実施形態を図面により説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は本発明による携帯端末の一実施形態を示す構成図であって、100はこの実施形態の携帯端末、101は通信部、102は記憶部、103は入力部、104は画像表示部、105は音出力部、106は3D音作成部、107は制御部、108はアンテナである。   FIG. 1 is a configuration diagram showing an embodiment of a portable terminal according to the present invention, in which 100 is a portable terminal of this embodiment, 101 is a communication unit, 102 is a storage unit, 103 is an input unit, 104 is an image display unit, Reference numeral 105 denotes a sound output unit, 106 denotes a 3D sound creation unit, 107 denotes a control unit, and 108 denotes an antenna.

同図において、携帯端末100は、他の端末やこの携帯端末100の外部の装置など(図示せず)とアンテナ108を介して通信を行なう通信部101や音声,音楽などの音データを保持する記憶部102、音入力や各種操作入力を行なう入力部103、文字データや画像データを表示する画像表示部104、音像を定位させて3D(3次元)音を作成する3D音作成部106、音データを出力する音出力部105、以上の各部を制御する制御部107などから構成されている。   In the figure, a portable terminal 100 holds a communication unit 101 that communicates with another terminal or an external device (not shown) of the portable terminal 100 via an antenna 108 and sound data such as voice and music. Storage unit 102, input unit 103 for inputting sound and various operations, image display unit 104 for displaying character data and image data, 3D sound generating unit 106 for generating 3D (three-dimensional) sound by localizing a sound image, sound A sound output unit 105 that outputs data, a control unit 107 that controls each of the above units, and the like are included.

3D音形成部106は、音データに対し、3次元(3D)空間の任意の位置に音像(音源に対して、知覚される音の空間的な像)を定位(音像の位置を判断)し、入力されたモノラルの音声データから、音像定位によって設定された音源から発生されてユーザの左耳に入る音と右耳に入る音とを生成するものである。このように、3次元空間の任意の位置に音像を定位させ、任意の場所から音が聞こえるような3D(次元)音を作成する技術は一般的であり、その一例として、例えば、特開平10ー126898号公報に記載の方法を用いることができる。以下、これについて説明する。   The 3D sound forming unit 106 localizes (determines the position of the sound image) a sound image (a spatial image of the sound perceived with respect to the sound source) at an arbitrary position in the three-dimensional (3D) space with respect to the sound data. From the input monaural sound data, a sound that is generated from a sound source set by sound image localization and enters the user's left ear and a sound that enters the right ear is generated. As described above, a technique for creating a 3D (dimensional) sound in which a sound image is localized at an arbitrary position in a three-dimensional space and a sound can be heard from an arbitrary place is common. The method described in JP-A-126898 can be used. This will be described below.

所定の音像定位方向(ユーザの真正面を0゜とし、真後ろを180゜とし、左回りにみた音データに対応して設定された音源の方向)毎に(例えば、10゜毎に)、遅延係数,フィルタ係数,増幅係数が設定されており(なお、フィルタ係数,増幅係数は、左耳と右耳毎にも設定されている)、まず、遅延係数を用いることにより、入力されるモノラルの音データから、この遅延係数に応じて(即ち、音像定位方向に応じて)時間差が異なる左耳用の第1の音データと右耳用の第2の音データとを生成する。音像定位方向が0゜〜180゜の範囲では、第1の音データに対して第2の音データが遅れ、これら間の時間差は、音像定位方向が0゜のとき最小、90゜のとき最大、180゜のとき最小とする。また、音像定位方向が180゜〜360゜の範囲では、逆に第2の音データに対して第1の音データが遅れ、これら間の時間差は、音像定位方向が180゜のとき最小、270゜のとき最大、360゜(=0゜)のとき最小とする。   Delay coefficient for each predetermined sound image localization direction (sound source direction set corresponding to sound data viewed counterclockwise with the user's front in front being 0 ° and right behind is 180 °) (for example, every 10 °) , Filter coefficients and amplification coefficients are set (note that filter coefficients and amplification coefficients are also set for each of the left and right ears). First, by using the delay coefficient, the input monaural sound From the data, the first sound data for the left ear and the second sound data for the right ear, which have different time differences according to the delay coefficient (that is, according to the sound image localization direction), are generated. When the sound image localization direction is in the range of 0 ° to 180 °, the second sound data is delayed with respect to the first sound data, and the time difference between these is minimum when the sound image localization direction is 0 ° and maximum when it is 90 °. , 180 ° is the minimum. On the other hand, when the sound image localization direction is in the range of 180 ° to 360 °, the first sound data is delayed with respect to the second sound data, and the time difference between them is minimum when the sound image localization direction is 180 °, 270 Maximum at 360 °, minimum at 360 ° (= 0 °).

次に、左耳用の第1の音データに対し、左耳用フィルタ係数を6次のFIRフィルタ(有限長インパルス応答型フィルタ)の係数として用いることにより、頭部音響伝達関数のインパルス列を畳み込む処理を行なう。右耳用の第2の音データに対しても同様であり、右耳用フィルタ係数を6次のFIRフィルタ(有限長インパルス応答型フィルタ)の係数として用いることにより、頭部音響伝達関数のインパルス列を畳み込む処理を行なう。ここで、頭部音響伝達関数とは、音源から耳の鼓膜までの伝達関数のことであって、音源からの音波が頭部,耳介,肩などの反射,回折,共振による作用を受けて耳に至るまでの伝達系を表わす関数である。かかる関数を用いた処理により、音像が定位される。   Next, by using the left ear filter coefficient as the coefficient of the sixth-order FIR filter (finite length impulse response type filter) for the first sound data for the left ear, the impulse sequence of the head acoustic transfer function is obtained. Perform the convolution process. The same applies to the second sound data for the right ear, and the impulse of the head acoustic transfer function is obtained by using the filter coefficient for the right ear as a coefficient of a sixth-order FIR filter (finite length impulse response type filter). Perform the process of folding the column. Here, the head-related acoustic transfer function is the transfer function from the sound source to the ear drum, and the sound waves from the sound source are affected by reflection, diffraction, and resonance of the head, pinna, and shoulder. It is a function representing the transmission system up to the ear. A sound image is localized by processing using such a function.

このように頭部音響伝達関数によって処理された第1,第2の音データ夫々は、左耳用,右耳用の上記増幅係数を用いて増幅され、音源の方向によってレベル変化する第1,第2の音データが得られる。例えば、音源の方向が90゜である場合には、左耳に入る第1の音データによる音の音圧レベルは最大となり、右耳に入る第2の音データによる音の音圧レベルは最小となる。   The first and second sound data processed by the head acoustic transfer function in this manner are amplified using the amplification factors for the left ear and the right ear, and the first and second sound levels change depending on the direction of the sound source. Second sound data is obtained. For example, when the direction of the sound source is 90 °, the sound pressure level of the sound by the first sound data entering the left ear is the maximum, and the sound pressure level of the sound by the second sound data entering the right ear is the minimum. It becomes.

3D音形成部106による以上の処理により、使用する遅延係数,頭部音響伝達関数,増幅係数に応じた音像定位方向に音像が定位され、この音像から出力される左耳用の音データ,右耳用の音データが生成されることになる。かかる音データが音出力部105に供給され、この音出力部105で再生される音を聴いたユーザは、この音が定位された音像(音源)から発せられたように聞こえるのである。   Through the above processing by the 3D sound forming unit 106, the sound image is localized in the sound image localization direction corresponding to the delay coefficient, the head acoustic transfer function, and the amplification coefficient to be used, and the sound data for the left ear output from this sound image, Sound data for the ear is generated. Such sound data is supplied to the sound output unit 105, and a user who listens to the sound reproduced by the sound output unit 105 sounds as if the sound was emitted from a localized sound image (sound source).

制御部107は、3次元空間のどこに音像定位をするかを決定するものであり、これにより、3D音形成部106が制御部107によって決められた位置に音源を設定する。   The control unit 107 determines where the sound image is localized in the three-dimensional space, whereby the 3D sound forming unit 106 sets the sound source at the position determined by the control unit 107.

音出力部105は、携帯端末100の筐体に内蔵され、3D音を再生する2つのスピーカによって構成されているが、これらスピーカは筐体の外部に配置されていてもよい。また、スピーカは、3D音再生可能であれば、どのような構成のものであってもよい。さらに、スピーカの代わりに、ヘッドホンなどで構成してもよいし、3D音再生が可能な端末外部の再生装置でもって構成するようにしてもよい。記憶部102は、通常、筐体内部に構成されるが、着脱可能なメモリカードや筐体外部の記憶装置などであってもよい。入力部103は、操作キーや操作ボタンを備えたものであるが、さらに、筐体の内部や外部に設けられたカメラやマイクロホンなどを併用して音入力や画像入力を行なうようにしてもよい。   The sound output unit 105 is built in the housing of the portable terminal 100 and is configured by two speakers that reproduce 3D sound, but these speakers may be arranged outside the housing. Further, the speaker may have any configuration as long as 3D sound reproduction is possible. Furthermore, instead of the speaker, it may be configured with headphones or the like, or may be configured with a playback device outside the terminal capable of 3D sound playback. The storage unit 102 is normally configured inside the housing, but may be a removable memory card or a storage device outside the housing. The input unit 103 is provided with operation keys and operation buttons, but may further be used for sound input and image input in combination with a camera, microphone, or the like provided inside or outside the housing. .

図2はこの実施形態の処理手順の一具体例を示すフローチャートである。   FIG. 2 is a flowchart showing a specific example of the processing procedure of this embodiment.

同図において、処理の開始の指示があると、処理を開始し(S(ステップ)201)、制御部107が、まず、音再生の要求イベントがあるか否かを判断する(S202)。この音再生要求イベントとは、携帯端末100の通信部101に通話やメール,WEBなどの着信があり、着信通知のための着信音の再生を要求するイベントである。この着信通知の音再生要求イベントがない場合には、処理を終了する(S209)。   In the figure, when there is an instruction to start processing, the processing is started (S (step) 201), and the control unit 107 first determines whether there is a sound reproduction request event (S202). This sound reproduction request event is an event in which there is an incoming call, mail, WEB, or the like in the communication unit 101 of the mobile terminal 100, and the reproduction of the ringtone for incoming notification is requested. If there is no sound reproduction request event for the incoming call notification, the process ends (S209).

着信通知の音再生要求イベントがある場合には、この要求イベントに対応した音データとして、着信を通知するための着信音データを記憶部102から取り出す(S203)。   If there is a sound reproduction request event for an incoming call notification, the incoming sound data for notifying the incoming call is extracted from the storage unit 102 as the sound data corresponding to the request event (S203).

次に、制御部107は、現在再生中の音楽があるか否か判断し(S204)、現在再生中の音楽データがなく、着信音のみを再生すればよいときには、3D音作成部106に対して、着信音を音像定位しないという設定を行ない、着信音データを3D音作成部106に転送する。3D音作成部106は、受け取った着信音データを設定の指示に従って音像定位せず、そのまま再生音として音出力部105へ出力し(S205)、再生させる(S208)。以上により、処理が終了する(S209)。   Next, the control unit 107 determines whether or not there is currently playing music (S204), and when there is no music data currently being played and only the ring tone needs to be played, Then, the setting is made not to localize the ringtone and the ringtone data is transferred to the 3D sound creation unit 106. The 3D sound creation unit 106 does not localize the received ringtone data according to the setting instruction, and outputs the received ringtone data as it is to the sound output unit 105 as it is (S205) and reproduces it (S208). Thus, the process ends (S209).

また、現在再生中の音楽データがある場合、制御部107は、3D音作成部106に対して、要求イベントに対応する着信音に対する3次元空間での音像定位のための音源の位置を決め、これを通知するとともに着信音データを転送する。3D音作成部106は、制御部107からの通知に基づいてこの着信音データに対する音源位置を設定し、受け取った着信音データがこの設定した音源位置から聞こえるように、3D音を作成し(S206)、この音像定位させた着信音データと現在既に再生中の音楽データとをミキシングして再生音を形成する(S207)。この形成された再生音は、音出力部105へ供給され(S208)、処理を終了する(S209)。これにより、音出力部105からは、着信音と音楽とが位置が異なる音源から得られたように聞こえることになる。   If there is music data currently being played back, the control unit 107 determines the position of the sound source for sound image localization in the three-dimensional space for the ring tone corresponding to the requested event, with respect to the 3D sound creation unit 106. This is notified and ringtone data is transferred. The 3D sound creation unit 106 sets a sound source position for the ring tone data based on the notification from the control unit 107, and creates a 3D sound so that the received ring tone data can be heard from the set sound source position (S206). ) The ring tone data that has been localized and the music data that is already being reproduced are mixed to form a reproduced sound (S207). The formed reproduced sound is supplied to the sound output unit 105 (S208), and the process ends (S209). As a result, the sound output unit 105 sounds as if the ringtone and music were obtained from sound sources having different positions.

なお、現在再生中の音楽データがなく、着信音のみを再生すればよい場合、着信音の音像定位を行なわない設定としたが、この場合でも、音像定位を行なうようにしてもよい。3D音作成部106は、3次元空間の任意の位置から聞こえるような音像定位を可能とし、勿論、従来のステレオスピーカにおけるような左右のみの音像定位であってもよい。   Note that when there is no music data currently being played back and only the ring tone needs to be played, the sound image localization of the ring tone is not performed. However, in this case, the sound image localization may be performed. The 3D sound creation unit 106 enables sound image localization that can be heard from an arbitrary position in a three-dimensional space, and of course, may be only left and right sound image localization as in a conventional stereo speaker.

画像表示部104は、作成した3D音の個々の音データを設定した音源位置を示す位置関係図を作成して表示する。作成する位置関係図は2次元空間上で音源の位置関係を示す地図のような図であってもいいし、CG(Computer Graphics)などの3次元画像で示すものであってもよい。また、図示する内容は、音源位置の他に、音量や音の方向,広がりなどの音データの情報を記述したり、マークや形などで図示することも可能である。   The image display unit 104 creates and displays a positional relationship diagram showing the sound source position in which the individual sound data of the created 3D sound is set. The positional relationship diagram to be created may be a map such as a map showing the positional relationship of sound sources in a two-dimensional space, or may be a three-dimensional image such as CG (Computer Graphics). In addition to the sound source position, the illustrated contents can describe information of sound data such as volume, sound direction, and spread, or can be illustrated by marks or shapes.

図3はユーザが3D音を聞いている様子を示す図である。   FIG. 3 is a diagram illustrating a state in which the user is listening to the 3D sound.

同図において、ユーザ301は、携帯端末100の音出力部105(図1)により、上記のように生成された再生音を聞くことができる。例えば、音楽再生中に着信音があった場合には、再生中の音楽302がユーザ301の左後方から、また、着信音303がユーザの右手前方から夫々聞こえるように、異なる音が異なる方向から聞こえる。   In the figure, a user 301 can listen to the reproduced sound generated as described above by the sound output unit 105 (FIG. 1) of the mobile terminal 100. For example, when there is a ring tone during music playback, different sounds are heard from different directions so that the music 302 being played is heard from the left rear of the user 301 and the ring tone 303 is heard from the front of the user's right hand. hear.

このとき、画像表示部104では、夫々の音データの音源位置を示す位置関係図401が、図4に示すように、表示される。ここで、図4において、402は音楽の音源位置であり、403は着信音の音源位置である。   At this time, in the image display unit 104, a positional relationship diagram 401 showing the sound source positions of the respective sound data is displayed as shown in FIG. In FIG. 4, reference numeral 402 denotes a music sound source position, and reference numeral 403 denotes a ring tone sound source position.

かかる位置関係図401に対し、ユーザが入力部103で所定の操作を行なうことにより、位置関係図401での音源や音データの設定を変更することができる。例えば、入力部103での操作により、図示される音源を選んで消去,移動(例えば、カーソルで移動させる音源を指定して決定操作し、しかる後、このカーソルを新たな設定位置まで移動させて決定操作するなど)、或いは音源位置402,403での音源を、そのときの機能に応じて、異なる形状のマークで表わすようにし、マークを移動させたり、その形状を変更させたり(例えば、カーソルによって変更するマーク(音源)を指定し、操作キーや操作ボタンにより、メニューから所望とする形状のマークを選択するなど)することにより、該当する再生音をなくしたり、音源位置を変更したり、音量や方向,音の広がり方などを変更することが可能である。   When the user performs a predetermined operation on the positional relationship diagram 401 using the input unit 103, the settings of the sound source and sound data in the positional relationship diagram 401 can be changed. For example, by operating the input unit 103, the illustrated sound source is selected, erased, and moved (for example, a sound source to be moved is specified by a cursor and determined, and then the cursor is moved to a new setting position. The sound source at the sound source positions 402 and 403 is represented by a mark having a different shape according to the function at that time, and the mark is moved or its shape is changed (for example, a cursor). By specifying the mark (sound source) to be changed with and selecting the desired shape mark from the menu using the operation keys and buttons, the corresponding playback sound can be eliminated, the sound source position can be changed, It is possible to change the volume, direction, and sound spread.

図5は位置関係図の他の具体例を示す図である。   FIG. 5 is a diagram showing another specific example of the positional relationship diagram.

図5(a)は、ユーザにより、時刻通知のアラーム音がユーザ301の右手前方から聞えるようにその音源503が設定され、音楽がユーザ301の後方全体から聞えてくるようにその音源502が設定されている場合の位置関係図402を示すものである。また、図5(b)は、ユーザ301の右手前方からメール受信音が聞えるようにその音源603が設定され、ユーザ301の左手前方から着信音が聞えるようにその音源602が設定され、ユーザ301の左手後方からラジオ放送の音声が聞えるようにその音源604が設定されている場合の位置関係部403を示すものである。   FIG. 5A shows that the sound source 503 is set by the user so that the alarm sound for time notification can be heard from the front of the right hand of the user 301, and the sound source 502 is set so that music can be heard from the entire rear side of the user 301. The positional relationship diagram 402 in the case of being performed is shown. FIG. 5B shows that the sound source 603 is set so that the mail reception sound can be heard from the front side of the user 301 and the sound source 602 is set so that the ring tone can be heard from the front side of the user 301. The positional relationship section 403 is shown when the sound source 604 is set so that the sound of the radio broadcast can be heard from behind the left hand.

このように、任意の音データの音源を任意の位置に設定することを可能とする。例えば、設定されるイベントの音データは、動画に含まれている音データやコンテンツ中の音データのように、音データ単独で存在していなくてもよいし、3D音であってもよい。音データとしては、視聴のための音楽や動画に含まれている音データ、メール受信のための着信音、時刻通知や電池残量通知などのアラーム音、ユーザによる携帯端末100の操作音、通話相手の音声やチャットにおけるチャット相手の音声、WEB閲覧時の効果音、受信メールに添付されている音楽、マイクロホンからのユーザの音声や外部の音、オーディオ機器などの外部装置からの音楽、カメラからの撮影画像や動画に含まれている音データ、受信機からのテレビ放送やラジオ放送などの音データでもよい。   In this way, it is possible to set a sound source of arbitrary sound data at an arbitrary position. For example, the sound data of the set event may not exist alone as sound data included in a moving image or sound data in content, or may be 3D sound. As sound data, sound data included in music or video for viewing, ringtone for receiving mail, alarm sound such as time notification and battery level notification, operation sound of mobile terminal 100 by user, call The voice of the other party, the voice of the other party in the chat, the sound effect when browsing the web, the music attached to the received mail, the user's voice and external sound from the microphone, the music from an external device such as an audio device, from the camera Sound data included in the captured image or video, sound data such as television broadcast or radio broadcast from the receiver may be used.

また、ここでは、視聴のための音楽と着信を通知する着信音の再生時の処理について説明したが、音楽再生と着信音再生以外の任意の音再生についても、かかる処理は適用可能であり、上記の音データの音再生要求に対する処理が適用可能である。   In addition, here, the process for playing music for viewing and the ring tone for notifying the incoming call has been described. However, the process can also be applied to any sound playback other than music playback and ring tone playback. The processing for the sound reproduction request of the above sound data can be applied.

また、この実施形態では、制御部107が音再生要求イベントを通信部101から受け取るようにしているが、通信部101以外の、例えば、記憶部102や入力部103など装置から音再生要求イベントを受け取るようにしてもよい。音再生要求イベントには、通信部101からの着信やメール受信によるイベントや入力部103からのユーザ操作によるイベント、制御部107への電池残量通知や時刻報知のイベントなどがある。この実施形態では、音再生要求イベントがあったときに既に再生中の音データが存在する場合には、音再生要求イベントに対応する音データを音像定位し、既に再生中の音データとミキシングして再生しているが、既に再生中の音データを任意の音源位置から聞こえるように音像定位してもよく、これに音像定位した音要求イベントに対応した音データとミキシングして再生するようにしてもよい。例えば、音楽再生中に着信音を再生するとき、再生中の音楽をユーザの後ろから聞こえるようにし、新たに再生する着信音はユーザの前から聞こえるように音像定位して再生してもよい。また、音像定位する音データが、3音以上であってもよい。例えば、ユーザの後方から音楽が、また、ユーザの前方から着信音が再生中に、時刻通知アラーム音の再生要求イベントがあったときには、音楽はこれで通りユーザの後方より聞こえるようにし、これまでユーザの前方から聞こえていた着信音はユーザの右方向から聞こえるようにし、アラーム音がユーザの前方から聞こえるように夫々を音像定位し、ミキシングして再生することができる。   In this embodiment, the control unit 107 receives the sound reproduction request event from the communication unit 101. However, for example, the sound reproduction request event is received from a device other than the communication unit 101, such as the storage unit 102 or the input unit 103. You may make it receive. The sound reproduction request event includes an event due to an incoming call from the communication unit 101 or an email, an event due to a user operation from the input unit 103, a battery remaining amount notification to the control unit 107, a time notification event, or the like. In this embodiment, if there is sound data that is already being reproduced when there is a sound reproduction request event, the sound data corresponding to the sound reproduction request event is localized and mixed with the sound data that is already being reproduced. However, the sound data that is already being played may be localized so that it can be heard from any sound source position, and the sound data may be mixed with the sound data corresponding to the sound request event that has been localized. May be. For example, when playing a ring tone during music playback, the music being played may be heard from the back of the user, and the newly played ring tone may be played with the sound image localized so that it can be heard from the user. The sound data for sound image localization may be three or more sounds. For example, when there is a playback request event for a time notification alarm sound while music is being played from the back of the user and a ring tone is being played from the front of the user, the music can be heard from the back of the user. The ringtones that have been heard from the front of the user can be heard from the right direction of the user, and the sound images can be localized, mixed, and reproduced so that the alarm sound can be heard from the front of the user.

さらに、この実施形態では、新たに音を再生する必要がある場合の処理について説明したものであるが、再生中の音データの中で再生が必要でない音データが発生した場合には、この音データの音源が除去されるが、これとともに、残りの再生中の音データを音像定位し直し、新たな音源位置から聞こえるように修正するようにしてもよい。例えば、前方から着信音が、後方から音楽が夫々聞こえるような音データの再生中に、着信が切れて着信音の再生が必要でなくなった場合には、音楽データを音像定位し直し、音楽データのみが前方より聞こえるように再生するようにしてもよい。   Furthermore, in this embodiment, the processing in the case where a new sound needs to be reproduced has been described. However, when sound data that does not need to be reproduced occurs in the sound data being reproduced, this sound is reproduced. The sound source of the data is removed, and at the same time, the remaining sound data being reproduced may be re-localized and corrected so that it can be heard from a new sound source position. For example, if the incoming call is interrupted and it is no longer necessary to play the ringtone while playing the sound data so that the ringtone can be heard from the front and the music can be heard from the back, the music data can be repositioned and the music data You may make it reproduce | regenerate so that only can be heard from the front.

既に再生中の音データを音像定位し、これまでとは異なる音源位置へ移動させる場合には、既存の音源位置から新たに設定する音源位置へと音源が徐々に移動するように、元の音源位置と新たに設定する音源位置との間の位置を算出し、算出された音源位置を利用し、段階的に音源位置が移動するような3D音を作成する。ユーザが音データを聞いている最中に突然その音源が変更されると、ユーザは音データを見失う可能性がある。上記のように、音データの音源位置が徐々に移動させていくことにより、ユーザは自然と音データを追いかけ、聞き分けることが可能となる。移動する過程の位置の算出は、元の音源位置と新たに設定する音源位置を結んだ直線上に算出してもよいし、ユーザを中心とした円周上に算出してもよい。   When sound data that is already being played is localized and moved to a different sound source position, the original sound source is moved so that the sound source gradually moves from the existing sound source position to the newly set sound source position. A position between the position and a newly set sound source position is calculated, and a 3D sound is generated such that the sound source position moves step by step using the calculated sound source position. If the sound source is suddenly changed while the user is listening to the sound data, the user may lose sight of the sound data. As described above, the sound source position of the sound data is gradually moved, so that the user can naturally follow the sound data and hear it. The position of the moving process may be calculated on a straight line connecting the original sound source position and the newly set sound source position, or may be calculated on a circumference centered on the user.

また、再生するデータがテレビ映像のような動画データと音データとであったり、着信時に着信音と画像の両方が再生されたりなど、音データと画像データとの両方を再生する必要がある場合には、画像データは画像表示部104で表示される。この場合、制御部107は、音再生要求イベントがあるか否かを判断し、この音再生要求イベントがあれば、これに対応した音データを入手するとともに、この音データに付属する画像データが存在するか否かを判断し、存在する場合には、この画像データを入手して画像表示部104で表示する。   In addition, when it is necessary to play both sound data and image data, such as video data and sound data such as TV images, or both ringtone and image are played when an incoming call is received. The image data is displayed on the image display unit 104. In this case, the control unit 107 determines whether there is a sound reproduction request event. If there is a sound reproduction request event, the control unit 107 obtains sound data corresponding to the sound reproduction request event, and image data attached to the sound data is obtained. It is determined whether or not it exists, and if it exists, this image data is obtained and displayed on the image display unit 104.

画像表示部104は、また、作成した音データの音源の位置関係図や制御部107から受け取った画像などの表示可能な画像データの中から表示する画像データを選択し、これを表示する。その際、表示すべき画像データの数や表示すべき画像データに関する音データの音源位置関係などに応じて、表示可能な画像データの中から表示する画像データを選択する。   The image display unit 104 also selects image data to be displayed from among the displayable image data such as the positional relationship diagram of the sound source of the created sound data and the image received from the control unit 107, and displays this. At that time, image data to be displayed is selected from the displayable image data in accordance with the number of image data to be displayed and the sound source positional relationship of sound data related to the image data to be displayed.

例えば、1以上の音データに関して、制御部107から受け取る画像データがない場合には、音データの音源の位置関係図を表示する。また、制御部107から受け取った画像データが1つしかない場合には、その画像データを常に表示する。また、表示可能な画像データが複数存在する場合(即ち、複数の音源からの音データのうちの少なくとも2以上の音データに対して画像データが存在する場合)には、これら音データの音源位置や音量,音の方向,広がりなどに基づいて表示する画像データを選択する。例えば、表示可能な複数の画像データのうち、音源位置がユーザに近い方の音データに対する画像データ、或いは音源位置がユーザの正面に近い音データに対する画像データ、或いは音量が大きい音データに対する画像データ、或いはこれら以外の条件にあった音データに対する画像データを表示し、このような画像データがない場合には、音源の位置関係図のみを表示する。   For example, when there is no image data received from the control unit 107 with respect to one or more sound data, a positional relationship diagram of the sound source of the sound data is displayed. If there is only one image data received from the control unit 107, the image data is always displayed. In addition, when there are a plurality of displayable image data (that is, when there is image data for at least two or more sound data from a plurality of sound sources), the sound source positions of these sound data The image data to be displayed is selected based on the sound volume, direction, direction, and spread. For example, among a plurality of displayable image data, image data for sound data whose sound source position is closer to the user, image data for sound data whose sound source position is close to the user's front, or image data for sound data having a high volume Alternatively, image data corresponding to sound data that meets other conditions is displayed. If there is no such image data, only the positional relationship diagram of the sound source is displayed.

画像表示部104は、上記のように、表示可能な画像データが複数存在する場合には、全ての画像データを同時に表示したり、音データの音源の位置関係図内に関係する画像データを合成して表示させることも可能である。   As described above, when there are a plurality of displayable image data, the image display unit 104 displays all the image data at the same time or synthesizes the image data related in the positional relationship diagram of the sound source of the sound data. It is also possible to display it.

以上のように、この実施形態では、複数の音再生が必要になった場合には、再生が必要となった夫々の音を異なる音源位置から発生するような3D音に作成して再生するものであるから、ユーザが快適に、かつ自然にこれら音情報を入手することができる。   As described above, in this embodiment, when a plurality of sounds need to be reproduced, each sound that needs to be reproduced is generated and reproduced as a 3D sound generated from different sound source positions. Therefore, the user can obtain the sound information comfortably and naturally.

また、ヘッドホンで音楽を聞いていて周囲の音を聞くことができない場合でも、マイクロホンから入力された外部の環境音がユーザの後方に音像定位して再生するものであるから、ユーザは後方に気配を感じることができ、音楽を聴きながらでも、来客や幼児の鳴き声,車の往来などにも注意することができる。   In addition, even when listening to music through headphones and not being able to hear surrounding sounds, the external environmental sound input from the microphone is sounded and reproduced in the back of the user, so the user is looking backward. Can listen to music and listen to the noises of visitors and infants and traffic.

また、複数の方向から異なる音データが再生されるので、普段の部屋で電話やAV機器が一度に再生されている環境と変わりなく、自然な環境が得られることになる。そこで、1つの方向に対して耳を澄ますことができるため、複数音の中からある音に関してのみ注意して聞くなど、特定の音が聞き分け易くなる。かなり注意して聞きたいものは、耳の近くに音源を定位し、BGMなどの流しておいて聴くだけの音データは後や遠くに音源を定位するなど、音の重要度に応じてその音源位置をカスタマイズすることも可能となる。また、この手法によれば、音源位置の設定も、普段の部屋などをイメージすればよいため、直感的であり、便利である。   Also, since different sound data is reproduced from a plurality of directions, a natural environment can be obtained without changing from an environment where telephones and AV devices are reproduced at a time in a normal room. Therefore, since it is possible to listen carefully to one direction, it is easy to distinguish a specific sound, such as listening carefully only with respect to a certain sound from among a plurality of sounds. If you want to listen with extreme caution, the sound source is localized near the ear, and the sound data that you just listen to while listening to BGM, etc., is localized later or far away, depending on the importance of the sound. It is also possible to customize the position. Also, according to this method, the setting of the sound source position is intuitive and convenient because it is only necessary to imagine a normal room.

また、音源の位置関係図の表示を行なうことにより、ユーザは、より3D音の音源を把握し易くなり、聞き取り易い。また、音データの音源位置設定は、位置関係図を利用して直感的に行なうことができる。さらに、上記のように、音データの音源に応じて関係する画像データの表示が自動的に決定されるので、細かい設定をユーザが行なう必要がなく、利用し易い。 Further, by displaying the positional relationship diagram of the sound source, the user can more easily grasp the sound source of the 3D sound and can easily hear it. Moreover, the sound source position setting of the sound data can be performed intuitively using a positional relationship diagram. Further, as described above, since the display of the related image data is automatically determined according to the sound source of the sound data, it is not necessary for the user to make detailed settings and is easy to use.

音源の移動が発生する場合には、突然音源が変わってしまうと、ユーザはこれまで聞いていた音を見失ってしまい、その音の視聴が困難になる可能性が考えられる。しかし、この実施形態では、上記のように、徐々に音源を移動させることができるから、ユーザは自然に同じ音を追っていくことが可能となり、見失うことなく、視聴が続行できる。   When movement of the sound source occurs, if the sound source suddenly changes, the user may lose sight of the sound that has been heard so far, and it may be difficult to view the sound. However, in this embodiment, since the sound source can be gradually moved as described above, the user can naturally follow the same sound and can continue viewing without losing sight.

以上のように、この実施形態では、既に再生中の音と着信やメール受信などのイベントに対応する報知音を任意の位置に音像定位して同時に聞くことができ、自然な視聴環境を壊さず、違和感なく、聞き分けも可能であって、使い勝手の良い携帯端末の提供が可能となる。   As described above, in this embodiment, the sound that is already being played and the notification sound corresponding to an event such as an incoming call or mail reception can be heard at the same time by localizing the sound image at an arbitrary position, without destroying the natural viewing environment. Therefore, it is possible to provide a mobile terminal that is easy to use and can be distinguished without a sense of incongruity.

本発明による携帯端末の一実施形態を示す構成図である。It is a block diagram which shows one Embodiment of the portable terminal by this invention. 図1に示す実施形態による処理手順の一具体例を示すフローチャートである。It is a flowchart which shows a specific example of the process sequence by embodiment shown in FIG. 図1に示す実施形態の使用状態をイメージした図である。It is the figure which imaged the use condition of embodiment shown in FIG. 図3で示す使用状態に対して図1における画像表示部で表示される音源の位置関係図の一具体例を示す図である。It is a figure which shows one specific example of the positional relationship figure of the sound source displayed on the image display part in FIG. 1 with respect to the use condition shown in FIG. 図1に示す実施形態で設定された音源の位置関係図の他の具体例を示す図である。It is a figure which shows the other specific example of the positional relationship figure of the sound source set in embodiment shown in FIG.

符号の説明Explanation of symbols

100 携帯端末
101 通信部
102 記憶部
103 入力部
104 画像表示部
105 音出力部
106 3D音作成部
107 制御部
108 アンテナ
301 ユーザ
302 音楽
303 着信音
401〜403 音源の位置関係図
402 音楽の音源
403 着信音の音源
502 音楽の音源
503 アラーム音の音源
602 着信音の音源
603 メール受信音の音源
604 ラジオ放送の音声の音源
DESCRIPTION OF SYMBOLS 100 Portable terminal 101 Communication part 102 Memory | storage part 103 Input part 104 Image display part 105 Sound output part 106 3D sound preparation part 107 Control part 108 Antenna 301 User 302 Music 303 Ringtone 401-403 Positional relationship diagram of sound source 402 Music sound source 403 Sound source of ring tone 502 Sound source of music 503 Sound source of alarm sound 602 Sound source of ring tone 603 Sound source of mail reception sound 604 Sound source of radio broadcast sound

Claims (6)

音データを保持する記憶部と、
外部からの音声入力や操作などによる入力を行なう入力部と、
外部との通信を行なう通信部と、
音データを出力する音出力部と、
文字データや画像データを表示する画像表示部と、
3次元空間での音像の定位のためのに音像の位置を設定して、3D(3次元)音データを作成する3D音作成部と、
該記憶部,該入力部,該通信部,該音出力部,該画像表示部及び該3D音作成部の制御を行なう制御部と
を備え、
該制御部は、
音再生の要求がある場合に該音出力部により音データを出力中であるとき、該音再生が要求される音データに対して3D音データを作成し、該再生中の音データと該作成された3D音データとをミキシングし、該ミキシングされた音データを該音出力部に入力させるように、該3D音作成部を制御し、
音再生の要求がある場合に該音出力部により音データを出力中でないとき、該音再生が要求される音データに対して3D音データを作成せず、該音再生が要求される音データを該音出力部に入力させるように、該3D音作成部を制御する
ことを特徴とする携帯端末。
A storage unit for storing sound data;
An input unit for inputting by voice input or operation from the outside,
A communication unit that communicates with the outside;
A sound output unit for outputting sound data ;
An image display unit for displaying character data and image data;
A 3D sound creating unit for creating a 3D (3D) sound data by setting a position of the sound image for localization of the sound image in a 3D space ;
A control unit for controlling the storage unit, the input unit, the communication unit, the sound output unit, the image display unit, and the 3D sound creation unit;
With
The control unit
When sound data is being output by the sound output unit when there is a request for sound reproduction, 3D sound data is created for the sound data for which sound reproduction is requested, and the sound data being reproduced and the creation Controlling the 3D sound generation unit to mix the 3D sound data and the mixed sound data to be input to the sound output unit,
If sound data is not being output by the sound output unit when there is a request for sound reproduction, 3D sound data is not created for the sound data for which sound reproduction is requested, and the sound data for which sound reproduction is requested The mobile terminal is characterized in that the 3D sound creating unit is controlled so as to be input to the sound output unit .
請求項1において、
前記音再生が要求される音データは、着信を通知するための着信音データであることを特徴とする携帯端末。
In claim 1,
The mobile terminal characterized in that the sound data for which sound reproduction is required is ring tone data for notifying an incoming call .
請求項1または2に記載の携帯端末において、
前記3D音作成部は、前記音源の設定位置とユーザとの位置関係を示す位置関係図を作成し、
前記画像表示部は、該位置関係図を表示することを特徴とする携帯端末。
The portable terminal according to claim 1 or 2,
The 3D sound creation unit creates a positional relationship diagram showing a positional relationship between the setting position of the sound source and the user,
The mobile terminal, wherein the image display unit displays the positional relationship diagram.
請求項3に記載の携帯端末において、
前記画像表示部に表示されている前記位置関係図に対する操作が前記入力部で可能であり、
前記3D音作成部は、前記制御部の制御により、前記入力部での該操作に応答して、前記音源の設定位置の変更を可能とする機能を有することを特徴とする携帯端末。
The mobile terminal according to claim 3,
An operation on the positional relationship diagram displayed on the image display unit is possible on the input unit,
The mobile terminal having a function of enabling the setting position of the sound source to be changed in response to the operation at the input unit under the control of the control unit.
請求項1〜4のいずれか1つに記載の携帯端末において、
前記3D音作成部は、前記制御部の制御により、前記入力手段からの前記音源の設定位置を移動,変更する要求に応じて、移動,変更前の音源の設定位置と移動,変更後の指定される音源の新たな設定位置との間に1以上の中間位置を順次算出し、該中間位置を算出する毎に、該中間位置を音源の位置として、該中間位置から出力される音データを作成する機能を有し、
移動,変更前の音源の設定位置から移動,変更後の指定される音源の新たな設定位置へ音源を徐々に移動させることを特徴とする携帯端末。
In the portable terminal as described in any one of Claims 1-4,
The 3D sound creation unit is moved and changed according to a request to move and change the setting position of the sound source from the input means under the control of the control unit. One or more intermediate positions are sequentially calculated between the sound source and the new set position of the sound source, and each time the intermediate position is calculated, the sound data output from the intermediate position is set as the sound source position. Has the ability to create,
A portable terminal characterized by gradually moving a sound source from a set position of a sound source before movement or change to a new set position of a specified sound source after change.
請求項1〜5のいずれか1つに記載の携帯端末において、
前記画像表示部は、位置設定された音源に応じた画像データを表示する機能を有することを特徴とする携帯端末。
In the portable terminal as described in any one of Claims 1-5,
The mobile terminal characterized in that the image display unit has a function of displaying image data corresponding to a sound source whose position is set.
JP2004078641A 2004-03-18 2004-03-18 Mobile device Expired - Lifetime JP4364024B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004078641A JP4364024B2 (en) 2004-03-18 2004-03-18 Mobile device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004078641A JP4364024B2 (en) 2004-03-18 2004-03-18 Mobile device

Publications (2)

Publication Number Publication Date
JP2005269231A JP2005269231A (en) 2005-09-29
JP4364024B2 true JP4364024B2 (en) 2009-11-11

Family

ID=35093299

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004078641A Expired - Lifetime JP4364024B2 (en) 2004-03-18 2004-03-18 Mobile device

Country Status (1)

Country Link
JP (1) JP4364024B2 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4904793B2 (en) * 2005-12-05 2012-03-28 株式会社Jvcケンウッド Electronic book, control method and program
JP4983012B2 (en) * 2005-12-08 2012-07-25 ヤマハ株式会社 Apparatus and program for adding stereophonic effect in music reproduction
GB0601919D0 (en) * 2006-01-31 2006-03-15 Sonaptic Ltd Themes for a mobile device
US8098856B2 (en) 2006-06-22 2012-01-17 Sony Ericsson Mobile Communications Ab Wireless communications devices with three dimensional audio systems
JP2009111637A (en) * 2007-10-29 2009-05-21 Aplix Corp Terminal device
JP4756560B2 (en) 2008-12-04 2011-08-24 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus and information processing method
KR101596840B1 (en) * 2009-10-29 2016-02-23 엘지전자 주식회사 Mobile terminal and Method of controlling the same
US20110116665A1 (en) * 2009-11-17 2011-05-19 King Bennett M System and method of providing three-dimensional sound at a portable computing device
JP5589708B2 (en) * 2010-09-17 2014-09-17 富士通株式会社 Terminal device and voice processing program
JP6553052B2 (en) * 2014-01-03 2019-07-31 ハーマン インターナショナル インダストリーズ インコーポレイテッド Gesture-interactive wearable spatial audio system
JP6377935B2 (en) * 2014-03-31 2018-08-22 株式会社東芝 SOUND CONTROL DEVICE, ELECTRONIC DEVICE, AND SOUND CONTROL METHOD
JP6976131B2 (en) * 2017-10-16 2021-12-08 三菱重工サーマルシステムズ株式会社 Air conditioning system and air conditioning control method
US20230247380A1 (en) * 2020-07-08 2023-08-03 Sony Group Corporation Information processing apparatus, information processing method, and sound output apparatus

Also Published As

Publication number Publication date
JP2005269231A (en) 2005-09-29

Similar Documents

Publication Publication Date Title
US10129647B2 (en) Wireless sound equipment
KR101011543B1 (en) Method and apparatus for creating a multi-dimensional communication space for use in a binaural audio system
US8488820B2 (en) Spatial audio processing method, program product, electronic device and system
JP4364024B2 (en) Mobile device
KR20160105858A (en) System and method for user controllable auditory environment customization
JP4992591B2 (en) Communication system and communication terminal
JP2003009296A (en) Acoustic processing unit and acoustic processing method
JP2008167373A (en) Information presentation apparatus
JP2008193382A (en) Portable telephone set and sound adjustment method
JP2006352250A (en) Acoustic output apparatus, mobile phone terminal, and acoustic output program
JP2006074572A (en) Information terminal
US20230143588A1 (en) Bone conduction transducers for privacy
CN116095595B (en) Audio processing method and device
KR20080098806A (en) Method for connecting conference call and communication terminal implementing the same
US11665271B2 (en) Controlling audio output
JP2003283599A (en) Wireless mobile telephone terminal and speaker control method to be used therefor
CN100559805C (en) Mobile terminals and the message output method that is used for this terminal
JP2005057488A (en) Mobile terminal
JP5281695B2 (en) Acoustic transducer
WO2006107074A1 (en) Portable terminal
JP2007013407A (en) Sound image localization mobile communication system, mobile communication terminal equipment, radio base station device and sound image localization method on mobile communication terminal
CN115834775A (en) Online call management device and storage medium storing online call management program
CN111756929A (en) Multi-screen terminal audio playing method and device, terminal equipment and storage medium
JP2005151067A (en) Communication terminal and reproduction method
JP2008028492A (en) Liquid crystal television

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070223

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081014

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081212

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090804

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090818

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4364024

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120828

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130828

Year of fee payment: 4

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250