JP2009111637A - Terminal device - Google Patents

Terminal device Download PDF

Info

Publication number
JP2009111637A
JP2009111637A JP2007280790A JP2007280790A JP2009111637A JP 2009111637 A JP2009111637 A JP 2009111637A JP 2007280790 A JP2007280790 A JP 2007280790A JP 2007280790 A JP2007280790 A JP 2007280790A JP 2009111637 A JP2009111637 A JP 2009111637A
Authority
JP
Japan
Prior art keywords
sound
unit
application
application program
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007280790A
Other languages
Japanese (ja)
Inventor
Junichi Monma
純一 門間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aplix Corp
Original Assignee
Aplix Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aplix Corp filed Critical Aplix Corp
Priority to JP2007280790A priority Critical patent/JP2009111637A/en
Publication of JP2009111637A publication Critical patent/JP2009111637A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Telephone Function (AREA)
  • Stereophonic System (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a terminal device for enabling a user of a communication terminal to discriminate sounds of a plurality of application programs. <P>SOLUTION: A control part is provided with a multitask function for executing a plurality of application programs in parallel, has a 3D sound function for controlling a sound source part so as to locate sound of the application programs at prescribed positions in a three-dimensional space, wherein a control part controls the sound source part by the 3D sound function so as to locate sound of at least one application program at a position different from that of sound of other application programs when the control part executes the plurality of application programs in parallel. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、端末装置に関するものである。   The present invention relates to a terminal device.

移動体通信網に接続して通信を行う携帯電話端末に代表される端末装置には、通話する機能だけでなく、アドレス帳、スケジュール帳、メーラ、ブラウジング、マルチメディアプレーヤ、ゲーム等の様々な機能が搭載されている。このような多種多様な機能は、それぞれの機能に対応するアプリケーションプログラムを端末装置のCPUで実行することによって実現されるものである。そして、近時においては端末装置の多機能化はさらに進んでおり、カメラ、インスタントメッセンジャー、非接触ICカード等の機能も搭載されるようになってきている。   A terminal device represented by a mobile phone terminal that communicates by connecting to a mobile communication network has various functions such as an address book, schedule book, mailer, browsing, multimedia player, game, etc. Is installed. Such various functions are realized by executing an application program corresponding to each function by the CPU of the terminal device. In recent years, terminal devices have become more multifunctional, and functions such as cameras, instant messengers, and non-contact IC cards are also being installed.

また、端末装置の様々な機能を同時に利用したり、互いに連携させたりするために、複数のアプリケーションプログラムを同時並行的に実行するマルチタスク機能を搭載した端末装置も増えており、そのような端末装置ではマルチタスクに対応したOSを搭載し、OSの機能によってマルチタスクを実現しているものもある。   In addition, in order to use various functions of terminal devices at the same time or to cooperate with each other, an increasing number of terminal devices are equipped with a multitasking function that simultaneously executes a plurality of application programs. Some apparatuses are equipped with an OS corresponding to multitasking and realize multitasking by the function of the OS.

一方、携帯電話のような端末装置では、音声通話を実現するためにスピーカとマイクロフォンが搭載されているが、最近の端末装置におけるスピーカは単に通話の音声、呼び出し音、発信音を発するために利用されるだけではなく、各種の操作音やマルチメディアサウンドを再生するためにも利用されている。このため最近の端末装置には、サウンドチップおよび複数のスピーカが搭載されており、音声をステレオで再生することが可能となっている。   On the other hand, in a terminal device such as a mobile phone, a speaker and a microphone are mounted in order to realize a voice call, but the speaker in a recent terminal device is simply used to emit a call voice, a ringing tone, and a dial tone. In addition to being used, it is also used to play various operation sounds and multimedia sounds. Therefore, recent terminal devices are equipped with a sound chip and a plurality of speakers, and can reproduce audio in stereo.

図12は、上述したようにサウンドチップおよび複数のスピーカを備えた端末装置としての通信端末200の構成を示す機能ブロック図である。通信端末200は、所定の通信ネットワークに接続するための通信部201、ユーザインターフェイスを提供するための表示部202、ユーザが操作するためのキー入力部203、各部の動作を制御する制御部204、データ等を記憶するための記憶部205、通話音声をエンコード/デコードするためのコーデックに対応したボイスコーデック部206、および、所定フォーマットのサウンドデータからアナログ音声信号を生成する音源部207を有している。そして、通信端末200で他の通信端末と音声通話を行う際には、通信部201が受信した音声データはボイスコーデック部206に渡されて、ここでデコードすることにより伸張されるとともにアナログ音声信号に変換され、当該アナログ音声信号に基づいてスピーカ208を駆動することによりユーザに音声通話にかかる音声が伝達される。また、ユーザが発した音声はマイク209によってアナログ音声信号に変換され、次いでボイスコーデック部206でデジタル化するとともにエンコードすることにより圧縮され、通信部201から通信ネットワークを介して通話相手の通信端末に送信される。一方、音楽や効果音等のサウンドデータは記憶部205に保存され、制御部204によって読み出されて音源部207に引き渡され、音源部207がデータに従ってスピーカ210を駆動することによりサウンド生成される。   FIG. 12 is a functional block diagram illustrating a configuration of the communication terminal 200 as a terminal device including the sound chip and the plurality of speakers as described above. The communication terminal 200 includes a communication unit 201 for connecting to a predetermined communication network, a display unit 202 for providing a user interface, a key input unit 203 for user operation, a control unit 204 for controlling the operation of each unit, A storage unit 205 for storing data, a voice codec unit 206 corresponding to a codec for encoding / decoding call speech, and a sound source unit 207 for generating an analog audio signal from sound data in a predetermined format Yes. When the communication terminal 200 performs a voice call with another communication terminal, the voice data received by the communication unit 201 is transferred to the voice codec unit 206, where it is decompressed and decoded as an analog voice signal. By driving the speaker 208 based on the analog voice signal, the voice for the voice call is transmitted to the user. The voice uttered by the user is converted into an analog voice signal by the microphone 209, then digitized and encoded by the voice codec unit 206, and compressed by the communication unit 201 via the communication network. Sent. On the other hand, sound data such as music and sound effects are stored in the storage unit 205, read by the control unit 204, delivered to the sound source unit 207, and the sound source unit 207 drives the speaker 210 according to the data to generate sound. .

図13は、音源部207のより詳細な構成を示す機能ブロック図である。音源部207は音源チップであり、制御部204からの信号を受け付けるための制御部インターフェイス220、制御部204からの信号を一時的に保存するバッファ221、FM音源方式を利用するサウンドデータから生成すべき音のデジタル信号を生成するためのシーケンサ222およびFM音源部224、ADPCM音源方式を利用するサウンドデータからデジタル信号を生成するためのシーケンサ223およびADPCM音源部225、デジタルのサウンドデータからアナログ信号を生成するDAC部226、アナログ信号を増幅してスピーカ210を駆動するアンプ部227を有している。制御部204から渡されたサウンドデータは、制御部インターフェイス220を介してバッファ221に保存され、シーケンサ222およびFM音源部224もしくはシーケンサ223およびADPCM音源部225によってデジタル信号が生成され、これをDAC部226でアナログ化し、アンプ部227で増幅してスピーカ210を駆動することによりサウンドを生成するものである。   FIG. 13 is a functional block diagram showing a more detailed configuration of the sound source unit 207. A sound source unit 207 is a sound source chip, and is generated from a control unit interface 220 for receiving a signal from the control unit 204, a buffer 221 for temporarily storing a signal from the control unit 204, and sound data using an FM sound source system. Sequencer 222 and FM sound source unit 224 for generating a digital signal of power sound, sequencer 223 and ADPCM sound source unit 225 for generating a digital signal from sound data using the ADPCM sound source method, and an analog signal from the digital sound data A DAC unit 226 to be generated and an amplifier unit 227 for amplifying an analog signal and driving the speaker 210 are included. The sound data passed from the control unit 204 is stored in the buffer 221 via the control unit interface 220, and a digital signal is generated by the sequencer 222 and the FM sound source unit 224 or the sequencer 223 and the ADPCM sound source unit 225. The sound is generated by making it analog by 226, amplifying it by the amplifier unit 227, and driving the speaker 210.

さらに、近時においては、スピーカの数や位置以上に音に広がりを持たせ、さらに音を上下左右に広げるだけでなく音源が立体的に移動しているかのような効果を追加する3Dサウンド技術に対応した端末装置も登場している。3Dサウンド技術は、音波が聞き手の右耳と左耳に到達するタイミングをハードウェアまたはソフトウェアによって意図的にずらし、その時間差によって三次元空間内の所定位置から音波が聞こえてくるかのような効果を聞き手に与えるものであり、さらにドップラー効果やボリューム制御等を音波に付加する。これにより図14に示すように、3D空間内に音を聴くポイントであるリスナと、音が聞こえてくるポイントである仮想音源とをそれぞれ位置決めして、所望の音響効果を得ることができるものである。また、仮想音源の位置を移動させる技術も提案されており、リスナを移動させることも可能である。   In addition, recently, the 3D sound technology adds a sound as if the sound source is moving three-dimensionally as well as spreading the sound more than the number and position of the speakers and further spreading the sound up and down and left and right. The terminal device corresponding to has appeared. 3D sound technology intentionally shifts the timing at which sound waves reach the listener's right and left ears by hardware or software, and the effect is as if sound waves are heard from a predetermined position in the three-dimensional space due to the time difference. Is added to the listener, and a Doppler effect, volume control, etc. are added to the sound wave. As a result, as shown in FIG. 14, the listener that is the point for listening to the sound in the 3D space and the virtual sound source that is the point at which the sound is heard can be positioned to obtain a desired acoustic effect. is there. In addition, a technique for moving the position of the virtual sound source has been proposed, and the listener can be moved.

以上のような従来技術に関して、特開2000−166000および特開2000−261899には、3Dサウンドに関する技術が開示されている。また、特開2005−253051には、3Dサウンド技術に対応した携帯電話端末について開示している。
特開2000−166000 特開2000−261899 特開2005−253051
Regarding the above-described conventional techniques, Japanese Patent Application Laid-Open Nos. 2000-166000 and 2000-261899 disclose techniques related to 3D sound. Japanese Patent Application Laid-Open No. 2005-253051 discloses a mobile phone terminal compatible with 3D sound technology.
JP 2000-166000 JP 2000-261899 A JP 2005-253051 A

前述のように複数のアプリケーションプログラムを同時並行的に実行するマルチタスク機能を搭載した通信端末においては、それぞれのアプリケーションプログラムが利用するリソースの管理運用を考える必要がある。例えば表示画面については一つのアプリケーションプログラムによって占有させる運用、マルチウィンドウシステムによって複数のアプリケーションプログラムに共用させる運用が行われている。一方、音源チップのサウンド機能についても、一つのアプリケーションプログラムによって占有させる運用と、複数のアプリケーションプログラムに共有させる運用とが考えられる。しかし、前者の運用では例えばMP3プレーヤーで音楽を聴きながらゲームを行うようなユースケースではいずれか一方のサウンドしか楽しむことができない。また、後者の運用では、複数のアプリケーションプログラムのサウンドが同時に発音されるため、特定のサウンドがいずれのアプリケーションプログラムによって鳴らされているのか判断が難しくなるおそれがある。   As described above, in a communication terminal equipped with a multitask function for executing a plurality of application programs simultaneously in parallel, it is necessary to consider the management and operation of resources used by each application program. For example, the display screen is operated to be occupied by one application program, and is operated to be shared by a plurality of application programs by a multi-window system. On the other hand, with respect to the sound function of the sound source chip, there can be considered an operation that is occupied by one application program and an operation that is shared by a plurality of application programs. However, in the former operation, for example, in a use case where a game is played while listening to music with an MP3 player, only one of the sounds can be enjoyed. Further, in the latter operation, sounds of a plurality of application programs are simultaneously generated, so that it may be difficult to determine which application program is playing a specific sound.

以上のような状況に鑑みて、本発明はマルチタスク機能を備えた端末装置において、複数のアプリケーションに音源チップのサウンド機能を共有させつつ、3Dサウンド技術によって所定アプリケーションのサウンドを通信端末のユーザが区別することの可能な端末装置を提供することを目的とする。   In view of the situation as described above, the present invention provides a terminal device having a multitask function, and allows a user of a communication terminal to output a sound of a predetermined application using 3D sound technology while sharing a sound function of a sound source chip among a plurality of applications. It is an object to provide a terminal device that can be distinguished.

上記課題を解決するため、本発明の第1の観点は、音声データからサウンドを生成する音源部と、
複数のアプリケーションプログラムを格納した記憶部と、
前記記憶部に格納された前記アプリケーションプログラムを実行し、前記アプリケーションプログラムの動作に応じて前記音源部を駆動して所定のサウンドを生成する制御部とを有する端末装置であって、
前記制御部は、前記複数のアプリケーションプログラムを並行して実行するマルチタスク機能を備えるとともに、アプリケーションプログラムのサウンドが3次元空間内の所定の位置へ定位するように前記音源部を制御する3Dサウンド機能を有し、
前記制御部が前記複数のアプリケーションプログラムを並行して実行する際に、少なくとも一つのアプリケーションプログラムのサウンドが他のアプリケーションのサウンドとは異なる位置へ定位するように、前記制御部が前記3Dサウンド機能によって前記音源部を制御することを特徴とする端末装置を提供する。
In order to solve the above problems, a first aspect of the present invention is a sound source unit that generates sound from audio data;
A storage unit storing a plurality of application programs;
A terminal device having a control unit that executes the application program stored in the storage unit and drives the sound source unit according to the operation of the application program to generate a predetermined sound;
The control unit has a multitask function for executing the plurality of application programs in parallel, and controls the sound source unit so that the sound of the application program is localized at a predetermined position in a three-dimensional space. Have
When the control unit executes the plurality of application programs in parallel, the control unit uses the 3D sound function so that the sound of at least one application program is localized at a position different from the sound of other applications. Provided is a terminal device that controls the sound source unit.

また、本発明の第2の観点は、音声データからサウンドを生成する音源部と、
複数のアプリケーションプログラムを格納した記憶部と、
前記記憶部に格納された前記アプリケーションプログラムを実行し、前記アプリケーションプログラムの動作に応じて前記音源部を駆動して所定のサウンドを生成する制御部とを有する端末装置であって、
前記制御部は、前記複数のアプリケーションプログラムを並行して実行するマルチタスク機能を備えるとともに、前記音源部はアプリケーションプログラムのサウンドを3次元空間内の所定の位置へ定位させる3Dサウンド機能を有し、
前記制御部が前記複数のアプリケーションプログラムを並行して実行する際に、少なくとも一つのアプリケーションプログラムのサウンドが他のアプリケーションのサウンドとは異なる位置へ定位するように、前記制御部が前記音源部の前記3Dサウンド機能を制御することを特徴とする端末装置を提供する。
A second aspect of the present invention provides a sound source unit that generates sound from audio data;
A storage unit storing a plurality of application programs;
A terminal device having a control unit that executes the application program stored in the storage unit and drives the sound source unit according to the operation of the application program to generate a predetermined sound;
The control unit has a multitask function for executing the plurality of application programs in parallel, and the sound source unit has a 3D sound function for localizing the sound of the application program to a predetermined position in a three-dimensional space,
When the control unit executes the plurality of application programs in parallel, the control unit is arranged so that the sound of at least one application program is localized at a position different from the sound of other applications. Provided is a terminal device that controls a 3D sound function.

さらに、本発明の第3の観点は、音声データからサウンドを生成する音源部と、
複数のアプリケーションプログラムを格納した記憶部と、
前記記憶部に格納された前記アプリケーションプログラムを実行し、前記アプリケーションプログラムの動作に応じて前記音源部を駆動して所定のサウンドを生成する制御部とを有する端末装置であって、
前記制御部は、前記複数のアプリケーションプログラムを並行して実行するマルチタスク機能を備え、
さらに、前記音源部の生成したサウンドを3次元空間内の所定の位置へ定位させる3Dサウンド部を有し、
前記制御部が前記複数のアプリケーションプログラムを並行して実行する際に、少なくとも一つのアプリケーションプログラムのサウンドが他のアプリケーションのサウンドとは異なる位置へ定位するように、前記制御部が前記3Dサウンド部を制御することを特徴とする端末装置を提供する。
Furthermore, a third aspect of the present invention provides a sound source unit that generates sound from audio data;
A storage unit storing a plurality of application programs;
A terminal device having a control unit that executes the application program stored in the storage unit and drives the sound source unit according to the operation of the application program to generate a predetermined sound;
The control unit has a multitask function for executing the plurality of application programs in parallel,
And a 3D sound unit for localizing the sound generated by the sound source unit to a predetermined position in a three-dimensional space,
When the control unit executes the plurality of application programs in parallel, the control unit positions the 3D sound unit so that the sound of at least one application program is localized at a position different from the sound of another application. Provided is a terminal device characterized by controlling.

以上のような本発明の第1から第3の観点においては、前記複数のアプリケーションプログラムにはそれぞれサウンド機能に関する優先順位が定められており、
並行して実行している複数のアプリケーションプログラムのサウンドのうち、優先順位が最も高いアプリケーションプログラムのサウンドを最も近くへ定位させることが好適である。
In the first to third aspects of the present invention as described above, priorities regarding sound functions are defined for each of the plurality of application programs,
It is preferable to locate the sound of the application program with the highest priority among the sounds of a plurality of application programs being executed in parallel.

そして、第1のアプリケーションプログラムを実行している状態で、サウンド機能に関する優先順位のより高い第2のアプリケーションプログラムが起動された場合には、前記第2のアプリケーションプログラムのサウンドを前記第1のアプリケーションプログラムよりも近くへ定位させることが好ましく。さらに、第1のアプリケーションプログラムを実行している状態で、サウンド機能に関する優先順位のより高い第2のアプリケーションプログラムが起動された場合には、前記第1のアプリケーションプログラムのサウンドが定位する位置を遠ざけるようにしても構わない。   When the second application program having a higher priority regarding the sound function is activated while the first application program is being executed, the sound of the second application program is transmitted to the first application program. It is preferable to localize closer to the program. Further, when the second application program having a higher priority regarding the sound function is activated while the first application program is being executed, the position where the sound of the first application program is localized is moved away. It doesn't matter if you do.

以上のような本発明においては、さらにネットワークに接続して通信を行う通信部を有し、前記第2のアプリケーションプログラムは、前記通信部が所定の通信を受信した場合にサウンドを鳴らす着信音鳴動プログラムとする構成が可能である。   In the present invention as described above, there is further provided a communication unit that communicates by connecting to a network, and the second application program generates a ringtone that sounds a sound when the communication unit receives a predetermined communication. Configuration as a program is possible.

本発明によれば、マルチタスク機能と、3Dサウンド機能を備えた端末装置において、複数のアプリケーションプログラムによって音源チップのサウンド機能を共有させることにより各アプリケーションプログラムのサウンドを同時に鳴らしつつ、3Dサウンド機能によって少なくとも一つのアプリケーションプログラムのサウンドを他のアプリケーションとは異なる位置に定位させる。これにより、複数アプリケーションプログラムのサウンドを同時に鳴らしている状態でも、ユーザは他のアプリケーションのサウンドとは異なる位置に定位させたアプリケーションプログラムのサウンドについて、容易に識別することができる。   According to the present invention, in a terminal device having a multitask function and a 3D sound function, the sound function of the sound source chip is shared by a plurality of application programs, and the sound of each application program is simultaneously played, and the 3D sound function is used. The sound of at least one application program is localized at a position different from other applications. Thus, even when the sounds of a plurality of application programs are being played simultaneously, the user can easily identify the sounds of the application programs that are localized at positions different from the sounds of other applications.

特に、前記複数のアプリケーションプログラムにそれぞれサウンド機能の優先順位を定め、並行して実行している複数のアプリケーションプログラムのサウンドのうち、優先順位が最も高いアプリケーションプログラムのサウンドを最も近くへ定位させれば、優先順位が高いアプリケーションプログラムのサウンドを最も聞きやすく識別しやすい状態でユーザに提供することができる。   In particular, if the priority order of the sound function is determined for each of the plurality of application programs, and the sound of the application program with the highest priority among the sounds of the plurality of application programs being executed in parallel is localized closest The sound of the application program having a high priority can be provided to the user in a state that is most easily heard and identified.

このような制御は、第1のアプリケーションプログラムを実行している状態で、サウンド機能に関する優先順位のより高い第2のアプリケーションプログラムが起動された場合に、前記第2のアプリケーションプログラムのサウンドを前記第1のアプリケーションプログラムよりも近くへ定位させることにより実現することができる。そして、第1のアプリケーションプログラムを実行している状態で、サウンド機能に関する優先順位のより高い第2のアプリケーションプログラムが起動された場合には、前記第1のアプリケーションプログラムのサウンドが定位する位置を遠ざけることにより、第2のアプリケーションプログラムのサウンドをより識別しやすくすることができる。   Such control allows the sound of the second application program to be output when the second application program having a higher priority regarding the sound function is activated while the first application program is being executed. This can be realized by localizing closer to one application program. Then, when the second application program having a higher priority regarding the sound function is activated while the first application program is being executed, the position where the sound of the first application program is localized is moved away. This makes it easier to identify the sound of the second application program.

さらに、ネットワークに接続して通信を行う通信部を有する端末装置に本発明を適用する場合には、前記通信部が所定の通信を受信した場合にサウンドを鳴らす着信音鳴動プログラムを優先順位の高い第2のアプリケーションプログラムとすれば、他のアプリケーションプログラム実行中に通信を着信した場合には着信音鳴動プログラムのサウンドが実行中のアプリケーションプログラムのサウンドよりも近くに定位されるるので、ユーザは着信音鳴動プログラムのサウンドをより明示的に認識することができ、好適である。   Furthermore, when the present invention is applied to a terminal device having a communication unit that communicates by connecting to a network, a ringing tone ringing program that sounds a sound when the communication unit receives a predetermined communication is assigned a high priority. In the case of the second application program, when a communication is received while another application program is being executed, the sound of the ringtone ringing program is localized closer to the sound of the application program being executed. The sound of the ringing program can be recognized more clearly, which is preferable.

以下、本発明を実施するための最良の形態について説明する。   Hereinafter, the best mode for carrying out the present invention will be described.

[第1の実施形態]
図1は、本発明の第1の実施形態にかかる端末装置としての携帯電話100の構成を示す機能ブロック図である。図1に示すように、この携帯電話100は、主として、表示部101と、キー入力部102と、記憶部103と、制御部106と、通信部107と、ボイスコーデック部108と、3Dサウンド部111と、音源部112とから構成されている。また、図2は携帯電話100の外観を示す図である。図2に示すように、この携帯電話100は、内側に表示部101の設けられた第1の筐体100aと、内側にキー入力部102の要部が設けられた第2の筐体100bとが接続された二つ折り可能なクラムシェル構造になっている。また、第1の筐体100aの内側にはさらにレシーバ109およびステレオスピーカ113が設けられており、第2の筐体100bの内側にはさらにマイク110が設けられている。
[First Embodiment]
FIG. 1 is a functional block diagram showing a configuration of a mobile phone 100 as a terminal device according to the first embodiment of the present invention. As shown in FIG. 1, the mobile phone 100 mainly includes a display unit 101, a key input unit 102, a storage unit 103, a control unit 106, a communication unit 107, a voice codec unit 108, and a 3D sound unit. 111 and a sound source unit 112. FIG. 2 is a view showing the appearance of the mobile phone 100. As shown in FIG. 2, the mobile phone 100 includes a first housing 100 a provided with a display unit 101 on the inside, and a second housing 100 b provided with a main part of the key input unit 102 on the inside. It has a clamshell structure that can be folded in half. Further, a receiver 109 and a stereo speaker 113 are further provided inside the first casing 100a, and a microphone 110 is further provided inside the second casing 100b.

表示部101は、液晶表示装置または有機液晶表示装置であって、携帯電話100の動作状態、携帯電話100を操作するためのユーザインターフェイス等を制御部106の制御下で表示するものである。   The display unit 101 is a liquid crystal display device or an organic liquid crystal display device, and displays the operating state of the mobile phone 100, a user interface for operating the mobile phone 100, and the like under the control of the control unit 106.

キー入力部102は、前述のように携帯電話100の第2の筐体100bに設けられたキーパッド、ならびにその他ボタン等の入力装置であり、ユーザが操作することに応じて各キーまたはボタンに応じた信号であるキーイベントを制御部106に通知する機能を有し、種々の操作ないしは制御に利用される。   The key input unit 102 is an input device such as a keypad provided on the second casing 100b of the mobile phone 100 and other buttons as described above, and is applied to each key or button according to a user operation. It has a function of notifying the control unit 106 of a key event that is a corresponding signal, and is used for various operations or control.

記憶部103は、所定の情報を制御部106の制御下で記憶し、また制御部106に記憶している情報を提供するための読み書き可能なメモリである。記憶部103は、所定のアプリケーション104と着信音鳴動アプリケーション105を格納しており、これらを制御部106で読み出して実行することにより、所定のアプリケーション104の機能が携帯電話100の各部によって実現され、また、音源部112を利用して所望の着信サウンドを鳴らすという着信音鳴動アプリケーション105の機能が実現される。   The storage unit 103 is a readable / writable memory for storing predetermined information under the control of the control unit 106 and providing the information stored in the control unit 106. The storage unit 103 stores a predetermined application 104 and a ringing tone ringing application 105, and the functions of the predetermined application 104 are realized by each unit of the mobile phone 100 by reading and executing these by the control unit 106. Further, the function of the ringing tone sounding application 105 that sounds a desired ringing sound using the sound source unit 112 is realized.

制御部106は、不図示のCPU上で所定のプログラムを実行することにより仮想的に構成される機能ブロックであって、携帯電話100の表示部101、キー入力部102、記憶部103、通信部107、ボイスコーデック部108、3Dサウンド部111および音源部112といった各機能ブロックとの間でデータおよび制御信号をやり取りすることにより、携帯電話100の各種機能を実現するものである。   The control unit 106 is a functional block that is virtually configured by executing a predetermined program on a CPU (not shown), and includes a display unit 101, a key input unit 102, a storage unit 103, and a communication unit of the mobile phone 100. Various functions of the mobile phone 100 are realized by exchanging data and control signals with the respective functional blocks such as 107, voice codec unit 108, 3D sound unit 111, and sound source unit 112.

通信部107は、制御部106の制御下で動作することにより、携帯電話網と無線接続して他の携帯電話や固定電話、サーバと通信を行うものである。ここでの通信方式としては、例えば、他の通信端末と回線接続して行う回線交換型通信方式、他の通信端末またはサーバと接続して行うパケット交換型通信方式等が挙げられる。ここで、前者の通信方式では音声通信サービスが実現され、後者の通信方式ではメールの送受信やチャット、ブラウジング、PTT(Push To Talk)、VoIP(Voice Over IP)等のデータ通信サービスが実現される。通信部107は、これら通信サービスにかかる通信を着信すると、そのことを制御部106に通知し、通知を受けた制御部106は着信音鳴動アプリケーション105を起動して所望のサウンドを鳴らすことにより、携帯電話100のユーザに所定の通信サービスにかかる通信が着信したことを通知する。   The communication unit 107 operates under the control of the control unit 106 to wirelessly connect to the mobile phone network and communicate with other mobile phones, landline phones, and servers. Examples of the communication method here include a circuit-switched communication method performed by connecting to another communication terminal, a packet-switched communication method performed by connecting to another communication terminal or a server, and the like. Here, the former communication method realizes a voice communication service, and the latter communication method realizes a data communication service such as mail transmission / reception, chat, browsing, PTT (Push To Talk), and VoIP (Voice Over IP). . When the communication unit 107 receives a communication related to these communication services, the communication unit 107 notifies the control unit 106 of the fact, and the control unit 106 that has received the notification activates the ringtone sounding application 105 and plays a desired sound. The user of the mobile phone 100 is notified that a communication related to a predetermined communication service has arrived.

ボイスコーデック部108にはレシーバ109およびマイク110が接続されており、通信部107によって携帯電話100が回線交換型通信方式で他の端末と音声通信を行う場合に使用される。すなわち、ボイスコーデック部108は、相手の端末から通信部107および制御部106を介して受信した音声データをデコードしてレシーバ109で再生してユーザに提供する。また、ユーザがマイク110から入力した音声は、ボイスコーデック部108でエンコードされて音声データとされ、制御部106および通信部107を介して相手の端末に送信される。   A receiver 109 and a microphone 110 are connected to the voice codec unit 108, and is used when the mobile phone 100 performs voice communication with other terminals by the communication unit 107 using a circuit switching communication method. That is, the voice codec unit 108 decodes the voice data received from the partner terminal via the communication unit 107 and the control unit 106, reproduces it with the receiver 109, and provides it to the user. In addition, the voice input from the microphone 110 by the user is encoded by the voice codec unit 108 into voice data, and is transmitted to the partner terminal via the control unit 106 and the communication unit 107.

音源部112にはステレオスピーカ113が接続されており、制御部106が音源部112に所定のサウンドデータを渡して制御することにより、音源部112がステレオスピーカ113を駆動して所定のサウンドが鳴らされる。3Dサウンド部111は、制御部106の制御に応じて、音源部112の鳴らすサウンドを3次元空間内の所定位置へ定位させる。サウンドデータにも様々な形式があるが、本実施形態では、出力デバイスに対する制御を時間を追って定義したデータ表現であるシーケンスデータを複数束ねたものを使用する場合について示す。このようなデータ形式としては、例えばSMAF形式を挙げることができる。   A stereo speaker 113 is connected to the sound source unit 112, and when the control unit 106 controls the sound source unit 112 by passing predetermined sound data, the sound source unit 112 drives the stereo speaker 113 and a predetermined sound is produced. It is. The 3D sound unit 111 localizes the sound produced by the sound source unit 112 to a predetermined position in the three-dimensional space under the control of the control unit 106. Although there are various types of sound data, this embodiment shows a case where a plurality of sequence data, which is a data expression in which control over an output device is defined over time, is used. An example of such a data format is the SMAF format.

図3は音源部112および3Dサウンド部111の詳細を示す図面である。図3に示すように、音源部112は、制御部106とサウンドデータおよび制御信号の受け渡しを行う制御部インターフェイス121と、制御部106から渡されたサウンドデータにかかるシーケンスデータおよび制御信号を一時的に保管するバッファ122、それぞれ独立してシーケンスデータの解釈実行を行うシーケンサ123a〜d、シーケンサ123aおよび123bによって制御されるFM音源部124、シーケンサ123cおよび123dによって制御されるADPCM部125、各音源が生成したデジタル信号をアナログ信号に変換するDAC部126、DAC部126の生成したアナログ信号を増幅してステレオスピーカ113を駆動してサウンドを鳴らすアンプ部127から構成されている。図3に示すように、この音源部112はそれぞれシーケンサ123aまたは123bでFM音源部124を制御して得たデジタル信号と、シーケンサ123cまたは123dでADPCM部125を制御して得たデジタル信号とを重ね合わせた信号を2系統並行して処理することが可能である。   FIG. 3 is a diagram showing details of the sound source unit 112 and the 3D sound unit 111. As shown in FIG. 3, the sound source unit 112 temporarily transmits the sequence data and the control signal related to the sound data passed from the control unit 106 and the control unit interface 121 that delivers the sound data and the control signal to the control unit 106. Are stored in a buffer 122, sequencers 123a to 123d that interpret and execute sequence data independently, FM tone generator 124 controlled by sequencers 123a and 123b, ADPCM unit 125 controlled by sequencers 123c and 123d, A DAC unit 126 that converts the generated digital signal into an analog signal, and an amplifier unit 127 that amplifies the analog signal generated by the DAC unit 126 and drives the stereo speaker 113 to produce sound. As shown in FIG. 3, the sound source unit 112 receives a digital signal obtained by controlling the FM sound source unit 124 with the sequencer 123a or 123b and a digital signal obtained by controlling the ADPCM unit 125 with the sequencer 123c or 123d, respectively. It is possible to process two superimposed signals in parallel.

また、3Dサウンド部111は、制御部106からの制御信号を受け付ける制御部インターフェイス131と、音源部112のFM音源部124およびADPCM部125から出力されたデジタル信号を受け付けて、デジタル信号に3Dサウンド効果を付加するストリーム制御部132aおよび132bと、ストリーム制御部132aおよび133bが出力したデジタル信号を混合して音源部126のDAC部に供給するミキサー部133から構成されている。ここで、図3に示すように、ストリーム制御部132aおよび132bは、音源部112が生成した2系統の信号をそれぞれ個別に処理することが可能になっている。   Further, the 3D sound unit 111 receives a control unit interface 131 that receives a control signal from the control unit 106, digital signals output from the FM sound source unit 124 and the ADPCM unit 125 of the sound source unit 112, and converts the 3D sound into a digital signal. The stream control units 132a and 132b to which the effect is added and the mixer unit 133 that mixes the digital signals output from the stream control units 132a and 133b and supplies them to the DAC unit of the sound source unit 126. Here, as shown in FIG. 3, the stream control units 132a and 132b can individually process the two systems of signals generated by the sound source unit 112.

このような構成により、音源部112は、それぞれFM音源部124を使用するシーケンスデータと、ADPCM部125を利用するシーケンスデータとを含む2種類のサウンドデータを、同時に鳴らすことができる。また、音源部112に3Dサウンド部111を併用することにより、2種類のサウンドデータをそれぞれ3D空間内の所定の位置に定位させつつ、双方のサウンドデータを同時に鳴らすことが可能である。   With such a configuration, the sound source unit 112 can simultaneously play two types of sound data including sequence data using the FM sound source unit 124 and sequence data using the ADPCM unit 125. Further, by using the 3D sound unit 111 in combination with the sound source unit 112, it is possible to sound both types of sound data simultaneously while localizing two types of sound data at predetermined positions in the 3D space.

次に、本実施形態にかかる携帯電話100の動作について説明する。図4は、携帯電話100で所定のアプリケーション104を起動している状態から、着信に応じて着信音鳴動アプリケーション105を起動して、各アプリケーションのサウンドを再生する動作のフローチャートである。   Next, the operation of the mobile phone 100 according to the present embodiment will be described. FIG. 4 is a flowchart of an operation of starting the ring tone sounding application 105 in response to an incoming call from the state in which the predetermined application 104 is activated on the mobile phone 100 and reproducing the sound of each application.

この動作では、まず、ユーザがキー入力部102を操作することにより所定のアプリケーション104を起動し(ST101)、制御部106で所定のアプリケーション104を実行し、音源部112を駆動してサウンドを鳴らす(ST102)。この状態で制御部106は通信部107における着信の有無を判断し(ST103)、着信があった場合のみST104以降の処理に進み、着信が無い場合にはST103の判断を再度行う。ここで、ST103の判断は、通信部107が通信の着信を意味する信号を発しているか否かを判断することにより行うことができ、このような判断は例えば制御部106でポーリングを行うことにより実現してもよいし、制御部106に設けられた割り込み機構によって実現しても構わない。   In this operation, first, the user operates the key input unit 102 to activate a predetermined application 104 (ST101), the control unit 106 executes the predetermined application 104, and drives the sound source unit 112 to sound a sound. (ST102). In this state, control section 106 determines whether or not there is an incoming call in communication section 107 (ST103), and proceeds to the processing after ST104 only when there is an incoming call. If there is no incoming call, it makes the determination of ST103 again. Here, the determination in ST103 can be made by determining whether or not the communication unit 107 has issued a signal indicating an incoming communication. Such a determination can be made by polling the control unit 106, for example. It may be realized or may be realized by an interrupt mechanism provided in the control unit 106.

ST103で着信があったと判断した場合には、制御部106のマルチタスク機能により、起動済みの所定のアプリケーション104を終了することなく、着信音鳴動アプリケーション105が起動され(ST104)、以降は所定のアプリケーション104および着信音鳴動アプリケーション105が並行して実行される。   If it is determined in ST103 that an incoming call has been received, the multi-function function of the control unit 106 activates the ringing tone application 105 without ending the predetermined application 104 that has already been activated (ST104). The application 104 and the ring tone sounding application 105 are executed in parallel.

ここで、所定のアプリケーション104の仮想音源を遠くに、着信音鳴動アプリケーション105の仮想音源を近くに、それぞれ設定するように制御部106で3Dサウンド部111を制御する(ST105)。すなわち、制御部106が3Dサウンド部111に、各アプリケーションプログラムの仮想音源の位置情報(デカルト座標または極座標)を通知し、これらの位置情報は制御部インターフェイス131を介してストリーム制御部132aおよび132bに供給される。   Here, the control unit 106 controls the 3D sound unit 111 so as to set the virtual sound source of the predetermined application 104 far and the virtual sound source of the ringing tone application 105 close (ST105). That is, the control unit 106 notifies the 3D sound unit 111 of the position information (Cartesian coordinates or polar coordinates) of the virtual sound source of each application program, and these position information is sent to the stream control units 132a and 132b via the control unit interface 131. Supplied.

次いで、所定のアプリケーション104および着信音鳴動アプリケーション105の双方のサウンドについて、音源部112で当該サウンドにかかるデジタル信号を生成する(ST106)。すなわち、制御部106から音源部112に所定のアプリケーション104および着信音鳴動アプリケーション105の双方のサウンドデータを逐次的に渡す。音源部112は制御部インターフェイス121を介してバッファ122に各サウンドデータを一時的に格納し、例えば所定のアプリケーション104のサウンドデータをシーケンサ123a/FM音源部124とシーケンサ123c/ADPCM部125で解釈し、着信音鳴動アプリケーション105のサウンドデータをシーケンサ123b/FM音源部124とシーケンサ123d/ADPCM部125で解釈することにより、各アプリケーションのサウンドデータにかかるデジタル信号をそれぞれ生成する。   Next, with respect to the sounds of both the predetermined application 104 and the ring tone sounding application 105, the sound source unit 112 generates a digital signal related to the sound (ST106). That is, the sound data of both the predetermined application 104 and the ringer ringing sound application 105 are sequentially transferred from the control unit 106 to the sound source unit 112. The sound source unit 112 temporarily stores each sound data in the buffer 122 via the control unit interface 121. For example, the sound data of a predetermined application 104 is interpreted by the sequencer 123a / FM sound source unit 124 and the sequencer 123c / ADPCM unit 125. Then, the sound data of the ringer ringing application 105 is interpreted by the sequencer 123b / FM sound source unit 124 and the sequencer 123d / ADPCM unit 125, thereby generating digital signals related to the sound data of each application.

その後、各アプリケーションプログラムのサウンドについて生成されたデジタル信号を、それぞれ設定された仮想音源から聞こえるように、3Dサウンド部111によって処理する(ST107)。すなわち、例えば所定のアプリケーション104のサウンドデータにかかるデジタル信号をストリーム制御部132aで処理して遠くの仮想音源から聞こえるような3Dサウンド効果を付加し、着信音鳴動アプリケーション105のサウンドデータにかかるデジタル信号をストリーム制御部132bで処理して近くの仮想音源から聞こえるような3Dサウンド効果を付加し、双方の出力をミキサー部133で混合し、音源部112にもどす。   Thereafter, the digital signal generated for the sound of each application program is processed by the 3D sound unit 111 so that it can be heard from the set virtual sound source (ST107). That is, for example, a digital signal related to the sound data of the predetermined application 104 is processed by the stream control unit 132a to add a 3D sound effect that can be heard from a distant virtual sound source, and the digital signal related to the sound data of the ringing tone application 105 Is processed by the stream control unit 132b to add a 3D sound effect that can be heard from a nearby virtual sound source, and both outputs are mixed by the mixer unit 133 and returned to the sound source unit 112.

最後に、処理されたサウンドデータを音源部112のDAC部126およびアンプ127で処理してステレオスピーカ113を駆動し、それぞれ3Dサウンド効果の施された所定のアプリケーション104および着信音鳴動アプリケーション105のサウンドを同時に再生し(ST108)、一連の動作を終了する。   Finally, the processed sound data is processed by the DAC unit 126 and the amplifier 127 of the sound source unit 112 to drive the stereo speaker 113, and the sound of the predetermined application 104 and the ringer ringing application 105 to which the 3D sound effect is applied, respectively. Are simultaneously reproduced (ST108), and the series of operations is terminated.

以上のような動作によれば、制御部106で所定のアプリケーション104を実行して音源部112により所定のアプリケーション104のサウンドデータを再生している状態で通信部107が通信を着信すると、着信音鳴動アプリケーション105が起動され、3Dサウンド部111によって所定のアプリケーション104のサウンドを遠くに定位させるとともに、着信音鳴動アプリケーション105のサウンドを近くに定位させた状態で、各アプリケーションのサウンドは同時に再生される。したがって、所定のアプリケーション104のサウンドとは区別の容易な状態で、着信音鳴動アプリケーション105のサウンドを鳴らすことができる。図5(a)は着信前に所定のアプリケーション104のサウンドデータのみを再生している状態を示す図面であり、図5(b)は着信により所定のアプリケーション104のサウンドと着信音鳴動アプリケーション105のサウンドとの双方を再生している状態を示す図面である。   According to the operation as described above, when the communication unit 107 receives a communication while the control unit 106 executes the predetermined application 104 and the sound source unit 112 reproduces the sound data of the predetermined application 104, the ring tone The ringing application 105 is activated, and the sound of the predetermined application 104 is localized far away by the 3D sound unit 111, and the sound of each application is reproduced at the same time while the sound of the ringing ringing ringing application 105 is localized nearby. . Therefore, the sound of the ringing tone application 105 can be played in a state that can be easily distinguished from the sound of the predetermined application 104. FIG. 5A is a diagram showing a state in which only the sound data of the predetermined application 104 is being reproduced before the incoming call, and FIG. 5B is a diagram of the sound of the predetermined application 104 and the ringing tone sounding application 105 by the incoming call. It is drawing which shows the state which is reproducing | regenerating both with a sound.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。図6は本発明の第2の実施形態にかかる端末装置としての携帯電話100′の構成を示す機能ブロック図である。この携帯電話100′は、記憶部103′に第1および第2のアプリケーション114および115を記憶しており、第1の実施形態における制御部106と一部のみが機能的に相違する制御部106′を用いる点以外は第1の実施形態にかかる携帯電話100と同等である。なお、図6において、第1の実施形態にかかる携帯電話100と同等の構成については同じ番号を付し、説明も省略する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described. FIG. 6 is a functional block diagram showing a configuration of a mobile phone 100 ′ as a terminal device according to the second embodiment of the present invention. The mobile phone 100 ′ stores the first and second applications 114 and 115 in the storage unit 103 ′, and a control unit 106 that is functionally different only in part from the control unit 106 in the first embodiment. Except for using ', it is equivalent to the mobile phone 100 according to the first embodiment. In FIG. 6, the same components as those of the mobile phone 100 according to the first embodiment are denoted by the same reference numerals, and description thereof is omitted.

記憶部103′は、第1の実施形態における記憶部103と同様に読み書き可能なメモリであって、前述の通り第1および第2のアプリケーション114および115を記憶している。ここで、第1および第2のアプリケーション114および115について特に限定はないが、アプリケーションのいずれか一方または双方は起動後に表示部101を占有的に利用するものである。また、制御部106′は、実質的に制御部106と同等の構成であるが、後述する動作を実現する点で制御部106と相違する。   The storage unit 103 ′ is a readable / writable memory similar to the storage unit 103 in the first embodiment, and stores the first and second applications 114 and 115 as described above. Here, the first and second applications 114 and 115 are not particularly limited, but one or both of the applications occupy the display unit 101 after activation. The control unit 106 ′ has substantially the same configuration as that of the control unit 106, but is different from the control unit 106 in that an operation described later is realized.

次に、第2の実施形態にかかる携帯電話100′の動作について説明する。図7は、携帯電話100′で第1のアプリケーション114を起動している状態で第2のアプリケーション115を起動し、双方のアプリケーションのサウンドを再生する動作のフローチャートである。なお、以下では、第1の実施形態における動作と同等の構成については記載を簡略化して説明する。   Next, the operation of the mobile phone 100 ′ according to the second embodiment will be described. FIG. 7 is a flowchart of an operation of starting the second application 115 in a state where the first application 114 is started on the mobile phone 100 ′ and playing sounds of both applications. In the following, the description of the configuration equivalent to the operation in the first embodiment will be simplified.

この動作では、まずユーザがキー入力部102を操作することにより第1のアプリケーション114を起動し(ST201)、制御部106′で第1のアプリケーション114を実行し、音源部112を駆動してサウンドを鳴らす(ST202)。その際、制御部106′は第1のアプリケーション114に表示部101を適宜利用させる。次に、ユーザが第2のアプリケーション115を起動する(ST203)。このようにすることで、制御部106′は第1のアプリケーション114と第2のアプリケーション115とをマルチタスク機能により並行して動作させることになる。このように第1および第2のアプリケーション114および115を並行して動作させている状態では、どちらのアプリケーションが表示部101を使用するかは、アプリケーションの設計によって変わってくる。アプリケーションの設計によっては、実行中は表示部101を必ず使用するようにアプリケーションを構成することも可能であり、実行中でも表示部101を使用しないようにアプリケーションを構成することもできる。   In this operation, first, the user operates the key input unit 102 to activate the first application 114 (ST201), the control unit 106 'executes the first application 114, and drives the sound source unit 112 to perform sound. Is sounded (ST202). At that time, the control unit 106 ′ causes the first application 114 to use the display unit 101 as appropriate. Next, the user activates the second application 115 (ST203). By doing so, the control unit 106 'operates the first application 114 and the second application 115 in parallel by the multitask function. As described above, in a state where the first and second applications 114 and 115 are operated in parallel, which application uses the display unit 101 depends on the design of the application. Depending on the design of the application, the application can be configured to always use the display unit 101 during execution, or the application can be configured not to use the display unit 101 even during execution.

このような状態で、制御部106′は、表示部101の画面を使用しているのが第1のアプリケーション114であるかを判断する(ST204)。ここで第1のアプリケーション114が表示部101を使用していると判断した場合、第1のアプリケーション114のサウンドを近くに、第2のアプリケーション115のサウンドを遠くに、それぞれ定位させるように制御部106′で3Dサウンド部111を制御する(ST205)。一方、第1のアプリケーション114が表示部101を使用していると判断しなかった場合、第1のアプリケーション114のサウンドを遠くに、第2のアプリケーション115のサウンドを近くに、それぞれ定位させるように制御部106′で3Dサウンド部111を制御する(ST206)。   In this state, control unit 106 'determines whether or not first application 114 is using the screen of display unit 101 (ST204). Here, when it is determined that the first application 114 is using the display unit 101, the control unit is configured to localize the sound of the first application 114 near and the sound of the second application 115 far away. The 3D sound unit 111 is controlled by 106 '(ST205). On the other hand, if the first application 114 does not determine that the display unit 101 is being used, the sound of the first application 114 is moved far away, and the sound of the second application 115 is moved closer and moved. The control unit 106 'controls the 3D sound unit 111 (ST206).

そして、第1のアプリケーション114および第2のアプリケーション115の双方のサウンドについて、音源部112で当該サウンドにかかるデジタル信号を生成し(ST207)、生成されたデジタル信号をそれぞれ3Dサウンド部111によって処理し(ST208)、最後に処理されたデジタル信号を音源部112のDAC部126およびアンプ127で処理してステレオスピーカ113を駆動し、それぞれ3Dサウンド効果の施された第1および第2のアプリケーション114および115のサウンドを同時に再生し(ST209)、一連の動作を終了する。   Then, for the sounds of both the first application 114 and the second application 115, the sound source unit 112 generates a digital signal related to the sound (ST207), and the generated digital signal is processed by the 3D sound unit 111, respectively. (ST208) The last processed digital signal is processed by the DAC unit 126 and the amplifier 127 of the sound source unit 112 to drive the stereo speaker 113, and the first and second applications 114 and 3D each having a 3D sound effect applied thereto. 115 sounds are played back simultaneously (ST209), and a series of operations is terminated.

以上のような動作によれば、制御部106′で第1のアプリケーション114を実行している状態で第2のアプリケーション115を起動すると、制御部106′は第1および第2のアプリケーション114および115のいずれが表示部101を使用しているかを判断し、表示部101を使用しているアクティブなアプリケーションのサウンドを近くに、表示部を使用していない非アクティブなアプリケーションのサウンドを遠くにそれぞれ3Dサウンド部111によって定位させることができる。このようにアクティブなアプリケーションのサウンドをユーザの近くに定位させ、非アクティブなアプリケーションのサウンドを遠くに定位させることにより、アクティブなアプリケーションのサウンドをより認識しやすい形でユーザに提供することができる。   According to the operation as described above, when the second application 115 is activated while the first application 114 is being executed by the control unit 106 ′, the control unit 106 ′ causes the first and second applications 114 and 115 to start. Which is using the display unit 101, the sound of the active application using the display unit 101 is close, and the sound of the inactive application not using the display unit is 3D Localization can be performed by the sound unit 111. As described above, the sound of the active application is localized close to the user, and the sound of the inactive application is localized far away, so that the sound of the active application can be provided to the user in a more easily recognizable form.

なお、ここでは制御部106′が表示部101を一つのアプリケーションに占有させる場合を前提にして説明を行った。これに対して、制御部106′がマルチウィンドウに対応している場合には、各アプリケーションの画面を表示するウィンドウを表示部101に同時に表示する構成としつつ、アクティブなウィンドウに画面表示されているアプリケーションのサウンドを近くに定位させる構成としてもよい。   Here, the description has been made on the assumption that the control unit 106 ′ occupies the display unit 101 for one application. On the other hand, when the control unit 106 'supports multi-windows, the window for displaying the screen of each application is displayed on the active window while being configured to simultaneously display the window for displaying each application screen. A configuration may be adopted in which the sound of the application is localized nearby.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。図8は本発明の第3の実施形態にかかる端末装置としての携帯電話100″の構成を示す機能ブロック図である。この携帯電話100″は、記憶部103″にメディアプレーヤ116、第1のゲーム117、第2のゲーム118、着メロプレーヤ119およびサウンド優先テーブル120を記憶しており、第1の実施形態における制御部106と一部のみが機能的に相違する制御部106″を用いる点以外は第1の実施形態にかかる携帯電話100と同等である。図6において、第1の実施形態にかかる携帯電話100と同等の構成については同じ番を号付し、説明も省略する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described. FIG. 8 is a functional block diagram showing a configuration of a mobile phone 100 ″ as a terminal device according to the third embodiment of the present invention. This mobile phone 100 ″ has a storage unit 103 ″, a media player 116, and a first The game 117, the second game 118, the ringtone player 119, and the sound priority table 120 are stored, and a control unit 106 ″ that is functionally different only partially from the control unit 106 in the first embodiment is used. Is equivalent to the mobile phone 100 according to the first embodiment. In FIG. 6, the same components as those of the mobile phone 100 according to the first embodiment are denoted by the same reference numerals, and description thereof is also omitted.

記憶部103″は、第1の実施形態における記憶部103と同様に読み書き可能なメモリであって、所望のサウンドデータおよび動画データを再生するメディアプレーヤ116と、第1および第2のゲーム117および118と、第1の実施形態における着信音鳴動アプリケーション105と同等の機能を備えた着メロプレーヤ119の各アプリケーションプログラムと、サウンド優先テーブル120を記憶している。   The storage unit 103 ″ is a readable / writable memory similar to the storage unit 103 in the first embodiment, and includes a media player 116 that reproduces desired sound data and moving image data, first and second games 117, and 118, each application program of the ringtone player 119 having the same function as the ring tone sounding application 105 in the first embodiment, and a sound priority table 120 are stored.

図9は、サウンド優先テーブル120のデータ構造を具体的に示した図面である。図9に示すように、サウンド優先テーブル120は、記憶部103″に記憶されているアプリケーションのそれぞれについて、そのサウンドをどの程度優先的に再生するかを数値化したサウンド優先値を設定したものである。ここでは、メディアプレーヤ116がサウンド優先値2、第1および第2のゲーム117および118がサウンド優先値3、着メロプレーヤ119がサウンド優先値1に設定されている場合を示す。なお、ここでのサウンド優先値は、値が小さいほど優先順位が高いものとする。また、制御部106″は、実質的に制御部106と同等の構成であるが、後述する動作を実現する点で制御部106と相違する。   FIG. 9 is a diagram specifically showing the data structure of the sound priority table 120. As shown in FIG. 9, the sound priority table 120 is a table in which a sound priority value is set for each application stored in the storage unit 103 ″, which is a numerical value indicating how much the sound is preferentially reproduced. Here, the case where the media player 116 is set to the sound priority value 2, the first and second games 117 and 118 are set to the sound priority value 3, and the ringtone player 119 is set to the sound priority value 1 is shown. In the sound priority value, the lower the value is, the higher the priority is. Further, the control unit 106 ″ has substantially the same configuration as the control unit 106, but is controlled in order to realize the operation described later. This is different from the unit 106.

次に、第3の実施形態にかかる携帯電話100″の動作について説明する。図10は、携帯電話100″で最初のアプリケーション(メディアプレーヤ116、第1のゲーム117、第2のゲーム118および着メロプレーヤ119のいずれか)を起動している状態で、2番目のアプリケーション(メディアプレーヤ116、第1のゲーム117、第2のゲーム118および着メロプレーヤ119のいずれか)を起動して双方のアプリケーションのサウンドを再生する動作のフローチャートである。なお、以下では、第1の実施形態における動作と同等の構成については記載を簡略化して説明する。   Next, the operation of the mobile phone 100 ″ according to the third embodiment will be described. FIG. 10 illustrates the first application (the media player 116, the first game 117, the second game 118, and the ringtone) on the mobile phone 100 ″. In a state where one of the players 119 is activated, the second application (one of the media player 116, the first game 117, the second game 118, and the ringtone player 119) is activated to It is a flowchart of the operation | movement which reproduces | regenerates a sound. In the following, the description of the configuration equivalent to the operation in the first embodiment will be simplified.

この動作では、まずユーザがキー入力部102を操作することにより最初のアプリケーションを起動し(ST301)、制御部106″で最初のアプリケーションを実行し、音源部112を駆動してサウンドを鳴らす(ST302)。次に、ユーザが2番目のアプリケーションを起動する(ST303)。このようにすることで、制御部106″は最初のアプリケーションと2番目のアプリケーションをマルチタスク機能により並行して動作させることになる。   In this operation, first, the user operates the key input unit 102 to start the first application (ST301), the control unit 106 ″ executes the first application, drives the sound source unit 112, and plays a sound (ST302). Next, the user activates the second application (ST303), so that the control unit 106 ″ operates the first application and the second application in parallel by the multitask function. Become.

このような状態で、制御部106″は、最初のアプリケーションのサウンド優先値が、2番目のアプリケーションのサウンド優先値よりも小さいかを判断する(ST304)。このような判断は、制御部106″でサウンド優先テーブル120を参照することにより行うことができる。ST304で最初のアプリケーションのサウンド優先値が小さいと判断された場合には、最初のアプリケーションのサウンドを近くに、2番目のアプリケーションのサウンドを遠くに、それぞれ定位させるように制御部106″で3Dサウンド部111を制御する(ST305)。一方、最初のアプリケーションのサウンド優先値が小さいと判断されなかった場合には、最初のアプリケーションの仮想音源を遠くに、2番目のアプリケーションの仮想音源を近くに、それぞれ設定するように制御部106″で3Dサウンド部111を制御する(ST306)
そして、双方のアプリケーションのサウンドについて、音源部112で当該サウンドにかかるデジタル信号を生成し(ST307)、生成されたデジタル信号をそれぞれ所定位置に定位させるように3Dサウンド部111によって処理し(ST308)、最後に処理されたデジタル信号を音源部112のDAC部126およびアンプ127で処理してステレオスピーカ113を駆動し、それぞれ3Dサウンド効果の施された双方のアプリケーションのサウンドを同時に再生し(ST309)、一連の動作を終了する。
In such a state, the control unit 106 ″ determines whether the sound priority value of the first application is smaller than the sound priority value of the second application (ST304). This can be done by referring to the sound priority table 120. If it is determined in ST304 that the sound priority value of the first application is small, the control unit 106 ″ performs the 3D sound so that the sound of the first application is located near and the sound of the second application is located far away. (ST 305) On the other hand, if it is not determined that the sound priority value of the first application is small, the virtual sound source of the first application is moved away, and the virtual sound source of the second application is moved closer, The control unit 106 ″ controls the 3D sound unit 111 so as to set each (ST306).
Then, for the sound of both applications, the sound source unit 112 generates a digital signal related to the sound (ST307), and the 3D sound unit 111 processes the generated digital signal so as to be localized at predetermined positions (ST308). Then, the last processed digital signal is processed by the DAC unit 126 and the amplifier 127 of the sound source unit 112 to drive the stereo speaker 113 and simultaneously reproduce the sounds of both applications to which the 3D sound effect has been applied (ST309). The series of operations is finished.

以上のような動作によれば、制御部106″で最初のアプリケーションを実行している状態で2番目のアプリケーションを起動すると、制御部106″は最初のアプリケーションと2番目のアプリケーションのサウンド優先値を比較して、サウンド優先値が小さくサウンドに関する優先順位の高い方のアプリケーションのサウンドを近くに、優先順位の低い方のアプリケーションのサウンドを遠くに定位させる。このようにサウンドに関する優先順位の高いアプリケーションのサウンドをユーザの近くに定位させ、優先順位の低いアプリケーションのサウンドを遠くに定位させることにより、優先順位の高いアプリケーションのサウンドをより認識しやすい形でユーザに提供することができる。   According to the above operation, when the second application is activated while the control unit 106 ″ is executing the first application, the control unit 106 ″ sets the sound priority values of the first application and the second application. In comparison, the sound of the application with the lower sound priority and the higher priority with respect to the sound is moved closer, and the sound of the application with the lower priority is moved far away. In this way, the sound of a high priority application is localized near the user, and the sound of a low priority application is localized far away, so that the user can recognize the sound of the high priority application more easily. Can be provided.

以上、本発明の実施の形態について説明したが、本発明はこれに限定されることなく、その趣旨を逸脱しない範囲で種々の改良・変更が可能であることは勿論である。   The embodiment of the present invention has been described above, but the present invention is not limited to this, and it is needless to say that various improvements and modifications can be made without departing from the spirit of the present invention.

例えば、上記実施形態においては3Dサウンド部111が音源部112と独立して設けられている場合を示したが、図11に示すように、3Dサウンド部111′を内蔵した音源部112′を用いるようにしても構わない。また、携帯電話100の形状も図2に示したクラムシェル型に限定されるものではなく、多種多様な形状とデザインを採用することができる。   For example, in the above-described embodiment, the case where the 3D sound unit 111 is provided independently of the sound source unit 112 has been described. However, as illustrated in FIG. 11, the sound source unit 112 ′ including the 3D sound unit 111 ′ is used. It doesn't matter if you do. Further, the shape of the mobile phone 100 is not limited to the clamshell type shown in FIG. 2, and various shapes and designs can be adopted.

また、上記実施形態では、いずれも2つのアプリケーションを並行して実行している状態で、一方を近くに定位させ、他方を遠くに定位させる場合を示したが、3つ以上のアプリケーションを並行して実行している状態で各アプリケーションを個々に定位させるようにしても構わない。さらに、第3の実施形態においては、記憶部103″に格納するアプリケーションを追加、削除ないしは更新可能な構成としてもよい。この場合には、アプリケーションの追加、削除ないしは更新に応じてサウンド優先テーブル120の記述を制御部106″等により修正する構成とすることが好適である。   In the above-described embodiment, the case where both applications are executed in parallel and one is localized near and the other is localized far away is described. However, three or more applications are executed in parallel. In this state, each application may be localized individually. Furthermore, in the third embodiment, the application stored in the storage unit 103 ″ may be added, deleted, or updated. In this case, the sound priority table 120 may be added according to the addition, deletion, or update of the application. Is preferably modified by the control unit 106 ″ or the like.

さらにまた、上記実施形態では、音源部112以外にボイスコーデック部108を設けた場合を示したが、両者を一体として構成するようにしても構わない。また、音声通話における相手側端末からの音声についても3Dサウンド部によって、所望の位置に定位させるようにしても良い。さらにまた、上記では本発明にかかる端末装置を携帯電話とした場合の実施形態について示したが、無線通信機能を備えたPDA、セットトップボックス、ホームターミナル、ハードディスクレコーダ、ディスクプレーヤのように通信機能を備えることの可能な端末であれば、本発明を適用することが可能である。   Furthermore, in the above-described embodiment, the case where the voice codec unit 108 is provided in addition to the sound source unit 112 has been shown, but both may be configured integrally. Further, the voice from the other terminal in the voice call may be localized at a desired position by the 3D sound unit. Furthermore, in the above description, an embodiment in which the terminal device according to the present invention is a mobile phone has been described. However, a communication function such as a PDA, a set top box, a home terminal, a hard disk recorder, and a disk player having a wireless communication function is shown. The present invention can be applied to any terminal that can be provided.

第1の実施形態にかかる携帯電話の構成を示す機能ブロック図。The functional block diagram which shows the structure of the mobile telephone concerning 1st Embodiment. 第1の実施形態にかかる携帯電話の外観を示す図。The figure which shows the external appearance of the mobile telephone concerning 1st Embodiment. 音源部および3Dサウンド部の詳細を示すブロック図。The block diagram which shows the detail of a sound source part and 3D sound part. 第1の実施形態における動作のフローチャート。The flowchart of the operation | movement in 1st Embodiment. (a)は着信前に所定のアプリケーションのサウンドデータを再生している状態を示す図。(b)は着信により所定のアプリケーションと着信音鳴動アプリケーションとの双方のサウンドを再生している状態を示す図。(A) is a figure which shows the state which is reproducing the sound data of a predetermined application before an incoming call. FIG. 6B is a diagram illustrating a state in which sounds of both a predetermined application and a ringing tone ringing application are being played by an incoming call. 第2の実施形態にかかる携帯電話の構成を示す機能ブロック図。The functional block diagram which shows the structure of the mobile telephone concerning 2nd Embodiment. 第2の実施形態における動作のフローチャート。The flowchart of the operation | movement in 2nd Embodiment. 第3の実施形態にかかる携帯電話の構成を示す機能ブロック図。The functional block diagram which shows the structure of the mobile telephone concerning 3rd Embodiment. 第3の実施形態におけるサウンド優先テーブルの例を示す図。The figure which shows the example of the sound priority table in 3rd Embodiment. 第3の実施形態における動作のフローチャート。The flowchart of the operation | movement in 3rd Embodiment. 3Dサウンド部を内蔵した音源部のブロック図。The block diagram of the sound source part which incorporated the 3D sound part. 従来例にかかる通信端末の構成を示す機能ブロック図。The functional block diagram which shows the structure of the communication terminal concerning a prior art example. 従来例における音源部のより詳細な構成を示す機能ブロック図。The functional block diagram which shows the more detailed structure of the sound source part in a prior art example. 3Dサウンド機能の説明図。Explanatory drawing of 3D sound function.

符号の説明Explanation of symbols

100 携帯電話
101 表示部
102 キー入力部
103 記憶部
104 所定のアプリケーション
105 着信音鳴動アプリケーション
106 制御部
107 通信部
108 ボイスコーデック部
109 レシーバ
110 マイク
111 3Dサウンド部
112 音源部
113 ステレオスピーカ
DESCRIPTION OF SYMBOLS 100 Mobile phone 101 Display part 102 Key input part 103 Memory | storage part 104 Predetermined application 105 Ringer ringing application 106 Control part 107 Communication part 108 Voice codec part 109 Receiver 110 Microphone 111 3D sound part 112 Sound source part 113 Stereo speaker

Claims (7)

音声データからサウンドを生成する音源部と、
複数のアプリケーションプログラムを格納した記憶部と、
前記記憶部に格納された前記アプリケーションプログラムを実行し、前記アプリケーションプログラムの動作に応じて前記音源部を駆動して所定のサウンドを生成する制御部とを有する端末装置であって、
前記制御部は、前記複数のアプリケーションプログラムを並行して実行するマルチタスク機能を備えるとともに、アプリケーションプログラムのサウンドが3次元空間内の所定の位置へ定位するように前記音源部を制御する3Dサウンド機能を有し、
前記制御部が前記複数のアプリケーションプログラムを並行して実行する際に、少なくとも一つのアプリケーションプログラムのサウンドが他のアプリケーションのサウンドとは異なる位置へ定位するように、前記制御部が前記3Dサウンド機能によって前記音源部を制御することを特徴とする端末装置。
A sound generator that generates sound from audio data;
A storage unit storing a plurality of application programs;
A terminal device having a control unit that executes the application program stored in the storage unit and drives the sound source unit according to the operation of the application program to generate a predetermined sound;
The control unit has a multitask function for executing the plurality of application programs in parallel, and controls the sound source unit so that the sound of the application program is localized at a predetermined position in a three-dimensional space. Have
When the control unit executes the plurality of application programs in parallel, the control unit uses the 3D sound function so that the sound of at least one application program is localized at a position different from the sound of other applications. A terminal device that controls the sound source unit.
音声データからサウンドを生成する音源部と、
複数のアプリケーションプログラムを格納した記憶部と、
前記記憶部に格納された前記アプリケーションプログラムを実行し、前記アプリケーションプログラムの動作に応じて前記音源部を駆動して所定のサウンドを生成する制御部とを有する端末装置であって、
前記制御部は、前記複数のアプリケーションプログラムを並行して実行するマルチタスク機能を備えるとともに、前記音源部はアプリケーションプログラムのサウンドを3次元空間内の所定の位置へ定位させる3Dサウンド機能を有し、
前記制御部が前記複数のアプリケーションプログラムを並行して実行する際に、少なくとも一つのアプリケーションプログラムのサウンドが他のアプリケーションのサウンドとは異なる位置へ定位するように、前記制御部が前記音源部の前記3Dサウンド機能を制御することを特徴とする端末装置。
A sound generator that generates sound from audio data;
A storage unit storing a plurality of application programs;
A terminal device having a control unit that executes the application program stored in the storage unit and drives the sound source unit according to the operation of the application program to generate a predetermined sound;
The control unit has a multitask function for executing the plurality of application programs in parallel, and the sound source unit has a 3D sound function for localizing the sound of the application program to a predetermined position in a three-dimensional space,
When the control unit executes the plurality of application programs in parallel, the control unit is arranged so that the sound of at least one application program is localized at a position different from the sound of other applications. A terminal device that controls a 3D sound function.
音声データからサウンドを生成する音源部と、
複数のアプリケーションプログラムを格納した記憶部と、
前記記憶部に格納された前記アプリケーションプログラムを実行し、前記アプリケーションプログラムの動作に応じて前記音源部を駆動して所定のサウンドを生成する制御部とを有する端末装置であって、
前記制御部は、前記複数のアプリケーションプログラムを並行して実行するマルチタスク機能を備え、
さらに、前記音源部の生成したサウンドを3次元空間内の所定の位置へ定位させる3Dサウンド部を有し、
前記制御部が前記複数のアプリケーションプログラムを並行して実行する際に、少なくとも一つのアプリケーションプログラムのサウンドが他のアプリケーションのサウンドとは異なる位置へ定位するように、前記制御部が前記3Dサウンド部を制御することを特徴とする端末装置。
A sound generator that generates sound from audio data;
A storage unit storing a plurality of application programs;
A terminal device having a control unit that executes the application program stored in the storage unit and drives the sound source unit according to the operation of the application program to generate a predetermined sound;
The control unit has a multitask function for executing the plurality of application programs in parallel,
And a 3D sound unit for localizing the sound generated by the sound source unit to a predetermined position in a three-dimensional space,
When the control unit executes the plurality of application programs in parallel, the control unit positions the 3D sound unit so that the sound of at least one application program is localized at a position different from the sound of another application. A terminal device characterized by controlling.
前記複数のアプリケーションプログラムにはそれぞれサウンド機能に関する優先順位が定められており、
並行して実行している複数のアプリケーションプログラムのサウンドのうち、優先順位が最も高いアプリケーションプログラムのサウンドを最も近くへ定位させることを特徴とする請求項1から請求項3のいずれか1項に記載の端末装置。
Priorities regarding sound functions are defined for each of the plurality of application programs,
4. The sound of an application program having the highest priority among the sounds of a plurality of application programs executed in parallel is localized closest to the sound. 5. Terminal equipment.
第1のアプリケーションプログラムを実行している状態で、サウンド機能に関する優先順位のより高い第2のアプリケーションプログラムが起動された場合には、前記第2のアプリケーションプログラムのサウンドを前記第1のアプリケーションプログラムよりも近くへ定位させることを特徴とする請求項4に記載の端末装置。   When the second application program having a higher priority regarding the sound function is activated while the first application program is being executed, the sound of the second application program is transmitted from the first application program. The terminal device according to claim 4, wherein the terminal device is also localized. 第1のアプリケーションプログラムを実行している状態で、サウンド機能に関する優先順位のより高い第2のアプリケーションプログラムが起動された場合には、前記第1のアプリケーションプログラムのサウンドが定位する位置を遠ざけることを特徴とする請求項5に記載の端末装置。   When the second application program having a higher priority regarding the sound function is activated while the first application program is being executed, the position where the sound of the first application program is localized is moved away. The terminal device according to claim 5. さらに、ネットワークに接続して通信を行う通信部を有し、
前記第2のアプリケーションプログラムは、前記通信部が所定の通信を受信した場合にサウンドを鳴らす着信音鳴動プログラムであることを特徴とする請求項5または請求項6に記載の端末装置。
Furthermore, it has a communication unit that communicates by connecting to the network,
The terminal device according to claim 5, wherein the second application program is a ringing tone ringing program that sounds a sound when the communication unit receives a predetermined communication.
JP2007280790A 2007-10-29 2007-10-29 Terminal device Pending JP2009111637A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007280790A JP2009111637A (en) 2007-10-29 2007-10-29 Terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007280790A JP2009111637A (en) 2007-10-29 2007-10-29 Terminal device

Publications (1)

Publication Number Publication Date
JP2009111637A true JP2009111637A (en) 2009-05-21

Family

ID=40779666

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007280790A Pending JP2009111637A (en) 2007-10-29 2007-10-29 Terminal device

Country Status (1)

Country Link
JP (1) JP2009111637A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012195661A (en) * 2011-03-15 2012-10-11 Nec Corp Voice portlet providing system and voice portlet providing method
JP2013511774A (en) * 2009-11-17 2013-04-04 クゥアルコム・インコーポレイテッド System and method for providing three-dimensional sound on a wireless device
WO2013069396A1 (en) * 2011-11-09 2013-05-16 株式会社ソニー・コンピュータエンタテインメント Information processing device, information processing method, program, and information storage medium
US9733897B2 (en) 2014-10-06 2017-08-15 Samsung Electronics Co., Ltd Method and apparatus of searching content
US10021451B2 (en) 2015-02-27 2018-07-10 Samsung Electronics Co., Ltd. Method for outputting audio and electronic device for the same

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055260A (en) * 1996-08-08 1998-02-24 Matsushita Electric Ind Co Ltd Multi-task management system
JP2003177033A (en) * 2001-12-11 2003-06-27 Yamaha Corp Portable navigation apparatus
JP2005189301A (en) * 2003-12-24 2005-07-14 Pioneer Electronic Corp Information control device, its system, its method, its program, recording medium with the program recorded thereon and travel supporting apparatus
JP2005269231A (en) * 2004-03-18 2005-09-29 Hitachi Ltd Portable terminal
JP2006074572A (en) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd Information terminal

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1055260A (en) * 1996-08-08 1998-02-24 Matsushita Electric Ind Co Ltd Multi-task management system
JP2003177033A (en) * 2001-12-11 2003-06-27 Yamaha Corp Portable navigation apparatus
JP2005189301A (en) * 2003-12-24 2005-07-14 Pioneer Electronic Corp Information control device, its system, its method, its program, recording medium with the program recorded thereon and travel supporting apparatus
JP2005269231A (en) * 2004-03-18 2005-09-29 Hitachi Ltd Portable terminal
JP2006074572A (en) * 2004-09-03 2006-03-16 Matsushita Electric Ind Co Ltd Information terminal

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013511774A (en) * 2009-11-17 2013-04-04 クゥアルコム・インコーポレイテッド System and method for providing three-dimensional sound on a wireless device
JP2012195661A (en) * 2011-03-15 2012-10-11 Nec Corp Voice portlet providing system and voice portlet providing method
WO2013069396A1 (en) * 2011-11-09 2013-05-16 株式会社ソニー・コンピュータエンタテインメント Information processing device, information processing method, program, and information storage medium
JPWO2013069396A1 (en) * 2011-11-09 2015-04-02 株式会社ソニー・コンピュータエンタテインメント Information processing apparatus, information processing method, program, and information storage medium
US9529905B2 (en) 2011-11-09 2016-12-27 Sony Corporation Information processing device, information processing method, program, and information storage medium
US9733897B2 (en) 2014-10-06 2017-08-15 Samsung Electronics Co., Ltd Method and apparatus of searching content
US10021451B2 (en) 2015-02-27 2018-07-10 Samsung Electronics Co., Ltd. Method for outputting audio and electronic device for the same
US10904612B2 (en) 2015-02-27 2021-01-26 Samsung Electronics Co., Ltd. Method for outputting audio and electronic device for the same
US11818423B2 (en) 2015-02-27 2023-11-14 Samsung Electronics Co., Ltd. Method for outputting audio and electronic device for the same

Similar Documents

Publication Publication Date Title
TWI241828B (en) Handheld personal data assistant (PDA) for communicating with a mobile in music-playing operation
US20050027385A1 (en) MP3 player having a wireless earphone communication with a mobile
CN107005800B (en) Audio file transmission and receiving method, device, equipment and system
CN101272570A (en) Method for implementing network karaoke OK and portable equipment
JP2009111637A (en) Terminal device
JP2002199056A (en) Portable telephone set having music reproduction function, method for reproducing music data by portable telephone set having music reproduction function and its program
JP2002064626A (en) Portable telephone
CN107124512B (en) The switching method and apparatus of audio-frequency play mode
JP3116750U (en) Telephone
JP2007013708A (en) Portable sound reproducing device
JP2002125011A (en) Information terminal device
JP5008797B2 (en) Mobile phone equipment
JP2002290514A (en) Mobile phone having the music performance function
KR101114155B1 (en) Bell service method using mp3 music of mobile phone
KR200241125Y1 (en) MP3 function a have for handsfree
US20080225830A1 (en) Circuit with generating phone-call ring via computer system and internet phone system using the circuit
JP2001069205A (en) Acoustic device using portable radio telephone terminal
KR20080083498A (en) Portable terminal and method for playing music thereof
JP2002300238A (en) Portable electronic equipment
KR101071689B1 (en) Apparatus and method for outgoing call waiting sound in mobile communication terminal
JP2003060757A (en) Communication terminal device
JP4306944B2 (en) Music playback device
JP2005295253A (en) Information processor
JPH08223259A (en) Portable telephone set
JP6587088B2 (en) Audio transmission system and audio transmission method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100708

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111011

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111018

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120313

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20120529

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120710