JP2004205605A - 音声および楽曲再生装置およびシーケンスデータフォーマット - Google Patents
音声および楽曲再生装置およびシーケンスデータフォーマット Download PDFInfo
- Publication number
- JP2004205605A JP2004205605A JP2002371750A JP2002371750A JP2004205605A JP 2004205605 A JP2004205605 A JP 2004205605A JP 2002371750 A JP2002371750 A JP 2002371750A JP 2002371750 A JP2002371750 A JP 2002371750A JP 2004205605 A JP2004205605 A JP 2004205605A
- Authority
- JP
- Japan
- Prior art keywords
- data
- audio
- music
- event
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04B—TRANSMISSION
- H04B1/00—Details of transmission systems, not covered by a single one of groups H04B3/00 - H04B13/00; Details of transmission systems not characterised by the medium used for transmission
- H04B1/38—Transceivers, i.e. devices in which transmitter and receiver form a structural unit and in which at least one part is used for functions of transmitting and receiving
- H04B1/40—Circuits
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H7/00—Instruments in which the tones are synthesised from a data store, e.g. computer organs
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2230/00—General physical, ergonomic or hardware implementation of electrophonic musical tools or instruments, e.g. shape or architecture
- G10H2230/005—Device type or category
- G10H2230/021—Mobile ringtone, i.e. generation, transmission, conversion or downloading of ringing tones or other sounds for mobile telephony; Special musical data formats or protocols herefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/171—Transmission of musical instrument data, control or status information; Transmission, remote access or control of music data for electrophonic musical instruments
- G10H2240/201—Physical layer or hardware aspects of transmission to or from an electrophonic musical instrument, e.g. voltage levels, bit streams, code words or symbols over a physical link connecting network nodes or instruments
- G10H2240/241—Telephone transmission, i.e. using twisted pair telephone lines or any type of telephone network
- G10H2240/251—Mobile telephone transmission, i.e. transmitting, accessing or controlling music data wirelessly via a wireless or mobile telephone receiver, analog or digital, e.g. DECT GSM, UMTS
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H2240/00—Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
- G10H2240/325—Synchronizing two or more audio tracks or files according to musical features or musical timings
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Electrophonic Musical Instruments (AREA)
- Telephone Function (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
【解決手段】ユーザが楽曲再生を指示すると、プレイヤー22がファイル21から、楽曲データを読み出し、ミドルウエア23へロードする。ミドルウエア23は、ロードされた楽曲データを楽曲部12aへ送る。楽曲部12aはその楽曲データに基づいて楽音信号を再生する。次に、ミドルウエア23は、楽音データ中に混在するユーザイベントを検出すると、そのユーザイベントをプレイヤー27へ送信する。プレイヤー27は、ユーザイベントを受け、同イベントが指示するファイル番号の音声データファイル26をミドルウエア28にロードする。ミドルウエア28は、ロードされた音声データを順次音源の音声部12bへ出力する。これにより、音声部12bにおいて音声の再生が行われる。
【選択図】 図1
Description
【発明の属する技術分野】
この発明は、楽曲シーケンス中の指定のタイミングにおいて特定の音声シーケンスを再生する音声および楽曲再生装置に関する。
【0002】
【従来の技術】
近年、携帯電話機等の分野においては、楽曲に同期させて表示を行ったり、音声を再生することが行われる。特許文献1には、所定のタイミングで楽曲と音声を同期させて発音させる技術が開示されている。
【0003】
【特許文献1】
特開2002−101191号公報
【0004】
また、従来、楽曲に同期させて音声を発生させる方法として、1つのシーケンスファイルに楽曲シーケンスと音声シーケンスの両方を定義し、そのファイルを再生することによって楽曲および音声を同期させて発生させる方法が知られている。図13は、この場合の音声および楽曲再生装置の概略構成を示す図であり、音声付楽曲データファイル51をプレイヤー52がサウンドミドルウエア53にロードし、サウンドミドルウエア53がロードされたファイルを解釈して楽曲再生用の音源制御データおよび音声再生用の音源制御データを生成し、音源54へ出力する。音源54は楽曲用の音源および音声用の音源を有し、それぞれの音源によって再生した楽音信号および音声信号をミキシングしてスピーカ55へ出力する。
【0005】
【発明が解決しようとする課題】
ところで、上述した音声付楽曲データファイル中の音声シーケンスは、発音すべき音声の発音タイミングを示す時間情報を含んでおり、その時間情報によって楽曲シーケンスとの同期が可能となっている。従って、上述した音声および楽曲再生装置にあっては、ファイル作成において、あるいは、音声シーケンスの再生内容を変更する場合において、相方のシーケンスの時間情報を解釈して音声と楽曲の同期を確認しながら、編集や該当個所の修正しなければならず、このため、ファイルの編集、修正に手間が掛かる問題があった。また、再生音声のみが異なる複数の再生パターンが必要な場合は、それぞれの再生音声に対応して同一の楽曲シーケンスを用意しなければならず、データサイズの点で無駄が多い欠点がある。これは、特に、携帯電話機のように小型の機器においては大きな問題となる。
この発明は、このような事情を考慮してなされたもので、その目的は、音声シーケンスの編集、修正を簡単に行うことができ、また、データサイズの無駄も防ぐことができる音声および楽曲再生装置を提供することにある。
【0006】
【課題を解決するための手段】
この発明は上記の課題を解決するためになされたもので、請求項1に記載の発明は、複数のイベントデータからなる楽曲シーケンスデータが記憶された第1の記憶手段と、複数の音声データファイルが記憶された第2の記憶手段と、前記第1の記憶手段から前記楽曲シーケンスデータの各イベントデータを順次読み出し、出力すると共に、前記楽曲シーケンスデータ中にユーザイベントデータがあった場合に、音声再生指示を出力する楽曲再生手段と、前記楽曲再生手段から出力されたイベントデータに基づいて楽音信号を生成する楽曲再生用音源と、前記楽曲再生手段から出力された音声再生指示を受け、前記第2の記憶手段から音声データファイルを読み出し、読み出した音声データファイル内の各音声データを順次出力する音声再生手段と、前記音声再生手段から出力された音声データに基づく音声信号を生成する音声再生用音源とを具備することを特徴とする音声および楽曲再生装置である。
【0007】
請求項2に記載の発明は、請求項1に記載の音声および楽曲再生装置において、前記音声再生指示には、音声データファイルを特定するデータが含まれていることを特徴とする。
請求項3に記載の発明は、請求項1または請求項2に記載の音声および楽曲再生装置において、ユーザの指示に基づいて前記ユーザイベントデータに所望の前記音声データファイルを割り付ける割付手段を設けたことを特徴とする。
請求項4に記載の発明は、請求項1または請求項2に記載の音声および楽曲再生装置において、ユーザの指示に基づいて前記ユーザイベントデータに所望の前記音声データファイルを割り付けるためのプログラムを受信する受信手段と、前記受信手段によって受信されたプログラムを実行する実行手段とを具備することを特徴とする。
【0008】
請求項5に記載の発明は、請求項1〜請求項4のいずれかの項に記載の音声および楽曲再生装置において、ユーザによって入力されたデータに基づいて音声データファイルを生成し、前記第2の記憶手段に書き込む音声データファイル生成手段を設けたことを特徴とする。
請求項6に記載の発明は、請求項1〜請求項4のいずれかの項に記載の音声および楽曲再生装置において、ユーザによって入力されたデータに基づいて音声データファイルを生成し、前記第2の記憶手段に書き込むプログラムを受信する受信手段と、前記受信手段によって受信されたプログラムを実行する実行手段とを具備することを特徴とする。
【0009】
請求項7に記載の発明は、請求項1に記載の音声および楽曲再生装置において、前記第1、第2の記憶手段に代えて、前記楽曲シーケンスデータおよび前記楽音データファイルが共に記憶された第3の記憶手段を設けたことを特徴とする。請求項8に記載の発明は、音源を用いて楽曲と音声を再生させるためのシーケンスデータフォーマットであって、ユーザイベントを有する楽曲シーケンスデータを含むシーケンスデータチャンクと、複数の音声データを含む音声データチャンクを有し、前記ユーザイベントは、該ユーザイベントが生起するタイミングで再生するための音声データが前記複数の音声データから割り付けられていることを特徴とするシーケンスデータフォーマットである。
【0010】
【発明の実施の形態】
以下、図面を参照し、この発明の一実施の形態について説明する。図1は同実施の形態による音声および楽曲再生装置の機能ブロック図、図2は音声および楽曲再生装置を適用した携帯電話機のハードウエア構成図である。図2において、符号1はCPU(中央処理装置)、2はCPU1のプログラムが記憶されたROM(リードオンリメモリ)、3はデータ一時記憶用のRAM(ランダムアクセスメモリ)であり、不揮発性のメモリが使用されている。4はテンキー、ファンクションキーからなる操作部、5は液晶表示器による表示部である。6は通信部であり、アンテナ7を介して基地局との通信を行う。
【0011】
8は音声処理部であり、通信部6から出力される圧縮音声データを伸張し、アナログ信号に変換してスピーカ9へ出力し、また、マイクロフォン10からの音声信号をディジタル音声データに変換し、圧縮して通信部6へ出力する。12は音源であり、楽曲再生用の楽曲部12aと音声再生用の音声部12bが設けられている。この場合、楽曲部12aはFM方式あるいはPCM方式によって楽音信号を生成する音源である。また、音声部12bは波形重畳方式あるいはフォルマント合成方式によって音声を合成するものである。上記の楽曲部12aによって着信メロディが形成され、また、楽曲部12aおよび音声部12bによって後に述べる音声付きの楽音再生が行われる。
【0012】
次に、図1において、21が楽曲データファイルであり、RAM3内に記憶されている。この楽曲データファイル21は、着信メロディに使用される楽曲データや鑑賞用の楽曲データ等が含まれており、各楽曲は例えばインターネットを介してダウンロードされる。楽曲データファイル21は、楽曲部12aに対する発音指示等の制御内容を示すイベントデータとそのイベントの発生タイミングを示す時間データからなる。さらに、本発明の実施の形態では、所定の音声データをRAM3よりロードすることを指示するユーザイベントデータを含んでいる。ユーザイベントデータも前記の時間データによりその発生タイミングが決められている。プレイヤー22はソフトウエアであり、楽曲データファイル21内の楽曲データをサウンドミドルウエア23にロードし、また、ユーザからの指示に応じて楽曲データファイル21の制御を行う。サウンドミドルウエア23はソフトウエアであり、プレイヤー22から供給される楽曲データを音源制御データに変換し、時間データにしたがって順次音源12(図2)の楽曲部12aへ出力する。楽曲部12aはその音源制御データを楽音信号に変換し、出力する。
【0013】
音声データファイル26は音声データが記録された複数のファイルであり、RAM3内に記憶される。プレイヤー27はサウンドミドルウエア23から指示されたファイル番号の音声データファイル26をサウンドミドルウエア28にロードする。サウンドミドルウエア28は、プレイヤー27から供給された音声データファイルの各音声データを順次音源12の音声部12bへ出力する。音声部12bはその音声データをアナログ音声信号に変換して出力する。音源12の楽曲部12aおよび音声部12bから出力された楽音信号および音声信号は、合成回路29において合成され、スピーカ13へ出力される。
【0014】
次に、上記実施形態の動作を図3に示すフローチャートおよび図4に示す説明図を参照して説明する。なお、この実施形態による携帯電話機の電話機としての動作は従来のものと同様であるので説明を省略し、音声および楽曲再生装置の動作を以下に説明する。
【0015】
ユーザが操作部4において楽曲番号を入力し、次いで楽曲再生を指示すると、プレイヤー22が楽曲データファイル21から、ユーザによって指示された楽曲データを読み出し、サウンドミドルウエア23へロードする(図3のステップSa1)。サウンドミドルウエア23は、ロードされた楽曲データに基づく楽曲再生処理をスタートする(ステップSa2)。まず、最初のイベントデータを読み込み(ステップSa3)、そのイベントデータがユーザイベントであるか否かを判断する(ステップSa4)。そして、ユーザイベントでなかった場合は、通常イベント(楽曲再生用イベント)であるか否かを判断する(ステップSa5)。そして、通常イベントであった場合は、そのイベントデータを音源12の楽曲部12aへ送る(ステップSa6)。楽曲部12aはそのイベントデータに基づいて楽音信号を再生する(ステップSa7)。次に、サウンドミドルウエア23は、楽曲データのデータエンドを検出したか否かを判断し(ステップSa8)、検出していない場合は再びステップSa3へ戻り、次のイベントの読み込みを行う。
【0016】
以後、上述した過程を繰り返すことによって楽曲再生が行われる。その楽曲再生途中において、ユーザイベントが検出されると(ステップSa4の判断が「YES」)、サウンドミドルウエア23がそのユーザイベントをプレイヤー27へ送信する(ステップSa9)。プレイヤー27は、ユーザイベントを受け、同イベントが指示するファイル番号の音声データファイル26をサウンドミドルウエア28にロードする(ステップSa10)。サウンドミドルウエア28は、音声再生処理をスタートし(ステップSa11)、ロードされた音声データを順次音源12の音声部12bへ出力する。これにより、音声部12bにおいて音声の再生が行われる(ステップSa12)。
一方、サウンドミドルウエア23は、ユーザイベントをプレイヤー27へ出力した後、データエンドを検出したか否かを判断し(ステップSa8)、検出していない場合は再びステップSa3へ戻る。以下、上記の処理が繰り返される。
【0017】
図4は、上述した過程を示す説明図であり、楽曲シーケンスの途中において、まず、ユーザイベント1が検出されると、同イベントに対応する音声データ1が再生され、次に、ユーザイベント2が検出されると、同イベントに対応する音声データ2が再生されることを示している。なお、ユーザイベントに基づいて再生される音声データファイルは、予めアプリケーションソフトによって選択され、選択されたファイルの番号が、ユーザによって楽曲データ中のユーザイベントに書き込まれる。ここで、アプリケーションソフトは予めROM2内に設定されていてもよく、あるいは、JAVA(登録商標)によるものでもよい。
【0018】
次に、上述した音声および楽曲再生装置の第1の応用例を説明する。
図5は同応用例の説明図であり、図6は動作を説明するためのフローチャートである。
この応用例においては、まず、アプリケーションが起動されると、質問音声データを音声部12bへ出力して質問音声再生を行う(図5、図6のステップSb1)。例えばクイズの場合は、Yes、No、A、B、C・・・等、血液占いの場合は、A、B、AB、O、星占いの場合は、蟹座、獅子座・・・等の質問音声を再生する。この質問に対し、ユーザが操作部4のテンキーによって回答を行うと(ステップSb2)、アプリケーションがその回答を受信し(ステップSb3)、受信した回答結果が指示する音声データファイル26のファイル番号をユーザイベントに割り付ける(ステップSb4)。次に、楽曲データの再生が行われる(ステップSb5)。その再生途中において、ユーザイベントが検出されると、そのユーザイベントに上記の処理によって割り付けられた音声データが再生される。例えば、「今日の運勢は大吉でしょう」という言葉が楽音に合わせて発生する(図5)。
【0019】
次に、上述した音声および楽曲再生装置の第2の応用例を説明する。
図7は同応用例の説明図であり、図8は動作を説明するためのフローチャートである。
この応用例においては、まず、アプリケーションが起動されると、歌詞入力を画面表示等にて要求する。この要求に応じて、ユーザが特定の楽曲(ユーザイベントが予め設定されている)を選択し、楽曲内の特定のタイミングにおけるオリジナル歌詞のテキストをテンキーによって入力する(図7,図8のステップSc1)。アプリケーションは、入力された歌詞を音声データに変換し、音声データファイル26としてRAM3内に登録する(ステップSc2)。次に、アプリケーションは、その音声データファイルのファイル番号をユーザイベントに割り付ける(ステップSc3)。なお、上述した歌詞の入力および割付けは1つではなく、複数入力し割り付けるようにしてもよい(Aメロ、Bメロ、サビ等)。
【0020】
次に、楽曲データの再生が行われる(ステップSc4)。その再生途中において、ユーザイベントが検出されると、そのユーザイベントに上記の処理によって割り付けられた歌詞の音声データが再生される。例えば、「ハッピバースデイ、トンちゃん」という言葉が楽音に合わせて発生する(図7)。
【0021】
なお、オリジナル歌詞に音程を付けて発音してもよい。その場合の音程および音長を割り付ける方法には、
(1)歌詞(テキスト)を登録する際に、予め決められている音程や音長を示すタグをテキストに付け、再生の際に音源ではそのタグに従って音程や音高を制御する、
(2)楽曲部シーケンス再生時に、ユーザイベント以後のメロディの音程や音高を抽出して、同時に歌詞(テキスト)をその音程や音長に制御して再生する、
等の方法がある。
また、上記第1、第2の応用例におけるアプリケーションは予めROM2内に設定されていてもよく、あるいは、JAVA(登録商標)によるものでもよい。
【0022】
次に、この発明の第2の実施形態について説明する。
図9は同実施形態による音声および楽曲再生装置の機能ブロック図であり、この図において、31は本実施形態におけるSMAF(Synthetic music Mobile Application Format)ファイルである。ここで、SMAFとは携帯端末用マルチメディアコンテンツのデータフォーマット仕様のファイルであり、本実施形態においては、楽曲データと音声データが1つのファイルに書き込まれる。図10に本実施形態のSMAFファイルの構成を示す。この図に示す各chunk(データのかたまり)は次の通りである。
Contents Info Chunk:SMAFファイルの各種管理用情報が格納される。
Score Track chunk:音源へ送り込む楽曲のシーケンス・トラックを格納する。
Sequence Data Chunk:実演奏データを格納する。
HV Data chunk:HV(音声)データHV−1,HV−2・・・を格納する。
また、実演奏データのシーケンスには、「HV Note ON」というイベントが記録され、このイベントによってHV Data chunkの各データの発音が指示される。なお、このイベントは第1の実施形態におけるユーザイベントに相当する。
【0023】
32は楽曲用再生のプレイヤー、33は楽曲用のサウンドミドルウエア、34は音声用のプレイヤー、35は音声用のサウンドミドルウエアであり、これらの機能は図1のものと同様である。36は音源デバイスであり、内部に楽曲を再生するためのシーケンサ37、シーケンサから出力される音源制御データに基づいて楽音信号を形成する音源38、音声再生用の音源39が各々設けられている。そして、音源38、39において形成された楽音信号および音声信号が合成回路40において合成され、スピーカ41へ出力される。
【0024】
次に、上記実施形態の動作を図11、図12を参照して説明する。
図11は同実施形態の動作の説明図であり、図12は動作を説明するためのフローチャートである。
ユーザによる楽曲再生指示があると、プレイヤー32がSMAFファイル31から、楽曲データを読み出し、サウンドミドルウエア33へロードする(図12のステップSd1)。サウンドミドルウエア33は、ロードされた楽曲データを音源制御データに変換し、シーケンサ37へ出力する(楽曲再生スタート;ステップSd2)。シーケンサ37は、まず、供給された音源制御データから最初のイベントデータを読み込み(ステップSd3)、そのイベントデータがHV Note ONイベントであるか否かを判断する(ステップSd4)。そして、HV Note ONイベントでなかった場合は、通常イベント(楽曲再生用イベント)であるか否かを判断する(ステップSd5)。そして、通常イベントであった場合は、そのイベントデータを音源38へ送る。音源38はそのイベントデータに基づいて楽音信号を再生する(ステップSd6)。次に、シーケンサ37は、楽曲データのデータエンドを検出したか否かを判断し(ステップSd7)、検出していない場合は再びステップSd3へ戻り、次のイベントの読み込みを行う。
【0025】
以後、上述した過程を繰り返すことによって楽曲再生が行われる。その楽曲再生途中において、HV Note ONイベントが検出されると(ステップSd4の判断が「YES」)、シーケンサ37がそのHV Note ONイベントに割り付けられているHVデータを指定するIDをプレイヤー34へ送信する(ステップSd9)。プレイヤー34は、そのIDが指示するHVデータをSMAFファイルから読み出し、サウンドミドルウエア35にロードする(ステップSd10)。サウンドミドルウエア35は、HVデータを音源制御データ(音声を指定するためのパラメータ)に変換し、音源39へ出力する。これにより、音源39において音声の再生が行われる(ステップSd11)。
【0026】
一方、シーケンサ37は、HV Note ONイベントをプレイヤー34へ出力した後、データエンドを検出したか否かを判断し(ステップSd7)、検出していない場合は再びステップSd3へ戻る。以下、上記の処理が繰り返される。図11は、上述した過程を示す説明図であり、楽曲シーケンスの途中において、まず、HV Note ONイベント1が検出されると、同イベントに対応する音声データHV−1が再生され、次に、HV Note ONイベント2が検出されると、同イベントに対応する音声データHV−2が再生されることを示している。
【0027】
この第2の実施形態によれば、前述した第1の実施形態と同様に、歌声やナレーションが挿入された楽曲を再生することが可能となる。
なお、SMAFファイルはコンテンツメーカにおいて作成され、配信されるが、ユーザの携帯端末装置においてSMAFファイル中のデータを加工できる機能があれば、前述した応用例2と同様のことが可能である。
【0028】
【発明の効果】
以上説明したように、この発明によれば、ユーザイベントを含む楽曲シーケンスデータファイルと、該ユーザイベントにより再生が指示される音声データファイルが定義されていて、それぞれのファイルが異なる再生手段によって処理されるようになっているので、音声シーケンスの編集、修正を簡単に行うことができる効果が得られる。また、音声シーケンスとして複数のパターンを用意する場合においても、音声データファイルのみ複数用意すればよく、データサイズの無駄も防ぐことができる効果がある。
【図面の簡単な説明】
【図1】この発明の第1の実施形態による音声および楽曲再生装置の機能ブロック図である。
【図2】同実施形態による音声および楽曲再生装置を適用した携帯電話機の構成を示すブロック図である。
【図3】同実施形態による音声および楽曲再生装置の動作を説明するためのフローチャートである。
【図4】同実施形態による音声および楽曲再生装置の動作を説明するための説明図である。
【図5】同実施形態による音声および楽曲再生装置の第1の応用例を説明するための説明図である。
【図6】同第1のの応用例を説明するためのフローチャートである。
【図7】同実施形態による音声および楽曲再生装置の第2の応用例を説明するための説明図である。
【図8】同第2の応用例を説明するためのフローチャートである。
【図9】この発明の第2の実施形態による音声および楽曲再生装置の機能ブロック図である。
【図10】同実施形態におけるSMAFファイル31の構成を示す図である。
【図11】同実施形態の動作を説明するための説明図である。
【図12】同実施形態の動作を説明するためのフローチャートである。
【図13】従来の音声および楽曲再生装置の機能ブロック図である。
【符号の説明】
1…CPU、2…ROM、3…RAM、12…音源、12a…楽曲部、12b…音声部、13…スピーカ、21…楽曲データファイル、22、27、32、34…プレイヤー、23、28、33、35…サウンドミドルウエア、26…楽音データファイル、36…音源デバイス、37…シーケンサ、38…音源、39…音声用音源。
Claims (8)
- 複数のイベントデータからなる楽曲シーケンスデータが記憶された第1の記憶手段と、
複数の音声データファイルが記憶された第2の記憶手段と、
前記第1の記憶手段から前記楽曲シーケンスデータの各イベントデータを順次読み出し、出力すると共に、前記楽曲シーケンスデータ中にユーザイベントデータがあった場合に、音声再生指示を出力する楽曲再生手段と、
前記楽曲再生手段から出力されたイベントデータに基づいて楽音信号を生成する楽曲再生用音源と、
前記楽曲再生手段から出力された音声再生指示を受け、前記第2の記憶手段から音声データファイルを読み出し、読み出した音声データファイル内の各音声データを順次出力する音声再生手段と、
前記音声再生手段から出力された音声データに基づく音声信号を生成する音声再生用音源と、
を具備することを特徴とする音声および楽曲再生装置。 - 前記音声再生指示には、音声データファイルを特定するデータが含まれていることを特徴とする請求項1に記載の音声および楽曲再生装置。
- ユーザの指示に基づいて前記ユーザイベントデータに所望の前記音声データファイルを割り付ける割付手段を設けたことを特徴とする請求項1または請求項2に記載の音声および楽曲再生装置。
- ユーザの指示に基づいて前記ユーザイベントデータに所望の前記音声データファイルを割り付けるためのプログラムを受信する受信手段と、前記受信手段によって受信されたプログラムを実行する実行手段とを具備することを特徴とする請求項1または請求項2に記載の音声および楽曲再生装置。
- ユーザによって入力されたデータに基づいて音声データファイルを生成し、前記第2の記憶手段に書き込む音声データファイル生成手段を設けたことを特徴とする請求項1〜請求項4のいずれかの項に記載の音声および楽曲再生装置。
- ユーザによって入力されたデータに基づいて音声データファイルを生成し、前記第2の記憶手段に書き込むプログラムを受信する受信手段と、
前記受信手段によって受信されたプログラムを実行する実行手段とを具備することを特徴とする請求項1〜請求項4のいずれかの項に記載の音声および楽曲再生装置。 - 前記第1、第2の記憶手段に代えて、前記楽曲シーケンスデータおよび前記楽音データファイルが共に記憶された第3の記憶手段を設けたことを特徴とする請求項1に記載の音声および楽曲再生装置。
- 音源を用いて楽曲と音声を再生させるためのシーケンスデータフォーマットであって、
ユーザイベントを有する楽曲シーケンスデータを含むシーケンスデータチャンクと、複数の音声データを含む音声データチャンクを有し、
前記ユーザイベントは、該ユーザイベントが生起するタイミングで再生するための音声データが前記複数の音声データから割り付けられていることを特徴とするシーケンスデータフォーマット。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002371750A JP2004205605A (ja) | 2002-12-24 | 2002-12-24 | 音声および楽曲再生装置およびシーケンスデータフォーマット |
US10/738,584 US7365260B2 (en) | 2002-12-24 | 2003-12-16 | Apparatus and method for reproducing voice in synchronism with music piece |
KR1020030095266A KR100682443B1 (ko) | 2002-12-24 | 2003-12-23 | 음성 및 악곡 재생 장치 및 방법 |
TW092136718A TWI250508B (en) | 2002-12-24 | 2003-12-24 | Voice/music piece reproduction apparatus and method |
CNB2003101244039A CN100559459C (zh) | 2002-12-24 | 2003-12-24 | 随乐曲同步地再现语音的装置和方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002371750A JP2004205605A (ja) | 2002-12-24 | 2002-12-24 | 音声および楽曲再生装置およびシーケンスデータフォーマット |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2004205605A true JP2004205605A (ja) | 2004-07-22 |
Family
ID=32677206
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002371750A Pending JP2004205605A (ja) | 2002-12-24 | 2002-12-24 | 音声および楽曲再生装置およびシーケンスデータフォーマット |
Country Status (5)
Country | Link |
---|---|
US (1) | US7365260B2 (ja) |
JP (1) | JP2004205605A (ja) |
KR (1) | KR100682443B1 (ja) |
CN (1) | CN100559459C (ja) |
TW (1) | TWI250508B (ja) |
Families Citing this family (168)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7176372B2 (en) * | 1999-10-19 | 2007-02-13 | Medialab Solutions Llc | Interactive digital music recorder and player |
US9818386B2 (en) | 1999-10-19 | 2017-11-14 | Medialab Solutions Corp. | Interactive digital music recorder and player |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
JP3879402B2 (ja) * | 2000-12-28 | 2007-02-14 | ヤマハ株式会社 | 歌唱合成方法と装置及び記録媒体 |
GB0500483D0 (en) * | 2005-01-11 | 2005-02-16 | Nokia Corp | Multi-party sessions in a communication system |
US20060293089A1 (en) * | 2005-06-22 | 2006-12-28 | Magix Ag | System and method for automatic creation of digitally enhanced ringtones for cellphones |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
KR100658869B1 (ko) * | 2005-12-21 | 2006-12-15 | 엘지전자 주식회사 | 음악생성장치 및 그 운용방법 |
WO2007091475A1 (ja) * | 2006-02-08 | 2007-08-16 | Nec Corporation | 音声合成装置、音声合成方法及びプログラム |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8396714B2 (en) * | 2008-09-29 | 2013-03-12 | Apple Inc. | Systems and methods for concatenation of words in text to speech synthesis |
US8352268B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8352272B2 (en) * | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for text to speech synthesis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US7977560B2 (en) * | 2008-12-29 | 2011-07-12 | International Business Machines Corporation | Automated generation of a song for process learning |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
WO2011089450A2 (en) | 2010-01-25 | 2011-07-28 | Andrew Peter Nelson Jerram | Apparatuses, methods and systems for a digital conversation management platform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US20110219940A1 (en) * | 2010-03-11 | 2011-09-15 | Hubin Jiang | System and method for generating custom songs |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8682938B2 (en) * | 2012-02-16 | 2014-03-25 | Giftrapped, Llc | System and method for generating personalized songs |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9263060B2 (en) | 2012-08-21 | 2016-02-16 | Marian Mason Publishing Company, Llc | Artificial neural network based system for classification of the emotional content of digital music |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
EP3809407A1 (en) | 2013-02-07 | 2021-04-21 | Apple Inc. | Voice trigger for a digital assistant |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
AU2014233517B2 (en) | 2013-03-15 | 2017-05-25 | Apple Inc. | Training an at least partial voice command system |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
KR101922663B1 (ko) | 2013-06-09 | 2018-11-28 | 애플 인크. | 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스 |
JP2016521948A (ja) | 2013-06-13 | 2016-07-25 | アップル インコーポレイテッド | 音声コマンドによって開始される緊急電話のためのシステム及び方法 |
AU2014306221B2 (en) | 2013-08-06 | 2017-04-06 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
JP6399091B2 (ja) * | 2014-06-17 | 2018-10-03 | ヤマハ株式会社 | 文字に基づく音声生成のためのコントローラ及びシステム |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
JP6305275B2 (ja) * | 2014-08-21 | 2018-04-04 | 株式会社河合楽器製作所 | 電子楽器における音声アシスト装置及びプログラム |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9606986B2 (en) | 2014-09-29 | 2017-03-28 | Apple Inc. | Integrated word N-gram and class M-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US10152299B2 (en) | 2015-03-06 | 2018-12-11 | Apple Inc. | Reducing response latency of intelligent automated assistants |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
US10474753B2 (en) | 2016-09-07 | 2019-11-12 | Apple Inc. | Language identification using recurrent neural networks |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US11281993B2 (en) | 2016-12-05 | 2022-03-22 | Apple Inc. | Model and ensemble compression for metric learning |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US11204787B2 (en) | 2017-01-09 | 2021-12-21 | Apple Inc. | Application integration with a digital assistant |
DK201770383A1 (en) | 2017-05-09 | 2018-12-14 | Apple Inc. | USER INTERFACE FOR CORRECTING RECOGNITION ERRORS |
US10417266B2 (en) | 2017-05-09 | 2019-09-17 | Apple Inc. | Context-aware ranking of intelligent response suggestions |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
US10726832B2 (en) | 2017-05-11 | 2020-07-28 | Apple Inc. | Maintaining privacy of personal information |
US10395654B2 (en) | 2017-05-11 | 2019-08-27 | Apple Inc. | Text normalization based on a data-driven learning network |
DK201770429A1 (en) | 2017-05-12 | 2018-12-14 | Apple Inc. | LOW-LATENCY INTELLIGENT AUTOMATED ASSISTANT |
US11301477B2 (en) | 2017-05-12 | 2022-04-12 | Apple Inc. | Feedback analysis of a digital assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US10303715B2 (en) | 2017-05-16 | 2019-05-28 | Apple Inc. | Intelligent automated assistant for media exploration |
DK179549B1 (en) | 2017-05-16 | 2019-02-12 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10311144B2 (en) | 2017-05-16 | 2019-06-04 | Apple Inc. | Emoji word sense disambiguation |
US10403278B2 (en) | 2017-05-16 | 2019-09-03 | Apple Inc. | Methods and systems for phonetic matching in digital assistant services |
US10657328B2 (en) | 2017-06-02 | 2020-05-19 | Apple Inc. | Multi-task recurrent neural network architecture for efficient morphology handling in neural language modeling |
US10445429B2 (en) | 2017-09-21 | 2019-10-15 | Apple Inc. | Natural language understanding using vocabularies with compressed serialized tries |
US10755051B2 (en) | 2017-09-29 | 2020-08-25 | Apple Inc. | Rule-based natural language processing |
US10636424B2 (en) | 2017-11-30 | 2020-04-28 | Apple Inc. | Multi-turn canned dialog |
US10733982B2 (en) | 2018-01-08 | 2020-08-04 | Apple Inc. | Multi-directional dialog |
US10733375B2 (en) | 2018-01-31 | 2020-08-04 | Apple Inc. | Knowledge-based framework for improving natural language understanding |
US10789959B2 (en) | 2018-03-02 | 2020-09-29 | Apple Inc. | Training speaker recognition models for digital assistants |
US10592604B2 (en) | 2018-03-12 | 2020-03-17 | Apple Inc. | Inverse text normalization for automatic speech recognition |
US10818288B2 (en) | 2018-03-26 | 2020-10-27 | Apple Inc. | Natural assistant interaction |
US10909331B2 (en) | 2018-03-30 | 2021-02-02 | Apple Inc. | Implicit identification of translation payload with neural machine translation |
US10928918B2 (en) | 2018-05-07 | 2021-02-23 | Apple Inc. | Raise to speak |
US11145294B2 (en) | 2018-05-07 | 2021-10-12 | Apple Inc. | Intelligent automated assistant for delivering content from user experiences |
US10984780B2 (en) | 2018-05-21 | 2021-04-20 | Apple Inc. | Global semantic word embeddings using bi-directional recurrent neural networks |
DK201870355A1 (en) | 2018-06-01 | 2019-12-16 | Apple Inc. | VIRTUAL ASSISTANT OPERATION IN MULTI-DEVICE ENVIRONMENTS |
US10892996B2 (en) | 2018-06-01 | 2021-01-12 | Apple Inc. | Variable latency device coordination |
DK180639B1 (en) | 2018-06-01 | 2021-11-04 | Apple Inc | DISABILITY OF ATTENTION-ATTENTIVE VIRTUAL ASSISTANT |
US11386266B2 (en) | 2018-06-01 | 2022-07-12 | Apple Inc. | Text correction |
DK179822B1 (da) | 2018-06-01 | 2019-07-12 | Apple Inc. | Voice interaction at a primary device to access call functionality of a companion device |
US10496705B1 (en) | 2018-06-03 | 2019-12-03 | Apple Inc. | Accelerated task performance |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4731847A (en) * | 1982-04-26 | 1988-03-15 | Texas Instruments Incorporated | Electronic apparatus for simulating singing of song |
JPS62137082A (ja) | 1985-12-11 | 1987-06-19 | 諸木 一義 | 座敷船及び水上座敷 |
JPH0652034B2 (ja) | 1986-02-19 | 1994-07-06 | 旭化成工業株式会社 | 自動掘削機 |
JPH05341793A (ja) * | 1991-04-19 | 1993-12-24 | Pioneer Electron Corp | カラオケ演奏装置 |
JP3507090B2 (ja) * | 1992-12-25 | 2004-03-15 | キヤノン株式会社 | 音声処理装置及びその方法 |
US5703311A (en) * | 1995-08-03 | 1997-12-30 | Yamaha Corporation | Electronic musical apparatus for synthesizing vocal sounds using format sound synthesis techniques |
US6304846B1 (en) * | 1997-10-22 | 2001-10-16 | Texas Instruments Incorporated | Singing voice synthesis |
EP0999538A1 (en) * | 1998-02-09 | 2000-05-10 | Sony Corporation | Method and apparatus for digital signal processing, method and apparatus for generating control data, and medium for recording program |
JP2000105595A (ja) * | 1998-09-30 | 2000-04-11 | Victor Co Of Japan Ltd | 歌唱装置及び記録媒体 |
US6327590B1 (en) | 1999-05-05 | 2001-12-04 | Xerox Corporation | System and method for collaborative ranking of search results employing user and group profiles derived from document collection content analysis |
US6459774B1 (en) * | 1999-05-25 | 2002-10-01 | Lucent Technologies Inc. | Structured voicemail messages |
US6321179B1 (en) | 1999-06-29 | 2001-11-20 | Xerox Corporation | System and method for using noisy collaborative filtering to rank and present items |
US6694297B2 (en) * | 2000-03-30 | 2004-02-17 | Fujitsu Limited | Text information read-out device and music/voice reproduction device incorporating the same |
DE60133660T2 (de) | 2000-09-25 | 2009-05-28 | Yamaha Corp., Hamamatsu | Mobiles endgerät |
US6928410B1 (en) * | 2000-11-06 | 2005-08-09 | Nokia Mobile Phones Ltd. | Method and apparatus for musical modification of speech signal |
US7058889B2 (en) * | 2001-03-23 | 2006-06-06 | Koninklijke Philips Electronics N.V. | Synchronizing text/visual information with audio playback |
JP2002311967A (ja) | 2001-04-13 | 2002-10-25 | Casio Comput Co Ltd | 替え歌作成装置及び替え歌作成プログラム及び替え歌作成方法 |
JP2002334261A (ja) | 2001-05-09 | 2002-11-22 | Noiman:Kk | 情報提供方法及び情報記録媒体並びに教習所紹介システム |
US20030200858A1 (en) * | 2002-04-29 | 2003-10-30 | Jianlei Xie | Mixing MP3 audio and T T P for enhanced E-book application |
US7299182B2 (en) * | 2002-05-09 | 2007-11-20 | Thomson Licensing | Text-to-speech (TTS) for hand-held devices |
-
2002
- 2002-12-24 JP JP2002371750A patent/JP2004205605A/ja active Pending
-
2003
- 2003-12-16 US US10/738,584 patent/US7365260B2/en not_active Expired - Fee Related
- 2003-12-23 KR KR1020030095266A patent/KR100682443B1/ko not_active IP Right Cessation
- 2003-12-24 TW TW092136718A patent/TWI250508B/zh not_active IP Right Cessation
- 2003-12-24 CN CNB2003101244039A patent/CN100559459C/zh not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
TW200426778A (en) | 2004-12-01 |
KR20040058034A (ko) | 2004-07-03 |
CN100559459C (zh) | 2009-11-11 |
KR100682443B1 (ko) | 2007-02-15 |
US7365260B2 (en) | 2008-04-29 |
US20040133425A1 (en) | 2004-07-08 |
TWI250508B (en) | 2006-03-01 |
CN1510659A (zh) | 2004-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2004205605A (ja) | 音声および楽曲再生装置およびシーケンスデータフォーマット | |
KR100832958B1 (ko) | 휴대용 단말장치 | |
JP4174940B2 (ja) | カラオケ装置 | |
KR100619826B1 (ko) | 이동 통신 단말기의 음악 및 음성 합성 장치와 방법 | |
JP4012682B2 (ja) | 音源システム | |
JP2002152329A (ja) | 携帯端末装置 | |
JP2001195068A (ja) | 携帯用端末装置、楽音情報利用システム及び基地局 | |
JP3646703B2 (ja) | 音声メロディ楽曲生成装置およびそれを用いた携帯端末装置 | |
KR20060050071A (ko) | 악곡 데이터 편집 재생 장치 및 휴대 정보 단말기 | |
JP3900330B2 (ja) | 携帯用端末装置 | |
JP2005107285A (ja) | 楽曲再生装置 | |
JP2001211235A (ja) | 携帯電話機 | |
JP3795495B2 (ja) | 音源装置 | |
KR100862126B1 (ko) | 휴대 통신 단말 | |
JP3675361B2 (ja) | 通信端末 | |
JP4012587B2 (ja) | カラオケ装置 | |
KR20080080013A (ko) | 휴대 단말 장치 | |
JP4153453B2 (ja) | 音楽再生装置 | |
JP2007079413A (ja) | オーディオ再生装置、オーディオ配信システム、オーディオ再生プログラムおよびオーサリングプログラム | |
JP2010066739A (ja) | 音程変換装置 | |
TW200427297A (en) | Speech and music reproduction apparatus | |
JPH04136998A (ja) | 電子音楽再生装置 | |
JP2008191292A (ja) | 音声合成方法、プログラム及び音声合成装置並びに音楽音声再生装置 | |
JP2004166290A (ja) | 携帯用端末装置 | |
JP2009145382A (ja) | 携帯端末機及びプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060718 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060915 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20061212 |