JP2000207167A - ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法 - Google Patents
ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法Info
- Publication number
- JP2000207167A JP2000207167A JP11008557A JP855799A JP2000207167A JP 2000207167 A JP2000207167 A JP 2000207167A JP 11008557 A JP11008557 A JP 11008557A JP 855799 A JP855799 A JP 855799A JP 2000207167 A JP2000207167 A JP 2000207167A
- Authority
- JP
- Japan
- Prior art keywords
- tag
- slide
- display
- narration
- hyper
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Abstract
(57)【要約】
【課題】 記憶装置の容量が比較的小さく、かつ通信回
路の転送速度が低い場合においても、ブラウジングを良
好に行うことができ、かつ文字列の表示とナレーション
音声の出力との不一致が生じないハイパー・プレゼンテ
ーション・システム等を提供する。 【解決手段】 スライド表示を制御するスライド表示タ
グと、所定文字列のナレーション音声出力を制御するナ
レーション音声出力タグと、を含む、マークアップ言語
で記述されたソース・ファイルFを、所定のプロトコル
HTTPに従ってダウンロードするファイル受信部21
と、当該受信したソース・ファイルを取り込み、前記ス
ライド表示タグに基づき、ディスプレイ24にスライド
表示させ、前記ナレーション音声出力タグに基づき、当
該ナレーション音声出力タグにより指定された文字列を
音声データに変換してスピーカ25に出力させる処理部
23と、を有してなることを特徴とする。
路の転送速度が低い場合においても、ブラウジングを良
好に行うことができ、かつ文字列の表示とナレーション
音声の出力との不一致が生じないハイパー・プレゼンテ
ーション・システム等を提供する。 【解決手段】 スライド表示を制御するスライド表示タ
グと、所定文字列のナレーション音声出力を制御するナ
レーション音声出力タグと、を含む、マークアップ言語
で記述されたソース・ファイルFを、所定のプロトコル
HTTPに従ってダウンロードするファイル受信部21
と、当該受信したソース・ファイルを取り込み、前記ス
ライド表示タグに基づき、ディスプレイ24にスライド
表示させ、前記ナレーション音声出力タグに基づき、当
該ナレーション音声出力タグにより指定された文字列を
音声データに変換してスピーカ25に出力させる処理部
23と、を有してなることを特徴とする。
Description
【0001】
【発明の属する技術分野】本発明は、モバイル・ウェブ
・ブラウジング(Mobile Web Browsi
ng)に好適な、ハイパー・プレゼンテーション用言語
の記述方法、ハイパー・プレゼンテーション・システ
ム、モバイル・コンピュータ、およびハイパー・プレゼ
ンテーション方法に関し、特に、記憶装置の容量が比較
的小さく、かつ通信回路の転送速度が低い場合において
も、ブラウジングを良好に行うことができ、かつ文字列
の表示とナレーション音声の出力との不一致が生じない
技術に関する。
・ブラウジング(Mobile Web Browsi
ng)に好適な、ハイパー・プレゼンテーション用言語
の記述方法、ハイパー・プレゼンテーション・システ
ム、モバイル・コンピュータ、およびハイパー・プレゼ
ンテーション方法に関し、特に、記憶装置の容量が比較
的小さく、かつ通信回路の転送速度が低い場合において
も、ブラウジングを良好に行うことができ、かつ文字列
の表示とナレーション音声の出力との不一致が生じない
技術に関する。
【0002】
【技術背景】たとえば、インターネットのWWW(ワー
ルド・ワイド・ウェブ)において流通する文書(文字情
報、イメージ情報、音声情報等を含む)は、通常、HT
ML(ハイパーテキスト マークアップ ランゲージ)
により記載されており、WWWの利用者は、所定のブラ
ウザにより、上記文書をブラウズすることができる。W
WW用のブラウザでは、所定のアドオン・ソフトウェア
(プラグイン・ソフトウェアとも言う)を使用すること
により、音声データを取り扱うことができる。
ルド・ワイド・ウェブ)において流通する文書(文字情
報、イメージ情報、音声情報等を含む)は、通常、HT
ML(ハイパーテキスト マークアップ ランゲージ)
により記載されており、WWWの利用者は、所定のブラ
ウザにより、上記文書をブラウズすることができる。W
WW用のブラウザでは、所定のアドオン・ソフトウェア
(プラグイン・ソフトウェアとも言う)を使用すること
により、音声データを取り扱うことができる。
【0003】たとえば、米国マイクロソフト社が頒布し
ているWWWブラウザ「インターネット・エクスプロー
ラ」ではプログレシブ ネットワーク社の「Real
Audio Player」が、また米国ネットスケー
プ コミュニケーションズ社が頒布しているWWWブラ
ウザ「ネットスケープナビータ」(あるいは「ネットス
ケープコミュニケータ」)ではマクロメディア社の「S
hockwave」が、それぞれ音声処理用のアドオン
・ソフトウェアとして用意されている。
ているWWWブラウザ「インターネット・エクスプロー
ラ」ではプログレシブ ネットワーク社の「Real
Audio Player」が、また米国ネットスケー
プ コミュニケーションズ社が頒布しているWWWブラ
ウザ「ネットスケープナビータ」(あるいは「ネットス
ケープコミュニケータ」)ではマクロメディア社の「S
hockwave」が、それぞれ音声処理用のアドオン
・ソフトウェアとして用意されている。
【0004】たとえば、「Real Audio Pl
ayer」や「Shockwave」では、画像を音声
入りで表示することができる。
ayer」や「Shockwave」では、画像を音声
入りで表示することができる。
【0005】
【発明が解決しようとする課題】インターネット・エク
スプローラ、ネットスケープナビータ等のブラウザは、
高パフォーマンスのハードウェア、すなわちPenti
um(米国インテル社の登録商標)クラスの高性能マイ
クロプロセッサ、16Mbyte程度以上のメモリ、2
4400bps程度以上のモデム、比較的大きなディス
プレイ等、を前提に開発が進められている。このため、
ハンドヘルド・コンピュータ等の低パフォーマンスのハ
ードウェアにより構成されるコンピュータ(以下、「低
パフォーマンスコンピュータ」と言う)に搭載した上記
ブラウザにより、ウェブのブラウジングを行うと、デー
タの転送、画像表示、音声出力等に時間がかかる(すな
わち、リアルタイムのブラウジングができない)という
問題がある。また、低パフォーマンスコンピュータで
は、ディスプレイの表示面積が小さいため、WWW利用
者は、ブラウジングに際して、頻繁なスクロールを余儀
なくされる。
スプローラ、ネットスケープナビータ等のブラウザは、
高パフォーマンスのハードウェア、すなわちPenti
um(米国インテル社の登録商標)クラスの高性能マイ
クロプロセッサ、16Mbyte程度以上のメモリ、2
4400bps程度以上のモデム、比較的大きなディス
プレイ等、を前提に開発が進められている。このため、
ハンドヘルド・コンピュータ等の低パフォーマンスのハ
ードウェアにより構成されるコンピュータ(以下、「低
パフォーマンスコンピュータ」と言う)に搭載した上記
ブラウザにより、ウェブのブラウジングを行うと、デー
タの転送、画像表示、音声出力等に時間がかかる(すな
わち、リアルタイムのブラウジングができない)という
問題がある。また、低パフォーマンスコンピュータで
は、ディスプレイの表示面積が小さいため、WWW利用
者は、ブラウジングに際して、頻繁なスクロールを余儀
なくされる。
【0006】しかも、上述した従来のブラウザが適用さ
れるシステムでは、人が喋る音声(本明細書においては
「ナレーション音声」と言う)は、通常サンプリングデ
ータとしてサーバ等に格納されている。このため、WW
W利用者は、いわゆるWeb検索エンジンにアクセスし
て、インターネット上のファイルのキーワード検索を試
みても、当該検索は音声としての人が喋る内容について
までは及ばない。この場合、WWW利用者がナレーショ
ンの内容を知ることができるようにするために、たとえ
ば予め当該ナレーションの要約文書を、HTML文書内
に含めておくか、またはHTML文書に添付しておくこ
とも考えられるが、当該要約文書に記載されていないナ
レーション部分は検索対象とはならないので、WWW利
用者は完全な検索をすることはできない。
れるシステムでは、人が喋る音声(本明細書においては
「ナレーション音声」と言う)は、通常サンプリングデ
ータとしてサーバ等に格納されている。このため、WW
W利用者は、いわゆるWeb検索エンジンにアクセスし
て、インターネット上のファイルのキーワード検索を試
みても、当該検索は音声としての人が喋る内容について
までは及ばない。この場合、WWW利用者がナレーショ
ンの内容を知ることができるようにするために、たとえ
ば予め当該ナレーションの要約文書を、HTML文書内
に含めておくか、またはHTML文書に添付しておくこ
とも考えられるが、当該要約文書に記載されていないナ
レーション部分は検索対象とはならないので、WWW利
用者は完全な検索をすることはできない。
【0007】本発明は、上記のような問題を解決するた
めに提案されたものであって、記憶装置の容量が比較的
小さく、かつ通信回路の転送速度が低い場合において
も、ブラウジングを良好に行うことができ、かつ文字列
の表示とナレーション音声の出力との不一致が生じな
い、モバイル・ウェブ・ブラウジングに好適な、ハイパ
ー・プレゼンテーション用言語の記述方法、ハイパー・
プレゼンテーション・システム、モバイル・コンピュー
タ、およびハイパー・プレゼンテーション方法を提供す
ることである。
めに提案されたものであって、記憶装置の容量が比較的
小さく、かつ通信回路の転送速度が低い場合において
も、ブラウジングを良好に行うことができ、かつ文字列
の表示とナレーション音声の出力との不一致が生じな
い、モバイル・ウェブ・ブラウジングに好適な、ハイパ
ー・プレゼンテーション用言語の記述方法、ハイパー・
プレゼンテーション・システム、モバイル・コンピュー
タ、およびハイパー・プレゼンテーション方法を提供す
ることである。
【0008】
【発明の概要】本発明者は、従来のブラウザでは、表示
画面がもともと大きく、かつ当該表示画面の変更は、ペ
ージの切り替えにより行っていることに着目し、ページ
の文字表示部分をナレーション音声出力で代替し、もと
もと大きい画面の表示内容を複数のスライドに分けて表
示し、スライドの表示および切り替えをナレーションの
音声出力の流れに沿って行うことができれば、WWW利
用者は、高パフォーマンスのハードウェア構成にはよら
ないモバイル・コンピュータであっても、効率のよい
(高速の)ブラウジングができる、との知見を得て本発
明をなすに至った。すなわち、本発明のハイパー・プレ
ゼンテーション用言語の記述方法は、スライド表示を制
御するスライド表示タグと、文字列のナレーション音声
出力を制御するナレーション音声出力タグとを含むこと
を特徴とし、さらに指定された時間、スクリプトの解釈
を停止させるためのポーズタグを含むことを特徴とす
る。本願明細書において、「プレゼンテーション」と
は、情報伝達の方式の一つであり、後述するように、ス
ライド表示と、当該表示に同期するナレーションの音声
出力を含むものである。ソース・ファイルは、基本的に
はHTMLで記述されたテキストファイルであり、サー
バに格納されている。本発明では、通常のHTMLで使
用されるタグの他、スライドの表示を制御するスライ
ド表示タグ、文字列のナレーション音声出力を制御す
るナレーション音声出力タグ、のほか、通常は指定さ
れた時間、スクリプトの解釈を停止させるためのポーズ
タグ、が含まれる。以下、HTMLに上記、、ある
いはのタグ命令が含まれた言語をHPML(Hype
r Presentation Markup Lan
guage)と言い、HPMLの仕様に従って作成され
たファイルを、HPMLファイルと言う。通常は、スラ
イド表示タグは、ディスプレイにスライドを表示させる
スライド・スタート・エレメントと、ディスプレイに表
示されたスライド表示を消去させるスライド・エンド・
エレメントとから構成され、ナレーション音声出力タグ
は、スライド・スタート・エレメントより後で、かつス
ライド・エンド・エレメントより前に記述される。ここ
で、スライド表示タグは、入れ子構造で記述することも
できる。また、前記ナレーション音声出力タグが、スピ
ーカから文字列をナレーション音声に変換して出力させ
るナレーション・スタート・エレメントと、ナレーショ
ン音声の上記出力を終了させるナレーション・エンド・
エレメントとからなるように構成することができる。ソ
ース・ファイルに記述される文字列は、通常のHTML
と同様、基本的には、音標文字列と非音標文字列の双方
が含まれる。この文字列は、場合によっては、文字列が
書き込まれたファイルや、静止画像や動画像のファイル
へのパスであってもよい。
画面がもともと大きく、かつ当該表示画面の変更は、ペ
ージの切り替えにより行っていることに着目し、ページ
の文字表示部分をナレーション音声出力で代替し、もと
もと大きい画面の表示内容を複数のスライドに分けて表
示し、スライドの表示および切り替えをナレーションの
音声出力の流れに沿って行うことができれば、WWW利
用者は、高パフォーマンスのハードウェア構成にはよら
ないモバイル・コンピュータであっても、効率のよい
(高速の)ブラウジングができる、との知見を得て本発
明をなすに至った。すなわち、本発明のハイパー・プレ
ゼンテーション用言語の記述方法は、スライド表示を制
御するスライド表示タグと、文字列のナレーション音声
出力を制御するナレーション音声出力タグとを含むこと
を特徴とし、さらに指定された時間、スクリプトの解釈
を停止させるためのポーズタグを含むことを特徴とす
る。本願明細書において、「プレゼンテーション」と
は、情報伝達の方式の一つであり、後述するように、ス
ライド表示と、当該表示に同期するナレーションの音声
出力を含むものである。ソース・ファイルは、基本的に
はHTMLで記述されたテキストファイルであり、サー
バに格納されている。本発明では、通常のHTMLで使
用されるタグの他、スライドの表示を制御するスライ
ド表示タグ、文字列のナレーション音声出力を制御す
るナレーション音声出力タグ、のほか、通常は指定さ
れた時間、スクリプトの解釈を停止させるためのポーズ
タグ、が含まれる。以下、HTMLに上記、、ある
いはのタグ命令が含まれた言語をHPML(Hype
r Presentation Markup Lan
guage)と言い、HPMLの仕様に従って作成され
たファイルを、HPMLファイルと言う。通常は、スラ
イド表示タグは、ディスプレイにスライドを表示させる
スライド・スタート・エレメントと、ディスプレイに表
示されたスライド表示を消去させるスライド・エンド・
エレメントとから構成され、ナレーション音声出力タグ
は、スライド・スタート・エレメントより後で、かつス
ライド・エンド・エレメントより前に記述される。ここ
で、スライド表示タグは、入れ子構造で記述することも
できる。また、前記ナレーション音声出力タグが、スピ
ーカから文字列をナレーション音声に変換して出力させ
るナレーション・スタート・エレメントと、ナレーショ
ン音声の上記出力を終了させるナレーション・エンド・
エレメントとからなるように構成することができる。ソ
ース・ファイルに記述される文字列は、通常のHTML
と同様、基本的には、音標文字列と非音標文字列の双方
が含まれる。この文字列は、場合によっては、文字列が
書き込まれたファイルや、静止画像や動画像のファイル
へのパスであってもよい。
【0009】本発明のハイパー・プレゼンテーション・
システムは、上記のHPMLで記述されたソース・ファ
イルを、ハイパー・テキスト・トランスファー・プロト
コル(HTTP)等の適当なプロトコルに従ってダウン
ロードするファイル受信部と、当該ソース・ファイルを
取り込み、前記スライド表示タグおよびHTMLのタグ
に基づき、ディスプレイにスライド表示させ、前記ナレ
ーション音声出力タグに基づき、当該ナレーション音声
出力タグにより指定された文字列を音声データに変換し
てスピーカに出力させる処理部と、を有してなることを
特徴とする。通常、前記スライド表示と、前記ナレーシ
ョン音声出力とは同期しており、また、前記ディスプレ
イに表示されたスライド中のホット・スポット、および
/またはスピーカから出力される音声情報中のホット・
スポットは、リンクさせておくことができる。なお、本
願明細書では、リンクを含むプレゼンテーションを、
「ハイパー・プレゼンテーション」と称する。このハイ
パー・プレゼンテーション・システムは、典型的には、
パフォーマンスが必ずしも高くはない、モバイル・コン
ピュータ等の機器に搭載される。
システムは、上記のHPMLで記述されたソース・ファ
イルを、ハイパー・テキスト・トランスファー・プロト
コル(HTTP)等の適当なプロトコルに従ってダウン
ロードするファイル受信部と、当該ソース・ファイルを
取り込み、前記スライド表示タグおよびHTMLのタグ
に基づき、ディスプレイにスライド表示させ、前記ナレ
ーション音声出力タグに基づき、当該ナレーション音声
出力タグにより指定された文字列を音声データに変換し
てスピーカに出力させる処理部と、を有してなることを
特徴とする。通常、前記スライド表示と、前記ナレーシ
ョン音声出力とは同期しており、また、前記ディスプレ
イに表示されたスライド中のホット・スポット、および
/またはスピーカから出力される音声情報中のホット・
スポットは、リンクさせておくことができる。なお、本
願明細書では、リンクを含むプレゼンテーションを、
「ハイパー・プレゼンテーション」と称する。このハイ
パー・プレゼンテーション・システムは、典型的には、
パフォーマンスが必ずしも高くはない、モバイル・コン
ピュータ等の機器に搭載される。
【0010】さらに、本発明のハイパー・プレゼンテー
ション方法は、スライド表示を制御するスライド表示タ
グ、および所定文字列のナレーション音声出力を制御す
るナレーション音声出力タグを用いたもので、ハイパー
・テキスト・マークアップ言語で記述されたソース・フ
ァイルを、ハイパー・テキスト・トランスファー・プロ
トコルに従ってユーザ(具体的には端末コンピュータ)
にダウンロードするステップ、当該受信したソース・フ
ァイルを取り込み、前記スライド表示タグに基づき、デ
ィスプレイにスライド表示させるステップ、前記ナレー
ション音声出力タグに基づき、当該ナレーション音声出
力タグにより指定された文字列を音声データに変換し
て、スピーカに出力させるステップ、を有してなること
を特徴とする。この方法では、通常、前記スライド表示
と、前記ナレーション音声出力とは同期しており、前記
ハイパー・テキスト・マークアップ言語に含まれるポー
ズタグに基づき、当該ポーズタグにより指定された時
間、前記ソース・ファイルのスクリプトの解釈を停止さ
せるステップを含むことができる。
ション方法は、スライド表示を制御するスライド表示タ
グ、および所定文字列のナレーション音声出力を制御す
るナレーション音声出力タグを用いたもので、ハイパー
・テキスト・マークアップ言語で記述されたソース・フ
ァイルを、ハイパー・テキスト・トランスファー・プロ
トコルに従ってユーザ(具体的には端末コンピュータ)
にダウンロードするステップ、当該受信したソース・フ
ァイルを取り込み、前記スライド表示タグに基づき、デ
ィスプレイにスライド表示させるステップ、前記ナレー
ション音声出力タグに基づき、当該ナレーション音声出
力タグにより指定された文字列を音声データに変換し
て、スピーカに出力させるステップ、を有してなること
を特徴とする。この方法では、通常、前記スライド表示
と、前記ナレーション音声出力とは同期しており、前記
ハイパー・テキスト・マークアップ言語に含まれるポー
ズタグに基づき、当該ポーズタグにより指定された時
間、前記ソース・ファイルのスクリプトの解釈を停止さ
せるステップを含むことができる。
【0011】
【発明の作用】WWW利用者は、サーバにアクセスし、
当該サーバに格納されているソース・ファイルをファイ
ル受信部にダウンロードする。処理部は、ファイル受信
部からソース・ファイルを受け取り、このソース・ファ
イルの解釈を、前記スライド表示タグと、ナレーション
音声出力タグと、ポーズタグと、HTMLのタグとに基
づき行う。ここで、スライド表示タグはスライドの表示
を制御するし、ナレーション音声出力タグは文字列のナ
レーション音声出力を制御する。また、ポーズタグは、
スクリプトの解釈を停止させる。
当該サーバに格納されているソース・ファイルをファイ
ル受信部にダウンロードする。処理部は、ファイル受信
部からソース・ファイルを受け取り、このソース・ファ
イルの解釈を、前記スライド表示タグと、ナレーション
音声出力タグと、ポーズタグと、HTMLのタグとに基
づき行う。ここで、スライド表示タグはスライドの表示
を制御するし、ナレーション音声出力タグは文字列のナ
レーション音声出力を制御する。また、ポーズタグは、
スクリプトの解釈を停止させる。
【0012】すなわち、処理部は、ソース・ファイルの
解釈に従ってスライド表示をディスプレイに行わせ、当
該スライド表示に同期したナレーションをスピーカに出
力させる。この処理部は、ソース・ファイルを逐次解釈
するインタープリタ機能および文字列を音声変換する機
能を持つことができる。WWW利用者は、モバイル・コ
ンピュータ等の機器を操作して、小面積のディスプレイ
から視覚情報を取得するとともに、スピーカからナレー
ション音声情報を取得することで、デスクトップ・コン
ピュータ等で取得することができると同様量の情報を楽
に取得することができる。
解釈に従ってスライド表示をディスプレイに行わせ、当
該スライド表示に同期したナレーションをスピーカに出
力させる。この処理部は、ソース・ファイルを逐次解釈
するインタープリタ機能および文字列を音声変換する機
能を持つことができる。WWW利用者は、モバイル・コ
ンピュータ等の機器を操作して、小面積のディスプレイ
から視覚情報を取得するとともに、スピーカからナレー
ション音声情報を取得することで、デスクトップ・コン
ピュータ等で取得することができると同様量の情報を楽
に取得することができる。
【0013】
【実施例】図1は本発明の一実施例を示す図である。H
PMLにより記述されたファイルFは、HTTPサーバ
1の記憶装置11に格納されている。一方、ハンドヘル
ド・コンピュータ2は、ファイル送受信部21、メモリ
22、処理部23、ディスプレイ24、スピーカ25、
キーボード26とを備えている。メモリ22は、スライ
ドスタック221と、TTS処理(音声変換処理)用バ
ッファ222とを有して構成され、処理部23は、イン
タープリタ機能部231および音声変換機能部232と
を有して構成されている。
PMLにより記述されたファイルFは、HTTPサーバ
1の記憶装置11に格納されている。一方、ハンドヘル
ド・コンピュータ2は、ファイル送受信部21、メモリ
22、処理部23、ディスプレイ24、スピーカ25、
キーボード26とを備えている。メモリ22は、スライ
ドスタック221と、TTS処理(音声変換処理)用バ
ッファ222とを有して構成され、処理部23は、イン
タープリタ機能部231および音声変換機能部232と
を有して構成されている。
【0014】ハンドヘルド・コンピュータ2のユーザ
が、サーバ1にファイルFのダウンロード要求をする
と、ファイルFのダウンロードが開始される。ファイル
Fの具体的な記述については後述する。なお、ファイル
Fの添付ファイルとして、gifフォーマットのファイ
ルBG.gifが記憶装置11のファイルFと同じディ
レクトリに格納されており、ファイルBG.gifは、
ファイルFのダウンロード後にダウンロードされる。こ
こで、ファイルBG.gifは、次に述べるインタープ
リタ機能部231による逐次解釈に並行してダウンロー
ドしてもよい。
が、サーバ1にファイルFのダウンロード要求をする
と、ファイルFのダウンロードが開始される。ファイル
Fの具体的な記述については後述する。なお、ファイル
Fの添付ファイルとして、gifフォーマットのファイ
ルBG.gifが記憶装置11のファイルFと同じディ
レクトリに格納されており、ファイルBG.gifは、
ファイルFのダウンロード後にダウンロードされる。こ
こで、ファイルBG.gifは、次に述べるインタープ
リタ機能部231による逐次解釈に並行してダウンロー
ドしてもよい。
【0015】インタープリタ機能部231は、ファイル
Fを逐次解釈する。図2は、インタープリタ機能部23
1の処理を示すフローチャートである。インタープリタ
機能部231が処理を開始し(S01)、ファイルFの
メモリ22からの一行読み込みが行われ(S02)、当
該ファイルFがHPMLで記述されたファイルか否かの
判定が行われる(S03)。この判定は、ファイル属性
タグの検出により行われる。ここでは、ファイル属性タ
グは<HPML>であるので、インタープリタ機能部2
31は逐次解釈を続行する(S04)。ファイル属性タ
グは<HPML>でないときには、図2では、S02に
戻るように処理されるが(L01)、ファイル属性タグ
が<HPML>でないとき、たとえば<HTML>であ
るときには、インタープリタ機能部231は、通常のH
TMLファイルの処理を行うようにもできる。インター
プリタ機能部231は、次に表れるタグが<SLIDE
>であるか否かを判断(検出)し(S05)、<SLI
DE>が表れないときには、スクリプトの逐次読み込み
を行う(L02)。タグ<SLIDE>が検出される
と、さらに逐次解釈を続行する(S06)。インタープ
リタ機能部231は、次のタグがHTMLのタグか否か
を判断し(S07)、当該タグがHTMLのタグである
ときには、HTMLの処理を行った後(S08)逐次解
釈を続行する(S06)が、当該タグがHTMLのタグ
でないときには、次のタグが<NARRATION>で
あるか否かを判断する(S09)。ステップS08のH
TML処理では、ディスプレイに文字表示、あるいはイ
メージ表示がなされる。
Fを逐次解釈する。図2は、インタープリタ機能部23
1の処理を示すフローチャートである。インタープリタ
機能部231が処理を開始し(S01)、ファイルFの
メモリ22からの一行読み込みが行われ(S02)、当
該ファイルFがHPMLで記述されたファイルか否かの
判定が行われる(S03)。この判定は、ファイル属性
タグの検出により行われる。ここでは、ファイル属性タ
グは<HPML>であるので、インタープリタ機能部2
31は逐次解釈を続行する(S04)。ファイル属性タ
グは<HPML>でないときには、図2では、S02に
戻るように処理されるが(L01)、ファイル属性タグ
が<HPML>でないとき、たとえば<HTML>であ
るときには、インタープリタ機能部231は、通常のH
TMLファイルの処理を行うようにもできる。インター
プリタ機能部231は、次に表れるタグが<SLIDE
>であるか否かを判断(検出)し(S05)、<SLI
DE>が表れないときには、スクリプトの逐次読み込み
を行う(L02)。タグ<SLIDE>が検出される
と、さらに逐次解釈を続行する(S06)。インタープ
リタ機能部231は、次のタグがHTMLのタグか否か
を判断し(S07)、当該タグがHTMLのタグである
ときには、HTMLの処理を行った後(S08)逐次解
釈を続行する(S06)が、当該タグがHTMLのタグ
でないときには、次のタグが<NARRATION>で
あるか否かを判断する(S09)。ステップS08のH
TML処理では、ディスプレイに文字表示、あるいはイ
メージ表示がなされる。
【0016】インタープリタ機能部231は、次のタグ
が<NARRATION>である場合には(S09)、
逐次解釈を続行し(S10)、</NARRATION
>のタグを検出するまで(S11)、</NARRAT
ION>までの文字列をTTS処理用バッファ222に
格納する(S12,L03)。そして、</NARRA
TION>のタグを検出すると(S12)、音声変換機
能部232はTTSバッファ222に格納した文字デー
タのTTS処理を行う(S13)。インタープリタ機能
部231は、TTS処理により音声変換処理が終了する
とステップS06の逐次解釈に処理を渡す。
が<NARRATION>である場合には(S09)、
逐次解釈を続行し(S10)、</NARRATION
>のタグを検出するまで(S11)、</NARRAT
ION>までの文字列をTTS処理用バッファ222に
格納する(S12,L03)。そして、</NARRA
TION>のタグを検出すると(S12)、音声変換機
能部232はTTSバッファ222に格納した文字デー
タのTTS処理を行う(S13)。インタープリタ機能
部231は、TTS処理により音声変換処理が終了する
とステップS06の逐次解釈に処理を渡す。
【0017】インタープリタ機能部231は、ステップ
09において、次のタグが<NARRATION>でな
い場合には、次に<PAUSE TIME=T>(T
は、ポーズ時間を示す値)のタグが記載されているか否
を判断(検出)し(S14)、<PAUSE TIME
=T>のタグが検出されたときには、Tの値に示される
時間、逐次解釈処理を停止し(S15)、<PAUSE
TIME=T>のタグが検出されないときには、次の
タグが<SLIDE>であるか否かが判断される(S1
6)。そして、インタープリタ機能部231は、次のタ
グが<SLIDE>であるときには、現在のスライドを
スタック221に格納し(S17)、ステップS06の
逐次解釈に処理を渡す。
09において、次のタグが<NARRATION>でな
い場合には、次に<PAUSE TIME=T>(T
は、ポーズ時間を示す値)のタグが記載されているか否
を判断(検出)し(S14)、<PAUSE TIME
=T>のタグが検出されたときには、Tの値に示される
時間、逐次解釈処理を停止し(S15)、<PAUSE
TIME=T>のタグが検出されないときには、次の
タグが<SLIDE>であるか否かが判断される(S1
6)。そして、インタープリタ機能部231は、次のタ
グが<SLIDE>であるときには、現在のスライドを
スタック221に格納し(S17)、ステップS06の
逐次解釈に処理を渡す。
【0018】インタープリタ機能部231は、ステップ
S16で<SLIDE>のタグが検出されないときに
は、次のタグが、</SLIDE>であるか否かを判断
(検出)する(S18)。そして、当該タグが</SL
IDE>でないことを検出したときには、その次のタグ
が</HPML>であるか否かを判断(検出)する(S
19)。当該タグが</HPML>であるときには、処
理を終了する(S20)が、</HPML>でないとき
には、ステップS06の逐次解釈に処理を渡す。
S16で<SLIDE>のタグが検出されないときに
は、次のタグが、</SLIDE>であるか否かを判断
(検出)する(S18)。そして、当該タグが</SL
IDE>でないことを検出したときには、その次のタグ
が</HPML>であるか否かを判断(検出)する(S
19)。当該タグが</HPML>であるときには、処
理を終了する(S20)が、</HPML>でないとき
には、ステップS06の逐次解釈に処理を渡す。
【0019】インタープリタ機能部231は、ステップ
S18で、</SLIDE>のタグがあることを検出し
たときには、スタックが空であるか否かを判断(検出)
し(S21)、空でないときにはスタックの最上部に積
まれている内容をディスプレイ24に表示して(S2
2)、ステップS06の逐次解釈に処理を渡し、また空
のときにはディスプレイ24をクリアし(S23)、ス
テップS04の逐次解釈に処理を渡す。
S18で、</SLIDE>のタグがあることを検出し
たときには、スタックが空であるか否かを判断(検出)
し(S21)、空でないときにはスタックの最上部に積
まれている内容をディスプレイ24に表示して(S2
2)、ステップS06の逐次解釈に処理を渡し、また空
のときにはディスプレイ24をクリアし(S23)、ス
テップS04の逐次解釈に処理を渡す。
【0020】なお、図2では、説明の便宜上説明はしな
かったが、本実施例では、ステップS02とS03との
間、ステップS04とS05との間、ステップS06と
S07との間、ステップS10とS11との間には、図
3で示すソースファイルのEOF(エンド・オブ・ファ
イル)を検出し(S30)、EOFが検出されないとき
は処理を続行し、EOFが検出されたときは処理を終了
(S31)している。
かったが、本実施例では、ステップS02とS03との
間、ステップS04とS05との間、ステップS06と
S07との間、ステップS10とS11との間には、図
3で示すソースファイルのEOF(エンド・オブ・ファ
イル)を検出し(S30)、EOFが検出されないとき
は処理を続行し、EOFが検出されたときは処理を終了
(S31)している。
【0021】以下、ファイルFを、インタープリタ機能
部231が処理する場合について、より具体的に説明す
る。なお、図4〜図10に示したハンドヘルド・コンピ
ュータ2のディスプレイ24に表示されたソフト・スイ
ッチは、以下のような機能を持つ。 「home」ボタン:ホーム・ページ(通常、ユーザに
より設定されている)に戻る。 「replay」ボタン:現在のページを最初からもう
一度聞く。 「open」ボタン:所定のURLをオープンする。 「close」ボタン:ブラウザをクローズする。 「jump」ボタン:特定のURLにジャンプする。 「back」ボタン:一つ前のURLにジャンプ・バッ
クする。 「forward」ボタン:現在のページにより表示さ
れているプレゼンテーションをより先に進める。 「rewind」ボタン:現在のページにより表示され
ているプレゼンテーションをより後ろに戻す。 「pause」ボタン:強制的に処理を一時停止させ
る。 「resume」ボタン:強制的に一時停止した処理を
復帰させる。
部231が処理する場合について、より具体的に説明す
る。なお、図4〜図10に示したハンドヘルド・コンピ
ュータ2のディスプレイ24に表示されたソフト・スイ
ッチは、以下のような機能を持つ。 「home」ボタン:ホーム・ページ(通常、ユーザに
より設定されている)に戻る。 「replay」ボタン:現在のページを最初からもう
一度聞く。 「open」ボタン:所定のURLをオープンする。 「close」ボタン:ブラウザをクローズする。 「jump」ボタン:特定のURLにジャンプする。 「back」ボタン:一つ前のURLにジャンプ・バッ
クする。 「forward」ボタン:現在のページにより表示さ
れているプレゼンテーションをより先に進める。 「rewind」ボタン:現在のページにより表示され
ているプレゼンテーションをより後ろに戻す。 「pause」ボタン:強制的に処理を一時停止させ
る。 「resume」ボタン:強制的に一時停止した処理を
復帰させる。
【0022】
【表1】
【0023】インタープリタ機能部231は、第001
行で、ファイルFがHPMLで記述されたと判断し(S
03)、第002行で、タグが<SLIDE>であるこ
とを検出する(S05)。そして、さらに逐次解釈を続
行し(S06)、第003行で、タグがHTMLのタグ
であることを検出する(S07)。この後、第012行
までのHTMLの処理を行った後(S08)、逐次解釈
を続行する(S06)。インタープリタ機能部231
は、次の行、すなわち第013行が、<NARRATI
ON>であるので(S09)、逐次解釈を続行し(S1
0)、</NARRATION>のタグを検出するまで
(S11)、<NARRATION>以降の文字列、す
なわち第0014行〜第0016行を、TTS処理用バ
ッファ222に格納する(S12,L03)。そして、
第017行で</NARRATION>のタグを検出す
ると(S12)、音声変換機能部232はTTS処理用
バッファ222に格納した文字データの音声変換処理
(TTS処理)を行う(S13)。本実施例では、<N
ARRATION>と、</NARRATION>の間
の文字列を、ディスプレイ24の所定領域(本実施例で
は上部の横方向に細長い領域)にナレーション音声の流
れにそって、移動字幕の形で表示する機能をも有してい
る。表示されているスライド中の文書、あるいはスピー
カから出力される音声情報には「ホット・スポット」が
含まれている。この「ホット・スポット」は、詳細情報
が格納されているURLにリンクされている。「ホット
・スポット」をマウスのポインタでクリックすることに
より、当該URLにジャンプすることができる。たとえ
ば、第010行の「Hewlett-Packard Labs Japan」は、
「ホット・スポット」であり、該当するURLにリンク
されている。また、たとえば、第014行では、「Zhiy
ong Peng」が強調表示され、これが音声に変換されたと
き、それがホット・スポットであることを、ユーザに知
らせるためのビープ音等を併せて発生させることができ
る。このビープ音等により注意を喚起されたユーザは、
「ジャンプ」ボタンを押すことで、リンク先である「pe
ng.hpml」のURLにジャンプすることができる。
行で、ファイルFがHPMLで記述されたと判断し(S
03)、第002行で、タグが<SLIDE>であるこ
とを検出する(S05)。そして、さらに逐次解釈を続
行し(S06)、第003行で、タグがHTMLのタグ
であることを検出する(S07)。この後、第012行
までのHTMLの処理を行った後(S08)、逐次解釈
を続行する(S06)。インタープリタ機能部231
は、次の行、すなわち第013行が、<NARRATI
ON>であるので(S09)、逐次解釈を続行し(S1
0)、</NARRATION>のタグを検出するまで
(S11)、<NARRATION>以降の文字列、す
なわち第0014行〜第0016行を、TTS処理用バ
ッファ222に格納する(S12,L03)。そして、
第017行で</NARRATION>のタグを検出す
ると(S12)、音声変換機能部232はTTS処理用
バッファ222に格納した文字データの音声変換処理
(TTS処理)を行う(S13)。本実施例では、<N
ARRATION>と、</NARRATION>の間
の文字列を、ディスプレイ24の所定領域(本実施例で
は上部の横方向に細長い領域)にナレーション音声の流
れにそって、移動字幕の形で表示する機能をも有してい
る。表示されているスライド中の文書、あるいはスピー
カから出力される音声情報には「ホット・スポット」が
含まれている。この「ホット・スポット」は、詳細情報
が格納されているURLにリンクされている。「ホット
・スポット」をマウスのポインタでクリックすることに
より、当該URLにジャンプすることができる。たとえ
ば、第010行の「Hewlett-Packard Labs Japan」は、
「ホット・スポット」であり、該当するURLにリンク
されている。また、たとえば、第014行では、「Zhiy
ong Peng」が強調表示され、これが音声に変換されたと
き、それがホット・スポットであることを、ユーザに知
らせるためのビープ音等を併せて発生させることができ
る。このビープ音等により注意を喚起されたユーザは、
「ジャンプ」ボタンを押すことで、リンク先である「pe
ng.hpml」のURLにジャンプすることができる。
【0024】そして、インタープリタ機能部231は、
ステップS06→S07→S09→S14→S16を経
てステップS18において、第018行のタグが</S
LIDE>であることを検出し、S21でスタックが空
であるかどうかを判断する。この場合には、スタックが
空なので、ディスプレイ24をクリアし、ステップS0
4に処理を渡す。ディスプレイ24がクリアされる前
の、ディスプレイ24の表示、およびスピーカ25から
の出力を図4に示す。
ステップS06→S07→S09→S14→S16を経
てステップS18において、第018行のタグが</S
LIDE>であることを検出し、S21でスタックが空
であるかどうかを判断する。この場合には、スタックが
空なので、ディスプレイ24をクリアし、ステップS0
4に処理を渡す。ディスプレイ24がクリアされる前
の、ディスプレイ24の表示、およびスピーカ25から
の出力を図4に示す。
【0025】
【表2】
【0026】この後、インタープリタ機能部231は、
ステップS04を経た後、ステップS05において第0
19行のタグが<SLIDE>であることを検出する。
そして、インタープリタ機能部231は、ステップS0
6に処理を渡した後、第020行、第021行のHTM
Lのタグを実行した後(S07,08)、第022行〜
第024行を実行し(ステップS09〜S13)、処理
をステップS06に処理を渡す。このときの、ディスプ
レイ24の表示、およびスピーカ25からの出力を図5
に示す。
ステップS04を経た後、ステップS05において第0
19行のタグが<SLIDE>であることを検出する。
そして、インタープリタ機能部231は、ステップS0
6に処理を渡した後、第020行、第021行のHTM
Lのタグを実行した後(S07,08)、第022行〜
第024行を実行し(ステップS09〜S13)、処理
をステップS06に処理を渡す。このときの、ディスプ
レイ24の表示、およびスピーカ25からの出力を図5
に示す。
【0027】
【表3】
【0028】インタープリタ機能部231は、ステップ
S16において第025行のタグが<SLIDE>であ
ることを検出するので、現在のスライド(すなわち、第
021行の、<L1>Background、に基づく文字列)を
スタック221に格納する(S17)。そして、ステッ
プS06,07を経て、HTMLのタグを実行する(第
026行〜第032行)。そして、第033行〜第03
5行でナレーションの音声出力をした後(S09〜S1
3)、処理をステップS06に戻し、ステップS07→
09を経て、ステップS14において、第036行の<
PAUSE TIME=50>を検出し、値50で示さ
れる時間、処理を一時停止する。このときの、ディスプ
レイ24の表示、およびスピーカ25からの出力を図6
に示す。
S16において第025行のタグが<SLIDE>であ
ることを検出するので、現在のスライド(すなわち、第
021行の、<L1>Background、に基づく文字列)を
スタック221に格納する(S17)。そして、ステッ
プS06,07を経て、HTMLのタグを実行する(第
026行〜第032行)。そして、第033行〜第03
5行でナレーションの音声出力をした後(S09〜S1
3)、処理をステップS06に戻し、ステップS07→
09を経て、ステップS14において、第036行の<
PAUSE TIME=50>を検出し、値50で示さ
れる時間、処理を一時停止する。このときの、ディスプ
レイ24の表示、およびスピーカ25からの出力を図6
に示す。
【0029】
【表4】 インタープリタ機能部231は、この後、ステップS1
8において、第037行のタグ</SLIDE>を検出
する。スライドスタック221には、第021行の、<
L1>Background、が格納されているので、スライドを
回復し(すなわち、<L1>Backgroundを実行し)(S
22)、処理をステップS06に戻し第038行のHT
MLのタグを実行した後(S06)、第039〜第04
1行でナレーションの音声出力をし(S09〜S1
3)、処理をステップS06に戻す。このときの、ディ
スプレイ24の表示、およびスピーカ25からの出力を
図7に示す。
8において、第037行のタグ</SLIDE>を検出
する。スライドスタック221には、第021行の、<
L1>Background、が格納されているので、スライドを
回復し(すなわち、<L1>Backgroundを実行し)(S
22)、処理をステップS06に戻し第038行のHT
MLのタグを実行した後(S06)、第039〜第04
1行でナレーションの音声出力をし(S09〜S1
3)、処理をステップS06に戻す。このときの、ディ
スプレイ24の表示、およびスピーカ25からの出力を
図7に示す。
【0030】
【表5】
【0031】この後、インタープリタ機能部231は、
ステップS07→S09→S14を経て、ステップS1
6において第042行のタグが<SLIDE>であるこ
とを検出するので、現在のディスプレイに表示されてい
る文字列についてのタグをスタック221に格納する
(S17)。ここではディスプレイ24に表示されてい
る文字列は、第021行の、<L1>Backgroundに基づ
く文字列と、第038行の、<L1>Our Approachに基
づく文字列なので、これらをスタック221に格納し、
処理をステップS06に戻して、第043行〜第047
行のHTMLタグを実行した後(S07,S08)、第
048行〜第050行でナレーションの音声出力をする
(S09〜S13)。そして、第051行,第052行
のHTMLタグを実行した後(S07,S08)、第0
53行でナレーションの音声出力をする(S09〜S1
3)。さらに、第054行のHTMLタグを実行した後
(S07,S08)、第055行でナレーションの音声
出力を行い(S09〜S13)、処理をステップS06
に戻す。そして、ふたたび、第056行のHTMLのタ
グ</UL>を実行する(S07,S08)。インター
プリタ機能部231は、第057行で</SLIDE>
を検出する。このときの、ディスプレイ24の表示、お
よびスピーカ25からの出力を図8に示す。
ステップS07→S09→S14を経て、ステップS1
6において第042行のタグが<SLIDE>であるこ
とを検出するので、現在のディスプレイに表示されてい
る文字列についてのタグをスタック221に格納する
(S17)。ここではディスプレイ24に表示されてい
る文字列は、第021行の、<L1>Backgroundに基づ
く文字列と、第038行の、<L1>Our Approachに基
づく文字列なので、これらをスタック221に格納し、
処理をステップS06に戻して、第043行〜第047
行のHTMLタグを実行した後(S07,S08)、第
048行〜第050行でナレーションの音声出力をする
(S09〜S13)。そして、第051行,第052行
のHTMLタグを実行した後(S07,S08)、第0
53行でナレーションの音声出力をする(S09〜S1
3)。さらに、第054行のHTMLタグを実行した後
(S07,S08)、第055行でナレーションの音声
出力を行い(S09〜S13)、処理をステップS06
に戻す。そして、ふたたび、第056行のHTMLのタ
グ</UL>を実行する(S07,S08)。インター
プリタ機能部231は、第057行で</SLIDE>
を検出する。このときの、ディスプレイ24の表示、お
よびスピーカ25からの出力を図8に示す。
【0032】
【表6】
【0033】このときにはスタック221には、第02
1行の、<L1>Backgroundと、第038行の、<L1
>Our Approachとが格納されている。第057の実行後
には、BackgroundとOur Approachとの文字列が、ディス
プレイ24に表示され(S22)、スタックは空とな
る。この後、インタープリタ機能部231は、ステップ
S06に処理を渡した後、第058行のHTMLのタグ
を実行した後(S07,08)、第059行〜第062
行を実行し(ステップS09〜S13)、処理をステッ
プS06に処理を渡す。このときの、ディスプレイ24
の表示、およびスピーカ25からの出力を図9に示す。
1行の、<L1>Backgroundと、第038行の、<L1
>Our Approachとが格納されている。第057の実行後
には、BackgroundとOur Approachとの文字列が、ディス
プレイ24に表示され(S22)、スタックは空とな
る。この後、インタープリタ機能部231は、ステップ
S06に処理を渡した後、第058行のHTMLのタグ
を実行した後(S07,08)、第059行〜第062
行を実行し(ステップS09〜S13)、処理をステッ
プS06に処理を渡す。このときの、ディスプレイ24
の表示、およびスピーカ25からの出力を図9に示す。
【0034】
【表7】
【0035】インタープリタ機能部231は、ステップ
S07→S09→S14を経て、ステップS16におい
て第063行のタグが<SLIDE>であることを検出
し、現在のディスプレイに表示されているスライドをス
タック221に格納する(S17)。このときには、文
字列についてのタグは、第021行の、<L1>Backgr
oundに基づく文字列と、第038行の、<L1>Our Ap
proachに基づく文字列と、第058行の、<L1>Conc
lusionに基づく文字列であり、これらをスタック221
に格納し、処理をステップS06に戻して、第064行
〜第085行のHTMLタグを実行した後(S07,S
08)、第086〜第088行でナレーションの音声出
力をし(S09〜S13)、処理をステップS06に戻
す。このときの、ディスプレイ24の表示、およびスピ
ーカ25からの出力を図10に示す。
S07→S09→S14を経て、ステップS16におい
て第063行のタグが<SLIDE>であることを検出
し、現在のディスプレイに表示されているスライドをス
タック221に格納する(S17)。このときには、文
字列についてのタグは、第021行の、<L1>Backgr
oundに基づく文字列と、第038行の、<L1>Our Ap
proachに基づく文字列と、第058行の、<L1>Conc
lusionに基づく文字列であり、これらをスタック221
に格納し、処理をステップS06に戻して、第064行
〜第085行のHTMLタグを実行した後(S07,S
08)、第086〜第088行でナレーションの音声出
力をし(S09〜S13)、処理をステップS06に戻
す。このときの、ディスプレイ24の表示、およびスピ
ーカ25からの出力を図10に示す。
【0036】インタープリタ機能部231は、ステップ
S07→S09→S14→S16を経て、ステップS1
8において第089行のタグが</SLIDE>である
ことを検出するが、この場合にはスタック221には<
L1>Backgroundに基づく文字列と、第038行の、<
L1>Our Approachに基づく文字列と、第058行の、
<L1>Conclusionに基づく文字列が格納されているの
で、これらをディスプレイ24に表示した後(S2
2)、さらに再び、処理をステップS06に戻す。イン
タープリタ機能部231は、ステップS07→S09→
S14→S16を経て、ステップS18において第09
1行のタグが</SLIDE>であることを再び検出す
るが、今回は、すでにスタック221は空なので(S2
1)、ディスプレイ24をクリアし(S23)、ステッ
プS04→S05→S06→S07→S09→S14→
S16→S18を経て、ステップS19において、第0
92行のタグが</HPML>であることを検出するの
で、処理を終了する。
S07→S09→S14→S16を経て、ステップS1
8において第089行のタグが</SLIDE>である
ことを検出するが、この場合にはスタック221には<
L1>Backgroundに基づく文字列と、第038行の、<
L1>Our Approachに基づく文字列と、第058行の、
<L1>Conclusionに基づく文字列が格納されているの
で、これらをディスプレイ24に表示した後(S2
2)、さらに再び、処理をステップS06に戻す。イン
タープリタ機能部231は、ステップS07→S09→
S14→S16を経て、ステップS18において第09
1行のタグが</SLIDE>であることを再び検出す
るが、今回は、すでにスタック221は空なので(S2
1)、ディスプレイ24をクリアし(S23)、ステッ
プS04→S05→S06→S07→S09→S14→
S16→S18を経て、ステップS19において、第0
92行のタグが</HPML>であることを検出するの
で、処理を終了する。
【0037】
【発明の効果】本発明は、文字列により音声を表示する
ようにしたので(すなわち音声データがサンプリングデ
ータ等のバイナリデータではないので)、音声処理に要
するハードウェアの負担を軽減することができる。ま
た、ナレーション音声出力と文字表示出力の同期をとる
ことが容易となる。さらに、高速なブラウジングやナレ
ーション内容の検索が可能となる。
ようにしたので(すなわち音声データがサンプリングデ
ータ等のバイナリデータではないので)、音声処理に要
するハードウェアの負担を軽減することができる。ま
た、ナレーション音声出力と文字表示出力の同期をとる
ことが容易となる。さらに、高速なブラウジングやナレ
ーション内容の検索が可能となる。
【図1】本発明のハイパー・プレゼンテーション・シス
テムが搭載されたモバイル・コンピュータの一実施例を
示す図である。
テムが搭載されたモバイル・コンピュータの一実施例を
示す図である。
【図2】図1のインタープリタ機能部の動作を示す説明
図である。
図である。
【図3】ソースファイルのEOF(エンド・オブ・ファ
イル)を検出し、EOFが検出されないときと、EOF
が検出されたときの処理を示す図である。
イル)を検出し、EOFが検出されないときと、EOF
が検出されたときの処理を示す図である。
【図4】表1に示されるHPMLファイルの記述部分に
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
【図5】表2に示されるHPMLファイルの記述部分に
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
【図6】表3示されるHPMLファイルの記述部分によ
る、ディスプレイの表示、およびスピーカからの出力を
示す図である。
る、ディスプレイの表示、およびスピーカからの出力を
示す図である。
【図7】表4に示されるHPMLファイルの記述部分に
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
【図8】表5に示されるHPMLファイルの記述部分に
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
【図9】表6に示されるHPMLファイルの記述部分に
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
よる、ディスプレイの表示、およびスピーカからの出力
を示す図である。
【図10】表7に示されるHPMLファイルの記述部分
による、ディスプレイの表示、およびスピーカからの出
力を示す図である。
による、ディスプレイの表示、およびスピーカからの出
力を示す図である。
1 HTTPサーバ 11 記憶装置 2 ハンドヘルドコンピュータ 21 ファイル送受信部 22 メモリ 221 スライドスタック 222 TTS処理(音声変換処理)用バッファ 23 処理部 231 インタープリタ機能部 232 音声変換機能部 24 ディスプレイ 25 スピーカ 26 キーボード F ファイル
───────────────────────────────────────────────────── フロントページの続き Fターム(参考) 5B089 GA11 GA25 GB04 JA21 JB02 KA11 KB09 KH14 LB03 LB13 LB14 5D045 AB01 9A001 BB01 BB03 BB04 CC02 DD02 DD13 EE02 HH18 HZ23 JJ05 JJ25 JJ26 JJ32 KK46 KZ56
Claims (20)
- 【請求項1】 スライド表示を制御するスライド表示タ
グと、 所定文字列のナレーション音声出力を制御するナレーシ
ョン音声出力タグと、を含む、ハイパー・プレゼンテー
ション用言語の記述方法。 - 【請求項2】 さらに、指定された時間、スクリプトの
解釈を停止させるためのポーズタグを含む請求項1に記
載のハイパー・プレゼンテーション用言語の記述方法。 - 【請求項3】 前記スライド表示タグが、ディスプレイ
にスライドを表示させるスライド・スタート・エレメン
トと、ディスプレイに表示されたスライド表示を消去さ
せるスライド・エンド・エレメントとからなる請求項1
または2に記載のハイパー・プレゼンテーション用言語
の記述方法。 - 【請求項4】 前記スライド表示タグが、入れ子構造で
記述される請求項3に記載のハイパー・プレゼンテーシ
ョン用言語の記述方法。 - 【請求項5】 前記ナレーション音声出力タグが、スピ
ーカから文字列をナレーション音声に変換して出力させ
るナレーション・スタート・エレメントと、ナレーショ
ン音声の上記出力を終了させるナレーション・エンド・
エレメントとからなる請求項1に記載のハイパー・プレ
ゼンテーション用言語の記述方法。 - 【請求項6】 前記ナレーション音声出力タグが、前記
スライド・スタート・エレメントと、前記スライド・エ
ンド・エレメントとの間に記述される請求項3または4
に記載のハイパー・プレゼンテーション用言語の記述方
法。 - 【請求項7】 スライド表示を制御するスライド表示タ
グと、所定文字列のナレーション音声出力を制御するナ
レーション音声出力タグと、を含む、マークアップ言語
で記述されたソース・ファイルを、 所定のプロトコルに従ってダウンロードするファイル受
信部と、 当該受信したソース・ファイルを取り込み、 前記スライド表示タグに基づき、ディスプレイにスライ
ド表示させ、 前記ナレーション音声出力タグに基づき、当該ナレーシ
ョン音声出力タグにより指定された文字列を音声データ
に変換してスピーカに出力させる、処理部と、を有して
なることを特徴とするハイパー・プレゼンテーション・
システム。 - 【請求項8】 前記スライド表示と、前記ナレーション
音声出力とは同期していることを特徴とする請求項7に
記載のハイパー・プレゼンテーション・システム。 - 【請求項9】 前記マークアップ言語が、ハイパー・テ
キスト・マークアップ言語であり、前記ソース・ファイ
ルは、ハイパー・テキスト・トランスファー・プロトコ
ルに従ってダウンロードされることを特徴とする請求項
7または8に記載のハイパー・プレゼンテーション・シ
ステム。 - 【請求項10】 前記ディスプレイに表示されたスライ
ド中のホット・スポット、および/またはスピーカから
出力される音声情報中のホット・スポットは、リンクさ
れていることを特徴とする請求項7〜9の何れかに記載
のハイパー・プレゼンテーション・システム。 - 【請求項11】 前記マークアップ言語は、ポーズタグ
をさらに含み、前記処理部は、前記ポーズタグに基づ
き、当該ポーズタグにより指定された時間、前記ソース
・ファイルのスクリプトの解釈を停止させる、請求項7
〜10の何れかに記載のハイパー・プレゼンテーション
・システム。 - 【請求項12】 前記スライド表示タグが、ディスプレ
イにスライドを表示させるスライド・スタート・エレメ
ントと、ディスプレイに表示されたスライド表示を消去
させるスライド・エンド・エレメントとからなる請求項
7〜11の何れかに記載のハイパー・プレゼンテーショ
ン・システム。 - 【請求項13】 前記ナレーション音声出力タグが、前
記スライド・スタート・エレメント以降で、かつ前記ス
ライド・エンド・エレメントより前に記述される請求項
12に記載のハイパー・プレゼンテーション・システ
ム。 - 【請求項14】 前記スライド表示タグが、入れ子構造
で記述される請求項12または13に記載のハイパー・
プレゼンテーション・システム。 - 【請求項15】 請求項7〜14の何れかに記載のハイ
パー・プレゼンテーション・システムが搭載されたモバ
イル・コンピュータ。 - 【請求項16】 スライド表示を制御するスライド表示
タグ、および所定文字列のナレーション音声出力を制御
するナレーション音声出力タグを用いたハイパー・プレ
ゼンテーション方法であって、 マークアップ言語で記述されたソース・ファイルを、所
定のプロトコルに従ってユーザにダウンロードさせるス
テップ、 当該ソース・ファイルを取り込み、前記スライド表示タ
グに基づき、ディスプレイにスライド表示させるステッ
プ、 前記ナレーション音声出力タグに基づき、当該ナレーシ
ョン音声出力タグにより指定された文字列を音声データ
に変換して、スピーカに出力させるステップ、を有して
なることを特徴とするハイパー・プレゼンテーション方
法。 - 【請求項17】 前記スライド表示と、前記ナレーショ
ン音声出力とは同期していることを特徴とする請求項1
6に記載のハイパー・プレゼンテーション方法。 - 【請求項18】 前記マークアップ言語が、ハイパー・
テキスト・マークアップ言語であり、前記ソース・ファ
イルをユーザにダウンロードさせるステップでは、当該
ソース・ファイルをハイパー・テキスト・トランスファ
ー・プロトコルに従ってダウンロードさせることを特徴
とする請求項16または17に記載のハイパー・プレゼ
ンテーション方法。 - 【請求項19】 前記ディスプレイに表示されたスライ
ド中のホット・スポット、および/またはスピーカから
出力される音声情報中のホット・スポットは、リンクさ
れていることを特徴とする請求項16〜18の何れかに
記載のハイパー・プレゼンテーション方法。 - 【請求項20】 前記マークアップ言語に含まれるポー
ズタグに基づき、当該ポーズタグにより指定された時
間、前記ソース・ファイルのスクリプトの解釈を停止さ
せるステップを含む、請求項16〜19の何れかに記載
のハイパー・プレゼンテーション方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11008557A JP2000207167A (ja) | 1999-01-14 | 1999-01-14 | ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP11008557A JP2000207167A (ja) | 1999-01-14 | 1999-01-14 | ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2000207167A true JP2000207167A (ja) | 2000-07-28 |
Family
ID=11696415
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP11008557A Pending JP2000207167A (ja) | 1999-01-14 | 1999-01-14 | ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2000207167A (ja) |
Cited By (101)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2002123445A (ja) * | 2000-10-12 | 2002-04-26 | Ntt Docomo Inc | 情報配信サーバおよび情報配信システムならびに情報配信方法 |
JP2002366474A (ja) * | 2001-06-05 | 2002-12-20 | Nec Corp | 情報端末 |
US7346042B2 (en) | 2000-02-21 | 2008-03-18 | Ntt Docomo, Inc. | Information distributing method, information distributing system, information distributing server, mobile communication network system and communication service providing method |
US7699228B2 (en) | 2004-08-20 | 2010-04-20 | Felica Networks, Inc. | Information providing system, information providing apparatus, information providing method, portable terminal, information outputting method, and computer program |
JP2014519058A (ja) * | 2011-06-03 | 2014-08-07 | アップル インコーポレイテッド | テキストデータとオーディオデータとの間のマッピングの自動作成 |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
-
1999
- 1999-01-14 JP JP11008557A patent/JP2000207167A/ja active Pending
Cited By (137)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7346042B2 (en) | 2000-02-21 | 2008-03-18 | Ntt Docomo, Inc. | Information distributing method, information distributing system, information distributing server, mobile communication network system and communication service providing method |
US9646614B2 (en) | 2000-03-16 | 2017-05-09 | Apple Inc. | Fast, language-independent method for user authentication by voice |
JP2002123445A (ja) * | 2000-10-12 | 2002-04-26 | Ntt Docomo Inc | 情報配信サーバおよび情報配信システムならびに情報配信方法 |
JP2002366474A (ja) * | 2001-06-05 | 2002-12-20 | Nec Corp | 情報端末 |
US7699228B2 (en) | 2004-08-20 | 2010-04-20 | Felica Networks, Inc. | Information providing system, information providing apparatus, information providing method, portable terminal, information outputting method, and computer program |
US7946495B2 (en) | 2004-08-20 | 2011-05-24 | Felica Networks, Inc. | Information providing system, information providing apparatus, information providing method, portable terminal, information outputting method, and computer program |
US10318871B2 (en) | 2005-09-08 | 2019-06-11 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US10568032B2 (en) | 2007-04-03 | 2020-02-18 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
US10381016B2 (en) | 2008-01-03 | 2019-08-13 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US9626955B2 (en) | 2008-04-05 | 2017-04-18 | Apple Inc. | Intelligent text-to-speech conversion |
US9865248B2 (en) | 2008-04-05 | 2018-01-09 | Apple Inc. | Intelligent text-to-speech conversion |
US10108612B2 (en) | 2008-07-31 | 2018-10-23 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9535906B2 (en) | 2008-07-31 | 2017-01-03 | Apple Inc. | Mobile device having human language translation capability with positional feedback |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10795541B2 (en) | 2009-06-05 | 2020-10-06 | Apple Inc. | Intelligent organization of tasks items |
US10475446B2 (en) | 2009-06-05 | 2019-11-12 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US11080012B2 (en) | 2009-06-05 | 2021-08-03 | Apple Inc. | Interface for a virtual digital assistant |
US10283110B2 (en) | 2009-07-02 | 2019-05-07 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10706841B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Task flow identification based on user intent |
US11423886B2 (en) | 2010-01-18 | 2022-08-23 | Apple Inc. | Task flow identification based on user intent |
US9548050B2 (en) | 2010-01-18 | 2017-01-17 | Apple Inc. | Intelligent automated assistant |
US10607140B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984327B2 (en) | 2010-01-25 | 2021-04-20 | New Valuexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US11410053B2 (en) | 2010-01-25 | 2022-08-09 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10984326B2 (en) | 2010-01-25 | 2021-04-20 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US10607141B2 (en) | 2010-01-25 | 2020-03-31 | Newvaluexchange Ltd. | Apparatuses, methods and systems for a digital conversation management platform |
US9633660B2 (en) | 2010-02-25 | 2017-04-25 | Apple Inc. | User profiling for voice input processing |
US10049675B2 (en) | 2010-02-25 | 2018-08-14 | Apple Inc. | User profiling for voice input processing |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US10102359B2 (en) | 2011-03-21 | 2018-10-16 | Apple Inc. | Device access using voice authentication |
US10672399B2 (en) | 2011-06-03 | 2020-06-02 | Apple Inc. | Switching between text data and audio data based on a mapping |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
JP2014519058A (ja) * | 2011-06-03 | 2014-08-07 | アップル インコーポレイテッド | テキストデータとオーディオデータとの間のマッピングの自動作成 |
US10706373B2 (en) | 2011-06-03 | 2020-07-07 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US11120372B2 (en) | 2011-06-03 | 2021-09-14 | Apple Inc. | Performing actions associated with task items that represent tasks to perform |
US9798393B2 (en) | 2011-08-29 | 2017-10-24 | Apple Inc. | Text correction processing |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9953088B2 (en) | 2012-05-14 | 2018-04-24 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10079014B2 (en) | 2012-06-08 | 2018-09-18 | Apple Inc. | Name recognition system |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9971774B2 (en) | 2012-09-19 | 2018-05-15 | Apple Inc. | Voice-based media searching |
US9633674B2 (en) | 2013-06-07 | 2017-04-25 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9620104B2 (en) | 2013-06-07 | 2017-04-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9966060B2 (en) | 2013-06-07 | 2018-05-08 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
US9966068B2 (en) | 2013-06-08 | 2018-05-08 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10657961B2 (en) | 2013-06-08 | 2020-05-19 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
US10185542B2 (en) | 2013-06-09 | 2019-01-22 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
US10497365B2 (en) | 2014-05-30 | 2019-12-03 | Apple Inc. | Multi-command single utterance input method |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US11133008B2 (en) | 2014-05-30 | 2021-09-28 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US10169329B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Exemplar-based natural language processing |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
US9966065B2 (en) | 2014-05-30 | 2018-05-08 | Apple Inc. | Multi-command single utterance input method |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9668024B2 (en) | 2014-06-30 | 2017-05-30 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10904611B2 (en) | 2014-06-30 | 2021-01-26 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US10431204B2 (en) | 2014-09-11 | 2019-10-01 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US9986419B2 (en) | 2014-09-30 | 2018-05-29 | Apple Inc. | Social reminders |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US11556230B2 (en) | 2014-12-02 | 2023-01-17 | Apple Inc. | Data detection |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US11087759B2 (en) | 2015-03-08 | 2021-08-10 | Apple Inc. | Virtual assistant activation |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10311871B2 (en) | 2015-03-08 | 2019-06-04 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10356243B2 (en) | 2015-06-05 | 2019-07-16 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US11500672B2 (en) | 2015-09-08 | 2022-11-15 | Apple Inc. | Distributed personal assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US11526368B2 (en) | 2015-11-06 | 2022-12-13 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
US11069347B2 (en) | 2016-06-08 | 2021-07-20 | Apple Inc. | Intelligent automated assistant for media exploration |
US10354011B2 (en) | 2016-06-09 | 2019-07-16 | Apple Inc. | Intelligent automated assistant in a home environment |
US11037565B2 (en) | 2016-06-10 | 2021-06-15 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10733993B2 (en) | 2016-06-10 | 2020-08-04 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10297253B2 (en) | 2016-06-11 | 2019-05-21 | Apple Inc. | Application integration with a digital assistant |
US11152002B2 (en) | 2016-06-11 | 2021-10-19 | Apple Inc. | Application integration with a digital assistant |
US10521466B2 (en) | 2016-06-11 | 2019-12-31 | Apple Inc. | Data driven natural language event detection and classification |
US10089072B2 (en) | 2016-06-11 | 2018-10-02 | Apple Inc. | Intelligent device arbitration and control |
US10269345B2 (en) | 2016-06-11 | 2019-04-23 | Apple Inc. | Intelligent task discovery |
US10553215B2 (en) | 2016-09-23 | 2020-02-04 | Apple Inc. | Intelligent automated assistant |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
US10755703B2 (en) | 2017-05-11 | 2020-08-25 | Apple Inc. | Offline personal assistant |
US10410637B2 (en) | 2017-05-12 | 2019-09-10 | Apple Inc. | User-specific acoustic models |
US11405466B2 (en) | 2017-05-12 | 2022-08-02 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10791176B2 (en) | 2017-05-12 | 2020-09-29 | Apple Inc. | Synchronization and task delegation of a digital assistant |
US10482874B2 (en) | 2017-05-15 | 2019-11-19 | Apple Inc. | Hierarchical belief states for digital assistants |
US10810274B2 (en) | 2017-05-15 | 2020-10-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
US11217255B2 (en) | 2017-05-16 | 2022-01-04 | Apple Inc. | Far-field extension for digital assistant services |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2000207167A (ja) | ハイパ―・プレゼンテ―ション用言語の記述方法、ハイパ―・プレゼンテ―ション・システム、モバイル・コンピュ―タ、およびハイパ―・プレゼンテ―ション方法 | |
US7210098B2 (en) | Technique for synchronizing visual and voice browsers to enable multi-modal browsing | |
US6785865B1 (en) | Discoverability and navigation of hyperlinks via tabs | |
JP3936718B2 (ja) | インターネットコンテンツのアクセスに関するシステム及び方法 | |
US7006975B1 (en) | Methods and apparatus for referencing and processing audio information | |
CA2676676C (en) | Method and system for converting interactive animated information content for display on mobile devices | |
US7593854B2 (en) | Method and system for collecting user-interest information regarding a picture | |
JP4225703B2 (ja) | 情報アクセス方法、情報アクセスシステムおよびプログラム | |
US7216351B1 (en) | Systems and methods for synchronizing multi-modal interactions | |
US8452783B2 (en) | Document processing device and program | |
US6282512B1 (en) | Enhancement of markup language pages to support spoken queries | |
US20010043234A1 (en) | Incorporating non-native user interface mechanisms into a user interface | |
US20060253785A1 (en) | Remote-agent-object based multilevel broweser | |
CA2471292C (en) | Combining use of a stepwise markup language and an object oriented development tool | |
EP1320043A2 (en) | Multi-modal picture | |
JP2007264792A (ja) | 音声ブラウザプログラム | |
JP2010518508A5 (ja) | ||
JPH11242620A (ja) | 情報処理装置、サーバ装置、情報提供システム、及び記録媒体 | |
US9697182B2 (en) | Method and system for navigating a hard copy of a web page | |
US20090234913A1 (en) | Data structure for initiating multiple web sites | |
JP2000215138A (ja) | 情報探索装置、及びプログラムが記憶された記憶媒体 | |
JP2003122771A (ja) | 情報処理装置及び情報処理方法、並びに情報処理プログラム | |
JP2001273216A (ja) | 移動端末機によるネットサーフィン方法、移動端末機、サーバシステムおよび記録媒体 | |
JP2002175175A (ja) | 音声駆動可能なユーザインターフェイス | |
KR100923942B1 (ko) | 웹 페이지로부터 텍스트를 추출하고 이를 음성 데이터파일로 변환하여 제공하기 위한 방법, 시스템 및 컴퓨터판독 가능한 기록 매체 |