JP2001356901A - 自然言語装置のインターフェース - Google Patents
自然言語装置のインターフェースInfo
- Publication number
- JP2001356901A JP2001356901A JP2001078833A JP2001078833A JP2001356901A JP 2001356901 A JP2001356901 A JP 2001356901A JP 2001078833 A JP2001078833 A JP 2001078833A JP 2001078833 A JP2001078833 A JP 2001078833A JP 2001356901 A JP2001356901 A JP 2001356901A
- Authority
- JP
- Japan
- Prior art keywords
- natural language
- machine
- user
- user interface
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 239000012634 fragment Substances 0.000 claims description 26
- 238000000034 method Methods 0.000 claims description 22
- 230000015572 biosynthetic process Effects 0.000 claims description 3
- 238000003786 synthesis reaction Methods 0.000 claims description 3
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 238000004590 computer program Methods 0.000 description 5
- 241001122315 Polites Species 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 230000008707 rearrangement Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
- 238000003825 pressing Methods 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
- G06F40/55—Rule-based translation
- G06F40/56—Natural language generation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
- Facsimiles In General (AREA)
Abstract
(57)【要約】 (修正有)
【課題】 いくつかの自然言語命令を使用できる機械と
共に使用する自然言語インタフエースを提供する。 【解決手段】 ユーザがユーザ要求を生成すると、その
要求は自然言語発生器3に入力され、自然言語発生器3
はユーザ要求を受信すると機械状態モニタ2から機械の
現状に関する情報を取得し、この情報をデータベース4
の情報と共に使用して機械の現在状態を実現するのに適
した自然言語命令を生成させる。自然言語出力発生器5
はその自然言語命令を受信して自然言語命令をユーザに
対し出力する。
共に使用する自然言語インタフエースを提供する。 【解決手段】 ユーザがユーザ要求を生成すると、その
要求は自然言語発生器3に入力され、自然言語発生器3
はユーザ要求を受信すると機械状態モニタ2から機械の
現状に関する情報を取得し、この情報をデータベース4
の情報と共に使用して機械の現在状態を実現するのに適
した自然言語命令を生成させる。自然言語出力発生器5
はその自然言語命令を受信して自然言語命令をユーザに
対し出力する。
Description
【0001】
【発明の属する技術分野】本発明は、一般的には、複数
の可能な状態の1つに到達するために自然言語命令を受
信することができる機械と共に使用するためのユーザイ
ンタフェース装置に関する。
の可能な状態の1つに到達するために自然言語命令を受
信することができる機械と共に使用するためのユーザイ
ンタフェース装置に関する。
【0002】
【従来の技術】従来の技術において多くの場で検討され
てきた課題は、ユーザと機械をインタフェースする最も
効率の良い方法であった。インタフェースの一形態にお
いては、形式言語を使用してユーザと機械が対話する。
形式言語インタフェースの1例は、複数個のボタンと、
ある一定の順序でボタンを押すと何が起こるかを規定す
る厳密な仕様とを含む、電話機で使用されているインタ
フェースである。この種の形式言語インタフェースに伴
う問題は、それが融通性に欠け、ユーザが必要な形式命
令を学習しなければならないということである。
てきた課題は、ユーザと機械をインタフェースする最も
効率の良い方法であった。インタフェースの一形態にお
いては、形式言語を使用してユーザと機械が対話する。
形式言語インタフェースの1例は、複数個のボタンと、
ある一定の順序でボタンを押すと何が起こるかを規定す
る厳密な仕様とを含む、電話機で使用されているインタ
フェースである。この種の形式言語インタフェースに伴
う問題は、それが融通性に欠け、ユーザが必要な形式命
令を学習しなければならないということである。
【0003】別の種類のインタフェースでは、多くの様
々な方法で入力できる自然言語インタフェースを使用す
る。自然言語インタフェースを利用すれば、ユーザは程
度の差こそあれ制限を受けずに命令を入力することがで
きる。自然言語インタフェースを使用する場合、学習の
必要性は低いのであるが、機械を初めて使用するとき
や、それほど頻繁には使用しない場合などに、ユーザは
どのようにすれば機械に効率良く命令を出すことができ
るのかについて確信を持てないことがある。ユーザがど
のような語を使用すべきか、又は命令のフレーズをどの
ように構築すれば良いのかを知らない場合も考えられ
る。ユーザが普通でない語、すなわち機械には認識又は
理解しづらい語を使うこともある。また、何らかのもの
をより単純な形態で入力できる方法をユーザが理解でき
ないこともある。機械で利用できる様々なオプションを
巡って迷い、長い時間を費やしてしまい、相当な時間の
後にようやく満足できる命令に行き着く場合もあるだろ
う。そのようなとき、ユーザはこの命令をより効率良く
又は直ちに指定するにはどのようにすれば良いのかと疑
問に思い続けるであろう。機械に形式言語インタフェー
スのボタンのような別の入力モードがあれば、ユーザは
形式言語インタフェースのボタンを使用して命令を指定
できるであろう。その場合、ユーザは、自然言語インタ
フェースを使用するとしたらこの命令をどのように入力
できたであろうかと、その点を知りたいと考えるであろ
う。
々な方法で入力できる自然言語インタフェースを使用す
る。自然言語インタフェースを利用すれば、ユーザは程
度の差こそあれ制限を受けずに命令を入力することがで
きる。自然言語インタフェースを使用する場合、学習の
必要性は低いのであるが、機械を初めて使用するとき
や、それほど頻繁には使用しない場合などに、ユーザは
どのようにすれば機械に効率良く命令を出すことができ
るのかについて確信を持てないことがある。ユーザがど
のような語を使用すべきか、又は命令のフレーズをどの
ように構築すれば良いのかを知らない場合も考えられ
る。ユーザが普通でない語、すなわち機械には認識又は
理解しづらい語を使うこともある。また、何らかのもの
をより単純な形態で入力できる方法をユーザが理解でき
ないこともある。機械で利用できる様々なオプションを
巡って迷い、長い時間を費やしてしまい、相当な時間の
後にようやく満足できる命令に行き着く場合もあるだろ
う。そのようなとき、ユーザはこの命令をより効率良く
又は直ちに指定するにはどのようにすれば良いのかと疑
問に思い続けるであろう。機械に形式言語インタフェー
スのボタンのような別の入力モードがあれば、ユーザは
形式言語インタフェースのボタンを使用して命令を指定
できるであろう。その場合、ユーザは、自然言語インタ
フェースを使用するとしたらこの命令をどのように入力
できたであろうかと、その点を知りたいと考えるであろ
う。
【0004】
【発明の概要】本発明は、複数の可能な機械状態の1つ
に到達するためにいくつかの自然言語命令を受信するこ
とができる機械のインタフェースを提供する。本発明
は、機械の現在状態に到達するために入力できたであろ
う自然言語命令をユーザが理解できるように、ユーザに
対しフィードバックを行う。すなわち、機械の現在状態
を判定し、それを使用して、機械の現在状態を実現する
ために入力できる自然言語命令をユーザに報知するため
の命令を生成する。
に到達するためにいくつかの自然言語命令を受信するこ
とができる機械のインタフェースを提供する。本発明
は、機械の現在状態に到達するために入力できたであろ
う自然言語命令をユーザが理解できるように、ユーザに
対しフィードバックを行う。すなわち、機械の現在状態
を判定し、それを使用して、機械の現在状態を実現する
ために入力できる自然言語命令をユーザに報知するため
の命令を生成する。
【0005】本発明の一実施形態では、ユーザに対する
情報の生成はユーザからの要求によりトリガされる。
情報の生成はユーザからの要求によりトリガされる。
【0006】本発明の一実施形態では、機械の現在状態
は、各々がいくつかのとりうる値を有する複数の属性を
含むデータ構造により定義される。各属性はそれに関連
する少なくとも1つの自然言語フラグメントを有するこ
とができ、情報は、機械の現在状態の属性について自然
言語フラグメントから1つの自然言語命令を構築するこ
とにより生成される。自然言語命令は、自然言語規則に
従って自然言語フラグメントから構築される。
は、各々がいくつかのとりうる値を有する複数の属性を
含むデータ構造により定義される。各属性はそれに関連
する少なくとも1つの自然言語フラグメントを有するこ
とができ、情報は、機械の現在状態の属性について自然
言語フラグメントから1つの自然言語命令を構築するこ
とにより生成される。自然言語命令は、自然言語規則に
従って自然言語フラグメントから構築される。
【0007】本発明の一実施形態では、好ましい順序付
け形態で自然言語命令を生成するために、自然言語フラ
グメントの順序を規則に従って規定することができる。
自然言語命令は、ユーザに対して表示できるか、又は音
声出力を生成するために音声シンセサイザを介して出力
できるテキストであっても良い。あるいは、音声命令を
構成するために、音声フラグメントから自然言語命令を
形成することも可能である。
け形態で自然言語命令を生成するために、自然言語フラ
グメントの順序を規則に従って規定することができる。
自然言語命令は、ユーザに対して表示できるか、又は音
声出力を生成するために音声シンセサイザを介して出力
できるテキストであっても良い。あるいは、音声命令を
構成するために、音声フラグメントから自然言語命令を
形成することも可能である。
【0008】本発明はコンピュータ、ファクシミリ装
置、写真複写機などのどのような処理装置にも適用可能
である。この装置にインタフェースを設けることができ
る。
置、写真複写機などのどのような処理装置にも適用可能
である。この装置にインタフェースを設けることができ
る。
【0009】本発明の機能は、プロセスを実現するため
にプロセッサを制御するためのコンピュータプログラム
コードにより提供できる。すなわち、本発明はそのよう
なコンピュータプログラムコード及びコンピュータプロ
グラムコードを搬送するキャリア媒体を含む。キャリア
媒体は、フロッピー(登録商標)ディスク、ハードディ
スク、CD ROM、磁気テープなどの記憶媒体のような適切
な媒体、プログラマブルメモリ装置、又はインターネッ
トなどのネットワークを介してコンピュータプログラム
コードを搬送する電気信号などの搬送信号を含むことが
できる。従って、単に機械にコンピュータプログラムコ
ードを提供するだけで、自然言語インタフェースを具備
する従来の機械において本発明の機能を実現できる。
にプロセッサを制御するためのコンピュータプログラム
コードにより提供できる。すなわち、本発明はそのよう
なコンピュータプログラムコード及びコンピュータプロ
グラムコードを搬送するキャリア媒体を含む。キャリア
媒体は、フロッピー(登録商標)ディスク、ハードディ
スク、CD ROM、磁気テープなどの記憶媒体のような適切
な媒体、プログラマブルメモリ装置、又はインターネッ
トなどのネットワークを介してコンピュータプログラム
コードを搬送する電気信号などの搬送信号を含むことが
できる。従って、単に機械にコンピュータプログラムコ
ードを提供するだけで、自然言語インタフェースを具備
する従来の機械において本発明の機能を実現できる。
【0010】
【発明の実施の形態】次に、添付の図面を参照して本発
明の実施の形態を説明する。
明の実施の形態を説明する。
【0011】そこで、図1を参照すると、機械はユーザ
に命令を入力させるためのマシンユーザインタフェース
1を具備する。命令は、少なくとも1つの入力モードと
して自然言語命令を使用して入力可能である。マシンユ
ーザインタフェース1は、例えば、数字キーパッド又は
ポインティングデバイスを設けるなどの手段により、形
式言語命令も入力できるものであっても良い。マシンユ
ーザインタフェース1の自然言語インタフェースは、キ
ーボードなどの、自然言語の入力を可能にする何らかの
手段を具備することができる。しかし、この実施形態で
は、マシンユーザインタフェースは自然言語の形態の音
声を認識する音声インタフェースを含む。
に命令を入力させるためのマシンユーザインタフェース
1を具備する。命令は、少なくとも1つの入力モードと
して自然言語命令を使用して入力可能である。マシンユ
ーザインタフェース1は、例えば、数字キーパッド又は
ポインティングデバイスを設けるなどの手段により、形
式言語命令も入力できるものであっても良い。マシンユ
ーザインタフェース1の自然言語インタフェースは、キ
ーボードなどの、自然言語の入力を可能にする何らかの
手段を具備することができる。しかし、この実施形態で
は、マシンユーザインタフェースは自然言語の形態の音
声を認識する音声インタフェースを含む。
【0012】マシンユーザインタフェース1を使用して
入力された命令により、機械はある機械状態に入る。こ
のことは機械状態モニタ2により監視される。
入力された命令により、機械はある機械状態に入る。こ
のことは機械状態モニタ2により監視される。
【0013】マシンユーザインタフェース1は、ユーザ
が機械の現在状態を実現するために使用できたと考えら
れる自然言語命令の出力をユーザが要求可能とする手段
を具備している。すなわち、ユーザがユーザ要求を生成
すると、その要求は自然言語発生器3に入力され、自然
言語発生器3は、ユーザ要求を受信すると機械状態モニ
タ2から機械の現在状態に関する情報を検索する。この
情報をデータベース4の情報と共に使用して、機械の現
在状態を実現するのに適する自然言語命令が生成され
る。自然言語出力発生器5はその自然言語命令を受信し
て、自然言語命令をユーザに対し出力する。
が機械の現在状態を実現するために使用できたと考えら
れる自然言語命令の出力をユーザが要求可能とする手段
を具備している。すなわち、ユーザがユーザ要求を生成
すると、その要求は自然言語発生器3に入力され、自然
言語発生器3は、ユーザ要求を受信すると機械状態モニ
タ2から機械の現在状態に関する情報を検索する。この
情報をデータベース4の情報と共に使用して、機械の現
在状態を実現するのに適する自然言語命令が生成され
る。自然言語出力発生器5はその自然言語命令を受信し
て、自然言語命令をユーザに対し出力する。
【0014】次に、自然言語発生器3及びデータベース
4の機能構成要素を図2を参照しながら更に詳細に説明
する。また、本発明のこの実施形態の動作について、図
4の流れ図を参照して更に説明する。
4の機能構成要素を図2を参照しながら更に詳細に説明
する。また、本発明のこの実施形態の動作について、図
4の流れ図を参照して更に説明する。
【0015】ステップS1でプロセスを開始し、ステッ
プS2では、インタフェースは自然言語発生器3内の自
然言語コレクタ30がユーザ要求を受信するまで待機す
る。ユーザ要求を受信すると、ステップS3で、自然言
語コレクタ30は機械状態モニタ2から機械状態を検索
し、ユーザが何らかのコマンドを指定したか否かを判定
する。例えば、機械がその時点でまだデフォルト状態に
あるなど、ユーザが何も指令を指定していなかった場
合、自然言語コレクタ30は何もせず、プロセスはステ
ップS2に戻ってユーザ要求を待つ。これに対し、ユー
ザがコマンドを指定しており、機械状態がデフォルト状
態でない場合には、ステップS4で、自然言語コレクタ
30は機械状態の属性及びそれらの属性の値を使用し
て、データベース41中で関連する自然言語フラグメン
トを探索し、属性ごとに自然言語フラグメントから1つ
の文を作成する。文はデータベース42の生成パターン
に従って作成される。生成パターンは、自然言語命令を
生成するために要求される自然言語規則を含む。
プS2では、インタフェースは自然言語発生器3内の自
然言語コレクタ30がユーザ要求を受信するまで待機す
る。ユーザ要求を受信すると、ステップS3で、自然言
語コレクタ30は機械状態モニタ2から機械状態を検索
し、ユーザが何らかのコマンドを指定したか否かを判定
する。例えば、機械がその時点でまだデフォルト状態に
あるなど、ユーザが何も指令を指定していなかった場
合、自然言語コレクタ30は何もせず、プロセスはステ
ップS2に戻ってユーザ要求を待つ。これに対し、ユー
ザがコマンドを指定しており、機械状態がデフォルト状
態でない場合には、ステップS4で、自然言語コレクタ
30は機械状態の属性及びそれらの属性の値を使用し
て、データベース41中で関連する自然言語フラグメン
トを探索し、属性ごとに自然言語フラグメントから1つ
の文を作成する。文はデータベース42の生成パターン
に従って作成される。生成パターンは、自然言語命令を
生成するために要求される自然言語規則を含む。
【0016】その後、自然言語命令は再配列装置31に
より受信される。再配列装置31は、ステップS5で、
データベース43の順序データを使用してフラグメント
の順序を規定する。順序データは、自然言語のチャンク
における経験則から構成されている。
より受信される。再配列装置31は、ステップS5で、
データベース43の順序データを使用してフラグメント
の順序を規定する。順序データは、自然言語のチャンク
における経験則から構成されている。
【0017】順序を規定された自然言語命令はテキスト
置き換え装置32により受信される。テキスト置き換え
装置32は自然言語命令中の語を同義語と置き換える
(図4のステップS6)。置き換えのために選択される語
はデータベース44に格納されているユーザモデル、デ
ータベース45に格納されている好適な同義語、又はデ
ータベース46に格納されている既知の認識問題に従っ
て決定される。例えば、本発明においては、自然言語を
音声認識を経て入力でき、認識の誤りが既知の問題につ
ながる可能性がある。そこで、テキスト置き換え装置3
2は、入力された自然言語命令の正しい認識をもたらす
と考えられる好適同義語を選択する。
置き換え装置32により受信される。テキスト置き換え
装置32は自然言語命令中の語を同義語と置き換える
(図4のステップS6)。置き換えのために選択される語
はデータベース44に格納されているユーザモデル、デ
ータベース45に格納されている好適な同義語、又はデ
ータベース46に格納されている既知の認識問題に従っ
て決定される。例えば、本発明においては、自然言語を
音声認識を経て入力でき、認識の誤りが既知の問題につ
ながる可能性がある。そこで、テキスト置き換え装置3
2は、入力された自然言語命令の正しい認識をもたらす
と考えられる好適同義語を選択する。
【0018】その後、自然言語命令はテキスト追加装置
33により受信される。テキスト追加装置33は「the i
nstruction you could give is」などの囲みフレーズ
と、「please」及び「thank you」などの丁寧語とを追加す
ることができる。テキスト追加装置33は丁寧語フレー
ズ及び囲みフレーズを格納するデータベース47を使用
して、図4の流れ図のステップS7を実行する。そこ
で、ステップS8において、発生器の出力はユーザに対
する自然言語命令であり、ステップS9で、ユーザに対
し音声メッセージが出力される。図3a及び図3bは、
自然言語出力発生器5の2つの別の形態を示す。図3a
には、テキストとして生成される自然言語命令を単に表
示装置50に表示するだけの実施形態が示されている。
33により受信される。テキスト追加装置33は「the i
nstruction you could give is」などの囲みフレーズ
と、「please」及び「thank you」などの丁寧語とを追加す
ることができる。テキスト追加装置33は丁寧語フレー
ズ及び囲みフレーズを格納するデータベース47を使用
して、図4の流れ図のステップS7を実行する。そこ
で、ステップS8において、発生器の出力はユーザに対
する自然言語命令であり、ステップS9で、ユーザに対
し音声メッセージが出力される。図3a及び図3bは、
自然言語出力発生器5の2つの別の形態を示す。図3a
には、テキストとして生成される自然言語命令を単に表
示装置50に表示するだけの実施形態が示されている。
【0019】図3bの別の実施形態では、自然言語命令
はテキストとして音声シンセサイザ51に入力され、音
声シンセサイザ51は音声データを生成する。その音声
データは音声入力装置52に入力され、音声入力装置5
2はユーザに対し可聴自然言語命令を生成する。
はテキストとして音声シンセサイザ51に入力され、音
声シンセサイザ51は音声データを生成する。その音声
データは音声入力装置52に入力され、音声入力装置5
2はユーザに対し可聴自然言語命令を生成する。
【0020】写真複写機に適用された本発明の一実施形
態においては、写真複写機の現在状態を次のようないく
つかの属性により規定することができる。
態においては、写真複写機の現在状態を次のようないく
つかの属性により規定することができる。
【0021】指令: コピー 必要枚数: 21枚 ズーム: 拡大 %: 141 片面/両面:両面 すなわち、この実施形態では、属性「指令」はデフォルト
値である「コピー」の値に設定される。必要なコピー枚数
は21の値に設定される。「ズーム」属性は値「拡大」に設
定され、パーセンテージ拡大属性は「141」に設定され
る。更に、両面又は片面コピー属性は「両面」の値に設定
される。このように、ユーザがマシンユーザインタフェ
ース1を使用して命令を入力することにより実現された
複写機の内部状態が複数の属性を含むデータ構造として
格納される。これらの属性と属性の値を使用して、自然
言語フラグメントデータベース41から自然言語フラグ
メントをルックアップできる。例えば、「指令」属性はそ
のデフォルト値に設定されているので、自然言語フラグ
メントは生成されない。「必要枚数」属性は「21」に設定
されているので、自然言語フラグメント「コピー21枚」
が生成される。例えば、0から999までの可能な枚数
の全てを格納しなくても済むようにするため、数をそれ
自体を構成している自然言語フラグメントから構築する
ことができる。すなわち、21を例にとると、自然言語
フラグメント「20」と「1」から21を構築できる。これ
により、格納に要する容量要件が軽減される。「ズーム」
属性は「拡大」に設定されているので、自然言語フラグメ
ント「〜倍に拡大」が生成される。パーセンテージ拡大属
性は「141」に設定されているので、コピーの枚数がい
くつかの自然言語フラグメントから生成されたのと同じ
ように、自然言語フラグメント「141%」が生成され
る。「片面/両面」属性は「両面」に設定されているので、
自然言語フラグメント「両面」が生成される。このように
して、自然言語コレクタ30は自然言語命令「21copie
s enlarged to141% double sided(21枚のコピー
を141%に拡大して両面コピーする)」を構築する。次
に、再配列装置31がこの命令の配列を「21copies do
uble sided enlarged to141%」などのより論理的な
順序に修正しても良い。次に、テキスト置き換え装置3
2はテキストを自然言語命令に置き換える。例えば、自
然言語チャンク「enlarged to141%(141%拡大)」
を「enlarge to A3(A3に拡大)」に置き換える。テキス
ト追加装置33は囲みフレーズと丁寧語フレーズを追加
する。そこで、ユーザに提示される完全な出力情報は「t
he instruction you could have given is21copies d
ouble sided enlarged to A3please(あなたが入力すべ
きであった命令は21枚両面をA3に拡大してコピーし
て下さいです)」となる。
値である「コピー」の値に設定される。必要なコピー枚数
は21の値に設定される。「ズーム」属性は値「拡大」に設
定され、パーセンテージ拡大属性は「141」に設定され
る。更に、両面又は片面コピー属性は「両面」の値に設定
される。このように、ユーザがマシンユーザインタフェ
ース1を使用して命令を入力することにより実現された
複写機の内部状態が複数の属性を含むデータ構造として
格納される。これらの属性と属性の値を使用して、自然
言語フラグメントデータベース41から自然言語フラグ
メントをルックアップできる。例えば、「指令」属性はそ
のデフォルト値に設定されているので、自然言語フラグ
メントは生成されない。「必要枚数」属性は「21」に設定
されているので、自然言語フラグメント「コピー21枚」
が生成される。例えば、0から999までの可能な枚数
の全てを格納しなくても済むようにするため、数をそれ
自体を構成している自然言語フラグメントから構築する
ことができる。すなわち、21を例にとると、自然言語
フラグメント「20」と「1」から21を構築できる。これ
により、格納に要する容量要件が軽減される。「ズーム」
属性は「拡大」に設定されているので、自然言語フラグメ
ント「〜倍に拡大」が生成される。パーセンテージ拡大属
性は「141」に設定されているので、コピーの枚数がい
くつかの自然言語フラグメントから生成されたのと同じ
ように、自然言語フラグメント「141%」が生成され
る。「片面/両面」属性は「両面」に設定されているので、
自然言語フラグメント「両面」が生成される。このように
して、自然言語コレクタ30は自然言語命令「21copie
s enlarged to141% double sided(21枚のコピー
を141%に拡大して両面コピーする)」を構築する。次
に、再配列装置31がこの命令の配列を「21copies do
uble sided enlarged to141%」などのより論理的な
順序に修正しても良い。次に、テキスト置き換え装置3
2はテキストを自然言語命令に置き換える。例えば、自
然言語チャンク「enlarged to141%(141%拡大)」
を「enlarge to A3(A3に拡大)」に置き換える。テキス
ト追加装置33は囲みフレーズと丁寧語フレーズを追加
する。そこで、ユーザに提示される完全な出力情報は「t
he instruction you could have given is21copies d
ouble sided enlarged to A3please(あなたが入力すべ
きであった命令は21枚両面をA3に拡大してコピーし
て下さいです)」となる。
【0022】図2のテキスト置き換え装置32はユーザ
に応じてテキストを置き換えることができる。例えば、
ユーザが初心者である場合、テキスト置き換え装置32
は複雑な自然言語命令をより簡単な用語と置き換えるこ
とができる。同義語データベース35は、例えば、以前
にユーザが使用していた用語を考慮に入れることができ
る。ユーザが「double sided」の代わりに自然言語命令「t
wo sided」を以前入力していた場合を例にとると、テキ
スト置き換え装置32は先に挙げた自然言語命令の中の
「double sided」をユーザが好んで使用する形態である「t
wo sided」に置き換えることができる。
に応じてテキストを置き換えることができる。例えば、
ユーザが初心者である場合、テキスト置き換え装置32
は複雑な自然言語命令をより簡単な用語と置き換えるこ
とができる。同義語データベース35は、例えば、以前
にユーザが使用していた用語を考慮に入れることができ
る。ユーザが「double sided」の代わりに自然言語命令「t
wo sided」を以前入力していた場合を例にとると、テキ
スト置き換え装置32は先に挙げた自然言語命令の中の
「double sided」をユーザが好んで使用する形態である「t
wo sided」に置き換えることができる。
【0023】また、テキスト置き換え装置32は先に述
べた既知の問題に基づいてテキストを置き換えることも
できる。例えば、ユーザが音声認識インタフェースを使
用して命令「double sided」を入力し、それが正しく認識
されなかった場合、テキスト置き換え装置32はその代
わりにデータベース46からの知識を利用して、「twosi
ded」のフレーズを使用することにより、認識の誤りを回
避することが可能であろう。
べた既知の問題に基づいてテキストを置き換えることも
できる。例えば、ユーザが音声認識インタフェースを使
用して命令「double sided」を入力し、それが正しく認識
されなかった場合、テキスト置き換え装置32はその代
わりにデータベース46からの知識を利用して、「twosi
ded」のフレーズを使用することにより、認識の誤りを回
避することが可能であろう。
【0024】以上、本発明を写真複写機に関連する特定
の一実施形態に関して説明したが、本発明はどのような
形態の機械にも適用可能である。更に、上記の実施形態
では自然言語発生器をテキストを生成するものとして説
明したが、本発明は音声データの形態で自然言語を生成
する場合も含む。そのような実施形態においては、自然
言語フラグメントは、自然言語コレクタ、記録装置、置
き換え装置及び追加装置を使用して構築され、記録さ
れ、置き換えられ、追加される音声フラグメントから構
成されることになる。
の一実施形態に関して説明したが、本発明はどのような
形態の機械にも適用可能である。更に、上記の実施形態
では自然言語発生器をテキストを生成するものとして説
明したが、本発明は音声データの形態で自然言語を生成
する場合も含む。そのような実施形態においては、自然
言語フラグメントは、自然言語コレクタ、記録装置、置
き換え装置及び追加装置を使用して構築され、記録さ
れ、置き換えられ、追加される音声フラグメントから構
成されることになる。
【0025】従って、本発明は、ユーザが自然言語命令
を使用して機械と最も効率良くインタフェースするには
どのようにしたら良いのかを容易に学習できるようにす
るため、ユーザに対し即時フィードバックを実行するこ
とができる。以下に、機械を便利に使いこなすために本
発明がどのような支援を行えるかを示す3つの例を挙げ
る。
を使用して機械と最も効率良くインタフェースするには
どのようにしたら良いのかを容易に学習できるようにす
るため、ユーザに対し即時フィードバックを実行するこ
とができる。以下に、機械を便利に使いこなすために本
発明がどのような支援を行えるかを示す3つの例を挙げ
る。
【0026】第1の例においては、音声インタフェース
の使用方法を全く知らないユーザが複写機の前におり、
141%拡大の両面コピーを5枚作成し、それらをソー
トすることを意味する状態に複写機を設定する場合を考
える。指令は実行され、この指令が音声によりどのよう
にして実行されるかを知りたいユーザは、例えば、ボタ
ンを押すなどしてユーザ要求を生成する。そこで、複写
機は自然言語命令を生成し、音声合成を利用して「copy
five times double sided enlarged to A3andsorted
(5枚両面A3拡大コピー及びソート)」の音声を発する。
この指令は実行されず、単に次の機会に備えて指令の内
容をユーザに知らせるようにユーザに対して情報が出力
されるだけである。
の使用方法を全く知らないユーザが複写機の前におり、
141%拡大の両面コピーを5枚作成し、それらをソー
トすることを意味する状態に複写機を設定する場合を考
える。指令は実行され、この指令が音声によりどのよう
にして実行されるかを知りたいユーザは、例えば、ボタ
ンを押すなどしてユーザ要求を生成する。そこで、複写
機は自然言語命令を生成し、音声合成を利用して「copy
five times double sided enlarged to A3andsorted
(5枚両面A3拡大コピー及びソート)」の音声を発する。
この指令は実行されず、単に次の機会に備えて指令の内
容をユーザに知らせるようにユーザに対して情報が出力
されるだけである。
【0027】第2の例では、ユーザが複写機のところへ
行き、「fax this to Frank(これをFrankまでファクシミ
リ送信せよ)」と言う場合を考える。ここで、ユーザがFr
ankの自宅の電話番号を望んだにもかかわらず、Frankの
勤務先の番号が呼び出されたことがわかると、ユーザは
Frankの自宅の電話番号全てを再び入力して、「faxthis
to16483」と命令し始めることになるが、これより
簡単な方法があるに違いないと感じている。指令を実行
せず、ユーザがユーザ要求を生成するボタンを押すと、
「fax this to Frank at home(これをFrankの自宅へファ
クシミリ送信せよ)」と表示される。そこで、ユーザは使
用された最も効率の良い自然言語指令を学習するのであ
る。
行き、「fax this to Frank(これをFrankまでファクシミ
リ送信せよ)」と言う場合を考える。ここで、ユーザがFr
ankの自宅の電話番号を望んだにもかかわらず、Frankの
勤務先の番号が呼び出されたことがわかると、ユーザは
Frankの自宅の電話番号全てを再び入力して、「faxthis
to16483」と命令し始めることになるが、これより
簡単な方法があるに違いないと感じている。指令を実行
せず、ユーザがユーザ要求を生成するボタンを押すと、
「fax this to Frank at home(これをFrankの自宅へファ
クシミリ送信せよ)」と表示される。そこで、ユーザは使
用された最も効率の良い自然言語指令を学習するのであ
る。
【0028】最後の例においては、ユーザは複写機のと
ころへ行き、A3サイズの何らかの内容の左半分がB5サ
イズの紙の表面にコピーされ、原稿の右半分は裏面にコ
ピーされるように、本をコピーしたいと望んでいる場合
を考える。ユーザは数値命令に続いてオプションを設定
しようとするが、より迅速に処理できる方法があるだろ
うと感じている。ボタンを押してユーザ要求を生成する
と、複写機は音声合成を利用して、「set to A4 to A5
book copying(A4からB5へのブックコピーに設定せ
よ)」という声を発する。
ころへ行き、A3サイズの何らかの内容の左半分がB5サ
イズの紙の表面にコピーされ、原稿の右半分は裏面にコ
ピーされるように、本をコピーしたいと望んでいる場合
を考える。ユーザは数値命令に続いてオプションを設定
しようとするが、より迅速に処理できる方法があるだろ
うと感じている。ボタンを押してユーザ要求を生成する
と、複写機は音声合成を利用して、「set to A4 to A5
book copying(A4からB5へのブックコピーに設定せ
よ)」という声を発する。
【0029】以上の実施形態からわかるように、本発明
は、ユーザが後に機械とより効率良く対話できるように
するためにユーザに情報を提供することにより、機械の
利便性を大幅に向上させる。
は、ユーザが後に機械とより効率良く対話できるように
するためにユーザに情報を提供することにより、機械の
利便性を大幅に向上させる。
【0030】以上、本発明を特定の実施形態に関連して
説明したが、本発明は上記の実施形態に限定されず、本
発明の趣旨の範囲内に入る変形は当業者には明白であろ
う。
説明したが、本発明は上記の実施形態に限定されず、本
発明の趣旨の範囲内に入る変形は当業者には明白であろ
う。
【図1】本発明の一実施形態によるユーザインタフェー
スを組み込んだ機械の概略図。
スを組み込んだ機械の概略図。
【図2】図1の実施形態の自然言語発生器及びデータベ
ースを更に詳細に示す概略図。
ースを更に詳細に示す概略図。
【図3a】図1の自然言語出力発生器の別の実施形態を
更に詳細に示す図。
更に詳細に示す図。
【図3b】図1の自然言語出力発生器の別の実施形態を
更に詳細に示す図。
更に詳細に示す図。
【図4】本発明の一実施形態によるユーザインタフェー
スの動作を示す流れ図。
スの動作を示す流れ図。
フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/00 G10L 3/00 571H (72)発明者 ロバート ジョン ノーブル イギリス国 ジーユー2 5ワイジェイ サリー, ギルドフォード, サリー リ サーチ パーク, オッカム ロード, オッカム コート 1 キヤノン リサー チ センター ヨーロッパ リミテッド 内
Claims (29)
- 【請求項1】 複数の可能な機械状態の1つに到達する
ために、1つの入力モードとして少なくとも自然言語を
使用して機械に入力可能であるいくつかのユーザ命令を
受信することができる機械と共に使用するためのユーザ
インタフェース装置において、 前記機械の現在状態を獲得する状態手段と、 獲得された前記機械の現在状態に応答して、前記機械の
現在状態を実現するために前記機械に入力できる自然言
語命令をユーザに報知するための情報を生成する生成手
段と、 生成された情報をユーザへ出力する出力手段とを備える
ことを特徴とするユーザインタフェース装置。 - 【請求項2】 前記機械のユーザからの前記情報を求め
る要求を受信する手段を含み、前記生成手段は受信され
た要求に応答して、前記情報を生成することを特徴とす
る請求項1に記載のユーザインタフェース装置。 - 【請求項3】 前記機械の現在状態に到達するために自
然言語命令を入力したユーザからの、現在状態に到達す
るための適切な自然言語命令を求める要求を受信する手
段を含み、前記生成手段は受信された要求に応答して、
要求された命令として前記情報を生成することを特徴と
する請求項1に記載のユーザインタフェース装置。 - 【請求項4】 前記状態手段は、機械の現在状態を定義
し、それぞれがいくつかのとりうる値を有している複数
の属性を含むデータ構造を維持することを特徴とする請
求項1、2又は3に記載のユーザインタフェース装置。 - 【請求項5】 各属性はそれに関連する少なくとも1つ
の自然言語フラグメントを有し、且つ前記生成手段は、
前記機械の現在状態について前記属性の前記自然言語フ
ラグメントから1つの自然言語命令を構築することによ
り前記命令を生成することを特徴とする請求項4に記載
のユーザインタフェース装置。 - 【請求項6】 前記生成手段は、自然言語規則に従って
前記自然言語命令を構築することを特徴とする請求項5
に記載のユーザインタフェース装置。 - 【請求項7】 前記生成手段は順序規則に従って前記自
然言語フラグメントの順序を規定することを特徴とする
請求項5又は6に記載のユーザインタフェース装置。 - 【請求項8】 前記生成手段は、以前のユーザ命令、好
適な同義語、ユーザの好み及び自然言語入力認識問題の
うち少なくとも1つに従って、自然言語命令中の要素を
他の要素と置き換えることを特徴とする請求項5乃至7
のいずれか1項に記載のユーザインタフェース装置。 - 【請求項9】 前記生成手段は、自然言語接頭辞及び接
尾辞の少なくとも一方として自然言語要素を前記自然言
語命令に追加することを特徴とする請求項5乃至8のい
ずれか1項に記載のユーザインタフェース装置。 - 【請求項10】 前記生成手段は前記情報をテキストと
して生成することを特徴とする請求項1乃至9のいずれ
か1項に記載のユーザインタフェース装置。 - 【請求項11】 前記出力手段は前記テキストを表示す
ることを特徴とする請求項10に記載のユーザインタフ
ェース装置。 - 【請求項12】 前記出力手段は、前記テキストから音
声を合成する音声合成手段と、前記音声を可聴出力する
音声出力手段とを含むことを特徴とする請求項10に記
載のユーザインタフェース装置。 - 【請求項13】 前記生成手段は前記情報を音声データ
として生成することを特徴とする請求項1乃至12のい
ずれか1項に記載のユーザインタフェース装置。 - 【請求項14】 請求項1乃至13のいずれか1項に記
載のユーザインタフェース装置と、複数の可能な機械状
態の1つの到達するためにいくつかのユーザ命令を受信
することができる機械とを備える処理装置において、 前記機械は、1つの入力モードとして少なくとも自然言
語を使用して前記ユーザ命令を前記機械に入力するため
の命令入力手段を含むことを特徴とする処理装置。 - 【請求項15】 複数の可能な機械状態の1つに到達す
るために、1つの入力モードとして少なくとも自然言語
を使用して機械に入力可能であるいくつかのユーザ命令
を受信することができる機械と共に使用するためのユー
ザインタフェース方法において、 前記機械の現在状態を獲得する過程と、 前記機械の現在状態を実現するために前記機械に入力で
きる自然言語命令をユーザに報知するための情報を生成
する過程と、 生成された情報をユーザへ出力する過程とを備えること
を特徴とするユーザインタフェース方法。 - 【請求項16】 前記機械のユーザからの前記情報を求
める要求を受信する過程を含み、情報は前記要求に応答
して生成されることを特徴とする請求項15に記載のユ
ーザインタフェース方法。 - 【請求項17】 前記機械の現在状態に到達するために
自然言語命令を入力したユーザからの、現在状態に到達
するための適切な自然言語命令を求める要求を受信する
過程を含み、前記情報は前記要求に応答して要求された
命令として生成されることを特徴とする請求項15に記
載のユーザインタフェース方法。 - 【請求項18】 前記機械の現在状態は、機械の現在状
態を定義し、それぞれがいくつかのとりうる値を有して
いる複数の属性を含むデータ構造として獲得されること
を特徴とする請求項15、16又は17に記載のユーザ
インタフェース方法。 - 【請求項19】 各属性はそれに関連する少なくとも1
つの自然言語フラグメントを有し、且つ前記情報は、前
記機械の現在状態について前記属性の前記自然言語フラ
グメントから1つの自然言語命令を構築することにより
生成されることを特徴とする請求項18に記載のユーザ
インタフェース方法。 - 【請求項20】 前記自然言語命令は自然言語規則に従
って構築されることを特徴とする請求項19に記載のユ
ーザインタフェース方法。 - 【請求項21】 前記自然言語フラグメントは前記自然
言語命令において順序規則に従って順序を規定されるこ
とを特徴とする請求項19又は20に記載のユーザイン
タフェース方法。 - 【請求項22】 以前のユーザ命令、好適な同義語、ユ
ーザの好み及び自然言語入力認識問題のうち少なくとも
1つに従って、自然言語命令中の要素を他の要素と置き
換える過程を含むことを特徴とする請求項19乃至21
のいずれか1項に記載のユーザインタフェース方法。 - 【請求項23】 自然言語接頭辞及び接尾辞の少なくと
も一方として自然言語要素を前記自然命令に追加する過
程を含むことを特徴とする請求項19乃至22のいずれ
か1項に記載のユーザインタフェース方法。 - 【請求項24】 前記情報はテキストとして生成される
ことを特徴とする請求項15乃至23のいずれか1項に
記載のユーザインタフェース方法。 - 【請求項25】 前記テキストはユーザに対し出力され
るように表示されることを特徴とする請求項24に記載
のユーザインタフェース方法。 - 【請求項26】 前記テキストから音声データを合成す
る過程を含み、前記音声データはユーザに対し可聴音声
出力を生成するために使用されることを特徴とする請求
項23に記載のユーザインタフェース方法。 - 【請求項27】 前記情報は音声データとして生成され
ることを特徴とする請求項15乃至26のいずれか1項
に記載のユーザインタフェース方法。 - 【請求項28】 請求項15乃至27のいずれか1項に
記載の方法を実現するためにプロセッサを制御するため
のプログラムコード。 - 【請求項29】 請求項28に記載のプログラムコード
を搬送するキャリア媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
GB0007016.9 | 2000-03-22 | ||
GB0007016A GB2366009B (en) | 2000-03-22 | 2000-03-22 | Natural language machine interface |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2001356901A true JP2001356901A (ja) | 2001-12-26 |
Family
ID=9888241
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2001078833A Withdrawn JP2001356901A (ja) | 2000-03-22 | 2001-03-19 | 自然言語装置のインターフェース |
Country Status (3)
Country | Link |
---|---|
US (1) | US7062428B2 (ja) |
JP (1) | JP2001356901A (ja) |
GB (1) | GB2366009B (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082725A1 (ja) * | 2017-10-26 | 2019-05-02 | キヤノン株式会社 | 周辺機器を設定等するシステム、制御方法、制御プログラム |
Families Citing this family (184)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU6630800A (en) | 1999-08-13 | 2001-03-13 | Pixo, Inc. | Methods and apparatuses for display and traversing of links in page character array |
US9076448B2 (en) * | 1999-11-12 | 2015-07-07 | Nuance Communications, Inc. | Distributed real time speech recognition system |
US7392185B2 (en) * | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
US7725307B2 (en) * | 1999-11-12 | 2010-05-25 | Phoenix Solutions, Inc. | Query engine for processing voice based queries including semantic decoding |
US7050977B1 (en) | 1999-11-12 | 2006-05-23 | Phoenix Solutions, Inc. | Speech-enabled server for internet website and method |
US8645137B2 (en) | 2000-03-16 | 2014-02-04 | Apple Inc. | Fast, language-independent method for user authentication by voice |
ITFI20010199A1 (it) | 2001-10-22 | 2003-04-22 | Riccardo Vieri | Sistema e metodo per trasformare in voce comunicazioni testuali ed inviarle con una connessione internet a qualsiasi apparato telefonico |
JP3500383B1 (ja) * | 2002-09-13 | 2004-02-23 | コナミ株式会社 | ゲーム装置、ゲーム装置の制御方法及びプログラム |
US7669134B1 (en) | 2003-05-02 | 2010-02-23 | Apple Inc. | Method and apparatus for displaying information during an instant messaging session |
US8677377B2 (en) | 2005-09-08 | 2014-03-18 | Apple Inc. | Method and apparatus for building an intelligent automated assistant |
US7633076B2 (en) | 2005-09-30 | 2009-12-15 | Apple Inc. | Automated response to and sensing of user activity in portable devices |
US9318108B2 (en) | 2010-01-18 | 2016-04-19 | Apple Inc. | Intelligent automated assistant |
US8977255B2 (en) | 2007-04-03 | 2015-03-10 | Apple Inc. | Method and system for operating a multi-function portable electronic device using voice-activation |
ITFI20070177A1 (it) | 2007-07-26 | 2009-01-27 | Riccardo Vieri | Sistema per la creazione e impostazione di una campagna pubblicitaria derivante dall'inserimento di messaggi pubblicitari all'interno di uno scambio di messaggi e metodo per il suo funzionamento. |
US9053089B2 (en) | 2007-10-02 | 2015-06-09 | Apple Inc. | Part-of-speech tagging using latent analogy |
US8165886B1 (en) | 2007-10-04 | 2012-04-24 | Great Northern Research LLC | Speech interface system and method for control and interaction with applications on a computing system |
US8595642B1 (en) | 2007-10-04 | 2013-11-26 | Great Northern Research, LLC | Multiple shell multi faceted graphical user interface |
US8364694B2 (en) | 2007-10-26 | 2013-01-29 | Apple Inc. | Search assistant for digital media assets |
US8620662B2 (en) | 2007-11-20 | 2013-12-31 | Apple Inc. | Context-aware unit selection |
US10002189B2 (en) | 2007-12-20 | 2018-06-19 | Apple Inc. | Method and apparatus for searching using an active ontology |
US9330720B2 (en) | 2008-01-03 | 2016-05-03 | Apple Inc. | Methods and apparatus for altering audio output signals |
US8327272B2 (en) | 2008-01-06 | 2012-12-04 | Apple Inc. | Portable multifunction device, method, and graphical user interface for viewing and managing electronic calendars |
US8065143B2 (en) | 2008-02-22 | 2011-11-22 | Apple Inc. | Providing text input using speech data and non-speech data |
US8289283B2 (en) | 2008-03-04 | 2012-10-16 | Apple Inc. | Language input interface on a device |
US8996376B2 (en) | 2008-04-05 | 2015-03-31 | Apple Inc. | Intelligent text-to-speech conversion |
US8447613B2 (en) * | 2008-04-28 | 2013-05-21 | Irobot Corporation | Robot and server with optimized message decoding |
US10496753B2 (en) | 2010-01-18 | 2019-12-03 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US8464150B2 (en) | 2008-06-07 | 2013-06-11 | Apple Inc. | Automatic language identification for dynamic text processing |
US20100030549A1 (en) | 2008-07-31 | 2010-02-04 | Lee Michael M | Mobile device having human language translation capability with positional feedback |
US8768702B2 (en) | 2008-09-05 | 2014-07-01 | Apple Inc. | Multi-tiered voice feedback in an electronic device |
US8898568B2 (en) | 2008-09-09 | 2014-11-25 | Apple Inc. | Audio user interface |
US8583418B2 (en) | 2008-09-29 | 2013-11-12 | Apple Inc. | Systems and methods of detecting language and natural language strings for text to speech synthesis |
US8355919B2 (en) | 2008-09-29 | 2013-01-15 | Apple Inc. | Systems and methods for text normalization for text to speech synthesis |
US8712776B2 (en) | 2008-09-29 | 2014-04-29 | Apple Inc. | Systems and methods for selective text to speech synthesis |
US8352272B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for text to speech synthesis |
US8352268B2 (en) | 2008-09-29 | 2013-01-08 | Apple Inc. | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis |
US8396714B2 (en) | 2008-09-29 | 2013-03-12 | Apple Inc. | Systems and methods for concatenation of words in text to speech synthesis |
US8676904B2 (en) | 2008-10-02 | 2014-03-18 | Apple Inc. | Electronic devices with voice command and contextual data processing capabilities |
WO2010067118A1 (en) | 2008-12-11 | 2010-06-17 | Novauris Technologies Limited | Speech recognition involving a mobile device |
US8862252B2 (en) | 2009-01-30 | 2014-10-14 | Apple Inc. | Audio user interface for displayless electronic device |
US8380507B2 (en) | 2009-03-09 | 2013-02-19 | Apple Inc. | Systems and methods for determining the language to use for speech generated by a text to speech engine |
US10241752B2 (en) | 2011-09-30 | 2019-03-26 | Apple Inc. | Interface for a virtual digital assistant |
US20120309363A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Triggering notifications associated with tasks items that represent tasks to perform |
US10540976B2 (en) | 2009-06-05 | 2020-01-21 | Apple Inc. | Contextual voice commands |
US9858925B2 (en) | 2009-06-05 | 2018-01-02 | Apple Inc. | Using context information to facilitate processing of commands in a virtual assistant |
US10241644B2 (en) | 2011-06-03 | 2019-03-26 | Apple Inc. | Actionable reminder entries |
US9431006B2 (en) | 2009-07-02 | 2016-08-30 | Apple Inc. | Methods and apparatuses for automatic speech recognition |
US8682649B2 (en) | 2009-11-12 | 2014-03-25 | Apple Inc. | Sentiment prediction from textual data |
US8600743B2 (en) | 2010-01-06 | 2013-12-03 | Apple Inc. | Noise profile determination for voice-related feature |
US8381107B2 (en) | 2010-01-13 | 2013-02-19 | Apple Inc. | Adaptive audio feedback system and method |
US8311838B2 (en) | 2010-01-13 | 2012-11-13 | Apple Inc. | Devices and methods for identifying a prompt corresponding to a voice input in a sequence of prompts |
US10705794B2 (en) | 2010-01-18 | 2020-07-07 | Apple Inc. | Automatically adapting user interfaces for hands-free interaction |
US10679605B2 (en) | 2010-01-18 | 2020-06-09 | Apple Inc. | Hands-free list-reading by intelligent automated assistant |
US10553209B2 (en) | 2010-01-18 | 2020-02-04 | Apple Inc. | Systems and methods for hands-free notification summaries |
US10276170B2 (en) | 2010-01-18 | 2019-04-30 | Apple Inc. | Intelligent automated assistant |
DE202011111062U1 (de) | 2010-01-25 | 2019-02-19 | Newvaluexchange Ltd. | Vorrichtung und System für eine Digitalkonversationsmanagementplattform |
US8682667B2 (en) | 2010-02-25 | 2014-03-25 | Apple Inc. | User profiling for selecting user specific voice input processing information |
US8639516B2 (en) | 2010-06-04 | 2014-01-28 | Apple Inc. | User-specific noise suppression for voice quality improvements |
US8713021B2 (en) | 2010-07-07 | 2014-04-29 | Apple Inc. | Unsupervised document clustering using latent semantic density analysis |
US9104670B2 (en) | 2010-07-21 | 2015-08-11 | Apple Inc. | Customized search or acquisition of digital media assets |
US8719006B2 (en) | 2010-08-27 | 2014-05-06 | Apple Inc. | Combined statistical and rule-based part-of-speech tagging for text-to-speech synthesis |
US8719014B2 (en) | 2010-09-27 | 2014-05-06 | Apple Inc. | Electronic device with text error correction based on voice recognition data |
US10762293B2 (en) | 2010-12-22 | 2020-09-01 | Apple Inc. | Using parts-of-speech tagging and named entity recognition for spelling correction |
US10515147B2 (en) | 2010-12-22 | 2019-12-24 | Apple Inc. | Using statistical language models for contextual lookup |
US8781836B2 (en) | 2011-02-22 | 2014-07-15 | Apple Inc. | Hearing assistance system for providing consistent human speech |
US9262612B2 (en) | 2011-03-21 | 2016-02-16 | Apple Inc. | Device access using voice authentication |
US20120310642A1 (en) | 2011-06-03 | 2012-12-06 | Apple Inc. | Automatically creating a mapping between text data and audio data |
US10057736B2 (en) | 2011-06-03 | 2018-08-21 | Apple Inc. | Active transport based notifications |
US8812294B2 (en) | 2011-06-21 | 2014-08-19 | Apple Inc. | Translating phrases from one language into another using an order-based set of declarative rules |
US8706472B2 (en) | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
US8994660B2 (en) | 2011-08-29 | 2015-03-31 | Apple Inc. | Text correction processing |
US8762156B2 (en) | 2011-09-28 | 2014-06-24 | Apple Inc. | Speech recognition repair using contextual information |
US10134385B2 (en) | 2012-03-02 | 2018-11-20 | Apple Inc. | Systems and methods for name pronunciation |
US9483461B2 (en) | 2012-03-06 | 2016-11-01 | Apple Inc. | Handling speech synthesis of content for multiple languages |
US9280610B2 (en) | 2012-05-14 | 2016-03-08 | Apple Inc. | Crowd sourcing information to fulfill user requests |
US10417037B2 (en) | 2012-05-15 | 2019-09-17 | Apple Inc. | Systems and methods for integrating third party services with a digital assistant |
US8775442B2 (en) | 2012-05-15 | 2014-07-08 | Apple Inc. | Semantic search using a single-source semantic model |
US20130311271A1 (en) * | 2012-05-17 | 2013-11-21 | Microsoft Corporation | Structured relevant keyword and intent suggestion with bid and other auction parameters based on advertiser specific context |
US9721563B2 (en) | 2012-06-08 | 2017-08-01 | Apple Inc. | Name recognition system |
US10019994B2 (en) | 2012-06-08 | 2018-07-10 | Apple Inc. | Systems and methods for recognizing textual identifiers within a plurality of words |
US9495129B2 (en) | 2012-06-29 | 2016-11-15 | Apple Inc. | Device, method, and user interface for voice-activated navigation and browsing of a document |
US9576574B2 (en) | 2012-09-10 | 2017-02-21 | Apple Inc. | Context-sensitive handling of interruptions by intelligent digital assistant |
US9547647B2 (en) | 2012-09-19 | 2017-01-17 | Apple Inc. | Voice-based media searching |
US8935167B2 (en) | 2012-09-25 | 2015-01-13 | Apple Inc. | Exemplar-based latent perceptual modeling for automatic speech recognition |
CN113470640B (zh) | 2013-02-07 | 2022-04-26 | 苹果公司 | 数字助理的语音触发器 |
US9368114B2 (en) | 2013-03-14 | 2016-06-14 | Apple Inc. | Context-sensitive handling of interruptions |
US9977779B2 (en) | 2013-03-14 | 2018-05-22 | Apple Inc. | Automatic supplementation of word correction dictionaries |
US10652394B2 (en) | 2013-03-14 | 2020-05-12 | Apple Inc. | System and method for processing voicemail |
US10572476B2 (en) | 2013-03-14 | 2020-02-25 | Apple Inc. | Refining a search based on schedule items |
US10642574B2 (en) | 2013-03-14 | 2020-05-05 | Apple Inc. | Device, method, and graphical user interface for outputting captions |
US9733821B2 (en) | 2013-03-14 | 2017-08-15 | Apple Inc. | Voice control to diagnose inadvertent activation of accessibility features |
WO2014144579A1 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | System and method for updating an adaptive speech recognition model |
KR102014665B1 (ko) | 2013-03-15 | 2019-08-26 | 애플 인크. | 지능형 디지털 어시스턴트에 의한 사용자 트레이닝 |
AU2014251347B2 (en) | 2013-03-15 | 2017-05-18 | Apple Inc. | Context-sensitive handling of interruptions |
WO2014144949A2 (en) | 2013-03-15 | 2014-09-18 | Apple Inc. | Training an at least partial voice command system |
US10748529B1 (en) | 2013-03-15 | 2020-08-18 | Apple Inc. | Voice activated device for use with a voice-based digital assistant |
WO2014197334A2 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for user-specified pronunciation of words for speech synthesis and recognition |
WO2014197336A1 (en) | 2013-06-07 | 2014-12-11 | Apple Inc. | System and method for detecting errors in interactions with a voice-based digital assistant |
US9582608B2 (en) | 2013-06-07 | 2017-02-28 | Apple Inc. | Unified ranking with entropy-weighted information for phrase-based semantic auto-completion |
WO2014197335A1 (en) | 2013-06-08 | 2014-12-11 | Apple Inc. | Interpreting and acting upon commands that involve sharing information with remote devices |
US10176167B2 (en) | 2013-06-09 | 2019-01-08 | Apple Inc. | System and method for inferring user intent from speech inputs |
WO2014200728A1 (en) | 2013-06-09 | 2014-12-18 | Apple Inc. | Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant |
AU2014278595B2 (en) | 2013-06-13 | 2017-04-06 | Apple Inc. | System and method for emergency calls initiated by voice command |
WO2015020942A1 (en) | 2013-08-06 | 2015-02-12 | Apple Inc. | Auto-activating smart responses based on activities from remote devices |
US10296160B2 (en) | 2013-12-06 | 2019-05-21 | Apple Inc. | Method for extracting salient dialog usage from live data |
RU2014111971A (ru) * | 2014-03-28 | 2015-10-10 | Юрий Михайлович Буров | Способ и система голосового интерфейса |
US9620105B2 (en) | 2014-05-15 | 2017-04-11 | Apple Inc. | Analyzing audio input for efficient speech and music recognition |
US10592095B2 (en) | 2014-05-23 | 2020-03-17 | Apple Inc. | Instantaneous speaking of content on touch devices |
US9502031B2 (en) | 2014-05-27 | 2016-11-22 | Apple Inc. | Method for supporting dynamic grammars in WFST-based ASR |
US9760559B2 (en) | 2014-05-30 | 2017-09-12 | Apple Inc. | Predictive text input |
EP3480811A1 (en) | 2014-05-30 | 2019-05-08 | Apple Inc. | Multi-command single utterance input method |
US10289433B2 (en) | 2014-05-30 | 2019-05-14 | Apple Inc. | Domain specific language for encoding assistant dialog |
US9715875B2 (en) | 2014-05-30 | 2017-07-25 | Apple Inc. | Reducing the need for manual start/end-pointing and trigger phrases |
US9734193B2 (en) | 2014-05-30 | 2017-08-15 | Apple Inc. | Determining domain salience ranking from ambiguous words in natural speech |
US9785630B2 (en) | 2014-05-30 | 2017-10-10 | Apple Inc. | Text prediction using combined word N-gram and unigram language models |
US9430463B2 (en) | 2014-05-30 | 2016-08-30 | Apple Inc. | Exemplar-based natural language processing |
US10170123B2 (en) | 2014-05-30 | 2019-01-01 | Apple Inc. | Intelligent assistant for home automation |
US10078631B2 (en) | 2014-05-30 | 2018-09-18 | Apple Inc. | Entropy-guided text prediction using combined word and character n-gram language models |
US9633004B2 (en) | 2014-05-30 | 2017-04-25 | Apple Inc. | Better resolution when referencing to concepts |
US9842101B2 (en) | 2014-05-30 | 2017-12-12 | Apple Inc. | Predictive conversion of language input |
US10659851B2 (en) | 2014-06-30 | 2020-05-19 | Apple Inc. | Real-time digital assistant knowledge updates |
US9338493B2 (en) | 2014-06-30 | 2016-05-10 | Apple Inc. | Intelligent automated assistant for TV user interactions |
US10446141B2 (en) | 2014-08-28 | 2019-10-15 | Apple Inc. | Automatic speech recognition based on user feedback |
US9818400B2 (en) | 2014-09-11 | 2017-11-14 | Apple Inc. | Method and apparatus for discovering trending terms in speech requests |
US10789041B2 (en) | 2014-09-12 | 2020-09-29 | Apple Inc. | Dynamic thresholds for always listening speech trigger |
US9668121B2 (en) | 2014-09-30 | 2017-05-30 | Apple Inc. | Social reminders |
US10127911B2 (en) | 2014-09-30 | 2018-11-13 | Apple Inc. | Speaker identification and unsupervised speaker adaptation techniques |
US9886432B2 (en) | 2014-09-30 | 2018-02-06 | Apple Inc. | Parsimonious handling of word inflection via categorical stem + suffix N-gram language models |
US10074360B2 (en) | 2014-09-30 | 2018-09-11 | Apple Inc. | Providing an indication of the suitability of speech recognition |
US9646609B2 (en) | 2014-09-30 | 2017-05-09 | Apple Inc. | Caching apparatus for serving phonetic pronunciations |
US10552013B2 (en) | 2014-12-02 | 2020-02-04 | Apple Inc. | Data detection |
US9711141B2 (en) | 2014-12-09 | 2017-07-18 | Apple Inc. | Disambiguating heteronyms in speech synthesis |
US9865280B2 (en) | 2015-03-06 | 2018-01-09 | Apple Inc. | Structured dictation using intelligent automated assistants |
US9886953B2 (en) | 2015-03-08 | 2018-02-06 | Apple Inc. | Virtual assistant activation |
US10567477B2 (en) | 2015-03-08 | 2020-02-18 | Apple Inc. | Virtual assistant continuity |
US9721566B2 (en) | 2015-03-08 | 2017-08-01 | Apple Inc. | Competing devices responding to voice triggers |
US9899019B2 (en) | 2015-03-18 | 2018-02-20 | Apple Inc. | Systems and methods for structured stem and suffix language models |
WO2016156995A1 (en) * | 2015-03-30 | 2016-10-06 | Yokogawa Electric Corporation | Methods, systems and computer program products for machine based processing of natural language input |
US9842105B2 (en) | 2015-04-16 | 2017-12-12 | Apple Inc. | Parsimonious continuous-space phrase representations for natural language processing |
US10083688B2 (en) | 2015-05-27 | 2018-09-25 | Apple Inc. | Device voice control for selecting a displayed affordance |
US10127220B2 (en) | 2015-06-04 | 2018-11-13 | Apple Inc. | Language identification from short strings |
US9578173B2 (en) | 2015-06-05 | 2017-02-21 | Apple Inc. | Virtual assistant aided communication with 3rd party service in a communication session |
US10101822B2 (en) | 2015-06-05 | 2018-10-16 | Apple Inc. | Language input correction |
US10186254B2 (en) | 2015-06-07 | 2019-01-22 | Apple Inc. | Context-based endpoint detection |
US11025565B2 (en) | 2015-06-07 | 2021-06-01 | Apple Inc. | Personalized prediction of responses for instant messaging |
US10255907B2 (en) | 2015-06-07 | 2019-04-09 | Apple Inc. | Automatic accent detection using acoustic models |
US10671428B2 (en) | 2015-09-08 | 2020-06-02 | Apple Inc. | Distributed personal assistant |
US10747498B2 (en) | 2015-09-08 | 2020-08-18 | Apple Inc. | Zero latency digital assistant |
US9697820B2 (en) | 2015-09-24 | 2017-07-04 | Apple Inc. | Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks |
US11010550B2 (en) | 2015-09-29 | 2021-05-18 | Apple Inc. | Unified language modeling framework for word prediction, auto-completion and auto-correction |
US10366158B2 (en) | 2015-09-29 | 2019-07-30 | Apple Inc. | Efficient word encoding for recurrent neural network language models |
US11587559B2 (en) | 2015-09-30 | 2023-02-21 | Apple Inc. | Intelligent device identification |
US9678954B1 (en) * | 2015-10-29 | 2017-06-13 | Google Inc. | Techniques for providing lexicon data for translation of a single word speech input |
US10691473B2 (en) | 2015-11-06 | 2020-06-23 | Apple Inc. | Intelligent automated assistant in a messaging environment |
US10049668B2 (en) | 2015-12-02 | 2018-08-14 | Apple Inc. | Applying neural network language models to weighted finite state transducers for automatic speech recognition |
US10223066B2 (en) | 2015-12-23 | 2019-03-05 | Apple Inc. | Proactive assistance based on dialog communication between devices |
US10446143B2 (en) | 2016-03-14 | 2019-10-15 | Apple Inc. | Identification of voice inputs providing credentials |
US9934775B2 (en) | 2016-05-26 | 2018-04-03 | Apple Inc. | Unit-selection text-to-speech synthesis based on predicted concatenation parameters |
US9972304B2 (en) | 2016-06-03 | 2018-05-15 | Apple Inc. | Privacy preserving distributed evaluation framework for embedded personalized systems |
US10249300B2 (en) | 2016-06-06 | 2019-04-02 | Apple Inc. | Intelligent list reading |
US10049663B2 (en) | 2016-06-08 | 2018-08-14 | Apple, Inc. | Intelligent automated assistant for media exploration |
DK179309B1 (en) | 2016-06-09 | 2018-04-23 | Apple Inc | Intelligent automated assistant in a home environment |
US10067938B2 (en) | 2016-06-10 | 2018-09-04 | Apple Inc. | Multilingual word prediction |
US10192552B2 (en) | 2016-06-10 | 2019-01-29 | Apple Inc. | Digital assistant providing whispered speech |
US10509862B2 (en) | 2016-06-10 | 2019-12-17 | Apple Inc. | Dynamic phrase expansion of language input |
US10490187B2 (en) | 2016-06-10 | 2019-11-26 | Apple Inc. | Digital assistant providing automated status report |
US10586535B2 (en) | 2016-06-10 | 2020-03-10 | Apple Inc. | Intelligent digital assistant in a multi-tasking environment |
DK179415B1 (en) | 2016-06-11 | 2018-06-14 | Apple Inc | Intelligent device arbitration and control |
DK179343B1 (en) | 2016-06-11 | 2018-05-14 | Apple Inc | Intelligent task discovery |
DK179049B1 (en) | 2016-06-11 | 2017-09-18 | Apple Inc | Data driven natural language event detection and classification |
DK201670540A1 (en) | 2016-06-11 | 2018-01-08 | Apple Inc | Application integration with a digital assistant |
US10140973B1 (en) * | 2016-09-15 | 2018-11-27 | Amazon Technologies, Inc. | Text-to-speech processing using previously speech processed data |
US10043516B2 (en) | 2016-09-23 | 2018-08-07 | Apple Inc. | Intelligent automated assistant |
US10593346B2 (en) | 2016-12-22 | 2020-03-17 | Apple Inc. | Rank-reduced token representation for automatic speech recognition |
DK201770439A1 (en) | 2017-05-11 | 2018-12-13 | Apple Inc. | Offline personal assistant |
DK179496B1 (en) | 2017-05-12 | 2019-01-15 | Apple Inc. | USER-SPECIFIC Acoustic Models |
DK179745B1 (en) | 2017-05-12 | 2019-05-01 | Apple Inc. | SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT |
DK201770432A1 (en) | 2017-05-15 | 2018-12-21 | Apple Inc. | Hierarchical belief states for digital assistants |
DK201770431A1 (en) | 2017-05-15 | 2018-12-20 | Apple Inc. | Optimizing dialogue policy decisions for digital assistants using implicit feedback |
DK179560B1 (en) | 2017-05-16 | 2019-02-18 | Apple Inc. | FAR-FIELD EXTENSION FOR DIGITAL ASSISTANT SERVICES |
US10460748B2 (en) | 2017-10-04 | 2019-10-29 | The Toronto-Dominion Bank | Conversational interface determining lexical personality score for response generation with synonym replacement |
US10339931B2 (en) | 2017-10-04 | 2019-07-02 | The Toronto-Dominion Bank | Persona-based conversational interface personalization using social network preferences |
US10565365B1 (en) * | 2019-02-21 | 2020-02-18 | Capital One Services, Llc | Systems and methods for data access control using narrative authentication questions |
US11392853B2 (en) * | 2019-02-27 | 2022-07-19 | Capital One Services, Llc | Methods and arrangements to adjust communications |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4736296A (en) * | 1983-12-26 | 1988-04-05 | Hitachi, Ltd. | Method and apparatus of intelligent guidance in natural language |
US6400996B1 (en) * | 1999-02-01 | 2002-06-04 | Steven M. Hoffberg | Adaptive pattern recognition based control system and method |
US5369575A (en) * | 1992-05-15 | 1994-11-29 | International Business Machines Corporation | Constrained natural language interface for a computer system |
US5642519A (en) * | 1994-04-29 | 1997-06-24 | Sun Microsystems, Inc. | Speech interpreter with a unified grammer compiler |
US5884266A (en) | 1997-04-02 | 1999-03-16 | Motorola, Inc. | Audio interface for document based information resource navigation and method therefor |
US6246981B1 (en) * | 1998-11-25 | 2001-06-12 | International Business Machines Corporation | Natural language task-oriented dialog manager and method |
US6253184B1 (en) * | 1998-12-14 | 2001-06-26 | Jon Ruppert | Interactive voice controlled copier apparatus |
GB2344917B (en) * | 1998-12-16 | 2003-04-02 | Ibm | Speech command input recognition system |
US6446035B1 (en) * | 1999-05-05 | 2002-09-03 | Xerox Corporation | Finding groups of people based on linguistically analyzable content of resources accessed |
US6415257B1 (en) * | 1999-08-26 | 2002-07-02 | Matsushita Electric Industrial Co., Ltd. | System for identifying and adapting a TV-user profile by means of speech technology |
US6311150B1 (en) * | 1999-09-03 | 2001-10-30 | International Business Machines Corporation | Method and system for hierarchical natural language understanding |
-
2000
- 2000-03-22 GB GB0007016A patent/GB2366009B/en not_active Expired - Fee Related
-
2001
- 2001-03-13 US US09/803,974 patent/US7062428B2/en not_active Expired - Fee Related
- 2001-03-19 JP JP2001078833A patent/JP2001356901A/ja not_active Withdrawn
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019082725A1 (ja) * | 2017-10-26 | 2019-05-02 | キヤノン株式会社 | 周辺機器を設定等するシステム、制御方法、制御プログラム |
JP2019079417A (ja) * | 2017-10-26 | 2019-05-23 | キヤノン株式会社 | 周辺機器を設定等するシステム、制御方法、制御プログラム |
CN111263929A (zh) * | 2017-10-26 | 2020-06-09 | 佳能株式会社 | 外围装置的设置等的系统、控制方法和控制程序 |
US11068213B2 (en) | 2017-10-26 | 2021-07-20 | Canon Kabushiki Kaisha | System of setting peripheral device and control method |
Also Published As
Publication number | Publication date |
---|---|
GB0007016D0 (en) | 2000-05-10 |
US20010053969A1 (en) | 2001-12-20 |
GB2366009B (en) | 2004-07-21 |
US7062428B2 (en) | 2006-06-13 |
GB2366009A (en) | 2002-02-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2001356901A (ja) | 自然言語装置のインターフェース | |
US20030036909A1 (en) | Methods and devices for operating the multi-function peripherals | |
JP4855535B2 (ja) | 学習用データベースの構築方法およびこれを用いた学習機能を有する映像機器並びにその学習機能制御方法 | |
US7318198B2 (en) | Apparatus operation device for operating an apparatus without using eyesight | |
TW386205B (en) | Text input device and method | |
JPS59144978A (ja) | ポ−タブル翻訳装置 | |
JP4694758B2 (ja) | 機器操作装置、プログラムおよび記録媒体並びに画像形成装置 | |
JP2005031882A (ja) | 情報処理方法及び情報処理装置 | |
JP2009140467A (ja) | 編集可能な個人辞書を提供して活用する方法及びシステム | |
TWI305314B (en) | Zhu yin symbol and tone mark input method, and electronic device | |
JP2003140880A (ja) | 機器操作装置、プログラムおよび記録媒体並びに画像形成装置 | |
KR101015149B1 (ko) | 말하는 전자책 | |
JP2007299159A (ja) | コンテンツ検索装置 | |
JP3648577B2 (ja) | 画像処理装置 | |
JP2007010754A (ja) | ユーザインターフェース装置及び方法 | |
JP4010864B2 (ja) | 画像形成装置、プログラムおよび記録媒体 | |
JP2006333365A (ja) | 情報処理装置およびプログラム | |
JP4261869B2 (ja) | 情報処理装置及び情報処理装置における機能設定方法並びにプログラム | |
JP4520375B2 (ja) | 音声操作支援装置、電子機器、画像形成装置およびプログラム | |
JP2004072274A (ja) | 音声処理システム及びその制御方法 | |
JP2007013905A (ja) | 情報処理装置およびプログラム | |
JP2006017932A (ja) | 学習装置、携帯電話機、学習装置の制御方法、学習装置の制御プログラムおよび記録媒体 | |
JP4562547B2 (ja) | 画像形成装置、プログラムおよび記録媒体 | |
JPH08212328A (ja) | データ管理装置およびデータ管理方法 | |
JP4070545B2 (ja) | 機器操作装置、プログラムおよび記録媒体並びに画像形成装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20080319 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20091208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20091222 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20100218 |