JPH0883158A - 情報処理方法及び装置 - Google Patents
情報処理方法及び装置Info
- Publication number
- JPH0883158A JPH0883158A JP6220406A JP22040694A JPH0883158A JP H0883158 A JPH0883158 A JP H0883158A JP 6220406 A JP6220406 A JP 6220406A JP 22040694 A JP22040694 A JP 22040694A JP H0883158 A JPH0883158 A JP H0883158A
- Authority
- JP
- Japan
- Prior art keywords
- input
- information
- voice
- processing
- processing method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- User Interface Of Digital Computer (AREA)
- Digital Computer Display Output (AREA)
- Controls And Circuits For Display Device (AREA)
Abstract
(57)【要約】
【目的】ユーザーが音声や画像などの情報を入力した時
に、適切な処理方法を選択して入力された情報の処理を
行うことにより、一つのアプリケーションでも異なる処
理を行うことを可能とする。 【構成】ステップS100において、ユーザーが情報入
力装置を用いて入力した情報(音声等)を計算機で扱え
る形態で取り込む。次に、ステップS200で、入力装
置600を介して得られるユーザーの視線位置やポイン
ティングデバイスの指示位置などに基づいて対応する処
理方法を決定する。最後に、S300において、先のス
テップS200で決定された処理方法にしたがって、入
力情報を処理する。音声情報の場合、処理方法として
は、音声データを圧縮したり、音声認識の内容に基づい
て対応するコマンドを獲得する等が挙げられる。
に、適切な処理方法を選択して入力された情報の処理を
行うことにより、一つのアプリケーションでも異なる処
理を行うことを可能とする。 【構成】ステップS100において、ユーザーが情報入
力装置を用いて入力した情報(音声等)を計算機で扱え
る形態で取り込む。次に、ステップS200で、入力装
置600を介して得られるユーザーの視線位置やポイン
ティングデバイスの指示位置などに基づいて対応する処
理方法を決定する。最後に、S300において、先のス
テップS200で決定された処理方法にしたがって、入
力情報を処理する。音声情報の場合、処理方法として
は、音声データを圧縮したり、音声認識の内容に基づい
て対応するコマンドを獲得する等が挙げられる。
Description
【0001】
【産業上の利用分野】本発明は、情報処理方法および装
置に関するものである。
置に関するものである。
【0002】
【従来の技術】音声や画像などの情報を入力する時は、
アプリケーションによって処理が定まっており、同種の
情報の入力に対して異なる処理を行う方式および装置は
提案されていない。例えば、アプリケーションに対し
て、音声が入力された場合を考える。音声を入力する際
におけるユーザーの意図は、例えば、 ・音声でアプリケーションに対して命令を出す. ・音声そのものを記録したり、他のユーザーに送ったり
する. ・エディタなどに書き込む文章を音声でアプリケーショ
ンに伝える.などが考えられる。
アプリケーションによって処理が定まっており、同種の
情報の入力に対して異なる処理を行う方式および装置は
提案されていない。例えば、アプリケーションに対し
て、音声が入力された場合を考える。音声を入力する際
におけるユーザーの意図は、例えば、 ・音声でアプリケーションに対して命令を出す. ・音声そのものを記録したり、他のユーザーに送ったり
する. ・エディタなどに書き込む文章を音声でアプリケーショ
ンに伝える.などが考えられる。
【0003】これらユーザーの意思によって行うべき処
理は夫々異なる。例えば、ユーザーが音声にて命令を出
した場合は、これを音声認識し、更に認識内容をコマン
ドとして解釈する必要がある。又、TV電話などでユー
ザーが音声を送信する場合には、音声データを圧縮する
などの処理が行われる。従来の情報処理装置では、一つ
のアプリケーションに対して情報を入力した場合、その
情報に対する処理方法は予め一つの方法に定まってい
た。例えば、TV電話に対して音声が入力された場合の
処理方法は、「音声の送信のため入力データを圧縮す
る」と一つに固定されていた。
理は夫々異なる。例えば、ユーザーが音声にて命令を出
した場合は、これを音声認識し、更に認識内容をコマン
ドとして解釈する必要がある。又、TV電話などでユー
ザーが音声を送信する場合には、音声データを圧縮する
などの処理が行われる。従来の情報処理装置では、一つ
のアプリケーションに対して情報を入力した場合、その
情報に対する処理方法は予め一つの方法に定まってい
た。例えば、TV電話に対して音声が入力された場合の
処理方法は、「音声の送信のため入力データを圧縮す
る」と一つに固定されていた。
【0004】
【発明が解決しようとする課題】例えば入力される情報
が音声であり、これをアプリケーションに入力する場
合、音声情報の活用方法としては、アプリケーションに
対する命令を出す場合と、TV電話等のように音声デー
タを送信する場合等が考えられる。しかしながら、上述
したように、従来のアプリケーションでは予め定められ
た一つの処理(TV電話であれば通話相手への音声の送
信)を行うのみである。
が音声であり、これをアプリケーションに入力する場
合、音声情報の活用方法としては、アプリケーションに
対する命令を出す場合と、TV電話等のように音声デー
タを送信する場合等が考えられる。しかしながら、上述
したように、従来のアプリケーションでは予め定められ
た一つの処理(TV電話であれば通話相手への音声の送
信)を行うのみである。
【0005】本発明は、ユーザーが音声や画像などの情
報を入力した場合に、適切な処理方法を選択してこの入
力された情報の処理を行うことにより、一つのアプリケ
ーションでも入力された情報に対して異なる処理を行う
ことが可能な情報処理方法及び装置を提供することを目
的とする。
報を入力した場合に、適切な処理方法を選択してこの入
力された情報の処理を行うことにより、一つのアプリケ
ーションでも入力された情報に対して異なる処理を行う
ことが可能な情報処理方法及び装置を提供することを目
的とする。
【0006】
【課題を解決するための手段】及び
上記の目的を達成するための本発明による情報処理装置
は以下の構成を備える。即ち、情報を入力する入力手段
と、前記入力手段によって入力された情報に対する処理
方法を選択する選択手段と、前記選択手段で選択された
処理方法でもって前記入力手段で入力された情報を処理
する処理手段とを備える。
は以下の構成を備える。即ち、情報を入力する入力手段
と、前記入力手段によって入力された情報に対する処理
方法を選択する選択手段と、前記選択手段で選択された
処理方法でもって前記入力手段で入力された情報を処理
する処理手段とを備える。
【0007】上記の構成によれば、入力手段で入力され
た情報(例えば音声情報)に対して実行すべき処理を、
選択手段が、当該入力情報に適用可能な複数種類の処理
(例えば、音声情報についていえば、音声データの圧縮
処理や、音声認識に基づく実行コマンドの検出等)のな
かから選択する。処理手段は、選択手段で選択された処
理を用いて当該入力情報を処理する。
た情報(例えば音声情報)に対して実行すべき処理を、
選択手段が、当該入力情報に適用可能な複数種類の処理
(例えば、音声情報についていえば、音声データの圧縮
処理や、音声認識に基づく実行コマンドの検出等)のな
かから選択する。処理手段は、選択手段で選択された処
理を用いて当該入力情報を処理する。
【0008】又、好ましくは、前記選択手段は、ユーザ
ーの動作に基づいて処理方法を選択する。ユーザの動作
として、ユーザが意図する処理と相関の強い類の動作
(例えば視線位置や、ポインティングデバイスの指示位
置)に基づいて処理方法を選択するようにでき、ユーザ
の意図に沿った処理の選択が容易に達成される。
ーの動作に基づいて処理方法を選択する。ユーザの動作
として、ユーザが意図する処理と相関の強い類の動作
(例えば視線位置や、ポインティングデバイスの指示位
置)に基づいて処理方法を選択するようにでき、ユーザ
の意図に沿った処理の選択が容易に達成される。
【0009】又、好ましくは、実行中のアプリケーショ
ンによる表示を行う表示手段を更に備え、前記選択手段
は、前記表示手段による表示上のユーザの視線位置もし
くは、ポインティングデバイスによる指示位置に基づい
て処理方法の選択を行う。
ンによる表示を行う表示手段を更に備え、前記選択手段
は、前記表示手段による表示上のユーザの視線位置もし
くは、ポインティングデバイスによる指示位置に基づい
て処理方法の選択を行う。
【0010】又、上記の目的を達成するための本発明の
他の構成による情報処理装置は、音声情報を入力する入
力手段と、前記入力手段によって入力された音声情報に
ついて音声認識を行う認識手段と、前記入力手段で入力
された音声情報の一部に対する前記認識手段による認識
結果に基づいて処理方法を選択する選択手段と、前記選
択手段で選択された処理方法でもって前記入力手段で入
力された音声情報を処理する処理手段とを備える。
他の構成による情報処理装置は、音声情報を入力する入
力手段と、前記入力手段によって入力された音声情報に
ついて音声認識を行う認識手段と、前記入力手段で入力
された音声情報の一部に対する前記認識手段による認識
結果に基づいて処理方法を選択する選択手段と、前記選
択手段で選択された処理方法でもって前記入力手段で入
力された音声情報を処理する処理手段とを備える。
【0011】上記の構成によれば、音声情報の処理内容
を、音声情報を用いて決定することが可能となる。即
ち、処理内容の設定を、音声により明確に、確実に設定
できる。
を、音声情報を用いて決定することが可能となる。即
ち、処理内容の設定を、音声により明確に、確実に設定
できる。
【0012】又、上記の目的を他精する本発明の他の構
成は、処理対象となる情報を入力する第1入力手段と、
音声情報を入力する第2入力手段と、前記第2入力手段
によって入力された音声情報について音声認識を行う認
識手段と、前記認識手段の結果に基づいて前記第1入力
手段で入力された情報の処理方法を選択する選択手段
と、前記選択手段で選択された処理方法でもって前記第
1入力手段で入力された情報を処理する処理手段とを備
える。
成は、処理対象となる情報を入力する第1入力手段と、
音声情報を入力する第2入力手段と、前記第2入力手段
によって入力された音声情報について音声認識を行う認
識手段と、前記認識手段の結果に基づいて前記第1入力
手段で入力された情報の処理方法を選択する選択手段
と、前記選択手段で選択された処理方法でもって前記第
1入力手段で入力された情報を処理する処理手段とを備
える。
【0013】上記の構成によれば、第2入力手段により
入力された音声に基づいて選択された処理方法で、第1
入力手段より入力された情報が処理される。
入力された音声に基づいて選択された処理方法で、第1
入力手段より入力された情報が処理される。
【0014】
【実施例】以下、添付の図面を参照しながら本発明の実
施例を説明する。
施例を説明する。
【0015】<実施例1>図1は本実施例の情報処理装
置の概略構成を表すブロック図である。同図中、100
はシステムバスであり、以下に説明する各構成が接続さ
れる。200は表示装置であり、CRTディスプレイ等
を具備し、CPU400の制御により各種の表示を行
う。300は情報入力装置であり、画像や音声などの情
報を取り込み計算機で処理できるデータに変換する。4
00はCPUであり、記憶装置500に格納された制御
プログラムを実行することにより、数値演算やデータの
入出力等を行ない、システム全体の動作を制御する。5
00は記憶装置であり、ROMやRAM、ハードディス
ク等を具備する。後述のフローチャートで示される制御
を実現するための制御プログラムも記憶装置500に格
納される。600は入力装置であり、マウスやキーボー
ド、視線検出器などを備える。
置の概略構成を表すブロック図である。同図中、100
はシステムバスであり、以下に説明する各構成が接続さ
れる。200は表示装置であり、CRTディスプレイ等
を具備し、CPU400の制御により各種の表示を行
う。300は情報入力装置であり、画像や音声などの情
報を取り込み計算機で処理できるデータに変換する。4
00はCPUであり、記憶装置500に格納された制御
プログラムを実行することにより、数値演算やデータの
入出力等を行ない、システム全体の動作を制御する。5
00は記憶装置であり、ROMやRAM、ハードディス
ク等を具備する。後述のフローチャートで示される制御
を実現するための制御プログラムも記憶装置500に格
納される。600は入力装置であり、マウスやキーボー
ド、視線検出器などを備える。
【0016】以上のような構成を備えた本実施例1の情
報処理装置の動作を説明する。
報処理装置の動作を説明する。
【0017】図2は、実施例1の動作手順の概要を表す
フローチャートである。まず、ステップS100におい
て、ユーザーが情報入力装置300を用いて入力した情
報(音声等)を計算機で扱える形態で取り込む。次に、
ステップS200で、入力装置600を介して得られる
ユーザーの視線位置やポインティングデバイスの指示位
置などに基づいて対応する処理方法を決定する。最後
に、S300において、先のステップS200で決定さ
れた処理方法にしたがって、入力情報を処理する。
フローチャートである。まず、ステップS100におい
て、ユーザーが情報入力装置300を用いて入力した情
報(音声等)を計算機で扱える形態で取り込む。次に、
ステップS200で、入力装置600を介して得られる
ユーザーの視線位置やポインティングデバイスの指示位
置などに基づいて対応する処理方法を決定する。最後
に、S300において、先のステップS200で決定さ
れた処理方法にしたがって、入力情報を処理する。
【0018】以下では、ステップS200における処理
方法選択として、視線やポインティングデバイスなどの
ユーザーの指示位置を検出する指示位置検出装置を備
え、検出されたユーザーの指示位置によって処理方法を
変える場合を説明する。また、より具体的な説明のた
め、例えば、入力される情報は音声とし、情報入力装置
300は音声を取り込むためのマイクロフォンと、取り
込んだ音声信号をCPU400で処理可能な形態とする
ために音声信号をデジタル信号に変換するA/D変換器
を備える。
方法選択として、視線やポインティングデバイスなどの
ユーザーの指示位置を検出する指示位置検出装置を備
え、検出されたユーザーの指示位置によって処理方法を
変える場合を説明する。また、より具体的な説明のた
め、例えば、入力される情報は音声とし、情報入力装置
300は音声を取り込むためのマイクロフォンと、取り
込んだ音声信号をCPU400で処理可能な形態とする
ために音声信号をデジタル信号に変換するA/D変換器
を備える。
【0019】ここで、音声情報の処理方法としては、例
えば、 (処理1) 音声データを圧縮する. (処理2) 入力された音声コマンドとして音声認識
し、認識結果であるコマンドのコードに変換する.を考
える。
えば、 (処理1) 音声データを圧縮する. (処理2) 入力された音声コマンドとして音声認識
し、認識結果であるコマンドのコードに変換する.を考
える。
【0020】上記の条件における本実施例1の動作を、
図3乃至図5を用いて説明する。図3は実施例1による
処理方法の選択手順を表すフローチャートであり、図2
におけるステップS200を詳細に説明するものであ
る。又、図4は、実施例1における音声情報の処理手順
を表すフローチャートであり、図2におけるステップS
300を詳細に説明するものである。
図3乃至図5を用いて説明する。図3は実施例1による
処理方法の選択手順を表すフローチャートであり、図2
におけるステップS200を詳細に説明するものであ
る。又、図4は、実施例1における音声情報の処理手順
を表すフローチャートであり、図2におけるステップS
300を詳細に説明するものである。
【0021】図5はTV電話のアプリケーションの表示
例である。ウインドウ内上部に通話先の映像が表示さ
れ、下部には操作用のボタンなどが配置されているもの
とする。アプリケーションに対してユーザーが音声を入
力する時に、通話先に話しかける場合は、図5に領域1
として示す通話先の映像が表示されているあたりをユー
ザーが指示し、アプリケーションに対する命令を行いた
い場合は図5に領域2で示す操作用ボタンが並んでいる
辺りを指示することにする。
例である。ウインドウ内上部に通話先の映像が表示さ
れ、下部には操作用のボタンなどが配置されているもの
とする。アプリケーションに対してユーザーが音声を入
力する時に、通話先に話しかける場合は、図5に領域1
として示す通話先の映像が表示されているあたりをユー
ザーが指示し、アプリケーションに対する命令を行いた
い場合は図5に領域2で示す操作用ボタンが並んでいる
辺りを指示することにする。
【0022】音声が入力されると、図2のステップS1
00において、情報入力装置300を介して情報の取り
込みが行われる。ステップS100で音声が取り込まれ
ると処理の選択を行うステップS200に移る。
00において、情報入力装置300を介して情報の取り
込みが行われる。ステップS100で音声が取り込まれ
ると処理の選択を行うステップS200に移る。
【0023】ここで図3のフローチャートに移り、ステ
ップS201でユーザーの指示位置を検出する。ここ
で、ユーザーによる位置の指示方法としては、視線で指
示する方法、マウスなどのポインティングデバイスなど
で指示する方法などが考えられる。視線で指示する場合
は、入力装置600が視線検出のためのカメラ等を備え
ることになる。続くステップS202でユーザーの指示
位置が図5の領域1内であれば、相手先への通話処理と
判断し、処理方法を「音声データの圧縮」と決定する。
一方、領域2内をユーザーが指示している場合は入力さ
れた音声はアプリケーションに対する命令(コマンド処
理)とし、処理方法を「音声認識してコマンドコードに
変換」と決定する。
ップS201でユーザーの指示位置を検出する。ここ
で、ユーザーによる位置の指示方法としては、視線で指
示する方法、マウスなどのポインティングデバイスなど
で指示する方法などが考えられる。視線で指示する場合
は、入力装置600が視線検出のためのカメラ等を備え
ることになる。続くステップS202でユーザーの指示
位置が図5の領域1内であれば、相手先への通話処理と
判断し、処理方法を「音声データの圧縮」と決定する。
一方、領域2内をユーザーが指示している場合は入力さ
れた音声はアプリケーションに対する命令(コマンド処
理)とし、処理方法を「音声認識してコマンドコードに
変換」と決定する。
【0024】その後、図2に戻って、情報処理ステップ
S300に移り、ステップS200による処理の選択結
果に従って音声データを処理する。図4は、ステップS
300の詳細を表すフローチャートである。
S300に移り、ステップS200による処理の選択結
果に従って音声データを処理する。図4は、ステップS
300の詳細を表すフローチャートである。
【0025】ステップS301において、ステップS2
00で決定された処理方法を検出し、処理方法が「通信
処理」であればステップS301,302を介してステ
ップS303へ進む。ステップS303では、情報入力
装置300を介して入力された音声情報をデータ圧縮
し、続くステップS304で圧縮データを相手先へ送信
する。
00で決定された処理方法を検出し、処理方法が「通信
処理」であればステップS301,302を介してステ
ップS303へ進む。ステップS303では、情報入力
装置300を介して入力された音声情報をデータ圧縮
し、続くステップS304で圧縮データを相手先へ送信
する。
【0026】一方、ステップS301において、検出さ
れた処理方法が「コマンド処理」であれば、ステップS
301,302,305を介してステップS306へ進
む。ステップS306では、情報入力装置300を介し
て取り込まれた音声情報に対して音声認識処理を実行す
る。そして、ステップS307では、音声認識の結果に
基づいてコマンドコードを獲得する。例えば、音声情報
が「ツウワシュウリョウ」であれば、音声認識により
「通話終了」と認識され、通話を終了するコマンドコー
ドが獲得される。尚、音声認識の結果と、これに対応す
るコマンドコードは、例えばテーブル形式で登録され、
記憶装置500に格納される。ステップS308では、
ステップS307で獲得されたコマンドコードが実行さ
れる。
れた処理方法が「コマンド処理」であれば、ステップS
301,302,305を介してステップS306へ進
む。ステップS306では、情報入力装置300を介し
て取り込まれた音声情報に対して音声認識処理を実行す
る。そして、ステップS307では、音声認識の結果に
基づいてコマンドコードを獲得する。例えば、音声情報
が「ツウワシュウリョウ」であれば、音声認識により
「通話終了」と認識され、通話を終了するコマンドコー
ドが獲得される。尚、音声認識の結果と、これに対応す
るコマンドコードは、例えばテーブル形式で登録され、
記憶装置500に格納される。ステップS308では、
ステップS307で獲得されたコマンドコードが実行さ
れる。
【0027】以上説明したように実施例1によれば、ユ
ーザーが音声情報を入力した場合に、ユーザの視線によ
って決定される処理方法で音声情報の処理が行われる。
このため、一つのアプリケーションでも異なる処理を行
うことが可能となり、情報の入力を行う際の操作性,使
用感が著しく向上する。又、処理方法の指定もユーザの
視線で行われるので、操作性が極めて向上する。
ーザーが音声情報を入力した場合に、ユーザの視線によ
って決定される処理方法で音声情報の処理が行われる。
このため、一つのアプリケーションでも異なる処理を行
うことが可能となり、情報の入力を行う際の操作性,使
用感が著しく向上する。又、処理方法の指定もユーザの
視線で行われるので、操作性が極めて向上する。
【0028】尚、上記実施例1では、入力装置として視
線入力装置を用いる場合について説明したが、マウスや
ライトペンなどのポインティングデバイス、データグロ
ーブなどユーザーの動きを入力する装置を用いても良
い。
線入力装置を用いる場合について説明したが、マウスや
ライトペンなどのポインティングデバイス、データグロ
ーブなどユーザーの動きを入力する装置を用いても良
い。
【0029】<実施例2>上記実施例1では、視線或は
ポインティングデバイスにより、表示画面上の指示位置
を検出して音声情報等の処理内容を決定している。本実
施例2では、ステップS200における処理の選択方法
として、入力された音声を音声認識した結果を用いる方
法について説明する。又、音声情報の処理方法として、
第1実施例で挙げた2方法に加えて、 (処理3) 入力された音声をテキストの入力として音
声認識し、認識結果である文字列に変換する.を加えて
説明する。
ポインティングデバイスにより、表示画面上の指示位置
を検出して音声情報等の処理内容を決定している。本実
施例2では、ステップS200における処理の選択方法
として、入力された音声を音声認識した結果を用いる方
法について説明する。又、音声情報の処理方法として、
第1実施例で挙げた2方法に加えて、 (処理3) 入力された音声をテキストの入力として音
声認識し、認識結果である文字列に変換する.を加えて
説明する。
【0030】又、実施例2の情報処理装置の概略構成及
び概略の動作手順は実施例1(図1、図2)と同様であ
る。以下、実施例2の動作を図2と図6〜図8のフロー
チャートに従って説明する。
び概略の動作手順は実施例1(図1、図2)と同様であ
る。以下、実施例2の動作を図2と図6〜図8のフロー
チャートに従って説明する。
【0031】音声が入力されるとステップS100にお
いて情報入力装置300を用いて入力音声を計算機で扱
える形態で取り込む。そして、ステップS200に進
み、処理方法の選択が行われる。
いて情報入力装置300を用いて入力音声を計算機で扱
える形態で取り込む。そして、ステップS200に進
み、処理方法の選択が行われる。
【0032】ステップS200の動作を、図6、図7を
用いて更に説明する。図6は実施例2の処理方法決定手
順を説明するフローチャートである。まず、入力された
音声をステップS203で認識する。そして、ステップ
S204に移り、ステップS203による認識結果によ
って処理する方法を決定する。その決定方法の一例を図
7のフローチャートを参照して以下で説明する。図7
は、実施例2における処理方法決定手順の一例を表すフ
ローチャートである。
用いて更に説明する。図6は実施例2の処理方法決定手
順を説明するフローチャートである。まず、入力された
音声をステップS203で認識する。そして、ステップ
S204に移り、ステップS203による認識結果によ
って処理する方法を決定する。その決定方法の一例を図
7のフローチャートを参照して以下で説明する。図7
は、実施例2における処理方法決定手順の一例を表すフ
ローチャートである。
【0033】まず、前記した3種類の処理方法に対し
て、予め音声入力する際に最初に発声するキーワードを
定めておく。例えば、処理1に対しては最初に「通信」
と発声し続いて送信する内容を発声する。処理2に対し
ては最初に「コマンド」と発声し続いて実行したいコマ
ンドを発声する。処理3に対しては「テキスト」と発声
してからテキストに変換したい言葉を入力するものとす
る。
て、予め音声入力する際に最初に発声するキーワードを
定めておく。例えば、処理1に対しては最初に「通信」
と発声し続いて送信する内容を発声する。処理2に対し
ては最初に「コマンド」と発声し続いて実行したいコマ
ンドを発声する。処理3に対しては「テキスト」と発声
してからテキストに変換したい言葉を入力するものとす
る。
【0034】そして、処理方法の選択において、音声認
識結果が「通信」である場合には処理1(通信処理)を
選択(図7のステップS203,S211,S212)
する。また、「コマンド」である場合には処理2(コマ
ンド)を選択する(図7のステップS203,S21
3,S214)。更に、「テキスト」の場合には処理3
(テキスト処理)を選択(ステップS203,S21
5,S216)する。それ以外の場合は再度ユーザーの
発声を促すメッセージや音声が受理されない旨のメッセ
ージをユーザーに表示するなどして伝える(ステップS
217)。
識結果が「通信」である場合には処理1(通信処理)を
選択(図7のステップS203,S211,S212)
する。また、「コマンド」である場合には処理2(コマ
ンド)を選択する(図7のステップS203,S21
3,S214)。更に、「テキスト」の場合には処理3
(テキスト処理)を選択(ステップS203,S21
5,S216)する。それ以外の場合は再度ユーザーの
発声を促すメッセージや音声が受理されない旨のメッセ
ージをユーザーに表示するなどして伝える(ステップS
217)。
【0035】以上のような方法で決定された処理方法に
基づいて、ステップS300で音声の処理が行われる。
図8は実施例2における音声処理の手順を表すフローチ
ャートである。同図においてステップS301〜ステッ
プS308は上述の図4と同様である。また、ステップ
S309以降は、テキスト処理が選択された場合の処理
である。まず、ステップS310で音声認識が行われ、
ステップS311で認識結果に基づいてテキストコード
が獲得される。更に、ステップS312において、テキ
ストコードの受け渡しが行われる。
基づいて、ステップS300で音声の処理が行われる。
図8は実施例2における音声処理の手順を表すフローチ
ャートである。同図においてステップS301〜ステッ
プS308は上述の図4と同様である。また、ステップ
S309以降は、テキスト処理が選択された場合の処理
である。まず、ステップS310で音声認識が行われ、
ステップS311で認識結果に基づいてテキストコード
が獲得される。更に、ステップS312において、テキ
ストコードの受け渡しが行われる。
【0036】尚、図8のステップS303においてデー
タ圧縮の対象となる音声情報は、「ツウシン」という音
声に続く音声情報部分である。同様に、ステップS30
6、ステップS310で音声認識の対象となる音声情報
は、夫々「コマンド」、「テキスト」に続く音声情報で
ある。
タ圧縮の対象となる音声情報は、「ツウシン」という音
声に続く音声情報部分である。同様に、ステップS30
6、ステップS310で音声認識の対象となる音声情報
は、夫々「コマンド」、「テキスト」に続く音声情報で
ある。
【0037】以上説明したように実施例2によれば、ユ
ーザーが音声情報を入力した場合に、ユーザの音声によ
って決定される処理方法で音声情報の処理が行われる。
このため、一つのアプリケーションでも異なる処理を行
うことが可能となり、情報の入力を行う際の操作性,使
用感が著しく向上する。尚、上記実施例2ではTV電話
アプリケーションに対して、テキスト処理を追加してい
るが、このテキスト処理された文字列をどのようにTV
電話アプリケーションが用いるかを説明しておく。例え
ば、TV電話アプリケーションに、画像情報に重ねてテ
キストデータを送信する機能を持たせる。そして、画像
情報とともにテキストデータを受信した場合は、テキス
トデータを文字画像に変換して画像上に重ねて表示(テ
ロップ表示)する機能を持たせておく。このような機能
により、音声のみで伝えると間違いやすい電話番号や住
所などをTV電話アプリケーションを介して伝える際
に、これを文字列に変換して、TV番組のテロップのよ
うに画像にはめ込んで送信することができ、より確実に
情報を通話相手に伝えることが可能となる。又、通話相
手から得た音声情報に対して音声認識を実行し、テキス
トコードとして記憶することにより、通話内容をメモと
して書き残すこともできる。
ーザーが音声情報を入力した場合に、ユーザの音声によ
って決定される処理方法で音声情報の処理が行われる。
このため、一つのアプリケーションでも異なる処理を行
うことが可能となり、情報の入力を行う際の操作性,使
用感が著しく向上する。尚、上記実施例2ではTV電話
アプリケーションに対して、テキスト処理を追加してい
るが、このテキスト処理された文字列をどのようにTV
電話アプリケーションが用いるかを説明しておく。例え
ば、TV電話アプリケーションに、画像情報に重ねてテ
キストデータを送信する機能を持たせる。そして、画像
情報とともにテキストデータを受信した場合は、テキス
トデータを文字画像に変換して画像上に重ねて表示(テ
ロップ表示)する機能を持たせておく。このような機能
により、音声のみで伝えると間違いやすい電話番号や住
所などをTV電話アプリケーションを介して伝える際
に、これを文字列に変換して、TV番組のテロップのよ
うに画像にはめ込んで送信することができ、より確実に
情報を通話相手に伝えることが可能となる。又、通話相
手から得た音声情報に対して音声認識を実行し、テキス
トコードとして記憶することにより、通話内容をメモと
して書き残すこともできる。
【0038】尚、上述した実施例2における処理の決定
方法は、あくまで一例であり、音声認識に基づいた処理
の決定手順としては種々の変形が可能である。以下に変
形例を示す。
方法は、あくまで一例であり、音声認識に基づいた処理
の決定手順としては種々の変形が可能である。以下に変
形例を示す。
【0039】例えば、前記した3種類の処理方法(「通
信」、「コマンド」、「テキスト」)において、「テキ
スト処理を行いたい場合のキーワードを予め決めてお
く。このキーワードを例えば「テキスト」とする。「テ
キスト」と発声してからテキストに変換したい言葉を入
力し、入力終了後「テキスト終了」と発声する。処理
1,処理2を行いたい場合は、行いたいコマンド名や話
したい内容などをそのまま入力する。ここで、入力され
た音声の認識の結果、何等かのコマンドに該当した場合
は、コマンド処理を選択する。また、いずれでもない場
合は通信処理を選択する。
信」、「コマンド」、「テキスト」)において、「テキ
スト処理を行いたい場合のキーワードを予め決めてお
く。このキーワードを例えば「テキスト」とする。「テ
キスト」と発声してからテキストに変換したい言葉を入
力し、入力終了後「テキスト終了」と発声する。処理
1,処理2を行いたい場合は、行いたいコマンド名や話
したい内容などをそのまま入力する。ここで、入力され
た音声の認識の結果、何等かのコマンドに該当した場合
は、コマンド処理を選択する。また、いずれでもない場
合は通信処理を選択する。
【0040】上記の変形例では、ステップS200と、
ステップS300が明瞭に別々のステップとはならな
い。図9は、上述の実施例2の変形例による音声情報の
処理手順を表すフローチャートである。まず、情報入力
装置300から入力された音声情報について音声認識を
行う。この結果、音声が「テキスト」であれば、ステッ
プS402からステップS403へ進み、「テキスト終
了」が入力されるまでテキスト処理が実行される。ま
ず、ステップS403において「テキスト」以降の音声
情報について認識処理が行われる。ステップS404で
「テキスト終了」という音声情報が入力されたか否かを
判断し、入力されていなければステップS405へ進
む。ステップS405では認識結果をテキストコードと
して、ステップS406で当該的すとコードのアプリケ
ーションへの受け渡しを行う。一方、ステップS404
で、「テキスト終了」の音声入力が検出されるとステッ
プS401へ戻る。
ステップS300が明瞭に別々のステップとはならな
い。図9は、上述の実施例2の変形例による音声情報の
処理手順を表すフローチャートである。まず、情報入力
装置300から入力された音声情報について音声認識を
行う。この結果、音声が「テキスト」であれば、ステッ
プS402からステップS403へ進み、「テキスト終
了」が入力されるまでテキスト処理が実行される。ま
ず、ステップS403において「テキスト」以降の音声
情報について認識処理が行われる。ステップS404で
「テキスト終了」という音声情報が入力されたか否かを
判断し、入力されていなければステップS405へ進
む。ステップS405では認識結果をテキストコードと
して、ステップS406で当該的すとコードのアプリケ
ーションへの受け渡しを行う。一方、ステップS404
で、「テキスト終了」の音声入力が検出されるとステッ
プS401へ戻る。
【0041】ステップS402で入力された音声が「テ
キスト」でない場合は、ステップS407へ進む。ステ
ップS407では、入力音声が何等かの「コマンド名」
に該当するか否かを判定する。もし、何等かのコマンド
名に該当すれば、ステップS408へ進み、該当するコ
マンドコードを獲得し、ステップS409でコマンドコ
ードを実行する。上記のステップS407、408の処
理は、例えば記憶装置500に「コマンド名」と「コマ
ンドコード」を対応させて登録したコマンドリストを格
納し、このコマンドリストを参照することで実現でき
る。
キスト」でない場合は、ステップS407へ進む。ステ
ップS407では、入力音声が何等かの「コマンド名」
に該当するか否かを判定する。もし、何等かのコマンド
名に該当すれば、ステップS408へ進み、該当するコ
マンドコードを獲得し、ステップS409でコマンドコ
ードを実行する。上記のステップS407、408の処
理は、例えば記憶装置500に「コマンド名」と「コマ
ンドコード」を対応させて登録したコマンドリストを格
納し、このコマンドリストを参照することで実現でき
る。
【0042】ステップS407で入力音声がいずれのコ
マンド名にも該当しない場合は、通話のための音声情報
であると判断し、通信処理が実行される。即ち、ステッ
プS410において音声データを圧縮し、ステップS4
11で圧縮された音声データが送信される。
マンド名にも該当しない場合は、通話のための音声情報
であると判断し、通信処理が実行される。即ち、ステッ
プS410において音声データを圧縮し、ステップS4
11で圧縮された音声データが送信される。
【0043】以上説明したように、上記の各実施例によ
れば、入力された音声をTV電話の通話用の音声データ
として処理したり、TV電話アプリケーションに対する
コマンド指定用のデータとして処理することが可能とな
る。即ち、1つのアプリケーションにおいて、音声とい
う一つの形態の情報に対して複数通りの処理が可能とな
る。又、入力された音声情報に対する処理方法の選択
を、実施例1では視線位置を用いて制御し、実施例2で
は音声認識の結果を用いて制御している。このため、キ
ーボードやポインティングデバイスなどの操作による制
御とは違って、操作者に負担をかけることなく、より自
然に処理方法の選択を制御することが可能となる。尚、
上記の各実施例では、情報入力装置300から入力され
る情報として音声を用いているが、入力情報の形態はこ
れに限られるものではなく、例えば画像情報であっても
よい。この場合、情報入力装置300は、画像を読み取
るためのスキャナ等を備えることになる。画像情報を用
いた場合の処理形態としては、 (1)入力画像を、画像データとしてJPEGやMPE
G等の方式で圧縮し、アプリケーションに渡す。例え
ば、TV電話アプリケーションであれば、受け渡された
圧縮データを通話先へ転送する。転送先のTV電話アプ
リケーションは、この圧縮データを伸長して、送信され
た画像を表示する. (2)文字画像について文字認識処理を行い、認識され
た文字を文字列或はコマンドとしてアプリケーションに
渡す.等がある。ここで、入力画像が絵や写真の画像で
あるか、文字の画像であるかを認識する手段を設けるこ
とにより、絵や写真の画像については上記の(1)の処
理を、文字の画像については上記の(2)の処理を行う
ようにすることができる。更に上記の(2)の処理で
は、認識結果として得られた文字列がコマンドコードを
表わす場合はコマンド処理を、該当するコマンドコード
が存在しない場合はテキスト処理を実行するように構成
することもできる。更に、実施例2で説明したような音
声認識による処理の選択(「ツウシン」、「テキスト」
等)を適用することで、入力情報である画像の処理方法
を音声で制御する構成も得られる。
れば、入力された音声をTV電話の通話用の音声データ
として処理したり、TV電話アプリケーションに対する
コマンド指定用のデータとして処理することが可能とな
る。即ち、1つのアプリケーションにおいて、音声とい
う一つの形態の情報に対して複数通りの処理が可能とな
る。又、入力された音声情報に対する処理方法の選択
を、実施例1では視線位置を用いて制御し、実施例2で
は音声認識の結果を用いて制御している。このため、キ
ーボードやポインティングデバイスなどの操作による制
御とは違って、操作者に負担をかけることなく、より自
然に処理方法の選択を制御することが可能となる。尚、
上記の各実施例では、情報入力装置300から入力され
る情報として音声を用いているが、入力情報の形態はこ
れに限られるものではなく、例えば画像情報であっても
よい。この場合、情報入力装置300は、画像を読み取
るためのスキャナ等を備えることになる。画像情報を用
いた場合の処理形態としては、 (1)入力画像を、画像データとしてJPEGやMPE
G等の方式で圧縮し、アプリケーションに渡す。例え
ば、TV電話アプリケーションであれば、受け渡された
圧縮データを通話先へ転送する。転送先のTV電話アプ
リケーションは、この圧縮データを伸長して、送信され
た画像を表示する. (2)文字画像について文字認識処理を行い、認識され
た文字を文字列或はコマンドとしてアプリケーションに
渡す.等がある。ここで、入力画像が絵や写真の画像で
あるか、文字の画像であるかを認識する手段を設けるこ
とにより、絵や写真の画像については上記の(1)の処
理を、文字の画像については上記の(2)の処理を行う
ようにすることができる。更に上記の(2)の処理で
は、認識結果として得られた文字列がコマンドコードを
表わす場合はコマンド処理を、該当するコマンドコード
が存在しない場合はテキスト処理を実行するように構成
することもできる。更に、実施例2で説明したような音
声認識による処理の選択(「ツウシン」、「テキスト」
等)を適用することで、入力情報である画像の処理方法
を音声で制御する構成も得られる。
【0044】尚、本発明は、複数の機器から構成される
システムに適用しても1つの機器からなる装置に適用し
ても良い。また、本発明はシステム或いは装置に本発明
により規定される処理を実行させるプログラムを供給す
ることによって達成される場合にも適用できることはい
うまでもない。
システムに適用しても1つの機器からなる装置に適用し
ても良い。また、本発明はシステム或いは装置に本発明
により規定される処理を実行させるプログラムを供給す
ることによって達成される場合にも適用できることはい
うまでもない。
【0045】
【発明の効果】以上説明したとおり、本発明によれば、
一つのアプリケーションにおいて、一つの入力情報につ
いて異なる処理を行うことができ、情報の入力を行う際
の操作性,使用感が著しく向上する。
一つのアプリケーションにおいて、一つの入力情報につ
いて異なる処理を行うことができ、情報の入力を行う際
の操作性,使用感が著しく向上する。
【0046】
【図1】本実施例の情報処理装置の概略構成を表すブロ
ック図である。
ック図である。
【図2】実施例1の動作手順の概要を表すフローチャー
トである。
トである。
【図3】実施例1による処理方法の選択手順を表すフロ
ーチャートである。
ーチャートである。
【図4】実施例1における音声情報の処理手順を表すフ
ローチャートである。
ローチャートである。
【図5】TV電話のアプリケーションの表示例を表す図
である。
である。
【図6】実施例2の処理方法決定手順を説明するフロー
チャートである。
チャートである。
【図7】実施例2における処理方法決定手順の一例を表
すフローチャートである。
すフローチャートである。
【図8】実施例2における音声処理の手順を表すフロー
チャートである。
チャートである。
【図9】上述の実施例2の変形例による音声情報の処理
手順を表すフローチャートである。
手順を表すフローチャートである。
100 システムバス 200 表示装置 300 情報入力装置 400 CPU 500 記憶装置 600 入力装置
Claims (11)
- 【請求項1】 情報を入力する入力手段と、 前記入力手段によって入力された情報に対する処理方法
を選択する選択手段と、 前記選択手段で選択された処理方法でもって前記入力手
段で入力された情報を処理する処理手段とを備えること
を特徴とする情報処理装置。 - 【請求項2】 前記入力手段により入力される情報が音
声情報であることを特徴とする請求項1に記載の情報処
理装置。 - 【請求項3】 前記選択手段は、ユーザーの動作に基づ
いて処理方法を選択することを特徴とする請求項1に記
載の情報処理装置。 - 【請求項4】 実行中のアプリケーションによる表示を
行う表示手段を更に備え、 前記選択手段は、前記表示手段による表示上のユーザの
視線位置に基づいて処理方法の選択を行うことを特徴と
する請求項1に記載の情報処理装置。 - 【請求項5】 前記選択手段は、前記表示手段上による
表示上のユーザがポインティングデバイスで指示した位
置に基づいて処理方法の選択を行うことを特徴とする請
求項4に記載の情報処理装置。 - 【請求項6】 音声情報を入力する入力手段と、 前記入力手段によって入力された音声情報について音声
認識を行う認識手段と、 前記入力手段で入力された音声情報の一部に対する前記
認識手段による認識結果に基づいて処理方法を選択する
選択手段と、 前記選択手段で選択された処理方法でもって前記入力手
段で入力された音声情報を処理する処理手段とを備える
ことを特徴とする情報処理装置。 - 【請求項7】 前記選択手段は、前記認識手段の結果、
前記入力手段で入力された音声情報の一部に基づいて処
理方法を選択し、選択中の処理を終了するための指示が
前記認識手段の認識結果から獲得されるまで、当該処理
を継続して選択しつづけることを特徴とする請求項6に
記載の情報処理装置。 - 【請求項8】 前記選択手段は、前記認識手段で認識さ
れた音声情報の中からコマンドを示す音声が存在すると
き、該コマンドを示す音声に対応するコマンドを獲得す
ることを特徴とする請求項6に記載の情報処理装置。 - 【請求項9】 処理対象となる情報を入力する第1入力
手段と、 音声情報を入力する第2入力手段と、 前記第2入力手段によって入力された音声情報について
音声認識を行う認識手段と、 前記認識手段の結果に基づいて前記第1入力手段で入力
された情報の処理方法を選択する選択手段と、 前記選択手段で選択された処理方法でもって前記第1入
力手段で入力された情報を処理する処理手段とを備える
ことを特徴とする情報処理装置。 - 【請求項10】 情報を入力する入力工程と、 前記入力工程によって入力された情報に対する処理方法
を選択する選択工程と、 前記選択工程で選択された処理方法でもって前記入力工
程で入力された情報を処理する処理工程とを備えること
を特徴とする情報処理方法。 - 【請求項11】 音声情報を入力する入力工程と、 前記入力工程によって入力された音声情報について音声
認識を行う認識工程と、 前記認識工程の結果、前記入力工程で入力された音声情
報の一部に基づいて処理方法を選択する選択工程と、 前記選択工程で選択された処理方法でもって前記入力工
程で入力された音声情報を処理する処理工程とを備える
ことを特徴とする情報処理方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6220406A JPH0883158A (ja) | 1994-09-14 | 1994-09-14 | 情報処理方法及び装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6220406A JPH0883158A (ja) | 1994-09-14 | 1994-09-14 | 情報処理方法及び装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH0883158A true JPH0883158A (ja) | 1996-03-26 |
Family
ID=16750625
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP6220406A Pending JPH0883158A (ja) | 1994-09-14 | 1994-09-14 | 情報処理方法及び装置 |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH0883158A (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0883093A (ja) * | 1994-09-14 | 1996-03-26 | Canon Inc | 音声認識装置及び該装置を用いた情報処理装置 |
JP2009527046A (ja) * | 2006-02-14 | 2009-07-23 | トレック・2000・インターナショナル・リミテッド | 2つの形式のストレージメディアを使用するデータストレージデバイス |
JP2016512364A (ja) * | 2013-03-15 | 2016-04-25 | クアルコム,インコーポレイテッド | ジェスチャを使用して処理モードを切り替えるためのシステムおよび方法 |
-
1994
- 1994-09-14 JP JP6220406A patent/JPH0883158A/ja active Pending
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0883093A (ja) * | 1994-09-14 | 1996-03-26 | Canon Inc | 音声認識装置及び該装置を用いた情報処理装置 |
JP2009527046A (ja) * | 2006-02-14 | 2009-07-23 | トレック・2000・インターナショナル・リミテッド | 2つの形式のストレージメディアを使用するデータストレージデバイス |
JP4767323B2 (ja) * | 2006-02-14 | 2011-09-07 | トレック・2000・インターナショナル・リミテッド | 2つの形式のストレージメディアを使用するデータストレージデバイス |
JP2016512364A (ja) * | 2013-03-15 | 2016-04-25 | クアルコム,インコーポレイテッド | ジェスチャを使用して処理モードを切り替えるためのシステムおよび方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9733895B2 (en) | Method for controlling electronic apparatus based on voice recognition and motion recognition, and electronic apparatus applying the same | |
CN111010610B (zh) | 一种视频截图方法及电子设备 | |
EP2555537A1 (en) | Electronic apparatus and method for providing user interface thereof | |
EP2555535A1 (en) | Method for controlling electronic apparatus based on motion recognition, and electronic apparatus applying the same | |
US20120023087A1 (en) | Computer-to-Computer Communication | |
EP2590424A2 (en) | Electronic apparatus and method for controlling thereof | |
KR20130018464A (ko) | 전자 장치 및 그의 제어 방법 | |
KR100609251B1 (ko) | 장치 동작시 도움을 얻기 위한 시스템 | |
US20220293099A1 (en) | Display device and artificial intelligence system | |
US20040235466A1 (en) | Information processing apparatus and program | |
US11978252B2 (en) | Communication system, display apparatus, and display control method | |
CN110908638A (zh) | 一种操作流创建方法及电子设备 | |
JP6936165B2 (ja) | 表示制御装置、表示制御システム、及び表示制御方法 | |
JP6832503B2 (ja) | 情報提示方法、情報提示プログラム及び情報提示システム | |
JPH0883158A (ja) | 情報処理方法及び装置 | |
CN111400729A (zh) | 控制方法及电子设备 | |
JP3727960B2 (ja) | 情報処理方法及び装置 | |
KR102092058B1 (ko) | 인터페이스 제공 방법 및 장치 | |
CN101546221A (zh) | 数据处理方法、装置和系统 | |
KR20090001627A (ko) | 대화형 콘텐츠 공유 시스템 | |
CN107948696A (zh) | 一种机顶盒文本输入方法、系统及机顶盒 | |
US20210304767A1 (en) | Meeting support system, meeting support method, and non-transitory computer-readable medium | |
JP2000339132A (ja) | 文書音声化装置および文書音声化方法 | |
KR100308310B1 (ko) | 화상 전화기의 멀티 키입력 제어방법 | |
EP1426922A2 (en) | Audio confirmation system and method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20030107 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050812 |