WO2012020444A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2012020444A1
WO2012020444A1 PCT/JP2010/004996 JP2010004996W WO2012020444A1 WO 2012020444 A1 WO2012020444 A1 WO 2012020444A1 JP 2010004996 W JP2010004996 W JP 2010004996W WO 2012020444 A1 WO2012020444 A1 WO 2012020444A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
interface screen
information
function
operated
Prior art date
Application number
PCT/JP2010/004996
Other languages
English (en)
French (fr)
Inventor
祐介 瀬戸
鈴木 忠
亮 岩宮
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to DE112010005802T priority Critical patent/DE112010005802T5/de
Priority to JP2012528510A priority patent/JP5128011B2/ja
Priority to CN201080068379.XA priority patent/CN103052940B/zh
Priority to US13/698,451 priority patent/US9002715B2/en
Priority to PCT/JP2010/004996 priority patent/WO2012020444A1/ja
Publication of WO2012020444A1 publication Critical patent/WO2012020444A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

 情報処理装置1は、所定の機能を示す機能実行キー部23を機能種別ごとに有するインタフェース画面と、機能種別ごとに切り替えるインタフェース画面変更キー部22とを表示する表示部30と、入力した操作信号に基づき表示部30における画面の切り替え表示を制御するインタフェース画面制御部20と、入力した操作信号に基づいて機能実行キー部23,インタフェース画面変更キー部22の操作時刻及び操作内容を連続操作情報として記録するインタフェース画面操作履歴記録部110と、記録された連続操作情報に基づいて、ユーザが所望する度合いを示す尤度値を、機能実行キー部23が示す機能ごとに算出し付与する尤度値付与部120と、尤度値が所定値以上の機能に対応する語彙情報を出力する優先認識語彙設定部130と、入力した語彙情報を参照して、入力された音声を音声認識する音声認識部60と、インタフェース画面操作部40を用いて操作された機能実行キー部23の機能、または音声認識部60によって音声認識された語彙に対応する機能を実行する機能実行部70とを備える。

Description

情報処理装置
 この発明は、例えばユーザからの操作入力と音声入力により機能を選択実行する情報処理装置に関するものである。
 従来の情報処理装置は、例えば実行可能な機能を多数の機能実行キーとして表示し、ユーザが機能実行キーを選択することにより、対応するプログラムが起動して機能を実行するよう構成されている。このような情報処理装置は機能の種類ごとに階層化して機能実行キーを表示しており、ユーザが操作入力のみで所望する機能実行キーを探すことは難しい。そこで、音声認識により機能実行キーを選択しやすくする構成が開示されている。例えば特許文献1によれば、情報処理装置は、機能実行キーの操作回数に基づいて優先的に音声認識させる語彙を決定するとともに、現在表示していない機能実行キーの機能や現在の操作位置から遠い位置にある機能実行キーの機能に対応する語彙を優先して音声認識するよう構成されている。
国際公開第2006/137245号
 しかしながら、上述した特許文献1の情報処理装置は、ユーザが所望する機能に対応する語彙を優先して音声認識するものではないため、ユーザが所望する機能以外の機能を実行してしまうという課題があった。
 この発明は、上述した課題を解決するためになされたもので、音声認識によりユーザが所望する機能を実行しやすくする情報処理装置を提供することを目的とする。
 この発明に係る情報処理装置は、所定の機能を示す機能実行キー部を機能種別ごとに有するインタフェース画面と、インタフェース画面を機能種別ごとに切り替えるインタフェース画面変更キー部とを表示する表示部と、表示部に表示された機能実行キー部およびインタフェース画面変更キー部への操作を受け付けるインタフェース画面操作部と、インタフェース画面操作部からインタフェース画面変更キー部への操作に応じた操作信号を入力し、当該操作信号に基づいて表示部におけるインタフェース画面の切り替え表示を制御するインタフェース画面制御部と、インタフェース画面操作部から入力した機能実行キー部とインタフェース画面変更キー部への操作に応じた操作信号に基づいて、機能実行キー部及びインタフェース画面変更キー部の操作時刻、及び、所定時間以下の間隔でインタフェース画面変更キー部が連続して操作された操作内容を、連続操作情報として記録するインタフェース画面操作履歴記録部と、インタフェース画面操作履歴記録部に記録された連続操作情報に基づいて、ユーザが所望する度合いを示す尤度値を、機能実行キー部が示す機能ごとに算出し付与する尤度値付与部と、機能ごとの語彙情報を予め記憶し、尤度値付与部で設定された尤度値が所定値以上の機能に対応する語彙情報を出力する優先認識語彙設定部と、優先認識語彙設定部から入力した語彙情報を参照して、入力された音声を音声認識する音声認識部と、インタフェース画面操作部を用いて操作された機能実行キー部の機能、または音声認識部によって音声認識された語彙に対応する機能を実行する機能実行部とを備えたものである。
 この発明によれば、音声認識によりユーザが所望する機能を実行しやすくできる。
この発明の実施の形態1に係る情報処理装置の機能的構成を示す図である。 この発明の実施の形態1に係る情報処理装置において表示されるインタフェース画面の一例を示す図である。 この発明の実施の形態1に係る情報処理装置における操作時刻を示す図である。 この発明の実施の形態1に係る情報処理装置における連続操作を示す図である。 この発明の実施の形態1に係る情報処理装置における機能実行キー部の表示時間と尤度値の一例を示す図である。 この発明の実施の形態1に係る情報処理装置における処理動作を示すフローチャートである。 この発明の実施の形態2に係る情報処理装置の機能的構成を示す図である。 この発明の実施の形態2に係る情報処理装置における処理動作を示すフローチャートである。 この発明の実施の形態3に係る情報処理装置の機能的構成を示す図である。 この発明の実施の形態3に係る情報処理装置における処理動作を示すフローチャートである。
 以下、この発明をより詳細に説明するために、この発明を実施するための形態について、添付の図面に従って説明する。
実施の形態1.
 図1は実施の形態1に係る情報処理装置の機能的構成を示している。情報処理装置1は図1に示すように、インタフェース画面制御部20、表示部30、インタフェース画面操作部40、音声入力部50、音声認識部60、機能実行部70、インタフェース画面操作履歴記録部110、尤度値付与部120、優先認識語彙設定部130で構成されている。
 インタフェース画面制御部20は、予め設定された複数のインタフェース画面情報21を記憶しており、インタフェース画面情報21の内容と情報を表示部30を介してインタフェース画面として表示するよう構成されている。インタフェース画面情報21には複数のインタフェース画面変更キー部22と複数の機能実行キー部23が含まれており、複数の機能実行キー部23はそれぞれ所定の機能を示し、複数のインタフェース画面変更キー部22はそれぞれ機能の種類(種別)を示している。複数の機能実行キー部23はその機能の種類ごとにインタフェース画面変更キー部22に区分され階層化されている。
 また、インタフェース画面制御部20は、インタフェース画面操作部40から表示部30のインタフェース画面変更キー部22への操作に応じた操作信号を入力し、インタフェース画面変更キー部22に対する操作信号に基づいて、表示部30におけるインタフェース画面(インタフェース画面変更キー部22に対応する機能実行キー部23)の切り替え表示を制御するとともに、インタフェース画面操作部40からの命令信号を機能実行部70へ出力するよう構成されている。
 インタフェース画面制御部20は、例えば、ユーザからインタフェース画面操作部40を介して機能メニューを表示する指示を入力すると最上位階層のインタフェース画面情報21を出力する。インタフェース画面制御部20は、続いてユーザから選択されたインタフェース画面変更キー部22に対応する複数の機能実行キー部23をインタフェース画面として表示部30へ出力する。また、インタフェース画面制御部20は、例えば、インタフェース画面操作部40を介して命令信号を入力すると、入力された命令信号を機能実行部70へ出力して機能を実行するよう命令する。
 さらに、インタフェース画面制御部20は、インタフェース画面操作部40からの操作信号に基づき、操作内容情報と操作時刻情報(操作情報)をインタフェース画面操作履歴記録部110へ出力するよう構成されている。インタフェース画面制御部20は、例えば、ユーザからインタフェース画面操作部40を介してインタフェース画面変更キー部22に対する操作信号または機能実行キー部23に対する操作信号を入力すると、操作されたインタフェース画面変更キー部22または機能実行キー部23を示す操作内容情報と、操作されたタイミングを示す操作時刻情報を操作情報としてインタフェース画面操作履歴記録部110へ出力する。
 表示部30は、インタフェース画面制御部20からの機能実行キー部23とインタフェース画面変更キー部22を含むインタフェース画面を表示するよう機能しており、例えばモニタで構成される。インタフェース画面は、所定の機能を示す機能実行キー部23を機能種別ごとに表示し、ユーザにより選択されたインタフェース画面変更キー部22に応じて機能種別ごとに切り替えられる。
 インタフェース画面操作部40は、表示部30に表示されたインタフェース画面に対するユーザからの操作を受け付け、インタフェース画面の機能実行キー部23に対する操作信号に基づき、その機能実行キー部23に対応する機能を実行する命令信号をインタフェース画面制御部20を介して機能実行部70へ出力する。インタフェース画面操作部40は、例えば、タッチパネル、リモコン、コントロールパッドで構成されている。
 音声入力部50は、ユーザからの音声を音声情報として入力するよう機能しており、例えばマイクで構成される。
 音声認識部60は、音声入力部50からの音声情報と優先認識語彙設定部130からの語彙情報に基づき、語彙情報を参照して、入力された音声情報を音声認識するよう構成されている。音声認識部60は、例えば、ユーザからの音声認識を開始する信号を入力すると、音声入力部50からの音声情報と優先認識語彙設定部130からの語彙情報を入力し、語彙情報を参照して音声情報を認識した語彙に対応する機能を判定し、判定した機能を実行する命令信号を機能実行部70へ出力する。
 機能実行部70は、インタフェース画面操作部20を用いて操作された機能実行キー部23の機能、または音声認識部60によって音声認識された語彙に対応する機能を実行するよう構成されている。機能実行部70は、例えば、インタフェース画面制御部20を用いて操作された機能実行キー部23の機能情報を含む命令信号、または音声認識部60によって音声認識された語彙に対応する機能情報を含む命令信号を入力すると、入力した命令信号に含まれる機能情報に基づいて、予め記憶した複数のプログラムの中から機能情報に対応するプログラムを起動して機能を実行する。
インタフェース画面操作履歴記録部110は、インタフェース画面操作部20から入力した機能実行キー部23とインタフェース画面変更キー部22への操作に応じた操作信号に基づいて、機能実行キー部23及びインタフェース画面変更キー部22の操作時刻、及び、所定時間以下の間隔でインタフェース画面変更キー部22が連続して操作された操作内容を、連続操作情報として記録する。インタフェース画面操作履歴記録部110には、機能実行キー部23が操作されるまでにインタフェース画面変更キー部22が連続して操作された操作内容を示す過去の連続操作情報と、現在までに機能実行キー部23が操作されることなく、インタフェース画面変更キー部22が連続して操作されている操作内容を示す現在操作中の連続操作情報が含まれている。
 また、インタフェース画面操作履歴記録部110は、記録した連続操作情報を尤度値付与部120へ出力するよう機能する。なお、インタフェース画面操作履歴記録部110は、これらの操作情報と連続操作情報の記録を、出荷時から現在まで、または起動時から現在まで行っている。
 インタフェース画面操作履歴記録部110は、例えば、インタフェース画面制御部20から入力した操作情報に基づき、操作情報が機能実行キー部23を操作する内容である場合、機能実行キー部23が操作されるまでに所定時間以下の間隔でインタフェース画面変更キー部22が連続して操作された操作内容と各操作ごとの操作時刻を過去の連続操作情報として記録する。すなわち、過去の連続操作情報は、機能を実行した場合の連続操作を示しており、機能を実行しない場合の連続操作を含まない。なお、音声認識により機能を実行した場合も、過去の連続操作情報として記録する。
 インタフェース画面操作履歴記録部110は、操作内容が機能実行キー部23以外を操作する内容である場合、所定時間以下の間隔で連続して行われた操作内容とその操作時刻を更新、追加して現在操作中の連続操作情報として記録しており、現在操作中の連続操作情報を尤度値付与部120へ出力する。インタフェース画面操作履歴記録部110は、現在操作中の連続操作情報を出力すると、続いて過去の連続操作情報を尤度値付与部120へ出力する。以下、単に連続操作情報と記載する場合は、現在操作中の連続操作情報と過去の連続操作情報の両方を含むものとして説明する。
 なお、インタフェース画面操作履歴記録部110は、1操作で機能を実行した場合、機能を実行した操作内容とその操作時刻のみを過去の連続操作情報として記憶する。
 尤度値付与部120は、インタフェース画面操作履歴記録部110に記録された連続操作情報から、機能実行キー部23の表示時間(機能実行キー部23を表示してから表示を終了するまでの時間)を特定し、現時点でユーザが実行を所望する機能であるかの確からしさ(度合い)を示す尤度値を、表示時間が短い順に所望の度合いが高くなるように、機能実行キー部23が示す機能ごとに算出し付与するよう構成されている。
 尤度値付与部120は、例えば、インタフェース画面操作履歴記録部110に記録された現在操作中の連続操作情報に基づき、現在時刻と現在操作中の連続操作情報に含まれる最新の操作時刻との間隔が所定時間以下の場合、現在の操作が最新の連続操作内であると判定する。尤度値付与部120は、現在の操作が最新の連続操作内であると判定した場合、現在操作中の連続操作情報に基づき、表示部30に表示した機能実行キー部23ごとの表示時間を算出する。尤度値付与部120は、各表示時間に基づき、機能実行キー部23の表示時間に応じた尤度値を機能ごとに算出して決定する。尤度値付与部120は機能情報に尤度値を付与して出力する。
 なお、尤度値付与部120は、現在操作中の連続操作情報と過去の連続操作情報に基づき、尤度値を算出するよう構成してもよい。その場合、尤度値付与部120は、現在操作中の連続操作情報と過去の連続操作情報を比較、あるいは過去の連続操作情報を取捨選択して尤度値を算出する。尤度値付与部120は、例えば、インタフェース画面操作履歴記録部110に記録されている、機能実行キー部23が操作されるまでにインタフェース画面変更キー部22が連続して操作された操作内容を示す過去の連続操作情報と、現在までに機能実行キー部23が操作されることなく、インタフェース画面変更キー部22が連続して操作されている操作内容を示す現在操作中の連続操作情報とを比較して算出した一致度を、過去の連続操作情報で実行された機能に対する現在操作で機能実行キー部23が操作された場合の当該機能に付与すべき尤度値と推定して付与する。
 優先認識語彙設定部130は、機能ごとの語彙情報を予め記憶し、尤度値付与部120で設定された尤度値が所定値以上の機能に対応する語彙情報を出力するよう構成されている。優先認識語彙設定部130は、例えば、尤度値付与部120からの機能情報に付与された尤度値に基づき、尤度値が所定値以上の機能情報に対応する語彙情報を音声認識部60へ出力し、音声認識部60において認識する語彙のバリエーションを増加させることで優先的に音声認識させるよう設定する。この優先認識語彙設定部130は、例えば、地図を2画面で表示する機能に対応する語彙の「2画面表示」のバリエーションを増加させる場合は、「2画面マップ」「画面分割」等の言い換え語も認識する語彙に追加する。
 次に、情報処理装置1の表示部30において表示されるインタフェース画面の一例について図2を用いて説明する。
 表示部30には、図2のインタフェース画面21aに示すように、複数のインタフェース画面変更キー部22aと機能実行キー部23が表示される。インタフェース画面変更キー部22aがユーザにより選択されることで、選択されたインタフェース画面変更キー部22aの種類に対応する複数の機能実行キー部23aが表示される。図2においては、インタフェース画面21aが「ナビゲーション設定」画面を示しており、インタフェース画面変更キー部22aとして「画面表示」が選択されており、「画面表示」の機能実行キー部23aとして「1画面,2D表示」、「2画面,2D/2D表示」、「1画面,3D表示」、「2画面,3D/2D表示」が表示されている。この複数の機能実行キー部23aの中からユーザにより1つが選択されることで、選択された機能実行キー部23aに対応する機能が実行される。
 次に、情報処理装置1における連続操作について説明する。図3は情報処理装置1における操作時刻を示しており、横軸は時間軸を示している。図4は情報処理装置1における連続操作を示している。
 図3において、操作時刻T,T,T,T,T,T,T,T,T,T10,T11,Tnowは、インタフェース画面が操作されたタイミングを示している。各操作時刻の間隔は、操作時刻T~Tが5s(秒)、操作時刻T~Tが7秒、操作時刻T~Tが5秒、操作時刻T~Tが6秒、操作時刻T~Tが65秒、操作時刻T~Tが81秒、操作時刻T~Tが73秒、操作時刻T~Tが10秒、操作時刻T~T10が15秒、操作時刻T10~T11が9秒、操作時刻T11~Tnowが10秒を示している。
 ここで、ユーザが操作を行っている際、所定時間以内に連続して操作を行っている場合は、所望の機能の機能実行キー部23を探しているものと考えることができる。そこで、インタフェース画面操作履歴記録部110は、例えば所定時間が30秒に設定されている場合、各操作時刻の間隔が所定時間30秒以下の間隔の連続した操作を連続操作であると判定し、操作時刻T~Tとその操作内容、操作時刻T~Tnowとその操作内容をそれぞれ図4に示すような連続操作(連続操作情報)Pとして記録するようにしている。
 インタフェース画面操作履歴記録部110は、図4に示すように、過去から最新の連続操作情報P,P,・・・,P(TOm,1,TOm,2,・・・,TOm,n,・・・,TOm,mLast=OexeF),・・・,PLastを記録している。また、インタフェース画面操作履歴記録部110は、図4に示すように、操作情報を所定時間以内の間隔で入力して連続操作中、かつ連続操作中に現在時刻まで機能実行キー部23が選択されていない場合、現在操作中の連続操作情報NOW(TOnow,1,TOnow,2,・・・,TOnow,n,・・・,TOnow,nowLast≠OexeF)として、記録している。
 次に、実施の形態1における尤度値について説明する。図5は情報処理装置における機能実行キー部の表示時間と尤度値を示している。
 尤度値付与部120は、インタフェース画面操作履歴記録部110からの現在操作中の連続操作情報に含まれる各操作内容と操作時刻に基づき、図5に示すような機能実行キー部151に対応する機能情報152ごとに表示時間153と尤度値154を算出する。図5において、機能実行キー部151「FK」に対応する機能情報152「B」の表示時間153は「0(sec)」であり、機能実行キー部151「FK」に対応する機能情報152「A」の表示時間153は「5.5(sec)」であり、機能実行キー部151「FK」に対応する機能情報152「D」の表示時間153は「11.2(sec)」であり、機能実行キー部151「FK」に対応する機能情報152「E」の表示時間153は「15.7(sec)」であり、機能実行キー部151「FK」に対応する機能情報152「C」の表示時間153は「25.4(sec)」である。
 尤度値付与部120は、各表示時間153に-1(マイナス1)を乗じて尤度値154を算出する。図5に示すように、機能実行キー部151「FK」に対応する機能情報152「B」の尤度値154は「0」であり、機能実行キー部151「FK」に対応する機能情報152「A」の尤度値154は「-5.5」であり、機能実行キー部151「FK」に対応する機能情報152「D」の尤度値154は「-11.2」であり、機能実行キー部151「FK」に対応する機能情報152「E」の尤度値154は「-15.7」であり、機能実行キー部151「FK」に対応する機能情報152「C」の尤度値154は「-25.4」である。尤度値付与部120は、尤度値154を機能B>A>D>E>Cとなるように算出することにより、ユーザがあまり見ていない機能実行キー部23の機能の尤度値154を高く設定する。尤度値付与部120は、これら各機能情報152に尤度値154を付与して優先認識語彙設定部130へ出力する。優先認識語彙設定部130は、この尤度値154を用いて、既に表示した機能実行キー部23の機能以外の機能に対応する語彙を優先して音声認識するよう設定する。
 なお、上述した尤度値154の算出方法は一例であり、尤度値154が機能実行キー部23ごとの表示時間に対して反比例の値となるよう設定すればよい。尤度値付与部120は、例えば予め設定された所定値から機能ごとの表示時間に相当する値を差し引いた値を尤度値として算出するように構成してもよい。このように構成すれば、表示時間の少ない機能実行キー部23の機能に対応する語彙を優先して音声認識することができるという効果が得られる。
 次に、実施の形態1の情報処理装置1における処理動作について図6に示すフローチャートを用いて説明する。
 情報処理装置1はユーザからインタフェース画面操作部40を介してインタフェース画面の操作がなされると処理を開始する(図6の“開始”)。
 インタフェース画面制御部20は、ユーザからインタフェース画面操作部40を介してインタフェース画面変更キー部22または機能実行キー部23が操作されると、操作されたインタフェース画面変更キー部22または機能実行キー部23を示す操作内容と、操作されたタイミングを示す操作時刻をインタフェース画面操作履歴記録部110へ出力する。
 インタフェース画面操作履歴記録部110は、インタフェース画面制御部20から入力した操作情報に基づき、機能実行キー部23が操作されるまで、所定時間以下の間隔で連続して行われた操作内容とその操作時刻を追加、更新して現在操作中の連続操作情報として記録する(ステップST101)。
 インタフェース画面操作履歴記録部110は、ステップST101の処理と同時に、入力された操作情報の操作内容が機能実行キー部23の操作であるか機能実行キー部23以外の操作であるかを判定する(ステップST102)。
 インタフェース画面操作履歴記録部110は、ステップST102において機能実行キー部23の操作であると判定した場合(ステップST102“NO”)、機能実行キー部23を操作するまでに所定時間以下の間隔で連続して行われた操作内容とその操作時刻を過去の連続操作情報として記録し、次の操作情報が入力されるまで処理を終了する(“終了”)。
 一方、インタフェース画面操作履歴記録部110は、ステップST102において機能実行キー部23以外の操作であると判定した場合(ステップST102“YES”)、所定時間以下の間隔で連続して行われた操作内容とその操作時刻を更新、追加して現在操作中の連続操作情報NOWとして記録し、現在操作中の連続操作情報NOWを尤度値付与部120へ出力する。
 尤度値付与部120は、現在操作中の連続操作情報NOWに基づき、連続操作情報NOWの連続操作期間中に表示部30を介して表示した機能実行キー部23ごとの表示時間を算出する(ステップST103)。
 尤度値付与部120は、ステップST103において機能実行キー部23ごとの表示時間を算出すると、各表示時間に基づき機能ごとの尤度値を算出して決定する。尤度値付与部120は、決定した尤度値を各機能情報に付与して優先認識語彙設定部130へ出力する(ステップST104)。
 優先認識語彙設定部130は、尤度値付与部120から尤度値が付与された各機能情報を入力すると、機能情報に付与された尤度値に基づき尤度値が所定値以上であるかを判定する。優先認識語彙設定部130は、音声認識部60に対して、所定値以上の尤度値が付与されている機能情報に対応する語彙情報を設定し、音声認識可能な語彙のバリエーションを増加させる(ステップST105)。
 音声認識部60は、優先認識語彙設定部130からの語彙情報と音声入力部50からの音声情報に基づき、音声情報に対応する語彙情報を認識し、語彙情報に対応して予め設定された機能情報を機能実行部70へ出力することにより機能を実行するよう命令する。
 このとき、音声認識部60は、入力した音声情報とバリエーションを増加した語彙情報に基づいて音声認識を行うことにより、表示時間の少ない機能実行キー部23の機能に対応する語彙を優先して音声認識することができ、ユーザの所望する機能に対応する音声を認識する可能性を高くしている。
 以上のように、実施の形態1によれば、情報処理装置1は、所定の機能を示す機能実行キー部23を機能種別ごとに有するインタフェース画面と、インタフェース画面を機能種別ごとに切り替えるインタフェース画面変更キー部22とを表示する表示部30と、表示部30に表示された機能実行キー部23およびインタフェース画面変更キー部22への操作を受け付けるインタフェース画面操作部40と、インタフェース画面操作部40からインタフェース画面変更キー部22への操作に応じた操作信号を入力し、当該操作信号に基づいて表示部30におけるインタフェース画面の切り替え表示を制御するインタフェース画面制御部20と、インタフェース画面操作部40から入力した機能実行キー部23とインタフェース画面変更キー部22への操作に応じた操作信号に基づいて、機能実行キー部23及びインタフェース画面変更キー部22の操作時刻、及び、所定時間以下の間隔でインタフェース画面変更キー部22が連続して操作された操作内容を、連続操作情報として記録するインタフェース画面操作履歴記録部110と、インタフェース画面操作履歴記録部110に記録された連続操作情報から、機能実行キー部23の表示時間を特定し、ユーザが所望する度合いを示す尤度値を、表示時間が短い順に所望の度合いが高くなるように、機能実行キー部23が示す機能ごとに算出し付与する尤度値付与部120と、機能ごとの語彙情報を予め記憶し、尤度値付与部120で設定された尤度値が所定値以上の機能に対応する語彙情報を出力する優先認識語彙設定部130と、優先認識語彙設定部130から入力した語彙情報を参照して、入力された音声を音声認識する音声認識部60と、インタフェース画面操作部40を用いて操作された機能実行キー部23の機能、または音声認識部60によって音声認識された語彙に対応する機能を実行する機能実行部70と、を備えるよう構成したので、現在操作中の連続操作において既に表示した機能実行キー部の機能以外の機能に対応する語彙を音声認識しやすくできる。その結果、情報処理装置1は音声認識によりユーザが所望する機能を実行しやすくなるという効果が得られる。
 また、実施の形態1によれば、情報処理装置1は、インタフェース画面操作履歴記録部110に記録されている、機能実行キー部23が操作されるまでにインタフェース画面変更キー部22が連続して操作された操作内容を示す過去の連続操作情報と、現在までに機能実行キー部23が操作されることなく、インタフェース画面変更キー部22が連続して操作されている操作内容を示す現在操作中の連続操作情報とを比較して、現在操作中の連続操作情報と類似する操作内容の過去の連続操作情報で実行された機能の尤度値を、現在操作で機能実行キー部23が操作された場合の当該機能に付与すべき尤度値と推定して付与する尤度値付与部120とを備えるよう構成したので、過去に行った連続操作を適応させて、ユーザが所望する機能を推定することができるという効果が得られる。
実施の形態2.
 実施の形態1においては、ユーザが所望する確からしさ(度合い)を示す機能ごとの尤度値に基づき音声認識の優先認識語彙情報を設定する構成について説明した。実施の形態2はユーザが所望する機能を探している際に費やした労力を加味して音声認識の優先認識語彙情報を設定する構成について説明する。
 図7は実施の形態2に係る情報処理装置の機能的構成を示している。実施の形態2の情報処理装置1Aは、実施の形態1の情報処理装置1の構成に音声ガイダンス情報生成部131とコスト算出部140と音声出力部150を加えた構成である。
 情報処理装置1Aは、図7に示すように、インタフェース画面制御部20、表示部30、インタフェース画面操作部40、音声入力部50、音声認識部60A、機能実行部70、インタフェース画面操作履歴記録部110、尤度値付与部120A、優先認識語彙設定部130A、音声ガイダンス情報生成部131、コスト算出部140、音声出力部150で構成されている。
 インタフェース画面制御部20、表示部30、インタフェース画面操作部40、音声入力部50、機能実行部70、インタフェース画面操作履歴記録部110、尤度値付与部120Aは、実施の形態1と同様の構成であるため説明を省略する。
 コスト算出部140は、インタフェース画面操作履歴記録部110に記録される、機能実行キー部23が操作されるまでにインタフェース画面変更キー部22が連続して操作された操作内容を示す過去の連続操作情報と、現在までに機能実行キー部23が操作されることなく、インタフェース画面変更キー部22が連続して操作されている操作内容を示す現在操作中の連続操作情報とを用いて、現在操作でインタフェース画面変更キー部22が連続して操作されている時間と、複数の過去の連続操作情報から特定した過去の機能実行キー部23が操作されるまでの経過時間の平均値との差を、機能を実行するまでに要したユーザの労力を示すコスト値として算出するよう構成されている。コスト算出部140は、例えば、インタフェース画面操作履歴記録部110に記録された現在操作中の連続操作情報と過去の連続操作情報に基づき、現在操作中の連続操作における経過時間(最新の操作時刻-最初の操作時刻)と過去の連続操作における経過時間の平均時間(連続操作における経過時間の総和/全連続操作回数)の差をコスト値として算出する。
 なお、コスト算出部140は、別の方法によりコスト値を算出するよう構成してもよい。その場合、コスト算出部140は、例えば、現在操作中の連続操作情報と過去の連続操作情報を比較、あるいは過去の連続操作情報を取捨選択してコスト値を算出する。コスト算出部140は、例えば、インタフェース画面操作履歴記録部110に記録された過去の連続操作情報と現在操作中の連続操作情報を比較し、ユーザの労力を示すコスト値を、現在操作中の経過時間と、現在操作中の操作内容に類似する過去の連続操作情報における機能実行キー部23が操作されるまでの経過時間との差で算出する。
 優先認識語彙設定部130Aは、コスト算出部140からのコスト値が所定値未満の場合、優先認識語彙設定を行わずに処理を終了するよう構成されている。また、優先認識語彙設定部130Aは、コスト算出部140からのコスト値が所定値以上の場合、尤度値付与部120Aからの全ての機能情報ごとの尤度値に基づき、尤度値が所定値未満の機能情報に対応する語彙情報を音声認識しないように解除設定するよう構成されている。さらに、優先認識語彙設定部130Aは、尤度値が最も高い機能に対応する語彙情報に基づき、その語彙情報の発話を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示するよう機能する。
 優先認識語彙設定部130Aは、例えば、コスト算出部140からのコスト値が所定値以上の場合、尤度値付与部120Aからの全ての機能情報と機能情報ごとの尤度値に基づき、予め設定された所定値未満の尤度値が付与された機能情報に対応する語彙情報を音声認識部60Aで認識されないよう解除する。優先認識語彙設定部130Aは、続いて尤度値付与部120Aからの機能情報ごとの尤度値に基づき、最も高い尤度値の機能情報に対応する語彙の発話を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示信号を出力する
 音声認識部60Aは、音声入力部50から入力する音声情報に基づき、音声入力部50からの再入力回数が所定回数未満の場合、音声の再入力を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示する。音声認識部60Aは、例えば、音声認識ができないと判定した場合、音声入力部50から入力する音声情報に基づいて音声情報の再入力回数を確認し、再入力回数が予め設定された所定回数未満であるかを判定する。音声認識部60Aは、再入力回数が所定回数未満であると判定した場合、音声の再入力を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示信号を出力する。なお、音声認識部60Aは、再入力回数が所定回数以上であると判定した場合、音声認識処理がエラーになったことを通知する音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示信号を出力する。
 音声ガイダンス情報生成部131は、優先認識語彙設定部130Aからの指示に基づき、発話を促す音声ガイダンス情報を出力するよう機能する。音声ガイダンス情報生成部131は、例えば優先認識語彙設定部130Aからの指示信号にしたがって、予め記憶された機能ごとの音声ガイダンス情報の中から指示された機能の音声ガイダンス情報を生成して音声出力部150へ出力する。音声ガイダンス情報は、例えば「経路設定に関する操作をお探しですか?」や「経路設定に関する操作内容をお話しください」など、ユーザとの対話形式となるような複数の内容が予め記録されている。
 また、音声ガイダンス情報生成部131は、音声認識部60Aからの指示に基づき、音声の再入力を促す音声ガイダンス情報または音声認識エラーを通知する音声ガイダンス情報を出力するよう機能する。音声ガイダンス情報生成部131は、例えば音声認識部60Aからの指示信号にしたがって、予め記憶された機能ごとの音声ガイダンス情報の中から指示された機能の音声ガイダンス情報を生成して音声出力部150へ出力する。この場合の音声ガイダンス情報は、例えば「もう一度、経路設定に関する操作内容をお話しください」と音声の再入力を促したり、「認識できませんでした」と音声認識のエラーを通知したりする内容が予め記録されている。
 音声出力部150は、音声ガイダンス情報生成部131からの音声ガイダンス情報を音波として出力するよう機能し、例えばスピーカで構成されている。
 ここで、コスト算出部140のコスト値算出方法について説明する。
 コスト算出部140は、例えば上述した図4に示す現在操作中のインタフェース画面連続操作NOWにおける経過時間を次の式(1)で算出する。
 
Figure JPOXMLDOC01-appb-I000001
 
 現在操作中の連続操作NOWにおける経過時間Snowは、式(1)に示すように、最新の操作時刻TOnow,nowLastから最初の操作時刻TOnow,1を引き算した値を示している。
 コスト算出部140は、続いて、過去の連続操作における経過時間の平均時間E(SPm)を次の式(2)で算出する。
 
Figure JPOXMLDOC01-appb-I000002
 
 過去の連続操作P(m=1,2,・・・,Last)における経過時間SPmは、機能実行キー部23の操作時刻TOm,mLastから連続操作の最初の操作時刻TOm,1を引き算した式(2)に示す値である。
 過去の連続操作P(m=1,2,・・・,Last)における経過時間SPmの平均時間E(SPm)は、式(2)に示すように、連続操作における経過時間SPmの総和を全連続操作回数Last(1~Last)で割り算した値を示している。
 コスト算出部140は、続いて、式(1)で算出した現在操作中の連続操作における経過時間Snowと、式(2)で算出した過去の連続操作における経過時間の平均時間E(SPm)の差をコスト値Costとして次の式(3)で算出する。
 
Cost=Snow-E(SPm)       (3)
 
 次に、実施の形態2に係る情報処理装置における処理動作について図8に示すフローチャートを用いて説明する。
 情報処理装置1Aはユーザからインタフェース画面操作部40を介してインタフェース画面の操作がなされると処理を開始する(図8の“開始”)。
 図8において、ステップST101~ステップST104までの処理動作は実施の形態1と同様であるため、その処理動作についての説明を省略する。
 コスト算出部140は、尤度値付与部120AのステップST104で機能ごとの尤度値が優先認識語彙設定部130Aへ出力されると、インタフェース画面操作履歴記録部110に記録された現在操作中の連続操作情報に基づき、現在操作中の連続操作情報における最新の操作時刻TOnow,nowLastから最初の操作時刻TOnow,1を引き算して経過時間Snowを算出する(ステップST201)。
 コスト算出部140は、ステップST201に続いて、連続操作ごとに機能実行キー部23の操作時刻TOm,mLastから最初の操作時刻TOm,1を引き算して、過去の連続操作Pにおける経過時間SPmを算出し、過去の連続操作P(m=1,2,・・・,Last)の経過時間SPm(m=1,2,・・・,Last)の総和を算出する。
 コスト算出部140は、過去の連続操作P(m=1,2,・・・,Last)の経過時間SPm(m=1,2,・・・,Last)の総和を全連続操作回数Last(1~Last)で割り算して、過去の連続操作P(m=1,2,・・・,Last)における経過時間SPmの平均時間E(SPm)を算出する(ステップST202)。
 コスト算出部140は、ステップST202に続いて、現在操作中の連続操作における経過時間Snowと過去の連続操作における経過時間の平均時間E(SPm)の差をコスト値Costとして算出し、優先認識語彙設定部130Aへ出力する。
 優先認識語彙設定部130Aは、コスト算出部140からのコスト値Cost(=Snow-E(SPm))が予め設定された所定値以上であるか(Snow-E(SPm)≧所定値)を判定する(ステップST203)。優先認識語彙設定部130Aは、ステップST203において、コスト値Costが予め設定された所定値未満であると判定した場合(ステップST203“NO”)、優先認識語彙設定を行わずに処理を終了する(“終了”)。
 一方、優先認識語彙設定部130Aは、ステップST203において、コスト値Costが予め設定された所定値以上であると判定した場合(ステップST203“YES”)、尤度値付与部120Aからの機能情報に付与された尤度値に基づき、音声認識部60Aに対して、尤度値が所定値以上の機能情報に対応する語彙情報を設定し、尤度値が所定値未満の機能情報に対応する語彙情報の設定を解除する(ステップST204)。
 優先認識語彙設定部130Aは、ステップST204において尤度値が所定値未満の機能情報に対応する語彙情報を解除すると、発話を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示信号を出力する。
 音声ガイダンス情報生成部131は、優先認識語彙設定部130AのステップST204に続いて指示信号を入力すると、発話を促す音声ガイダンス情報を生成し、音声出力部150を介して出力する(ステップST205)。
 音声認識部60Aは、音声ガイダンス情報生成部131のステップST205で発話を促す音声ガイダンス情報が出力されると、音声入力部50を介して音声情報が入力されたかを判定する(ステップST206)。音声認識部60Aは、ステップST206において音声情報が入力されていないと判定した場合(ステップST206“NO”)、ステップST206の判定を繰り返す。
 音声認識部60Aは、ステップST206において音声情報が入力されたと判定した場合(ステップST206“YES”)、音声入力部50からの音声情報に基づき、音声認識処理を行う(ステップST207)。
 音声認識部60Aは、ステップST207において音声認識ができたかどうかを判定する(ステップST208)。音声認識部60Aは、ステップST208において音声認識ができたと判定した場合(ステップST208“YES”)、機能実行部70へ機能を実行するよう命令信号を出力する。
 機能実行部70は、音声認識部60Aからの命令信号に含まれる機能情報に基づいて、予め記憶した複数のプログラムの中から機能情報に対応するプログラムを起動して機能を実行し(ステップST209)、処理を終了する(“終了”)。
 音声認識部60Aは、ステップST208において音声認識ができないと判定した場合(ステップST208“NO”)、音声入力部50から入力する音声情報に基づいて音声情報の再入力回数を確認し、再入力回数が所定回数N以上であるかを判定する(ステップST210)。
 音声認識部60Aは、ステップST210において、再入力回数が所定回数N未満であると判定した場合(ステップST210“NO”)、音声の再入力を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示信号を出力する。
 音声ガイダンス情報生成部131は、優先認識語彙設定部130AのステップST210“NO”で優先認識語彙設定部130Aから指示信号を入力すると、音声の再入力を促す音声ガイダンス情報を生成し、音声出力部150を介して出力し(ステップST211)、ステップST206からの処理動作を繰り返す。
 一方、音声認識部60Aは、ステップST210において、再入力回数が所定回数N以上であると判定した場合(ステップST210“YES”)、音声認識処理がエラーになったことを通知する音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示信号を出力する。
 音声ガイダンス情報生成部131は、優先認識語彙設定部130AのステップST210“YES”で指示信号を入力すると、音声認識処理がエラーになったことを通知する音声ガイダンス情報を生成し、音声出力部150を介して出力し(ステップST212)、処理を終了する(“終了”)。
 以上のように、実施の形態2によれば、情報処理装置1Aは、実施の形態1の構成を備えるとともに、インタフェース画面操作履歴記録部110に記録される、機能実行キー部23が操作されるまでにインタフェース画面変更キー部22が連続して操作された操作内容を示す過去の連続操作情報と、現在までに機能実行キー部23が操作されることなく、インタフェース画面変更キー部22が連続して操作されている操作内容を示す現在操作中の連続操作情報とを用いて、現在操作でインタフェース画面変更キー部22が連続して操作されている経過時間(最新の操作時刻-最初の操作時刻)と、複数の過去の連続操作情報から特定した過去の機能実行キー部23が操作されるまでの経過時間の平均値(連続操作における経過時間の総和/全連続操作回数)との差を、機能を実行するまでに要したユーザの労力を示すコスト値として算出するコスト算出部140と、コスト算出部140からのコスト値が所定値以上の場合、尤度値付与部120Aで設定された全ての機能情報ごとの尤度値に基づき、尤度値が所定値未満の機能情報に対応する語彙情報を解除するよう設定する優先認識語彙設定部130Aと、を備えるよう構成したので、ユーザが消費した労力(コスト値)が大きい場合に所望する機能が見つかっていないと判定し、高い尤度値の機能に対応する語彙をそのバリエーションを増加させて音声認識することができる。音声認識により所望の機能を実行できる場合が従来よりも多くなる。その結果、情報処理装置1Aは、ユーザが所望の機能を達成できずに操作を諦める場合の発生頻度を低減することができるという効果が得られる。
 また、実施の形態2によれば、情報処理装置1Aは、インタフェース画面操作履歴記録部110に記録された過去の連続操作情報と現在操作中の連続操作情報を比較し、ユーザの労力を示すコスト値を、現在操作中の経過時間と、現在操作中の操作内容に類似する過去の連続操作情報における機能実行キー部23が操作されるまでの経過時間との差で算出するコスト算出部140と、を備えるよう構成したので、過去に行った連続操作を適応させて、ユーザが操作した労力を推定することができるという効果が得られる。
 さらに、実施の形態2によれば、情報処理装置1Aは、コスト算出部140からのコスト値が所定値以上の場合、尤度値が高い機能に対応する語彙の発話を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示する優先認識語彙設定部130Aと、音声入力部50から入力する音声情報に基づき、音声入力部50からの再入力回数が所定回数以上の場合、音声の再入力を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示する音声認識部60Aと、優先認識語彙設定部130Aからの指示または音声認識部60Aからの指示に基づき、発話を促す音声ガイダンス情報を生成する音声ガイダンス情報生成部131と、音声ガイダンス情報生成部131からの音声ガイダンス情報に基づき音声ガイダンスを出力する音声出力部150とを備えるよう構成したので、ユーザが探している機能実行キー部23を見つけられない場合に音声ガイダンスにより発話を促すよう案内することができる。その結果、情報処理装置1Aは、ユーザが所望する機能を達成できずに操作を諦める場合の発生頻度をより低減することができるという効果が得られる。
実施の形態3.
 実施の形態2においては、ユーザが消費したであろう労力を示すコスト値を各連続操作における経過時間に基づいて算出する構成を説明した。実施の形態3は各連続操作における経過時間を重み付けしてコスト値を算出する構成について説明する。
 図9は、実施の形態3に係る情報処理装置の機能的構成を示している。実施の形態3の情報処理装置1Bは、実施の形態2の情報処理装置1Aの構成に操作履歴切換部24を加えた構成である。
 情報処理装置1Bは、図9に示すように、インタフェース画面制御部20、表示部30、インタフェース画面操作部40、音声入力部50、音声認識部60A、機能実行部70、尤度値付与部120B、優先認識語彙設定部130B、音声ガイダンス情報生成部131、コスト算出部140B、音声出力部150で構成されている。
 表示部30、インタフェース画面操作部40、音声入力部50、機能実行部70、インタフェース画面操作履歴記録部110、音声ガイダンス情報生成部131、音声出力部150は、実施の形態1と同様の構成であるため説明を省略する。
 インタフェース画面制御部20は、予め設定された複数のインタフェース画面情報21を記憶しており、インタフェース画面情報21を表示部30を介してインタフェース画面として表示するよう構成されている。インタフェース画面情報21は、複数のインタフェース画面変更キー部22と複数の機能実行キー部23と操作履歴切換部24を有している。操作履歴切換部24は、操作情報に付与するユーザごとの情報(ユーザ情報)を切り換える操作キーである。操作履歴切換部24は、例えばユーザによりインタフェース画面操作部40を介して操作されることで、予め記憶された複数のユーザ情報の中から指定されたユーザ情報に切り換え、指定されたユーザ情報を操作情報に付与して出力するよう構成されている。なお、複数のインタフェース画面変更キー部22と複数の機能実行キー部23は、実施の形態1と同様であるため、説明を省略する。
 また、インタフェース画面制御部20は、ユーザからインタフェース画面操作部40を介して入力した操作信号に基づき、操作内容と操作時刻にユーザ情報を付与した操作情報をインタフェース画面操作履歴記録部110へ出力するよう機能する。インタフェース画面制御部20は、例えば、ユーザからインタフェース画面操作部40を介してインタフェース画面変更キー部22または機能実行キー部23が操作されると、操作されたインタフェース画面変更キー部22または機能実行キー部23を示す操作内容と、操作されたタイミングを示す操作時刻を示す操作情報にユーザ情報を付与してインタフェース画面操作履歴記録部110へ出力する。
 インタフェース画面操作履歴記録部110は、表示部30の機能実行キー部23とインタフェース画面変更キー部22に対するユーザごとの操作信号に基づく操作内容情報と操作時刻情報をインタフェース画面制御部20から入力し、所定時間以下の間隔で操作された操作内容と操作時刻を示す連続操作情報をユーザごとに記録するよう機能する。インタフェース画面操作履歴記録部110は、これらの操作情報と連続操作情報の記録を、出荷時から現在まで、または起動時から現在まで行っている。
 インタフェース画面操作履歴記録部110は操作履歴選択部111を有している。操作履歴選択部111は、ユーザごとの連続操作情報の中から操作履歴切換部24で指定されたユーザの連続操作情報を選択して出力するよう機能する。操作履歴選択部111は、例えば、ユーザにより操作履歴切換部24で指定されたユーザ情報を記憶しており、ユーザごとの連続操作情報の中から操作履歴切換部24からのユーザ情報に対応するユーザの連続操作情報を選択して尤度値付与部120Bとコスト算出部140Bへ出力する。
 尤度値付与部120Bは、現在操作中の連続操作において選択された操作内容の選択パターン情報と過去の連続操作において選択された操作内容の選択パターン情報の一致度に基づき、現時点でユーザが実行を所望する機能であるかの確からしさ(度合い)を示す尤度値をユーザごとに決定するよう機能する。
 尤度値付与部120Bは、例えば、インタフェース画面操作履歴記録部110に記録された現在操作中の連続操作情報と過去の連続操作情報に基づき、現在操作中の連続操作における操作内容の選択パターン情報と過去の連続操作ごとの操作内容の選択パターン情報を抽出する。尤度値付与部120Bは、現在操作中の連続操作における操作内容の選択パターン情報と過去の連続操作における操作内容の選択パターン情報の一致度を算出し、この一致度を過去の連続操作で操作した機能の尤度値として付与した機能情報を出力する。この尤度値の算出方法については後述する。
 コスト算出部140Bは、過去の連続操作情報から特定した機能実行キー部23が操作されるまでの経過時間を、当該機能実行キー部23の機能に設定された尤度値で重み付けし、現在操作でインタフェース画面変更キー部22が連続して操作されている時間と、複数の過去の連続操作情報から導出した重み付けした経過時間の平均値との差を、機能を実行するまでに要したユーザの労力を示すコスト値として算出するよう構成されている。
 コスト算出部140Bは、例えば、現在操作中の連続操作情報に基づき現在操作中の連続操作における経過時間(最新の操作時刻-最初の操作時刻)を算出する。また、コスト算出部140Bは、過去の連続操作情報と尤度値に基づき、尤度値で乗算して重み付けした過去の連続操作における経過時間の平均時間((尤度値×各連続操作における経過時間)の総和/全連続操作回数)を算出する。コスト算出部140Bは、現在操作中の連続操作における経過時間と、尤度値を乗算して重み付けした過去の連続操作における経過時間の平均時間との差分値をコスト値として算出する。
 優先認識語彙設定部130Bは、コスト算出部140Bからのコスト値が所定値以上の場合、尤度値付与部120Bからの機能ごとの尤度値に応じて、各機能に対応する語彙情報を設定するよう機能する。優先認識語彙設定部130Bは、例えば、コスト算出部140Bからのコスト値が所定値0以上の場合、尤度値付与部120Bからの機能ごとの尤度値に応じて、尤度値が所定値以上の機能に対応する語彙情報を増加して設定し、尤度値が所定値未満の機能に対応する語彙情報を解除して設定する。
 ここで、実施の形態3における尤度値付与部120Bの尤度値算出方法について説明する。
 尤度値付与部120Bは、インタフェース画面操作履歴記録部110に記録された連続操作情報に基づき、例えば上述した図4に示す現在操作中の連続操作NOWにおける操作内容の選択パターン情報Vnow=(Onow,1,Onow,2,・・・,Onow,nowLast)と過去の連続操作Pにおける操作内容の選択パターン情報VPm=(Om,1,Om,2,・・・,Om,mLast)を抽出し、選択パターン情報Vnowと選択パターン情報VPmの一致度を算出する。尤度値付与部120Bは、算出した一致度を連続操作Pにおいて実行した機能Xの尤度値Wxとして機能情報とともに出力する。なお、尤度値付与部120Bは、過去の連続操作Pにおいて機能Xが複数回実行されている場合、複数の一致度のうちの最大値を尤度値Wxとする。
 一致度は、何らかの基準により判断して設定する。例えば、以下(1)、(2)のように設定する。
(1)インタフェース変更キー部22の操作内容が一致している機能ほど高い一致度となるように設定する。
(2)インタフェース画面の表示内容が一致している機能ほど高い一致度となるように設定する。
 なお、過去の連続操作Pとの一致度から機能の尤度値を決めるので、過去の連続操作Pが存在しない機能の尤度値は、ゼロとする。
 インタフェース変更キー部22の操作内容が一致している機能ほど高い一致度となるように設定する場合の算出例を以下に示す。

(インタフェース変更キー部22の操作内容の一致度の算出例)
 インタフェース変更キー部22として用意する操作f1~fのそれぞれ(j=1, ..., n)に対して、過去の連続操作Pと現在操作中の連続操作とでの操作回数の差が大きいほど小さな値になる以下の操作類似度Rmjを計算する。
  Rmj=1/(1+|[過去の連続操作Pで操作した回数]
         -[現在操作中の連続操作で操作した回数]|)
 過去の連続操作Pごとに、操作f1~fに対して、操作類似度Rmjの和を取ったものを操作一致度Smとして計算する。操作一致度Smを、過去の連続操作Pで実行した機能の尤度値として付与する。
 インタフェース画面の表示内容が一致している機能ほど高い一致度となるように設定する場合の算出例を以下に示す。

(インタフェース画面の表示内容の一致度の算出例)
 インタフェース画面として用意する画面I1~Iのそれぞれ(j=1, ..., n)に対して、過去の連続操作Pと現在操作中の連続操作とでの表示有無の差が大きいほど小さな値になる以下の表示類似度Hmjを計算する。
  Hmj=1 過去の連続操作Pmと現在操作中の連続操作でともに表示している場合
  Hmj=1 過去の連続操作Pmと現在操作中の連続操作でともに表示していない場合
  Hmj=0 過去の連続操作Pmと現在操作中の連続操作のどちらかだけで表示している場合
 過去の連続操作Pごとに、画面I1~Iに対して、表示類似度Hmjの和を取ったものを表示一致度Kmとして計算する。表示一致度Kmを、過去の連続操作Pで実行した機能の尤度値として付与する。
 このように尤度値を算出することで、一致度が高い過去の選択パターンで実行した機能に対応する語彙情報を優先して音声認識するようにできる。なお、実施の形態3の尤度値付与部120Bにおいては、実施の形態1,2同様に尤度値を算出するよう構成しても良い。
 ここで、実施の形態3におけるコスト算出部140Bのコスト値算出方法について説明する。
 コスト算出部140Bは、実施の形態1に示した式(1)により現在操作中の連続操作NOWにおける経過時間Snowを算出する。
 コスト算出部140Bは、続いて、過去の連続操作における経過時間の平均時間E(Wx*SPm)を次の式(4)で算出する。
 
Figure JPOXMLDOC01-appb-I000003
 
 過去の連続操作における経過時間の平均時間E(Wx*SPm)は、式(4)に示すように、連続操作Pにおいて実行した機能Xの尤度値Wxを連続操作Pにおける経過時間SPmに乗算した値である。
 コスト算出部140Bは、式(1)で算出した現在操作中の連続操作における経過時間Snowと、式(2)で算出した過去の連続操作における経過時間の平均時間E(Wx*SPm)の差をコスト値Costとして次の式(5)で算出する。
 
Cost=Snow-E(Wx*SPm)    (5)
 
 次に、実施の形態3に係る情報処理装置における処理動作について図10に示すフローチャートを用いて説明する。
 情報処理装置1Bはユーザからインタフェース画面操作部40を介してインタフェース画面の操作がなされると処理を開始する(図8の“開始”)。
 インタフェース画面制御部20は、ユーザ情報を切り換える操作履歴切換部24をインタフェース画面に表示するとともに操作を促す表示を行う。インタフェース画面制御部20は、ユーザからインタフェース画面操作部40を介して操作履歴切換部24の操作を入力すると、予め設定された複数のユーザ情報の中から指定されたユーザ情報を選択する。
 インタフェース画面制御部20は、続いて、ユーザからインタフェース画面操作部40を介してインタフェース画面変更キー部22または機能実行キー部23が操作されると、操作されたインタフェース画面変更キー部22または機能実行キー部23を示す操作内容と、操作されたタイミングを示す操作時刻を示す操作情報にユーザ情報を付与してインタフェース画面操作履歴記録部110へ出力する。
 インタフェース画面操作履歴記録部110は、インタフェース画面制御部20から入力したユーザごとの操作情報に基づき、機能実行キー部23が操作されるまで、所定時間以下の間隔で連続して行われた操作内容とその操作時刻を追加、更新して現在操作中の連続操作情報として記録する(ステップST101)。
 インタフェース画面操作履歴記録部110は、ステップST101において現在操作中の連続操作情報を更新して記録すると、入力された操作情報の操作内容が機能実行キー部23の操作であるか機能実行キー部23以外の操作であるかを判定する(ステップST102)。
 インタフェース画面操作履歴記録部110は、ステップST102において機能実行キー部23の操作であると判定した場合(ステップST102“NO”)、機能実行キー部23を操作するまでに所定時間以下の間隔で連続して行われた操作内容とその操作時刻を連続操作情報として記録し、次の操作情報が入力されるまで処理を終了する(“終了”)。
 一方、インタフェース画面操作履歴記録部110は、ステップST102において機能実行キー部23以外の操作であると判定した場合(ステップST102“YES”)、所定時間以下の間隔で連続して行われた操作内容とその操作時刻を更新、追加して現在操作中の連続操作情報として記録し、この現在操作中の連続操作情報と過去の連続操作情報を尤度値付与部120Bへ出力する。
 尤度値付与部120Bは、インタフェース画面操作履歴記録部110から現在操作中の連続操作情報と過去の連続操作情報を入力すると、現在操作中の連続操作情報に基づき現在操作中の連続操作NOWにおける操作内容の選択パターン情報Vnowを抽出する(ステップST301)。
 尤度値付与部120Bは、ステップST301に続いて、過去の連続操作情報に基づき過去の連続操作P(m=1,2,・・・,Last)ごとに操作内容の選択パターン情報VPm(m=1,2,・・・,Last)を抽出する(ステップST302)。
 尤度値付与部120Bは、ステップST301で抽出した選択パターン情報VnowとステップST302で抽出した選択パターン情報VPmの一致度を算出し、算出した一致度を連続操作Pで実行された機能Xの尤度値Wxとして機能情報に付与してコスト算出部140Bと優先認識語彙設定部130Bへ出力する(ステップST303)。
 コスト算出部140Bは、尤度値付与部120BのステップST303で機能ごとの尤度値Wxが優先認識語彙設定部130Bへ出力されると、インタフェース画面操作履歴記録部110に記録された現在操作中の連続操作情報に基づき、現在操作中の連続操作における最新の操作時刻TOnow,nowLastから最初の操作時刻TOnow,1を引き算して、現在操作中の連続操作における経過時間Snowを算出する(ステップST304)。
 コスト算出部140Bは、ステップST304に続いて、連続操作ごとに機能実行キー部23の操作時刻TOm,mLastから最初の操作時刻TOm,1を引き算して、過去の連続操作P(m=1,2,・・・,Last)ごとに経過時間SPm(m=1,2,・・・,Last)を算出する。
 コスト算出部140Bは、過去の連続操作P(m=1,2,・・・,Last)の経過時間SPm(m=1,2,・・・,Last)に尤度値付与部120Bからの尤度値Wxを乗算して重み付けを行い、過去の連続操作P(m=1,2,・・・,Last)ごとに重み付けした経過時間(Wx*SPm(m=1,2,・・・,Last))の総和を全連続操作回数Last(1~Last)で割り算して、過去の連続操作P(m=1,2,・・・,Last)ごとに重み付けした経過時間SPmの重み付け平均時間E(Wx*SPm)を算出する(ステップST305)。
 コスト算出部140Bは、ステップST304で算出した現在操作中の連続操作における経過時間SnowとステップST305で算出した重み付け平均時間E(Wx*SPm)の差分をコスト値Costとして優先認識語彙設定部130Bへ出力する。
 優先認識語彙設定部130Bは、コスト算出部140Bからのコスト値Cost(=Snow-E(Wx*SPm))が予め設定された所定値以上であるか(Snow-E(Wx*SPm)≧所定値)を判定する(ステップST306)。ここでは、所定値が「0」で設定されているものとして、現在操作中の連続操作における経過時間Snowが重み付け平均時間E(Wx*SPm)以上であるかを判定している。
 優先認識語彙設定部130Bは、ステップST306において、コスト値Costが予め設定された所定値「0」未満であると判定した場合(ステップST306“NO”)、優先認識語彙設定を行わずに処理を終了する(“終了”)。
 一方、優先認識語彙設定部130Bは、ステップST306において、コスト値Costが予め設定された所定値「0」以上であると判定した場合(ステップST306“YES”)、音声認識部60Aに対して、所定値以上の尤度値Wxが付与されている機能情報に対応する語彙情報を設定し、音声認識可能な音声のバリエーションを増加させる(ステップST307)。
 優先認識語彙設定部130Bは、ステップST307に続いて、音声認識部60Aに対して、所定値未満の尤度値Wxが付与されている機能情報に対応する語彙情報の設定を解除し、音声認識可能な音声のバリエーションを削減する(ステップST308)。
 優先認識語彙設定部130Bは、ステップST308において尤度値が所定値未満の機能情報に対応する語彙情報を解除すると、発話を促す音声ガイダンス情報を出力するよう音声ガイダンス情報生成部131へ指示信号を出力する。
 実施の形態3の情報処理装置1Bにおいては、ステップST308に続いて、実施の形態2のステップST205以降の処理が行われる。ステップST205以降の処理動作については実施の形態2と同様であるため説明を省略する。
 以上のように、実施の形態3によれば、情報処理装置1Bは、コスト算出部140Bは、過去の連続操作情報から特定した機能実行キー部23が操作されるまでの経過時間を、当該機能実行キー部23の機能に設定された尤度値で重み付けし、現在操作でインタフェース画面変更キー部22が連続して操作されている時間と、複数の過去の連続操作情報から導出した重み付けした経過時間の平均値との差を、機能を実行するまでに要したユーザの労力を示すコスト値として算出するコスト算出部140Bと、コスト算出部140Bからのコスト値が所定値以上の場合、尤度値付与部120Bからの機能ごとの尤度値に応じて、各機能に対応する語彙情報を設定する優先認識語彙設定部130Bと、を備えるよう構成したので、ユーザが各機能を所望する度合いを考慮して、操作に手間取っているかどうかを判定することができる。その結果、情報処理装置1Bにおけるコスト値の算出精度を向上することができるという効果が得られる。
 また、実施の形態3によれば、情報処理装置1Bは、ユーザからインタフェース画面操作部40を介して入力した操作信号に基づき、操作内容と操作時刻を示す操作情報にユーザ情報を付与してインタフェース画面操作履歴記録部110へ出力するインタフェース画面制御部20と、インタフェース画面操作部40から入力した機能実行キー部23とインタフェース画面変更キー部22への操作に応じたユーザごとの操作信号に基づいて、機能実行キー部23及びインタフェース画面変更キー部22の操作時刻、及び、所定時間以下の間隔でインタフェース画面変更キー部22が連続して操作された操作内容を、連続操作情報としてユーザごとに記録し、インタフェース画面操作履歴記録部110に記録された連続操作情報をユーザごとに選択して出力する操作履歴選択部111を有するインタフェース画面操作履歴記録部110とを備えるよう構成したので、ユーザごとに個別の連続操作情報を使用することができる。その結果、情報処理装置1Bは、ユーザごとに所望する機能を音声認識により実行しやすくなるという効果が得られる。
 この発明によれば、情報処理装置は、音声認識によりユーザが所望する機能を実行しやすくすることができるため、例えばカーナビゲーションなどの情報処理装置に利用することができる。

Claims (10)

  1.  所定の機能を示す機能実行キー部を機能種別ごとに有するインタフェース画面と、前記インタフェース画面を前記機能種別ごとに切り替えるインタフェース画面変更キー部とを表示する表示部と、
     前記表示部に表示された前記機能実行キー部および前記インタフェース画面変更キー部への操作を受け付けるインタフェース画面操作部と、
     前記インタフェース画面操作部から前記インタフェース画面変更キー部への操作に応じた操作信号を入力し、当該操作信号に基づいて前記表示部における前記インタフェース画面の切り替え表示を制御するインタフェース画面制御部と、
     前記インタフェース画面操作部から入力した前記機能実行キー部と前記インタフェース画面変更キー部への操作に応じた操作信号に基づいて、前記機能実行キー部及び前記インタフェース画面変更キー部の操作時刻、及び、所定時間以下の間隔で前記インタフェース画面変更キー部が連続して操作された操作内容を、連続操作情報として記録するインタフェース画面操作履歴記録部と、
     前記インタフェース画面操作履歴記録部に記録された連続操作情報に基づいて、ユーザが所望する度合いを示す尤度値を、前記機能実行キー部が示す機能ごとに算出し付与する尤度値付与部と、
     機能ごとの語彙情報を予め記憶し、前記尤度値付与部で設定された尤度値が所定値以上の機能に対応する語彙情報を出力する優先認識語彙設定部と、
     前記優先認識語彙設定部から入力した語彙情報を参照して、入力された音声を音声認識する音声認識部と、
     前記インタフェース画面操作部を用いて操作された前記機能実行キー部の機能、または前記音声認識部によって音声認識された語彙に対応する機能を実行する機能実行部と、
     を備えた情報処理装置。
  2.  前記尤度値付与部は、現在までに前記機能実行キー部が操作されることなく、前記インタフェース画面変更キー部が連続して操作されている操作内容を示す現在操作中の連続操作情報から、前記機能実行キー部の表示時間を特定し、前記尤度値を、前記表示時間が短い順に所望の度合いが高くなるように、前記機能実行キー部が示す機能ごとに算出し付与することを特徴とする請求項1記載の情報処理装置。
  3.  前記優先認識語彙設定部は、前記尤度値付与部で設定された前記尤度値が所定値以上の機能に対応する語彙情報を優先的に音声認識するように設定することを特徴とする請求項1記載の情報処理装置。
  4.  前記インタフェース画面操作履歴記録部に記録されている、前記機能実行キー部が操作されるまでに前記インタフェース画面変更キー部が連続して操作された操作内容を示す過去の連続操作情報には、実行された機能の尤度値も記録されており、
     前記尤度値付与部は、前記過去の連続操作情報と、現在までに前記機能実行キー部が操作されることなく、前記インタフェース画面変更キー部が連続して操作されている操作内容を示す現在操作中の連続操作情報とを比較して、前記現在操作中の連続操作情報と類似する操作内容の前記過去の連続操作情報で実行された機能の尤度値を、現在操作で前記機能実行キー部が操作された場合の当該機能に前記尤度値として付与することを特徴とする請求項1記載の情報処理装置。
  5.  前記尤度値付与部は、前記過去の連続操作情報と、現在までに前記機能実行キー部が操作されることなく、前記インタフェース画面変更キー部が連続して操作されている操作内容を示す現在操作中の連続操作情報とを比較して、前記現在操作中の連続操作情報と前記過去の連続操作情報との一致度を、前記過去の連続操作情報で実行された機能に対する現在操作で前記機能実行キー部が操作された場合の前記尤度値として付与することを特徴とする請求項1記載の情報処理装置。
  6.  前記インタフェース画面操作履歴記録部に記録される、前記機能実行キー部が操作されるまでに前記インタフェース画面変更キー部が連続して操作された操作内容を示す過去の連続操作情報と、現在までに前記機能実行キー部が操作されることなく、前記インタフェース画面変更キー部が連続して操作されている操作内容を示す現在操作中の連続操作情報とを用いて、現在操作で前記インタフェース画面変更キー部が連続して操作されている時間と、複数の前記過去の連続操作情報から特定した過去の前記機能実行キー部が操作されるまでの経過時間の平均値との差を、機能を実行するまでに要したユーザの労力を示すコスト値として算出するコスト算出部を備え、
     前記優先認識語彙設定部は、前記コスト算出部で算出されたコスト値が所定値以上の場合、前記尤度値付与部で設定された尤度値が所定値未満の機能に対応する語彙情報を音声認識しないよう解除設定することを特徴とする請求項1記載の情報処理装置。
  7.  前記コスト算出部は、現在操作中の連続操作情報の操作内容に類似する過去の連続操作情報を用いて、コスト値を算出することを特徴とする請求項6記載の情報処理装置。
  8.  前記コスト算出部は、前記過去の連続操作情報から特定した前記機能実行キー部が操作されるまでの経過時間を、当該機能実行キー部の機能に設定された尤度値で重み付けし、現在操作で前記インタフェース画面変更キー部が連続して操作されている時間と、複数の前記過去の連続操作情報から導出した前記重み付けした経過時間の平均値との差を、機能を実行するまでに要したユーザの労力を示すコスト値として算出することを特徴とする請求項6記載の情報処理装置。
  9.  前記インタフェース画面操作履歴記録部は、前記インタフェース画面操作部から入力した前記機能実行キー部と前記インタフェース画面変更キー部への操作に応じたユーザごとの操作信号に基づいて、前記機能実行キー部及び前記インタフェース画面変更キー部の操作時刻、及び、所定時間以下の間隔で前記インタフェース画面変更キー部が連続して操作された操作内容を、連続操作情報としてユーザごとに記録しており、
     前記インタフェース画面操作履歴記録部に記録された連続操作情報をユーザごとに選択して出力する操作履歴選択部を有することを特徴とする請求項1記載の情報処理装置。
  10.  前記コスト算出部からのコスト値が所定値以上の場合、発話を促す音声ガイダンスを出力する音声ガイダンス情報生成部を備えたことを特徴とする請求項6記載の情報処理装置。
PCT/JP2010/004996 2010-08-09 2010-08-09 情報処理装置 WO2012020444A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE112010005802T DE112010005802T5 (de) 2010-08-09 2010-08-09 Informationsverarbeitungseinheit
JP2012528510A JP5128011B2 (ja) 2010-08-09 2010-08-09 情報処理装置
CN201080068379.XA CN103052940B (zh) 2010-08-09 2010-08-09 信息处理装置
US13/698,451 US9002715B2 (en) 2010-08-09 2010-08-09 Information processor
PCT/JP2010/004996 WO2012020444A1 (ja) 2010-08-09 2010-08-09 情報処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2010/004996 WO2012020444A1 (ja) 2010-08-09 2010-08-09 情報処理装置

Publications (1)

Publication Number Publication Date
WO2012020444A1 true WO2012020444A1 (ja) 2012-02-16

Family

ID=45567428

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2010/004996 WO2012020444A1 (ja) 2010-08-09 2010-08-09 情報処理装置

Country Status (5)

Country Link
US (1) US9002715B2 (ja)
JP (1) JP5128011B2 (ja)
CN (1) CN103052940B (ja)
DE (1) DE112010005802T5 (ja)
WO (1) WO2012020444A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TW201027415A (en) * 2009-01-05 2010-07-16 Wistron Corp Function configuration method and related device for a remote control device
US10268446B2 (en) * 2013-02-19 2019-04-23 Microsoft Technology Licensing, Llc Narration of unfocused user interface controls using data retrieval event
TW201543361A (zh) * 2014-05-07 2015-11-16 Giga Byte Tech Co Ltd 觸發開啟巨集的輸入系統
KR101886986B1 (ko) * 2015-01-22 2018-08-08 미쓰비시덴키 가부시키가이샤 엔지니어링 툴 프로그램 및 엔지니어링 툴
KR102480728B1 (ko) * 2017-11-10 2022-12-23 삼성전자주식회사 전자장치 및 그 제어방법
US11657391B1 (en) 2019-05-24 2023-05-23 Hiro Systems Pbc System and method for invoking smart contracts
US10699269B1 (en) * 2019-05-24 2020-06-30 Blockstack Pbc System and method for smart contract publishing
US11513815B1 (en) 2019-05-24 2022-11-29 Hiro Systems Pbc Defining data storage within smart contracts
KR20220010259A (ko) * 2020-07-17 2022-01-25 삼성전자주식회사 음성 신호 처리 방법 및 장치
CN116610277A (zh) * 2023-07-19 2023-08-18 深圳市研盛芯控电子技术有限公司 智能显示控制系统和智能显示控制方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212533A (ja) * 2002-12-27 2004-07-29 Ricoh Co Ltd 音声コマンド対応機器操作装置、音声コマンド対応機器、プログラム、及び記録媒体
JP2005181386A (ja) * 2003-12-16 2005-07-07 Mitsubishi Electric Corp 音声対話処理装置及び音声対話処理方法並びにプログラム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05324702A (ja) * 1992-05-20 1993-12-07 Fuji Xerox Co Ltd 情報処理装置
JPH09128397A (ja) * 1995-11-06 1997-05-16 Sharp Corp 通訳機
US6111940A (en) * 1998-11-09 2000-08-29 Pilgrim Telephone, Inc. Method for providing telephonic services
US6404925B1 (en) * 1999-03-11 2002-06-11 Fuji Xerox Co., Ltd. Methods and apparatuses for segmenting an audio-visual recording using image similarity searching and audio speaker recognition
GB2359461A (en) * 2000-02-21 2001-08-22 Nokia Mobile Phones Ltd Personalised information from a phone is backed up and/or transferred between phones using a computer
US6895380B2 (en) * 2000-03-02 2005-05-17 Electro Standards Laboratories Voice actuation with contextual learning for intelligent machine control
US20020035474A1 (en) * 2000-07-18 2002-03-21 Ahmet Alpdemir Voice-interactive marketplace providing time and money saving benefits and real-time promotion publishing and feedback
US7085722B2 (en) * 2001-05-14 2006-08-01 Sony Computer Entertainment America Inc. System and method for menu-driven voice control of characters in a game environment
US7246062B2 (en) * 2002-04-08 2007-07-17 Sbc Technology Resources, Inc. Method and system for voice recognition menu navigation with error prevention and recovery
EP1611504B1 (en) * 2003-04-07 2009-01-14 Nokia Corporation Method and device for providing speech-enabled input in an electronic device having a user interface
US8311835B2 (en) * 2003-08-29 2012-11-13 Microsoft Corporation Assisted multi-modal dialogue
WO2006058103A2 (en) * 2004-11-24 2006-06-01 Siemens Medical Solutions Usa, Inc. A predictive user interface system
DE602006017368D1 (de) 2005-06-21 2010-11-18 Pioneer Corp Spracherkennungseinrichtung, informationsverarbeitungseinrichtung, spracherkennungsverfahren, programm und aufzeichnungsmedium
WO2008124891A1 (en) * 2007-04-17 2008-10-23 Metrometrix Pty Ltd System for monitoring the use of content in a vehicle
US20090166098A1 (en) * 2007-12-31 2009-07-02 Apple Inc. Non-visual control of multi-touch device
US8380499B2 (en) * 2008-03-31 2013-02-19 General Motors Llc Speech recognition adjustment based on manual interaction
US8676904B2 (en) * 2008-10-02 2014-03-18 Apple Inc. Electronic devices with voice command and contextual data processing capabilities
US8194849B2 (en) * 2009-02-27 2012-06-05 Research In Motion Limited System and method for providing audible messages in replacement of telephone tones

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004212533A (ja) * 2002-12-27 2004-07-29 Ricoh Co Ltd 音声コマンド対応機器操作装置、音声コマンド対応機器、プログラム、及び記録媒体
JP2005181386A (ja) * 2003-12-16 2005-07-07 Mitsubishi Electric Corp 音声対話処理装置及び音声対話処理方法並びにプログラム

Also Published As

Publication number Publication date
US9002715B2 (en) 2015-04-07
JPWO2012020444A1 (ja) 2013-10-28
JP5128011B2 (ja) 2013-01-23
CN103052940A (zh) 2013-04-17
CN103052940B (zh) 2015-09-30
DE112010005802T5 (de) 2013-05-16
US20130066637A1 (en) 2013-03-14

Similar Documents

Publication Publication Date Title
JP5128011B2 (ja) 情報処理装置
JP6570651B2 (ja) 音声対話装置および音声対話方法
WO2017145373A1 (ja) 音声認識装置
CN106796786B (zh) 语音识别系统
JP2005331882A (ja) 音声認識装置、音声認識方法、および音声認識プログラム
JP2006154724A (ja) 対話システム、対話方法、及びコンピュータプログラム
JP2002073322A (ja) オンデマンド・インタフェース装置とそのウィンドウ表示装置
JPWO2007013521A1 (ja) ユーザと機械とのインタラクションを実施するための装置、方法、およびプログラム
JP2012155651A (ja) 信号処理装置および方法、並びに、プログラム
JP2008033198A (ja) 音声対話システム、音声対話方法、音声入力装置、プログラム
JP2006208486A (ja) 音声入力装置
US9262796B2 (en) Communication apparatus
JP2007168972A (ja) エレベータ制御装置
JP6436582B2 (ja) 作業実績記録システム、作業実績記録方法及びプログラム
JP2018116206A (ja) 音声認識装置、音声認識方法及び音声認識システム
JP2006337942A (ja) 音声対話装置及び割り込み発話制御方法
JP2004029354A (ja) 音声認識装置、音声認識方法及び音声認識プログラム
JP2016102823A (ja) 情報処理システム、音声入力装置及びコンピュータプログラム
JP6748565B2 (ja) 音声対話システム及び音声対話方法
JP2004333703A (ja) 音声認識システムおよび音声認識の訂正・学習方法
JP4635743B2 (ja) 音声対話装置及び音声理解結果生成方法
JP4565768B2 (ja) 音声認識装置
JP2019144524A (ja) ワード検出システム、ワード検出方法及びワード検出プログラム
JP6999236B2 (ja) 音声認識システム
JP2015129793A (ja) 音声認識装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201080068379.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10855846

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012528510

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 13698451

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 112010005802

Country of ref document: DE

Ref document number: 1120100058024

Country of ref document: DE

122 Ep: pct application non-entry in european phase

Ref document number: 10855846

Country of ref document: EP

Kind code of ref document: A1