JPWO2018116556A1 - 情報処理装置、および情報処理方法 - Google Patents

情報処理装置、および情報処理方法 Download PDF

Info

Publication number
JPWO2018116556A1
JPWO2018116556A1 JP2018557542A JP2018557542A JPWO2018116556A1 JP WO2018116556 A1 JPWO2018116556 A1 JP WO2018116556A1 JP 2018557542 A JP2018557542 A JP 2018557542A JP 2018557542 A JP2018557542 A JP 2018557542A JP WO2018116556 A1 JPWO2018116556 A1 JP WO2018116556A1
Authority
JP
Japan
Prior art keywords
information processing
utterance
recognition
visual effect
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018557542A
Other languages
English (en)
Other versions
JP6969576B2 (ja
Inventor
祐平 滝
邦仁 澤井
真一 河野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JPWO2018116556A1 publication Critical patent/JPWO2018116556A1/ja
Application granted granted Critical
Publication of JP6969576B2 publication Critical patent/JP6969576B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】認識アプリケーションに係るユーザインタフェースにおいて、視線移動の負荷を軽減する。【解決手段】認識アプリケーションに係るユーザインタフェースの表示を制御する出力制御部、を備え、前記出力制御部は、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させる、情報処理装置が提供される。また、プロセッサが、認識アプリケーションに係るユーザインタフェースの表示を制御すること、を含み、前記表示を制御することは、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させること、をさらに含む、情報処理方法が提供される。【選択図】図7B

Description

本開示は、情報処理装置、および情報処理方法に関する。
近年、ユーザの行動や状態に基づく認識を行い、認識結果に対応する処理を実行する種々の装置が普及している。また、上記のような装置において、認識プロセスに係るユーザの利便性を向上させるための技術が多く提案されている。例えば、特許文献1には、ユーザが音声認識により入力された文字列を区分単位で選択し修正することを可能とする情報処理装置が開示されている。
国際公開第2015/059976号
ところで、上記のような認識を行う装置では、ユーザインタフェース上に認識に係る状態を示すオブジェクトなどが表示される場合がある。当該オブジェクトは、例えば、認識が開始されたことをユーザに知らしめる用途などに用いられ得る。しかし、上記のようなオブジェクトは、認識結果が入力される領域とは異なる場所に配置される場合が多い。このため、ユーザにとっては、オブジェクトと認識結果との間で視線を移動させる負担が小さくない。
そこで、本開示では、認識アプリケーションに係るユーザインタフェースにおいて、視線移動の負荷を軽減することが可能な、新規かつ改良された情報処理装置および情報処理方法を提案する。
本開示によれば、認識アプリケーションに係るユーザインタフェースの表示を制御する出力制御部、を備え、前記出力制御部は、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させる、情報処理装置が提供される。
また、本開示によれば、プロセッサが、認識アプリケーションに係るユーザインタフェースの表示を制御すること、を含み、前記表示を制御することは、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させること、をさらに含む、情報処理方法が提供される。
以上説明したように本開示によれば、認識アプリケーションに係るユーザインタフェースにおいて、視線移動の負荷を軽減することが可能となる。
なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態の概要について説明するための図である。 本開示の一実施形態の概要について説明するための図である。 本開示の一実施形態の概要について説明するための図である。 本開示の一実施形態の概要について説明するための図である。 本開示の一実施形態の概要について説明するための図である。 本開示の一実施形態の概要について説明するための図である。 同実施形態に係る情報処理システムの構成例を示す図である。 同実施形態に係る情報処理端末の機能ブロック図の一例である。 同実施形態に係る情報処理サーバの機能ブロック図の一例である。 同実施形態に係る発話長推定部による発話の長さの算出について説明するための図である。 同実施形態に係る音声認識の可否に係る状態を示す視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識の可否に係る状態を示す視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識の可否に係る状態を示す視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識の可否に係る状態を示す視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識の可否に係る状態を示す視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識の可否に係る状態を示す視覚効果の制御例について説明するための図である。 同実施形態に係る発話に対するフィードバックを示す視覚効果の制御例について説明するための図である。 同実施形態に係る発話に対するフィードバックを示す視覚効果の制御例について説明するための図である。 同実施形態に係る発話に対するフィードバックを示す視覚効果の制御例について説明するための図である。 同実施形態に係る発話に対するフィードバックを示す視覚効果の制御例について説明するための図である。 同実施形態に係る発話に対するフィードバックを示す視覚効果の制御例について説明するための図である。 同実施形態に係る発話に対するフィードバックを示す視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識結果と共に表示される視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識結果と共に表示される視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識結果と共に表示される視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識結果と共に表示される視覚効果の制御例について説明するための図である。 同実施形態に係る音声認識結果と共に表示される視覚効果の制御例について説明するための図である。 同実施形態に係る情報処理端末の動作の流れを示すフローチャートである。 本開示に係るハードウェア構成例である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.実施形態
1.1.実施形態の概要
1.2.システム構成例
1.3.情報処理端末10の機能構成例
1.4.情報処理サーバ20の機能構成例
1.5.出力制御部130による出力制御の詳細
1.6.情報処理端末10の動作の流れ
2.ハードウェア構成例
3.まとめ
<1.実施形態>
<<1.1.実施形態の概要>>
まず、本開示に係る一実施形態の概要について説明する。上述したとおり、近年においては、種々の認識技術に基づく動作を行う種々の装置が開発されている。また、認識アプリケーションに係るユーザインタフェースも多く存在する。しかし、上記のようなユーザインタフェースでは、多くの場合、認識結果が入力される入力領域と認識の状態を示すオブジェクトとが異なる場所に配置されている。上記のようなオブジェクトには、例えば、認識が開始状態にあることを示すオブジェクトや、ユーザの発話音量などに対するフィードバックを示すオブジェクトなどが含まれ得る。
このため、ユーザが認識結果に注視する場合、上記のようなオブジェクトが示す情報を見逃しやすく、例えば、認識の開始動作を行わないまま発話などを行ってしまう、などの誤操作を誘発していた。また、例えば、認識技術がゲームなどにおける一機能として用いられる場合には、誤操作によりゲーム体験を大きく損ねてしまうなどの懸念も生じる。さらには、例えば、認識技術がカーナビゲーションシステムなどの車載器において用いられる場合、誤操作による焦りなどから事故を誘発する可能性も無視できない。
本開示に係る情報処理装置および情報処理方法は、上記の点に着目して発想されたものであり、認識アプリケーションのユーザインタフェース上におけるユーザの視線移動負荷を大幅に軽減することを可能とする。このために、本実施形態に係る情報処理装置および情報処理方法は、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させることを特徴の一つとする。なお、本実施形態に係る認識技術には、例えば、音声認識が挙げられる。また、本実施形態に係る認識技術には、上記の他、唇の動きから発話をテキスト化する唇認識技術、声や生体情報などからユーザの感情を推定する感情推定技術、視線認識や行動認識からの意図推定技術などが含まれてよい。以下の実施形態の説明においては、本実施形態に係る認識技術が音声認識である場合を主な例として説明する。
図1A〜図1Fは、本実施形態の概要について説明するための図である。図1A〜図1Fには、本実施形態に係る情報処理装置により制御されるユーザインタフェースUI1が示されている。ユーザインタフェースUI1は、例えば、音声認識アプリケーションをユーザに提示する情報処理端末の表示部などに表示され得る。図1A〜図1Fに示すように、本実施形態に係るユーザインタフェースUI1は、例えば、入力領域F1とボタンb1〜b6などを含んで構成されてよい。
ここで、ボタンb1〜b6は、音声認識アプリケーションを制御するための種々のボタンであってよい。例えば、ボタンb1は、音声認識の開始、終了を切り替えるためのボタンであり得る。また、ボタンb2およびb3は、文字列の入力位置を左右に移動するためのボタンであり得る。また、ボタンb4は、キーボードなどを切り替えるために用いられるボタンであり得る。また、ボタンb5は、入力された文字列の削除を行うためのボタンであり得る。また、ボタンb6は、例えば、入力された文字列の確定処理を行うためのボタンであり得る。
また、入力領域F1は、音声認識結果である文字列が入力される領域であってよい。入力領域F1には、ユーザの発話に基づいて認識された文字列が都度入力される。また、本実施形態に係る入力領域F1には、音声認識に係る状態を示す視覚効果が出力される。上記の視覚効果には、例えば、種々の表示オブジェクトが含まれてよい。表示オブジェクトの一例としては、図1Aに示すような文字列の入力位置を示す位置表示オブジェクト、すなわちキャレットCAが挙げられる。
この際、本実施形態に係る情報処理装置は、例えば、キャレットCAに係る視覚効果を変化させることで、音声認識に係る様々な状態をユーザに提示することができる。
図1Aに示す一例は、音声認識アプリケーションがユーザの発話を受け付けていない状態、すなわち音声認識機能がオフとなっている状態を示している。
ここで、音声認識機能がオンに移行し、ユーザの発話待ちの状態となった場合、情報処理装置は、例えば、図1Bに示すように、キャレットCAの下部に音声認識が開始状態であることを示すインジケータRIを表示させることができる。この際、情報処理装置は、例えば、インジケータRIとキャレットCAとを異なる色表現で表示させることで、ユーザがより直観的に音声認識が開始されたことを知覚できるように制御を行ってもよい。
また、本実施形態に係る情報処理装置は、例えば、ユーザの発話に対するフィードバックなどをインジケータRIにより示してもよい。図1Cは、情報処理装置がインジケータRIにより、ユーザの発話の長さに対するフィードバックを示す場合の例を示している。図1Cに示すように、情報処理装置は、例えば、ユーザの発話の長さに応じて、インジケータRIがキャレットCAから入力方向に延長するように制御を行ってもよい。
また、本実施形態に係る情報処理端末10は、音声認識精度を向上させるためのフィードバックを視覚効果として表示させることができる。一般的に、音声認識エンジンは、発話の長さが十分でない場合、本来の性能を発揮することが困難な場合がある。一方、多くの音声認識アプリケーションでは、発話の長さに対するフィードバックをユーザに提示する手段が設けられていない。このため、ユーザは、音声認識精度が想定より低い場合であっても、原因が自身の発話の長さにあることに気づけない場合が多い。
このことから、本実施形態に係る情報処理装置は、発話の長さに応じてインジケータRIの視覚効果を切り替えることで、ユーザに発話の長さが十分な状態に達したことを提示してもよい。図1Dは、発話の長さが音声認識に十分な長さに達した場合に、情報処理装置が表示させるインジケータRIの一例である。ここで、図1Cおよび図1DにおけるインジケータRIを比較すると、それぞれ異なるハッチングにより示されていることがわかる。このように、本実施形態に係る情報処理装置は、発話の長さが不十分な状態と十分な状態とでインジケータRIに係る視覚効果を変化させることで、ユーザに発話の長さに係る直観的な知覚を促すことが可能である。
なお、図1Cおよび図1Dの一例では、インジケータRIに係る視覚効果の変化をハッチングの差により説明したが、本実施形態に係る情報処理装置は、例えば、色の変化により発話の長さに係るフィードバックを実現してもよい。例えば、情報処理装置は、発話の長さが不十分である場合には赤色などの警告色でインジケータRIを表示させ、発話の長さが十分な状態に達した場合にはインジケータRIを青色などに変化させてもよい。
本実施形態に係る情報処理装置は、ユーザの発話に基づいて上記のような表示制御を繰り返すことで、ユーザに音声認識に係る種々の状態を提示することができる。図1Eには、図1Cおよび図1Dの状態においてユーザが発話に行った発話に基づいて認識された文字列In1が示されている。この際、情報処理装置は、音声認識が開始状態であることを示すインジケータRIを再び表示させることで、ユーザに発話の続行を促してよい。また、発話が再び開始された場合には、情報処理装置は、図1Fに示すように、ユーザの発話に対するフィードバックをインジケータRIにより示すことができる。
以上説明したように、本実施形態に係る情報処理装置は、音声認識の開始状態や発話に対するフィードバックなどを示す種々の視覚効果を入力領域F1に表示させることができる。本実施形態に係る情報処理装置が有する上記の機能によれば、ユーザは、入力領域F1に注視しながら、音声認識に係る様々な情報を得ることができ、視線移動の負担を軽減すると共に、誤操作などを効果的に防止することが可能となる。
<<1.2.システム構成例>>
次に、本実施形態に係る情報処理システムのシステム構成例について説明する。図2は、本実施形態に係る情報処理システムの構成例を示す図である。図2を参照すると、本実施形態に係る情報処理システムは、情報処理端末10および情報処理サーバ20を備える。また、情報処理端末10および情報処理サーバ20は、互いに通信が行えるようにネットワーク30を介して接続される。
(情報処理端末10)
本実施形態に係る情報処理端末10は、認識アプリケーションに係るユーザインタフェースをユーザに提供する情報処理装置である。このため、本実施形態に係る情報処理端末10は、ユーザに係る情報を検出する入力機能と、ユーザインタフェースを出力するための出力機能とを有する。さらには、本実施形態に係る情報処理端末10は、ユーザの行動や状態、入力操作に基づいて、ユーザインタフェースの表示に係る種々の制御を行う機能を有する。この際、本実施形態に係る情報処理端末10は、ユーザインタフェース上において、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させることを特徴の一つとする。本実施形態に係る情報処理端末10は、例えば、スマートフォン、タブレット、携帯電話、PC(Personal Computer)、ウェアラブルデバイス、ゲーム機などの各種のエージェントであり得る。
(情報処理サーバ20)
本実施形態に係る情報処理サーバ20は、情報処理端末10により入力されたユーザの情報に基づいて認識処理を行う情報処理装置である。また、本実施形態に係る情報処理サーバ20は、情報処理端末10から送信されるユーザの発話情報に基づいて、ユーザの発話の長さを算出する機能を有する。
(ネットワーク30)
ネットワーク30は、情報処理端末10と情報処理サーバ20とを接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP−VPN(Internt Protocol−Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi−Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
以上、本実施形態に係る情報処理システムの構成例について説明した。なお、図2を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの構成は係る例に限定されない。例えば、本実施形態に係る情報処理端末10と情報処理サーバ20とは、同一の装置として実現することも可能である。また、本実施形態に係る情報処理端末10や情報処理サーバ20が有する機能は、複数の装置に分散して実現されてもよい。本実施形態に係る情報処理システムの構成は、音声認識アプリケーションの仕様や、システムの運用などに応じて適宜柔軟に変形され得る。
<<1.3.情報処理端末10の機能構成例>>
次に、本実施形態に係る情報処理端末10の機能構成例について説明する。図3は、本実施形態に係る情報処理端末10の機能ブロック図の一例である。図3を参照すると、本実施形態に係る情報処理端末10は、入力部110、出力部120、出力制御部130、およびサーバ通信部140を備える。
(入力部110)
本実施形態に係る入力部110は、認識アプリケーションに用いられる種々の情報入力を受け付ける機能を有する。このために、本実施形態に係る入力部110は、入力部110は、音声入力部112、操作入力部114、およびセンサ部116を含んで構成される。
((音声入力部112))
本実施形態に係る音声入力部112は、ユーザの発話を検出する機能を有する。このために、本実施形態に係る音声入力部112は、マイクロフォンなどの音声検出デバイスを含んで構成される。
((操作入力部114))
本実施形態に係る操作入力部114は、ユーザによる種々の入力操作を検出する機能を有する。操作入力部114は、例えば、ユーザによる音声認識の開始操作やキャレットの移動操作、文字列の削除操作などを検出することができる。このために、本実施形態に係る操作入力部114は、マウス、キーボード、コントローラ、タッチパネル、各種のボタンなどを含んで構成される。
((センサ部116))
本実施形態に係るセンサ部116は、認識アプリケーションを利用するユーザに係る種々の情報を収集する機能を有する。センサ部116は、例えば、ユーザの唇や視線の動き、ジェスチャを含む行動に係る情報などを収集することができる。このために、本実施形態に係るセンサ部116は、撮像センサや赤外線センサなどを含んで構成される。また、センサ部116は、ユーザの生体情報を収集してよい。上記の生体情報には、例えば、心拍、脈拍、血圧、顔面温度、体温、表情、脳波、呼吸、眼球運動などが含まれ得る。このため、本実施形態に係るセンサ部116は、上記の生体情報を収集するための各種の生体センサを含んで構成されてよい。
(出力部120)
本実施形態に係る出力部120は、出力制御部130による制御に基づいて、ユーザに対し様々な情報提示を行う機能を有する。このために、本実施形態に係る出力部120は、表示部122、音声出力部124、および触覚提示部126を含んで構成される。
((表示部122))
本実施形態に係る表示部122は、出力制御部130による制御に基づいて、ユーザに視覚情報を提示する機能を有する。特に、本実施形態に係る表示部122は、認識アプリケーションに係るユーザインタフェースを表示してよい。このために、本実施形態に係る表示部122は、視覚情報を提示する表示デバイスを含んで構成される。上記の表示デバイスには、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD:Liquid Crystal Display)装置、OLED(Organic Light Emitting Diode)装置、タッチパネルなどが挙げられる。
((音声出力部124))
本実施形態に係る音声出力部124は、出力制御部130による制御に基づいて、ユーザに聴覚情報を提示する機能を有する。音声出力部124は、例えば、認識結果を人工音声により読み上げたり、認識アプリケーションにより提供される各種の効果音などを出力したりすることができる。このために、本実施形態に係る音声出力部124は、アンプやスピーカなどを含んで構成される。
((触覚提示部126))
本実施形態に係る触覚提示部126は、出力制御部130による制御に基づいて、ユーザに触覚情報を提示する機能を有する。触覚提示部126は、例えば、音声出力部124による聴覚情報と共に振動などを出力してもよい。このために、本実施形態に係る触覚提示部126は、例えば、LRA(Linear Resonant Actuator:リニア・バイブレータ)、ピエゾ素子、偏心モーターなどの振動デバイスや当該振動デバイスを駆動するIC(Integrated Circuit)を含んで構成され得る。
(出力制御部130)
本実施形態に係る出力制御部130は、出力部120による各種の情報出力を制御する機能を有する。特に、本実施形態に係る出力制御部130は、認識アプリケーションに係るユーザインタフェースの表示を制御してよい。この際、本実施形態に係る出力制御部130は、上記のユーザインタフェース上において認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させることができる。
ここで、上記の視覚効果には、入力領域内に表示される種々の表示オブジェクトが含まれてよい。本実施形態に係る出力制御部130は、例えば、入力領域に認識が開始されていることを示すアイコンなどを出力させてもよい。
なお、上述したように、本実施形態に係る表示オブジェクトには、入力領域において認識結果の入力位置を示すキャレットなどの位置表示オブジェクトが含まれる。本実施形態に係る出力制御部130が有する上記の機能によれば、ユーザがキャレットなどにより示される入力位置に注視しながらも、認識に係る種々の情報を知覚することが可能となる。
また、本実施形態に係る出力制御部130は、キャレットなどの表示オブジェクトの他、入力領域に係る視覚効果を制御してもよい。本実施形態に係る出力制御部130は、例えば、入力領域の背景や領域枠に係る視覚効果を制御することができる。
また、本実施形態に係る出力制御部130は、認識結果に対応する文字列に係る視覚効果を制御してもよい。
以上説明したように、本実施形態に係る出力制御部130は、認識アプリケーションに係るユーザインタフェースにおいて、種々の視覚効果の出力を制御することができる。この際、出力制御部130は、認識に係る状態に基づいて、視覚効果を変化させてよい。出力制御部130は、例えば、形状、大きさ、または色などの変化を伴う視覚効果を表示部122に表示させることができる。なお、本実施形態に係る出力制御部130が有する各種機能については、別途詳細に説明する。
(サーバ通信部140)
本実施形態に係るサーバ通信部140は、ネットワーク30を介して情報処理サーバ20との情報通信を行う機能を有する。具体的には、本実施形態に係るサーバ通信部140は、音声入力部112が検出したユーザの発話に係る情報やセンサ部116が収集した種々のセンサ情報を情報処理サーバ20に送信する。また、サーバ通信部140は、上記の発話やセンサ情報に対する認識結果を情報処理サーバ20から受信する。また、サーバ通信部140は、情報処理サーバ20が算出したユーザの発話の長さに係る情報を受信する。
以上、本実施形態に係る情報処理端末10の機能構成例について説明した。なお、図3を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理端末10の機能構成は係る例に限定されない。本実施形態に係る情報処理端末10は、上記に示した以外の構成をさらに備えてもよい。情報処理端末10は、例えば、各種の情報を格納する記憶部などを備えてもよいし、情報処理サーバ20と同等の認識機能を有してもよい。また、一方で、上記で説明した情報処理端末10が有する各機能は、複数の装置に分散して実現することも可能である。例えば、入力部110および出力部120と、出力制御部130とは、それぞれ別途の装置により実現されてもよい。この場合、出力制御部130は、複数の装置における出力部120の出力制御を行ってもよい。本実施形態に係る情報処理端末10の機能構成は、柔軟に変形され得る。
<<1.4.情報処理サーバ20の機能構成例>>
次に、本実施形態に係る情報処理サーバ20の機能構成例について説明する。図4は、本実施形態に係る情報処理サーバ20の機能ブロック図の一例である。図4を参照すると、本実施形態に係る情報処理サーバ20は、認識部210、発話長推定部220、および端末通信部230を備える。
(認識部210)
本実施形態に係る認識部210は、情報処理端末10により送信されるユーザの発話情報に基づいて音声認識を行う機能を有する。具体的には、認識部210は、上記の発話情報に含まれる音声信号を文字列情報に変換してよい。また、上述したとおり、本実施形態に係る認識部210は、音声認識以外の認識や推定を行ってもよい。本実施形態に係る認識部210は、例えば、ユーザの唇の動きから発話内容を推定し文字列化を行う唇認識(Lip reading)などを行ってもよい。この場合、認識部210は、情報処理端末10のセンサ部116が撮像した画像情報に基づいて上記の処理を行うことができる。
また、本実施形態に係る認識部210は、発話や声に基づく感情推定を行ってもよい。認識部210は、例えば、音声波形の特徴や、音質や音量の変化、発話の間、発話内容、フィラー語などに基づいて、上記の推定を行ってもよい。
また、本実施形態に係る認識部210は、ユーザの生体情報に基づく感情推定を行ってもよい。認識部210は、例えば、脳波や脈拍、発汗、眼鏡運動などの種々の生体情報から特徴を抽出し感情を推定してもよい。この際、認識部210は、複数の生体情報に基づいてユーザの感情を推定することもできる。認識部210は、情報処理端末10のセンサ部116が収集する画像情報やセンサ情報に基づいて、上記の推定を行うことができる。
また、本実施形態に係る認識部210は、視線認識や行動認識などに基づくユーザの意図推定を行ってもよい。なお、上記の行動認識には、ジェスチャ認識が含まれてよい。ジェスチャ認識には、ハンドジェスチャ、ネックジェスチャ、ボディジェスチャなど種々のノンバーバル動作が含まれ得る。本実施形態に係る認識部210は、情報処理端末10のセンサ部116が収集する画像情報やセンサ情報に基づいて、上記の推定を行うことができる。
また、本実施形態に係る認識部210は、ある事象に対してユーザが想起する思考や感情を推定してもよい。上記の事象には、種々の視覚情報、聴覚情報、嗅覚情報、触覚情報などが含まれてよい。例えば、本実施形態に係る認識部210は、ある画像を見せた際に、ユーザが想起する思考や感情を推定することができる。なお、上記の思考には、ユーザが画像から連想する単語や文章なども含まれる。同様に、本実施形態に係る認識部210は、匂い、音、触覚刺激などを与えられたユーザが想起する思考や感情を推定することが可能である。
(発話長推定部220)
本実施形態に係る発話長推定部220は、情報処理端末10により送信されるユーザの発話情報に基づいて、ユーザの発話の長さを算出する機能を有する。この際、本実施形態に係る発話長推定部220は、例えば、上記の発話情報に基づいて発話区間を検出し、当該発話区間における発話音量からユーザの発話の長さを算出してもよい。
図5は、本実施形態に係る発話長推定部220による発話の長さの算出について説明するための図である。図5の上部には、情報処理端末10により送信されるユーザの発話情報に含まれる発話音量が時系列に示されており、図5の下部には、上記の発話音量に基づいて算出される発話の長さが時系列に示されている。
発話の長さを検出する際、本実施形態に係る発話長推定部220は、受信した発話情報に基づいて発話区間SSの検出を行う。この際、発話長推定部220は、音声認識分野において広く用いられる手法により発話区間検出を行ってよい。発話長推定部220は、例えば、振幅と零交差に基づく発話区間検出やガウス混合分布モデルに基づく発話区間検出、デコーダベースの発話区間検出などを行ってよい。
また、本実施形態に係る発話長推定部220は、検出した発話区間SSにおける発話音量の値に基づいて、ユーザの発話の長さを算出してよい。この際、発話長推定部220は、例えば、発話区間SSにおいて最小閾値Th_minを超える発話音量の値に基づいて時間単位の発話の長さを積算することで発話の長さを算出することができる。具体的には、発話長推定部220は、最小閾値Th_minを超えた発話音量の絶対値を積算してもよいし、発話音量と最小閾値Th_minとの差分を積算してもよい。また、発話長推定部220は、発話音量の変化量を算出し積算を行うこともできる。本実施形態に係る発話長推定部220が有する上記の機能によれば、ノイズを効果的に除去しながら発話の長さを算出することができる。
また、発話長推定部220は、最大閾値Th_maxを超える発話音量の値については、積算時に値をまるめるなどの処理を行ってもよい。この場合、一時的に発話音量が上がったことにより発話の長さが急激に伸びることを防止することができ、発話の長さに係るフィードバックを視覚効果として示す際、ユーザの違和感を防止する効果が期待できる。
(端末通信部230)
本実施形態に係る端末通信部230は、ネットワーク30を介して情報処理端末10との情報通信を行う機能を有する。具体的には、本実施形態に係る端末通信部230は、情報処理端末10の音声入力部112が検出したユーザの発話や、センサ部116が検出したセンサ情報を受信する。また、端末通信部230は、認識部210による認識結果と発話長推定部220により算出される発話の長さに係る情報を情報処理端末10に送信する。
以上、本実施形態に係る情報処理サーバ20の機能構成例について説明した。なお、図4を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理サーバ20の機能構成は係る例に限定されない。本実施形態に係る情報処理サーバ20は、上記に示した以外の構成をさらに備えてもよい。情報処理サーバ20は、例えば、情報処理端末10の出力制御部130に相当する構成をさらに備えてもよい。また、情報処理サーバ20は、入力操作を検出する入力部や各種の情報を出力する出力部などを備えてもよい。また、情報処理サーバ20が有する各機能は、複数の装置に分散して実現することも可能である。例えば、認識部210と発話長推定部220とは、それぞれ別途の装置により実現されてもよい。本実施形態に係る情報処理サーバ20の機能構成は、柔軟に変形され得る。
<<1.5.出力制御部130による出力制御の詳細>>
次に、本実施形態に係る情報処理端末10の出力制御部130による出力制御の詳細について説明する。以下では、本実施形態に係る認識部210が音声認識を行う場合を例に説明する。この際、本実施形態に係る出力制御部130は、音声認識アプリケーションに係るユーザインタフェース上において、音声認識結果が入力される入力領域に、音声認識に係る状態を示す種々の視覚効果を出力させることができる。以下、出力制御部130により制御される上記の視覚効果について、具体例を挙げながら説明する。
(音声認識の可否に係る状態を示す視覚効果の制御)
まず、本実施形態に係る出力制御部130による音声認識の可否に係る状態を示す視覚効果の制御について詳細に説明する。本実施形態に係る出力制御部130は、音声認識の可否に係る状態を示す様々な視覚効果を出力させることができる。より具体的には、本実施形態に係る出力制御部130は、音声認識が可能な状態であることを示す視覚効果を出力させてよい。本実施形態に係る出力制御部130が有する上記の機能によれば、ユーザが入力領域を注視しながらも、音声認識が可能な状態であることを直観的に知覚することが可能となり、誤操作などを効果的に防止することができる。
図6A〜図6Fは、音声認識の可否に係る状態を示す視覚効果の制御例について説明するための図である。本実施形態に係る出力制御部130は、例えば、図6Aに示すように、入力領域F1に音声認識が可能な状態であることを示す表示オブジェクトROを表示させてもよい。この場合、ユーザは入力領域F1に表示される表示オブジェクトROを視認することで、音声認識が可能な状態であることを直観的に把握することが可能である。
また、出力制御部130は、図6Aに示すように、表示オブジェクトROと共に、「お話しください」、などのメッセージを表示することで、ユーザに明示的に発話を促してもよい。なお、図6A〜図6Fには図示していないが、出力制御部130は、上記のようなメッセージを、例えば、半透明色で入力領域F1中に表示させることもできる。この場合、ユーザによる視線移動の負荷をより軽減する効果が期待できる。
また、上述したとおり、本実施形態に係る表示オブジェクトには、入力領域F1において音声認識結果の入力位置を示す位置表示オブジェクトが含まれる。上記の位置表示オブジェクトには、例えば、図6Bに示すようなキャレットCAが含まれ得る。このため、本実施形態に係る出力制御部130は、例えば、キャレットCAに係る視覚効果を変化させることで、ユーザに音声認識が可能な状態であることを示してもよい。図6Bには、出力制御部130が、例えば、0.7秒ごとに異なる明度や色でキャレットCAを明滅させる場合の例が示されている。
また、本実施形態に係る出力制御部130は、図6Cに示すように、キャレットCAの形状を変化させることで、音声認識が可能な状態であることを示してもよい。図6Cに示す一例の場合、出力制御部130は、キャレットCAの上部に時間経過と共に変化する視覚効果を表示させることで、ユーザに発話を促している。上記の視覚効果は、例えば、時間経過と共に丸型のオブジェクトが塗りつぶされていくようなものあってもよい。このように、本実施形態に係る出力制御部130は、音声認識に係る状態に基づいて、形状、大きさ、または色のうち少なくともいずれかの変化を伴う視覚効果を表示させることができる。
さらには、本実施形態に係る出力制御部130は、入力領域F1に係る視覚効果を変化させることで、ユーザに音声認識の可否に係る状態を提示してもよい。例えば、本実施形態に係る出力制御部130は、図6Dに示すように、入力領域F1の背景色を時間経過と共に変化させることで、音声認識が可能な状態であることをユーザに知覚させることができる。この際、出力制御部130は、例えば、1秒ごとに異なる明度や色で入力領域F1の背景を変化させてもよい。
また、本実施形態に係る出力制御部130は、図6Eに示すように、入力領域F1の領域枠に係る視覚効果を時間経過と共に変化させてもよい。上記の枠領域に係る視覚効果には、例えば、領域枠の明度や色、線種などが挙げられる。本実施形態に係る出力制御部130は、ユーザが発話を行うまで、上記のような表示制御を繰り返すことで、ユーザに発話を促すことができる。
また、本実施形態に係る出力制御部130は、ユーザインタフェースUIに配置される表示オブジェクトに係る視覚効果を制御してもよい。図6Fに示す一例の場合、出力制御部130は、ボタンb1を明滅させることで、音声認識が可能な状態であることをユーザに示している。出力制御部130は、ボタンb1と共に入力領域F1やキャレットCAに係る視覚効果を制御することで、ユーザの知覚効果をさらに高めてもよい。
(発話に対するフィードバックを示す視覚効果の制御)
次に、本実施形態に係る出力制御部130による発話に対するフィードバックを示す視覚効果の制御について詳細に説明する。本実施形態に係る出力制御部130は、入力中の発話に対するフィードバックを示す様々な視覚効果を出力させることができる。特に、本実施形態に係る出力制御部130は、発話の長さや発話音量に係るフィードバックを、音声認識結果が入力される入力領域に表示させてよい。本実施形態に係る出力制御部130が有する上記の機能によれば、ユーザが入力領域を注視しながらも、自身の発話に対するフィードバックを直観的に把握することが可能となり、音声認識精度を効果的に向上させることができる。
図7A〜図7Fは、発話に対するフィードバックを示す視覚効果の制御例について説明するための図である。本実施形態に係る出力制御部130は、例えば、図7Aに示すように、キャレットCAの形状や色、明度などを変化させることで、ユーザの発話に対するフィードバックを示してもよい。
図7Aに示す一例の場合、出力制御部130は、キャレットCAの内側に4つの丸型のオブジェクトc1〜c4を表示させ、キャレットCAやオブジェクトc1〜c4の視覚効果を変化させることで、発話に対するフィードバックを示している。この際、本実施形態に係る出力制御部130は、図7Aに示すように、発話の長さに対するフィードバックを、オブジェクトc1〜c4を左から順に塗りつぶしていくことで示してもよい。このように、本実施形態に係る出力制御部130は、発話の長さに基づいて視覚効果を変化させることができる。
また、この際、出力制御部130は、発話の長さの目標の指標となるような視覚効果を表示させてよい。図7Aの上部左端に着目すると、出力制御部130は、オブジェクトc1およびc2と、c3とc4とを異なる表現を用いて表示させている。ここで、オブジェクトc1およびc2は、ユーザに対し最低限の発話の長さを示す指標となる視覚効果であってよい。すなわち、ユーザは、オブジェクトc1およびc2が塗りつぶされることを目標に、発話を行うことができる。また、出力制御部130は、図7Aの上部右端に示すように、最低限の発話の長さを超えた場合には、オブジェクトc1およびc2の塗りつぶしに係る視覚効果を変化させてもよい。出力制御部130は、例えば、目標が達成したことを示すために、オブジェクトc1およびc2の塗りつぶし色を赤から白に変化させてもよい。
このように、本実施形態に係る出力制御部130は、発話の長さが不十分であることや、発話の長さが十分な状態に達したことを、視覚効果を変化させることで示すことができる。本実施形態に係る出力制御部130が有する上記の機能によれば、ユーザが必要な発話量を直観的に把握しながら発話を行うことができ、短い発話を防止することで音声認識精度を向上させることができる。
また、本実施形態に係る出力制御部130は、上記のような発話の長さに対するフィードバックと同時に発話音量に対するフィードバックを表示させてもよい。図7Aに示す一例の場合、出力制御部130は、例えば、キャレットCAの背景色の色や明度、オブジェクトc1〜c4の塗りつぶしの明度などを発話音量の大きさに基づいて変化させてもよい。
また、出力制御部130は、図7Aに示す一例に限らず、キャレットCAに係る様々な視覚効果により発話に対するフィードバックを示すことができる。出力制御部130は、例えば、図7Bに示すように、キャレットCAと共に発話に対するフィードバックを示すインジケータRIを表示させてもよい。
図7Bに示す一例の場合、出力制御部130は、発話の長さに基づいて、インジケータRIを右方向に延長することで、発話の長さに対するフィードバックを示している。また、この際、出力制御部130は、最低限の発話の長さを示す目標ポイントd1を表示させることで、長い発話を行うよう、ユーザを誘導してもよい。
また、図7Aの場合と同様、出力制御部130は、発話の長さが目標ポイントd1を超えた場合には、インジケータRIの色を変化せることで、ユーザに発話の長さが十分な状態に達したことを示してもよい。また、出力制御部130は、インジケータRIの明度を変化させることで、発話音量に対するフィードバックを同時に表示させることも可能である。
また、本実施形態に係るインジケータRIの形状は、図7Bに示すような棒状に限定されない。本実施形態に係る出力制御部130は、例えば、図7Cに示すように、グラフ状のインジケータRIを用いて発話の長さや発話音量に対するフィードバックを表示させてもよい。ここで、図7Cに示すインジケータRIには、発話音量の大きさを示すグラフが用いられてよい。この場合も、出力制御部130は、発話の長さに基づいて、インジケータRIを右方向に延長することで、発話の長さに対するフィードバックを示すことができる。また、出力制御部130は、図7Bの場合と同様に、発話の長さが目標ポイントd1を超えた場合には、インジケータRIの色を変化せることで、ユーザに発話の長さが十分な状態に達したことを示してもよい。
さらに、本実施形態に係る出力制御部130は、発話音量が大きすぎる場合には、インジケータRIの該当する箇所に係る視覚効果を変化させることで、ユーザに警告を示してもよい。この際、出力制御部130は、例えば、図7Cの右端に示すように、インジケータRIの色を変化させてもよい。出力制御部130が有する上記の機能によれば、音声認識精度に影響を与える音量の発話をユーザに知覚させることが可能となる。なお、この際、視覚効果を変化させるために用いられる発話音量の閾値は予め設定される所定の値であってもよいし、音声入力部112が含むマイクロフォンなどから動的に取得される値であってもよい。
また、音声認識の可否を示す視覚効果の場合と同様に、出力制御部130は、入力領域F1に係る視覚効果を制御することで、発話に対するフィードバックを示してもよい。図7Dの上部左側には、出力制御部130が発話音量に基づいて、入力領域F1の背景色の明度を変化させる場合の例が示されている。また、図7Dの上部右側に示すように、発話の長さが十分な状態に達した場合には、出力制御部130は、入力領域F1の背景色を異なる色に変化させることで、ユーザに上記の状態を示すことができる。
また、図7Eには、出力制御部130がユーザの発話に基づいて、入力領域F1の領域枠を変化させる場合の例が示されている。本実施形態に係る出力制御部130は、図7Eの上部左側に示すように、発話音量に基づいて、入力領域F1の領域枠に係る明度を変化させてもよい。また、本実施形態に係る出力制御部130は、図7Eの上部右側に示すように、発話の長さが十分な状態に達した場合には、入力領域F1の領域枠を異なる色に変化させることで、ユーザに上記の状態を示すことができる。
また、本実施形態に係る出力制御部130は、ユーザインタフェースUIに配置される表示オブジェクトに係る視覚効果を制御することで発話に対するフィードバックを示してもよい。図7Fに示す一例の場合、出力制御部130は、ボタンb1に係る視覚効果を制御することで、発話に対するフィードバクを表示させている。この際、出力制御部130は、例えば、図7Fの上部右側に示すように、ボタンb1の背景を発話の長さに応じて右方向に塗りつぶすことで発話の長さに対するフィードバックを示してもよい。また、この場合においても、出力制御部130は、発話の長さが目標ポイントd1を超えた場合には、塗りつぶしの色を変化せることで、ユーザに発話の長さが十分な状態に達したことを示してもよい。また、出力制御部130は、図7Fの上部左側に示すように、塗りつぶしの明度を変化させることで、発話音量に対するフィードバックを示すこともできる。
以上説明したように、本実施形態に係る出力制御部130は、ユーザの発話に基づいて、種々の視覚効果を制御することで、ユーザに発話の長さや発話音量に対するフィードバックを示すことができる。なお、上記で説明した視覚効果の制御はあくまで一例であり、本実施形態に係る視覚制御は係る例に限定されない。本実施形態に係る出力制御部130の制御機能は柔軟に変形され得る。
(音声認識結果と共に表示される視覚効果の制御)
次に、本実施形態に係る音声認識結果と共に表示される視覚効果の制御について詳細に説明する。本実施形態に係る出力制御部130は、声認識結果と共に発話に対するフィードバックに係る視覚効果を出力させることができる。特に、本実施形態に係る出力制御部130は、音声認識結果と共に発話の長さが不十分であることを示す視覚効果を表示させてよい。本実施形態に係る出力制御部130が有する上記の機能によれば、ユーザが発話の長さと認識精度の関係を直観的に把握することができ、今後の発話に活かすことが可能となる。
図8A〜図8Eは、音声認識結果と共に表示される視覚効果の制御例について説明するための図である。本実施形態に係る出力制御部130は、例えば、図8Aに示すように、音声認識により入力領域F1に入力される文字列in2の下部に下線状の視覚効果u1〜u7を表示させることで、発話に対するフィードバックを示してもよい。この際、本実施形態に係る出力制御部130は、下線状の視覚効果u1〜u7を認識された文節や単語などのグループ単位で表示させてもよい。
また、出力制御部130は、音声認識時の発話の長さに基づいて、下線状の視覚効果u1〜u7に係る表現を変化させることができる。例えば、図8Aに示す一例の場合、出力制御部130は、発話の長さが十分であったグループ単位の下部には、直線による下線状の視覚効果u1〜u3、およびu6〜u7を表示させており、発話の長さが不十分であったグループ単位の下部には、鎖線による下線状の視覚効果u4、およびu5を表示させている。なお、出力制御部130は、上記のような線種の違いの他、色の違いによるフィードバックを行ってもよい。
このように、本実施形態に係る出力制御部130が音声認識結果と共に発話の長さに対するフィードバックを表示させることで、ユーザが認識精度と発話の長さとの関係を理解することが可能となる。例えば、図8Aには、ユーザは、「今日私が遊んだのは、パズル、ではなく、スポーツのゲームです」、と発話した場合の例が示されている。この際、ユーザは、誤認識された文字列「ぱず」と、当該文字列と共に表示される下線状の視覚効果u4を視認することで、発話の長さが短い場合には、認識精度が悪いことを把握することができる。
また、この際、ユーザは、キャレットCAを操作し、文字列「ぱず」を選択した後、再び発話を行うことで、音声認識結果の修正を行ってもよい。図8Bは、本実施形態に係る音声認識結果の修正について説明するための図である。図8Bには、ユーザが、キャレットCAを操作して文字列を選択する際のイメージが示されている。この際、本実施形態に係る出力制御部130は、図8Bに示すように、キャレットCAの形状をアニメーションにより変化させることで、グループ単位の選択が行われるように、制御を行ってもよい。
図8Bには、文字列「ぱず」の左側にキャレットCAが存在する際に、ユーザがキャレットCAを右方向に移動させた場合の表示制御例が示されている。この場合、出力制御部130は、キャレットCAを枠状に変形させながら、徐々に文字列「ぱず」全体を囲うようにキャレットCAの大きさを変化させてよい。ユーザは、文字列「ぱず」全体が選択された後、再度発話を行うことで、誤認識された音声認識結果を修正することができる。
また、音声認識結果と共に表示される視覚効果は、図8Aに示した下線状に限定されない。本実施形態に係る出力制御部130は、例えば、図8Cに示すように、グループ単位の間に区切り状の視覚効果p1〜p6を表示させてもよい。この際、出力制御部130は、発話の長さに基づいて、区切り状の視覚効果p1〜p6の延長方向を変化させてもよい。図8Cに示す一例の場合、出力制御部130は、発話の長さが不十分であったグループ単位を、罫線rから下方に延長する区切り状の視覚効果p3〜p5により囲うことで示し、上記以外のグループ単位に関しては、罫線rから上方に延長する区切り状の視覚効果p1、p2、およびp6を用いて区切りを示している。
また、本実施形態に係る出力制御部130は、図8Dに示すように、マーカ型による視覚効果m1〜m6によりグループ単位を示してもよい。この場合も同様に、出力制御部130は、発話の長さに基づいて、マーカ型の視覚効果m1〜m6の表現を変化させることができる。図8Dに示す一例の場合、出力制御部130は、発話の長さが不十分であったグループ単位を、黒色のマーカ型の視覚効果m3〜m5により囲うことで示し、上記以外のグループ単位については、白色のマーカ型の視覚効果m1、m2、およびm6を用いることで区切りを示している。
また、本実施形態に係る出力制御部130は、図8Eに示すように、文字列In2の背景色をグループ単位ごとに変化させることで区切りを示すことができる。図8Eに示す一例の場合、出力制御部130は、グループ単位を背景型の視覚効果b1〜b4を用いて交互に装飾することで区切りを示している。また、この際、出力制御部130は、発話の長さが不十分であった文字列In2およびIn2を、他のグループ単位とは異なる書体で表示させることで、ユーザに発話の長さに対するフィードバックを示してもよい。このように、本実施形態に係る視覚効果には、音声認識結果に対応する文字列に係る視覚効果が含まれてよい。
<<1.6.情報処理端末10の動作の流れ>>
次に、本実施形態に係る情報処理端末10の動作の流れについて詳細に説明する。図9は、情報処理端末10の動作の流れを示すフローチャートである。なお、図9には、本実施形態に係る情報処理サーバ20が音声認識を行う場合における情報処理端末10の動作の流れが示されている。
図9を参照すると、まず、情報処理端末10のサーバ通信部140は、情報処理サーバ20から音声認識に係る情報を取得する(S1101)。
次に、本実施形態に係る出力制御部130は、ステップS1101で受信した音声認識に係る情報に基づいて、音声認識が可能な状態であるか否かを判定する(S1102)。
ここで、出力制御部130により音声認識が可能な状態ではないと判定された場合(S1102:NO)、情報処理端末10は、音声認識に係る状態を示す視覚効果の表示制御処理を終了する。
一方、出力制御部130が、音声認識が可能な状態であると判定した場合(S1102:YES)、続いて出力制御部130は、ステップS1101で受信した音声認識に係る情報に発話音量や発話の長さに係る情報が存在するか否かを判定する(S1103)。
ここで、出力制御部130が、音声認識に係る情報に発話音量や発話の長さに係る情報が存在しないと判定した場合(S1103:NO)、続いて、出力制御部130は、音声認識が可能な状態であることを示す視覚効果を表示させる表示制御を行う(S1104)。
一方、出力制御部130が、音声認識に係る情報に発話音量や発話の長さに係る情報が存在すると判定した場合(S1103:YES)、続いて、出力制御部130は、ステップS1101で受信した音声認識に係る情報に音声認識結果が存在するか否かを判定する(S1105)。
ここで、出力制御部130が、音声認識に係る情報に音声認識結果が存在しないと判定した場合(S1105:NO)、続いて、出力制御部130は、発話音量と発話長さに対するフィードバックを示す視覚効果を表示させる表示制御を行い(S1106)。情報処理端末10は一連の処理を終了する。
一方、出力制御部130が、音声認識に係る情報に音声認識結果が存在すると判定した場合(S1105:YES)、続いて、出力制御部130は、音声認識結果と発話長さに対するフィードバックを示す視覚効果を表示させる表示制御を行い(S1107)。情報処理端末10は一連の処理を終了する。
<2.ハードウェア構成例>
次に、本開示に係る情報処理端末10および情報処理サーバ20に共通するハードウェア構成例について説明する。図10は、本開示に係る情報処理端末10および情報処理サーバ20のハードウェア構成例を示すブロック図である。図10を参照すると、情報処理端末10および情報処理サーバ20は、例えば、CPU871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インターフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(CPU871)
CPU871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、CPU871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、CPU871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インターフェース877)
CPU871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インターフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu−ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS−232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<3.まとめ>
以上説明したように、本開示に係る出力制御部130は、認識に係る状態を示す種々の視覚効果を、認識結果が入力される入力領域に表示させることができる。より具体的には、本開示に係る出力制御部130は、認識が可能な状態であることを示す視覚効果を上記の入力領域に表示させることができる。また、本開示に係る出力制御部130は、発話の長さや発話音量に対するフィードバックを示す視覚効果を上記の入力領域に表示させることができる。係る構成によれば、認識アプリケーションに係るユーザインタフェースにおいて、視線移動の負荷を軽減することが可能となる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書の情報処理端末10の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、情報処理端末10の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
認識アプリケーションに係るユーザインタフェースの表示を制御する出力制御部、
を備え、
前記出力制御部は、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させる、
情報処理装置。
(2)
前記視覚効果は、前記入力領域内に表示される表示オブジェクトを含む、
前記(1)に記載の情報処理装置。
(3)
前記表示オブジェクトは、前記入力領域において前記認識結果の入力位置を示す位置表示オブジェクトを含む、
前記(2)に記載の情報処理装置。
(4)
前記視覚効果は、前記入力領域の背景に係る視覚効果を含む、
前記(1)〜(3)のいずれかに記載の情報処理装置。
(5)
前記視覚効果は、前記入力領域の領域枠に係る視覚効果を含む、
前記(1)〜(4)のいずれかに記載の情報処理装置。
(6)
前記視覚効果は、前記認識結果に対応する文字列に係る視覚効果を含む、
前記(1)〜(5)のいずれかに記載の情報処理装置。
(7)
前記出力制御部は、前記認識に係る状態に基づいて、前記視覚効果を変化させる、
前記(1)〜(6)のいずれかに記載の情報処理装置。
(8)
前記出力制御部は、前記認識に係る状態に基づいて、形状、大きさ、または色のうち少なくともいずれかの変化を伴う視覚効果を表示させる、
前記(1)〜(7)のいずれかに記載の情報処理装置。
(9)
前記認識に係る状態は、発話に対するフィードバックを含む、
前記(1)〜(8)のいずれかに記載の情報処理装置。
(10)
前記発話に対するフィードバックは、入力中の発話に対するフィードバックを含む、
前記(9)に記載の情報処理装置。
(11)
前記発話に対するフィードバックは、前記発話の長さに対するフィードバックを含む、
前記(9)または(10)に記載の情報処理装置。
(12)
前記出力制御部は、前記発話の長さに基づいて前記視覚効果を変化させる、
前記(11)に記載の情報処理装置。
(13)
前記出力制御部は、前記発話の長さが不十分であることを示す視覚効果を表示させる、
前記(11)または(12)に記載の情報処理装置。
(14)
前記出力制御部は、発話区間における発話音量から算出された前記発話の長さに基づいて、前記視覚効果を出力させる、
前記(11)〜(13)のいずれかに記載の情報処理装置。
(15)
前記出力制御部は、前記認識結果と共に前記発話に対するフィードバックに係る視覚効果を出力させる、
前記(9)〜(13)のいずれかに記載の情報処理装置。
(16)
前記出力制御部は、前記認識結果と共に前記発話の長さが不十分であることを示す視覚効果を表示させる、
前記(9)〜(14)のいずれかに記載の情報処理装置。
(17)
前記認識に係る状態は、認識の可否に係る状態を含む、
前記(1)〜(16)のいずれかに記載の情報処理装置。
(18)
前記出力制御部は、認識が可能な状態であることを示す視覚効果を表示させる、
前記(17)に記載の情報処理装置。
(19)
ユーザの発話を検出する入力部、
をさらに備える、
前記(1)〜(18)のいずれかに記載の情報処理装置。
(20)
プロセッサが、認識アプリケーションに係るユーザインタフェースの表示を制御すること、
を含み、
前記表示を制御することは、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させること、をさらに含む、
情報処理方法。
10 情報処理端末
110 入力部
112 音声入力部
114 操作入力部
116 センサ部
120 出力部
122 表示部
124 音声出力部
126 触覚提示部
130 出力制御部
140 サーバ通信部
20 情報処理サーバ
210 認識部
220 発話長推定部
230 端末通信部

Claims (20)

  1. 認識アプリケーションに係るユーザインタフェースの表示を制御する出力制御部、
    を備え、
    前記出力制御部は、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させる、
    情報処理装置。
  2. 前記視覚効果は、前記入力領域内に表示される表示オブジェクトを含む、
    請求項1に記載の情報処理装置。
  3. 前記表示オブジェクトは、前記入力領域において前記認識結果の入力位置を示す位置表示オブジェクトを含む、
    請求項2に記載の情報処理装置。
  4. 前記視覚効果は、前記入力領域の背景に係る視覚効果を含む、
    請求項1に記載の情報処理装置。
  5. 前記視覚効果は、前記入力領域の領域枠に係る視覚効果を含む、
    請求項1に記載に情報処理装置。
  6. 前記視覚効果は、前記認識結果に対応する文字列に係る視覚効果を含む、
    請求項1に記載の情報処理装置。
  7. 前記出力制御部は、前記認識に係る状態に基づいて、前記視覚効果を変化させる、
    請求項1に記載の情報処理装置。
  8. 前記出力制御部は、前記認識に係る状態に基づいて、形状、大きさ、または色のうち少なくともいずれかの変化を伴う視覚効果を表示させる、
    請求項1に記載の情報処理装置。
  9. 前記認識に係る状態は、発話に対するフィードバックを含む、
    請求項1に記載の情報処理装置。
  10. 前記発話に対するフィードバックは、入力中の発話に対するフィードバックを含む、
    請求項9に記載の情報処理装置。
  11. 前記発話に対するフィードバックは、前記発話の長さに対するフィードバックを含む、
    請求項9に記載の情報処理装置。
  12. 前記出力制御部は、前記発話の長さに基づいて前記視覚効果を変化させる、
    請求項11に記載の情報処理装置。
  13. 前記出力制御部は、前記発話の長さが不十分であることを示す視覚効果を表示させる、
    請求項11に記載の情報処理装置。
  14. 前記出力制御部は、発話区間における発話音量から算出された前記発話の長さに基づいて、前記視覚効果を出力させる、
    請求項11に記載の情報処理装置。
  15. 前記出力制御部は、前記認識結果と共に前記発話に対するフィードバックに係る視覚効果を出力させる、
    請求項9に記載の情報処理装置。
  16. 前記出力制御部は、前記認識結果と共に前記発話の長さが不十分であることを示す視覚効果を表示させる、
    請求項9に記載の情報処理装置。
  17. 前記認識に係る状態は、認識の可否に係る状態を含む、
    請求項1に記載の情報処理装置。
  18. 前記出力制御部は、認識が可能な状態であることを示す視覚効果を表示させる、
    請求項17に記載の情報処理装置。
  19. ユーザの発話を検出する入力部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  20. プロセッサが、認識アプリケーションに係るユーザインタフェースの表示を制御すること、
    を含み、
    前記表示を制御することは、認識結果が入力される入力領域に、認識に係る状態を示す視覚効果を出力させること、をさらに含む、
    情報処理方法。
JP2018557542A 2016-12-22 2017-09-21 情報処理装置、および情報処理方法 Active JP6969576B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016249485 2016-12-22
JP2016249485 2016-12-22
PCT/JP2017/034090 WO2018116556A1 (ja) 2016-12-22 2017-09-21 情報処理装置、および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2018116556A1 true JPWO2018116556A1 (ja) 2019-10-31
JP6969576B2 JP6969576B2 (ja) 2021-11-24

Family

ID=62627264

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018557542A Active JP6969576B2 (ja) 2016-12-22 2017-09-21 情報処理装置、および情報処理方法

Country Status (4)

Country Link
US (1) US11183189B2 (ja)
EP (1) EP3561653A4 (ja)
JP (1) JP6969576B2 (ja)
WO (1) WO2018116556A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022036352A (ja) 2018-12-27 2022-03-08 ソニーグループ株式会社 表示制御装置、及び表示制御方法
KR102330496B1 (ko) * 2019-08-20 2021-11-24 주식회사 포켓메모리 음성인식 방법 및 장치

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001166860A (ja) * 1999-12-07 2001-06-22 Canon Inc 情報処理装置、カーソル表示方法、及び記憶媒体
JP2002116792A (ja) * 2000-10-11 2002-04-19 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2014203207A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2016103988A1 (ja) * 2014-12-26 2016-06-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6075534A (en) 1998-03-26 2000-06-13 International Business Machines Corporation Multiple function graphical user interface minibar for speech recognition
US6965863B1 (en) * 1998-11-12 2005-11-15 Microsoft Corporation Speech recognition user interface
US8214214B2 (en) * 2004-12-03 2012-07-03 Phoenix Solutions, Inc. Emotion detection device and method for use in distributed systems
US20120089392A1 (en) * 2010-10-07 2012-04-12 Microsoft Corporation Speech recognition user interface
JP5790238B2 (ja) * 2011-07-22 2015-10-07 ソニー株式会社 情報処理装置、情報処理方法及びプログラム
US9721587B2 (en) * 2013-01-24 2017-08-01 Microsoft Technology Licensing, Llc Visual feedback for speech recognition system
US20140337788A1 (en) * 2013-05-08 2014-11-13 Tencent Technology (Shenzhen) Company Limited Method and device for text message input
WO2015059976A1 (ja) 2013-10-24 2015-04-30 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
US9430186B2 (en) * 2014-03-17 2016-08-30 Google Inc Visual indication of a recognized voice-initiated action
US20160163331A1 (en) * 2014-12-04 2016-06-09 Kabushiki Kaisha Toshiba Electronic device and method for visualizing audio data

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001166860A (ja) * 1999-12-07 2001-06-22 Canon Inc 情報処理装置、カーソル表示方法、及び記憶媒体
JP2002116792A (ja) * 2000-10-11 2002-04-19 Sony Corp ロボット制御装置およびロボット制御方法、並びに記録媒体
JP2014203207A (ja) * 2013-04-03 2014-10-27 ソニー株式会社 情報処理装置、情報処理方法及びコンピュータプログラム
WO2016103988A1 (ja) * 2014-12-26 2016-06-30 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
WO2018116556A1 (ja) 2018-06-28
EP3561653A4 (en) 2019-11-20
US11183189B2 (en) 2021-11-23
US20200066269A1 (en) 2020-02-27
JP6969576B2 (ja) 2021-11-24
EP3561653A1 (en) 2019-10-30

Similar Documents

Publication Publication Date Title
US8903176B2 (en) Systems and methods using observed emotional data
CN110598576B (zh) 一种手语交互方法、装置及计算机介质
JP6760271B2 (ja) 情報処理装置、情報処理方法およびプログラム
WO2017130486A1 (ja) 情報処理装置、情報処理方法およびプログラム
JP6841239B2 (ja) 情報処理装置、情報処理方法、およびプログラム
CN113678133A (zh) 用于对话中断检测的具有全局和局部编码的上下文丰富的注意记忆网络的系统和方法
JP6897677B2 (ja) 情報処理装置及び情報処理方法
JP2017525002A (ja) 改善された音声認識を容易にする視覚的コンテンツの修正
JP7405093B2 (ja) 情報処理装置および情報処理方法
KR20200059112A (ko) 로봇 상호작용 시스템 및 그를 위한 프로그램
JP6969576B2 (ja) 情報処理装置、および情報処理方法
WO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
US20200234187A1 (en) Information processing apparatus, information processing method, and program
WO2018198447A1 (ja) 情報処理装置および情報処理方法
JP7468360B2 (ja) 情報処理装置および情報処理方法
WO2018061346A1 (ja) 情報処理装置
Goetze et al. Multimodal human-machine interaction for service robots in home-care environments
WO2019142420A1 (ja) 情報処理装置および情報処理方法
WO2023188904A1 (ja) 情報処理装置、情報処理方法、およびプログラム
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20240179113A1 (en) Methods and devices for communication with multimodal compositions
JP6897678B2 (ja) 情報処理装置及び情報処理方法
JP2021136547A (ja) 制御装置、制御方法、オペレーターの提示装置、オペレーターへの提示方法、ユーザーの提示装置、ユーザーへの提示方法、プログラム及び通信システム
JP2022052816A (ja) 制御装置、制御方法、オペレーターの提示装置、オペレーターへの提示方法、ユーザーの提示装置、ユーザーへの提示方法、プログラム及び通信システム
CN118251878A (zh) 使用多模态合成进行通信的方法和设备

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200708

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200708

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210302

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210420

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210928

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211011

R151 Written notification of patent or utility model registration

Ref document number: 6969576

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151