JP7405093B2 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
JP7405093B2
JP7405093B2 JP2020558183A JP2020558183A JP7405093B2 JP 7405093 B2 JP7405093 B2 JP 7405093B2 JP 2020558183 A JP2020558183 A JP 2020558183A JP 2020558183 A JP2020558183 A JP 2020558183A JP 7405093 B2 JP7405093 B2 JP 7405093B2
Authority
JP
Japan
Prior art keywords
character
user
character expression
information processing
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020558183A
Other languages
English (en)
Other versions
JPWO2020105349A1 (ja
Inventor
真一 河野
亮平 安田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Sony Group Corp
Original Assignee
Sony Corp
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp, Sony Group Corp filed Critical Sony Corp
Publication of JPWO2020105349A1 publication Critical patent/JPWO2020105349A1/ja
Application granted granted Critical
Publication of JP7405093B2 publication Critical patent/JP7405093B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/013Eye tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/038Control and interface arrangements therefor, e.g. drivers or device-embedded control circuitry
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/038Indexing scheme relating to G06F3/038
    • G06F2203/0381Multimodal input, i.e. interface arrangements enabling the user to issue commands by simultaneous use of input devices of different nature, e.g. voice plus gesture on digitizer
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本開示は、情報処理装置および情報処理方法に関する。
近年、技術の発展に伴い、装置に対する入力や制御を行う手法が多様化している。例えば、特許文献1には、ユーザの視線や音声に基づいて、装置の制御を行う技術が開示されている。
特開平6-51901号公報
上記のような技術によれば、キーボードやマウスなどの入力装置を操作する煩雑さを低減し、ユーザの手の動作を自由にすることができる。しかし、例えば、音声認識などを用いた文字入力においては、ユーザが意図する表現が正しく反映されない場合もある。
本開示によれば、ユーザの言語動作のテキスト化に係る文字表現を決定する決定部、を備え、前記決定部は、検出された前記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに前記文字表現を決定する、情報処理装置が提供される。
また、本開示によれば、プロセッサが、ユーザの言語動作のテキスト化に係る文字表現を決定すること、を含み、前記決定することは、検出された前記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに前記文字表現を決定すること、さらに含む、情報処理方法が提供される。
本開示の一実施形態の概要について説明するための図である。 同実施形態に係る情報処理システムの構成例を示すブロック図である。 同実施形態に係る情報処理端末10の機能構成例を示すブロック図である。 同実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。 同実施形態に係る文字表現決定の流れについて説明するための図である。 同実施形態に係る文字表現決定の流れについて説明するための図である。 同実施形態に係る文字表現決定の流れについて説明するための図である。 同実施形態に係る文字表現決定の流れについて説明するための図である。 同実施形態に係る文字表現決定の流れについて説明するための図である。 同実施形態に係る文字表現の予測について説明するための図である。 同実施形態に係る文字表現の予測について説明するための図である。 同実施形態に係る文字表現の予測について説明するための図である。 同実施形態に係る情報処理端末10がデジタルサイネージ端末である場合の使用例について説明するための図である。 同実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を排他的に制御する場合の流れについて説明するための図である。 同実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を排他的に制御する場合の流れについて説明するための図である。 同実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を排他的に制御する場合の流れについて説明するための図である。 同実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を同時に制御する場合の流れについて説明するための図である。 同実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を同時に制御する場合の流れについて説明するための図である。 同実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を同時に制御する場合の流れについて説明するための図である。 同実施形態に係るユーザの視線に基づく書体の制御の一例を示す図である。 同実施形態に係るユーザの視線に基づく約物の制御の一例を示す図である。 同実施形態に係るユーザの視線に基づく表記言語の制御の一例を示す図である。 同実施形態に係るユーザの視線に基づく翻訳先言語の制御の一例を示す図である。 同実施形態に係る視線による文字表現の事後指定について説明するための図である。 同実施形態に係るジェスチャに基づく文字表現の制御について説明するための図である。 同実施形態に係るジェスチャに基づく文字表現の制御について説明するための図である。 同実施形態に係るジェスチャに基づく文字表現の制御について説明するための図である。 同実施形態に係るジェスチャに基づく文字表現の制御について説明するための図である。 同実施形態に係るテキストボックスTBと文字表現アイコンTIが、異なる画面上に出力される場合の一例を示す図である。 同実施形態に係る情報処理端末10による文字表現の適用の流れを示すフローチャートである。 同実施形態に係る文字表現判定処理の流れを示すフローチャートである。 同実施形態に係る視線移動判定処理の流れを示すフローチャートである。 同実施形態に係る文字表現学習部145による文字入力傾向学習の流れの一例を示すフローチャートである。 同実施形態に係る文字表現予測部140による文字表現予測の流れの一例を示すフローチャートである。 本開示の一実施形態に係るハードウェア構成例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
なお、説明は以下の順序で行うものとする。
1.実施形態
1.1.概要
1.2.システム構成例
1.3.情報処理端末10の機能構成例
1.4.情報処理サーバ20の機能構成例
1.5.機能の詳細
1.6.処理の流れ
2.ハードウェア構成例
3.まとめ
<1.実施形態>
<<1.1.概要>>
まず、本開示の一実施形態の概要について説明する。上述したように、近年においては、マウスやキーボードに代わる各種の入力手法が開発されている。上記の入力手法には、例えば、音声認識技術を用いた文字入力手法や装置の制御手法が含まれる。このような手法によれば、ユーザの手を装置の操作から解放することができるため、ユーザは自由になった手で他の作業を行うことが可能となる。
しかし、例えば、音声認識による文字入力では、ユーザが意図する表現が出力結果に正しく反映されない状況も想定される。このような状況は、音声認識の精度に依らず発生し得る。
例えば、日本語の場合、基本的に、ひらがな、カタカナ、漢字の3種の文字種を用いて文章を表現している。さらに、日本語の文章では、アラビア数字、ラテン文字なども日常的に用いられる。
ここで、例えば、ユーザが「今日の夕方の1645にGO」という文字列を音声認識により入力したい場合を想定する。上記の文字列は、漢字(今日、夕方)、ひらがな(の、に)、アラビア数字(1645)、および大文字のラテン文字(GO)の4つの文字種から構成されている。
しかし、上記のような文字種はユーザの発話「きょうのゆうがたのいちろくよんごうにごう」(便宜的にひらがなにより表す)のみから判定することが困難であるため、一般的な音声認識エンジンでは、例えば、下記に示すような多様な文字列が出力され得る。
(出力例)
・「今日の夕方の1645にゴー」
・「今日の夕方の1645にGO」
・「今日の夕方の164525」
・「今日の夕方の1645二号」
・「今日の夕方の一六四号二号」
・「今日の夕方の164号2号」
上記のような文字表現に係るユーザ意図との不一致は、日本語以外の言語でも起こり得る。例えば、英語の場合、ユーザが“one”と入力したい場合において、“1”が出力される場合などである。
このように、一般的な音声認識技術を用いた文字入力では、一つの文章中で複数の文字種を動的に指定する手法が確立されておらず、利便性を低下させる要因となっている。また、通常、使用可能な文字種は認識エンジンの仕様に依存することから、ユーザが意図する文字列が正しく入力できない場合がある。
本開示に係る技術思想は上記の点に着目して発想されたものであり、ユーザの意図により合致した文字列入力を可能とするものである。このために、本開示の一実施形態に係る情報処理方法を実現する情報処理端末10は、ユーザの言語動作のテキスト化に係る文字表現を決定する文字表現決定部135を備える。また、本開示の一実施形態に係る文字表現決定部135は、検出された上記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに上記文字表現を決定する、ことを特徴の一つとする。
ここで、上記の言語動作とは、コミュニケーションにおいて言語的な意図を発信するための動作全般を指す。このため、本実施形態に係る言語動作は、例えば、発話に代表される。一方、本実施形態に係る言語動作は、必ずしも有声を伴う動作に限定されず、例えば、唇の動き、無声のささやきなども含まれ得る。このため、上記の言語動作区間とは、ユーザにより上記のような言語動作が行われる区間と定義される。例えば、言語動作が有声発話である場合、言語動作は音声区間であり、言語動作が唇の動きである場合、言語動作は、唇が動いている区間を指す。
また、上記の非言語動作には、ユーザにより行われる、言語動作以外の動作が広く含まれる。本実施形態に係る非言語動作には、例えば、眼球運動、指や手の動きおよび形状、頭部の動きおよび向きなどが含まれてよい。
すなわち、本実施形態に係る文字表現決定部135は、ユーザの視線やジェスチャなどに基づいて、例えば、発話のテキスト化に係る文字表現を、発話区間ごとに決定することができる。
図1は、本開示の一実施形態の概要について説明するための図である。図1に示す一例では、ヘッドマウントディスプレイである情報処理端末10を装着するユーザUが、文字入力を行う場面が示されている。また、図1では、本実施形態に係る言語動作が有声発話であり、非言語動作が眼球運動である場合が例示されている。
図1に示す一例において、ユーザUは、例えば、ゲームアプリケーション等において他のユーザとのチャットを行っている。この際、情報処理端末10の表示部150には、ゲーム画面に加え、チャット履歴CHのほか、本実施形態に係る文字入力インタフェースUIが表示される。本実施形態に係る文字入力インタフェースUIには、例えば、発話の音声認識結果である文字列が表示されるテキストボックスTBや、入力位置を示すキャレットCR、またマイクロフォンの入力状態を示すマイクアイコンMIなどが表示される。
さらには、本実施形態に係る文字入力インタフェースUIには、ユーザUが視線により文字表現を指定するための複数の文字表現アイコンTIが表示されてよい。図1に示す一例では、6つの文字表現アイコンTI1~TI6が表示されている。なお、図1では、本実施形態に係る文字表現が文字種である場合の文字表現アイコンTIが示されており、それぞれの文字表現アイコンTI1~TI6は、それぞれ異なる文字種に対応している。
例えば、文字表現アイコンTI1は、通常文字種を優先する指定を行うためのアイコンであってよい。ここで、上記の通常文字種とは、音声認識エンジンの仕様に基づく変換に用いられる文字種を指す。
また、文字表現アイコンTI2は、ひらがなを優先する指定を行うためのアイコンであり、文字表現アイコンTI3は、カタカナを優先する指定を行うためのアイコンである。文字表現アイコンTI4は、アラビア数字を優先する指定を行うためのアイコンである。また、文字表現アイコンTI5およびTI6は、それぞれ小文字または大文字のラテン文字を優先する指定を行うためのアイコンである。
文字表現アイコンTI2~TI6がユーザUにより指定された場合、音声認識結果に齟齬が生じない可能な範囲で、ひらがな、カタカナ、アラビア数字、小文字のラテン文字、または大文字のラテン文字が優先して文字列の出力に用いられてよい。
例えば、図1に示す一例には、「今日の夕方の1645に」という文字列がテキストボックスTBに出力された後、ユーザUが文字表現アイコンTI6を注視して、「ごお」と発話を行った際の文字列が示されている。この場合、上記の発話「ごお」は、ユーザUが発話前に注視した文字表現アイコンTI6に対応する大文字のラテン文字により「GO」として出力される。
以上、本実施形態の概要について説明した。このように、本実施形態に係る情報処理端末10は、発話に伴うユーザの非言語動作に基づいて、音声区間ごとに文字表現を決定することが可能である。本実施形態に係る情報処理端末10が有する上記の機能によれば、発話などによる文字列の入力において、一文章中で複数の文字表現を動的に切り替えることができ、ユーザの意図により合致した文字列入力が可能となる。
なお、図1を用いた上記の説明では、本実施形態に係る文字表現の一例として、情報処理端末10が文字種を指定する場合を述べたが、本実施形態に係る文字表現は係る例に限定されない。本実施形態に係る文字表現は、音声認識結果の視覚的効果に係る各種の表現を広く含んでよい。本実施形態に係る文字表現の具体例については別途後述する。
<<1.2.システム構成例>>
次に、本開示の一実施形態に係る情報処理システムの構成例について述べる。図2は、本実施形態に係る情報処理システムの構成例を示すブロック図である。図2を参照すると、本実施形態に係る情報処理システムは、情報処理端末10および情報処理サーバ20を備える。また、情報処理端末10と情報処理サーバ20は、ネットワーク30を介して互いに通信が可能なように接続される。
(情報処理端末10)
本実施形態に係る情報処理端末10は、文字入力インタフェースUIをユーザに提供する情報処理装置である。また、情報処理端末10は、上述したユーザの言語動作や非言語動作に係るセンシング情報を収集する。例えば、ユーザの視線を文字表現の決定に利用する場合、本実施形態に係る情報処理端末10は、例えば、視線検出が可能なヘッドマウントディスプレイや専用装置であってもよい。
(情報処理サーバ20)
本実施形態に係る情報処理サーバ20は、情報処理端末10が収集したセンシング情報に基づく各種の認識処理を行う情報処理装置である。例えば、本実施形態に係る情報処理サーバ20は、情報処理端末10が収集したユーザの音声に基づいて音声認識を実行する。また、例えば、本実施形態に係る情報処理サーバ20は、情報処理端末10が収集した眼球の画像に基づいて視線認識を実行する。本実施形態に係る情報処理サーバ20が行う認識処理の種別は、文字表現の決定に係る言語動作や非言語動作に応じて設計される。
(ネットワーク30)
ネットワーク30は、情報処理端末10と情報処理サーバ20とを接続する機能を有する。ネットワーク30は、インターネット、電話回線網、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、ネットワーク30は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。また、ネットワーク30は、Wi-Fi(登録商標)、Bluetooth(登録商標)など無線通信網を含んでもよい。
以上、本開示の一実施形態に係る情報処理システムの構成例について述べた。なお、図2を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理システムの構成は係る例に限定されない。例えば、情報処理端末10と情報処理サーバ20が有する機能は、単一の装置により実現されてもよいし、3台以上の装置により実現されてもよい本実施形態に係る情報処理システムの構成は、仕様や運用に応じて柔軟に変形可能である。
<<1.3.情報処理端末10の機能構成例>>
次に、本開示の一実施形態に係る情報処理端末10の機能構成例について述べる。図3は、本実施形態に係る情報処理端末10の機能構成例を示すブロック図である。図3を参照すると、本実施形態に係る情報処理端末10は、音入力部110、撮影部115、操作入力部120、センサ部125、表示制御部130、文字表現決定部135、文字表現予測部140、文字表現学習部145、表示部150、音出力部155、およびサーバ通信部160を備える。
(音入力部110)
本実施形態に係る音入力部110は、ユーザの発話などの音を収集する。このために、本実施形態に係る音入力部110は、マイクロフォンなどの集音装置を備える。なお、話者識別等のために音源方向推定を行う場合、音入力部110は、2つ以上の集音装置を備える。
(撮影部115)
本実施形態に係る撮影部115は、ユーザなどの画像を撮影する。このために、本実施形態に係る撮影部115は、撮像センサを備える。また、本実施形態に係る撮影部115は、ユーザの視線認識に用いる画像を撮影するために、赤外光LEDなどの光源を備えてもよい。
(操作入力部120)
本実施形態に係る操作入力部120は、ユーザによる操作入力を検出する。このために、本実施形態に係る操作入力部120は、例えば、タッチパネルやスイッチ、ボタンなどを備える。
(センサ部125)
本実施形態に係るセンサ部125は、ユーザや情報処理端末10に係る各種のセンシング情報を収集する。このために、本実施形態に係るセンサ部125は、例えば、加速度センサ、ジャイロセンサ、地磁気センサなどを備える。
(表示制御部130)
本実施形態に係る表示制御部130は、図1に示したような文字入力インタフェースUIの表示を制御する。例えば、本実施形態に係る表示制御部130は、文字表現決定部135が決定した文字表現を用いて、言語動作の認識に基づくテキストの表示を制御してよい。本実施形態に係る表示制御部130が有する機能の詳細については別途後述する。
(文字表現決定部135)
本実施形態に係る文字表現決定部135(単に、決定部、とも称する)は、ユーザの言語動作のテキストに係る文字表現を決定する機能を有する。また、本実施形態に係る文字表現決定部135は、検出されたユーザの非言語動作に基づいて、検出された言語動作区間ごとに文字表現を決定する、ことを特徴の一つとする。
上述したように、本実施形態に係る言語動作は、例えば、ユーザの発話を含む。この際、本実施形態に係る文字表現決定部135は、発話にともなるユーザの非言語動作に基づいて、音声区間ごとに文字表現を決定してよい。例えば、非言語動作がユーザの眼球運動である場合、文字表現決定部135は、図1に示すように、ユーザの視線に基づいて、音声区間ごとに文字表現を決定することができる。本実施形態に係る文字表現決定部135が有する機能の詳細については別途後述する。
(文字表現予測部140)
本実施形態に係る文字表現予測部140(単に、予測部、とも称する)は、文字表現学習部145が学習したユーザの文字入力の傾向に基づいて、当該ユーザ言語動作のテキスト化に係る文字表現を予測する機能を有する。
(文字表現学習部145)
本実施形態に係る文字表現学習部145(単に、学習部、とも称する)は、ユーザによる文字入力実績や認識結果の修正実績に基づいてユーザの文字入力の傾向を学習する機能を有する。
(表示部150)
本実施形態に係る表示部150は、表示制御部130による制御に基づいて、文字入力インタフェースUIを表示する。このために、本実施形態に係る表示部150は、各種のディスプレイを備える。
(音出力部155)
本実施形態に係る音出力部155は、合成音声などの各種の音を出力する機能を備える。このために、本実施形態に係る音出力部155は、アンプやスピーカなどを備える。
(サーバ通信部160)
本実施形態に係るサーバ通信部160は、ネットワーク30を介して情報処理サーバ20との情報通信を行う。例えば、本実施形態に係るサーバ通信部160は、音入力部110、撮影部115、センサ部125が収集した音情報、画像、その他のセンサ情報を情報処理サーバ20に送信し、認識処理結果を受信する。
以上、本開示の一実施形態に係る情報処理端末10の機能構成例について述べた。なお、図3を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理端末10の機能構成は係る例に限定されない。例えば、上述した文字表現決定部135など有する機能は、情報処理サーバ20の機能として備えられてもよい。本実施形態に係る情報処理端末10の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<<1.4.情報処理サーバ20の機能構成例>>
次に、本開示の一実施形態に係る情報処理サーバ20の機能構成例について述べる。図4は、本実施形態に係る情報処理サーバ20の機能構成例を示すブロック図である。図4を参照すると、本実施形態に係る情報処理サーバ20は、音声認識部210、音声区間検出部220、音源方向推定部230、話者識別部240、音声合成部250、視線認識部260、ジェスチャ認識部270、および端末通信部280を備える。
(音声認識部210)
本実施形態に係る音声認識部210は、情報処理端末10が収集したユーザの発話に係る音情報に基づいて、(ASR:Automatic Speech Recognition)を行う。音声認識部210は、例えば、公知の技術を用いて音声認識を行ってよい。
(音声区間検出部220)
本実施形態に係る音声区間検出部220は、情報処理端末10が収集したユーザの発話に係る音情報に基づいて、音声区間検出(VAD:Voice Activity Detection)を行う。例えば、公知の技術を用いて音声区間検出を行ってよい。
(音源方向推定部230)
本実施形態に係る音源方向推定部230は、情報処理端末10が収集した音情報に基づいて、音源位置の方向を推定する。例えば、公知の技術を用いて音源方向推定を行ってよい。
(話者識別部240)
本実施形態に係る話者識別部240は、発話を行ったユーザを識別する。本実施形態に係る話者識別部240は、例えば人物認識、顔認識、唇認識などの技術を用いて話者識別を行ってよい。
(音声合成部250)
本実施形態に係る音声合成部250は、音声認識部210によりテキスト化されたユーザの発話や、その他のシステム発話に係る音声を合成する。
(視線認識部260)
本実施形態に係る視線認識部260は、情報処理端末10が撮影したユーザの眼球画像に基づいて、当該ユーザの視線の位置を認識する。本実施形態に係る視線認識部260は、公知の技術を用いて視線認識を行ってよい。
(ジェスチャ認識部270)
本実施形態に係るジェスチャ認識部270は、情報処理端末10が撮影した画像や、情報処理端末10が収集したセンサ情報に基づいて、ユーザの手や指、頭部、またその他の体の部位によるジェスチャを認識する。本実施形態に係るジェスチャ認識部270は、公知の技術を用いて各種のジェスチャを認識してよい。
(端末通信部280)
本実施形態に係る端末通信部280は、ネットワーク30を介して情報処理端末10との情報通信を行う。例えば、本実施形態に係る端末通信部280は、情報処理端末10から音情報、画像、その他のセンサ情報を受信し、上記の各構成による処理の結果を情報処理端末10に送信する。
以上、本開示の一実施形態に係る情報処理サーバ20の機能構成例について述べた。なお、図4を用いて説明した上記の構成はあくまで一例であり、本実施形態に係る情報処理サーバ20の機能構成は係る例に限定されない。本実施形態に係る情報処理サーバ20に備えられる機能は、認識の対象となる言語動作および非言語動作に応じて設計されてよい。本実施形態に係る情報処理サーバ20の機能構成は、仕様や運用に応じて柔軟に変形可能である。
<<1.5.機能の詳細>>
次に、本実施形態に係る情報処理端末10による文字表現の決定について詳細に説明する。図5~図9は、本実施形態に係る文字表現決定の流れについて説明するための図である。なお、以下においては、本実施形態に係る言語動作がユーザの有声発話であり、非言語動作がユーザの眼球運動である場合を主な例として説明する。また、文字表現の一例としては、文字種を採用する。
図5の上段には、ユーザの発話による文字入力が開示される前の文字入力インタフェースUIが示されている。この段階においては、マイクアイコンMIは、音声入力が開始されていない状況を示す色や表現により表示される。また、表示制御部130は、文字表現アイコンTI1~TI6が表示されないように制御を行ってよい。
ここで、ユーザによる音声入力の開始指示が検出されると、文字入力インタフェースUIは、図5の中段に示す状態に遷移する。なお、上記の開始指示は、例えば、音声認識機能の起動を指示する起動ワードの発話、操作入力部120が有するスイッチやボタンの操作、また表示部150と一体に具備されるタッチパネル上におけるマイクアイコンMIやキャレットCR近傍へのタッチなどにより行われてもよい。
上記のような開始指示が検出された場合、表示制御部130は、マイクアイコンMIを例えば色を変化させるなどして強調表示させ、ユーザに音声入力が開始されたことを示してもよい。また、表示制御部130は、ユーザが選択可能な複数の文字表現に対応する複数の文字表現アイコンTIを表示部150に表示させる。
この際、本実施形態に係る表示制御部130は、音声認識部210による音声認識の結果であるテキストの出力位置であるテキストボックスTBからの視線移動が所定距離以内となる位置に文字表現アイコンTIを表示させてもよい。本実施形態に係る表示制御部130による上記の制御によれば、文字表現の指定に係るユーザの負担を軽減すると共に、音声区間ごとの動的な文字表現の変更をより容易とすることが可能である。
また、この段階から視線認識部260によるユーザの視線認識の追跡が開始されてもよい。図中には、ユーザの眼球UEや、ユーザの視線が破線により模式的に示されている。なお、表示制御部130は、視線認識部260が認識したユーザの視線の位置が、ポインタなどにより表示されるように制御を行ってもよい。
この後、ユーザUの視線位置が図5の下段に示すように、文字表現アイコンTIに閾値時間以上滞留した場合、本実施形態に係る文字表現決定部135は、ユーザが注視した文字表現アイコンTIに対応する文字表現を後続する音声区間のテキスト化に適用してよい。図5に示す一例の場合、文字表現決定部135は、ユーザが注視した文字表現アイコンTI1に対応する文字種「通常」を後続する音声区間のテキスト化に適用する。
また、文字表現決定部135により文字表現が決定された場合、表示制御部130は、決定された文字表現に対応する文字表現アイコンTIを、色を変化させるなどして強調表示させる。係る制御によれば、ユーザが現在設定されている文字表現を直観的に把握することが可能となる。
続いて、図6を参照して、説明を続ける。図6の上段には、ユーザが発話UO1を開始した状態が示されている。この際、本実施形態に係る文字表現決定部135は、発話区間UO1に係る音声区間の検出が終了されるまでの間、適用中の文字表現を固定してもよい。
例えば、図6の下段に示すように、ユーザの発話UO1に対応するテキストがテキストボックスTBに表示され始めると、ユーザの視線は、図示するようにテキストボックスTB近傍に移動することが想定される。また、テキストの表示とは別に、視線を一点に固定し続けることは困難である。
本実施形態に係る文字表現決定部135による上記のような文字表現の固定によれば、発話UO1やUO2の間にユーザの視線が移動し、他の文字表現アイコンTIに位置した場合であっても、文字表現が頻繁に変化することを防ぎ、ユーザの意図しない変換等を防止することが可能となる。
また、例えば、図7の上段に示すように、音声区間が終了した後、対応するテキストの出力が完了するまでの間にも、ユーザの視線は、テキストの出力方向に引きずられて移動することが想定される。
このため、本実施形態に係る文字表現決定部135は、音声区間が検出されておらず、かつテキストの出力が完了していない場合において、当該テキストの出力方向とユーザの視線の移動方向が略一致する場合、適用中の文字表現を固定してもよい。本実施形態に係る文字表現決定部135は、視線認識部260が認識した視線位置の時系列の変化に基づいて視線の移動方向を算出することができる。なお、視線の移動方向は、視線認識部260により算出されてもよい。
本実施形態に係る文字表現決定部135による上記の制御によれば、ユーザの意図しない文字表現が誤って決定されることを防止することができる。なお、文字表現決定部135は、テキストの出力方向や視線の移動方向に依らず、テキストの出力が完了するまでの間は、適用中の文字表現を固定してもよい。
なお、決定した文字表現の解除は、例えば、テキストの出力完了後、無音区間の検出時間が所定時間以上続いた場合に行われてもよい。発話が完了すると、例えば、図7の下段に示すように、ユーザが次に何を発話すべきかを考えることで、少しの間が空くことが予測される。このため、本実施形態に係る文字表現決定部135は、テキストの出力完了後、無音区間の検出時間が所定時間以上続いたことに基づいて、適用中の文字表現を解除してよい。
また、この際、表示制御部130は、適用中の文字表現に対応する文字表現アイコンTIの強調表現を解除する。図7に示す一例の場合、表示制御部130は、文字表現アイコンTI1の表示態様を通常状態、すなわち未選択の状態に復帰させている。一方、適用されていた文字表現は、内部的には保持されていてもよい。
なお、上記のように、文字表現が解除された後において、図8の上段に示すように、ユーザが発話すべき内容を思い出した場合、ユーザは、同図下段に示すように再び視線を任意の文字表現アイコンTIに移動させることで、意図する文字表現を選択することが可能である。なお、この際、ユーザは、前に選択した文字表現を覚えていない可能性がある。
図8に示す一例の場合、文字表現決定部135は、音声区間が検出されていない状況において、ユーザの視線が文字表現アイコンTI4に閾値時間以上滞留したことに基づいて、文字種「アラビア数字」を後続する音声区間のテキスト化に適用する。また、表示制御部130は、文字種「アラビア数字」の適用が決定されたことに基づいて、対応する文字表現アイコンTI4を強調表示させる。
続いて、図9の上段に示すように、ユーザが発話UO3を行った場合、文字表現決定部135が適用を決定した文字種「アラビア数字」によりテキストが出力される。この際、ユーザの視線はテキストの出力に伴い移動することが想定されるが、上述したように、文字表現決定部135は、ユーザの視線の位置に依らず適用中の文字表現を固定してよい。
また、以降においては、図5~図8を用いて説明した内容と同様の処理が繰り返し実行されてよい。
続いて、本実施形態に係る文字表現の予測について説明する。上述したように、本実施形態に係る文字表現予測部140は、文字表現学習部145が学習したユーザの文字入力の傾向に基づいて、当該ユーザの言語動作のテキスト化に係る文字表現を予測する機能を有する。
図10~図12は、本実施形態に係る文字表現の予測について説明するための図である。まず、図10の上段に示すように、ユーザにより任意の文字表現アイコンが注視され、発話UO5が行われると、文字表現決定部135が決定した文字表現によるテキストの出力が行われる。
この際、本実施形態に係る文字表現予測部140は、出力されたテキスト「今日の夕方の」と、文字表現学習部145が学習したユーザの入力傾向に基づき、続いてユーザが選択する傾向が高い文字表現を予測する。
例えば、図11に示す一例の場合、文字表現学習部145による学習の結果から、「夕方」という時間帯を示す単語の後には、「アラビア数字」による入力が行われる頻度が高いことが取得できる場合、本実施形態に係る文字表現予測部140は、文字種「アラビア数字」を次にユーザが選択する文字種として予測することができる。
この場合、本実施形態に係る表示制御部130は、図11の上段に示すように、文字種「アラビア数字」が予測された旨を示す予測アイコンPIを、その時点におけるユーザの視線位置の近傍に表示させてよい。
ここで、文字表現学習部145が予測した文字表現をユーザが承認した場合、本実施形態に係る文字表現決定部135は、当該文字表現を後続する音声区間のテキスト化に適用する。
文字表現決定部135は、例えば、図11の下段に示すように、ユーザが予測アイコンPIを閾値時間以上注視したことに基づいて、ユーザが予測された文字表現を承認した、とみなしてもよい。また、ユーザによる承認は、係る例に限定されず、種々の方式により行われ得る。ユーザは、例えば、「はい」などの発話により承認を行ってもよいし、頷くなどのジェスチャやボタン押下などにより承認を行ってもよい。
また、文字表現決定部135は、ユーザが予測された文字表現を承認したとみなした場合、対応する文字表現を後続する音声区間のテキスト化に適用することを決定し、表示制御部130は、文字表現決定部135による決定に基づいて、予測アイコンPIを強調表示させる。
この後、図12の上段に示すようにユーザが発話UO6を行うと、同図下段に示すように文字表現決定部135が適用を決定した文字表現によるテキストの出力が行われる。
以上、本実施形態に係るユーザの入力傾向に基づく文字表現の予測機能について述べた。係る機能によれば、自身の入力傾向に基づいて予測された文字表現が注視点の近傍に表示されることから、発話の都度、自発的に文字表現アイコンTIを注視する負担が軽減され、利便性を向上させることができる。
続いて、本実施形態に係る文字入力インタフェースUIが複数人のユーザに利用される場合の処理について述べる。図5~図12を用いた上記の説明では、本実施形態に係る情報処理端末10がヘッドマウントディスプレイなどの装置であり、単一のユーザにより使用される場合を中心に述べた。
一方、本実施形態に係る情報処理端末10は、例えば、デジタルサイネージ端末など、複数人のユーザに利用されることが推定される装置であってもよい。図13は、本実施形態に係る情報処理端末10がデジタルサイネージ端末である場合の使用例について説明するための図である。
図10には、情報処理端末10が、音声による対話を行いがら不特定多数のユーザに情報を提供するデジタルサイネージ端末である場合の一例が示されている。
この場合、情報処理端末10は、撮影部115により撮影した画像や、音入力部110(図示しない)が収集したユーザの発話を、情報処理サーバ20に送信し、識別された話者の情報を受信してよい。情報処理サーバ20の話者識別部240は、顔認識結果や唇認識結果、また音源方向推定部230が推定した音源の方向などに基づいて総合的に話者を識別することができる。
また、情報処理端末10の表示部150には、例えば、図示するように、システムとの対話履歴と文字入力インタフェースCIが表示される。複数人のユーザは、文字入力インタフェースCIを利用して文字表現を指定しながら発話による文字入力を行うことができる。
この際、本実施形態に係る文字表現決定部135は、複数人のユーザの視線と発話とに基づいて、ユーザごとに発話のテキスト化に係る文字表現を決定してよい。本実施形態に係る情報処理端末10は、複数人のユーザによる文字入力を排他的に、あるいは同時に処理することができる。
図14~図16は、本実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を排他的に制御する場合の流れについて説明するための図である。例えば、テキストが出力されるテキストボックスTBが1つのみ備えられる場合、情報処理端末10は、複数人のユーザによる文字入力を排他的に制御してよい。
まず、いずれかのユーザにより音声入力の開始が指示されると、図14に示すように、表示制御部130がマイクアイコンICを強調表示させ、視線認識部260がユーザごとの視線の追跡を開始する。なお、ここでは、2人のユーザU1およびU2が存在する場合を仮定する。図中には、ユーザU1の眼球U1EとユーザU2の眼球U2RE、およびそれぞれの視線が破線により模擬的に示されている。
また、複数人のユーザが存在する場合、表示制御部130は、図示するように、ユーザごとに検出された視線の位置をポインタにより表示させてよい。係る機能によれば、各ユーザが自身の視線位置を明確に把握することができ、他のユーザによる文字表現アイコンTIの選択とは混同することなく任意の文字表現アイコンTIを選択することが可能となる。
ここで、ユーザU1およびU2がそれぞれ文字表現アイコンTIを注視した場合、表示制御部130は、選択された文字表現アイコンTIのそれぞれを強調表示させる。
ただし、ここで図15の上段に示すように、いずれかのユーザによる発話が検出された場合、本実施形態に係る文字表現決定部135は、当該発話を行ったユーザが注視した文字表現アイコンTIに対応する文字表現のみを、後続する音声区間のテキスト化に適用してよい。また、この際、本実施形態に係る文字表現決定部135は、他のユーザの視線に基づく文字表現の制御を行わないでよい。
例えば、図15に示す一例の場合、ユーザU1が発話UO7を行ったことに基づいて、文字表現決定部135は、ユーザU1が注視する文字表現アイコンTI1に対応する文字種「通常」を後続する音声区間のテキスト化に適用し、ユーザU2が注視する文字表現アイコンTI6に対応する文字種「大文字のラテン文字」の情報を棄却する。
また、この際、本実施形態に係る表示制御部130は、文字表現決定部135による上記の制御を受け、ユーザU2が注視する文字表現アイコンTI6の強調表示を解除してよい。なお、表示制御部130は、文字表現アイコンTI6の色を変化させることで、文字表現の指定が無効となったことを示してもよい。
この後、テキストボックスTBには、文字表現決定部135が適用を決定した文字種「通常」に基づいて、ユーザU1の発話UO7やUO8に対応するテキストが出力される。
この際、例えば、図16に示すように、ユーザU2による発話UO9が行われた場合であっても、ユーザU1による入力が完了するまでの間、ユーザU2の発話に対応するテキストは、テキストボックスTBには出力されない(ただし、内部的には音声認識処理にかけられてもよい)。本実施形態に係る情報処理端末10による上記の一連の制御によれば、複数人のユーザが存在する場合であっても、発話や文字表現の指定を混合することなく、ユーザごとに処理を遂行することが可能となる。
続いて、本実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を同時に制御する場合について述べる。図17~図19は、本実施形態に係る情報処理端末10が、複数人のユーザによる文字入力を同時に制御する場合の流れについて説明するための図である。
図17~図19に示す一例の場合、図14~図16に示した一例とは異なり、検出されたユーザの数だけテキストボックスTBが表示されてよい。図17~図19に示す一例の場合、ユーザU1およびU2が検出されたことに基づいて、テキストボックスT1とキャレットCR1、テキストボックスT2とキャレットCR2が表示されている。
この場合、本実施形態に係る文字表現決定部135は、複数のユーザの視線と発話とに基づいて、ユーザの発話ごとに、テキスト化に係る文字表現を同時に制御することができる。
例えば、図17の上段では、ユーザU1が文字表現アイコンTI1を、ユーザU2が文字表現アイコンTI6をそれぞれ注視している。この際、本実施形態に係る文字表現決定部135は、後続するユーザU1の発話のテキスト化には文字種「通常」を適用し、後続するユーザU2の発話には文字種「大文字のラテン文字」を適用する。
また、表示制御部130は、文字表現決定部135による上記の制御を受け、文字表現アイコンTI1およびTI6をそれぞれ異なる表示態様で強調表示させる。係る制御によれば、ユーザU1およびU2のそれぞれは、自身の文字表現指定が有効となっていることを直観的に把握することができる。
この状態において、図17に示すように、ユーザU1およびU2が、発話UO10~UO12を行うと、図17の下段および図18の上段に示すように、各ユーザの発話に対応するテキストが適用された文字種によりテキストボックスT1およびT2にそれぞれ出力される。この際、音声認識部210は、音源方向推定部230による推定結果とビームフォーミング技術とを用いることにより、ユーザU1およびU2の発話を分離して認識することができる。
この後、情報処理端末10は、ユーザU1およびU2の視線位置や発話に基づいて、上述の処理を繰り返し実行する。例えば、図18の下段では、ユーザU1の視線が文字表現アイコンTI1から外れ、ユーザU2の視線が文字表現アイコンTI1に移動している。この際、文字表現決定部135は、ユーザU1に係る文字種の指定を解除し、ユーザU2に係る文字種の指定を文字種「通常」に変更する。
ここで、図19の上段に示すように、ユーザU1の視線が文字表現アイコンTI4に滞留した場合には、文字表現決定部135は、ユーザU1に係る文字種の指定を文字種「アラビア数字」に変更する。以降、ユーザU2の発話UO13やユーザU1の発話UO14が、上記のように決定され文字種によるテキストで表示される。
以上、本実施形態に係るユーザの視線に基づく文字表現の制御について説明した。本実施形態に係る情報処理端末10が有する上記の制御によれば、音声入力の途中で動的に文字表現を変更することができ、都度入力モードを別途の設定することなく、ユーザが意図する文字列を得ることが可能となる。
また、本実施形態に係る情報処理端末10が有する上記の制御によれば、音声区間ごとに文字表現を固定することで、一か所をずっと見続ける負担を強いることなく、文字表現アイコンTIを短時間注視する動きだけで任意の文字表現を容易に選択することが可能となる。さらには、テキストの出力などに伴い、視線位置にブレが生じる場合であっても、影響を受けることなく、ユーザの自然な眼の動きと発話に応じて文字表現を制御することができる。
なお、上記では、本実施形態に係る文字表現の一例として文字種を例に挙げて説明を行ったが、本実施形態に係る文字表現は係る例に限定されない。上述したように、本実施形態に係る文字表現は、テキストの視覚的効果に係る各種の表現を広く含む。本実施形態に係る文字表現は、例えば、書体、文字装飾、約物、表記言語などを含んでもよい。
図20は、本実施形態に係るユーザの視線に基づく書体の制御の一例を示す図である。図20に示す一例の場合、文字表現アイコンTI1~TI6には、それぞれ異なる書体(フォント種別)が対応付けられている。
例えば、図20の上段では、ユーザが文字表現アイコンTI6を注視して発話UO15を行っている。この際、文字表現決定部135により、文字表現アイコンTI6に対応する書体「筆記体」が後続するテキスト化に適用され、書体「筆記体」によるテキストがテキストボックスTBに出力される。
また、図20の下段では、ユーザが文字表現アイコンTI4を注視して発話UO16を行っている。ここで、文字表現アイコンTI4は、顔文字(emoji)に対応するアイコンであってよい。この際、文字表現決定部135により、文字表現アイコンTI4に対応する書体「顔文字」が後続するテキスト化に適用され、書体「顔文字」によるテキストがテキストボックスTBに出力される。なお、図20の下段に示す一例の場合、ユーザは、“smile”という発話を行っているが、ここでは、選択された書体「顔文字」に合せ、テキスト“:)”が出力されている。このように、本実施形態では、書体ごとに定義された設定に基づきテキストの変換が行われてよい。
以上、本実施形態に係るユーザの視線に基づく書体の制御について具体例を挙げて説明した。このように、本実施形態に係る情報処理端末10によれば、文字種に加え、テキストの書体や文字装飾などの各種の視覚的表現を制御することができる。
本実施形態に係る情報処理端末10が有する上記の機能によれば、ユーザが視線を用いて容易にテキストの視覚的表現を変更することができ、音声入力によるテキストをより豊かに表現することが可能となる。なお、上記の文字装飾には、例えば、テキストの色、サイズ、各種のデザイン、点滅などの効果が広く含まれる。
続いて、本実施形態に係るユーザの視線に基づく約物の制御について例を述べる。ここで、約物とは、言語の記述に使用する記述記号類の総称である。約物には、例えば、句読点、疑問符、感嘆符、括弧、アクセントなどが含まれる。
図21は、本実施形態に係るユーザの視線に基づく約物の制御の一例を示す図である。図21に示す一例の場合、文字表現アイコンTI1には文字種「通常」が、文字表現アイコンTI2~TI6には、それぞれ異なる括弧が対応付けられている。
例えば、図21の上段では、ユーザが文字表現アイコンTI1を注視して発話UO17を行っている。この際、文字表現決定部135により、文字表現アイコンTI1に対応する文字種「通常」が後続するテキスト化に適用され、文字種「通常」によるテキストがテキストボックスTBに出力される。
また、図20の下段では、ユーザが文字表現アイコンTI2を注視して発話UO18を行っている。この際、文字表現決定部135により、文字表現アイコンTI1に対応する約物“”が後続するテキスト化に適用され、約物“”により囲われたテキストがテキストボックスTBに出力される。
以上、本実施形態に係るユーザの視線に基づく約物の制御について具体例を挙げて説明した。このように、本実施形態に係る情報処理端末10によれば、視線により括弧などの約物を容易にテキストに適用することが可能となる。本実施形態に係る情報処理端末10が有する上記の機能によれば、約物を入力するための発話などを都度行う必要がなくなり、利便性を大きく向上させることができる。
次に、本実施形態に係るユーザの視線に基づく表記言語の制御について例を述べる。ここで、表記言語とは、英語、日本語、仏語などの、テキストの表記に用いる各種の言語を指す。
図22は、本実施形態に係るユーザの視線に基づく表記言語の制御の一例を示す図である。図22に示す一例の場合、文字表現アイコンTI1~TI4には、それぞれ異なる表記言語が対応付けられている。
例えば、図22の上段では、テキストボックスTBに英語によるテキスト“What does”が表示されている状態において、ユーザが文字表現アイコンTI3を注視して発話UO17“ohayou”を行っている。この際、文字表現決定部135により、文字表現アイコンTI3に対応する表記言語「Japanese」が後続するテキスト化に適用され、図中下段に示すように、文字言語「Japanese」によるテキスト「おはよう」がテキストボックスTBに出力される。
続いて、ユーザは、例えば、文字表現アイコンTI1を注視して、発話UO20を行うなどして、英語表記と日本語表記が混在する文章を入力することが可能である。
以上、本実施形態に係るユーザの視線に基づく約物の制御について具体例を挙げて説明した。このように、本実施形態に係る情報処理端末10によれば、視線によりテキストの表記言語を容易に選択すること可能となり、例えば、日常的に複数の言語を使用するユーザや、外国語を学習するユーザの言語切り替えに掛かる負担を大きく低減することができる。
なお、図22では、文字表現決定部135がユーザの視線に基づきテキストの表記に用いる言語のみを制御する場合について述べたが、ユーザの視線による言語の指定は、例えば、翻訳などに応用されてもよい。
図23は、本実施形態に係るユーザの視線に基づく翻訳先言語の制御の一例を示す図である。図23に示す一例では、図22に示した場合と同様に、文字表現アイコンTI1~TI4には、それぞれ異なる言語が対応付けられている。
ここで、例えば、ユーザが、文字表現アイコンTI3を注視して発話UO17“Thank you”を行った場合、文字表現決定部135は、文字表現アイコンTI3に対応する翻訳先言語「Japanese」が、音声認識後のテキストの翻訳に適用されるように制御を行う。係る制御によれば、視線により容易に多様な言語の翻訳文を取得することが可能となる。
以上、本実施形態に係る文字表現の一例について説明した。続いて、本実施形態に係る視線に基づく文字表現の制御に関する変形例について述べる。
上記では、本実施形態に係る文字表現決定部135が、ユーザが注視した文字表現アイコンTIに基づいて、後続する音声区間のテキスト化を制御することについて述べたが、本実施形態に係る視線による文字表現の指定は、テキストの出力後に事後的に行われてもよい。
図24は、本実施形態に係る視線による文字表現の事後指定について説明するための図である。図24の上段には、ユーザが文字表現アイコンTI2を注視して発話UO22を行った場合において、文字表現アイコンTI2に対応する文字種「ひらがな」によるテキストがテキストボックスTBに出力された状態が示されている。
この際、ユーザは、入力されたテキストの確定処理が行われるまでの間、任意の文字表現アイコンTI1を注視することで、入力済みのテキストに係る文字表現を変更できてもよい。
例えば、図24の下段に示す一例の場合、ユーザは、文字種「アラビア数字」に対応する文字表現アイコンTI4を注視している。この際、本実施形態に係る文字表現決定部135は、発話UO22に対応する音声区間の終了後に新たに注視された文字表現アイコンTI4に基づいて、テキストの文字表現が、文字種「アラビア数字」に変換されるよう制御を行う。
本実施形態に係る文字表現決定部135が有する上記の制御によれば、意図しない文字表現によるテキスト出力が行われた場合などにおいて、ユーザが容易に文字表現を修正することが可能となる。なお、上記の確定処理は、例えば、所定時間の経過、ボタンの押下、発話によるコマンドなどにより行われてもよい。
続いて、本実施形態に係る眼球運動以外の非言語動作に基づく文字表現の制御について述べる。上記では、文字表現決定部135がユーザの眼球運動から認識される視線に基づいて文字表現を制御する場合を主な例として述べた。一方、本実施形態に係る非言語動作は係る例に限定されない。本実施形態に係る非言語動作は、例えば、指、手、頭部、その他の体の部位を用いたジェスチャであってもよい。
図25~図28は、本実施形態に係るジェスチャに基づく文字表現の制御について説明するための図である。ここでは、視覚に障がいがあるユーザが、ジェスチャにより文字表現を指定する場合を想定する。
この場合、まず、図25に示すように、情報処理端末10の音出力部155が、ユーザによる入力開始指示に基づいて、音声入力が可能となった旨を示すシステム発話SO1を出力し、ユーザに発話を促す。
次に、ユーザは、予め定義されたジェスチャによりテキストの文字表現を指定する。図25に示す一例の場合、ユーザは、人差し指で上を示すジェスチャを行うことにより、文字種「通常」を指定している。
この際、本実施形態に係る文字表現決定部135は、ジェスチャ認識部270が上記のジェスチャを認識したことに基づいて、文字種「通常」を後続する音声区間のテキスト化に適用する。また、視線による制御の場合と同様に、文字表現決定部135は、適用を決定した文字種を固定してよい。
次に、音出力部155は、文字表現決定部135による上記の制御を受け、文字種「通常」が適用された旨を示すシステム発話SO2を出力する。
ここで、ユーザが、発話UO23を行うと、図中最下段に示すように、文字種「通常」によるテキストの表示が開始される。この際、視線による制御の場合と同様に、ユーザのジェスチャにはブレが生じることが想定されるが、本実施形態に係る文字表現決定部135による音声区間ごとの文字表現の固定によれば、ジェスチャのブレにより文字表現が頻繁に変更されることを防止することができる。
また、図26の最上段に示すように、入力済みの発話に対応するテキストの表示が完了すると、音出力部155は、表示されたテキストの読み上げ(TTS:Text To Speech)をシステム発話SO3により行う。
この際、音出力部155が出力するシステム発話SO3の出力態様は、テキストに適用された文字表現に対応するものであってよい。例えば、文字種「通常」の場合には、TTSに女性の声が用いられ、文字種「ひらがな」の場合には、TTSに男性の声が用いられてもよい。
また、文字表現に応じたTTSの出力態様は、例えば、ピッチ、話速、抑揚、などにより変化がつけられてもよい。上記のような制御によれば、視覚に障がいのあるユーザであっても、TTSにより、適用された文字表現を判別することが可能となる。
また、視線による制御の場合と同様に、無音区間の検出時間が所定時間以上続いた場合、文字表現決定部135は、適用中の文字表現を解除してよい。この際、音出力部155は、文字表現の適用が解除された旨を示すシステム発話SO4を出力する。
この後、ユーザが次に入力すべき内容を思い出し、文字表現を指定するジェスチャを再度行った場合、文字表現決定部135は、認識されたジェスチャに応じて、新たな文字表現の適用を行う。図26に示す一例の場合、文字表現決定部135は、人差し指で下を示すジェスチャを行ったことが認識されたことに基づいて、当該ジェスチャに対応する文字種「アラビア数字」の適用を決定する。また、音出力部155は、文字種「アラビア数字」が指定された旨を示すシステム発話SO5を出力する。
ここで、図27の上段に示すように、ユーザが発話UO25を行うと、文字種「アラビア数字」によるテキストの表示が行われ、当該テキストに対応するシステム発話SO5が音出力部155により出力される。この際、上述したように、システム発話SO5は、文字種「アラビア数字」に対応した態様で出力される。
以上、本実施形態に係るジェスチャに基づく文字表現の制御の流れについて述べた。また、ジェスチャによる文字表現の制御の場合であっても、視線による制御の場合と同様に、ユーザの文字入力の傾向に基づく文字表現の予測が行われてよい。
図28は、本実施形態に係るジェスチャによる文字表現の制御における文字表現の予測について説明するための図である。図28の上段には、先行するユーザの発話により「今日の夕方の」というテキストがテキストボックスTBに表示された状態が示されている。
この際、本実施形態に係る文字表現予測部140は、表示されたテキスト「今日の夕方の」と、文字表現学習部145が学習したユーザの入力傾向に基づき、続いてユーザが選択する傾向が高い文字表現を予測する。ここでは、文字表現予測部140は、文字種「アラビア数字」を次にユーザが選択する文字種として予測している。
この場合、音出力部155は、文字種「アラビア数字」が次の文字種として予測されたことと、承認する場合には続けて発話を行うよう指示する旨を示すシステム発話SO6を出力する。
ここで、文字表現学習部145が予測した文字表現をユーザが承認した場合、すなわち、システム発話SO6に続けて発話UO26を行った場合、本実施形態に係る文字表現決定部135は、当該文字表現を後続する音声区間のテキスト化に適用する。
以上、本実施形態に係る視線やジェスチャなどに基づく文字表現の制御について詳細に説明した。なお、本実施形態に係る文字表現の制御は、上記の例に限定されず、例えば、発話の態様(ピッチ、抑揚、話速など)、事前または事後の音声コマンド、コントローラ、ボタン、フットスイッチなどの操作などにより行うことも可能である。
また、上記では、認識されたテキストを表示するテキストボックスTBと、文字表現の指定に用いられる文字表現アイコンTIが同一の画面上に表示される場合を主な例として述べた。一方、本実施形態に係るテキストボックスTBと文字表現アイコンTIは、それぞれ異なる画面上に出力されてもよい。
図29は、テキストボックスTBと文字表現アイコンTIが、異なる画面上に出力される場合の一例を示す図である。ここでは、ユーザUが、コールセンターのオペレータOに対し、電話で住所などを伝える状況を想定する。
この際、ユーザUは、自身が操作する情報処理端末10aの表示部150aに表示される文字表現アイコンTIを注視することで、発話UO27に適用すべき文字表現を指定することができる。図29に示す一例の場合、ユーザUは、文字表現アイコンTIを注視することで、発話UO27に対応するテキストに文字種「アラビア数字」を適用することを指定している。
この場合、オペレータOが操作する情報処理端末10bの表示部150bに表示されるテキストボックスTBには、ユーザUの発話UO27に対応するテキストが文字種「アラビア数字」により出力されてよい。
上記のような制御によれば、口頭で文字種を伝える煩雑さを大幅に低減し、オペレータの業務を効率化することが可能となる。
<<1.6.処理の流れ>>
次に、本実施形態に係る情報処理端末10による処理の流れについて詳細に説明する。まず、情報処理端末10による文字表現の適用の流れについて述べる。図30は、本実施形態に係る情報処理端末10による文字表現の適用の流れを示すフローチャートである。
図30を参照すると、まず、文字表現決定部135が、文字表現判定処理を実行する(S1110)。ここで、文字表現判定処理とは、ユーザの非言語動作により、どの文字表現が指定されているかを判定する処理を指す。本実施形態に係る文字表現判定処理の詳細については別途後述する。
次に、本実施形態に係る文字表現決定部135は、音声区間が検出されているか否かを判定する(S1120)。
ここで、音声区間が検出されている場合(S1120:YES)、文字表現決定部135は、ステップS1110における文字表現判定処理で適用した文字表現を維持する。
一方、音声区間が検出されていない場合(S1120:NO)、文字表現決定部135は、続いて、視線移動判定処理を実行する(S1130)。ここで、本実施形態に係る視線移動判定処理とは、視線の移動方向とテキストの出力方向が略一致するか否かを判定する処理を指す。本実施形態に係る視線移動判定処理については別途後述する。
ここで、ステップS1130における視線移動方向判定により視線の移動方向とテキストの出力方向が略一致すると判定された場合(S1140:YES)、文字表現決定部135は、ステップS1110における文字表現判定処理で適用した文字表現を維持する。
一方、視線移動方向判定により視線の移動方向とテキストの出力方向が略一致していないと判定された場合(S1140:NO)、文字表現決定部135は、注視されている文字表現アイコンに対応する文字表現を新たに適用する(S1150)。
以上、情報処理端末10による文字表現の適用の流れについて説明した。次に、図30のステップS1110に示した文字表現判定処理の流れについて詳細に説明する。図31は本実施形態に係る文字表現判定処理の流れを示すフローチャートである。
文字表現判定処理において、文字表現決定部135は、まず、文字表現アイコンTIにユーザの視線位置が閾値以上滞留しているか否かを判定する(S1111)。
ここで、文字表現アイコンTIにユーザの視線位置が閾値以上滞留していないと判定した場合(S1111:NO)、文字表現決定部135は、文字表現判定処理を終了する。
一方、文字表現アイコンTIにユーザの視線位置が閾値以上滞留していると判定した場合(S1111:YES)、文字表現決定部135は、滞留が認められた文字表現アイコンTIに対応する文字表現を適用する(S1112)。
以上、本実施形態に係る文字表現判定処理の流れについて説明した。次に、図30のステップS1130に示した視線移動判定処理の流れについて詳細に説明する。図32は本実施形態に係る視線移動判定処理の流れを示すフローチャートである。
視線移動判定処理において、文字表現決定部135は、まず、テキスト出力の方向および量と、視線位置の移動方向および量と、の差が閾値以内であるか否かを判定する(S1131)。
ここで、上記の差が閾値以内である場合(S1131:YES)、文字表現決定部135は、視線の移動方向とテキストの出力方向が略一致していると判定する(S1132)。
一方、上記の差が閾値より大きい場合(S1131:NO)、文字表現決定部135は、視線の移動方向とテキストの出力方向が略一致していないと判定する(S1133)。
以上、本実施形態に係る視線移動判定処理の流れについて説明した。次に、本実施形態に係る文字表現学習部145による文字入力傾向学習の流れの一例について説明する。図33は、本実施形態に係る文字表現学習部145による文字入力傾向学習の流れの一例を示すフローチャートである。
図33を参照すると、まず、文字表現学習部145は、入力された文字列と文字表現を記録する(S1210)。
次に、文字表現学習部145は、直前の入力文字列に対し、今回入力された文字表現が利用された回数をカウントする回数カウンタをインクリメントして、入力文字列と紐付けて記憶する(S1220)。
以上、本実施形態に係る文字表現学習部145による文字入力傾向学習の流れについて説明した。次に、本実施形態に係る文字表現予測部140による文字表現予測の流れの一例について説明する。図34は、本実施形態に係る文字表現予測部140による文字表現予測の流れの一例を示すフローチャートである。
図34を参照すると、まず、文字表現予測部140は、入力文字列を取得する(S1310)。
次に、文字表現予測部140は、入力された文字列に紐付いた、文字表現の回数カウンタのうち、最も数が大きい文字表現の情報を取得する(S1320)。
以上、本実施形態に係る文字表現予測部140による文字表現予測の流れについて説明した。なお、図33および図34に示した処理はあくまで一例であり、本実施形態に係る文字入力傾向の学習および文字表現の予測は、例えば、ニューラルネットワークなどを用いた機械学習手法により実現されてもよい。
<2.ハードウェア構成例>
次に、本開示の一実施形態に係る情報処理端末10および情報処理サーバ20に共通するハードウェア構成例について説明する。図35は、本開示の一実施形態に係る情報処理端末10および情報処理サーバ20のハードウェア構成例を示すブロック図である。図35を参照すると、情報処理端末10および情報処理サーバ20は、例えば、プロセッサ871と、ROM872と、RAM873と、ホストバス874と、ブリッジ875と、外部バス876と、インタフェース877と、入力装置878と、出力装置879と、ストレージ880と、ドライブ881と、接続ポート882と、通信装置883と、を有する。なお、ここで示すハードウェア構成は一例であり、構成要素の一部が省略されてもよい。また、ここで示される構成要素以外の構成要素をさらに含んでもよい。
(プロセッサ871)
プロセッサ871は、例えば、演算処理装置又は制御装置として機能し、ROM872、RAM873、ストレージ880、又はリムーバブル記録媒体901に記録された各種プログラムに基づいて各構成要素の動作全般又はその一部を制御する。
(ROM872、RAM873)
ROM872は、プロセッサ871に読み込まれるプログラムや演算に用いるデータ等を格納する手段である。RAM873には、例えば、プロセッサ871に読み込まれるプログラムや、そのプログラムを実行する際に適宜変化する各種パラメータ等が一時的又は永続的に格納される。
(ホストバス874、ブリッジ875、外部バス876、インタフェース877)
プロセッサ871、ROM872、RAM873は、例えば、高速なデータ伝送が可能なホストバス874を介して相互に接続される。一方、ホストバス874は、例えば、ブリッジ875を介して比較的データ伝送速度が低速な外部バス876に接続される。また、外部バス876は、インタフェース877を介して種々の構成要素と接続される。
(入力装置878)
入力装置878には、例えば、マウス、キーボード、タッチパネル、ボタン、スイッチ、及びレバー等が用いられる。さらに、入力装置878としては、赤外線やその他の電波を利用して制御信号を送信することが可能なリモートコントローラ(以下、リモコン)が用いられることもある。また、入力装置878には、マイクロフォンなどの音声入力装置が含まれる。
(出力装置879)
出力装置879は、例えば、CRT(Cathode Ray Tube)、LCD、又は有機EL等のディスプレイ装置、スピーカ、ヘッドホン等のオーディオ出力装置、プリンタ、携帯電話、又はファクシミリ等、取得した情報を利用者に対して視覚的又は聴覚的に通知することが可能な装置である。また、本開示に係る出力装置879は、触覚刺激を出力することが可能な種々の振動デバイスを含む。
(ストレージ880)
ストレージ880は、各種のデータを格納するための装置である。ストレージ880としては、例えば、ハードディスクドライブ(HDD)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、又は光磁気記憶デバイス等が用いられる。
(ドライブ881)
ドライブ881は、例えば、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリ等のリムーバブル記録媒体901に記録された情報を読み出し、又はリムーバブル記録媒体901に情報を書き込む装置である。
(リムーバブル記録媒体901)
リムーバブル記録媒体901は、例えば、DVDメディア、Blu-ray(登録商標)メディア、HD DVDメディア、各種の半導体記憶メディア等である。もちろん、リムーバブル記録媒体901は、例えば、非接触型ICチップを搭載したICカード、又は電子機器等であってもよい。
(接続ポート882)
接続ポート882は、例えば、USB(Universal Serial Bus)ポート、IEEE1394ポート、SCSI(Small Computer System Interface)、RS-232Cポート、又は光オーディオ端子等のような外部接続機器902を接続するためのポートである。
(外部接続機器902)
外部接続機器902は、例えば、プリンタ、携帯音楽プレーヤ、デジタルカメラ、デジタルビデオカメラ、又はICレコーダ等である。
(通信装置883)
通信装置883は、ネットワークに接続するための通信デバイスであり、例えば、有線又は無線LAN、Bluetooth(登録商標)、又はWUSB(Wireless USB)用の通信カード、光通信用のルータ、ADSL(Asymmetric Digital Subscriber Line)用のルータ、又は各種通信用のモデム等である。
<3.まとめ>
以上説明したように、本開示の一実施形態に係る情報処理方法を実現する情報処理端末10は、ユーザの言語動作のテキスト化に係る文字表現を決定する文字表現決定部135を備える。また、本開示の一実施形態に係る文字表現決定部135は、検出された上記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに上記文字表現を決定する、ことを特徴の一つとする。係る構成によれば、ユーザの意図により合致した文字列入力を実現することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
また、コンピュータに内蔵されるCPU、ROMおよびRAMなどのハードウェアに、情報処理サーバ20が有する構成と同等の機能を発揮させるためのプログラムも作成可能であり、当該プログラムを記録した、コンピュータに読み取り可能な非一過性の記録媒体も提供され得る。
また、本明細書の情報処理端末10の処理に係る各ステップは、必ずしもフローチャートに記載された順序に沿って時系列に処理される必要はない。例えば、情報処理端末10の処理に係る各ステップは、フローチャートに記載された順序と異なる順序で処理されても、並列的に処理されてもよい。
なお、以下のような構成も本開示の技術的範囲に属する。
(1)
ユーザの言語動作のテキスト化に係る文字表現を決定する決定部、
を備え、
前記決定部は、検出された前記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに前記文字表現を決定する、
情報処理装置。
(2)
前記言語動作は、少なくとも前記ユーザの発話を含み、
前記決定部は、前記発話に伴う前記ユーザの前記非言語動作に基づいて、音声区間ごとに前記文字表現を決定する、
前記(1)に記載の情報処理装置。
(3)
前記非言語動作は、少なくとも前記ユーザの眼球運動を含み、
前記決定部は、前記ユーザの視線に基づいて、前記音声区間ごとに前記文字表現を決定する、
前記(2)に記載の情報処理装置。
(4)
前記決定部は、前記ユーザが注視した文字表現アイコンに対応する前記文字表現を、後続する前記音声区間のテキスト化に適用する、
前記(3)に記載の情報処理装置。
(5)
前記決定部は、前記音声区間の終了が検出されるまでの間、適用中の前記文字表現を固定する、
前記(4)に記載の情報処理装置。
(6)
前記決定部は、前記音声区間が検出されておらず、かつテキストの出力が完了していない場合において、テキストの出力方向と前記ユーザの視線の移動方向が略一致する場合、適用中の前記文字表現を固定する、
前記(4)または(5)に記載の情報処理装置。
(7)
前記決定部は、複数人の前記ユーザの視線と発話とに基づいて、前記ユーザごとに発話のテキスト化に係る前記文字表現を決定する、
前記(3)~(5)のいずれかに記載の情報処理装置。
(8)
前記決定部は、いずれかの前記ユーザによる発話が検出された場合、当該発話を行ったユーザが注視した文字表現アイコンに対応する前記文字表現を後続する前記音声区間のテキスト化に適用し、他のユーザの視線に基づく前記文字表現の制御を行わない、
前記(7)に記載の情報処理装置。
(9)
前記決定部は、複数人の前記ユーザの視線と発話とに基づいて、前記ユーザの発話ごとに、テキスト化に係る前記文字表現を同時に制御する、
前記(7)に記載の情報処理装置。
(10)
前記決定部は、前記音声区間の終了後に前記ユーザが注視した文字表現アイコンに対応する前記文字表現を用いて、当該音声区間に対応するテキストを変換する、
前記(3)に記載の情報処理装置。
(11)
前記文字表現は、少なくとも文字種を含む、
前記(1)~(10)のいずれかに記載の情報処理装置。
(12)
前記文字表現は、書体、文字装飾、約物、表記言語のうち少なくともいずれかを含む、前記(1)~(11)のいずれかに記載の情報処理装置。
(13)
前記ユーザの文字入力の傾向に基づいて、当該ユーザの前記言語動作のテキスト化に係る前記文字表現を予測する予測部、
をさらに備える、
前記(1)~(12)のいずれかに記載の情報処理装置。
(14)
前記決定部は、前記予測部が予測した前記文字表現を前記ユーザが承認した場合、当該文字表現を後続する前記非言語動作のテキスト化に適用する、
前記(13)に記載の情報処理装置。
(15)
前記決定部が決定した前記文字表現を用いて、前記言語動作の認識に基づくテキストの表示を制御する表示制御部、
をさらに備える、
前記(1)~(14)のいずれかに記載の情報処理装置。
(16)
前記表示制御部は、前記ユーザが選択可能な複数の前記文字表現に対応する複数の文字表現アイコンの表示を制御する、
前記(15)に記載の情報処理装置。
(17)
前記表示制御部は、前記言語動作の認識に基づくテキストの出力位置からの視線移動が所定距離以内の位置に複数の前記文字表現アイコンを表示させる、
前記(16)に記載の情報処理装置。
(18)
前記非言語動作は、少なくとも前記ユーザのジェスチャを含み、
前記決定部は、前記ユーザのジェスチャに基づいて、前記音声区間ごとに前記文字表現を決定する、
前記(2)に記載の情報処理装置。
(19)
前記ユーザの文字入力の傾向を学習する学習部、
をさらに備える、
前記(13)または(14)に記載の情報処理装置。
(20)
プロセッサが、ユーザの言語動作のテキスト化に係る文字表現を決定すること、
を含み、
前記決定することは、検出された前記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに前記文字表現を決定すること、
をさらに含む、
情報処理方法。
10 情報処理端末
130 表示制御部
135 文字表現決定部
140 文字表現予測部
145 文字表現学習部
20 情報処理サーバ
210 音声認識部
220 音声区間検出部
230 音源方向推定部
240 話者識別部
260 視線認識部
270 ジェスチャ認識部

Claims (11)

  1. ユーザの言語動作のテキスト化に係る文字表現を決定する決定部、
    を備え、
    前記決定部は、検出された前記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに前記文字表現を決定し、
    前記言語動作は、少なくとも前記ユーザの発話を含み、
    前記決定部は、前記発話に伴う前記ユーザの前記非言語動作に基づいて、音声区間ごとに前記文字表現を決定し、
    前記非言語動作は、少なくとも前記ユーザの眼球運動を含み、
    前記決定部は、前記ユーザの視線に基づいて、前記音声区間ごとに前記文字表現を決定し、
    前記決定部は、前記ユーザが注視した文字表現アイコンに対応する前記文字表現を、後続する前記音声区間のテキスト化に適用し、
    前記決定部は、前記音声区間が検出されておらず、かつテキストの出力が完了していない場合において、テキストの出力方向と前記ユーザの視線の移動方向が略一致する場合、適用中の前記文字表現を固定する、
    情報処理装置。
  2. 前記決定部は、前記音声区間の終了が検出されるまでの間、適用中の前記文字表現を固定する、
    請求項に記載の情報処理装置。
  3. 前記文字表現は、少なくとも文字種を含む、
    請求項1に記載の情報処理装置。
  4. 前記文字表現は、書体、文字装飾、約物、表記言語のうち少なくともいずれかを含む、請求項1に記載の情報処理装置。
  5. 前記ユーザの文字入力の傾向に基づいて、当該ユーザの前記言語動作のテキスト化に係る前記文字表現を予測する予測部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  6. 前記決定部は、前記予測部が予測した前記文字表現を前記ユーザが承認した場合、当該文字表現を後続する前記非言語動作のテキスト化に適用する、
    請求項に記載の情報処理装置。
  7. 前記決定部が決定した前記文字表現を用いて、前記言語動作の認識に基づくテキストの表示を制御する表示制御部、
    をさらに備える、
    請求項1に記載の情報処理装置。
  8. 前記表示制御部は、前記ユーザが選択可能な複数の前記文字表現に対応する複数の文字表現アイコンの表示を制御する、
    請求項に記載の情報処理装置。
  9. 前記表示制御部は、前記言語動作の認識に基づくテキストの出力位置からの視線移動が所定距離以内の位置に複数の前記文字表現アイコンを表示させる、
    請求項に記載の情報処理装置。
  10. 前記ユーザの文字入力の傾向を学習する学習部、
    をさらに備える、
    請求項に記載の情報処理装置。
  11. プロセッサが、ユーザの言語動作のテキスト化に係る文字表現を決定すること、
    を含み、
    前記決定することは、検出された前記ユーザの非言語動作に基づいて、検出された言語動作区間ごとに前記文字表現を決定すること、をさらに含み、
    前記言語動作は、少なくとも前記ユーザの発話を含み、
    前記決定することは、前記発話に伴う前記ユーザの前記非言語動作に基づいて、音声区間ごとに前記文字表現を決定すること、をさらに含み、
    前記非言語動作は、少なくとも前記ユーザの眼球運動を含み、
    前記決定することは、前記ユーザの視線に基づいて、前記音声区間ごとに前記文字表現を決定すること、をさらに含み、
    前記決定することは、前記ユーザが注視した文字表現アイコンに対応する前記文字表現を、後続する前記音声区間のテキスト化に適用すること、をさらに含み、
    前記決定することは、前記音声区間が検出されておらず、かつテキストの出力が完了していない場合において、テキストの出力方向と前記ユーザの視線の移動方向が略一致する場合、適用中の前記文字表現を固定すること、をさらに含む、
    情報処理方法。
JP2020558183A 2018-11-20 2019-10-23 情報処理装置および情報処理方法 Active JP7405093B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018217585 2018-11-20
JP2018217585 2018-11-20
PCT/JP2019/041578 WO2020105349A1 (ja) 2018-11-20 2019-10-23 情報処理装置および情報処理方法

Publications (2)

Publication Number Publication Date
JPWO2020105349A1 JPWO2020105349A1 (ja) 2021-10-14
JP7405093B2 true JP7405093B2 (ja) 2023-12-26

Family

ID=70774251

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020558183A Active JP7405093B2 (ja) 2018-11-20 2019-10-23 情報処理装置および情報処理方法

Country Status (3)

Country Link
US (1) US11900931B2 (ja)
JP (1) JP7405093B2 (ja)
WO (1) WO2020105349A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20210014909A (ko) * 2019-07-31 2021-02-10 삼성전자주식회사 대상의 언어 수준을 식별하는 전자 장치 및 방법
CN114281236B (zh) * 2021-12-28 2023-08-15 建信金融科技有限责任公司 文本处理方法、装置、设备、介质和程序产品
CN114822005B (zh) * 2022-06-28 2022-09-20 深圳市矽昊智能科技有限公司 基于人工智能的遥控意图预测方法、装置、设备及介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017182500A (ja) 2016-03-30 2017-10-05 富士通株式会社 入力装置、入力プログラム、及び入力方法
JP2017536600A (ja) 2014-09-25 2017-12-07 マイクロソフト テクノロジー ライセンシング,エルエルシー 複数モードでの会話的対話における話された言語の理解のための凝視

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0651901A (ja) 1992-06-29 1994-02-25 Nri & Ncc Co Ltd 視線認識によるコミュニケーション装置
JPH10260773A (ja) * 1997-03-19 1998-09-29 Nippon Telegr & Teleph Corp <Ntt> 情報入力方法及びその装置
US7013258B1 (en) 2001-03-07 2006-03-14 Lenovo (Singapore) Pte. Ltd. System and method for accelerating Chinese text input
JP2004110845A (ja) 2003-10-29 2004-04-08 A I Soft Inc 文字入力装置
WO2013170383A1 (en) * 2012-05-16 2013-11-21 Xtreme Interactions Inc. System, device and method for processing interlaced multimodal user input
US20160210276A1 (en) 2013-10-24 2016-07-21 Sony Corporation Information processing device, information processing method, and program
JP6790856B2 (ja) 2017-01-18 2020-11-25 株式会社デンソー 電子情報処理システム及びコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017536600A (ja) 2014-09-25 2017-12-07 マイクロソフト テクノロジー ライセンシング,エルエルシー 複数モードでの会話的対話における話された言語の理解のための凝視
JP2017182500A (ja) 2016-03-30 2017-10-05 富士通株式会社 入力装置、入力プログラム、及び入力方法

Also Published As

Publication number Publication date
JPWO2020105349A1 (ja) 2021-10-14
US20220013117A1 (en) 2022-01-13
WO2020105349A1 (ja) 2020-05-28
EP3885893A1 (en) 2021-09-29
US11900931B2 (en) 2024-02-13

Similar Documents

Publication Publication Date Title
Sun et al. Lip-interact: Improving mobile device interaction with silent speech commands
JP6903808B2 (ja) リアルタイム手書き認識の管理
JP7022062B2 (ja) 統合化された物体認識および顔表情認識を伴うvpa
JP7405093B2 (ja) 情報処理装置および情報処理方法
US10095327B1 (en) System, method, and computer-readable medium for facilitating adaptive technologies
US20170263248A1 (en) Dictation that allows editing
EP4026119A1 (en) Transcription revision interface for speech recognition system
US20190251990A1 (en) Information processing apparatus and information processing method
JP2012502325A (ja) デバイスインターフェイシングのための多重モード調音統合
JP6897677B2 (ja) 情報処理装置及び情報処理方法
US10839800B2 (en) Information processing apparatus
WO2015059976A1 (ja) 情報処理装置、情報処理方法、及びプログラム
US20230343323A1 (en) Dynamically adapting given assistant output based on a given persona assigned to an automated assistant
US20190267028A1 (en) Information processing apparatus and information processing method
WO2023210149A1 (ja) 情報処理装置及び情報処理方法、並びにコンピュータプログラム
WO2015156011A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018116556A1 (ja) 情報処理装置、および情報処理方法
JP7468360B2 (ja) 情報処理装置および情報処理方法
Shree et al. A Virtual Assistor for Impaired People by using Gestures and Voice
WO2019054009A1 (ja) 情報処理装置、情報処理方法、およびプログラム
EP4386493A2 (en) Predictive input interface having improved robustness for processing low precision inputs
JP2018196922A (ja) ロボット制御システム
JP2003050663A (ja) 手話文認識装置およびユーザインタフェース
JP2003288098A (ja) ディクテーション装置、方法及びプログラム
KR20000003293A (ko) 입력 데이터를 음성으로 출력하는 기능을 갖는 컴퓨터 시스템및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221004

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231025

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231127

R151 Written notification of patent or utility model registration

Ref document number: 7405093

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151