WO2015156011A1 - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2015156011A1
WO2015156011A1 PCT/JP2015/051570 JP2015051570W WO2015156011A1 WO 2015156011 A1 WO2015156011 A1 WO 2015156011A1 JP 2015051570 W JP2015051570 W JP 2015051570W WO 2015156011 A1 WO2015156011 A1 WO 2015156011A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
text content
text
voice
information processing
Prior art date
Application number
PCT/JP2015/051570
Other languages
English (en)
French (fr)
Inventor
真一 河野
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to US15/120,371 priority Critical patent/US10074366B2/en
Priority to EP15777401.9A priority patent/EP3131093B1/en
Publication of WO2015156011A1 publication Critical patent/WO2015156011A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】音声入力を行う際に、音声認識しやすい音声で発話できる状態にユーザを導く情報処理装置を提供する。 【解決手段】入力された音声の解析結果としてテキスト内容を取得し、表示部に表示させる処理部を備え、処理部は、第1の音声入力を受けて解析された第1のテキスト内容を取得して表示部に表示させ、第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して表示部に表示させ、ユーザの操作あるいは所定の条件に応じて、第2のテキスト内容を入力テキストとして確定する、情報処理装置が提供される。

Description

情報処理装置、情報処理方法およびプログラム
 本開示は、情報処理装置、情報処理方法およびプログラムに関する。
 音声入力する内容を事前に脳内で全て整理して発話を完全なものとするのは難しい。音声入力することを意識していたとしても、音声入力時には音声認識を失敗する可能性の高い音声で発話しやすくなる。例えば、「うーー、あーー」、「Uh-Huh」等の言いよどみや、言い間違い、無意識に入る不要な言葉、音声認識が不得意とする認識失敗しやすい単語等を用いて発話すると、音声認識を失敗する可能性が高くなる。
 このように、入力された音声から意図するテキストを取得することは難しいことから、音声から取得されるテキストの精度を高めるための音声認識技術について検討がされ続けている(例えば、特許文献1等)。
特開2006-146008号公報
 ところで、従来の音声認識システムにおいては、発話中に「お話し下さい」とUIで表示されているものが多い。しかし、このような表示がされてもユーザが音声認識しやすい発話ができるようにはならない。話す内容の原稿が存在する状態であればユーザはすらすらと話せるが、原稿が手元にない状態ではすらすら話すのは通常難しく、上述のような音声認識が失敗しやすい音声を発話する傾向が強くなる。
 音声認識が失敗しやすい音声で発話した場合、音声認識は期待しない結果を返すことが多い。その結果、修正の手間が発生することでユーザへの負担が増えたり、音声入力を使いたいというユーザのモチベーションを維持することが難しくなったりする。また人間の特性上、ある一定以上の長い文章を一挙に発話する、つまり覚えておいて発話することは大変難しい。
 そこで、音声入力を行う際に、音声認識しやすい音声で発話できる状態にユーザを導くことが求められていた。
 本開示によれば、入力された音声の解析結果としてテキスト内容を取得し、表示部に表示させる処理部を備え、処理部は、第1の音声入力を受けて解析された第1のテキスト内容を取得して表示部に表示させ、第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して表示部に表示させ、ユーザの操作あるいは所定の条件に応じて、第2のテキスト内容を入力テキストとして確定する、情報処理装置が提供される。
 また、本開示によれば、第1の音声入力の解析結果として第1のテキスト内容を取得して表示部に表示させること、第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して表示部に表示させること、ユーザの操作あるいは所定の条件に応じて、第2のテキスト内容を入力テキストとして確定すること、を含む、情報処理方法が提供される。
 さらに、本開示によれば、コンピュータに、第1の音声入力の解析結果として第1のテキスト内容を取得して表示部に表示させること、第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して表示部に表示させること、ユーザの操作あるいは所定の条件に応じて、第2のテキスト内容を入力テキストとして確定すること、を含む処理を実行させるためのプログラムが提供される。
 本開示によれば、音声入力の解析結果をテキスト表示させ、次の音声入力に活用できるようにすることで、音声認識しやすい音声で発話できる状態にユーザを導き、最終的に入力テキストとして確定させることができる。
 以上説明したように本開示によれば、音声入力を行う際に、音声認識しやすい音声で発話できる状態にユーザを導くことができる。なお、上記の効果は必ずしも限定的なものではなく、上記の効果とともに、または上記の効果に代えて、本明細書に示されたいずれかの効果、または本明細書から把握され得る他の効果が奏されてもよい。
本開示の一実施形態に係る音声入力時の一表示例を示す説明図である。 同実施形態に係る情報処理装置の機能構成を示す機能ブロック図である。 同実施形態に係る音声入力処理の一例を示すフローチャートである。 音声入力内容の一例を示す説明図である。 第1テキスト表示領域に第1入力のテキスト内容が表示された状態の一例を示す説明図である。 第1入力のテキスト内容とともに、テキスト候補が表示された状態の一例を示す説明図である。 第1入力のテキスト内容とテキスト候補との対応関係を示した状態の一例を示す説明図である。 第2テキスト表示領域に第2入力のテキスト内容が表示された状態の一例を示す説明図である。 第2入力のテキスト内容とともに、テキスト候補が表示された状態の一例を示す説明図である。 第2入力のテキスト内容とテキスト候補との対応関係を示した状態の一例を示す説明図である。 第2テキスト表示領域のテキスト内容と第2付加情報表示領域のテキスト候補とを入れ替えた状態の一例を示す説明図である。 英語による音声入力内容の一例を示す説明図である。 英語による音声入力時に、第1テキスト表示領域に第1入力のテキスト内容が表示された状態の一例を示す説明図である。 英語による音声入力時に、第1入力のテキスト内容とともに、テキスト候補が表示された状態の一例を示す説明図である。 英語による音声入力時に、第2テキスト表示領域に第2入力のテキスト内容が表示されるとともに、テキスト候補が表示された状態の一例を示す説明図である。 グラスウェア端末の表示部へのテキスト内容の表示例を示す説明図である。 同実施形態に係る情報処理装置のハードウェア構成例を示すハードウェア構成図である。
 以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
 なお、説明は以下の順序で行うものとする。
 1.音声入力の概要
 2.情報処理装置の構成
 3.音声入力処理
 4.音声入力時のテキスト内容表示例
  4.1.日本語による音声入力例
  4.2.英語による音声入力例
  4.3.グラスウェア端末でのテキスト内容表示例
 5.ハードウェア構成例
 6.まとめ
 <1.音声入力の概要>
 まず、図1を参照して、本開示の一実施形態に係る情報処理装置による音声入力時の表示処理の概要を説明する。図1は、本実施形態に係る音声入力時の一表示例を示す説明図である。
 本実施形態に係る情報処理装置は、ユーザによる音声入力時に、入力された音声を解析した結果を表示して、音声認識しやすい音声で発話できる状態にユーザを導く。例えば情報処理装置は、図1に示すような情報処理端末10において、マイク30により取得された音声を解析した結果として、表示部20に音声のテキスト内容を表示させる。情報処理装置により入力した音声の音声認識の結果をユーザにフィードバックすることで、ユーザは意図した通りに認識されたかを知ることができ、次の音声入力に活用することができる。
 例えば、音声入力を、最終的に入力したい文章を入力する前の下書き入力に活用することができる。まず、ユーザが、最終的に入力したい文章を想定して骨子となる内容を発話し音声入力する。この下書き入力では、必ずしも文章を入力する必要はなく、単語やキーワード等であってもよい。音声入力がなされると、例えば図1上側に示すように、これを解析した結果が表示部20の第1入力表示領域43に表示される。第1入力表示領域43の表示内容は、ユーザが入力したい文章の参考として利用できる。
 次いで、ユーザは、第1入力表示領域43の表示内容を見ながら次の音声入力を行う。この際、ユーザは、下書き入力内容を見て発話できるので、よりスムーズに入力したい文章を発話できる。この音声入力の解析結果は、例えば図1下側に示すように、第2入力表示領域45に表示される。このとき、第2入力表示領域45に表示されたテキストのうち、第1入力表示領域43に表示されているテキストと同一部分がわかるような表示にしてもよい。
 このように、音声入力の解析結果をテキスト表示させ、次の音声入力に活用できるようにすることで、音声認識しやすい音声で発話できる状態にユーザを導く。例えば、文書やメール等、比較的長い文章を入力する際に、簡単な内容から音声入力し、その後、当該音声入力のテキスト内容を見ながら正確な文章を入力することができるので、音声入力が行い易くなる。以下、本実施形態に係る情報処理装置の構成とその機能について、詳細に説明していく。
 <2.情報処理装置の構成>
 まず、図2に基づいて、本実施形態に係る情報処理装置100の機能構成について説明する。なお、図2は、本実施形態に係る情報処理装置100の機能構成を示す機能ブロック図である。情報処理装置100は、ユーザから入力情報を受け、入力情報の解析結果をユーザに提供する処理を行う。情報処理装置100は、例えばスマートフォンやタブレット端末、ヘッドマウントディスプレイやグラスウェア端末等のウェアラブル機器、テレビ、プロジェクタ装置等に用いられる処理装置である。
 本実施形態に係る情報処理装置100は、図2に示すように、操作入力部110と、音声入力部120と、情報処理部130と、表示処理部140と、表示部150とからなる。
 操作入力部110は、ユーザから機器の操作入力を受ける機能部である。操作入力部110は、例えば、タッチセンサやボタン、ダイヤル等の各種入力装置である。操作入力部110から入力された操作入力情報は、情報処理部130へ出力される。
 音声入力部120は、音声を取得する機能部であって、例えばマイク等である。音声入力部120は、例えば情報処理部130が操作入力情報を受けて解析したユーザの操作に基づいて、音声を取得可能な音声取得状態と音声を取得しない停止状態とを切り替えるようにしてもよい。あるいは、所定のアプリケーションの起動を受けて音声取得状態とするようにしてもよい。音声入力部120により取得された音声は、音声処理サーバ200へ出力され、音声認識処理部210により音声認識処理が行われる。
 情報処理部130は、情報処理装置100に入力された情報を処理して他の機能部へ出力する。情報処理部130は、例えば、操作入力情報を解析して情報処理装置100に対してユーザが行った操作を特定し、音声入力部120や表示部150等の他の機能部に処理を実行させる。より具体的には、例えば、情報処理部130は、音声入力部120の音声取得状態と停止状態とを切り替えたり、ユーザの操作あるいは所定の条件に応じて、音声の解析結果として表示されたテキスト内容の編集、確定等の処理を行ったりする。
 また、情報処理部130は、音声処理サーバ200による音声認識処理の結果や操作入力情報の処理結果を受けて、音声のテキスト内容を表示部150に表示させる際の表示の仕方を決定する処理を行う。情報処理部130は、音声入力のテキスト内容を表示部150に表示させる際に、例えば、最初に入力された音声のテキスト内容と次に入力された音声のテキスト内容とを並列して表示させてもよい。また、情報処理部130は、最初に入力された音声のテキスト内容と次に入力された音声のテキスト内容との間に対応する単語や文章がある場合にはその対応関係を示す情報を表示させてもよい。
 このように、情報処理部130は、音声処理サーバ200による音声認識処理の結果を受けて上述の処理を行った後、音声のテキスト内容を表示部150に表示させるための表示処理を表示処理部140に行わせる。また、情報処理部130は、操作入力情報を解析した結果に応じて、表示制御部140に表示部150の表示内容を変更することも可能である。
 表示処理部140は、情報処理部130からの入力を受けて、情報を表示部150に表示させるための処理を行う。表示処理部140は、音声入力のテキスト内容や当該テキスト内容に関する付加情報を表示部150に表示させる。
 表示部150は、表示処理部140からの表示情報を表示する表示装置であって、例えば液晶ディスプレイや有機ELディスプレイ等である。なお、情報処理装置100は、表示部150を必ずしも備えなくともよい。例えば、プロジェクタ装置等の場合には、表示部150は設けなくともよい。
 また、本実施形態に係る情報処理装置100は、図2に示すように、ネットワークを介して接続された音声処理サーバ200によって取得した音声の音声認識処理を行っている。しかし、本開示はかかる例に限定されず、情報処理装置100に音声認識処理部210を設けてもよい。
 また、音声処理サーバ200の音声認識処理部210により行われる音声認識の手法は、周知の技術を用いてもよい。音声認識処理部210は、音声の入力を受けて、当該音声から認識されたテキスト内容を情報処理装置100へ出力する。この際、単語や句、文等の所定のテキスト単位毎に、テキスト内容の音声認識としての確度を当該テキスト内容と合わせて情報処理装置100へ出力するようにしてもよい。この場合、情報処理装置100の情報処理部130は、テキスト内容を表示させる際に、テキスト内容の確度を示すようにしてもよい。例えば、確度の低いテキストを強調表示することで、ユーザに対して音声認識が誤っている可能性の高い内容を通知することができ、次の音声入力に活用することができるようになる。
 <3.音声入力処理>
 次に、図3に基づき、本実施形態に係る情報処理装置100による音声入力処理について説明する。なお、図3は、本実施形態に係る音声入力処理の一例を示すフローチャートである。
 本実施形態に係る音声入力処理は、図3に示すように、まず、音声入力部120により音声を取得する(S100)。音声入力部120は、音声入力を受けると、音声処理サーバ200へ音声を出力し、音声認識処理によって音声をテキストに変換する(S110)。音声処理サーバ200は、音声認識処理の解析結果として取得したテキスト内容を、情報処理装置100へ出力する。
 音声処理サーバ200から音声のテキスト内容を受けると、情報処理部130は、表示制御部140を介して当該テキスト内容を表示部150に表示させる(S120)。この際、情報処理部130は、表示部150に最初に入力された音声のテキスト内容と次に入力された音声のテキスト内容とを並列して表示させてもよい。また、情報処理部130は、最初に入力された音声のテキスト内容と次に入力された音声のテキスト内容との間に対応する単語や文章がある場合にはその対応関係を示す情報を表示させてもよい。このような表示を行うことで、ユーザが音声入力を行い易くしている。
 表示部150にテキスト内容が表示されると、例えばユーザは、表示された音声のテキスト内容を見て、当該内容が入力したい内容であるか否かを確認する(S130)。テキスト内容が意図する内容であれば、例えば表示されたテキスト内容を入力テキストとして確定して利用する。一方、テキスト内容が意図する内容となっていない場合には、ステップS100の処理に戻り、ユーザは再び音声を入力する。この際、ユーザは、前回の音声入力時に得られたテキスト内容を見ながら発話することができるので、前回よりスムーズに音声入力を行うことができる。
 ステップS100~S130の処理は、例えばステップS130にてユーザがテキスト内容を確定するまで繰り返し行ってもよい。このように、本実施形態に係る情報処理装置100は、音声入力を受けて、当該音声入力を受けて認識されたテキスト内容を表示部150に表示してユーザに提示することで、ユーザが次の音声入力を行い易い状態に導く。これにより、ユーザは、より音声認識の誤りが少ない音声入力を行うことができる。
 <4.音声入力時のテキスト内容表示例>
 以下、図4~図11に基づいて、上述の情報処理装置100により音声入力を行った時のテキスト内容の表示例について説明する。以下では、表示部20とマイク30とを備える情報処理端末10の一機能である文字入力ソフトウェアに情報処理装置100を適用した場合について説明する。情報処理端末10の表示部20はタッチパネルとなっており、操作入力部110としての機能も備えている。
 [4.1.日本語による音声入力例]
 (A.第1入力)
 まず、図4に、音声入力したい内容の例を示す。図4において、第1入力は、ユーザが最終的に入力したい文章に関連する単語や文等である。図4の例では、最終的に入力したい文章を入力するための参考となる単語や文を入力するとする。そして、第2入力は、例えばユーザが最終的に入力したい文章である。第2入力は、第1入力のテキスト内容を見ながら音声入力される。
 すなわち、第1入力は最終的に入力したい文章を入力するための下書き入力(以下、「ラフ入力」ともいう。)であり、第2入力は最終的に行われる入力(以下、「清書入力」ともいう。)である。本実施形態に係る情報処理装置100は、ラフ入力が行われた後、ユーザにラフ入力のテキスト内容を見ながら清書入力を行わせることで、ユーザが入力したい内容を入力しやすいようにしている。
 情報処理端末10での文字入力ソフトウェアによる音声入力処理は、例えば、表示部20に表示されたマイクアイコン41をユーザがタッチすることで開始される。マイクアイコン41へタッチされたことが検出されると、音声入力部120であるマイク30が音声取得状態となる。
 マイク30が音声取得状態となった後、ユーザにより、図4の第1入力の内容が音声入力されたとする。このとき、情報処理装置100は、音声入力を受けて、音声処理サーバ200に音声認識処理を実行させ、その結果としてテキスト内容を取得する。テキスト内容を取得した情報処理装置100の情報処理部130は、表示処理部140に対して、例えば図5に示すように、第1テキスト表示領域43にテキスト内容を表示させるよう指示する。第1入力は、ユーザが最終的に入力したい文章のラフ入力として行われる。このとき、情報処理部130は、音声入力されたテキスト単位(例えば、単語、句、文章)毎に応じて、第1テキスト表示領域43のテキスト内容の表示テキスト単位を変更させてもよい。
 この際、情報処理部130は、第1入力のテキスト内容とともに、音声処理サーバ200から音声認識処理の途中結果を取得して、付加情報表示領域44にその内容を表示させてもよい。音声認識処理の途中結果を表示することで、発話した内容がどのように認識されるのかをユーザにフィードバックでき、次の音声入力に正しく音声認識されるためにどのように発話したらよいか参考とすることができる。
 また、情報処理部130は、図6に示すように、第1入力のテキスト内容とともに、音声処理サーバ200から音声認識処理において認識された1または複数のテキスト候補を取得して、付加情報表示領域44にその内容を表示させてもよい。音声認識処理のテキスト候補を表示することによっても、発話した内容がどのように認識されるのかをユーザにフィードバックでき、次の音声入力に正しく音声認識されるためにどのように発話したらよいか参考とすることができる。
 さらに、情報処理部130は、図5に示した音声認識処理の途中結果や図6に示したテキスト候補と、第1入力のテキスト内容との対応関係をわかりやすくするために、図7に示すようなオブジェクト43a、44aで対応する部分を囲んで示してもよい。図7のオブジェクト43a、44aは吹き出し形状であるが、対応関係を表すオブジェクトはかかる例に限定されず、例えば対応するテキスト同士を同一種類の枠で囲んでもよい。また、オフジェク以外にも、対応するテキスト同士を同一の文字の色やフォントで示したり、同一線種で下線を付したりして関連性を表してもよい。
 このような音声の解析結果として取得されたテキスト内容の表示の仕方は、情報処理装置100にて予め設定されていてもよく、ユーザの操作に基づき設定されてもよい。
 (B.第2入力)
 第1入力のテキスト内容が第1テキスト表示領域43に表示されると、ユーザは、再びマイクアイコン41にタッチしてマイク30を音声取得状態にする。そして、ユーザは、第1テキスト表示領域43に表示されたテキスト内容を見ながら、ユーザが最終的に入力したい情報(すなわち、図4の第2入力の内容)を発話する。情報処理装置100は、第1入力のときと同様、音声を音声処理サーバ200に出力して音声認識処理を実行させ、その結果としてテキスト内容を取得する。テキスト内容を取得した情報処理装置100の情報処理部130は、例えば、図8に示すように、第2テキスト表示領域45にテキスト内容を表示する。
 第2テキスト表示領域45は、例えば図8に示すように、第1テキスト表示領域43と上下に並べて配置してもよい。このようにテキスト表示領域43、45を配置することで、第1入力の音声と第2入力の音声とから取得されたテキスト内容を比較しやすくなる。なお、テキスト表示領域43、45の配置は、かかる例に限定されず、テキストの見やすさや表示部20の表示領域の形状等に応じて適宜決定してもよい。
 また、情報処理部130は、図9に示すように、第2入力のテキスト内容とともに、音声処理サーバ200から音声認識処理において認識された1または複数のテキスト候補を取得して、第2付加情報表示領域46にその内容を表示させてもよい。音声認識処理のテキスト候補を表示することによっても、発話した内容がどのように認識されるのかをユーザにフィードバックでき、次の音声入力に正しく音声認識されるためにどのように発話したらよいか参考とすることができる。なお、第1入力のときと同様に、情報処理部130は、第2入力のテキスト内容とともに、音声認識処理の途中結果を取得して表示させるようにしてもよい。
 さらに、情報処理部130は、図9に示したテキスト候補と、第2入力のテキスト内容との対応関係をわかりやすくするために、図10に示すようなオブジェクト45a、46aで対応する部分を囲んで示してもよい。図10のオブジェクト45a、46aも、図7に示したオブジェクト43a、44aと同様、その形状は適宜設定可能である。また、オフジェク以外にも、対応するテキスト同士を同一の文字の色やフォントで示したり、同一線種で下線を付したりして関連性を表してもよい。
 また、情報処理部130は、第2テキスト表示領域45のテキスト内容については、ラフ入力の第1テキスト表示領域43のテキスト内容がどの程度含まれているかをユーザに通知するようにしてもよい。例えば、情報処理部130は、第2テキスト表示領域45のテキスト内容に対して、第1テキスト表示領域43のテキスト内容に含まれている単語や文を強調してユーザにわかりやすい表示となるように表示の仕方を変更させる。テキストの強調は、例えば、文字周囲を塗りつぶしたり、文字フォントや文字色を変更したり、文字に下線を引いたりする等の文字修飾により行うことができる。図10では、文字に下線45bを引いて強調表示している。
 これにより、ユーザは、第2入力の内容に第1入力の内容がどの程度含まれているかを容易に把握することができ、第2入力の内容が意図するものであるかどうか、直観的に判断することが可能となる。
 さらに、情報処理部130は、ユーザの操作入力に基づいて、第2テキスト表示領域45のテキスト内容と第2付加情報表示領域46のテキスト候補とを入れ替えるようにしてもよい。例えば図11に示すように、第2テキスト表示領域45においてオブジェクト45aが付されたテキスト(「明日 品川で6時から」)と、第2付加情報表示領域46においてオブジェクト46aが付されたテキスト候補(「明日は品川で16時から」)とがある。このとき、テキスト候補の内容を採用したい場合、ユーザは、例えば表示部20に表示されているオブジェクト46aにタッチした状態でオブジェクト45aの位置に移動させる。かかる操作入力を受けて、情報処理部130は、オブジェクト45aとオブジェクト46aとのテキスト内容を入れ替えて表示するように表示処理部140に指示する。これにより、音声入力を再度行うことなく意図する内容に修正することができる。
 その後、第2テキスト表示領域45のテキスト内容が入力したい内容となっていれば、ユーザは、当該テキスト内容を入力テキストとして確定する操作入力を行う。この入力操作は、例えば解析結果としてのテキスト内容を表示部20に表示させる際に、テキスト内容を確定させる処理を実行させる確定ボタン(図示せず。)も表示させるようにし、確定ボタンへのタッチ操作をテキスト内容の確定操作としてもよい。
 あるいは、情報処理部130が所定の条件を満たしたと判定したとき、直近で入力された音声の解析結果としてのテキスト内容を入力テキストとして確定してもよい。テキスト内容を入力テキストとして確定させる所定の条件としては、例えば、「これを入力」等のユーザからの音声コマンドの入力を受けたときや、加速度センサあるいはジャイロセンサによりユーザが首を縦に振ったことを検知したとき等がある。また、例えば最後に表示されたテキスト内容が表示されてから所定の時間経過したときや、視線検出によりユーザが所定位置を一定時間以上見ていることが検知されたとき等がある。
 一方、第2テキスト表示領域45のテキスト内容とは異なるテキスト内容を入力したい場合等は、ユーザは、再びマイクアイコン41を操作してマイク30を音声取得状態として音声入力を行う。この際、第1テキスト表示領域43のテキスト内容および第2テキスト表示領域45のテキスト内容を表示させておくことで、ユーザは音声入力をより行い易くなる。なお、過去の音声入力に対するテキスト内容をすべて表示させておく必要はなく、例えば直近n回の音声入力のテキスト内容のみ表示させるようにしてもよい。
 確定された入力テキストは、各種アプリケーションに入力テキストとして出力させてもよい。各種アプリケーションとしては、例えば、メールやメッセンジャー、ソーシャルメディアサービス(SNS)アプリ、カレンダー、スケジュール管理アプリ、ノートブックアプリ等がある。すなわち、音声により入力された入力テキストが、メールやのメッセンジャーの文やメモとして利用される。本実施形態に係る音声入力処理を適用すると、音声の解析結果としてのテキスト内容が表示され、ユーザはこのテキスト内容を見ながら次の発話を行うことができるので、比較的長い文章を入力する際に、よりユーザがテキスト入力を行い易くなる。
 以上、本実施形態に係る情報処理装置100による音声入力処理の一例を説明した。なお、上述の説明において、マイク30を音声取得状態にしたり、テキスト内容を確定したりする等、ユーザが操作入力部110から行う操作入力は、情報処理端末10に応じて変化する。例えば、スマートフォンやタブレット端末等のようなタッチセンサを備える情報処理端末10であれば、タッチセンサに接触して操作入力を行うことができる。また、ヘッドマウンドディスプレイやグラスウェア端末等のウェアラブル機器であれば、ユーザが視線により表示内容を選択する操作入力や、ウェアラブル機器に設けられた操作部からの操作入力等を用いてもよい。さらに、“上”、“下”等の音声入力操作も可能である。また、ユーザのジェスチャにより表示内容を選択するジェスチャ入力や、加速度センサの検出結果を利用して、例えば右を向く、左を向くといったような頭の動きを検出して行う操作入力等を用いることもできる。
 [4.2.英語による音声入力例]
 上述の音声入力処理の例は、言語に寄らず同様に行うことができる。例えば、図12に示すように、音声入力の言語が英語であっても、上述と同様に、ラフ入力として第1入力を行い、清書入力として第2入力を行うことができる。
 第1入力が行われると、図13に示すように、第1テキスト表示領域43に第1入力の音声認識処理の結果として得られたテキスト内容が表示される。このとき、第1テキスト表示領域43のテキスト内容とともに、付加情報表示領域44に音声認識処理の途中結果を表示させてもよく、図14に示すように付加情報表示領域44にテキスト候補等を表示させてもよい。
 また、第1入力のテキスト内容を見て、第2入力が行われると、図15に示すように、第2テキスト表示領域45に第2入力の音声認識処理の結果として得られたテキスト内容が表示される。このとき、第2テキスト表示領域45のテキスト内容とともに、第2付加情報表示領域46aに音声認識処理の途中結果やテキスト候補等を表示させてもよい。
 [4.3.グラスウェア端末でのテキスト内容表示例]
 上述の説明では、スマートフォンやタブレット端末等のような情報処理端末10におけるテキスト表示例について説明したが、他の機器においても同様に、入力された音声の音声認識処理の結果を表示することができる。例えば、図16に示すようなグラスウェア端末50において、表示部52には、図1に示したレイアウトのように、マイクアイコンや入力された音声の音声認識処理の結果を表示してもよい。この場合、マイクアイコンは、上述したように、視線やグラスウェア端末50の操作部、頭の動き等による操作入力により操作することができる。
 この場合にも、情報処理装置100は、入力された音声を受けて、音声認識処理の結果としてテキスト内容を取得し、表示部52に表示させる。これにより、音声入力をし易い状態にユーザを導き、最終的に入力テキストとして確定させることができる。
 <5.ハードウェア構成例>
 上記実施形態に係る情報処理装置100による処理は、ハードウェアにより実行させることもでき、ソフトウェアによって実行させることもできる。この場合、情報処理装置100は、図17に示すように構成することもできる。以下、図17に基づいて、情報処理装置100のハードウェア構成例について説明する。
 情報処理装置100は、上述したように、コンピュータ等の処理装置により実現することができる。情報処理装置100は、図17に示すように、CPU(Central Processing Unit)901と、ROM(Read Only Memory)902と、RAM(Random Access Memory)903と、ホストバス904aとを備える。また、情報処理装置100は、ブリッジ904と、外部バス904bと、インタフェース905と、入力装置906と、出力装置907と、ストレージ装置(HDD)908と、ドライブ909と、接続ポート911と、通信装置913とを備える。
 CPU901は、演算処理装置および制御装置として機能し、各種プログラムに従って情報処理装置100内の動作全般を制御する。また、CPU901は、マイクロプロセッサであってもよい。ROM902は、CPU901が使用するプログラムや演算パラメータ等を記憶する。RAM903は、CPU901の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス904aにより相互に接続されている。
 ホストバス904aは、ブリッジ904を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス904bに接続されている。なお、必ずしもホストバス904a、ブリッジ904および外部バス904bを分離構成する必要はなく、一のバスにこれらの機能を実装してもよい。
 入力装置906は、マウス、キーボード、タッチパネル、ボタン、マイク、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU901に出力する入力制御回路などから構成されている。出力装置907は、例えば、液晶ディスプレイ(LCD)装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置や、スピーカなどの音声出力装置を含む。
 ストレージ装置908は、情報処理装置100の記憶部の一例であり、データ格納用の装置である。ストレージ装置908は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置908は、例えば、HDD(Hard Disk Drive)で構成される。このストレージ装置908は、ハードディスクを駆動し、CPU901が実行するプログラムや各種データを格納する。
 ドライブ909は、記憶媒体用リーダライタであり、情報処理装置100に内蔵、あるいは外付けされる。ドライブ909は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記録媒体に記録されている情報を読み出して、RAM903に出力する。
 接続ポート911は、外部機器と接続されるインタフェースであって、例えばUSB(Universal Serial Bus)などによりデータ伝送可能な外部機器との接続口である。また、通信装置913は、例えば、通信網5に接続するための通信デバイス等で構成された通信インタフェースである。また、通信装置913は、無線LAN(Local Area Network)対応通信装置であっても、ワイヤレスUSB対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
 <6.まとめ>
 以上、本実施形態に係る情報処理装置100の構成とその機能について説明した。情報処理装置100は、音声入力の解析結果をテキスト表示させ、次の音声入力に活用できるようにすることで、音声認識しやすい音声で発話できる状態にユーザを導く。ユーザは音声入力の助けとなるテキストを見ながら発話可能であるため、入力したい内容を即座に整理しながら話すことができる。また、音声認識が期待通りの結果になりやすい状態を導くことができ、入力される音声から言いよどみや不要語を減らすことができる。結果として、間違いの少ない音声入力を誘導できる。
 さらに、音声認識処理の結果をテキスト表示してユーザにフィードバックすることで、音声認識機能の癖を清書入力よりも前に把握できるので、「っ」などの促音を減らす等、意図しない認識結果にならないような音声入力を誘導できる。期待通りにならなかった音声認識結果をユーザが見ることで、その発話環境での失敗状況を事前に把握することができ、雑音がある中で大きく話させるなど失敗しないような音声入力を誘導できる。また、音声認識の間違い状況そのものをユーザへ提示できる効果もある。
 また、清書入力において、ラフ入力との一致箇所を強調表示する等することで、ユーザは入力したかった文章かどうかを素早く確認できる。
 以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示の技術的範囲はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
 例えば、上記実施形態では、音声入力を受けて解析されたテキスト内容を表示させ、そのテキスト内容を表示させた状態で受けた音声入力のテキスト内容を表示させ、ユーザが意図する内容となったものを最終的な入力テキストとして確定した。この確定される入力テキストは、例えば、直近の音声入力のテキスト内容以外であってもよく、例えばその前の音声入力のテキスト内容を最終的な入力テキストとして確定できるようにしてもよい。また、情報処理装置130は、音声の解析結果としてのテキスト内容を、ユーザの操作や所定の条件に応じて、メモリ(図示せず。)に記録させてもよい。メモリに記録されたテキスト内容は、各種アプリケーションから適宜読み出して利用可能とすることで、例えば、入力テキストの下書き情報として利用することができる。
 また、本明細書に記載された効果は、あくまで説明的または例示的なものであって限定的ではない。つまり、本開示に係る技術は、上記の効果とともに、または上記の効果に代えて、本明細書の記載から当業者には明らかな他の効果を奏しうる。
 なお、以下のような構成も本開示の技術的範囲に属する。
(1)入力された音声の解析結果としてテキスト内容を取得し、表示部に表示させる処理部を備え、
 前記処理部は、
 第1の音声入力を受けて解析された第1のテキスト内容を取得して前記表示部に表示させ、
 前記第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して前記表示部に表示させ、
 ユーザの操作あるいは所定の条件に応じて、前記第2のテキスト内容を入力テキストとして確定する、情報処理装置。
(2)前記処理部は、前記第1のテキスト内容の解析途中結果を、前記第1のテキスト内容とともに前記表示部に表示させる、前記(1)に記載の情報処理装置。
(3)前記処理部は、前記第1のテキスト内容から予測される入力候補を、前記第1のテキスト内容とともに前記表示部に表示させる、前記(1)に記載の情報処理装置。
(4)前記処理部は、前記第1のテキスト内容と、前記第1のテキスト内容から予測される入力候補との対応関係を示す情報を前記表示部に表示させる、前記(3)に記載の情報処理装置。
(5)前記処理は、ユーザの操作入力に基づき、前記表示部に表示された前記第1のテキスト内容と前記入力候補とを入れ替えて表示させる、前記(3)または(4)に記載の情報処理装置。
(6)前記処理部は、前記第1のテキスト内容を、音声認識の確度に応じて強調して表示させる、前記(1)~(5)のいずれか1項に記載の情報処理装置。
(7)前記処理部は、入力された前記第1の音声入力のテキスト単位毎に応じて、前記第1のテキスト内容の表示テキスト単位を変更する、前記(1)~(6)のいずれか1項に記載の情報処理装置。
(8)前記処理部は、前記第2のテキスト内容が入力テキストとして確定されなかった場合、ユーザの操作あるいは所定の条件に応じて入力テキストが確定されるまで、繰り返し音声入力の解析結果としてのテキスト内容を取得して前記表示部に表示させる、前記(1)~(7)のいずれか1項に記載の情報処理装置。
(9)第1の音声入力の解析結果として第1のテキスト内容を取得して表示部に表示させること、
 前記第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して前記表示部に表示させること、
 ユーザの操作あるいは所定の条件に応じて、前記第2のテキスト内容を入力テキストとして確定すること、
を含む、情報処理方法。
(10)コンピュータに、
 第1の音声入力の解析結果として第1のテキスト内容を取得して表示部に表示させること、
 前記第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して前記表示部に表示させること、
 ユーザの操作あるいは所定の条件に応じて、前記第2のテキスト内容を入力テキストとして確定すること、
を含む処理を実行させるためのプログラム。
 100  情報処理装置
 110  操作入力部
 120  音声入力部
 130  情報処理部
 140  表示処理部
 150  表示部
 200  音声処理サーバ
 210  音声認識処理部
 

Claims (10)

  1.  入力された音声の解析結果としてテキスト内容を取得し、表示部に表示させる処理部を備え、
     前記処理部は、
     第1の音声入力を受けて解析された第1のテキスト内容を取得して前記表示部に表示させ、
     前記第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して前記表示部に表示させ、
     ユーザの操作あるいは所定の条件に応じて、前記第2のテキスト内容を入力テキストとして確定する、情報処理装置。
  2.  前記処理部は、前記第1のテキスト内容の解析途中結果を、前記第1のテキスト内容とともに前記表示部に表示させる、請求項1に記載の情報処理装置。
  3.  前記処理部は、前記第1のテキスト内容から予測される入力候補を、前記第1のテキスト内容とともに前記表示部に表示させる、請求項1に記載の情報処理装置。
  4.  前記処理部は、前記第1のテキスト内容と、前記第1のテキスト内容から予測される入力補との対応関係を示す情報を前記表示部に表示させる、請求項3に記載の情報処理装置。
  5.  前記処理部は、ユーザの操作入力に基づき、前記表示部に表示された前記第1のテキスト内容と前記入力候補とを入れ替えて表示させる、請求項3に記載の情報処理装置。
  6.  前記処理部は、前記第1のテキスト内容を、音声認識の確度に応じて強調して表示させる、請求項1に記載の情報処理装置。
  7.  前記処理部は、入力された前記第1の音声入力のテキスト単位毎に応じて、前記第1のテキスト内容の表示テキスト単位を変更する、請求項1に記載の情報処理装置。
  8.  前記処理部は、前記第2のテキスト内容が入力テキストとして確定されなかった場合、ユーザの操作あるいは所定の条件に応じて入力テキストが確定されるまで、繰り返し音声入力の解析結果としてのテキスト内容を取得して前記表示部に表示させる、請求項1に記載の情報処理装置。
  9.  第1の音声入力の解析結果として第1のテキスト内容を取得して表示部に表示させること、
     前記第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して前記表示部に表示させること、
     ユーザの操作あるいは所定の条件に応じて、前記第2のテキスト内容を入力テキストとして確定すること、
    を含む、情報処理方法。
  10.  コンピュータに、
     第1の音声入力の解析結果として第1のテキスト内容を取得して表示部に表示させること、
     前記第1のテキスト内容が表示された状態で受け付けた第2の音声入力の解析結果としての第2のテキスト内容を取得して前記表示部に表示させること、
     ユーザの操作あるいは所定の条件に応じて、前記第2のテキスト内容を入力テキストとして確定すること、
    を含む処理を実行させるためのプログラム。
     
PCT/JP2015/051570 2014-04-08 2015-01-21 情報処理装置、情報処理方法およびプログラム WO2015156011A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US15/120,371 US10074366B2 (en) 2014-04-08 2015-01-21 Information processing device, information processing method, and program
EP15777401.9A EP3131093B1 (en) 2014-04-08 2015-01-21 Information processing device, information processing method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-079310 2014-04-08
JP2014079310 2014-04-08

Publications (1)

Publication Number Publication Date
WO2015156011A1 true WO2015156011A1 (ja) 2015-10-15

Family

ID=54287593

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/051570 WO2015156011A1 (ja) 2014-04-08 2015-01-21 情報処理装置、情報処理方法およびプログラム

Country Status (3)

Country Link
US (1) US10074366B2 (ja)
EP (1) EP3131093B1 (ja)
WO (1) WO2015156011A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD738889S1 (en) 2013-06-09 2015-09-15 Apple Inc. Display screen or portion thereof with animated graphical user interface
US11157075B2 (en) * 2018-05-01 2021-10-26 Dell Products, L.P. Gaze-activated voice services for interactive workspaces
JP2020009395A (ja) * 2018-07-05 2020-01-16 聡子 荻原 タブレット

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1155614A (ja) * 1997-08-04 1999-02-26 Casio Comput Co Ltd 音声認識画像処理装置
JP2001306091A (ja) * 2000-04-26 2001-11-02 Nec Software Kobe Ltd 音声認識システムおよび単語検索方法
JP2005037615A (ja) * 2003-07-18 2005-02-10 Omron Corp クライアント装置、音声認識サーバ、分散型音声認識システム、音声認識プログラム、およびコンピュータ読み取り可能な記録媒体
JP2005228178A (ja) * 2004-02-16 2005-08-25 Nec Corp 書き起こしテキスト作成支援システムおよびプログラム
JP2009538444A (ja) * 2006-05-25 2009-11-05 マルチモダル テクノロジーズ,インク. 音声認識方法
JP2010139826A (ja) * 2008-12-12 2010-06-24 Toyota Motor Corp 音声認識システム
JP2011002656A (ja) * 2009-06-18 2011-01-06 Nec Corp 音声認識結果修正候補検出装置、音声書き起こし支援装置、方法及びプログラム
JP2012226220A (ja) * 2011-04-21 2012-11-15 Ntt Docomo Inc 音声認識装置、音声認識方法及び音声認識プログラム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6937984B1 (en) * 1998-12-17 2005-08-30 International Business Machines Corporation Speech command input recognition system for interactive computer display with speech controlled display of recognized commands
US9042867B2 (en) * 2012-02-24 2015-05-26 Agnitio S.L. System and method for speaker recognition on mobile devices
US9361883B2 (en) * 2012-05-01 2016-06-07 Microsoft Technology Licensing, Llc Dictation with incremental recognition of speech
KR20130135410A (ko) * 2012-05-31 2013-12-11 삼성전자주식회사 음성 인식 기능을 제공하는 방법 및 그 전자 장치
KR101992191B1 (ko) * 2012-11-01 2019-06-24 엘지전자 주식회사 이동 단말기 및 그 제어방법
KR102023008B1 (ko) * 2012-12-10 2019-09-19 엘지전자 주식회사 음성-텍스트 변환 디스플레이 장치 및 그 방법
JP6178198B2 (ja) * 2013-09-30 2017-08-09 株式会社東芝 音声翻訳システム、方法およびプログラム
US10389876B2 (en) * 2014-02-28 2019-08-20 Ultratec, Inc. Semiautomated relay method and apparatus
WO2015178715A1 (en) * 2014-05-23 2015-11-26 Samsung Electronics Co., Ltd. System and method of providing voice-message call service
US10446143B2 (en) * 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1155614A (ja) * 1997-08-04 1999-02-26 Casio Comput Co Ltd 音声認識画像処理装置
JP2001306091A (ja) * 2000-04-26 2001-11-02 Nec Software Kobe Ltd 音声認識システムおよび単語検索方法
JP2005037615A (ja) * 2003-07-18 2005-02-10 Omron Corp クライアント装置、音声認識サーバ、分散型音声認識システム、音声認識プログラム、およびコンピュータ読み取り可能な記録媒体
JP2005228178A (ja) * 2004-02-16 2005-08-25 Nec Corp 書き起こしテキスト作成支援システムおよびプログラム
JP2009538444A (ja) * 2006-05-25 2009-11-05 マルチモダル テクノロジーズ,インク. 音声認識方法
JP2010139826A (ja) * 2008-12-12 2010-06-24 Toyota Motor Corp 音声認識システム
JP2011002656A (ja) * 2009-06-18 2011-01-06 Nec Corp 音声認識結果修正候補検出装置、音声書き起こし支援装置、方法及びプログラム
JP2012226220A (ja) * 2011-04-21 2012-11-15 Ntt Docomo Inc 音声認識装置、音声認識方法及び音声認識プログラム

Also Published As

Publication number Publication date
EP3131093A1 (en) 2017-02-15
US20170069319A1 (en) 2017-03-09
EP3131093B1 (en) 2021-05-12
EP3131093A4 (en) 2017-12-06
US10074366B2 (en) 2018-09-11

Similar Documents

Publication Publication Date Title
JP6710740B2 (ja) 提案される音声ベースのアクションクエリの提供
US10551915B2 (en) Gaze based text input systems and methods
EP3408733B1 (en) Keyboard with a suggested search query region
US20170263248A1 (en) Dictation that allows editing
JP6140668B2 (ja) 携帯電話のタッチスクリーンとの使用等のためのマルチモーダルテキスト入力システム
US9691381B2 (en) Voice command recognition method and related electronic device and computer-readable medium
US20090326938A1 (en) Multiword text correction
US20160139877A1 (en) Voice-controlled display device and method of voice control of display device
US20140207453A1 (en) Method and apparatus for editing voice recognition results in portable device
US20140297276A1 (en) Editing apparatus, editing method, and computer program product
JPWO2018055983A1 (ja) 翻訳装置、翻訳システム、および評価サーバ
JPWO2014041607A1 (ja) 情報処理装置、情報処理方法およびプログラム
Ouyang et al. Mobile keyboard input decoding with finite-state transducers
US11900931B2 (en) Information processing apparatus and information processing method
US20170293678A1 (en) Adaptive redo for trace text input
WO2015156011A1 (ja) 情報処理装置、情報処理方法およびプログラム
WO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
WO2014158101A1 (en) Methods, systems and devices for interacting with a computing device
KR101298926B1 (ko) 수화 키보드 및 이를 이용한 수화 검색 장치
JPWO2018105373A1 (ja) 情報処理装置、情報処理方法、および情報処理システム
US20140359434A1 (en) Providing out-of-dictionary indicators for shape writing
US20060111916A1 (en) Microphone feedback and control
CN113378530A (zh) 语音编辑方法及装置、设备和介质
JP2007066318A (ja) キーボードレス入力装置とその方法及びこの方法の実行プログラムとその記録媒体

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15777401

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15120371

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015777401

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015777401

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: JP