JP2019071089A - 情報提示装置、および情報提示方法 - Google Patents

情報提示装置、および情報提示方法 Download PDF

Info

Publication number
JP2019071089A
JP2019071089A JP2018239712A JP2018239712A JP2019071089A JP 2019071089 A JP2019071089 A JP 2019071089A JP 2018239712 A JP2018239712 A JP 2018239712A JP 2018239712 A JP2018239712 A JP 2018239712A JP 2019071089 A JP2019071089 A JP 2019071089A
Authority
JP
Japan
Prior art keywords
user
information
presentation
level
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018239712A
Other languages
English (en)
Other versions
JP7087987B2 (ja
JP2019071089A5 (ja
Inventor
真里 斎藤
Mari Saito
真里 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of JP2019071089A publication Critical patent/JP2019071089A/ja
Publication of JP2019071089A5 publication Critical patent/JP2019071089A5/ja
Application granted granted Critical
Publication of JP7087987B2 publication Critical patent/JP7087987B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces
    • G06F9/454Multi-language systems; Localisation; Internationalisation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/01Assessment or evaluation of speech recognition systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/126Character encoding
    • G06F40/129Handling non-Latin characters, e.g. kana-to-kanji conversion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/151Transformation
    • G06F40/157Transformation using dictionaries or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/253Grammatical analysis; Style critique
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/445Program loading or initiating
    • G06F9/44505Configuring for program initiating, e.g. using registry, configuration files
    • G06F9/4451User profiles; Roaming
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B19/00Teaching not covered by other main groups of this subclass
    • G09B19/06Foreign languages
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/005Language recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/02Preprocessing operations, e.g. segment selection; Pattern representation or modelling, e.g. based on linear discriminant analysis [LDA] or principal components; Feature selection or extraction
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/22Interactive procedures; Man-machine interfaces

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Artificial Intelligence (AREA)
  • Business, Economics & Management (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • User Interface Of Digital Computer (AREA)
  • Document Processing Apparatus (AREA)

Abstract

【課題】レベルが異なる複数のユーザに対して、それぞれが理解し易く情報を提示する。【解決手段】本技術の一側面である情報提示装置は、一人または複数のユーザそれぞれのレベルを特定する特定部と、前記ユーザに対して提示するための提示情報を取得する取得部と、取得された前記提示情報を各ユーザのレベルに応じて適宜変換する変換部と、適宜変換後の前記提示情報を各ユーザに提示する提示部とを備える。本技術は、例えば、ロボット、サイネージ装置、カーナビゲーション装置等に適用できる。【選択図】図2

Description

本技術は、情報提示装置、および情報提示方法に関し、特に、ユーザの年齢、知識レベル、言語能力等に応じて提示情報の提示方法を変更するようにした情報提示装置、および情報提示方法に関する。
何らかの情報(以下、提示情報と称する)を文字や音声によってユーザに提示する場合、ユーザが子供であったり、外国人であったりして、提示情報を理解するために必要な知識レベルや言語能力を備えていないと、その内容を十分に理解できないことがある。
そのような事態に対処する方法として、予め取得しているユーザの知識レベルに応じて言葉を置換する等により、ユーザの知識レベルに応じて理解し易いように情報を提示する方法が提案されている(例えば、特許文献1参照)。
特開平5−265677号公報
上述した従来方法では、ユーザが勉強したり成長したりして知識レベルや言語能力は向上した場合、ユーザが一人だけであれば、ユーザのレベル設定を変更すれば済む。しかしながら、知識レベルや言語能力の異なる複数のユーザに対して情報を提示する場合、全てのユーザに理解させるためには、例えば最も低いレベルのユーザに合わせて情報を提示する必要があり、各ユーザに対して、それぞれのレベルに応じて情報を提示することができなかった。
本技術はこのような状況に鑑みてなされたものであり、複数のユーザに対し、それぞれのレベルに応じて理解し易く情報を提示できるようにするものである。
本技術の一側面である情報提示装置は、一人または複数のユーザそれぞれのレベルを特定する特定部と、前記ユーザに対して提示するための提示情報を取得する取得部と、取得された前記提示情報を各ユーザのレベルに応じて適宜変換する変換部と、適宜変換後の前記提示情報を各ユーザに提示する提示部とを備える。
前記特定部は、前記ユーザのレベルとして、ユーザの年齢、知識レベル、言語能力、または外国語学習レベルのうちの少なくとも一つを特定することができる。
前記特定部は、予めデータベースに登録されている情報に基づき、前記ユーザのレベルを特定することができる。
本技術の一側面である情報提示装置は、前記ユーザのレベルを推定して前記データベースに登録する推定部をさらに備えることができる。
前記推定部は、前記ユーザのレベルを推定する処理を周期的に実行し、前記データベースにおける前記ユーザのレベルを更新することができる。
前記提示部は、適宜変換後の前記提示情報を文字表示または音声出力の少なくとも一方によって各ユーザに提示することができる。
前記提示部は、レベルが異なる複数のユーザが同時に共用している場合、レベルが低い方のユーザに対して適宜変換後の前記提示情報を文字表示するとともに、レベルが高いい方のユーザに対して適宜変換後の前記提示情報を音声出力することができる。
本技術の一側面である情報提示装置は、一人または複数の前記ユーザそれぞれの状態を検出する検出部をさらに備えることができ、前記提示部は、状態が異なる複数のユーザが同時に共用している場合、前記ユーザの状態に応じて、適宜変換後の前記提示情報を提示することができる。
前記検出部は、前記ユーザがディスプレイを見ているか否かを検出することができ、前記提示部は、ディスプレイを見ているユーザとディスプレイを見ていないユーザが同時に共用している場合、ディスプレイを見ているユーザに対して適宜変換後の前記提示情報を文字表示するとともに、ディスプレイを見ているユーザに対して適宜変換後の前記提示情報を音声出力することができる。
前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報内の言葉をより平易な言葉に変換することができる。
前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報内の漢字をひらがな、カタカナ、または振り仮名付き漢字に変換することができる。
前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報の一部または全部を外国語に変換することができる。
本技術の一側面である情報提示方法は、情報提示装置による、一人または複数のユーザそれぞれのレベルを特定する特定ステップと、前記ユーザに対して提示するための提示情報を取得する取得ステップと、取得された前記提示情報を各ユーザのレベルに応じて適宜変換する変換ステップと、適宜変換後の前記提示情報を各ユーザに提示する提示ステップとを含む。
本技術の一側面においては、一人または複数のユーザそれぞれのレベルが特定され、前記ユーザに対して提示するための提示情報が取得され、取得された前記提示情報が各ユーザのレベルに応じて適宜変換され、適宜変換後の前記提示情報が各ユーザに提示される。
本技術の一側面によれば、レベルが異なる複数のユーザに対して、それぞれが理解し易く情報を提示することができる。
レベルが異なる二人のユーザに対して異なるタイミングで提示情報を提示する例を示す図である。 レベルが異なる二人のユーザに対して同時に提示情報を提示する例を示す図である。 状態が異なる二人のユーザに対して同時に提示情報を提示する例を示す図である。 ユーザの学習レベルに応じて提示情報の言葉を外国語に変換する例を示す図である。 ユーザの興味に応じて提示情報に追加する情報を変更する例を示す図である。 ユーザの興味に応じて提示情報に追加する情報を変更する例を示す図である。 本技術を適用した情報提示装置の構成例を示すブロック図である。 レベル推定処理を説明するフローチャートである。 情報提示処理を説明するフローチャートである。 情報提示装置をカーナビゲーション装置に適用した場合の例を示す図である。 汎用のコンピュータの構成例を示すブロック図である。
以下、本技術を実施するための最良の形態(以下、実施の形態と称する)について、図面を参照しながら詳細に説明する。
<本技術の概要説明>
始めに、本技術の概要について説明する。本技術は、一人または複数のユーザが共有する情報提示装置に係るものであり、ユーザに対して情報を提示(文字表示および音声出力)するに際しては、ユーザの年齢、知識レベル、言語能力、外国語学習レベル等に応じて、その提示方法を変更するようになされている。以下、ユーザの年齢、知識レベル、言語能力、外国語学習レベルを一括して、ユーザのレベルと称する。
ユーザに対して提示する情報(以下、提示情報と称する)としては、ユーザやその関係者(家族等)に関する行動予定やニュース等を挙げることができる。ただし、提示情報の種類は、これらに限るものではなく任意である。
以下、ユーザのレベルに応じて提示方法を変更する例について説明する。
<レベルが異なる二人のユーザに対して異なるタイミングで提示情報を提示する例>
図1は、レベルが異なる二人のユーザとして、母親(ママ)と子供(ゆうた)が、異なるタイミングで情報提示装置を共用する例を示している。提示情報としては、家族(パパ、ママ、およびゆうた)の今日の予定が提示される。なお、図中の矩形枠内に記載されている文字は、文字表示として提示されることを表している。
同図Aは、ユーザが検知され、ママであると識別され、そのレベルが高い(提示情報をそのまま理解できるだけの知識レベル、言語能力を有する)と判断された場合を示している。なお、ユーザのレベルについては、説明の都合上、高いと低いの2段階としているが、実際にはより多段階に区別して判断する。
この場合、レベルが高いユーザ(ママ)に対しては、提示情報がそのまま文字表示される。なお、文字表示に対応して合成した音声を出力してもよい。この音声出力は、ユーザの設定に応じて常に行ってもよいし、ユーザがディスプレイの文字表示を見ていない時にだけ行うようにしてもよい。さらに、文字表示されている情報の件数やその要点を音声として出力するようにしてもよい。
また、音声出力を行う場合には、提示情報を話し言葉に変換してからその音声を合成して出力してもよい。話し言葉に変換するには、例えば、箇条書きを文章化したり、助詞、助動詞を補ったり、括弧を読み飛ばしたりする方法がある。具体的には、例えば、提示情報「パパ シンガポール出張」は、話し言葉「パパはシンガポールに出張です」に、提示情報「4時 サッカー教室」は、話し言葉「4時にサッカー教室です」に、提示情報「AA国大統領(55歳)来日」は、話し言葉「AA国大統領が来日します」に変換してもよい。
同図Bは、ユーザが検知され、子供であると識別され、そのレベルが低い(提示情報をそのまま理解できるだけの知識レベル、言語能力がない)と判断された場合を示している。
この場合、レベルが低いユーザ(小学校1年生入学時)が理解できるように、例えば、「シンガポール出張」が「がいこくでおしごと」に置換されるように、ユーザのレベルでは理解できないと想定される言葉がより理解し易い平易な言葉に置換されるとともに、読むことができないと思われる漢字がひらがなに変換されてから文字表示される。なお、文字表示と同時に、表示された文字に対応して合成した音声を出力してもよい。また、漢字をひらがなに変換する代わりに、カタカナに変換したり、漢字に振り仮名をつけたりするようにしてもよい。
同図Cは、ユーザが検知され、子供であると識別され、そのレベルが低い(ただし、同図Bの時よりも上がっている)と判断された場合を示している。
この場合、ユーザ(小学校1年生秋)が理解できるように、例えば、「シンガポール出張」が「がいこくでおしごと」に置換されるように、ユーザのレベルでは理解できないと想定される言葉が平易な言葉に置換されるとともに、読むことができないと思われる漢字がひらがなに変換されてから文字表示される。ただし、ユーザは既に漢字「学校」を学習しているので、同図Cの場合、同図Bではひらがな表示であった「がっこう」が、漢字表示「学校」とされる。なお、文字表示と同時に、表示された文字に対応して合成した音声を出力してもよい。
図1に示された例によれば、ユーザのレベルに応じて提示情報内における言葉を置換したり、漢字をひらがなに変換したりして提示するので、特にレベルが低いユーザの理解を深めることが可能となる。
また、予定やニュース等の提示情報を文字表示する場合、誰の予定であるのかを区別したり、各ユーザの既読状況や進捗状況が判断できるように、例えば、色分けしたり、表示位置を変えたりするようにしてもよい。
<レベルが異なる二人のユーザに対して同時に提示情報を提示する例>
図2は、レベルが異なる二人のユーザとして、母親(ママ)と子供(ゆうた)が、同時に情報提示装置を共用する例を示している。提示情報としては、家族(パパ、ママ、およびゆうた)の今日の予定が提示される。なお、図中の矩形枠内に記載されている文字は、文字表示として提示されることを表しており、吹き出し内に記載されている文字は、音声出力として提示されることを表している。以降の図においても同様とする。
同図では、二人のユーザが検知され、ママと子供に識別されて、ママのレベルが高い(提示情報をそのまま理解できるだけの知識レベル、言語能力を有する)、子供のレベルが低い(提示情報をそのまま理解できるだけの知識レベル、言語能力がない)と判断された場合を示している。
通常、文字表示を読んで理解することは、音声出力を聞いて理解することに比較して、ユーザにはより高いレベルが必要とされる。よって、この場合、レベルが高いユーザ(ママ)に対する情報提示としては、提示情報がそのまま文字表示される。一方、レベルが低いユーザ(子供)に対する情報提示としては、例えば、「シンガポール出張」が「がいこくでおしごと」に置換されるように、理解できないと想定される言葉が平易な言葉に置換され、それに応じて合成された音声が出力される。
なお、音声を出力するスピーカの指向性を調整できる場合、音声出力による情報提示の対象とするユーザ(いまの場合、子供)に向けて音声を出力するようにする。
図2に示された例によれば、レベルが異なる複数のユーザに対して、それぞれのレベルに応じ、一方に対しては文字表示で、他方に対しては音声出力で情報を同時に提示するようにしたので、レベルが異なる複数のユーザの理解を同時に深めることが可能となる。
<状態が異なる二人のユーザに対して同時に提示情報を提示する例>
図3は、状態が異なる二人のユーザとして、掃除機をかけている母親(ママ)と、情報提示装置のディスプレイを見ている子供(ゆうた)に対して、同時に提示情報を提示する例を示している。提示情報としては、家族(パパ、ママ、およびゆうた)の今日の予定が提示される。
同図では、二人のユーザ(ママと子供)が検知、識別されてレベルが判断され、さらにそれぞれの状態(ママがディスプレイを見ていない、子供がディスプレイを見ている)が判断された場合を示している。
通常、文字表示を読んで理解することは、音声出力を聞いて理解することに比較して、ユーザにはより高いレベルが必要とされる。しかしながら、いまの場合、レベルが高い方のユーザであるママはディスプレイを見ておらず、レベルが低い方のユーザである子供がディスプレイを見ているので、ユーザ(ママ)に対しては音声出力が行われ、ユーザ(子供)に対しては文字表示が行われる。
すなわち、ユーザ(ママ)に対する情報提示としては、提示情報に対応して合成された音声が出力される。一方、ユーザ(子供)に対する情報提示としては、例えば、「シンガポール出張」が「がいこくでおしごと」に置換されるように、ユーザ(子供)が理解できないと想定される言葉が平易な言葉に置換されるとともに、読むことができないと思われる漢字がひらがなに変換されてから文字表示として提示される。なお、音声を出力するスピーカの指向性を調整できるスピーカが複数設けられている場合、子供に対しても文字表示に対応する音声を合成して同時に出力するようにしてもよい。
図3に示された例によれば、状態が異なる複数のユーザに対して、それぞれの状態に応じ、一方に対しては文字表示で、他方に対しては音声出力で情報を同時に提示するようにしたので、状態が異なる複数のユーザに対して理解し易く情報を提示することが可能となる。
<ユーザの外国語学習レベルに応じて言葉を外国語に置換する例>
図4は、ユーザの外国語(図4の場合、英語)の学習レベルに応じて、提示情報の中の日本語の文章や単語を、学習済みの外国語に置換する例を示している。提示情報としては、ユーザ(ママ)の今日の予定が提示される。
同図の場合、ユーザが検知され、ママであると識別されて、その外国語学習レベルがユーザデータベースから読み出される。そして、ユーザ(ママ)の外国語学習レベルに応じて提示情報の「今日の予定」と「ジョギング」が、外国語「Today's Schedule」と「Jogging」に置換されて文字表示される。なお、ユーザの外国語学習レベルによっては、提示情報の全てを外国語に変換して文字表示してもよい。
なお、文字表示に合わせて、それに対応する音声を出力するようにしてもよい。なお、音声出力の外国語の部分については、外国語学習レベルに応じて、そのスピードを変更できるようにしてもよい。また、文字表示を全て日本語とし、音声を学習レベルに応じて部分的に外国語にしたり、全て外国語としたりしてもよい。さらに、全ての文字表記を外国語にして音声出力を日本語にしたり、全ての文字表記を日本語にして、音声出力を外国語にしたりしてもよい。
日本語の表記にして、外国語の音声出力にしたりしてもよい
なお、ユーザの外国語学習レベルについては、ユーザの日常の会話や操作履歴に基づいて推定される。ただし、予めユーザが自己の外国語学習レベル(例えば、英語の場合、中学1年生レベル、英検2級レベル、TOEFL500点レベル等)を設定するようにしたり、使用している学習テキストを設定して、その学習テキストから学習レベルを推定したりするようにしてもよい。
なお、提示した外国語に対するユーザの理解度が低いようであれば、推定した学習レベルを下げるようにしてもよい。さらに、ユーザと同じ学習レベルの他の学習者にみられる間違いの傾向を利用してもよい。例えば、ユーザと同じ学習レベルの他の学習者には、現在進行形の文章を間違えた場合に過去進行形の文章でも間違える傾向がある場合、ユーザが進行形の文章を間違えた場合には過去進行形の文章も表示するようにしてユーザの学習のサポートをできるようにしてもよい。
図4に示された例によれば、ユーザの学習レベルに応じて、提示情報の中の日本語を、学習済みの外国語に置換することができるので、ユーザは自己の学習の成果を確認することができる。なお、ユーザが自己の外国語能力を敢えて高めに設定しておけば、未学習の外国語が表示され得るので、学習意欲の向上につながる効果を期待できる。
なお、学習レベルが初歩段階である場合には、置換前の日本語と、置換後の外国語を併記するようにし、学習レベルがある程度まで上昇してから置換後の外国語のみを表示するようにしてもよい。
また、例えば、ユーザが日本語を学習している外国人である場合には、日本語の学習レベルに応じて、漢字をひらがなやカタカナに変換したり、振り仮名を併記して文字表記したりしてもよい。
<ユーザの興味に応じて提示情報に追加する情報を変更する例>
図5および図6は、提示情報の提示に追加して、提示情報に関連する情報(以下、追加情報と称する)を提示する場合の例を示している。
図5は、ユーザが検知され、パパであると識別され、そのレベルが判断され、さらにユーザ(パパ)の興味領域(経済)がユーザDB(データベース)から検索された場合を示している。
この場合、ユーザ(パパ)に対して、提示情報として「Toda's News AA国大統領来日」が文字表示される。さらに提示情報に関連する追加情報として、「AA国の経済 為替レート GDP等」が文字表示される。なお提示情報および追加情報の文字表示に対応して合成した音声を同時に出力するようにしてもよい。
図6は、ユーザが検知され、ママであると識別され、そのレベルが判断され、さらにユーザ(ママ)の興味領域(文化)がユーザDBから検索された場合を示している。この場合、ユーザ(ママ)に対して、提示情報として「Toda's News AA国大統領来日」が文字表示される。さらに提示情報に関連する追加情報として、「AA国の文化 料理ABC 工芸品XYZ等」が文字表示される。なお提示情報および追加情報の文字表示に対応して合成した音声を同時に出力するようにしてもよい。また近々旅行先として検討している特定の地域のニュースなど、家族の予定に関連する記事に対して、興味を引くために、あえてその記事の表示の際に、家族の該当予定を表示するなどをしてもよい。
なお、各ユーザの興味領域については、予め各ユーザが検索したカテゴリ、視聴したコンテンツ、入力した予定やメールの内容等からキーワードを抽出し、抽出したキーワードから興味領域を推定してユーザDBに登録しておけばよい。また、ユーザ自身が自己の興味領域をユーザDBに予め登録するようにしてもよい。
図5および図6に示された例によれば、ユーザの興味がある情報を提示情報に追加して提示することができる。なお、例えば、図5と図6にそれぞれ示されたユーザ(パパとママ)が同時に情報提示装置を共用してディスプレイを見ている場合には、各ユーザ向けの追加情報をユーザが存在している側に表示するようにしてもよい。すなわち、ディスプレイに向かってユーザ(パパ)が左側に、ユーザ(ママ)が右側に存在している場合、ディスプレイの中央に提示情報の文字表示を行い、その左側にパパ向け、その右側にママ向けの追加情報の文字表示を行うようにしてもよい。
なお、図1乃至図6を参照して上述した例は適宜組み合わせて実行してもよい。
<本技術の実施の形態である情報提示装置の構成例>
次に、図7は、上述した様々な例を実現するための本技術の実施の形態である情報提示装置の構成例を示している。
この情報提示装置10は、提示処理部11およびレベル推定部12を備える。提示処理部11は、ユーザに対して提示情報を提示する情報提示処理を実行するためのものであり、提示情報取得部21、ユーザ状態認識センサ22、ユーザ管理部23、出力制御部24、一般情報DB25、ディスプレイ26、およびスピーカ27を有する。
レベル推定部12は、ユーザのレベルを推定するレベル推定処理を実行するためのものであり、マイク31、ユーザ発話処理部32、ユーザ履歴処理部33、ユーザ分析部34、およびユーザDB35を有する。なお、ユーザDB35は、提示処理部11にも属する。
提示処理部11の提示情報取得部21は、出力制御部24からの要求に応じ、ユーザが使用する情報端末(例えば、スマートフォン、パーソナルコンピュータ等)や所定のサーバにアクセスし、ユーザに提示すべき提示情報を取得して出力制御部24に供給する。なお、情報提示装置10に対して直接的にユーザが提示情報を入力できるようにしてもよい。
ユーザ状態認識センサ22は、情報提示装置10の周囲を撮像するカメラと、音声を取得するマイクと、その映像や音声を解析し得る信号処理回路等からなる。ユーザ状態認識センサ22は、情報提示装置10の周囲に位置する一人以上のユーザを検知し、それが誰(パパ、ママ、子供等)であるかを識別し、識別したユーザの状況(例えば、ディスプレイ26を見ているか否か、文字表示や音声出力を理解しているか否か等)を判断してユーザ管理部23に通知する。ユーザが誰であるかを識別する方法としては、ユーザの顔等の特徴を予め登録しておいたり、各ユーザに固有のIDタグを付けたりするようにすればよい。
ユーザ管理部23は、ユーザ状態認識センサ22からの通知に基づき、情報提示装置10の周囲に誰が居てどのような状態であるのかを示す情報を出力制御部25に常時通知する。
出力制御部24は、ユーザ管理部23からに通知に基づき、情報提示装置10の周囲に居ると検知されたユーザに提示すべき提示情報を提示情報取得部21に要求し、それに応じて供給される提示情報を解析する。また、出力制御部24は、該ユーザのレベルをユーザDB35から取得し、一般知識DB25を参照することにより、該ユーザのレベルに応じて提示情報を適宜変換し、文字表示または音声表示の少なくとも一方によってユーザに提示させる。これと同時に、出力制御部24は、該ユーザのレベルに応じて適宜変換した提示情報に対応する音声を合成してユーザに提示させる。
さらに、出力制御部24は、該ユーザの興味領域をユーザDB35から取得し、提示情報に関連する情報であって、ユーザの興味領域に属する情報を一般知識DB25から取得してユーザに提示させる。
一般知識DB25には、提示情報中に存在し得る単語や文章と同じ意味を有する年齢等に応じて理解できる易しい表現、外国語による表現、各学年で習う漢字や英単語(各出版社の教科書毎)、外国語能力レベルに応じた語彙、シソーラスに基づいて関連付けられている情報(例えば、図5または図6に示された例におけるAA国の経済状況や文化情報等)が登録され、随時更新されている。
ディスプレイ26は、出力制御部24からの制御に従い、ユーザのレベルに応じて適宜変換された提示情報を文字表示する。スピーカ27は、出力制御部24からの制御に従い、ユーザのレベルに応じて適宜変換された提示情報に対応して合成された音声を出力する。なお、スピーカ27の指向性が調整できる場合、音声出力による提示の対象とするユーザに指向して音声を出力するようにする。
レベル推定部12のマイク31は、検知、識別したユーザの会話を収集してユーザ発話処理部32に出力する。ユーザ発話処理部32は、ユーザの会話を解析し、解析結果をユーザ分析部34に通知する。
ユーザ履歴処理部33は、ユーザが使用する情報端末にアクセスし、外部装置におけるユーザの操作履歴(検索履歴、コンテンツの再生履歴、予定、メール、文書等のテキスト入力履歴等)を取得してユーザ分析部34に供給する。
ユーザ分析部34は、ユーザ発話処理部32およびユーザ履歴処理部33からの入力に基づき、各ユーザのレベル(ユーザの年齢、知識レベル、言語能力を含む)を推定してユーザDB35に登録する。
ユーザDB35には、各ユーザの基本情報(生年月日、性別、職業、学年等)がユーザによって予め登録されている他、ユーザ分析部34によって推定された各ユーザのレベルが登録される。なお、ユーザは、自己や他のユーザのレベルを登録することもできる。例えば、ママが子供のレベルをユーザDB35に登録することもできる。また、ユーザが任意のタイミングで自己や他のユーザのレベルや履歴を参照できるようにしてもよい。
<情報提示装置10によるレベル推定処理>
次に、図8は、情報提示装置10のレベル推定部12によるレベル推定処理を説明するフローチャートである。
このレベル推定処理は、情報提示装置10を利用し始める初期段階と、その後、ユーザのレベルが変化し得る程度の周期(例えば、月毎)で実行される。
ステップS1において、レベル推定部12は、マイク31により、検知、識別したユーザの会話を収集してユーザ発話処理部32に出力する。ステップS2において、ユーザ発話処理部32は、ユーザの会話を解析し、解析結果をユーザ分析部34に通知する。なお、ユーザ発話処理部32によるユーザの会話の解析は、ユーザの会話の音声データがある程度溜まる毎に実行するようにしてもよい。
ステップS3において、ユーザ履歴処理部33は、ユーザが使用する情報端末にアクセスし、外部装置におけるユーザの操作履歴を取得してユーザ分析部34に供給する。ユーザ分析部34は、ユーザ発話処理部32およびユーザ履歴処理部33からの入力に基づき、各ユーザのレベルを推定してユーザDB35に登録する。以上でレベル推定処理は終了される。
以上説明したレベル推定処理によれば、ユーザ自身にレベルアップに自覚が無く、ユーザが自身や他のユーザのレベルを設定しなくても、各ユーザのレベルをユーザDB35に登録、更新できる。よって、子供のユーザが成長したり、語彙が増えたり、外国語学習レベルが上達した場合にも、それに対応して提示情報を提示することができる。
<情報提示装置10による情報提示処理>
次に、図9は、情報提示装置10の提示処理部11による情報提示処理を説明するフローチャートである。この情報提示処理は、上述したレベル推定処理と異なり、情報提示装置10が起動される毎に実行される。
ステップS11において、ユーザ状態認識センサ22は、情報提示装置10の周囲に位置する一人以上のユーザを検知、識別しするとともに、ユーザの状況を判断してユーザ管理部23に通知する。ユーザ管理部23は、ユーザ状態認識センサ22からの通知に基づき、情報提示装置10の周囲に誰が居てどのような状態であるのかを示す情報を出力制御部25に通知する。
ステップS12において、出力制御部24は、ユーザ管理部23からに通知に基づき、検知、識別されたユーザに提示すべき提示情報を提示情報取得部21に要求する。この要求に応じ、提示情報取得部21は、ユーザに提示すべき提示情報を取得して出力制御部24に供給する。
ステップS13において、出力制御部24は、ユーザDB35から該ユーザのレベルを取得し、該ユーザのレベルと状況に応じ、図1乃至図6に示された例のような提示方法を決定する。ステップS14において、出力制御部24は、決定した提示方法に従って提示情報をユーザに提示する(文字表示または音声出力の少なくとも一方を行う)。以上で情報提示処理は終了される。
なお、上述した情報提示処理からは省略したが、図5および図6に示されたように、提示情報に関連する、ユーザの興味領域に属する情報もユーザに提示するようにしてもよい。
以上に説明した情報提示処理によれば、一人以上の各ユーザに対してそれぞれのレベルに応じて適宜変換した提示情報を提示できる。よって、レベルが異なるユーザが同時に使用する場合であっても、各ユーザが提示情報に対する理解を深めることが可能となる。
<情報提示装置10のカーナビゲーション装置への適用>
次に、図10は、情報提示装置10をカーナビゲーション装置に適用した応用例を示している。
図10の例では、二人のユーザ(パパと子供)が検知、認識されてレベルが判断され、さらにユーザの状態(パパがディスプレイを見ていない(運転中である)、子供がディスプレイを見ている)が判断された場合を示している。
運転中であってディスプレイを見ることができないユーザ(パパ)に対しては、カーナビゲーション装置としての提示情報「500m先、左方向にXX城があります。」に対応する音声が合成されて出力される。一方、ディスプレイを見ているユーザ(ゆうた)に対しては、カーナビゲーション装置としての提示情報「500m先、左方向にXX城があります。」をユーザのレベルに応じて変換した「すこしいくとひだりがわに、おしろがみえるよ」が文字表示される。
なお、ユーザ(ゆうた)に対しては、さらに、文字表示「すこしいくとひだりがわに、おしろがみえるよ」と同じ音声を合成して出力するようにしてもよい。ただし、その場合には、ユーザ(パパ)に対する音声出力のタイミングとずらして出力するか、スピーカの指向方向を対象とするユーザに向けて出力するようにして、二人のユーザがそれぞれ音声を聞き易いようにすればよい。
情報提示装置10をカーナビゲーション装置に適用した場合、運転中のユーザに対しては提示情報を音声出力によって提示できる。一方、運転していないユーザに対しては、そのレベルに応じて変換した提示方法を文字表示によって提示できる。したがって、車中の全てのユーザの安全を損なうことなく、より分かり易く情報を提示することが可能となる。
なお、情報提示装置10の応用例としては、上述したカーナビゲーション装置の他、例えば、ロボット、サイネージ装置等に適用できる。
<上述した一連の処理をソフトウェアにより実行する場合について>
ところで、上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
図10は、上述した情報提示装置10による一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU(Central Processing Unit)101,ROM(Read Only Memory)102,RAM(Random Access Memory)103は、バス104により相互に接続されている。
バス104には、さらに、入出力インタフェース105が接続されている。入出力インタフェース105には、入力部106、出力部107、記憶部108、通信部109、およびドライブ110が接続されている。
入力部106は、キーボード、マウス、マイクロフォンなどよりなる。出力部107は、ディスプレイ、スピーカなどよりなる。記憶部108は、ハードディスクや不揮発性のメモリなどよりなる。通信部109は、ネットワークインタフェースなどよりなる。ドライブ110は、磁気ディスク、光ディスク、光磁気ディスク、又は半導体メモリなどのリムーバブルメディア111を駆動する。
以上のように構成されるコンピュータ100では、CPU101が、例えば、記憶部108に記憶されているプログラムを、入出力インタフェース105およびバス104を介して、RAM103にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU101)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディア211に記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
なお、コンピュータ100が実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであってもよいし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであってもよい。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
本技術は以下のような構成も取ることができる。
(1)
一人または複数のユーザそれぞれのレベルを特定する特定部と、
前記ユーザに対して提示するための提示情報を取得する取得部と、
取得された前記提示情報を各ユーザのレベルに応じて適宜変換する変換部と、
適宜変換後の前記提示情報を各ユーザに提示する提示部と
を備える情報提示装置。
(2)
前記特定部は、前記ユーザのレベルとして、ユーザの年齢、知識レベル、言語能力、または外国語学習レベルのうちの少なくとも一つを特定する
前記(1)に記載の情報提示装置。
(3)
前記特定部は、予めデータベースに登録されている情報に基づき、前記ユーザのレベルを特定する
前記(1)または(2)に記載の情報提示装置。
(4)
前記ユーザのレベルを推定して前記データベースに登録する推定部を
さらに備える前記(3)に記載の情報提示装置。
(5)
前記推定部は、前記ユーザのレベルを推定する処理を周期的に実行し、前記データベースにおける前記ユーザのレベルを更新する
前記(4)に記載の情報提示装置。
(6)
前記提示部は、適宜変換後の前記提示情報を文字表示または音声出力の少なくとも一方によって各ユーザに提示する
前記(1)から(5)のいずれかに記載の情報提示装置。
(7)
前記提示部は、レベルが異なる複数のユーザが同時に共用している場合、レベルが低い方のユーザに対して適宜変換後の前記提示情報を文字表示するとともに、レベルが高いい方のユーザに対して適宜変換後の前記提示情報を音声出力する
前記(1)から(5)のいずれかに記載の情報提示装置。
(8)
一人または複数の前記ユーザそれぞれの状態を検出する検出部をさらに備え、
前記提示部は、状態が異なる複数のユーザが同時に共用している場合、前記ユーザの状態に応じて、適宜変換後の前記提示情報を提示する
前記(1)から(5)のいずれかに記載の情報提示装置。
(9)
前記検出部は、前記ユーザがディスプレイを見ているか否かを検出し、
前記提示部は、ディスプレイを見ているユーザとディスプレイを見ていないユーザが同時に共用している場合、ディスプレイを見ているユーザに対して適宜変換後の前記提示情報を文字表示するとともに、ディスプレイを見ているユーザに対して適宜変換後の前記提示情報を音声出力する
前記(8)に記載の情報提示装置。
(10)
前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報内の言葉をより平易な言葉に変換する
前記(1)から(9)のいずれかに記載の情報提示装置。
(11)
前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報内の漢字をひらがな、カタカナ、または振り仮名付き漢字に変換する
前記(1)から(9)のいずれかに記載の情報提示装置。
(12)
前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報の一部または全部を外国語に変換する
前記(1)から(9)のいずれかに記載の情報提示装置。
(13)
情報提示装置の情報提示方法において、
前記情報提示装置による、
一人または複数のユーザそれぞれのレベルを特定する特定ステップと、
前記ユーザに対して提示するための提示情報を取得する取得ステップと、
取得された前記提示情報を各ユーザのレベルに応じて適宜変換する変換ステップと、 適宜変換後の前記提示情報を各ユーザに提示する提示ステップと
を含む情報提示方法。
10 情報提示装置, 11 提示処理部, 12 レベル推定部, 21 提示情報取得部, 22 ユーザ状態認識センサ, 23 ユーザ管理部, 24 出力制御部, 25 一般知識DB, 26 ディスプレイ, 27 スピーカ, 31 マイク, 32 ユーザ発話処理部, 33 ユーザ履歴処理部, 34 ユーザ分析部, 35 ユーザDB, 100 コンピュータ, 101 CPU

Claims (13)

  1. 一人または複数のユーザそれぞれのレベルを特定する特定部と、
    前記ユーザに対して提示するための提示情報を取得する取得部と、
    取得された前記提示情報を各ユーザのレベルに応じて適宜変換する変換部と、
    適宜変換後の前記提示情報を各ユーザに提示する提示部と
    を備える情報提示装置。
  2. 前記特定部は、前記ユーザのレベルとして、ユーザの年齢、知識レベル、言語能力、または外国語学習レベルのうちの少なくとも一つを特定する
    請求項1に記載の情報提示装置。
  3. 前記特定部は、予めデータベースに登録されている情報に基づき、前記ユーザのレベルを特定する
    請求項2に記載の情報提示装置。
  4. 前記ユーザのレベルを推定して前記データベースに登録する推定部を
    さらに備える請求項3に記載の情報提示装置。
  5. 前記推定部は、前記ユーザのレベルを推定する処理を周期的に実行し、前記データベースにおける前記ユーザのレベルを更新する
    請求項4に記載の情報提示装置。
  6. 前記提示部は、適宜変換後の前記提示情報を文字表示または音声出力の少なくとも一方によって各ユーザに提示する
    請求項2に記載の情報提示装置。
  7. 前記提示部は、レベルが異なる複数のユーザが同時に共用している場合、レベルが低い方のユーザに対して適宜変換後の前記提示情報を文字表示するとともに、レベルが高いい方のユーザに対して適宜変換後の前記提示情報を音声出力する
    請求項2に記載の情報提示装置。
  8. 一人または複数の前記ユーザそれぞれの状態を検出する検出部をさらに備え、
    前記提示部は、状態が異なる複数のユーザが同時に共用している場合、前記ユーザの状態に応じて、適宜変換後の前記提示情報を提示する
    請求項2に記載の情報提示装置。
  9. 前記検出部は、前記ユーザがディスプレイを見ているか否かを検出し、
    前記提示部は、ディスプレイを見ているユーザとディスプレイを見ていないユーザが同時に共用している場合、ディスプレイを見ているユーザに対して適宜変換後の前記提示情報を文字表示するとともに、ディスプレイを見ているユーザに対して適宜変換後の前記提示情報を音声出力する
    請求項8に記載の情報提示装置。
  10. 前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報内の言葉をより平易な言葉に変換する
    請求項2に記載の情報提示装置。
  11. 前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報内の漢字をひらがな、カタカナ、または振り仮名付き漢字に変換する
    請求項2に記載の情報提示装置。
  12. 前記変換部は、前記ユーザのレベルに応じ、取得された前記提示情報の一部または全部を外国語に変換する
    請求項2に記載の情報提示装置。
  13. 情報提示装置の情報提示方法において、
    前記情報提示装置による、
    一人または複数のユーザそれぞれのレベルを特定する特定ステップと、
    前記ユーザに対して提示するための提示情報を取得する取得ステップと、
    取得された前記提示情報を各ユーザのレベルに応じて適宜変換する変換ステップと、 適宜変換後の前記提示情報を各ユーザに提示する提示ステップと
    を含む情報提示方法。
JP2018239712A 2016-08-25 2018-12-21 情報提示装置、および情報提示方法 Active JP7087987B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016164364 2016-08-25
JP2016164364 2016-08-25

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018535605A Division JP6460286B2 (ja) 2016-08-25 2017-08-10 情報提示装置、および情報提示方法

Publications (3)

Publication Number Publication Date
JP2019071089A true JP2019071089A (ja) 2019-05-09
JP2019071089A5 JP2019071089A5 (ja) 2020-08-27
JP7087987B2 JP7087987B2 (ja) 2022-06-21

Family

ID=61244869

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2018535605A Active JP6460286B2 (ja) 2016-08-25 2017-08-10 情報提示装置、および情報提示方法
JP2018239712A Active JP7087987B2 (ja) 2016-08-25 2018-12-21 情報提示装置、および情報提示方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2018535605A Active JP6460286B2 (ja) 2016-08-25 2017-08-10 情報提示装置、および情報提示方法

Country Status (4)

Country Link
US (1) US11495209B2 (ja)
EP (1) EP3506070B1 (ja)
JP (2) JP6460286B2 (ja)
WO (1) WO2018037951A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6460286B2 (ja) * 2016-08-25 2019-01-30 ソニー株式会社 情報提示装置、および情報提示方法
JP7419682B2 (ja) * 2019-07-01 2024-01-23 コニカミノルタ株式会社 画像形成装置、及び、画像形成システム
KR20210014909A (ko) * 2019-07-31 2021-02-10 삼성전자주식회사 대상의 언어 수준을 식별하는 전자 장치 및 방법
US11875133B2 (en) * 2021-02-02 2024-01-16 Rovi Guides, Inc. Methods and systems for providing subtitles
WO2023037569A1 (ja) * 2021-09-08 2023-03-16 日本電気株式会社 文章理解支援装置、文章理解支援方法およびプログラム記憶媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2001282409A (ja) * 2000-03-30 2001-10-12 Brother Ind Ltd ヘルプ情報表示装置及びヘルプ情報表示方法
JP2010020616A (ja) * 2008-07-11 2010-01-28 Fujifilm Corp コンテンツ表示装置、コンテンツ表示方法およびプログラム
JP2011227849A (ja) * 2010-04-23 2011-11-10 Jvc Kenwood Corp 文章変換装置、文章変換方法、プログラムおよびデータ構造
JP6460286B2 (ja) * 2016-08-25 2019-01-30 ソニー株式会社 情報提示装置、および情報提示方法

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05265677A (ja) 1992-03-18 1993-10-15 Hitachi Ltd 情報提供システム
JP3933449B2 (ja) * 2001-11-22 2007-06-20 株式会社東芝 コミュニケーション支援装置
US7243105B2 (en) * 2002-12-31 2007-07-10 British Telecommunications Public Limited Company Method and apparatus for automatic updating of user profiles
JPWO2009001828A1 (ja) * 2007-06-26 2010-08-26 日本電気株式会社 端末、機能起動方法及び端末用プログラム
JP5720133B2 (ja) * 2010-07-13 2015-05-20 ソニー株式会社 情報処理装置、情報処理方法およびコンピュータプログラム
US10875525B2 (en) * 2011-12-01 2020-12-29 Microsoft Technology Licensing Llc Ability enhancement
JP5994968B2 (ja) * 2012-01-12 2016-09-21 シャープ株式会社 コンテンツ利用装置、制御方法、プログラム、及び記録媒体
KR101874836B1 (ko) * 2012-05-25 2018-08-02 삼성전자주식회사 음향 보정이 가능한 디스플레이 장치, 청각 레벨 제어 장치 및 방법
US8761574B2 (en) * 2012-10-04 2014-06-24 Sony Corporation Method and system for assisting language learning
JP2015018163A (ja) * 2013-07-12 2015-01-29 船井電機株式会社 映像表示装置及び映像表示制御方法
JP2015146550A (ja) * 2014-02-04 2015-08-13 ソニー株式会社 情報処理装置、情報処理方法、及びプログラム
CN107003823B (zh) * 2014-12-25 2020-02-07 麦克赛尔株式会社 头戴式显示装置及其操作方法
KR20160082078A (ko) * 2014-12-30 2016-07-08 한국전자통신연구원 교육 서비스 시스템
US20170046970A1 (en) * 2015-08-11 2017-02-16 International Business Machines Corporation Delivering literacy based digital content
US10223613B2 (en) * 2016-05-31 2019-03-05 Microsoft Technology Licensing, Llc Machine intelligent predictive communication and control system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000278626A (ja) * 1999-03-29 2000-10-06 Sanyo Electric Co Ltd マルチ画面音声出力制御装置
JP2001282409A (ja) * 2000-03-30 2001-10-12 Brother Ind Ltd ヘルプ情報表示装置及びヘルプ情報表示方法
JP2010020616A (ja) * 2008-07-11 2010-01-28 Fujifilm Corp コンテンツ表示装置、コンテンツ表示方法およびプログラム
JP2011227849A (ja) * 2010-04-23 2011-11-10 Jvc Kenwood Corp 文章変換装置、文章変換方法、プログラムおよびデータ構造
JP6460286B2 (ja) * 2016-08-25 2019-01-30 ソニー株式会社 情報提示装置、および情報提示方法

Also Published As

Publication number Publication date
EP3506070A4 (en) 2019-09-18
JP7087987B2 (ja) 2022-06-21
EP3506070B1 (en) 2021-12-15
JPWO2018037951A1 (ja) 2019-02-14
US20210383793A1 (en) 2021-12-09
US11495209B2 (en) 2022-11-08
EP3506070A1 (en) 2019-07-03
JP6460286B2 (ja) 2019-01-30
WO2018037951A1 (ja) 2018-03-01

Similar Documents

Publication Publication Date Title
JP6460286B2 (ja) 情報提示装置、および情報提示方法
WO2021082982A1 (zh) 基于图谱化知识库的问答方法、设备、存储介质及装置
JP2017527926A (ja) 社交的会話入力に対するコンピュータレスポンスの生成
CN105224581B (zh) 在播放音乐时呈现图片的方法和装置
TW200900967A (en) Multi-mode input method editor
US20100235308A1 (en) Text analysis device and method and program
WO2020256838A1 (en) Contextual biasing for speech recognition
US10089898B2 (en) Information processing device, control method therefor, and computer program
US20130035929A1 (en) Information processing apparatus and method
US11334715B2 (en) Topic-identifying information processing device, topic-identifying information processing method, and topic-identifying computer program product
Kaushik et al. Automatic sentiment detection in naturalistic audio
US11676607B2 (en) Contextual denormalization for automatic speech recognition
CN107844531B (zh) 答案输出方法、装置和计算机设备
CN112382295A (zh) 语音识别方法、装置、设备及可读存储介质
CN113038175B (zh) 视频处理方法、装置、电子设备及计算机可读存储介质
CN110647613A (zh) 一种课件构建方法、装置、服务器和存储介质
CN113254814A (zh) 网络课程视频打标签方法、装置、电子设备及介质
CN109002454B (zh) 一种确定目标单词的拼读分区的方法和电子设备
US10540987B2 (en) Summary generating device, summary generating method, and computer program product
Rai et al. A Deep Dive into the Disparity of Word Error Rates across Thousands of NPTEL MOOC Videos
Pitcher-Cooper et al. You Described, We Archived: A rich audio description dataset
US20220245344A1 (en) Generating and providing information of a service
US20240012998A1 (en) Information processing device, information processing method, and computer program product
Avdelidis et al. Designing optimal phoneme-wise fuzzy cluster analysis
Fauzan INDIRECT SPEECH ACT IN ADVERTISEMENT SELECTED VIDEOS ON “GRAMMARLY” YOUTUBE CHANNEL

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200706

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210831

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220315

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220523

R151 Written notification of patent or utility model registration

Ref document number: 7087987

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151