JP2014002470A - 処理装置、処理システム、出力方法およびプログラム - Google Patents
処理装置、処理システム、出力方法およびプログラム Download PDFInfo
- Publication number
- JP2014002470A JP2014002470A JP2012136097A JP2012136097A JP2014002470A JP 2014002470 A JP2014002470 A JP 2014002470A JP 2012136097 A JP2012136097 A JP 2012136097A JP 2012136097 A JP2012136097 A JP 2012136097A JP 2014002470 A JP2014002470 A JP 2014002470A
- Authority
- JP
- Japan
- Prior art keywords
- user
- unit
- search result
- knowledge
- knowledge level
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 55
- 238000012545 processing Methods 0.000 title claims abstract description 50
- 238000013500 data storage Methods 0.000 claims abstract description 38
- 230000014509 gene expression Effects 0.000 claims description 103
- 230000009471 action Effects 0.000 claims description 42
- 238000007726 management method Methods 0.000 description 41
- 230000000694 effects Effects 0.000 description 37
- 230000008569 process Effects 0.000 description 18
- 238000012797 qualification Methods 0.000 description 18
- 230000006399 behavior Effects 0.000 description 17
- 238000010586 diagram Methods 0.000 description 14
- 238000003384 imaging method Methods 0.000 description 10
- 230000010365 information processing Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000004044 response Effects 0.000 description 6
- 208000011580 syndromic disease Diseases 0.000 description 6
- 239000000284 extract Substances 0.000 description 5
- 230000008859 change Effects 0.000 description 4
- 241001672694 Citrus reticulata Species 0.000 description 3
- 239000003795 chemical substances by application Substances 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000002452 interceptive effect Effects 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000007796 conventional method Methods 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000036651 mood Effects 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/903—Querying
- G06F16/9032—Query formulation
- G06F16/90332—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
- Document Processing Apparatus (AREA)
Abstract
【課題】ユーザの知識レベルに合った表現方法でユーザに情報を提供することができる処理装置を提供する。
【解決手段】検索結果を取得する検索結果取得部と、所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、ユーザに検索結果として提供する提供内容を表現する表現方法であって、提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と、ユーザデータ記憶部を参照し、ユーザの知識レベルを特定する知識レベル特定部と、表現データ記憶部において、知識レベル特定部により特定された知識レベルに対応付けられている表現データであって、検索結果取得部が取得した前記検索結果に含まれる提供内容を表現する表現データに基づいて、検索結果を編集する編集部とを備える。
【選択図】図2
【解決手段】検索結果を取得する検索結果取得部と、所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、ユーザに検索結果として提供する提供内容を表現する表現方法であって、提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と、ユーザデータ記憶部を参照し、ユーザの知識レベルを特定する知識レベル特定部と、表現データ記憶部において、知識レベル特定部により特定された知識レベルに対応付けられている表現データであって、検索結果取得部が取得した前記検索結果に含まれる提供内容を表現する表現データに基づいて、検索結果を編集する編集部とを備える。
【選択図】図2
Description
本発明は、処理装置、処理システム、出力方法およびプログラムに関する。
従来、ユーザのリアルタイムなパーソナリティを特定し、特定したパーソナリティに対応させてキャラクタ型エージェントの振る舞いを変化させ、よりスムーズなユーザと装置の対話を可能とする対話装置が知られている。ここで言うパーソナリティとは、ユーザの気分や、心理状態を数値化したものである。このような対話装置として、例えば特許文献1には、ユーザがエージェントを表示させた時間に関する表示時間情報と、質問に対する回答難易度と、音声処理装置からの計測結果などのパーソナリティに基づいて、例えばユーザが支配的なパーソナリティ状態なのか、服従的なパーソナリティ状態なのかを評価する装置が開示されている。
しかしながら、例えば、「EC」という表現に対しては、この表現のみでその内容を理解できるユーザがいる一方で、「インターネット上での商売」など補足説明を提供しなければその内容を理解できないユーザもいる。また、補足説明までは必要としないが、フルスペル「Electric Commerce」や対応する日本語「電子商取引」を提供することでその内容を理解できるユーザもいる。
「EC」を理解できる人物に対し上記のような補足説明を行うと、説明を受けた人物は煩わしいと感じてしまう。一方で、補足説明を必要とする人物に単に「EC」のように専門性の高い情報を提供しても、その内容を理解することができない。このように、対話者の知識レベルに合わない情報を提供すると、対話のスムーズな進行を妨げてしまう。
このような状況において、従来技術においては、ユーザの知識レベルが考慮されていないため、知識レベルに合った表現方法でユーザに情報を提供することができないという問題があった。
本発明は、上記に鑑みてなされたものであって、ユーザの知識レベルに合った表現方法でユーザに情報を提供することができる処理装置、処理システム、出力方法およびプログラムを提供することを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、処理装置であって、ユーザの音声を認識する音声認識部と、前記音声認識部で認識された音声に基づいて検索された検索結果を取得する検索結果取得部と、所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、ユーザに前記検索結果として提供する提供内容を表現する表現方法であって、前記提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と、前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定部と、前記表現データ記憶部において、前記知識レベル特定部により特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得部が取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集部と、前記編集部による編集後の前記検索結果を出力する出力部とを備えることを特徴とする。
また、本発明は、処理装置であって、ユーザの有する知識情報を、ユーザに対応付けて記憶するユーザ辞書記憶部と、ユーザの音声を認識する音声認識部と、前記音声認識部で認識された音声に基づいて検索された検索結果であって、前記ユーザ辞書記憶部に記憶されている前記知識情報以外の検索結果を取得する検索結果取得部とを備えることを特徴とする。
また、本発明は、処理システムであって、ユーザの音声を認識する音声認識部と、前記音声認識部で認識された音声に基づいて検索された検索結果を取得する検索結果取得部と、所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、ユーザに前記検索結果として提供する提供内容を表現する表現方法であって、前記提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と、前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定部と、前記表現データ記憶部において、前記知識レベル特定部により特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得部が取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集部と、前記編集部による編集後の前記検索結果を出力する出力部とを備えることを特徴とする。
また、本発明は、処理装置で実行される出力方法であって、前記処理装置は、所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、ユーザに提供する提供内容を表現する表現方法であって、前記提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部とを備え、ユーザの音声を認識する音声認識ステップと、前記音声認識ステップにおいて認識された音声に基づいて検索された検索結果を取得する検索結果取得ステップと、前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定ステップと、前記表現データ記憶部において、前記知識レベル特定ステップにおいて特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得ステップにおいて取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集ステップと、前記編集ステップにおける編集後の前記検索結果を出力する出力ステップとを含むことを特徴とする。
また、本発明は、プログラムであって、所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、ユーザに提供する提供内容を表現する表現方法であって、前記提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部とを備えたコンピュータに、ユーザの音声を認識する音声認識ステップと、前記音声認識ステップにおいて認識された音声に基づいて検索された検索結果を取得する検索結果取得ステップと、前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定ステップと、前記表現データ記憶部において、前記知識レベル特定ステップにおいて特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得ステップにおいて取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集ステップと、前記編集ステップにおける編集後の前記検索結果を出力する出力ステップとを実行させるためのプログラムである。
本発明によれば、ユーザの知識レベルに合った表現方法でユーザに情報を提供することができるという効果を奏する。
以下に添付図面を参照して、処理装置、処理システム、出力方法およびプログラムの実施の形態を詳細に説明する。
図1は、本実施形態の処理システム1の構成の一例を示すブロック図である。図1に示すように、処理システム1は、処理装置の一例としてのネットワークエージェント(以下、「NA」と称する)10と、検索サーバ101とを備え、ユーザU1とユーザU2の会話において、検索サーバ101を含むWebクラウドを用いて会話をサポートするシステムである。NA10と検索サーバ101は、インターネット107を介して接続されている。
検索サーバ101は、Web上で公開されている情報を検索するものであり、例えば、Web上で検索エンジン機能を提供するものなどであればよい。具体的には、検索サーバ101は、NA10から検索クエリを受信し、受信した検索クエリに従ってWeb上で公開されている情報を検索し、検索結果をNA10に送信する。ここで、検索サーバ101が検索する情報は、Webの動的ページ上で公開されている動的情報であっても、Webの静的ページ上で公開されている静的情報であってもよい。なお、図1に示す例では、検索サーバを1台例示しているが、これに限定されるものではなく、何台であってもよい。
NA10は、Web上で公開されている情報や機能にアクセスする端末である。本実施形態では、NA10は、スマートフォンやタブレットなど携帯型の端末を想定しているが、これに限定されるものではなく、インターネットにアクセス可能な装置であればよい。
本実施形態では、ユーザU1がNA10を所有しており、ユーザU1がユーザU2との対話にNA10を使用する場合を想定してNA10(処理システム1)について説明するが、ユーザが単独でNA10を使用することもできるし、3人以上のユーザが共用してNA10を使用することもできる。
ユーザU1とユーザU2が例えば医師と患者であって、医学の知識レベルが異なるとする。この場合には、処理システム1は、同一の内容の情報(検索結果)を提供するに際し、医師に対しては専門性の高い表現方法を用いた情報(表現データ)を提供し、患者に対しては医学の知識がなくとも理解可能な表現方法を用いた情報を提供する。このように、本実施の形態にかかる処理システム1は、ユーザの知識レベルに応じた表現方法を用いた情報をユーザに提供することができる。
また、「DNSの設定をした」というユーザU1の発言に対し、ユーザU2が「DNS?」と聞き返した場合に、NA10はWebクラウドから「DNS」の説明内容を検索結果として受け取り、これをユーザU2に提示することができる。すなわち、処理システム1は、ユーザU1への「DNS」の説明をユーザU2に代わって行うことができる。
NA10は、図1に示すように、音声入力部11と、GPS(Global Positioning System)受信部13と、通信部15と、撮像部16と、記憶部17と、出力部19と、制御部20とを備えている。
音声入力部11は、ユーザが発する音声等をNA10に入力するものであり、マイクロフォンなどの集音器により実現できる。GPS受信部13は、ユーザの位置を示す位置情報を受信する。GPS受信部13は、具体的には、GPS衛星からの電波を受信するものであり、GPS受信機などにより実現できる。
通信部15は、インターネット107を介して検索サーバ101などの外部機器と通信するものであり、NIC(Network Interface Card)などの通信装置により実現できる。撮像部16は、当該NA10のユーザや、ユーザの周囲環境を撮像するものであり、デジタルカメラ、ステレオカメラなどの撮像装置により実現できる。
記憶部17は、NA10で実行される各種プログラムやNA10で行われる各種処理に使用されるデータなどを記憶する。記憶部17は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、ROM(Read Only Memory)、及びRAM(Random Access Memory)などの磁気的、光学的、又は電気的に記憶可能な記憶装置により実現できる。
出力部19は、制御部20の処理結果を出力するものであり、液晶ディスプレイやタッチパネル式ディスプレイなどの表示出力用の表示装置、スピーカなどの音声出力用の音声装置などで実現してもよいし,これらの装置を併用して実現してもよい。制御部20は、NA10の各部を制御するものである。
図2は、記憶部17および制御部20の詳細な機能構成を示すブロック図である。制御部20は、個人情報取得部200と、音声認識部201と、状況認識部202と、行動認識部203と、テーブル管理部204と、ユーザ辞書管理部205と、検索要求部206と、検索結果取得部207と、知識レベル特定部208と、検索結果編集部209と、出力制御部210とを有している。
個人情報取得部200、音声認識部201、状況認識部202、行動認識部203、テーブル管理部204、ユーザ辞書管理部205、検索要求部206、検索結果取得部207、知識レベル特定部208、検索結果編集部209および出力制御部210は、例えば、CPU(Central Processing Unit)などの処理装置にプログラムを実行させること、即ち、ソフトウェアにより実現してもよいし、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、ソフトウェア及びハードウェアを併用して実現してもよい。
また、記憶部17は、専門属性テーブル170と、活動情報テーブル171と、ユーザ辞書172と、表現データテーブル173とを有している。図3は、専門属性テーブル170のデータ構成を模式的に示す図である。専門属性テーブル170は、ユーザが有する知識を記憶している。ここで、ユーザが有する知識とは、例えば、情報処理、医学といったある分野における専門知識である。専門属性テーブル170は、ユーザが有する知識分野と、所定の知識分野に関して、どの程度の知識を有するかの指標である知識レベルとをユーザに対応付けて記憶している。
具体的には、専門属性テーブル170は、図3に示すように、ユーザを識別するユーザIDと、ユーザが保有する資格と、知識分野と、知識レベルと、共通知識とを対応付けて記憶している。
共通知識は、各知識レベルのユーザが有するであろう知識である。すなわち、共通知識は、知識レベルに応じて定まるデータである。各知識レベルに対応する共通知識は、知識レベルに対応付けて設計者等により予め記憶部17に記憶されているものとする。例えば、知識レベルが所定の資格に対応する場合には、知識レベルに対応する共通知識は、資格取得のためのガイドラインや、資格試験の過去問題や解説書を参照して作成され、記憶部17に登録されてもよい。例えば、「資格Lv1」を有するユーザは、「DNS」や「ホスト名」について理解しているとみなされ、これらの情報が「資格Lv1」に対応する共通知識として記憶部17に登録される。
なお、図3に示す専門属性テーブル170のデータ構成は、一例であり、他の例としては、知識分野と、知識レベルと、共通知識とを対応付けたテーブルを、専門属性テーブル170と別に設けることとし、専門属性テーブル171は、ユーザIDと、資格と、知識分野と、知識レベルとを対応付けて記憶することとしてもよい。
このように、専門属性テーブル170は、ユーザIDから、ユーザの所定の知識分野における知識レベルを特定することができ、さらに特定した知識レベルにおける共通知識を特定できるようなデータ構成であればよく、テーブルは1つでもよく、複数でもよい。
図4は、活動情報テーブル171のデータ構成を模式的に示す図である。活動情報テーブル171は、ユーザの活動により得られた知識をユーザ毎に蓄積している。具体的には、活動情報テーブル171は、図4に示すように、ユーザIDに対応付けて、活動情報として、知識分野と、個人知識とを記憶している。
ここで、個人知識とは、ユーザが、例えば会話やメール、fecebookなどから実際に取得した知識である。すなわち、共通知識が、例えば資格などから客観的にユーザが有するであろうと想定される知識であるのに対し、個人知識は、ユーザが実際に有する知識である。すなわち、共通知識は、知識レベルの等しいユーザが共通して有すると想定される知識であるのに対し、個人知識は、ユーザ毎に異なる知識である。
図3に示す専門属性テーブル170において、知識レベル1に対応付けられているユーザID「A」のユーザであっても、「インターネット」を理解している場合には、図4に示すように、「インターネット」が個人知識として活動情報テーブル171に登録される。
また、各個人知識は、個人知識が属する知識分野に対応付けて記憶されている。例えば、「インターネット」、「DNS(Domain Name System)」など、情報処理の専門用語は、知識分野「情報処理」に対応付けて活動情報テーブル171に記憶されている。
なお、専門属性テーブル170および活動情報テーブル171は、制御部20により登録され、また適宜更新される。専門属性テーブル170および活動情報テーブル171の登録および更新の処理については、後述する。
ユーザ辞書172は、各ユーザに関する共通知識や個人知識などユーザが有する知識データ、ユーザに関する情報などを記憶している。ユーザ辞書172は、制御部20により、専門属性テーブル170および活動情報テーブル171を参照して作成される。ユーザ辞書172については後述する。
図5は、表現データテーブル173のデータ構成を模式的に示す図である。表現データテーブル173は、同一の内容を異なる表現方法で表現した複数の表現データを、知識分野毎に、異なる知識レベルに対応付けて記憶している。具体的には、表現データテーブル173は、同一内容を表現する表現データであって、知識レベル毎に表現方法の異なる表現データを、知識分野、知識レベルに対応付けて記憶している。
例えば、「かぜ」という内容に関しては、患者に相当する知識レベル1に対し「かぜ」という表現データが対応付けられており、医師に相当する知識レベル3に対し「風邪症候群」という表現データが対応付けられている。
なお、同一内容を表現する複数の表現データは、設計者等により適切と判断される知識レベルに対応付けられて表現データ記憶部173に予め登録されているものとする。さらに、表現データ記憶部173の表現データおよび表現データと知識レベルの対応関係は、制御部20等により、適宜更新されてもよい。
図2に戻り、制御部20の個人情報取得部200は、外部からユーザに関する情報を取得する。なお、個人情報は、ユーザ辞書記憶部170の登録および更新に利用される。
個人情報取得部200は、具体的には、例えば、ユーザが所有する携帯電話等の機器からユーザの属性情報を取得する。ここで、属性情報とは、ユーザの氏名、年齢、性別、趣味、出身、学歴、経歴、関連情報などがある。また、趣味については、文学、音楽、芸能、運動などの分野ごとの詳細な趣味を含んでいる。出身は、国を含む住所、使用言語を含んでいる。学歴は、学校、学科、免許、資格を含んでいる。経歴は、職業、勤務先、勤務先住所を含んでいる。関連情報は、所属組織、ボランティア、友人関係を含んでいる。
個人情報取得部200はまた、ユーザの行動に起因した行動関連情報を取得する。具体的には、個人情報取得部200は、行動関連情報として、ユーザが所有する携帯電話等からユーザが送受信したメールや、電話の内容を取得する。個人情報取得部200はまた、行動関連情報として、ユーザが所有する機器から閲覧または作成したブログ、fece bookやmixiなどのSNS(social networking service)、twitterやmixiボイスなどのつぶやきを取得する。個人情報取得部200はさらに、行動関連情報として、ユーザの会話の内容を取得する。会話の内容については、音声認識部201による音声認識結果などから取得する。
音声認識部201は、入力された音声に対し音声認識処理を施し、音声認識結果を得る。具体的には、音声認識部201は、音声入力部11から入力された音声の特徴量を抽出し、記憶部17に記憶されている音声認識用の辞書データなどを用いて、抽出した特徴量をテキスト(文字列)に変換する。音声認識手法の詳細については、例えば、特開2004−45591号公報や特開2008−281901号公報などに開示されている公知の手法を用いることができるため、ここでは、詳細な説明は省略する。
状況認識部202は、外界状況を認識する。ここで、外界状況は、現在のユーザ位置、天気、気温、時刻など、ユーザの存在する環境に関する状況である。状況認識部202は、GPS受信部13が受信するGPS衛星からの電波を用いて、NA10のユーザの現在位置を認識する。また、状況認識部202は、認識したユーザの現在位置を基に、後述する検索要求部206に天気、気温、又は時刻のWeb検索を要求し、後述する検索結果取得部207により取得されたWeb検索の検索結果からユーザの現在位置の天気、気温、又は時刻を認識する。
行動認識部203は、例えばGPS受信部13や撮像部16などの検出センサによる検出結果、外部から入力される情報および記憶部17に記憶されている情報に基づいて、ユーザの行動を認識する。
行動認識部203は、撮像部16により撮像されたユーザの画像に基づいて、「ユーザが手を伸ばした」、「ユーザが立ち上がった」、「ユーザが歩き出した」、「ユーザが首を傾けた」などの行動を認識する。なお、このようなジェスチャ認識技術については、例えば特許第4031255号公報や、特許第4153818号公報に開示されている技術を参照することができる。行動認識部203は、さらにGPS受信部13が受信する位置情報の時間変化に基づいて、「歩行中」または「電車に乗車中」であることを認識する。
行動認識部203は、GPS受信部13が受信する位置情報の時間変化から得られる移動速度に基づいて、電車での移動と、歩行とを判別する。さらに、行動認識部203は、位置情報と、記憶部17に記憶されている地図情報とを照合することにより、移動経路が道路上であるか線路上であるかを判別してもよい。これにより、電車での移動と徒歩での移動とを区別することができる。行動認識部203はさらに、撮像部18により得られる周辺画像から電車内の映像か否かにより両者を判別してもよい。
行動認識部203は、音声入力部11に入力された音声に基づいて、複数の人物の声が入力された場合に、「会話中」であることを認識する。行動認識部203はさらに、撮像部16により複数の人物の撮像画像が得られたか否かを考慮して、「会話中」か否かを判断してもよい。
行動認識部203はまた、音声認識部201により得られた「わからない」という音声認識結果と併せて、「ユーザが首を傾けた」という行動を認識した場合には、これらを統合してユーザの行動として認識する。なお、音声とジェスチャの統合認識については、例えば特表2010−511958号公報を参照することができる。
行動認識部203はまた、撮像部16により撮像されたユーザの画像に基づいて、「手を伸ばしみかんを掴んだ」ことを認識する。具体的には、行動認識部203は、ユーザが撮像された動画像または時系列に沿って得られた静止画像から、ユーザの手がユーザの胴体位置から遠ざかる方向への移動を検知し、さらに手の移動先にみかんが検知された場合に、「手を伸ばしみかんを掴んだ」と認識する。以上のように、音声入力部11、GPS受信部13および撮像部16は、外界の状況を検出する検出センサとして機能する。
テーブル管理部204は、記憶部17に記憶されている専門属性テーブル170、活動情報テーブル171および表現データテーブル173への情報の登録および各テーブルの情報の更新を行う。
テーブル管理部204は、具体的には、個人情報取得部200が取得した属性情報に基づいて、専門属性テーブル170に、ユーザIDに対応付けて、ユーザの資格、知識分野、知識レベルおよび共通知識を登録する。
テーブル管理部204は、また、個人情報取得部200が取得した行動関連情報や、音声認識部201、状況認識部202および行動認識部203による認識結果に基づいて、活動情報テーブル171にユーザの活動情報を登録する。テーブル管理部204は、例えば、ユーザID「C」で識別されるユーザが送信したメールに「Domain Name System」という単語が含まれていた場合には、これをユーザID「C」に対応付けて個人知識として活動情報テーブル171に登録する。また、テーブル管理部204は、ユーザID「C」で識別されるユーザの会話において、「DNS」という単語が音声認識結果として得られた場合には、これをユーザID「C」に対応付けて個人知識として活動情報テーブル171に登録する。
テーブル管理部204はさらに、例えば、DNS関連の情報を100回以上検索または参照しているなど、履歴の統計情報を作成し、これを個人知識として活動情報テール171に登録してもよい。
さらに、個人情報取得部200は、定期的に個人情報を取得し、テーブル管理部204は、個人情報取得部200が個人情報を取得する度に、取得した個人情報に基づいて、適宜専門属性テーブル170および活動情報テーブル171を更新してもよい。
ユーザ辞書管理部205は、専門属性テーブル170および活動情報テーブル171を参照し、各ユーザのユーザ辞書を作成する。ユーザ辞書管理部205は、具体的には、専門属性テーブル170から、ユーザの属性情報を取得する。そして、ユーザ辞書管理部205は、取得した属性情報に対応する共通知識を取得し、これをユーザ辞書に登録する。さらに、ユーザ辞書管理部205は、個人知識テール171から個人知識を取得し、これをユーザ辞書に登録する。
図6は、ユーザ辞書管理部205の処理を説明するための図である。図6を参照しつつ、ユーザID「B」で識別されるユーザ(以下、ユーザBと称する)の「DNS」に関するユーザ辞書を作成する処理について説明する。ここで、「DNS」は情報処理の知識分野に属する単語であり、ユーザBは、情報処理の知識分野における資格である、資格Lv1を保有することとする。
ユーザ辞書管理部205はまず、専門属性テーブル170を参照し、ユーザID「B」の知識分野「情報処理」に対応付けられている資格、知識レベル、共通知識を取得する。ユーザBが「資格Lv1」を保有しているので、ユーザ辞書管理部205は、「資格Lv1」を保有するユーザが理解しているとみなされている「DNS」と「ホスト名」に関する情報を共通知識としてユーザBのユーザ辞書に登録する。
ユーザ辞書管理部205はさらに、活動情報テーブル171を参照し、知識分野「情報処理」に対応付けられている個人知識のうち「DNS」に関するものを取得する。ユーザ辞書管理部205は、取得した情報に基づいてユーザ辞書172を作成し、これを記憶部17に格納する。
これにより、図6に示すように、ユーザID「B」に対し、「DNS」に関しては、ユーザID「B」のユーザが保有する資格に対応付けられた「DNS」に関する共通知識と、DNSに関する活動情報とを含むユーザ辞書が作成される。なお、所定の活動情報に関する投稿回数や体験回数が多ければ、この活動情報に対する体験が濃いものであるとみなすことができる。
検索要求部206は、音声認識部201により得られた音声認識結果と、行動認識部203により得られた行動認識結果とを取得し、これらに基づいて、情報の検索を要求する。検索要求部206は、例えば、「ユーザがみかんを掴んだ」という状況認識結果と、「賞味期限を知りたい」という音声認識結果を取得した場合には、「みかんの賞味期限」を検索クエリとし、検索サーバ101にウェブ上での検索を要求する。検索要求部206はさらに、ユーザ辞書172を参照し、ユーザ辞書172に登録されている情報と異なる検索結果を要求する。検索結果取得部207は、通信部15を介して検索サーバ101から検索クエリに対する検索結果を取得する。
知識レベル特定部208は、検索結果取得部207が取得した検索結果が示す内容が属する知識分野における、ユーザの知識レベルを特定する。ここで、ユーザは、検索結果を提供すべき提供先ユーザである。
知識レベル特定部208は、具体的には、検索結果から表現データテーブル173に登録されている表現データを抽出し、抽出した表現データに対応付けられている知識分野を特定する。続いて、知識レベル特定部208は、専門属性テーブル171を参照し、特定した知識分野に関する、提供先ユーザの知識レベルを特定する。
検索結果編集部209は、表現データテーブル173を参照し、検索結果に含まれる内容の表現方法を、提供先ユーザの知識レベルに応じた表現方法に変更する。
具体的には、検索結果編集部209は、表現データテーブル173を参照し、検索結果に含まれる表現データと同一の内容を示す表現データであって、提供先ユーザの知識レベルに対応付けられている表現データを抽出する。そして、検索結果編集部209は、抽出した表現データを用いて、検索結果を編集する。
例えば医学の知識分野の知識レベルが「3」であるユーザによる検索により、検索結果として「かぜ」という単語が得られたとする。この場合には、検索結果編集部209は、専門属性テーブル170を参照し、ユーザIDによりユーザの医学の知識分野の知識レベルを特定する。検索結果編集部209は、さらに、表現データテーブル173を参照し、医学の知識分野の知識レベル「3」に対応付けられている「かぜ」に対応する表現データとして「風邪症候群」を抽出する。
出力制御部210は、適切なタイミングで、検索結果編集部209による編集後の検索結果を出力部19に出力させる。出力制御部210は、例えば、出力部19に音声出力を行わせる場合、検索結果編集部109により得られた編集後の検索結果に相当する応答文を音声合成して音声に変換し、出力部19に音声出力させる。出力制御部210は、また例えば、出力部19としての表示画面に画像を表示する場合には、応答文を描画データに変換し、出力部19に画面出力させる。出力制御部210はまた、外部機器を用いた出力方法が決定された場合には、通信部15を介して指定された外部機器に応答文(検索結果)を送信する。この場合には、指定された外部機器において、検索結果が指定された出力形式で出力される。
出力制御部210は、出力タイミングに関しては、例えばユーザの発話中であるという状況認識結果が得られた場合には、発話の終了後を出力タイミングと決定し、発話の終了後に検索結果の応答文を出力するなど、行動認識結果および/または状況認識結果に基づいて、出力タイミングを決定する。なお、行動認識結果および/または状況認識結果から出力タイミングを決定するためのアルゴリズムまたは状況認識結果と出力タイミングの制御方法とを対応付けたテーブルが予め記憶部17に記憶されており、出力制御部210は、アルゴリズムまたはテーブルを用いることにより、出力タイミングを決定するものとする。
なお、NA10は、上述した各部の全てを必須の構成とする必要はなく、その一部を省略した構成としてもよい。
次に、本実施形態の処理システムの動作について説明する。図7は、本実施形態の処理システム1で実行される第1の検索処理の一例を示すフローチャートである。NA10においては、常にユーザの行動を認識する(ステップS101)。具体的には、音声認識部201は、音声入力部11に音声が入力される度に、音声認識処理を行い、また、状況認識部202は常にユーザの行動状況の認識を行う。次に、検索要求部206は、音声認識部201および行動認識部202により得られた認識結果から検索クエリを生成し、検索サーバ101に検索を要求する(ステップS102)。
続いて、検索サーバ101は、NA10から検索クエリを受信し、受信した検索クエリに従ってWeb上で公開されている情報を検索し、検索結果をNA10に送信する(ステップS103)。
続いて、検索結果取得部207は、検索サーバ101から情報の検索結果を取得する(ステップS104)。次に、知識レベル特定部208は、表現データテーブル173を参照し、検索結果に含まれる表現データを特定し、さらに専門属性テーブル170を参照し、表現データの属する知識分野における、ユーザの知識レベルを特定する(ステップS105)。
次に、検索結果編集部209は、検索結果を編集する(ステップS107)。具体的には、検索結果編集部109は、表現データテーブル173を参照し、検索結果に含まれるキーワードと同一内容の表現データであって、かつユーザの知識レベルに対応付けられている表現データを抽出し、抽出した表現データを用いて、検索結果を編集する。
次に、出力制御部210は、状況認識結果に基づいて、出力タイミングであるか否かを判定する。そして、出力タイミングであると判定された場合に(ステップS108でYes)、編集後の検索結果を出力する(ステップS109)。なお、出力タイミングでないと判定された場合には(ステップS108でNo)、ステップS108に戻り、出力タイミングまで待機する。以上で、処理が完了する。
例えば、医師と患者の会話において、患者に提供すべき検索結果として、「風邪症候群」という表現データを含む検索結果が得られたとする。この場合には、検索結果編集部209は、表現データテーブル173を参照し、「風邪症候群」と同一内容を表現する表現データであって、知識レベル1(患者の知識レベル)に対応付けられている「かぜ」という表現データを抽出する。そして、検索結果編集部209は、検索結果に含まれる「風邪症候群」を「かぜ」に置き換えたデータを編集後の検索結果として得る。
これにより、「風邪症候群」の意味説明を医師に代わって処理システム1が担当することができる。一方で、処理システム1は、医師に対しては、専門用語を用いた検索結果を提供することができる。
このように、本実施の形態にかかる処理システム1においては、検索結果として得られた内容を、検索結果を提供すべき提供先ユーザの知識レベルに合った表現形式でユーザに提供することができる。
図8は、本実施の形態の処理システム1で実行される第2の検索処理の一例を示すフローチャートである。第1の検索処理においては、検索結果に含まれる表現データを、提供先ユーザの知識レベルに合わせて変更したが、第2の検索処理においては、検索結果の提供先ユーザの知識レベルに合わせた検索結果を取得し、これをユーザに提供する。
例えば、第1の検索処理において、「DNS」という単語が含まれる検索結果が提示された際に、ユーザの「わからない」という発言が音声認識結果として得られた場合等に第2の検索処理が実行される。
第2の検索処理において、NA10は、常にユーザの行動を認識し(ステップS120)、上述のように、例えば、「DNS」の説明内容を要求していることが認識された場合に検索要求部206は、検索要求があったと判断する。検索要求があったと判断されない場合には(ステップS121でNo)、ステップS120へ戻り、行動認識を継続する。
ステップS121において、検索要求があったと判断されると(ステップS121でYes)、さらに、ユーザ辞書管理部205は、検索結果の提供先ユーザのユーザ辞書を新たに作成する必要があるか否かを判断する。
ユーザ辞書管理部205は、「DNS」に関するユーザ辞書が登録されていない場合には、ユーザ辞書を作成する必要があると判断する。ユーザ辞書管理部205はまた、「DNS」に関するユーザ辞書が登録されている場合であっても、「DNS」に関するユーザ辞書が登録された後に、提供先ユーザに関する専門属性テーブル170および活動情報テーブル171の登録内容に変更があった場合には、ユーザ辞書を作成(再構築)する必要があると判断する。専門属性テーブル170および活動情報テーブル171の変更をユーザ辞書に反映するためである。
ユーザ辞書管理部205は、ユーザ辞書を作成する必要があると判断した場合には(ステップS122でYes)、提供先ユーザの専門属性テーブル170および活動情報テーブル171を参照し、提供先ユーザの「DNS」に関するユーザ辞書を作成する(ステップS123)。
次に、検索要求部206は、音声認識部201および状況認識部202により得られた行動認識結果から検索クエリを生成し、検索サーバ101に検索を要求する(ステップS124)。このとき、検索要求部206は、ユーザ辞書管理部205により作成された提要先ユーザにかかるユーザ辞書173を参照し、提供先ユーザが既に知っている情報を除外し、提供先ユーザに不足している情報を含むような情報を要求する。
続いて、検索サーバ101は、NA10から検索クエリを受信し、受信した検索クエリに従ってWeb上で公開されている情報を検索し、検索結果をNA10に送信する(ステップS125)。
続いて、検索結果取得部207は、検索サーバ101から情報の検索結果を取得する(ステップS126)。次に、出力制御部210は、状況認識結果に基づいて、出力タイミングであるか否かを判定する。そして、出力タイミングであると判定された場合に(ステップS127でYes)、編集後の検索結果を出力する(ステップS128)。以上で、処理が完了する。
例えば、提供先ユーザのユーザ辞書として、図6に示すユーザ辞書が作成されているとする。この場合には、提供先ユーザは、「ホスト名」に関する知識はあるが、「IPアドレス」に関する知識はないことがわかる。そこで、検索要求部206は、「ホスト名」の説明を含む検索結果は除外し、「IPアドレス」の説明を含む情報を優先的に検索する。
図9は、検索結果として得られた「DNS」の説明内容の一例を示す図である。このように、提供先ユーザの知識レベルや、活動情報に応じて、異なる説明内容を提供先ユーザに提供することができる。
他の例としては、ユーザが知っている内容と、知らない内容とを含む情報を優先的に検索してもよい。この場合には、上述のように、提供先ユーザが、「ホスト名」に関する知識を有しているが、「IPアドレス」に関する知識を有していない場合には、図9の「3」に示すような説明内容をユーザに提示してもよい。
このように、本実施の形態にかかる処理システム1においては、ユーザ辞書に登録されているユーザの属性情報や、活動情報を参照し、ユーザに不足している情報を補うことのできる内容を検索し、これをユーザに提供することができる。
以上、本発明を実施の形態を用いて説明したが、上記実施の形態に多様な変更または改良を加えることができる。
そうした第1の変更例としては、テーブル管理部204は、専門属性テーブル170における各ユーザの知識レベルを、個人情報取得部200が取得した個人情報、音声認識部201による音声認識結果、行動認識部203による行動認識結果などに基づいて登録し、または更新してもよい。
テーブル管理部204は、個人情報取得部200が取得した個人情報だけでなく、音声認識部201、状況認識部202および行動認識部203による認識結果に基づいて、総合的に、ユーザの所定の知識分野における知識レベルを特定してもよい。
例えば、テーブル管理部204は、個人情報や、行動認識部203による医師と患者の会話中であることが特定でき、さらに、一方のユーザを医師と特定できた場合には、他方のユーザを患者と特定してもよい。
また例えば、テーブル管理部204は、行動認識部203等による認識結果から、ユーザが病院の医務室に毎日通っていることを特定した場合には、ユーザが医療関係者であることを特定することができる。さらに、ユーザの医療行為の有無等により医師であるのか、看護士であるのかなど、より詳細な職業を特定することができる。テーブル管理部204は、特定した職業に基づいて、該当知識分野におけるユーザの知識レベルを専門属性テーブル170に登録してもよい。これにより、設計者等により予め各ユーザの知識レベルを専門属性テーブル170に登録する処理を不要とすることができる。
また、第2の変更例としては、テーブル管理部204は、ユーザと処理システム1の対話において、ユーザからの応答情報をフィーバックし、各ユーザの知識レベルを動的に変更してもよい。例えば、比較的低い知識レベルが設定されているユーザであっても、所定の分野における会話において、活動情報テーブル171に多数の専門知識が活動情報として新たに登録された場合には、資格の有無や、属性情報によらず、活動情報に基づいて、知識レベルを上げてもよい。
一方で、テーブル管理部204は、例えばユーザの会話中の質問内容等から、資格の有無等により設定された知識レベルにおける共通知識を有さないと判断した場合には、知識レベルを下げてもよい。
また、第3の変更例としては、第1の検索処理および第2の検索処理において、検索結果を出漁した際に得られた、提供先ユーザの行動を専門属性テーブル170、活動情報テーブル171および/または表現データテーブル173にフィードバックしてもよい。
例えば、検索結果を提供した際に、提供先ユーザによる「わからない」という発話が得られた場合には、処理システム1においては、テーブル管理部204により、専門属性テーブル170に登録されている提供先ユーザの知識レベルをより低い値に変更したり、表現データテーブル173における表現データと知識レベルの対応関係を変更したりするようなフィードバックを行ってもよい。なお、フィードバックの対象となる提供先ユーザの行動、すなわちユーザが所望する表現データが提供されない場合のユーザの行動は、予め記憶部17に登録されており、テーブル管理部204は、記憶部17に登録されている行動の行動認識結果が得られた場合に、フィードバックを行う。
また、例えば、検索結果を提供した際に、提供先ユーザが既に知っていることを示す発話が得られた場合には、処理システム1においては、テーブル管理部204により、活動情報テーブル173に提供先ユーザの活動情報として、検索結果の内容を新たに登録してもよい。
本実施の形態のNA10は、CPUなどの制御装置と、ROM(Read Only Memory)やRAMなどの記憶装置と、HDD、CDドライブ装置などの外部記憶装置と、ディスプレイ装置などの表示装置と、キーボードやマウスなどの入力装置を備えており、通常のコンピュータを利用したハードウェア構成となっている。
本実施形態のNA10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供される。
また、本実施形態のNA10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成しても良い。また、本実施形態のNA10で実行されるプログラムをインターネット等のネットワーク経由で提供または配布するように構成しても良い。また、本実施形態のプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
本実施の形態のNA10で実行されるプログラムは、上述した各部(行動認識部、状況認識部、検索要求部、検索結果取得部、提供方法決定部、出力制御部)を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が上記記憶媒体からプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、各部が主記憶装置上に生成されるようになっている。
1 処理システム
10 NA
11 音声入力部
13 GPS受信部
15 通信部
16 撮像部
17 記憶部
19 出力部
20 制御部
170 専門属性テーブル
171 活動情報テーブル
172 ユーザ辞書
173 表現データテーブル
200 個人情報取得部
201 音声認識部
202 状況認識部
203 行動認識部
204 テーブル管理部
205 ユーザ辞書管理部
206 検索結果要求部
207 検索結果取得部
208 知識レベル特定部
209 検索結果編集部
210 出力制御部
10 NA
11 音声入力部
13 GPS受信部
15 通信部
16 撮像部
17 記憶部
19 出力部
20 制御部
170 専門属性テーブル
171 活動情報テーブル
172 ユーザ辞書
173 表現データテーブル
200 個人情報取得部
201 音声認識部
202 状況認識部
203 行動認識部
204 テーブル管理部
205 ユーザ辞書管理部
206 検索結果要求部
207 検索結果取得部
208 知識レベル特定部
209 検索結果編集部
210 出力制御部
Claims (9)
- ユーザの音声を認識する音声認識部と、
前記音声認識部で認識された音声に基づいて検索された検索結果を取得する検索結果取得部と、
所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、
ユーザに前記検索結果として提供する提供内容を表現する表現データであって、前記提供内容の専門性の程度の異なる複数の表現データそれぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と、
前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定部と、
前記表現データ記憶部において、前記知識レベル特定部により特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得部が取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集部と、
前記編集部による編集後の前記検索結果を出力する出力部と
を備えることを特徴とする処理装置。 - 外部からユーザの個人情報を取得する個人情報取得部と、
前記個人情報に基づいて、前記ユーザの前記知識レベルを決定し、決定した前記知識レベルを前記ユーザに対応付けて前記ユーザデータ記憶部に登録する知識レベル登録部と
をさらに備えることを特徴とする請求項1に記載の処理装置。 - 外部から取得した情報に基づいて、ユーザの行動を認識する行動認識部と、
前記行動認識部により認識された前記ユーザの行動に基づいて、前記ユーザの知識レベルを決定し、決定した前記知識レベルを前記ユーザに対応付けて前記ユーザデータ記憶部に登録する知識レベル登録部と
をさらに備えることを特徴とする請求項1に記載の処理装置。 - 前記出力部により前記検索結果が出力された後の、ユーザの行動を認識する行動認識部と、
前記行動認識部により認識された前記ユーザの行動が、ユーザの所望する表現データが提供されない場合のユーザの行動として予め登録された登録行動と一致する場合に、前記ユーザデータ記憶部に記憶されている前記ユーザの知識レベルを変更する知識レベル変更部と
をさらに備えることを特徴とする請求項1に記載の処理装置。 - 前記出力部により前記検索結果が出力された後の、ユーザの行動を認識する行動認識部と、
前記行動認識部により認識された前記ユーザの行動が、ユーザの所望する表現データが提供されない場合のユーザの行動として予め登録された登録行動と一致する場合に、前記表現データ記憶部において、前記登録行動に対応する前記検索結果中の前記表現データに対応付けられている前記知識レベルを変更する知識レベル変更部と
をさらに備えることを特徴とする請求項1に記載の処理装置。 - ユーザの有する知識情報を、ユーザに対応付けて記憶するユーザ辞書記憶部と、
ユーザの音声を認識する音声認識部と、
前記音声認識部で認識された音声に基づいて検索された検索結果であって、前記ユーザ辞書記憶部に記憶されている前記知識情報以外の検索結果を取得する検索結果取得部と
を備えることを特徴とする処理装置。 - ユーザの音声を認識する音声認識部と、
前記音声認識部で認識された音声に基づいて検索された検索結果を取得する検索結果取得部と、
所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、
ユーザに前記検索結果として提供する提供内容を表現する表現方法であって、前記提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と、
前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定部と、
前記表現データ記憶部において、前記知識レベル特定部により特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得部が取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集部と、
前記編集部による編集後の前記検索結果を出力する出力部と
を備えることを特徴とする処理システム。 - 処理装置で実行される出力方法であって、
前記処理装置は、
所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、
ユーザに提供する提供内容を表現する表現方法であって、前記提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と
を備え、
ユーザの音声を認識する音声認識ステップと、
前記音声認識ステップにおいて認識された音声に基づいて検索された検索結果を取得する検索結果取得ステップと、
前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定ステップと、
前記表現データ記憶部において、前記知識レベル特定ステップにおいて特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得ステップにおいて取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集ステップと、
前記編集ステップにおける編集後の前記検索結果を出力する出力ステップと
を含むことを特徴とする出力方法。 - 所定の知識分野における知識レベルを、ユーザに対応付けて記憶するユーザデータ記憶部と、
ユーザに提供する提供内容を表現する表現方法であって、前記提供内容の専門性の程度の異なる複数の表現方法それぞれを、異なる複数の知識レベルに対応付けて記憶する表現データ記憶部と
を備えたコンピュータに、
ユーザの音声を認識する音声認識ステップと、
前記音声認識ステップにおいて認識された音声に基づいて検索された検索結果を取得する検索結果取得ステップと、
前記ユーザデータ記憶部を参照し、前記ユーザの知識レベルを特定する知識レベル特定ステップと、
前記表現データ記憶部において、前記知識レベル特定ステップにおいて特定された前記知識レベルに対応付けられている表現データであって、前記検索結果取得ステップにおいて取得した前記検索結果に含まれる前記提供内容を表現する表現データに基づいて、前記検索結果を編集する編集ステップと、
前記編集ステップにおける編集後の前記検索結果を出力する出力ステップと
を実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012136097A JP2014002470A (ja) | 2012-06-15 | 2012-06-15 | 処理装置、処理システム、出力方法およびプログラム |
US13/916,733 US20130339013A1 (en) | 2012-06-15 | 2013-06-13 | Processing apparatus, processing system, and output method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012136097A JP2014002470A (ja) | 2012-06-15 | 2012-06-15 | 処理装置、処理システム、出力方法およびプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2014002470A true JP2014002470A (ja) | 2014-01-09 |
Family
ID=49756693
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012136097A Pending JP2014002470A (ja) | 2012-06-15 | 2012-06-15 | 処理装置、処理システム、出力方法およびプログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US20130339013A1 (ja) |
JP (1) | JP2014002470A (ja) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028604A (ja) * | 2017-07-27 | 2019-02-21 | 日本電信電話株式会社 | 対話装置及びプログラム |
JP2020149310A (ja) * | 2019-03-13 | 2020-09-17 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
WO2021181679A1 (ja) * | 2020-03-13 | 2021-09-16 | 日本電信電話株式会社 | 対話支援装置、対話支援方法及びプログラム |
WO2022085223A1 (ja) * | 2020-10-20 | 2022-04-28 | パナソニックIpマネジメント株式会社 | 生活を支援する方法、装置、システム、及びプログラム |
WO2022085474A1 (ja) * | 2020-10-20 | 2022-04-28 | パナソニックIpマネジメント株式会社 | 情報処理方法 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3455608A1 (en) * | 2016-05-12 | 2019-03-20 | BD Biosciences | Fluorescence imaging flow cytometry with enhanced image resolution |
WO2018174443A1 (en) | 2017-03-23 | 2018-09-27 | Samsung Electronics Co., Ltd. | Electronic apparatus, controlling method of thereof and non-transitory computer readable recording medium |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05265677A (ja) * | 1992-03-18 | 1993-10-15 | Hitachi Ltd | 情報提供システム |
JP2001134590A (ja) * | 1999-11-05 | 2001-05-18 | Nippon Densanki Kk | 知識管理・検索システム |
JP2002140252A (ja) * | 2000-11-02 | 2002-05-17 | Nec Custommax Ltd | 閲覧サービス方法、データ処理方法および装置、ユーザ端末装置、情報記憶媒体 |
JP2003224661A (ja) * | 2002-01-29 | 2003-08-08 | Seiko Epson Corp | 電子情報提供方法及びシステム、コンピュータプログラム |
JP2006209285A (ja) * | 2005-01-26 | 2006-08-10 | Fuji Xerox Co Ltd | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2007193723A (ja) * | 2006-01-23 | 2007-08-02 | Kobe Steel Ltd | コンテンツ検索装置,コンテンツ検索方法 |
JP2009168773A (ja) * | 2008-01-21 | 2009-07-30 | Nissan Motor Co Ltd | ナビゲーション装置および情報提供方法 |
JP2011065401A (ja) * | 2009-09-17 | 2011-03-31 | Nec Corp | 情報処理装置、そのデータ処理方法、およびプログラム |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6199067B1 (en) * | 1999-01-20 | 2001-03-06 | Mightiest Logicon Unisearch, Inc. | System and method for generating personalized user profiles and for utilizing the generated user profiles to perform adaptive internet searches |
US8909635B2 (en) * | 2007-09-21 | 2014-12-09 | International Business Machines Corporation | Profiling content creation and retrieval in a content management system |
US8122021B2 (en) * | 2008-10-06 | 2012-02-21 | Microsoft Corporation | Domain expertise determination |
-
2012
- 2012-06-15 JP JP2012136097A patent/JP2014002470A/ja active Pending
-
2013
- 2013-06-13 US US13/916,733 patent/US20130339013A1/en not_active Abandoned
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05265677A (ja) * | 1992-03-18 | 1993-10-15 | Hitachi Ltd | 情報提供システム |
JP2001134590A (ja) * | 1999-11-05 | 2001-05-18 | Nippon Densanki Kk | 知識管理・検索システム |
JP2002140252A (ja) * | 2000-11-02 | 2002-05-17 | Nec Custommax Ltd | 閲覧サービス方法、データ処理方法および装置、ユーザ端末装置、情報記憶媒体 |
JP2003224661A (ja) * | 2002-01-29 | 2003-08-08 | Seiko Epson Corp | 電子情報提供方法及びシステム、コンピュータプログラム |
JP2006209285A (ja) * | 2005-01-26 | 2006-08-10 | Fuji Xerox Co Ltd | 情報処理装置、および情報処理方法、並びにコンピュータ・プログラム |
JP2007193723A (ja) * | 2006-01-23 | 2007-08-02 | Kobe Steel Ltd | コンテンツ検索装置,コンテンツ検索方法 |
JP2009168773A (ja) * | 2008-01-21 | 2009-07-30 | Nissan Motor Co Ltd | ナビゲーション装置および情報提供方法 |
JP2011065401A (ja) * | 2009-09-17 | 2011-03-31 | Nec Corp | 情報処理装置、そのデータ処理方法、およびプログラム |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019028604A (ja) * | 2017-07-27 | 2019-02-21 | 日本電信電話株式会社 | 対話装置及びプログラム |
JP2020149310A (ja) * | 2019-03-13 | 2020-09-17 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
JP7293743B2 (ja) | 2019-03-13 | 2023-06-20 | 日本電気株式会社 | 処理装置、処理方法及びプログラム |
WO2021181679A1 (ja) * | 2020-03-13 | 2021-09-16 | 日本電信電話株式会社 | 対話支援装置、対話支援方法及びプログラム |
WO2022085223A1 (ja) * | 2020-10-20 | 2022-04-28 | パナソニックIpマネジメント株式会社 | 生活を支援する方法、装置、システム、及びプログラム |
WO2022085474A1 (ja) * | 2020-10-20 | 2022-04-28 | パナソニックIpマネジメント株式会社 | 情報処理方法 |
Also Published As
Publication number | Publication date |
---|---|
US20130339013A1 (en) | 2013-12-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11321116B2 (en) | Systems and methods for integrating third party services with a digital assistant | |
US10417344B2 (en) | Exemplar-based natural language processing | |
US10657966B2 (en) | Better resolution when referencing to concepts | |
JP6357458B2 (ja) | 音声合成における同綴異音異義語の曖昧さの解消 | |
CN105701254B (zh) | 一种信息处理方法和装置、一种用于信息处理的装置 | |
US20160093298A1 (en) | Caching apparatus for serving phonetic pronunciations | |
US9734193B2 (en) | Determining domain salience ranking from ambiguous words in natural speech | |
US10289433B2 (en) | Domain specific language for encoding assistant dialog | |
US9495129B2 (en) | Device, method, and user interface for voice-activated navigation and browsing of a document | |
US10636426B2 (en) | Digital assistant | |
JP2014002470A (ja) | 処理装置、処理システム、出力方法およびプログラム | |
AU2015236219A1 (en) | Personalized recommendation based on the user's explicit declaration | |
US20110125486A1 (en) | Self-configuring language translation device | |
US11100164B2 (en) | Displaying videos based upon selectable inputs associated with tags | |
JP2023027749A (ja) | 放送スタイルを決定する方法、装置、機器、及びコンピュータ記憶媒体 | |
Migliardi et al. | Enhancing personal efficiency with pervasive services and wearable devices | |
AU2017100208B4 (en) | A caching apparatus for serving phonetic pronunciations | |
WO2020166183A1 (ja) | 情報処理装置及び情報処理方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150521 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160622 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160628 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20161220 |