JP6590710B2 - 情報処理装置、情報処理サーバおよびプログラム - Google Patents
情報処理装置、情報処理サーバおよびプログラム Download PDFInfo
- Publication number
- JP6590710B2 JP6590710B2 JP2016013269A JP2016013269A JP6590710B2 JP 6590710 B2 JP6590710 B2 JP 6590710B2 JP 2016013269 A JP2016013269 A JP 2016013269A JP 2016013269 A JP2016013269 A JP 2016013269A JP 6590710 B2 JP6590710 B2 JP 6590710B2
- Authority
- JP
- Japan
- Prior art keywords
- information
- unit
- evaluation
- speaker
- evaluation information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Navigation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
およびプログラムに関するものである。
また、発話内容が所定の地物に関するものであると判断した場合に、その地物と発話内容とを関連付けて記録するため、所定の地物を見た際に発話する当該地物の過去の状況、当該地物に関する搭乗者の思い出等、所定の地物の現在の状況を反映していない発話内容であっても評価情報として記録してしまうことがある、または登録されていない地物について発話された場合、発話内容を記録することができないという課題があった。
また、この発明に係る情報処理装置は、移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか否かを判定する蓄積判定部と、搭乗者のうち話者を特定する話者特定部とを備え、情報抽出部が抽出する情報は、キーワード及び話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、話者特定部により話者であると特定された搭乗者がキーワードを発話した時の表情を含む属性情報を取得し、蓄積判定部は、表情を予め設定された感情表現のいずれかに分類し、キーワードに含まれる感情表現と表情から分類された感情表現とが一致する場合には評価情報を蓄積すると判定し、キーワードに含まれる感情表現と表情から分類された感情表現とが一致しない場合には評価情報を蓄積しないと判定するものである。
また、この発明に係る情報処理装置は、移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか否かを判定する蓄積判定部と、搭乗者のうち話者を特定する話者特定部とを備え、情報抽出部が抽出する情報は、話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、電話の通話状態を示す情報を取得し、蓄積判定部は、話者特定部により話者であると特定された搭乗者が通話中である場合には評価情報を蓄積しないと判定し、話者特定部により話者であると特定された搭乗者が通話中でない場合には評価情報を蓄積すると判定するものである。
また、この発明に係る情報処理サーバは、外部機器と通信する通信部と、通信部を介して入力された移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、通信部を介して入力された発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか判定する蓄積判定部と、蓄積判定部が蓄積すると判定した評価情報を蓄積する蓄積部と、通信部を介して外部機器から評価情報の取得要求が入力された場合に、蓄積部に蓄積された評価情報を取得し、外部機器に出力するための制御を行う出力制御部と、搭乗者のうち話者を特定する話者特定部とを備え、情報抽出部が抽出する情報は、キーワード及び話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、話者特定部により話者であると特定された搭乗者の口癖を含む属性情報を取得し、蓄積判定部は、話者特定部により話者であると特定された搭乗者の口癖がキーワードに含まれていた場合には評価情報を蓄積しないと判定し、話者特定部により話者であると特定された搭乗者の口癖がキーワードに含まれていない場合には評価情報を蓄積すると判定するものである。
また、この発明に係る情報処理サーバは、外部機器と通信する通信部と、通信部を介して入力された移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、通信部を介して入力された発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか判定する蓄積判定部と、蓄積判定部が蓄積すると判定した評価情報を蓄積する蓄積部と、通信部を介して外部機器から評価情報の取得要求が入力された場合に、蓄積部に蓄積された評価情報を取得し、外部機器に出力するための制御を行う出力制御部と、搭乗者のうち話者を特定する話者特定部とを備え、情報抽出部が抽出する情報は、キーワード及び話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、話者特定部により話者であると特定された搭乗者がキーワードを発話した時の表情を含む属性情報を取得し、蓄積判定部は、表情を予め設定された感情表現のいずれかに分類し、キーワードに含まれる感情表現と表情から分類された感情表現とが一致する場合には評価情報を蓄積すると判定し、キーワードに含まれる感情表現と表情から分類された感情表現とが一致しない場合には評価情報を蓄積しないと判定するものである。
また、この発明に係る情報処理サーバは、外部機器と通信する通信部と、通信部を介して入力された移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、通信部を介して入力された発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか判定する蓄積判定部と、蓄積判定部が蓄積すると判定した評価情報を蓄積する蓄積部と、通信部を介して外部機器から評価情報の取得要求が入力された場合に、蓄積部に蓄積された評価情報を取得し、外部機器に出力するための制御を行う出力制御部と、搭乗者のうち話者を特定する話者特定部とを備え、情報抽出部が抽出する情報は、話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、電話の通話状態を示す情報を取得し、蓄積判定部は、話者特定部により話者であると特定された搭乗者が通話中である場合には評価情報を蓄積しないと判定し、話者特定部により話者であると特定された搭乗者が通話中でない場合には評価情報を蓄積すると判定するものである。
また、この発明に係るプログラムは、コンピュータを、移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか否かを判定する蓄積判定部と、搭乗者のうち話者を特定する話者特定部として機能させ、情報抽出部が抽出する情報は、キーワード及び話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、話者特定部により話者であると特定された搭乗者の口癖を含む属性情報を取得し、蓄積判定部は、話者特定部により話者であると特定された搭乗者の口癖がキーワードに含まれていた場合には評価情報を蓄積しないと判定し、話者特定部により話者であると特定された搭乗者の口癖がキーワードに含まれていない場合には評価情報を蓄積すると判定するように機能させるものである。
また、この発明に係るプログラムは、コンピュータを、移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか否かを判定する蓄積判定部と、搭乗者のうち話者を特定する話者特定部として機能させ、情報抽出部が抽出する情報は、キーワード及び話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、話者特定部により話者であると特定された搭乗者がキーワードを発話した時の表情を含む属性情報を取得し、蓄積判定部は、表情を予め設定された感情表現のいずれかに分類し、キーワードに含まれる感情表現と表情から分類された感情表現とが一致する場合には評価情報を蓄積すると判定し、キーワードに含まれる感情表現と表情から分類された感情表現とが一致しない場合には評価情報を蓄積しないと判定するように機能させるものである。
また、この発明に係るプログラムは、コンピュータを、移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか否かを判定する蓄積判定部と、搭乗者のうち話者を特定する話者特定部として機能させ、情報抽出部が抽出する情報は、話者特定部により話者であると特定された搭乗者を示す情報を含み、参照情報取得部は、参照情報として、電話の通話状態を示す情報を取得し、蓄積判定部は、話者特定部により話者であると特定された搭乗者が通話中である場合には評価情報を蓄積しないと判定し、話者特定部により話者であると特定された搭乗者が通話中でない場合には評価情報を蓄積すると判定するように機能させるものである。
実施の形態1.
図1は、この発明の実施の形態1に係る情報処理装置100の構成を示すブロック図である。
情報処理装置100は、入力部1、音声認識部2、情報抽出部3、キーワードデータベース4、位置情報取得部5、車両情報取得部6、地図データベース7、評価情報作成部8、参照情報取得部9、蓄積判定部10、蓄積制御部11および通信部12を備える。また、情報処理装置100は、通信部12、21を介して蓄積サーバ200と接続されている。
周辺道路交通関連キーワードは、周辺の施設、店舗、建造物、車両、歩行者、移動体、道路、車線、道路標識、交差点、高速出入口、信号、踏切、渋滞、規制、事故等、のいずれかを表すキーワードである。
周辺自然環境関連キーワードは、風景、景観、地形、山、川、湖、海、空、天候、気温、風雨、降雪、積雪、台風、地震、津波、噴火、火災、その他の災害等、のいずれかを表すキーワードである。
感情表現関連キーワードは、発話者の感情、感想、感動、情緒、印象、欲求、欲望、想像、妄想、追想、反撃、反響、愛情、驚嘆、落胆、喜怒哀楽、感覚、食感、五感、嗜好、良否、可否、好き嫌い、向き不向き、リピート欲、寸評、比較、ランキング、コメント、評価等のいずれかを表すキーワードである。
なお、発話時の日時情報は、位置情報取得部5が情報抽出部3からキーワードが入力された場合に、車両情報取得部6から取得することに替えて、入力部1が発話を取得した日時、音声認識部2が音声認識した日時、情報抽出部3がキーワードを抽出した日時等を、情報処理装置100内の図示しない時計等から取得してもよい。
評価情報作成部8は、情報抽出部3から入力されたキーワードおよびジャンルと、発話時の日時情報と、発話時の車両の位置情報および方位情報とを組み合わせて評価情報を作成する。
参照情報取得部9は、評価情報作成部8が作成した評価情報が、当該評価情報に含まれるキーワードに関連する事象の現在の状況と関連性があるかを判断するための参照情報を取得する。ここで、参照情報は、当該キーワードに関連する事象の現在の状況、即ち当該事象の現況を示す情報である。この実施の形態1では、参照情報取得部9は、車両情報取得部6から入力される車両の周辺情報から、キーワードに関連する事象の現況を、参照情報として取得する場合を示す。なお、参照情報の詳細については、後述する。
また、ここでは、評価情報作成部8は、評価情報をキーワードおよびジャンルと、発話時の日時情報と、発話時の車両の位置情報および方位情報の組み合わせとしたが、発話時の日時情報と、発話時の車両の方位情報は含まなくともよい。即ち、参照情報取得部9が、参照情報を取得する日時を現在とすれば、評価情報と参照情報との比較が可能である。また、車両の位置情報が分かれば、参照情報取得部9は、参照情報を得ることができる。
蓄積制御部11は、蓄積判定部10において評価情報が蓄積すべき情報であると判定された場合に、その評価情報を通信部12を介して蓄積サーバ200側に出力する。
通信部12は、Wi−Fi(登録商標)、3G、4Gなどの通信規格に準拠した通信網やインターネットなどの公共無線通信網にアクセスし、蓄積サーバ200と通信を行い、評価情報の送信を行う。また、通信部12は、外部のネットワークと通信を行い、例えばコンテンツプロバイダからコンテンツプロバイダ情報等を受信する、または車両内外に設置された機器から車両情報等を受信する。
図3は、情報処理装置100のハードウェア構成例を示す図である。
図3に示すように、情報処理装置100における入力部1、位置情報取得部5、車両情報取得部6および参照情報取得部9は、外部からの情報を入力する入力装置101により実現される。情報処理装置100におけるキーワードデータベース4および地図データベース7は、メモリ103により実現される。情報処理装置100における通信部12は、蓄積サーバ200または外部のネットワークとの間で無線通信を行う無線通信装置104により実現される。
また、情報処理装置100における音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11は、処理回路により実現される。すなわち、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11は、音声認識結果からキーワードを抽出し、キーワードを含む評価情報と参照情報とを比較し、比較した結果に基づいて評価情報の蓄積を判定し、評価情報の出力を制御するための処理回路を備える。処理回路は、メモリ103に格納されるプログラムを実行するCPU(Central Processing Unit)102である。
この音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ103に格納される。CPU102は、メモリ103に記憶されたプログラムを読み出して実行することにより、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11の各機能を実現する。即ち、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11は、CPU102により実行されるときに、後述する図5および図6に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ103を備える。また、これらのプログラムは、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11の手順または方法をコンピュータに実行させるものであるともいえる。
メモリ103は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
図4に示すように、蓄積サーバ200における評価情報データベース23は、メモリ202により実現される。蓄積サーバ200における通信部21は、情報処理装置100または図示しない外部機器との間で無線通信を行う無線通信装置203により実現される。
また、蓄積サーバ200における制御部22は、処理回路により実現される。即ち、蓄積サーバ200は、情報処理装置100から受信した評価情報を用いて評価情報データベース23の評価情報を更新し、更新した評価情報を外部機器からの取得要求に応じて送信するための処理回路を備える。処理回路は、メモリ202に格納されるプログラムを実行するCPU201である。
この制御部22の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ202に格納される。CPU201は、メモリ202に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。即ち、蓄積サーバ200は、CPU201により実行されるときのプログラムを格納するためのメモリ202を備える。また、これらのプログラムは、制御部22の手順または方法をコンピュータに実行させるものであるともいえる。
図5は、実施の形態1による情報処理装置100の動作を示すフローチャートである。
なお、入力部1は情報処理装置100の電源が投入されている間は、常に音声を収集できる状態である。また、図示しない音声収集の開始ボタンが操作されてから一定時間のみ音声を取得するようなもので合ってもよい。
参照情報取得部9は、車両の周辺情報を、参照情報として取得する。ここでいう車両の周辺とは、評価情報に含まれる発話時の車両の位置情報に示された地点を中心として例えば半径1km以内の領域等、発話時の車両の位置を中心として予め設定された領域を示すものとする。また、この実施の形態1では、参照情報取得部9は、周辺情報として、例えば「東京タワー」など地物の特定がされていない搭乗者の発話内容であっても評価することができる情報を取得する。また、参照情報取得部9は、周辺情報として、車両の走行エリアに限定されることなく、どのエリアを走行していても搭乗者の発話内容を評価することができる情報を取得する。具体的には、参照情報取得部9は、参照情報として、コンテンツプロバイダ情報、車載カメラ情報、または地図情報の少なくとも1つを取得する。
車載カメラ情報は、車両内または車両外に設置された車載カメラが車両の周囲を撮像した撮像画像を画像認識して得られた情報であり、車両情報取得部6で取得される。車載カメラ情報は、例えば、交通状況、障害物状況、天候、看板、路面状況、他の移動体状況等を示す情報である。
地図情報は、地図データベース7から取得される情報である。地図情報は、例えば、施設情報、道路形状、地形データ、舗装状況、鉄道等である。
例えば、参照情報取得部9は、評価情報のキーワードのジャンルが「天候」であり、天気情報に関するプロバイダ情報が存在する、または評価情報のキーワードのジャンルが「イベント」であり、イベント情報またはSNS情報に関するプロバイダ情報が存在すると、評価情報との関連性について評価することができると判断する。
また、参照情報取得部9は、評価情報のキーワードのジャンルが「交通状況」であり、交通状況に関する車載カメラ情報が存在すると、評価情報との関連性について評価することができると判断する。
また、参照情報取得部9は、評価情報のキーワードのジャンルが「道路形状」であり、道路形状に関する地図情報が存在すると、評価情報との関連性について評価することができると判断する。
なお、上記ではキーワードのジャンルを用いて、関連する情報が存在するかを判断する場合を例に示したが、評価情報がキーワードのジャンルを含んでいない場合には、参照情報取得部9が、例えばキーワードデータベース4を参照して、キーワードがどのジャンルに属するか判断し、判断した内容に関する情報が存在するか判断する。例えば、参照情報取得部9は、キーワードが「いい眺め」である場合、ジャンルは「景色」であると判断し、景色に関するコンテンツプロバイダ情報、車載カメラ情報、または地図情報が存在するか判断する。
蓄積判定部10は、評価情報作成部8が作成した評価情報のキーワードと、参照情報取得部9が取得した参照情報とを比較して、評価情報と参照情報の関連性を評価する。蓄積判定部10は、関連性を、例えば評価情報のキーワードと参照情報との一致度、類似度、共通部分の有無または共通部分の割合等のいずれかに基づいて、評価する。
また、評価情報に、発話時の車両の方位情報が含まれ、キーワードは「前」、「後ろ」などが抽出されて含まれている場合には、これらの上方も考慮して関連性を評価することも可能である。
図6は、実施の形態1に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。なお、図6のフローチャートでは、参照情報取得部9が、一時格納領域に記憶されているコンテンツプロバイダ情報から参照情報を取得する場合を例に説明する。
この実施の形態2では、参照情報として車両情報を用いる構成を示す。なお、実施の形態1で示したコンテンツプロバイダ情報、車載カメラ情報または地図情報の少なくとも1つに替えて、車両情報のみを用いてもよいし、実施の形態1で示したコンテンツプロバイダ情報、車載カメラ情報または地図情報の少なくとも1つの情報と車両情報とを組み合わせて用いてもよい。
実施の形態2に係る情報処理装置100の構成は、上記実施の形態1の図1に示した情報処理装置100の構成と図面上は同様であるため、ブロック図の記載を省略し、以下では図1を用いて説明する。
なお、参照情報として車両の速度、方位、操舵角等を用いた判定と、参照情報として楽曲の歌詞を示す情報を用いた判定とを組み合わせて、評価情報との関連性を評価してもよい。
図7は、実施の形態2に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。なお、図7のフローチャートでは、参照情報取得部9が、一時格納領域に記憶されている車両情報から参照情報を取得する場合を例に説明する。
この実施の形態3では、蓄積サーバ200から取得した過去の評価情報を用いて、新たに評価情報作成部8が作成した評価情報を評価する構成を示す。
なお、実施の形態1および実施の形態2で示したコンテンツプロバイダ情報、車載カメラ情報、地図情報または車両情報の少なくとも1つに替えて、過去の評価情報のみを用いてもよいし、実施の形態1および実施の形態2で示したコンテンツプロバイダ情報、車載カメラ情報、地図情報または車両情報の少なくとも1つの情報と過去の評価情報とを組み合わせて用いてもよい。
参照情報取得部9は、設定した評価情報の発話エリア内の過去の評価情報の取得を要求する際に、現在時刻から5分前までの期間で登録された評価情報のみを検索対象とすると指定してもよいし、前日の同一のタイミング、例えば前日の夕方の2時間で登録された評価情報のみを検索対象とすると指定してもよい。参照情報取得部9が指定する検索対象は任意に設定することができる。
図8は、実施の形態3に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。
また、キーワード同士の一致度を用いて評価情報と参照情報の関連性を評価するのみではなく、評価情報のジャンル、相対的な評価を示す表現同士の一致度、類似度、乖離度等を用いて評価情報と参照情報の関連性を評価することができる。
また、蓄積判定部10が評価情報と参照情報の関連性を評価する場合に、過去のユーザ毎の蓄積率、または評価情報に対する投稿結果を考慮してもよい。
また、蓄積判定部10が評価情報のユーザ毎の蓄積率を考慮することにより、悪意あるユーザの投稿を抑制する効果もある。
この実施の形態4では、参照情報として搭乗者の属性情報を用いる構成を示す。なお、実施の形態1,2,3で示した参照情報に替えて、搭乗者の属性情報のみを用いてもよいし、実施の形態1,2,3で示した参照情報のいずれか、または全てと搭乗者の属性情報とを組み合わせて用いてもよい。
図9は、この発明の実施の形態4に係る情報処理装置100aの構成を示すブロック図である。実施の形態4に係る情報処理装置100aは、図1に示した実施の形態1の情報処理装置100に対して属性情報蓄積部13および話者特定部14が追加され、参照情報取得部9および蓄積判定部10に替えて参照情報取得部9aおよび蓄積判定部10aを備えた構成である。図9において図1と同一または相当する部分は、同一の符号を付し説明を省略する。
属性情報蓄積部13は、搭乗者の口癖として、例えば「疲れた」、「無理」、「しんどい」、「めんどい」、「やばい」等、特に搭乗者の感情を示す口癖を記憶する。
属性情報蓄積部13は、搭乗者の趣味嗜好として、例えば車載機器での目的地の設定履歴、車載機器での訪問地点の履歴、視聴するテレビ番組または楽曲、通常の会話から推測される事項等を記憶する。
発話者の表情情報を取得する方法は種々想定されるが、例えば図示しない機器が、発話者の特定を行った後、特定された発話者の車載カメラによる撮像画像から発話者の表情を推定し、近似する感情表現に分類する。具体的には、発話者の表情を、喜、怒、哀、楽、怖、恥、好、厭、昂、驚等の感情表現に分類する。
参照情報取得部9aは、評価情報作成部8が作成した評価情報が、発話者の口癖、発話者の趣味嗜好等に依存する情報でないか判断するための参照情報を取得する。参照情報取得部9aは、属性情報蓄積部13から発話者の状態を示す情報を取得する。ここでいう発話者の状態とは、上述した発話者の口癖、発話者の趣味嗜好、発話時の発話者の視線情報、発話時の搭乗者の表情情報等である。
また、参照情報が、発話者の趣味嗜好への依存を判断するための情報である場合、蓄積判定部10aは、参照情報と、評価情報のキーワードとを比較して、発話者の趣味嗜好が含まれていた場合には、蓄積制御部11に対して評価情報の蓄積を指示しない。これにより、個人の癖、個人の偏った発話に基づく評価情報を蓄積してしまうのを抑制することができる。
情報処理装置100aにおける参照情報取得部9aは、外部からの情報を入力する図3における入力装置101により実現される。また、情報処理装置100aにおける属性情報蓄積部13は、図3で示したメモリ103により実現される。また、情報処理装置100aにおける蓄積判定部10aおよび話者特定部14は、処理回路により実現される。処理回路は、図3で示したメモリ103に格納されるプログラムを実行するCPU(Central Processing Unit)102である。
図10は、実施の形態4による情報処理装置100aの動作を示すフローチャートである。図10において、図5で示した実施の形態1のフローチャートと同一のステップには同一の符号を付し、説明を省略する。
ステップST101で発話音声が収集されると、ステップST102の発話音声の認識処理と並行して、話者特定部14が収集された発話音声の発話者を特定する(ステップST501)。話者特定部14は、特定した発話者を示す情報を情報抽出部3に出力する。情報抽出部3はステップST103およびステップST104の処理によりキーワードを抽出する。情報抽出部3は、抽出したキーワードと、発話者を示す情報とを評価情報作成部8に出力する。位置情報取得部5は、ステップST105の処理により、発話時の日時情報、発話時の車両の位置情報および発話時の車両の方位情報を取得する。評価情報作成部8は、ステップST103で抽出されたキーワードと、発話時の日時情報と、ステップST105で取得された車両の位置情報および方位情報と、ステップST501で特定された発話者を示す情報とを組み合わせて評価情報を作成する(ステップST502)。
図11は、実施の形態4に係る情報処理装置100aの参照情報取得部9aおよび蓄積判定部10aの動作を示すフローチャートである。なお、図11のフローチャートでは、参照情報取得部9aが、属性情報蓄積部13に記憶されている発話者の口癖を示す情報を取得する場合を例に説明する。なお、図11のフローチャートでは、評価情報にキーワードが含まれている場合を例に説明する。
図12において、図11で示したフローチャート同一のステップには同一の符号を付し、説明を省略する。
参照情報取得部9aは、ステップST601で特定した発話者の趣味嗜好を示す情報を属性情報蓄積部13から取得する(ステップST611)。蓄積判定部10aは、ステップST605で取得された発話者の趣味嗜好を示す情報と、評価情報に含まれるキーワードとを比較して、発話者の趣味嗜好が含まれているか判定を行う(ステップST612)。キーワードに発話者の趣味嗜好が含まれている場合(ステップST612;YES)、図10のフローチャートのステップST101に戻る。一方、キーワードに発話者の趣味嗜好が含まれていない場合(ステップST612;NO)、蓄積判定部10aは評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST604)、図10のフローチャートのステップST110の処理に進む。
図13において、図11で示したフローチャート同一のステップには同一の符号を付し、説明を省略する。
参照情報取得部9aは、ステップST601で特定した発話者の視線を示す情報を属性情報蓄積部13から取得する(ステップST621)。蓄積判定部10aは、ステップST621で取得された発話者の視線を示す情報から、発話者が車外を向いて発話しているか判定を行う(ステップST622)。発話者が車外を向いて発話していない場合(ステップST622;NO)、図10のフローチャートのステップST101に戻る。一方、発話者が車外を向いて発話している場合(ステップST622;YES)、蓄積判定部10aは評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST604)、図10のフローチャートのステップST110の処理に進む。
蓄積判定部10aは、ステップST604の処理が終了すると、参照情報取得部9aが視線を示す情報と異なる情報を参照情報として取得し、蓄積判定部10aが蓄積するか判断する処理に進むように構成してもよい。
図14において、図11で示したフローチャート同一のステップには同一の符号を付し、説明を省略する。
参照情報取得部9aは、ステップST601で特定した発話者の感情表現を示す情報を属性情報蓄積部13から取得する(ステップST631)。蓄積判定部10aは、評価情報に含まれるキーワードに発話者の感情表現が含まれるか判定を行う(ステップST632)。発話者の感情表現が含まれない場合(ステップST632;NO)、図10のフローチャートのステップST101に戻る。一方、発話者の感情表現が含まれる場合(ステップST632;YES)、ステップST631で取得された発話者の感情表現を示す情報と、評価情報に含まれるキーワードとを比較して、発話者の感情表現を示す情報とキーワードの感情表現が一致するか判定を行う(ステップST633)。感情表現が一致しない場合(ステップST633;NO)、図10のフローチャートのステップST101に戻る。一方、感情表現が一致する場合(ステップST633;YES)、蓄積判定部10aは評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST604)、図10のフローチャートのステップST110の処理に進む。
この実施の形態5では、参照情報として評価情報に含まれるキーワード等に含まれる日時情報または位置情報(以下、それぞれキーワード日時情報、キーワード位置情報という)の少なくとも1つに基づいて評価情報の蓄積を判定する構成を示す。なお、実施の形態1−4で示した参照情報に替えて、キーワード日時情報またはキーワード位置情報のみを用いてもよいし、実施の形態1−4で示した参照情報とキーワード日時情報またはキーワード位置情報の少なくとも1つを組み合わせて用いてもよい。
実施の形態5に係る情報処理装置100の構成は、上記実施の形態1の図1に示した情報処理装置100の構成と図面上は同様であるため、ブロック図の記載を省略し、以下では図1を用いて説明する。
また、蓄積判定部10は、参照情報取得部9の参照情報に位置情報が含まれる場合には、評価情報に含まれる発話時の車両の位置情報を取得し、双方の位置情報が同一エリアに存在するか判定を行う。ここで、2つの位置情報が示す位置が同一エリアに存在しているかは、2つの位置情報が設定された領域内、例えば半径1km以内に共に存在している等の条件に基づいて判定する。即ち、厳密に位置が一致している必要はない。
図15は、実施の形態5に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。
なお、図15のフローチャートでは、参照情報取得部9が評価情報に含まれるキーワードから日時情報を取得する場合を例に説明する。
一方、2つの日時情報が同日同時刻を示している場合(ステップST704;YES)、蓄積判定部10は評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST705)、図5のフローチャートのステップST110の処理に進む。
この実施の形態6では、参照情報として電話の通話状態を示す情報を用いる構成を示す。なお、実施の形態1−5で示した参照情報に替えて、電話の通話状態を示す情報のみを用いてもよいし、実施の形態1−5で示した参照情報と電話の通話状態を示す情報とを組み合わせて用いてもよい。
図17は、この発明の実施の形態6に係る情報処理装置100bの構成を示すブロック図である。実施の形態6に係る情報処理装置100bは、図1に示した実施の形態1の情報処理装置100に対して話者特定部14が追加された構成である。図17において図1と同一または相当する部分は、同一の符号を付し説明を省略する。
蓄積判定部10bは、発話者の通話状態を示す情報を取得する。発話者の通話状態を示す情報は、例えば車載カメラの撮像画像の画像認識により得られる情報、ハンズフリー通話の使用を示す情報等である。蓄積判定部10bは、この発話者の通話状態を示す情報を、例えば情報処理装置100bの外部の図示しない装置から取得する。蓄積判定部10bは、発話者の通話状態を示す情報を参照して、発話者が通話中である場合には、蓄積制御部11に対して評価情報の蓄積を指示しない。なお、通話状態を示す情報を用いた判定は、その他の情報との比較と組み合わせて実施するのが望ましい。
情報処理装置100bにおける蓄積判定部10bおよび話者特定部14は、処理回路により実現される。処理回路は、図3で示したメモリ103に格納されるプログラムを実行するCPU(Central Processing Unit)102である。
ステップST101で発話音声が収集されると、ステップST102の発話音声の認識処理と並行して、話者特定部14が収集された発話音声の発話者を特定する(ステップST801)。話者特定部14は、特定した発話者を示す情報を情報抽出部3に出力する。情報抽出部3はステップST103およびステップST104の処理によりキーワードを抽出する。情報抽出部3は、抽出したキーワードと、発話者を示す情報とを評価情報作成部8に出力する。位置情報取得部5は、ステップST105の処理により、発話時の日時情報における発話時の車両の位置情報および発話時の車両の方位情報を取得する。評価情報作成部8は、ステップST103で抽出されたキーワードと、発話時の日時情報と、ステップST105で取得された発話時の車両の位置情報および発話時の車両の方位情報と、ステップST801で特定された発話者を示す情報とを組み合わせて評価情報を作成する(ステップST802)。
この実施の形態7では、蓄積サーバ200の評価情報データベース23に蓄積された、過去の評価情報を取得し、車両の搭乗者に提示する構成を示す。
評価情報取得部16は、経路情報蓄積部15から現在設定されている目的地までの走行経路を取得する。また、車両が目的地を設定しないまま走行している場合、評価情報取得部16は、経路情報蓄積部15から車両の過去の走行履歴を取得し、車両情報取得部6から入力される車両の現在位置に基づいて車両の目的地および走行経路を推測する。
評価情報取得部16は、現在設定されている走行経路、または推測される走行経路に関する過去の評価情報の取得要求を蓄積サーバ200に出力する。評価情報取得部16は、評価情報の取得要求に応じて蓄積サーバ200から送信された評価情報を取得する。評価情報取得部16は、取得した過去の評価情報を、走行経路と共に出力制御部17に出力する。
なお、経路情報蓄積部15は情報処理装置100c外にあって、評価情報取得部16は、情報処理装置100c外の経路情報蓄積部15からこれらの情報を取得してもよい。
出力部18は、例えばスピーカまたはディスプレイ等であり、出力制御部17が割り当てた評価情報を各地点で音声出力、または表示出力する。
なお、出力部18は、情報処理装置100c外にあってもよい。
図20は、実施の形態8に係る情報処理装置100aの評価情報の出力の動作を示すフローチャートである。
搭乗者が評価情報の表示指示を入力すると、評価情報取得部16は、経路情報蓄積部15を参照し、目的地までの走行経路が設定されているか判定を行う(ステップST901)。目的地までの走行経路が設定されていない場合(ステップST901;NO)、評価情報取得部16は、経路情報蓄積部15に記憶された車両の走行履歴から走行経路を推測する(ステップST902)。目的地までの走行経路が設定されている場合(ステップST901;YES)、およびステップST902で走行経路が推測された場合、評価情報取得部16は、走行経路に関連する過去の評価情報の取得要求を、通信部12を介して蓄積サーバ200に出力、即ち送信する(ステップST903)。
この実施の形態8では、上述した実施の形態1−7の機能を備えた情報処理サーバの構成を示す。なお、以下では、実施の形態1の機能を備えた情報処理サーバの例を示すが、実施の形態2−7の機能を備えた情報処理サーバを構成することが可能である。
図21は、実施の形態8に係る情報処理サーバ300の構成を示すブロック図である。図21において実施の形態1−7と同一または相当する部分は、同一の符号を付し説明を省略する。
情報処理サーバ300は、通信部12、制御部301、キーワードデータベース4、地図データベース7および評価情報データベース23を備える。
また、制御部301は、情報抽出部3、位置情報取得部5、評価情報作成部8、参照情報取得部9、蓄積判定部10、蓄積制御部11および出力制御部17を備える。
情報抽出部3は、情報処理サーバ300の外部の装置が取得した音声認識結果を取得するものとする。位置情報取得部5は、情報処理サーバ300の外部の装置が取得した車両情報を取得するものとする。
また、情報処理サーバ300は、通信部12が他の機器からの送信された評価情報の取得要求を受信すると、当該取得要求に応じて、出力制御部17が評価情報データベース23に蓄積した対応する評価情報を読み出して、通信部12を介して他の機器に送信する。
Claims (9)
- 移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組
み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部と、
前記搭乗者のうち話者を特定する話者特定部とを備え、
前記情報抽出部が抽出する情報は、キーワード及び前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、前記話者特定部により話者であると特定された搭乗者の口癖を含む属性情報を取得し、
前記蓄積判定部は、前記話者特定部により話者であると特定された搭乗者の口癖が前記キーワードに含まれていた場合には前記評価情報を蓄積しないと判定し、前記話者特定部により話者であると特定された搭乗者の口癖が前記キーワードに含まれていない場合には前記評価情報を蓄積すると判定する情報処理装置。 - 移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組
み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部と、
前記搭乗者のうち話者を特定する話者特定部とを備え、
前記情報抽出部が抽出する情報は、キーワード及び前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、前記話者特定部により話者であると特定された搭乗者が前記キーワードを発話した時の表情を含む属性情報を取得し、
前記蓄積判定部は、前記表情を予め設定された感情表現のいずれかに分類し、前記キーワードに含まれる感情表現と前記表情から分類された感情表現とが一致する場合には前記評価情報を蓄積すると判定し、前記キーワードに含まれる感情表現と前記表情から分類された感情表現とが一致しない場合には前記評価情報を蓄積しないと判定する情報処理装置。 - 移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部と、
前記搭乗者のうち話者を特定する話者特定部とを備え、
前記情報抽出部が抽出する情報は、前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、電話の通話状態を示す情報を取得し、
前記蓄積判定部は、前記話者特定部により話者であると特定された搭乗者が通話中である場合には前記評価情報を蓄積しないと判定し、前記話者特定部により話者であると特定された搭乗者が通話中でない場合には前記評価情報を蓄積すると判定する情報処理装置。 - 外部機器と通信する通信部と、
前記通信部を介して入力された移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記通信部を介して入力された前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか判定する蓄積判定部と、
前記蓄積判定部が蓄積すると判定した前記評価情報を蓄積する蓄積部と、
前記通信部を介して前記外部機器から前記評価情報の取得要求が入力された場合に、前記蓄積部に蓄積された評価情報を取得し、前記外部機器に出力するための制御を行う出力
制御部と、
前記搭乗者のうち話者を特定する話者特定部とを備え、
前記情報抽出部が抽出する情報は、キーワード及び前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、前記話者特定部により話者であると特定された搭乗者の口癖を含む属性情報を取得し、
前記蓄積判定部は、前記話者特定部により話者であると特定された搭乗者の口癖が前記キーワードに含まれていた場合には前記評価情報を蓄積しないと判定し、前記話者特定部により話者であると特定された搭乗者の口癖が前記キーワードに含まれていない場合には前記評価情報を蓄積すると判定する情報処理サーバ。 - 外部機器と通信する通信部と、
前記通信部を介して入力された移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記通信部を介して入力された前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか判定する蓄積判定部と、
前記蓄積判定部が蓄積すると判定した前記評価情報を蓄積する蓄積部と、
前記通信部を介して前記外部機器から前記評価情報の取得要求が入力された場合に、前記蓄積部に蓄積された評価情報を取得し、前記外部機器に出力するための制御を行う出力制御部と、
前記搭乗者のうち話者を特定する話者特定部とを備え、
前記情報抽出部が抽出する情報は、キーワード及び前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、前記話者特定部により話者であると特定された搭乗者が前記キーワードを発話した時の表情を含む属性情報を取得し、
前記蓄積判定部は、前記表情を予め設定された感情表現のいずれかに分類し、前記キーワードに含まれる感情表現と前記表情から分類された感情表現とが一致する場合には前記評価情報を蓄積すると判定し、前記キーワードに含まれる感情表現と前記表情から分類された感情表現とが一致しない場合には前記評価情報を蓄積しないと判定する情報処理サーバ。 - 外部機器と通信する通信部と、
前記通信部を介して入力された移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記通信部を介して入力された前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか判定する蓄積判定部と、
前記蓄積判定部が蓄積すると判定した前記評価情報を蓄積する蓄積部と、
前記通信部を介して前記外部機器から前記評価情報の取得要求が入力された場合に、前記蓄積部に蓄積された評価情報を取得し、前記外部機器に出力するための制御を行う出力制御部と、
前記搭乗者のうち話者を特定する話者特定部とを備え、
前記情報抽出部が抽出する情報は、前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、電話の通話状態を示す情報を取得し、
前記蓄積判定部は、前記話者特定部により話者であると特定された搭乗者が通話中である場合には前記評価情報を蓄積しないと判定し、前記話者特定部により話者であると特定された搭乗者が通話中でない場合には前記評価情報を蓄積すると判定する情報処理サーバ。 - コンピュータを、
移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組
み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得す
る参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報と
を比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部と、
前記搭乗者のうち話者を特定する話者特定部として機能させ、
前記情報抽出部が抽出する情報は、キーワード及び前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、前記話者特定部により話者であると特定された搭乗者の口癖を含む属性情報を取得し、
前記蓄積判定部は、前記話者特定部により話者であると特定された搭乗者の口癖が前記キーワードに含まれていた場合には前記評価情報を蓄積しないと判定し、前記話者特定部により話者であると特定された搭乗者の口癖が前記キーワードに含まれていない場合には前記評価情報を蓄積すると判定するように機能させるためのプログラム。 - コンピュータを、
移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部と、
前記搭乗者のうち話者を特定する話者特定部として機能させ、
前記情報抽出部が抽出する情報は、キーワード及び前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、前記話者特定部により話者であると特定された搭乗者が前記キーワードを発話した時の表情を含む属性情報を取得し、
前記蓄積判定部は、前記表情を予め設定された感情表現のいずれかに分類し、前記キーワードに含まれる感情表現と前記表情から分類された感情表現とが一致する場合には前記評価情報を蓄積すると判定し、前記キーワードに含まれる感情表現と前記表情から分類された感情表現とが一致しない場合には前記評価情報を蓄積しないと判定するように機能させるためのプログラム。 - コンピュータを、
移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部と、
前記搭乗者のうち話者を特定する話者特定部として機能させ、
前記情報抽出部が抽出する情報は、前記話者特定部により話者であると特定された搭乗者を示す情報を含み、
前記参照情報取得部は、前記参照情報として、電話の通話状態を示す情報を取得し、
前記蓄積判定部は、前記話者特定部により話者であると特定された搭乗者が通話中である場合には前記評価情報を蓄積しないと判定し、前記話者特定部により話者であると特定された搭乗者が通話中でない場合には前記評価情報を蓄積すると判定するように機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016013269A JP6590710B2 (ja) | 2016-01-27 | 2016-01-27 | 情報処理装置、情報処理サーバおよびプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016013269A JP6590710B2 (ja) | 2016-01-27 | 2016-01-27 | 情報処理装置、情報処理サーバおよびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017134577A JP2017134577A (ja) | 2017-08-03 |
JP6590710B2 true JP6590710B2 (ja) | 2019-10-16 |
Family
ID=59503705
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016013269A Active JP6590710B2 (ja) | 2016-01-27 | 2016-01-27 | 情報処理装置、情報処理サーバおよびプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6590710B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7064952B2 (ja) * | 2018-05-17 | 2022-05-11 | オリンパス株式会社 | 情報処理装置、情報処理方法およびプログラム |
JP7095431B2 (ja) * | 2018-06-19 | 2022-07-05 | トヨタ自動車株式会社 | 情報処理装置、情報処理方法、情報処理システム |
JP6664596B2 (ja) * | 2018-08-30 | 2020-03-13 | ヤフー株式会社 | 評価装置、評価方法及び評価プログラム |
JP7337965B2 (ja) * | 2020-02-10 | 2023-09-04 | 三菱電機株式会社 | 発話者推定装置 |
KR102468307B1 (ko) * | 2021-02-06 | 2022-11-17 | 주식회사 엠에이치엔씨티 | 주차 및 주행시 차량용 블랙박스 이벤트 감지시스템 및 이벤트 학습방법 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4909633B2 (ja) * | 2006-05-12 | 2012-04-04 | ヤフー株式会社 | 投稿情報の評価方法およびシステム |
JP2009104319A (ja) * | 2007-10-22 | 2009-05-14 | Navitime Japan Co Ltd | 交通機関障害情報および復旧情報提供システム、情報提供サーバ、携帯端末装置ならびに交通機関障害情報および復旧情報提供方法 |
JP5372254B2 (ja) * | 2010-07-21 | 2013-12-18 | 楽天株式会社 | サーバ装置、投稿情報処理方法、投稿情報処理プログラム及び記録媒体 |
US20140259189A1 (en) * | 2013-03-11 | 2014-09-11 | Qualcomm Incorporated | Review system |
JP6173477B2 (ja) * | 2013-10-22 | 2017-08-02 | 三菱電機株式会社 | ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法 |
JP5683726B2 (ja) * | 2014-03-17 | 2015-03-11 | ヤフー株式会社 | 情報提供装置及び情報提供方法 |
JP6022627B2 (ja) * | 2014-03-27 | 2016-11-09 | 株式会社電通 | 避難支援システム、避難支援用管理プログラム、避難支援用端末アプリケーションプログラム及び避難支援方法 |
-
2016
- 2016-01-27 JP JP2016013269A patent/JP6590710B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2017134577A (ja) | 2017-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6590710B2 (ja) | 情報処理装置、情報処理サーバおよびプログラム | |
CN109801491A (zh) | 基于风险评估的智能导航方法、装置、设备及存储介质 | |
KR20180070970A (ko) | 음성 인식 방법 및 장치 | |
CN107850455B (zh) | 提供具有可通航路线的导航系统 | |
CN111762147B (zh) | 控制装置、控制方法以及存储程序的存储介质 | |
JP2007017990A (ja) | 単語列認識装置 | |
US8645143B2 (en) | Systems and methods of performing speech recognition using global positioning (GPS) information | |
US20100292917A1 (en) | System and method for guiding a user through a surrounding environment | |
WO2014057540A1 (ja) | ナビゲーション装置およびナビゲーション用サーバ | |
JP6173477B2 (ja) | ナビゲーション用サーバ、ナビゲーションシステムおよびナビゲーション方法 | |
KR20190041569A (ko) | 대화 시스템, 이를 포함하는 차량 및 대화 서비스 처리 방법 | |
JP6846617B2 (ja) | 情報提供方法、サーバ、情報端末装置、システム及び音声対話システム | |
JP4156563B2 (ja) | 単語列認識装置 | |
JP2006251298A (ja) | 音声入力装置および音声入力方法 | |
KR20200000155A (ko) | 대화 시스템 및 이를 이용한 차량 | |
US20220365991A1 (en) | Method and apparatus for enhancing a geolocation database | |
KR20190011458A (ko) | 차량, 그와 통신하는 모바일 기기 및 차량의 제어 방법 | |
JP7426176B2 (ja) | 情報処理システム、情報処理方法、情報処理プログラム、およびサーバ | |
JP2018097292A (ja) | 感情識別装置、感情識別方法および感情識別プログラム | |
JP6956232B2 (ja) | 探索システム、探索方法、および探索プログラム | |
KR20200006738A (ko) | 대화 시스템 및 대화 처리 방법 | |
US20180090133A1 (en) | Keyword generation apparatus and keyword generation method | |
JP4497526B2 (ja) | ナビゲーション装置、情報呈示方法、およびナビゲーション用プログラム | |
US9803991B2 (en) | Route guide device and route guide method | |
JP4661379B2 (ja) | 車載音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180502 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190308 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190416 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20190419 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190703 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190820 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190917 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6590710 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |