JP2017134577A - Information processing unit, information processing server, and information processing method - Google Patents

Information processing unit, information processing server, and information processing method Download PDF

Info

Publication number
JP2017134577A
JP2017134577A JP2016013269A JP2016013269A JP2017134577A JP 2017134577 A JP2017134577 A JP 2017134577A JP 2016013269 A JP2016013269 A JP 2016013269A JP 2016013269 A JP2016013269 A JP 2016013269A JP 2017134577 A JP2017134577 A JP 2017134577A
Authority
JP
Japan
Prior art keywords
information
unit
evaluation
evaluation information
utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016013269A
Other languages
Japanese (ja)
Other versions
JP6590710B2 (en
Inventor
博彬 柴田
Hiroyoshi Shibata
博彬 柴田
翔伍 岡本
Shogo Okamoto
翔伍 岡本
季美果 池上
Kimika Ikegami
季美果 池上
晃平 鎌田
Kohei Kamata
晃平 鎌田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2016013269A priority Critical patent/JP6590710B2/en
Publication of JP2017134577A publication Critical patent/JP2017134577A/en
Application granted granted Critical
Publication of JP6590710B2 publication Critical patent/JP6590710B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To recognize utterance contents of a passenger regardless of whether or not a specific feature exists, and create evaluation information by using utterance contents reflecting a current circumstance of an event being an utterance object.SOLUTION: An information processing unit includes an evaluation information creating part 8 which creates evaluation information by combining information extracted from a voice recognition result of utterance of a passenger of a mobile body and position information of the mobile body at the utterance, a reference information acquisition part 9 which acquires, as reference information, a current circumstance of an event relating to the evaluation information, and an accumulation determination part 10 which compares the evaluation information and the reference information, and determines whether or not to store the evaluation information.SELECTED DRAWING: Figure 1

Description

この発明は、発話が行われた地点の評価情報を作成する情報処理装置、情報処理サーバおよび情報処理方法に関するものである。   The present invention relates to an information processing apparatus, an information processing server, and an information processing method for creating evaluation information on a point where an utterance is made.

従来、移動体の搭乗者の発話を認識し、設定されたキーワードが認識された場合に当該キーワードに対応した評価情報を移動体の現在位置情報と組み合わせて蓄積する方法が提案されている。例えば、特許文献1に記載された情報記憶装置は、移動体が所定の地物から所定の範囲内に位置する場合に、移動体の搭乗者の会話を継続的に解析し、発話内容が所定の地物に関するものである場合に、その地物と発話内容とを関連付けて評価情報として記録していた。   Conventionally, there has been proposed a method of recognizing the utterance of a passenger of a mobile object and storing evaluation information corresponding to the keyword in combination with current position information of the mobile object when a set keyword is recognized. For example, the information storage device described in Patent Document 1 continuously analyzes the conversation of a passenger of a moving object when the moving object is located within a predetermined range from a predetermined feature, and the utterance content is predetermined. When the feature is related to the feature, the feature and the utterance content are associated with each other and recorded as evaluation information.

特開2011−179917号公報JP 2011-179917 A

上記特許文献1によれば、例えば「東京タワー」等の地物の周辺領域に移動体が進入すると搭乗者の発話を受け付けて音声認識を開始するため、搭乗者の発話内容を記録するためには予め辞書等に登録された所定の地物が必要であるという課題があった。そのため、移動体が所定の地物の周辺領域外に位置している場合には、発話内容を記録することができなかった。
また、発話内容が所定の地物に関するものであると判断した場合に、その地物と発話内容とを関連付けて記録するため、所定の地物を見た際に発話する当該地物の過去の状況、当該地物に関する搭乗者の思い出等、所定の地物の現在の状況を反映していない発話内容であっても評価情報として記録してしまうことがある、または登録されていない地物について発話された場合、発話内容を記録することができないという課題があった。
According to Patent Document 1, for example, when a moving object enters a peripheral area of a feature such as “Tokyo Tower”, the utterance of the occupant is accepted and voice recognition is started, so that the utterance content of the occupant is recorded. Has a problem that a predetermined feature previously registered in a dictionary or the like is necessary. Therefore, when the moving body is located outside the peripheral area of the predetermined feature, the utterance content cannot be recorded.
In addition, when it is determined that the utterance content is related to the predetermined feature, the feature and the utterance content are recorded in association with each other, so that the past of the feature to be uttered when the predetermined feature is viewed is recorded. About features that are recorded as evaluation information even if the utterance content does not reflect the current status of a given feature, such as the situation, the passenger's memories about the feature, etc. When uttered, there is a problem that the utterance content cannot be recorded.

この発明は、上記のような課題を解決するためになされたもので、特定の地物が存在するかに関わらずに搭乗者の発話内容を認識し、発話の対象である事象の現在の状況を反映した発話内容を用いて評価情報を作成することを目的とする。   The present invention has been made to solve the above-described problems, and recognizes the utterance content of a passenger regardless of whether a specific feature exists, and the current situation of an event to be uttered. The purpose is to create evaluation information using the utterance content that reflects.

この発明に係る情報処理装置は、移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、発話時の移動体の位置情報を取得する位置情報取得部と、情報抽出部が抽出した情報と、位置情報取得部が取得した位置情報とを組み合わせた評価情報を作成する評価情報作成部と、評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、評価情報作成部が作成した評価情報と、参照情報取得部が取得した参照情報とを比較し、評価情報を蓄積するか否かを判定する蓄積判定部とを備えるものである。   An information processing apparatus according to the present invention includes an information extraction unit that extracts information from a speech recognition result of an utterance of an occupant of a moving body, a position information acquisition unit that acquires position information of the moving body during utterance, and an information extraction unit The evaluation information creation unit that creates evaluation information that combines the information extracted by the location information acquired by the location information acquisition unit, and the current status of events related to the evaluation information created by the evaluation information creation unit are acquired as reference information A reference information acquisition unit that compares the evaluation information created by the evaluation information creation unit with the reference information acquired by the reference information acquisition unit, and determines whether or not to accumulate the evaluation information It is.

この発明によれば、特定の地物が存在するかに関わらず搭乗者の発話内容を認識し、発話の対象である事象の現在の状況が反映された発話内容を用いて評価情報を作成することができる。   According to this invention, regardless of whether a specific feature exists, the utterance content of the passenger is recognized, and evaluation information is created using the utterance content reflecting the current situation of the event that is the utterance target. be able to.

実施の形態1に係る情報処理装置の構成を示すブロック図である。1 is a block diagram illustrating a configuration of an information processing device according to a first embodiment. 実施の形態1に係る情報処理装置のキーワードデータベースの構成例を示す図である。3 is a diagram illustrating a configuration example of a keyword database of the information processing apparatus according to Embodiment 1. FIG. 実施の形態1に係る情報処理装置のハードウェア構成例を示す図である。2 is a diagram illustrating a hardware configuration example of the information processing apparatus according to Embodiment 1. FIG. 実施の形態1に係る蓄積サーバのハードウェア構成例を示す図である。FIG. 3 is a diagram illustrating a hardware configuration example of a storage server according to the first embodiment. 実施の形態1に係る情報処理装置の動作を示すフローチャートである。3 is a flowchart illustrating an operation of the information processing apparatus according to the first embodiment. 実施の形態1に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。6 is a flowchart showing operations of a reference information acquisition unit and an accumulation determination unit of the information processing apparatus according to Embodiment 1; 実施の形態2に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。10 is a flowchart illustrating operations of a reference information acquisition unit and an accumulation determination unit of the information processing apparatus according to the second embodiment. 実施の形態3に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。10 is a flowchart showing operations of a reference information acquisition unit and an accumulation determination unit of the information processing apparatus according to Embodiment 3. 実施の形態4に係る情報処理装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an information processing device according to a fourth embodiment. 実施の形態4に係る情報処理装置の動作を示すフローチャートである。10 is a flowchart illustrating an operation of the information processing apparatus according to the fourth embodiment. 実施の形態4に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。15 is a flowchart illustrating operations of a reference information acquisition unit and an accumulation determination unit of the information processing apparatus according to Embodiment 4. 実施の形態4に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。15 is a flowchart illustrating operations of a reference information acquisition unit and an accumulation determination unit of the information processing apparatus according to Embodiment 4. 実施の形態4に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。15 is a flowchart illustrating operations of a reference information acquisition unit and an accumulation determination unit of the information processing apparatus according to Embodiment 4. 実施の形態4に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。15 is a flowchart illustrating operations of a reference information acquisition unit and an accumulation determination unit of the information processing apparatus according to Embodiment 4. 実施の形態5に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。10 is a flowchart illustrating operations of a reference information acquisition unit and an accumulation determination unit of an information processing device according to Embodiment 5. 実施の形態5に係る情報処理装置の参照情報取得部および蓄積判定部の動作を示すフローチャートである。10 is a flowchart illustrating operations of a reference information acquisition unit and an accumulation determination unit of an information processing device according to Embodiment 5. 実施の形態6に係る情報処理装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an information processing device according to a sixth embodiment. 実施の形態6に係る情報処理装置の動作を示すフローチャートである。18 is a flowchart illustrating an operation of the information processing apparatus according to the sixth embodiment. 実施の形態7に係る情報処理装置の構成を示すブロック図である。FIG. 10 is a block diagram illustrating a configuration of an information processing device according to a seventh embodiment. 実施の形態7に係る情報処理装置の動作を示すフローチャートである。18 is a flowchart showing the operation of the information processing apparatus according to the seventh embodiment. 実施の形態8に係る情報提供サーバの構成を示すブロック図である。FIG. 20 is a block diagram illustrating a configuration of an information providing server according to an eighth embodiment.

以下に示す実施の形態1から実施の形態7では、移動体として車両を適用した場合を例に説明を行うが、車両以外にも列車、航空機および船舶等が適用可能である。また、移動体は人でもよく、その場合、移動体の搭乗者とは当該人自信であるものとする。
実施の形態1.
図1は、この発明の実施の形態1に係る情報処理装置100の構成を示すブロック図である。
情報処理装置100は、入力部1、音声認識部2、情報抽出部3、キーワードデータベース4、位置情報取得部5、車両情報取得部6、地図データベース7、評価情報作成部8、参照情報取得部9、蓄積判定部10、蓄積制御部11および通信部12を備える。また、情報処理装置100は、通信部12、21を介して蓄積サーバ200と接続されている。
In Embodiments 1 to 7 described below, a case where a vehicle is applied as a moving body will be described as an example, but trains, aircraft, ships, and the like can be applied in addition to vehicles. In addition, the moving body may be a person, and in this case, it is assumed that the passenger of the moving body is the person's confidence.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of information processing apparatus 100 according to Embodiment 1 of the present invention.
The information processing apparatus 100 includes an input unit 1, a voice recognition unit 2, an information extraction unit 3, a keyword database 4, a position information acquisition unit 5, a vehicle information acquisition unit 6, a map database 7, an evaluation information creation unit 8, and a reference information acquisition unit. 9, an accumulation determination unit 10, an accumulation control unit 11, and a communication unit 12. The information processing apparatus 100 is connected to the accumulation server 200 via the communication units 12 and 21.

入力部1は、マイク等であり、車両内の搭乗者の発話音声を収集する。音声認識部2は、収集された発話音声を文字列等に変換する認識処理を行い、文字列等を音声認識結果として取得する。音声認識部2は、取得した音声認識結果を情報抽出部3に出力する。情報抽出部3は、音声認識結果にキーワードデータベース4に蓄積されたキーワードが含まれている場合に、当該キーワードを抽出し、位置情報取得部5および評価情報作成部8に出力する。なお、情報抽出部3は、音声認識結果からキーワードのみを抽出するものに限らない。例えば、評価情報にキーワードが属するジャンル、「良い/悪い」または「安全/危険」といった評価を示す言葉、または搭乗者の発話内容全てを抽出してもよい。ただし、以下では、情報抽出部3がキーワードを抽出して、ジャンルと合わせて出力するものとして説明する。   The input unit 1 is a microphone or the like and collects uttered voices of passengers in the vehicle. The voice recognition unit 2 performs a recognition process for converting the collected utterance voice into a character string or the like, and acquires the character string or the like as a voice recognition result. The voice recognition unit 2 outputs the acquired voice recognition result to the information extraction unit 3. When the speech recognition result includes a keyword accumulated in the keyword database 4, the information extraction unit 3 extracts the keyword and outputs it to the position information acquisition unit 5 and the evaluation information creation unit 8. Note that the information extraction unit 3 is not limited to extracting only a keyword from the speech recognition result. For example, the genre to which the keyword belongs in the evaluation information, words indicating evaluation such as “good / bad” or “safe / dangerous”, or all the utterance contents of the passenger may be extracted. However, in the following description, it is assumed that the information extraction unit 3 extracts keywords and outputs them together with the genre.

キーワードデータベース4は、音声認識結果から抽出するためのキーワードを蓄積したものである。キーワードデータベース4の蓄積例を図2に示す。この蓄積例では、キーワードデータベース4は、複数のキーワードをジャンルに関連付けて蓄積している。具体的に、ジャンル「景色」について第1のキーワードとして「きれい」、第2のキーワードとして「いい眺め」、第3のキーワードとして「絶景」を関連付けて蓄積している。例えば、音声認識結果に「きれい」というキーワードが含まれ、情報抽出部3が図2に示すキーワードデータベース4を参照して「きれい」というキーワードを抽出した場合、上述のように、情報抽出部3は、抽出したキーワード「きれい」に加えて、抽出したキーワードが属するジャンル「景色」も合わせて出力する。なお、キーワードデータベース4は、情報処理装置100外に備えられてもよい。   The keyword database 4 stores keywords for extraction from speech recognition results. An example of accumulation of the keyword database 4 is shown in FIG. In this accumulation example, the keyword database 4 accumulates a plurality of keywords in association with genres. Specifically, for the genre “landscape”, “beautiful” as the first keyword, “good view” as the second keyword, and “superb view” as the third keyword are stored in association with each other. For example, when the keyword “beautiful” is included in the speech recognition result and the information extracting unit 3 extracts the keyword “beautiful” with reference to the keyword database 4 shown in FIG. 2, as described above, the information extracting unit 3 Outputs the genre “scenery” to which the extracted keyword belongs in addition to the extracted keyword “beautiful”. Note that the keyword database 4 may be provided outside the information processing apparatus 100.

キーワードデータベース4は、キーワードとして、時系列を示す時系列関連キーワード、周辺道路の状況を示す周辺道路交通関連キーワード、周辺の環境の状況を示す周辺自然環境関連キーワード、発話者の感情を示す感情表現キーワード等を蓄積している。時系列関連キーワードは、季節、年月日、時刻、時間帯、曜日、過去・現在・未来を示す概念等のいずれかを表すキーワードである。
周辺道路交通関連キーワードは、周辺の施設、店舗、建造物、車両、歩行者、移動体、道路、車線、道路標識、交差点、高速出入口、信号、踏切、渋滞、規制、事故等、のいずれかを表すキーワードである。
周辺自然環境関連キーワードは、風景、景観、地形、山、川、湖、海、空、天候、気温、風雨、降雪、積雪、台風、地震、津波、噴火、火災、その他の災害等、のいずれかを表すキーワードである。
感情表現関連キーワードは、発話者の感情、感想、感動、情緒、印象、欲求、欲望、想像、妄想、追想、反撃、反響、愛情、驚嘆、落胆、喜怒哀楽、感覚、食感、五感、嗜好、良否、可否、好き嫌い、向き不向き、リピート欲、寸評、比較、ランキング、コメント、評価等のいずれかを表すキーワードである。
The keyword database 4 includes, as keywords, a time-series related keyword indicating a time series, a surrounding road traffic-related keyword indicating a surrounding road condition, a surrounding natural environment-related keyword indicating a surrounding environment condition, and an emotion expression indicating a speaker's emotion The keyword etc. are accumulated. The time-series related keyword is a keyword representing any one of a season, a date, a time, a time zone, a day of the week, a concept indicating the past / present / future.
Peripheral road traffic-related keywords are any of the following facilities: shops, buildings, vehicles, pedestrians, moving objects, roads, lanes, road signs, intersections, high-speed doorways, traffic lights, railroad crossings, traffic jams, regulations, accidents, etc. Is a keyword representing
The surrounding natural environment-related keywords are landscape, landscape, landform, mountain, river, lake, sea, sky, weather, temperature, wind and rain, snowfall, snow cover, typhoon, earthquake, tsunami, eruption, fire, other disasters, etc. It is a keyword that represents.
Emotional expression-related keywords are: speaker's emotion, impression, impression, emotion, impression, desire, desire, imagination, delusion, recollection, counterattack, echo, affection, marvel, discouragement, emotion, emotion, texture, five senses, It is a keyword that represents one of taste, good / bad, good / bad, likes and dislikes, unsuitable for orientation, repeat greed, critical review, comparison, ranking, comment, evaluation, and the like.

位置情報取得部5は、情報抽出部3からキーワードが入力された場合、その時点の日時を発話時の日時情報として取得する。また、位置情報取得部5は、情報抽出部3からキーワードが入力された場合、その時点の車両の位置情報および方位情報を、それぞれ発話時の車両の位置情報および方位情報として取得する。位置情報取得部5は、これらの情報を、例えばGPS(Global Positioning System)情報、走行方位情報および地図情報等から取得する。位置情報取得部5は、GPS情報および走行方位情報を、車両情報取得部6から取得する。位置情報取得部5は、地図情報を地図データベース7から取得する。車両情報取得部6は、図示しない車載機器に搭載されたGPS受信器から現在の日時および車両の位置情報を含むGPS情報を取得する。また、車両情報取得部6は、車載機器等から車両の走行位置および走行方位を取得する。また、車両情報取得部6は、車両の周辺状況を示す情報(以下、車両の周辺情報と称する)を取得する。
なお、発話時の日時情報は、位置情報取得部5が情報抽出部3からキーワードが入力された場合に、車両情報取得部6から取得することに替えて、入力部1が発話を取得した日時、音声認識部2が音声認識した日時、情報抽出部3がキーワードを抽出した日時等を、情報処理装置100内の図示しない時計等から取得してもよい。
When a keyword is input from the information extraction unit 3, the position information acquisition unit 5 acquires the date and time at that time as date and time information at the time of utterance. Further, when a keyword is input from the information extraction unit 3, the position information acquisition unit 5 acquires the vehicle position information and direction information at that time as the vehicle position information and direction information at the time of utterance, respectively. The position information acquisition unit 5 acquires these pieces of information from, for example, GPS (Global Positioning System) information, traveling direction information, map information, and the like. The position information acquisition unit 5 acquires GPS information and traveling direction information from the vehicle information acquisition unit 6. The position information acquisition unit 5 acquires map information from the map database 7. The vehicle information acquisition unit 6 acquires GPS information including the current date and time and vehicle position information from a GPS receiver mounted on an in-vehicle device (not shown). Moreover, the vehicle information acquisition part 6 acquires the driving | running | working position and driving | running direction of a vehicle from vehicle equipment. In addition, the vehicle information acquisition unit 6 acquires information (hereinafter, referred to as vehicle periphery information) indicating a vehicle surrounding situation.
The date and time information at the time of utterance is the date and time when the input unit 1 acquires the utterance instead of the position information acquiring unit 5 acquiring it from the vehicle information acquiring unit 6 when a keyword is input from the information extracting unit 3. The date and time when the voice recognition unit 2 performs voice recognition, the date and time when the information extraction unit 3 extracts keywords, and the like may be obtained from a clock (not shown) in the information processing apparatus 100.

地図データベース7は、地図情報を蓄積する。なお、情報処理装置100は地図データベース7を備えず、情報処理装置100の外部に設けられた地図データベースから地図情報を取得する構成としてもよい。
評価情報作成部8は、情報抽出部3から入力されたキーワードおよびジャンルと、発話時の日時情報と、発話時の車両の位置情報および方位情報とを組み合わせて評価情報を作成する。
参照情報取得部9は、評価情報作成部8が作成した評価情報が、当該評価情報に含まれるキーワードに関連する事象の現在の状況と関連性があるかを判断するための参照情報を取得する。ここで、参照情報は、当該キーワードに関連する事象の現在の状況、即ち当該事象の現況を示す情報である。この実施の形態1では、参照情報取得部9は、車両情報取得部6から入力される車両の周辺情報から、キーワードに関連する事象の現況を、参照情報として取得する場合を示す。なお、参照情報の詳細については、後述する。
また、ここでは、評価情報作成部8は、評価情報をキーワードおよびジャンルと、発話時の日時情報と、発話時の車両の位置情報および方位情報の組み合わせとしたが、発話時の日時情報と、発話時の車両の方位情報は含まなくともよい。即ち、参照情報取得部9が、参照情報を取得する日時を現在とすれば、評価情報と参照情報との比較が可能である。また、車両の位置情報が分かれば、参照情報取得部9は、参照情報を得ることができる。
The map database 7 stores map information. Note that the information processing apparatus 100 may not include the map database 7 and may acquire map information from a map database provided outside the information processing apparatus 100.
The evaluation information creation unit 8 creates evaluation information by combining the keyword and genre input from the information extraction unit 3, the date and time information at the time of utterance, and the position information and direction information of the vehicle at the time of utterance.
The reference information acquisition unit 9 acquires reference information for determining whether the evaluation information created by the evaluation information creation unit 8 is related to the current situation of the event related to the keyword included in the evaluation information. . Here, the reference information is information indicating the current status of the event related to the keyword, that is, the current status of the event. In this Embodiment 1, the reference information acquisition part 9 shows the case where the present condition of the event relevant to a keyword is acquired as reference information from the surrounding information of the vehicle input from the vehicle information acquisition part 6. FIG. Details of the reference information will be described later.
Here, the evaluation information creating unit 8 uses a combination of the keyword and genre, the date information at the time of utterance, and the position information and direction information of the vehicle at the time of utterance as the evaluation information. The direction information of the vehicle at the time of speaking may not be included. That is, if the reference information acquisition unit 9 acquires the date and time when the reference information is acquired, the evaluation information and the reference information can be compared. In addition, if the position information of the vehicle is known, the reference information acquisition unit 9 can obtain the reference information.

蓄積判定部10は、評価情報作成部8が作成した評価情報と、参照情報取得部9が取得した参照情報とを比較して、評価情報と参照情報の関連性が高く、蓄積すべき情報であるか判定を行う。関連性については、例えば適宜数値化を行い、関連性を示す数値が閾値以上であるか否かを判定する等、何らかの基準を満たすかどうかで判断できるものであれば、どのような手法で行われてもよい。
蓄積制御部11は、蓄積判定部10において評価情報が蓄積すべき情報であると判定された場合に、その評価情報を通信部12を介して蓄積サーバ200側に出力する。
通信部12は、Wi−Fi(登録商標)、3G、4Gなどの通信規格に準拠した通信網やインターネットなどの公共無線通信網にアクセスし、蓄積サーバ200と通信を行い、評価情報の送信を行う。また、通信部12は、外部のネットワークと通信を行い、例えばコンテンツプロバイダからコンテンツプロバイダ情報等を受信する、または車両内外に設置された機器から車両情報等を受信する。
The accumulation determination unit 10 compares the evaluation information created by the evaluation information creation unit 8 with the reference information acquired by the reference information acquisition unit 9, and is highly related to the evaluation information and the reference information. Judgment is made. For relevance, any method can be used as long as it can be judged whether it satisfies some criteria, for example, by appropriately quantifying and determining whether the numerical value indicating relevance is equal to or greater than a threshold value. It may be broken.
When the accumulation determining unit 10 determines that the evaluation information is information to be accumulated, the accumulation control unit 11 outputs the evaluation information to the accumulation server 200 side via the communication unit 12.
The communication unit 12 accesses a communication network conforming to a communication standard such as Wi-Fi (registered trademark), 3G, or 4G, or a public wireless communication network such as the Internet, communicates with the storage server 200, and transmits evaluation information. Do. The communication unit 12 communicates with an external network and receives, for example, content provider information from a content provider, or receives vehicle information from a device installed inside or outside the vehicle.

なお、図1では、情報処理装置100が入力部1および音声認識部2を備える構成を示したが、入力部1および音声認識部2に相当する機能を、車両に搭載された機器、または搭乗者が携帯する携帯端末で実行し、音声認識結果と、発話時の日時情報とが情報処理装置100に入力されるように構成してもよい。   Although FIG. 1 shows a configuration in which the information processing apparatus 100 includes the input unit 1 and the voice recognition unit 2, the functions corresponding to the input unit 1 and the voice recognition unit 2 are performed by a device mounted on the vehicle or boarding. It may be configured such that a voice recognition result and date / time information at the time of utterance are input to the information processing apparatus 100 by being executed by a portable terminal carried by the person.

蓄積サーバ200は、通信部21、制御部22および評価情報データベース23を備える。通信部21は、情報処理装置100と通信を行い、情報処理装置100から評価情報を受信する。評価情報データベース23は、評価情報を蓄積するものである。制御部22は、情報処理装置100から受信した評価情報を評価情報データベース23に蓄積するための制御を行う。また、制御部22は、図示しない外部装置から評価情報の取得要求が入力された場合に、この取得要求に基づいて評価情報データベース23から評価情報を読み出し、対応する外部装置に出力する制御を行う。   The accumulation server 200 includes a communication unit 21, a control unit 22, and an evaluation information database 23. The communication unit 21 communicates with the information processing apparatus 100 and receives evaluation information from the information processing apparatus 100. The evaluation information database 23 stores evaluation information. The control unit 22 performs control for storing the evaluation information received from the information processing apparatus 100 in the evaluation information database 23. In addition, when an acquisition request for evaluation information is input from an external device (not shown), the control unit 22 performs control to read the evaluation information from the evaluation information database 23 based on the acquisition request and output it to the corresponding external device. .

次に、情報処理装置100のハードウェア構成例を説明する。
図3は、情報処理装置100のハードウェア構成例を示す図である。
図3に示すように、情報処理装置100における入力部1、位置情報取得部5、車両情報取得部6および参照情報取得部9は、外部からの情報を入力する入力装置101により実現される。情報処理装置100におけるキーワードデータベース4および地図データベース7は、メモリ103により実現される。情報処理装置100における通信部12は、蓄積サーバ200または外部のネットワークとの間で無線通信を行う無線通信装置104により実現される。
また、情報処理装置100における音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11は、処理回路により実現される。すなわち、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11は、音声認識結果からキーワードを抽出し、キーワードを含む評価情報と参照情報とを比較し、比較した結果に基づいて評価情報の蓄積を判定し、評価情報の出力を制御するための処理回路を備える。処理回路は、メモリ103に格納されるプログラムを実行するCPU(Central Processing Unit)102である。
この音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ103に格納される。CPU102は、メモリ103に記憶されたプログラムを読み出して実行することにより、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11の各機能を実現する。即ち、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11は、CPU102により実行されるときに、後述する図5および図6に示す各ステップが結果的に実行されることになるプログラムを格納するためのメモリ103を備える。また、これらのプログラムは、音声認識部2、情報抽出部3、評価情報作成部8、蓄積判定部10および蓄積制御部11の手順または方法をコンピュータに実行させるものであるともいえる。
Next, a hardware configuration example of the information processing apparatus 100 will be described.
FIG. 3 is a diagram illustrating a hardware configuration example of the information processing apparatus 100.
As illustrated in FIG. 3, the input unit 1, the position information acquisition unit 5, the vehicle information acquisition unit 6, and the reference information acquisition unit 9 in the information processing apparatus 100 are realized by an input device 101 that inputs information from the outside. The keyword database 4 and the map database 7 in the information processing apparatus 100 are realized by the memory 103. The communication unit 12 in the information processing apparatus 100 is realized by a wireless communication apparatus 104 that performs wireless communication with the storage server 200 or an external network.
Further, the speech recognition unit 2, the information extraction unit 3, the evaluation information creation unit 8, the accumulation determination unit 10, and the accumulation control unit 11 in the information processing apparatus 100 are realized by a processing circuit. That is, the speech recognition unit 2, the information extraction unit 3, the evaluation information creation unit 8, the accumulation determination unit 10, and the accumulation control unit 11 extract a keyword from the speech recognition result, and compare the evaluation information including the keyword with the reference information. And a processing circuit for determining accumulation of evaluation information based on the comparison result and controlling output of the evaluation information. The processing circuit is a CPU (Central Processing Unit) 102 that executes a program stored in the memory 103.
The functions of the voice recognition unit 2, the information extraction unit 3, the evaluation information creation unit 8, the accumulation determination unit 10, and the accumulation control unit 11 are realized by software, firmware, or a combination of software and firmware. Software or firmware is described as a program and stored in the memory 103. The CPU 102 reads out and executes the program stored in the memory 103, thereby realizing the functions of the voice recognition unit 2, the information extraction unit 3, the evaluation information creation unit 8, the accumulation determination unit 10, and the accumulation control unit 11. That is, when the voice recognition unit 2, the information extraction unit 3, the evaluation information creation unit 8, the accumulation determination unit 10, and the accumulation control unit 11 are executed by the CPU 102, each step shown in FIGS. A memory 103 for storing a program to be executed automatically. These programs can also be said to cause the computer to execute the procedures or methods of the speech recognition unit 2, the information extraction unit 3, the evaluation information creation unit 8, the accumulation determination unit 10, and the accumulation control unit 11.

ここで、CPU102は、例えば、中央処理装置、処理装置、演算装置、プロセッサ、マイクロプロセッサ、マイクロコンピュータ、またはDSP(Digital Signal Processor)などのことである。
メモリ103は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable ROM)、EEPROM(Electrically EPROM)等の不揮発性または揮発性の半導体メモリであってもよいし、ハードディスク、フレキシブルディスク等の磁気ディスクであってもよいし、ミニディスク、CD(Compact Disc)、DVD(Digital Versatile Disc)等の光ディスクであってもよい。
Here, the CPU 102 is, for example, a central processing unit, a processing unit, an arithmetic unit, a processor, a microprocessor, a microcomputer, or a DSP (Digital Signal Processor).
The memory 103 may be a nonvolatile or volatile semiconductor memory such as a RAM (Random Access Memory), a ROM (Read Only Memory), a flash memory, an EPROM (Erasable Programmable ROM), or an EEPROM (Electrically EPROM). Further, it may be a magnetic disk such as a hard disk or a flexible disk, or an optical disk such as a mini disk, CD (Compact Disc), or DVD (Digital Versatile Disc).

図4は、蓄積サーバ200のハードウェア構成例を示す図である。
図4に示すように、蓄積サーバ200における評価情報データベース23は、メモリ202により実現される。蓄積サーバ200における通信部21は、情報処理装置100または図示しない外部機器との間で無線通信を行う無線通信装置203により実現される。
また、蓄積サーバ200における制御部22は、処理回路により実現される。即ち、蓄積サーバ200は、情報処理装置100から受信した評価情報を用いて評価情報データベース23の評価情報を更新し、更新した評価情報を外部機器からの取得要求に応じて送信するための処理回路を備える。処理回路は、メモリ202に格納されるプログラムを実行するCPU201である。
この制御部22の機能は、ソフトウェア、ファームウェア、またはソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェアまたはファームウェアはプログラムとして記述され、メモリ202に格納される。CPU201は、メモリ202に記憶されたプログラムを読み出して実行することにより、各部の機能を実現する。即ち、蓄積サーバ200は、CPU201により実行されるときのプログラムを格納するためのメモリ202を備える。また、これらのプログラムは、制御部22の手順または方法をコンピュータに実行させるものであるともいえる。
FIG. 4 is a diagram illustrating a hardware configuration example of the storage server 200.
As shown in FIG. 4, the evaluation information database 23 in the storage server 200 is realized by the memory 202. The communication unit 21 in the storage server 200 is realized by a wireless communication device 203 that performs wireless communication with the information processing device 100 or an external device (not shown).
Further, the control unit 22 in the storage server 200 is realized by a processing circuit. That is, the storage server 200 updates the evaluation information in the evaluation information database 23 using the evaluation information received from the information processing apparatus 100, and transmits the updated evaluation information in response to an acquisition request from an external device. Is provided. The processing circuit is a CPU 201 that executes a program stored in the memory 202.
The function of the control unit 22 is realized by software, firmware, or a combination of software and firmware. Software or firmware is described as a program and stored in the memory 202. The CPU 201 implements the functions of each unit by reading and executing the program stored in the memory 202. That is, the accumulation server 200 includes a memory 202 for storing a program when executed by the CPU 201. These programs can also be said to cause a computer to execute the procedure or method of the control unit 22.

次に、情報処理装置100の動作について説明する。
図5は、実施の形態1による情報処理装置100の動作を示すフローチャートである。
なお、入力部1は情報処理装置100の電源が投入されている間は、常に音声を収集できる状態である。また、図示しない音声収集の開始ボタンが操作されてから一定時間のみ音声を取得するようなもので合ってもよい。
Next, the operation of the information processing apparatus 100 will be described.
FIG. 5 is a flowchart showing the operation of the information processing apparatus 100 according to the first embodiment.
Note that the input unit 1 is always in a state of being able to collect sound while the information processing apparatus 100 is powered on. Alternatively, the voice acquisition start button (not shown) may be operated for a predetermined time after the voice collection start button is operated.

入力部1が車両の搭乗者の発話音声を収集すると(ステップST101)、音声認識部2は収集された発話音声の認識処理を行う(ステップST102)。音声認識部2は、音声認識結果を情報抽出部3に出力する。情報抽出部3は、入力された音声認識結果からキーワードの抽出のための処理を行う(ステップST103)。さらに、情報抽出部3は、キーワードが抽出されたか判定を行う(ステップST104)。キーワードが抽出されなかった場合(ステップST104;NO)、ステップST101の処理に戻り、上述した処理を繰り返す。   When the input unit 1 collects the utterance voice of the vehicle occupant (step ST101), the voice recognition unit 2 performs a recognition process on the collected utterance voice (step ST102). The voice recognition unit 2 outputs the voice recognition result to the information extraction unit 3. The information extraction unit 3 performs processing for extracting keywords from the input speech recognition result (step ST103). Furthermore, the information extraction unit 3 determines whether a keyword has been extracted (step ST104). If no keyword is extracted (step ST104; NO), the process returns to step ST101 and the above-described process is repeated.

一方、キーワードが抽出された場合(ステップST104;YES)、情報抽出部3は、抽出したキーワードを、位置情報取得部5および評価情報作成部8に出力する。位置情報取得部5は、発話時の日時情報における発話時の車両の位置情報および方位情報を取得する(ステップST105)。評価情報作成部8は、ステップST103で抽出されたキーワードと、ステップST105で取得された車両の位置情報および方位情報と、発話時の日時情報とを組み合わせて評価情報を作成する(ステップST106)。参照情報取得部9は、ステップST106で作成された評価情報を評価するための参照情報を取得する(ステップST107)。   On the other hand, when a keyword is extracted (step ST104; YES), the information extraction unit 3 outputs the extracted keyword to the position information acquisition unit 5 and the evaluation information creation unit 8. The position information acquisition unit 5 acquires the position information and the direction information of the vehicle at the time of speaking in the date information at the time of speaking (step ST105). The evaluation information creation unit 8 creates evaluation information by combining the keyword extracted in step ST103, the vehicle position information and direction information acquired in step ST105, and the date / time information at the time of utterance (step ST106). The reference information acquisition unit 9 acquires reference information for evaluating the evaluation information created in step ST106 (step ST107).

蓄積判定部10は、ステップST106で作成された評価情報に含まれるキーワードと、ステップST107で取得された参照情報とを比較し、評価情報と参照情報との関連性を評価する(ステップST108)。蓄積判定部10は、評価した関連性が閾値以上かどうか等一定の基準を満たすか判定を行う(ステップST109)。関連性が基準を満たす場合(ステップST109;YES)、蓄積制御部11は評価情報を、通信部12を介して蓄積サーバ200に出力し(ステップST110)、ステップST101の処理に戻る。一方、関連性が基準を満たさない場合(ステップST109;NO)、蓄積判定部10は評価情報を蓄積しないと判断してステップST101の処理に戻る。   The accumulation determination unit 10 compares the keyword included in the evaluation information created in step ST106 with the reference information acquired in step ST107, and evaluates the relationship between the evaluation information and the reference information (step ST108). The accumulation determination unit 10 determines whether or not a certain criterion is satisfied, such as whether or not the evaluated relevance is greater than or equal to a threshold (step ST109). When the relevance satisfies the standard (step ST109; YES), the accumulation control unit 11 outputs the evaluation information to the accumulation server 200 via the communication unit 12 (step ST110), and returns to the process of step ST101. On the other hand, when the relevance does not satisfy the standard (step ST109; NO), the accumulation determination unit 10 determines that the evaluation information is not accumulated, and returns to the process of step ST101.

次に、参照情報取得部9が取得する参照情報の詳細について説明する。
参照情報取得部9は、車両の周辺情報を、参照情報として取得する。ここでいう車両の周辺とは、評価情報に含まれる発話時の車両の位置情報に示された地点を中心として例えば半径1km以内の領域等、発話時の車両の位置を中心として予め設定された領域を示すものとする。また、この実施の形態1では、参照情報取得部9は、周辺情報として、例えば「東京タワー」など地物の特定がされていない搭乗者の発話内容であっても評価することができる情報を取得する。また、参照情報取得部9は、周辺情報として、車両の走行エリアに限定されることなく、どのエリアを走行していても搭乗者の発話内容を評価することができる情報を取得する。具体的には、参照情報取得部9は、参照情報として、コンテンツプロバイダ情報、車載カメラ情報、または地図情報の少なくとも1つを取得する。
Next, details of the reference information acquired by the reference information acquisition unit 9 will be described.
The reference information acquisition unit 9 acquires the surrounding information of the vehicle as reference information. Here, the periphery of the vehicle is set in advance with the position of the vehicle at the time of utterance, such as an area within a radius of 1 km centered on the point indicated in the position information of the vehicle at the time of utterance included in the evaluation information. An area shall be indicated. Moreover, in this Embodiment 1, the reference information acquisition part 9 is information which can be evaluated even if it is the content of the utterance of the passenger who has not specified the feature such as “Tokyo Tower” as the peripheral information. get. Moreover, the reference information acquisition part 9 acquires the information which can evaluate a passenger | crew's utterance content as surrounding information, without being limited to the driving | running | working area of a vehicle, regardless of which area is drive | working. Specifically, the reference information acquisition unit 9 acquires at least one of content provider information, in-vehicle camera information, or map information as reference information.

コンテンツプロバイダ情報は、通信部12を介してコンテンツプロバイダから入力される情報である。コンテンツプロバイダ情報は、例えばVICS(Vehicle Information and Communication System、登録商標)情報、天気情報、ヒヤリハット情報、SNS(Social Networking Service)情報、路線情報、地図情報、施設情報、観光情報、学校情報、イベント情報、日の出日の入り情報、ストリートビュー等の画像情報等である。
車載カメラ情報は、車両内または車両外に設置された車載カメラが車両の周囲を撮像した撮像画像を画像認識して得られた情報であり、車両情報取得部6で取得される。車載カメラ情報は、例えば、交通状況、障害物状況、天候、看板、路面状況、他の移動体状況等を示す情報である。
地図情報は、地図データベース7から取得される情報である。地図情報は、例えば、施設情報、道路形状、地形データ、舗装状況、鉄道等である。
The content provider information is information input from the content provider via the communication unit 12. Content provider information includes, for example, VICS (Vehicle Information and Communication System (registered trademark)) information, weather information, near-miss information, SNS (Social Networking Service) information, route information, map information, facility information, tourism information, school information, and event information. , Sunrise and sunset information, and image information such as street view.
The in-vehicle camera information is information obtained by recognizing a captured image obtained by imaging the surroundings of the vehicle by an in-vehicle camera installed inside or outside the vehicle, and is acquired by the vehicle information acquisition unit 6. The in-vehicle camera information is information indicating, for example, traffic conditions, obstacle conditions, weather, signboards, road surface conditions, other moving object conditions, and the like.
The map information is information acquired from the map database 7. The map information is, for example, facility information, road shape, terrain data, pavement status, railways, and the like.

参照情報取得部9は、これらのコンテンツプロバイダ情報、車載カメラ情報、または地図情報を常時取得してもよいし、任意のタイミングで取得して図示しない記憶領域に記憶させてもよい。また、参照情報取得部9は、コンテンツプロバイダ情報、車載カメラ情報、または地図情報から、評価情報に含まれるキーワードに関連する情報のみを取得してもよい。また、参照情報取得部9は、コンテンツプロバイダ情報、車載カメラ情報、または地図情報から、評価情報に含まれる発話時の車両の位置情報が示す位置から設定された距離内の領域に関連する情報のみを取得してもよい。このように、参照情報取得部9による周辺情報の取得タイミングおよび取得方法は、適宜設定可能である。   The reference information acquisition unit 9 may always acquire the content provider information, the in-vehicle camera information, or the map information, or may acquire it at an arbitrary timing and store it in a storage area (not shown). Moreover, the reference information acquisition part 9 may acquire only the information relevant to the keyword contained in evaluation information from content provider information, vehicle-mounted camera information, or map information. Moreover, the reference information acquisition part 9 is only information relevant to the area | region within the distance set from the position which the position information of the vehicle at the time of the utterance contained in evaluation information shows from content provider information, vehicle-mounted camera information, or map information. May be obtained. Thus, the acquisition timing and acquisition method of the peripheral information by the reference information acquisition unit 9 can be set as appropriate.

参照情報取得部9は、コンテンツプロバイダ情報、車載カメラ情報、または地図情報の少なくとも1つを取得すると、まず取得した情報を用いて評価情報との関連性を評価することができるか判断する。
例えば、参照情報取得部9は、評価情報のキーワードのジャンルが「天候」であり、天気情報に関するプロバイダ情報が存在する、または評価情報のキーワードのジャンルが「イベント」であり、イベント情報またはSNS情報に関するプロバイダ情報が存在すると、評価情報との関連性について評価することができると判断する。
また、参照情報取得部9は、評価情報のキーワードのジャンルが「交通状況」であり、交通状況に関する車載カメラ情報が存在すると、評価情報との関連性について評価することができると判断する。
また、参照情報取得部9は、評価情報のキーワードのジャンルが「道路形状」であり、道路形状に関する地図情報が存在すると、評価情報との関連性について評価することができると判断する。
なお、上記ではキーワードのジャンルを用いて、関連する情報が存在するかを判断する場合を例に示したが、評価情報がキーワードのジャンルを含んでいない場合には、参照情報取得部9が、例えばキーワードデータベース4を参照して、キーワードがどのジャンルに属するか判断し、判断した内容に関する情報が存在するか判断する。例えば、参照情報取得部9は、キーワードが「いい眺め」である場合、ジャンルは「景色」であると判断し、景色に関するコンテンツプロバイダ情報、車載カメラ情報、または地図情報が存在するか判断する。
When the reference information acquisition unit 9 acquires at least one of content provider information, in-vehicle camera information, or map information, the reference information acquisition unit 9 first determines whether the relevance with the evaluation information can be evaluated using the acquired information.
For example, the reference information acquisition unit 9 has the genre of the keyword of the evaluation information as “weather”, the provider information related to the weather information exists, or the genre of the keyword of the evaluation information as “event”, and the event information or the SNS information If there is provider information regarding, it is determined that the relevance with the evaluation information can be evaluated.
Further, the reference information acquisition unit 9 determines that the relevance with the evaluation information can be evaluated if the genre of the keyword of the evaluation information is “traffic situation” and the in-vehicle camera information related to the traffic situation exists.
The reference information acquisition unit 9 determines that the relevance with the evaluation information can be evaluated when the genre of the keyword of the evaluation information is “road shape” and there is map information regarding the road shape.
In the above description, the case where it is determined whether or not related information exists using the keyword genre is shown as an example. However, when the evaluation information does not include the keyword genre, the reference information acquisition unit 9 For example, referring to the keyword database 4, it is determined which genre the keyword belongs to, and it is determined whether there is information regarding the determined content. For example, when the keyword is “good view”, the reference information acquisition unit 9 determines that the genre is “scenery” and determines whether there is content provider information, in-vehicle camera information, or map information related to the scenery.

参照情報取得部9は、評価情報との関連性について評価することができると判断した場合に、評価情報に含まれるキーワードに関連し、且つ評価情報に含まれる発話時の車両の位置情報から設定された距離内の領域に関連するコンテンツプロバイダ情報、車載カメラ情報、または地図情報の少なくとも1つを、参照情報として取得する。   When the reference information acquisition unit 9 determines that the relevance with the evaluation information can be evaluated, the reference information acquisition unit 9 relates to the keyword included in the evaluation information and is set from the position information of the vehicle at the time of utterance included in the evaluation information. At least one of content provider information, in-vehicle camera information, or map information related to the area within the specified distance is acquired as reference information.

次に、上記のように取得した参照情報と評価情報との関連性を評価する蓄積判定部10の詳細について説明する。
蓄積判定部10は、評価情報作成部8が作成した評価情報のキーワードと、参照情報取得部9が取得した参照情報とを比較して、評価情報と参照情報の関連性を評価する。蓄積判定部10は、関連性を、例えば評価情報のキーワードと参照情報との一致度、類似度、共通部分の有無または共通部分の割合等のいずれかに基づいて、評価する。
Next, details of the accumulation determination unit 10 that evaluates the relationship between the reference information acquired as described above and the evaluation information will be described.
The accumulation determining unit 10 compares the keyword of the evaluation information created by the evaluation information creating unit 8 with the reference information acquired by the reference information acquiring unit 9, and evaluates the relevance between the evaluation information and the reference information. The accumulation determination unit 10 evaluates the relevance based on, for example, the degree of coincidence between the keyword of the evaluation information and the reference information, the degree of similarity, the presence / absence of a common part, or the ratio of the common part.

まず、蓄積判定部10が、評価情報のキーワードと、参照情報取得部9が取得したコンテンツプロバイダ情報との一致度に基づいて、関連性を評価する場合を例に説明する。評価情報のキーワードが「晴れ」であり、参照情報取得部9はコンテンツプロバイダから、評価情報が示す発話時の車両の位置情報を中心とした周辺の天気情報として晴天である確率が90%との参照情報を取得したとする、この場合、蓄積判定部10は一致度を90%と算出する。ここで、例えば、一致度に関して、関連性が高いと判断する閾値が60%以上と設定されている場合、蓄積判定部10は算出した一致度90%が閾値である60%以上であるので基準を満たしていると判定し、評価情報と参照情報の関連性が高いと判定する。   First, a case where the accumulation determination unit 10 evaluates the relevance based on the degree of coincidence between the keyword of the evaluation information and the content provider information acquired by the reference information acquisition unit 9 will be described as an example. The keyword of the evaluation information is “sunny”, and the reference information acquisition unit 9 has a 90% probability that the weather information around the vehicle centered on the position information of the vehicle at the time of utterance indicated by the evaluation information is clear. In this case, it is assumed that the reference information is acquired. Here, for example, when the threshold value for determining that the degree of relevancy is high is set to 60% or more, the accumulation determination unit 10 uses the reference value because the calculated matching degree 90% is 60% or more, which is the threshold value. And it is determined that the relationship between the evaluation information and the reference information is high.

次に、蓄積判定部10が、評価情報のキーワードと、参照情報取得部9が取得したコンテンツプロバイダ情報との類似度に基づいて、関連性を評価する場合を例に説明する。評価情報のキーワードが「きれい」であり、参照情報取得部9は評価情報が示す発話時の車両の位置情報を中心とした周辺の観光情報に山の景色、夜景またはイルミネーション等が見られることを示す情報を取得している場合に、蓄積判定部10は類似度を「高」と算出する。例えば、類似度に関して、関連性が高いと判断する閾値が類似度「中」以上と設定されている場合、蓄積判定部10は算出した類似度「高」が閾値である類似度「中」以上であるので基準を満たしていると判定し、評価情報と参照情報の関連性が高いと判定する。   Next, the case where the accumulation determination unit 10 evaluates the relevance based on the similarity between the keyword of the evaluation information and the content provider information acquired by the reference information acquisition unit 9 will be described as an example. The keyword of the evaluation information is “beautiful”, and the reference information acquisition unit 9 confirms that mountain scenery, night view, illumination, etc. can be seen in the surrounding tourist information centered on the vehicle position information at the time of utterance indicated by the evaluation information. When the information shown is acquired, the accumulation determination unit 10 calculates the similarity as “high”. For example, when the threshold value for determining that the degree of relevance is high is set to the similarity “medium” or higher, the accumulation determination unit 10 determines the similarity “high” or higher for the calculated similarity “high” as the threshold. Therefore, it is determined that the standard is satisfied, and it is determined that the relationship between the evaluation information and the reference information is high.

次に、蓄積判定部10が、評価情報のキーワードと、参照情報取得部9が取得した車載カメラ情報との共通部分の割合に基づいて、関連性を評価する場合を例に説明する。評価情報のキーワードが「渋滞」であり、参照情報取得部9は車載カメラ情報から取得した評価情報が示す発話時の車両の位置情報における車両の前方に位置する他の車両の台数に応じて、共通部分の割合を例えば80%と算出する。例えば、共通部分の割合に関して、関連性が高いと判断する閾値が60%以上と設定されている場合、蓄積判定部10は算出した共通部分の割合80%が閾値である60%以上であるので基準を満たしていると判定し、評価情報と参照情報の関連性が高いと判定する。   Next, the case where the accumulation determination unit 10 evaluates the relevance based on the ratio of the common part between the keyword of the evaluation information and the in-vehicle camera information acquired by the reference information acquisition unit 9 will be described as an example. The keyword of the evaluation information is “traffic jam”, and the reference information acquisition unit 9 depends on the number of other vehicles positioned in front of the vehicle in the position information of the vehicle at the time of utterance indicated by the evaluation information acquired from the in-vehicle camera information. The ratio of the common part is calculated as 80%, for example. For example, when the threshold value for determining that the relevance of the common part is high is set to be 60% or more, the accumulation determination unit 10 has the calculated common part ratio of 80% is the threshold value of 60% or more. It is determined that the standard is satisfied, and it is determined that the relationship between the evaluation information and the reference information is high.

次に、蓄積判定部10が、評価情報のキーワードと、参照情報取得部9が取得した地図情報との共通部分の有無に基づいて、関連性を評価する場合を例に説明する。評価情報のキーワードが「急カーブ」であり、参照情報取得部9は地図情報から取得した評価情報が示す発話時の車両の位置情報が示す地点の道路形状がカーブを示している場合に、蓄積判定部10は共通部分が「有」と算出する。例えば、共通部分の有無に関して、関連性が高いと判断する基準が共通部分「有」と設定されている場合、蓄積判定部10は、算出した共通部分「有」であるので基準を満たしていると判定し、評価情報と参照情報の関連性が高いと判定する。   Next, a case where the accumulation determination unit 10 evaluates the relevance based on the presence / absence of a common part between the keyword of the evaluation information and the map information acquired by the reference information acquisition unit 9 will be described as an example. The keyword of the evaluation information is “steep curve”, and the reference information acquisition unit 9 accumulates when the road shape of the point indicated by the vehicle position information at the time of utterance indicated by the evaluation information acquired from the map information indicates a curve. The determination unit 10 calculates that the common part is “present”. For example, regarding the presence / absence of the common part, when the criterion for determining that the relevance is high is set as the common part “present”, the accumulation determination unit 10 satisfies the standard because the calculated common part is “present”. It is determined that the relevance between the evaluation information and the reference information is high.

なお、上述した関連性を評価する際の具体例は、一例であり、評価情報のキーワード、コンテンツプロバイダ情報、車載カメラ情報および地図情報は、種々設定されるものである。また、評価情報のキーワードと参照情報との一致度、類似度、共通部分の有無または共通部分の割合について、例を挙げて示したが、これらに限定されるものではなく、評価情報のキーワードと参照情報との乖離度、共通部分の頻度等に基づいて、評価情報と参照情報の関連性を評価してもよい。
また、評価情報に、発話時の車両の方位情報が含まれ、キーワードは「前」、「後ろ」などが抽出されて含まれている場合には、これらの上方も考慮して関連性を評価することも可能である。
Note that the above-described specific example for evaluating the relevance is an example, and various keywords are set for the evaluation information, content provider information, in-vehicle camera information, and map information. Moreover, although the example of the degree of coincidence between the keyword of the evaluation information and the reference information, the degree of similarity, the presence / absence of the common part, or the ratio of the common part is shown, it is not limited to these. The relevance between the evaluation information and the reference information may be evaluated based on the degree of deviation from the reference information, the frequency of the common part, and the like.
Also, if the evaluation information includes the direction information of the vehicle at the time of utterance and the keywords include “front”, “rear”, etc., the relevance is evaluated in consideration of the above. It is also possible to do.

次に、図5のフローチャートのステップST107からステップST109で示した、参照情報取得部9および蓄積判定部10の処理をより詳細に説明する。
図6は、実施の形態1に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。なお、図6のフローチャートでは、参照情報取得部9が、一時格納領域に記憶されているコンテンツプロバイダ情報から参照情報を取得する場合を例に説明する。
Next, the processing of the reference information acquisition unit 9 and the accumulation determination unit 10 shown in steps ST107 to ST109 in the flowchart of FIG. 5 will be described in more detail.
FIG. 6 is a flowchart showing operations of the reference information acquisition unit 9 and the accumulation determination unit 10 of the information processing apparatus 100 according to Embodiment 1. In the flowchart of FIG. 6, a case where the reference information acquisition unit 9 acquires reference information from content provider information stored in the temporary storage area will be described as an example.

参照情報取得部9は、記憶されたコンテンツプロバイダ情報を参照し、評価情報作成部8が作成した評価情報に含まれるキーワードに関連するコンテンツプロバイダ情報が存在するか判定を行う(ステップST201)。評価情報に含まれるキーワードに関連するコンテンツプロバイダ情報が存在しない場合(ステップST201;NO)、図5のフローチャートのステップST101の処理に戻る。一方、評価情報に含まれるキーワードに関連するコンテンツプロバイダ情報が存在する場合(ステップST201;YES)、評価情報に含まれるキーワードに関連し、且つ評価情報に含まれる発話時の車両の位置情報が示す位置から設定された距離内の領域に関するコンテンツプロバイダ情報を取得する(ステップST202)。   The reference information acquisition unit 9 refers to the stored content provider information and determines whether there is content provider information related to the keyword included in the evaluation information created by the evaluation information creation unit 8 (step ST201). If there is no content provider information related to the keyword included in the evaluation information (step ST201; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when there is content provider information related to the keyword included in the evaluation information (step ST201; YES), the position information of the vehicle at the time of utterance related to the keyword included in the evaluation information and included in the evaluation information is indicated. The content provider information regarding the area within the distance set from the position is acquired (step ST202).

参照情報取得部9は、ステップST202で取得したコンテンツプロバイダ情報を参照情報として蓄積判定部10に出力する(ステップST203)。蓄積判定部10は、ステップST203で入力された参照情報と、評価情報作成部8が作成した評価情報に含まれるキーワードとの一致度を算出する(ステップST204)。蓄積判定部10は、ステップST204で算出した一致度が基準を満たしているか判定を行う(ステップST205)。一致度が基準を満たしていない場合(ステップST205;NO)、図5のフローチャートのステップST101の処理に戻る。一方、一致度が基準を満たしている場合(ステップST205;YES)、蓄積判定部10は評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST206)、図5のフローチャートのステップST110の処理に進む。   The reference information acquisition unit 9 outputs the content provider information acquired in step ST202 to the accumulation determination unit 10 as reference information (step ST203). The accumulation determination unit 10 calculates the degree of coincidence between the reference information input in step ST203 and the keyword included in the evaluation information created by the evaluation information creation unit 8 (step ST204). The accumulation determination unit 10 determines whether or not the degree of coincidence calculated in step ST204 satisfies a criterion (step ST205). When the degree of coincidence does not satisfy the standard (step ST205; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when the degree of coincidence satisfies the criterion (step ST205; YES), the accumulation determination unit 10 determines to accumulate the evaluation information, and outputs it to the accumulation control unit 11 (step ST206), and step ST110 of the flowchart of FIG. Proceed to the process.

なお、図6のフローチャートでは、評価情報のキーワードと参照情報との一致度を用いて、関連性を評価する場合を例に示したが、一致度に限定されるものではない。上述したように、評価情報のキーワードと参照情報との一致度、類似度、乖離度、共通部分の有無、共通部分の割合、または共通部分の頻度等を用いて評価情報と参照情報の関連性を評価することができる。   In the flowchart of FIG. 6, an example in which the relevance is evaluated using the degree of matching between the keyword of the evaluation information and the reference information is illustrated, but the degree of matching is not limited thereto. As described above, the relevance between evaluation information and reference information using the degree of coincidence, similarity, divergence, presence / absence of common part, ratio of common part, frequency of common part, etc. between the keyword of evaluation information and reference information Can be evaluated.

また、図6のフローチャートでは、コンテンツプロバイダ情報のみを参照して関連性を評価する動作を示したが、コンテンツプロバイダ情報、車載カメラ情報または地図情報を任意で組み合わせた情報を用いて評価情報と参照情報の関連性を評価してもよい。例えば、コンテンツプロバイダ情報および車載カメラ情報を参照情報として、評価情報に含まれるキーワードとの一致度をそれぞれ算出し、コンテンツプロバイダ情報との一致度と、車載カメラ情報との一致度の平均値が、閾値以上であり、基準を満たしているか判定を行うように構成してもよい。   Further, in the flowchart of FIG. 6, the operation of evaluating the relevance by referring only to the content provider information is shown. However, the evaluation information and the reference are referred to using information obtained by arbitrarily combining the content provider information, the in-vehicle camera information, or the map information. Information relevance may be evaluated. For example, using the content provider information and the in-vehicle camera information as reference information, the degree of coincidence with the keyword included in the evaluation information is calculated, and the degree of coincidence with the content provider information and the degree of coincidence with the in-vehicle camera information are You may comprise so that it may be more than a threshold value and the reference | standard is satisfy | filled.

以上のように、この実施の形態1によれば、移動体である車両の搭乗者の発話の音声認識結果からキーワードを抽出する情報抽出部3と、発話時の移動体の位置情報を取得する位置情報取得部5と、キーワードと、発話時の移動体の位置情報および方位情報とを組み合わせた評価情報を作成する評価情報作成部8と、キーワードに関連する事象について、現在の状況を示す情報を参照情報として取得する参照情報取得部9と、評価情報と参照情報とを比較して評価情報を蓄積するか否か判定する蓄積判定部10とを備えるように構成したので、特定の地物が存在しない場合でも搭乗者の発話内容を認識し、認識結果から抽出されたキーワードに関連する情報のうち現在の状況が反映された参照情報を用いて評価情報を評価して蓄積するか否かを判定することができる。これにより、発話が行われた地点とは関係のない発話、発話の対象である事象の現在の状況を反映していない発話等に基づいて評価情報が蓄積されるのを抑制することができる。その結果、各事象に対する信頼性の高い評価情報を効率的に蓄積することができる。   As described above, according to the first embodiment, the information extraction unit 3 that extracts the keyword from the speech recognition result of the utterance of the passenger of the vehicle that is the moving body, and the position information of the moving body at the time of utterance are acquired. Information indicating the current situation of the position information acquisition unit 5, the evaluation information generation unit 8 that generates evaluation information combining the keyword and the position information and direction information of the moving body at the time of utterance, and the event related to the keyword The reference information acquisition unit 9 that acquires the reference information and the accumulation determination unit 10 that compares the evaluation information with the reference information to determine whether or not to accumulate the evaluation information are included. Whether or not to recognize the passenger's utterance content even if there is no, and evaluate and accumulate the evaluation information using the reference information reflecting the current situation among the information related to the keyword extracted from the recognition result It can be determined. Thereby, it is possible to suppress accumulation of evaluation information based on utterances that are not related to the point where the utterance is performed, utterances that do not reflect the current state of the event that is the utterance target, and the like. As a result, highly reliable evaluation information for each event can be efficiently accumulated.

また、この実施の形態1によれば、参照情報取得部9が、コンテンツプロバイダ情報から参照情報を取得するように構成したので、例えば「東京タワー」など地物を含まない発話等、発話の対象である事象が明確でない発話であっても、キーワードに関連するコンテンツプロバイダ情報を用いて、関連性を判断して、関連性の高い評価情報のみを蓄積することができる。よって、発話内容が、移動体の状態を示す情報、または地図データから取得することができない事象に対するものであっても、評価情報と参照情報の関連性を判断して、評価情報を蓄積することができる。   Further, according to the first embodiment, since the reference information acquisition unit 9 is configured to acquire the reference information from the content provider information, for example, an utterance target such as an utterance that does not include a feature such as “Tokyo Tower”. Even if the event is an unclear utterance, it is possible to determine the relevance using the content provider information related to the keyword and accumulate only highly relevant evaluation information. Therefore, even if the utterance content is for information indicating the state of a moving object or an event that cannot be acquired from map data, the evaluation information is accumulated by judging the relevance between the evaluation information and the reference information. Can do.

また、この実施の形態1によれば、参照情報取得部9が、車載カメラ情報から参照情報を取得するように構成したので、発話の対象である事象が明確でない発話であっても、キーワードに関連する車載カメラ情報を用いて、現在の状況との関連性を判断して、関連性の高い評価情報のみを蓄積することができる。よって、発話内容が、移動体の状態を示す情報、または地図データから取得することができない事象に対するものであっても、評価情報の関連性を判断して、評価情報を蓄積することができる。   Moreover, according to this Embodiment 1, since the reference information acquisition part 9 was comprised so that reference information might be acquired from vehicle-mounted camera information, even if the event which is the object of speech is not clear, it is used as a keyword. By using related vehicle-mounted camera information, it is possible to determine the relevance with the current situation and accumulate only highly relevant evaluation information. Therefore, even if the utterance content is for information indicating the state of the moving body or an event that cannot be acquired from the map data, the relevance of the evaluation information can be determined and the evaluation information can be accumulated.

また、この実施の形態1によれば、参照情報取得部9が、地図情報から参照情報を取得するように構成したので、発話の対象である事象が明確でない発話であっても、キーワードに関連する地図情報を用いて、現在の状況との関連性を判断して、関連性の高い評価情報のみを蓄積することができる。よって、発話内容が、移動体の状態を示す情報から取得することができない事象に対するものであっても、評価情報の関連性を判断して、評価情報を蓄積することができる。   Moreover, according to this Embodiment 1, since the reference information acquisition part 9 was comprised so that reference information might be acquired from map information, even if it is an utterance in which the phenomenon of speech is not clear, it is related to a keyword. Using the map information, the relevance with the current situation can be determined, and only highly relevant evaluation information can be accumulated. Therefore, even if the utterance content is for an event that cannot be acquired from the information indicating the state of the mobile object, the evaluation information can be accumulated by determining the relevance of the evaluation information.

実施の形態2.
この実施の形態2では、参照情報として車両情報を用いる構成を示す。なお、実施の形態1で示したコンテンツプロバイダ情報、車載カメラ情報または地図情報の少なくとも1つに替えて、車両情報のみを用いてもよいし、実施の形態1で示したコンテンツプロバイダ情報、車載カメラ情報または地図情報の少なくとも1つの情報と車両情報とを組み合わせて用いてもよい。
実施の形態2に係る情報処理装置100の構成は、上記実施の形態1の図1に示した情報処理装置100の構成と図面上は同様であるため、ブロック図の記載を省略し、以下では図1を用いて説明する。
Embodiment 2. FIG.
In this Embodiment 2, the structure which uses vehicle information as reference information is shown. Note that only the vehicle information may be used instead of at least one of the content provider information, the in-vehicle camera information, or the map information shown in the first embodiment, or the content provider information, the in-vehicle camera shown in the first embodiment. A combination of at least one piece of information or map information and vehicle information may be used.
The configuration of the information processing apparatus 100 according to the second embodiment is the same as the configuration of the information processing apparatus 100 shown in FIG. 1 of the first embodiment, and therefore, the description of the block diagram is omitted. This will be described with reference to FIG.

参照情報取得部9は、車両情報取得部6から入力される車両情報を参照情報として取得する。ここでいう車両情報とは、車両の速度、方位、操舵角、ワイパー操作の状態、照明機器の動作状態、空調機器の動作状態、音響機器の動作状態、音響機器が動作している場合に再生中の楽曲の歌詞を示す情報等である。車両情報取得部6は、コントローラー・エリア・ネットワーク(CAN)等の公知のネットワークから、車両の速度、操舵角、ブレーキ操作などの車両情報を取得する。   The reference information acquisition unit 9 acquires vehicle information input from the vehicle information acquisition unit 6 as reference information. The vehicle information here refers to the vehicle speed, heading, steering angle, wiper operation status, lighting device operation status, air conditioner operation status, audio device operation status, and playback when the audio device is operating. Information indicating the lyrics of the music inside. The vehicle information acquisition unit 6 acquires vehicle information such as a vehicle speed, a steering angle, and a brake operation from a known network such as a controller area network (CAN).

参照情報取得部9は、車両情報を常時取得してもよいし、任意のタイミングで取得して図示しない記憶領域に記憶させてもよい。また、参照情報取得部9は、評価情報に含まれるキーワードに関連する車両情報のみを取得してもよいし、評価情報に含まれる発話時の車両の位置情報における車両情報のみを取得してもよい。このように、参照情報取得部9の車両情報の取得タイミングおよび取得方法は、適宜設定可能である。   The reference information acquisition unit 9 may acquire vehicle information at all times, or may acquire it at an arbitrary timing and store it in a storage area (not shown). Moreover, the reference information acquisition part 9 may acquire only the vehicle information relevant to the keyword contained in evaluation information, or may acquire only the vehicle information in the positional information of the vehicle at the time of the utterance contained in evaluation information. Good. Thus, the acquisition timing and acquisition method of the vehicle information of the reference information acquisition unit 9 can be set as appropriate.

参照情報取得部9は、車両情報を取得すると、まず取得した情報を用いて評価情報の関連性を評価することができるか判断する。例えば、参照情報取得部9は、評価情報のキーワードのジャンルが「道路形状」であり、車両の操舵角を示す車両情報が存在すると、評価情報と参照情報の関連性について評価することができると判断する。参照情報取得部9は、関連性について評価することができると判断した場合に、評価情報に含まれるキーワードに関連する車両情報であって、且つ評価情報に含まれる発話時の車両の位置情報が示す位置、または発話時の日時情報が示す日時における車両情報を、参照情報として取得する。   When the reference information acquisition unit 9 acquires the vehicle information, it first determines whether the relevance of the evaluation information can be evaluated using the acquired information. For example, when the genre of the keyword of the evaluation information is “road shape” and there is vehicle information indicating the steering angle of the vehicle, the reference information acquisition unit 9 can evaluate the relevance between the evaluation information and the reference information. to decide. When it is determined that the relevance can be evaluated, the reference information acquisition unit 9 is vehicle information related to a keyword included in the evaluation information, and vehicle position information at the time of utterance included in the evaluation information is Vehicle information at the indicated position or the date and time indicated by the date and time information at the time of utterance is acquired as reference information.

蓄積判定部10は、評価情報作成部8が作成した評価情報のキーワードと、参照情報取得部9が取得した参照情報とを比較して、関連性を評価する。例えば、蓄積判定部10が、評価情報のキーワードと、参照情報取得部9が取得した車両情報との一致度に基づいて、評価情報と参照情報の関連性を評価する場合、評価情報のキーワードが「急カーブ」であり、参照情報の操舵角がほとんど変化していない場合に、一致度を0%と算出する。例えば、一致度に関して、関連性が高いとする閾値が60%以上と設定されている場合、蓄積判定部10は算出した一致度0%が閾値である60%以上でないので、基準を満たしていないと判定し、評価情報と参照情報との関連性が低いと判定する。蓄積判定部10は、蓄積制御部11に対して評価情報の蓄積を指示しない。   The accumulation determination unit 10 compares the keyword of the evaluation information created by the evaluation information creation unit 8 with the reference information acquired by the reference information acquisition unit 9, and evaluates the relevance. For example, when the accumulation determination unit 10 evaluates the relevance between the evaluation information and the reference information based on the degree of coincidence between the keyword of the evaluation information and the vehicle information acquired by the reference information acquisition unit 9, the keyword of the evaluation information is When it is a “steep curve” and the steering angle of the reference information has hardly changed, the degree of coincidence is calculated as 0%. For example, when the threshold value that indicates a high degree of relevance is set to 60% or higher, the accumulation determination unit 10 does not satisfy the standard because the calculated matching degree 0% is not 60% or higher as the threshold value. It is determined that the relevance between the evaluation information and the reference information is low. The accumulation determination unit 10 does not instruct the accumulation control unit 11 to accumulate evaluation information.

また、蓄積判定部10は、参照情報として、音響機器が動作していることを示す情報、および発話時に再生中の楽曲の歌詞を示す情報が入力された場合、評価情報のキーワードと、楽曲の歌詞との一致度を算出する。蓄積判定部10は、算出した一致度が閾値以上と判定した場合に、評価情報は単に車両内で再生中の楽曲の歌詞に関するキーワードを含んでいて蓄積は不要と判断し、蓄積制御部11に対して評価情報の蓄積を指示しない。
なお、参照情報として車両の速度、方位、操舵角等を用いた判定と、参照情報として楽曲の歌詞を示す情報を用いた判定とを組み合わせて、評価情報との関連性を評価してもよい。
In addition, when the information indicating that the audio device is operating and the information indicating the lyrics of the music being reproduced at the time of utterance are input as the reference information, the accumulation determination unit 10 receives the keyword of the evaluation information, The degree of coincidence with the lyrics is calculated. If the accumulation determination unit 10 determines that the calculated degree of coincidence is equal to or greater than the threshold, the evaluation information simply includes a keyword related to the lyrics of the music being played in the vehicle, and the accumulation control unit 11 determines that accumulation is not necessary. Do not instruct the accumulation of evaluation information.
The relevance with the evaluation information may be evaluated by combining the determination using the speed, direction, steering angle, etc. of the vehicle as the reference information and the determination using the information indicating the lyrics of the music as the reference information. .

次に、実施の形態1の図5のフローチャートのステップST107からステップST109の処理について、実施の形態2の参照情報取得部9および蓄積判定部10を適用した場合の、詳細な動作について説明する。
図7は、実施の形態2に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。なお、図7のフローチャートでは、参照情報取得部9が、一時格納領域に記憶されている車両情報から参照情報を取得する場合を例に説明する。
Next, detailed operations when the reference information acquisition unit 9 and the accumulation determination unit 10 of the second embodiment are applied to the processing from step ST107 to step ST109 in the flowchart of FIG. 5 of the first embodiment will be described.
FIG. 7 is a flowchart showing operations of the reference information acquisition unit 9 and the accumulation determination unit 10 of the information processing apparatus 100 according to the second embodiment. In the flowchart of FIG. 7, a case where the reference information acquisition unit 9 acquires the reference information from the vehicle information stored in the temporary storage area will be described as an example.

参照情報取得部9は、記憶された車両情報を参照し、評価情報作成部8が作成した評価情報に含まれるキーワードに関連する車両情報が存在するか判定を行う(ステップST301)。評価情報に含まれるキーワードに関連する車両情報が存在しない場合(ステップST301;NO)、図5のフローチャートのステップST101の処理に戻る。一方、評価情報に含まれるキーワードに関連する車両情報が存在する場合(ステップST301;YES)、評価情報に含まれるキーワードに関連し、且つ評価情報に含まれる車両の位置情報から設定された距離内の領域に関する車両情報を取得する(ステップST302)。   The reference information acquisition unit 9 refers to the stored vehicle information and determines whether vehicle information related to the keyword included in the evaluation information created by the evaluation information creation unit 8 exists (step ST301). When vehicle information related to the keyword included in the evaluation information does not exist (step ST301; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when vehicle information related to the keyword included in the evaluation information exists (step ST301; YES), the vehicle is related to the keyword included in the evaluation information and within the distance set from the position information of the vehicle included in the evaluation information. The vehicle information regarding the area is acquired (step ST302).

参照情報取得部9は、ステップST302で取得した車両情報を参照情報として蓄積判定部10に出力する(ステップST303)。蓄積判定部10は、ステップST303で入力された参照情報と、評価情報作成部8が作成した評価情報に含まれるキーワードとの一致度を算出する(ステップST304)。蓄積判定部10は、ステップST304で算出した一致度が基準を満たしているか判定を行う(ステップST305)。一致度が基準を満たしていない場合(ステップST305;NO)、図5のフローチャートのステップST101の処理に戻る。一方、一致度が基準を満たしている場合(ステップST305;YES)、蓄積判定部10は評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST306)、図5のフローチャートのステップST110の処理に進む。   The reference information acquisition unit 9 outputs the vehicle information acquired in step ST302 to the accumulation determination unit 10 as reference information (step ST303). The accumulation determination unit 10 calculates the degree of coincidence between the reference information input in step ST303 and the keyword included in the evaluation information created by the evaluation information creation unit 8 (step ST304). The accumulation determination unit 10 determines whether or not the degree of coincidence calculated in step ST304 satisfies the criterion (step ST305). When the degree of coincidence does not satisfy the standard (step ST305; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when the degree of coincidence satisfies the criterion (step ST305; YES), the accumulation determination unit 10 determines to accumulate the evaluation information, and outputs it to the accumulation control unit 11 (step ST306), and step ST110 of the flowchart of FIG. Proceed to the process.

なお、図7のフローチャートでは、評価情報のキーワードと参照情報との一致度を用いて、関連性を評価する場合を例に示したが、一致度以外にも、評価情報のキーワードと参照情報との類似度、乖離度、共通部分の有無、共通部分の割合、または共通部分の頻度等を用いて評価情報と参照情報の関連性を評価することができる。   In the flowchart of FIG. 7, an example in which the relevance is evaluated using the degree of coincidence between the keyword of the evaluation information and the reference information is illustrated. However, in addition to the degree of coincidence, the keyword of the evaluation information and the reference information The relevance between the evaluation information and the reference information can be evaluated using the similarity, the divergence, the presence / absence of the common part, the ratio of the common part, the frequency of the common part, or the like.

以上のように、この実施の形態2によれば、参照情報取得部9が、参照情報としてキーワードに関連し、且つ評価情報に含まれる発話時の車両の位置情報が示す位置から設定された距離内の領域に関する車両情報を参照情報として取得するように構成したので、特定の地物が存在するかに関わらず搭乗者の発話内容を認識し、車両の挙動を考慮して評価情報が発話の対象である事象の現在の状況が反映されている情報であるか評価することができる。   As described above, according to the second embodiment, the reference information acquisition unit 9 is related to the keyword as the reference information and is set from the position indicated by the position information of the vehicle at the time of utterance included in the evaluation information. The vehicle information related to the area inside is acquired as reference information, so the passenger's utterance content is recognized regardless of whether a specific feature exists, and the evaluation information It is possible to evaluate whether the information reflects the current situation of the target event.

実施の形態3.
この実施の形態3では、蓄積サーバ200から取得した過去の評価情報を用いて、新たに評価情報作成部8が作成した評価情報を評価する構成を示す。
なお、実施の形態1および実施の形態2で示したコンテンツプロバイダ情報、車載カメラ情報、地図情報または車両情報の少なくとも1つに替えて、過去の評価情報のみを用いてもよいし、実施の形態1および実施の形態2で示したコンテンツプロバイダ情報、車載カメラ情報、地図情報または車両情報の少なくとも1つの情報と過去の評価情報とを組み合わせて用いてもよい。
Embodiment 3 FIG.
In the third embodiment, a configuration is shown in which evaluation information newly created by the evaluation information creation unit 8 is evaluated using past evaluation information acquired from the storage server 200.
It should be noted that only past evaluation information may be used instead of at least one of the content provider information, the in-vehicle camera information, the map information, or the vehicle information shown in the first and second embodiments, or the second embodiment. The past evaluation information may be used in combination with at least one of the content provider information, the in-vehicle camera information, the map information, or the vehicle information shown in the first and second embodiments.

実施の形態3に係る情報処理装置100の構成は、上記実施の形態1の図1に示した情報処理装置100の構成と図面上は同様であるため、ブロック図の記載を省略し、以下では図1を用いて説明する。   The configuration of the information processing apparatus 100 according to Embodiment 3 is the same as the configuration of the information processing apparatus 100 shown in FIG. 1 of Embodiment 1 above in the drawing, so the description of the block diagram is omitted. This will be described with reference to FIG.

参照情報取得部9は、蓄積サーバ200の評価情報データベース23に蓄積された過去の評価情報を、参照情報として取得する。参照情報取得部9は、評価情報作成部8が作成した評価情報に含まれる発話時の車両の位置情報を取得し、取得した位置情報と地図データベース7から取得される地図情報とから、評価情報の発話エリアを設定する。参照情報取得部9は、例えば発話時の車両の位置情報が示す地点から半径1km以内のエリアを地図情報で特定し、発話エリアとする。   The reference information acquisition unit 9 acquires past evaluation information stored in the evaluation information database 23 of the storage server 200 as reference information. The reference information acquisition unit 9 acquires the position information of the vehicle at the time of speech included in the evaluation information created by the evaluation information creation unit 8, and evaluates the evaluation information from the acquired position information and the map information acquired from the map database 7. Set the utterance area. The reference information acquisition unit 9 specifies, for example, an area within a radius of 1 km from the point indicated by the position information of the vehicle at the time of utterance as map speech information.

参照情報取得部9は、設定した評価情報の発話エリア内の位置を示す発話時の車両情報を含む、過去の評価情報の取得要求を、通信部12を介して蓄積サーバ200に送信する。この蓄積サーバ200には、少なくともこの情報処理装置100を有する全ての車両を対象として収集された評価情報が蓄積されており、取得要求の結果、取得される過去の評価情報には他車両が作成したものも含まれることになる。
参照情報取得部9は、設定した評価情報の発話エリア内の過去の評価情報の取得を要求する際に、現在時刻から5分前までの期間で登録された評価情報のみを検索対象とすると指定してもよいし、前日の同一のタイミング、例えば前日の夕方の2時間で登録された評価情報のみを検索対象とすると指定してもよい。参照情報取得部9が指定する検索対象は任意に設定することができる。
The reference information acquisition unit 9 transmits an acquisition request for past evaluation information including vehicle information at the time of utterance indicating the position in the utterance area of the set evaluation information to the accumulation server 200 via the communication unit 12. The storage server 200 stores evaluation information collected for at least all vehicles having the information processing apparatus 100, and other vehicles are created in the acquired past evaluation information as a result of the acquisition request. Will also be included.
When the reference information acquisition unit 9 requests acquisition of past evaluation information in the utterance area of the set evaluation information, the reference information acquisition unit 9 specifies that only evaluation information registered in a period of five minutes before the current time is to be searched Alternatively, it may be specified that only the evaluation information registered at the same timing of the previous day, for example, two hours in the evening of the previous day, is to be searched. The search target specified by the reference information acquisition unit 9 can be arbitrarily set.

参照情報取得部9は、発話エリア内の過去の評価情報の取得要求に応じて、蓄積サーバ200から過去の評価情報が送信されると、通信部12を介してこの過去の評価情報を取得する。参照情報取得部9は、過去の評価情報を取得すると、関連性を評価することができると判断する。一方、参照情報取得部9は、過去の評価情報が取得できなければ関連性を評価することができないと判断する。参照情報取得部9は、評価情報と参照情報の関連性について評価することができると判断した場合に、取得した過去の評価情報を参照情報として蓄積判定部10に出力する。   The reference information acquisition unit 9 acquires the past evaluation information via the communication unit 12 when the past evaluation information is transmitted from the storage server 200 in response to the acquisition request of the past evaluation information in the utterance area. . The reference information acquisition unit 9 determines that the relevance can be evaluated when the past evaluation information is acquired. On the other hand, the reference information acquisition unit 9 determines that the relevance cannot be evaluated unless the past evaluation information can be acquired. When the reference information acquisition unit 9 determines that the relationship between the evaluation information and the reference information can be evaluated, the reference information acquisition unit 9 outputs the acquired past evaluation information to the accumulation determination unit 10 as reference information.

蓄積判定部10は、評価情報作成部8が作成した評価情報のキーワードと、参照情報取得部9が取得した参照情報とを比較して、関連性を評価する。また、評価情報作成部8が作成した評価情報に相対的な評価を示す表現が含まれていた場合、例えば評価情報が相対的に悪い評価を示す表現であり、参照情報取得部9が取得した参照情報も同様に発話エリア内で相対的に悪い評価を示す表現である割合が80%を占めている場合、一致度を80%と算出する。例えば、一致度に関して、関連性が高いとする閾値が60%以上と設定されている場合、蓄積判定部10は算出した一致度80%が閾値である60%以上であるので基準を満たしていると判定し、評価情報と参照情報の関連性が高いと判定する。蓄積判定部10は、蓄積制御部11に対して評価情報の蓄積を指示する。   The accumulation determination unit 10 compares the keyword of the evaluation information created by the evaluation information creation unit 8 with the reference information acquired by the reference information acquisition unit 9, and evaluates the relevance. Further, when the evaluation information created by the evaluation information creation unit 8 includes an expression indicating relative evaluation, for example, the evaluation information is an expression indicating a relatively bad evaluation, and is acquired by the reference information acquisition unit 9. Similarly, when the ratio of the reference information representing the relatively bad evaluation in the utterance area occupies 80%, the matching degree is calculated as 80%. For example, when the threshold value that indicates a high degree of relevance is set to 60% or higher, the accumulation determination unit 10 satisfies the standard because the calculated matching level 80% is the threshold value of 60% or higher. It is determined that the relevance between the evaluation information and the reference information is high. The accumulation determination unit 10 instructs the accumulation control unit 11 to accumulate evaluation information.

次に、実施の形態1の図5のフローチャートのステップST107からステップST109の処理について、実施の形態3の参照情報取得部9および蓄積判定部10を適用した場合の、詳細な動作について説明する。
図8は、実施の形態3に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。
Next, detailed operations when the reference information acquisition unit 9 and the accumulation determination unit 10 of the third embodiment are applied to the processing from step ST107 to step ST109 in the flowchart of FIG. 5 of the first embodiment will be described.
FIG. 8 is a flowchart illustrating operations of the reference information acquisition unit 9 and the accumulation determination unit 10 of the information processing apparatus 100 according to Embodiment 3.

参照情報取得部9は、評価情報作成部8が作成した評価情報に含まれる車両の位置情報を取得し、取得した位置情報に基づいて発話エリアを設定する(ステップST401)。参照情報取得部9は、設定した評価情報の発話エリア内の過去の評価情報の取得要求を通信部12を介して蓄積サーバ200に出力、即ち送信する(ステップST402)。参照情報取得部9は、取得要求に応じて蓄積サーバ200から過去の評価情報を受信したか判定を行う(ステップST403)。過去の評価情報を受信しない場合(ステップST403;NO)、図5のフローチャートのステップST101の処理に戻る。一方、過去の評価情報を受信した場合(ステップST403;YES)、受信した過去の評価情報を参照情報として蓄積判定部10に出力する(ステップST404)。   The reference information acquisition unit 9 acquires vehicle position information included in the evaluation information generated by the evaluation information generation unit 8, and sets a speech area based on the acquired position information (step ST401). The reference information acquisition unit 9 outputs, that is, transmits an acquisition request for past evaluation information in the set utterance area of the evaluation information to the storage server 200 via the communication unit 12 (step ST402). The reference information acquisition unit 9 determines whether past evaluation information has been received from the storage server 200 in response to the acquisition request (step ST403). When the past evaluation information is not received (step ST403; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when past evaluation information is received (step ST403; YES), the received past evaluation information is output to the accumulation determination unit 10 as reference information (step ST404).

蓄積判定部10は、ステップST404で入力された参照情報と、評価情報作成部8が作成した評価情報に含まれるキーワードとの一致度を算出する(ステップST405)。蓄積判定部10は、ステップST405で算出した一致度が基準を満たしているか判定を行う(ステップST406)。一致度が基準を満たしていない場合(ステップST406;NO)、図5のフローチャートのステップST101の処理に戻る。一方、一致度が基準を満たしている場合(ステップST406;YES)、蓄積判定部10は評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST407)、図5のフローチャートのステップST110の処理に進む。   The accumulation determination unit 10 calculates the degree of coincidence between the reference information input in step ST404 and the keyword included in the evaluation information created by the evaluation information creation unit 8 (step ST405). The accumulation determination unit 10 determines whether or not the degree of coincidence calculated in step ST405 satisfies the standard (step ST406). When the degree of coincidence does not satisfy the standard (step ST406; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when the degree of coincidence satisfies the criterion (step ST406; YES), the accumulation determination unit 10 determines to accumulate the evaluation information, and outputs it to the accumulation control unit 11 (step ST407), and step ST110 of the flowchart of FIG. Proceed to the process.

なお、図8のフローチャートでは、評価情報のキーワードと参照情報との一致度を用いて、関連性を評価する場合を例に示したが、一致度以外にも、評価情報のキーワードと参照情報との類似度、乖離度、共通部分の有無、共通部分の割合、または共通部分の頻度等を用いて関連性を評価することができる。
また、キーワード同士の一致度を用いて評価情報と参照情報の関連性を評価するのみではなく、評価情報のジャンル、相対的な評価を示す表現同士の一致度、類似度、乖離度等を用いて評価情報と参照情報の関連性を評価することができる。
In the flowchart of FIG. 8, an example in which the relevance is evaluated using the degree of coincidence between the keyword of the evaluation information and the reference information is shown as an example. The relevance can be evaluated using the similarity, the divergence, the presence / absence of the common part, the ratio of the common part, the frequency of the common part, or the like.
In addition to evaluating the relevance between evaluation information and reference information using the degree of coincidence between keywords, the genre of the evaluation information, the degree of coincidence between expressions showing relative evaluation, the degree of similarity, the degree of deviation, etc. are used. Thus, the relationship between the evaluation information and the reference information can be evaluated.

以上のように、この実施の形態3によれば、参照情報取得部9が、蓄積サーバ200に蓄積された過去の評価情報を参照情報として取得し、蓄積判定部10が、取得された参照情報と評価情報とを比較して評価情報と参照情報の関連性を評価するように構成したので、信頼度の高い評価情報を蓄積することができる。   As described above, according to the third embodiment, the reference information acquisition unit 9 acquires past evaluation information stored in the storage server 200 as reference information, and the storage determination unit 10 acquires the acquired reference information. And the evaluation information are compared to evaluate the relationship between the evaluation information and the reference information. Therefore, highly reliable evaluation information can be accumulated.

なお、上述した実施の形態3の構成に加えて、蓄積判定部10が評価情報を蓄積すると判定した割合をユーザ毎に蓄積する、または蓄積サーバ200に蓄積された評価情報に対して「いいね」などの投稿を受け付ける構成としてもよい。
また、蓄積判定部10が評価情報と参照情報の関連性を評価する場合に、過去のユーザ毎の蓄積率、または評価情報に対する投稿結果を考慮してもよい。
また、蓄積判定部10が評価情報のユーザ毎の蓄積率を考慮することにより、悪意あるユーザの投稿を抑制する効果もある。
In addition to the configuration of the third embodiment described above, the ratio that the storage determination unit 10 determines to store the evaluation information is stored for each user, or the evaluation information stored in the storage server 200 is “liked”. Or the like.
Further, when the accumulation determination unit 10 evaluates the relevance between the evaluation information and the reference information, a past accumulation rate for each user or a posting result for the evaluation information may be considered.
In addition, the accumulation determination unit 10 has an effect of suppressing the posting of malicious users by considering the accumulation rate for each user of the evaluation information.

実施の形態4.
この実施の形態4では、参照情報として搭乗者の属性情報を用いる構成を示す。なお、実施の形態1,2,3で示した参照情報に替えて、搭乗者の属性情報のみを用いてもよいし、実施の形態1,2,3で示した参照情報のいずれか、または全てと搭乗者の属性情報とを組み合わせて用いてもよい。
図9は、この発明の実施の形態4に係る情報処理装置100aの構成を示すブロック図である。実施の形態4に係る情報処理装置100aは、図1に示した実施の形態1の情報処理装置100に対して属性情報蓄積部13および話者特定部14が追加され、参照情報取得部9および蓄積判定部10に替えて参照情報取得部9aおよび蓄積判定部10aを備えた構成である。図9において図1と同一または相当する部分は、同一の符号を付し説明を省略する。
Embodiment 4 FIG.
In the fourth embodiment, a configuration using passenger attribute information as reference information is shown. Instead of the reference information shown in the first, second, and third embodiments, only the passenger attribute information may be used, either of the reference information shown in the first, second, or third embodiments, or A combination of all and passenger attribute information may be used.
FIG. 9 is a block diagram showing the configuration of the information processing apparatus 100a according to Embodiment 4 of the present invention. In the information processing apparatus 100a according to the fourth embodiment, an attribute information storage unit 13 and a speaker specifying unit 14 are added to the information processing apparatus 100 according to the first embodiment illustrated in FIG. Instead of the accumulation determination unit 10, a reference information acquisition unit 9a and an accumulation determination unit 10a are provided. 9, parts that are the same as or correspond to those in FIG. 1 are given the same reference numerals, and descriptions thereof are omitted.

属性情報蓄積部13は、搭乗者の口癖、搭乗者の趣味嗜好、発話時の搭乗者の視線情報、発話時の搭乗者の表情情報等、搭乗者の状態を示す情報を記憶する。
属性情報蓄積部13は、搭乗者の口癖として、例えば「疲れた」、「無理」、「しんどい」、「めんどい」、「やばい」等、特に搭乗者の感情を示す口癖を記憶する。
属性情報蓄積部13は、搭乗者の趣味嗜好として、例えば車載機器での目的地の設定履歴、車載機器での訪問地点の履歴、視聴するテレビ番組または楽曲、通常の会話から推測される事項等を記憶する。
The attribute information storage unit 13 stores information indicating the state of the passenger, such as the passenger's mustache, the passenger's hobbies, the passenger's gaze information when speaking, and the passenger's facial expression information when speaking.
The attribute information accumulating unit 13 stores, as the passenger's mustaches, for example, “satisfied”, “unreasonable”, “shindo”, “mendoi”, “yabai”, etc., particularly those showing the passenger's emotions.
The attribute information storage unit 13 is a passenger's hobby preference, for example, a destination setting history in an in-vehicle device, a visit point history in the in-vehicle device, a TV program or music to be viewed, a matter inferred from a normal conversation, etc. Remember.

属性情報蓄積部13は、発話時の搭乗者の視線情報として、評価情報に含まれるキーワードを発話した搭乗者の、発話時の視線方向を記憶する。まず、発話者の視線方向を取得する方法は種々想定されるが、例えば発話者の特定を行った後、図示しない機器が特定された発話者の車載カメラによる撮像画像から発話時の視線方向を算出する。また、発話者の特定を行う方法としては、図示しない機器が発話音声の特徴量から発話者を特定する話者認識、車載カメラの撮像画像の画像認識を行った認識結果から発話者を特定する話者特定、マイクの指向性から発話者を特定する話者特定等により発話者を特定する。   The attribute information storage unit 13 stores the line-of-sight direction at the time of speaking of the passenger who has spoken the keyword included in the evaluation information as the line-of-sight information of the passenger at the time of speaking. First, there are various methods for obtaining the gaze direction of the speaker.For example, after identifying the speaker, the gaze direction at the time of utterance is determined from the image captured by the in-vehicle camera of the speaker that is not shown. calculate. In addition, as a method for identifying a speaker, a device (not shown) identifies a speaker based on a recognition result obtained by performing speaker recognition for identifying a speaker from a feature amount of speech speech, and performing image recognition of a captured image of a vehicle-mounted camera. The speaker is identified by speaker identification, speaker identification that identifies the speaker based on the directivity of the microphone, and the like.

属性情報蓄積部13は、発話時の搭乗者の表情情報として、評価情報に含まれるキーワードを発話した搭乗者の、発話時の表情を予め設定された感情表現のいずれかに分類した情報を記憶する。
発話者の表情情報を取得する方法は種々想定されるが、例えば図示しない機器が、発話者の特定を行った後、特定された発話者の車載カメラによる撮像画像から発話者の表情を推定し、近似する感情表現に分類する。具体的には、発話者の表情を、喜、怒、哀、楽、怖、恥、好、厭、昂、驚等の感情表現に分類する。
The attribute information storage unit 13 stores, as the facial expression information of the passenger at the time of utterance, information obtained by classifying the facial expression at the time of the utterance of the passenger who uttered the keyword included in the evaluation information into one of preset emotion expressions. To do.
There are various methods for obtaining the facial expression information of a speaker. For example, after an apparatus (not shown) identifies a speaker, the facial expression of the speaker is estimated from an image captured by an in-vehicle camera of the identified speaker. Categorize it into an approximate emotional expression. Specifically, the expression of the speaker is classified into emotional expressions such as joy, anger, sorrow, comfort, fear, shame, favor, jealousy, jealousy, and surprise.

話者特定部14は、収集された発話音声の発話者を特定する。話者特定部14は、発話音声の特徴量と予め蓄積された搭乗者の発話音声の特徴量とを比較して発話者を特定する方法、車載カメラの撮像画像の画像認識を行って発話者を特定する方法、入力部1を構成するマイクの指向性から発話者の位置を特定して特定された位置に着席している搭乗者を発話者と特定する方法などを用いて、発話音声の発話者を特定する。話者特定部14が特定した発話者を示す情報は、情報抽出部3に出力される。   The speaker specifying unit 14 specifies a speaker of the collected speech voice. The speaker specifying unit 14 compares the feature amount of the utterance voice with the feature amount of the utterance voice of the passenger accumulated in advance, and specifies the speaker, performs image recognition of the captured image of the in-vehicle camera, and performs the speaker , The method of identifying the occupant seated at the identified position by identifying the position of the speaker from the directivity of the microphone constituting the input unit 1, and the like. Identify the speaker. Information indicating the speaker specified by the speaker specifying unit 14 is output to the information extracting unit 3.

情報抽出部3は、抽出したキーワードと、発話者を示す情報とを評価情報作成部8に出力する。   The information extraction unit 3 outputs the extracted keyword and information indicating the speaker to the evaluation information creation unit 8.

評価情報作成部8は、情報抽出部3から入力されたキーワードと、発話時の日時情報と、発話時の車両の位置情報および発話時の車両の方位情報と、発話者を示す情報とを組み合わせて評価情報を作成する。
参照情報取得部9aは、評価情報作成部8が作成した評価情報が、発話者の口癖、発話者の趣味嗜好等に依存する情報でないか判断するための参照情報を取得する。参照情報取得部9aは、属性情報蓄積部13から発話者の状態を示す情報を取得する。ここでいう発話者の状態とは、上述した発話者の口癖、発話者の趣味嗜好、発話時の発話者の視線情報、発話時の搭乗者の表情情報等である。
The evaluation information creation unit 8 combines the keyword input from the information extraction unit 3, date and time information at the time of utterance, vehicle position information at the time of utterance and vehicle direction information at the time of utterance, and information indicating the speaker To create evaluation information.
The reference information acquisition unit 9a acquires reference information for determining whether the evaluation information created by the evaluation information creation unit 8 is information that depends on the speech of the speaker, the taste preference of the speaker, or the like. The reference information acquisition unit 9 a acquires information indicating the state of the speaker from the attribute information storage unit 13. Here, the state of the speaker is the above-mentioned speech of the speaker, the taste preference of the speaker, the gaze information of the speaker at the time of speaking, the facial expression information of the passenger at the time of speaking.

蓄積判定部10aは、評価情報作成部8が作成した評価情報のキーワードと、参照情報取得部9aが取得した参照情報の発話者の状態を示す情報とを比較して、関連性を評価する。例えば、参照情報が、発話者の口癖を判断するための情報である場合、蓄積判定部10aは、参照情報と、評価情報のキーワードとを比較して、発話者の口癖が含まれていた場合には、蓄積制御部11に対して評価情報の蓄積を指示しない。これにより、個人の癖、個人の偏った発話等に基づく評価情報を蓄積してしまうのを抑制することができる。
また、参照情報が、発話者の趣味嗜好への依存を判断するための情報である場合、蓄積判定部10aは、参照情報と、評価情報のキーワードとを比較して、発話者の趣味嗜好が含まれていた場合には、蓄積制御部11に対して評価情報の蓄積を指示しない。これにより、個人の癖、個人の偏った発話に基づく評価情報を蓄積してしまうのを抑制することができる。
The accumulation determination unit 10a evaluates the relevance by comparing the keyword of the evaluation information created by the evaluation information creation unit 8 with the information indicating the state of the speaker of the reference information acquired by the reference information acquisition unit 9a. For example, when the reference information is information for determining the speech of the speaker, the accumulation determination unit 10a compares the reference information with the keyword of the evaluation information and includes the speech of the speaker The storage control unit 11 is not instructed to store evaluation information. As a result, it is possible to suppress the accumulation of evaluation information based on personal habits, personal biased utterances, and the like.
When the reference information is information for determining dependence on the taste preference of the speaker, the accumulation determination unit 10a compares the reference information with the keyword of the evaluation information, and the taste preference of the speaker is determined. If it is included, the accumulation control unit 11 is not instructed to accumulate evaluation information. As a result, it is possible to suppress the accumulation of evaluation information based on personal habits and personal utterances.

また、参照情報が発話者の視線情報である場合、蓄積判定部10aは、発話者の視線情報を参照して、発話者の発話時の視線が車外を向いていた場合には、蓄積制御部11に対して評価情報の蓄積を指示する。なお、視線情報を用いた判定は、その他の情報との比較と組み合わせて実施するのが望ましい。これにより、車外の情報について発話した可能性が高いキーワードを含む評価情報を蓄積することができる。   Further, when the reference information is the speaker's line-of-sight information, the accumulation determining unit 10a refers to the speaker's line-of-sight information, and when the speaker's line of sight is pointing out of the vehicle, the accumulation control unit 11 is instructed to accumulate evaluation information. Note that the determination using line-of-sight information is preferably performed in combination with comparison with other information. Thereby, evaluation information including a keyword with a high possibility of speaking about information outside the vehicle can be accumulated.

また、参照情報が発話者の表情情報である場合、蓄積判定部10aは、表情情報を用いて発話者の発話時の表情を、予め設定された感情表現のいずれかに分類する。蓄積判定部10aは、評価情報のキーワードに含まれる感情表現が、分類した感情表現と一致する場合には、蓄積制御部11に対して評価情報の蓄積を指示する。これにより、発話者の発話時の表情と、発話内容とが乖離している評価情報を蓄積してしまうのを抑制することができる。   Further, when the reference information is the speaker's facial expression information, the accumulation determination unit 10a classifies the facial expression at the time of the speaker's speech into any of preset emotion expressions using the facial expression information. When the emotion expression included in the keyword of the evaluation information matches the classified emotion expression, the accumulation determination unit 10a instructs the accumulation control unit 11 to accumulate the evaluation information. Thereby, it can suppress that the evaluation information in which the expression at the time of a speaker's utterance and the content of utterance has deviated is accumulate | stored.

次に、情報処理装置100aのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
情報処理装置100aにおける参照情報取得部9aは、外部からの情報を入力する図3における入力装置101により実現される。また、情報処理装置100aにおける属性情報蓄積部13は、図3で示したメモリ103により実現される。また、情報処理装置100aにおける蓄積判定部10aおよび話者特定部14は、処理回路により実現される。処理回路は、図3で示したメモリ103に格納されるプログラムを実行するCPU(Central Processing Unit)102である。
Next, a hardware configuration example of the information processing apparatus 100a will be described. Note that the description of the same configuration as that of Embodiment 1 is omitted.
The reference information acquisition unit 9a in the information processing device 100a is realized by the input device 101 in FIG. 3 that inputs information from the outside. Further, the attribute information storage unit 13 in the information processing apparatus 100a is realized by the memory 103 illustrated in FIG. Further, the accumulation determination unit 10a and the speaker identification unit 14 in the information processing apparatus 100a are realized by a processing circuit. The processing circuit is a CPU (Central Processing Unit) 102 that executes a program stored in the memory 103 shown in FIG.

次に、情報処理装置100aが、発話者の状態を示す情報を用いて評価情報を蓄積するか判定を行う動作について説明する。
図10は、実施の形態4による情報処理装置100aの動作を示すフローチャートである。図10において、図5で示した実施の形態1のフローチャートと同一のステップには同一の符号を付し、説明を省略する。
ステップST101で発話音声が収集されると、ステップST102の発話音声の認識処理と並行して、話者特定部14が収集された発話音声の発話者を特定する(ステップST501)。話者特定部14は、特定した発話者を示す情報を情報抽出部3に出力する。情報抽出部3はステップST103およびステップST104の処理によりキーワードを抽出する。情報抽出部3は、抽出したキーワードと、発話者を示す情報とを評価情報作成部8に出力する。位置情報取得部5は、ステップST105の処理により、発話時の日時情報、発話時の車両の位置情報および発話時の車両の方位情報を取得する。評価情報作成部8は、ステップST103で抽出されたキーワードと、発話時の日時情報と、ステップST105で取得された車両の位置情報および方位情報と、ステップST501で特定された発話者を示す情報とを組み合わせて評価情報を作成する(ステップST502)。
Next, an operation in which the information processing apparatus 100a determines whether to accumulate evaluation information using information indicating the state of the speaker will be described.
FIG. 10 is a flowchart showing the operation of the information processing apparatus 100a according to the fourth embodiment. In FIG. 10, the same steps as those in the flowchart of the first embodiment shown in FIG.
When the speech is collected in step ST101, the speaker identifying unit 14 identifies the speaker of the collected speech in parallel with the speech recognition processing in step ST102 (step ST501). The speaker specifying unit 14 outputs information indicating the specified speaker to the information extracting unit 3. The information extraction unit 3 extracts keywords by the processing of step ST103 and step ST104. The information extraction unit 3 outputs the extracted keyword and information indicating the speaker to the evaluation information creation unit 8. The position information acquisition unit 5 acquires date and time information at the time of utterance, position information of the vehicle at the time of utterance, and direction information of the vehicle at the time of utterance by the process of step ST105. The evaluation information creation unit 8 includes the keyword extracted in step ST103, date information at the time of utterance, vehicle position information and direction information acquired in step ST105, and information indicating the speaker identified in step ST501. Are combined to create evaluation information (step ST502).

参照情報取得部9aは、ステップST502で作成された評価情報を評価するための参照情報を、属性情報蓄積部13等から取得する(ステップST503)。蓄積判定部10は、ステップST502で作成された評価情報に含まれるキーワードと、ステップST503で取得された参照情報とを比較し、関連性を評価する(ステップST504)。その後、フローチャートはステップST109の処理に進む。   The reference information acquisition unit 9a acquires reference information for evaluating the evaluation information created in step ST502 from the attribute information storage unit 13 or the like (step ST503). The accumulation determining unit 10 compares the keyword included in the evaluation information created in step ST502 with the reference information acquired in step ST503, and evaluates the relevance (step ST504). Thereafter, the flowchart proceeds to step ST109.

次に、図10のフローチャートのステップST503からステップST109で示した、参照情報取得部9aおよび蓄積判定部10aの処理をより詳細に説明する。
図11は、実施の形態4に係る情報処理装置100aの参照情報取得部9aおよび蓄積判定部10aの動作を示すフローチャートである。なお、図11のフローチャートでは、参照情報取得部9aが、属性情報蓄積部13に記憶されている発話者の口癖を示す情報を取得する場合を例に説明する。なお、図11のフローチャートでは、評価情報にキーワードが含まれている場合を例に説明する。
Next, the processing of the reference information acquisition unit 9a and the accumulation determination unit 10a shown in steps ST503 to ST109 in the flowchart of FIG. 10 will be described in more detail.
FIG. 11 is a flowchart illustrating operations of the reference information acquisition unit 9a and the accumulation determination unit 10a of the information processing apparatus 100a according to the fourth embodiment. In the flowchart of FIG. 11, an example will be described in which the reference information acquisition unit 9 a acquires information indicating the speech of the speaker stored in the attribute information storage unit 13. In the flowchart of FIG. 11, a case where a keyword is included in the evaluation information will be described as an example.

参照情報取得部9aは、評価情報に含まれる発話者を示す情報から、キーワードの発話者を特定する(ステップST601)。参照情報取得部9aは、ステップST601で特定した発話者の口癖を示す情報を属性情報蓄積部13から取得する(ステップST602)。蓄積判定部10aは、ステップST602で取得された発話者の口癖を示す情報と、評価情報に含まれるキーワードとを比較して、発話者の口癖が含まれているか判定を行う(ステップST603)。キーワードに発話者の口癖が含まれている場合(ステップST603;YES)、図10のフローチャートのステップST101に戻る。一方、キーワードに発話者の口癖が含まれていない場合(ステップST603;NO)、蓄積判定部10aは評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST604)、図10のフローチャートのステップST110の処理に進む。   The reference information acquisition unit 9a specifies a keyword speaker from information indicating the speaker included in the evaluation information (step ST601). The reference information acquisition unit 9a acquires information indicating the speech of the speaker identified in step ST601 from the attribute information storage unit 13 (step ST602). The accumulation determination unit 10a compares the information indicating the speech of the speaker acquired in step ST602 with the keyword included in the evaluation information, and determines whether the speech of the speaker is included (step ST603). If the keyword includes the speech of the speaker (step ST603; YES), the process returns to step ST101 in the flowchart of FIG. On the other hand, if the keyword does not include the utterance of the speaker (step ST603; NO), the accumulation determining unit 10a determines that the evaluation information is to be accumulated, and outputs it to the accumulation control unit 11 (step ST604). The process proceeds to step ST110.

同様に図12は、実施の形態4に係る情報処理装置100aの参照情報取得部9aおよび蓄積判定部10aの動作を示すフローチャートであり、参照情報取得部9aが、属性情報蓄積部13に記憶されている搭乗者の趣味嗜好を示す情報を取得する場合を例に示している。
図12において、図11で示したフローチャート同一のステップには同一の符号を付し、説明を省略する。
参照情報取得部9aは、ステップST601で特定した発話者の趣味嗜好を示す情報を属性情報蓄積部13から取得する(ステップST611)。蓄積判定部10aは、ステップST605で取得された発話者の趣味嗜好を示す情報と、評価情報に含まれるキーワードとを比較して、発話者の趣味嗜好が含まれているか判定を行う(ステップST612)。キーワードに発話者の趣味嗜好が含まれている場合(ステップST612;YES)、図10のフローチャートのステップST101に戻る。一方、キーワードに発話者の趣味嗜好が含まれていない場合(ステップST612;NO)、蓄積判定部10aは評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST604)、図10のフローチャートのステップST110の処理に進む。
Similarly, FIG. 12 is a flowchart showing operations of the reference information acquisition unit 9a and the accumulation determination unit 10a of the information processing apparatus 100a according to Embodiment 4, and the reference information acquisition unit 9a is stored in the attribute information storage unit 13. The case where the information which shows the hobby preference of the boarding passenger is acquired is shown as an example.
In FIG. 12, the same steps as those in the flowchart shown in FIG.
The reference information acquisition unit 9a acquires information indicating the taste preference of the speaker identified in step ST601 from the attribute information storage unit 13 (step ST611). The accumulation determination unit 10a compares the information indicating the taste preference of the speaker acquired in step ST605 with the keyword included in the evaluation information, and determines whether the taste preference of the speaker is included (step ST612). ). When the keyword includes the speaker's hobby preference (step ST612; YES), the process returns to step ST101 in the flowchart of FIG. On the other hand, when the keyword does not include the speaker's hobby preference (step ST612; NO), the accumulation determination unit 10a determines that the evaluation information is to be accumulated, and outputs the evaluation information to the accumulation control unit 11 (step ST604). The process proceeds to step ST110 of the flowchart.

同様に図13は、実施の形態4に係る情報処理装置100aの参照情報取得部9aおよび蓄積判定部10aの動作を示すフローチャートであり、参照情報取得部9aが、属性情報蓄積部13に記憶されている搭乗者の視線を示す情報を取得する場合を例に示している。
図13において、図11で示したフローチャート同一のステップには同一の符号を付し、説明を省略する。
参照情報取得部9aは、ステップST601で特定した発話者の視線を示す情報を属性情報蓄積部13から取得する(ステップST621)。蓄積判定部10aは、ステップST621で取得された発話者の視線を示す情報から、発話者が車外を向いて発話しているか判定を行う(ステップST622)。発話者が車外を向いて発話していない場合(ステップST622;NO)、図10のフローチャートのステップST101に戻る。一方、発話者が車外を向いて発話している場合(ステップST622;YES)、蓄積判定部10aは評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST604)、図10のフローチャートのステップST110の処理に進む。
蓄積判定部10aは、ステップST604の処理が終了すると、参照情報取得部9aが視線を示す情報と異なる情報を参照情報として取得し、蓄積判定部10aが蓄積するか判断する処理に進むように構成してもよい。
Similarly, FIG. 13 is a flowchart showing operations of the reference information acquisition unit 9a and the accumulation determination unit 10a of the information processing apparatus 100a according to Embodiment 4, and the reference information acquisition unit 9a is stored in the attribute information storage unit 13. An example in which information indicating the line of sight of a passenger is acquired is shown.
In FIG. 13, the same steps as those in the flowchart shown in FIG.
The reference information acquisition unit 9a acquires information indicating the line of sight of the speaker identified in step ST601 from the attribute information storage unit 13 (step ST621). The accumulation determination unit 10a determines whether or not the speaker is speaking outside the vehicle from the information indicating the line of sight of the speaker acquired in step ST621 (step ST622). When the speaker does not speak facing the outside of the vehicle (step ST622; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when the speaker is speaking outside the vehicle (step ST622; YES), the accumulation determination unit 10a determines that the evaluation information is to be accumulated, and outputs the evaluation information to the accumulation control unit 11 (step ST604). The process proceeds to step ST110.
The accumulation determination unit 10a is configured such that when the process of step ST604 ends, the reference information acquisition unit 9a acquires information different from the information indicating the line of sight as reference information, and proceeds to a process of determining whether the accumulation determination unit 10a accumulates. May be.

同様に図14は、実施の形態4に係る情報処理装置100aの参照情報取得部9aおよび蓄積判定部10aの動作を示すフローチャートであり、参照情報取得部9aが、属性情報蓄積部13に記憶されている搭乗者の感情表現を示す情報を取得する場合を例に示している。
図14において、図11で示したフローチャート同一のステップには同一の符号を付し、説明を省略する。
参照情報取得部9aは、ステップST601で特定した発話者の感情表現を示す情報を属性情報蓄積部13から取得する(ステップST631)。蓄積判定部10aは、評価情報に含まれるキーワードに発話者の感情表現が含まれるか判定を行う(ステップST632)。発話者の感情表現が含まれない場合(ステップST632;NO)、図10のフローチャートのステップST101に戻る。一方、発話者の感情表現が含まれる場合(ステップST632;YES)、ステップST631で取得された発話者の感情表現を示す情報と、評価情報に含まれるキーワードとを比較して、発話者の感情表現を示す情報とキーワードの感情表現が一致するか判定を行う(ステップST633)。感情表現が一致しない場合(ステップST633;NO)、図10のフローチャートのステップST101に戻る。一方、感情表現が一致する場合(ステップST633;YES)、蓄積判定部10aは評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST604)、図10のフローチャートのステップST110の処理に進む。
Similarly, FIG. 14 is a flowchart showing operations of the reference information acquisition unit 9a and the accumulation determination unit 10a of the information processing apparatus 100a according to Embodiment 4, and the reference information acquisition unit 9a is stored in the attribute information storage unit 13. The case where the information which shows the emotional expression of the passenger is acquired is shown as an example.
In FIG. 14, the same steps as those in the flowchart shown in FIG.
The reference information acquisition unit 9a acquires information indicating the emotional expression of the speaker identified in step ST601 from the attribute information storage unit 13 (step ST631). Accumulation determination unit 10a determines whether the keyword included in the evaluation information includes the emotional expression of the speaker (step ST632). When the emotional expression of the speaker is not included (step ST632; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when the emotional expression of the speaker is included (step ST632; YES), the information indicating the emotional expression of the speaker acquired in step ST631 is compared with the keyword included in the evaluation information, and the emotion of the speaker is compared. It is determined whether the information indicating the expression matches the emotion expression of the keyword (step ST633). If the emotional expressions do not match (step ST633; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, if the emotional expressions match (step ST633; YES), the accumulation determination unit 10a determines that the evaluation information is to be accumulated, outputs it to the accumulation control unit 11 (step ST604), and performs the process of step ST110 in the flowchart of FIG. move on.

以上のように、この実施の形態4によれば、搭乗者の口癖、搭乗者の趣味嗜好、発話時の搭乗者の視線情報、発話時の搭乗者の表情情報等、搭乗者の状態を示す情報を記憶する属性情報蓄積部13と、属性情報蓄積部13に記憶された情報から参照情報を取得する参照情報取得部9aと、評価情報作成部8が作成した評価情報と、参照情報取得部9aが取得した参照情報の発話者の状態を示す情報とを比較して、関連性を評価する蓄積判定部10aとを備えるように構成したので、発話者の癖、発話者の偏った発言等による評価情報の蓄積を抑制することができる。また、発話者の感情表現と一致した評価情報を蓄積することができ、信頼度の高い評価情報を蓄積することができる。   As described above, according to the fourth embodiment, the state of the passenger, such as the passenger's mustache, the passenger's hobby preference, the passenger's line of sight information when speaking, the passenger's facial expression information when speaking, and the like are shown. Attribute information storage unit 13 for storing information, reference information acquisition unit 9a for acquiring reference information from information stored in attribute information storage unit 13, evaluation information created by evaluation information creation unit 8, and reference information acquisition unit 9a is configured to include an accumulation determination unit 10a that evaluates relevance by comparing the information indicating the state of the speaker in the reference information acquired by 9a. Accumulation of evaluation information due to can be suppressed. Further, evaluation information that matches the emotional expression of the speaker can be accumulated, and highly reliable evaluation information can be accumulated.

なお、上述した実施の形態4では、情報処理装置100aが属性情報蓄積部13を備える構成を示したが、情報処理装置100aが、情報処理装置100aの外部の機器から搭乗者の口癖、搭乗者の趣味嗜好、発話時の搭乗者の視線情報、発話時の搭乗者の表情情報等、搭乗者の状態を示す情報を取得する構成としてもよい。   In the above-described fourth embodiment, the information processing apparatus 100a is configured to include the attribute information storage unit 13. However, the information processing apparatus 100a can be connected to a passenger's mustache or passenger from an external device of the information processing apparatus 100a. It may be configured to acquire information indicating the passenger's state, such as the taste preference of the passenger, the line-of-sight information of the passenger at the time of speaking, and the facial expression information of the passenger at the time of speaking.

実施の形態5.
この実施の形態5では、参照情報として評価情報に含まれるキーワード等に含まれる日時情報または位置情報(以下、それぞれキーワード日時情報、キーワード位置情報という)の少なくとも1つに基づいて評価情報の蓄積を判定する構成を示す。なお、実施の形態1−4で示した参照情報に替えて、キーワード日時情報またはキーワード位置情報のみを用いてもよいし、実施の形態1−4で示した参照情報とキーワード日時情報またはキーワード位置情報の少なくとも1つを組み合わせて用いてもよい。
実施の形態5に係る情報処理装置100の構成は、上記実施の形態1の図1に示した情報処理装置100の構成と図面上は同様であるため、ブロック図の記載を省略し、以下では図1を用いて説明する。
Embodiment 5. FIG.
In this fifth embodiment, evaluation information is accumulated based on at least one of date information or position information (hereinafter referred to as keyword date information and keyword position information, respectively) included in a keyword included in evaluation information as reference information. The structure to determine is shown. Note that only the keyword date information or keyword position information may be used instead of the reference information shown in the embodiment 1-4, or the reference information and the keyword date information or the keyword position shown in the embodiment 1-4. A combination of at least one piece of information may be used.
The configuration of the information processing apparatus 100 according to Embodiment 5 is the same as the configuration of the information processing apparatus 100 shown in FIG. 1 of Embodiment 1 above in the drawing, and therefore the description of the block diagram is omitted. This will be described with reference to FIG.

参照情報取得部9は、評価情報に含まれるキーワード等に含まれる、キーワード日時情報またはキーワード位置情報の少なくとも1つを参照情報として取得する。評価情報に含まれるキーワード日時情報のうち、日を示す情報としては、例えば、「今日」、「明日」等の相対的な表現、「○月○日」、「○○の日」等の絶対的な表現等がある。また、日時情報のうち、時を示す情報としては、例えば、「今」、「○○分前」等の相対的な表現、「○時○分」、「○時○分○秒」等の絶対的な表現等がある。評価情報に含まれるキーワード位置情報とは、「○○市で」、「○○県の」等の地名表現または番地等の住所表現等である。   The reference information acquisition unit 9 acquires at least one of keyword date / time information or keyword position information included in a keyword or the like included in the evaluation information as reference information. Among the keyword date / time information included in the evaluation information, as information indicating the day, for example, relative expressions such as “today”, “tomorrow”, and absolute such as “○ month ○ day”, “XX day” There are typical expressions. Among the date and time information, as information indicating the time, for example, “now”, “XX minutes ago” or the like, “○ hours * minutes”, “○ hours * minutes * seconds”, etc. There are absolute expressions. The keyword position information included in the evaluation information is a place name expression such as “in XX city”, “in XX prefecture”, or an address expression such as a street address.

蓄積判定部10は、参照情報取得部9が取得した参照情報にキーワード日時情報が含まれる場合には、当該評価情報に含まれる発話時の日時情報を取得し、双方の日時情報が同日同時刻を示しているかの判定を行う。ここで、2つ日時情報が同日同時刻を示しているか否かは、同一の日時情報を示しているか否か、あるいは、キーワード日時情報が発話時の日時情報と同日の同時刻を示していると判断可能な表現であるか否か等、ほぼ同一の日時であると判断可能な範囲に含まれる等の条件に基づいて判定する。即ち、厳密に同日同時刻である必要はない。
また、蓄積判定部10は、参照情報取得部9の参照情報に位置情報が含まれる場合には、評価情報に含まれる発話時の車両の位置情報を取得し、双方の位置情報が同一エリアに存在するか判定を行う。ここで、2つの位置情報が示す位置が同一エリアに存在しているかは、2つの位置情報が設定された領域内、例えば半径1km以内に共に存在している等の条件に基づいて判定する。即ち、厳密に位置が一致している必要はない。
When the reference information acquired by the reference information acquisition unit 9 includes keyword date / time information, the accumulation determination unit 10 acquires date / time information at the time of utterance included in the evaluation information, and both date / time information is the same time on the same day. Is determined. Here, whether or not the two date / time information indicates the same time on the same day indicates whether or not the same date / time information is indicated, or the keyword date / time information indicates the same time on the same day as the date / time information at the time of utterance. It is determined based on conditions such as whether it is included in a range that can be determined to be almost the same date and time, such as whether or not the expression can be determined. That is, it is not necessary to be exactly the same time on the same day.
In addition, when the reference information of the reference information acquisition unit 9 includes position information, the accumulation determination unit 10 acquires the position information of the vehicle at the time of utterance included in the evaluation information, and both the position information are in the same area. Determine if it exists. Here, whether or not the position indicated by the two pieces of position information exists in the same area is determined based on a condition such that both the pieces of position information exist within an area in which the two pieces of position information are set, for example, within a radius of 1 km. That is, it is not necessary that the positions are exactly the same.

次に、実施の形態1の図5のフローチャートのステップST107からステップST109の処理について、実施の形態5の参照情報取得部9および蓄積判定部10を適用した場合の、詳細な動作について説明する。
図15は、実施の形態5に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートである。
なお、図15のフローチャートでは、参照情報取得部9が評価情報に含まれるキーワードから日時情報を取得する場合を例に説明する。
Next, detailed operations when the reference information acquisition unit 9 and the accumulation determination unit 10 of the fifth embodiment are applied to the processing from step ST107 to step ST109 in the flowchart of FIG. 5 of the first embodiment will be described.
FIG. 15 is a flowchart illustrating operations of the reference information acquisition unit 9 and the accumulation determination unit 10 of the information processing apparatus 100 according to the fifth embodiment.
In the flowchart of FIG. 15, a case where the reference information acquisition unit 9 acquires date / time information from a keyword included in the evaluation information will be described as an example.

参照情報取得部9は、評価情報作成部8が作成した評価情報に含まれるキーワード日時情報が含まれるか、即ち、当該評価情報にキーワード日時情報が含まれるかの判定を行う(ステップST701)。キーワードに日時情報が含まれない場合(ステップST701;NO)、図1のフローチャートのステップST101に戻る。一方、キーワード日時情報が含まれる場合(ステップST701;YES)、参照情報取得部9はキーワード日時情報を参照情報として蓄積判定部10に出力する(ステップST702)。蓄積判定部10は、キーワード日時情報を含む参照情報が入力されると、評価情報に含まれる発話時の日時情報を取得する(ステップST703)。蓄積判定部10は、ステップST702で入力された参照情報であるキーワード日時情報と、ステップST703で取得した発話時の日時情報とが同日同時刻を示しているか判定を行う(ステップST704)。2つの日時情報が同日同時刻を示していない場合(ステップST704;NO)、図1のフローチャートのステップST101の処理に戻る。
一方、2つの日時情報が同日同時刻を示している場合(ステップST704;YES)、蓄積判定部10は評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST705)、図5のフローチャートのステップST110の処理に進む。
The reference information acquisition unit 9 determines whether or not the keyword date information included in the evaluation information created by the evaluation information creation unit 8 is included, that is, whether or not the keyword date information is included in the evaluation information (step ST701). When the date / time information is not included in the keyword (step ST701; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when the keyword date information is included (step ST701; YES), the reference information acquisition unit 9 outputs the keyword date information as reference information to the accumulation determination unit 10 (step ST702). When the reference information including the keyword date / time information is input, the accumulation determining unit 10 acquires the date / time information at the time of utterance included in the evaluation information (step ST703). The accumulation determination unit 10 determines whether the keyword date / time information, which is the reference information input in step ST702, and the date / time information at the time of utterance acquired in step ST703 indicate the same time on the same day (step ST704). When the two date information does not indicate the same time on the same day (step ST704; NO), the process returns to step ST101 in the flowchart of FIG.
On the other hand, when the two date and time information indicates the same time on the same day (step ST704; YES), the accumulation determination unit 10 determines to accumulate the evaluation information, and outputs it to the accumulation control unit 11 (step ST705). The process proceeds to step ST110 of the flowchart.

同様に図16は、実施の形態5に係る情報処理装置100の参照情報取得部9および蓄積判定部10の動作を示すフローチャートであり、参照情報取得部9が、評価情報に含まれるキーワードから位置情報、即ちキーワード位置情報を取得する場合を例に説明する。なお図15のフローチャートは、評価情報に含まれるキーワードに合わせて、キーワードのジャンル、相対的な評価、または搭乗者の発話内容全ての情報のいずれかを含む場合にも適用可能である。   Similarly, FIG. 16 is a flowchart showing operations of the reference information acquisition unit 9 and the accumulation determination unit 10 of the information processing apparatus 100 according to Embodiment 5, in which the reference information acquisition unit 9 starts from the keyword included in the evaluation information. A case where information, that is, keyword position information is acquired will be described as an example. Note that the flowchart of FIG. 15 can also be applied to a case in which any one of keyword genre, relative evaluation, or information on all the utterances of the passenger is included in accordance with the keyword included in the evaluation information.

参照情報取得部9は、評価情報作成部8が作成した評価情報に含まれるキーワードに位置情報が含まれるか、即ちキーワード位置情報が含まれるか否かの判定を行う(ステップST711)。キーワード位置情報が含まれない場合(ステップST711;NO)、図1のフローチャートのステップST101に戻る。一方、キーワード位置情報が含まれる場合(ステップST711;YES)、参照情報取得部9はキーワード位置情報を参照情報として蓄積判定部10に出力する(ステップST712)。蓄積判定部10は、キーワード位置情報を含む参照情報が入力されると、評価情報に含まれる発話時の車両の位置情報を取得する(ステップST713)。   The reference information acquisition unit 9 determines whether the keyword included in the evaluation information created by the evaluation information creation unit 8 includes position information, that is, whether keyword position information is included (step ST711). When the keyword position information is not included (step ST711; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, when keyword position information is included (step ST711; YES), the reference information acquisition unit 9 outputs the keyword position information as reference information to the accumulation determination unit 10 (step ST712). When the reference information including the keyword position information is input, the accumulation determining unit 10 acquires the position information of the vehicle at the time of utterance included in the evaluation information (step ST713).

蓄積判定部10は、ステップST712で入力された参照情報であるキーワード位置情報と、ステップST713で取得した発話時の位置情報とが同一エリアに存在するか判定を行う(ステップST714)。2つの位置情報が同一エリアに存在していない場合(ステップST714;NO)、図1のフローチャートのステップST101の処理に戻る。一方、2つの位置情報が同一エリアに存在している場合(ステップST714;YES)、蓄積判定部10は評価情報を蓄積すると判断し、蓄積制御部11に出力し(ステップST715)、図5のフローチャートのステップST110の処理に進む。   The accumulation determination unit 10 determines whether the keyword position information, which is the reference information input in step ST712, and the position information at the time of utterance acquired in step ST713 exist in the same area (step ST714). If the two pieces of position information do not exist in the same area (step ST714; NO), the process returns to step ST101 in the flowchart of FIG. On the other hand, if the two pieces of position information exist in the same area (step ST714; YES), the accumulation determination unit 10 determines to accumulate the evaluation information, and outputs it to the accumulation control unit 11 (step ST715). The process proceeds to step ST110 of the flowchart.

以上のように、この実施の形態5によれば、評価情報作成部8がキーワードを含む情報と発話時の日時情報をさらに組み合わせて評価情報を作成し、参照情報取得部9が評価情報からキーワード日時情報またはキーワード位置情報を参照情報として取得し、蓄積判定部10が参照情報であるキーワード日時情報またはキーワード位置情報と、評価情報に含まれる発話時の日時情報または発話時の位置情報とを比較し、条件を満たす場合に評価情報を蓄積するように構成したので、現在の状況を示さない評価情報の登録を抑制することができ、蓄積する評価情報の信頼性を向上させることができる。特に、蓄積判定部10が参照情報の日時情報と発話時の日時情報とを比較することにより、信頼性の高い評価情報を登録することができる。   As described above, according to the fifth embodiment, the evaluation information creation unit 8 creates evaluation information by further combining the information including the keyword and the date / time information at the time of utterance, and the reference information acquisition unit 9 uses the keyword from the evaluation information. Date / time information or keyword position information is acquired as reference information, and the accumulation determination unit 10 compares the keyword date / time information or keyword position information as reference information with the date / time information at the time of utterance or the position information at the time of utterance included in the evaluation information. In addition, since the evaluation information is stored when the condition is satisfied, registration of the evaluation information that does not indicate the current situation can be suppressed, and the reliability of the stored evaluation information can be improved. In particular, the accumulation determination unit 10 can register highly reliable evaluation information by comparing the date information of the reference information with the date information of the utterance.

実施の形態6.
この実施の形態6では、参照情報として電話の通話状態を示す情報を用いる構成を示す。なお、実施の形態1−5で示した参照情報に替えて、電話の通話状態を示す情報のみを用いてもよいし、実施の形態1−5で示した参照情報と電話の通話状態を示す情報とを組み合わせて用いてもよい。
図17は、この発明の実施の形態6に係る情報処理装置100bの構成を示すブロック図である。実施の形態6に係る情報処理装置100bは、図1に示した実施の形態1の情報処理装置100に対して話者特定部14が追加された構成である。図17において図1と同一または相当する部分は、同一の符号を付し説明を省略する。
Embodiment 6 FIG.
In the sixth embodiment, a configuration is shown in which information indicating a telephone call state is used as reference information. Instead of the reference information shown in the embodiment 1-5, only the information indicating the telephone call state may be used, or the reference information and the telephone call state shown in the embodiment 1-5 are shown. It may be used in combination with information.
FIG. 17 is a block diagram showing the configuration of the information processing apparatus 100b according to Embodiment 6 of the present invention. The information processing apparatus 100b according to the sixth embodiment has a configuration in which a speaker specifying unit 14 is added to the information processing apparatus 100 according to the first embodiment illustrated in FIG. In FIG. 17, the same or corresponding parts as those in FIG.

話者特定部14は、収集された発話音声の発話者を特定する。話者特定部14は、発話音声の特徴量と予め蓄積された搭乗者の発話音声の特徴量とを比較して発話者を特定する方法、車載カメラの撮像画像の画像認識を行って発話者を特定する方法、入力部1を構成するマイクの指向性から発話者の位置を特定して特定された位置に着席している搭乗者を発話者と特定する方法などを用いて、発話音声の発話者を特定する。話者特定部14が特定した発話者を示す情報は、情報抽出部3に出力される。   The speaker specifying unit 14 specifies a speaker of the collected speech voice. The speaker specifying unit 14 compares the feature amount of the utterance voice with the feature amount of the utterance voice of the passenger accumulated in advance, and specifies the speaker, performs image recognition of the captured image of the in-vehicle camera, and performs the speaker , The method of identifying the occupant seated at the identified position by identifying the position of the speaker from the directivity of the microphone constituting the input unit 1, and the like. Identify the speaker. Information indicating the speaker specified by the speaker specifying unit 14 is output to the information extracting unit 3.

評価情報作成部8は、情報抽出部3から入力されたキーワードと、発話時の日時情報と、発話時の車両の位置情報および発話時の車両の方位情報と、発話者を示す情報とを組み合わせて評価情報を作成する。
蓄積判定部10bは、発話者の通話状態を示す情報を取得する。発話者の通話状態を示す情報は、例えば車載カメラの撮像画像の画像認識により得られる情報、ハンズフリー通話の使用を示す情報等である。蓄積判定部10bは、この発話者の通話状態を示す情報を、例えば情報処理装置100bの外部の図示しない装置から取得する。蓄積判定部10bは、発話者の通話状態を示す情報を参照して、発話者が通話中である場合には、蓄積制御部11に対して評価情報の蓄積を指示しない。なお、通話状態を示す情報を用いた判定は、その他の情報との比較と組み合わせて実施するのが望ましい。
The evaluation information creation unit 8 combines the keyword input from the information extraction unit 3, date and time information at the time of utterance, vehicle position information at the time of utterance and vehicle direction information at the time of utterance, and information indicating the speaker To create evaluation information.
The accumulation determination unit 10b acquires information indicating the call state of the speaker. The information indicating the call state of the speaker is, for example, information obtained by image recognition of a captured image of the in-vehicle camera, information indicating use of a hands-free call, and the like. The accumulation determination unit 10b acquires information indicating the call state of the speaker from, for example, an apparatus (not shown) outside the information processing apparatus 100b. The accumulation determination unit 10b refers to the information indicating the call state of the speaker, and does not instruct the accumulation control unit 11 to accumulate the evaluation information when the speaker is talking. Note that the determination using the information indicating the call state is preferably performed in combination with comparison with other information.

次に、情報処理装置100bのハードウェア構成例を説明する。なお、実施の形態1と同一の構成の説明は省略する。
情報処理装置100bにおける蓄積判定部10bおよび話者特定部14は、処理回路により実現される。処理回路は、図3で示したメモリ103に格納されるプログラムを実行するCPU(Central Processing Unit)102である。
Next, a hardware configuration example of the information processing apparatus 100b will be described. Note that the description of the same configuration as that of Embodiment 1 is omitted.
The accumulation determination unit 10b and the speaker identification unit 14 in the information processing apparatus 100b are realized by a processing circuit. The processing circuit is a CPU (Central Processing Unit) 102 that executes a program stored in the memory 103 shown in FIG.

図18は、実施の形態6による情報処理装置100bの動作を示すフローチャートである。図18において、図5で示した実施の形態1のフローチャート同一のステップには同一の符号を付し、説明を省略する。
ステップST101で発話音声が収集されると、ステップST102の発話音声の認識処理と並行して、話者特定部14が収集された発話音声の発話者を特定する(ステップST801)。話者特定部14は、特定した発話者を示す情報を情報抽出部3に出力する。情報抽出部3はステップST103およびステップST104の処理によりキーワードを抽出する。情報抽出部3は、抽出したキーワードと、発話者を示す情報とを評価情報作成部8に出力する。位置情報取得部5は、ステップST105の処理により、発話時の日時情報における発話時の車両の位置情報および発話時の車両の方位情報を取得する。評価情報作成部8は、ステップST103で抽出されたキーワードと、発話時の日時情報と、ステップST105で取得された発話時の車両の位置情報および発話時の車両の方位情報と、ステップST801で特定された発話者を示す情報とを組み合わせて評価情報を作成する(ステップST802)。
FIG. 18 is a flowchart showing the operation of the information processing apparatus 100b according to the sixth embodiment. In FIG. 18, the same steps as those in the flowchart of the first embodiment shown in FIG.
When the speech is collected in step ST101, the speaker identifying unit 14 identifies the speaker of the collected speech in parallel with the speech recognition processing in step ST102 (step ST801). The speaker specifying unit 14 outputs information indicating the specified speaker to the information extracting unit 3. The information extraction unit 3 extracts keywords by the processing of step ST103 and step ST104. The information extraction unit 3 outputs the extracted keyword and information indicating the speaker to the evaluation information creation unit 8. The position information acquisition unit 5 acquires the position information of the vehicle at the time of utterance and the direction information of the vehicle at the time of utterance in the date and time information at the time of utterance by the process of step ST105. The evaluation information creating unit 8 specifies the keyword extracted in step ST103, the date / time information at the time of utterance, the vehicle position information at the time of utterance and the vehicle direction information at the time of utterance acquired at step ST105, and at step ST801. The evaluation information is created by combining with the information indicating the speaker who has been made (step ST802).

参照情報取得部9aは、ステップST802で作成された評価情報を評価するための参照情報を取得する(ステップST107)。蓄積判定部10bは、ステップST802で作成された評価情報に含まれる発話者を示す情報に示された発話者の通話状態を示す情報を取得する(ステップST803)。蓄積判定部10bは、ステップST803で取得した発話者の通話状態を示す情報を参照して発話者が通話中であるか判定する(ステップST804)。発話者が通話中である場合(ステップST804;YES)、ステップST101の処理に戻る。一方、発話者が通話中でない場合(ステップST804;NO)、ステップST108の処理に進む。   The reference information acquisition unit 9a acquires reference information for evaluating the evaluation information created in step ST802 (step ST107). The accumulation determination unit 10b acquires information indicating the call state of the speaker indicated in the information indicating the speaker included in the evaluation information created in step ST802 (step ST803). The accumulation determining unit 10b determines whether or not the speaker is talking by referring to the information indicating the call state of the speaker acquired in step ST803 (step ST804). If the speaker is busy (step ST804; YES), the process returns to step ST101. On the other hand, when the speaker is not in a call (step ST804; NO), the process proceeds to step ST108.

以上のように、この実施の形態6では、発話者の通話状態を示す情報を取得し、発話者が通話中である場合には評価情報を蓄積しないと判断する蓄積判定部10bを備えるように構成したので、移動体の外部の発話の可能性が低い通話中の発話に基づく評価情報を蓄積するのを抑制することができ、信頼度の高い評価情報を蓄積することができる。   As described above, the sixth embodiment includes the accumulation determination unit 10b that acquires information indicating the call state of the speaker and determines that the evaluation information is not stored when the speaker is in a call. Since it comprised, it can suppress accumulate | storing evaluation information based on the utterance in a call with low possibility of the utterance outside a mobile body, and can accumulate evaluation information with high reliability.

実施の形態7.
この実施の形態7では、蓄積サーバ200の評価情報データベース23に蓄積された、過去の評価情報を取得し、車両の搭乗者に提示する構成を示す。
Embodiment 7 FIG.
In the seventh embodiment, a configuration is shown in which past evaluation information accumulated in the evaluation information database 23 of the accumulation server 200 is acquired and presented to the passenger of the vehicle.

図19は、この発明の実施の形態7に係る情報処理装置100cの構成を示すブロック図である。実施の形態7に係る情報処理装置100cは、図1に示した実施の形態1の情報処理装置100に対して経路情報蓄積部15、評価情報取得部16、出力制御部17および出力部18が追加された構成である。図19において図1と同一または相当する部分は、同一の符号を付し説明を省略する。   FIG. 19 is a block diagram showing a configuration of an information processing apparatus 100c according to Embodiment 7 of the present invention. The information processing apparatus 100c according to the seventh embodiment includes a path information storage unit 15, an evaluation information acquisition unit 16, an output control unit 17, and an output unit 18 compared to the information processing apparatus 100 according to the first embodiment illustrated in FIG. This is an added configuration. In FIG. 19, the same or corresponding parts as those in FIG.

経路情報蓄積部15は、ナビゲーション装置などの車載機器に現在設定されている、目的地までの経路情報を取得して記憶する。また、経路情報蓄積部15は、車両の過去の走行履歴も記憶する。   The route information storage unit 15 acquires and stores route information to a destination that is currently set in an in-vehicle device such as a navigation device. The route information storage unit 15 also stores a past travel history of the vehicle.

評価情報取得部16は、車両の搭乗者に提示するための過去の評価情報を、通信部12を介して蓄積サーバ200から取得する。
評価情報取得部16は、経路情報蓄積部15から現在設定されている目的地までの走行経路を取得する。また、車両が目的地を設定しないまま走行している場合、評価情報取得部16は、経路情報蓄積部15から車両の過去の走行履歴を取得し、車両情報取得部6から入力される車両の現在位置に基づいて車両の目的地および走行経路を推測する。
評価情報取得部16は、現在設定されている走行経路、または推測される走行経路に関する過去の評価情報の取得要求を蓄積サーバ200に出力する。評価情報取得部16は、評価情報の取得要求に応じて蓄積サーバ200から送信された評価情報を取得する。評価情報取得部16は、取得した過去の評価情報を、走行経路と共に出力制御部17に出力する。
なお、経路情報蓄積部15は情報処理装置100c外にあって、評価情報取得部16は、情報処理装置100c外の経路情報蓄積部15からこれらの情報を取得してもよい。
The evaluation information acquisition unit 16 acquires past evaluation information to be presented to the vehicle occupant from the storage server 200 via the communication unit 12.
The evaluation information acquisition unit 16 acquires a travel route from the route information storage unit 15 to the currently set destination. When the vehicle is traveling without setting a destination, the evaluation information acquisition unit 16 acquires a past travel history of the vehicle from the route information storage unit 15 and is input from the vehicle information acquisition unit 6. Estimate the destination and travel route of the vehicle based on the current position.
The evaluation information acquisition unit 16 outputs a request for acquiring past evaluation information regarding the currently set travel route or the estimated travel route to the storage server 200. The evaluation information acquisition unit 16 acquires the evaluation information transmitted from the storage server 200 in response to the evaluation information acquisition request. The evaluation information acquisition unit 16 outputs the acquired past evaluation information to the output control unit 17 together with the travel route.
Note that the route information storage unit 15 may be outside the information processing device 100c, and the evaluation information acquisition unit 16 may acquire the information from the route information storage unit 15 outside the information processing device 100c.

出力制御部17は、評価情報取得部16から入力される経路情報に基づいて、過去の評価情報を走行経路上に割り当てる。
出力部18は、例えばスピーカまたはディスプレイ等であり、出力制御部17が割り当てた評価情報を各地点で音声出力、または表示出力する。
なお、出力部18は、情報処理装置100c外にあってもよい。
The output control unit 17 allocates past evaluation information on the travel route based on the route information input from the evaluation information acquisition unit 16.
The output unit 18 is, for example, a speaker or a display, and outputs the evaluation information assigned by the output control unit 17 as a voice or display at each point.
The output unit 18 may be outside the information processing apparatus 100c.

通信部12は、蓄積サーバ200と通信を行い、評価情報の送信に加えて、評価情報の取得要求を送信し、蓄積サーバ200の評価情報データベース23に蓄積された評価情報を受信する。また、通信部12は、外部のネットワークと通信を行う。   The communication unit 12 communicates with the storage server 200, transmits an evaluation information acquisition request in addition to transmission of evaluation information, and receives evaluation information stored in the evaluation information database 23 of the storage server 200. The communication unit 12 communicates with an external network.

上述した評価情報取得部16および出力制御部17は、図3で示したハードウェア構成においてCPU201により実現され、経路情報蓄積部15は、メモリ202により実現される。また、出力部18は、図3では図示していないが、ハードウェア構成における出力装置により実現される。   The evaluation information acquisition unit 16 and the output control unit 17 described above are realized by the CPU 201 in the hardware configuration illustrated in FIG. 3, and the path information storage unit 15 is realized by the memory 202. Further, although not shown in FIG. 3, the output unit 18 is realized by an output device in a hardware configuration.

次に、情報処理装置100cが過去の評価情報を搭乗者に提示するための動作について説明する。
図20は、実施の形態8に係る情報処理装置100aの評価情報の出力の動作を示すフローチャートである。
搭乗者が評価情報の表示指示を入力すると、評価情報取得部16は、経路情報蓄積部15を参照し、目的地までの走行経路が設定されているか判定を行う(ステップST901)。目的地までの走行経路が設定されていない場合(ステップST901;NO)、評価情報取得部16は、経路情報蓄積部15に記憶された車両の走行履歴から走行経路を推測する(ステップST902)。目的地までの走行経路が設定されている場合(ステップST901;YES)、およびステップST902で走行経路が推測された場合、評価情報取得部16は、走行経路に関連する過去の評価情報の取得要求を、通信部12を介して蓄積サーバ200に出力、即ち送信する(ステップST903)。
Next, an operation for the information processing apparatus 100c to present past evaluation information to the passenger will be described.
FIG. 20 is a flowchart illustrating an operation of outputting evaluation information of the information processing apparatus 100a according to the eighth embodiment.
When the passenger inputs an instruction to display the evaluation information, the evaluation information acquisition unit 16 refers to the route information storage unit 15 and determines whether a travel route to the destination is set (step ST901). When the travel route to the destination is not set (step ST901; NO), the evaluation information acquisition unit 16 estimates the travel route from the travel history of the vehicle stored in the route information storage unit 15 (step ST902). When the travel route to the destination is set (step ST901; YES) and when the travel route is estimated in step ST902, the evaluation information acquisition unit 16 requests acquisition of past evaluation information related to the travel route. Is output, that is, transmitted to the storage server 200 via the communication unit 12 (step ST903).

評価情報取得部16は、ステップST903で送信した出力要求に応じて、蓄積サーバ200から通信部12を介して過去の評価情報を受信すると(ステップST904)、受信した過去の評価情報と、走行経路とを出力制御部17に出力する(ステップST905)。出力制御部17は、過去の評価情報を走行経路上に割り当てる(ステップST906)。出力部18は、出力制御部17の割り当てに基づいて、各地点において評価情報を音声出力、または表示出力し(ステップST907)、処理を終了する。   When the evaluation information acquisition unit 16 receives past evaluation information from the storage server 200 via the communication unit 12 in response to the output request transmitted in step ST903 (step ST904), the received past evaluation information and the travel route Are output to the output control unit 17 (step ST905). The output control unit 17 assigns past evaluation information on the travel route (step ST906). Based on the assignment of the output control unit 17, the output unit 18 outputs or displays the evaluation information at each point (step ST907), and ends the process.

以上のように、この実施の形態7によれば、移動体の目的地までの経路情報、または移動体の過去の走行履歴を蓄積する経路情報蓄積部15と、蓄積サーバ200から過去の評価情報を取得する評価情報取得部16と、経路情報に基づいて過去の評価情報を走行経路上に割り当てる出力制御部17および評価情報を対応する地点で出力する出力部18を備えるように構成したので、過去に蓄積された評価情報を走行経路に沿って表示することができる。   As described above, according to the seventh embodiment, the route information accumulation unit 15 that accumulates the route information to the destination of the moving body or the past traveling history of the moving body, and the past evaluation information from the accumulation server 200. The evaluation information acquisition unit 16 for acquiring the output information, the output control unit 17 for assigning the past evaluation information on the travel route based on the route information, and the output unit 18 for outputting the evaluation information at the corresponding point. Evaluation information accumulated in the past can be displayed along the travel route.

なお、上述した実施の形態1−7で示したいずれかの情報処理装置100,100a,100b,100c機能を、移動体の搭乗者が携帯する携帯端末に搭載し、その携帯端末が評価情報を作成し、評価情報の蓄積を判断するように構成してもよい。   In addition, any one of the information processing apparatuses 100, 100a, 100b, and 100c shown in Embodiment 1-7 described above is mounted on a mobile terminal carried by a mobile passenger, and the mobile terminal receives evaluation information. It may be configured to create and determine evaluation information accumulation.

実施の形態8.
この実施の形態8では、上述した実施の形態1−7の機能を備えた情報処理サーバの構成を示す。なお、以下では、実施の形態1の機能を備えた情報処理サーバの例を示すが、実施の形態2−7の機能を備えた情報処理サーバを構成することが可能である。
図21は、実施の形態8に係る情報処理サーバ300の構成を示すブロック図である。図21において実施の形態1−7と同一または相当する部分は、同一の符号を付し説明を省略する。
情報処理サーバ300は、通信部12、制御部301、キーワードデータベース4、地図データベース7および評価情報データベース23を備える。
また、制御部301は、情報抽出部3、位置情報取得部5、評価情報作成部8、参照情報取得部9、蓄積判定部10、蓄積制御部11および出力制御部17を備える。
情報抽出部3は、情報処理サーバ300の外部の装置が取得した音声認識結果を取得するものとする。位置情報取得部5は、情報処理サーバ300の外部の装置が取得した車両情報を取得するものとする。
Embodiment 8 FIG.
In this eighth embodiment, a configuration of an information processing server having the functions of the above-described first to seventh embodiments will be described. In the following, an example of an information processing server having the function of the first embodiment is shown, but an information processing server having the function of the second to seventh embodiments can be configured.
FIG. 21 is a block diagram illustrating a configuration of the information processing server 300 according to the eighth embodiment. In FIG. 21, the same or corresponding parts as those in the embodiment 1-7 are given the same reference numerals and the description thereof will be omitted.
The information processing server 300 includes a communication unit 12, a control unit 301, a keyword database 4, a map database 7, and an evaluation information database 23.
The control unit 301 includes an information extraction unit 3, a position information acquisition unit 5, an evaluation information creation unit 8, a reference information acquisition unit 9, an accumulation determination unit 10, an accumulation control unit 11, and an output control unit 17.
It is assumed that the information extraction unit 3 acquires a speech recognition result acquired by a device external to the information processing server 300. The position information acquisition unit 5 acquires vehicle information acquired by a device external to the information processing server 300.

情報処理サーバ300は、蓄積判定部10が蓄積すると判定した評価情報を、蓄積制御部11を介して自身の装置内の評価情報データベース23に蓄積する。
また、情報処理サーバ300は、通信部21が他の機器からの送信された評価情報の取得要求を受信すると、に応じて、出力制御部17が評価情報データベース305に蓄積した対応する評価情報を読み出して、通信部21を介して他の機器に送信する。
The information processing server 300 stores the evaluation information determined to be stored by the storage determination unit 10 in the evaluation information database 23 in its own device via the storage control unit 11.
In addition, when the communication unit 21 receives an evaluation information acquisition request transmitted from another device, the information processing server 300 displays the corresponding evaluation information stored in the evaluation information database 305 by the output control unit 17 in response to the request. The data is read and transmitted to other devices via the communication unit 21.

以上のように、この実施の形態8によれば、搭乗者の発話の音声認識結果からキーワードを抽出する情報抽出部3と、発話時の移動体の位置情報を取得する位置情報取得部5と、キーワードと、発話時の移動体の位置情報とを組み合わせた評価情報を作成する評価情報作成部8と、キーワードに関連する事象について、現在の状況を示す情報を参照情報として取得する参照情報取得部9と、評価情報と参照情報とを比較して評価情報を蓄積するか否か判定する蓄積判定部10とを備えるように構成したので、特定の地物が存在しない場合の搭乗者の発話内容を認識し、認識結果から抽出されたキーワードに関連する情報のうち現在の状況が反映された参照情報を用いて評価情報を評価して蓄積するか否かを判定することをできる。これにより、発話が行われた地点とは関係のない発話、発話の対象である事象の現在の状況を反映していない発話等に基づいて評価情報が蓄積されるのを抑制することができる。その結果、各事象に対する信頼性の高い評価情報を効率的に蓄積することができる。   As described above, according to the eighth embodiment, the information extraction unit 3 that extracts a keyword from the speech recognition result of the passenger's utterance, the position information acquisition unit 5 that acquires the position information of the moving body at the time of utterance, , An evaluation information creation unit 8 that creates evaluation information that combines the keyword and the position information of the moving body at the time of utterance, and reference information acquisition that acquires, as reference information, information indicating the current status of an event related to the keyword Since it is configured to include the unit 9 and the accumulation determination unit 10 that compares the evaluation information with the reference information and determines whether to accumulate the evaluation information, the utterance of the passenger when the specific feature does not exist It is possible to recognize the content and determine whether to evaluate and store the evaluation information using the reference information reflecting the current situation among the information related to the keyword extracted from the recognition result. Thereby, it is possible to suppress accumulation of evaluation information based on utterances that are not related to the point where the utterance is performed, utterances that do not reflect the current state of the event that is the utterance target, and the like. As a result, highly reliable evaluation information for each event can be efficiently accumulated.

なお、上述した実施の形態8では、実施の形態1−7の機能を情報処理サーバ300が備える構成を示したが、情報処理サーバ300に限定されることなく、可能であれば図示しない携帯端末が備えて実現してもよい。また、情報処理装置100、情報処理サーバ300および図示しない携帯端末が連携して、実施の形態1−7で示した機能を実現してもよい。また、情報処理装置100と図示しない携帯端末の連携、または情報処理装置100と情報処理サーバ300の連携により、実施の形態1−7で示した機能を実現してもよい。   In the above-described eighth embodiment, the configuration in which the information processing server 300 includes the functions of the first to seventh embodiments has been described. However, the present invention is not limited to the information processing server 300, and a portable terminal (not illustrated) is possible if possible. May be realized. In addition, the information processing apparatus 100, the information processing server 300, and a portable terminal (not shown) may cooperate to implement the functions described in Embodiment 1-7. Further, the functions described in Embodiment 1-7 may be realized by cooperation between the information processing apparatus 100 and a portable terminal (not shown) or between the information processing apparatus 100 and the information processing server 300.

上記以外にも、本発明はその発明の範囲内において、各実施の形態の自由な組み合わせ、各実施の形態の任意の構成要素の変形、または各実施の形態の任意の構成要素の省略が可能である。   In addition to the above, within the scope of the present invention, the present invention can freely combine each embodiment, modify any component of each embodiment, or omit any component of each embodiment. It is.

1 入力部、2 音声認識部、3 情報抽出部、4 キーワードデータベース、5 位置情報取得部、6 車両情報取得部、7 地図データベース、8 評価情報作成部、9,9a 参照情報取得部、10,10a,10b 蓄積判定部、11 蓄積制御部、12,21 通信部、13 属性情報蓄積部、14 話者特定部、15 経路情報蓄積部、16 評価情報取得部、17 出力制御部、22,301 制御部、23 評価情報データベース、100,100a,100b,100c 情報処理装置、200 蓄積サーバ、300 情報処理サーバ。   DESCRIPTION OF SYMBOLS 1 Input part, 2 Voice recognition part, 3 Information extraction part, 4 Keyword database, 5 Location information acquisition part, 6 Vehicle information acquisition part, 7 Map database, 8 Evaluation information creation part, 9, 9a Reference information acquisition part, 10, 10a, 10b Accumulation determination unit, 11 Accumulation control unit, 12, 21 Communication unit, 13 Attribute information accumulation unit, 14 Speaker identification unit, 15 Route information accumulation unit, 16 Evaluation information acquisition unit, 17 Output control unit, 22, 301 Control unit, 23 evaluation information database, 100, 100a, 100b, 100c information processing device, 200 storage server, 300 information processing server.

Claims (9)

移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部とを備えた情報処理装置。
An information extraction unit for extracting information from the speech recognition result of the utterance of the mobile passenger;
A position information acquisition unit for acquiring position information of the moving body at the time of the utterance;
An evaluation information creation unit that creates evaluation information that combines the information extracted by the information extraction unit and the position information acquired by the position information acquisition unit;
A reference information acquisition unit that acquires, as reference information, the current state of an event related to the evaluation information created by the evaluation information creation unit;
An information processing apparatus comprising: an accumulation determination unit that compares evaluation information created by the evaluation information creation unit with reference information acquired by the reference information acquisition unit and determines whether to accumulate the evaluation information.
前記蓄積判定部は、前記評価情報と前記参照情報との関連性が閾値を満たす場合に、前記評価情報を蓄積すると判定することを特徴とする請求項1記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the accumulation determination unit determines to accumulate the evaluation information when a relationship between the evaluation information and the reference information satisfies a threshold. 前記参照情報取得部は、前記参照情報として前記評価情報に関連する事象の現況を示すコンテンツプロバイダ情報、撮像画像、または地図情報の少なくとも1つを取得することを特徴とする請求項1または請求項2記載の情報処理装置。   The reference information acquisition unit acquires at least one of content provider information, a captured image, or map information indicating a current state of an event related to the evaluation information as the reference information. 2. The information processing apparatus according to 2. 前記参照情報取得部は、前記参照情報として前記発話時の前記移動体の状態を示す情報を取得することを特徴とする請求項1または請求項2記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the reference information acquisition unit acquires information indicating a state of the moving body during the utterance as the reference information. 前記参照情報取得部は、前記参照情報として、前記発話時の前記移動体から所定の領域内で過去に蓄積すると判定された前記評価情報を取得することを特徴とする請求項1または請求項2記載の情報処理装置。   The reference information acquisition unit acquires, as the reference information, the evaluation information determined to be accumulated in the past in a predetermined area from the moving body at the time of the utterance. The information processing apparatus described. 前記搭乗者のうち話者を特定する話者特定部を備え、
前記参照情報取得部は、前記参照情報として、前記話者特定部により話者であると特定された搭乗者の属性情報を取得することを特徴とする請求項1記載の情報処理装置。
A speaker identifying unit for identifying a speaker among the passengers;
The information processing apparatus according to claim 1, wherein the reference information acquisition unit acquires attribute information of a passenger specified as a speaker by the speaker specifying unit as the reference information.
前記情報抽出部が抽出する情報としてキーワードを含み、
前記評価情報作成部は、前記キーワードを含む情報と、前記発話時の日時情報をさらに組み合わせて前記評価情報を作成し、
前記参照情報取得部は、前記参照情報として、前記評価情報を構成する前記情報に含まれる日時を示すキーワード日時情報または位置を示すキーワード位置情報の少なくとも1つを取得し、
前記蓄積判定部は、前記評価情報に含まれる前記発話時の日時情報と前記参照情報としての前記キーワード日時情報とを比較する、または前記評価情報に含まれる前記発話時の位置情報と、前記参照情報としての前記キーワード位置情報とを比較することを特徴とする請求項1記載の情報処理装置。
Including keywords as information extracted by the information extraction unit,
The evaluation information creating unit creates the evaluation information by further combining information including the keyword and date information at the time of the utterance,
The reference information acquisition unit acquires, as the reference information, at least one of keyword date information indicating a date and time or keyword position information indicating a position included in the information constituting the evaluation information,
The accumulation determination unit compares the date and time information at the time of utterance included in the evaluation information with the keyword date and time information as the reference information, or the position information at the time of utterance included in the evaluation information and the reference The information processing apparatus according to claim 1, wherein the keyword position information as information is compared.
外部機器と通信する通信部と、
前記通信部を介して入力された移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記通信部を介して入力された前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか判定する蓄積判定部と、
前記蓄積判定部が蓄積すると判定した前記評価情報を蓄積する蓄積部と、
前記通信部を介して前記外部機器から前記評価情報の取得要求が入力された場合に、前記蓄積部に蓄積された評価情報を取得し、前記外部機器に出力するための制御を行う出力制御部とを備えた情報処理サーバ。
A communication unit that communicates with an external device;
An information extraction unit that extracts information from the speech recognition result of the utterance of the mobile passenger input via the communication unit;
A position information acquisition unit for acquiring position information of the mobile body at the time of the utterance input via the communication unit;
An evaluation information creation unit that creates evaluation information that combines the information extracted by the information extraction unit and the position information acquired by the position information acquisition unit;
A reference information acquisition unit that acquires, as reference information, the current state of an event related to the evaluation information created by the evaluation information creation unit;
An accumulation determination unit that compares the evaluation information created by the evaluation information creation unit with the reference information acquired by the reference information acquisition unit, and determines whether to accumulate the evaluation information;
An accumulation unit for accumulating the evaluation information determined to be accumulated by the accumulation determination unit;
An output control unit that performs control for acquiring the evaluation information stored in the storage unit and outputting the evaluation information to the external device when a request for acquiring the evaluation information is input from the external device via the communication unit Information processing server with
コンピュータを、
移動体の搭乗者の発話の音声認識結果から情報を抽出する情報抽出部と、
前記発話時の前記移動体の位置情報を取得する位置情報取得部と、
前記情報抽出部が抽出した情報と、前記位置情報取得部が取得した前記位置情報とを組み合わせた評価情報を作成する評価情報作成部と、
前記評価情報作成部が作成した評価情報に関連する事象の現況を参照情報として取得する参照情報取得部と、
前記評価情報作成部が作成した評価情報と、前記参照情報取得部が取得した参照情報とを比較し、前記評価情報を蓄積するか否かを判定する蓄積判定部として機能させるためのプログラム。
Computer
An information extraction unit for extracting information from the speech recognition result of the utterance of the mobile passenger;
A position information acquisition unit for acquiring position information of the moving body at the time of the utterance;
An evaluation information creation unit that creates evaluation information that combines the information extracted by the information extraction unit and the position information acquired by the position information acquisition unit;
A reference information acquisition unit that acquires, as reference information, the current state of an event related to the evaluation information created by the evaluation information creation unit;
A program for comparing the evaluation information created by the evaluation information creation unit with the reference information acquired by the reference information acquisition unit to function as an accumulation determination unit that determines whether or not to accumulate the evaluation information.
JP2016013269A 2016-01-27 2016-01-27 Information processing apparatus, information processing server, and program Active JP6590710B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016013269A JP6590710B2 (en) 2016-01-27 2016-01-27 Information processing apparatus, information processing server, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016013269A JP6590710B2 (en) 2016-01-27 2016-01-27 Information processing apparatus, information processing server, and program

Publications (2)

Publication Number Publication Date
JP2017134577A true JP2017134577A (en) 2017-08-03
JP6590710B2 JP6590710B2 (en) 2019-10-16

Family

ID=59503705

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016013269A Active JP6590710B2 (en) 2016-01-27 2016-01-27 Information processing apparatus, information processing server, and program

Country Status (1)

Country Link
JP (1) JP6590710B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200651A (en) * 2018-05-17 2019-11-21 オリンパス株式会社 Information processor, method for processing information, and program
JP2019219859A (en) * 2018-06-19 2019-12-26 トヨタ自動車株式会社 Information processing device, information processing method, and program
JP2020034463A (en) * 2018-08-30 2020-03-05 Zホールディングス株式会社 Evaluation device, method for evaluation, and evaluation program
WO2021161377A1 (en) * 2020-02-10 2021-08-19 三菱電機株式会社 Speaker estimation device and speaker estimation method
KR20220113619A (en) * 2021-02-06 2022-08-16 주식회사 엠에이치엔씨티 Vehicle black box event detection system during parking and driving, and Event learning method thereof
JP7521920B2 (en) 2020-04-03 2024-07-24 株式会社Subaru Driving assistance device and data collection system

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304977A (en) * 2006-05-12 2007-11-22 Yafoo Japan Corp Method and system for evaluating contribution information
JP2009104319A (en) * 2007-10-22 2009-05-14 Navitime Japan Co Ltd Traffic institute failure information and restoration information provision system and information provision server and mobile terminal apparatus and traffic institute failure information and restoration information provision method
WO2012011496A1 (en) * 2010-07-21 2012-01-26 楽天株式会社 Server device, submit information processing method, submit information processing program, and recording medium
JP2014123403A (en) * 2014-03-17 2014-07-03 Yahoo Japan Corp Information providing device and information providing method
US20140259189A1 (en) * 2013-03-11 2014-09-11 Qualcomm Incorporated Review system
WO2015059764A1 (en) * 2013-10-22 2015-04-30 三菱電機株式会社 Server for navigation, navigation system, and navigation method
JP2015195030A (en) * 2014-03-27 2015-11-05 株式会社電通 Evacuation support system, evacuation support management program, evacuation support terminal application program, and evacuation support method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007304977A (en) * 2006-05-12 2007-11-22 Yafoo Japan Corp Method and system for evaluating contribution information
JP2009104319A (en) * 2007-10-22 2009-05-14 Navitime Japan Co Ltd Traffic institute failure information and restoration information provision system and information provision server and mobile terminal apparatus and traffic institute failure information and restoration information provision method
WO2012011496A1 (en) * 2010-07-21 2012-01-26 楽天株式会社 Server device, submit information processing method, submit information processing program, and recording medium
US20140259189A1 (en) * 2013-03-11 2014-09-11 Qualcomm Incorporated Review system
WO2015059764A1 (en) * 2013-10-22 2015-04-30 三菱電機株式会社 Server for navigation, navigation system, and navigation method
JP2014123403A (en) * 2014-03-17 2014-07-03 Yahoo Japan Corp Information providing device and information providing method
JP2015195030A (en) * 2014-03-27 2015-11-05 株式会社電通 Evacuation support system, evacuation support management program, evacuation support terminal application program, and evacuation support method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
大本 義正 他2名: "コミュニケーション中の非言語情報に基づく嘘の自動判別", 2009年度人工知能学会全国大会(第23回)論文集 [CD−ROM], JPN6019031729, 17 June 2009 (2009-06-17), ISSN: 0004097626 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019200651A (en) * 2018-05-17 2019-11-21 オリンパス株式会社 Information processor, method for processing information, and program
JP7064952B2 (en) 2018-05-17 2022-05-11 オリンパス株式会社 Information processing equipment, information processing methods and programs
JP2019219859A (en) * 2018-06-19 2019-12-26 トヨタ自動車株式会社 Information processing device, information processing method, and program
JP7095431B2 (en) 2018-06-19 2022-07-05 トヨタ自動車株式会社 Information processing equipment, information processing method, information processing system
JP2020034463A (en) * 2018-08-30 2020-03-05 Zホールディングス株式会社 Evaluation device, method for evaluation, and evaluation program
WO2021161377A1 (en) * 2020-02-10 2021-08-19 三菱電機株式会社 Speaker estimation device and speaker estimation method
JPWO2021161377A1 (en) * 2020-02-10 2021-08-19
JP7337965B2 (en) 2020-02-10 2023-09-04 三菱電機株式会社 speaker estimation device
JP7521920B2 (en) 2020-04-03 2024-07-24 株式会社Subaru Driving assistance device and data collection system
KR20220113619A (en) * 2021-02-06 2022-08-16 주식회사 엠에이치엔씨티 Vehicle black box event detection system during parking and driving, and Event learning method thereof
KR102468307B1 (en) * 2021-02-06 2022-11-17 주식회사 엠에이치엔씨티 Vehicle black box event detection system during parking and driving, and Event learning method thereof

Also Published As

Publication number Publication date
JP6590710B2 (en) 2019-10-16

Similar Documents

Publication Publication Date Title
JP6590710B2 (en) Information processing apparatus, information processing server, and program
US10875525B2 (en) Ability enhancement
KR100819234B1 (en) Method and apparatus for setting destination in navigation terminal
KR20180070970A (en) Method and Apparatus for Voice Recognition
JP5677647B2 (en) Navigation device
US8645143B2 (en) Systems and methods of performing speech recognition using global positioning (GPS) information
JP4255950B2 (en) Navigation device
US20100292917A1 (en) System and method for guiding a user through a surrounding environment
JP2007017990A (en) Word string recognition device
JP2006195637A (en) Voice interaction system for vehicle
JP6846617B2 (en) Information provision method, server, information terminal device, system and voice dialogue system
JP4156563B2 (en) Word string recognition device
JP2006251298A (en) Device and method for inputting voice
US12056198B2 (en) Method and apparatus for enhancing a geolocation database
JPWO2015059764A1 (en) Navigation server, navigation system, and navigation method
KR20190011458A (en) Vehicle, mobile for communicate with the vehicle and method for controlling the vehicle
JP7426176B2 (en) Information processing system, information processing method, information processing program, and server
US9803991B2 (en) Route guide device and route guide method
JP6956232B2 (en) Search system, search method, and search program
US10593323B2 (en) Keyword generation apparatus and keyword generation method
US20180176332A1 (en) Navigation system with content delivery mechanism and method of operation thereof
JP4497526B2 (en) NAVIGATION DEVICE, INFORMATION PRESENTATION METHOD, AND NAVIGATION PROGRAM
JP4661379B2 (en) In-vehicle speech recognition device
JP2023045814A (en) Navigation device, navigation method and program
JP2022103675A (en) Information processing device, information processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190308

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190416

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20190419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190820

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190917

R150 Certificate of patent or registration of utility model

Ref document number: 6590710

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250