JP2019014392A - Traveling recording apparatus for vehicle, and browsing device - Google Patents

Traveling recording apparatus for vehicle, and browsing device Download PDF

Info

Publication number
JP2019014392A
JP2019014392A JP2017133715A JP2017133715A JP2019014392A JP 2019014392 A JP2019014392 A JP 2019014392A JP 2017133715 A JP2017133715 A JP 2017133715A JP 2017133715 A JP2017133715 A JP 2017133715A JP 2019014392 A JP2019014392 A JP 2019014392A
Authority
JP
Japan
Prior art keywords
miss
travel
information
unit
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017133715A
Other languages
Japanese (ja)
Other versions
JP7039872B2 (en
Inventor
真貴 森
Maki Mori
真貴 森
武藤 健二
Kenji Muto
健二 武藤
映 酒井
Ei Sakai
映 酒井
謙太郎 人見
Kentaro Hitomi
謙太郎 人見
駿 山▲崎▼
Shun Yamazaki
駿 山▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017133715A priority Critical patent/JP7039872B2/en
Publication of JP2019014392A publication Critical patent/JP2019014392A/en
Application granted granted Critical
Publication of JP7039872B2 publication Critical patent/JP7039872B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

To provide a traveling recording apparatus for recording vehicle traveling situations, which can record information capable of facilitating a grasp of situations of unsafe incidents by detecting the unsafe incidents during a vehicle traveling motion.SOLUTION: A traveling recording apparatus includes: a travel information recording part that acquires travel information including an image of the periphery of a vehicle during vehicle traveling and records it; a request part that makes a request of explanation of situations to an occupant when a predetermined change of state occurs during the vehicle traveling; a speech recognition part that recognizes the content of utterance, given by the occupant, for the request of the request part; and an unsafe-incident determination part that determines whether or not the travel information recorded in the travel information recording part on the basis of the occupant's content of utterance recognized by the speech recognition part is an unsafe incident scene.SELECTED DRAWING: Figure 1

Description

本発明は、車両の走行状況を記録する走行記録装置及び閲覧装置に関する。   The present invention relates to a travel recording device and a browsing device that record a travel state of a vehicle.

車両の走行記録装置として、特許文献1に記載のように、車両走行時の加速度がしきい値を超えると、周囲の音から事故が発生したか否かを判断して、事故発生時には、その前後に撮像された周囲の映像を記録するように構成されたドライブレコーダが知られている。   As a vehicle travel recording device, as described in Patent Document 1, when the acceleration during vehicle travel exceeds a threshold, it is determined whether an accident has occurred from surrounding sounds. 2. Description of the Related Art A drive recorder configured to record surrounding images captured before and after is known.

特開2006−199204号公報JP 2006-199204 A

上記ドライブレコーダは、事故発生時の周囲の映像を記録することで、事故発生後に、記録した映像から事故発生時の状況を把握できるようにするものであるが、記録した映像から、ヒヤリハットシーンを検出することは難しいという問題があった。   The above drive recorder records the surrounding video at the time of the accident so that the situation at the time of the accident can be grasped from the recorded video after the accident occurs. There was a problem that it was difficult to detect.

つまり、ヒヤリハットとは、事故には至らないものの、事故が発生してもおかしくない一歩手前の状況のことである。そして、こうしたヒヤリハットを検出して、そのときの映像や音をヒヤリハットシーンとして記録できれば、車両の運行管理者が、その記録した情報に基づき、運転者に対する安全運転の指導を実施することができる。   In other words, a near-miss is a situation one step before an accident that is not strange even if an accident occurs. And if such a near-miss is detected and the image | video and sound at that time can be recorded as a near-miss scene, the driving | operation manager of a vehicle can implement the guidance of the safe driving with respect to a driver based on the recorded information.

しかし、ヒヤリハットシーンでは、加速度がしきい値を超えても、衝突音、ブレーキ音、クラクション音等、事故発生時と同様の音は発生しないことがあるので、周囲の音に基づいて映像を記録する上記ドライブレコーダでは、事故発生時と同様の音が発生しないヒヤリハットシーンを記録できなかった。   However, in near-miss scenes, even if the acceleration exceeds the threshold, sounds similar to those at the time of the accident such as collision sound, brake sound, horn sound, etc. may not be generated, so video is recorded based on surrounding sounds. However, the drive recorder cannot record a near-miss scene where no sound similar to that at the time of the accident occurs.

また、上記ドライブレコーダにおいて、事故に至らなかったヒヤリハットシーンを記録できたとしても、その記録された映像や音から運行管理者がヒヤリハットの原因を特定することは難しいため、安全運転の指導に利用することが難しいという問題もある。   Even if the drive recorder can record a near-miss scene that did not result in an accident, it is difficult for the operation manager to identify the cause of the near-miss from the recorded video and sound. There is also the problem that it is difficult to do.

本開示の一局面は、車両の走行状況を記録する走行記録装置において、車両走行中にヒヤリハットを検出して、ヒヤリハットの状況を容易に把握し得る情報を記録できるようにすることが望ましい。   In one aspect of the present disclosure, it is desirable that a traveling recording apparatus that records a traveling state of a vehicle can detect a near-miss while the vehicle is traveling and record information that can easily grasp the near-miss state.

本開示の一局面の車両の走行記録装置においては、車両走行中に、走行情報記録部(12、14)が、車両周囲の映像を含む走行情報を取得して記録する。
また、車両走行中に所定の状態変化が生じると、リクエスト部(22)が、乗員に対し状況説明をリクエストし、音声認識部(24)が、そのリクエストに対し乗員が発話した発話内容を認識する。
In the vehicle travel recording apparatus according to one aspect of the present disclosure, the travel information recording unit (12, 14) acquires and records travel information including images around the vehicle while the vehicle is traveling.
When a predetermined state change occurs while the vehicle is traveling, the request unit (22) requests a situation explanation from the occupant, and the voice recognition unit (24) recognizes the utterance content uttered by the occupant in response to the request. To do.

そして、ヒヤリハット判定部(32)が、音声認識部にて認識された乗員の発話内容に基づき、走行情報記録部に記録された走行情報がヒヤリハットシーンかどうかを判定する。   Then, the near-miss determining unit (32) determines whether the travel information recorded in the travel information recording unit is a near-miss scene based on the utterance contents of the occupant recognized by the voice recognition unit.

このように、本開示の走行記録装置によれば、車両走行中に所定の状態変化が生じると、乗員から状況説明の発話内容を取得し、その発話内容から、走行情報記録部に記録された走行情報がヒヤリハットシーンであることを検知できる。   As described above, according to the traveling recording device of the present disclosure, when a predetermined state change occurs during traveling of the vehicle, the utterance content of the situation explanation is acquired from the occupant, and the utterance content is recorded in the traveling information recording unit It can be detected that the running information is a near-miss scene.

従って、本開示の走行記録装置によれば、ヒヤリハットの検出精度を高め、走行情報記録部に記録されたヒヤリハットシーンを精度良く特定できる。このため、その特定したヒヤリハットシーンの走行情報を不揮発性記録媒体(40)に記録するようにすれば、車両走行後に、その記録した走行情報に基づきヒヤリハットの原因を特定して、運転者の運転指導を行うことができる。   Therefore, according to the traveling recording apparatus of the present disclosure, the near-miss detection accuracy can be improved and the near-scene recorded in the traveling information recording unit can be accurately identified. For this reason, if the travel information of the identified near-miss scene is recorded in the nonvolatile recording medium (40), the cause of the near-miss is identified based on the recorded travel information after the vehicle travels. Can provide guidance.

また、ヒヤリハットを検出する度に、ヒヤリハットシーンの走行情報に加えて、ヒヤリハットの判定に用いた乗員の発話内容を不揮発性記録媒体等に記録するようにすれば、その発話内容から、運転者が発生し易いヒヤリハットシーンを特定できるようになる。従って、この場合には、運転者に対する運転指導をより適切に行うことが可能となる。   In addition, every time a near-miss is detected, if the utterance content of the occupant used to determine the near-hat is recorded in a non-volatile recording medium in addition to the driving information of the near-miss scene, the driver can A near-miss scene that is likely to occur can be identified. Therefore, in this case, driving guidance for the driver can be performed more appropriately.

また、閲覧装置(50)を利用して、不揮発性記録媒体に記録された走行情報からヒヤリハットシーンを閲覧する際に、そのシーンに対応する発話内容を出力するようにすれば、発話内容からヒヤリハットシーンを容易に把握できるようになる。   Further, when browsing the near-miss scene from the travel information recorded on the non-volatile recording medium using the browsing device (50), if the utterance content corresponding to the scene is output, the near-hat from the utterance content. The scene can be easily grasped.

なお、この欄及び特許請求の範囲に記載した括弧内の符号は、一つの態様として後述する実施形態に記載の具体的手段との対応関係を示すものであって、本開示の技術的範囲を限定するものではない。   Note that the reference numerals in parentheses described in this column and in the claims indicate the correspondence with the specific means described in the embodiment described later as one aspect, and the technical scope of the present disclosure It is not limited.

実施形態の走行記録装置及び閲覧装置の構成を表すブロック図である。It is a block diagram showing the structure of the travel recording apparatus and browsing apparatus of embodiment. 走行情報記録部の動作を表すフローチャートである。It is a flowchart showing operation | movement of a driving | running | working information recording part. ヒヤリハット一次判定部の動作を表すフローチャートである。It is a flowchart showing operation | movement of the near-miss primary determination part. 走行シーン一次記録部の動作を表すフローチャートである。It is a flowchart showing operation | movement of a driving scene primary recording part. 状況説明リクエスト部の動作を表すフローチャートである。It is a flowchart showing operation | movement of a condition description request part. 図5に示すリクエスト文生成処理を表すフローチャートである。It is a flowchart showing the request sentence production | generation process shown in FIG. 音声認識部の動作を表すフローチャートである。It is a flowchart showing operation | movement of a speech recognition part. ヒヤリハット二次判定部の動作を表すフローチャートである。It is a flowchart showing operation | movement of a near-miss secondary determination part. 図8に示すヒヤリハット二次判定スコア計算処理を表すフローチャートである。It is a flowchart showing the near-miss secondary determination score calculation process shown in FIG. 走行シーン二次記録部の動作を表すフローチャートである。It is a flowchart showing operation | movement of a driving | running | working scene secondary recording part. 走行シーン抽出部及び走行シーン表示部の動作を表すフローチャートである。It is a flowchart showing operation | movement of a driving scene extraction part and a driving scene display part.

以下に本開示の実施形態を図面と共に説明する。
本実施形態の走行記録装置10は、自動車等の車両に搭載され、車両走行中に発生したヒヤリハットを検出して、そのときの映像や車両状態を走行情報として不揮発性の記録媒体に記録するためのものである。
Hereinafter, embodiments of the present disclosure will be described with reference to the drawings.
The travel recording apparatus 10 according to the present embodiment is mounted on a vehicle such as an automobile, detects a near-miss generated while the vehicle travels, and records the image and vehicle state at that time as travel information on a non-volatile recording medium. belongs to.

そして、その記録した走行情報は、車両走行後に、車両の運行管理者が閲覧装置50を利用して閲覧し、運転者に対する安全運転の指導等を行うのに利用される。
図1に示すように、走行記録装置10には、走行情報記録部12、ヒヤリハット一次判定部16、走行シーン一次記録部18、状況説明リクエスト部22、音声認識部24、ヒヤリハット二次判定部32、及び、走行シーン二次記録部38が備えられている。
The travel information thus recorded is used by a vehicle operation manager to browse using the browsing device 50 after the vehicle travels, and to give instructions on safe driving to the driver.
As shown in FIG. 1, the travel recording apparatus 10 includes a travel information recording unit 12, a near-miss primary determination unit 16, a travel scene primary recording unit 18, a situation explanation request unit 22, a voice recognition unit 24, and a near-miss secondary determination unit 32. And a travel scene secondary recording unit 38 is provided.

なお、走行記録装置10は、CPU、ROM、RAM等を含むマイクロコンピュータを
中心とする電子制御装置(ECU)にて構成されている。そして、上記各部は、CPUが図2〜図10に例示するフローチャートに沿って各種プログラムを実行することにより、実現される。
The traveling recording apparatus 10 is configured by an electronic control unit (ECU) centered on a microcomputer including a CPU, a ROM, a RAM, and the like. And each said part is implement | achieved when CPU runs various programs along the flowchart illustrated in FIGS.

走行情報記録部12は、車両走行中に、車両の挙動、車両周囲の映像、車両の位置、車室内外の音声、周辺物体の属性等を、他の車載装置から走行情報として取得し、運転者の識別情報であるドライバIDを付与して、走行情報DB14に記録するものである。なお、DBは、データベースを表す。   The travel information recording unit 12 acquires the behavior of the vehicle, the video around the vehicle, the position of the vehicle, the sound inside and outside the vehicle, the attributes of surrounding objects, and the like as travel information from other in-vehicle devices while driving the vehicle. A driver ID, which is the identification information of the driver, is assigned and recorded in the travel information DB 14. DB represents a database.

ここで、車両の挙動は、車速や加速度、運転者によるアクセル、ブレーキ、ステアリングの操作量、等のことであり、走行情報記録部12は、これらの情報を、車両の駆動・制動系を制御する制御装置から取得する。   Here, the behavior of the vehicle is the vehicle speed and acceleration, the amount of operation of the accelerator, brake, steering, etc. by the driver, and the travel information recording unit 12 controls the driving / braking system of the vehicle based on such information. Obtain from the control device.

また、車両周囲の映像は、車両進行方向の前方・後方、及び左右側方の映像であり、走行情報記録部12は、これらの映像を、車両に搭載された一つ以上のカメラから取得する。また、走行情報記録部12は、車両の位置を、GPS受信機等の位置検出可能な車載装置から取得し、車室内外の音声を、車両に搭載されたマイクを介して取得する。   In addition, the images around the vehicle are images in front and rear in the vehicle traveling direction, and the left and right sides, and the traveling information recording unit 12 acquires these images from one or more cameras mounted on the vehicle. . Further, the travel information recording unit 12 acquires the position of the vehicle from a vehicle-mounted device that can detect the position, such as a GPS receiver, and acquires sound inside and outside the vehicle through a microphone mounted on the vehicle.

また、周辺物体の属性は、車両周囲の映像や測距センサからの情報から既存の物体認識手法で推定可能な、車両周辺の物体の種類、距離、相対速度等のことであり、走行情報記録部12は、これらの情報をレーダ装置やナビゲーション装置等から取得する。   The attributes of surrounding objects are the types, distances, relative speeds, etc. of objects around the vehicle that can be estimated by existing object recognition methods from information around the vehicle and information from the ranging sensor. The unit 12 acquires these pieces of information from a radar device, a navigation device, or the like.

また、走行情報DB14は、揮発性の記録媒体にて構成されている。そして、走行情報記録部12は、車両走行中に図2に示す走行情報記録処理を所定周期で繰り返し実行することにより、他の車載装置から走行情報を取得し、走行情報DB14に記録する。   The travel information DB 14 is configured by a volatile recording medium. Then, the travel information recording unit 12 repeatedly executes the travel information recording process shown in FIG. 2 at a predetermined period during vehicle travel, thereby acquiring travel information from other in-vehicle devices and recording it in the travel information DB 14.

図2に示すように、走行情報記録処理は、S110にて、上述した各種走行情報を計測し、S120にて、その計測した走行情報を、走行情報DB14を構成する記録媒体に対し古い情報から順に上書きする、といった手順で実行される。   As shown in FIG. 2, the travel information recording process measures the various travel information described above at S110, and at S120, the measured travel information is updated from the old information to the recording medium constituting the travel information DB 14. It is executed by the procedure of overwriting in order.

この結果、走行情報DB14には、最新のものから過去所定期間分の走行情報が記録されることになる。
次に、ヒヤリハット一次判定部16は、走行情報DB14に記録された走行情報に基づき、ヒヤリハットが発生したか否かを一次判定するものであり、図3に示すヒヤリハット一次判定処理を所定周期で繰り返し実行する。
As a result, the traveling information for the past predetermined period is recorded in the traveling information DB 14 from the latest one.
Next, the near-miss primary determination unit 16 primarily determines whether or not a near-miss has occurred based on the travel information recorded in the travel information DB 14, and repeats the near-miss primary determination process shown in FIG. 3 at a predetermined cycle. Run.

図3に示すように、ヒヤリハット一次判定処理では、S210にて、走行情報DBに走行情報の一つとして記録された最新の加速度を取得し、続くS220にて、その加速度が予め設定された閾値を超えたか否かを判断する。   As shown in FIG. 3, in the near-miss primary determination process, the latest acceleration recorded as one of the travel information in the travel information DB is acquired in S210, and in the subsequent S220, the acceleration is a preset threshold value. Judge whether or not

そして、S220にて、加速度が閾値を超えていると判断されると、S230に移行して、一次記録フラグ、状況説明リクエストフラグを、それぞれ「TRUE」にし、当該ヒヤリハット一次判定処理を終了する。   If it is determined in S220 that the acceleration exceeds the threshold value, the process proceeds to S230, the primary recording flag and the situation explanation request flag are set to “TRUE”, and the near-miss primary determination process ends.

また、S220にて、加速度が閾値を超えていると判断されなければ、そのまま、当該ヒヤリハット一次判定処理を終了する。
なお、S220の判定処理は、車両の状態変化からヒヤリハットを検知するためのものであるため、車両の減速度を含む加速度の絶対値が閾値を超えたか否かを判断する。また、S220ではヒヤリハット発生時に生じる車両の状態変化からヒヤリハットを判定できればよく、例えば、車速やステアリングの操舵角を用いてヒヤリハットを判定するように
してもよい。また、ヒヤリハットの判定に用いる閾値は、予め固定値を設定してもよく、運行管理者等が任意に設定できるようにしてもよい。
If it is not determined in S220 that the acceleration exceeds the threshold value, the near-miss primary determination process is terminated as it is.
In addition, since the determination process of S220 is for detecting a near-miss from a change in the state of the vehicle, it is determined whether or not the absolute value of the acceleration including the deceleration of the vehicle has exceeded a threshold value. Further, in S220, it is only necessary to determine a near-miss from the vehicle state change that occurs when a near-miss occurs. For example, the near-miss may be determined using the vehicle speed or the steering angle of the steering. Moreover, the threshold value used for near-miss determination may be set in advance as a fixed value, or may be arbitrarily set by an operation manager or the like.

次に、S230にて「TRUE」にされる一次記録フラグは、走行シーン一次記録部18において、走行情報を走行シーン一次記録DB20に記録するか否かを判断するのに用いられる。   Next, the primary recording flag set to “TRUE” in S230 is used in the traveling scene primary recording unit 18 to determine whether or not to record the traveling information in the traveling scene primary recording DB 20.

つまり、走行シーン一次記録部18は、図4に示す走行シーン一次記録処理を所定周期で繰り返し実行することにより、一次記録フラグが「TRUE」であるときに、走行情報DB14に記録された走行情報を走行シーン一次記録DBに記録するものである。   That is, the traveling scene primary recording unit 18 repeatedly executes the traveling scene primary recording process shown in FIG. 4 at a predetermined period, so that the traveling information recorded in the traveling information DB 14 when the primary recording flag is “TRUE”. Is recorded in the travel scene primary record DB.

図4に示すように、走行シーン一次記録処理では、まずS310にて、一次記録フラグは「TRUE」であるか否かを判断する。そして、一次記録フラグが「TRUE」であれば、S320に移行し、一次記録フラグが「TRUE」でなければ、走行シーン一次記録処理を終了する。   As shown in FIG. 4, in the traveling scene primary recording process, first, in S310, it is determined whether or not the primary recording flag is “TRUE”. If the primary recording flag is “TRUE”, the process proceeds to S320. If the primary recording flag is not “TRUE”, the traveling scene primary recording process is terminated.

S320では、ヒヤリハット一次判定部16にてヒヤリハットが発生したと判定された判定時刻を挟んで前後所定期間の走行情報を、走行情報DB14から取得し、S330に移行する。なお、S320では、例えば、判定時刻から5秒前までの走行情報と、判定時刻から5秒経過するか或いは後述の音声認識が終わるまでの長い方の期間の走行情報とを、取得する。   In S320, travel information for a predetermined period before and after the determination time when the near-miss primary determination unit 16 determines that a near-miss has occurred is acquired from the travel information DB 14, and the process proceeds to S330. In S320, for example, the travel information from the determination time to 5 seconds before and the travel information of the longer period until 5 seconds have elapsed from the determination time or until later-described voice recognition ends are acquired.

そして、S330では、その取得された所定時間分の走行情報を、ヒヤリハットの状況を表す走行シーンとして、走行シーン一次記録DB20に記録し、続くS340にて、一次記録フラグを「FALSE」にした後、走行シーン一次記録処理を終了する。   In S330, the acquired travel information for a predetermined time is recorded in the travel scene primary record DB 20 as a travel scene representing a near-miss situation, and in S340, the primary record flag is set to “FALSE”. Then, the running scene primary recording process is terminated.

走行シーン一次記録DB20は、走行情報DB14と同様、揮発性の記録媒体にて構成されており、ヒヤリハットの状況を少なくとも1シーン記録可能な記録領域が確保されている。   The traveling scene primary recording DB 20 is configured by a volatile recording medium, like the traveling information DB 14, and a recording area capable of recording at least one scene of a near-miss situation is secured.

このため、S330にて、走行シーン一次記録DB20に走行シーンを記録する際には、走行シーン一次記録DB20に過去の走行シーンが記録されていれば、その記録された走行シーンに対し、S320で取得した最新の走行シーンが上書きされる。   For this reason, when a travel scene is recorded in the travel scene primary record DB 20 in S330, if a past travel scene is recorded in the travel scene primary record DB 20, the recorded travel scene is recorded in S320. The acquired latest driving scene is overwritten.

次に、状況説明リクエスト部22は、ヒヤリハット一次判定部16においてヒヤリハットが判定されたときに、運転者に対し、走行シーンの状況説明を促すためのものであり、図5に示す状況説明リクエスト処理を所定周期で繰り返し実行する。   Next, the situation explanation request unit 22 is for urging the driver to explain the situation of the driving scene when the near-miss primary judgment unit 16 determines that the near-miss is detected. The situation explanation request process shown in FIG. Are repeatedly executed in a predetermined cycle.

図5に示すように、状況説明リクエスト処理では、S410にて、状況説明リクエストフラグは「TRUE」であるか否かを判断し、状況説明リクエストフラグが「TRUE」であれば、S420に移行し、そうでなければ、状況説明リクエスト処理を終了する。   As shown in FIG. 5, in the situation explanation request process, in S410, it is determined whether or not the situation explanation request flag is “TRUE”. If the situation explanation request flag is “TRUE”, the process proceeds to S420. Otherwise, the situation explanation request process is terminated.

S420では、音声認識フラグを「TRUE」にし、続くS430に移行して、リクエスト文生成処理を実行する。
このリクエスト文生成処理は、ヒヤリハット一次判定部16がヒヤリハットを判定したときの走行情報に基づき、運転者に状況説明を促すためのリクエスト文を生成するための処理であり、例えば図6に示す手順で実行される。
In S420, the speech recognition flag is set to “TRUE”, the process proceeds to S430, and the request sentence generation process is executed.
This request sentence generation process is a process for generating a request sentence for prompting the driver to explain the situation, based on the traveling information when the near-miss primary determination unit 16 determines a near-miss, for example, the procedure shown in FIG. Is executed.

すなわち、リクエスト文生成処理においては、S432にて、走行情報に基づき車両周囲に物体が存在するか否かを判断し、車両周囲に物体が存在する場合には、S434に移
行して、車両に最も近い物体の属性を取得する。つまり、S434では、車両に最も近い物体がヒヤリハットの原因となる原因物体であると推定して、その物体の属性を取得する。
That is, in the request sentence generation process, in S432, it is determined whether an object exists around the vehicle based on the travel information. If an object exists around the vehicle, the process proceeds to S434, and the vehicle Get the attribute of the closest object. That is, in S434, it is estimated that the object closest to the vehicle is the causative object that causes the near-miss, and the attribute of the object is acquired.

そして、続くS436では、S434で取得した物体の属性に基づき、その物体と衝突しそうになったかどうかを運転者に問うためのリクエスト文を決定し、当該リクエスト文生成処理を終了する。   In the subsequent S436, based on the attribute of the object acquired in S434, a request sentence for asking the driver whether or not it is likely to collide with the object is determined, and the request sentence generation process ends.

また、S432において、車両周囲に物体は存在しないと判断されると、S438に移行して、測定範囲外の物体と衝突しそうになったかどうかを運転者に問うためのリクエスト文を決定し、当該リクエスト文生成処理を終了する。   If it is determined in S432 that there is no object around the vehicle, the process proceeds to S438 to determine a request sentence for asking the driver whether or not the object is about to collide with an object outside the measurement range. The request statement generation process is terminated.

例えば、S438では、物体が認識されていないので、「何が起きましたか?」と運転者に状況を尋ねるためのリクエスト文を生成する。また、S436では、車両に最も近い物体の属性が認識されているので、その属性に基づき、例えば、「前方に人が居ましたが、その人にぶつかりそうになりましたか?」というようなリクエスト文を生成する。   For example, in S438, since the object is not recognized, a request sentence for asking the driver about the situation is generated as "What happened?" In S436, since the attribute of the object closest to the vehicle is recognized, based on the attribute, for example, "There was a person in the front, but did you seem to hit that person?" Generate a request statement.

このようにリクエスト文を生成することにより、例えば、「違う。人が横から出てきた。」というように、運転者に対し、ヒヤリハットの原因を積極的に説明させるためのリクエスト文を生成できるようになる。   By generating a request sentence in this way, for example, a request sentence for actively explaining the cause of the near-miss to the driver can be generated, such as "No. A person came out from the side." It becomes like this.

つまり、車両の側方から飛び出してきた人と衝突しそうになり、ヒヤリハット一次判定部16にてヒヤリハットと判定された場合、一律に「何が起きましたか?」と運転者に尋ねるようにした場合、「人にぶつかりそうになった」と回答されることが考えられる。   In other words, when it is likely to collide with a person who has jumped out from the side of the vehicle, and the near-miss primary determination unit 16 determines that it is a near-miss, the driver is uniformly asked "What has happened?" , "It seems to have hit a person" is considered to be answered.

しかし、このような回答では、車両走行後の閲覧時に、車両の側方から飛び出してきた人が車両走行中の映像に映っていない場合、運行管理者は車両走行中の映像に映っている別の人にぶつかりそうになったものと判断してしまい、運転者が、横から飛び出してくる歩行者に気づき難い性格であることを見落としてしまうことになる。   However, in such an answer, if the person who jumped out from the side of the vehicle does not appear in the image while the vehicle is running when viewed after the vehicle is running, the operation manager will be shown in the image while the vehicle is running. It is judged that the person is likely to collide with the other person, and the driver will overlook that it is difficult to notice the pedestrian jumping out from the side.

しかし、本実施形態のようにヒヤリハットの原因を推定して、その推定結果に基づきリクエスト文を生成するようにすれば、閲覧時にヒヤリハットの原因をより正確に特定して、運転指導を適正に実施できるようになる。   However, if the cause of the near-miss is estimated and a request sentence is generated based on the estimation result as in this embodiment, the cause of the near-miss is more accurately identified at the time of browsing, and driving guidance is properly performed. become able to.

なお、S434では、車両に最も近い物体を、ヒヤリハットの原因となる物体として推定するものとしているが、例えば、接近速度が最も早い物体をヒヤリハットの原因となる物体として推定し、その物体の属性を取得するようにしてもよい。また、物体の種類、距離、相対速度等を総合的に判断して、ヒヤリハットの原因となる物体を推定するようにしてもよい。   In S434, the object closest to the vehicle is estimated as the object causing the near-miss, but for example, the object having the fastest approach speed is estimated as the object causing the near-miss, and the attribute of the object is determined. You may make it acquire. Further, the type of object, distance, relative speed, etc. may be comprehensively determined to estimate the object causing the near-miss.

次に、S430にて、リクエスト文が生成されると、S440に移行して、その生成されたリクエスト文を音声合成して、スピーカから音声出力することにより、運転者に対し状況説明をリクエストする。   Next, when a request sentence is generated in S430, the process proceeds to S440, where the generated request sentence is voice-synthesized and the voice is output from the speaker, thereby requesting the driver to explain the situation. .

そして、続くS450では、状況説明のリクエストが完了したので、状況説明リクエストフラグを「FALSE」にし、状況説明リクエスト処理を終了する。
なお、リクエスト文の出力は、例えば、車両のフロントガラス等にリクエスト文を表示することで、運転者に対し状況説明を促すようにしてもよく、音声出力と表示の両方で、状況説明を促すようにしてもよい。
In S450, since the situation explanation request is completed, the situation explanation request flag is set to "FALSE", and the situation explanation request process is terminated.
The request text may be output by, for example, prompting the driver to explain the situation by displaying the request text on the windshield of the vehicle or the like, and prompting the situation explanation by both voice output and display. You may do it.

次に、音声認識部24は、状況説明リクエスト部22からのリクエストに対し、運転者が発した音声を認識し、認識結果である発話単語を、発話内容を表すテキストデータとして出力するものであり、例えば、図7に示す音声認識処理を所定周期で繰り返し実行する。   Next, the voice recognition unit 24 recognizes the voice uttered by the driver in response to the request from the situation explanation request unit 22, and outputs the utterance word as the recognition result as text data representing the utterance content. For example, the voice recognition process shown in FIG. 7 is repeatedly executed at a predetermined cycle.

図7に示すように、音声認識処理では、まずS510にて、音声認識フラグは「TRUE」であるか否かを判断し、音声認識フラグが「TRUE」であれば、S520に移行し、そうでなければ、音声認識処理を終了する。   As shown in FIG. 7, in the speech recognition process, first, in S510, it is determined whether or not the speech recognition flag is “TRUE”. If the speech recognition flag is “TRUE”, the process proceeds to S520. Otherwise, the speech recognition process is terminated.

S520では、音声認識フラグが「TRUE」となってS530、S540での音声認識を開始してから所定時間:t秒以上経過したか否かを判断する。そして、所定時間:t秒以上経過していなければ、S530に移行し、所定時間:t秒以上経過していれば、S550に移行する。   In S520, it is determined whether or not a predetermined time: t seconds have elapsed since the voice recognition flag is set to “TRUE” and voice recognition in S530 and S540 is started. If the predetermined time: t seconds or longer has not elapsed, the process proceeds to S530, and if the predetermined time: t seconds or longer has elapsed, the process proceeds to S550.

S530では、マイクから入力される車室内外の音声を計測し、続くS540にて最尤の単語を音声認識結果として出力し、S520に移行する。つまり、S530、S540では、図1に示す音響モデル26と言語モデル28を使って、最尤の音素・単語列を認識結果とする、音声認識を行う。   In S530, the sound inside and outside the vehicle input from the microphone is measured, and in S540, the most likely word is output as a speech recognition result, and the process proceeds to S520. That is, in S530 and S540, speech recognition is performed using the acoustic model 26 and the language model 28 shown in FIG.

なお、音響モデル26、言語モデル28は、例えば、隠れマルコフモデルであり、予め不揮発性のメモリに記録されている。また、言語モデルに含まれる辞書は、一般的な話し言葉でもよいし、例えば、「交差点」「自転車」などのヒヤリハット関連語と、「何でもない」「気のせい」などの否定語と、により構成される二次判定用の単語だけであってもよい。そして、言語モデルの辞書を、ヒヤリハット関連語と否定語に限定すれば、後述のヒヤリハット二次判定に必要な単語を、より精度良く認識できるようになる。   The acoustic model 26 and the language model 28 are, for example, hidden Markov models and are recorded in advance in a nonvolatile memory. In addition, the dictionary included in the language model may be a general spoken language, for example, composed of near-miss words such as “intersection” and “bicycle” and negative words such as “nothing” or “careful” Only the secondary determination word may be used. If the dictionary of language models is limited to near-miss related words and negative words, words necessary for near-miss secondary determination described later can be recognized more accurately.

一方、S550では、音声認識開始後、所定時間:t秒以上経過したので、音声認識フラグを「FALSE」にし、音声認識を終了させる。そして、続くS560では、ヒヤリハット二次判定フラグを「TRUE」にし、当該音声認識処理を終了する。   On the other hand, in S550, since the predetermined time: t seconds or more have elapsed after the start of the speech recognition, the speech recognition flag is set to “FALSE” and the speech recognition is terminated. In the subsequent S560, the near-miss secondary determination flag is set to “TRUE”, and the speech recognition process ends.

次に、ヒヤリハット二次判定部32は、音声認識部24により音声認識された運転者の発話単語から、ヒヤリハットが実際に発生したか否かを判定するためのものであり、例えば、図8に示すヒヤリハット二次判定処理を所定周期で繰り返し実行する。   Next, the near-miss secondary determination unit 32 determines whether or not a near-miss actually occurred from the driver's utterance word recognized by the voice recognition unit 24. For example, FIG. The near-miss secondary determination process shown is repeatedly executed at a predetermined cycle.

図8に示すように、ヒヤリハット二次判定処理では、S610にて、ヒヤリハット二次判定フラグは「TRUE」か否かを判断し、ヒヤリハット二次判定フラグが「TRUE」であれば、S620に移行し、そうでなければ、ヒヤリハット二次判定処理を終了する。   As shown in FIG. 8, in the near-miss secondary determination process, in S610, it is determined whether the near-miss secondary determination flag is “TRUE”. If the near-miss secondary determination flag is “TRUE”, the process proceeds to S620. If not, the near-miss secondary determination process is terminated.

S620では、図9に示す手順でヒヤリハットの二次判定に用いるスコアを計算する、ヒヤリハット二次判定スコア計算処理を実行する。
図9に示すように、ヒヤリハット二次判定スコア計算処理では、S622にて、ヒヤリハット一次判定部16にてヒヤリハットの一次判定に用いた加速度の値を、スコア1として取得する。
In S620, a near-miss secondary determination score calculation process for calculating a score used for the near-miss secondary determination in the procedure shown in FIG. 9 is executed.
As shown in FIG. 9, in the near-miss secondary determination score calculation process, in S <b> 622, the acceleration value used for the near-miss primary determination by the near-miss primary determination unit 16 is acquired as a score 1.

また、続くS624では、音声認識部24にて所定時間:t秒の間に音声認識された発話単語に含まれるヒヤリハット関連語と否定語の割合を求め、これら各語の割合の差を、スコア2として算出する。   In subsequent S624, the ratio of near-miss related words and negative words included in the utterance words recognized by speech recognition unit 24 for a predetermined time: t seconds is obtained, and the difference between the ratios of these words is scored. 2 is calculated.

そして、最後に、S626にて、S622で取得したスコア1とS624で算出したスコア2とを重み付け加算することで、スコア1とスコア2の加重和を求め、これを二次判
定スコアとして設定する。
Finally, in S626, the weighted sum of score 1 and score 2 is obtained by weighted addition of score 1 acquired in S622 and score 2 calculated in S624, and this is set as the secondary determination score. .

なお、ヒヤリハット関連語と否定語は、予め設定されており、音響モデル26及び言語モデル28と同様、ヒヤリハット関連語辞書34及び否定語辞書36として、不揮発性のメモリに記録されている。   The near-miss related words and the negative words are set in advance, and are recorded in the nonvolatile memory as the near-hat related word dictionary 34 and the negative word dictionary 36 as in the acoustic model 26 and the language model 28.

このように、ヒヤリハット二次判定スコア計算処理にて二次判定スコアが計算されると、S630に移行して、その計算された二次判定スコアは、予め設定された閾値以上か否かを判断する。   As described above, when the secondary determination score is calculated in the near-miss secondary determination score calculation process, the process proceeds to S630, and it is determined whether or not the calculated secondary determination score is equal to or greater than a preset threshold value. To do.

つまり、S630では、二次判定スコアと閾値とを比較することで、音声認識された発話単語の中で、ヒヤリハット関連語の割合が否定語の割合よりも予め設定された割合以上高いか否かを判定することで、ヒヤリハットが発生したか否かを判定する。   That is, in S630, by comparing the secondary determination score and the threshold value, it is determined whether the ratio of near miss related words is higher than the ratio of negative words by a predetermined ratio or more in the speech-recognized utterance words. It is determined whether or not a near-miss has occurred.

また、二次判定スコアには、ヒヤリハット一次判定部16が一次判定に用いた加速度の値も重み付け加算されるので、S630においては、ヒヤリハットを精度良く判定できる。   Further, since the near-miss primary determination unit 16 also adds the weight of the acceleration used for the primary determination to the secondary determination score, the near-miss can be accurately determined in S630.

つまり、例えば、加速度が閾値を超えていて、運転者がヒヤリハットらしくない説明をした場合、加速度が大きければ大きいほど、S630にて、ヒヤリハットが判定され易くなるので、ヒヤリハットの判定精度を高めることができる。   That is, for example, if the acceleration exceeds the threshold value and the driver does not feel like a near-miss, the greater the acceleration, the easier it is to determine the near-miss in S630, thus increasing the near-miss determination accuracy. it can.

S630にて、ヒヤリハット二次判定スコアが閾値以上であると判定されると、S640に移行し、そうでなければ、S650に移行する。また、S640では、ヒヤリハット二次記録フラグを「TRUE」にし、S650に移行する。   If it is determined in S630 that the near-miss secondary determination score is equal to or greater than the threshold, the process proceeds to S640, and if not, the process proceeds to S650. In S640, the near-miss secondary recording flag is set to “TRUE”, and the process proceeds to S650.

そして、S650では、ヒヤリハット二次判定フラグを「FALSE」にし、当該ヒヤリハット二次判定処理を終了する。
次に、走行シーン二次記録部38は、ヒヤリハット二次判定部32でヒヤリハットが発生したと判定されたときに、その判定された走行シーンを走行シーン一次記録DB20から取得し、走行シーン二次記録DB40に記録するためのものである。
In S650, the near-miss secondary determination flag is set to “FALSE”, and the near-miss secondary determination process ends.
Next, the traveling scene secondary recording unit 38 acquires the determined traveling scene from the traveling scene primary recording DB 20 when the near-miss secondary determining unit 32 determines that a near-miss has occurred, and the traveling scene secondary recording unit 38 obtains the determined traveling scene. This is for recording in the recording DB 40.

すなわち、走行シーン二次記録部38は、図10に示す走行シーン二次記録処理を所定周期で繰り返し実行することにより、本開示のシーン記録部として機能する。
図10に示すように走行シーン二次記録処理では、まずS710にて、二次記録フラグが「TRUE」であるか否かを判断する。そして、二次記録フラグが「TRUE」であれば、S720に移行し、二次記録フラグが「TRUE」でなければ、走行シーン二次記録処理を終了する。
That is, the traveling scene secondary recording unit 38 functions as a scene recording unit of the present disclosure by repeatedly executing the traveling scene secondary recording process illustrated in FIG. 10 at a predetermined period.
As shown in FIG. 10, in the traveling scene secondary recording process, first, in S710, it is determined whether or not the secondary recording flag is “TRUE”. If the secondary recording flag is “TRUE”, the process proceeds to S720. If the secondary recording flag is not “TRUE”, the traveling scene secondary recording process is terminated.

S720では、走行シーン一次記録DB20から、ヒヤリハット二次判定部32にてヒヤリハットが発生したと判定された走行シーンを取得し、S730に移行する。そして、S730では、ヒヤリハット二次判定部32からヒヤリハットを判定するのに用いた音声認識結果を取得し、その取得した音声認識結果とS720にて取得した走行シーンとを走行シーン二次記録DB40に記録する。   In S720, the driving scene in which the near-miss secondary determination unit 32 determines that a near-miss occurred is acquired from the driving scene primary record DB 20, and the process proceeds to S730. In S730, the voice recognition result used to determine the near-miss is determined from the near-miss secondary determination unit 32, and the acquired voice recognition result and the driving scene acquired in S720 are stored in the driving scene secondary recording DB 40. Record.

なお、走行シーン二次記録DB40は、車両走行後、走行記録装置10への電源供給が遮断されても、ヒヤリハットの走行シーンを保持できるように、不揮発性記録媒体にて構成されている。   The traveling scene secondary recording DB 40 is configured by a non-volatile recording medium so that a traveling scene of a near-miss can be maintained even if power supply to the traveling recording apparatus 10 is interrupted after traveling the vehicle.

そして、S730にて、走行シーン二次記録DB40に音声認識結果と併せて走行シー
ンが記録されると、S740に移行して、二次記録フラグを「FALSE」にし、当該走行シーン二次記録処理を終了する。
In S730, when the traveling scene is recorded in the traveling scene secondary recording DB 40 together with the voice recognition result, the process proceeds to S740, where the secondary recording flag is set to “FALSE”, and the traveling scene secondary recording process is performed. Exit.

以上説明したように、本実施形態の車両の走行記録装置10においては、車両走行中に、走行情報記録部12が、車両周囲の映像を含む走行情報を取得して走行情報DB14に記録する。   As described above, in the vehicle travel recording apparatus 10 of the present embodiment, during travel of the vehicle, the travel information recording unit 12 acquires travel information including images around the vehicle and records it in the travel information DB 14.

そして、車両走行中にヒヤリハット一次判定部16がヒヤリハットを判定すると、状況説明リクエスト部22が運転者等の乗員に対し状況説明をリクエストし、音声認識部24が、そのリクエストに対し乗員が発話した発話内容を認識する。   When the near-miss primary determination unit 16 determines a near-miss while the vehicle is running, the situation explanation request unit 22 requests a situation explanation from the driver or the like, and the voice recognition unit 24 speaks to the request. Recognize utterance content.

すると、ヒヤリハット二次判定部32が、その発話内容に基づき、ヒヤリハットを二次判定し、ヒヤリハット二次判定部32でもヒヤリハットが判定されると、そのときの走行情報がヒヤリハットの走行シーンとして、走行シーン二次記録DB40に記録される。   Then, the near-miss secondary determination unit 32 secondarily determines the near-miss based on the content of the utterance, and when the near-miss secondary determination unit 32 also determines the near-miss, the travel information at that time is used as a near-miss travel scene. Recorded in the scene secondary recording DB 40.

このため、本実施形態の走行記録装置10によれば、車両の加速度と乗員の発話内容とにより、ヒヤリハットを二段階に判定できることになり、ヒヤリハットの発生を精度良く検出できる。   For this reason, according to the traveling recording apparatus 10 of the present embodiment, the near-miss can be determined in two stages based on the acceleration of the vehicle and the utterance content of the occupant, and the occurrence of the near-miss can be accurately detected.

また、走行シーン二次記録DB40に記録される走行シーンは、車両の挙動、車両周囲の映像、車両の位置、車室内外の音声、周辺物体の属性、ドライバID等の走行情報にて構成されている。そして、走行シーン二次記録DB40には、この走行シーンに加えて、音声認識部24による認識結果であるテキストデータも記録される。   The travel scene recorded in the travel scene secondary record DB 40 is composed of travel information such as vehicle behavior, vehicle surroundings, vehicle position, sound inside and outside the vehicle, attributes of surrounding objects, driver ID, and the like. ing. In addition to the traveling scene, text data that is a recognition result by the voice recognition unit 24 is also recorded in the traveling scene secondary recording DB 40.

従って、本実施形態の走行記録装置10によれば、車両走行後に、閲覧装置50を介して、走行シーン二次記録DB40に記録された走行シーンを閲覧することにより、ヒヤリハットの原因を特定して、運転者の運転指導を行うことができる。   Therefore, according to the travel recording apparatus 10 of the present embodiment, after the vehicle travels, the travel scene recorded in the travel scene secondary recording DB 40 is browsed via the viewing apparatus 50 to identify the cause of the near-miss. , Driving guidance of the driver can be performed.

また、走行シーンの閲覧時には、ヒヤリハットの走行シーン毎の音声認識結果であるテキストデータを利用して、ヒヤリハットの原因を分類し、運転者が発生し易いヒヤリハットシーンを容易に特定することができる。よって、本実施形態の車両の走行記録装置10を利用すれば、運転者の運転指導をより適切に行うことが可能となる。   Further, when browsing a driving scene, text data that is a voice recognition result for each driving scene of the near hat can be used to classify the cause of the near hat and easily identify the near hat scene that is likely to occur by the driver. Therefore, if the vehicle travel recording apparatus 10 of the present embodiment is used, the driver's driving guidance can be performed more appropriately.

次に、車両の運行管理者が、走行シーン二次記録DB40に記録された走行シーンを閲覧するのに使用される閲覧装置50について説明する。
図1に示すように閲覧装置50は、走行シーン二次記録DB40から、運行管理者が指定したクエリに応じた走行シーン抽出する走行シーン抽出部52と、その抽出された走行シーンをディスプレイに表示する走行シーン表示部54とを備える。
Next, the browsing device 50 used for the vehicle operation manager to browse the travel scene recorded in the travel scene secondary record DB 40 will be described.
As shown in FIG. 1, the browsing device 50 displays a travel scene extraction unit 52 that extracts a travel scene from the travel scene secondary record DB 40 according to a query specified by the operation manager, and the extracted travel scene on the display. And a traveling scene display section 54 for performing the operation.

走行シーン抽出部52及び走行シーン表示部54は、閲覧装置50を構成するコンピュータが、図11に示す走行シーン抽出・表示処理を実行することにより実現される。
すなわち、走行シーン抽出・表示処理では、S810にて、運行管理者が指定したクエリに合致する走行シーンを走行シーン二次記録DB40から抽出する、走行シーン抽出部52としての処理を実行する。
The travel scene extraction unit 52 and the travel scene display unit 54 are realized by a computer constituting the browsing device 50 executing the travel scene extraction / display process shown in FIG.
That is, in the travel scene extraction / display process, in S810, a process as the travel scene extraction unit 52 that extracts a travel scene that matches the query specified by the operation manager from the travel scene secondary record DB 40 is executed.

なお、運行管理者が指定するクエリとしては、例えば、ドライバID、発話単語、加速度、周辺物体の有無、周辺物体との距離、周辺物体の種類、等を挙げることができる。
次に、S820では、走行シーンの表示形態は、一覧表示であるか、個別表示であるかを判断する。この表示形態の判定は、運行管理者からの表示指令に従い実施され、一覧表示する場合には、S830に移行し、個別表示する場合には、S840に移行する。
Examples of the query specified by the operation manager include a driver ID, a spoken word, acceleration, the presence / absence of a surrounding object, a distance from the surrounding object, and the type of the surrounding object.
Next, in S820, it is determined whether the display form of the traveling scene is a list display or an individual display. This display mode determination is performed in accordance with a display command from the operation manager. When a list is displayed, the process proceeds to S830, and when individually displayed, the process proceeds to S840.

S830では、S810で走行シーンを抽出するのに用いられたクエリ、抽出された走行シーンの件数、抽出された走行シーンに付与されている発話単語とその発生頻度、等をディスプレイに一覧表示する。   In S830, the query used to extract the driving scene in S810, the number of extracted driving scenes, the utterance words assigned to the extracted driving scene and the frequency of occurrence thereof, etc. are displayed in a list on the display.

このため、例えば、S810にて、ドライバIDを利用して特定の運転者の走行シーンが抽出されているときには、一覧表示によって、例えば、「人」60%、「自転車」20%、「交差点」80%…というように、発話単語とその発生頻度が表示されることになる。   For this reason, for example, when a driving scene of a specific driver is extracted using the driver ID in S810, for example, “person” 60%, “bicycle” 20%, “intersection” are displayed by list display. 80%, etc., the utterance word and its occurrence frequency are displayed.

この場合、運行管理者は、一覧表示の画面から、ドライバIDで特定される運転者は、「交差点で人とぶつかりやすい」と判断できることになり、運転者の運転指導を適正に行うことができるようになる。   In this case, the operation manager can determine from the list display screen that the driver specified by the driver ID is “easy to collide with a person at the intersection”, and can appropriately perform the driving instruction of the driver. It becomes like this.

また、S840では、S810にて抽出された走行シーンの中から、表示対象となる走行シーンを一つ選択し、S850に移行する。
そして、S850では、その選択した走行シーンに含まれている各種情報に従い、ドライバID、自車挙動、映像、位置、周辺物体属性、音声、及び、発話単語をディスプレイに表示する。なお、音声については、スピーカから出力させる。
In S840, one travel scene to be displayed is selected from the travel scenes extracted in S810, and the process proceeds to S850.
In S850, the driver ID, the vehicle behavior, the video, the position, the peripheral object attribute, the voice, and the spoken word are displayed on the display according to various information included in the selected travel scene. Note that audio is output from a speaker.

この結果、運行管理者は、ディスプレイにテキストで表示された発話単語から、走行シーンの概要を速やかに把握することができるようになり、走行シーンの映像を最後まで見ることなく、ヒヤリハットの原因を特定することが可能となる。   As a result, the operation manager can quickly grasp the outline of the driving scene from the utterance word displayed in the text on the display, and the cause of the near-miss can be obtained without looking at the video of the driving scene to the end. It becomes possible to specify.

以上、本発明を実施するための形態について説明したが、本発明は上述の実施形態に限定されることなく、種々変形して実施することができる。
例えば、上記実施形態では、音声認識部24は、S530、S540の処理で、乗員が発した発話言語を認識するものとして説明したが、S530、S540では、発話以外に、クラクションや衝突音などの事故音声を認識するようにしてもよい。
As mentioned above, although the form for implementing this invention was demonstrated, this invention is not limited to the above-mentioned embodiment, It can implement in various deformation | transformation.
For example, in the above embodiment, the voice recognition unit 24 has been described as recognizing the utterance language uttered by the occupant in the processes of S530 and S540. You may make it recognize accident sound.

このようにすれば、運転者が状況を説明できなかったり、ヒヤリハットではないと嘘をついても、ヒヤリハットを検出できるようになる。
また、音声認識部24での音声認識は、状況説明リクエスト部22が状況説明のリクエストを終了する前、例えば、ヒヤリハット一次判定部16でヒヤリハットが判定された直後、から開始するようにしてもよい。
In this way, even if the driver cannot explain the situation or lies that it is not a near-miss, it can detect a near-miss.
The voice recognition by the voice recognition unit 24 may be started before the situation explanation request unit 22 ends the request for situation explanation, for example, immediately after the near-miss primary judgment unit 16 determines the near-miss. .

このようにすれば、運転者が、リクエストを待たずに発話を始めても、その発話内容を認識できるようになる。
また、音声認識部24での音声認識は、状況説明リクエスト後、t秒間実施するものとして説明したが、この時間は、10秒などの固定時間であってもよいし、無音区間に応じて設定してもよい。
In this way, even if the driver starts speaking without waiting for a request, the driver can recognize the content of the speaking.
In addition, although the voice recognition by the voice recognition unit 24 has been described as being performed for t seconds after a request for situation explanation, this time may be a fixed time such as 10 seconds or may be set according to a silent period. May be.

つまり、例えば、3秒以上無音状態が継続したら、音声認識を完了するようにしてもよい。このようにすれば、運転者による説明が長くても、説明の終了まで発話内容を認識できることになる。   That is, for example, if the silent state continues for 3 seconds or more, the voice recognition may be completed. In this way, even if the explanation by the driver is long, the utterance content can be recognized until the end of the explanation.

なお、この場合、無音区間は、音声信号の振幅がある閾値未満になるか、或いは、零交差数が閾値未満となる区間を、無声区間と判定するようにすればよい。
また次に、上記実施形態では、走行記録装置10はマイクロコンピュータにて構成される電子制御装置にて構成されており、図1に示す各部は、CPUがプログラムを実行する
ことにより実現されるものとして説明した。
In this case, the silent section may be determined as the silent section if the amplitude of the audio signal is less than a certain threshold or the number of zero crossings is less than the threshold.
Next, in the above embodiment, the travel recording apparatus 10 is configured by an electronic control unit configured by a microcomputer, and each unit illustrated in FIG. 1 is realized by the CPU executing a program. As explained.

しかし、走行記録装置10を構成する各部は、その一部又は全部を、論理回路やアナログ回路等を組み合わせたハードウェアを用いて実現してもよい。また、閲覧装置50の走行シーン抽出部52及び走行シーン表示部54についても、同様である。   However, each part of the travel recording apparatus 10 may be realized partially or entirely using hardware that combines a logic circuit, an analog circuit, and the like. The same applies to the travel scene extraction unit 52 and the travel scene display unit 54 of the browsing device 50.

また、上記実施形態における1つの構成要素が有する複数の機能を、複数の構成要素によって実現したり、1つの構成要素が有する1つの機能を、複数の構成要素によって実現したりしてもよい。また、複数の構成要素が有する複数の機能を、1つの構成要素によって実現したり、複数の構成要素によって実現される1つの機能を、1つの構成要素によって実現したりしてもよい。また、上記実施形態の構成の一部を省略してもよい。また、上記実施形態の構成の少なくとも一部を、他の上記実施形態の構成に対して付加又は置換してもよい。なお、特許請求の範囲に記載した文言のみによって特定される技術思想に含まれるあらゆる態様が本発明の実施形態である。   In addition, a plurality of functions of one constituent element in the above embodiment may be realized by a plurality of constituent elements, or a single function of one constituent element may be realized by a plurality of constituent elements. Further, a plurality of functions possessed by a plurality of constituent elements may be realized by one constituent element, or one function realized by a plurality of constituent elements may be realized by one constituent element. Moreover, you may abbreviate | omit a part of structure of the said embodiment. In addition, at least a part of the configuration of the above embodiment may be added to or replaced with the configuration of the other embodiment. In addition, all the aspects included in the technical idea specified only by the wording described in the claim are embodiment of this invention.

10…走行記録装置、12…走行情報記録部、14…走行情報DB、16…ヒヤリハット一次判定部、22…状況説明リクエスト部、24…音声認識部、32…ヒヤリハット二次判定部、38…走行シーン二次記録部、40…走行シーン二次記録DB、50…閲覧装置、52…走行シーン抽出部、54…走行シーン表示部。   DESCRIPTION OF SYMBOLS 10 ... Travel recording device, 12 ... Travel information recording part, 14 ... Travel information DB, 16 ... Near-miss primary determination part, 22 ... Situation description request part, 24 ... Voice recognition part, 32 ... Near-miss secondary determination part, 38 ... Travel Secondary scene recording unit, 40 ... travel scene secondary record DB, 50 ... browsing device, 52 ... travel scene extraction unit, 54 ... travel scene display unit.

Claims (13)

車両走行中に車両周囲の映像を含む走行情報を取得して記録する走行情報記録部(12、14)と、
車両走行中に所定の状態変化が生じると乗員に対し状況説明をリクエストするリクエスト部(22)と、
前記リクエスト部のリクエストに対し乗員が発話した発話内容を認識する音声認識部(24)と、
前記音声認識部にて認識された乗員の発話内容に基づき、前記走行情報記録部に記録された走行情報がヒヤリハットシーンかどうかを判定するヒヤリハット判定部(32)と、
を備えた、車両の走行記録装置。
A travel information recording unit (12, 14) for acquiring and recording travel information including images around the vehicle during vehicle travel;
A request section (22) for requesting a situation explanation to an occupant when a predetermined state change occurs while the vehicle is running;
A voice recognition unit (24) for recognizing the utterance content spoken by the occupant in response to the request of the request unit;
A near-miss determining unit (32) for determining whether the traveling information recorded in the traveling information recording unit is a near-miss scene based on the utterance content of the occupant recognized by the voice recognition unit;
A vehicle travel recording apparatus comprising:
前記ヒヤリハット判定部にてヒヤリハットシーンであると判定された走行情報を、不揮性記録媒体(40)に記録するシーン記録部(38)、を備えた請求項1に記載の車両の走行記録装置。   The vehicle travel recording apparatus according to claim 1, further comprising a scene recording unit (38) for recording the travel information determined to be a near-miss scene by the near-miss determination unit on a non-volatile recording medium (40). . 前記シーン記録部は、前記走行情報記録部に記録された前記走行情報に加えて、前記ヒヤリハット判定部が前記ヒヤリハットシーンであると判定するのに用いた前記発話内容を、前記不揮発性記録媒体に記録するよう構成されている、請求項2に記載の車両の走行記録装置。   In addition to the travel information recorded in the travel information recording unit, the scene recording unit stores the utterance content used by the near-miss determination unit to determine that the near-scene is the near-scene on the nonvolatile recording medium. The vehicle travel recording apparatus according to claim 2, configured to record. 前記シーン記録部は、前記不揮発性記録媒体に前記発話内容を記録する際には、前記音声認識部にて認識された前記発話内容のテキストデータを、前記不揮発性記録媒体に記録するよう構成されている、請求項3に記載の車両の走行記録装置。   When recording the utterance content on the nonvolatile recording medium, the scene recording unit is configured to record text data of the utterance content recognized by the voice recognition unit on the nonvolatile recording medium. The vehicle travel recording apparatus according to claim 3. 前記走行情報記録部は、車両周辺に存在する物体の状況を前記走行情報の一つとして取得して記録し、
前記リクエスト部は、前記走行情報記録部に記録された前記物体の状況に基づいて前記リクエストの内容を決定する、
よう構成されている、請求項1〜請求項4の何れか1項に記載の車両の走行記録装置。
The travel information recording unit acquires and records the status of an object existing around the vehicle as one of the travel information,
The request unit determines the content of the request based on the state of the object recorded in the travel information recording unit.
The vehicle travel recording apparatus according to claim 1, configured as described above.
前記リクエスト部は、前記物体の状況からヒヤリハットの原因物体を推定し、該推定結果に基づいて前記リクエストの内容を決定するよう構成されている、請求項5に記載の走行記録装置。   The travel recording apparatus according to claim 5, wherein the request unit is configured to estimate a cause object of a near-miss from the state of the object and determine the content of the request based on the estimation result. 前記リクエスト部は、自車に最も近い周辺物体をヒヤリハットの原因物体として推定するよう構成されている、請求項6に記載の走行記録装置。   The travel recording apparatus according to claim 6, wherein the request unit is configured to estimate a nearby object closest to the host vehicle as a cause object of a near-miss. 前記音声認識部が前記乗員の発話内容として認識する音声は、ヒヤリハットに関連する語と否定語に制限されている、請求項1〜請求項7の何れか1項に記載の走行記録装置。   The travel recording apparatus according to any one of claims 1 to 7, wherein the voice recognized by the voice recognition unit as the utterance content of the occupant is limited to words and negative words related to near-miss. 車両走行中の車両の状態変化から前記走行情報記録部に記録された走行情報がヒヤリハットシーンかどうかを判定する一次判定部(16)を備え、
前記リクエスト部は、前記一次判定部にて前記走行情報がヒヤリハットシーンであると判定されると、乗員に対し状況説明をリクエストするよう構成されている、請求項1〜請求項8の何れか1項に記載の走行記録装置。
A primary determination unit (16) for determining whether or not the travel information recorded in the travel information recording unit is a near-miss scene from a state change of the vehicle during vehicle travel;
The request unit is configured to request an explanation of a situation from an occupant when the primary determination unit determines that the traveling information is a near-miss scene. The travel recording device according to item.
前記ヒヤリハット判定部は、前記音声認識部にて認識された乗員の発話内容に基づき、ヒヤリハットらしさを表すスコアを求め、該スコアと、前記一次判定部が前記車両の状態変化から前記ヒヤリハットシーンを判定するのに用いたスコアとを重み付け加算した加重
和に基づき、前記走行情報記録部に記録された走行情報がヒヤリハットシーンかどうかを判定するよう構成されている、請求項9に記載の走行記録装置。
The near-miss determination unit obtains a score representing near-miss likeness based on the utterance content of the occupant recognized by the voice recognition unit, and the score and the primary determination unit determine the near-miss scene from the state change of the vehicle. The travel recording device according to claim 9, wherein the travel recording device is configured to determine whether or not the travel information recorded in the travel information recording unit is a near-miss scene based on a weighted sum obtained by weighting and adding the score used for the calculation. .
車両走行中に生じたヒヤリハットの情報として、車両周囲の映像を含む走行情報及び乗員の発話内容を表すテキストデータが記録された記録媒体から、ヒヤリハットの情報を取得してヒヤリハットシーンを閲覧するための閲覧装置(50)であって、
前記記録媒体(40)から、外部から指定されたクエリに対応するヒヤリハットの情報を抽出する抽出部(52)と、
前記抽出部にて抽出されたヒヤリハットの情報に基づき、ヒヤリハットシーンを表示する表示部(54)と、
を備え、
前記表示部は、前記抽出部にて抽出されたヒヤリハットの情報に含まれる前記発話内容のテキストデータに基づき、発話内容と発話内容の発生頻度を一覧表示可能に構成されている、閲覧装置。
Information on near-miss scenes obtained by acquiring near-miss information from a recording medium in which text information representing travel information including images around the vehicle and utterances of passengers is recorded as near-miss information that occurred during vehicle travel A browsing device (50),
An extraction unit (52) for extracting near-miss information corresponding to an externally designated query from the recording medium (40);
A display unit (54) for displaying a near-miss scene based on the near-miss information extracted by the extraction unit;
With
The browsing device configured to display a list of utterance contents and the frequency of occurrence of utterance contents based on the text data of the utterance contents included in the near-miss information extracted by the extraction section.
車両走行中に生じたヒヤリハットの情報として、車両周囲の映像を含む走行情報及び乗員の発話内容を表すテキストデータが記録された記録媒体から、ヒヤリハットの情報を取得してヒヤリハットシーンを閲覧するための閲覧装置であって、
前記記録媒体から、外部から指定されたクエリに対応するヒヤリハットの情報を抽出する抽出部と、
前記抽出部にて抽出されたヒヤリハットの情報に基づき、ヒヤリハットシーンを表示する表示部と、
を備え、
前記抽出部は、前記クエリを指定することにより、該クエリに対応した発話内容のテキストデータが含まれる情報を抽出可能に構成されている、閲覧装置。
Information on near-miss scenes obtained by acquiring near-miss information from a recording medium in which text information representing travel information including images around the vehicle and utterances of passengers is recorded as near-miss information that occurred during vehicle travel A browsing device,
An extraction unit for extracting near-miss information corresponding to a query designated from the outside from the recording medium;
Based on near-miss information extracted by the extraction unit, a display unit that displays a near-miss scene,
With
The browsing device configured to be capable of extracting information including text data of utterance contents corresponding to the query by designating the query.
車両走行中に生じたヒヤリハットの情報として、車両周囲の映像を含む走行情報及び乗員の発話内容を表すテキストデータが記録された記録媒体から、ヒヤリハットの情報を取得してヒヤリハットシーンを閲覧するための閲覧装置であって、
前記記録媒体から、外部から指定されたクエリに対応するヒヤリハットの情報を抽出する抽出部と、
前記抽出部にて抽出されたヒヤリハットの情報に基づき、ヒヤリハットシーンを表示する表示部と、
を備え、
前記表示部は、前記抽出部にて抽出されたヒヤリハットの情報からヒヤリハットシーンを表示する際には、該情報に含まれるテキストデータに基づき前記発話内容を表示可能に構成されている、閲覧装置。
Information on near-miss scenes obtained by acquiring near-miss information from a recording medium in which text information representing travel information including images around the vehicle and utterances of passengers is recorded as near-miss information that occurred during vehicle travel A browsing device,
An extraction unit for extracting near-miss information corresponding to a query designated from the outside from the recording medium;
Based on near-miss information extracted by the extraction unit, a display unit that displays a near-miss scene,
With
The display device is configured to display the content of the utterance based on text data included in the near-miss scene from the near-miss information extracted by the extraction unit.
JP2017133715A 2017-07-07 2017-07-07 Vehicle travel recording device and viewing device Active JP7039872B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017133715A JP7039872B2 (en) 2017-07-07 2017-07-07 Vehicle travel recording device and viewing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017133715A JP7039872B2 (en) 2017-07-07 2017-07-07 Vehicle travel recording device and viewing device

Publications (2)

Publication Number Publication Date
JP2019014392A true JP2019014392A (en) 2019-01-31
JP7039872B2 JP7039872B2 (en) 2022-03-23

Family

ID=65356365

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017133715A Active JP7039872B2 (en) 2017-07-07 2017-07-07 Vehicle travel recording device and viewing device

Country Status (1)

Country Link
JP (1) JP7039872B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071644A (en) * 2019-10-31 2021-05-06 パイオニア株式会社 Question providing system, question providing method, question providing program, and storage medium
US20210383687A1 (en) * 2020-06-03 2021-12-09 Here Global B.V. System and method for predicting a road object associated with a road zone

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003086A (en) * 2008-06-19 2010-01-07 Toyota Motor Corp Drive recorder
US20160343249A1 (en) * 2015-05-22 2016-11-24 Xiaomi Inc. Methods and devices for processing traffic data

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010003086A (en) * 2008-06-19 2010-01-07 Toyota Motor Corp Drive recorder
US20160343249A1 (en) * 2015-05-22 2016-11-24 Xiaomi Inc. Methods and devices for processing traffic data

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021071644A (en) * 2019-10-31 2021-05-06 パイオニア株式会社 Question providing system, question providing method, question providing program, and storage medium
US20210383687A1 (en) * 2020-06-03 2021-12-09 Here Global B.V. System and method for predicting a road object associated with a road zone

Also Published As

Publication number Publication date
JP7039872B2 (en) 2022-03-23

Similar Documents

Publication Publication Date Title
US20180204572A1 (en) Dialog device and dialog method
JP4682714B2 (en) Dialog system
WO2017081960A1 (en) Voice recognition control system
US10885788B2 (en) Notification control apparatus and method for controlling notification
JP2008058409A (en) Speech recognizing method and speech recognizing device
JP6604151B2 (en) Speech recognition control system
JP5677650B2 (en) Voice recognition device
JP2006317573A (en) Information terminal
JP6075577B2 (en) Driving assistance device
JP7039872B2 (en) Vehicle travel recording device and viewing device
US20230315997A9 (en) Dialogue system, a vehicle having the same, and a method of controlling a dialogue system
JP2019105573A (en) Parking lot assessment device, parking lot information providing method, and data structure of parking lot information
JP2000118260A (en) Vehicular occupant dialoging device
JP5326843B2 (en) Emotion estimation device and emotion estimation method
JP5074759B2 (en) Dialog control apparatus, dialog control method, and dialog control program
JP7407047B2 (en) Audio output control method and audio output control device
JP4938719B2 (en) In-vehicle information system
US20210097727A1 (en) Computer apparatus and method implementing sound detection and responses thereto
JP7434016B2 (en) Activation word registration support method, support device, speech recognition device, and program
JP2002149191A (en) Voice input device
JP2021114081A (en) Drive recorder, recording method, and program
JP6555113B2 (en) Dialogue device
CN111993997A (en) Pedestrian avoidance prompting method, device, equipment and storage medium based on voice
Sathyanarayana et al. Leveraging speech-active regions towards active safety in vehicles
CN111724778A (en) In-vehicle device, control method for in-vehicle device, and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210817

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210930

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220221

R151 Written notification of patent or utility model registration

Ref document number: 7039872

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151