JP7156741B1 - Wound detection system, wound detection method and program - Google Patents

Wound detection system, wound detection method and program Download PDF

Info

Publication number
JP7156741B1
JP7156741B1 JP2022043742A JP2022043742A JP7156741B1 JP 7156741 B1 JP7156741 B1 JP 7156741B1 JP 2022043742 A JP2022043742 A JP 2022043742A JP 2022043742 A JP2022043742 A JP 2022043742A JP 7156741 B1 JP7156741 B1 JP 7156741B1
Authority
JP
Japan
Prior art keywords
vehicle
data
sound data
impact sound
audio data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022043742A
Other languages
Japanese (ja)
Other versions
JP2023137503A (en
Inventor
示 畠山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to JP2022043742A priority Critical patent/JP7156741B1/en
Application granted granted Critical
Publication of JP7156741B1 publication Critical patent/JP7156741B1/en
Publication of JP2023137503A publication Critical patent/JP2023137503A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】様々な条件によらず、的確に、車両における傷等の発生と発生エリアとを速やかに特定する。【解決手段】車両の内部に設けられた処理装置100と、少なくとも複数のマイク200A、200B、200C、200Dと、からなる傷検知システム1であって、処理装置100は、複数のマイク200A、200B、200C、200Dから入力した音声データをマイクごとに定められた格納エリアに格納する記憶部120と、格納された音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する検知部130と、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイク200A、200B、200C、200Dの音声データに基づいて、衝撃音データの発生エリアを推定する推定部140と、を備える。【選択図】図2An object of the present invention is to quickly identify the occurrence of a scratch or the like on a vehicle and the area of occurrence without depending on various conditions. A flaw detection system (1) comprising a processing device (100) provided inside a vehicle and at least a plurality of microphones (200A, 200B, 200C, 200D), wherein the processing device (100) includes a plurality of microphones (200A, 200B). , 200C, and 200D are stored in a storage area determined for each microphone; and a detection unit 130 for detecting the impact sound data based on the sound data of all the microphones 200A, 200B, 200C, and 200D when the detection unit 130 detects impact sound data from the audio data of one microphone. and an estimating unit 140 for estimating the occurrence area of . [Selection drawing] Fig. 2

Description

本発明は、傷検知システム、傷検知方法およびプログラムに関する。 The present invention relates to a flaw detection system, flaw detection method, and program.

近年、若者を中心としたマイカー指向の減少に伴って、レンタカーやカーシェアリング等を利用するケースが増えている。
このようなレンタカーやカーシェアリングでは、複数の利用者が車両を利用し、しかも、利用者の利用中にレンタル車両等に傷等が発生した場合には、その利用者が修理費用を負担することになるため、レンタル車両の貸出時と返却時とのそれぞれにおいて担当者がレンタル車両の外周部の状態を比較することにより、レンタル車両の貸出の最中にレンタル車両に傷等が発生したか否かを確認するようにしている。
しかしながら、この種の確認に人手がかかること、および傷等の発生を的確に検知することが困難であったという問題があった。
In recent years, along with the decrease in preference for private cars, especially among young people, the number of cases of using rental cars, car sharing, etc. is increasing.
In such rental cars and car sharing, multiple users use the vehicle, and if the rental vehicle, etc. is damaged during use by the user, the user bears the repair costs. Therefore, the person in charge compares the condition of the outer circumference of the rental vehicle when the rental vehicle is rented and when it is returned. I'm trying to make sure.
However, there are problems that this kind of confirmation is labor intensive and that it is difficult to accurately detect the occurrence of scratches or the like.

上記の問題を解決する手段として、レンタル車両に搭載されて当該車両に対する衝撃を検知する衝撃検知手段と、レンタル車両に搭載されて少なくとも当該車両の外周部を撮像する撮像手段と、撮像手段によって撮像された画像データを記録する記録手段と、衝撃検知手段によって衝撃が検知されたことを受けて、撮像手段によって撮像された画像データを、レンタル車両の利用者の特定に関連する情報と対応づけて記録手段に記憶させる制御手段と、を備えた管理装置が開示されている(例えば、特許文献1参照)。 As a means for solving the above problems, an impact detection means mounted on a rental vehicle for detecting an impact on the vehicle, an imaging means mounted on the rental vehicle for imaging at least the outer periphery of the vehicle, and an imaging means recording means for recording the image data captured by the image data; and image data captured by the imaging means in response to the detection of the impact by the impact detection means are associated with information related to identification of the user of the rental vehicle. and a control means for storing data in a recording means (see, for example, Patent Document 1).

特開2006-195715号公報JP 2006-195715 A

しかしながら、特許文献1に記載の技術は、画像データにより傷等が生じた際の状況、特に、軽微な傷等を検知するものであるが、画像データによる場合には、撮像時の日照条件や、撮像距離、撮像角度、車種等によって、画像データの画像品質が大きな影響を受けることから、高い確率で、どんな場合においても、車両に発生した傷等を検知できるものではなかったという課題があった。 However, the technique described in Patent Document 1 detects the situation when a scratch or the like occurs from image data, particularly a minor scratch or the like. The image quality of the image data is greatly affected by the image pickup distance, image pickup angle, vehicle type, etc., so there was a problem that it was not possible to detect scratches on the vehicle with a high probability in any case. rice field.

また、仮に、傷等の画像データを取得できたとしても、傷等が発生したエリアを特定するには、更に、人手による手間を要するという課題もあった。 Moreover, even if image data of the flaw or the like can be obtained, specifying the area in which the flaw or the like is generated still requires additional manual effort.

そこで、本発明は、上述の課題に鑑みてなされたものであって、様々な条件によらず、的確に、車両における傷等の発生と発生エリアとを速やかに特定可能な傷検知システム、傷検知方法およびプログラムを提供することを目的とする。 Accordingly, the present invention has been made in view of the above-mentioned problems, and provides a flaw detection system and a flaw detection system that can accurately identify the occurrence of a flaw on a vehicle and the area where the flaw occurs, regardless of various conditions. An object is to provide a detection method and program.

形態1;本発明の1またはそれ以上の実施形態は、車両の内部に設けられた処理装置と、少なくとも複数のマイクと、からなる傷検知システムであって、前記処理装置は、前記複数のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する記憶部と、前記記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する検知部と、前記検知部において、1の前記マイクの前記音声データから前記衝撃音データが検知された場合に、すべてのマイクの前記音声データに基づいて、前記衝撃音データの発生エリアを推定する推定部と、を備えたことを特徴とする傷検知システムを提案している。 Mode 1: One or more embodiments of the present invention are a wound detection system comprising a processing device provided inside a vehicle and at least a plurality of microphones, wherein the processing device comprises a plurality of microphones. a storage unit that stores voice data input from the microphone in a storage area determined for each microphone; and machine learning using a learning model is performed on the voice data stored in the storage unit to generate impact sound data. and a detection unit for detecting, when the impact sound data is detected from the audio data of one of the microphones in the detection unit, based on the audio data of all the microphones, the generation area of the impact sound data and an estimating unit for estimating .

形態2;本発明の1またはそれ以上の実施形態は、前記学習モデルは、前記車両の前記音声データを学習して得られた学習モデルである傷検知システムを提案している。 Mode 2: One or more embodiments of the present invention propose a flaw detection system, wherein the learning model is a learning model obtained by learning the voice data of the vehicle.

形態3;本発明の1またはそれ以上の実施形態は、前記学習モデルは、前記車両の車種ごとに異なる傷検知システムを提案している。 Mode 3: One or more embodiments of the present invention propose a flaw detection system in which the learning model is different for each model of the vehicle.

形態4;本発明の1またはそれ以上の実施形態は、前記検知部は、前記音声データに対する学習結果と前記車両の通常走行時の前記音声データに対する前記学習結果とが予め定められた閾値を超える乖離度である場合に、前記音声データが前記衝撃音データであることを検知する傷検知システムを提案している。 Mode 4: In one or more embodiments of the present invention, the detection unit detects that a learning result for the voice data and a learning result for the voice data during normal running of the vehicle exceed a predetermined threshold. A flaw detection system is proposed that detects that the sound data is the impact sound data when the deviation is the degree.

形態5;本発明の1またはそれ以上の実施形態は、前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、各マイクの前記音声データの音量の違いから、前記衝撃音データの発生エリアを推定する傷検知システムを提案している。 Mode 5: In one or more embodiments of the present invention, the estimation unit detects the impact sound data from the audio data of the one microphone when the detection unit detects the impact sound data from the audio data of the one microphone. proposed a flaw detection system that estimates the area where the impact sound data is generated from the difference in sound volume.

形態6;本発明の1またはそれ以上の実施形態は、前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、前記音声データの各マイクへの到達時間の違いから、前記衝撃音データの前記発生エリアを推定する傷検知システムを提案している。 Mode 6: In one or more embodiments of the present invention, when the detecting unit detects the impact sound data from the audio data of the one microphone, the estimating unit detects each microphone of the audio data We have proposed a flaw detection system that estimates the generation area of the impact sound data from the difference in arrival time.

形態7;本発明の1またはそれ以上の実施形態は、前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、各マイクの前記音声データに対する前記学習結果の乖離度の違いから、前記衝撃音データの前記発生エリアを推定する傷検知システムを提案している。 Mode 7: In one or more embodiments of the present invention, the estimation unit detects the impact sound data from the audio data of the one microphone when the detection unit detects the impact sound data from the audio data of the one microphone. proposes a flaw detection system that estimates the generation area of the impact sound data from the difference in the degree of divergence of the learning results with respect to.

形態8;本発明の1またはそれ以上の実施形態は、前記処理装置が外部装置に情報を送信する通信部と、所定のネットワークを検出するネットワーク検出部と、を備え、前記ネットワーク検出部が、前記所定のネットワークを検出した場合に、前記通信部が、前記車両のどのエリアに傷がついた可能性がある旨のメッセージを前記外部装置に送信する傷検知システムを提案している。 Mode 8: In one or more embodiments of the present invention, the processing device comprises a communication unit for transmitting information to an external device, and a network detection unit for detecting a predetermined network, the network detection unit comprising: A damage detection system has been proposed in which, when the predetermined network is detected, the communication unit transmits a message indicating which area of the vehicle may be damaged to the external device.

形態9;本発明の1またはそれ以上の実施形態は、サーバを含み、前記車両の走行中に取得した前記衝撃音データを含むデータを前記サーバに送信する傷検知システムを提案している。 Mode 9: One or more embodiments of the present invention propose a wound detection system including a server and transmitting data including the impact sound data acquired while the vehicle is running to the server.

形態10;本発明の1またはそれ以上の実施形態は、車両の内部に設けられた処理装置と少なくとも3つ以上のマイクとからなる車両の傷検知システムにおける車両の傷検知方法であって、前記処理装置が、前記少なくとも3つ以上のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する第1の工程と、前記処理装置が、前記記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する第2の工程と、前記処理装置が、1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、すべてのマイクの前記音声データに基づいて、衝撃音データの発生エリアを推定する第3の工程と、を備えたことを特徴とする傷検知方法を提案している。 Mode 10: One or more embodiments of the present invention provide a vehicle flaw detection method in a vehicle flaw detection system comprising a processing device provided inside the vehicle and at least three or more microphones, a first step in which the processing device stores the audio data input from the at least three or more microphones in a storage area determined for each microphone; and the processing device stores the audio data stored in the storage unit On the other hand, a second step of performing machine learning using a learning model to detect impact sound data; and a third step of estimating an impact sound data generation area based on the audio data of all microphones.

形態11;本発明の1またはそれ以上の実施形態は、車両の内部に設けられた処理装置と少なくとも3つ以上のマイクとからなる傷検知システムにおける傷検知方法をコンピュータに実行させるためのプログラムであって、前記処理装置が、前記少なくとも3つ以上のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する第1の工程と、前記処理装置が、前記記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する第2の工程と、前記処理装置が、1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、すべてのマイクの前記音声データに基づいて、衝撃音データの発生エリアを推定する第3の工程と、をコンピュータに実行させるためのプログラムを提案している。 Mode 11: One or more embodiments of the present invention is a program for causing a computer to execute a flaw detection method in a flaw detection system comprising a processor provided inside a vehicle and at least three or more microphones. a first step in which the processing device stores audio data input from the at least three or more microphones in a storage area determined for each microphone; a second step of performing machine learning using a learning model on the sound data to detect impact sound data; A program is proposed for causing a computer to execute a third step of estimating an impact sound data generation area based on the audio data of all microphones when the impact sound data is detected.

本発明の1またはそれ以上の実施形態によれば、様々な条件によらず、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができるという効果がある。 Advantageous Effects of Invention According to one or more embodiments of the present invention, there is an effect that it is possible to accurately and promptly identify the occurrence of a scratch or the like on a vehicle and the occurrence area regardless of various conditions.

本発明の第1の実施形態に係る傷検知システムの概要を示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows the outline|summary of the wound detection system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る処理装置の構成を示す図である。It is a figure which shows the structure of the processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る記憶部の概要を示す図である。It is a figure which shows the outline|summary of the memory|storage part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る推定部の推定方法を示す図である。It is a figure which shows the estimation method of the estimation part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る検知部の構成を示す図である。It is a figure which shows the structure of the detection part which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る傷検知システムの処理フローを示す図である。It is a figure which shows the processing flow of the wound detection system which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る処理装置の構成を示す図である。It is a figure which shows the structure of the processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る傷検知システムの処理フローを示す図である。It is a figure which shows the processing flow of the flaw detection system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る推定部の推定方法を示す図である。It is a figure which shows the estimation method of the estimation part based on the 2nd Embodiment of this invention. 本発明の第3の実施形態に係る処理装置の構成を示す図である。It is a figure which shows the structure of the processing apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る傷検知システムの処理フローを示す図である。It is a figure which shows the processing flow of the flaw detection system which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る推定部の推定方法を示す図である。It is a figure which shows the estimation method of the estimation part which concerns on the 3rd Embodiment of this invention.

以下、本発明の実施形態について、図1から図12を用いて説明する。 An embodiment of the present invention will be described below with reference to FIGS. 1 to 12. FIG.

<第1の実施形態>
図1から図6を用いて、本実施形態に係る傷検知システム1について説明する。
<First embodiment>
A wound detection system 1 according to the present embodiment will be described with reference to FIGS. 1 to 6. FIG.

<傷検知システム1の構成>
図1に示すように、本実施形態に係る傷検知システム1は、車両VC内部に設けられる処理装置100と、マイク200A、200B、200C、200Dと、を含んで構成されている。
<Configuration of flaw detection system 1>
As shown in FIG. 1, the wound detection system 1 according to the present embodiment includes a processing device 100 provided inside a vehicle VC, and microphones 200A, 200B, 200C, and 200D.

処理装置100は、複数のマイク200A、200B、200C、200Dから入力した音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知するとともに、1のマイクの音声データから衝撃音データを検知した場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する。
なお、処理装置100の詳細な構成に関しては、後述する。
The processing device 100 performs machine learning using a learning model on audio data input from a plurality of microphones 200A, 200B, 200C, and 200D, detects impact sound data, and extracts audio data from one microphone. When the impact sound data is detected from the microphone, the area where the impact sound data is generated is estimated based on the audio data of all the microphones.
A detailed configuration of the processing device 100 will be described later.

マイク200A、200B、200C、200Dは、車両VCの走行時における音声データを集音する機器である。
マイク200A、200B、200C、200Dは、例えば、車両VC内部の四隅に配置され、各マイク200A、200B、200C、200Dが集音した音声データは、処理装置100に出力される。
また、各マイク200A、200B、200C、200DのON/OFF状態は、処理装置100により制御される。
マイク200A、200B、200C、200Dは、指向性を持ったものでもよいし、台座に載置され、回動するような形態であってもよい。
The microphones 200A, 200B, 200C, and 200D are devices that collect audio data while the vehicle VC is running.
The microphones 200A, 200B, 200C, and 200D are arranged, for example, at four corners inside the vehicle VC, and audio data collected by each of the microphones 200A, 200B, 200C, and 200D is output to the processing device 100.
Also, the ON/OFF state of each of the microphones 200A, 200B, 200C, and 200D is controlled by the processing device 100. FIG.
The microphones 200A, 200B, 200C, and 200D may have directivity, or may be placed on a pedestal and rotated.

<処理装置100の構成>
処理装置100は、図2に示されるように、音声データ情報入力部110と、記憶部120と、検知部130と、推定部140と、通信部150と、ネットワーク検出部160と、データ送受信部170と、を含んで構成されている。
<Configuration of processing device 100>
As shown in FIG. 2, the processing device 100 includes a voice data information input unit 110, a storage unit 120, a detection unit 130, an estimation unit 140, a communication unit 150, a network detection unit 160, and a data transmission/reception unit. 170 and .

音声データ情報入力部110は、マイク200A、200B、200C、200Dから得られる音声データを入力する。
音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を後述する記憶部120内の所定の記憶領域に、格納する。
Voice data information input unit 110 inputs voice data obtained from microphones 200A, 200B, 200C, and 200D.
The voice data information input unit 110 stores the voice data information attached to the voice data to which the time information from the clock unit (not shown) indicating the input time of the voice data information is input, in a predetermined storage area in the storage unit 120 to be described later. do.

記憶部120は、音声データ情報入力部110において入力された音声データをマイク200A、200B、200C、200Dごとに定められた格納エリアに格納する。
記憶部120は、図3に示すように、音声データ情報記憶領域1、音声データ情報記憶領域2、音声データ情報記憶領域3、音声データ情報記憶領域4、学習モデル記憶領域、正常音声データ記憶領域、衝撃音音声データ記憶領域、学習結果記憶領域等の様々な記憶領域を有している。
上記のマイク200A、200B、200C、200Dからの音声データ情報は、例えば、マイク200Aに関する情報が、音声データ情報記憶領域1に格納され、マイク200Bに関する情報が、音声データ情報記憶領域2に格納され、マイク200Cに関する情報が、音声データ情報記憶領域3に格納され、マイク200Dに関する情報が、音声データ情報記憶領域4に格納されている。
Storage unit 120 stores the audio data input by audio data information input unit 110 in storage areas determined for each of microphones 200A, 200B, 200C, and 200D.
As shown in FIG. 3, the storage unit 120 includes an audio data information storage area 1, an audio data information storage area 2, an audio data information storage area 3, an audio data information storage area 4, a learning model storage area, and a normal audio data storage area. , an impact sound audio data storage area, a learning result storage area, and the like.
As for the audio data information from the microphones 200A, 200B, 200C, and 200D, for example, information on the microphone 200A is stored in the audio data information storage area 1, and information on the microphone 200B is stored in the audio data information storage area 2. , information about the microphone 200C is stored in the audio data information storage area 3, and information about the microphone 200D is stored in the audio data information storage area 4. FIG.

検知部130は、記憶部120に格納された音声データ情報に対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する。
なお、検知部130において、機械学習に用いられる学習モデルは、例えば、後述するデータ送受信部170を介して、サーバ300から得られ、学習モデル記憶領域に格納された学習モデルが用いられる。
ここで、学習モデルは、車両の音声データを学習して得られた学習モデルであって、車両の車種ごとに異なっている。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
なお、乖離度は、機械学習の正答率によって、適宜、変更することも可能である。
また、検知部130は、音声データに対する学習結果と衝撃音データに対する学習結果とが予め定められた閾値以下の乖離度である場合に、音声データが衝撃音データであることを検知するようにしてもよい。
なお、検知部130の詳細な構成については、後述する。
The detection unit 130 detects impact sound data by executing machine learning using a learning model on the audio data information stored in the storage unit 120 .
Note that the learning model used for machine learning in the detection unit 130 is obtained from the server 300 via the data transmission/reception unit 170 described later, for example, and is stored in the learning model storage area.
Here, the learning model is a learning model obtained by learning voice data of a vehicle, and differs for each type of vehicle.
Specifically, the detection unit 130 detects that the sound data is impact sound data when the degree of divergence between the learning result for the sound data and the learning result for the sound data during normal running of the vehicle exceeds a predetermined threshold value. detect something.
It should be noted that the degree of divergence can be appropriately changed according to the correct answer rate of machine learning.
Further, the detection unit 130 detects that the audio data is impact sound data when the degree of divergence between the learning result for the audio data and the learning result for the impact sound data is equal to or less than a predetermined threshold value. good too.
A detailed configuration of the detection unit 130 will be described later.

学習モデルを生成するための学習データは、通常走行時における車両内部で観測可能な走行音はもちろんのこと、スクラップ工場などから入手した傷をつけても問題のない廃車を利用し、小石を複数の速度(例えば、20Km/h、40Km/h、60Km/h)を変化させて車両に衝突させた衝突音等も含む。
小石の衝突にはスリングショット等の道具を用い、スピードガンなどを用いて衝突時の速度を記録する。異常音の録音には通常時と同様に、小型のパーソナルコンピュータとマイクアレイを用いる。
なお、廃車は走行できる状態で入手できるとは限らないため、廃車が走行できない場合には、キズ発生音に以下で詳述するノイズが含まれていないため、任意に切り出した正常な走行音にキズ発生音を重畳して、擬似的な異常データとする。
走行音には、(1)路面状況や雨などの車室外で発生するノイズと、(2)乗員の声や使用機器類が発する音声等の車室内で発生するノイズが含まれる。これらのノイズの構成要素をまとめ、教師データとしてAIの学習データに加えることによって、キズ発生時の音を検知する精度の向上が見込める。
ここで、(1)車室外で発生するノイズについては、(i)路面とタイヤとの振動音、(ii)エンジン音、(iii)気象状況によるノイズの主に、3つが想定できる。
また、その他の車室外で発生するノイズについては、十分な量のデータを集めることによって、統計的に無視できる程度の影響度とすることができる。
路面とタイヤの振動音については、教師データとして タイヤの型番、タイヤの使用期間、タイヤ装着時からの走行距離、走行路面の路面種別等を教師データとする。
ここで、使用期間及び走行距離は必ずしも正確な値である必要はなく、例えば、1週間以内、1ヶ月以内、1年以内等の有限種類からなる離散的なデータとして与える。
また、路面種別は走行地点の路面がどのようなものかをカテゴリ変数として与える。カテゴリ変数は、例えば、アスファルト、土、砂利道等である。路面種別はアノテーションによってデータを作成する。
エンジン音については、エンジンの型番、車検からの経過月数等を教師データとして与える。なお、教師データとして エンジン回転量 を与えることも考えられる。
気象状況によるノイズについて、温度、雲度、過去1時間の降水量、前日の1時間平均降水量等を教師データとして与える。ここで、前日の降水量をデータに加えるのは、路面のぬかるみを考慮するためである。
車室内で発生するノイズについては、(i)乗員の会話、(ii)車載機器の使用によるノイズの主に、2つが想定できる。
また、その他の車室外で発生するノイズについては、十分な量のデータを集めることによって、統計的に無視できる程度の影響度とすることができる。
乗客の会話については、会話の有無をアノテーションとして与える。これは、会話していない場合を「0」、会話している場合を「1」とする2通りの値を持つカテゴリデータである。
車載機器のうち、オーディオ機器の使用については、音楽再生の有無をアノテーションとして与える。これは、会話していない場合を「0」、会話している場合を「1」とする2通りの値を持つカテゴリデータである。
また、車載機器のうち、空調機器の使用については、機器の作動の有無をアノテーションとして与える。これは、作動していない場合を「0」、作動している場合を「1」とする2通りの値を持つカテゴリデータである。
The learning data used to generate the learning model is obtained from not only the running sound that can be observed inside the vehicle during normal driving, but also scrap cars obtained from scrap factories that can be scratched without causing problems. (for example, 20 Km/h, 40 Km/h, 60 Km/h) and the collision sound of the vehicle is also included.
A tool such as a slingshot is used to collide with pebbles, and the speed at the time of collision is recorded using a speed gun. A small personal computer and a microphone array are used to record anomalous sounds in the same way as usual.
In addition, since it is not always possible to obtain a scrapped vehicle in a state where it can be driven, if the scrapped vehicle cannot be driven, the scratch generation sound does not contain the noise detailed below. Pseudo abnormal data is obtained by superimposing the scratch occurrence sound.
The running sound includes (1) noise generated outside the vehicle, such as road surface conditions and rain, and (2) noise generated inside the vehicle, such as voices of passengers and sounds emitted by devices used. By collecting these noise components and adding them to AI learning data as training data, it is expected that the accuracy of detecting the sound when a scratch occurs can be improved.
Here, (1) noise generated outside the vehicle can be mainly classified into three types: (i) vibration noise between the road surface and tires, (ii) engine noise, and (iii) noise due to weather conditions.
Further, by collecting a sufficient amount of data, noise generated outside the vehicle can be made statistically negligible.
Regarding the road surface and tire vibration noise, the model number of the tire, the period of use of the tire, the distance traveled since the tire was installed, and the road surface type are used as training data.
Here, the period of use and the mileage do not necessarily have to be exact values, and are given as discrete data of limited types, such as within a week, within a month, and within a year.
Also, the road surface type gives the type of road surface at the travel point as a categorical variable. Categorical variables are, for example, asphalt, dirt, gravel roads, and the like. Road surface type data is created by annotation.
For the engine sound, the model number of the engine, the number of months since the car inspection, etc. are given as training data. It is also conceivable to give the engine rotation amount as training data.
For noise due to weather conditions, temperature, cloudiness, rainfall in the past hour, hourly average rainfall on the previous day, etc. are provided as teaching data. Here, the reason why the amount of rainfall of the previous day is added to the data is to consider the muddy road surface.
There are mainly two types of noise generated in the passenger compartment: (i) passenger conversation, and (ii) noise caused by the use of in-vehicle equipment.
Further, by collecting a sufficient amount of data, noise generated outside the vehicle can be made statistically negligible.
Concerning the conversation of passengers, the presence or absence of conversation is given as an annotation. This is category data having two values, "0" when not speaking and "1" when speaking.
Regarding the use of audio equipment among in-vehicle equipment, the presence or absence of music playback is given as an annotation. This is category data having two values, "0" when not speaking and "1" when speaking.
In addition, regarding the use of air conditioners among the in-vehicle devices, the presence or absence of operation of the devices is given as an annotation. This is category data having two values, "0" when not operating and "1" when operating.

推定部140は、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する。
具体的には、推定部140は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイクの音声データの音量の違いから、衝撃音データの発生エリアを推定する。
図4を用いて、より詳細に説明すると、図4は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、マイク200B、マイク200Dの音声データの音量が、マイク200A、マイク200Cの音声データの音量よりも十分に大きい。
そのため、マイク200B、マイク200Dの音声データの音量によって、衝撃音データの発生エリアを推定する例を示している。
ここで、マイク200Bの音声データの音量とマイク200Dの音声データの音量との比が、3:2で、マイク200Bの音声データの音量が、マイク200Dの音声データの音量よりも1.5倍大きいとすると、衝撃音データの発生エリアまでの距離は、マイク200Dがマイク200Bよりも1.5倍長いということになる。
そのため、この比に相当する半径の円をマイク200Dおよびマイク200Bの中心から描き、この2つの円弧と車両のボディラインBDとが近接する箇所周辺を推定部140が、衝撃音データの発生エリアとして推定する。
When the detection unit 130 detects the impact sound data from the audio data of one microphone, the estimation unit 140 estimates the generation area of the impact sound data based on the audio data of all the microphones.
Specifically, when the detection unit 130 detects the impact sound data from the audio data of one microphone, the estimation unit 140 estimates the generation area of the impact sound data from the difference in volume of the audio data of each microphone. .
4, FIG. 4 shows that when the detection unit 130 detects impact sound data from the audio data of one microphone, the volume of the audio data of the microphones 200B and 200D changes to the volume of the microphone 200A. , is sufficiently larger than the volume of the audio data of the microphone 200C.
Therefore, an example of estimating the generation area of the impact sound data based on the sound volume of the audio data of the microphones 200B and 200D is shown.
Here, the ratio of the volume of the audio data of the microphone 200B to the volume of the audio data of the microphone 200D is 3:2, and the volume of the audio data of the microphone 200B is 1.5 times the volume of the audio data of the microphone 200D. If it is large, the distance to the impact sound data generating area is 1.5 times longer for the microphone 200D than for the microphone 200B.
Therefore, a circle having a radius corresponding to this ratio is drawn from the center of the microphone 200D and the microphone 200B, and the estimating unit 140 designates the vicinity of the location where these two arcs and the body line BD of the vehicle are close to each other as the impact sound data generation area. presume.

通信部150は、処理装置100の情報を外部装置に送信する。
ここで、通信部150より外部装置に送信される情報としては、衝撃音の発生時刻および衝撃音データの発生エリア等である。
通信部150は、後述するネットワーク検出部160が、所定のネットワークを検出した場合に、衝撃音の発生時刻および衝撃音データの発生エリア等のメッセージを外部装置に送信する。
The communication unit 150 transmits information on the processing device 100 to an external device.
Here, the information transmitted from the communication unit 150 to the external device includes the occurrence time of the impact sound, the area where the impact sound data is generated, and the like.
When the network detection unit 160, which will be described later, detects a predetermined network, the communication unit 150 transmits a message such as the time when the impact sound was generated and the area where the impact sound data was generated to the external device.

ネットワーク検出部160は、所定のネットワークを検出する。
ここで、所定のネットワークとは、Wi-Fi(登録商標)等を例示することができるが、ネットワークによらず、Bluetooth(登録商標)等の近距離無線を用いてもよい。
Network detection unit 160 detects a predetermined network.
Here, the predetermined network can be Wi-Fi (registered trademark) or the like, but short-range wireless communication such as Bluetooth (registered trademark) may be used regardless of the network.

データ送受信部170は、車両の走行中に取得した衝撃音データを含むデータをサーバ300に送信する。
なお、データ送受信部170がサーバ300に送信する情報には、正常音声データや学習結果等を含んでもよい。
The data transmission/reception unit 170 transmits data including impact sound data acquired while the vehicle is running to the server 300 .
The information that the data transmission/reception unit 170 transmits to the server 300 may include normal speech data, learning results, and the like.

<検知部130の構成>
検知部130は、図5に示すように、検出対象データセット131と、学習済みデータセット132と、機械学習部133と、を含んで構成されている。
<Configuration of detection unit 130>
The detection unit 130 includes a detection target data set 131, a learned data set 132, and a machine learning unit 133, as shown in FIG.

検出対象データセット131は、機械学習部133による深層学習に用いられる正例となるデータセットであり、記憶部120の音声データ情報記憶領域1、音声データ情報記憶領域2、音声データ情報記憶領域3、音声データ情報記憶領域4から読み込まれるデータ群が検出対象データセット131に格納される。 The detection target data set 131 is a positive example data set used for deep learning by the machine learning unit 133, and is stored in the audio data information storage area 1, the audio data information storage area 2, and the audio data information storage area 3 of the storage unit 120. , the data group read from the voice data information storage area 4 is stored in the detection object data set 131 .

学習済みデータセット132は、所謂、学習モデルであり、マイク200A、200B、200C、200Dから音声データに基づいて、予め学習されたデータセットであって、記憶部120の学習モデル記憶領域から読み込まれた学習モデルが、学習済みデータセット132に格納される。 The learned data set 132 is a so-called learning model, and is a data set that has been learned in advance based on the voice data from the microphones 200A, 200B, 200C, and 200D, and is read from the learning model storage area of the storage unit 120. The learned model is stored in the trained data set 132 .

機械学習部133は、音声データ情報入力部110に入力されるマイク200A、200B、200C、200Dから得られる音声データを入力データとして、学習済みデータセット132に格納された学習済みモデルを用いて、機械学習を実行する。
より具体的には、機械学習部133は、検出対象データセット131と、学習済みデータセット132との、例えば、類似度あるいは乖離度に対するスコアを算出する。
The machine learning unit 133 uses the voice data obtained from the microphones 200A, 200B, 200C, and 200D input to the voice data information input unit 110 as input data, and uses the trained model stored in the trained data set 132 to perform machine learning;
More specifically, the machine learning unit 133 calculates a score for, for example, similarity or deviation between the detection target data set 131 and the learned data set 132 .

<処理装置100の処理>
図6を用いて、本実施形態に係る処理装置100の処理について説明する。
<Processing of processing device 100>
The processing of the processing device 100 according to this embodiment will be described with reference to FIG.

処理装置100の音声データ情報入力部110は、所定の取得タイミングで、マイク200A、200B、200C、200Dから得られる音声データを入力する。
そして、音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を記憶部120内の所定の記憶領域に、格納する(ステップS110)。
The voice data information input unit 110 of the processing device 100 inputs voice data obtained from the microphones 200A, 200B, 200C, and 200D at predetermined acquisition timings.
Then, the audio data information input unit 110 stores the audio data information attached to the audio data to which the time information from the clock unit (not shown) indicating the input time of the audio data information is input, in a predetermined storage area in the storage unit 120. (step S110).

検知部130は、記憶部120に格納された音声データ情報に対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する(ステップS120)。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
The detection unit 130 performs machine learning using a learning model on the audio data information stored in the storage unit 120 to detect impact sound data (step S120).
Specifically, the detection unit 130 detects that the sound data is impact sound data when the degree of divergence between the learning result for the sound data and the learning result for the sound data during normal running of the vehicle exceeds a predetermined threshold value. detect something.

推定部140は、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する(ステップS130)。
具体的には、推定部140は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイクの音声データの音量の違いから、衝撃音データの発生エリアを推定する。
When the detection unit 130 detects the impact sound data from the audio data of one microphone, the estimation unit 140 estimates the generation area of the impact sound data based on the audio data of all the microphones (step S130). .
Specifically, when the detection unit 130 detects the impact sound data from the audio data of one microphone, the estimation unit 140 estimates the generation area of the impact sound data from the difference in volume of the audio data of each microphone. .

ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入ったか否かを検出する(ステップS140)。
そして、ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入っていないと判定した場合(ステップS140の「NO」)には、待機モードに移行する。
The network detection unit 160 detects whether or not the vehicle has entered the communication area of a predetermined network (step S140).
When the network detection unit 160 determines that the vehicle is not within the communication area of the predetermined network ("NO" in step S140), the network detection unit 160 shifts to the standby mode.

一方で、ネットワーク検出部160が、車両が所定のネットワークの通信領域内に入っていると判定した場合(ステップS140の「YES」)には、通信部150を介して、衝撃音の発生時刻および衝撃音データの発生エリア等のメッセージを外部装置に送信する(ステップS150)。 On the other hand, when network detection unit 160 determines that the vehicle is within the communication area of the predetermined network (“YES” in step S140), communication unit 150 transmits the time and A message such as an impact sound data generation area is transmitted to the external device (step S150).

そして、データ送受信部170は、車両の走行中に取得した衝撃音データを含むデータをサーバ300に送信して、処理を終了する(ステップS160)。 Then, the data transmission/reception unit 170 transmits data including impact sound data acquired while the vehicle is running to the server 300, and ends the process (step S160).

<作用・効果>
以上、説明したように、本実施形態に係る傷検知システム1における処理装置100は、複数のマイク200A、200B、200C、200Dから入力した音声データをマイク200A、200B、200C、200Dごとに定められた格納エリアに格納し、検知部130は、格納された音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する。
そのため、様々な条件によらず、的確に、車両における傷等の発生を素早く検知することができる。
<Action/effect>
As described above, the processing device 100 in the flaw detection system 1 according to the present embodiment determines audio data input from the plurality of microphones 200A, 200B, 200C, and 200D for each of the microphones 200A, 200B, 200C, and 200D. The detection unit 130 detects impact sound data by executing machine learning using a learning model on the stored audio data.
Therefore, regardless of various conditions, it is possible to accurately and quickly detect the occurrence of a scratch or the like on the vehicle.

また、本実施形態に係る傷検知システム1における処理装置100は、複数のマイク200A、200B、200C、200Dから入力した音声データをマイク200A、200B、200C、200Dごとに定められた格納エリアに格納し、推定部140は、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイク200A、200B、200C、200Dの音声データに基づいて、衝撃音データの発生エリアを推定する。
そのため、様々な条件によらず、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
In addition, the processing device 100 in the flaw detection system 1 according to the present embodiment stores audio data input from the plurality of microphones 200A, 200B, 200C, and 200D in storage areas determined for each of the microphones 200A, 200B, 200C, and 200D. Then, when the detection unit 130 detects the impact sound data from the audio data of one microphone, the estimation unit 140 determines the impact sound data based on the audio data of all the microphones 200A, 200B, 200C, and 200D. Estimate the area of occurrence.
Therefore, regardless of various conditions, it is possible to quickly identify the occurrence of a scratch or the like on the vehicle and the occurrence area.

また、本実施形態に係る傷検知システム1における処理装置100における学習モデルは、車両の音声データを学習して得られた学習モデルである。
つまり、本実施形態に係る学習モデルは、膨大な量の車両の通常走行時における音声データおよび傷等の発生時における衝撃音データを学習して得られた学習モデルである。
そのため、様々な条件によらず、的確に、車両における傷等の発生を素早く検知することができる。
Also, the learning model in the processing device 100 in the flaw detection system 1 according to the present embodiment is a learning model obtained by learning voice data of the vehicle.
That is, the learning model according to the present embodiment is a learning model obtained by learning a huge amount of voice data during normal running of the vehicle and impact sound data when a scratch or the like occurs.
Therefore, regardless of various conditions, it is possible to accurately and quickly detect the occurrence of a scratch or the like on the vehicle.

また、本実施形態に係る傷検知システム1における処理装置100において、学習モデルは、車両の車種ごとに異なる。
つまり、車両の車種によっては、車体を構成する素材や厚み、塗料の種別、車室空間の大きさ等が異なり、マイク200A、200B、200C、200Dで捉える通常走行時の音声データおよび衝撃音データに差が生ずる。
しかしながら、本実施形態における処理装置100においては、車両の車種ごとの学習モデルが準備されている。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
In addition, in the processing device 100 in the flaw detection system 1 according to the present embodiment, the learning model differs for each type of vehicle.
In other words, depending on the type of vehicle, the material and thickness of the vehicle body, the type of paint, the size of the vehicle interior space, etc., differ. difference occurs.
However, in the processing device 100 of the present embodiment, learning models are prepared for each type of vehicle.
Therefore, regardless of the type of vehicle, even under various conditions, it is possible to quickly identify the occurrence of a scratch or the like on the vehicle and the occurrence area.

また、本実施形態に係る傷検知システム1における処理装置100において、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
つまり、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とを比較して、そのスコアの乖離度が、予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
In addition, in the processing device 100 in the flaw detection system 1 according to the present embodiment, the detection unit 130 determines the degree of divergence between the learning result of the voice data and the learning result of the voice data during normal running of the vehicle exceeding a predetermined threshold. , it is detected that the audio data is impact sound data.
That is, the detection unit 130 compares the learning result of the voice data with the learning result of the voice data during normal running of the vehicle, and if the degree of deviation of the score exceeds a predetermined threshold, , detects that the audio data is impact sound data.
Therefore, regardless of the type of vehicle, even under various conditions, it is possible to quickly identify the occurrence of a scratch or the like on the vehicle and the occurrence area.

また、本実施形態に係る傷検知システム1における処理装置100において、推定部140は、検知部130が、1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データの音量の違いから、衝撃音データの発生エリアを推定する。
つまり、マイク200A、200B、200C、200Dで捉えた音声データの音量は、傷の発生エリアとの距離に比例して、音量の大きさが異なる。
この関係を利用すれば、各マイク200A、200B、200C、200Dの音声データの音量の違いを傷の発生エリアまでの距離に変換することにより、衝撃音データの発生エリアを推定することができる。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
In addition, in the processing device 100 in the flaw detection system 1 according to the present embodiment, the estimation unit 140 detects each microphone 200A, 200B, and 200C when the detection unit 130 detects impact sound data from voice data of one microphone. , 200D, the area where the impact sound data is generated is estimated.
That is, the volume of the audio data captured by the microphones 200A, 200B, 200C, and 200D varies in proportion to the distance from the scratched area.
Using this relationship, it is possible to estimate the impact sound data generation area by converting the difference in volume of the sound data of the microphones 200A, 200B, 200C, and 200D into the distance to the scratch generation area.
Therefore, regardless of the type of vehicle, even under various conditions, it is possible to quickly identify the occurrence of a scratch or the like on the vehicle and the occurrence area.

また、本実施形態に係る傷検知システム1における処理装置100においては、ネットワーク検出部160が、所定のネットワークを検出した場合に、通信部150が、車両のどのエリアに傷がついた可能性がある旨のメッセージを外部装置に送信する。
つまり、レンタカーであれば、レンタカーの帰庫前に、事業者に対して、車両のどのエリアに傷がついた可能性がある旨のメッセージが送信される。
そのため、事業者は、レンタカーの帰庫後、速やかに傷の有無を確認することが可能となり、責任の所在を明確にすることができる。
Further, in the processing device 100 in the wound detection system 1 according to the present embodiment, when the network detection unit 160 detects a predetermined network, the communication unit 150 determines which area of the vehicle may be damaged. A message to that effect is sent to the external device.
In other words, in the case of a rental car, before returning the rental car, a message is sent to the operator indicating which area of the vehicle may have been damaged.
Therefore, after returning the rental car, the operator can quickly check whether there is a scratch or not, and can clarify where responsibility lies.

また、本実施形態に係る傷検知システム1における処理装置100においては、データ送受信部170が、車両の走行中に取得した衝撃音データを含むデータをサーバ300に送信する。
そのため、サーバ300は、処理装置100から受信した車両の走行中に取得した衝撃音データを含むデータをも用いて、再学習することにより、学習モデルを最適化することができる。
In addition, in the processing device 100 in the wound detection system 1 according to the present embodiment, the data transmission/reception unit 170 transmits to the server 300 data including impact sound data acquired while the vehicle is running.
Therefore, the server 300 can optimize the learning model by re-learning using the data received from the processing device 100 and including the impact sound data acquired while the vehicle is running.

<変形例1>
本実施形態においては、4つのマイク200A、200B、200C、200Dを車両内に配置することを例示したが、マイクが2つ以上であれば、傷の発生エリアを特定することも可能である。
つまり、マイクの数が多い方が傷の発生エリアの特定精度は向上するが、ピンポイントで傷の発生箇所を特定するのではなく、傷の発生箇所が大体この辺りという程度の精度が許容されるのであれば、マイクの数を減らすことにより、システム全体のコストダウンを図ることができる。
<Modification 1>
In the present embodiment, four microphones 200A, 200B, 200C, and 200D are arranged in the vehicle as an example, but if there are two or more microphones, it is also possible to identify the scratched area.
In other words, the greater the number of microphones, the better the accuracy of identifying the scratched area. If so, the cost of the entire system can be reduced by reducing the number of microphones.

<変形例2>
本実施形態においては、理解を容易にするために、推定部140が、各マイク200A、200B、200C、200Dの音声データの音量の違いを傷の発生エリアまでの距離に変換し、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた円が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定する方法を示した。
しかしながら、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた球が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定するようにしてもよい。
このようにすることにより、3次元空間における傷の発生エリアを推定することができるため、傷の発生エリアの推定精度を高めることができる。
<Modification 2>
In this embodiment, in order to facilitate understanding, the estimating unit 140 converts the difference in the sound volume of the audio data of the microphones 200A, 200B, 200C, and 200D into the distance to the area where the scratch occurs, and converts each , as radii from the centers of the microphones 200A, 200B, 200C, and 200D.
However, it is also possible to estimate the scratch occurrence area from the vicinity of the body line BD of the vehicle and the intersection of the spheres drawn as radii from the centers of the microphones 200A, 200B, 200C, and 200D for each converted distance. .
By doing so, it is possible to estimate the scratch occurrence area in the three-dimensional space, so that the accuracy of estimating the scratch occurrence area can be improved.

<第2の実施形態>
図7から図9を用いて、本実施形態に係る傷検知システム1Aについて説明する。
<Second embodiment>
A wound detection system 1A according to the present embodiment will be described with reference to FIGS. 7 to 9. FIG.

<傷検知システム1Aの構成>
本実施形態に係る傷検知システム1Aは、車両VC内部に設けられ、処理装置100Aと、マイク200A、200B、200C、200Dと、を含んで構成されている。
<Configuration of flaw detection system 1A>
A wound detection system 1A according to the present embodiment is provided inside a vehicle VC and includes a processing device 100A and microphones 200A, 200B, 200C, and 200D.

処理装置100Aは、複数のマイク200A、200B、200C、200Dから入力した音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知するとともに、1のマイクの音声データから衝撃音データを検知した場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する。
本実施形態においては、特に、処理装置100Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、音声データの各マイクへの到達時間の違いから、衝撃音データの発生エリアを推定する。
The processing device 100A performs machine learning using a learning model on audio data input from a plurality of microphones 200A, 200B, 200C, and 200D, detects impact sound data, and extracts audio data from one microphone. When the impact sound data is detected from the microphone, the area where the impact sound data is generated is estimated based on the audio data of all the microphones.
In this embodiment, in particular, when the detection unit 130 detects impact sound data from the audio data of one microphone, the processing device 100A detects the impact sound data based on the difference in arrival time of the audio data to each microphone. Estimate the area of occurrence.

<処理装置100Aの構成>
処理装置100Aは、図7に示されるように、音声データ情報入力部110と、記憶部120と、検知部130と、推定部140Aと、通信部150と、ネットワーク検出部160と、データ送受信部170と、を含んで構成されている。
なお、第1の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は、省略する。
<Configuration of processing device 100A>
As shown in FIG. 7, the processing device 100A includes a voice data information input unit 110, a storage unit 120, a detection unit 130, an estimation unit 140A, a communication unit 150, a network detection unit 160, and a data transmission/reception unit. 170 and .
It should be noted that the components denoted by the same reference numerals as those of the first embodiment have the same functions, and detailed description thereof will be omitted.

推定部140Aは、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する。
具体的には、推定部140Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、音声データの各マイクへの到達時間の違いから、衝撃音データの発生エリアを推定する。
図8を用いて、より詳細に説明すると、図8は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、マイク200B、マイク200Dへの音声データの到達時間が、マイク200A、マイク200Cへの音声データの音量よりも十分に早い。
そのため、マイク200B、マイク200Dへの音声データの到達時間によって、衝撃音データの発生エリアを推定する例を示している。
ここで、マイク200Bへの音声データの到達時間とマイク200Dへの音声データの到達時間との比が、2:3で、マイク200Bへの音声データの到達時間が、マイク200Dへの音声データの到達時間よりも1.5倍早いとすると、衝撃音データの発生エリアまでの距離は、マイク200Dがマイク200Bよりも1.5倍長いということになる。
そのため、この比に相当する半径の円をマイク200Dおよびマイク200Bの中心から描き、この2つの円弧と車両のボディラインBDとが近接する箇所周辺を推定部140Aが、衝撃音データの発生エリアとして推定する。
When the detection unit 130 detects impact sound data from the audio data of one microphone, the estimation unit 140A estimates the generation area of the impact sound data based on the audio data of all the microphones.
Specifically, when detection unit 130 detects impact sound data from audio data of one microphone, estimating unit 140A determines the generation area of impact sound data based on the difference in arrival time of the audio data to each microphone. presume.
More specifically, with reference to FIG. 8, FIG. 8 shows that when the detection unit 130 detects impact sound data from the audio data of one microphone, the arrival time of the audio data to the microphones 200B and 200D is It is sufficiently faster than the volume of audio data to the microphones 200A and 200C.
Therefore, an example of estimating the generation area of the impact sound data based on the arrival time of the audio data to the microphones 200B and 200D is shown.
Here, the ratio of the arrival time of the audio data to the microphone 200B and the arrival time of the audio data to the microphone 200D is 2:3, and the arrival time of the audio data to the microphone 200B is the same as the arrival time of the audio data to the microphone 200D. Assuming that the arrival time is 1.5 times faster than the arrival time, the distance to the impact sound data generating area is 1.5 times longer for the microphone 200D than for the microphone 200B.
Therefore, a circle having a radius corresponding to this ratio is drawn from the center of the microphone 200D and the microphone 200B, and the estimating unit 140A designates the vicinity of the location where the two arcs and the body line BD of the vehicle are close to each other as the impact sound data generation area. presume.

<処理装置100Aの処理>
図9を用いて、本実施形態に係る処理装置100Aの処理について説明する。
<Processing of processing device 100A>
The processing of the processing device 100A according to this embodiment will be described with reference to FIG.

処理装置100Aの音声データ情報入力部110は、所定の取得タイミングで、マイク200A、200B、200C、200Dから得られる音声データを入力する。
そして、音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を記憶部120内の所定の記憶領域に、格納する(ステップS110)。
The audio data information input unit 110 of the processing device 100A inputs audio data obtained from the microphones 200A, 200B, 200C, and 200D at predetermined acquisition timings.
Then, the audio data information input unit 110 stores the audio data information attached to the audio data to which the time information from the clock unit (not shown) indicating the input time of the audio data information is input, in a predetermined storage area in the storage unit 120. (step S110).

検知部130は、記憶部120に格納された音声データ情報に対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する(ステップS120)。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
The detection unit 130 performs machine learning using a learning model on the audio data information stored in the storage unit 120 to detect impact sound data (step S120).
Specifically, the detection unit 130 detects that the sound data is impact sound data when the degree of divergence between the learning result for the sound data and the learning result for the sound data during normal running of the vehicle exceeds a predetermined threshold value. detect something.

推定部140Aは、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する(ステップS210)。
具体的には、推定部140Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイクへの音声データの到達時間の違いから、衝撃音データの発生エリアを推定する。
When the detection unit 130 detects the impact sound data from the audio data of one microphone, the estimation unit 140A estimates the generation area of the impact sound data based on the audio data of all the microphones (step S210). .
Specifically, when detection unit 130 detects impact sound data from audio data of one microphone, estimating unit 140A determines the generation area of impact sound data based on the difference in arrival time of the audio data to each microphone. presume.

ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入ったか否かを検出する(ステップS140)。
そして、ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入っていないと判定した場合(ステップS140の「NO」)には、待機モードに移行する。
The network detection unit 160 detects whether or not the vehicle has entered the communication area of a predetermined network (step S140).
When the network detection unit 160 determines that the vehicle is not within the communication area of the predetermined network ("NO" in step S140), the network detection unit 160 shifts to the standby mode.

一方で、ネットワーク検出部160が、車両が所定のネットワークの通信領域内に入っていると判定した場合(ステップS140の「YES」)には、通信部150を介して、衝撃音の発生時刻および衝撃音データの発生エリア等のメッセージを外部装置に送信する(ステップS150)。 On the other hand, when network detection unit 160 determines that the vehicle is within the communication area of the predetermined network (“YES” in step S140), communication unit 150 transmits the time and A message such as an impact sound data generation area is transmitted to the external device (step S150).

そして、データ送受信部170は、車両の走行中に取得した衝撃音データを含むデータをサーバ300に送信して、処理を終了する(ステップS160)。 Then, the data transmission/reception unit 170 transmits data including impact sound data acquired while the vehicle is running to the server 300, and ends the process (step S160).

<作用・効果>
以上、説明したように、本実施形態に係る傷検知システム1における処理装置100Aの推定部140Aは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、音声データの各マイクへの到達時間の違いから、衝撃音データの発生エリアを推定する。
つまり、マイク200A、200B、200C、200Dへの音声データの到達時間は、傷の発生エリアとの距離に比例して、到達時間が異なる。
この関係を利用すれば、各マイク200A、200B、200C、200Dへの音声データの到達時間の違いを傷の発生エリアまでの距離に変換することにより、衝撃音データの発生エリアを推定することができる。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
<Action/effect>
As described above, the estimating unit 140A of the processing device 100A in the flaw detection system 1 according to the present embodiment, when the detecting unit 130 detects impulsive sound data from the audio data of the microphone 1, Based on the difference in arrival time to the microphone, the area where the impact sound data is generated is estimated.
In other words, the arrival time of the audio data to the microphones 200A, 200B, 200C, and 200D differs in proportion to the distance from the scratched area.
By using this relationship, the impact sound data generation area can be estimated by converting the difference in arrival time of the sound data to each of the microphones 200A, 200B, 200C, and 200D into the distance to the scratch generation area. can.
Therefore, regardless of the type of vehicle, even under various conditions, it is possible to quickly identify the occurrence of a scratch or the like on the vehicle and the occurrence area.

<変形例3>
本実施形態においては、理解を容易にするために、推定部140Aが、各マイク200A、200B、200C、200Dの音声データの音量の違いを傷の発生エリアまでの距離に変換し、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた円が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定する方法を示した。
しかしながら、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた球が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定するようにしてもよい。
このようにすることにより、3次元空間における傷の発生エリアを推定することができるため、傷の発生エリアの推定精度を高めることができる。
<Modification 3>
In this embodiment, in order to facilitate understanding, the estimation unit 140A converts the difference in sound volume of the audio data of the microphones 200A, 200B, 200C, and 200D into the distance to the scratch occurrence area, and converts each , as radii from the centers of the microphones 200A, 200B, 200C, and 200D.
However, it is also possible to estimate the scratch occurrence area from the vicinity of the body line BD of the vehicle and the intersection of the spheres drawn as radii from the centers of the microphones 200A, 200B, 200C, and 200D for each converted distance. .
By doing so, it is possible to estimate the scratch occurrence area in the three-dimensional space, so that the accuracy of estimating the scratch occurrence area can be improved.

<第3の実施形態>
図10から図12を用いて、本実施形態に係る傷検知システム1Bについて説明する。
<Third Embodiment>
A wound detection system 1B according to the present embodiment will be described with reference to FIGS. 10 to 12. FIG.

<傷検知システム1Bの構成>
本実施形態に係る傷検知システム1Bは、車両VC内部に設けられ、処理装置100Bと、マイク200A、200B、200C、200Dと、を含んで構成されている。
<Configuration of flaw detection system 1B>
A wound detection system 1B according to the present embodiment is provided inside a vehicle VC, and includes a processing device 100B and microphones 200A, 200B, 200C, and 200D.

処理装置100Bは、複数のマイク200A、200B、200C、200Dから入力した音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知するとともに、1のマイクの音声データから衝撃音データを検知した場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する。
本実施形態においては、特に、処理装置100Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
The processing device 100B performs machine learning using a learning model on audio data input from a plurality of microphones 200A, 200B, 200C, and 200D, detects impact sound data, and extracts audio data from one microphone. When the impact sound data is detected from the microphone, the area where the impact sound data is generated is estimated based on the audio data of all the microphones.
In the present embodiment, in particular, when the detection unit 130 detects impact sound data from the audio data of one microphone, the processing device 100B detects the deviation of the learning result for the audio data of each of the microphones 200A, 200B, 200C, and 200D. Based on the difference in intensity, the area where the impact sound data is generated is estimated.

<処理装置100Bの構成>
処理装置100Bは、図10に示されるように、音声データ情報入力部110と、記憶部120と、検知部130と、推定部140Bと、通信部150と、ネットワーク検出部160と、データ送受信部170と、を含んで構成されている。
なお、第1の実施形態および第2の実施形態と同一の符号を付す構成要素については、同様の機能を有することから、その詳細な説明は、省略する。
<Configuration of processing device 100B>
As shown in FIG. 10, the processing device 100B includes an audio data information input unit 110, a storage unit 120, a detection unit 130, an estimation unit 140B, a communication unit 150, a network detection unit 160, and a data transmission/reception unit. 170 and .
It should be noted that the components denoted by the same reference numerals as in the first embodiment and the second embodiment have the same functions, and detailed description thereof will be omitted.

推定部140Bは、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する。
具体的には、推定部140Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
図11を用いて、より詳細に説明すると、図11は、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、マイク200B、マイク200Dの音声データに対する学習結果の乖離度が、マイク200A、マイク200Cの音声データに対する学習結果の乖離度よりも十分に少ない。
そのため、マイク200B、マイク200Dの音声データに対する学習結果の乖離度によって、衝撃音データの発生エリアを推定する例を示している。
ここで、マイク200Bの音声データに対する学習結果の乖離度とマイク200Dの音声データに対する学習結果の乖離度との比が、2:3で、マイク200Bの音声データに対する学習結果の乖離度が、マイク200Dの音声データに対する学習結果の乖離度よりも1.5倍少ないとすると、衝撃音データの発生エリアまでの距離は、マイク200Dがマイク200Bよりも1.5倍長いということになる。
そのため、この比に相当する半径の円をマイク200Dおよびマイク200Bの中心から描き、この2つの円弧と車両のボディラインBDとが近接する箇所周辺を推定部140Aが、衝撃音データの発生エリアとして推定する。
When the detection unit 130 detects the impact sound data from the audio data of one microphone, the estimation unit 140B estimates the generation area of the impact sound data based on the audio data of all the microphones.
Specifically, when the detection unit 130 detects the impact sound data from the sound data of one microphone, the estimation unit 140B determines the difference in the degree of divergence between the learning results for the sound data of each of the microphones 200A, 200B, 200C, and 200D. , the area where the impact sound data is generated is estimated.
More specifically, with reference to FIG. 11, FIG. 11 shows the degree of divergence of the learning result for the audio data of the microphones 200B and 200D when the detection unit 130 detects impact sound data from the audio data of one microphone. is sufficiently smaller than the degree of divergence of the learning results for the voice data of the microphones 200A and 200C.
Therefore, an example of estimating the generation area of impact sound data based on the degree of divergence of the learning results for the voice data of the microphones 200B and 200D is shown.
Here, the ratio of the deviation of the learning result with respect to the voice data of the microphone 200B and the deviation of the learning result with respect to the voice data of the microphone 200D is 2:3, and the deviation of the learning result with respect to the voice data of the microphone 200B is 2:3. If it is 1.5 times smaller than the deviation of the learning result for the sound data of 200D, the distance to the impact sound data generating area is 1.5 times longer for the microphone 200D than for the microphone 200B.
Therefore, a circle having a radius corresponding to this ratio is drawn from the center of the microphone 200D and the microphone 200B, and the estimating unit 140A designates the vicinity of the location where the two arcs and the body line BD of the vehicle are close to each other as the impact sound data generation area. presume.

<処理装置100Bの処理>
図12を用いて、本実施形態に係る処理装置100Bの処理について説明する。
<Processing of processing device 100B>
The processing of the processing device 100B according to this embodiment will be described with reference to FIG.

処理装置100Bの音声データ情報入力部110は、所定の取得タイミングで、マイク200A、200B、200C、200Dから得られる音声データを入力する。
そして、音声データ情報入力部110は、音声データ情報の入力時刻を示す図示しない計時部からの時刻情報を入力した音声データに付した音声データ情報を記憶部120内の所定の記憶領域に、格納する(ステップS110)。
The audio data information input unit 110 of the processing device 100B inputs audio data obtained from the microphones 200A, 200B, 200C, and 200D at predetermined acquisition timings.
Then, the audio data information input unit 110 stores the audio data information attached to the audio data to which the time information from the clock unit (not shown) indicating the input time of the audio data information is input, in a predetermined storage area in the storage unit 120. (step S110).

検知部130は、記憶部120に格納された音声データ情報に対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する(ステップS120)。
具体的には、検知部130は、音声データに対する学習結果と車両の通常走行時の音声データに対する学習結果とが予め定められた閾値を超える乖離度である場合に、音声データが衝撃音データであることを検知する。
The detection unit 130 performs machine learning using a learning model on the audio data information stored in the storage unit 120 to detect impact sound data (step S120).
Specifically, the detection unit 130 detects that the sound data is impact sound data when the degree of divergence between the learning result for the sound data and the learning result for the sound data during normal running of the vehicle exceeds a predetermined threshold value. detect something.

推定部140Bは、検知部130において、1のマイクの音声データから衝撃音データが検知された場合に、すべてのマイクの音声データに基づいて、衝撃音データの発生エリアを推定する(ステップS210)。
具体的には、推定部140Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
When the detection unit 130 detects impact sound data from the audio data of one microphone, the estimation unit 140B estimates the generation area of the impact sound data based on the audio data of all the microphones (step S210). .
Specifically, when the detection unit 130 detects the impact sound data from the sound data of one microphone, the estimation unit 140B determines the difference in the degree of divergence between the learning results for the sound data of each of the microphones 200A, 200B, 200C, and 200D. , the area where the impact sound data is generated is estimated.

ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入ったか否かを検出する(ステップS140)。
そして、ネットワーク検出部160は、車両が所定のネットワークの通信領域内に入っていないと判定した場合(ステップS140の「NO」)には、待機モードに移行する。
The network detection unit 160 detects whether or not the vehicle has entered the communication area of a predetermined network (step S140).
When the network detection unit 160 determines that the vehicle is not within the communication area of the predetermined network ("NO" in step S140), the network detection unit 160 shifts to the standby mode.

一方で、ネットワーク検出部160が、車両が所定のネットワークの通信領域内に入っていると判定した場合(ステップS140の「YES」)には、通信部150を介して、衝撃音の発生時刻および衝撃音データの発生エリア等のメッセージを外部装置に送信する(ステップS150)。 On the other hand, when network detection unit 160 determines that the vehicle is within the communication area of the predetermined network (“YES” in step S140), communication unit 150 transmits the time and A message such as an impact sound data generation area is transmitted to the external device (step S150).

そして、データ送受信部170は、車両の走行中に取得した衝撃音データを含むデータをサーバ300に送信して、処理を終了する(ステップS160)。 Then, the data transmission/reception unit 170 transmits data including impact sound data acquired while the vehicle is running to the server 300, and ends the process (step S160).

<作用・効果>
以上、説明したように、本実施形態に係る傷検知システム1における処理装置100Bの推定部140Bは、検知部130が1のマイクの音声データから衝撃音データを検知した場合に、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いから、衝撃音データの発生エリアを推定する。
つまり、マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度は、傷の発生エリアとの距離に比例して、学習結果の乖離度が異なる。
この関係を利用すれば、各マイク200A、200B、200C、200Dへの音声データに対する学習結果の乖離度の違いを傷の発生エリアまでの距離に変換することにより、衝撃音データの発生エリアを推定することができる。
そのため、車両の車種によらず、様々な条件においても、的確に、車両における傷等の発生と発生エリアとを速やかに特定することができる。
<Action/effect>
As described above, the estimating unit 140B of the processing device 100B in the flaw detection system 1 according to the present embodiment, when the detecting unit 130 detects impulsive sound data from voice data of one microphone, Based on the difference in the degree of divergence between the learning results for the audio data 200B, 200C, and 200D, the generation area of the impact sound data is estimated.
In other words, the degree of divergence of the learning results for the audio data of the microphones 200A, 200B, 200C, and 200D differs in proportion to the distance from the scratch occurrence area.
Using this relationship, the area where the impact sound data is generated can be estimated by converting the difference in the degree of divergence of the learning results for the audio data to each of the microphones 200A, 200B, 200C, and 200D into the distance to the area where the damage is generated. can do.
Therefore, regardless of the type of vehicle, even under various conditions, it is possible to quickly identify the occurrence of a scratch or the like on the vehicle and the occurrence area.

<変形例4>
本実施形態においては、理解を容易にするために、推定部140Bが、各マイク200A、200B、200C、200Dの音声データに対する学習結果の乖離度の違いを傷の発生エリアまでの距離に変換し、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた円が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定する方法を示した。
しかしながら、変換したそれぞれの距離をそれぞれのマイク200A、200B、200C、200Dの中心から半径として描いた球が交わる箇所と車両のボディラインBDの近傍から傷の発生エリアを推定するようにしてもよい。
このようにすることにより、3次元空間における傷の発生エリアを推定することができるため、傷の発生エリアの推定精度を高めることができる。
<Modification 4>
In this embodiment, in order to facilitate understanding, the estimating unit 140B converts the difference in the degree of divergence between the learning results for the audio data of the microphones 200A, 200B, 200C, and 200D into the distance to the area where the flaw occurs. , a method of estimating a scratch occurrence area from the intersection of circles drawn as radii from the centers of the microphones 200A, 200B, 200C, and 200D for each converted distance and the vicinity of the body line BD of the vehicle.
However, it is also possible to estimate the scratch occurrence area from the vicinity of the body line BD of the vehicle and the intersection of the spheres drawn as radii from the centers of the microphones 200A, 200B, 200C, and 200D for each converted distance. .
By doing so, it is possible to estimate the scratch occurrence area in the three-dimensional space, so that the accuracy of estimating the scratch occurrence area can be improved.

なお、処理装置100、100A、100Bの処理をコンピュータシステムが読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムを処理装置100、100A、100Bに読み込ませ、実行することによって本発明の傷検知システム1、1A、1Bを実現することができる。ここでいうコンピュータシステムとは、OSや周辺装置等のハードウェアを含む。 The processing of the processing devices 100, 100A, and 100B is recorded in a recording medium readable by a computer system, and the program recorded in the recording medium is read and executed by the processing devices 100, 100A, and 100B. can be realized. The computer system here includes hardware such as an OS and peripheral devices.

また、「コンピュータシステム」は、WWW(World Wide Web)システムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。 Also, the "computer system" includes a home page providing environment (or display environment) if the WWW (World Wide Web) system is used. Further, the above program may be transmitted from a computer system storing this program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in a transmission medium. Here, the "transmission medium" for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.

また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the program may be for realizing part of the functions described above. Further, it may be a so-called difference file (difference program) that can realize the above-described functions in combination with a program already recorded in the computer system.

以上、この発明の実施形態につき、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。 Although the embodiment of the present invention has been described in detail with reference to the drawings, the specific configuration is not limited to this embodiment, and includes design within the scope of the gist of the present invention.

1;傷検知システム
1A;傷検知システム
1B;傷検知システム
100;処理装置
100A;処理装置
100B;処理装置
110;音声データ情報入力部
120;記憶部
130;検知部
140;推定部
140A;推定部
140B;推定部
150;通信部
160;ネットワーク検出部
170;データ送受信部
200A;マイク
200B;マイク
200C;マイク
200D;マイク
300;サーバ
1; wound detection system 1A; wound detection system 1B; wound detection system 100; processing device 100A; processing device 100B; processing device 110; communication unit 160; network detection unit 170; data transmission/reception unit 200A; microphone 200B; microphone 200C; microphone 200D;

Claims (10)

車両の内部に設けられた処理装置と、少なくとも複数のマイクと、からなる車両の傷検知システムであって、
前記処理装置は、
前記複数のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する記憶部と、
前記記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する検知部と、
前記検知部において、1の前記マイクの前記音声データから前記衝撃音データが検知された場合に、すべてのマイクの前記音声データに基づいて、前記衝撃音データの発生エリアを推定する推定部と、
を備え
前記学習モデルは、通常走行時における車両内部で観測可能な走行音データと、通常走行時における路面状況や雨などの車室外で発生するノイズや乗員の声、使用機器類が発する音声等の車室内で発生するノイズを含む車両内部で観測可能な走行音に小石を複数の速度に変化させて車両に衝突させたキズ発生音を重畳させた前記衝撃音データと、を教師データとする学習データにより生成されることを特徴とする傷検知システム。
A flaw detection system for a vehicle, comprising: a processor provided inside the vehicle; and at least a plurality of microphones,
The processing device is
a storage unit that stores audio data input from the plurality of microphones in a storage area determined for each microphone;
a detection unit that performs machine learning using a learning model on the audio data stored in the storage unit to detect impact sound data;
an estimating unit for estimating a generation area of the impact sound data based on the audio data of all the microphones when the impact sound data is detected from the audio data of one of the microphones in the detection unit;
with
The learning model is based on the driving sound data that can be observed inside the vehicle during normal driving, the noise generated outside the vehicle such as road conditions and rain during normal driving, the voice of the passenger, and the voice emitted by the equipment used. Learning data that uses the impact sound data obtained by superimposing the sound of scratches caused by colliding small pebbles with a plurality of speeds on the vehicle on the running sound that can be observed inside the vehicle, including the noise generated in the room, and the impact sound data as teacher data. A wound detection system characterized by being generated by .
前記学習モデルは、前記車両の車種ごとに異なることを特徴とする請求項に記載の傷検知システム。 2. The flaw detection system according to claim 1 , wherein the learning model differs for each model of the vehicle. 前記検知部は、前記音声データに対する学習結果と前記車両の通常走行時の前記音声データに対する前記学習結果とが予め定められた閾値を超える乖離度である場合に、前記音声データが前記衝撃音データであることを検知することを特徴とする請求項1からのいずれか1項に記載の傷検知システム。 When the degree of divergence between the learning result for the sound data and the learning result for the sound data during normal running of the vehicle exceeds a predetermined threshold, the detection unit detects that the sound data is the impact sound data. 3. The flaw detection system according to any one of claims 1 and 2 , wherein the flaw detection system detects that 前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、各マイクの前記音声データの音量の違いから、前記衝撃音データの発生エリアを推定することを特徴とする請求項1からのいずれか1項に記載の傷検知システム。 The estimating unit estimates a generation area of the impact sound data from a difference in volume of the audio data of each microphone when the detection unit detects the impact sound data from the audio data of the one microphone. 4. The flaw detection system according to any one of claims 1 to 3 , wherein: 前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、前記音声データの各マイクへの到達時間の違いから、前記衝撃音データの前記発生エリアを推定することを特徴とする請求項1からのいずれか1項に記載の傷検知システム。 When the detection unit detects the impact sound data from the audio data of the one microphone, the estimating unit determines the generation of the impact sound data from the difference in arrival time of the audio data to each microphone. 4. The flaw detection system according to any one of claims 1 to 3 , wherein an area is estimated. 前記推定部は、前記検知部が前記1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、各マイクの前記音声データに対する前記学習結果の乖離度の違いから、前記衝撃音データの前記発生エリアを推定することを特徴とする請求項に記載の傷検知システム。 When the detecting unit detects the impact sound data from the audio data of the one microphone, the estimating unit calculates the impact sound data from the difference in the degree of divergence of the learning result with respect to the audio data of each microphone. 4. The flaw detection system according to claim 3 , wherein the area of occurrence of . 前記処理装置が外部装置に情報を送信する通信部と、
所定のネットワークを検出するネットワーク検出部と、
を備え、
前記ネットワーク検出部が、前記所定のネットワークを検出した場合に、前記通信部が、前記車両のどのエリアに傷がついた可能性がある旨のメッセージを前記外部装置に送信することを特徴とする請求項1からのいずれか1項に記載の傷検知システム。
a communication unit in which the processing device transmits information to an external device;
a network detection unit that detects a predetermined network;
with
When the network detection unit detects the predetermined network, the communication unit transmits a message to the external device indicating which area of the vehicle may have been damaged. The wound detection system according to any one of claims 1 to 6 .
サーバを含み、
前記車両の走行中に取得した前記衝撃音データを含むデータを前記サーバに送信する請求項1からのいずれか1項に記載の傷検知システム。
including a server,
The wound detection system according to any one of claims 1 to 7 , wherein data including the impact sound data acquired while the vehicle is running is transmitted to the server.
車両の内部に設けられた処理装置と少なくとも3つ以上のマイクとからなる傷検知システムにおける傷検知方法であって、
前記処理装置が、前記少なくとも3つ以上のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する第1の工程と、
前記処理装置が、記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する第2の工程と、
前記処理装置が、1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、すべてのマイクの前記音声データに基づいて、衝撃音データの発生エリアを推定する第3の工程と、
を備え
前記学習モデルは、通常走行時における車両内部で観測可能な走行音データと、通常走行時における路面状況や雨などの車室外で発生するノイズと、乗員の声や使用機器類が発する音声等の車室内で発生するノイズを含む車両内部で観測可能な走行音に小石を複数の速度に変化させて車両に衝突させたキズ発生音を重畳させた前記衝撃音データを教師データとする学習データにより生成されることを特徴とする傷検知方法。
A flaw detection method in a flaw detection system comprising a processor provided inside a vehicle and at least three or more microphones,
a first step in which the processing device stores the audio data input from the at least three or more microphones in a storage area determined for each microphone;
a second step in which the processing device performs machine learning using a learning model on the audio data stored in the storage unit to detect impact sound data;
a third step of estimating a generation area of the impact sound data based on the audio data of all the microphones when the processing device detects the impact sound data from the audio data of one of the microphones;
with
The learning model is based on sound data that can be observed inside the vehicle during normal driving, noise generated outside the vehicle such as road conditions and rain during normal driving, voices of passengers and sounds emitted by equipment used, etc. Learning data using the impact sound data obtained by superimposing the sound of scratches caused by colliding small pebbles with a plurality of speeds on the vehicle on the running sound that can be observed inside the vehicle, including the noise generated in the vehicle, as teacher data. A flaw detection method characterized by :
車両の内部に設けられた処理装置と少なくとも3つ以上のマイクとからなる傷検知システムにおける傷検知方法をコンピュータに実行させるためのプログラムであって、
前記処理装置が、前記少なくとも3つ以上のマイクから入力した音声データをマイクごとに定められた格納エリアに格納する第1の工程と、
前記処理装置が、記憶部に格納された前記音声データに対して、学習モデルを用いた機械学習を実行して、衝撃音データを検知する第2の工程と、
前記処理装置が、1の前記マイクの前記音声データから前記衝撃音データを検知した場合に、すべてのマイクの前記音声データに基づいて、衝撃音データの発生エリアを推定する第3の工程と、
を備え、
前記学習モデルは、通常走行時における車両内部で観測可能な走行音データと、通常走行時における路面状況や雨などの車室外で発生するノイズと、乗員の声や使用機器類が発する音声等の車室内で発生するノイズを含む車両内部で観測可能な走行音に小石を複数の速度に変化させて車両に衝突させたキズ発生音を重畳させた前記衝撃音データを教師データとする学習データにより生成されることを特徴とする傷検知方法をコンピュータに実行させるためのプログラム。
A program for causing a computer to execute a flaw detection method in a flaw detection system comprising a processor provided inside a vehicle and at least three or more microphones,
a first step in which the processing device stores the audio data input from the at least three or more microphones in a storage area determined for each microphone;
a second step in which the processing device performs machine learning using a learning model on the audio data stored in the storage unit to detect impact sound data;
a third step of estimating a generation area of the impact sound data based on the audio data of all the microphones when the processing device detects the impact sound data from the audio data of one of the microphones;
with
The learning model is based on sound data that can be observed inside the vehicle during normal driving, noise generated outside the vehicle such as road conditions and rain during normal driving, voices of passengers and sounds emitted by equipment used, etc. Learning data using the impact sound data obtained by superimposing the sound of scratches caused by colliding small pebbles with a plurality of speeds on the vehicle on the running sound that can be observed inside the vehicle, including the noise generated in the vehicle, as teacher data. A program for causing a computer to execute a wound detection method characterized by being generated .
JP2022043742A 2022-03-18 2022-03-18 Wound detection system, wound detection method and program Active JP7156741B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022043742A JP7156741B1 (en) 2022-03-18 2022-03-18 Wound detection system, wound detection method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022043742A JP7156741B1 (en) 2022-03-18 2022-03-18 Wound detection system, wound detection method and program

Publications (2)

Publication Number Publication Date
JP7156741B1 true JP7156741B1 (en) 2022-10-19
JP2023137503A JP2023137503A (en) 2023-09-29

Family

ID=83688435

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022043742A Active JP7156741B1 (en) 2022-03-18 2022-03-18 Wound detection system, wound detection method and program

Country Status (1)

Country Link
JP (1) JP7156741B1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299473A (en) 2003-03-28 2004-10-28 Mazda Motor Corp Remote damage diagnosis system and its control method and vehicle
JP2006023208A (en) 2004-07-08 2006-01-26 Fuji Heavy Ind Ltd Abnormality detection device of car body
JP2017117492A (en) 2017-03-13 2017-06-29 株式会社日立製作所 Watching system
JP2021001872A (en) 2019-05-08 2021-01-07 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method and device for detecting damage to motor vehicle
US20210048449A1 (en) 2019-08-13 2021-02-18 Hyundai Motor Company Impact detection system for vehicle and impact detection system method therefor
CN112484845A (en) 2020-12-11 2021-03-12 湖北亿咖通科技有限公司 Vibration source searching method and vibration source testing equipment
US20210086763A1 (en) 2019-09-24 2021-03-25 Volvo Car Corporation Low-impact collision detection

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004299473A (en) 2003-03-28 2004-10-28 Mazda Motor Corp Remote damage diagnosis system and its control method and vehicle
JP2006023208A (en) 2004-07-08 2006-01-26 Fuji Heavy Ind Ltd Abnormality detection device of car body
JP2017117492A (en) 2017-03-13 2017-06-29 株式会社日立製作所 Watching system
JP2021001872A (en) 2019-05-08 2021-01-07 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツングRobert Bosch Gmbh Method and device for detecting damage to motor vehicle
US20210048449A1 (en) 2019-08-13 2021-02-18 Hyundai Motor Company Impact detection system for vehicle and impact detection system method therefor
US20210086763A1 (en) 2019-09-24 2021-03-25 Volvo Car Corporation Low-impact collision detection
CN112484845A (en) 2020-12-11 2021-03-12 湖北亿咖通科技有限公司 Vibration source searching method and vibration source testing equipment

Also Published As

Publication number Publication date
JP2023137503A (en) 2023-09-29

Similar Documents

Publication Publication Date Title
US11214266B2 (en) Vehicle telematics based driving assessment
JP4352790B2 (en) Acoustic model creation method, speech recognition device, and vehicle having speech recognition device
US11043044B2 (en) Systems and methods for vehicle condition inspection for shared vehicles
US11348175B1 (en) Total loss evaluation and handling system and method
JP5434912B2 (en) Driving state determination method, driving state determination system and program
CN107458383A (en) Use the vehicle trouble automatic detection of audio signal
CN110341620B (en) Vehicle prognosis and remedial response
CN107767697A (en) For handling traffic sounds data to provide the system and method for driver assistance
CN102120455A (en) Vehicle maintenance advisor system and vehicle maintenance advisor method
CN105966405A (en) Driver distraction detection system
CN105844211A (en) System and method for classifying a road surface
US11437056B1 (en) Vehicle sound analysis
US20150019069A1 (en) Reverse event signature for identifying hit and run vehicles
CN108627349B (en) Method and mobile device for detecting a particular operating state of a motor vehicle
US11044566B2 (en) Vehicle external speaker system
US11830077B1 (en) Vehicle damage estimation
US20200365140A1 (en) Detection of anomalies in the interior of an autonomous vehicle
JP2009113659A (en) Vehicular noise cancellation device
CN110767215A (en) Method and device for training voice recognition model and recognizing voice
US10757248B1 (en) Identifying location of mobile phones in a vehicle
JP7156741B1 (en) Wound detection system, wound detection method and program
Pepe et al. Detecting road surface wetness using microphones and convolutional neural networks
CN112308723A (en) Vehicle detection method and system
WO2021075277A1 (en) Information processing device, method, and program
US20150362324A1 (en) Navigation system with route optimization mechanism and method of operation thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220318

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220320

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220607

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220822

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220929

R150 Certificate of patent or registration of utility model

Ref document number: 7156741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150