JP7459866B2 - 記録システム、及び、記録方法 - Google Patents

記録システム、及び、記録方法 Download PDF

Info

Publication number
JP7459866B2
JP7459866B2 JP2021508939A JP2021508939A JP7459866B2 JP 7459866 B2 JP7459866 B2 JP 7459866B2 JP 2021508939 A JP2021508939 A JP 2021508939A JP 2021508939 A JP2021508939 A JP 2021508939A JP 7459866 B2 JP7459866 B2 JP 7459866B2
Authority
JP
Japan
Prior art keywords
event
unit
recording
data
recorded data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021508939A
Other languages
English (en)
Other versions
JPWO2020195706A1 (ja
Inventor
克美 富澤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Publication of JPWO2020195706A1 publication Critical patent/JPWO2020195706A1/ja
Application granted granted Critical
Publication of JP7459866B2 publication Critical patent/JP7459866B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/44Event detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/123Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams
    • G08G1/127Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station
    • G08G1/13Traffic control systems for road vehicles indicating the position of vehicles, e.g. scheduled vehicles; Managing passenger vehicles circulating according to a fixed timetable, e.g. buses, trains, trams to a central station ; Indicators in a central station the indicator being in the form of a map
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computational Linguistics (AREA)
  • Software Systems (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Traffic Control Systems (AREA)
  • Time Recorders, Dirve Recorders, Access Control (AREA)

Description

本発明は、記録システム、及び、記録方法に関する。
車両に対して生じる衝撃を加速度で検出して、イベント記録データを記録する技術が知られている。また、撮影中の映像データから輝度値の変化や音量の増加を検知することによって動きを検出して、動きが検出された場合に記録を行う技術が知られている(例えば、特許文献1参照)。
特開2008-155862号公報
車両が低速で追突、または、車両の停止時に他車両または人物が低速で接触するような場合、加速度から衝撃を検出できず、イベント記録データが保存されない場合がある。また、加速度の閾値を低くすると、例えば、車両が段差に乗り上げたとき、または、ドアの開閉時などにも不用意にイベント記録データが記録されるおそれがある。
本開示は、上記に鑑みてなされたものであって、適切にイベント記録を行うことを目的とする。
上述した課題を解決し、目的を達成するために、本開示に係る記録システムは、車両の周囲の状況を記録した記録データを取得する記録データ取得部と、前記記録データ取得部が取得した前記記録データを解析して、前記記録データに含まれる所定成分の遷移を解析する解析部と、前記解析部が解析した前記所定成分の遷移を人工知能によって学習して、イベントの発生を判定するための学習済みモデルを生成する学習部と、前記学習部が学習した前記学習済みモデルを使用して、前記記録データ取得部が取得した前記記録データに基づいて、イベントの発生を判定する判定部と、前記判定部がイベントの発生を判定した場合、イベントの発生時点を含む記録データをイベント記録データとして記録部に記録させるイベント記録制御部とを備えることを特徴とする。
本開示に係る記録方法は、車両の周囲の状況を記録した記録データを取得する記録データ取得ステップと、前記記録データ取得ステップによって取得した前記記録データを解析して、前記記録データに含まれる所定成分の遷移を解析する解析ステップと、前記解析ステップによって解析した前記所定成分の遷移を人工知能によって学習して、イベントの発生を判定するための学習済みモデルを生成する学習ステップと、前記学習ステップによって学習した前記学習済みモデルを使用して、前記記録データ取得ステップによって取得した前記記録データに基づいて、イベントの発生を判定する判定ステップと、前記判定ステップによってイベントの発生を判定した場合、イベントの発生時点を含む記録データをイベント記録データとして記録部に記録させるイベント記録制御ステップとを含む。
本開示によれば、適切にイベント記録を行うことができるという効果を奏する。
図1は、第一実施形態に係る記録システムの構成例の一例を示す概略図である。 図2は、前方車両までの車間距離が適切な位置で停止した時の映像データの一例を説明する図である。 図3は、図2に示す映像データの黒色成分の折れ線グラフ情報の一例を説明する図である。 図4は、イベント発生時の映像データの一例を説明する図である。 図5は、図4に示す映像データの黒色成分の折れ線グラフ情報の一例を説明する図である。 図6は、前方車両までの車間距離が適切な位置で停止した時の音声データのうち所定周波数の折れ線グラフの一例を説明する図である。 図7は、イベント発生時の音声データのうち所定周波数の折れ線グラフの一例を説明する図である。 図8は、第一実施形態に係る記録装置の構成例を示す概略図である。 図9は、第一実施形態に係るサーバ装置における学習処理の流れを示すフローチャートである。 図10は、第一実施形態に係るサーバ装置における判定処理の流れを示すフローチャートである。 図11は、第一実施形態に係る記録装置における処理の流れを示すフローチャートである。 図12は、第一実施形態に係る記録装置における処理の流れを示すフローチャートである。 図13は、第二実施形態に係る記録システムの構成例の一例を示す概略図である。 図14は、第二実施形態に係る記録装置の構成例を示す概略図である。 図15は、第二実施形態に係る記録装置における処理の流れを示すフローチャートである。
以下に添付図面を参照して、本開示に係る記録システム、及び、記録方法の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。
[第一実施形態]
図1は、第一実施形態に係る記録システムの構成例の一例を示す概略図である。記録システム1は、人工知能(AI:Artificial Intelligence)の機械学習によって生成した学習モデルを使用して、周囲の状況を記録した記録データに含まれる所定成分の折れ線グラフの時間変化が大きいような場合、イベント記録を行う。機械学習の一例としては、記録データを教師データとして使用する教師あり学習、または、記録データを教師データとして使用しない教師なし学習のディープラーニングによって学習させて、学習済みモデルとして多層ニューラルネットワーク(以下、「DNN」という。)を生成する。ディープラーニングは、DNNを使用した判定の精度が向上するように、DNNの重みの更新を繰り返し実行して、DNNを使用した判定結果が良好になるようにDNNの重みを導出する機械学習の一手法である。機械学習の手法は限定されない。
サーバ装置10は、イベント発生時の映像データと音声データとの少なくともどちらかを含む記録データを用いて、イベント発生時の記録データに含まれる所定成分の折れ線グラフの時間変化の大きさに応じて、イベントの発生を判定する学習済みモデルとしてDNNを生成する。
記録データは、複数の記録装置30からイベント発生時の記録データとして取得してもよい。または、記録データは、保険会社などの外部の装置からイベント発生時の記録データとして取得してもよい。記録データは、イベント発生時に限定されず、イベントが発生していない時(以下、「通常時」という。)の記録データを取得してもよい。記録データは、イベント発生時の記録データとともに、イベントの種別を示す種別情報を含んでもよい。なお、記録データの取得方法は、これらに限定されない。
イベントの種別とは、例えば、加速度が第一閾値以上である「衝撃の大きいイベント」、加速度が第一閾値未満かつ第二閾値以上である「軽微なイベント」などである。イベントの種別は、さらに詳しく「車両が低速で追突」、「車両の停止時に他車両または人物が低速で接触」などを含んでもよい。
第一閾値は、車両に対するイベントが発生した場合に、検出され得る加速度の値である。第一閾値は、例えば、1G程度である。第二閾値は、第一閾値より小さく、車両が低速で追突、または、車両の停止時に他車両または人物が低速で接触のような、軽微なイベントが発生した場合に、検出され得る加速度の値である。第二閾値は、例えば、車両が段差に乗り上げたとき、または、ドアの開閉時などにも、検出され得る加速度の値である。第二閾値は、例えば、0.5G程度である。
衝撃の大きいイベントは、例えば、閾値以上の車速で衝突した場合、他車両が閾値以上の車速で衝突した場合などである。軽微なイベントは、閾値未満で衝突、または、停止時に他車両または人物が閾値未満の速度で接触した場合などである。
また、サーバ装置10は、記録装置30から判定用の記録データを取得した場合、DNNを使用してイベントの発生を判定する。サーバ装置10は、通信部11と、記録部12と、制御部20とを含む。
通信部11は、通信ユニットである。通信部11は、記録装置30との通信を可能にする。本実施形態では、通信部11は、記録システム1が正常に動作している場合、常時、記録装置30と通信可能である。
記録部12は、記録システム1においてDNNの生成に使用する記録データを記憶する。記録部12は、解析部23によって、記録データに基づいて解析されて生成された折れ線グラフ情報を記録する。記録部12は、制御部20の学習部24によって生成されたDNNを記録する。
制御部20は、例えば、CPU(Central Processing Unit)などで構成された演算処理装置(制御装置)である。制御部20は、記録されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部20には図示しない内部メモリが含まれ、内部メモリは制御部20におけるデータの一時記録などに用いられる。制御部20は、通信制御部21と、データ取得部22と、解析部23と、学習部24と、判定部25と、記録制御部26とを有する。
通信制御部21は、通信部11を介して、複数の記録装置30との通信を制御する。通信制御部21は、通信部11を介して、外部の装置との通信を制御してもよい。
データ取得部22は、複数の記録装置30または外部の装置から記録データを取得する。データ取得部22は、取得した記録データを記録制御部26に出力する。
解析部23は、記録データに基づいて、記録データに含まれている所定成分の遷移を、例えば、折れ線グラフ情報に変換して生成する。折れ線グラフ情報は、記録データの所定成分の時間変化を示す。解析部23は、記録データである、映像データと音声データとの少なくともどちらかについて所定成分の折れ線グラフ情報を生成する。解析部23は、通常時とイベント発生時との少なくともどちらかの記録データについて、所定成分の折れ線グラフ情報を生成する。解析部23は、生成した記録データの折れ線グラフ情報を記録部12に記録する。
解析部23が記録データに含まれる映像データの折れ線グラフ情報を生成する場合について詳しく説明する。解析部23は、映像データに画像処理を行って解析して、色成分ごとの折れ線グラフを作成して、色成分の折れ線グラフの時間変化を示す折れ線グラフ情報を生成する。より詳しくは、まず、解析部23は、映像データの各フレームにおいて、言い換えると、映像データの各時間において、映像データに含まれる各色成分が映像データに占める面積比率を示す折れ線グラフを作成する。そして、解析部23は、各色成分の面積比率の折れ線グラフの時間変化を示す折れ線グラフ情報を生成する。折れ線グラフは、映像データに含まれるすべての色について作成してもよいし、映像データに含まれる被撮影物のうち衝突の可能性がある物体、例えば、車両、二輪車、人物、及び、障害物を画像認識処理によって認識して、認識した物体の色について作成してもよい。
解析部23は、過去のイベント発生時の記録データに基づいて、所定成分の折れ線グラフ情報を生成してもよい。
まず、図2、図3を用いて、通常時に、映像データから生成される折れ線グラフ情報について説明する。図2は、前方車両までの車間距離が適切な位置で停止した時の映像データの一例を説明する図である。図3は、図2に示す映像データの黒色成分の折れ線グラフ情報の一例を説明する図である。図2(a)は、車両が停止する前であって走行中の映像データであり、図2(b)は、車両が停止した時点の映像データである。映像データには黒色の前方車両Vが写っている。図2において、映像データに画像処理を行った結果、前方車両Vとして認識された領域を矩形の太線の枠で示している。まず、解析部23は、映像データの各時間において、映像データに含まれる黒色成分が映像データに占める面積比率を示す折れ線グラフを作成する。そして、解析部23は、黒色成分の面積比率の折れ線グラフの時間変化を示す折れ線グラフ情報を生成する。このようにして得られた折れ線グラフ情報が、図3である。図3は、図2に示す映像データから生成した、前方車両Vの色である黒色成分の折れ線グラフ情報である。車両が停止した時点、言い換えると、信号待ちを開始した時点をT11とすると、時点T11以降、黒色成分は40%前後で推移している。時点T11以降の黒色成分の平均を破線で示している。また、車両が停止した時点T11より前から、黒色成分が増加していることがわかる。黒色成分が増加を始めた時点T10から時点T11までの黒色成分の面積比率の時間変化を示す傾きをα1で示している。
つづいて、図4、図5を用いて、停止している前方車両に低速で追突したイベント発生時に、映像データから生成される折れ線グラフ情報について説明する。図4は、イベント発生時の映像データの一例を説明する図である。図5は、図4に示す映像データの黒色成分の折れ線グラフ情報の一例を説明する図である。図4(a)は、イベント発生前であって、車両が走行中の映像データであり、図4(b)は、イベント発生時点の映像データである。映像データには黒色の前方車両Vが写っている。解析部23は、上述したように、図4に示す映像データから、図5に示す折れ線グラフ情報を生成する。図5は、図4に示す映像データから生成した、前方車両Vの色である黒色成分の折れ線グラフ情報である。イベント発生時点をT21とすると、時点T21以降、黒色成分は85%前後で推移している。時点T21以降の黒色成分の平均を破線で示している。また、時点T21の前から、黒色成分が急激に増加していることがわかる。例えば、黒色成分が急激に増加を始めた時点T20から時点T21までの黒色成分の面積比率の時間変化を示す傾きをα2(>α1)で示している。なお、図5において、事故としている期間は、イベント記録データに含まれる期間の一例である。
このような解析部23の解析によれば、通常時とイベント発生時とでは、追突した前方車両Vの黒色成分の面積比率の時間変化を示す傾きが大きく異なることがわかる。解析部23の解析によれば、イベント発生時は、通常時より、明らかに大きい傾きとなっていることがわかる。
解析部23が記録データに含まれる音声データの折れ線グラフ情報を生成する場合について詳しく説明する。解析部23は、音声データに信号処理を行って解析して、周波数成分ごとの音の大きさの遷移を折れ線グフ情報に変換して生成する。より詳しくは、まず、解析部23は、音声データの各時間において、音声データに含まれる各周波数成分の音の大きさを示す折れ線グラフを作成する。そして、解析部23は、各周波数成分の折れ線グラフの時間変化を示す折れ線グラフ情報を生成する。折れ線グラフは、音声データに含まれるすべての周波数成分について作成してもよいし、音声データに含まれる周波数のうち、道路のノイズなどを除いたイベント発生時に発生する特有の周波数成分について作成してもよい。
まず、図6を用いて、通常時に、音声データから生成される折れ線グラフ情報について説明する。図6は、前方車両までの車間距離が適切な位置で停止した時の音声データのうち所定周波数の折れ線グラフの一例を説明する図である。ひし形はイベント発生時に発生する特有の周波数成分を示し、正方形はカーオーディオで再生している音楽に起因する周波数成分を示す。音声データ全体において、正方形で示す周波数成分は18dB前後で推移している。車両が停止した時点、言い換えると、信号待ちを開始した時点をT11とすると、時点T11以降、ひし形で示す周波数成分は0dB前後で推移している。ひし形で示す周波数成分は、車両が停止した時点T11以降と、それより前とで変化している。音声データ全体におけるひし形で示す周波数成分の平均を破線で示している。
図7を用いて、停止している前方車両に低速で追突したイベント発生時に、音声データから生成される折れ線グラフ情報について説明する。図7は、イベント発生時の音声データのうち所定周波数の折れ線グラフの一例を説明する図である。イベント発生時点をT21とすると、時点T21以降、ひし形で示す周波数成分は112dB前後で推移している。時点T21以降のひし形で示す周波数成分の平均を破線で示している。また、時点T21の直前において、ひし形で示す周波数成分が急激に増加していることがわかる。ひし形で示す周波数成分が急激に増加を始めた時点T20から時点T21までのひし形で示す周波数成分の折れ線グラフの時間変化を示す傾きをα3で示している。なお、図7において、事故としている期間は、イベント記録データに含まれる期間の一例である。音声データ全体におけるひし形で示す周波数成分の平均を実線で示している。
このような解析部23の解析によれば、イベント発生時にのみ、イベント発生時に発生する特有の周波数成分が明らかに大きく表れることがわかる。
学習部24は、解析部23が生成した折れ線グラフ情報から所定成分の遷移を読み取り、それを人工知能によって学習して、イベントの発生を判定するための学習済みモデルとしてのDNNを生成する。例えば、学習部24は、教師データである折れ線グラフ情報を用いて、イベントの発生を判定する学習済みモデルとしてDNNの重みを学習する。DNNの構成と重みとをDNNモデルと呼ぶ。学習部24における学習は、公知のディープラーニングにおける学習と同様の方法で実行すればよい。
例えば、学習部24は、人工知能によって学習して、折れ線グラフ情報から、イベント発生時点の前後において折れ線グラフの時間変化を示す傾きが大きい所定成分のデータを取得する。さらに、学習部24は、人工知能によって学習して、折れ線グラフの時間変化を示す傾きが大きい所定成分のデータの中から、折れ線グラフの時間的変化が急激である時点を取得する。学習部24は、折れ線グラフの時間的変化が急激である時点が取得された場合、イベントが発生したイベント発生時点として学習可能である。このようにして、学習部24は、人工知能によって学習して、折れ線グラフ情報から、折れ線グラフの変化のパターン、折れ線グラフの変化の傾向、折れ線グラフの変化の速度などに基づいて、イベントの発生を判定するためのDNNを生成する。
例えば、学習部24は、「イベント発生である」場合の記録データの折れ線グラフ情報をDNNに入力してディープラーニングを実行する。そして、「イベント発生である」と正しい判定結果が出力されるか、「イベント発生ではない」と誤った判定結果が出力されるかに基づいて、学習中の重みを更新する。また、学習部24は、「イベント発生ではない」場合の記録データをDNNに入力してディープラーニングを実行する。そして、「イベント発生ではない」と正しい判定結果が出力されるか、「イベント発生である」と誤った判定結果が出力されるかに基づいて、学習中の重みを更新する。このような処理を繰り返し行うことによって、学習の結果として学習済みの重みを求める。学習部24は、DNNの重みを含むDNNモデルを記録部12へ出力する。
また、学習部24は、イベントの発生とともにイベントの種別を学習してもよい。より詳しくは、学習部24は、衝撃の大きいイベント発生時、及び軽微なイベント発生時の記録データから生成された折れ線グラフ情報に基づいて人工知能によって学習して、イベントの種別を特定してイベントの発生を判定するためのDNNを生成してもよい。
学習部24は、映像データの折れ線グラフ情報と音声データの折れ線グラフ情報との少なくともどちらかに基づいて人工知能によって学習して、イベントの発生を判定するためのDNNを生成すればよい。学習部24は、映像データの折れ線グラフ情報と音声データの折れ線グラフ情報とのうち、少なくとも映像データの折れ線グラフ情報に基づいてDNNを生成することが好ましい。
学習部24は、データ取得部22からデータを取得するごとに、所定の期間ごとに、または、所望のタイミングで、DNNモデルを更新して記録部12へ記録する。
学習部24は、過去のイベント発生時の記録データに基づいて、イベント発生時の記録データに含まれる各成分の変化の傾向を人工知能によって学習してもよい。
判定部25は、記録装置30から判定用の記録データを取得した場合、DNNを使用してイベントの発生を判定する。より詳しくは、判定部25は、記録部12から学習されたDNNモデルを読み出してDNNを再現し、判定用の記録データから、イベントの発生を判定する。判定部25における判定は、公知のディープラーニングにおける判定と同様の方法で実行すればよい。
判定部25は、記録装置30から判定用の記録データを取得した場合、DNNを使用してイベントの発生とともにイベントの種別を判定してもよい。
記録制御部26は、データ取得部22が取得した記録データを、記録部12に記録させる。記録制御部26は、解析部23が生成した折れ線グラフ情報を、記録部12に記録システム1で使用する教師データとして記録させる。記録制御部26は、解析部23が折れ線グラフ情報を生成すると、記録部12に記録させた教師データを更新する。記録制御部26は、学習部24が生成したDNNを、記録部12に記録させる。記録制御部26は、学習部24がDNNモデルを学習するごとに、記録部12に記録させたDNNモデルを更新する。
図8を用いて、記録装置30について説明する。図8は、第一実施形態に係る記録装置の構成例を示す概略図である。記録装置30は、例えば、車両に配置されている。本実施形態では、記録装置30は、いわゆる車両用のドライブレコーダである。記録装置30は、撮影装置としての機能を有する。記録装置30は、通信部31と、カメラ32と、マイクロフォン33と、加速度センサ34と、操作部35と、記録部39と、制御部40とを含む。
記録装置30は、車両の周囲を撮影して記録する。記録装置30は、車両の周囲を撮影した映像データに基づいて、サーバ装置10によって、車両に対してイベントが発生したか否かを判定させる。記録装置30は、イベントが発生したと判定された場合、イベント記録データを記録する。
通信部31は、通信ユニットである。通信部31は、サーバ装置10との通信を可能にする。本実施形態では、通信部31は、記録システム1が正常に動作している場合、常時、サーバ装置10と通信可能である。
カメラ32は、車両の周辺の映像データを撮影するカメラである。カメラ32は、1台であってもよいし、複数台であってもよい。カメラ32は、車両のエンジンがONされている間は、常時撮影する。カメラ32は、撮影した映像データを制御部40の映像データ取得部43へ出力する。映像データは、例えば毎秒30フレームの画像から構成される動画像である。
マイクロフォン33は、車両の周辺の音声データを取得するマイクロフォンである。マイクロフォン33は、1台であってもよいし、複数台であってもよい。マイクロフォン33は、取得した音声データを制御部40の音声データ取得部44へ出力する。
加速度センサ34は、車両に対して生じる加速度を検出するセンサである。加速度センサ34は、検出結果であるセンサデータを制御部40のセンサデータ取得部45に出力する。加速度センサ34は、例えば3軸方向の加速度を検出するセンサである。3軸方向とは、車両の前後方向、左右方向、及び上下方向である。
操作部35は、記録装置30に対する各種操作を受付可能である。例えば、操作部35は、電源の入り切り操作、撮影した映像データの保存操作、消去操作などを受け付ける。操作部35は、操作情報を制御部40の操作制御部51に出力する。
記録部39は、記録装置30におけるデータの記録などに用いられる。記録部39は、例えば、RAM(Random Access Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、メモリカードなどの記録部である。または、通信部31を介して無線接続される外部記録部であってもよい。記録部39は、制御部40の映像記録制御部(イベント記録制御部)49とから出力された制御信号に基づいて、映像データを記録する。
制御部40は、例えば、CPUなどで構成された演算処理装置(制御装置)である。制御部40は、記録されているプログラムをメモリにロードして、プログラムに含まれる命令を実行する。制御部40には図示しない内部メモリが含まれ、内部メモリは制御部40におけるデータの一時記録などに用いられる。制御部40は、通信制御部41と、映像データ取得部43と音声データ取得部44とを含む記録データ取得部42と、センサデータ取得部45と、加速度判定部46と、判定結果取得部47と、映像データ処理部48と、映像記録制御部49と、操作制御部51とを有する。
通信制御部41は、通信部31を介して、サーバ装置10との通信を制御する。本実施形態では、通信制御部41は、映像データ取得部43が取得した映像データと、音声データ取得部44が取得した音声データとをサーバ装置10へ送信するよう制御する。
記録データ取得部42は、車両の周辺の状態を示す記録データを取得する。記録データ取得部42は、映像データ取得部43と音声データ取得部44とを含む。
映像データ取得部43は、車両の周辺を撮影した映像データを取得する。より詳しくは、映像データ取得部43は、車両に配置されたカメラ32が出力した、車両の周辺の映像データを取得して、映像データ処理部48に出力する。映像データは、記録データに含まれる。
音声データ取得部44は、車両の周辺の音声を録音した音声データを取得する。より詳しくは、音声データ取得部44は、車両に配置されたマイクロフォン33が出力した、車両の周辺の音声データを取得する。音声データは、記録データに含まれる。
センサデータ取得部45は、加速度センサ34のセンサデータを取得する。センサデータ取得部45は、取得したセンサデータを加速度判定部46へ出力する。
加速度判定部46は、加速度センサ34のセンサデータに基づいて、第一閾値以上の加速度が検出されたか否かを検出する。加速度判定部46は、第一閾値以上の加速度を検出したと判定する場合、イベントが発生したと判定する。加速度判定部46は、第一閾値以上の加速度を検出したと判定しない場合、第二閾値以上の加速度が検出されたか否かを検出する。加速度判定部46は、第二閾値以上の加速度を検出したと判定する場合、判定結果取得処理を実行して、サーバ装置10においてイベントが発生したか否かを判定させる。加速度判定部46は、第二閾値以上の加速度を検出したと判定しない場合、イベントは発生していないと判定する。
判定結果取得部47は、サーバ装置10による、イベントが発生したか否かの判定結果を取得する。
映像データ処理部48とは、撮影した映像データを、例えばH.264やMPEG-4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。ファイルとして生成される映像データの期間は、一例として60秒であるが、これには限定されない。また、映像データは、カメラ32が撮影した映像に加えて音声が含まれたデータであってもよい。
映像データ処理部48は、図示しないバッファメモリに記録された映像データから、例えば、60秒のような所定期間の映像ごとにループ記録映像データを生成する。
また、映像データ処理部48は、加速度判定部46がイベントを検出したと判定した場合、または、判定結果取得部47が取得した判定結果がイベントの発生を示す場合、ループ記録映像データから、少なくともイベントの発生時点を含む映像データをイベント記録データとして生成する。映像データ処理部48は、イベントの発生時点の前後の所定期間を含む映像データをイベント記録データとして生成することが好ましい。例えば、映像データ処理部48は、イベントの発生時点の前後の所定期間を切り出した映像データをイベント記録データとして生成する。または、例えば、映像データ処理部48は、イベント発生時点を含む前後の所定期間を含むループ記録映像データ単位の映像データをイベント記録データとして生成してもよい。
映像記録制御部49は、映像データ処理部48によってファイル化された映像データを、記録部39に記録させる制御を行う。
映像記録制御部49は、生成したループ記録映像データを記録部39に記録させる。映像記録制御部49は、記録部39の容量が一杯になった場合、最も古いループ記録映像データに上書きして新しいループ記録映像データを記録する。
また、映像記録制御部49は、イベントを検出した場合、少なくともイベントの発生時点を含む映像データをイベント記録データとして記録部39に記録して保存する。より詳しくは、映像記録制御部49は、イベントを検出した場合、映像データ処理部48が生成した、イベントの発生時点を含むイベント記録データを記録部39に記録して保存する。
操作制御部51は、操作部35が受け付けた操作の操作情報を取得する。例えば、操作制御部51は、電源の入り切り操作、撮影した映像データの保存操作、消去操作などの操作情報を取得する。
次に、図9ないし図12を用いて、記録システム1のイベント記録方法及び作用について説明する。図9は、第一実施形態に係るサーバ装置における学習処理の流れを示すフローチャートである。図10は、第一実施形態に係るサーバ装置における判定処理の流れを示すフローチャートである。図11は、第一実施形態に係る記録装置における処理の流れを示すフローチャートである。図12は、第一実施形態に係る記録装置における処理の流れを示すフローチャートである。
図9を用いて、サーバ装置10における学習処理について説明する。サーバ装置10において、制御部20は、データ取得部22によって、記録データを取得する(ステップS101)。制御部20は、記録制御部26によって、取得した記録データを記録部12に記録させる。制御部20は、ステップS102へ進む。
制御部20は、解析部23によって、記録部12に記録された記録データを解析して、折れ線グラフ情報すなわち記録データに含まれている所定成分の遷移を生成する(ステップS102)。制御部20は、ステップS103へ進む。
制御部20は、記録制御部26によって、生成した折れ線グラフ情報を教師データとして記録部12に保存する(ステップS103)。制御部20は、ステップS104へ進む。
制御部20は、学習部24によって、記録部12に記録された、教師データである折れ線グラフ情報を用いて、イベントの発生を判定する学習済みモデルとしてDNNの重みを人工知能によって学習する(ステップS104)。制御部20は、ステップS105へ進む。
制御部20は、記録制御部26によって、生成したDNNを記録部12に保存する(ステップS105)。制御部20は、処理を終了する。
このようにして、記録システム1の記録装置30における処理が実行される前に、サーバ装置10において、あらかじめDNNが生成される。サーバ装置10は、データ取得部22からデータを取得するごとに、所定の期間ごとに、または、所望のタイミングで、DNNモデルを更新する。
図10を用いて、サーバ装置10における判定処理について説明する。サーバ装置10において、制御部20は、データ取得部22によって、記録装置30から判定用の記録データを取得する(ステップS111)。制御部20は、ステップS112へ進む。
制御部20は、解析部23によって、取得した判定用の記録データを解析して、折れ線グラフ情報を生成する(ステップS112)。制御部20は、ステップS113へ進む。
制御部20は、判定部25によって、DNNを使用して、判定用の記録データから生成した折れ線グラフ情報に基づいて、イベントの発生を判定する(ステップS113)。制御部20は、ステップS114へ進む。
制御部20は、通信制御部21によって、記録装置30へ判定結果を送信する(ステップS114)。制御部20は、処理を終了する。
図11を用いて、記録装置30における記録処理について説明する。制御部40は、ループ記録、加速度センサ34による検出を開始する(ステップS201)。より詳しくは、制御部40は、映像データ処理部48によって、ループ記録を開始する。制御部40は、加速度センサ34による加速度の検出を開始する。制御部40は、ステップS202へ進む。
制御部40は、加速度判定部46によって、イベントを検出したか否かを判定する(ステップS202)。より詳しくは、加速度判定部46によって、センサデータである加速度が第一閾値以上であるか否かによって、イベントを検出したか否かを判定する。加速度判定部46によって、加速度が第一閾値以上であると判定する場合(ステップS202でYes)、ステップS203へ進む。加速度が第一閾値以上であると判定する場合(ステップS202でYes)、衝撃の大きいイベントが発生している。制御部40は、加速度判定部46によって、加速度が第一閾値以上であると判定しない場合(ステップS202でNo)、ステップS204へ進む。
加速度が第一閾値以上であると判定する場合(ステップS202でYes)、制御部40は、イベント検出前後の映像データであるイベント記録データを保存する(ステップS203)。より詳しくは、制御部40は、映像データ処理部48によって、バッファメモリに記録されたループ記録映像データから、少なくともイベントの発生時点を含む映像データをイベント記録データとして生成する。制御部40は、映像記録制御部49によって、生成したイベント記録データを記録部39に保存する。制御部40は、ステップS206へ進む。
加速度が第一閾値以上であると判定しない場合(ステップS202でNo)、制御部40は、加速度判定部46によって、センサデータである加速度が第二閾値以上であるか否かを判定する(ステップS204)。加速度判定部46によって、加速度が第二閾値以上であると判定する場合(ステップS204でYes)、ステップS205へ進む。制御部40は、加速度判定部46によって、加速度が第二閾値以上であると判定しない場合(ステップS204でNo)、ステップS206へ進む。
加速度が第二閾値以上であると判定する場合(ステップS204でYes)、制御部40は、判定結果取得処理を実行する(ステップS205)。制御部40は、ステップS206へ進む。
制御部40は、イベント検出及びループ記録を終了するか否かを判定する(ステップS206)。より詳しくは、制御部40は、操作制御部51によって、終了操作情報が出力された場合や、車両の動作が終了するなど、任意の条件で、イベント検出及びループ記録を終了すると判定して(ステップS206でYes)、処理を終了する。制御部40は、操作制御部51によって、終了操作情報が出力されていないと、イベント検出及びループ記録を終了しないと判定して(ステップS206でNo)、ステップS202の処理を再度実行する。
図12を用いて、図11に示すフローチャートのステップS205の判定結果取得処理について説明する。制御部40は、判定結果取得部47によって、加速度判定部46が第二閾値以上の加速度を検出したと判定した状態における、ステップS201で撮影を開始した映像データを判定用のデータとしてサーバ装置10へ送信する(ステップS211)。制御部40は、ステップS212へ進む。
制御部40は、判定結果取得部47によって、サーバ装置10から判定結果を取得したか否かを判定する(ステップS212)。制御部40は、判定結果を取得したと判定する場合(ステップS212でYes)、ステップS213へ進む。制御部40は、判定結果を取得したと判定しない場合(ステップS212でNo)、ステップS212の処理を再度実行する。
判定結果を取得したと判定する場合(ステップS212でYes)、制御部40は、判定結果が軽微なイベントの発生であることを示すか否かを判定する(ステップS213)。制御部40は、判定結果が軽微なイベントの発生であることを示すと判定する場合(ステップS213でYes)、ステップS214へ進む。制御部40は、判定結果が軽微なイベントの発生であることを示すと判定しない場合(ステップS213でNo)、処理を終了する。
制御部40は、判定結果が軽微なイベントの発生であると判定する場合(ステップS213でYes)、イベント記録データを保存する(ステップS214)。制御部40は、処理を終了する。
このようにして、サーバ装置10では、記録データを解析して折れ線グラフ情報を生成し、折れ線グラフ情報を用いて人工知能による機械学習によって、イベントの発生を判定する学習済みモデルとしてDNNを生成する。サーバ装置10は、記録装置30から判定用の記録データを取得した場合、解析して折れ線グラフ情報を生成して、DNNを使用してイベントの発生を判定する。
記録装置30では、速度が第一閾値未満かつ第二閾値以上である場合、カメラ32が周辺を撮影した映像データに基づいて、サーバ装置10によって、DNNを使用してイベント発生か否かを判定させる。
上述したように、本実施形態では、サーバ装置10において、記録データを解析して折れ線グラフ情報を生成し、折れ線グラフ情報を用いて人工知能による機械学習によって、イベントの発生を判定する学習済みモデルとしてDNNを生成することができる。本実施形態では、サーバ装置10において、記録装置30から判定用の記録データを取得した場合、解析して折れ線グラフ情報を生成して、DNNを使用してイベントの発生を判定することができる。
本実施形態によれば、加速度が第一閾値未満かつ第二閾値以上である場合、軽微なイベントが発生したか否かを、DNNを生成して、適切に判定することができる。
本実施形態では、記録装置30において、加速度が第一閾値未満かつ第二閾値以上である場合、カメラ32が周辺を撮影した映像データに基づいて、サーバ装置10によって、DNNを使用してイベント発生か否かを判定させることができる。
このようにして、本実施形態によれば、例えば、車両が低速で追突、または、車両の停止時に他車両または人物が低速で接触するような、第一閾値以上の加速度が検出されないような、車両の軽微なイベントの発生時に、イベント記録データを記録することができる。
本実施形態は、第二閾値以上の加速度を検出した場合、車両の軽微なイベントの発生時に限って、イベント記録データを記録する。本実施形態は、車両が段差に乗り上げたなどの際に第二閾値以上の加速度を検出した場合には、イベント記録データが記録されることを抑制することができる。本実施形態によれば、適切にイベント記録データを記録することができる。
[第二実施形態]
図13ないし図15を参照しながら、本実施形態に係る記録システム1Aについて説明する。図13は、第二実施形態に係る記録システムの構成例の一例を示す概略図である。図14は、第二実施形態に係る記録装置の構成例を示す概略図である。図15は、第二実施形態に係る記録装置における処理の流れを示すフローチャートである。本実施形態は、サーバ装置10Aと記録装置30Aとの構成が第一実施形態と異なる。より詳しくは、サーバ装置10Aの制御部20Aが、通信制御部21と、データ取得部22と、解析部23と、学習部24と、第一判定部25Aと、記録制御部26と、第二判定部27Aとを有する点で第一実施形態と異なる。記録装置30Aの制御部40Aが、通信制御部41と、映像データ取得部43と音声データ取得部44とを含む記録データ取得部42と、センサデータ取得部45と、加速度判定部46と、第一判定結果取得部47Aと、映像データ処理部48と、映像記録制御部49Aと、操作制御部51と、第二判定結果取得部52Aとを備える点が第一実施形態と異なる。以下の説明においては、サーバ装置10Aと記録装置30Aと同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。
記録装置30Aは、所定期間ごと、記部39に記録データやイベント記録データを記録するごとに、または、所望のタイミングで、記録データまたはイベント記録データを、削除可否の判定用の記録データとして、サーバ装置10Aへ通信部31を介して送信する。
第一判定部25Aは、判定部25と同様の機能を有する。
第二判定部27Aは、記録装置30Aから、削除可否の判定用の記録データを取得した場合、DNNを使用してイベントの発生を判定する。より詳しくは、第二判定部27Aは、記録部12から学習されたDNNモデルを読み出してDNNを再現し、削除可否の判定用の記録データから、イベントの発生を判定する。第二判定部27Aにおける判定は、公知のディープラーニングにおける判定と同様の方法で実行すればよい。第二判定部27Aが取得する記録データは、例えば、記録装置30Aの記録部39に記録されたイベント記録データである。
第一判定結果取得部47Aは、判定結果取得部47と同様の機能を有する。
第二判定結果取得部52Aは、サーバ装置10Aによる、削除可否の判定用の記録データについての、イベントが発生したか否かの判定結果を取得する。
映像記録制御部49Aは、イベント記録データの判定結果に応じて、消去不可フラグ(保存フラグ)、または、消去可能フラグ(消去フラグ)を属性情報として付加して、記録部39に記録させる制御を行う。より詳しくは、映像記録制御部49Aは、第二判定結果取得部52Aが取得した第二判定部27Aがイベントの発生を判定した場合、イベント記録データに、消去を規制する消去不可フラグの属性情報を付加し、第二判定部27Aがイベントの発生を判定しない場合、イベント記録データに消去を許可する消去可能フラグを付加する。消去不可フラグが付加されたイベント記録データは、例えば、所定期間は消去操作が規制されたり、ユーザ操作による消去操作が規制された保存領域に記録したり、外部装置へ転送したりする。消去可能フラグが付加されたイベント記録データは、ユーザ操作による消去操作が可能になる。
図15を用いて、判定結果取得処理について説明する。制御部40Aは、第二判定結果取得部52Aよって、イベント記録データを第二判定用のデータとしてサーバ装置10Aへ送信する(ステップS221)。制御部40Aは、ステップS222へ進む。
制御部40Aは、第二判定結果取得部52Aによって、サーバ装置10Aから判定結果を取得したか否かを判定する(ステップS222)。制御部40Aは、判定結果を取得したと判定する場合(ステップS222でYes)、ステップS223へ進む。制御部40Aは、判定結果を取得したと判定しない場合(ステップS222でNo)、ステップS222の処理を再度実行する。
判定結果を取得したと判定する場合(ステップS222でYes)、制御部40Aは、判定結果が軽微なイベントの発生であることを示すか否かを判定する(ステップS223)。制御部40Aは、判定結果が軽微なイベントの発生であることを示すと判定する場合(ステップS223でYes)、ステップS224へ進む。制御部40Aは、判定結果が軽微なイベントの発生であることを示すと判定しない場合(ステップS223でNo)、ステップS225へ進む。
制御部40Aは、判定結果が軽微なイベントの発生であることを示す判定する場合(ステップS223でYes)、第二判定用のデータとして送信したイベント記録データに消去不可フラグを属性情報として付加する(ステップS224)。制御部40Aは、処理を終了する。
制御部40Aは、判定結果が軽微なイベントの発生であることを示すと判定されない場合(ステップS223でNo)、第二判定用のデータとして送信したイベント記録データに消去可能フラグを属性情報として付加する(ステップS225)。制御部40Aは、処理を終了する。
このようにして、サーバ装置10Aでは、記録装置30Aから、削除可否の判定用の記録データを取得した場合にも、解析して折れ線グラフ情報を生成して、DNNを使用してイベントの発生を判定する。
記録装置30Aでは、イベント記録データについて、サーバ装置10Aによって、DNNを使用してイベント発生か否かを判定させる。記録装置30Aは、イベント記録データの判定結果に応じて、消去不可フラグ、または、消去可能フラグを属性情報として付加して、記録部39に記録させる。
上述したように、本実施形態は、サーバ装置10Aでは、記録装置30Aから、削除可否の判定用の記録データを取得した場合にも、解析して折れ線グラフ情報を生成して、DNNを使用してイベントの発生を判定することができる。
本実施形態は、記録装置30Aでは、イベント記録データについて、サーバ装置10Aによって、DNNを使用してイベント発生か否かを判定させることができる。本実施形態は、記録装置30Aでは、イベント記録データの判定結果に応じて、消去不可フラグ、または、消去可能フラグを属性情報として付加して、記録部39に記録させることができる。このようにして、本実施形態は、イベント記録データの削除の可否を適切に判定することができる。本実施形態は、イベント発生時に撮影されたイベント記録データを誤って削除してしまうことを抑制することができる。本実施形態は、イベント発生であるとされたが、段差の乗り越え時に撮影されたような不必要なイベント記録データを消去可能にすることができる。
さて、これまで本開示に係る記録システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。
図示した記録システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況等に応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。
記録システム1の構成は、例えば、ソフトウェアとして、メモリにロードされたプログラム等によって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。
本開示の記録システム、及び、記録方法は、例えばいわゆるドライブレコーダに使用することができる。
1 記録システム
10 サーバ装置
20 制御部
22 データ取得部
23 解析部
24 学習部
25 判定部
30 記録装置
32 カメラ
33 マイクロフォン
34 加速度センサ
35 操作部
39 記録部
40 制御部
42 記録データ取得部
43 映像データ取得部
44 音声データ取得部
45 センサデータ取得部
46 加速度判定部
47 判定結果取得部
48 映像データ処理部
49 映像記録制御部(イベント記録制御部)

Claims (5)

  1. 車両の周囲の状況を記録した記録データを取得する記録データ取得部と、
    前記記録データ取得部が取得した前記記録データに含まれる前記車両の周囲を撮影した映像データに画像解析を行い、前記映像データにおける色成分の遷移の情報を作成する解析部と、
    前記解析部が解析した前記成分の遷移を人工知能によって学習して、イベントの発生を判定するための学習済みモデルを生成する学習部と、
    前記学習部が学習した前記学習済みモデルを使用して、前記記録データ取得部が取得した前記記録データに基づいて、イベントの発生を判定する判定部と、
    前記判定部がイベントの発生を判定した場合、イベントの発生時点を含む記録データをイベント記録データとして記録部に記録させるイベント記録制御部と、
    を備えることを特徴とする記録システム。
  2. 前記学習部は、過去のイベント発生時の前記記録データに基づいて、イベント発生時の前記記録データに含まれる前記映像データにおける前記色成分の変化の傾向を人工知能によって学習する、
    請求項1に記載の記録システム。
  3. 前記記録データは、前記車両の周囲の音声を取得した音声データをさらに含み、
    前記解析部は、前記音声データに信号処理を行って、前記音声データに含まれる周波数成分の遷移の情報を作成する、
    請求項に記載の記録システム。
  4. 車両の周囲の状況を記録した記録データを取得する記録データ取得ステップと、
    前記記録データ取得ステップによって取得した前記記録データに含まれる前記車両の周囲を撮影した映像データに画像解析を行い、前記映像データにおける色成分の遷移の情報を作成する解析ステップと、
    前記解析ステップによって解析した前記成分の遷移を人工知能によって学習して、イベントの発生を判定するための学習済みモデルを生成する学習ステップと、
    前記学習ステップによって学習した前記学習済みモデルを使用して、前記記録データ取得ステップによって取得した前記記録データに基づいて、イベントの発生を判定する判定ステップと、
    前記判定ステップによってイベントの発生を判定した場合、イベントの発生時点を含む記録データをイベント記録データとして記録部に記録させるイベント記録制御ステップと、
    を含む記録方法。
  5. 車両の周囲の状況を記録した記録データを取得する記録データ取得部と、
    前記記録データ取得部が取得した前記記録データに含まれる前記車両の周囲を撮影した映像データを解析して、前記映像データにおける色成分の遷移の情報を作成する解析部と、
    前記解析部が作成した前記色成分の遷移の情報に基づいて、イベントの発生を判定する判定部と、
    前記判定部がイベントの発生を判定した場合、イベントの発生時点を含む記録データをイベント記録データとして記録部に記録させるイベント記録制御部と、
    を備えることを特徴とする記録システム。
JP2021508939A 2019-03-25 2020-03-06 記録システム、及び、記録方法 Active JP7459866B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019057485 2019-03-25
JP2019057485 2019-03-25
PCT/JP2020/009658 WO2020195706A1 (ja) 2019-03-25 2020-03-06 記録システム、及び、記録方法

Publications (2)

Publication Number Publication Date
JPWO2020195706A1 JPWO2020195706A1 (ja) 2020-10-01
JP7459866B2 true JP7459866B2 (ja) 2024-04-02

Family

ID=72610096

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021508939A Active JP7459866B2 (ja) 2019-03-25 2020-03-06 記録システム、及び、記録方法

Country Status (3)

Country Link
US (1) US11558586B2 (ja)
JP (1) JP7459866B2 (ja)
WO (1) WO2020195706A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20220151987A (ko) * 2021-05-07 2022-11-15 현대자동차주식회사 주행영상기록장치 및 그의 동작 방법
CN113628362A (zh) * 2021-08-04 2021-11-09 天津森普捷电子有限公司 一种汽车事件数据记录系统实现方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163687A (ja) 1998-11-25 2000-06-16 Sumitomo Electric Ind Ltd 事故検出装置および事故検出システム
JP2016224677A (ja) 2015-05-29 2016-12-28 富士通テン株式会社 ドライブレコーダ、データ記録システム、データ記録方法、及び、プログラム

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008155862A (ja) 2006-12-26 2008-07-10 Rohm Co Ltd カーセキュリティ装置
JP5267330B2 (ja) * 2009-05-27 2013-08-21 コニカミノルタ株式会社 画像処理装置および方法
KR101829006B1 (ko) * 2011-09-09 2018-02-14 현대모비스 주식회사 차량 충돌 경보 제어 장치 및 방법
WO2019175796A1 (en) * 2018-03-15 2019-09-19 More Vinit Shamkant A smart barrier
JP6627995B2 (ja) * 2018-05-10 2020-01-08 株式会社Jvcケンウッド 記録装置、記録方法、およびプログラム
US11474125B2 (en) * 2018-11-16 2022-10-18 Pony Ai Inc. Measurements incorporating brake light detection

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000163687A (ja) 1998-11-25 2000-06-16 Sumitomo Electric Ind Ltd 事故検出装置および事故検出システム
JP2016224677A (ja) 2015-05-29 2016-12-28 富士通テン株式会社 ドライブレコーダ、データ記録システム、データ記録方法、及び、プログラム

Also Published As

Publication number Publication date
WO2020195706A1 (ja) 2020-10-01
JPWO2020195706A1 (ja) 2020-10-01
US20210409657A1 (en) 2021-12-30
US11558586B2 (en) 2023-01-17

Similar Documents

Publication Publication Date Title
US8121968B2 (en) Long-term memory in a video analysis system
JP7459866B2 (ja) 記録システム、及び、記録方法
AU2009243442B2 (en) Detection of abnormal behaviour in video objects
JP4238293B2 (ja) 運転挙動記録装置
CN107977638B (zh) 视频监控报警方法、装置、计算机设备和存储介质
CN114373189A (zh) 一种行为检测方法、装置、终端设备及存储介质
CN114170585B (zh) 危险驾驶行为的识别方法、装置、电子设备及存储介质
KR102589764B1 (ko) 자율주행 자동차의 퍼셉션 네트워크를 학습시키기 위한 온-비히클 액티브 러닝 방법 및 장치
US11393249B2 (en) Apparatus and method of providing vehicle service based on individual emotion recognition
JP2020197815A (ja) 警告システム、及び、警告方法
CN108082042A (zh) 钻车缝的摩托车的检测
CN117456516A (zh) 一种驾驶员疲劳驾驶状态检测方法及装置
JP7370446B2 (ja) 車載映像記録装置及びその制御方法
CN113378803B (zh) 一种道路交通事故检测方法、装置、计算机及存储介质
CN115022650A (zh) 一种行车记录仪的视频处理方法及行车记录仪
JPH0520592A (ja) 自動車運行状況記録方法および同方法を実施する装置
KR102426591B1 (ko) 머신러닝 모델을 이용한 객체 인식 방법 및 시스템
CN114084146A (zh) 用于车辆的基于情绪识别的服务提供装置及其控制方法
CN111832651A (zh) 视频多模态情感推理方法和装置
JP2022015167A (ja) 画像処理装置および画像処理方法
KR102594384B1 (ko) 오류데이터 삽입방식을 이용한 자율주행 차량의 영상인식 학습장치와 이를 이용한 영상인식 학습방법
JP2007200237A (ja) 異常走行車両撮像システム、異常走行車両撮像方法及び撮像制御装置
JP7279685B2 (ja) 情報処理システム
CN113283515B (zh) 一种用于网约车的违规载客的检测方法及系统
WO2024014058A1 (ja) 車両イベントの動画抽出システム及び動画抽出方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210826

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240304

R150 Certificate of patent or registration of utility model

Ref document number: 7459866

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150