WO2024142433A1 - 画像記録システム - Google Patents

画像記録システム Download PDF

Info

Publication number
WO2024142433A1
WO2024142433A1 PCT/JP2023/022557 JP2023022557W WO2024142433A1 WO 2024142433 A1 WO2024142433 A1 WO 2024142433A1 JP 2023022557 W JP2023022557 W JP 2023022557W WO 2024142433 A1 WO2024142433 A1 WO 2024142433A1
Authority
WO
WIPO (PCT)
Prior art keywords
event condition
image
drive recorder
event
feature
Prior art date
Application number
PCT/JP2023/022557
Other languages
English (en)
French (fr)
Inventor
毅 小野寺
Original Assignee
株式会社Jvcケンウッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022208475A external-priority patent/JP2024092499A/ja
Priority claimed from JP2022208474A external-priority patent/JP2024092498A/ja
Application filed by 株式会社Jvcケンウッド filed Critical 株式会社Jvcケンウッド
Publication of WO2024142433A1 publication Critical patent/WO2024142433A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Definitions

  • Patent Document 1 describes a technology that allows various settings of a drive recorder that has a continuous recording function (also called a continuous video recording function) and a trigger recording function (also called an event recording function) to be changed from an external device via a network.
  • a continuous recording function also called a continuous video recording function
  • a trigger recording function also called an event recording function
  • the conditions for the events that a drive recorder detects as a trigger for recording have been predetermined in the drive recorder or an external device.
  • the inventors of the present invention thought it would be desirable to be able to flexibly set the conditions for the events that a drive recorder detects according to the vehicle's driving conditions, the driver's state, etc.
  • the present invention was made based on the inventor's recognition of the above problem, and its purpose is to provide a technology for optimally setting the conditions for events detected by a drive recorder.
  • an image recording system includes a drive recorder mounted on a vehicle and a server.
  • the server has an event condition transmission unit that transmits predetermined event conditions to the drive recorder.
  • the drive recorder has an event recording unit that acquires an event-recorded image of the vehicle or driver's situation when it is detected that the vehicle or driver's situation satisfies the event condition, a continuous recording unit that acquires a continuous-recorded image of the vehicle or driver's situation continuously regardless of whether the vehicle or driver's situation satisfies the event condition, and an image transmission unit that transmits at least the continuous-recorded image to the server.
  • the server further has an event condition generation unit that generates a new event condition different from the predetermined event condition based on the result of analyzing the continuous-recorded image transmitted from the drive recorder.
  • the event condition transmission unit of the server transmits the new event condition to the drive recorder.
  • any combination of the above components, or any expression of the present invention converted between an apparatus, a method, a computer program, or a recording medium storing a computer program, is also valid as an aspect of the present invention.
  • FIG. 1 is a diagram showing a configuration of an image recording system according to a first embodiment.
  • FIG. 2 is a block diagram showing functional blocks of the server according to the first embodiment.
  • 4 is a flowchart showing the operation of the image recording system.
  • FIG. 13 is a diagram illustrating a process of generating meta information related to a dangerous driving situation.
  • FIG. 13 is a diagram illustrating an example of a feature amount map.
  • FIG. 13 is a diagram illustrating an example of a standardized feature amount map.
  • FIG. 13 is a diagram illustrating an example of a parameter adjustment table.
  • FIG. 13 is a diagram showing the relationship between comparison data and corresponding clusters.
  • FIG. 11 is a block diagram showing functional blocks of a drive recorder according to a modified example.
  • the image recording system of the first embodiment autonomously adds a new event that triggers the start of event recording based on the analysis result of the video captured by the continuous recording function of the vehicle's drive recorder.
  • the image recording system of the first embodiment determines that the vehicle's driving situation or the driver's state is similar to a dangerous driving situation, it adds a new event based on the dangerous driving situation.
  • FIG. 1 includes a block diagram showing the functional blocks of the drive recorder 22.
  • the drive recorder 22 includes a camera 24, an event condition acquisition unit 26, an event condition storage unit 28, an event recording unit 30, a continuous recording unit 32, and an image transmission unit 34.
  • Each block shown in the block diagram in this specification can be realized in hardware terms by computer processors, CPUs, memory and other elements, electronic circuits, and mechanical devices, and in software terms by computer programs, etc., but here, functional blocks realized by the cooperation of these are depicted. Therefore, it will be understood by those skilled in the art that these functional blocks can be realized in various ways by combining hardware and software.
  • Camera 24 is a photographing device that photographs the surroundings of vehicle 12 and the interior of the vehicle cabin.
  • the subject photographed inside the vehicle cabin may be the driver (particularly the face of the driver).
  • the subject photographed by camera 24 may be either the surroundings of vehicle 12 or the interior of the vehicle cabin.
  • the event condition is data that defines the conditions for an event that triggers the start of event recording in the drive recorder 22 to occur, in other words, data that defines the start conditions for event recording.
  • the event condition includes conditions related to the driving conditions of the vehicle 12. For example, the event condition may be that the speed of the vehicle 12 reaches a specific value, or that the distance between the vehicle 12 and another vehicle reaches a specific value.
  • the event condition also includes conditions related to the state of the driver of the vehicle 12. For example, the event condition may be that the rate of change in the area of the driver's face captured on camera reaches a specific value, or that the driver's continuous eye-closed time reaches a specific value.
  • the continuous recording unit 32 acquires continuous recording video (hereinafter also referred to as "continuously recorded video") that continuously captures the situation regarding the vehicle 12 at a predetermined cycle, regardless of whether the situation regarding the vehicle 12 satisfies the event conditions.
  • the camera 24 may continuously capture the surroundings and interior of the vehicle 12, and the continuous recorded video may be data of one minute of video that is continuously captured around the vehicle 12 and the interior of the vehicle.
  • the image transmission unit 34 transmits the data of the event recorded video acquired by the event recording unit 30 and the data of the continuous recorded video acquired by the continuous recording unit 32 to the server 14.
  • FIG. 2 is a block diagram showing the functional blocks of the server 14 in the first embodiment.
  • the server 14 includes a data processing unit 40, a storage unit 42, and a communication unit 44.
  • the data processing unit 40 executes various data processing operations.
  • the storage unit 42 stores data referenced or updated by the data processing unit 40.
  • the communication unit 44 communicates with external devices according to a predetermined communication protocol.
  • the data processing unit 40 transmits and receives data to and from the drive recorder 22 via the communication unit 44.
  • the storage unit 42 includes a dangerous driving information storage unit 46, a meta information storage unit 48, an event condition storage unit 50, and an image storage unit 52.
  • the dangerous driving information storage unit 46 stores data of a video showing a dangerous driving situation (hereinafter also referred to as "dangerous driving video").
  • the dangerous driving video may be, for example, a video showing a driving situation that is considered to have a high risk of an accident.
  • the dangerous driving information storage unit 46 further stores data (hereinafter also referred to as "dangerous driving situation data") showing the driving situation at the time when the dangerous driving video was captured (for example, the speed and steering angle of the vehicle 12).
  • the dangerous driving information storage unit 46 stores a plurality of dangerous driving videos and a plurality of dangerous driving situation data corresponding to each dangerous driving video.
  • the meta information storage unit 48 stores meta information related to dangerous driving situations, including features extracted from the dangerous driving video and the dangerous driving situation data. Specific examples of meta information will be described later.
  • the event condition storage unit 50 stores predetermined event conditions.
  • the event conditions stored in the event condition storage unit 50 may include event conditions determined by an administrator of the image recording system 10 or a user of the event recording video recorded by the image recording system 10.
  • the event condition storage unit 50 also stores new event conditions generated by the event condition generation unit 60 described below.
  • the image storage unit 52 stores the data of the event recording video transmitted from the drive recorder 22.
  • the data processing unit 40 includes a meta information generation unit 54, an event condition transmission unit 56, an image acquisition unit 58, and an event condition generation unit 60.
  • the functions of at least some of these multiple functional blocks may be implemented in a computer program.
  • the computer program may be installed in the storage of the server 14 via a recording medium or a communication network.
  • the processor (CPU, etc.) of the server 14 may perform the functions of the functional blocks implemented in the computer program by reading the computer program into main memory and executing it.
  • the meta information generating unit 54 extracts features from the dangerous driving video and dangerous driving situation data stored in the dangerous driving information storage unit 46, and generates meta information related to the dangerous driving situation.
  • the meta information generating unit 54 stores the generated meta information in the meta information storage unit 48. Details of the processing by the meta information generating unit 54 will be described later.
  • the event condition transmission unit 56 transmits the predetermined event conditions stored in the event condition storage unit 50 to the drive recorder 22.
  • the event condition transmission unit 56 also transmits new event conditions generated by the event condition generation unit 60 to the drive recorder 22.
  • the event condition generating unit 60 generates new event conditions different from the predetermined event conditions based on the results of analyzing the data of the continuous recording video transmitted from the drive recorder 22 and acquired by the image acquiring unit 58.
  • the event condition generating unit 60 generates new event conditions based on the characteristics of the image and driving situation (the above-mentioned dangerous driving video) showing a dangerous driving situation that is highly similar to the characteristics of the continuous recording video.
  • the event condition generating unit 60 sets a condition that is more likely to be satisfied as a new event condition the higher the similarity between the characteristics of the continuous recording video and the image and driving situation (the above-mentioned dangerous driving video).
  • Second Embodiment The second embodiment will be described focusing on the differences from the first embodiment, and the description of the commonalities will be omitted.
  • the features of the second embodiment can be arbitrarily combined with the features of the first embodiment and the features of the modified examples.
  • the components of the second embodiment that are the same as or correspond to the components of the first embodiment will be described with the same reference numerals as appropriate.
  • the configuration of the image recording system 10 of the second embodiment is similar to the configuration of the image recording system 10 of the first embodiment shown in FIG. 1.
  • the functional blocks of the drive recorder 22 of the second embodiment are similar to the functional blocks of the drive recorder 22 of the first embodiment shown in FIG. 1.
  • the meta information generation unit 54 extracts features from the exemplary driving video and exemplary driving situation data stored in the exemplary driving information storage unit 62, generates meta information regarding safe driving situations (in other words, exemplary driving situations), and stores the generated meta information in the meta information storage unit 48.
  • FIG. 11 includes a schematic diagram showing the processing of the continuous recording video and the user driving situation data (i.e., the comparison data).
  • the event condition generating unit 60 extracts features (i.e., the user features) of the continuous recording video and the user driving situation data.
  • the event condition generating unit 60 generates a new event condition based on meta information that has a large difference from the user features of the comparison data, among multiple pieces of meta information related to multiple exemplary driving videos stored in the meta information storage unit 48.
  • the start conditions for event recording in the drive recorder 22 can be dynamically and flexibly set according to the difference between the image continuously recorded by the drive recorder 22 and the image showing a pre-prepared safe driving situation.
  • the image recording system 10 of the second embodiment also makes it easier to collect event recording images showing dangerous driving situations.
  • the event condition generation unit generates the new event condition including a threshold value according to a difference between a feature of an image indicating a safe driving state and a feature of the image of the continuous recording transmitted from the drive recorder;
  • the drive recorder according to any one of the first to fourth aspects.
  • the present invention can be applied to devices and systems that record images.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Traffic Control Systems (AREA)

Abstract

サーバ14は、予め定められたイベント条件をドライブレコーダ22に送信する。ドライブレコーダ22は、車両12に関する状況がイベント条件を満たすことを検出した場合、車両12に関する状況を撮影したイベント録画の画像を取得する。ドライブレコーダ22は、車両に関する状況がイベント条件を満たすか否かにかかわらず、車両12する状況を継続して撮影した常時録画の画像を取得する。サーバ14は、ドライブレコーダ22から送信された常時録画の画像を解析した結果に基づいて、予め定められたイベント条件とは異なる新たなイベント条件を生成する。

Description

画像記録システム
 本発明は、画像記録システムに関する。
 以下の特許文献1には、常時記録機能(常時録画機能とも呼ぶ。)と、トリガ記録機能(イベント録画機能とも呼ぶ。)を備えるドライブレコーダの各種設定値をネットワークを介して外部装置から変更する技術が記載されている。
特開2014-032612号公報
 これまで、ドライブレコーダが撮影のトリガとして検出するイベントの条件は、ドライブレコーダまたは外部装置において予め定められていた。本発明者は、ドライブレコーダが検出するイベントの条件を、車両の走行状況や運転者の状態等に応じて柔軟に設定できることが望ましいと考えた。
 本発明は本発明者の上記課題認識に基づきなされたものであり、その目的は、ドライブレコーダが検出するイベントの条件を好適に設定する技術を提供することである。
 上記課題を解決するために、本発明のある態様の画像記録システムは、車両に搭載されるドライブレコーダと、サーバと、を備える。サーバは、予め定められたイベント条件をドライブレコーダに送信するイベント条件送信部を有する。ドライブレコーダは、車両または運転者に関する状況がイベント条件を満たすことを検出した場合、車両または運転者に関する状況を撮影したイベント録画の画像を取得するイベント録画部と、車両または運転者に関する状況がイベント条件を満たすか否かにかかわらず、車両または運転者に関する状況を継続して撮影した常時録画の画像を取得する常時録画部と、少なくとも常時録画の画像をサーバへ送信する画像送信部とを有する。サーバは、ドライブレコーダから送信された常時録画の画像を解析した結果に基づいて、予め定められたイベント条件とは異なる新たなイベント条件を生成するイベント条件生成部をさらに有する。サーバのイベント条件送信部は、新たなイベント条件をドライブレコーダに送信する。
 なお、以上の構成要素の任意の組合せ、本発明の表現を、装置、方法、コンピュータプログラム、コンピュータプログラムを格納した記録媒体などの間で変換したものもまた、本発明の態様として有効である。
 本発明によれば、ドライブレコーダが検出するイベントの条件を好適に設定できる。
第1実施形態の画像記録システムの構成を示す図である。 第1実施形態のサーバの機能ブロックを示すブロック図である。 画像記録システムの動作を示すフローチャートである。 危険な運転状況に関するメタ情報の生成過程を模式的に示す図である。 特徴量マップの例を示す図である。 標準化特徴量マップの例を示す図である。 パラメータ調整テーブルの例を示す図である。 比較データと対応クラスタとの関係を示す図である。 変形例のドライブレコーダの機能ブロックを示すブロック図である。 第2実施形態のサーバの機能ブロックを示すブロック図である。 安全な運転状況に関するメタ情報の生成過程を模式的に示す図である。 特徴パラメータの決定の例を示す図である。 パラメータ調整テーブルの例を示す図である。
 <第1実施形態>
 第1実施形態の画像記録システムは、車両のドライブレコーダの常時録画機能によって撮影された映像の解析結果に基づいて、イベント録画を開始する契機となる新たなイベントを自律的に追加する。第1実施形態の画像記録システムは、車両の走行に関する状況や運転者の状態等が危険な運転状況に類似すると判断される場合に、その危険な運転状況に基づいて新たなイベントを追加する。
 図1は、第1実施形態の画像記録システム10の構成を示す。画像記録システム10は、車両12に搭載されたドライブレコーダ22と、サーバ14とを備える情報処理システムである。車両12は、通信部20とドライブレコーダ22を備える。通信部20は、所定の通信プロトコルにしたがって外部装置と通信し、第1実施形態では、LAN・WAN・インターネットを含む通信網16を介してサーバ14と接続される。ドライブレコーダ22は、通信部20を介して、サーバ14とデータを送受信する。
 図1は、ドライブレコーダ22の機能ブロックを示すブロック図を含む。ドライブレコーダ22は、カメラ24、イベント条件取得部26、イベント条件記憶部28、イベント録画部30、常時録画部32、画像送信部34を備える。本明細書のブロック図で示す各ブロックは、ハードウェア的には、コンピュータのプロセッサ、CPU、メモリをはじめとする素子や電子回路、機械装置で実現でき、ソフトウェア的にはコンピュータプログラム等によって実現されるが、ここでは、それらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックはハードウェア、ソフトウェアの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。
 カメラ24は、車両12の周囲と車室内を撮影する撮影装置である。車室内の撮影対象は、運転者(特に運転車の顔)であってもよい。変形例として、カメラ24による撮影対象は、車両12の周囲と車室内のいずれか一方であってもよい。
 イベント条件取得部26は、サーバ14から送信されたイベント条件を取得する。イベント条件記憶部28は、イベント条件取得部26により取得された1つ以上のイベント条件を記憶する。
 イベント条件は、ドライブレコーダ22におけるイベント録画の開始契機となるイベントが成立するための条件を定めるデータであり、言い換えれば、イベント録画の開始条件を定めるデータである。イベント条件は、車両12の走行状況に関する条件を含む。例えば、イベント条件は、車両12の速度が特定の値になることでもよく、車両12と他車両との間隔が特定の値になることでもよい。また、イベント条件は、車両12の運転者の状態に関する条件を含む。例えば、イベント条件は、撮影された運転者の顔の面積変化率が特定の値になることでもよく、運転者の連続閉眼時間が特定の値になることでもよい。
 イベント録画部30は、車両12に搭載された不図示のセンサとカメラ24により撮影された画像とに基づいて、車両12に関する状況(車両12の運転者の状態を含む、以下同じ)がイベント条件記憶部28に記憶されたイベント条件を満たすか否かを判定する。イベント条件を満たすか否かの判定は公知の技術を用いてよい。イベント録画部30は、車両12に関する状況がイベント条件を満たすことを検出した場合、車両12に関する状況を撮影したイベント録画の映像(以下「イベント録画映像」とも呼ぶ。)を取得する。イベント録画部30は、複数のイベント条件のうち少なくとも1つが満たされたことを検出した場合、その検出時点の前後所定期間(例えば前後30秒)にカメラ24により撮影された映像をイベント録画映像として取得してもよい。
 常時録画部32は、車両12に関する状況がイベント条件を満たすか否かにかかわらず、車両12に関する状況を継続して撮影した常時録画の映像(以下「常時録画映像」とも呼ぶ。)を所定の周期で取得する。カメラ24は、車両12の周囲および車室内を常時撮影してもよく、常時録画映像は、車両12の周囲および車室内を常時撮影したうちの1分間の映像のデータであってもよい。画像送信部34は、イベント録画部30により取得されたイベント録画映像のデータと、常時録画部32により取得された常時録画映像のデータをサーバ14へ送信する。
 図2は、第1実施形態のサーバ14の機能ブロックを示すブロック図である。サーバ14は、データ処理部40、記憶部42、通信部44を備える。データ処理部40は、各種データ処理を実行する。記憶部42は、データ処理部40により参照または更新されるデータを記憶する。通信部44は、所定の通信プロトコルにしたがって外部装置と通信する。データ処理部40は、通信部44を介して、ドライブレコーダ22とデータを送受信する。
 記憶部42は、危険運転情報記憶部46、メタ情報記憶部48、イベント条件記憶部50、画像記憶部52を含む。危険運転情報記憶部46は、危険な運転状況を示す映像(以下「危険運転映像」とも呼ぶ。)のデータを記憶する。危険運転映像は、例えば、事故のリスクが高いとされる運転状況が映る映像であってもよい。また、危険運転情報記憶部46は、危険運転映像が撮影された時点の運転状況(例えば車両12の速度や転舵角等)を示すデータ(以下「危険運転状況データ」とも呼ぶ。)をさらに記憶する。危険運転情報記憶部46は、複数の危険運転映像と、各危険運転映像に対応する複数の危険運転状況データを記憶する。危険運転情報記憶部46に記憶される危険運転映像のデータと危険運転状況データは、サーバ14の管理者等により予め定められたものであってもよい。また、危険運転情報記憶部46に記憶される危険運転映像のデータと危険運転状況データは、ドライブレコーダ22から登録されたデータを含んでもよい。例えば、変更前のイベント条件に基づいてドライブレコーダ22により記録されたイベント録画映像のデータと、変更前のイベント条件が成立した場合にドライブレコーダ22で取得された運転状況を示すデータを含んでもよい。
 メタ情報記憶部48は、危険運転映像と危険運転状況データから抽出された特徴量を含む、危険な運転状況に関するメタ情報を記憶する。メタ情報の具体例は後述する。
 イベント条件記憶部50は、予め定められたイベント条件を記憶する。イベント条件記憶部50に記憶されるイベント条件は、画像記録システム10の管理者や、画像記録システム10で記録されたイベント録画映像の利用者により定められたイベント条件を含んでもよい。また、イベント条件記憶部50は、後述のイベント条件生成部60により生成された新たなイベント条件を記憶する。画像記憶部52は、ドライブレコーダ22から送信されたイベント録画映像のデータを記憶する。
 データ処理部40は、メタ情報生成部54、イベント条件送信部56、画像取得部58、イベント条件生成部60を含む。これら複数の機能ブロックうち少なくとも一部の機能ブロックの機能は、コンピュータプログラムに実装されてもよい。そのコンピュータプログラムは、記録媒体または通信網を介して、サーバ14のストレージにインストールされてもよい。サーバ14のプロセッサ(CPU等)は、上記コンピュータプログラムをメインメモリに読み出して実行することで、上記コンピュータプログラムに実装された上記機能ブロックの機能を発揮してもよい。
 メタ情報生成部54は、危険運転情報記憶部46に記憶された危険運転映像および危険運転状況データから特徴量を抽出して、危険な運転状況に関するメタ情報を生成する。メタ情報生成部54は、生成したメタ情報をメタ情報記憶部48に格納する。メタ情報生成部54の処理の詳細は後述する。
 イベント条件送信部56は、イベント条件記憶部50に記憶された予め定められたイベント条件をドライブレコーダ22に送信する。また、イベント条件送信部56は、イベント条件生成部60により生成された新たなイベント条件をドライブレコーダ22に送信する。
 画像取得部58は、ドライブレコーダ22から送信されたイベント録画映像のデータと常時録画映像のデータを取得する。画像取得部58は、取得したイベント録画映像のデータを画像記憶部52に格納する。
 イベント条件生成部60は、ドライブレコーダ22から送信され、画像取得部58により取得された常時録画映像のデータを解析した結果に基づいて、予め定められたイベント条件とは異なる新たなイベント条件を生成する。イベント条件生成部60は、常時録画映像の特徴と類似度が高い危険な運転状況を示す画像と運転状況(上記の危険運転映像)の特徴に基づいて、新たなイベント条件を生成する。イベント条件生成部60は、常時録画映像の特徴と、危険な運転状況を示す画像と運転状況(上記の危険運転映像)の特徴との類似度が高いほど、新たなイベント条件として満たされやすい条件を設定する。
 以上の構成による画像記録システム10の動作を説明する。
 図3は、画像記録システム10の動作を示すフローチャートである。サーバ14のメタ情報生成部54は、危険運転情報記憶部46に記憶された危険運転映像と危険運転状況データに基づいて、危険な運転状況に関するメタ情報を生成する(ステップS10)。
 図4は、危険な運転状況に関するメタ情報の生成過程を模式的に示し、言い換えれば、図3のステップS10の処理を模式的に示す。メタ情報生成部54は、機械学習により生成された数理モデルである画像認識モデルを用いて、危険運転映像および危険運転状況データの特徴量を抽出する。例えば、メタ情報生成部54は、危険運転映像に映る顔の面積変化に関する特徴量や、顔の姿勢変化(顔のヨー角度変化等)に関する特徴量、連続閉眼時間に関する特徴量を抽出してもよい。なお、特徴量の抽出には公知技術を利用してよい。
 第1実施形態では、メタ情報生成部54は、クラスタ分析を実行して、複数の危険運転映像の特徴量を複数のクラスタに分類する。クラスタ分析は公知の方法を用いてよく、分析方法は特に限定されない。複数の危険運転映像から、同種の危険運転は同一クラスにまとめておく必要があり、ここではクラスタ分析を実行して、複数の危険運転映像の特徴量を複数のクラスタに分類する。メタ情報生成部54は、各クラスタの重心を導出し、各クラスタ重心の特徴量を標準化した値を、クラスタを特徴付ける特徴パラメータとして用いる。変形例として、メタ情報生成部54は、主成分析を行い、寄与率の高い成分の固有ベクトルに基づいて、各クラスタの特徴パラメータを抽出してもよい。
 具体的には、メタ情報生成部54は、複数のクラスタそれぞれの重心の特徴量を求め、各クラスタの重心の特徴量を示す特徴量マップをメタ情報としてメタ情報記憶部48に格納する。また、メタ情報生成部54は、特徴量マップを特徴ごとに標準化した標準化特徴量マップをメタ情報としてメタ情報記憶部48にさらに格納する。標準化は、例えば、各特徴の値の平均を0、分散を1に変換することである。
 図5は、特徴量マップの例を示す。図5の特徴量マップは、クラスタA~クラスタCのそれぞれの重心に、特徴P1~P5の特徴量を対応付けたデータである。例えば、特徴P1は顔の面積変化量であり、特徴P2は顔ヨー角度変化量であり、特徴P3は連続閉眼時間である。図6は、標準化特徴量マップの例を示す。メタ情報生成部54は、標準化後の値が1以上の特徴を、各クラスタの特徴パラメータとして決定する。図6では、各クラスタの特徴パラメータを網掛けで示している。
 図3に戻り、サーバ14のイベント条件送信部56は、イベント条件記憶部50に予め記憶されたイベント条件をドライブレコーダ22へ送信する(ステップS12)。ドライブレコーダ22のイベント条件取得部26は、サーバ14から送信されたイベント条件を受け付け、受け付けたイベント条件をイベント条件記憶部28に格納する(ステップS14)。
 ドライブレコーダ22のイベント録画部30は、車両12や運転者に関する状況がイベント条件を満たすことを検出した場合、カメラ24により撮影された映像に基づくイベント録画映像を取得する(ステップS16)。ドライブレコーダ22の画像送信部34は、イベント録画映像のデータをサーバ14へ送信する(ステップS18)。サーバ14の画像取得部58は、ドライブレコーダ22から送信されたイベント録画映像のデータを受け付けて画像記憶部52に格納する(ステップS20)。
 ドライブレコーダ22の常時録画部32は、車両12や運転者に関する状況がイベント条件を満たすか否かにかかわらず、カメラ24により撮影された映像を常時録画映像として定期的に取得する(ステップS22)。ドライブレコーダ22の画像送信部34は、常時録画映像をサーバ14へ送信する(ステップS24)。
 画像送信部34は、車両12の運転状況(例えば車両12の速度や転舵角等)を不図示のセンサや制御装置等(例えばECU(Electronic Control Unit))から取得する。画像送信部34は、ステップS24において、常時録画映像とともに、その映像が撮影された時点の運転状況を示すデータ(以下「ユーザ運転状況データ」とも呼ぶ。)をサーバ14へ送信する。
 サーバ14の画像取得部58は、ドライブレコーダ22から送信された常時録画映像とユーザ運転状況データを受け付ける。サーバ14のイベント条件生成部60は、画像取得部58が受け付けた常時録画映像とユーザ運転状況データを解析し、ユーザの現在の運転状況に関する特徴量を抽出する(ステップS26)。常時録画映像とユーザ運転状況データを総称して「比較データ」とも呼ぶ。
 図4は、図3のS26の処理を模式的に示す内容を含む。イベント条件生成部60は、S10と同様のデータ処理を実行し、常時録画映像およびユーザ運転状況データの特徴量(以下「ユーザ特徴量」とも呼ぶ。)を抽出する。例えば、イベント条件生成部60は、ユーザ特徴量として、常時録画映像に映る顔の面積変化に関する特徴量や、顔の姿勢変化に関する特徴量、連続閉眼時間に関する特徴量を抽出してもよい。
 図3に戻り、イベント条件生成部60は、メタ情報記憶部48に記憶された、複数の危険運転映像に関する複数のメタ情報のうち、比較データのユーザ特徴量との類似度が高いメタ情報をもとに、新たなイベント条件を生成する(ステップS28)。イベント条件生成部60は、生成した新たなイベント条件をイベント条件記憶部50に格納する。
 具体的には、イベント条件生成部60は、メタ情報記憶部48に記憶された各クラスタの重心とユーザ特徴量との距離を計算し、重心がユーザ特徴量に最も近いクラスタ(以下「対応クラスタ」とも呼ぶ。)を選択する。言い換えれば、イベント条件生成部60は、ユーザ特徴量との類似度が最も高いクラスタを対応クラスタとして選択する。
 サーバ14の記憶部42は、特徴量ごとに予め定められたパラメータ調整テーブルを記憶する。図7は、パラメータ調整テーブルの例を示す。パラメータ調整テーブルは、イベント条件のパラメータ(閾値Yを含む)と条件を対応付けたデータである。条件は、各クラスタの標準化の極性をもとに自動的に決定される。
 例えば、比較データの対応クラスタがクラスタCである場合、図6に示すようにクラスタCの特徴パラメータはP2であるため、イベント条件生成部60は、テーブルP2の条件を選択する。一方、比較データの対応クラスタがクラスタBである場合、クラスタBの特徴パラメータはP1とP3であるため、イベント条件生成部60は、テーブルP1の条件とテーブルP3の条件をアンド条件として選択する。
 イベント条件生成部60は、式1にしたがって、新たなイベント条件としてのパラメータの閾値Yを導出する。
Figure JPOXMLDOC01-appb-M000001
 比較データと対応クラスタとの関係を示す図8を参照して式1の各項を説明する。Pgは、対応クラスタの重心Gの特徴量であり、具体的には、対応クラスタの重心Gの特徴パラメータの値である。Pσは、対応クラスタの特徴の標準偏差である。dは、比較データから対応クラスタの重心Gまでの距離である。max_dは、対応クラスタの最大距離である。式1の±は、標準化の極性がプラスならマイナスになり、極性がマイナスならプラスになる。なお、変数は距離dだけであるため、各クラスタの距離d以外の項目値は、予め記憶部42に格納されてもよい。
 イベント条件生成部60は、危険な運転状況を示す画像の特徴であり、すなわち対応クラスタの特徴と、常時録画映像の特徴であり、すなわち比較データの特徴との類似度に応じた閾値Yを含む新たなイベント条件を生成する。具体的には、式1に示すように、比較データから対応クラスタの重心Gまでの距離dが小さいほど、言い換えれば、常時録画映像の特徴と危険運転映像の特徴との類似度が高いほど、閾値Yは対応クラスタの重心Gから離れる。閾値Yが対応クラスタの重心Gから離れることにより、新たなイベント条件が成立しやすくなる。式1に基づいて新たなイベント条件の閾値Yを導出することにより、ユーザの運転状況が危険な運転状況に類似する場合にイベント録画の発生頻度を高め、危険な運転状況を示すイベント録画映像を収集しやすくなる。
 比較データの対応クラスタがクラスタCである場合、特徴パラメータP2の閾値Yは、例えば以下のように算出される。
 Y=5.33-2×0.71×1/exp(0.68/1.76)=4.26
 「5.33」は、図5に示すクラスタC重心のP2の値である。「0.71」は、計算により導出された、クラスタCの特徴の標準偏差である。「0.68」は、計算により導出された、比較データからクラスタC重心までの距離である。「1.76」は、計算により導出された、クラスタCの最大距離である。図7に示すように、P2の閾値Yは、顔ヨー角度変化の閾値である。イベント条件生成部60は、比較データに応じた新たなイベント条件として、「顔ヨー角度変化が4.26度以上」を生成してもよい。
 サーバ14のイベント条件送信部56は、イベント条件生成部60により生成された新たなイベント条件をドライブレコーダ22へ送信する(ステップS30)。ドライブレコーダ22のイベント条件取得部26は、新たなイベント条件を取得してイベント条件記憶部28に格納する(ステップS32)。以降、ドライブレコーダ22のイベント録画部30は、それまでのイベント条件に加えて新たなイベント条件に基づいて、イベント録画映像を取得する。
 第1実施形態の画像記録システム10によると、ドライブレコーダ22による常時録画映像と、予め用意された危険な運転状況が映る映像との類似度に応じて、ドライブレコーダ22におけるイベント録画の開始条件を動的かつ柔軟に設定できる。これにより、危険な運転状況が映るイベント録画映像を収集しやすくなる。
 第1実施形態に関する変形例を説明する。変形例のドライブレコーダ22は、第1実施形態においてサーバ14に設けられた機能を備える。具体的には、変形例のドライブレコーダ22は、常時録画映像を解析し、その解析結果に基づいて、イベント録画を開始する契機となる新たなイベント条件を自律的に追加する。
 図9は、変形例のドライブレコーダ22の機能ブロックを示すブロック図である。変形例のドライブレコーダ22は、図1に示す第1実施形態のドライブレコーダ22の機能ブロックに加えて、メタ情報記憶部48、画像記憶部52、イベント条件生成部60を備える。
 メタ情報記憶部48は、危険運転映像および危険運転状況データから抽出された特徴量を含む、危険な運転状況に関するメタ情報を記憶する。メタ情報記憶部48に記憶されるメタ情報は、予め定められた情報であってよく、また、サーバ14等の外部装置からダウンロードされた情報であってもよい。
 画像記憶部52は、イベント録画部30により取得されたイベント録画映像を記憶する。イベント条件生成部60は、メタ情報記憶部48に記憶された危険な運転状況に関するメタ情報と、常時録画部32により取得された常時録画映像を解析した結果とに基づいて、イベント条件記憶部28に記憶された予め定められたイベント条件とは異なる新たなイベント条件を生成する。
 変形例のドライブレコーダ22は、第1実施形態の画像記録システム10と同様の効果を奏する。すなわち、変形例では、イベント録画の契機として検出するイベントの条件を動的かつ柔軟に設定できるドライブレコーダ22を実現できる。
 なお、変形例のドライブレコーダ22は、第1実施形態のサーバ14が備えた危険運転情報記憶部46とメタ情報生成部54をさらに備えてもよい。すなわち、変形例のドライブレコーダ22は、危険運転映像および危険運転状況データから特徴量を抽出し、その特徴量に基づく、危険な運転状況に関するメタ情報を生成する処理をさらに実行してもよい。
 <第2実施形態>
 第2実施形態について、第1実施形態と相違する点を中心に説明し、共通する点の説明を省略する。第2実施形態の特徴は、第1実施形態の特徴および変形例の特徴と任意の組合せが可能である。また、第2実施形態の構成要素のうち第1実施形態の構成要素と同一または対応する構成要素には適宜、同一の符号を付して説明する。
 第2実施形態の画像記録システムも、第1実施形態の画像記録システムと同様に、車両のドライブレコーダの常時録画機能によって撮影された映像の解析結果に基づいて、イベント録画を開始する契機となる新たなイベントを自律的に追加する。第2実施形態の画像記録システムは、車両の走行に関する状況や運転者の状態等が安全な運転状況と差が大きいと判断される場合に、その安全な運転状況に基づいて新たなイベントを追加する点で、第1実施形態の画像記録システムと異なる。
 第2実施形態の画像記録システム10の構成は、図1に示した第1実施形態の画像記録システム10の構成と同様である。また、第2実施形態のドライブレコーダ22が備える機能ブロックは、図1に示した第1実施形態のドライブレコーダ22が備える機能ブロックと同様である。
 図10は、第2実施形態のサーバ14の機能ブロックを示すブロック図である。第2実施形態のサーバ14は、危険運転情報記憶部46に代えて模範運転情報記憶部62を備える点で、第1実施形態のサーバ14と異なる。また、第2実施形態のサーバ14では、メタ情報生成部54とイベント条件生成部60の処理が、第2実施形態のサーバ14と異なる。以下、第1実施形態と異なる点を説明する。
 模範運転情報記憶部62は、安全な運転状況を示す映像であり、言い換えれば、模範的な運転状況を示す映像(以下「模範運転映像」とも呼ぶ。)のデータを記憶する。また、模範運転情報記憶部62は、模範運転映像が撮影された時点の運転状況(例えば車両12の速度や転舵角等)を示すデータ(以下「模範運転状況データ」とも呼ぶ。)をさらに記憶する。危険運転情報記憶部46は、複数の模範運転映像と、各模範運転映像に対応する複数の模範運転状況データを記憶する。
 メタ情報生成部54は、模範運転情報記憶部62に記憶された模範運転映像および模範運転状況データから特徴量を抽出して、安全な運転状況(言い換えれば模範的な運転状況)に関するメタ情報を生成し、生成したメタ情報をメタ情報記憶部48に格納する。
 図11は、安全な運転状況に関するメタ情報の生成過程を模式的に示す。メタ情報生成部54は、機械学習により生成された画像認識モデルを用いて、模範運転映像および模範運転状況データの特徴量を抽出する。特徴量の項目は、第1実施形態と同様であってもよい。メタ情報生成部54は、複数の模範運転映像のそれぞれに関する複数項目の特徴量をまとめた特徴量テーブルと、各模範運転映像の複数項目の特徴量の重心とをメタ情報としてメタ情報記憶部48に格納する。
 イベント条件生成部60は、ドライブレコーダ22から送信された常時録画映像の特徴と差が大きい安全な運転状況を示す画像(すなわち模範運転映像)の特徴に基づいて、新たなイベント条件を生成する。イベント条件生成部60は、常時録画映像の特徴と、模範運転映像の特徴との差が大きいほど、新たなイベント条件として満たされやすい条件を設定する。
 図11は、常時録画映像とユーザ運転状況データ(すなわち比較データ)に対する処理を模式的に示す内容を含む。イベント条件生成部60は、第1実施形態と同様に、常時録画映像およびユーザ運転状況データの特徴量(すなわちユーザ特徴量)を抽出する。イベント条件生成部60は、メタ情報記憶部48に記憶された、複数の模範運転映像に関する複数のメタ情報のうち、比較データのユーザ特徴量との差が大きいメタ情報をもとに、新たなイベント条件を生成する。
 具体的には、イベント条件生成部60は、メタ情報記憶部48に記憶された各模範運転の特徴量の重心とユーザ特徴量との距離を計算し、その距離が所定の閾値を超える模範運転(以下「対象模範運転」とも呼ぶ。)を選択する。言い換えれば、イベント条件生成部60は、ユーザ特徴量との差が相対的に大きい模範運転を対象模範運転として選択する。この閾値は、画像記録システム10の開発者の知見や、画像記録システム10を用いた実験に基づき適切な値が決定されてよい。
 図12は、特徴パラメータの決定の例を示す。図12は、対象模範運転の重心Gの複数項目P1~P4の特徴量と、比較データの複数項目P1~P4の特徴量を示している。イベント条件生成部60は、メタ情報記憶部48に記憶された対象模範運転の特徴量と、比較データの特徴量とを比較する。イベント条件生成部60は、比較データの項目のうち対象模範運転の特徴量との差が±2σ(σは標準偏差)以上の項目を特徴パラメータとして決定する。図12の例では、特徴P1(例えば顔の面積変化量)と特徴P4(例えば車両12の速度)を特徴パラメータとして決定する。
 第2実施形態においても、サーバ14の記憶部42は、特徴量ごとに予め定められたパラメータ調整テーブルを記憶する。図13は、パラメータ調整テーブルの例を示す。条件は、比較データの値が重心の値より低いか高いかで決定される。
 比較データが重心から-2σ以下であれば、イベント条件生成部60は、式2にしたがって閾値Yを導出する。
 Y = G-d/2 ・・・(式2)
 比較データが重心から+2σ以上であれば、イベント条件生成部60は、式3にしたがって閾値Yを導出する。
 Y = G+d/2 ・・・(式3)
 式2と式3のGは、対象模範運転の重心の特徴パラメータの値である。dは、対象模範運転の重心から比較データの値までの距離である。例えば、特徴パラメータがP4で、かつ、比較データが重心から+2σ以上の場合、イベント条件生成部60は、車両12の速度に関する閾値Yを42(=34+16/2)と導出してもよい。この場合、イベント条件生成部60は、「車両速度が42以上」を定めた新たなイベント条件を生成してもよい。
 イベント条件生成部60は、安全な運転状況を示す画像の特徴であり、すなわち対応模範運転の特徴と、常時録画映像の特徴であり、すなわち比較データの特徴との差に応じた閾値Yを含む新たなイベント条件を生成する。具体的には、式2および式3に示すように、比較データから対応模範運転の重心までの距離dが大きいほど、言い換えれば、常時録画映像の特徴と模範運転映像の特徴との差が大きいほど、閾値Yは対応模範運転の重心から離れる。閾値Yが対応クラスタの重心から離れることにより、新たなイベント条件が成立しやすくなる。式2および式3に基づいて新たなイベント条件の閾値Yを導出することにより、ユーザの運転状況が安全な運転状況(言い換えれば模範的な運転状況)との差が大きい場合にイベント録画の発生頻度を高め、危険な運転状況を示すイベント録画映像を収集しやすくなる。
 第2実施形態の画像記録システム10によると、ドライブレコーダ22による常時録画映像と、予め用意された安全な運転状況が映る映像との差に応じて、ドライブレコーダ22におけるイベント録画の開始条件を動的かつ柔軟に設定できる。第2実施形態の画像記録システム10も、第1実施形態の画像記録システム10と同様に、危険な運転状況が映るイベント録画映像を収集しやすくなる。
 第2実施形態に関する変形例を説明する。変形例のドライブレコーダ22は、第2実施形態においてサーバ14に設けられた機能を備える。具体的には、変形例のドライブレコーダ22は、常時録画映像を解析し、その解析結果に基づいて、イベント録画を開始する契機となる新たなイベント条件を自律的に追加する。
 変形例のドライブレコーダ22は、図9のブロック図が示す機能ブロックを備える。すなわち、変形例のドライブレコーダ22は、第2実施形態のドライブレコーダ22の機能ブロックに加えて、メタ情報記憶部48、画像記憶部52、イベント条件生成部60を備える。
 メタ情報記憶部48は、模範運転映像および模範運転状況データから抽出された特徴量を含む、安全な運転状況に関するメタ情報を記憶する。画像記憶部52は、イベント録画部30により取得されたイベント録画映像を記憶する。イベント条件生成部60は、メタ情報記憶部48に記憶された安全な運転状況に関するメタ情報と、常時録画部32により取得された常時録画映像を解析した結果とに基づいて、イベント条件記憶部28に記憶された予め定められたイベント条件とは異なる新たなイベント条件を生成する。
 変形例のドライブレコーダ22は、第2実施形態の画像記録システム10と同様の効果を奏する。すなわち、変形例では、イベント録画の契機として検出するイベントの条件を動的かつ柔軟に設定できるドライブレコーダ22を実現できる。
 なお、変形例のドライブレコーダ22は、第2実施形態のサーバ14が備えた模範運転情報記憶部62とメタ情報生成部54をさらに備えてもよい。すなわち、変形例のドライブレコーダ22は、模範運転映像および模範運転状況データから特徴量を抽出し、その特徴量に基づく、安全な運転状況に関するメタ情報を生成する処理をさらに実行してもよい。
 第1実施形態と第2実施形態の両方に関する変形例を説明する。第1実施形態と第2実施形態では、ドライブレコーダ22の画像送信部34は、イベント録画映像と常時録画映像の両方をサーバ14へ送信した。変形例として、画像送信部34は、サーバ14とは異なる外部装置(例えば映像収集用の専用装置)にイベント録画映像を送信してもよい。また、ドライブレコーダ22は、イベント録画映像を外部装置に送ることなく、ドライブレコーダ22の記憶部に保存してもよい。この場合、ドライブレコーダ22の画像送信部34は、常時録画映像のみサーバ14へ送信してもよい。
 以上、本発明を第1実施形態と第2実施形態をもとに説明した。各実施形態に記載の内容は例示であり、各実施形態の構成要素や処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。
 上述した実施形態および変形例の任意の組み合わせもまた本発明の実施の形態として有用である。組み合わせによって生じる新たな実施の形態は、組み合わされる実施形態および変形例それぞれの効果をあわせもつ。また、請求項に記載の各構成要件が果たすべき機能は、実施形態および変形例において示された各構成要素の単体もしくはそれらの連携によって実現されることも当業者には理解されるところである。
 以上の実施の形態および変形例の記載により、下記の技術が開示される。
[技術1]
 車両に搭載されるドライブレコーダであって、
 前記車両または運転者に関する状況が予め定められたイベント条件を満たすことを検出した場合、前記車両または運転者に関する状況を撮影したイベント録画の画像を取得するイベント録画部と、
 前記車両または運転者に関する状況が前記イベント条件を満たすか否かにかかわらず、前記車両または運転者に関する状況を継続して撮影した常時録画の画像を取得する常時録画部と、
 前記常時録画の画像を解析した結果に基づいて、前記予め定められたイベント条件とは異なる新たなイベント条件を生成するイベント条件生成部と、
 を備えるドライブレコーダ。
[技術2]
 前記イベント条件生成部は、前記常時録画の画像の特徴と類似度が高い危険な運転状況を示す画像の特徴に基づいて、前記新たなイベント条件を生成する、
 技術1に記載のドライブレコーダ。
[技術3]
 前記イベント条件生成部は、危険な運転状況を示す画像の特徴と、前記ドライブレコーダから送信された前記常時録画の画像の特徴との類似度に応じた閾値を含む前記新たなイベント条件を生成する、
 技術1または2に記載のドライブレコーダ。
[技術4]
 前記イベント条件生成部は、前記常時録画の画像の特徴と差が大きい安全な運転状況を示す画像の特徴に基づいて、前記新たなイベント条件を生成する、
 技術1から3のいずれかに記載のドライブレコーダ。
[技術5]
 前記イベント条件生成部は、安全な運転状況を示す画像の特徴と、前記ドライブレコーダから送信された前記常時録画の画像の特徴との差に応じた閾値を含む前記新たなイベント条件を生成する、
 技術1から4のいずれかに記載のドライブレコーダ。
 本発明は、画像を記録する装置やシステムに適用できる。
 10 画像記録システム、 12 車両、 14 サーバ、 22 ドライブレコーダ、 30 イベント録画部、 32 常時録画部、 34 画像送信部、 52 画像記憶部、 56 イベント条件送信部、 60 イベント条件生成部。

Claims (5)

  1.  車両に搭載されるドライブレコーダと、
     サーバと、を備え、
     前記サーバは、予め定められたイベント条件を前記ドライブレコーダに送信するイベント条件送信部を有し、
     前記ドライブレコーダは、
     前記車両または運転者に関する状況が前記イベント条件を満たすことを検出した場合、前記車両または運転者に関する状況を撮影したイベント録画の画像を取得するイベント録画部と、
     前記車両または運転者に関する状況が前記イベント条件を満たすか否かにかかわらず、前記車両または運転者に関する状況を継続して撮影した常時録画の画像を取得する常時録画部と、
     少なくとも前記常時録画の画像を前記サーバへ送信する画像送信部と、を有し、
     前記サーバは、前記ドライブレコーダから送信された前記常時録画の画像を解析した結果に基づいて、前記予め定められたイベント条件とは異なる新たなイベント条件を生成するイベント条件生成部をさらに有し、
     前記サーバの前記イベント条件送信部は、前記新たなイベント条件を前記ドライブレコーダに送信する、
     画像記録システム。
  2.  前記イベント条件生成部は、前記ドライブレコーダから送信された前記常時録画の画像の特徴と類似度が高い危険な運転状況を示す画像の特徴に基づいて、前記新たなイベント条件を生成する、
     請求項1に記載の画像記録システム。
  3.  前記イベント条件生成部は、危険な運転状況を示す画像の特徴と、前記ドライブレコーダから送信された前記常時録画の画像の特徴との類似度に応じた閾値を含む前記新たなイベント条件を生成する、
     請求項1または2に記載の画像記録システム。
  4.  前記イベント条件生成部は、前記ドライブレコーダから送信された前記常時録画の画像の特徴と差が大きい安全な運転状況を示す画像の特徴に基づいて、前記新たなイベント条件を生成する、
     請求項1に記載の画像記録システム。
  5.  前記イベント条件生成部は、安全な運転状況を示す画像の特徴と、前記ドライブレコーダから送信された前記常時録画の画像の特徴との差に応じた閾値を含む前記新たなイベント条件を生成する、
     請求項1または4に記載の画像記録システム。
PCT/JP2023/022557 2022-12-26 2023-06-19 画像記録システム WO2024142433A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022-208474 2022-12-26
JP2022208475A JP2024092499A (ja) 2022-12-26 2022-12-26 ドライブレコーダ
JP2022208474A JP2024092498A (ja) 2022-12-26 2022-12-26 画像記録システム
JP2022-208475 2022-12-26

Publications (1)

Publication Number Publication Date
WO2024142433A1 true WO2024142433A1 (ja) 2024-07-04

Family

ID=91717216

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/022557 WO2024142433A1 (ja) 2022-12-26 2023-06-19 画像記録システム

Country Status (1)

Country Link
WO (1) WO2024142433A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227571A (ja) * 2010-04-15 2011-11-10 Fujitsu Ltd 情報処理方法、情報処理プログラム及び情報処理装置
JP2020129091A (ja) * 2019-02-12 2020-08-27 オムロン株式会社 運転評価画面の表示方法、プログラム、運転評価システム、及び運転評価画面
JP2022057088A (ja) * 2020-09-30 2022-04-11 株式会社ユピテル システムおよびプログラム等

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011227571A (ja) * 2010-04-15 2011-11-10 Fujitsu Ltd 情報処理方法、情報処理プログラム及び情報処理装置
JP2020129091A (ja) * 2019-02-12 2020-08-27 オムロン株式会社 運転評価画面の表示方法、プログラム、運転評価システム、及び運転評価画面
JP2022057088A (ja) * 2020-09-30 2022-04-11 株式会社ユピテル システムおよびプログラム等

Similar Documents

Publication Publication Date Title
EP3262833B1 (en) Systems and methods for bulk redaction of recorded data
US9277165B2 (en) Video surveillance system and method using IP-based networks
JP6921694B2 (ja) 監視システム
WO2016112630A1 (zh) 一种影像识别系统及方法
US8264327B2 (en) Authentication apparatus, image sensing apparatus, authentication method and program therefor
JP2022048147A5 (ja)
JP5588180B2 (ja) パターン識別装置及びその制御方法
KR20190054702A (ko) 영상에서 객체의 행동을 인식하는 방법 및 그 장치
JP5959923B2 (ja) 検出装置、その制御方法、および制御プログラム、並びに撮像装置および表示装置
JP2016110578A (ja) 画像認識システム、サーバ装置及び画像認識方法
WO2018078857A1 (ja) 視線推定装置、視線推定方法及びプログラム記録媒体
JP5971712B2 (ja) 監視装置及び方法
JP2019154613A (ja) 眠気検出システム、眠気検出用データ生成システム、眠気検出方法、コンピュータプログラム、および検出用データ
JP2013202273A (ja) 眠気レベルの推定装置、眠気レベルの推定方法および眠気レベルの推定処理プログラム
CN111062313A (zh) 一种图像识别方法、装置、监控系统及存储介质
WO2024142433A1 (ja) 画像記録システム
KR102077632B1 (ko) 로컬 영상분석과 클라우드 서비스를 활용하는 하이브리드 지능형 침입감시 시스템
KR101350882B1 (ko) 영상 분석 서버
CN117593792A (zh) 一种基于视频帧的异常姿态检测方法和装置
JP6798609B2 (ja) 映像解析装置、映像解析方法およびプログラム
JP2024092498A (ja) 画像記録システム
JP2024092499A (ja) ドライブレコーダ
JP2023074793A (ja) 画像処理システムおよび画像処理方法
JP7533429B2 (ja) 画像処理システムおよび画像処理方法
KR102527133B1 (ko) 영상 분석 대상 판별 서버 및 그 제어방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23911217

Country of ref document: EP

Kind code of ref document: A1