JP6705470B2 - 記録再生装置、記録再生方法、およびプログラム - Google Patents

記録再生装置、記録再生方法、およびプログラム Download PDF

Info

Publication number
JP6705470B2
JP6705470B2 JP2018108741A JP2018108741A JP6705470B2 JP 6705470 B2 JP6705470 B2 JP 6705470B2 JP 2018108741 A JP2018108741 A JP 2018108741A JP 2018108741 A JP2018108741 A JP 2018108741A JP 6705470 B2 JP6705470 B2 JP 6705470B2
Authority
JP
Japan
Prior art keywords
recording
event
data
face
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018108741A
Other languages
English (en)
Other versions
JP2019212110A (ja
Inventor
啓太 林
啓太 林
聡隆 村田
聡隆 村田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JVCKenwood Corp
Original Assignee
JVCKenwood Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JVCKenwood Corp filed Critical JVCKenwood Corp
Priority to JP2018108741A priority Critical patent/JP6705470B2/ja
Priority to EP19815813.1A priority patent/EP3806045B1/en
Priority to PCT/JP2019/018576 priority patent/WO2019235127A1/ja
Priority to CN201980004909.5A priority patent/CN111183458B/zh
Publication of JP2019212110A publication Critical patent/JP2019212110A/ja
Priority to JP2020077252A priority patent/JP6939944B2/ja
Priority to US16/861,632 priority patent/US11115587B2/en
Application granted granted Critical
Publication of JP6705470B2 publication Critical patent/JP6705470B2/ja
Priority to US17/366,952 priority patent/US11616905B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/08Registering or indicating performance data other than driving, working, idle, or waiting time, with or without registering driving, working, idle or waiting time
    • G07C5/0841Registering performance data
    • G07C5/085Registering performance data using electronic data carriers
    • G07C5/0866Registering performance data using electronic data carriers the electronic data carrier being a digital video recorder in combination with video camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera

Description

本発明は、記録再生装置、記録再生方法、およびプログラムに関し、特に詳しくは、自動車などの移動体の事故を検出して記録したデータを適切に再生する、記録再生装置、記録再生方法、およびプログラムに関する。
車両に対する衝撃を検出して検出時点の前後所定期間の映像をイベント記録データとして上書きされないように保存するドライブレコーダが普及している。例えば、特許文献1には、加速度の推移に基づき映像データを記録するドライブレコーダが開示されている。
特開2009−087007号公報
上述の特許文献1のドライブレコーダなど多くのドライブレコーダは、事故等によるイベントを検出した場合に保存されるイベント記録データを、事故の状況確認目的などで再生する場合、ドライブレコーダを操作することで、再生対象となるイベント記録データを選択し、再生操作を行う必要がある。または、ドライブレコーダがイベント記録データを保存したメモリカード等を取外し、他の装置で再生する。
しかし、ドライブレコーダのユーザがドライブレコーダの機能を熟知していない場合など、事故の状況確認時にイベント記録データを適切に再生できない場合もある。
本発明は、上記問題に鑑み、容易にイベント記録データを確認することができる、記録再生装置、記録再生方法、およびプログラムを提供することを目的とする。
本発明に係る記録再生装置は、移動体の周囲を撮影する第一カメラが撮影した第一撮影データ、および表示部の表示面に対向する方向を撮影する第二カメラが撮影した第二撮影データを取得する撮影データ取得部と、前記移動体に対するイベントを検出するイベント検出部と、前記イベント検出部がイベントを検出した場合、少なくともイベントの発生時点を含む第一撮影データをイベント記録データとして保存する記録制御部と、前記第二撮影データから人の顔を検出する顔検出部と、イベント記録データの保存後、所定期間内に前記顔検出部が人の顔を検出した場合、前記イベント記録データを再生する再生制御部と、前記再生制御部が再生した前記イベント記録データを前記表示部に表示させる表示制御部と、を備える。
本発明に係る記録方法は、移動体の周囲を撮影する第一カメラが撮影した第一撮影データを取得する第一撮影データ取得ステップと、前記移動体に対するイベントを検出するイベント検出ステップと、イベントが検出された場合、少なくともイベントの発生時点を含む第一撮影データをイベント記録データとして保存する記録ステップと、表示部の表示面に対向する方向を撮影する第二カメラが撮影した第二撮影データを取得する第二撮影データ取得ステップと、前記第二撮影データから人の顔を検出する顔検出ステップと、前記記録ステップにおけるイベント記録データの保存後、所定期間内に人の顔が検出された場合、前記イベント記録データを再生する再生ステップと、前記再生ステップにおいて再生された前記イベント記録データを前記表示部に表示させる表示ステップと、を含む。
本発明に係るプログラムは、移動体の周囲を撮影する第一カメラが撮影した第一撮影データを取得する第一撮影データ取得ステップと、前記移動体に対するイベントを検出するイベント検出ステップと、イベントが検出された場合、少なくともイベントの発生時点を含む第一撮影データをイベント記録データとして保存する記録ステップと、表示部の表示面に対向する方向を撮影する第二カメラが撮影した第二撮影データを取得する第二撮影データ取得ステップと、前記第二撮影データから人の顔を検出する顔検出ステップと、前記記録ステップにおけるイベント記録データの保存後、所定期間内に人の顔が検出された場合、前記イベント記録データを再生する再生ステップと、前記再生ステップにおいて再生された前記イベント記録データを前記表示部に表示させる表示ステップと、を記録再生装置として動作するコンピュータに実行させる。
本発明によれば、容易にイベント記録データを確認することができる。
本発明の第1実施形態に係る記録再生装置の構成を示すブロック図である。 本発明の第1実施形態に係る記録再生装置の外観を示す図である。 本発明の第1実施形態に係る記録再生装置の外観を示す図である。 本発明の第1実施形態に係る撮影データとイベント記録データとの関係を概念的に示す図である。 本発明の第1実施形態に係る記録再生装置の処理例を示すフローチャートである。 本発明の第2実施形態に係る記録再生装置の処理例を示すフローチャートである。 本発明の第3実施形態に係る記録再生装置の処理例を示すフローチャートである。 本発明の第4実施形態に係る記録再生装置の構成を概念的に示す図である。 本発明の第4実施形態に係る記録再生装置を構成する車両側装置の構成を示すブロック図である。 本発明の第4実施形態に係る記録再生装置を構成する携帯端末の構成を示すブロック図である。
以下、図面を参照して、本発明の実施の形態について説明する。なお、以下の説明では、本実施の形態にかかる記録再生装置の例として、移動体である自動車において用いられるドライブレコーダの例として説明するが、本発明はこれに限られるものではない。例えば、オートバイ、自転車などの各種車両、鉄道、船舶、ロボット、さらには人など様々な移動体に対して適用することが可能である。また、以下の実施形態により本発明が限定されるものではない。
以下、図1から図5を参照して、本発明の第1実施形態を説明する。図1は、本発明の第1実施形態に係る記録再生装置10の構成を示すブロック図である。記録再生装置10は、ドライブレコーダとして、車両のウィンドシールド上部に車両の前方を向いて装着され、事故に相当する衝撃を検出して事故発生時を含む期間の撮影データをイベント記録データとして保存する。ドライブレコーダとしての記録再生装置10は、単体の装置として車両に装着されるものに限らず、ナビゲーション装置の機能として実現される構成や、車両に予め装着されている構成などにも適用可能である。
図1において、記録再生装置10は、記録制御装置としての制御部100、第一カメラ210、第二カメラ220、記録部240、操作部250、表示部260、センサ270、GPS(Global Positioning System)受信部280を備える。
記録再生装置10は、車両の周囲を撮影する第一カメラ210の撮影向きが、車両の前方を向いて装着されるが、車両の後方または側方を向いて装着されるものであってもよい。また、記録再生装置10は、一体型の装置であってもよく、複数の装置に分散されて実現されてもよい。
図2は、本発明の第1実施形態に係る記録再生装置10の外観を示す図であり、車両の周囲を撮影する方向からみた正面図である。つまり、図2における第一カメラ210が撮影する方向からみた図である。
図3は、本発明の第1実施形態に係る記録再生装置10の外観を示す図であり、図2とは反対方向から見た背面図である。つまり、図3における第二カメラ220と表示部260の表示面261とが、同じ面に配置されている。
記録再生装置10を、車両の前方を撮影するように、車両のウィンドシールド上部に車両の前方を向いて装着された場合、図2における第一カメラ210は、車両のウィンドシールドを介して車両の周囲である前方を撮影可能であり、第二カメラ220および表示部260の表示面261は、車両の室内側、言い換えると、運転者側を向く。
図1に戻り、制御部100は、各種データ処理を行う単数または複数のCPU(Central Processing Unit)、GPU(Graphics Processing Unit)、バッファメモリ121などで構成され、プログラムによって様々な処理を実行する。制御部100は、その構成および機能として、バスライン110、撮影データ取得部120、撮影データ処理部122、記録制御部123、再生制御部124、操作制御部125、表示制御部126、イベント検出部127、移動情報取得部128、顔検出部129を少なくとも備える。以下、制御部100の各構成要素は、撮影データなどのデータを、バスライン110を経由して授受することとして説明する。
制御部100は、記録再生装置10における本発明にかかる動作を実行する記録制御装置であり、本発明にかかる記録方法を実行する。また、制御部100は、本発明にかかるプログラムを動作させるコンピュータである。
第一カメラ210は、移動体である車両の周囲を撮影する。第一カメラ210は、記録再生装置10として一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。また、第一カメラ210および撮影データ取得部120を含むユニットが、有線または無線により別体として接続されていてもよい。第一カメラ210には、図示しないが、レンズ、撮像素子、A−D(Analog to Digital)変換素子等が含まれる。第一カメラ210は、撮影した第一撮影データを、撮影データ取得部120に出力する。
図1においては、第一カメラ210は単数として示したが、第一カメラ210は複数のカメラで構成されていてもよい。例えば、車両の前方、後方、側方、車室内などを各々撮影する任意の組合せの複数のカメラであってもよい。
第二カメラ220は、表示部260の表示面261に対向する方向を撮影する。表示部260は、表示部260を構成する表示パネルと置き換えてもよい。第二カメラ220は、記録再生装置10として一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。また、第二カメラ220および撮影データ取得部120を含むユニットが、有線または無線により別体として接続されていてもよい。第二カメラ220には、図示しないが、レンズ、撮像素子、A−D(Analog to Digital)変換素子等が含まれる。第二カメラ220は、撮影した第二撮影データを、撮影データ取得部120に出力する。
図1においては、第二カメラ220は単数として示したが、第二カメラ220は複数のカメラで構成されていてもよい。また、第二カメラ220は、可視光を撮影するカメラ、赤外線領域を撮影するカメラ、またはこれらの組み合わせであってもよい。
図1においては、第一カメラ210と第二カメラ220とは、異なるカメラとして説明したが、例えば上述した第一カメラ210と第二カメラ220が撮影する範囲を単一のカメラで撮影可能であれば、単一のカメラを用いてもよい。単一のカメラとは、例えば360度の全周囲カメラである。
第一カメラ210および第二カメラ220が撮影する撮影データは、動画像データである。これらの撮影データには、動画像データに加えて音声データを含んでいてもよい。この場合、第一カメラ210および第二カメラ220の構成にはマイクロフォンを含む。
記録部240は、第一カメラ210が撮影した第一撮影データを、記録制御部123の制御によって記録するための不揮発性メモリであり、例えばメモリカードである。記録部240に記録された第一撮影データは、再生制御部124の制御によって再生される。記録部240は、記録部240に加えて記録制御部123および再生制御部124を備える別体の記録再生装置と置き換えてもよい。記録部240は、記録再生装置10として一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。
操作部250は、記録再生装置10に対する操作を受け付けるインターフェースであり、受け付けた操作情報を操作制御部125に出力する。操作部250は、各種ボタンやタッチパネルであり、ユーザによる操作を受け付ける。操作部250は、無線接続された他の装置からの操作を受け付けてもよい。操作部250は、例えば、ユーザによるイベントの記録開始の操作を受け付ける。また、操作部250は、ユーザによるイベント記録データの再生を行う操作を受け付ける。
表示部260は、表示制御部126の制御により各種情報を表示する表示装置である。表示部260は、例えば液晶パネルや有機ELパネルなどの表示パネルを備える。表示部260は、記録再生装置10として一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。表示部260は、無線により接続され表示制御部126を備える他の装置であってもよい。
センサ270は、例えば加速度センサであり、記録再生装置10または車両に加わった加速度を検出する。センサ270は、例えば3軸の加速度センサであり、x軸方向として車両の前後方向、y軸方向として車両の左右方向、z軸方向として車両の上下方向に加わった加速度を検出する。センサ270は、検出した加速度情報をイベント検出部127に出力する。センサ270は、記録再生装置10として一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。また、センサ270は、センサ270およびイベント検出部127を含むユニットとして別体であってもよい。
GPS受信部280は、GPS衛星からの信号を受信するGPSアンテナである。GPS受信部280は、受信した信号を移動情報取得部128に出力する。GPS受信部280は、記録再生装置10として一体的に備えられていてもよく、有線または無線により別体として接続されていてもよい。また、GPS取得部280は、GPS取得部280および移動情報取得部128を含む他の装置として別体であってもよい。
撮影データ取得部120は、第一カメラ210が撮影した第一撮影データおよび第二カメラ220が撮影した第二撮影データを取得する。撮影データ取得部120は、第一カメラ210から取得した第一撮影データを、バッファメモリ121へ出力する。撮影データ取得部120は、第二カメラ220から取得した第二撮影データを、顔検出部129に出力する。
撮影データ取得部120は、イベント検出部127からイベントを検出したことを示す信号を取得し、イベントが検出された場合に、第二カメラ220から第二撮影データを取得するようにしてもよい。この場合、撮影データ取得部120は、イベントが検出された場合に、第二カメラ220の動作を開始させるようにしてもよい。
バッファメモリ121は、制御部100が備える内部メモリであり、撮影データ取得部120が取得した一定時間分の撮影データを、更新しながら一時的に記憶する。
撮影データ処理部122は、バッファメモリ121が一時的に記憶している撮影データを、例えばH.264やMPEG−4(Moving Picture Experts Group)などの任意の方式のコーデックで符号化された、例えばMP4形式などの任意のファイル形式に変換する。撮影データ処理部122は、バッファメモリ121が一時的に記憶している撮影データから、一定時間分のファイルとした撮影データを生成する。具体例として、撮影データ処理部122は、バッファメモリ121が一時的に記憶している撮影データを、記録順に60秒間の撮影データをファイルとして生成する。撮影データ処理部122は、生成した撮影データを記録制御部123へ出力する。また、撮影データ処理部122は、生成した撮影データを表示制御部126へ出力する。ファイルとして生成される撮影データの期間は、一例として60秒としたが、これには限定されない。
記録制御部123は、撮影データ処理部122でファイル化された撮影データを、記録部240に記録させる制御を行う。記録制御部123は、イベント検出部127がイベントを検出していない期間は、撮影データ処理部122でファイル化された撮影データを、上書き可能な撮影データとして、記録部240に記録する。記録制御部123は、記録部240の記録容量が上限となった場合、記録部240に記録されている上書き可能な撮影データのうち、古い撮影データが記録されている記録領域から、新しい撮影データを上書きして記録する。記録制御部123が記録部240に記録する撮影データは、第一カメラ210が撮影した第一撮影データである。
記録制御部123は、イベント検出部127が、イベントが発生したと判断したことを受けて、イベント発生時点を含む所定の期間の第一撮影データを、上書きが禁止されたイベント記録データとして保存する。
記録制御部123によるイベント記録データの保存方法は任意である。例えば、第一撮影データにおける上書き禁止とする区間のヘッダもしくはペイロードなどに上書き禁止フラグを付与して、記録部240に保存する。または、第一撮影データにおける上書き禁止とする区間を、記録部240の上書き禁止エリアに保存する。あるいは、第一撮影データにおける上書き禁止とする区間を他の装置に送信して保存する。
再生制御部124は、記録部240に記録された撮影データを再生する制御を行う。再生制御部124は、記録部240に記録された、上書き可能な撮影データの再生に加えて、上書き禁止となっているイベント記録データの再生を行い、表示制御部126に出力する。
再生制御部124は、顔検出部129による検出結果に基づき、直近に保存されたイベント記録データの再生を開始する。また、再生制御部124は、操作部250で受け付けられた再生指示に基づき、各種撮影データの再生を行う。
操作制御部125は、操作部250が受け付けた操作情報を取得し、操作情報に基づいた操作指示を、各構成要素に出力する。操作制御部125は、操作部250から再生対象となる各種データの選択指示を取得した場合、再生制御部124に記録部220に記録されているファイルなどを選択させる。操作制御部125は、操作部250から各種データの再生に関する指示を取得した場合、再生制御部124に再生に関する処理を行わせる。各種データの再生に関する指示とは、例えば、再生開始、一時停止、再生停止、拡大表示などである。
表示制御部126は、表示部260に対し、様々な情報を表示させる制御を行う。例えば、表示制御部126は、第一カメラ210が撮影中の第一映像データを表示部260に表示させる。また、表示制御部126は、再生制御部124によって再生された記録部240に保存されているイベント記録データを表示部260に表示させる。また、表示制御部126は、表示部260が操作部250としてのタッチパネル機能を備えている場合、タッチ操作を行うアイコンなどを表示部260に表示させる。
イベント検出部127は、加速度センサであるセンサ270が検出している加速度情報を取得し、イベントに該当する加速度が検出された場合、イベントが検出されたと判断する。イベント検出部127は、イベントが検出されたと判断された場合、記録制御部123にイベントが検出された情報を出力する。
イベント検出部127は、センサ250から出力された加速度が、車両と、例えば他の車両などの他の物体が衝突したときの加速度に該当する加速度を、イベントに該当する加速度として検出する。イベントに該当する加速度の検出は、x軸方向、y軸方向およびz軸方向の各々で重み付けを行ってもよい。また、イベントに該当する加速度の検出は、加速度の立ち上がりが急峻な加速度を検出対象としてもよい。
移動情報取得部128は、GPS受信部280が受信したGPS衛星からの信号に基づき、時刻毎の現在位置を特定し、時刻毎の現在位置情報を記録制御部123に出力する。移動情報取得部128は、現在位置情報として、緯度経度を特定する。移動情報取得部128は、GPS受信部280からの信号に加えて、Wi−Fi(登録商標)などの電波を受信し、アクセスポイントの位置情報などを併用して現在位置を特定してもよい。
顔検出部129は、第二カメラ220が撮影して、撮影データ取得部120が取得した第二撮影データから、人の顔を検出する。顔検出部129は、パターンマッチングなど任意の手法を用いる。
顔検出部129は、第二撮影データから検出した人の顔が、表示部260の表示面261に近接したか否かを判断する。言い換えると、第二撮影データから検出した人の顔が、表示部260を構成する表示面261に近接したか否かを判断する。顔検出部129は、第二撮影データにおける、人の顔または人の顔を構成する構成物の距離に基づいて、人の顔が表示部260の表示面261に近接したか否かを判断する。このような判断の場合、直接的には、第二カメラ220と人の顔との距離を検出しているが、図3に示すように、表示部260の表示面261と第二カメラ220とは、記録再生装置10の筐体における同一またはほぼ同一の面に近接して配置されている。このため、顔検出部129は、第二カメラ220と人の顔との距離を、表示部260の表示面261と人の顔との距離として判断する。また、表示部260の表示面261と人の顔との距離は、検出された人の顔によって誤差が生じるが、第二撮影データから検出した人が、表示部260の表示面261を注視するために近接したことが判断できればよい。
また、顔検出部129は、第二撮影データから検出した人の顔における目の開度を検出する。言い換えると、顔検出部129は、第二撮影データから検出した人の顔が、単にその位置に人が存在するのみであるのか、表示部260の表示面261を注視しているかの判断を、目の開度に基づき判断する。顔検出部129は、目の開度を、上下まぶたの間隔から検出する。
また、顔検出部129は、第二撮影データから検出した人の顔における視線を検出する。言い換えると、顔検出部129は、第二撮影データから検出した人の顔から目の部分を認識し、認識した目における黒目の位置関係などから、第二撮影データから検出した人が表示部260の表示面261に視線が向いているか否かを判断する。また、第二カメラ220が赤外線領域を撮影するカメラである場合は、瞳孔や角膜の反射に基づいて、視線を検出する。
また、顔検出部129は、第二撮影データから検出した人の顔が、予め登録された人の顔であるか否かを判断してもよい。予め登録された人とは、例えば、車両の運転者、同乗者などであり、車両の運行前に予め登録してもよく、車両の運行中に自動的に登録されてもよい。言い換えると、顔検出部129は、予め登録された人が、表示部260の表示面261を注視しているか否かを判断する。顔検出部129は、第二撮影データから同時に複数の顔が検出された場合、検出された複数の顔のうち、少なくともひとつが予め登録された人の顔である場合、予め登録された人の顔が検出されたとしてもよい。
次に、図4を用いて、第一撮影データとイベント記録データとの関係を説明する。図4は、撮影データとイベントデータとの関係を概念的に示す図である。図4の横軸は時間の経過を示しており、右方向に向けて時間が経過していることを示す。
図4(a)は、撮影データ取得部120が第一カメラ210から取得して、バッファメモリ121に一時的に記憶している第一撮影データを示している。図4(a)の点線は、時間軸に記載された時刻t−3から時刻t+2に対応しており、撮影データ処理部122がファイルを生成するための期間を示している。バッファメモリ121に一時的に記憶されている状態では、ファイルは生成されていないため、点線で表示する。
図4(b)は、撮影データ処理部122が、バッファメモリ121に一時的に記憶している第一撮影データをファイル化して、記録制御部123が記録部240に記録した第一撮影データを示している。例えば、撮影データD−3は、時刻t−3から時刻t−2の間に撮影された撮影データであり、ファイル化されて記録部240に上書き可能な状態で記録されている。また、撮影データD−2も同様に、時刻t−2から時刻t−1の間に撮影された撮影データであり、ファイル化されて記録部240に上書き可能な状態で記録されている。
例えば、記録部240の記録容量が上限となった場合、図4(b)に示されている第一撮影データにおいては、撮影データD−3の前の撮影データが上書きされ、その次に撮影データD―3が上書きされ、その次に撮影データD−2が上書きされる。
例えば、時刻t−1から時刻tまでの間の時刻T1でイベントが検出された場合、イベント発生時刻である時刻T1の所定時間前から時刻T1の所定時間経過後までの期間における第一撮影データを、イベント記録データとして保存する。所定時間とは、例えば、イベント発生時刻である時刻T1の30秒前から時刻T1の30秒後までなどであるが、これに限定はされない。
一例としては、時刻t−1から時刻tまでの間の時刻T1でイベントが検出された場合、記録制御部123は、撮影データD−1を、記録部240の上書き禁止エリアにイベント記録データD−1´として保存する。
例えば、記録部240の記録容量が上限となった場合、図4(b)に示されている第一撮影データにおいては、撮影データD−1は撮影データD−2に続き上書きされてしまうが、撮影データD−1は、図4(c)に示されている記録部240の上書き禁止エリアに撮影データD−1´として保存されているため、確実に保存される。
時刻t−1から時刻tまでの期間の第一撮影データがファイル化され、記録部240の上書き禁止エリアに保存された撮影データD−1´は、イベント発生時点である時刻T1を含むイベント記録データである。イベント記録データは、イベント発生時点を含むファイルとして生成された期間の第一撮影データに限定されない。イベント記録データは、例えば、イベント発生時刻である時刻T1の所定時間前から時刻T1の所定時間経過後までの期間における撮影データを、イベント記録データとして保存することとしてもよい。所定時間とは、例えば30秒などであるが、これに限定はされない。
また、イベント記録データの保存は、記録部240の上書き禁止エリアへの保存に限らない。例えば、図示しない通信機能を用いて、予め登録された他の装置が備える記録部に記録することとしてもよい。具体例としては、記録再生装置10と予めペアリングされ通信が確立されている、運転者や同乗者の保有するスマートフォンへ、イベント記録データを送信してもよい。または、記録再生装置10に予め登録されている、運転者や運転者の関係者、さらには、保険会社や安全保障会社などが保有するサーバ等の装置へ、イベント記録データを送信してもよい。
上述した、第一撮影データおよびイベント記録データのいずれにおいても、移動情報取得部128が取得した位置情報を対応付けて記録されることが好ましい。
次に、図5を用いて、記録再生装置10が実行する記録再生処理の流れについて説明する。記録再生装置10が実行する記録再生処理は、記録再生装置として動作するコンピュータとしての制御部100が、プログラムに基づき実行する。制御部100の機能は、複数の装置または複数のユニットが備える制御装置が分散して実行してもよい。その場合、プログラムも装置毎、またはユニット毎に連携して実行される。
図5で、処理の開始とは、例えば、移動体である車両のエンジンまたは電源等がオンとなることで、記録再生装置10が動作可能となることである。処理の開始は、操作部250において記録再生処理の開始が指示されることによって開始されてもよい。
処理の開始に伴い、記録再生装置10は、撮影データの記録とイベントの検出を開始する。撮影データの記録の開始とは、撮影データ取得部120による第一カメラ210からの第一撮影データの取得、撮影データ処理部122による第一撮影データのファイル化、記録制御部123による第一撮影データの記録部240への記録が開始されることである。この場合の第一撮影データの記録は、記録部240に上書き可能な状態で記録され、通常記録またはループ記録とも呼ばれる。また、イベントの検出開始とは、イベント検出部127がセンサ270からの加速度情報の取得を開始し、取得した加速度情報に基づいてイベントの検出を開始することである。
また、図5に示す各処理が実行されている間は、第一撮影データの記録、加速度情報の取得によるイベント検出、移動情報取得部128による現在位置情報の特定は継続して実行されている。
ステップS101において、イベント検出部127は、イベントが検出されたか否かを判断する。イベント検出部127は、センサ270が検出した加速度が、例えば、車両に対する物体の衝突に該当するような加速度である場合に、イベントが検出されたと判断する。車両に対する物体の衝突に該当するような加速度とは、加速度の絶対値が所定の閾値以上の加速度である場合や、加速度の絶対値が所定の閾値以上の立ち上がりの急峻な加速度などである。
ステップS101において、イベントが検出されたと判断された場合(ステップS101:Yes)、記録制御部123は、ステップS101で検出されたイベントの発生時点を含む第一撮影データを、イベント記録データとして保存する(ステップS102)。記録制御部123は、イベントの発生時点を含む第一撮影データを、例えば、図4に示すように、記録部240の上書き禁止エリアに保存する。
ステップS101において、イベントが検出されていないと判断された場合(ステップS101:No)、ステップS107に推移する。
ステップS102において、イベント記録データが保存された場合、記録制御部123は、ステップS102でイベント記録データが保存されてから第一期間経過したか否かを判断する(ステップS103)。ステップS103の処理は、イベントが検出されてから第一期間経過したか否かの判断としてもよい。第一期間とは、事故等のイベントが発生した後に、そのイベントに対応するイベント記録データを、事故等の当事者や関係者が再生して確認しようとする期間を含む期間であることが好ましい。言い換えると、イベント記録データが保存されてから第一期間を超えるまで再生要求がないということは、そのイベント記録データは、事故によるものではないために、再生して確認することを要さないイベント記録データであるということがいえる。第一期間は、例えば10分などである。
ステップS103において、記録制御部123が、第一期間が経過していないと判断した場合(ステップS103:No)、顔検出部129は、第二カメラ220が撮影した第二撮影データから人の顔が検出されたか否かを判断する(ステップS104)。言い換えると、イベント記録データが保存されてから、またはイベントが発生したときから第一期間、顔検出部129は、第二カメラ220が撮影した第二撮影データから人の顔を検出する。
第二カメラ220を、上述した用途で用いる場合、第二カメラ220および顔検出部129は、常時動作していなくともよい。例えば、イベント検出部127がイベントを検出したときに、第二カメラ220が撮影を開始し、顔検出部129が顔の検出を開始してもよい。
ステップS104において、顔検出部129が人の顔を検出しなかった場合(ステップS104:No)、ステップS103に推移し、第一期間が経過したか否かを判断する。ステップS103において、記録制御部123が、第一期間が経過したと判断した場合(ステップS103:Yes)、言い換えると、第一期間の間に人の顔が検出されなかったと判断された場合、ステップS107に推移する。
ステップS104において、顔検出部129が、第一期間内に人の顔を検出した場合(ステップS104:Yes)、再生制御部124は、ステップS101で検出されたイベントに基づいて、ステップS102で保存されたイベント記録データの再生を行う(ステップS105)。言い換えると、第一期間内に人の顔が検出された場合(ステップS104:Yes)、第一期間が計時される直前のイベント発生によって生成されたイベント記録データが再生される。
ステップS105においては、再生制御部124は、記録部240に保存されたイベント記録データを再生し、再生されたイベント記録データは、表示制御部126の制御によって表示部260に表示される。
ステップS105で、イベント記録データが再生された後、記録制御部123はイベント記録データの再生が終了したか否かを判断する(ステップS106)。ステップS106の判断は、再生対象となっているイベント記録データのすべての再生が終了した場合や、操作部250が再生終了操作を受け付けた場合などで判断される。ステップS106において、イベント記録データの再生が終了したと判断された場合(ステップS106:Yes)、ステップS107に推移する。
ステップS105で、再生対象となっているイベント記録データの再生が開始した後、再生制御部124は、再生対象となっているイベント記録データを、操作部250が再生終了操作を受け付けるまで、繰り返し再生を行ってもよい。
ステップS107の処理は、ステップS101がNoの場合、ステップS103がYesの場合またはステップS106がYesの場合、記録制御部123は、第一撮影データの記録が終了したか否かを判断する。ステップS107における記録の終了とは、例えば、移動体である車両のエンジンまたは電源等がオフとなることで、記録再生装置10の動作が終了した場合などである。記録の終了は、操作部250において記録再生処理の終了が指示されることによって終了してもよい。
このような処理によって、イベント記録データの再生を行うことで事故等のイベントの状況を確認したいユーザが、記録再生装置10の機能を熟知していない場合であっても、容易且つ迅速に、イベント記録データとして記録された映像を確認することができる。
第1実施形態の変形例としては、ステップS104において、顔検出部129は、表示部260の表示面261に近接した人の顔を検出した場合に、人の顔が検出されたと判断してもよい。記録再生装置10がドライブレコーダである場合、第二カメラ220は、車両の運転者や同乗者の方向を向いて設置される。このため、表示部260に表示されるイベント記録データを確認したい場合、記録再生装置10に顔を近接させる、または記録再生装置10を車両から取り外して、記録再生装置10を顔に近接させる。
このような処理を行うことで、イベント記録データの再生を行うことで事故等のイベントの状況を確認したいユーザに、より適切にイベント記録データとして記録された映像を確認させることができる。
顔検出部129は、例えば、第二撮影データから検出した人の顔が、表示部260の表示面261に約50cm程度より近づいたと判断した場合に、第二撮影データから検出した人の顔が、表示部260の表示面261に近接したとする。近接したと判断する距離は、表示部260の表示面261、つまり表示パネルのサイズによって変更されてもよい。また、近接したと判断する距離は、表示面261を注視しない人と表示面261を注視する人とを区別できる距離であればよい。
さらには、顔検出部129は、ステップS104で検出する人の顔が、正面視またはほぼ正面視である場合に、人の顔が検出されたと判断してもよい。例えば、表示部260の表示面261に近接している人の顔が検出されたとしても、イベント記録データの確認を目的としていない場合を除外できる。顔検出部129は、検出した人の顔における顔の輪郭と両目の位置を検出し、それらの位置関係によって、正面視またはほぼ正面視であるか否かを判断する。
次に、図6を参照して、本発明の第2実施形態を説明する。第2実施形態に係る記録再生装置10の構成や、処理の多くは、第1実施形態と共通するため、説明を省略する。
図6は、記録再生装置10が実行する第2実施形態に係る処理例を示すフローチャートである。図5に示す処理と図6に示す処理においては、ステップS101とステップS111、ステップS102とステップS112、ステップS103とステップS113、ステップS105とステップS116、ステップS106とステップS117、ステップS107とステップS118の処理は共通するため、説明を省略する。
ステップS114において、顔検出部129は、第二撮影データから人の顔を検出するとともに検出された人の顔における目を特定し、特定された目の開度を取得する。ここで検出する目の開度は、目が閉じているか、目が開いているかが判断できる程度でよい。
ステップS114において、顔検出部129が、第一期間内に人の顔を検出した場合(ステップS114:Yes)、顔検出部129は、検出された顔における目の開度が所定以上であるか否かを判断する(ステップS115)。ステップS115の判断は、目の開度に基づき、目が開いているか閉じているかの判断としてもよい。
ステップS115において、検出された顔における目の開度が所定以上である、または、目が開いていると判断された場合(ステップS115:Yes)、ステップS116に推移する。ステップS115において、検出された顔における目の開度が所定未満である、または目が閉じていると判断された場合(ステップS115:No)、ステップS113に推移する。ステップS115がNoである場合であっても、操作部250が再生開始指示を受け付けた場合は、イベント記録データの再生が開始される。
このような処理を行うことで、イベント記録データの再生を行うことで事故等のイベントの状況を確認したいユーザに、より適切にイベント記録データとして記録された映像を確認させるとともに、検出された顔の人物が、イベント記録データの確認を目的としていない場合を除外できる。
次に、図7を参照して、本発明の第3実施形態を説明する。第3実施形態に係る記録再生装置10の構成や、処理の多くは、第1実施形態と共通するため、説明を省略する。
図7は、記録再生装置10が実行する第3実施形態に係る処理例を示すフローチャートである。図5に示す処理と図7に示す処理においては、ステップS101とステップS121、ステップS102とステップS122、ステップS103とステップS123、ステップS105とステップS126、ステップS106とステップS117、ステップS107とステップS128の処理は共通するため、説明を省略する。
ステップS124において、顔検出部129が、第一期間内に人の顔を検出した場合(ステップS124:Yes)、顔検出部129は、検出された顔が、予め登録された人の顔であるか否かを判断する(ステップS125)。
ステップS125において、検出された顔が、予め登録された顔であると判断された場合(ステップS125:Yes)、ステップS126に推移する。ステップS125において、検出された顔が、予め登録された顔ではないと判断された場合(ステップS125:No)、ステップS123に推移する。ステップS125がNoである場合であっても、操作部250が再生開始指示を受け付けた場合は、イベント記録データの再生が開始される。
このような処理を行うことで、記録再生装置10を装着している車両の運転者など予め登録された人が、イベント記録データの再生を行うことで事故等のイベントの状況を確認したい場合に、より適切にイベント記録データとして記録された映像を確認することができる。例えば、記録再生装置10を装着している車両が、事故の当事者である場合に、必ず当事者である車両の運転者または運転者を含めた形で、イベント記録データを確認することができ、当事者を含まない状態での事故分析が行われることを防止することができる。
図7で説明した第3実施形態は、顔検出部129がステップS124で複数の人の顔を検出した場合においても適用可能である。例えば、ステップS124で複数の人の顔を検出した場合、ステップS125で、複数の人の顔に予め登録された人の顔が含まれているか否かを判断する。ステップS125において、予め登録された人の顔が含まれている場合(ステップS125:Yes)、ステップS126に推移し、予め登録された人の顔が含まれていない場合(ステップS125:No)、ステップS123に推移する。
このような処理を行うことで、記録再生装置10を装着している車両の運転者など予め登録された人が、イベント記録データの再生を行うことで事故等のイベントの状況を確認したい場合に、より適切にイベント記録データとして記録された映像を確認することができる。例えば、記録再生装置10を装着している車両が、事故の当事者である場合に、必ず当事者である車両の運転者を含めた形で、イベント記録データを確認することができ、当事者を含まない状態での事故分析が行われることを防止することができる。
次に、図8から図10を参照して、本発明の第4実施形態を説明する。第4実施形態に係る記録再生装置10は、複数の装置で構成される。図8は、本発明の第4実施形態に係る記録再生装置の構成を概念的に示す図であり、記録再生装置40は、車両側装置11と携帯端末50とで構成される。記録再生装置40の構成は、同様の機能を備えた装置の組み合わせであれば、本実施形態の構成に限定されない。
図8において、車両側装置11は、図2および図3に示す記録再生装置10と同様である。車両側装置11は、ドライブレコーダとして、車両のウィンドシールド上部に車両の前方を向いて装着された場合、図2における第一カメラ410は、車両のウィンドシールドを介して車両の周囲である前方を撮影可能である。携帯端末50は、第二カメラ510と第二表示部560の表示面561とが、携帯端末50の筐体における同一またはほぼ同一の面に近接して配置されている。
車両側装置11と携帯端末50とは、無線通信によって接続されている。車両側装置11と携帯端末50とは、少なくとも、車両側装置11で生成されたイベント記録データが、無線通信を用いて携帯端末50に送信される。このため、車両側装置11と携帯端末50とは、ペアリング等、予め通信が確立されるための処理が行われている。
図9は、本発明の第4実施形態に係る記録再生装置を構成する車両側装置の構成を示すブロック図である。図1に示す記録再生装置10として機能するドライブレコーダとの差異は、車両側装置11には、第二カメラおよび顔検出部を備えられていなくともよく、携帯端末50と通信する第一通信制御部430および第一通信部490を備える点である。図9における他の構成は、図1に示す構成と共通する。
図10は、本発明の第4実施形態に係る記録再生装置を構成する携帯端末の構成を示すブロック図である。携帯端末50には、第二カメラ510、顔検出部529および車両側装置11と通信する第二通信制御部530および第二通信部590を備える。
図10において、第二カメラ510は、第二表示部560の表示面561に対向する方向を撮影する。図10における各構成は、図1に示す構成と同様である。
図8から図10で示した記録再生装置40による処理例を、図5の例を用いて説明する。図5に基づく記録再生装置40による処理においては、第1実施形態と共通する処理については説明を省略する。また、記録再生装置40による処理は、第1実施形態のみに限らず、他の実施形態にも適用可能である。記録再生装置40による処理の開始時には、車両側装置11と携帯端末50とは、ペアリング等が行われ、通信可能な状態である。
ステップS101において、車両側装置11のイベント検出部427が、イベントが検出されたと判断された場合(ステップS101:Yes)、ステップS102に該当する処理として、記録制御部423は、ステップS101で検出されたイベントの発生時点を含む第一撮影データを、イベント記録データとして第一通信部490を用いて携帯端末50に送信する。また、携帯端末50においては、記録制御部523は、第二通信部590で受信したイベント記録データを、記録部540に保存する。
ステップS102において、イベント記録データが携帯端末50の記録部540に保存された場合、記録制御部523は、ステップS102でイベント記録データが保存されてから第一期間経過したか否かを判断する(ステップS103)。
ステップS103において、記録制御部523が、第一期間が経過していないと判断した場合(ステップS103:No)、携帯端末50の顔検出部529は、第二カメラ510が撮影した第二撮影データから人の顔が検出されたか否かを判断する(ステップS104)。言い換えると、イベント記録データが保存されてから、またはイベントが発生したときから第一期間、顔検出部529は、第二カメラ510が撮影した第二撮影データから人の顔を検出する。
第二カメラ512を、上述した用途で用いる場合、第二カメラ510および顔検出部529は、常時動作していなくともよい。例えば、第二通信部540がイベント記録データを受信したときや、記録制御部523がイベント記録データを保存したときに、第二カメラ510が撮影を開始し、顔検出部529が顔の検出を開始してもよい。
ステップS104において、顔検出部529が、第一期間内に人の顔を検出した場合(ステップS104:Yes)、再生制御部524は、車両側装置11から受信して記録部540に保存したイベント記録データの再生を行う(ステップS105)。再生制御部524で再生されたイベント記録データは、携帯端末50の第二表示部560に表示される。言い換えると、第一期間内に携帯端末50の前で人の顔が検出された場合(ステップS104:Yes)、第一期間が計時される直前のイベント発生によって生成されたイベント記録データが、携帯端末50で再生される。
このような処理によって、イベント記録データの再生を行うことで事故等のイベントの状況を確認したいユーザが、記録再生装置10の機能を熟知していない場合であっても、例えば携帯端末50などの他の装置を用いて、容易且つ迅速に、イベント記録データとして記録された映像を確認することができる。
なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。例えば、ステップS103等の処理において、第一期間を、例えば10分などの固定値として説明したが、第一期間は条件に応じて変動する期間であってもよい。また、事故の大きさによっては、顔が予め登録されている運転者や同乗者が、事故の検証に加わることができない場合がある。このような場合は、通常の操作によってイベント記録データの再生を行うことができる。
また、上述した処理をコンピュータに実行させるためのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体を用いて格納され、記録再生装置として動作するコンピュータに供給することができる。
10、40 記録再生装置
11 車両側装置
50 携帯端末
100,400、500 制御部
110、410、510 バスライン
120、420、520 撮影データ取得部
121、421 バッファメモリ
122、422 撮影データ処理部
123、423、523 記録制御部
124、424、524 再生制御部
125、425、525 操作制御部
126、426、526 表示制御部
127、427 イベント検出部
128、428 移動情報取得部
129、529 顔検出部
210、410 第一カメラ
220、510 第二カメラ
240、540 記録部
250、550 操作部
260、460 表示部
261 表示面
270、470 センサ
280、480 GPS受信部
400 第一制御部
430 第一通信制御部
490 第一通信部
500 第二制御部
530 第二通信制御部
560 第二表示部
561 表示面
590 第二通信部

Claims (9)

  1. 移動体の周囲を撮影する第一カメラが撮影した第一撮影データ、および表示部の表示面に対向する方向を撮影する第二カメラが撮影した第二撮影データを取得する撮影データ取得部と、
    前記移動体に対するイベントを検出するイベント検出部と、
    前記イベント検出部がイベントを検出した場合、少なくともイベントの発生時点を含む第一撮影データをイベント記録データとして保存する記録制御部と、
    前記第二撮影データから人の顔を検出する顔検出部と、
    前記イベント記録データの保存後、所定期間内に前記顔検出部が人の顔を検出した場合、前記イベント記録データを再生する再生制御部と、
    前記再生制御部が再生した前記イベント記録データを前記表示部に表示させる表示制御部と、
    を備える記録再生装置。
  2. 前記顔検出部は、検出した人の顔が前記表示部の表示面に近接したか否かを検出し、
    前記再生制御部は、イベント記録データの保存後、所定期間内に前記顔検出部が人の顔が前記表示の表示面に近接したと判断した場合、前記イベント記録データの再生を行う、
    請求項1に記載の記録再生装置。
  3. 前記顔検出部は、検出した人の顔における目の開度をさらに検出し、
    前記再生制御部は、イベント記録データの保存後、所定期間内に前記顔検出部が目の開度が所定以上の顔を検出した場合、前記イベント記録データの再生を行う、
    請求項1または2に記載の記録再生装置。
  4. 前記顔検出部は、検出した人の顔における視線をさらに検出し、
    前記再生制御部は、イベント記録データの保存後、所定期間内に前記表示部の表示面に視線が向いたことを検出した場合、前記イベント記録データの再生を行う、
    請求項1から3のいずれか1項に記載の記録再生装置。
  5. 前記顔検出部は、予め登録された人の顔を検出し、
    前記再生制御部は、イベント記録データの保存後、所定期間内に前記顔検出部が予め登録された人の顔を検出した場合、前記イベント記録データの再生を行う、
    請求項1から4のいずれか1項に記載の記録再生装置。
  6. 前記再生制御部は、イベント記録データの保存後、所定期間内に前記顔検出部が予め登録された人の顔を含む複数の顔を検出した場合、前記イベント記録データの再生を行う、
    請求項5に記載の記録再生装置。
  7. 前記撮影データ取得部は、前記イベント検出部がイベントを検出した場合に、前記第二カメラが撮影した第二撮影データを取得する、
    請求項1から6のいずれか1項に記載の記録再生装置。
  8. 移動体の周囲を撮影する第一カメラが撮影した第一撮影データを取得する第一撮影データ取得ステップと、
    前記移動体に対するイベントを検出するイベント検出ステップと、
    イベントが検出された場合、少なくともイベントの発生時点を含む第一撮影データをイベント記録データとして保存する記録ステップと、
    表示部の表示面に対向する方向を撮影する第二カメラが撮影した第二撮影データを取得する第二撮影データ取得ステップと、
    前記第二撮影データから人の顔を検出する顔検出ステップと、
    前記記録ステップにおけるイベント記録データの保存後、所定期間内に人の顔が検出された場合、前記イベント記録データを再生する再生ステップと、
    前記再生ステップにおいて再生された前記イベント記録データを前記表示部に表示させる表示ステップと、
    を含む記録再生方法。
  9. 移動体の周囲を撮影する第一カメラが撮影した第一撮影データを取得する第一撮影データ取得ステップと、
    前記移動体に対するイベントを検出するイベント検出ステップと、
    イベントが検出された場合、少なくともイベントの発生時点を含む第一撮影データをイベント記録データとして保存する記録ステップと、
    表示部の表示面に対向する方向を撮影する第二カメラが撮影した第二撮影データを取得する第二撮影データ取得ステップと、
    前記第二撮影データから人の顔を検出する顔検出ステップと、
    前記記録ステップにおけるイベント記録データの保存後、所定期間内に人の顔が検出された場合、前記イベント記録データを再生する再生ステップと、
    前記再生ステップにおいて再生された前記イベント記録データを前記表示部に表示させる表示ステップと、
    を記録再生装置として動作するコンピュータに実行させるためのプログラム。
JP2018108741A 2018-06-06 2018-06-06 記録再生装置、記録再生方法、およびプログラム Active JP6705470B2 (ja)

Priority Applications (7)

Application Number Priority Date Filing Date Title
JP2018108741A JP6705470B2 (ja) 2018-06-06 2018-06-06 記録再生装置、記録再生方法、およびプログラム
PCT/JP2019/018576 WO2019235127A1 (ja) 2018-06-06 2019-05-09 記録再生装置、記録再生方法、およびプログラム
CN201980004909.5A CN111183458B (zh) 2018-06-06 2019-05-09 记录再现装置、记录再现方法以及程序
EP19815813.1A EP3806045B1 (en) 2018-06-06 2019-05-09 Record/play device, record/play method, and program
JP2020077252A JP6939944B2 (ja) 2018-06-06 2020-04-24 再生装置、再生方法、およびプログラム
US16/861,632 US11115587B2 (en) 2018-06-06 2020-04-29 Recording reproduction apparatus, recording reproduction method, and program
US17/366,952 US11616905B2 (en) 2018-06-06 2021-07-02 Recording reproduction apparatus, recording reproduction method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018108741A JP6705470B2 (ja) 2018-06-06 2018-06-06 記録再生装置、記録再生方法、およびプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2020077252A Division JP6939944B2 (ja) 2018-06-06 2020-04-24 再生装置、再生方法、およびプログラム

Publications (2)

Publication Number Publication Date
JP2019212110A JP2019212110A (ja) 2019-12-12
JP6705470B2 true JP6705470B2 (ja) 2020-06-03

Family

ID=68770235

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018108741A Active JP6705470B2 (ja) 2018-06-06 2018-06-06 記録再生装置、記録再生方法、およびプログラム

Country Status (5)

Country Link
US (2) US11115587B2 (ja)
EP (1) EP3806045B1 (ja)
JP (1) JP6705470B2 (ja)
CN (1) CN111183458B (ja)
WO (1) WO2019235127A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6705470B2 (ja) * 2018-06-06 2020-06-03 株式会社Jvcケンウッド 記録再生装置、記録再生方法、およびプログラム
JP7192570B2 (ja) * 2019-02-27 2022-12-20 株式会社Jvcケンウッド 記録再生装置、記録再生方法およびプログラム
JP7435082B2 (ja) 2020-03-16 2024-02-21 株式会社Jvcケンウッド ドライブレコーダ、データ記録方法およびプログラム
US11623565B1 (en) * 2020-11-05 2023-04-11 Olubukola Okunoye Indestructible auto vehicle event recording box
CN113240940A (zh) * 2021-05-07 2021-08-10 恒大恒驰新能源汽车研究院(上海)有限公司 汽车提醒监控方法、电子设备及存储介质

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007036846A (ja) * 2005-07-28 2007-02-08 Nippon Telegr & Teleph Corp <Ntt> 動画再生装置およびその制御方法
KR101309176B1 (ko) * 2006-01-18 2013-09-23 삼성전자주식회사 증강 현실 장치 및 방법
JP2008140334A (ja) * 2006-12-05 2008-06-19 Asahi Research Kk 撮影画像記録再生装置
JP4439548B2 (ja) * 2007-09-28 2010-03-24 富士通テン株式会社 ドライブレコーダ
US8421862B2 (en) 2007-09-28 2013-04-16 Fujitsu Ten Limited Drive recorder
JP2010004118A (ja) * 2008-06-18 2010-01-07 Olympus Corp デジタルフォトフレーム、情報処理システム、制御方法、プログラム及び情報記憶媒体
JP5563153B2 (ja) * 2011-03-30 2014-07-30 本田技研工業株式会社 操作装置
JP5905691B2 (ja) * 2011-09-26 2016-04-20 トヨタ自動車株式会社 車両用操作入力装置
DE102013015291A1 (de) * 2013-09-14 2015-03-19 Man Truck & Bus Ag Verfahren und Vorrichtung zur Anzeige von visuellen Informationen in einem Fahrzeug, insbesondere in einem Nutzfahrzeug
CN103824346B (zh) * 2014-02-17 2016-04-13 深圳市宇恒互动科技开发有限公司 行车记录及重现方法和系统
KR101698103B1 (ko) * 2015-02-06 2017-01-19 엘지전자 주식회사 차량 제어 시스템 및 그 제어 방법
CN105117450A (zh) * 2015-08-17 2015-12-02 四川长虹电器股份有限公司 智能推荐食品的冰箱及方法
EP3393132B1 (en) * 2015-12-17 2022-11-02 Panasonic Intellectual Property Corporation of America Display method and display device
EP3468172A1 (en) * 2016-06-02 2019-04-10 Sony Corporation Display control device, display control method, display device, and moving body device
CN107194288A (zh) * 2017-04-25 2017-09-22 上海与德科技有限公司 显示屏的控制方法及终端
JP6501012B2 (ja) 2018-03-05 2019-04-17 セイコーエプソン株式会社 液体噴射装置及び液体噴射装置のメンテナンス方法
JP6705470B2 (ja) * 2018-06-06 2020-06-03 株式会社Jvcケンウッド 記録再生装置、記録再生方法、およびプログラム

Also Published As

Publication number Publication date
EP3806045A1 (en) 2021-04-14
US20210337111A1 (en) 2021-10-28
WO2019235127A1 (ja) 2019-12-12
CN111183458A (zh) 2020-05-19
US20200259997A1 (en) 2020-08-13
EP3806045B1 (en) 2023-02-22
CN111183458B (zh) 2021-03-02
US11115587B2 (en) 2021-09-07
JP2019212110A (ja) 2019-12-12
EP3806045A4 (en) 2021-08-11
US11616905B2 (en) 2023-03-28

Similar Documents

Publication Publication Date Title
JP6705470B2 (ja) 記録再生装置、記録再生方法、およびプログラム
JP6627995B2 (ja) 記録装置、記録方法、およびプログラム
WO2020129279A1 (ja) 記録制御装置、記録制御システム、記録制御方法、および記録制御プログラム
JP6828725B2 (ja) 記録再生装置、記録再生方法、およびプログラム
US20210407227A1 (en) On-vehicle recording control apparatus, on-vehicle recording apparatus, on-vehicle recording control method, and non-transitory computer-readable recording medium
JP2017107475A (ja) 車載システム及びドライブレコーダー
JP6939944B2 (ja) 再生装置、再生方法、およびプログラム
US11877099B2 (en) Recording system, recording method, and program
JP7006815B2 (ja) 記録再生装置、記録再生方法、およびプログラム
JP6708320B1 (ja) 記録装置、記録方法、およびプログラム
JP6791331B2 (ja) 記録制御装置、記録制御方法、およびプログラム
JP7218787B2 (ja) 記録再生装置
JP7447455B2 (ja) 車両用記録制御装置および車両用記録制御方法
WO2022239481A1 (ja) 撮影装置、及びプログラム
JP2023098263A (ja) 車両用記録制御装置および記録方法
JP2024039223A (ja) 車両用記録装置および映像送信方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191224

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200109

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200414

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200427

R150 Certificate of patent or registration of utility model

Ref document number: 6705470

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150