JP7274917B2 - Video playback device and video playback method - Google Patents

Video playback device and video playback method Download PDF

Info

Publication number
JP7274917B2
JP7274917B2 JP2019074155A JP2019074155A JP7274917B2 JP 7274917 B2 JP7274917 B2 JP 7274917B2 JP 2019074155 A JP2019074155 A JP 2019074155A JP 2019074155 A JP2019074155 A JP 2019074155A JP 7274917 B2 JP7274917 B2 JP 7274917B2
Authority
JP
Japan
Prior art keywords
image
reproduction
image data
video playback
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019074155A
Other languages
Japanese (ja)
Other versions
JP2020174248A (en
Inventor
亮太 藤井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2019074155A priority Critical patent/JP7274917B2/en
Publication of JP2020174248A publication Critical patent/JP2020174248A/en
Application granted granted Critical
Publication of JP7274917B2 publication Critical patent/JP7274917B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Time Recorders, Dirve Recorders, Access Control (AREA)
  • Television Signal Processing For Recording (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、映像再生装置および映像再生方法に関する。 The present invention relates to a video reproducing device and a video reproducing method.

近年、例えば、車両のフロントカメラや、リアカメラなど車両周囲が別々に撮像された映像データをそれぞれ記憶媒体に記録するドライブレコーダがある(例えば、特許文献1参照)。 2. Description of the Related Art In recent years, for example, there is a drive recorder that records video data obtained by separately capturing the surroundings of a vehicle such as a front camera and a rear camera of the vehicle in a storage medium (see, for example, Patent Document 1).

特開2010-244473号公報JP 2010-244473 A

しかしながら、従来技術では、複数の映像データを同時に再生する場合において、各々の映像データそれぞれの再生時刻にタイムラグが生じる場合があった。具体的には同時に再生しているにも関わらず、異なる時刻に撮像された映像データが表示される場合があった。 However, in the conventional technology, when a plurality of pieces of video data are reproduced at the same time, a time lag may occur between the reproduction times of the respective pieces of video data. Specifically, there have been cases in which video data captured at different times are displayed even though they are being played back at the same time.

本発明は、上記に鑑みてなされたものであって、再生時に生じる再生時刻のタイムラグを解消することができる映像再生装置および映像再生方法を提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a video reproducing apparatus and a video reproducing method capable of eliminating the time lag in reproduction time that occurs during reproduction.

上述した課題を解決し、目的を達成するために、実施形態に係る映像再生装置は、取得部と、再生部と、補正部とを備える。前記取得部は、移動体にそれぞれ設けられた複数の撮像装置において、撮像された画像データが、当該撮像装置ごとに異なる形式で分割して保存された複数のファイルを取得する。前記再生部は、前記取得部によって取得された前記複数のファイルから前記画像データを読み出して、前記撮像装置毎に同時再生する。前記補正部は、前記再生部によって同時再生される前記画像データの同時再生時に生じる再生時刻のズレを補正する。 In order to solve the above-described problems and achieve the object, a video playback device according to an embodiment includes an acquisition unit, a playback unit, and a correction unit. The acquisition unit acquires a plurality of files in which image data captured by a plurality of imaging devices provided in each of the moving bodies is divided and saved in different formats for each imaging device. The reproducing unit reads out the image data from the plurality of files acquired by the acquiring unit, and simultaneously reproduces the image data for each imaging device. The correcting section corrects a reproduction time lag that occurs when the image data that are simultaneously reproduced by the reproducing section are simultaneously reproduced.

本発明によれば、再生時に生じる再生時刻のタイムラグを解消することができる。 According to the present invention, it is possible to eliminate the time lag in playback time that occurs during playback.

図1Aは、映像再生システムの概要を示す図である。FIG. 1A is a diagram showing an overview of a video playback system. 図1Bは、映像再生方法の概要を示す図である。FIG. 1B is a diagram showing an overview of the video playback method. 図2は、車載装置のブロック図である。FIG. 2 is a block diagram of an in-vehicle device. 図3は、映像再生装置のブロック図である。FIG. 3 is a block diagram of a video playback device. 図4は、再生画面のレイアウトの一例を示す図である。FIG. 4 is a diagram showing an example layout of a playback screen. 図5は、検出部による処理の一例を示す図である。FIG. 5 is a diagram illustrating an example of processing by a detection unit; 図6は、補正部による補正内容の具体例を示す図である。FIG. 6 is a diagram showing a specific example of correction content by the correction unit. 図7は、映像再生装置が実行する処理手順を示すフローチャートである。FIG. 7 is a flow chart showing a processing procedure executed by the video playback device.

以下、添付図面を参照して、実施形態に係る映像再生装置および映像再生方法について説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。なお、以下では、移動体が車両である場合について説明するが、移動体は、車両に限られず、車両以外の移動体、例えば、バイク、船舶や航空機であってもよい。 A video reproducing apparatus and a video reproducing method according to embodiments will be described below with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below. In the following description, the mobile object is a vehicle, but the mobile object is not limited to a vehicle, and may be a mobile object other than a vehicle, such as a motorcycle, a ship, or an aircraft.

まず、図1Aおよび図1Bを用いて実施形態に係る映像再生装置および映像再生方法の概要について説明する。図1Aは、映像再生システムの構成例を示す図である。図1Bは、映像再生方法の概要を示す図である。 First, an outline of a video playback device and a video playback method according to an embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a diagram showing a configuration example of a video playback system. FIG. 1B is a diagram showing an overview of the video playback method.

図1Aに示すように、実施形態に係る画像処理システムSは、映像再生装置1と、車載装置50とを備える。車載装置50は、例えば、車両上で撮像された画像データを記憶する記憶装置である。図1Aの例において、車載装置50は、フロントカメラ10fと、車両の後方を撮像するリアカメラ10bとに接続され、フロントカメラ10fおよびリアカメラ10bによって撮像された画像データをそれぞれ内部の記憶媒体に記憶する。 As shown in FIG. 1A, an image processing system S according to the embodiment includes a video playback device 1 and an in-vehicle device 50 . The in-vehicle device 50 is, for example, a storage device that stores image data captured on the vehicle. In the example of FIG. 1A, the in-vehicle device 50 is connected to a front camera 10f and a rear camera 10b that captures an image of the rear of the vehicle. Remember.

フロントカメラ10fは、車両の前方を撮像するカメラであり、リアカメラ10bは、車両の後方を撮像するカメラである。本実施形態において、フロントカメラ10fおよびリアカメラ10bは、それぞれ異なるフレームレートで画像データを生成する。なお、フロントカメラ10fおよびリアカメラ10bは、それぞれ撮像装置の一例に対応する。また、撮像装置は、フロントカメラ10fおよびリアカメラ10bに限られず、車両の側方を撮像する側方カメラや、車内を撮像する車内カメラを含むようにしてもよい。また、以下では、フロントカメラ10fおよびリアカメラ10bを区別する必要がない場合、カメラ10と記載する場合がある。 The front camera 10f is a camera for imaging the front of the vehicle, and the rear camera 10b is a camera for imaging the rear of the vehicle. In this embodiment, the front camera 10f and the rear camera 10b generate image data at different frame rates. Note that the front camera 10f and the rear camera 10b each correspond to an example of an imaging device. Further, the imaging device is not limited to the front camera 10f and the rear camera 10b, and may include a side camera for imaging the side of the vehicle and an in-vehicle camera for imaging the interior of the vehicle. Further, hereinafter, the front camera 10f and the rear camera 10b may be referred to as the camera 10 when there is no need to distinguish between them.

図1Aに示す映像再生装置1は、車載装置50から取得した画像データを再生するいわゆるビュワーソフトを有するコンピュータである。なお、映像再生装置1は、スマートフォンを含む携帯電話機や、タブレット端末や、デスクトップ型PCや、ノート型PCや、PDA(Personal Digital Assistant)等の情報処理装置である。また、映像再生装置1には、眼鏡型や時計型の情報処理端末であるウェアラブルデバイス(wearable device)も含まれる。 A video reproduction device 1 shown in FIG. 1A is a computer having so-called viewer software for reproducing image data acquired from an in-vehicle device 50 . Note that the video playback device 1 is an information processing device such as a mobile phone including a smart phone, a tablet terminal, a desktop PC, a notebook PC, or a PDA (Personal Digital Assistant). The video playback device 1 also includes a wearable device, which is an information processing terminal in the form of spectacles or a watch.

例えば、図1Aに示すように、映像再生装置1は、可搬性メモリMや、ネットワークNを介して、車載装置50から画像データを取得することができる。ここで、車載装置50は、フロントカメラ10fの画像データと、リアカメラ10bの画像データとをそれぞれ所定容量(例えば、36MB)のファイルに分割して記録する。なお、以下では、フロントカメラ10fによって撮像された画像データをフロント画像、リアカメラ10bによって撮像された画像データをリア画像と記載する場合がある。 For example, as shown in FIG. 1A, the video playback device 1 can acquire image data from an in-vehicle device 50 via a portable memory M or a network N. FIG. Here, the in-vehicle device 50 divides the image data of the front camera 10f and the image data of the rear camera 10b into files each having a predetermined capacity (for example, 36 MB) and records them. Note that hereinafter, image data captured by the front camera 10f may be referred to as a front image, and image data captured by the rear camera 10b may be referred to as a rear image.

ここで、フロントカメラ10fとリアカメラ10bとで、異なる形式で記録された場合、1ファイル内に保存できる画像データの撮像期間がフロント画像とリア画像で異なることとなる。異なる形式とは具体的には、保存時のビットレートが異なる場合である。例えば、フロント画像よりもリア画像の方を低ビットレートで保存する場合がある。この場合、ビットレートが下がると画質も下がるため、フレームレートや画像の解像度を下げて、記録された画像の画質を保つこともある。 Here, if the front camera 10f and the rear camera 10b record in different formats, the imaging period of the image data that can be stored in one file differs between the front image and the rear image. The different format specifically means that the bit rate at the time of saving is different. For example, the rear image may be saved at a lower bit rate than the front image. In this case, as the bit rate decreases, the image quality also decreases, so the frame rate and image resolution may be lowered to maintain the image quality of the recorded image.

また、一般的に、画像データの再生時においては、ファイルが切り替わるタイミングにおいて、切り替え処理を行うため、タイムラグが生じる。このため、前述のようにフロント画像とリア画像とで、1ファイル内に保存されている画像の撮像期間が異なる場合、そのまま同時に再生すると、再生が進むにつれて、フロント画像と、リア画像とで再生時刻が徐々にずれていく。これは、1ファイルの記録期間が異なるため、フロント画像とリア画像とで、切り替え処理の発生頻度が異なるためである。 In general, when reproducing image data, switching processing is performed at the timing when files are switched, so a time lag occurs. For this reason, as described above, if the front image and the rear image are stored in one file and have different imaging periods, if they are played back at the same time, the front image and the rear image will be played back as the playback progresses. The time gradually slips away. This is because the recording period of one file is different, and therefore the frequency of occurrence of switching processing differs between the front image and the rear image.

具体的には、図1Bを用いて説明する。図1Bは、フロント画像の1ファイル当たりの記録期間が、リア画像の1ファイル当たりの記録期間の約2/3である場合の例である。この場合、フロント画像において、ファイルが切り替わる切替タイミングTが2回発生する間に、リア画像においては1回の切替タイミングTが発生する。このため、1回の切替タイミングTの分だけ、フロント画像がリア画像よりも遅延して再生されることとなる。 Specifically, it will be described with reference to FIG. 1B. FIG. 1B is an example in which the recording period per file for the front image is about ⅔ of the recording period per file for the rear image. In this case, one switching timing T occurs in the rear image while two switching timings T for switching files occur in the front image. Therefore, the front image is reproduced with a delay from the rear image by the switching timing T of one time.

具体的に、1ファイル当たりフロント画像は20秒、リア画像は30秒、それぞれ記録されているとする。この場合、フロント画像1-1再生終了直後の時点では、フロント画像の再生時刻は20秒であり、リア画像の再生時刻も20秒である。その後フロント画像は切り替え処理が行われ、処理に1秒を要したとする。すると、切替タイミングTの後、フロント画像はフロント画像1-2に切り替わって再生が開始したため、再生時刻は20秒のままである。一方、リア画像2-1は切り替え処理中も再生を続けるため、再生時刻は21秒である。切替タイミングTの後、このように、フロント画像とリア画像との間で、再生時刻に1秒のズレが生じる。 Specifically, it is assumed that the front image is recorded for 20 seconds and the rear image is recorded for 30 seconds per file. In this case, immediately after the front image 1-1 is reproduced, the reproduction time of the front image is 20 seconds, and the reproduction time of the rear image is also 20 seconds. After that, the front image is subjected to switching processing, and it is assumed that the processing takes one second. Then, after the switching timing T, the front image is switched to the front image 1-2 and playback is started, so the playback time remains at 20 seconds. On the other hand, since the rear image 2-1 continues to be reproduced even during the switching process, the reproduction time is 21 seconds. After the switching timing T, a difference of 1 second occurs in the reproduction time between the front image and the rear image.

このような映像間の再生時刻のズレは、再生が進むにつれて大きくなるため、ユーザに違和感を与えることが想定される。 Since such a lag in playback time between videos increases as playback progresses, it is expected to give the user a sense of discomfort.

そこで、実施形態に係る映像再生方法では、フロント画像およびリア画像を同時に再生する際に、フロント画像とリア画像との再生時刻のズレを補正する。例えば、映像再生方法では、再生速度を調節することで、再生時刻のズレを補正することができる。 Therefore, in the video reproduction method according to the embodiment, when the front image and the rear image are reproduced simultaneously, the difference in reproduction time between the front image and the rear image is corrected. For example, in the video playback method, it is possible to correct the lag in playback time by adjusting the playback speed.

具体的には、映像再生方法では、再生時刻が遅延している遅延画像の再生速度を速くしたり、再生時刻が先行している先行画像の再生速度を遅くしたりすることで、再生時刻のズレを補正する。 Specifically, in the video playback method, by increasing the playback speed of a delayed image whose playback time is delayed and slowing down the playback speed of a preceding image whose playback time is earlier, Correct the misalignment.

これにより、実施形態に係る映像再生方法では、実際に画像を撮像した時刻が同期している状態で、フロント画像およびリア画像をそれぞれ同時に再生することが可能となる。つまり、実施形態に係る映像再生方法によれば、再生時刻のタイムラグを解消することができる。 As a result, in the video reproduction method according to the embodiment, it is possible to simultaneously reproduce the front image and the rear image in a state in which the times at which the images were actually captured are synchronized. That is, according to the video reproduction method according to the embodiment, it is possible to eliminate the time lag of the reproduction time.

また、再生速度を変更することで、ユーザに対して違和感を与える場合も想定される。このため、実施形態に係る映像再生方法では、ユーザに与える違和感が軽減されるタイミングで補正を行うことも可能である。この点の詳細については、図5を用いて後述する。 In addition, it is assumed that changing the playback speed may give the user a sense of discomfort. Therefore, in the video reproduction method according to the embodiment, it is also possible to perform the correction at the timing at which the discomfort given to the user is reduced. Details of this point will be described later with reference to FIG.

次に、図2を用いて、車載装置50の構成例について説明する。図2は、車載装置50のブロック図である。図2に示すように、車載装置50は、フロントカメラ10f、リアカメラ10b、センサ群15にそれぞれ接続される。 Next, a configuration example of the in-vehicle device 50 will be described with reference to FIG. FIG. 2 is a block diagram of the in-vehicle device 50. As shown in FIG. As shown in FIG. 2, the in-vehicle device 50 is connected to the front camera 10f, the rear camera 10b, and the sensor group 15, respectively.

上述のように、フロントカメラ10fは、車両の前方を撮像するカメラであり、リアカメラ10bは、車両の後方を撮像するカメラである。例えば、フロントカメラ10fおよびリアカメラ10bは、異なるビットレートで画像データを生成し、画像データを車載装置50へ出力する。なお、本実施形態において、フロントカメラ10fの方がリアカメラ10bよりもビットレートが高いものとする。なお、リアカメラ10bは、低ビットレートでも画質を保つために、フロントカメラ10fよりも小さいフレームレートで撮像を行う。 As described above, the front camera 10f is a camera for imaging the front of the vehicle, and the rear camera 10b is a camera for imaging the rear of the vehicle. For example, the front camera 10 f and the rear camera 10 b generate image data at different bit rates and output the image data to the in-vehicle device 50 . In this embodiment, it is assumed that the bit rate of the front camera 10f is higher than that of the rear camera 10b. Note that the rear camera 10b captures images at a lower frame rate than the front camera 10f in order to maintain image quality even at a low bit rate.

センサ群15は、車両の走行状態を検出する各種センサであり、それぞれ検出結果を車載装置50へ出力する。センサ群15には、例えば、車両の走行速度を検出する速度センサ、車両に生じる加速度を検出する加速度センサ、車両の舵角を検出する舵角センサ、車両の現在地を検出する位置センサなどが含まれる。 The sensor group 15 is various sensors that detect the running state of the vehicle, and outputs detection results to the in-vehicle device 50 . The sensor group 15 includes, for example, a speed sensor that detects the traveling speed of the vehicle, an acceleration sensor that detects the acceleration generated in the vehicle, a steering angle sensor that detects the steering angle of the vehicle, a position sensor that detects the current position of the vehicle, and the like. be

図2に示すように、車載装置50は、制御部6と、記憶部7とを備える。制御部6は、車載装置50の各種機能を制御するコントローラである。制御部6は、CPU、MPU等のプロセッサであってもよいし、FPGA、ASIC等の集積回路であってもよい。 As shown in FIG. 2 , the in-vehicle device 50 includes a control section 6 and a storage section 7 . The control unit 6 is a controller that controls various functions of the in-vehicle device 50 . The control unit 6 may be a processor such as CPU or MPU, or may be an integrated circuit such as FPGA or ASIC.

制御部6は、フロントカメラ10fおよびリアカメラ10bから入力されるフロント画像およびリア画像に対して、それぞれ撮影時刻をタイムスタンプとして付与し、フロント画像を記憶部7にフロント画像情報71として記憶するとともに、リア画像をリア画像情報72として記憶する。また、制御部6は、センサ群15から入力される各種検出結果に対しても同様に、取得時刻をタイムスタンプとして付与し、記憶部7に走行状態情報73として記憶する。 The control unit 6 adds the photographing times as time stamps to the front image and the rear image input from the front camera 10f and the rear camera 10b, respectively, and stores the front image in the storage unit 7 as front image information 71. , the rear image is stored as the rear image information 72 . Similarly, the control unit 6 gives the acquisition time as a time stamp to various detection results input from the sensor group 15 and stores them in the storage unit 7 as the running state information 73 .

また、制御部6は、所定のユーザ操作によって、フロント画像情報71、リア画像情報72および走行状態情報73を可搬性の記憶媒体へ転送したり、ネットワークNを介して映像再生装置1へ送信したりする。 Further, the control unit 6 transfers the front image information 71, the rear image information 72, and the running state information 73 to a portable storage medium or transmits them to the video reproducing apparatus 1 via the network N by a predetermined user operation. or

次に、図3を用いて、実施形態に係る映像再生装置1の構成例について説明する。図3は、映像再生装置1のブロック図である。なお、図3には、表示装置100を併せて示す。表示装置100は、映像再生装置1から入力される映像信号を表示する表示装置である。また、映像再生装置1は、図示しない操作部と接続し、ユーザ操作を受け付けることも可能である。 Next, a configuration example of the video playback device 1 according to the embodiment will be described with reference to FIG. FIG. 3 is a block diagram of the video playback device 1. As shown in FIG. Note that FIG. 3 also shows the display device 100 . The display device 100 is a display device that displays a video signal input from the video reproduction device 1 . In addition, the video playback device 1 can be connected to an operation unit (not shown) to accept user operations.

図3に示すように、実施形態に係る映像再生装置1は、制御部2と、記憶部3とを備える。制御部2は、取得部21と、再生部22と、検出部23と、補正部24とを備える。記憶部3は、フロント画像情報31と、リア画像情報32と、走行状態情報33と、マップ情報34とを記憶する。 As shown in FIG. 3 , the video playback device 1 according to the embodiment includes a control section 2 and a storage section 3 . The control unit 2 includes an acquisition unit 21 , a reproduction unit 22 , a detection unit 23 and a correction unit 24 . The storage unit 3 stores front image information 31 , rear image information 32 , running state information 33 and map information 34 .

ここで、制御部2は、たとえば、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)、入出力ポートなどを有するコンピュータや各種の回路を含む。 Here, the control unit 2 includes, for example, a computer having a CPU (Central Processing Unit), ROM (Read Only Memory), RAM (Random Access Memory), HDD (Hard Disk Drive), input/output ports, and various circuits. include.

コンピュータのCPUは、たとえば、HDDに記憶されたプログラムを読み出して実行することによって、制御部2の取得部21、再生部22、検出部23および補正部24として機能する。 The CPU of the computer functions as an acquisition unit 21, a reproduction unit 22, a detection unit 23, and a correction unit 24 of the control unit 2 by reading and executing programs stored in the HDD, for example.

また、記憶部3は、たとえば、RAMやHDDに対応する。RAMやHDDは、フロント画像情報31、リア画像情報32、走行状態情報33およびマップ情報34や、各種プログラムの情報等を記憶することができる。なお、映像再生装置1は、有線や無線のネットワークで接続された他のコンピュータや可搬型記録媒体を介して上記したプログラムや各種情報を取得することとしてもよい。 Also, the storage unit 3 corresponds to, for example, a RAM or an HDD. The RAM and HDD can store front image information 31, rear image information 32, running state information 33, map information 34, various program information, and the like. Note that the video reproducing apparatus 1 may acquire the above-described programs and various information via another computer or a portable recording medium connected via a wired or wireless network.

フロント画像情報31およびリア画像情報32は、それぞれフロントカメラ10fおよびリアカメラ10bによって撮像された画像データに関する情報である。本実施形態において、フロント画像情報31およびリア画像情報32には、フロント画像およびリア画像がそれぞれ複数のファイルに分割して記憶される。なお、かかるファイル形式は、例えば、MPEG4(Moving Picture Experts Group 4)であるが、任意に変更することにしてもよい。 The front image information 31 and the rear image information 32 are information about image data captured by the front camera 10f and the rear camera 10b, respectively. In this embodiment, the front image information 31 and the rear image information 32 store the front image and the rear image divided into a plurality of files, respectively. The file format is, for example, MPEG4 (Moving Picture Experts Group 4), but may be changed arbitrarily.

走行状態情報33は、図2に示したセンサ群15によって検出された車両の走行状態に関する情報である。マップ情報34は、マップに関する情報であり、俯瞰図や鳥瞰図に関する画像に関する情報である。 The running state information 33 is information about the running state of the vehicle detected by the sensor group 15 shown in FIG. The map information 34 is information about a map, and is information about an image of a bird's-eye view or a bird's-eye view.

制御部2は、フロント画像およびリア画像を同時に再生するとともに、再生時において生じるフロント画像およびリア画像の再生時刻のズレを補正する。 The control unit 2 simultaneously reproduces the front image and the rear image, and corrects the difference in reproduction time between the front image and the rear image that occurs during reproduction.

取得部21は、車両(移動体の一例)にそれぞれ設けられた複数のカメラ10で撮像された画像データを取得する。具体的には、取得部21は、カメラ10ごとに異なる形式で分割して保存された複数のファイルを取得する。例えば、取得部21は、可搬型記録媒体を介してフロント画像情報31およびリア画像情報32が保存されたファイルを取得する。 The acquisition unit 21 acquires image data captured by a plurality of cameras 10 each provided in a vehicle (an example of a mobile object). Specifically, the acquisition unit 21 acquires a plurality of files divided and saved in different formats for each camera 10 . For example, the acquisition unit 21 acquires a file in which the front image information 31 and the rear image information 32 are stored via a portable recording medium.

また、取得部21は、センサ群15の検出結果を走行状態情報33として記憶部3に格納する処理をあわせて行う。 The acquisition unit 21 also performs processing for storing the detection result of the sensor group 15 as the running state information 33 in the storage unit 3 .

再生部22は、取得部21によって取得された複数のファイルの所定の一部を、フロント画像情報31およびリア画像情報32として記憶部3に格納する。所定の一部は、前述のMPEG4などによる符号化データの復号やキャッシングなど、再生処理に必要な分である。再生部22は、格納したフロント画像情報31およびリア画像情報32から画像データを読み出して、カメラ10毎に同時に再生する。このとき、再生部22は、画像データのファイルが切り替わる場合に、ファイルを切り替えるための切替え処理を行う。なお、再生部22は、1つのファイルを全て記憶部3に格納してもよい。 The reproduction unit 22 stores predetermined parts of the plurality of files acquired by the acquisition unit 21 in the storage unit 3 as front image information 31 and rear image information 32 . The predetermined portion is necessary for reproduction processing such as decoding and caching of encoded data by MPEG4 or the like. The reproduction unit 22 reads image data from the stored front image information 31 and rear image information 32 and reproduces them simultaneously for each camera 10 . At this time, the reproducing unit 22 performs switching processing for switching files when the files of the image data are switched. Note that the reproducing unit 22 may store all of one file in the storage unit 3 .

図4は、再生画面のレイアウトの一例を示す図である。図4に示すように、再生画面Dは、フロント画像領域Rfと、リア画像領域Rbと、マップ画像領域Rmと、センサ画像領域Rsとを有する。フロント画像領域Rfは、フロント画像が再生される領域であり、リア画像領域Rbは、リア画像が再生される領域である。 FIG. 4 is a diagram showing an example layout of a playback screen. As shown in FIG. 4, the playback screen D has a front image area Rf, a rear image area Rb, a map image area Rm, and a sensor image area Rs. The front image area Rf is an area in which a front image is reproduced, and the rear image area Rb is an area in which a rear image is reproduced.

また、マップ画像領域Rmは、フロント画像領域Rfおよびリア画像領域Rbにおいて再生中のフロント画像およびリア画像の撮像位置を示すマップ画像が表示される領域である。例えば、再生部22は、例えば、走行状態情報33から撮像位置に関する情報を読み出すとともに、撮像位置に基づく所定範囲のマップ画像をマップ情報34から読み出すことで、マップ画像領域Rmで再生するマップを生成する。なお、マップ画像領域Rmに表示されるマップ画像において、車両の位置にアイコンが表示される。 Further, the map image area Rm is an area where a map image indicating the imaging positions of the front image and the rear image being reproduced in the front image area Rf and the rear image area Rb is displayed. For example, the reproducing unit 22 reads information about the imaging position from the driving state information 33 and reads a map image of a predetermined range based on the imaging position from the map information 34, thereby generating a map to be reproduced in the map image region Rm. do. An icon is displayed at the position of the vehicle in the map image displayed in the map image area Rm.

センサ画像領域Rsは、フロント画像領域Rfおよびリア画像領域Rbにおいて再生されるフロント画像およびリア画像の撮像時刻におけるセンサ群15の検出結果を示すセンサ画像を表示する領域である。 The sensor image area Rs is an area for displaying a sensor image showing the detection result of the sensor group 15 at the time when the front image and the rear image reproduced in the front image area Rf and the rear image area Rb are captured.

例えば、再生部22は、センサ画像として、走行速度を示す速度画像や、車両に生じる加速度を示す加速度画像などをセンサ画像領域Rsに表示することができる。なお、図4に示す再生画面Dのレイアウトは、一例であり、任意に変更することにしてもよい。 For example, the reproducing unit 22 can display, as the sensor image, a speed image indicating the traveling speed, an acceleration image indicating the acceleration generated in the vehicle, or the like in the sensor image area Rs. Note that the layout of the playback screen D shown in FIG. 4 is an example, and may be changed arbitrarily.

図3の説明に戻り、検出部23について説明する。検出部23は、再生部22によって再生される画像データの再生時刻のズレを検出する。例えば、検出部23は、再生部22が現在再生中のフロント画像およびリア画像に付与されたタイムスタンプ(撮像時刻)に基づいて再生時刻のズレを検出することで、再生時刻のズレを正確に検出することが可能である。 Returning to the description of FIG. 3, the detection unit 23 will be described. The detection unit 23 detects a difference in reproduction time of image data reproduced by the reproduction unit 22 . For example, the detection unit 23 detects the difference in reproduction time based on the time stamps (imaging time) given to the front image and the rear image that are currently being reproduced by the reproduction unit 22, thereby accurately detecting the reproduction time difference. It is possible to detect

すなわち、検出部23は、再生中のフロント画像およびリア画像のタイムスタンプの差分を再生時刻のズレとして検出する。例えば、検出部23は、所定周期で、双方のタイムスタンプを確認し、再生時刻のズレが所定値を超える場合に、後述する補正部24に対して再生時刻のズレを補正させる。 That is, the detection unit 23 detects the difference between the time stamps of the front image and the rear image being reproduced as the difference in reproduction time. For example, the detection unit 23 checks both time stamps at a predetermined cycle, and if the difference in reproduction time exceeds a predetermined value, causes the later-described correction unit 24 to correct the difference in reproduction time.

また、この際、検出部23は、記憶部3の走行状態情報33に基づいて再生時刻のズレを補正する補正タイミングを決定する。すなわち、検出部23は、車両の走行状態を示す走行情報に基づいて補正タイミングを決定する。 At this time, the detection unit 23 also determines a correction timing for correcting the reproduction time lag based on the running state information 33 in the storage unit 3 . That is, the detection unit 23 determines the correction timing based on the running information indicating the running state of the vehicle.

図5は、検出部23による処理の具体例を示す図である。なお、図5では、横軸に再生時刻を示す。また、図5のAは、フロント画像の切替タイミングを示し、図5のBは、リア画像の切替タイミングを示す。また、図5のCに示すズレ量は、フロント画像およびリア画像の再生時刻のズレを示し、図5のDに示す加速度は、フロント画像およびリア画像の撮像当時に車両に生じる加速度の推移を示す。 FIG. 5 is a diagram showing a specific example of processing by the detection unit 23. As shown in FIG. Note that in FIG. 5, the horizontal axis indicates the playback time. Further, A of FIG. 5 shows switching timing of the front image, and B of FIG. 5 shows switching timing of the rear image. Further, the amount of deviation shown in C of FIG. 5 indicates the difference between the playback times of the front image and the rear image, and the acceleration shown in D of FIG. show.

なお、ここでは、加速度が車両の車幅方向に働く横加速度であるが、これに限定されず、車両の上下方向(垂直方向)に働く加速度であってもよく、車両の進行方向に働く加速度であってもよい。また、加速度は、これらの組み合わせであってもよい。 Here, the acceleration is the lateral acceleration acting in the width direction of the vehicle, but it is not limited to this, and may be the acceleration acting in the vertical direction of the vehicle, or the acceleration acting in the traveling direction of the vehicle. may be Also, the acceleration may be a combination of these.

図5のAおよび図5のBに示すように、フロント画像の切替タイミングの周期がリア画像の切替タイミングの周期に比べて短い場合、フロント画像の再生画像がリア画像の再生画像に比べて遅延していくことになる。 As shown in FIGS. 5A and 5B, when the cycle of the switching timing of the front image is shorter than the cycle of the switching timing of the rear image, the reproduced image of the front image is delayed compared to the reproduced image of the rear image. I will continue.

このため、図5のCに示すように、再生時刻のズレは、再生時刻が進むにつれて次第に大きくなる。検出部23は、例えば、ズレ量が所定値Thを超えた時刻t11において、再生時刻のズレを検出する。 Therefore, as shown in FIG. 5C, the difference in reproduction time gradually increases as the reproduction time advances. For example, the detection unit 23 detects a difference in reproduction time at time t11 when the amount of difference exceeds a predetermined value Th.

検出部23は、再生時刻のズレを検出すると、続いて、補正タイミングを決定する。本実施形態において、検出部23は、図5のDに示す加速度の推移に基づいて補正タイミングを決定することができる。 After detecting the reproduction time lag, the detection unit 23 subsequently determines the correction timing. In this embodiment, the detection unit 23 can determine the correction timing based on the transition of acceleration shown in D of FIG.

具体的には、検出部23は、再生時刻のズレを検出すると、加速度の推移を確認し、所定期間内に加速度が所定の変化を起こすか否かを判定する。具体的には、所定のしきい値を超える垂直加速度の変化が起こるか否かである。図5のDに示す例では、時刻t12~時刻t13の期間においける加速度変化が該当するとする。 Specifically, when the detecting unit 23 detects the reproduction time lag, it checks the transition of the acceleration and determines whether or not the acceleration changes in a predetermined manner within a predetermined period. Specifically, it is whether or not a change in vertical acceleration exceeding a predetermined threshold occurs. In the example shown in D of FIG. 5, it is assumed that the change in acceleration during the period from time t12 to time t13 corresponds.

かかる場合には、検出部23は、時刻t12~時刻t13の期間を補正タイミングとして決定する。これは、車両に加速度が生じている場合、カメラ10にも加速度が生じていることを意味し、加速度が生じている期間においては、リア画像およびフロント画像自体がブレて撮像されるためである。 In such a case, the detection unit 23 determines the period from time t12 to time t13 as the correction timing. This means that when the vehicle is accelerating, the camera 10 is also accelerating. .

つまり、加速度が生じている期間は、リア画像およびフロント画像自体が乱れるので、この間に再生時刻のズレを補正してもユーザが気づきにくいためである。言い換えれば、ユーザに違和感を与えることなく、再生時刻のズレを補正することができるためである。 In other words, the rear image and the front image themselves are disturbed during the period in which the acceleration is occurring, so that even if the reproduction time lag is corrected during this period, the user will hardly notice it. In other words, this is because it is possible to correct the difference in playback time without giving the user a sense of discomfort.

一方、例えば、検出部23は、再生時刻のズレを検出してから所定期間内に加速度が変化しない場合、例えば、次の切替タイミングTに基づく所定期間を補正タイミングとして決定する。ここで言う所定期間とは、例えば、切替タイミングTのそれぞれ前後2秒間である。 On the other hand, for example, when the acceleration does not change within a predetermined period of time after detection of the reproduction time shift, the detection unit 23 determines, for example, a predetermined period based on the next switching timing T as the correction timing. The predetermined period referred to here is two seconds before and after the switching timing T, for example.

なお、上述のように、切替タイミングT(図1B参照)は、フロント画像およびリア画像において、それぞれ異なる所定周期で訪れる。このため、検出部23は、切替タイミングTの周期から再生時刻のズレを推定することにしてもよい。 As described above, the switching timing T (see FIG. 1B) occurs at different predetermined cycles in the front image and the rear image. Therefore, the detection unit 23 may estimate the reproduction time lag from the cycle of the switching timing T. FIG.

この際、検出部23は、再生時刻のズレを検出せずに、補正タイミングを決定することにしてもよい。この場合、再生時刻のズレ量が所定値Thを超える前に、再生時刻のズレが補正されるように補正タイミングを決定することにしてもよい。 At this time, the detection unit 23 may determine the correction timing without detecting the reproduction time lag. In this case, the correction timing may be determined so that the reproduction time shift is corrected before the reproduction time shift amount exceeds a predetermined value Th.

また、図5の例では、検出部23は、走行情報として、車両の加速度に基づいて、補正タイミングを決定する場合について説明したが、これに限定されるものではない。例えば、舵角の推移や、撮像位置(走行位置)に基づいて補正タイミングを決定することにしてもよい。 In the example of FIG. 5, the detection unit 23 determines the correction timing based on the acceleration of the vehicle as the travel information, but the present invention is not limited to this. For example, the correction timing may be determined based on changes in the steering angle or the imaging position (driving position).

具体的には、舵角の変化が大きい期間(急カーブの走行時など)を、補正タイミングとして決定する。すなわち、画像自体の乱れが大きい期間を補正タイミングとして決定することで、ユーザに与える違和感を軽減することができる。 Specifically, a period in which the steering angle changes significantly (such as when driving on a sharp curve) is determined as the correction timing. That is, by determining a period in which the image itself is largely disturbed as the correction timing, it is possible to reduce the sense of discomfort given to the user.

一方、撮像位置に基づいて補正タイミングを決定する場合、車両が直線道路を走行している期間など、1フレーム当たりの画像の変化が小さい地点の画像データが再生される期間について、補正タイミングとして決定する。かかる場合であっても、ユーザは、補正されたことを気づきにくく、ユーザに与える違和感を軽減することができる。なお、この場合、検出部23は、撮像位置に代えて、例えば、背景差分法などの画像解析を用いて、補正タイミングを決定することにしてもよい。 On the other hand, when the correction timing is determined based on the imaging position, the correction timing is determined for the period during which the image data at the point where the image changes per frame is small, such as when the vehicle is traveling on a straight road. do. Even in such a case, it is difficult for the user to notice that the correction has been made, and the user's sense of discomfort can be reduced. In this case, the detection unit 23 may determine the correction timing by using image analysis such as the background subtraction method instead of the imaging position.

図3の説明に戻り、補正部24について説明する。補正部24は、再生部22によって再生される画像データの再生時刻のズレを補正する。本実施形態において、補正部24は、検出部23によって決定された補正タイミングにおいて、再生時刻のズレを補正する。 Returning to the description of FIG. 3, the correction unit 24 will be described. The correction unit 24 corrects the reproduction time lag of the image data reproduced by the reproduction unit 22 . In the present embodiment, the correction unit 24 corrects the reproduction time lag at the correction timing determined by the detection unit 23 .

補正部24は、例えば、再生部22による再生速度を調節することで、再生時刻のズレを補正することができる。図6は、補正部24による補正内容の具体例を示す図である。 For example, the correction unit 24 can correct the reproduction time lag by adjusting the reproduction speed of the reproduction unit 22 . FIG. 6 is a diagram showing a specific example of correction contents by the correction unit 24. As shown in FIG.

図6に示すように、補正部24は、再生時刻が遅延している遅延画像の再生速度を補正する場合、補正処理として、倍速再生を行う。倍速再生とは、再生速度を上げて再生することを指す。一方、補正部24は、再生時刻が先行している先行画像の再生速度を補正する場合、補正処理として、スロー再生を行う。 As shown in FIG. 6, when correcting the reproduction speed of a delayed image whose reproduction time is delayed, the correction unit 24 performs double-speed reproduction as correction processing. Double-speed playback refers to playback at a higher playback speed. On the other hand, when correcting the reproduction speed of the preceding image whose reproduction time is earlier, the correction unit 24 performs slow reproduction as correction processing.

つまり、遅延画像については、倍速再生によって、再生時刻を早め、先行画像については、スロー再生により再生時刻を遅くする。これにより、再生時刻のズレを補正することができる。 That is, the playback time of the delayed image is advanced by double-speed playback, and the playback time of the preceding image is delayed by slow playback. As a result, it is possible to correct the discrepancy in playback time.

なお、補正部24は、遅延画像に対する倍速再生と、先行画像に対するスロー再生とを同時に行うことにしてもよいし、あるいは、一方のみを行うことにしてもよい。また、補正部24は、倍速再生およびスロー再生の倍率を再生時刻のズレ量や、補正タイミングの期間に応じて、適宜変更することも可能である。 Note that the correction unit 24 may simultaneously perform the double-speed reproduction of the delayed image and the slow reproduction of the preceding image, or may perform only one of them. Further, the correcting unit 24 can appropriately change the magnification of double-speed reproduction and slow-speed reproduction according to the amount of difference in reproduction time and the period of correction timing.

また、補正処理は、上記の例に限られるものではない。すなわち、例えば、再生速度を変えずに、遅延画像の画像データを間引いて再生するなど、適宜変更することにしてもよい。 Moreover, the correction process is not limited to the above example. That is, for example, without changing the reproduction speed, the image data of the delayed image may be thinned out and reproduced.

次に、図7を用いて、実施形態に係る映像再生装置1が実行する処理手順について説明する。図7は、映像再生装置1が実行する処理手順を示すフローチャートである。 Next, a processing procedure executed by the video playback device 1 according to the embodiment will be described with reference to FIG. FIG. 7 is a flow chart showing a processing procedure executed by the video playback device 1. As shown in FIG.

図7に示すように、映像再生装置1は、まず、フロント画像およびリア画像を含む画像データを取得すると(ステップS101)、所定操作に基づき、フロント画像およびリア画像の再生を開始する(ステップS102)。 As shown in FIG. 7, the video reproducing apparatus 1 first acquires image data including a front image and a rear image (step S101), and starts reproducing the front image and the rear image based on a predetermined operation (step S102). ).

続いて、映像再生装置1は、再生時刻のズレ量が所定値Thを超えたか否かを判定し(ステップS103)、かかるズレ量が所定値Thを超えた場合(ステップS103,Yes)、走行情報(例えば、加速度)に基づく補正タイミングがあるか否かを判定する(ステップS104)。 Subsequently, the video reproducing apparatus 1 determines whether or not the amount of time lag in reproduction exceeds a predetermined value Th (step S103). It is determined whether or not there is correction timing based on information (for example, acceleration) (step S104).

続いて、映像再生装置1は、所定期間内に走行情報に基づく補正タイミングがあった場合(ステップS104,Yes)、かかる補正タイミングにおいて再生時刻のズレを補正する(ステップS105)。また、映像再生装置1は、ステップS104の判定処理において、所定期間内に走行情報に基づく補正タイミングがなかった場合(ステップS104,No)、ファイルが切り替わるタイミングにおいて、再生時刻のズレを補正する(ステップS107)。 Subsequently, when there is a correction timing based on the travel information within a predetermined period (step S104, Yes), the video reproduction device 1 corrects the reproduction time lag at the correction timing (step S105). In addition, in the determination process of step S104, if there is no correction timing based on the travel information within a predetermined period (step S104, No), the video reproduction device 1 corrects the difference in reproduction time at the timing of file switching ( step S107).

続いて、映像再生装置1は、フロント画像およびリア画像の再生が終了したか否かを判定し(ステップS106)、再生が終了した場合(ステップS106,Yes)、処理を終了する。また、映像再生装置1は、フロント画像およびリア画像の再生が継続中である場合(ステップS106,No)、ステップS103の処理へ移行する。 Subsequently, the video reproducing apparatus 1 determines whether or not the reproduction of the front image and the rear image has ended (step S106), and if the reproduction has ended (step S106, Yes), the process ends. Further, when the reproduction of the front image and the rear image is being continued (step S106, No), the video reproducing apparatus 1 proceeds to the process of step S103.

また、映像再生装置1は、ステップS103の判定処理において、ズレ量が所定値Th以下である場合(ステップS103,No)、ステップS106の処理へ移行することとなる。 Further, in the determination process of step S103, if the deviation amount is equal to or less than the predetermined value Th (step S103, No), the video reproducing apparatus 1 proceeds to the process of step S106.

上述したように、実施形態に係る映像再生装置1は、取得部21と、再生部22と、補正部24とを備える。取得部21は、車両(移動体の一例)にそれぞれ設けられた複数の撮像装置において、撮像された画像データが、当該撮像装置ごとに異なる形式で分割して保存された複数のファイルを取得する。再生部22は、取得部21によって取得された複数のファイルから画像データを読み出して、撮像装置毎に同時再生する。 As described above, the video playback device 1 according to the embodiment includes the acquisition unit 21 , the playback unit 22 and the correction unit 24 . The acquisition unit 21 acquires a plurality of files in which image data captured by a plurality of imaging devices provided in a vehicle (an example of a moving body) is divided and saved in a different format for each imaging device. . The reproduction unit 22 reads out image data from the plurality of files acquired by the acquisition unit 21 and simultaneously reproduces them for each imaging device.

補正部24は、再生部22によって同時再生される画像データの同時再生中に生じる再生時刻のズレを補正する。したがって、実施形態に係る映像再生装置1によれば、再生時に生じる再生時刻のタイムラグを解消することができる。 The correction unit 24 corrects a reproduction time lag that occurs during simultaneous reproduction of the image data that is simultaneously reproduced by the reproduction unit 22 . Therefore, according to the video playback device 1 according to the embodiment, it is possible to eliminate the time lag of the playback time that occurs during playback.

ところで、上述した実施形態では、撮像装置がそれぞれ同一の車両に搭載される場合について示したが、これに限定されるものではない。すなわち、撮像装置は、別々の車両に搭載されることにしてもよいし、あるいは、車両以外に設けられるものであってもよい。つまり、同じ再生時刻に撮像するものであれば、任意の画像データを用いることにしてもよい。 By the way, in the above-described embodiment, the case where the imaging devices are mounted on the same vehicle has been described, but the present invention is not limited to this. That is, the imaging devices may be mounted on separate vehicles, or may be provided outside the vehicle. In other words, any image data may be used as long as it is imaged at the same playback time.

また、上述した実施形態では、各撮像装置間でビットレートが異なる場合について示したが、これに限定されるものではない。すなわち、1ファイル当たりの画像データの枚数が異なる場合や、各撮像装置間でビットレートが同一であり、1ファイル当たりのデータ容量が異なる場合にも本発明を適用することが可能である。つまり、同時再生時にファイルの切り替える周期が異なるもの全てに本発明を適用することが可能となる。 Also, in the above-described embodiment, the case where the bit rates are different between the imaging devices has been described, but the present invention is not limited to this. That is, the present invention can be applied even when the number of pieces of image data per file is different, or when the bit rate is the same between imaging devices and the data capacity per file is different. In other words, it is possible to apply the present invention to all devices with different file switching cycles during simultaneous playback.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な様態は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲および、その均等物によって定義される統括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 映像再生装置
10 カメラ
10f フロントカメラ
10b リアカメラ
15 センサ群
21 取得部
22 再生部
23 検出部
24 補正部
Reference Signs List 1 video playback device 10 camera 10f front camera 10b rear camera 15 sensor group 21 acquisition unit 22 playback unit 23 detection unit 24 correction unit

Claims (5)

移動体にそれぞれ設けられた複数の撮像装置において撮像された画像データが当該撮像装置ごとに異なる形式で分割して保存された複数のファイルを取得
得された前記複数のファイルから前記画像データを読み出して、前記撮像装置ごとに同時再生
時再生される前記画像データの同時再生時に生じる再生時刻のズレをタイムスタンプに基づいて検出し、
前記再生時刻のズレが検出された場合に、前記同時再生時に生じる再生時刻のズレを補正する制御部
を備える映像再生装置。
Acquiring a plurality of files in which image data captured by a plurality of imaging devices respectively provided in a moving body is divided and saved in a different format for each imaging device,
reading out the image data from the plurality of acquired files and simultaneously reproducing them for each imaging device;
detecting, based on time stamps, a difference in playback time that occurs when the image data that are played back simultaneously are reproduced;
A control unit that corrects a reproduction time lag that occurs during the simultaneous reproduction when the reproduction time lag is detected.
A video playback device.
前記制御部は、
前記画像データの撮像当時の前記移動体の走行状態に関する走行情報を取得し、
記走行情報に基づいて決定された補正タイミングで前記補正を行う
求項1に記載の映像再生装置。
The control unit
Acquiring running information related to the running state of the moving object at the time the image data was captured;
performing the correction at a correction timing determined based on the travel information ;
The video playback device according to claim 1 .
前記制御部は、
前記移動体の加速度情報を前記走行状態として取得し、
記加速度情報が示す加速度の変化に基づいて、前記補正タイミングを決定する
求項に記載の映像再生装置。
The control unit
Acquiring acceleration information of the moving body as the running state,
determining the correction timing based on a change in acceleration indicated by the acceleration information ;
3. The video playback device according to claim 2 .
前記制御部は、
前記画像データの再生速度を前記撮像装置ごとに変更することで、前記再生時刻のズレを補正する
求項1~のいずれか一つに記載の映像再生装置。
The control unit
correcting the reproduction time lag by changing the reproduction speed of the image data for each imaging device ;
The video playback device according to any one of claims 1 to 3 .
移動体にそれぞれ設けられた複数の撮像装置において撮像された画像データが当該撮像装置ごとに異なる形式で分割して保存された複数のファイルを取得する取得工程と、
前記取得工程によって取得された前記複数のファイルから前記画像データを読み出して、前記撮像装置ごとに同時再生する再生工程と、
前記再生工程によって同時再生される前記画像データの同時再生時に生じる再生時刻のズレをタイムスタンプに基づいて検出し、前記再生時刻のズレが検出された場合に、前記同時再生時に生じる再生時刻のズレを補正する補正工程と
を含む映像再生方法。
an acquisition step of acquiring a plurality of files in which image data captured by a plurality of imaging devices respectively provided in a moving body is divided and saved in a different format for each imaging device;
a reproducing step of reading out the image data from the plurality of files obtained in the obtaining step and reproducing them simultaneously for each imaging device;
detecting, based on time stamps, a difference in reproduction time that occurs during simultaneous reproduction of the image data that is simultaneously reproduced in the reproduction step; and a correction step of correcting the video playback method.
JP2019074155A 2019-04-09 2019-04-09 Video playback device and video playback method Active JP7274917B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019074155A JP7274917B2 (en) 2019-04-09 2019-04-09 Video playback device and video playback method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019074155A JP7274917B2 (en) 2019-04-09 2019-04-09 Video playback device and video playback method

Publications (2)

Publication Number Publication Date
JP2020174248A JP2020174248A (en) 2020-10-22
JP7274917B2 true JP7274917B2 (en) 2023-05-17

Family

ID=72831746

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019074155A Active JP7274917B2 (en) 2019-04-09 2019-04-09 Video playback device and video playback method

Country Status (1)

Country Link
JP (1) JP7274917B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114697466B (en) * 2022-03-17 2023-10-13 杭州海康威视数字技术股份有限公司 Video frame acquisition synchronization control

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008141608A (en) 2006-12-04 2008-06-19 Canon Inc Image display processing apparatus, and processing method thereof
JP2012129853A (en) 2010-12-16 2012-07-05 Mitsubishi Electric Corp Synchronous display device for a plurality of videos and synchronous display method thereof
JP2017005300A (en) 2015-06-04 2017-01-05 株式会社ファンクリエイト Video processing system and video processing method
JP2018046500A (en) 2016-09-16 2018-03-22 株式会社コムテック Video storage device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008141608A (en) 2006-12-04 2008-06-19 Canon Inc Image display processing apparatus, and processing method thereof
JP2012129853A (en) 2010-12-16 2012-07-05 Mitsubishi Electric Corp Synchronous display device for a plurality of videos and synchronous display method thereof
JP2017005300A (en) 2015-06-04 2017-01-05 株式会社ファンクリエイト Video processing system and video processing method
JP2018046500A (en) 2016-09-16 2018-03-22 株式会社コムテック Video storage device

Also Published As

Publication number Publication date
JP2020174248A (en) 2020-10-22

Similar Documents

Publication Publication Date Title
JP4499693B2 (en) Image processing apparatus, image processing method, and program
US8913140B2 (en) Rolling shutter reduction based on motion sensors
JP4549260B2 (en) Recording / reproducing apparatus, recording / reproducing method, and computer program
US20130044241A1 (en) Rolling Shutter Reduction Based on Motion Sensors
JP5014035B2 (en) Recording apparatus, verification apparatus, reproduction apparatus, and program
US8917328B2 (en) Image processing apparatus and image processing method
CN109845245B (en) Dynamic image processing method and computer-readable recording medium
JP5597061B2 (en) Video playback apparatus and control method thereof
JP2007110193A (en) Image processing apparatus
JP5116498B2 (en) Video processing apparatus and control method thereof
US20130329063A1 (en) Noise reduction based on motion sensors
JP4876066B2 (en) Video processing apparatus, video processing system, video processing method, and program
US7904836B2 (en) Image reproduction method, image reproduction device and digital camera
JP7274917B2 (en) Video playback device and video playback method
JP2011066790A (en) Image recording device and image reproduction device
JP4998439B2 (en) Image processing apparatus, image processing method, and program
JP4650741B2 (en) Data recording system and data reproducing system
JP7343997B2 (en) Image processing device and image processing method
US9536566B2 (en) Video processing device, video processing method, and recording medium
JP2018195892A (en) Imaging apparatus
JP2009077093A (en) Information recording and reproducing device, information recording method, and information reproducing method
TWI447718B (en) Method and apparatus for generating thumbnails
JP5711626B2 (en) Drive recorder, drive recorder system, and moving image playback method
JP5793404B2 (en) Drive recorder
JP5306068B2 (en) Imaging apparatus and control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221220

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230411

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230502

R150 Certificate of patent or registration of utility model

Ref document number: 7274917

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150