JP2006211415A - On-vehicle video recording apparatus - Google Patents

On-vehicle video recording apparatus Download PDF

Info

Publication number
JP2006211415A
JP2006211415A JP2005022053A JP2005022053A JP2006211415A JP 2006211415 A JP2006211415 A JP 2006211415A JP 2005022053 A JP2005022053 A JP 2005022053A JP 2005022053 A JP2005022053 A JP 2005022053A JP 2006211415 A JP2006211415 A JP 2006211415A
Authority
JP
Japan
Prior art keywords
video
information
unit
vehicle
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005022053A
Other languages
Japanese (ja)
Inventor
Kazuto Ohara
一人 大原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005022053A priority Critical patent/JP2006211415A/en
Publication of JP2006211415A publication Critical patent/JP2006211415A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To enable a user to use video images recorded as an evidence if an accident occurs, and to easily view the video images irrespective of an accident. <P>SOLUTION: An on-vehicle video recording apparatus includes: one or more video information acquisition units each for acquiring video information around a vehicle; a video encoding unit for encoding said video information into video encoded stream information, respectively; a traveling state information acquisition unit for acquiring traveling state information that is information indicating a traveling state of the vehicle; a multiplexed stream generation unit for generating a multiplexed stream by synchronously multiplexing the video encoded stream information and the traveling state information; and a recording unit for recording the multiplexed stream. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、車両映像と共に当該車両の走行に関する状況を併せて記録する車載用映像記録装置に関するものである。   The present invention relates to an in-vehicle video recording apparatus that records together with a vehicle video a situation related to traveling of the vehicle.

近年、自動車などの車両による交通事故の発生件数の多さが社会問題となっている。車両による事故の状況は、現場の検証や当事者および目撃者の証言などにより再現されるが、物証が乏しい場合や、目撃者の証言があいまいな場合があり、必ずしも正確ではない。   In recent years, the large number of traffic accidents caused by vehicles such as automobiles has become a social problem. The situation of an accident caused by a vehicle is reproduced by on-site verification, testimony of parties and witnesses, etc., but there are cases where the physical evidence is scarce or the witness testimony is ambiguous and is not always accurate.

そこで、事故原因の究明などに利用するために、事故が発生した際の車両の速度や加速度、ブレーキ圧などの各種センサ情報などを記録するための記録装置が普及しつつある。また、事故発生時の状況を客観的に示す為に、これらの各種センサ情報のほかに、車両の周辺の状況をカメラで捉えた映像などを記録する車載用映像記録装置が特許文献1に開示されている。このような映像は事故発生時の状況を把握しやすいため、同様の事故の発生防止にも有用となっている。
特開2002−216284号公報
Therefore, a recording apparatus for recording various sensor information such as the speed and acceleration of the vehicle and the brake pressure when the accident occurs is becoming widespread for use in investigation of the cause of the accident. Further, in order to objectively indicate the situation at the time of the accident, in-vehicle video recording apparatus that records video captured by the camera in addition to these various sensor information is disclosed in Patent Document 1. Has been. Such an image is useful for preventing the occurrence of a similar accident because it is easy to grasp the situation at the time of the accident.
JP 2002-216284 A

しかしながら、従来の技術では、記録した映像を事故に関する後処理や保険査定処理などの証拠として使用することしか考慮されておらず、映像情報の有効活用がなされていなかった。   However, the conventional technology only considers the use of recorded video as evidence for post-processing related to accidents and insurance assessment processing, and video information has not been effectively used.

具体的に説明すると、車載用映像記録装置には、基本的には車両が動いている間の映像が記録されるため、事故の発生とは関係なく車両からの風景が撮影されている。従って、走行中に記録された映像を運転後に楽しむ用途が考えられる。しかし、従来の車載用映像記録装置では事故とは関係なく記録された映像をユーザが鑑賞して楽しむといった用途が考慮されておらず、鑑賞を容易にするための各種構成がなされていないという課題があった。   More specifically, since an on-vehicle video recording device basically records video while the vehicle is moving, a landscape from the vehicle is photographed regardless of the occurrence of an accident. Therefore, it is possible to use the video recorded during driving after driving. However, the conventional in-vehicle video recording device does not take into account the user's appreciation and enjoyment of the recorded video regardless of the accident, and does not have various configurations for facilitating the appreciation. was there.

本発明は、上記課題を解決するためになされたものであって、カメラなどが捉えた映像を事故発生時の証拠として活用できるとともに、事故とは関係なく記録された映像をユーザが容易に鑑賞できるようにしてユーザビリティを向上させた車載用映像記録装置等を提供することを目的とする。   The present invention has been made in order to solve the above-described problems, and the video captured by a camera or the like can be used as evidence at the time of the accident and the user can easily view the video recorded regardless of the accident. An object of the present invention is to provide an in-vehicle video recording apparatus and the like that can improve usability.

そこで、上記課題を解決するために、本発明は車両の周囲の映像情報を取得する一以上の映像情報取得部と、前記映像情報をそれぞれ映像符号化ストリーム情報に符号化する映像符号化部と、車両の走行状態を示す情報である走行状態情報を取得する走行状態情報取得部と、前記映像符号化ストリーム情報と、走行状態情報と、を同期多重化して多重化ストリームを生成する多重化ストリーム生成部と、前記多重化ストリームを記録する記録部と、を有する車載用映像記録装置を提供する。   In order to solve the above problems, the present invention provides at least one video information acquisition unit that acquires video information around a vehicle, and a video encoding unit that encodes the video information into video encoded stream information, respectively. A multiplexed stream that generates a multiplexed stream by synchronously multiplexing the running state information acquisition unit that acquires the running state information that is information indicating the running state of the vehicle, the video encoded stream information, and the running state information Provided is an in-vehicle video recording apparatus that includes a generation unit and a recording unit that records the multiplexed stream.

また、車両の周囲の映像情報を取得する一以上の映像情報取得部と、一以上の前記映像情報をフレーム単位で結合したフレーム単位結合映像情報を取得するフレーム単位結合映像情報取得部と、前記フレーム単位結合映像情報を映像符号化ストリーム情報に符号化するフレーム単位結合映像符号化部と、走行状態情報取得部と、多重化ストリーム生成部と、記録部と、を有する車載用映像記録装置を提供する。   Also, one or more video information acquisition units that acquire video information around the vehicle, a frame unit combined video information acquisition unit that acquires frame unit combined video information obtained by combining one or more video information in units of frames, An in-vehicle video recording apparatus comprising: a frame-unit combined video encoding unit that encodes frame-unit combined video information into video encoded stream information; a traveling state information acquisition unit; a multiplexed stream generation unit; and a recording unit. provide.

前記走行状態情報取得部は、前記映像情報取得部が映像情報を1フレーム分取得した時点の走行状態情報であるフレーム単位走行状態情報を取得し、前記多重化ストリーム生成部は、前記映像符号化ストリーム情報と、フレーム単位走行状態情報と、を多重化することで多重化ストリームを生成してもよい。また、前記記録部は、所定時間長を単位として多重化ストリームを記録してもよい。また、前記走行状態情報取得部は、車両の衝撃を示す走行状態情報である衝撃状態情報を取得し、前記記録部は、前記衝撃状態情報を取得した場合には、記録中の多重化ストリームの所定時間領域を、衝撃を検出したタイミングに基づいて消去禁止としてもよい。また、前記映像情報で示される映像中の動きの変化に関する情報である動き変化情報を検出する動き変化情報検出部を有し、前記記録部は、前記動き変化情報に基づいて記録の制御を行ってもよい。   The traveling state information acquisition unit acquires frame unit traveling state information that is traveling state information at the time when the video information acquisition unit acquires one frame of video information, and the multiplexed stream generation unit includes the video encoding A multiplexed stream may be generated by multiplexing the stream information and the frame unit traveling state information. The recording unit may record the multiplexed stream in units of a predetermined time length. The traveling state information acquisition unit acquires impact state information that is traveling state information indicating the impact of the vehicle. When the recording unit acquires the impact state information, the recording state of the multiplexed stream being recorded is recorded. The predetermined time area may be prohibited from being erased based on the timing at which the impact is detected. A motion change information detection unit that detects motion change information that is information related to a change in motion in the video indicated by the video information, and the recording unit controls recording based on the motion change information; May be.

また、本発明は、前記車載用映像記録装置にて記録された多重化ストリームを取得する多重化ストリーム取得部と、前記多重化ストリームを各ストリームに分離する分離部と、前記分離部にて分離された情報のうち、映像情報を再生する映像情報再生部と、前記分離部にて分離された情報のうち、走行状態情報を表示する走行状態情報表示部と、前記映像情報の再生と、前記走行状態情報の表示とを同期させる同期部と、を有する車載用映像記録再生装置を提供する。   The present invention also provides a multiplexed stream acquisition unit that acquires a multiplexed stream recorded by the in-vehicle video recording device, a separation unit that separates the multiplexed stream into each stream, and a separation unit that separates the multiplexed stream. Among the information that has been obtained, the video information reproducing unit that reproduces the video information, the traveling state information display unit that displays the traveling state information among the information separated by the separation unit, the reproduction of the video information, An in-vehicle video recording / reproducing apparatus having a synchronization unit that synchronizes display of traveling state information is provided.

本発明によれば、複数の映像と、位置情報などを含む車両の走行状態情報とを、単一のストリームに多重化して記録媒体に記録可能なため、データのコピーや移動、削除などの際の取り扱いが簡単に行えるようになり、ユーザビリティを向上させることができる。   According to the present invention, since a plurality of videos and vehicle running state information including position information can be multiplexed and recorded on a recording medium, the data can be copied, moved, deleted, etc. Can be handled easily, and usability can be improved.

以下に、各発明の実施の形態を説明する。なお、本発明はこれら実施の形態に何ら限定されるものではなく、その要旨を逸脱しない範囲において、種々なる態様で実施しうる。   Hereinafter, embodiments of each invention will be described. Note that the present invention is not limited to these embodiments, and can be implemented in various modes without departing from the spirit of the present invention.

なお、以下の実施形態と請求項の関係は次の通りである。
実施形態1は、主に請求項1、8、などについて説明する。実施形態2は、主に請求項2、9などについて説明する。実施形態3は、主に請求項3などについて説明する。実施形態4は、主に請求項4などについて説明する。実施形態5は、主に請求項5などについて説明する。実施形態6は、主に請求項6などについて説明する。実施形態7は、主に請求項7などについて説明する。
The relationship between the following embodiments and the claims is as follows.
In the first embodiment, claims 1 and 8 will be mainly described. The second embodiment will mainly describe claims 2 and 9. The third embodiment will mainly describe claim 3 and the like. The fourth embodiment will mainly describe claim 4 and the like. In the fifth embodiment, claim 5 will be mainly described. The sixth embodiment will mainly describe claim 6 and the like. The seventh embodiment will mainly describe claim 7 and the like.

<<実施形態1>>
<実施形態1の概要>
本実施形態は、車両の周囲の映像と、車両の位置情報やセンサ情報などの走行状態情報とを、単一のストリームに多重化して記録する車載用映像記録装置に関するものである。図1を用いて実施形態1に係る車載用映像記録装置の概念を説明する。図1は、本実施形態の活用概念の一例を示す図である。図1(a)は、車両事故が発生した場合の本件発明の活用例である。事故発生時において、車両Xはブレーキをかけて停止中であったことがセンサから読み取ることができる。そして、停車中の車両Xに車両Yが衝突してきた様子が映像を介して瞬時に把握することができる。一方、図1(b)は、走行中の位置情報と、周囲の映像を共に記録している様子を示している。このように車両の周囲の映像と、走行状態に関する情報とを多重化して記録することで、事故発生時の検証に加えてユーザが多種多様な活用を行うことも可能となる。
<< Embodiment 1 >>
<Outline of Embodiment 1>
The present embodiment relates to an in-vehicle video recording apparatus that multiplexes and records a video around a vehicle and traveling state information such as vehicle position information and sensor information into a single stream. The concept of the in-vehicle video recording apparatus according to the first embodiment will be described with reference to FIG. FIG. 1 is a diagram illustrating an example of a utilization concept of the present embodiment. FIG. 1A is an example of utilization of the present invention when a vehicle accident occurs. When the accident occurs, it can be read from the sensor that the vehicle X was braked and stopped. And it can grasp | ascertain instantaneously via the image | video that the vehicle Y has collided with the vehicle X which is stopping. On the other hand, FIG. 1B shows a state in which the position information during traveling and the surrounding video are recorded together. In this way, by multiplexing and recording the video around the vehicle and the information on the running state, the user can make various uses in addition to the verification at the time of the occurrence of the accident.

<実施形態1の構成>
図2に実施形態1の機能ブロック図の一例を示す。図2に示す本実施形態の「車載用映像記録装置」(0200)は、一以上の「映像情報取得部」(0210、0211、0212、0213)と、「映像符号化部」(0220)と、「走行状態情報取得部」(0230)と、「多重化ストリーム生成部」(0240)と、「記録部」(0250)と、を有する。
<Configuration of Embodiment 1>
FIG. 2 shows an example of a functional block diagram of the first embodiment. The “vehicle-mounted video recording device” (0200) of this embodiment shown in FIG. 2 includes one or more “video information acquisition units” (0210, 0211, 0212, 0213), and “video encoding unit” (0220). , “Traveling state information acquisition unit” (0230), “multiplexed stream generation unit” (0240), and “recording unit” (0250).

一以上の「映像情報取得部」(0210、0211、0212、0213)は、車両の周囲の映像情報を取得する。「一以上」とは、映像情報取得部が一つのみで構成されていてもよいし、二つ以上の映像情報取得部から構成されていてもよいことを示している。本実施形態の車載用映像記録装置においては、車両の前後左右に計4つの映像情報取得部を構成しているものとして説明するが、これに限定されないことは勿論である。「車両」とは、車載用映像記録装置が搭載され得る移動手段全般のことを意味しており、具体的には、自動車、オートバイ、自転車、電車、船舶、飛行機などが挙げられる。これらの車両の運転手は、当該車両の運行中においては、車両の周囲の風景などを鑑賞することができないという点で共通している。「映像情報」とは、例えば、映像信号を表す情報や、1フレーム分の映像信号の終端を示す同期信号を表す情報などから構成されるものである。本実施形態の映像情報は、事故発生時の映像の他にも、周囲の風景の映像など、様々なシーンの映像についての利用が可能である。なお、「車両の周囲の映像情報」とは、運転席などの車両の内部についての映像情報であってもよい。   One or more “video information acquisition units” (0210, 0211, 0212, 0213) acquire video information around the vehicle. “One or more” indicates that the video information acquisition unit may be configured by only one or may be configured by two or more video information acquisition units. In the on-vehicle video recording apparatus according to the present embodiment, a description will be given assuming that a total of four video information acquisition units are configured on the front, rear, left, and right sides of the vehicle. However, the present invention is not limited to this. “Vehicle” means any moving means on which an in-vehicle video recording device can be mounted, and specifically includes automobiles, motorcycles, bicycles, trains, ships, airplanes, and the like. The drivers of these vehicles are common in that they cannot appreciate the scenery around the vehicle during operation of the vehicle. “Video information” includes, for example, information representing a video signal, information representing a synchronization signal indicating the end of a video signal for one frame, and the like. The video information of the present embodiment can be used for videos of various scenes such as videos of surrounding landscapes in addition to videos at the time of an accident. The “video information around the vehicle” may be video information about the inside of the vehicle such as the driver's seat.

「映像情報取得部」の具体例としては、レンズやCCDなどの光電変換素子、オートフォーカス回路、ぶれ補正回路などを含んで構成される撮像装置などが挙げられる。このように、一以上の映像情報取得部から構成されることにより、車両の周囲の映像情報を様々な角度から取得することが可能となる。   Specific examples of the “video information acquisition unit” include an imaging device including a photoelectric conversion element such as a lens and a CCD, an autofocus circuit, a shake correction circuit, and the like. Thus, by comprising one or more video information acquisition units, video information around the vehicle can be acquired from various angles.

「映像符号化部」(0220)は、前記映像情報取得部(0210、0211、0212、0213)にて取得された映像情報を、それぞれ映像符号化ストリーム情報に符号化する。「映像符号化」の例としては、ISO/IEC共通規格であるMPEG−2ビデオ、MPEG−4ビデオやITU−T勧告H.264で定められた国際標準方式やWMV(Windows(登録商標) Media Video)などの形式によって符号化される例が挙げられる。具体的な映像符号化方法としては、動きベクトル検出処理、離散コサイン変換(DCT)処理、量子化処理、可変長符号化処理などを経て符号化処理を行うことなどが挙げられる。「それぞれ」とは、一の映像情報取得部にて取得された映像情報は、別個独立に符号化処理を行うことを示している。つまり、図3(a)に示すように、本実施形態における映像符号化部は、前記映像情報取得部と1対1の関係となるべく、同数の映像符号化部から成っていてもよいし、あるいは、図3(b)に示すように、一の映像符号化部から構成されている場合には内部的に独立して処理されてもよい。「映像符号化ストリーム情報」とは、前記映像符号化を行った結果の一連のビット列を表す情報のことである。映像符号化ストリーム情報には、例えば一以上の映像情報取得部の内、いずれの映像情報取得部から取得した映像情報を符号化したかについての情報を含んでいてもよいし、また、映像符号化ストリームのサイズ(例えばビット数)についての情報を含んでいてもよい。これらの情報はヘッダ情報として、映像符号化ストリーム情報の先頭部分に付されていてもよい。   The “video encoding unit” (0220) encodes the video information acquired by the video information acquisition unit (0210, 0211, 0212, 0213) into video encoded stream information. Examples of “video coding” include MPEG-2 video, MPEG-4 video and ITU-T recommendation H.264, which are ISO / IEC common standards. Examples include encoding in a format such as an international standard defined by H.264 or WMV (Windows (registered trademark) Media Video). Specific examples of the video encoding method include performing the encoding process through a motion vector detection process, a discrete cosine transform (DCT) process, a quantization process, a variable length encoding process, and the like. “Each” indicates that the video information acquired by one video information acquisition unit is independently encoded. That is, as shown in FIG. 3A, the video encoding unit in the present embodiment may include the same number of video encoding units as possible in a one-to-one relationship with the video information acquisition unit. Or as shown in FIG.3 (b), when comprised from one video encoding part, you may process independently independently. “Video encoded stream information” is information representing a series of bit strings as a result of the video encoding. The video encoded stream information may include, for example, information about which video information acquired from one of the one or more video information acquisition units is encoded. Information about the size (eg, the number of bits) of the stream. These pieces of information may be attached to the head portion of the video encoded stream information as header information.

「映像符号化部」を構成する具体例としては、前記映像情報をフレーム単位で取り込む映像取込手段や、取り込んだフレーム単位の映像データを保存するフレームメモリや、前記のような映像符号化方式により映像情報に符号化処理を施す符号化手段などが挙げられる。   Specific examples of the “video encoding unit” include a video capturing unit that captures the video information in units of frames, a frame memory that stores the captured video data in units of frames, and the video encoding method as described above. The encoding means for performing the encoding process on the video information can be used.

「走行状態情報取得部」(0230)は、車両の走行状態を示す情報である走行状態情報を取得する。「走行状態情報」に含まれる情報の具体例としては、「時刻情報」や「位置情報」や「衝撃センサ情報」や「センサ情報」などが挙げられる。「時刻情報」とは、車載用映像記録装置(0200)を構成する各部が動作する際に基準となる時刻についての情報であり、所定周波数のクロックをカウントして作成するものである。「位置情報」とは、車両の現在位置に関する情報のことであり、例えば、GPS衛星から発信された測位用電波を受信するGPS受信機を備え、複数のGPS衛星から車両までの距離を演算することにより得られるものである。「衝撃センサ情報」とは、車両に与えられた衝撃に関する情報のことであり、例えば、衝撃を検知する衝撃センサ装置を備え、当該衝撃センサ装置が所定の大きさ以上の衝撃を検知した場合に得られるものである。「センサ情報」とは、加速度センサやブレーキセンサ、車速センサ、舵角センサなどの各種のセンサに関する情報のことである。走行状態情報は、次に説明する多重化ストリームを生成する際に利用されるため、所定のストリーム形式になっていることが望ましい。また、走行状態取得部(0230)は、前記映像符号化部(0220)との間で、図外の同期クロック器などによって同期をとる構成を有していてもよい。   The “traveling state information acquisition unit” (0230) acquires traveling state information that is information indicating the traveling state of the vehicle. Specific examples of information included in the “running state information” include “time information”, “position information”, “impact sensor information”, “sensor information”, and the like. The “time information” is information about a time that becomes a reference when each unit constituting the in-vehicle video recording apparatus (0200) operates, and is created by counting clocks having a predetermined frequency. “Position information” refers to information related to the current position of the vehicle. For example, the position information includes a GPS receiver that receives positioning radio waves transmitted from GPS satellites, and calculates the distance from the plurality of GPS satellites to the vehicle. It is obtained by this. “Impact sensor information” refers to information related to the impact applied to the vehicle. For example, when the impact sensor device detects an impact of a predetermined magnitude or more, the impact sensor device detects an impact. It is obtained. “Sensor information” refers to information related to various sensors such as an acceleration sensor, a brake sensor, a vehicle speed sensor, and a rudder angle sensor. Since the traveling state information is used when a multiplexed stream described below is generated, it is desirable that the traveling state information be in a predetermined stream format. Further, the running state acquisition unit (0230) may have a configuration in which the running state acquisition unit (0230) is synchronized with the video encoding unit (0220) by a synchronous clock device (not shown).

「多重化ストリーム生成部」(0240)は、前記映像符号化ストリーム情報と、走行状態情報と、を同期多重化して多重化ストリームを生成する。「同期多重化」とは、同一時刻に取得されたものが、同一時刻に同時に再生などの処理を行うことができるように重ね合わせる処理を行うことである。例えば、車両が停止したときの左右の映像情報を再生する際には、同じタイミングで左右のカメラからの停止映像が再生されるように処理を施すことが挙げられる。同期多重化についての詳細は後述する。「多重化ストリーム」とは、複数のストリームを単一のストリームに構成させたものである。本実施形態のように、車載用映像記録装置(0200)が、複数の映像情報取得部(0210、0211、0212、0213)から構成されている場合には、複数の映像符号化ストリームに基づいて多重化ストリームが生成されることになる。多重化の方式としては、例えばISO/IEC共通規格であるMPEG−2システムやMPEG−4システムで定められた国際標準方式や、ASF(Advanced Systems Format)などが挙げられる。なお、多重化ストリーム生成部は、必要に応じて多重化ストリームのヘッダ情報を生成してもよい。ヘッダ情報は、映像符号化ストリーム情報に含まれるサイズ情報や、走行状態情報に含まれる時刻情報などに基づいて生成されてもよい。   The “multiplexed stream generation unit” (0240) generates the multiplexed stream by synchronously multiplexing the video encoded stream information and the running state information. “Synchronous multiplexing” refers to performing a process of superimposing items acquired at the same time so that processes such as reproduction can be performed simultaneously at the same time. For example, when reproducing the left and right video information when the vehicle is stopped, processing may be performed so that the stopped video from the left and right cameras is reproduced at the same timing. Details of the synchronous multiplexing will be described later. A “multiplexed stream” is a stream composed of a plurality of streams. When the in-vehicle video recording device (0200) is configured by a plurality of video information acquisition units (0210, 0211, 0212, 0213) as in the present embodiment, it is based on a plurality of video encoded streams. Multiplexed streams will be generated. Examples of the multiplexing method include an international standard method defined by MPEG-2 system and MPEG-4 system, which are ISO / IEC common standards, ASF (Advanced Systems Format), and the like. Note that the multiplexed stream generating unit may generate header information of the multiplexed stream as necessary. The header information may be generated based on size information included in the video encoded stream information, time information included in the running state information, or the like.

ここで、図4及び図5を用いて、多重化ストリームの生成処理の一例について、多重化の方式にMPEG−2システムを用いた場合を例に挙げながら説明する。まず、映像符号化部において符号化された映像符号化ストリーム情報は、所定のヘッダが付加されてPES(Packetized Elementary Stream)と呼ばれるフォーマットとなっているものとする(以下、映像PESと呼ぶ)。同様にして、走行状態情報もPESのフォーマットとなっているものとする(以下、走行PESと呼ぶ)。図4は映像PESの一例を示すものである。図4において、0400は映像PES、0401はPESヘッダ、0402は映像情報に含まれる1フレームを符号化した映像符号化ストリーム情報である。多重化ストリーム生成部は、映像PES(0400)を所定サイズごとに読み出し、ヘッダ(TSヘッダ)を付加して、固定長(188バイト)のTSパケット(0410〜0416)を作成する。なお、TSパケットとは、トランスポートストリーム(TS)と呼ばれる多重化ストリームを構成する際の要素となるものである。TSヘッダには、TSパケットの開始を示す同期バイトやTSパケットを一意に識別するためのID(PID)などが含まれる。このPIDにより、多重化された各ストリームの区別が可能となる。当該処理を他の映像符号化ストリーム情報に対しても実行する。その際、PIDは異なる識別子になる。   Here, an example of a multiplexed stream generation process will be described with reference to FIGS. 4 and 5, taking as an example a case where an MPEG-2 system is used as a multiplexing method. First, it is assumed that the video encoded stream information encoded by the video encoding unit has a format called PES (Packetized Elementary Stream) with a predetermined header added (hereinafter referred to as video PES). Similarly, it is assumed that the traveling state information is also in the PES format (hereinafter referred to as traveling PES). FIG. 4 shows an example of the video PES. In FIG. 4, 0400 is a video PES, 0401 is a PES header, and 0402 is video encoded stream information obtained by encoding one frame included in the video information. The multiplexed stream generation unit reads the video PES (0400) for each predetermined size, adds a header (TS header), and creates a fixed-length (188 byte) TS packet (0410-0416). The TS packet is an element when a multiplexed stream called a transport stream (TS) is configured. The TS header includes a synchronization byte indicating the start of the TS packet, an ID (PID) for uniquely identifying the TS packet, and the like. With this PID, each multiplexed stream can be distinguished. This process is also executed for other video encoded stream information. At that time, the PID becomes a different identifier.

次に、作成した各TSパケットをバッファなどに一時的に格納する。複数のPESから作成したTSパケットをバッファに格納していくことで、TSを構成することになる。この処理の概要を図5に示す。図5において映像PES1〜4はそれぞれ映像符号化ストリーム情報として符号化された映像PESをさす。映像PES1〜4および走行PESは、TSパケットに分解される際に、それぞれn1〜n5のPIDが割り当てられる。多重化ストリーム生成部は、これらのTSパケットを1つのTSとなるように多重化する。なお、TSに多重化された各TSパケットのPID値はPMT(PROGRAM Mapped Table)と呼ばれる形式で記述され、映像符号化ストリーム情報などと同様にしてTS中に多重化される。   Next, each created TS packet is temporarily stored in a buffer or the like. A TS is configured by storing TS packets created from a plurality of PESs in a buffer. An outline of this processing is shown in FIG. In FIG. 5, video PES1 to PES4 indicate video PES encoded as video encoded stream information. When the video PES1 to 4 and the traveling PES are decomposed into TS packets, PIDs n1 to n5 are assigned, respectively. The multiplexed stream generation unit multiplexes these TS packets so as to become one TS. Note that the PID value of each TS packet multiplexed in the TS is described in a format called PMT (PROGRAM Mapped Table), and is multiplexed in the TS in the same manner as the video encoded stream information.

このように映像情報と走行状態情報とを多重化することで各情報を一の媒体に集約することができ、その後のデータのコピーや移動、削除などの際の取り扱いが容易に行えるようになり、ユーザビリティが向上する。また、例えば同じ時間の複数の映像情報同士が関連付けられるように構成されている場合には、マルチウィンドウなどを用いて一つのディスプレイ内に各映像を表示することも可能となる。なお、多重化処理は、1フレーム毎に行ってもよいし、あるいは、複数のフレームを単位として行ってもよい。   In this way, by multiplexing the video information and the driving state information, it is possible to consolidate each information on one medium, and it becomes possible to easily handle subsequent copying, moving and deleting of data. , Usability is improved. For example, when a plurality of pieces of video information of the same time are associated with each other, each video can be displayed in one display using a multi-window or the like. The multiplexing process may be performed for each frame or may be performed in units of a plurality of frames.

「記録部」(0250)は、前記多重化ストリーム生成部(0240)にて生成された多重化ストリームを記録する。記録部は、多重化ストリームを記録するための記録媒体を接続するためのインターフェイスを備えていてもよい。記録媒体の具体例としては、ハードディスクドライブ(HDD)などの磁気ディスクや、DVDなどの光ディスク、不揮発性メモリカードなどが挙げられる。なお、記録部には、例えば車両に備え付けられた第1の記録媒体に加えて、着脱可能な第2の記録媒体を接続してもよい。この場合、第1の記録媒体は、事故が起きたときの証拠として利用すべく、衝撃による破損や事故の当事者による改ざんを防止するために強固な筐体に収められ、保護されていてもよい。一方、第2の記録媒体は、ユーザが個人的に映像データを楽しむために容易に着脱可能となっていてもよい。また、前記のように記録媒体が2つある場合には、第1の記録媒体と第2の記録媒体に同時に記録するようにしてもよいし、ユーザの操作に応じて前記第2の記録媒体に記録するようにしてもよい。また、記録動作中には第1の記録媒体にのみ多重化ストリームを記録し、記録後に第2の記録媒体にコピーするようにしてもよい。更に、第1の記録媒体から第2の記録媒体に多重化ストリームをコピーする際には、多重化ストリーム全体をコピーしてもよいし、多重化ストリームから所望の映像符号化ストリーム情報のみを抜き出して再多重化してからコピーしてもよい。   The “recording unit” (0250) records the multiplexed stream generated by the multiplexed stream generating unit (0240). The recording unit may include an interface for connecting a recording medium for recording the multiplexed stream. Specific examples of the recording medium include a magnetic disk such as a hard disk drive (HDD), an optical disk such as a DVD, and a nonvolatile memory card. For example, in addition to the first recording medium provided in the vehicle, a detachable second recording medium may be connected to the recording unit. In this case, the first recording medium may be protected by being housed in a strong housing in order to prevent damage due to impact or alteration by the party involved in the accident, so as to be used as evidence when the accident occurs. . On the other hand, the second recording medium may be easily detachable for the user to enjoy video data personally. Further, when there are two recording media as described above, the recording may be performed simultaneously on the first recording medium and the second recording medium, or the second recording medium according to a user operation. May be recorded. Further, the multiplexed stream may be recorded only on the first recording medium during the recording operation, and copied to the second recording medium after recording. Further, when the multiplexed stream is copied from the first recording medium to the second recording medium, the entire multiplexed stream may be copied, or only desired video encoded stream information is extracted from the multiplexed stream. It is possible to copy after re-multiplexing.

以上のように構成された車載用映像記録装置(0200)は、例えば車両のエンジン始動に連動して主電源がONとされ、車両のエンジン停止に連動して主電源がOFFにされてもよい。   In the in-vehicle video recording apparatus (0200) configured as described above, for example, the main power supply may be turned on in conjunction with the start of the vehicle engine, and the main power supply may be turned off in conjunction with the vehicle engine stop. .

なお、本件発明の構成要素である各部は、ハードウエア、ソフトウエア、ハードウエアとソフトウエアの両者、のいずれかによって構成される。例えば、これらを実現する一例として、コンピュータを利用する場合には、CPU、メモリ、バス、インターフェイス、周辺装置などから構成されるハードウエアと、これらのハードウエア上にて実行可能なソフトウエアを挙げることができる。具体的には、メモリ上に展開されたプログラムを順次実行することで、メモリ上のデータや、インターフェイスを介して入力されるデータの加工、蓄積、出力などにより各部の機能が実現される(本明細書の全体を通じて同様である)。   Each unit that is a component of the present invention is configured by any one of hardware, software, and both hardware and software. For example, as an example for realizing these, when a computer is used, hardware composed of a CPU, a memory, a bus, an interface, a peripheral device, and the like, and software executable on these hardware are listed. be able to. Specifically, the functions of each part are realized by processing, storing, and outputting data on the memory and data input via the interface by sequentially executing the program expanded on the memory (this book) The same applies throughout the specification).

<実施形態1の処理の流れ>
図6に実施形態1における処理の流れの一例を示す。実施形態1における車載用映像記録方法は、まず、一以上の車両の周囲の映像情報を取得する(S0601)。次に、走行状態情報を取得する(S0602)。ステップS0602とステップS0601との処理は、互いに同期をとって処理を行うように構成されていてもよい。次に、ステップS0601にて取得した映像情報を映像符号化ストリーム情報に符号化する(S0603)。そして、ステップS0602とS0603とにおいて得られた映像符号化ストリーム情報と、走行状態情報とを、同期多重化して多重化ストリームを生成する(S0604)。その後、ステップS0604にて生成された多重化ストリームを記録する(S0605)。これらの処理は例えば車両の主電源のON/OFFをトリガーに行ってもよい。
<Processing flow of Embodiment 1>
FIG. 6 shows an example of the processing flow in the first embodiment. The on-vehicle video recording method according to Embodiment 1 first acquires video information around one or more vehicles (S0601). Next, traveling state information is acquired (S0602). The processes in step S0602 and step S0601 may be configured to perform the processes in synchronization with each other. Next, the video information acquired in step S0601 is encoded into video encoded stream information (S0603). Then, the video encoded stream information obtained in steps S0602 and S0603 and the running state information are synchronously multiplexed to generate a multiplexed stream (S0604). Thereafter, the multiplexed stream generated in step S0604 is recorded (S0605). These processes may be performed by, for example, turning on / off the main power supply of the vehicle.

<実施形態1の効果>
本実施形態における車載用映像記録装置は、車両の周囲の映像情報と、走行状態情報とを同期多重化して生成した多重化ストリームを記録するため、データのコピーや移動、削除などの際の取り扱いが容易に行えるようになり、利便性が高まる。従って、単に事故処理などの検証用途の他にも、ユーザは、所望する時間帯、場所、方角などの映像を適宜利用することが可能となり、ユーザビリティが向上する。
<Effect of Embodiment 1>
The in-vehicle video recording apparatus according to the present embodiment records a multiplexed stream generated by synchronously multiplexing video information around the vehicle and driving state information, and therefore handles data copy, movement, and deletion. Can be easily performed, and convenience is enhanced. Therefore, in addition to a verification application such as accident processing, the user can appropriately use images of a desired time zone, place, direction, etc., and usability is improved.

<<実施形態2>>
<実施形態2の概要>
実施形態2は、実施形態1と同様に車載用映像記録装置に関するものであるが、実施形態1と異なり、複数のカメラからの映像をフレーム単位で結合し、その結合した画面を映像符号化することが特徴である。図7を用いて実施形態2の活用概念を説明する。図7は、事故発生時の場面を示す図である。車両Xの運転手は青信号であることを確認して交差点に進入したところ、横から車両Yに衝突されたものとする。このとき、車両Xの前後左右に設置されているカメラからの映像を一画面で結合した状態で記録しておけば、信号の点灯状況などが瞬時に確認できるため、事故発生時の検証がより容易になる。
<< Embodiment 2 >>
<Outline of Embodiment 2>
The second embodiment relates to an in-vehicle video recording apparatus as in the first embodiment, but unlike the first embodiment, videos from a plurality of cameras are combined in units of frames, and the combined screen is encoded. It is a feature. The utilization concept of Embodiment 2 is demonstrated using FIG. FIG. 7 is a diagram illustrating a scene when an accident occurs. It is assumed that the driver of the vehicle X has collided with the vehicle Y from the side when confirming that the signal is green and entering the intersection. At this time, if the images from the cameras installed on the front, back, left and right of the vehicle X are recorded in a single screen, the lighting status of the signal can be confirmed instantly, so the verification at the time of the accident is more It becomes easy.

<実施形態2の構成>
図8に実施形態2における機能ブロック図の一例を示す。図8に示す「車載用映像記録装置」(0800)は、一以上の「映像情報取得部」(0801−1、0801−2、0801−3、・・・0801−n(nは正の整数))と、「フレーム単位結合映像情報取得部」(0802)と、「フレーム単位結合映像符号化部」(0803)と、「走行状態情報取得部」(0804)と、「多重化ストリーム生成部」(0805)と、「記録部」(0806)と、を有する。「フレーム単位結合映像情報取得部」(0802)と、「フレーム単位結合映像符号化部」(0803)と、を除いた構成については実施形態1で説明したものと同様であるため、ここでの説明は省略する。
<Configuration of Embodiment 2>
FIG. 8 shows an example of a functional block diagram in the second embodiment. 8 includes one or more “video information acquisition units” (0801-1, 0801-2, 0801-3,... 0801-n (where n is a positive integer). )), “Frame unit combined video information acquisition unit” (0802), “frame unit combined video encoding unit” (0803), “running state information acquisition unit” (0804), and “multiplexed stream generation unit” ”(0805) and“ Recording section ”(0806). Since the configuration excluding “frame unit combined video information acquisition unit” (0802) and “frame unit combined video encoding unit” (0803) is the same as that described in the first embodiment, Description is omitted.

「フレーム単位結合映像情報取得部」(0802)は、一以上の前記映像情報をフレーム単位で結合したフレーム単位結合映像情報を取得する。「前記映像情報」とは、映像情報取得部にて取得された映像情報のことである。「結合」とは、複数の映像情報のフレーム同士を結びつけて一の映像フレームとすることである。また、一の映像情報をフレーム単位で結合してもよい。なお、前述したとおり、1フレームの終端については映像情報に含まれる同期信号にて判別できるため、映像情報をフレーム単位で結合することも可能となる。フレーム単位結合映像情報取得部には、新たに1フレームを構成する際に使用するフレーム数m(mは正の整数である)及び使用する映像情報が予め設定されていてもよい。また、映像情報取得部の数をnとした場合には、n>mを満たすことを条件に映像情報取得部(0801−1〜0801―n)の映像データの中からm個を選択するように構成されていてもよい。また、新たに1フレームを構成する際に使用するフレーム数mは、適宜変更可能に構成されていてもよい。   The “frame unit combined video information acquisition unit” (0802) acquires frame unit combined video information obtained by combining one or more pieces of the video information in units of frames. The “video information” is video information acquired by the video information acquisition unit. “Combining” refers to combining a plurality of video information frames into one video frame. Further, one piece of video information may be combined in units of frames. As described above, since the end of one frame can be determined by the synchronization signal included in the video information, the video information can be combined in units of frames. The frame unit combined video information acquisition unit may be preset with the number of frames m (m is a positive integer) and video information to be used when a new frame is configured. When the number of video information acquisition units is n, m pieces are selected from the video data of the video information acquisition units (0801-1 to 0801-n) on condition that n> m is satisfied. It may be configured. Further, the number m of frames used when newly configuring one frame may be configured to be appropriately changeable.

図9に、m=4の場合におけるフレームの構成例を示す。図9はn視点から4視点の映像情報を選択した場合の例であり、4つのSD解像度(480i)の映像情報を1つのHD解像度(1080i)の映像情報に構成したものである。このように複数の映像を1フレームに結合することにより、車両の周囲の様子を克明に把握することができるようになる。   FIG. 9 shows an example of a frame configuration when m = 4. FIG. 9 shows an example in which video information of four viewpoints is selected from n viewpoints, in which video information of four SD resolutions (480i) is configured as video information of one HD resolution (1080i). In this way, by combining a plurality of videos into one frame, it becomes possible to grasp the state around the vehicle clearly.

「フレーム単位結合映像符号化部」(0803)は、前記フレーム単位結合映像情報取得部(0802)にて取得されたフレーム単位結合映像情報を映像符号化ストリーム情報に符号化する。各映像情報を、一の画面内に同時に表示可能に関連付ける処理を行いながら、個別に符号化処理を行うよりも、本実施形態のように各映像情報を結合した後に符号化処理を行う方が、ヘッダなどの冗長符号量を削減できるといった利点がある。以降の映像符号化ストリーム情報を同期多重化する処理などについては、実施形態1と同様であるため、ここでの説明は省略する。   The “frame unit combined video encoding unit” (0803) encodes the frame unit combined video information acquired by the frame unit combined video information acquisition unit (0802) into video encoded stream information. It is better to perform the encoding process after combining the video information as in this embodiment, rather than performing the encoding process individually while performing the process of associating each video information so that it can be displayed simultaneously on one screen. There is an advantage that a redundant code amount such as a header can be reduced. Since the process of synchronously multiplexing the subsequent video encoded stream information is the same as that of the first embodiment, the description thereof is omitted here.

なお、フレーム単位結合映像情報取得部(0802)が取得するフレーム単位結合映像情報に含める各映像情報を、別の映像情報取得部にて取得された映像情報に変更した場合には、フレーム単位結合映像符号化部(0803)は、映像符号化ストリーム情報に符号化する際に、フレーム内符号化が適用されるよう処理を行ってもよい。これは、変更前のフレーム単位結合映像情報の符号化方式がフレーム間予測に基づく符号化方式である場合には、少なくとも最初に符号化するフレームにはフレーム内符号化が施される必要があるからである。従って、フレーム単位結合映像情報取得部(0802)が取得するフレーム単位結合映像情報に含まれる各映像情報の変更があった場合には、フレーム単位結合映像符号化部(0803)は、結合後のフレームがIピクチャとして符号化されるように処理を行ってもよい。あるいは、一連のI、P、Bピクチャの系列をGOPと呼ぶが、GOPの周期にしたがって、フレーム単位結合映像情報に含まれる映像情報を変更するように制御を行ってもよい。ここで、Iピクチャとは、例えば符号化方式にMPEG−2を用いる場合のフレーム内符号化が適用されるフレームのことであり、PピクチャまたはBピクチャは、フレーム間予測符号化が適用されるフレームのことである。   In addition, when each video information included in the frame unit combined video information acquired by the frame unit combined video information acquisition unit (0802) is changed to the video information acquired by another video information acquisition unit, the frame unit combination The video encoding unit (0803) may perform processing such that intra-frame encoding is applied when encoding into video encoded stream information. This is because, when the encoding method of the frame-unit combined video information before the change is an encoding method based on inter-frame prediction, at least the first frame to be encoded needs to be subjected to intra-frame encoding. Because. Therefore, when each video information included in the frame unit combined video information acquired by the frame unit combined video information acquisition unit (0802) is changed, the frame unit combined video encoding unit (0803) Processing may be performed so that the frame is encoded as an I picture. Alternatively, a series of I, P, and B picture sequences is referred to as a GOP, but control may be performed so as to change the video information included in the frame-unit combined video information in accordance with the GOP cycle. Here, an I picture is a frame to which intra-frame coding is applied when MPEG-2 is used as an encoding method, for example, and inter-frame predictive coding is applied to a P picture or B picture. It is a frame.

以上の説明は、本実施形態の車載用映像記録装置に一のフレーム単位結合映像符号化部(0803)がある場合について説明したが、複数のフレーム単位結合映像符号化部を有していてもよい。例えば、実施形態1で説明したように、記録部(0806)が、第1の記録媒体と、第2の記録媒体とが記録可能な構成となっている場合などにおいては、第1の記録媒体を事故検証用とし、第2の記録媒体をユーザの風景観賞用とすることが考えられる。この場合には、第2の記録媒体には必ずしも複数の方向を捉えた映像が必要とは限らないため、ユーザが選択した映像のみを記録することで、第2の記録媒体の記録容量を節約することができ、記録時間をのばすことが可能となり、ユーザビリティが向上する。   In the above description, the case where the in-vehicle video recording apparatus according to the present embodiment has one frame-unit combined video encoding unit (0803) has been described, but a plurality of frame-unit combined video encoding units may be included. Good. For example, as described in the first embodiment, when the recording unit (0806) has a configuration in which the first recording medium and the second recording medium can be recorded, the first recording medium is used. Can be used for accident verification, and the second recording medium can be used for viewing the user's scenery. In this case, the second recording medium does not necessarily require a video that captures a plurality of directions, and thus recording only the video selected by the user saves the recording capacity of the second recording medium. It is possible to extend the recording time and improve usability.

<実施形態2の処理の流れ>
図10に実施形態2における処理の流れの一例を示す。ステップS1001にて取得した一以上の映像情報をフレーム単位で結合したフレーム単位結合映像情報を取得する(S1003)。フレーム単位で結合する映像情報についてはユーザが事前に設定していてもよいし、各種処理の途中において結合する映像情報を変更してもよい。そして、ステップS1003にて取得したフレーム単位結合映像情報を映像符号化ストリーム情報に符号化する(S1004)。その他の処理については実施形態1で説明したものと同様であるため、ここでの説明は省略する。
<Processing flow of Embodiment 2>
FIG. 10 shows an example of the processing flow in the second embodiment. Frame unit combined video information obtained by combining one or more pieces of video information acquired in step S1001 in units of frames is acquired (S1003). The video information to be combined in units of frames may be set in advance by the user, or the video information to be combined may be changed during various processes. Then, the frame unit combined video information acquired in step S1003 is encoded into video encoded stream information (S1004). Other processes are the same as those described in the first embodiment, and a description thereof is omitted here.

<実施形態2の効果>
本実施形態においては、一以上の映像情報をフレーム単位で結合し、当該結合した映像情報を利用して処理を行うため、事故発生時における検証がより容易になる。また、複数の映像を一の映像として集約するため、ユーザが周囲の風景などを鑑賞する際においても利便性がより高まる。
<Effect of Embodiment 2>
In the present embodiment, one or more pieces of video information are combined in units of frames, and processing is performed using the combined video information, so that verification at the time of an accident becomes easier. In addition, since a plurality of videos are aggregated as one video, convenience is further enhanced when the user appreciates the surrounding scenery.

<<実施形態3>>
<実施形態3の概要>
本実施形態における車載用映像処理装置は、前記映像情報を1フレーム単位で取得した時点の走行状態情報を取得することを特徴とする。これにより、映像情報と走行状態情報との多重化処理を行う際に同期をとることが容易となる。
<< Embodiment 3 >>
<Outline of Embodiment 3>
The in-vehicle video processing apparatus according to the present embodiment is characterized in that it acquires travel state information when the video information is acquired in units of one frame. This facilitates synchronization when the video information and the running state information are multiplexed.

<実施形態3の構成>
図11に実施形態3の機能ブロック図の一例を示す。図11に示す本実施形態の「車載用映像記録装置」(1100)は、一以上の「映像情報取得部」(1110、1111、112、1113)と、「映像符号化部」(1120)と、「走行状態情報取得部」(1130)と、「多重化ストリーム生成部」(1140)と、「記録部」(1150)と、を有する。走行状態取得部(1130)は、「フレーム単位走行状態情報取得手段」(1131)を有し、多重化ストリーム生成部(1140)は、「フレーム単位多重化ストリーム生成手段」(1141)を有する。「フレーム単位走行状態情報取得手段」(1131)と、「フレーム単位多重化ストリーム生成手段」(1141)と、を除いた構成については実施形態1で説明したものと同様であるため、ここでの説明は省略する。また、実施形態2とも「フレーム単位走行状態情報取得手段」(1131)と、「フレーム単位多重化ストリーム生成手段」(1141)と、を除いて共通した構成を採ることができる。
<Configuration of Embodiment 3>
FIG. 11 shows an example of a functional block diagram of the third embodiment. The “vehicle-mounted video recording device” (1100) of this embodiment shown in FIG. 11 includes one or more “video information acquisition units” (1110, 1111, 112, 1113), and “video encoding unit” (1120). , A “running state information acquisition unit” (1130), a “multiplexed stream generation unit” (1140), and a “recording unit” (1150). The traveling state acquisition unit (1130) includes a “frame unit traveling state information acquisition unit” (1131), and the multiplexed stream generation unit (1140) includes a “frame unit multiplexed stream generation unit” (1141). Since the configuration excluding “frame unit travel state information acquisition unit” (1131) and “frame unit multiplexed stream generation unit” (1141) is the same as that described in the first embodiment, Description is omitted. In the second embodiment, a common configuration can be adopted except for “frame unit traveling state information acquisition unit” (1131) and “frame unit multiplexed stream generation unit” (1141).

「フレーム単位走行状態情報取得手段」(1131)は、前記映像情報取得部(1110、1111、1112、1113)が映像情報を1フレーム分取得した時点の走行状態情報であるフレーム単位走行状態情報を取得する。「映像情報を1フレーム分取得した時点の走行状態情報」とは、例えばNTSC規格の場合には、毎秒約30フレームの静止画を構成しているため、位置情報やセンサ情報などの走行状態情報は、1/30秒ごとに取得されることを意味している。   The “frame unit travel state information acquisition unit” (1131) obtains frame unit travel state information which is the travel state information when the video information acquisition unit (1110, 1111, 1112, 1113) acquires one frame of video information. get. For example, in the case of the NTSC standard, the “running state information at the time when one frame of video information is acquired” constitutes a still image of about 30 frames per second, and thus the running state information such as position information and sensor information. Means that it is acquired every 1/30 seconds.

以下に1フレーム分取得した時点の走行状態情報を取得する手法の一例を説明する。まず、前記映像情報取得部(1110、1111、1112、1113)は、映像情報に含まれる同期信号を検出して1フレーム分の映像情報を取得すると、フレーム単位走行状態情報取得手段(1131)に対して、1フレーム分の映像情報取得の完了を通知する。次に、フレーム単位走行状態情報取得手段(1131)は、前記通知を受けると、時刻情報や位置情報やセンサ情報などが含まれる走行状態情報を取得する。このように処理を行うことで、映像情報と、走行状態情報とを互いに同期させて取得することが可能になる。   Hereinafter, an example of a method for acquiring the running state information at the time when one frame is acquired will be described. First, when the video information acquisition unit (1110, 1111, 1112, 1113) detects a synchronization signal included in the video information and acquires video information for one frame, the video information acquisition unit (1111) receives the frame unit travel state information acquisition unit (1131). On the other hand, the completion of acquisition of video information for one frame is notified. Next, when receiving the notification, the frame unit travel state information acquisition unit (1131) acquires travel state information including time information, position information, sensor information, and the like. By performing the processing in this way, the video information and the running state information can be acquired in synchronization with each other.

「フレーム単位多重化ストリーム生成手段」(1141)は、前記映像符号化ストリーム情報と、フレーム単位走行状態情報と、を同期多重化することで多重化ストリームを生成する。本実施形態においては、映像情報と走行状態情報とが同期をとって取得された状態になっているため、多重化処理が容易となる。   The “frame unit multiplexed stream generating means” (1141) generates a multiplexed stream by synchronously multiplexing the video encoded stream information and the frame unit running state information. In the present embodiment, since the video information and the running state information are acquired in synchronization, the multiplexing process is facilitated.

<実施形態3の処理の流れ>
図12に本実施形態における処理の流れの一例を示す。まず、車両の周囲の映像情報を取得する(S1201)。次に、ステップS1201にて映像情報を1フレーム分取得した時点の走行状態情報であるフレーム単位走行状態情報を取得する(S1202)。そして、映像符号化ストリーム情報と、フレーム単位走行状態情報と、を同期多重化することで多重化ストリームを生成する(S1204)。その他の処理については実施形態1又は2で説明したものと同様であるため、ここでの説明は省略する。
<Processing flow of Embodiment 3>
FIG. 12 shows an example of the flow of processing in this embodiment. First, video information around the vehicle is acquired (S1201). Next, the frame unit traveling state information, which is the traveling state information at the time when one frame of video information is acquired in step S1201, is acquired (S1202). Then, a multiplexed stream is generated by synchronously multiplexing the video encoded stream information and the frame unit running state information (S1204). Since other processes are the same as those described in the first or second embodiment, the description thereof is omitted here.

<実施形態3の効果>
本実施形態においては、1フレーム分の映像情報取得の完了を通知することなどによって、映像情報を1フレーム単位で取得した時点の走行状態情報であるフレーム単位走行状態情報を取得することができる。そして、当該フレーム単位走行状態情報を利用して多重化処理を行うため、同期をとることが容易となり、多重化処理を行う際の効率が向上する。また、センサ情報などの走行状態情報をフレーム単位で取得することができるため、事故発生時などにおける車両の詳密な状態を把握することができる。
<Effect of Embodiment 3>
In the present embodiment, by notifying completion of acquisition of video information for one frame, it is possible to acquire frame-by-frame driving state information that is driving state information at the time when video information is acquired in units of one frame. Since the multiplexing process is performed using the frame unit traveling state information, it becomes easy to achieve synchronization, and the efficiency when performing the multiplexing process is improved. In addition, since traveling state information such as sensor information can be acquired in units of frames, it is possible to grasp the detailed state of the vehicle when an accident occurs.

<<実施形態4>>
<実施形態4の概要>
本実施形態における車載用映像記録装置は、多重化ストリームを記録する際に、所定の時間長を単位として記録することを特徴とする。これにより、所定の時間毎のファイル形式で記録することが可能になるため、再生時などにおける情報取得が容易となる。
<< Embodiment 4 >>
<Outline of Embodiment 4>
The in-vehicle video recording apparatus according to the present embodiment is characterized in that when a multiplexed stream is recorded, recording is performed in units of a predetermined time length. As a result, it is possible to record in a file format every predetermined time, so that it is easy to obtain information during reproduction.

<実施形態4の構成>
図13に実施形態4の機能ブロック図の一例を示す。図13に示す本実施形態の「車載用映像記録装置」(1300)は、一以上の「映像情報取得部」(1310、1311、1312、1313)と、「映像符号化部」(1320)と、「走行状態情報取得部」(1330)と、「多重化ストリーム生成部」(1340)と、「記録部」(1350)と、を有する。記録部(1350)は、「時間単位記録手段」(1351)を有する。「時間単位記録手段(1351)を除いた構成については、実施形態1で説明したものと同様であるため、ここでの説明は省略する。また、実施形態2についても、「時間単位記録手段」(1351)を除いて共通した構成をとることができる。
<Configuration of Embodiment 4>
FIG. 13 shows an example of a functional block diagram of the fourth embodiment. The “vehicle-mounted video recording device” (1300) of this embodiment shown in FIG. 13 includes one or more “video information acquisition units” (1310, 1311, 1312, 1313), “video encoding unit” (1320), , “Traveling state information acquisition unit” (1330), “multiplexed stream generation unit” (1340), and “recording unit” (1350). The recording unit (1350) includes “time unit recording means” (1351). “The configuration excluding the time unit recording means (1351) is the same as that described in the first embodiment, and thus the description thereof is omitted. Also in the second embodiment,“ time unit recording means ”is also described. A common configuration can be adopted except for (1351).

「時間単位記録手段」(1351)は、所定時間長を単位として多重化ストリームを記録する。「所定時間長」とは、任意の時間長のことである。「所定時間長を単位として」とは、任意の時間長(例えば15秒)を記録単位として、当該時間長の多重化ストリームが一のファイルを構成することを意味する。このように多重化ストリームが所定時間長を単位として一のファイルに記録されることによって、それぞれの多重化ストリームの時間に応じたファイルごとに個別にアクセスすることが可能になる。なお、所定時間長の長さの判断基準としては、内部クロック周波数に基づいた時間情報を利用してもよいし、あるいは映像情報に含まれる映像のフレーム数を利用してもよい。   The “time unit recording means” (1351) records the multiplexed stream in units of a predetermined time length. The “predetermined time length” is an arbitrary time length. “In units of a predetermined time length” means that an arbitrary time length (for example, 15 seconds) is used as a recording unit, and a multiplexed stream having the time length forms one file. As described above, the multiplexed stream is recorded in one file with a predetermined time length as a unit, so that it is possible to individually access each file according to the time of each multiplexed stream. Note that, as a criterion for determining the length of the predetermined time length, time information based on the internal clock frequency may be used, or the number of video frames included in the video information may be used.

<実施形態4の処理の流れ>
図14に本実施形態における処理の流れの一例を示す。ステップS1404までの処理については、実施形態1又は2で説明したものと同様であるため、ここでの説明は省略する。ステップS1405においては、所定時間長を単位として多重化ストリームを記録する。
<Processing Flow of Embodiment 4>
FIG. 14 shows an example of the processing flow in this embodiment. Since the processing up to step S1404 is the same as that described in the first or second embodiment, description thereof is omitted here. In step S1405, the multiplexed stream is recorded in units of a predetermined time length.

<実施形態4の効果>
本実施形態においては、所定時間長を単位として多重化ストリームを記録するため、それぞれの多重化ストリームの時間に応じたファイルごとに個別にアクセスすることが可能になる。従って、万一事故が起きた場合の状況証拠や事故原因の解析に多重化ストリームを利用可能であるとともに、ユーザが周囲の風景の映像などを鑑賞しようとする際に、容易に希望するファイルを取得することが可能となる。
<Effect of Embodiment 4>
In this embodiment, since a multiplexed stream is recorded in units of a predetermined time length, it becomes possible to individually access each file according to the time of each multiplexed stream. Therefore, the multiplexed stream can be used for situational evidence in case of an accident and analysis of the cause of the accident, and when the user wants to view the surrounding landscape video, etc. It can be acquired.

<<実施形態5>>
<実施形態5の概念>
実施形態5における車載用映像記録装置は、衝撃を検知した場合には、その前後の映像情報などについては消去禁止としたことを特徴とするものである。事故などが発生した場合には、その前後の映像情報や走行状態情報の重要性が飛躍的に高まる。一方、記録処理は頻繁に行われていることから、重要な映像情報などを上書き消去してしまう場合がある。本実施形態はこのような事態を想定したものである。
<< Embodiment 5 >>
<Concept of Embodiment 5>
The on-vehicle video recording apparatus according to the fifth embodiment is characterized in that when an impact is detected, the video information before and after the impact is prohibited from being erased. When an accident or the like occurs, the importance of video information and running state information before and after that dramatically increases. On the other hand, since recording processing is frequently performed, important video information and the like may be overwritten and erased. The present embodiment assumes such a situation.

<実施形態5の構成>
図15に実施形態5の機能ブロック図の一例を示す。図15に示す本実施形態の「車載用映像記録装置」(1500)は、一以上の「映像情報取得部」(1510、1511、1512、1513)と、「映像符号化部」(1520)と、「走行状態情報取得部」(1530)と、「多重化ストリーム生成部」(1540)と、「記録部」(1550)と、を有する。走行状態情報取得部(1530)は、「衝撃状態情報取得手段」(1531)を有し、「記録部」(1550)は、「衝撃検出消去禁止手段」(1551)を有する。「衝撃状態情報取得手段」(1531)と、「衝撃検出消去禁止手段」(1551)と、を除いた構成は実施形態1で説明したものと同様であるため、ここでの説明は省略する。また、実施形態2においても、「衝撃状態情報取得手段」(1531)と、「衝撃検出消去禁止手段」(1551)と、を除いて共通した構成をとることができる。
<Configuration of Embodiment 5>
FIG. 15 shows an example of a functional block diagram of the fifth embodiment. The “vehicle-mounted video recording device” (1500) of this embodiment shown in FIG. 15 includes one or more “video information acquisition units” (1510, 1511, 1512, 1513), and “video encoding unit” (1520). , “Traveling state information acquisition unit” (1530), “multiplexed stream generation unit” (1540), and “recording unit” (1550). The traveling state information acquisition unit (1530) includes an “impact state information acquisition unit” (1531), and the “recording unit” (1550) includes an “impact detection deletion prohibiting unit” (1551). Since the configuration excluding the “impact state information acquisition unit” (1531) and the “impact detection erasure prohibiting unit” (1551) is the same as that described in the first embodiment, description thereof is omitted here. In the second embodiment, a common configuration can be adopted except for the “impact state information acquisition unit” (1531) and the “impact detection / erasure prohibition unit” (1551).

「衝撃状態情報取得手段」(1531)は、車両の衝撃を示す走行状態情報である衝撃状態情報を取得する。「車両の衝撃」とは、車載用映像記録装置(1500)が搭載されている車両が受ける衝撃のことである。「衝撃」とは、例えば車両が大破するほどの激しいものであってもよいし、かすり傷程度の軽微なものであってもよい。事故には様々な態様があるからである。衝撃状態情報取得手段は、例えば衝撃検知センサなどから構成される。なお、この衝撃検知センサは、エアバック用のセンサなどと共通していてもよい。   The “impact state information acquisition unit” (1531) acquires impact state information which is travel state information indicating the impact of the vehicle. “Vehicle impact” refers to impact received by a vehicle on which the in-vehicle video recording device (1500) is mounted. The “impact” may be, for example, as severe as the vehicle is severely damaged, or as slight as a scratch. This is because there are various modes of accidents. The impact state information acquisition means is composed of, for example, an impact detection sensor. The impact detection sensor may be shared with an airbag sensor or the like.

「衝撃検出消去禁止手段」(1551)は、前記衝撃状態情報を取得した場合には、記録中の多重化ストリームの所定時間領域を、衝撃を検出したタイミングに基づいて消去禁止とする。「衝撃状態情報を取得した場合」とは、例えば、記録部(1550)にて記録される多重化ストリームに含まれる走行状態情報から衝撃状態情報を取得する場合が挙げられる。「記録中の」とは、現在記録処理を行っている場合や、既に記録済みの場合を含む意味である。「所定時間領域」とは、例えば所定時間を単位にした各ファイルが記録されている記憶媒体の記憶領域のことである。「消去禁止とする」とは、ファイルの属性を消去禁止に変更することなどである。「衝撃を検出したタイミングに基づいて消去禁止」とは、衝撃を検出した時点の前後の所定時間領域について消去を禁止することを意味している。事故などの場合には、衝撃を検出した時点よりもその直前の情報の方が非常に重要となる場合が多いため、衝撃検出前後の時間領域について消去を禁止する。なお、記録媒体の情報を無線回線などを通じてサーバーなどに送信することで、消去禁止としてもよい。   The “impact detection erasure prohibiting means” (1551), when acquiring the impact state information, prohibits erasure of a predetermined time region of the multiplexed stream being recorded based on the timing at which the impact is detected. “When the impact state information is acquired” includes, for example, the case where the impact state information is acquired from the traveling state information included in the multiplexed stream recorded by the recording unit (1550). “Recording” means that a recording process is currently being performed or a case where recording has already been performed. The “predetermined time area” is a storage area of a storage medium in which each file is recorded in units of a predetermined time, for example. “Prohibit erasure” means changing a file attribute to erasure prohibited. “Prohibition of erasure based on the timing at which an impact is detected” means that erasure is prohibited in a predetermined time region before and after the impact is detected. In the case of an accident or the like, the information immediately before the impact is detected is more important than the time when the impact is detected. The information on the recording medium may be prohibited from being erased by transmitting it to a server or the like via a wireless line or the like.

<実施形態5の処理の流れ>
図16に実施形態5における処理の流れの一例を示す。ステップS1603までの処理については実施形態1又は2で説明したものと同様であるため、ここでの説明は省略する。ステップS1604においては、車両の衝撃を示す走行状態情報である衝撃状態情報を取得する。なお、ステップS1604においては、衝撃状態情報の他にも各種の走行状態情報を取得してもよい。そして、ステップS1604で衝撃状態情報が取得されたと判断した場合には、記録中の多重化ストリームの所定時間領域を、衝撃を検出したタイミングに基づいて消去禁止とする(S1607、S1608)。その他の処理については、実施形態1又は2で説明したものと同様である。
<Processing Flow of Embodiment 5>
FIG. 16 shows an example of the flow of processing in the fifth embodiment. Since the processing up to step S1603 is the same as that described in the first or second embodiment, description thereof is omitted here. In step S1604, impact state information that is travel state information indicating the impact of the vehicle is acquired. In step S1604, various traveling state information may be acquired in addition to the impact state information. If it is determined in step S1604 that the impact state information has been acquired, the predetermined time area of the multiplexed stream being recorded is prohibited from being erased based on the timing at which the impact was detected (S1607, S1608). Other processes are the same as those described in the first or second embodiment.

<<実施形態6>>
<実施形態6の概要>
実施形態6における車載用映像記録装置は、映像中の動きの変化に関する情報を検出し、映像中に動きの変化がない場合には、記録を停止することを特徴とする。また、動きの変化が生じた場合には、記録を再開することができる。これにより、不要な映像を記録しなくて済む。
<< Embodiment 6 >>
<Overview of Embodiment 6>
The on-vehicle video recording apparatus according to the sixth embodiment is characterized in that it detects information related to a change in motion in a video and stops recording when there is no change in motion in the video. Also, recording can be resumed when a change in motion occurs. This eliminates the need to record unnecessary video.

<実施形態6の構成>
図17に実施形態6の機能ブロック図の一例を示す。図17に示す本実施形態の「車載用映像記録装置」(1700)は、一以上の「映像情報取得部」(1710、1711、1712、1713)と、「動き変化情報検出部」(1720)と、「映像符号化部」(1730)と、「走行状態情報取得部」(1740)と、「多重化ストリーム生成部」(1750)と、「記録部」(1760)と、を有する。記録部(1760)は、「動き変化情報利用記録制御手段」(1761)を有する。「動き変化情報検出部」(1720)と、「動き変化情報利用記録制御手段」(1761)と、を除いた構成については実施形態1で説明したものと同様であるため、ここでの説明は省略する。また、実施形態2においても、「動き変化情報検出部」(1720)と、「動き変化情報利用記録制御手段」(1761)と、を除いて、共通する構成をとることができる。
<Configuration of Embodiment 6>
FIG. 17 shows an example of a functional block diagram of the sixth embodiment. The “vehicle-mounted video recording device” (1700) of this embodiment shown in FIG. 17 includes one or more “video information acquisition units” (1710, 1711, 1712, 1713) and a “motion change information detection unit” (1720). A "video encoding unit" (1730), a "running state information acquisition unit" (1740), a "multiplexed stream generation unit" (1750), and a "recording unit" (1760). The recording unit (1760) includes “motion change information use recording control means” (1761). Since the configuration excluding the “motion change information detection unit” (1720) and the “motion change information use recording control unit” (1761) is the same as that described in the first embodiment, the description here will be omitted. Omitted. Also in the second embodiment, a common configuration can be adopted except for the “motion change information detection unit” (1720) and the “motion change information use recording control unit” (1761).

「動き変化情報検出部」(1720)は、前記映像情報で示される映像中の動きの変化に関する情報である動き変化情報を検出する。「前記映像情報」とは、映像情報取得部(1710、1711、1712、1713)にて取得された映像情報のことであって、映像符号化部(1730)において映像符号化ストリーム情報に符号化される映像情報のことである。「映像中の動き」とは、例えば前後するフレームの間における対象物の位置などの変化のことである。動き変化情報は、MPEGなどにおける動きベクトルに関する情報であってもよい。また、動き変化情報は、フレーム内の同位置における動きが急激に変化していることに起因する情報であってもよい。すなわち、所定の移動量に達していない「動き」については、「映像中の動きの変化」がないとすることもできる。なお、動き変化情報検出部(1720)は、映像符号化部(1730)と一体化されていてもよい。   The “motion change information detection unit” (1720) detects motion change information that is information relating to a change in motion in the video indicated by the video information. The “video information” refers to video information acquired by the video information acquisition unit (1710, 1711, 1712, 1713), and is encoded into video encoded stream information by the video encoding unit (1730). It is the video information to be played. “Movement in video” refers to, for example, a change in the position of an object between frames before and after. The motion change information may be information regarding a motion vector in MPEG or the like. Further, the motion change information may be information resulting from a sudden change in motion at the same position in the frame. In other words, “movement” that has not reached the predetermined amount of movement can be regarded as having no “change in movement in video”. Note that the motion change information detection unit (1720) may be integrated with the video encoding unit (1730).

以下、動き変化情報の検出方法について、動きベクトルを例に挙げて説明する。動き変化情報検出部(1720)は、映像符号化部(1730)において1フレーム分の映像データがフレームメモリに取り込まれた後、映像データの時間的に前後する複数フレームを読み込んで、フレーム間の動き検出を行い、動きの向き・大きさを示す動きベクトルを算出する。動き検出の方法としては、ブロックマッチング法が挙げられる。これは、符号化対象のフレームと時間的に前後のフレームとを所定のサイズのブロック単位で比較して、最も近いブロック間の位置の変位を動きベクトルとして算出するものである。このようにして算出した動きベクトルに基づき、フレーム間に動きの変化が存在するか否かの「判定」を行うことで、動き変化情報を検出する。判定を行う理由としては、例えば、トンネルを走行中の場合のように、一定速度で走行している状態で回りの状況に特段変化がない場合などにおいて、不要な映像を記録しないで済むようにしたためである。微小な動きの変化であっても、動きベクトル自体は発生してしまうため、所定の閾値以上の動きが検出された場合に限り、「動きの変化」があるとする。   Hereinafter, a method for detecting motion change information will be described using a motion vector as an example. The motion change information detection unit (1720) reads a plurality of frames before and after the video data after the video data for one frame is taken into the frame memory by the video encoding unit (1730), Motion detection is performed, and a motion vector indicating the direction and magnitude of the motion is calculated. An example of the motion detection method is a block matching method. In this method, an encoding target frame and temporally preceding and following frames are compared in units of blocks of a predetermined size, and the displacement of the position between the nearest blocks is calculated as a motion vector. Based on the motion vector calculated in this way, the motion change information is detected by performing “determination” as to whether or not there is a motion change between frames. The reason for performing the determination is, for example, in the case of traveling at a constant speed, such as when traveling in a tunnel, so that unnecessary images need not be recorded. This is because. Even if there is a minute change in motion, the motion vector itself is generated. Therefore, it is assumed that there is a “motion change” only when a motion exceeding a predetermined threshold is detected.

次に、動きの変化の「判定」方法について一例を述べる。ここで、時刻単位tにおけるフレームの、ある位置における動きベクトルをMV(t)=(mvx、mvy)とすると、動きベクトルの大きさ|MV(t)|がゼロならばフレーム間の動きは存在せず、非ゼロならばフレーム間の動きが存在することになる。そして、動きベクトルの大きさがゼロか非ゼロかによって、MV(t−1)とMV(t)との間で動きの有無に変化があるか否かを調べることができる。例えば、ゼロ→ゼロの場合は変化がなく、ゼロ→非ゼロまたは非ゼロ→ゼロの場合は変化があると判定できる。一方、非ゼロ→非ゼロの場合には動きベクトルの大きさだけでは動きの有無の判定ができないため、動きベクトルの向きを考慮して変化のあり/なしを判定する。つまり、ほとんど同じ向きの動きベクトルにおいては、一定速度で走行中の場合などであって、急激な動きの変化は発生していないと考えることができるからである。ここで、MV(t)の向きは、mvxとmvyの大きさと正負の符号から算出できる。例えば、図18に示す8つの方向のいずれに属するかを決定し、−3〜4の値のラベルをつけてもよい。ここで、時刻単位tにおけるフレームの、ある位置における動きベクトルの向きをD(t)とすると、D(t)とD(t−1)との差の絶対値が1以下ならば、ほぼ同じ向きの動きベクトルであるため、大きな変化はないとし、そうでなければ変化ありとする。このようにして全てのブロックについて変化のあり/なしを判定し、例えば、変化ありと判定された動きベクトル数が所定の閾値を越えたときに、最終的に「動き変化」があったものとしてもよい。なお、D(t)との差を計算する対象は時間的に1フレーム前の動きベクトルの方向D(t−1)だけでなく、所定の期間におけるD(t)の平均値でもよい。   Next, an example of a “determination” method for a change in motion will be described. Here, if the motion vector at a certain position of the frame in the time unit t is MV (t) = (mvx, mvy), if the magnitude of the motion vector | MV (t) | If not, there will be motion between frames if non-zero. Then, whether there is a change in the presence or absence of motion between MV (t−1) and MV (t) can be checked depending on whether the magnitude of the motion vector is zero or non-zero. For example, it can be determined that there is no change when zero → zero, and there is a change when zero → non-zero or non-zero → zero. On the other hand, in the case of non-zero → non-zero, the presence / absence of motion cannot be determined only by the magnitude of the motion vector, and therefore the presence / absence of change is determined in consideration of the direction of the motion vector. That is, it can be considered that there is no sudden change in the motion vector in almost the same direction, such as when traveling at a constant speed. Here, the direction of MV (t) can be calculated from the magnitudes of mvx and mvy and the sign of positive and negative. For example, it may be determined which of the eight directions shown in FIG. 18 belongs, and a label with a value of −3 to 4 may be attached. Here, if the direction of the motion vector at a certain position of the frame in the time unit t is D (t), it is almost the same if the absolute value of the difference between D (t) and D (t−1) is 1 or less. Since it is a motion vector in the direction, it is assumed that there is no significant change, and otherwise there is a change. In this way, the presence / absence of change is determined for all blocks. For example, when the number of motion vectors determined to have changed exceeds a predetermined threshold, it is assumed that there is finally a “motion change”. Also good. The target for calculating the difference from D (t) may be not only the direction D (t−1) of the motion vector one frame before in time but also the average value of D (t) in a predetermined period.

「動き変化情報利用記録制御手段」(1761)は、前記動き変化情報検出部にて検出された動き変化情報に基づいて記録の制御を行う。「記録の制御」とは、記録動作を一時停止させたり、記録動作を再開させたりすることなどである。例えば、記録動作を一時停止中に、後続車が急に接近してきた場合などのように車両の周囲に変化がありとされた動き変化情報を検出した場合には、記録動作を再開してもよい。これにより、車両が停止している状態や、一定速度で走行している状態で、車両の周りの状況に特段の変化がない場合において、記録の必要がない映像を記録しないようにすることができ、また何らかの変化があった場合には速やかに記録を再開することが可能となる。   "Motion change information use recording control means" (1761) controls recording based on the motion change information detected by the motion change information detection unit. “Recording control” refers to temporarily stopping the recording operation or restarting the recording operation. For example, when motion change information is detected that has changed around the vehicle, such as when a subsequent vehicle suddenly approaches while the recording operation is paused, the recording operation may be resumed. Good. As a result, when there is no particular change in the situation around the vehicle when the vehicle is stopped or traveling at a constant speed, it is possible not to record images that do not need to be recorded. In addition, recording can be resumed promptly if there is any change.

また、記録の制御を行う際に、ある映像情報は、動き変化情報の結果にかかわらず固定的に記録するようにして、他の映像情報は動き変化情報に応じて記録制御をしてもよい。あるいは、走行状態情報に含まれるセンサ情報に応じて処理を行ってもよい。例えば、車速センサにより感知される車速に応じて、車速が速いときには遠景を捉えた映像情報の記録制御を行い、車速が低いときには近景を捉えた映像情報の記録制御を行ってもよい。また、記録制御を行う映像情報が変更された後には一定時間は動き変化情報の結果にかかわらず記録を行うようにしてもよい。これにより、真に必要な動き変化の情報を厳選するなどの柔軟性に富んだ処理が可能となる。   Also, when controlling the recording, certain video information may be fixedly recorded regardless of the result of the motion change information, and other video information may be controlled to be recorded according to the motion change information. . Or you may process according to the sensor information contained in driving state information. For example, according to the vehicle speed detected by the vehicle speed sensor, video information recording control that captures a distant view may be performed when the vehicle speed is high, and video information recording control that captures a close view may be performed when the vehicle speed is low. Further, after the video information to be recorded is changed, recording may be performed for a certain time regardless of the result of the motion change information. As a result, it is possible to perform a flexible process such as carefully selecting information on the necessary movement change.

<実施形態6の処理の流れ>
図19に実施形態6における処理の流れの一例を示す。ステップS1903までの処理は実施形態1又は2で説明したものと同様であるため、ここでの説明は省略する。ステップS1903にて映像情報の符号化をする際に、映像情報で示される映像中の動きの変化に関する情報である動き変化情報を検出する(S1904)。以降、ステップS1906までの処理については実施形態1又は2で説明したものと同様である。ステップS1907においては、動き変化情報を検出したかを判断する。ステップS1907において、動き変化情報を検出したと判断した場合には、記録の制御を行う(S1908)。
<Processing flow of Embodiment 6>
FIG. 19 shows an example of the processing flow in the sixth embodiment. Since the processing up to step S1903 is the same as that described in the first or second embodiment, description thereof is omitted here. When the video information is encoded in step S1903, motion change information that is information relating to a change in motion in the video indicated by the video information is detected (S1904). Thereafter, the processing up to step S1906 is the same as that described in the first or second embodiment. In step S1907, it is determined whether motion change information is detected. If it is determined in step S1907 that motion change information has been detected, recording control is performed (S1908).

<実施形態6の効果>
本実施形態においては、映像中の動きの変化に関する情報を検出し、映像中に動きの変化がない場合には、記録を停止し、動きの変化が生じた場合には、記録を再開することができる。これにより、車両の周囲の状況に特段の変化がない場合には、不要な映像を記録しないで済む。
<Effect of Embodiment 6>
In the present embodiment, information relating to a change in motion in the video is detected, recording is stopped when there is no motion change in the video, and recording is resumed when a motion change occurs. Can do. As a result, when there is no particular change in the situation around the vehicle, unnecessary video is not recorded.

<<実施形態7>>
<実施形態7の概要>
実施形態7は、実施形態1から6のいずれかにおいて説明した車載用映像記録装置にて記録された多重化ストリームを、各ストリームに分離して、再生することを可能とした車載用映像記録再生装置に関するものである。
<< Embodiment 7 >>
<Outline of Embodiment 7>
In the seventh embodiment, the in-vehicle video recording / reproducing that enables the multiplexed stream recorded by the in-vehicle video recording apparatus described in any of the first to sixth embodiments to be separated into each stream and reproduced. It relates to the device.

<実施形態7の構成>
図20に実施形態7の機能ブロック図の一例を示す。図20に示す「車載用映像記録再生装置」(2000)は、「多重化ストリーム取得部」(2001)と、「分離部」(2002)と、「映像情報再生部」(2003)と、「走行状態情報表示部」(2004)と、「同期部」(2005)と、を有する。
<Configuration of Embodiment 7>
FIG. 20 shows an example of a functional block diagram of the seventh embodiment. The “vehicle-mounted video recording / playback apparatus” (2000) shown in FIG. 20 includes a “multiplexed stream acquisition unit” (2001), a “separation unit” (2002), a “video information playback unit” (2003), It has a “running state information display section” (2004) and a “synchronization section” (2005).

「多重化ストリーム取得部」(2001)は、実施形態1から6のいずれか一に記載の車載用映像記録装置にて記録された多重化ストリームを取得する。具体的には、記録媒体などから多重化ストリームを読み出す処理を行う。「分離部」(2002)は、前記多重化ストリーム取得部(2001)にて取得された多重化ストリームを各ストリームに分離する。多重化ストリームを分離するには、前述したように、TSヘッダに含まれている、各ストリームを一意に識別するためのID(PID)を基に分離される。   A “multiplexed stream acquisition unit” (2001) acquires a multiplexed stream recorded by the in-vehicle video recording apparatus according to any one of the first to sixth embodiments. Specifically, a process for reading a multiplexed stream from a recording medium or the like is performed. The “separator” (2002) separates the multiplexed stream acquired by the multiplexed stream acquisition unit (2001) into each stream. As described above, the multiplexed streams are separated based on the ID (PID) included in the TS header for uniquely identifying each stream.

「映像情報再生部」(2003)は、前記分離部(2002)にて分離された情報のうち、映像情報を再生する。「映像情報を再生」とは、分離された映像符号化ストリーム情報を復号して、映像情報を再生することである。また、走行状態情報表示部(2004)は、前記分離部(2002)にて分離された情報のうち、走行状態情報を表示する。「同期部」(2005)は、前記映像情報の再生と、前記走行状態情報の表示とを同期させる。分離された走行状態情報には、例えば位置情報が含まれているため、映像の表示に同期して車両の位置を特定することができる。これにより、例えば地図データとリンクさせることで、ユーザが地図上に車両の進んだ経路を表示しながら映像を視聴することが可能となる。   The “video information reproducing unit” (2003) reproduces video information among the information separated by the separating unit (2002). “Playback video information” is to play back video information by decoding separated video encoded stream information. The traveling state information display unit (2004) displays the traveling state information among the information separated by the separating unit (2002). The “synchronizing unit” (2005) synchronizes the reproduction of the video information and the display of the traveling state information. Since the separated traveling state information includes, for example, position information, the position of the vehicle can be specified in synchronization with the display of the video. Thus, for example, by linking with map data, the user can view the video while displaying the route the vehicle has traveled on the map.

<実施形態7の処理の流れ>
図21に実施形態7における処理の流れの一例を示す。最初に実施形態1から6のいずれか一に記載の車載用映像記録装置にて記録された多重化ストリームを取得する(S2101)。次に、ステップS2101にて取得した多重化ストリームを各ストリームに分離する(S2102)。各ストリームに分離した後に、同期をとりながら映像情報を再生し(S2103)、また、走行状態情報を表示する(S2104)。
<Processing flow of Embodiment 7>
FIG. 21 shows an example of the processing flow in the seventh embodiment. First, a multiplexed stream recorded by the in-vehicle video recording apparatus according to any one of Embodiments 1 to 6 is acquired (S2101). Next, the multiplexed stream acquired in step S2101 is separated into each stream (S2102). After being separated into each stream, the video information is reproduced while synchronizing (S2103), and the running state information is displayed (S2104).

<実施形態7の効果>
本実施形態においては、実施形態1から6のいずれか一に記載の車載用映像記録装置にて記録された多重化ストリームを分離して、同期をとりながら再生・表示することを可能にしたことにより、走行経路を表示しながら、映像を楽しむことなどが可能となり、ユーザビリティが向上する。
<Effect of Embodiment 7>
In the present embodiment, the multiplexed stream recorded by the in-vehicle video recording apparatus according to any one of the first to sixth embodiments can be separated and reproduced and displayed while being synchronized. Thus, it is possible to enjoy video while displaying the travel route, and usability is improved.

以上、本発明の各実施形態について説明したが、本発明の車載用映像記録装置は、上記の実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲内において、種々の変更を加えうることは勿論である。   As mentioned above, although each embodiment of this invention was described, the vehicle-mounted video recording apparatus of this invention is not limited to said embodiment, In the range which does not deviate from the summary of this invention, various changes are carried out. Of course, it can be added.

実施形態1を説明するための概念図Conceptual diagram for explaining the first embodiment 実施形態1を説明するための機能ブロック図Functional block diagram for explaining the first embodiment 実施形態1の映像符号化部の接続構成を説明する図The figure explaining the connection structure of the image | video encoding part of Embodiment 1. FIG. TSパケットの構成の仕方を説明するための模式図Schematic diagram for explaining how to configure TS packets ストリームの多重化の仕方を説明するための模式図Schematic diagram for explaining how to multiplex streams 実施形態1の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 1. 実施形態2の概念を説明するための概念図Conceptual diagram for explaining the concept of the second embodiment 実施形態2を説明するための機能ブロック図Functional block diagram for explaining the second embodiment 映像情報の1フレームの結合例を示すための図The figure for showing the example of combination of 1 frame of picture information 実施形態2の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 2. 実施形態3を説明するための機能ブロック図Functional block diagram for explaining the third embodiment 実施形態3の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 3. 実施形態4を説明するための機能ブロック図Functional block diagram for explaining the fourth embodiment 実施形態4の処理の流れを説明する図The figure explaining the flow of processing of Embodiment 4 実施形態5を説明するための機能ブロック図Functional block diagram for explaining the fifth embodiment 実施形態5の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 5. 実施形態6を説明するための機能ブロック図Functional block diagram for explaining the sixth embodiment 動きの方向を示すための図Illustration to show direction of movement 実施形態6の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 6. FIG. 実施形態7を説明するための機能ブロック図Functional block diagram for explaining the seventh embodiment 実施形態7の処理の流れを説明するための図The figure for demonstrating the flow of a process of Embodiment 7. FIG.

符号の説明Explanation of symbols

0200 車載用映像記録装置
0210 映像情報取得部
0220 映像符号化部
0230 走行状態情報取得部
0240 多重化ストリーム生成部
0250 記録部
0200 On-vehicle video recording device 0210 Video information acquisition unit 0220 Video encoding unit 0230 Running state information acquisition unit 0240 Multiplexed stream generation unit 0250 Recording unit

Claims (9)

車両の周囲の映像情報を取得する一以上の映像情報取得部と、
前記映像情報取得部にて取得された映像情報を、それぞれ映像符号化ストリーム情報に符号化する映像符号化部と、
車両の走行状態を示す情報である走行状態情報を取得する走行状態情報取得部と、
前記映像符号化ストリーム情報と、走行状態情報と、を同期多重化して多重化ストリームを生成する多重化ストリーム生成部と、
前記多重化ストリーム生成部にて生成された多重化ストリームを記録する記録部と、
を有する車載用映像記録装置。
One or more video information acquisition units for acquiring video information around the vehicle;
A video encoding unit that encodes the video information acquired by the video information acquisition unit into video encoded stream information, and
A traveling state information acquisition unit that acquires traveling state information that is information indicating the traveling state of the vehicle;
A multiplexed stream generating unit that synchronously multiplexes the video encoded stream information and the running state information to generate a multiplexed stream;
A recording unit for recording the multiplexed stream generated by the multiplexed stream generating unit;
An in-vehicle video recording apparatus.
車両の周囲の映像情報を取得する一以上の映像情報取得部と、
一以上の前記映像情報をフレーム単位で結合したフレーム単位結合映像情報を取得するフレーム単位結合映像情報取得部と、
前記フレーム単位結合映像情報取得部にて取得されたフレーム単位結合映像情報を映像符号化ストリーム情報に符号化するフレーム単位結合映像符号化部と、
車両の走行状態を示す情報である走行状態情報を取得する走行状態情報取得部と、
前記映像符号化ストリーム情報と、走行状態情報と、を同期多重化して多重化ストリームを生成する多重化ストリーム生成部と、
前記多重化ストリーム生成部にて生成された多重化ストリームを記録する記録部と、
を有する車載用映像記録装置。
One or more video information acquisition units for acquiring video information around the vehicle;
A frame unit combined video information acquisition unit for acquiring frame unit combined video information obtained by combining one or more pieces of the video information in units of frames;
A frame unit combined video encoding unit that encodes the frame unit combined video information acquired by the frame unit combined video information acquisition unit into video encoded stream information;
A traveling state information acquisition unit that acquires traveling state information that is information indicating the traveling state of the vehicle;
A multiplexed stream generating unit that synchronously multiplexes the video encoded stream information and the running state information to generate a multiplexed stream;
A recording unit for recording the multiplexed stream generated by the multiplexed stream generating unit;
An in-vehicle video recording apparatus.
前記走行状態情報取得部は、
前記映像情報取得部が映像情報を1フレーム分取得した時点の走行状態情報であるフレーム単位走行状態情報を取得するフレーム単位走行状態情報取得手段を有し、
前記多重化ストリーム生成部は、
前記映像符号化ストリーム情報と、フレーム単位走行状態情報と、を同期多重化することで多重化ストリームを生成するフレーム単位多重化ストリーム生成手段を
更に含む請求項1又は2に記載の車載用映像記録装置。
The traveling state information acquisition unit
A frame unit running state information obtaining unit for obtaining frame unit running state information which is a running state information at the time when the video information obtaining unit obtains one frame of video information;
The multiplexed stream generator is
The in-vehicle video recording according to claim 1 or 2, further comprising a frame unit multiplexed stream generating means for generating a multiplexed stream by synchronously multiplexing the video encoded stream information and the frame unit running state information. apparatus.
前記記録部は、
所定時間長を単位として多重化ストリームを記録する時間単位記録手段を、
更に含む請求項1又は2に記載の車載用映像記録装置。
The recording unit is
Time unit recording means for recording a multiplexed stream in units of a predetermined time length,
The in-vehicle video recording apparatus according to claim 1, further comprising:
前記走行状態情報取得部は、
車両の衝撃を示す走行状態情報である衝撃状態情報を取得する衝撃状態情報取得手段を有し、
前記記録部は、
前記衝撃状態情報を取得した場合には、記録中の多重化ストリームの所定時間領域を、衝撃を検出したタイミングに基づいて消去禁止とする衝撃検出消去禁止手段を
更に含む請求項1又は2に記載の車載用映像記録装置。
The traveling state information acquisition unit
Having impact state information acquisition means for acquiring impact state information which is traveling state information indicating the impact of the vehicle;
The recording unit is
3. The apparatus according to claim 1 or 2, further comprising impact detection / erasure prohibiting means for prohibiting erasure of a predetermined time region of the multiplexed stream being recorded based on a timing at which the impact is detected when the impact state information is acquired. In-vehicle video recording device.
前記映像情報で示される映像中の動きの変化に関する情報である動き変化情報を検出する動き変化情報検出部を有し、
前記記録部は、
前記動き変化情報検出部にて検出された動き変化情報に基づいて記録の制御を行う動き変化情報利用記録制御手段を、
更に含む請求項1又は2に記載の車載用映像記録装置。
A motion change information detection unit that detects motion change information that is information related to a change in motion in the video indicated by the video information;
The recording unit is
Motion change information use recording control means for controlling recording based on the motion change information detected by the motion change information detection unit,
The in-vehicle video recording apparatus according to claim 1, further comprising:
請求項1から6のいずれか一に記載の車載用映像記録装置にて記録された多重化ストリームを取得する多重化ストリーム取得部と、
前記多重化ストリーム取得部にて取得された多重化ストリームを各ストリームに分離する分離部と、
前記分離部にて分離された情報のうち、映像情報を再生する映像情報再生部と、
前記分離部にて分離された情報のうち、走行状態情報を表示する走行状態情報表示部と、
前記映像情報の再生と、前記走行状態情報の表示とを同期させる同期部と、
を有する車載用映像記録再生装置。
A multiplexed stream acquisition unit that acquires a multiplexed stream recorded by the in-vehicle video recording device according to any one of claims 1 to 6,
A separation unit that separates the multiplexed stream acquired by the multiplexed stream acquisition unit into each stream;
Among the information separated by the separation unit, a video information reproduction unit that reproduces video information;
Of the information separated by the separation unit, a traveling state information display unit that displays traveling state information,
A synchronization unit that synchronizes the reproduction of the video information and the display of the running state information;
An in-vehicle video recording / reproducing apparatus having
車両の周囲の映像情報を取得する映像情報取得ステップと、
前記映像情報取得ステップにて取得された映像情報を、映像符号化ストリーム情報に符号化する映像符号化ステップと、
車両の走行状態を示す情報である走行状態情報を取得する走行状態情報取得ステップと、
前記映像符号化ストリーム情報と、走行状態情報と、を同期多重化して多重化ストリームを生成する多重化ストリーム生成ステップと、
前記多重化ストリーム生成ステップにて生成された多重化ストリームを記録媒体に書き込む書込みステップと、
からなる車載用映像記録方法。
A video information acquisition step for acquiring video information around the vehicle;
A video encoding step of encoding the video information acquired in the video information acquisition step into video encoded stream information;
A driving state information acquisition step of acquiring driving state information which is information indicating the driving state of the vehicle;
A multiplexed stream generating step of generating a multiplexed stream by synchronously multiplexing the video encoded stream information and the running state information;
A writing step of writing the multiplexed stream generated in the multiplexed stream generating step into a recording medium;
An in-vehicle video recording method comprising:
車両の周囲の映像情報を取得する一以上の映像情報取得ステップと、
一以上の前記映像情報をフレーム単位で結合したフレーム単位結合映像情報を取得するフレーム単位結合映像情報取得ステップと、
前記フレーム単位結合映像情報取得ステップにて取得されたフレーム単位結合映像情報を映像符号化ストリーム情報に符号化するフレーム単位結合映像符号化ステップと、
車両の走行状態を示す情報である走行状態情報を取得する走行状態情報取得ステップと、
前記映像符号化ストリーム情報と、走行状態情報と、を同期多重化して多重化ストリームを生成する多重化ストリーム生成ステップと、
前記多重化ストリーム生成ステップにて生成された多重化ストリームを記録媒体に書き込む書込みステップと、
からなる車載用映像記録方法。
One or more video information acquisition steps for acquiring video information around the vehicle;
A frame unit combined video information acquisition step of acquiring frame unit combined video information obtained by combining one or more pieces of the video information in units of frames;
A frame unit combined video encoding step for encoding the frame unit combined video information acquired in the frame unit combined video information acquisition step into video encoded stream information;
A driving state information acquisition step of acquiring driving state information which is information indicating the driving state of the vehicle;
A multiplexed stream generating step of generating a multiplexed stream by synchronously multiplexing the video encoded stream information and the running state information;
A writing step of writing the multiplexed stream generated in the multiplexed stream generating step into a recording medium;
An in-vehicle video recording method comprising:
JP2005022053A 2005-01-28 2005-01-28 On-vehicle video recording apparatus Pending JP2006211415A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005022053A JP2006211415A (en) 2005-01-28 2005-01-28 On-vehicle video recording apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005022053A JP2006211415A (en) 2005-01-28 2005-01-28 On-vehicle video recording apparatus

Publications (1)

Publication Number Publication Date
JP2006211415A true JP2006211415A (en) 2006-08-10

Family

ID=36967764

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005022053A Pending JP2006211415A (en) 2005-01-28 2005-01-28 On-vehicle video recording apparatus

Country Status (1)

Country Link
JP (1) JP2006211415A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008066953A (en) * 2006-09-06 2008-03-21 Sanyo Electric Co Ltd Image monitoring apparatus
JP2008263491A (en) * 2007-04-13 2008-10-30 Casio Comput Co Ltd Image recorder and recording method, image recording control program, and image reproducing device
JP2009302621A (en) * 2008-06-10 2009-12-24 Mitsubishi Electric Engineering Co Ltd On-board video recording device
JP2010028635A (en) * 2008-07-23 2010-02-04 Mitsubishi Electric Engineering Co Ltd Onboard video recording apparatus
US8350886B2 (en) 2007-02-16 2013-01-08 Autonetworks Technologies, Ltd. Vehicle-mounted video communication system and vehicle-mounted image pickup system
KR20150070246A (en) * 2012-10-10 2015-06-24 스미스 디텍션-워트포드 리미티드 Portable evidentiary collection system
WO2015082941A3 (en) * 2013-12-06 2015-07-30 Cosworth Group Holdings Limited Processing video and sensor data associated with a vehicle
CN112438044A (en) * 2018-08-30 2021-03-02 Jvc建伍株式会社 Electronic device, operation method, and program
CN114241626A (en) * 2021-12-27 2022-03-25 司法鉴定科学研究院 Data analysis method for automobile driving recorder

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008066953A (en) * 2006-09-06 2008-03-21 Sanyo Electric Co Ltd Image monitoring apparatus
US8350886B2 (en) 2007-02-16 2013-01-08 Autonetworks Technologies, Ltd. Vehicle-mounted video communication system and vehicle-mounted image pickup system
JP2008263491A (en) * 2007-04-13 2008-10-30 Casio Comput Co Ltd Image recorder and recording method, image recording control program, and image reproducing device
JP2009302621A (en) * 2008-06-10 2009-12-24 Mitsubishi Electric Engineering Co Ltd On-board video recording device
JP2010028635A (en) * 2008-07-23 2010-02-04 Mitsubishi Electric Engineering Co Ltd Onboard video recording apparatus
KR102108324B1 (en) 2012-10-10 2020-05-07 스미스 디텍션-워트포드 리미티드 Portable evidentiary collection system
KR20150070246A (en) * 2012-10-10 2015-06-24 스미스 디텍션-워트포드 리미티드 Portable evidentiary collection system
JP2015537198A (en) * 2012-10-10 2015-12-24 スミスズ ディテクション−ワトフォード リミテッド Portable evidence collection system
WO2015082941A3 (en) * 2013-12-06 2015-07-30 Cosworth Group Holdings Limited Processing video and sensor data associated with a vehicle
US10832505B2 (en) 2013-12-06 2020-11-10 Cosworth Group Holdings Limited Processing video and sensor data associated with a vehicle
CN112438044A (en) * 2018-08-30 2021-03-02 Jvc建伍株式会社 Electronic device, operation method, and program
CN112438044B (en) * 2018-08-30 2024-03-15 Jvc建伍株式会社 Electronic apparatus, operating method, and recording medium
CN114241626A (en) * 2021-12-27 2022-03-25 司法鉴定科学研究院 Data analysis method for automobile driving recorder
CN114241626B (en) * 2021-12-27 2023-09-15 司法鉴定科学研究院 Data analysis method for automobile running recorder

Similar Documents

Publication Publication Date Title
JP2006211415A (en) On-vehicle video recording apparatus
US8599243B2 (en) Image processing device, image processing method, and program
JP5369952B2 (en) Information processing apparatus and information processing method
KR101295430B1 (en) Image recording apparatus, image reproducing apparatus, image recording method, and image reproducing method
JP4887750B2 (en) Image processing apparatus, control method, and program
JPWO2009141951A1 (en) Video photographing apparatus and video encoding apparatus
JP4938615B2 (en) Video recording / playback device
JP4407549B2 (en) Shooting device, video playback device, video recording / playback program
US8120675B2 (en) Moving image recording/playback device
JP2006203365A (en) Video signal encoding device and video signal encoding method
US8625002B2 (en) Image processing apparatus and control method thereof for use in multiplexing image data and additional information
JP2009239381A (en) Video recording system and imaging apparatus
CN102007765A (en) Apparatus for recording and reproducing video images
EP1730956B1 (en) Method and device for generating a menu
JP5045213B2 (en) Imaging device, playback device, and recording file creation method
US7991265B2 (en) Content recording apparatus capable of recording long content output
JP2012034128A (en) Image processing apparatus and imaging apparatus using the same
JP5484132B2 (en) Video processing apparatus and control method thereof
US8331757B2 (en) Time code processing apparatus, time code processing method, program, and video signal playback apparatus
JP2002010254A (en) Feature point detection method and record reproduction device
JP4714003B2 (en) Imaging apparatus and recording method
JP2009218851A (en) Video processing apparatus
JP2006005610A (en) Panoramic video recording and reproducing device
JP2012203706A (en) Drive recorder and drive recorder system
KR102574677B1 (en) Method continuously acquiring and reproducing 360-degree virtual reality images according to viewpoint movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081211

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090225

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091203