JP7450287B2 - Playback device, playback method, program thereof, recording device, recording device control method, etc. - Google Patents

Playback device, playback method, program thereof, recording device, recording device control method, etc. Download PDF

Info

Publication number
JP7450287B2
JP7450287B2 JP2022126803A JP2022126803A JP7450287B2 JP 7450287 B2 JP7450287 B2 JP 7450287B2 JP 2022126803 A JP2022126803 A JP 2022126803A JP 2022126803 A JP2022126803 A JP 2022126803A JP 7450287 B2 JP7450287 B2 JP 7450287B2
Authority
JP
Japan
Prior art keywords
video
vehicle
video data
recording
recorded
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022126803A
Other languages
Japanese (ja)
Other versions
JP2022169621A (en
Inventor
哲也 服部
勇規 依藤
勇喜 清水
Original Assignee
株式会社ユピテル
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ユピテル filed Critical 株式会社ユピテル
Priority to JP2022126803A priority Critical patent/JP7450287B2/en
Publication of JP2022169621A publication Critical patent/JP2022169621A/en
Application granted granted Critical
Publication of JP7450287B2 publication Critical patent/JP7450287B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

この発明は,たとえば,再生装置および再生方法ならびにそのプログラムならびに記録装置および記録装置の制御方法などに関する。 The present invention relates to, for example, a reproducing device, a reproducing method, a program thereof, a recording device, a method of controlling the recording device, and the like.

車両に設置したカメラにより車両周辺の映像を撮影し、急ブレーキ、急ハンドルや衝突などのイベント(事象)により車両に衝撃が加わった際に周辺映像や車両速度などを記録する車載用映像等記録装置が知られており、こうしたドライブレコーダで撮影した映像を再生する再生装置が知られている。(特許文献1)。 Vehicle-mounted video recording that captures images of the surrounding area of the vehicle using a camera installed in the vehicle, and records surrounding images and vehicle speed when the vehicle is impacted by an event such as sudden braking, sudden steering, or a collision. There are known playback devices that play back video captured by such a drive recorder. (Patent Document 1).

特許第5966131号Patent No. 5966131

しかしながら,特許文献1に記載の発明においては,イベント発生の前後の映像等の撮影された映像を再生するだけであった。 However, in the invention described in Patent Document 1, only captured images, such as images before and after the occurrence of an event, are played back.

この発明は,たとえば,従来よりもユーザにとってより適した映像を表示できる可能性が高まることなどを目的とする。本願の発明の目的はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、この課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙字的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正または分割出願にて特許請求の範囲とする意思を有する。 An object of the present invention is, for example, to increase the possibility of displaying images that are more suitable for the user than in the past. The purpose of the invention of the present application is not limited to this, and we intend to acquire rights through divisional applications, amendments, etc. for structures that aim to obtain effects from the parts of the structure disclosed in this specification, drawings, etc. . For example, the present specification discloses a problem in which the phrase ``can be done'' is replaced with ``the problem is.'' Each of the problems is described as independent, and we intend to obtain rights for the structure to solve these problems independently through divisional applications, amendments, etc. Even if the problem is understood implicitly from the description, the applicant has the intention to claim a part of the structure described in the specification in an amendment or divisional application. .

(1) 記録された映像データを再生する再生装置であって,取得した情報にもとづいて前記記録された映像データを加工処理し,加工処理後の映像データにもとづく映像を表示させるための制御を行うとよい。 (1) A playback device that plays back recorded video data, which processes the recorded video data based on acquired information and controls to display a video based on the processed video data. It's good to do.

このようにすれば,記録された映像そのものでなく,取得した情報にもとづいて加工された映像をユーザは見ることができる。加工は,映像を閲覧するユーザに適した処理とすることにより,ユーザに適した映像を得ることができる。単に記録した映像を加工するのでなく,取得した情報にもとづいて記録された映像データを加工処理するので,映像を閲覧するユーザにとってより適した映像を表示できる可能性が高まる。例えば、車両において記録された映像データを再生する再生装置であって,当該車両において取得した情報にもとづいて前記記録された映像データを加工処理し,加工処理後の映像データにもとづく映像を表示させるための制御を行うとよい。特に、当該車両において記録された映像データと同時期の当該車両において取得した情報にもとづいて前記記録された映像データを加工処理し,加工処理後の映像データにもとづく映像を表示させるための制御を行うとよい。同時期としては所定の幅の時間内とするとよく、所定の幅は例えば数秒とするとよいが、特に同時期としては同時とするとよい。
取得する情報は、特に、当該車両の運転者の運転操作に伴い、変化する情報とするとよく、特に運転者自身の挙動に関する情報とするとよい。運転者自身の状態に関する情報としては、運転者自身の状態と車両において記録する映像との間に関係性を有する情報とす
るとよい。関係性は、客観的な関係性でもよいが、特に運転者自身の主観的な関係性とするとよい。主観的な関係性としては、運転者としてはこう見えていたと思うという関係とするとよく、例えば、「こう見えていた」ことを推定させるのに必要な情報とするとよい。
但し、取得する情報は車の速度以外の情報とするとよい。
In this way, the user can view a video that has been processed based on the acquired information, rather than the recorded video itself. By performing processing suitable for the user viewing the video, it is possible to obtain a video suitable for the user. Rather than simply processing recorded video, recorded video data is processed based on the acquired information, increasing the possibility of displaying video that is more suitable for the user viewing the video. For example, a playback device that plays back video data recorded in a vehicle, processes the recorded video data based on information acquired in the vehicle, and displays a video based on the processed video data. It is a good idea to carry out controls for this purpose. In particular, control is provided to process the recorded video data based on the video data recorded in the vehicle and information acquired in the vehicle at the same time, and to display a video based on the processed video data. It's good to do. The same period may be within a predetermined width of time, and the predetermined width may be, for example, several seconds, but it is particularly preferable that the same period is within a predetermined width of time.
The information to be acquired is preferably information that changes with the driving operations of the driver of the vehicle, and is particularly preferably information regarding the driver's own behavior. The information regarding the driver's own condition may be information that has a relationship between the driver's own condition and the video recorded in the vehicle. The relationship may be an objective relationship, but is particularly preferably a subjective relationship of the driver himself. As a subjective relationship, it is preferable to use the relationship that the driver thinks it looked like this, and for example, it is preferable to use the information necessary to infer that "it looked like this".
However, the information to be acquired may be information other than the speed of the car.

記録された映像データは,たとえば,記録装置によって記録された映像データでよいし,たとえば,SD(Secure Digital)カード,マイクロSDカード,XQD(登録商標)カードなどのメモリ・カードに記録された映像データでよい。取得した情報は,たとえば,映像を閲覧するユーザから入力する情報でよい。映像を閲覧するユーザに適した処理が行われるように,ユーザが情報を入力し,再生装置がその情報を取得することにより,映像するユーザの閲覧に適した映像が表示される可能性が高まる。また,取得した情報は,あらかじめ定められている情報でもよい。そのようにあらかじめ定められている情報を読み取ることにより情報を取得してもよい。加工処理は,たとえば,加工処理前後の映像データが変わっていればよい。 The recorded video data may be, for example, video data recorded by a recording device, or, for example, video data recorded on a memory card such as an SD (Secure Digital) card, a micro SD card, or an XQD (registered trademark) card. Data is fine. The acquired information may be, for example, information input by a user viewing the video. The user inputs information and the playback device obtains that information so that processing is performed that is appropriate for the user viewing the video, increasing the possibility that the video will be displayed that is suitable for the user viewing the video. . Further, the acquired information may be predetermined information. Information may be acquired by reading such predetermined information. For example, the processing only needs to change the video data before and after the processing.

(2) 前記加工処理は、ユーザの視野範囲を,前記映像に表示する加工処理をするとよい。 (2) The processing may include processing to display a visual field range of the user on the video.

このようにすれば,映像におけるユーザの視野範囲がわかりやすくなる。ユーザの視野範囲がわかるので,たとえば,ユーザが見えていない部分と見えている部分とがわかりやすくなる。ユーザの視野範囲は,固定しているものでもよいし,ユーザの年齢に応じて決定してもよいし,ユーザごとに測定して決定してもよい。特に加工処理は、前記取得した情報にもとづいてユーザの視野範囲を映像に表示する処理とするとよい。特に視野範囲の入力手段から入力された視野範囲の調整を行うための情報に基づく範囲と前記取得した情報にもとづいて前記ユーザの視野範囲として映像に表示する加工処理を行うとよい。視野範囲を,映像に表示するとは,視野範囲の中と視野範囲の外とが識別可能な態様で表示するとよく,例えば,視野範囲を枠で囲んで表示してもよいし,視野範囲外を塗りつぶしたり,ぼかしたりして表示してもよい。映像は,たとえば,広角カメラを用いた記録装置によって記録された映像でもよいし,全天球型カメラを用いた記録装置によって記録された映像でもよい。 In this way, the range of the user's field of view in the video becomes easier to understand. Since the range of the user's field of vision is known, it becomes easier to see, for example, parts that the user cannot see and parts that the user can see. The user's visual field range may be fixed, may be determined according to the user's age, or may be determined by measurement for each user. In particular, the processing may be a process of displaying the user's field of view on the video based on the acquired information. In particular, processing may be performed to display the visual field range of the user on the video based on the range based on the information for adjusting the visual field inputted from the visual field range input means and the acquired information. Displaying the viewing range on an image means displaying it in a way that makes it possible to distinguish between the inside of the viewing range and the outside of the viewing range.For example, the viewing range may be displayed with a frame surrounding it, or the outside of the viewing range may be displayed with a frame. It may be displayed by filling it in or blurring it. The video may be, for example, a video recorded by a recording device using a wide-angle camera, or a video recorded by a recording device using a spherical camera.

(3)ユーザの視野範囲外の前記映像に注意すべき対象物が存在することに応じて,その旨を報知するとよい。 (3) In response to the presence of an object to be noted in the image outside the user's field of view, a notification to that effect may be provided.

このようにすれば,ユーザは,自分が見えない部分に注意すべき対象物が存在することがわかりやすくなる。ユーザの視野範囲外の映像に注意すべき対象物が存在するか否かは、例えば、記録された映像の各フレーム内の映像に存在する対象物を画像認識等により検出し、当該フレームの映像において、当該検出した対象物の範囲が前記視野範囲外の範囲内であるときに対象物が存在し、ないときに対象物が存在しないと判定するとよい。また特に対象物の検出処理は、当該フレームの映像において前記視野範囲内の範囲の画像認識による前記対象物の探索の少なくとも一部を省略するとよく、望ましくはしないようにするとよい。当該フレームの映像において、前記視野範囲外の範囲でのみ画像認識による前記対象物の探索を行うようにするとよい。たとえば,記録装置により取得された映像であると,ユーザが見えていない箇所に注意すべき対象物が存在することがわかるので,ユーザは運転時に首を動かして見えない範囲にまで注意することができるようになる可能性が高まる。注意すべき対象物は,例えば,歩行者,自転車,自動車,オートバイなどとするとよい。その旨を報知は、特に、前記映像中で、当該位置を示す表示を行うとよい。 In this way, the user can easily understand that there is an object to be careful of in a part that the user cannot see. Whether or not there is an object to be noted in the video outside the user's visual field can be determined by, for example, detecting the object present in the video within each frame of the recorded video using image recognition, etc. In this case, it is preferable to determine that the object exists when the range of the detected object is outside the field of view, and that the object does not exist when it does not exist. In particular, in the object detection process, at least a part of the search for the object by image recognition within the visual field in the image of the frame may be omitted, and it is preferable not to do so. In the image of the frame, it is preferable that the search for the target object is performed by image recognition only in a range outside the visual field range. For example, if the video is captured by a recording device, it can be seen that there are objects that the user cannot see that need attention, so the user can move his or her head to pay attention to areas that cannot be seen while driving. It increases the possibility that you will be able to do it. Objects to be careful of may be, for example, pedestrians, bicycles, cars, motorcycles, etc. In particular, this may be notified by displaying the position in the video.

(4)前記加工処理は,映像データの記録時におけるユーザの視線を,前記映像に表示す
る加工処理とするとよい。
(4) The processing may be processing for displaying the user's line of sight on the video when the video data is recorded.

このようにすれば,映像データの記録時においてユーザがどこを見ていたかを把握できやすくなる。特に,加工処理は,前記取得した情報にもとづいて映像データの記録時におけるユーザの視線を,映像に表示する加工処理とするとよい。特に,映像データの記録時におけるユーザの視線を入力する入力手段から入力されたユーザの視線と前期取得した情報とにもとづいて前記ユーザの視線を,映像に表示するとよい。たとえば,映像データの記録時に,ユーザの目の動向を記録し,その記録にもとづいてユーザの指令を映像に表示するとよい。視線は,たとえば,ユーザが見ている方向であり,目線としてもよい。視線を映像に表示するとは,たとえば,視線を映像に点として順に表示してもよいし,視線の軌跡を映像に表示してもよい。ユーザの視線は,たとえば,映像データの記録時に,ユーザを撮影手段によって撮影し,その撮影手段によって得られた撮影画像から視線を検出してもよいし,視線検出用の眼鏡などの視線検出装置をユーザにかけさせて,その眼鏡などの視線検出装置により視線を検出してもよい。 In this way, it becomes easier to understand where the user was looking when recording video data. In particular, the processing may be processing to display the user's line of sight at the time of recording the video data on the video based on the acquired information. In particular, it is preferable to display the user's line of sight in the video based on the user's line of sight input from an input means for inputting the user's line of sight at the time of recording video data and the information acquired in the previous period. For example, when recording video data, the movement of the user's eyes may be recorded, and the user's commands may be displayed on the video based on this recording. The line of sight is, for example, the direction in which the user is looking, and may also be the line of sight. Displaying the line of sight on the video may mean, for example, displaying the line of sight as points on the video in sequence, or displaying the locus of the line of sight on the video. For example, when recording video data, the user's line of sight may be determined by photographing the user with a photographing means and detecting the line of sight from the photographed image obtained by the photographing means, or by using a line of sight detection device such as eyeglasses for detecting the line of sight. The line of sight may be detected by a line of sight detection device such as glasses by having the user wear the eyeglasses.

(5)前記加工処理は,映像データの記録時においてユーザが向いている方向に,前記視野範囲を動かして前記映像に表示する加工処理とするとよい。 (5) The processing may be a processing of moving the field of view in the direction in which the user is facing at the time of recording the video data and displaying it on the video.

このようにすれば,映像データの記録時においてユーザが向いている方向がわかり,その方向における視野範囲がわかりやすくなる。映像データの記録時に,映像のうち,どの部分の映像が見えていたかがわかりやすくなる。特に,ユーザが向いている方向を検出する検出手段によって検出された方向を示す情報を取得して,その取得した情報にもとづい,前記視野範囲を動かして前記映像に表示するとよい。前記視野範囲を動かすのは,一定フレームごとに視野範囲の内外の範囲を区別できるようにフレームを加工処理すればよい。たとえば,視野範囲を動かすのは相対的に視野範囲を動かせばよく,映像を動かすことにより相対的に視野範囲を動かしてもよい。 In this way, the direction in which the user is facing when recording video data can be determined, and the viewing range in that direction can be easily determined. When recording video data, it becomes easier to see which part of the video was visible. In particular, it is preferable to acquire information indicating the direction detected by a detection means for detecting the direction in which the user is facing, and to move the visual field range based on the acquired information and display it on the video. The field of view can be moved by processing the frames so that the inside and outside of the field of view can be distinguished for each fixed frame. For example, the viewing range may be moved by relatively moving the viewing range, or the viewing range may be moved relatively by moving the image.

(6)たとえば,前記加工処理は,映像データの記録時において一定時間の間にユーザが見ていない範囲を,前記映像に表示する加工処理とするとよい。 (6) For example, the processing may be processing for displaying on the video a range that the user has not seen during a certain period of time when video data is recorded.

このようにすれば,一定時間の間にユーザが見ていない範囲がわかりやすくなる。特に,一定時間の間にユーザが見ていない範囲を検出する検出手段から得られる情報を取得して,取得した情報とから一定時間の間にユーザが見ていない範囲を,前記映像に表示する加工処理とするとよい。ユーザの視線を検出し,検出したユーザ視線の情報と一定時間の情報とから,一定時間の間にユーザが見ていない範囲を検出するとよい。ユーザの視線は,たとえば,映像データの記録時に,ユーザを撮影手段によって撮影し,その撮影手段によって得られた撮影画像から視線を検出してもよいし,視線検出用の眼鏡などの視線検出装置をユーザにかけさせて,その眼鏡などの視線検出装置により視線を検出してもよい。一定時間の間は,たとえば,映像データが記録装置によって記録されたものであるとすると,交差点で止まっている時間の間,交差点で右折または左折する間,車線変更の間などとするとよい。見ていない範囲を,映像に表示するとは,たとえば,見ていない範囲を塗りつぶしてもよいし,ぼかしてもよい。 In this way, it becomes easier to understand the range that the user has not viewed within a certain period of time. In particular, information obtained from a detection means that detects an area that the user has not seen during a certain period of time is acquired, and the area that the user has not seen during a certain period of time from the acquired information is displayed on the video. It is better to use processing. It is preferable to detect the user's line of sight and detect a range that the user has not looked at during a certain period of time from information on the detected user's line of sight and information on a certain period of time. For example, when recording video data, the user's line of sight may be determined by photographing the user with a photographing means and detecting the line of sight from the photographed image obtained by the photographing means, or by using a line of sight detection device such as eyeglasses for detecting the line of sight. The line of sight may be detected by a line of sight detection device such as glasses by having the user wear the eyeglasses. If the video data is recorded by a recording device, the certain period of time may be, for example, the period of time when the vehicle is stopped at an intersection, while turning right or left at an intersection, or while changing lanes. Displaying the unviewed range on the video may be done by, for example, filling out the unviewing range or blurring it.

(7)たとえば,前記加工処理は,映像データの記録時におけるユーザの視線とユーザが見るべき方向とが一致しているかどうかを,前記映像に表示する加工処理するとよい。 (7) For example, the processing may be processing for displaying on the video whether or not the user's line of sight at the time of recording the video data matches the direction in which the user should look.

このようにすれば,ユーザが見るべき方向を見ているか,見ていないかがわかりやすくなる。特に,映像データの記録時におけるユーザの視線とユーザが見るべき方向とが一致しているかどうかを示す情報を入力する入力手段からの情報を取得し,取得した情報にもとづいて,映像データの記録時におけるユーザの視線とユーザが見るべき方向とが一致し
ているかどうかを,前記映像に表示する加工処理とするとよい。また,映像データの記録時におけるユーザの視線を示す情報を入力する入力手段から入力された情報とユーザが見るべき情報を入力する入力手段から入力された情報とを取得し,取得した情報にもとづいて,映像データの記録時におけるユーザの視線とユーザが見るべき方向とが一致しているかどうかを,前記映像に表示する加工処理とするとよい。映像データの記録時におけるユーザの視線とユーザが見るべき方向とが一致しているかどうかを検出する検出手段から得られる情報を取得して,取得した情報にもとづいて,映像データの記録時におけるユーザの視線とユーザが見るべき方向とが一致しているかどうかを,前記映像に表示する加工処理とするとよい。たとえば,映像データが記録装置によって記録されていると,ユーザが見るべき方向は,周りの状況に応じてあらかじめ定められる。ユーザの視線とユーザが見るべき方向との一致度を算出するようにしてもよい。
In this way, it becomes easy to tell whether the user is looking in the direction he or she should be looking or not. In particular, it acquires information from an input means that inputs information indicating whether the user's line of sight and the direction in which the user should view when recording video data matches, and records the video data based on the acquired information. It is preferable that processing is performed to display on the video whether the user's line of sight at the time matches the direction in which the user should look. In addition, information input from an input means for inputting information indicating the user's line of sight when recording video data and information input from an input means for inputting information the user should see, and based on the acquired information, Preferably, processing processing may be performed to display on the video whether the user's line of sight at the time of recording the video data matches the direction in which the user should look. Information obtained from a detection means that detects whether the user's line of sight at the time of recording video data matches the direction in which the user should look is acquired, and based on the acquired information, the user's line of sight at the time of recording the video data is detected. It is preferable that processing processing is performed to display on the video whether the line of sight of the user matches the direction in which the user should look. For example, when video data is recorded by a recording device, the direction in which the user should view is determined in advance according to the surrounding situation. The degree of coincidence between the user's line of sight and the direction in which the user should look may be calculated.

(8)たとえば,前記映像データは記録装置によって記録されているときにおいて,映像データの記録時におけるユーザの視線とユーザが見るべき方向とが一致しているかどうかにおける,ユーザが見るべき方向は,映像データの記録時の車の運転の操作に応じて異なるとよい。 (8) For example, when the video data is recorded by a recording device, the direction in which the user should look is determined by whether the user's line of sight at the time of recording the video data matches the direction in which the user should look. It is preferable that it differs depending on the driving operation of the car at the time of recording the video data.

このようにすれば,映像データの記録時の車の運転またはユーザによる車の運転の操作に応じてユーザが見る方向が異なることがわかりやすくなる。映像データの記録時の車の運転またはユーザによる車の運転の操作に応じてユーザが見る方向が異なるので,車の運転に応じて見るべき方向を見ているか,見ていないか,車の運転の操作に応じて見るべき方向を見ているか,見ていないか,どうかが分かりやすくなる。とくに,映像データの記録時の車の運転またはユーザによる車の運転の操作についての情報を入力する入力手段からの情報にもとづいてユーザが見るべき方向を決定するとよい。見るべき方向は,たとえば,車の運転の操作がまっすぐに走行しているときには,ほぼ前方を見るべき方向とし,車線変更するときには,ルーム・ミラー,車線変更する側の走行車線のドア・ミラー,車線変更する側の横の窓などを見る方向とするとよい。また,車の運転の操作として,右折または左折のためにウインカー操作後にハンドルを比較的大きく操作したときには,ハンドルを操作した側の斜め前方および斜め後方を見る方向とし,車線変更のためにウインカー操作後にハンドルを比較的小さく操作したときには,ルーム・ミラー,車線変更する側の走行車線のドア・ミラー,車線変更する側の横の窓などを見る方向とするとよい。 In this way, it becomes easy to understand that the direction in which the user looks differs depending on the driving of the car at the time of recording video data or the user's driving operation of the car. The direction in which the user looks differs depending on the driving of the car or the user's driving operations when recording video data, so it is difficult to determine whether the user is looking in the direction they should be looking or not depending on how the car is being driven. It becomes easier to tell whether you are looking in the direction you should be looking or not depending on the operation. In particular, it is preferable to determine the direction in which the user should look based on information from an input means that inputs information about the driving of the car at the time of recording video data or the operation of driving the car by the user. The direction you should look is, for example, when the car is driving straight, you should look almost straight ahead, and when changing lanes, you should look in the room mirror, the door mirror of the lane you are changing lanes, It is a good idea to look out the window on the side where you are changing lanes. In addition, when driving a car, when operating the steering wheel relatively sharply after operating the turn signal to turn right or left, look diagonally forward and diagonally behind the side on which you operated the steering wheel, and use the turn signal to change lanes. Later, when you turn the steering wheel relatively lightly, it is a good idea to look at the room mirror, the door mirror of the lane you are changing lanes from, or the window on the side of the lane you are changing lanes from.

(9)たとえば,前記加工処理は,映像データの記録時においてユーザが見た順序があらかじめ見るべき順序と一致しているかどうかを示す情報を取得し,取得した情報にもとづいて,前記映像に表示する加工処理とするとよい。 (9) For example, the processing process acquires information indicating whether the order in which the user viewed the video data when recording the video data matches the order in which the user should view the data in advance, and displays the information on the video based on the acquired information. It is recommended that the processing be performed as follows.

このようにすれば,ユーザが見た順序があらかじめ見るべき順序と一致しているかがわかりやすくなる。とくに,映像データの記録時においてユーザが見た順序があらかじめ見るべき順序と一致しているかどうかを検出する検出手段からの情報にもとづいて,映像データの記録時においてユーザが見た順序があらかじめ見るべき順序と一致しているかどうかを示す情報を,前記映像に表示するとよい。映像データの記録時においてユーザが見た順序については,たとえば,車を運転していたユーザを撮影して得られた映像データを解析してユーザの視線を時間系列で検出すればわかる。あらかじめ見るべき順序については,その順序を示す情報を入力する入力手段から入力した情報にもとづいてわかる。たとえば,記録した映像データを再生して,再生された映像データによって表される映像を指導員などが見るべき順序を入力手段から入力するとよい。あらかじめ見るべき順序は,たとえば,記録時の状況によって変わるとよい。たとえば,映像データが自動車の発車時のものであるとすると,たとえば,前方を見て,ルーム・ミラーまたは後ろを見て,右側のドア・ミラーまたはフェンダー・ミラーを見て,右側の窓を見るというのが見るべき順序の一例である。ユーザが見た順序があらかじめ見るべき順序との一致度を算出してもよい。 In this way, it becomes easier to understand whether the order in which the user views the images matches the order in which they should be viewed in advance. In particular, based on information from a detection means that detects whether the order in which the user viewed the video data when recording the video data matches the order in which the user should view the video data in advance, It is preferable that information indicating whether the order matches the power order is displayed on the video. The order in which a user looked when recording video data can be determined, for example, by analyzing video data obtained by photographing a user driving a car and detecting the user's line of sight in chronological order. The order in which the images should be viewed can be determined in advance based on information input from an input means for inputting information indicating the order. For example, the recorded video data may be played back, and the instructor or the like may input the order in which the videos represented by the played video data should be viewed from the input means. The order in which you should view them in advance may change, for example, depending on the circumstances at the time of recording. For example, if the video data is from when a car is starting, for example, look ahead, look at the room mirror or rear, look at the right side door mirror or fender mirror, and look at the right window. This is an example of the order in which you should look at them. The degree of agreement between the order in which the user viewed the images and the order in which they should be viewed may be calculated in advance.

(10)たとえば,前記加工処理は,ユーザの見るべき箇所を映像に表示する加工処理とするとよい。 (10) For example, the processing may be processing for displaying parts of the video that the user should see.

このようにすれば,ユーザの見るべき箇所が映像からわかりやすくなる。特に,ユーザの見るべき箇所を示す情報を入力する入力手段から入力した情報を取得し,至徳した情報にもとづいてユーザの見るべき箇所を映像に表示する加工処理とするとよい。たとえば,映像データが走行時の運転者から見た映像とすると,運転者が見るべき箇所がわかりやすくなるので,運転の指導に役立つことが多い。加工処理は例えば,ルーム・ミラーを見るべき箇所とすると,そのルーム・ミラーの映像部分にマークを付けたり,ドア・ミラーを見るべき箇所とすると,そのドア・ミラーの映像部分にマークを付けたりするとよい。 In this way, it becomes easier for the user to understand from the video which part the user should look at. In particular, it may be a processing process that acquires information input from an input means that inputs information indicating the places the user should see, and displays the places the user should see on the video based on the most virtuous information. For example, if the video data is the image seen by the driver while driving, it will be easier for the driver to see what areas to look at, which is often useful for driving guidance. For example, processing may include marking the image area of the rear-view mirror if the area is to be viewed in the rear-view mirror, or marking the image area of the door mirror if the area is to be viewed in the door mirror. It's good to do that.

(11)たとえば,映像データの記録時においてユーザが見るべき箇所を見ていないことにと応じて,その場面の画像を表示するとよい。 (11) For example, when recording video data, if the user is not looking at the part he or she should be looking at, it may be possible to display an image of that scene.

このようにすれば,ユーザが見るべき箇所を見ていない場面がどのような場面かがわかりやすくなる。とくに,映像データの記録時においてユーザが見るべき箇所を見ていないことを示す情報を入力する入力手段から入力した情報にもとづいて,ユーザが見るべき箇所を見ていないと,その場面の画面を表示するとよい。ユーザが見るべき箇所を見ていないかどうかは,ユーザの視線を検出する検出装置から得られる視線情報を用いることができる。たとえば,映像データが,ユーザの運転中の映像を表すものとすると,ユーザの運転がどのような場面で,見るべき箇所を見ていないかがわかりやすくなるので,運転の技能向上に役立つ可能性が高まる。また,たとえば,映像データが,ユーザの運転中の映像を表すものとすると,ユーザが見るべき箇所を見ていない場面の画像にもとづいて評価をすることができる。 In this way, it becomes easier to understand what kind of scenes the user is not looking at what they should be looking at. In particular, when recording video data, if the user is not looking at the part he or she should be looking at, based on the information input from the input means that inputs information indicating that the user is not looking at the part he or she should be looking at, the screen for that scene may be displayed. It is good to display it. To determine whether the user is not looking at the place he or she should be looking at, line-of-sight information obtained from a detection device that detects the user's line of sight can be used. For example, if the video data represents images of the user driving, it will be easier to understand in what situations the user is driving and when they are not looking at what they should be looking at, which may be useful in improving driving skills. It increases. Furthermore, for example, if the video data represents a video of the user driving, it is possible to make an evaluation based on an image of a scene where the user is not looking at what he or she should be looking at.

(12)たとえば,被写体の動きの変化がない映像部分の表示速度を,被写体の動きの変化がある映像部分の表示速度と比較して速く前記映像を表示するようにしてもよい。 (12) For example, the video may be displayed at a faster display speed for a video portion in which there is no change in the movement of the subject than in a display speed for a video portion in which there is a change in the movement of the object.

このようにすれば,映像全体を早く閲覧できる可能性が高くなる。とくに,被写体の動きの変化がない映像部分か,被写体の動きの変化がある映像部分かどうかについては,被写体の動きの変化が無い映像部分か,被写体の動きの変化がある映像部分のかを検出する検出手段を利用すればよい。その検出手段は,フレーム間の画像の差分を検出し,一定未満の差分であれば被写体の動きの変化が無く,一定以上の差分であれば被写体の動きの変化があるとするとよい。たとえば,被写体の動きの変化がない映像部分が比較的重要な部分ではなく,被写体の動きの変化がある映像部分が比較的重要な部分とすると,比較的重要でない部分については時間を短縮して見ることができ,比較的重要な部分についてはじっくりと見ることができる可能性が高くなる。被写体の動きの変化がない映像部分は,被写体の動きの変化が全くない,ということだけでなく,被写体の動きの変化がほとんどない,被写体の動きの変化が一定以下のものも含まれる。また,被写体の動きの変化がある映像部分は,少しでも被写体の動きがあれば,被写体の動きの変化があるということだけでなく,被写体の動きの変化が一定以上のものも含まれる。 In this way, there is a high possibility that the entire video can be viewed quickly. In particular, it is possible to detect whether there is a video part with no change in the subject's movement or a video part with a change in the subject's movement. What is necessary is to use a detection means that does this. The detection means preferably detects a difference between images between frames, and if the difference is less than a certain value, there is no change in the movement of the subject, and if the difference is greater than a certain value, it is assumed that there is a change in the movement of the subject. For example, if the part of the video where there is no change in the subject's movement is not the relatively important part, but the part of the video where there is a change in the subject's movement is the relatively important part, the time will be shortened for the relatively unimportant part. You are more likely to be able to take a closer look at relatively important parts. Video parts where there is no change in the subject's movement not only means that there is no change in the subject's movement at all, but also include cases where there is almost no change in the subject's movement or where the change in the subject's movement is less than a certain level. In addition, in video parts where there are changes in the movement of the subject, it is not just that there is a change in the movement of the subject if there is even a slight movement of the subject, but also includes cases where the change in the movement of the subject is more than a certain level.

(13)たとえば,映像データは記録装置によって記録されており,前記映像のうち被写体の動きの変化がある映像部分についてユーザによる車の運転の評価をするとよい。 (13) For example, the video data is recorded by a recording device, and it is preferable to evaluate the driving of the car by the user for a video portion of the video where the movement of the subject changes.

このようにすれば,被写体の動きの変化がある映像部分についてユーザによる車の運転の評価をしやすくなる。とくに,被写体の動きの変化がない映像部分か,被写体の動きの変化がある映像部分かどうかについては,被写体の動きの変化が無い映像部分か,被写体の動きの変化がある映像部分のかを検出する検出手段を利用すればよい。その検出手段は
,フレーム間の画像の差分を検出し,一定未満の差分であれば被写体の動きの変化が無く,一定以上の差分であれば被写体の動きの変化があるとするとよい。とくに,車の運転の評価は,映像を解析することにより行われ,あらかじめ定められている交通ルールにしたがった運転に近いほど,高評価とし,あらかじめ定められている交通ルールに従わない運転に近いほど,低評価とする評価手段を用いるとよい。運転評価は,たとえば,信号待ちで停車しており,被写体の動きの変化がない場所よりも,右折,左折,車線変更時などに応じて被写体の動きの変化がある場所についての方が重要と考えることができる。そのような状況で,運転評価ができる。
In this way, it becomes easier to evaluate the user's car driving in the video portion where the movement of the subject changes. In particular, it is possible to detect whether there is a video part with no change in the subject's movement or a video part with a change in the subject's movement. What is necessary is to use a detection means that does this. The detection means preferably detects a difference between images between frames, and if the difference is less than a certain value, there is no change in the movement of the subject, and if the difference is greater than a certain value, it is assumed that there is a change in the movement of the subject. In particular, the evaluation of car driving is done by analyzing videos, and the closer the driving is to following predetermined traffic rules, the higher the evaluation, and the closer the driving is to not following predetermined traffic rules. It is better to use an evaluation method that gives a lower evaluation. Driving evaluation is more important in areas where the subject's movement changes as the subject makes a right turn, left turn, lane change, etc., than in a place where the subject's movement does not change, for example, when the subject is stopped at a traffic light. I can think. Driving evaluation can be done in such situations.

(14)たとえば,映像データは記録装置によって記録されており,お客が含まれている映像部分にもとづく前記映像を表示させるとよい。 (14) For example, the video data may be recorded by a recording device, and the video may be displayed based on the video portion in which the customer is included.

このようにすれば,お客が含まれている映像部分にもとづく映像を見ることができやすくなる。お客が含まれている映像部分かどうかは,映像データを解析し,運転手以外の人物を車内に検出したことによりお客が含まれている映像部分とするとよい。たとえば,バスやタクシーなどの営業車両に記録装置が設置されており,そのような記録装置によって映像データが記録されると,それらの営業車両にお客が含まれている映像を表示できる。 In this way, it becomes easier to view a video based on the part of the video that includes the customer. It is preferable to determine whether a video portion includes a customer by analyzing the video data and detecting a person other than the driver inside the vehicle. For example, recording devices are installed in commercial vehicles such as buses and taxis, and when video data is recorded by such recording devices, images of customers in those commercial vehicles can be displayed.

(15)たとえば,映像部分の状況を表すキーワードにもとづいて前記映像の中から,そのキーワードに関連する映像部分を見つけ出すとよい。 (15) For example, a video portion related to the keyword may be found from the video based on a keyword representing the situation of the video portion.

このようにすれば,そのキーワードに関連する映像部分を映像の中から見つけ出しやすくなる。とくに,映像部分の状況を表すキーワードを入力する入力手段から入力されたキーワードを検出し,検出したキーワードに関連する映像部分を,解析手段により映像を解析して見つけ出すとよい。映像部分の状況は,たとえば,明るい,暗いなどの抽象的な状況,新幹線が含まれていた,赤い車が含まれていたなどの特定の被写体が含まれていたという状況とするとよい。 This makes it easier to find video parts related to the keyword in the video. In particular, it is preferable to detect a keyword input from an input means for inputting a keyword representing the situation of a video portion, and to find a video portion related to the detected keyword by analyzing the video using an analysis means. The situation of the video portion may be, for example, an abstract situation such as bright or dark, or a situation where a specific subject is included, such as a bullet train or a red car.

(16)たとえば,前記映像データは記録装置によって記録されており,映像データの記録時の車の状況を表すキーワードにもとづいて,前記映像の中から,そのキーワードに関連する映像部分を見つけ出すとよい。 (16) For example, the video data is recorded by a recording device, and based on a keyword representing the condition of the car at the time the video data was recorded, it is preferable to find a video part related to the keyword from the video. .

このようにすれば,記録時の車の状況を表すキーワードに関連する映像部分を見つけ出すことができる可能性が高くなる。映像データの記録時の車の状況を表すキーワードを入力する入力手段に入力したキーワードを検出し,検出したキーワードに関連する映像部分を,解析手段により映像を解析して見つけ出すとよい。車の状況を表すキーワードは,たとえば,車が加速した,車が一定以上の速度を出した,ウインカーを出したなどでもよい。 In this way, there is a high possibility that a video portion related to the keyword representing the state of the car at the time of recording can be found. It is preferable to detect a keyword input into an input means for inputting a keyword representing the state of the car at the time of recording the video data, and to find a video portion related to the detected keyword by analyzing the video using an analysis means. Keywords expressing the car situation may be, for example, the car has accelerated, the car has exceeded a certain speed, the turn signal has been turned on, etc.

(17)たとえば,前記映像データは記録装置によって記録されており,ユーザによる車の運転中に,ユーザが見るべき方向を見ていなかったことに応じて警告するようにしてもよい。 (17) For example, the video data may be recorded by a recording device, and a warning may be issued when the user is not looking in the direction he or she should be looking while driving a car.

このようにすれば,見るべき方向を見ていなかったことについてユーザに警告しやすくなる。特に,ユーザが見るべき方向を見ていなかったことを示す情報を入力する入力手段によって入力された情報にもとづいて警告するとよい。そのような入力手段は,運転中のユーザの視線を検出する検出手段によって検出されたユーザの視線を,再生された映像に表示し,表示された視線が,あらかじめ定められている見るべき方向を見ていなかったと判定された情報を入力するとよい。警告は,たとえば,表示される映像に警告マークを付ける,表示される映像の一部または全部に特定の色を付ける,警報を出力するなどとする
とよい。
This makes it easier to warn the user that they are not looking in the direction they should be looking. In particular, it is preferable to issue a warning based on information input by an input means for inputting information indicating that the user is not looking in the desired direction. Such an input means displays the user's line of sight detected by a detection means that detects the user's line of sight while driving on the reproduced video, and the displayed line of sight indicates a predetermined direction in which the user should look. It is a good idea to enter information that was determined not to have been viewed. The warning may be, for example, adding a warning mark to the displayed image, adding a specific color to part or all of the displayed image, or outputting an alarm.

(18)たとえば,前記映像データは記録装置によって記録されており,前記加工処理は,ユーザによる車の運転中に,ユーザによって見えている範囲とユーザによって見えていない範囲とを区別して前記映像を表示させる加工処理とするとよい。 (18) For example, the video data is recorded by a recording device, and the processing process is performed to distinguish between a range visible to the user and a range not visible by the user while the user is driving a car. It is preferable to use processing to display it.

このようにすれば,ユーザが見えている範囲と見えていない範囲とがわかりやすくなる。とくに,ユーザによって見えている範囲を示す情報を入力する入力手段から入力した情報にもとづいて,ユーザによって見えている範囲とユーザによって見えていない範囲とを区別して前記映像を表示する加工処理とするとよい。たとえば,ユーザによって見えていない範囲をぼかしたり,半透明の色で塗りつぶしたり,完全に塗りつぶしたりするとよい。 In this way, it becomes easier for the user to understand the range that is visible and the range that is not visible to the user. In particular, if the processing is to display the video by distinguishing between the range visible to the user and the range not visible by the user, based on information input from an input means for inputting information indicating the range visible by the user. good. For example, you can blur areas that are not visible to the user, fill them with a semi-transparent color, or fill them completely.

(19)たとえば,前記加工処理は,加工処理後の映像データにもとづく前記映像を表示する装置の向きに応じて,映像の表示範囲を変えるように,記録された映像データを加工処理するとよい。 (19) For example, the processing may be performed on the recorded video data such that the display range of the video is changed depending on the orientation of the device that displays the video based on the video data after the processing.

このようにすれば,映像を表示する装置の向きに応じた映像を見やすくなる。加工処理後の映像データにもとづく映像を表示する装置の向きを検出する検出手段からの情報にもとづいて映像の表示範囲を変えることが好ましい。たとえば,記録時に360度の範囲をすべて記録しておき,映像を表示する装置の向きに応じて,その向きに対応した映像を表示するとよい。 In this way, it becomes easier to view the video according to the orientation of the device displaying the video. It is preferable to change the display range of the video based on information from a detection means that detects the orientation of the device that displays the video based on the processed video data. For example, it is a good idea to record the entire 360-degree range during recording, and then display the video corresponding to the orientation of the device displaying the video.

(20)たとえば,前記映像データは記録装置によって記録されており,前記加工処理は,加工処理後の映像データにもとづく前記映像を表示する装置の向きに応じて,車の進行方向を基準方向として映像の表示範囲を変えるように,記録された映像データを加工処理するとよい。 (20) For example, the video data is recorded by a recording device, and the processing is performed using the direction of travel of the car as a reference direction according to the orientation of the device that displays the video based on the video data after processing. It is advisable to process the recorded video data so as to change the display range of the video.

このようにすれば,車の進行方向を基準方向とした映像の表示範囲を変えて,映像を表示する装置の向きに応じて映像を見ることができる可能性が高くなる。加工処理後の映像データにもとづく映像を表示する装置の向きを検出する検出手段からの情報にもとづいて映像の表示範囲を変えることが好ましい。車の走行時における進行方向における映像だけでなく,進行方向以外の方向の映像も見ることができる。 In this way, it is possible to change the display range of the image with the direction of travel of the car as the reference direction, increasing the possibility that the image can be viewed depending on the orientation of the device displaying the image. It is preferable to change the display range of the video based on information from a detection means that detects the orientation of the device that displays the video based on the processed video data. In addition to viewing images in the direction in which the car is traveling, it is also possible to view images in directions other than the direction in which the car is traveling.

(21)たとえば,前記映像データの記録時における車の状況に関する情報を表示させるとよい。 (21) For example, information regarding the condition of the car at the time of recording the video data may be displayed.

このようにすれば,車の状況がわかりやすくなる。車状況に関する情報は,たとえば,車の速度,加速度,位置とするとよい。とくに,映像データの記録時における車の状況に関する情報を入力する入力手段から入力された情報にもとづいて,その情報を表示制御手段によって表示装置の表示画面に表示させるとよい。車の状況に関する情報は,映像上に重ねて表示してもよいし,映像が表示されている領域とは別の領域を設け,その別の領域に表示してもよい。たとえば,映像の上,下,左または上の領域に車の状況に関する情報を表示してもよい。 This makes it easier to understand the condition of the car. The information regarding the vehicle situation may be, for example, the speed, acceleration, and position of the vehicle. In particular, it is preferable that the information is displayed on the display screen of the display device by the display control means based on information input from an input means for inputting information regarding the state of the vehicle at the time of recording the video data. The information regarding the vehicle situation may be displayed over the video, or may be displayed in a separate area from the area in which the video is displayed. For example, information regarding the vehicle status may be displayed in the top, bottom, left, or top area of the video.

(22)たとえば,映像データは記録装置によって記録されており,映像データの記録時における車の移動範囲を表す地図の画像を表示させ,表示された地図の画像のうち指定された位置において記録装置によって記録された前記映像データにもとづく映像を表示させるとよい。 (22) For example, video data is recorded by a recording device, a map image representing the range of movement of the car at the time of recording the video data is displayed, and the recording device displays a specified position in the displayed map image. It is preferable to display a video based on the video data recorded by.

特に,映像データの記録時における車の移動範囲を,検出手段によって検出し,検出された移動範囲を表す地図の画像を表す画像データを,取得手段によって取得し,取得された画像データによって表される地図の画像を表示制御手段によって表示装置の表示画面に表示し,表示された地図の画像のうちいずれかの位置を,指定手段によって指定し,指定された位置において記録された映像データを,画像解析手段によって映像データの中から見つけ出して,見つけ出された映像を表示制御手段によって表示装置の表示画面に表示するとよい。このようにすれば,地図の画像から,指定された位置における映像を見やすくなる。見たい映像の時間がわからなくとも,その位置が分かれば,その位置における映像を見ることができる。 In particular, the range of movement of the car at the time of recording video data is detected by the detection means, image data representing a map image representing the detected range of movement is acquired by the acquisition means, and the range of movement of the car is detected by the acquisition means. The display control means displays an image of a map on the display screen of the display device, the designation means specifies the position of one of the displayed map images, and the video data recorded at the designated position is It is preferable that the image analysis means finds out the image from among the video data, and the found image is displayed on the display screen of the display device by the display control means. This makes it easier to see the video at the designated location from the map image. Even if you don't know the time of the video you want to watch, if you know its location, you can watch the video at that location.

(23)たとえば,表示された地図の画像のうち指定された位置においてユーザの記録装置によって記録された映像データにもとづく前記映像と,表示された地図の画像のうち指定された位置において第三者の記録装置によって記録された映像データにもとづく映像と,の少なくとも一方を表示させるとよい。 (23) For example, the video based on the video data recorded by the user's recording device at a specified position in the displayed map image, and a third party at the specified position in the displayed map image. It is preferable to display at least one of a video based on video data recorded by a recording device.

このようにすれば,ユーザの記録装置によって記録された映像データにもとづく映像だけでなく,第三者の記録装置によって記録された映像データにもとづく映像も見ることができる可能性が高くなる。とくに,表示された地図の画像のうち指定された位置において第三者の記録装置によって記録された映像データを,そのような映像データが記録されているサーバなどに要求するコマンドを,送信手段から送信し,そのコマンドに応じてサーバなどから送信された映像データを受信手段によって受信して,第三者の記録装置によって記録された映像データにもとづく映像を表示制御手段によって表示装置の表示画面に表示させるとよい。ユーザの記録装置によって記録された映像データにもとづく映像と,第三者の記録装置によって記録された映像データにもとづく映像との両方を同時に表示させるようにしてもよいし,切り替えて表示させるようにしてもよい。第三者の記録装置によって記録された映像データにもとづく映像は,ユーザの記録装置によって映像データが記録された季節と同じ季節のものでもよいし,異なる季節のものでもよい。また,第三者の記録装置によって記録された映像データにもとづく映像は,ユーザの記録装置によって映像データが記録されたときの天気と同じ天気のものでもよいし,異なる天気のものでもよい。 In this way, it becomes more likely that the user will be able to view not only videos based on video data recorded by the user's recording device, but also videos based on video data recorded by a third party's recording device. In particular, the transmitting means sends a command to request video data recorded by a third party's recording device at a specified position of the displayed map image from a server etc. where such video data is recorded. The receiving means receives the video data sent from the server or the like in response to the command, and the display control means displays the video based on the video data recorded by the third party's recording device on the display screen of the display device. It is good to display it. The video based on the video data recorded by the user's recording device and the video based on the video data recorded by the third party's recording device may both be displayed at the same time, or they may be displayed by switching between them. It's okay. The video based on the video data recorded by the third party's recording device may be from the same season as the video data was recorded by the user's recording device, or may be from a different season. Furthermore, the video based on the video data recorded by the third party's recording device may be of the same weather as the video data was recorded by the user's recording device, or may be of a different weather.

(24)たとえば,記録された前記映像データの撮影地を含む名称を,記録された映像データを識別する名称として表示させるようにしてもよい。 (24) For example, a name including the shooting location of the recorded video data may be displayed as a name for identifying the recorded video data.

このようにすれば,映像データを識別する名称として撮影地を含む名称を利用できる。撮影地の映像データを見つけやすくなる。とくに,記録された映像データの記録位置を示すデータから撮影地を,検出手段によって検出し,検出された撮影地を含む名称を,記録された映像データを識別する名称に,名称変更手段によって変更し,変更された名称を,記録された映像データを識別する名称として表示制御手段によって表示装置の表示画面に表示するとよい。とくに,記録されたデータを格納するファイル名を,ファイル名変更手段によって,記録された映像データの撮影地を含む名称とするとよい。たとえば,映像データを格納する映像ファイルのファイル名を,撮影地を含む名称としてもよい。撮影地の名称そのものを,映像データを識別する名称としてもよい。 In this way, a name that includes the shooting location can be used as a name for identifying video data. It becomes easier to find video data of shooting locations. In particular, a detection means detects a shooting location from data indicating a recording position of recorded video data, and a name including the detected shooting location is changed by a name changing means to a name that identifies the recorded video data. However, it is preferable that the changed name is displayed on the display screen of the display device by the display control means as a name for identifying the recorded video data. In particular, it is preferable that the file name for storing the recorded data be changed to a name that includes the shooting location of the recorded video data by the file name changing means. For example, the file name of a video file that stores video data may include the shooting location. The name of the shooting location itself may be used as a name for identifying the video data.

(25)たとえば,複数の前記映像データが記録されており,同一の撮影地の映像データを識別する名称を,まとめて表示させるようにしてもよい。 (25) For example, a plurality of pieces of video data may be recorded, and names for identifying video data of the same shooting location may be displayed together.

このようにすれば,同一撮影地の映像データかどうかが分かりやすくなる可能性が高くなる。とくに,同一の撮影地の映像データを識別する名称を,まとめて,例えば,連続して表示画面に表示するように表示制御手段によって表示装置を制御するとよい。同一の撮
影地が多い撮影地は通勤,通学のような日常的な撮影地であると考えることができ,同一の撮影地が少ない撮影地は旅行先などの非日常的な撮影地であると考えることができる。日常的な撮影地の映像データや非日常的な撮影地の映像データなどを選択しやすくなる可能性が高くなる。
In this way, there is a high possibility that it will be easier to tell whether the video data was taken at the same location. In particular, it is preferable to control the display device by the display control means so that names identifying video data of the same shooting location are collectively displayed on the display screen, for example, consecutively. Shooting locations with many identical shooting locations can be considered to be everyday shooting locations such as commuting to work or school, and shooting locations with few identical shooting locations can be considered to be unusual shooting locations such as travel destinations. I can think. There is a high possibility that it will be easier to select video data of everyday shooting locations, video data of unusual shooting locations, etc.

(26)たとえば,出現頻度が低い名称を優先して表示させるとよい。 (26) For example, it is recommended to give priority to displaying names that appear less frequently.

このようにすれば,出現頻度が低い名称を優先して表示でき,その名称に対応する映像データを選択しやすくなる。とくに,出現頻度が低い名称を優先して表示画面に表示するように表示制御手段によって表示装置を制御するとよい。出現頻度が低いかどうかは,たとえば,所定の閾値以下の出現頻度のときに出現頻度が低いと判断されるとよい。優先して表示とは,たとえば,複数の識別する名称が上下方向にリスト方式で表示されるときには,上の方に表示するとよいし,順番に表示されていくときには早い順番で表示されるとよい。 In this way, names that appear less frequently can be displayed preferentially, making it easier to select video data corresponding to the name. In particular, it is preferable to control the display device by the display control means so that names that appear less frequently are given priority and displayed on the display screen. Whether or not the appearance frequency is low may be determined, for example, when the appearance frequency is less than or equal to a predetermined threshold value. Priority display means, for example, when multiple identifying names are displayed in a vertical list format, it is best to display them at the top, and when they are displayed in order, it is best to display them in the earliest order. .

(27)たとえば,撮影地の地図の画像を表示させるとよい。 (27) For example, it is good to display an image of a map of the shooting location.

このようにすれば,映像データにもとづく映像のほかに,その撮影地の地図も見ることができる可能性が高くなる。とくに,撮影地の位置を示すデータにもとづいて,その撮影地の地図の画像を,検索手段によって見つけ出し,見つけられた地図の画像を表示制御手段によって表示装置の表示画面に表示するとよい。 In this way, in addition to the video based on the video data, there is a high possibility that a map of the location where the video was taken can be viewed. In particular, it is preferable to use the search means to find a map image of the photographing place based on the data indicating the location of the photographing place, and to display the found map image on the display screen of the display device by the display control means.

(28)たとえば,前記映像データは記録装置によって記録されており,映像データの記録時における車の移動範囲を表す地図の画像を表示させ,映像データの記録時における車の操作に関する情報を地図の画像に表示させるとよい。 (28) For example, the video data is recorded by a recording device, which displays an image of a map representing the range of movement of the car at the time of recording the video data, and displays information on the operation of the car at the time of recording the video data on the map. It is best to display it in the image.

このようにすれば,その地図の画像で示される場所において,どのような車の操作が行われたかがわかりやすくなる。地図の画像上に表示された車の操作に関する情報を見ることにより,その地図の画像によって表される場所を車で走行するときに,どのような車の操作が必要になる可能性が高いかわかる。車の移動範囲を示すデータから,その移動範囲を表す地図の画像を,検索手段によって見つけ出し,見つけ出された地図の画像を表示画面に表示するように表示制御手段によって表示装置を制御し,車の操作に関する情報を入力手段から入力し,入力された情報を,地図の画像に表示するように表示制御手段によって表示装置を制御するとよい。車の操作は,たとえば,ウインカーの操作,急ハンドルの操作,急ブレーキの操作などとするとよい。 In this way, it becomes easier to understand what kind of vehicle operation was performed at the location shown in the map image. By looking at information regarding vehicle operations displayed on a map image, it is possible to determine what kind of vehicle operations are likely to be required when driving through the location represented by the map image. Recognize. A search means finds an image of a map representing the travel range from the data showing the travel range of the car, and the display control means controls the display device so as to display the found map image on the display screen. It is preferable that information regarding the operation of the map is input from the input means, and the display control means controls the display device so as to display the input information on the map image. Car operations may include, for example, operating a turn signal, suddenly steering the steering wheel, or applying the brakes suddenly.

(29)たとえば,映像データは記録装置によって記録されており,前記加工処理後の映像データにもとづく映像を表示させるとともに,映像データの記録場所における,第三者の運転とユーザの運転との比較にもとづく情報を表示させるとよい。 (29) For example, video data is recorded by a recording device, and in addition to displaying a video based on the video data after the processing, a comparison between a third party's driving and the user's driving is made at the location where the video data is recorded. It is a good idea to display information based on

このようにすれば,第三者の運転とユーザの運転とが比較しやすくなる。ユーザは,この比較により,第三者の運転に比べて自分の運転技能を客観的に評価できる可能性が高くなる。とくに,映像データの記録場所を示すデータを入力手段から入力し,入力されたデータによって示される記録場所における,第三者の運転の様子を示す情報を取得手段によって取得し,取得された第三者の運転についての情報を利用して,ユーザの運転と第三者の運転との比較を比較手段によって行い,比較にもとづく情報を表示画面に表示するように表示制御手段によって表示装置を制御するとよい。第三者の運転とユーザの運転との比較にもとづく情報は,たとえば,第三者の運転の順位とユーザの運転との順位,第三者の運転の評価の平均値とユーザの運転の評価値などとするとよい。 This makes it easier to compare the third party's driving with the user's driving. Through this comparison, the user is more likely to be able to objectively evaluate his or her own driving skills compared to a third party's driving. In particular, data indicating the recording location of the video data is input from the input means, information indicating the state of driving of a third party at the recording location indicated by the input data is acquired by the acquisition means, and the acquired third party is A comparison means compares the user's driving with the driving of a third party using information about the user's driving, and the display control means controls the display device to display information based on the comparison on the display screen. good. Information based on the comparison between the third party's driving and the user's driving includes, for example, the ranking of the third party's driving and the user's driving, the average value of the third party's driving evaluation, and the user's driving evaluation. It is best to use a value etc.

(30)たとえば,映像データはユーザの記録装置によって記録されており,加工処理後の映像データにもとづく前記映像と,映像データの記録場所における第三者の運転に応じて記録装置に記録された映像データにもとづく映像と,を表示させるとよい。 (30) For example, video data is recorded by a user's recording device, and the video data is based on the video data after processing and the video data is recorded on the recording device according to the driving of a third party at the location where the video data is recorded. It is preferable to display an image based on the image data.

このようにすれば,ユーザの運転による映像と第三者の運転による映像とを比較して見ることができやすくなる。第三者の運転を見ることにより,ユーザは自分の運転の良さ,悪さなどがわかるようになる可能性が高くなる。とくに,映像データの記録場所を示すデータを入力手段から入力し,入力されたデータによって示される記録場所における,第三者の運転に応じて記録された映像データを取得手段によって取得し,取得された第三者の運転に応じて記録された映像データにもとづく映像と,ユーザの運転に応じて得られた映像と,を表示画面に表示するように表示制御手段によって表示装置を制御するとよい。映像データの記録場所は,たとえば,ユーザが記録装置を設置した車を運転して得られた映像データを記録した場所である。 In this way, it becomes easier to compare and view the video of the user's driving and the video of a third party's driving. By observing a third party's driving, the user is more likely to be able to understand whether his or her own driving is good or bad. In particular, data indicating a recording location of video data is input from an input means, and video data recorded according to the driving of a third party at the recording location indicated by the input data is acquired by an acquisition means. The display device may be controlled by the display control means so as to display on the display screen a video based on video data recorded according to the third party's driving, and a video obtained according to the user's driving. The video data recording location is, for example, a location where the user records video data obtained by driving a car in which a recording device is installed.

(31)たとえば,路車間通信および車車間通信の少なくとも一方によって得られた情報が映像データに関連づけられて記録されており,加工処理後の映像データにもとづく前記映像に関連して,路車間通信および車車間通信の少なくとも一方により得られた情報を表示させるための制御を行うとよい。 (31) For example, information obtained through at least one of road-to-vehicle communication and vehicle-to-vehicle communication is recorded in association with video data, and road-to-vehicle communication is It is preferable to perform control to display information obtained by at least one of the vehicle-to-vehicle communication and the vehicle-to-vehicle communication.

このようにすれば,路車間通信および車車間通信の少なくとも一方により得られた情報がわかりやすくなる。とくに,路車間通信および車車間通信の少なくとも一方により得られた情報を読取手段によって読み取り,読み取った情報を表示画面に表示するように表示制御手段によって表示装置を制御するとよい。路車間通信および車車間通信の少なくとも一方により得られた情報とは,たとえば,ITS(Intelligent Transport Systems:高度道路交通システム)にもとづいて得られた情報とするとよい。路車間通信により得られた情報は,たとえば,道路に設けられている路側機から送信される情報とし,車車間通信により得られた情報は車同士で通信され情報とするとよい。前記映像に関連して表示するとは,映像に関連つけられていればよく,映像上に表示されてもよいし,映像とはべつの領域に表示されてもよいし,映像が表示されているときに表示されればよい。 In this way, information obtained through at least one of road-to-vehicle communication and vehicle-to-vehicle communication becomes easier to understand. In particular, it is preferable that the display device is controlled by the display control means so that the reading means reads the information obtained through at least one of the road-to-vehicle communication and the vehicle-to-vehicle communication, and displays the read information on the display screen. The information obtained through at least one of road-to-vehicle communication and vehicle-to-vehicle communication may be, for example, information obtained based on ITS (Intelligent Transport Systems). The information obtained through road-to-vehicle communication may be, for example, information transmitted from a roadside device installed on the road, and the information obtained through vehicle-to-vehicle communication may be communicated between cars. The term "displayed in relation to the video" means that the display only needs to be related to the video, and may be displayed on top of the video, in an area separate from the video, or when the video is displayed. It should be displayed occasionally.

(32)たとえば,前記加工処理は記憶色への補正とする加工処理であるとよい。 (32) For example, the processing may be processing for correction to a memory color.

このようにすれば,記憶色にもとづいた映像が得られるやすくなる。とくに,映像を記憶処理に補正する補正手段とするとよい。たとえば,ユーザに記憶に比較的近い映像が得られる可能性が高くなる。記憶色とは,たとえば,ユーザがイメージとして記憶している色,特定のものについて記憶している色とするとよい。記憶色への補正は,たとえば,映像を見ながらユーザ操作によって明るさ,色相,彩度などを変えるとよい。 In this way, it becomes easier to obtain images based on memory colors. In particular, it is preferable to use a correction means for correcting the image to be stored. For example, there is a high possibility that the user will be able to obtain an image that is relatively similar to what he or she remembers. The memory color may be, for example, a color that the user remembers as an image or a color that the user remembers about a specific thing. To correct the memory color, for example, the brightness, hue, saturation, etc. may be changed through user operations while viewing the video.

(33)たとえば,前記加工処理は,前記記録された映像データにもとづく映像の少なくとも一部をぼかす加工処理とするとよい。 (33) For example, the processing may be processing to blur at least a portion of the video based on the recorded video data.

このようにすれば,少なくとも一部がぼかされた映像を見ることができる可能性が高くなる。とくに,映像をぼかす処理を行うぼかし手段により加工処理をするとよい。映像の指定範囲をぼかすようにしてもよいし,映像の指定範囲外をぼかすようにしてもよい。指定範囲のぼかしと指定範囲外のぼかしとを切り替えられるようにしてもよい。 In this way, there is a high possibility that at least a partially blurred image can be viewed. In particular, it is preferable to process the image using a blurring means that blurs the image. A designated range of the video may be blurred, or an area outside the designated range of the video may be blurred. It may be possible to switch between blurring within a specified range and blurring outside the specified range.

(34)たとえば,加工処理後の映像データにもとづく前記映像について音声出力するときには,その映像を表示する表示画面に向き,加工処理後の映像データに基づく前記映像の閲覧者に音声出力するときには,その閲覧者に向くコミュニケーション・ロボットをさらに備えてもよい。 (34) For example, when outputting audio for the video based on the processed video data, face the display screen that displays the video, and when outputting audio to the viewer of the video based on the processed video data, It may further include a communication robot directed toward the viewer.

このようにすれば,映像について音声出力するときには,その映像を表示する表示画面に向き,映像の閲覧者に音声出力するときには,その閲覧者に向くコミュニケーション・ロボットが得られる可能性が高くなる。とくに,コミュニケーション・ロボットは,音声出力手段,表示画面と閲覧者との間で首を動かすことができる頭部回転手段,表示画面に表示される映像を解析し,表示画面に表示される映像について音声出力するか閲覧者に対して音声出力するかを判定する判定手段,映像について音声出力するときには,その映像を表示する表示画面に向き,映像の閲覧者に音声出力するときには,その閲覧者に向くように,頭部回転手段を制御する頭部回転制御手段を有するとよい。映像について音声出力するときには,その映像を表示する表示画面に向くので,映像の閲覧者は映像に注意が向き,閲覧者に音声出力するときには閲覧者に向くので,コミュニケーション・ロボットから出力される音声を注意深く聞く可能性が高くなる。コミュニケーション・ロボットは,たとえば,表示画面と閲覧者との方に向くことができ,かつ音声出力できるものであるとよい。 This increases the possibility of obtaining a communication robot that faces the display screen displaying the video when outputting audio for a video, and faces the viewer when outputting audio to a viewer of the video. In particular, the communication robot has an audio output means, a head rotation means that can move its head between the display screen and the viewer, and an analysis of the image displayed on the display screen. Judgment means for determining whether to output audio or to the viewer; It is preferable to include a head rotation control means for controlling the head rotation means so that the head can face the head. When outputting audio for a video, the viewer's attention is directed toward the display screen that displays the video, and when outputting audio to the viewer, the viewer's attention is directed toward the viewer, so the audio output from the communication robot are more likely to listen carefully. The communication robot is preferably one that can face the display screen and the viewer, and can output audio, for example.

(35)たとえば,道路に関する情報にもとづいて,加工処理後の映像データにもとづく前記映像を表示させる態様を変える制御を行うとよい。 (35) For example, control may be performed to change the manner in which the image is displayed based on the image data after processing, based on information regarding the road.

このようにすれば,道路に関する情報にもとづいて映像の表示態様を変えやすくなる。とくに,映像データによって表される映像を解析し,映像に含まれる道路に関する情報を検出して,検出されれた道路に関する情報にもとづいて,加工処理後の映像データにもとづく前記映像を表示させる態様を変えるとよい。道路に関する情報は,たとえば,道路の幅,道路の標識などとするとよい。たとえば,道路に関する情報にもとづいて映像の明るさ,色相,彩度などを変える,カメラ・アングルの異なる映像を表示することにより,態様を変えるようにしてもよい。 In this way, it becomes easy to change the display mode of the image based on the information regarding the road. In particular, a mode in which a video represented by video data is analyzed, information about roads included in the video is detected, and based on the detected information about roads, the video is displayed based on the processed video data. It is better to change the . The information regarding the road may be, for example, the width of the road, road signs, etc. For example, the appearance may be changed by displaying images from different camera angles, changing the brightness, hue, saturation, etc. of the image based on information about the road.

(36)たとえば,前記再生装置において再生する前記映像データを記録する記録装置としてもよい。 (36) For example, it may be a recording device that records the video data to be played back by the playback device.

このようにすれば,再生装置において再生する映像データを記録できる可能性が高くなる。たとえば,前記再生装置において再生する映像データを記録するドライブ・レコーダとするとよい。記録装置は,自動車などの四輪車,オートバイ,自転車などの二輪車などに設置されるものでもよい。 In this way, it is more likely that the video data to be played back by the playback device can be recorded. For example, it may be a drive recorder that records video data to be played back by the playback device. The recording device may be installed in a four-wheeled vehicle such as a car, a two-wheeled vehicle such as a motorcycle, or a bicycle.

(37)たとえば,前記記録装置は,指定された条件にもとづいて高画質で前記映像データを記録する制御を行うとよい。 (37) For example, the recording device may perform control to record the video data with high image quality based on specified conditions.

このようにすれば,指定された条件にもとづいて高画質で映像データを記録しやすくなる。とくに,指定手段によって条件を指定し,入力手段によって,指定された条件を入力し,入力された条件にもとづいて高画質で映像データを記録するように記録装置を記録制御手段によって制御するとよい。指定された条件は,たとえば,場所,時間などとするとよい。高画質は,たとえば,一定の閾値よりもフレーム・レートを上げたり,一定の解像度よりも高解像度としたりするとよい。 This makes it easier to record video data with high image quality based on specified conditions. In particular, it is preferable that conditions are specified by the specifying means, the specified conditions are input by the input means, and the recording device is controlled by the recording control means so as to record video data with high image quality based on the input conditions. The specified conditions may be, for example, location, time, etc. High image quality may be achieved by, for example, increasing the frame rate above a certain threshold or setting a resolution higher than a certain resolution.

(38)たとえば,前記再生装置および記録装置の少なくとも一方が条件を指定する指定手段を備えており,前記指定手段により指定された条件にもとづいて,高画質で前記映像データを記録する制御を行うとよい。 (38) For example, at least one of the playback device and the recording device is provided with a specification means for specifying conditions, and controls recording of the video data with high image quality based on the conditions specified by the specification means. Good.

このようにすれば,指定手段により指定された条件にもとづいて高画質で映像データを記録できる可能性が高くなる。とくに,指定手段によって条件を指定し,入力手段によっ
て,指定された条件を入力し,入力された条件にもとづいて高画質で映像データを記録するように記録装置を記録制御手段によって制御するとよい。前記再生装置が指定手段を備えているときには,たとえば,映像データを記録する記録媒体に,指定手段によって指定された条件を表すデータを記録し,そのような記録媒体を記録装置に装填し,記録媒体から指定された条件を表すデータを読み出すことにより,指定された条件にもとづいて記録装置において高画質で映像データを記録するとよい。
In this way, it is more likely that video data can be recorded with high image quality based on the conditions specified by the specifying means. In particular, it is preferable that conditions are specified by the specifying means, the specified conditions are input by the input means, and the recording device is controlled by the recording control means so as to record video data with high image quality based on the input conditions. When the playback device is equipped with a specifying means, for example, data representing the conditions specified by the specifying means is recorded on a recording medium for recording video data, and such a recording medium is loaded into the recording device and the recording is started. It is preferable to record video data with high image quality in a recording device based on the specified conditions by reading data representing the specified conditions from the medium.

(39)たとえば,前記条件は,前記記録装置が設置された車の速度が一定以上となったこと,および前記記録装置が設置された車が指定された場所を走行したことのいずれか一方であるとよい。 (39) For example, the condition may be either that the speed of the car in which the recording device is installed exceeds a certain level, or that the car in which the recording device is installed drives in a designated place. Good to have.

このようにすれば,車の速度が一定以上となったことにより,あるいは指定された場所を走行したことにより,高画質で映像データを記録しやすくなる。とくに,記録装置に設けられているカメラを用いて車のスピード・メータを撮影し,解析手段によって撮影した映像を解析し,判定手段によってスピード・メータが,車の速度が一定以上となったとなったことが判定されたことことにより高画質記録が行われるとよい。また,車が走行している位置を位置検出手段によって検出し,指定された場所を走行していることが判定手段によって判定されたことにより高画質記録が行われるようにしてもよい。 In this way, it becomes easier to record video data with high image quality when the speed of the vehicle exceeds a certain level or when the vehicle travels in a designated area. In particular, the speedometer of the car is photographed using a camera installed in the recording device, the photographed image is analyzed by the analysis means, and the speedometer is determined by the determination means when the speed of the car exceeds a certain level. It is preferable that high-quality recording is performed based on the determination that the Alternatively, the position where the car is traveling may be detected by the position detecting means, and high-quality recording may be performed when the determining means determines that the vehicle is traveling in a designated location.

(40)たとえば,記録装置による前記映像データの記録時に路車間通信および車車間通信の少なくとも一方により得られた情報を映像データに関連づけて記録するとよい。 (40) For example, when the video data is recorded by the recording device, information obtained through at least one of road-to-vehicle communication and vehicle-to-vehicle communication may be recorded in association with the video data.

このようにすれば,路車間通信および車車間通信の少なくとも一方により得られた情報を映像データに関連づけて記録できる可能性が高くなる。とくに,路車間通信および車車間通信の少なくとも一方により送信される情報を受信手段によって受信し,受信した情報を,撮影によって得られた映像データに関連づけて記録するとよい。とくに,路車間通信および車車間通信の少なくとも一方により送信される情報を,撮影によって得られた映像データを格納する映像ファイルのヘッダに記録するとよい。 This increases the possibility that information obtained through at least one of road-to-vehicle communication and vehicle-to-vehicle communication can be recorded in association with video data. In particular, it is preferable that the receiving means receives information transmitted through at least one of road-to-vehicle communication and vehicle-to-vehicle communication, and records the received information in association with video data obtained by photography. In particular, information transmitted through at least one of road-to-vehicle communication and vehicle-to-vehicle communication may be recorded in the header of a video file that stores video data obtained by shooting.

(41)たとえば,記録装置によって記録された前記映像データから一義的に決定する第1の計算値を表すデータを,ブロック・チェーン・システムに送信する制御を行うとよい。 (41) For example, control may be performed to transmit data representing a first calculated value uniquely determined from the video data recorded by the recording device to the block chain system.

このようにすれば,映像データから一義的に決定する第1の計算値を表すデータを,ブロック・チェーン・システムに送信できる可能性が高くなる。第1の計算値を表すデータをブロック・チェーンに記録させることができるようになる。とくに,記録装置によって記録された映像データから一義的に決定する第1の計算値を算出し,算出された第1の計算値を表すデータをブロック・チェーン・システムに送信するように送信手段を制御するとよい。第1の計算値を算出する算出手段は記録装置に設けられていてもよいし,再生装置に設けられていてもよいし,送信手段も記録装置に設けられていてもよいし,再生装置に設けられていてもよい。ブロック・チェーンは,改ざんされる可能性が比較的低いので,第1の計算値を表すデータがブロック・チェーンに記録されることにより,第1の計算値を表すデータが改ざんされていない可能性が高いことが分かり,その第1の計算値を表すデータと映像データとを用いて映像データが改ざんされていなことを立証できる可能性が高くなる。 In this way, there is a high possibility that data representing the first calculated value uniquely determined from the video data can be sent to the block chain system. Data representing the first calculated value can now be recorded on the block chain. In particular, the transmitting means is configured to calculate a first calculated value that is uniquely determined from the video data recorded by the recording device, and to transmit data representing the calculated first calculated value to the block chain system. Good to control. The calculation means for calculating the first calculated value may be provided in the recording device or the reproducing device, and the transmitting means may also be provided in the recording device or in the reproducing device. may be provided. Block chains have a relatively low possibility of being tampered with, so by recording the data representing the first calculated value on the block chain, there is a possibility that the data representing the first calculated value has not been tampered with. It is found that the first calculated value is high, and there is a high possibility that it can be proven that the video data has not been tampered with using the data representing the first calculated value and the video data.

(42)たとえば,記録装置によって記録される映像データはMPEGに基づく映像データであり,Pフレームの直前を,映像データを区切る単位として,その単位ごとに一義的に決定する第1の計算値を表すデータを,ブロック・チェーンに記録させる制御を行うとよい。 (42) For example, the video data recorded by the recording device is video data based on MPEG, and the first calculated value that is uniquely determined for each unit is set immediately before the P frame as the unit for dividing the video data. It is a good idea to control the data represented in the block chain to be recorded.

このようにすれば,Pフレームの直前で区切って単位ごとに第1の計算値を表すデータを,ブロック・チェーンに記録させることができる可能性が高くなる。PフレームはIフレームがなければ一枚の画像として再現できないので,Pフレームの直前で区切って単位ごとに第1の計算値を算出したとすると,その第1の計算値の算出がより困難となる可能性が高くなる。とくに,Pフレームの直前を,映像データを区切る単位として,その単位ごとに一義的に決定する第1の計算値を算出し,算出された第1の計算値を表すデータをブロック・チェーン・システムに送信するように送信手段を制御するとよい。 In this way, there is a high possibility that the block chain can record data that is divided immediately before the P frame and represents the first calculated value for each unit. A P frame cannot be reproduced as a single image without an I frame, so if you divide it just before the P frame and calculate the first calculated value for each unit, it will be more difficult to calculate the first calculated value. becomes more likely to occur. In particular, the first calculated value that is uniquely determined for each unit is calculated immediately before the P frame as a unit for dividing the video data, and the data representing the calculated first calculated value is used as a block chain system. It is preferable to control the transmitting means so as to transmit the information.

(43)たとえば,イベント・データから一義的に決定する第2の計算値を表すデータをブロック・チェーンに記録させる制御を行うとよい。 (43) For example, control may be performed to cause the block chain to record data representing the second calculated value uniquely determined from the event data.

このようにすれば,イベント・データが一義的に決定する第2の計算値を表すデータをブロック・チェーンに記録させることができる可能性が高くなる。第2の計算値の改ざんを困難にさせることができる。とくに,イベント・データから一義的に決定する第2の計算値を算出手段によって算出し,算出された第2の計算値を表すデータをブロック・チェーン・システムに送信するように送信手段を制御するとよい。第2の計算値とイベント・データとを比較することにより,イベント・データが改ざんされたかどうかがわかり,第2の計算値の改ざんが困難なので,イベント・データの改ざんも困難となる。 In this way, there is a high possibility that data representing the second calculated value uniquely determined by the event data can be recorded on the block chain. This can make it difficult to falsify the second calculated value. In particular, when the calculation means calculates a second calculation value that is uniquely determined from the event data, and the transmission means is controlled to send data representing the calculated second calculation value to the block chain system. good. By comparing the second calculated value and the event data, it can be determined whether the event data has been tampered with, and since it is difficult to tamper with the second calculated value, it is also difficult to tamper with the event data.

(44)たとえば,記録装置に記録された映像データが,手動運転時のものか自動運転時のものかを示すデータを前記映像データに関連づけて記録するとよい。 (44) For example, data indicating whether the video data recorded in the recording device is for manual operation or automatic operation may be recorded in association with the video data.

このようにすれば,映像データが手動運転時のものか自動運転時のものかが分かる可能性が高くなる。とくに,手動運転時の時に記録装置に記録された映像データか自動運転時の時に記録装置に記録された映像データかを示す識別データを入力手段から入力し,入力した識別データを映像データに関連づけて記録するとよい。ときに,識別データを映像データが記録される映像ファイルのヘッダ領域に記録するとよい。手動運転は,たとえば,人が車のハンドルを操作して運転するものであり,自動運転は,人が車のハンドルを操作せずに機械制御でハンドルを操作して運転するものであるとするとよい。 This increases the possibility of knowing whether the video data is from manual driving or automatic driving. In particular, identification data indicating whether the video data is recorded on the recording device during manual operation or the video data recorded on the recording device during automatic operation is inputted from the input means, and the input identification data is associated with the video data. It is a good idea to record it. Sometimes it is advisable to record the identification data in the header area of the video file in which the video data is recorded. Manual driving, for example, is when a person operates the car's steering wheel, while automated driving is when a person operates the car's steering wheel using mechanical control. good.

(45)たとえば,手動運転時と自動運転時とで記録装置によって記録される前記映像データの画質を変更するとよい。 (45) For example, the image quality of the video data recorded by the recording device may be changed between manual operation and automatic operation.

このようにすれば,手動運転時における映像データと自動運転時における映像データとで異なる画質のものが得られる可能性が高くなる。とくに,手動運転中か自動運転中かを示す識別データを入力手段から入力し,識別データが手動運転中を示しているときに記録される映像データの画質と自動運転中を示しているときに記録される映像データの画質とを変更手段によって変更するとよい。手動運転中のときには画質を高くし,自動運転中のときには画質を低くして映像データを記録してもよいし,その逆に自動運転中のときには画質を低くし,自動運転中のときには画質を高くして映像データを記録してもよい。 In this way, there is a high possibility that image data of different quality will be obtained between the video data during manual driving and the video data during automatic driving. In particular, when identification data indicating whether manual driving or automatic driving is in progress is inputted from the input means, the image quality of video data recorded when the identification data indicates manual driving and when automatic driving is in progress is determined. It is preferable that the image quality of the video data to be recorded is changed by the changing means. Video data may be recorded with high image quality during manual driving and low image quality during automatic driving, or vice versa. It is also possible to record video data by increasing the height.

(46)たとえば,自動運転時にコミュニケーション・ロボットを動作させるとよい。 (46) For example, it would be good to use a communication robot during autonomous driving.

このようにすれば,自動運転時にコミュニケーション・ロボットを動作させることができる可能性が高くなる。自動運転時であれば,たとえば,ユーザは運転する必要がないので,運転に支障なく,コミュニケーション・ロボットとコミュニケーションをとることができるようになる。とくに,自動運転時であることを示す識別データを記録装置の入力手段が入力し,入力手段に,そのような識別データが入力したことに応じてコミュニケーション・ロボットに動作コマンドを記録装置の送信手段から送信するとよい。 In this way, there is a high possibility that the communication robot will be able to operate during autonomous driving. During automatic driving, for example, the user does not need to drive the vehicle, so he or she can communicate with the communication robot without any hindrance to driving. In particular, the input means of the recording device inputs identification data indicating that automatic operation is being performed, and the transmitting means of the recording device sends an operation command to the communication robot in response to input of such identification data into the input means. It is best to send it from

(47)たとえば,記録している映像データにもとづいて映像を表示し,イベントが起きる可能性が高いと判定されたことに応じて,映像の表示態様を変更する制御を行うとよい。 (47) For example, control may be performed to display a video based on recorded video data and change the display mode of the video in response to a determination that the possibility of an event occurring is high.

このようにすれば,イベントが起きる可能性が高いと判定されたことに応じて,映像の表示態様を変更しやすくなる。とくに,車両に設けられている記録装置に表示装置を設け,その表示装置の表示画面に映像を表示し,車両の走行中に映像を解析手段によって解析し,解析の結果,車両の前方においてイベントが起きる可能性が高いと判定手段によって判定されたことに応じて,表示画面に表示されている映像の態様を変更するように表示装置を表示制御手段によって制御するとよい。たとえば,映像の表示態様が変更されたことを認識することによりイベントが起きる可能性が高いことがわかるので,そのイベントに備えることができる。たとえば,映像データが走行中の車に設置されているドライブ・レコーダによって撮影されている場合には,その映像態様が変更することにより,たとえば,数秒後に何等かのイベント,たとえば,急な歩行者,車の飛び出しが起こる可能性があることがわかる。 In this way, it becomes easier to change the display mode of the video in response to the determination that the possibility of an event occurring is high. In particular, the recording device installed in the vehicle is equipped with a display device, the video is displayed on the display screen of the display device, the video is analyzed by an analysis means while the vehicle is running, and as a result of the analysis, an event is detected in front of the vehicle. It is preferable that the display device is controlled by the display control means so as to change the mode of the image displayed on the display screen in response to the determination by the determination means that there is a high possibility of occurrence. For example, by recognizing that the display mode of the video has been changed, it is possible to know that an event is likely to occur, so that preparations can be made for that event. For example, if video data is captured by a drive recorder installed in a moving car, the video format may change, such as when an event occurs a few seconds later, such as when a pedestrian suddenly appears. , It can be seen that there is a possibility of a car flying out.

(48)たとえば,通信装置によって受信した通信用電波の通信状態を表すデータを記録するとよい。 (48) For example, data representing the communication status of communication radio waves received by the communication device may be recorded.

このようにすれば,通信用電波の通信状態を表すデータを記録しやすくなる。とくに,通信用電波の受信に対応した通信装置によって通信用電波を受信し,通信用電波の通信状態を表すデータを記録するとよい。とくに,通信状態を表すデータは,通信中か通信が遮断されているかなどとするとよい。たとえば,通信用電波は,LTE(Long Term Evolution),Wi-Fi,Bluetooth(登録商標)にもとづく電波とするとよい。映像を表示するときには,通信状態に応じて表示態様を変更するようにしてもよい。 This makes it easier to record data representing the communication status of communication radio waves. In particular, it is preferable to receive communication radio waves using a communication device that is capable of receiving communication radio waves, and record data representing the communication state of the communication radio waves. In particular, the data representing the communication status may be such as whether communication is in progress or communication is interrupted. For example, the communication radio waves may be radio waves based on LTE (Long Term Evolution), Wi-Fi, or Bluetooth (registered trademark). When displaying images, the display mode may be changed depending on the communication status.

(49)たとえば,通信装置によって受信した通信用電波にもとづいて前記映像データの記録モードを変更するようにしてもよい。 (49) For example, the recording mode of the video data may be changed based on communication radio waves received by the communication device.

このようにすれば,通信用電波にもとづいて映像データの記録モードを変更しやすくなる。とくに,通信用電波の受信に対応した通信装置によって通信用電波を受信し,受信した通信用電波にもとづいて映像データの記録モードを変更するとよい。とくに記録モードは,記録のやり方が変わればどのようなものでもよい。たとえば,通信用電波を受信しているときには高画質での記録モードにし,通信用電波電を受信していないときには低画質での記録モードにしてもよい。それらの逆としてもよい。 This makes it easier to change the recording mode of video data based on communication radio waves. In particular, it is preferable that the communication radio waves are received by a communication device that is capable of receiving communication radio waves, and the recording mode of the video data is changed based on the received communication radio waves. In particular, any recording mode may be used as long as the recording method changes. For example, the recording mode may be set to high image quality when communication radio waves are being received, and the recording mode may be set to low image quality when communication radio waves are not being received. It is also possible to do the opposite.

(50)たとえば,点呼を受けた運転手の映像を表す映像データと,その運転手の運転によって得られる前記映像データとを関連づけて記録するとよい。 (50) For example, video data representing an image of a driver who has received a roll call and the video data obtained from the driver's driving may be recorded in association with each other.

このようにすれば,点呼を受けた運転手の映像を表す映像データと,その運転手の運転によって得られる映像データとを関連づけて記録できる可能性が高くなる。とくに,点呼を受けた運転手の映像を表す映像データを入力手段によって入力し,入力した映像データと,記録装置に設けられているカメラによって,その運転手の運転を撮影して得られる映像データと,を関連づけて記録するとよい。とくに,これらの映像データを同じフォルダに格納するとよい。たとえば,点呼を受けた運転手の映像に関連して,その運転手の運転により得られる映像を表示させることができるようになる。たとえば,点呼を受けた運転手の映像と,その運転手の運転の映像等を同時に表示させることができるようになる。 In this way, there is a high possibility that the video data representing the video of the driver who received the roll call and the video data obtained from the driver's driving can be recorded in association with each other. In particular, video data representing an image of a driver who has received a roll call is input by an input means, and the input video data and video data obtained by photographing the driver's driving with a camera installed in a recording device. It is a good idea to associate and record this. In particular, it is recommended to store these video data in the same folder. For example, in conjunction with an image of a driver receiving a roll call, it becomes possible to display an image obtained from the driver's driving. For example, it will be possible to simultaneously display a video of a driver receiving a roll call and a video of that driver driving.

(51)たとえば,運転手が運転したトラックに設置されている記録装置により得られる前記映像データと,その運転手が操作するフォークリフトに設置されている記録装置により得られる前記映像データとを関連づけて記録する制御を行うとよい。 (51) For example, by associating the video data obtained by a recording device installed in a truck driven by a driver with the video data obtained by a recording device installed in a forklift operated by the driver. It is a good idea to control recording.

このようにすれば,トラックの運転時の映像データとフォークリフトの運転時の映像データとを関連づけて記録しやすくなる。とくに,トラックに取り付けられている記録装置に設けられているカメラによってトラックの運転手の運転を撮影して得られる映像データをサーバに送信し,フォークリフトに取り付けられている記録装置に設けられているカメラによってフォークリフトの運転手の運転を撮影して得られる映像データをサーバに送信し,それらの映像データを互いに関連づけてサーバに記録するとよい。とくに,サーバにおいて運転手ごとに映像ファルダが作成されており,その運転手がトラックを運転したときの映像データとフォークリフトを運転したときの映像データとを同じ映像ファイルに格納するとよい。また,トラックを運転していたときにはトラックに取り付けられている記録装置に装填される記録媒体にトラックの運転時の映像データを記録し,フォークリフトを運転したときには,その記録媒体をトラックに取り付けられている記録装置から取り外し,フォークリフトに取り付けられている記録装置に装填し,フォークリフトを運転したときの映像データを,トラックを運転したいたときの映像データが格納される映像ファイルと同じ映像ファイルに格納してもよい。たとえば,運転手のトラックの運転時の映像と,その運転手によるフォークリフトの運転時の映像とを比較して見ることができるようになる。 In this way, it becomes easier to associate and record the video data when the truck is being driven and the video data when the forklift is being driven. In particular, video data obtained by filming the truck driver's driving is sent to a server using a camera installed on a recording device installed on the truck, and video data obtained from the recording device installed on the forklift is sent to a server. It is preferable to send video data obtained by photographing the forklift driver's operation using a camera to the server, correlate the video data with each other, and record the video data on the server. In particular, a video folder is created for each driver on the server, and it is preferable to store video data when the driver drives a truck and video data when the driver drives a forklift in the same video file. Also, when driving a truck, the video data of the truck driving is recorded on a recording medium loaded in the recording device attached to the truck, and when driving a forklift, the recording medium is loaded into the recording device attached to the truck. Remove it from the recording device attached to the forklift, load it into the recording device attached to the forklift, and store the video data from driving the forklift in the same video file that stores the video data from driving the truck. It's okay. For example, it will be possible to compare video of a driver driving a truck with video of that driver driving a forklift.

(52)たとえば,走行中の車から見える現実の風景に重ねて,運転において注意すべき情報を表示するように制御を行うとよい。 (52) For example, control may be performed to display information that should be noted when driving, superimposed on the actual scenery seen from a moving car.

このようにすれば,現実の風景に重ねて,運転において注意すべき情報を表示できる可能性が高くなる。実際に運転するに際し,現実の風景を見ながら注意すべき情報もわかるようになる。とくに,MR(Mixed Reality)装置によって現実の風景を見ながら,運転において注意すべき情報を,そのMR装置に表示するとよい。とくに,たとえば,ユーザに眼鏡のMR装置をかけさせ,その眼鏡を通して現実の風景を見せ,かつその眼鏡の面に運転において注意すべき情報を半透明な形態で現実の風景に重ねて表示させるとよい。 This increases the possibility of displaying information that should be noted when driving, superimposed on real scenery. When actually driving, you will be able to see information that you should be careful of while looking at the actual scenery. In particular, while viewing a real scene using an MR (Mixed Reality) device, it is preferable to display information that should be noted when driving on the MR device. In particular, for example, if a user is made to wear an MR device on glasses, a real scene is shown through the glasses, and information to be noted when driving is displayed on the surface of the glasses in a translucent form superimposed on the real scene. good.

(53)たとえば,以前に走行した場所と同じ場所を走行したことにもとづいて,その旨を報知する制御を行うとよい。 (53) For example, based on the fact that the vehicle has traveled in the same place as the previous one, control may be performed to notify that fact.

このようにすれば,以前に走行したかどうかがわかりやすくなる。以前に走行した場所であることがわかるので,そのことから,たとえば,同じ走行ルートとするか別の走行ルートとするかなどの新たな展開も考えられるようになる。とくに,記録装置に装填される記録媒体には,以前の走行場所を示すデータが記録されており,記録されているデータによって表される以前の走行場所と,現在走行している場所とが比較され,一致している場合には,音声出力装置からの音声出力,表示装置の表示画面への表示などにより,以前に走行した場所と同じ場所を走行していることが報知される。現在走行している場所の検出は,記録装置に設けられているGPS(global positioning system)受信機が利用されるとよい。 In this way, it will be easier to tell whether the vehicle has been driven before. Since you can see where you have traveled before, you can consider new developments, such as whether to take the same route or a different route. In particular, the recording medium loaded into the recording device records data indicating the previous driving location, and it is possible to compare the previous driving location represented by the recorded data with the current driving location. If they match, the vehicle is notified that the vehicle is traveling in the same location as the previous location, through audio output from the audio output device and display on the display screen of the display device. A GPS (global positioning system) receiver provided in the recording device may be used to detect the location where the vehicle is currently traveling.

(54)たとえば,車の速度メータを撮影し,撮影された速度メータにもとづいて前記映像データを記録する制御を行うとよい。 (54) For example, control may be performed to photograph the speedometer of a car and record the video data based on the photographed speedometer.

このようにすれば,撮影された速度メータにもとづいて映像データを記録できる可能性が高くなる。とくに,車内において,記録装置に速度メータを撮影できる位置にカメラを設け,そのカメラによって車の速度メータを撮影し,撮影して得られた映像を解析手段によって解析し,速度メータが映像データを記録する条件の速度を示すと映像データの記録が開始するとよい。たとえば,車の速度メータが80kmを超えていると映像データを記録するとよい。 This increases the possibility of recording video data based on the photographed speedometer. In particular, in a car, a camera is installed in a position where the speedometer can be photographed by a recording device, the camera photographs the car's speedometer, the image obtained by photographing is analyzed by an analysis means, and the speedometer records the video data. It is preferable to start recording video data when the speed of recording conditions is indicated. For example, it is a good idea to record video data when a car's speedometer exceeds 80 km/h.

(55)たとえば,自動搬送車に取り付けられる記録装置であって,自動搬送車の周辺物の接近を検知したことにもとづいて前記映像データを記録する制御を行うとよい。 (55) For example, the recording device may be attached to an automatic guided vehicle, and control may be performed to record the video data based on detection of the approach of objects surrounding the automated guided vehicle.

このようにすれば,自動搬送車の周辺物の接近を検知したことにもとづいて映像データを記録できる可能性が高くなる。とくに,記録装置に設けられているカメラによって自動搬送車近傍を撮影し,自動搬送車の周辺物の接近を検知手段が検知すると,カメラの撮影により得られる映像データを記録するとよい。たとえば,周辺物に自動搬送車が接触したときにその様子がわかるようになる。 In this way, it is more likely that video data can be recorded based on the detection of the approach of objects surrounding the automated guided vehicle. In particular, it is preferable to take a picture of the vicinity of the automated guided vehicle using a camera provided in the recording device, and when the detection means detects the approach of objects surrounding the automated guided vehicle, to record the video data obtained by taking the picture with the camera. For example, it will be possible to see when an automated guided vehicle comes into contact with surrounding objects.

(56)たとえば,フォークリフトに取り付けられる記録装置であって,フォークリフトの動作および運転手がフォークリフトに乗ったことの少なくとも一方にもとづいて前記映像データを記録する制御を行うとよい。 (56) For example, the recording device may be attached to a forklift and perform control to record the video data based on at least one of the operation of the forklift and the presence of the driver on the forklift.

このようにすれば,フォークリフトの動作および運転手がフォークリフトに乗ったことの少なくとも一方にもとづいて映像データを記録しやすくなる。とくに,フォークリフトの動作および運転手がフォークリフトに乗ったことの少なくとも一方を検知手段が検知したことに応じて映像データの記録を開始するとよい。とくに,記録装置に設けられているカメラによりフォークリフト内を撮影し,撮影により得られた映像データを解析することにより,フォークリフトの動作があったか,運転手がフォークリフトに乗ったかを検知し,その検知に応じて映像データの記録を開始するとよい。フォークリフトの動作は,たとえば,フォークが動いたこととするとよい。たとえば,運転手がフォークリフトから降りたことにより,映像データの記録を停止するようにしてもよい。 This makes it easier to record video data based on at least one of the operation of the forklift and the fact that the driver rides the forklift. In particular, it is preferable to start recording the video data in response to the detection means detecting at least one of the operation of the forklift and the fact that the driver got on the forklift. In particular, by photographing the inside of a forklift using a camera installed in a recording device and analyzing the video data obtained from the photography, it is possible to detect whether the forklift has moved or whether the driver has climbed onto the forklift. It is recommended to start recording video data accordingly. For example, the movement of the forklift may be defined as the movement of the forks. For example, recording of video data may be stopped when the driver gets off the forklift.

(57)前記映像データを格納するファイルのヘッダに,イベント記録のトリガ情報を記録するようにしてもよい。 (57) Trigger information for event recording may be recorded in the header of the file storing the video data.

このようにすれば,そのファイルのヘッダにイベント記録のトリガ情報を記録できる可能性が高くなる。たとえば,そのトリガ情報を用いて様々に処理を行う展開の可能性が高まる。 This increases the possibility that event recording trigger information can be recorded in the header of the file. For example, the possibility of developing various processes using the trigger information increases.

(58)たとえば,記録された映像データを再生する再生方法であって,取得した情報にもとづいて前記記録された映像データを加工処理し,加工処理後の映像データにもとづく映像を表示させるための制御を行うことを特徴とするとよい。 (58) For example, a playback method for playing back recorded video data, which processes the recorded video data based on acquired information and displays a video based on the processed video data. It is preferable that the feature is that control is performed.

このようにすれば,記録された映像そのものでなく,取得した情報にもとづいて加工された映像をユーザは見ることができる可能性が高くなる。加工は,映像を閲覧するユーザに適した処理とすることにより,ユーザに適した映像を得ることができる。記録した映像を加工するのでなく,取得した情報にもとづいて記録された映像データを加工処理するので,映像を閲覧するユーザにとってより適した映像を表示できる可能性が高まる。 This increases the possibility that the user will be able to view a video that has been processed based on the acquired information, rather than the recorded video itself. By performing processing suitable for the user viewing the video, it is possible to obtain a video suitable for the user. Rather than processing recorded video, recorded video data is processed based on the acquired information, increasing the possibility of displaying video that is more suitable for the user viewing the video.

(59)前記再生方法において再生する映像データを記録するように記録装置を制御するとよい。 (59) It is preferable to control a recording device to record video data to be reproduced in the reproduction method.

このようにすれば,再生する映像データを記録装置において記録できる可能性が高くなる。 This increases the possibility that the video data to be reproduced can be recorded in the recording device.

(60)たとえば,記録された映像データを再生する,コンピュータが読み取り可能なプログラムであって,取得した情報にもとづいて前記記録された映像データを加工処理させ,加工処理後の映像データにもとづく映像を表示させるための制御を行わせる,コンピュ
ータが読み取り可能なプログラムとするとよい。
(60) For example, a computer-readable program that plays back recorded video data, which processes the recorded video data based on acquired information, and produces a video based on the processed video data. It is preferable to use a computer-readable program that controls the display of the information.

このようにすれば,記録された映像そのものでなく,取得した情報にもとづいて加工された映像をユーザは見ることができる。加工は,映像を閲覧するユーザに適した処理とすることにより,ユーザに適した映像を得ることができる。記録した映像を加工するのでなく,取得した情報にもとづいて記録された映像データを加工処理するので,映像を閲覧するユーザにとってより適した映像を表示できる可能性が高まる。 In this way, the user can view a video that has been processed based on the acquired information, rather than the recorded video itself. By performing processing suitable for the user viewing the video, it is possible to obtain a video suitable for the user. Rather than processing recorded video, recorded video data is processed based on the acquired information, increasing the possibility of displaying video that is more suitable for the user viewing the video.

上述した(1)から(60)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全てまたは一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成としてもよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(60)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。 The inventions shown in (1) to (60) above can be combined arbitrarily. For example, at least a part of the structure of at least one invention described in (2) and subsequent ones may be added to all or part of the structure of the invention shown in (1). In particular, it is preferable to create an invention in which at least a part of the structure of at least one invention after (2) is added to the invention shown in (1). Further, arbitrary configurations may be extracted from the inventions shown in (1) to (60) and the extracted configurations may be combined. The applicant of this application intends to acquire rights to inventions containing these structures.

このようにすれば,記録された映像そのものでなく,取得した情報にもとづいて加工された映像をユーザは見ることができる。加工は,映像を閲覧するユーザに適した処理とすることにより,ユーザに適した映像を得ることができる。記録した映像を加工するのでなく,取得した情報にもとづいて記録された映像データを加工処理するので,映像を閲覧するユーザにとってより適した映像を表示できる可能性が高まる。
本願の発明の効果はこれに限定されず、本明細書および図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」と記載した箇所などは奏する効果を明示する記載であり、また「~できる」と記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。
In this way, the user can view a video that has been processed based on the acquired information, rather than the recorded video itself. By performing processing suitable for the user viewing the video, it is possible to obtain a video suitable for the user. Rather than processing recorded video, recorded video data is processed based on the acquired information, increasing the possibility of displaying video that is more suitable for the user viewing the video.
The effects of the invention of the present application are not limited to these, but the effects obtained from the parts of the structure disclosed in the specification, drawings, etc. are also disclosed, and the rights to the structure that produces the effects have also been acquired through divisional applications, amendments, etc. have the intention to For example, in this specification, a portion where it is written as "can be done" is a statement that clearly indicates the effect to be achieved, and there are parts that show an effect even if there is no mention of "can be done". Further, even without such a description, there are effects that can be understood from the configuration.

ドライブ・レコーダの側面図である。It is a side view of a drive recorder. ドライブ・レコーダの電気的構成を示すブロック図である。FIG. 2 is a block diagram showing the electrical configuration of a drive recorder. 映像ファイルのファイル構造を示している。It shows the file structure of the video file. 記録処理手順を示すフローチャートである。3 is a flowchart showing a recording processing procedure. ヘッダ・データの生成処理手順を示すフローチャートである。3 is a flowchart illustrating a header data generation processing procedure. 映像データの記録処理手順を示すフローチャートである。3 is a flowchart showing a procedure for recording video data. データの出力処理手順を示すフローチャートである。3 is a flowchart showing a data output processing procedure. データの出力処理手順を示すフローチャートである。3 is a flowchart showing a data output processing procedure. 表示画面に表示される映像の一例である。This is an example of an image displayed on a display screen. パーソナル・コンピュータの電気的構成を示すブロック図である。FIG. 1 is a block diagram showing the electrical configuration of a personal computer. 再生処理手順を示すフローチャートである。3 is a flowchart showing a reproduction processing procedure. 再生処理手順を示すフローチャートである。3 is a flowchart showing a reproduction processing procedure. 再生処理手順を示すフローチャートである。3 is a flowchart showing a reproduction processing procedure. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. プレイ・リスト表示領域の一例である。This is an example of a play list display area. プレイ・リスト表示領域の一例である。This is an example of a play list display area. IフレームとPフレームとを示している。An I frame and a P frame are shown. 記録処理手順を示すフローチャートである。3 is a flowchart showing a recording processing procedure. トラックに取り付けられたドライブ・レコーダの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the drive recorder attached to the truck. フォークリフトに取り付けられたドライブ・レコーダの処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of the drive recorder attached to the forklift. 記録処理手順を示すフローチャートである。3 is a flowchart showing a recording processing procedure. 自動搬送車の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of an automatic guided vehicle. 運転評価の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of driving evaluation. 再生処理手順を示すフローチャートである。3 is a flowchart showing a reproduction processing procedure. 再生処理手順を示すフローチャートである。3 is a flowchart showing a reproduction processing procedure. 再生処理手順を示すフローチャートである。3 is a flowchart showing a reproduction processing procedure. 地図の画像の一例である。This is an example of a map image. 再生処理手順を示すフローチャートである。3 is a flowchart showing a reproduction processing procedure. 再生ウインドウの一例である。This is an example of a playback window. 再生ウインドウの一例である。This is an example of a playback window. パーソナル・コンピュータとコミュニケーション・ロボットとの一例である。This is an example of a personal computer and a communication robot. コミュニケーション・ロボットの電気的構成を示すブロック図である。FIG. 2 is a block diagram showing the electrical configuration of a communication robot. コミュニケーション・ロボットの処理手順を示すフローチャートである。3 is a flowchart showing a processing procedure of a communication robot. 車内に置かれたコミュニケーション・ロボットを示している。It shows a communication robot placed inside a car.

(1)記録処理
図1から図9は,ドライブ・レコーダを用いた記録処理についてのものである。
(1) Recording Processing FIGS. 1 to 9 show recording processing using a drive recorder.

図1は,この発明の実施例を示すもので,ドライブ・レコーダ(たとえば,記録装置の一例である)1の側面図である。 FIG. 1 shows an embodiment of the present invention, and is a side view of a drive recorder 1 (for example, an example of a recording device).

ドライブ・レコーダ1は,取り付け部2およびカメラ部4を備えている。 The drive recorder 1 includes a mounting section 2 and a camera section 4.

取り付け部2は,ドライブ・レコーダ1を取り付ける車両のフロント・ガラス(図示略)に固定するもので,メモリ・カードを着脱自在にする。また,取り付け部2の外周面の一部には,撮影している映像を表示する表示画面3を形成している。さらに,取り付け部2は,コンバータ・ユニット(図示略)を介して車両と接続するDC(直流)ジャック(図示略)を備えている。さらに,取り付け部2は,所定のボタン類(図示略)を備えている。 The attachment part 2 is fixed to the windshield (not shown) of the vehicle to which the drive recorder 1 is attached, and allows a memory card to be attached or removed. Furthermore, a display screen 3 is formed on a part of the outer circumferential surface of the mounting portion 2 to display the image being photographed. Furthermore, the mounting portion 2 includes a DC (direct current) jack (not shown) that is connected to the vehicle via a converter unit (not shown). Furthermore, the attachment part 2 is provided with predetermined buttons (not shown).

カメラ部4は,主として前方(ドライブ・レコーダ1を取り付けた車両の走行方向)を撮影するフロント・カメラ(図1においては図示略)および主として後方を撮影するリア・カメラ(図1においては図示略)を内蔵している。カメラ部4は,フロント・カメラの結像面に被写体を結像するフロント・レンズ5を備え,リア・カメラの結像面に被写体を結像するリア・レンズ6を備えている。フロント・カメラによって車両の前方方向,車両の前方の左右方向および車両の前方の上下方向を撮影でき,リア・カメラによって車両の後方方向,車両の後方の左右方向および車両の後方の上下方向を撮影できる。したがって,フロント・カメラとリア・カメラとによって,ドライブ・レコーダ1を中心とした全方位を撮影できる。 The camera unit 4 includes a front camera (not shown in FIG. 1) that mainly takes pictures of the front (the traveling direction of the vehicle to which the drive recorder 1 is attached) and a rear camera (not shown in FIG. 1) that takes pictures mainly of the rear. ) is built-in. The camera section 4 includes a front lens 5 for forming an image of a subject on the image forming plane of the front camera, and a rear lens 6 for forming an image of the subject on the image forming plane of the rear camera. The front camera can photograph the front of the vehicle, the left and right directions in front of the vehicle, and the vertical direction in front of the vehicle, and the rear camera can photograph the rear direction of the vehicle, the left and right directions behind the vehicle, and the vertical direction behind the vehicle. can. Therefore, the front camera and the rear camera can take pictures in all directions around the drive recorder 1.

カメラ部4は,取り付け部2に対して,取り付け部2を中心に前後に所定角度θの範囲で動くことができ,フロント・ガラスの角度にかかわらず,比較的適した角度での撮影が可能となる。 The camera section 4 can move back and forth within a predetermined angle θ with respect to the mounting section 2, making it possible to take pictures at a relatively suitable angle regardless of the angle of the windshield. becomes.

図2は,ドライブ・レコーダ1の電気的構成を示すブロック図である。 FIG. 2 is a block diagram showing the electrical configuration of the drive recorder 1.

ドライブ・レコーダ1の全体の動作は,コントローラ10が統括する。 The entire operation of the drive recorder 1 is supervised by the controller 10.

ドライブ・レコーダ1は,メモリ・カード・リーダ/ライタ95を備えている。ドライブ・レコーダ1にメモリ・カード25を装着すると,メモリ・カード・リーダ/ライタ95は,メモリ・カード25に記録されているデータ類の読み取り,メモリ・カード25へのデータの書き込み等を行う。メモリ・カード25には,後述する動作プログラムが記録されており,その記録されている動作プログラムをコントローラ10が読み取り,ドライブ・レコーダ1にインストールされる。ドライブ・レコーダ1にインストールされた動作プログラムをコントローラ10が読み取り,動作プログラムにしたがってドライブ・レコーダ1の各部を制御する。ドライブ・レコーダ1の動作プログラムは,メモリ・カード25以外の記録媒体に格納されている場合には,そのような記録媒体から読み取ってもよい。この場合には,記録媒体に対応したドライバなどのインターフェイスがドライブ・レコーダに設けられることとなる。また,通信回路17によって受信し,ドライブ・レコーダ1にインストールしてよい。 The drive recorder 1 includes a memory card reader/writer 95. When the memory card 25 is installed in the drive recorder 1, the memory card reader/writer 95 reads data recorded on the memory card 25, writes data to the memory card 25, etc. An operating program, which will be described later, is recorded in the memory card 25, and the controller 10 reads the recorded operating program and installs it into the drive recorder 1. The controller 10 reads the operating program installed in the drive recorder 1 and controls each part of the drive recorder 1 according to the operating program. If the operating program for the drive recorder 1 is stored in a recording medium other than the memory card 25, it may be read from such a recording medium. In this case, the drive recorder will be provided with an interface such as a driver compatible with the recording medium. Further, it may be received by the communication circuit 17 and installed in the drive recorder 1.

ドライブ・レコーダ1は,上述したように,フロント・カメラ11およびリア・カメラ12を備えている。フロント・カメラ11およびリア・カメラ12がそれぞれ撮影した映像データはコントローラ10に入力する。また,ドライブ・レコーダ1は,表示画面3を有する表示装置を備えており,表示制御装置13が表示装置14における表示を制御する。さらに,ドライブ・レコーダ1は,時計15,路車間/車車間情報受信回路16,通信回路17および加速度センサ18を備えている。時計15から出力する時刻を表す時刻データはコントローラ10に出力する。路車間/車車間情報受信回路16は,たとえば,高度道路情報システムにもとづいて道路などに配置された路側機から送信される周辺状況を表すデータ(路車間情報の一例である),車両から送信される自車情報を表すデータ(車車間情報の一例である)などを受信し,受信したデータをコントローラ10に出力する。路車間/車車間情報受信回路16は,たとえば,DSRC(Dedicated Short Range Communications)にもとづく通信回路を利用する。通信回路17は,たとえば,車両内にコミュニケーション・ロボットなどを置いた場合に,コミュニケーション・ロボットなどと通信する。通信回路17からの出力データはコントローラ10に入力する。加速度センサ18は,ドライブ・レコーダ1を取り付けている車両の加速度を検出し,検出した加速度データをコントローラ10に出力する。 The drive recorder 1 includes a front camera 11 and a rear camera 12, as described above. Video data captured by the front camera 11 and rear camera 12 is input to the controller 10. The drive recorder 1 also includes a display device having a display screen 3, and a display control device 13 controls the display on the display device 14. Furthermore, the drive recorder 1 includes a clock 15, a road-to-vehicle/vehicle-to-vehicle information receiving circuit 16, a communication circuit 17, and an acceleration sensor 18. Time data representing the time output from the clock 15 is output to the controller 10. The road-to-vehicle/vehicle-to-vehicle information receiving circuit 16 receives, for example, data representing surrounding conditions (an example of road-to-vehicle information) transmitted from a roadside device placed on a road based on an intelligent highway information system, and data transmitted from a vehicle. The controller 10 receives data representing own vehicle information (which is an example of vehicle-to-vehicle information), and outputs the received data to the controller 10. The road-to-vehicle/vehicle-to-vehicle information receiving circuit 16 uses, for example, a communication circuit based on DSRC (Dedicated Short Range Communications). The communication circuit 17 communicates with a communication robot when the communication robot is placed in the vehicle, for example. Output data from the communication circuit 17 is input to the controller 10. The acceleration sensor 18 detects the acceleration of the vehicle to which the drive recorder 1 is attached, and outputs the detected acceleration data to the controller 10.

さらに,ドライブ・レコーダ1は,ボタン類などの入力装置20,RAM(Random Access Memory)などのメモリ21およびGPS(Global Positioning System)受信器22を備えている。入力装置20からの出力信号,メモリ21からの出力データおよびGPS受信器22からの出力データもコントローラ10に入力する。 Furthermore, the drive recorder 1 includes an input device 20 such as buttons, a memory 21 such as a RAM (Random Access Memory), and a GPS (Global Positioning System) receiver 22. The output signal from the input device 20, the output data from the memory 21, and the output data from the GPS receiver 22 are also input to the controller 10.

図3は,フロント・カメラ11から出力された映像データおよびリア・カメラ11から出力された映像データを格納する映像ファイルのファイル構造を示している。 FIG. 3 shows the file structure of a video file that stores video data output from the front camera 11 and video data output from the rear camera 11.

映像ファイルには,ヘッダ記録領域31と映像記録領域32とが含まれる。ヘッダ記録領域31はヘッダ・データを記録する領域であり,映像記録領域32は映像データを記録する領域である。 The video file includes a header recording area 31 and a video recording area 32. The header recording area 31 is an area for recording header data, and the video recording area 32 is an area for recording video data.

図4は,ドライブ・レコーダ1の記録処理手順を示すフローチャートである。 FIG. 4 is a flowchart showing the recording processing procedure of the drive recorder 1.

図4に示す記録処理手順は,記録処理が終了するまでの間,たとえば,1フレーム(他フレームでもよい)の撮影ごとに繰り返される。 The recording processing procedure shown in FIG. 4 is repeated, for example, every time one frame (or another frame) is captured until the recording processing is completed.

ドライブ・レコーダ1を取り付けている車両のエンジンが始動すると,車両のバッテリィはドライブ・レコーダに電源を供給する。すると,図4に示す記録処理が開始する。また,メモリ・カード25に映像ファイルが生成される。記録処理が開始すると,フロント・カメラ11およびリア・カメラ12から出力された映像データがコントローラ10を介して表示制御装置13に入力する。表示装置14の表示画面3に撮像した映像が表示される(図9参照)。表示画面3に表示される映像は,メモリ・カード25に記録されているプログラムにしたがって,フロント・カメラ11により得られた映像またはリア・カメラ12により得られた映像のいずれかの映像が表示されるが,フロント・カメラ11により得られた映像とリア・カメラ12により得られた映像の両方の映像が表示されるようにしてもよい。また,デフォルトの表示としてフロント・カメラ11により得られた映像またはリア・カメラ12により得られた映像を表示し,入力装置20に切り替えボタンを設け,その切り替えボタンの操作に応じて,フロント・カメラ11により得られた映像またはリア・カメラにより得られた映像を表示するように切り替えてもよい。 When the engine of the vehicle to which the drive recorder 1 is attached starts, the battery of the vehicle supplies power to the drive recorder. Then, the recording process shown in FIG. 4 starts. Additionally, a video file is generated on the memory card 25. When the recording process starts, video data output from the front camera 11 and rear camera 12 is input to the display control device 13 via the controller 10. The captured video is displayed on the display screen 3 of the display device 14 (see FIG. 9). The image displayed on the display screen 3 is either the image obtained by the front camera 11 or the image obtained by the rear camera 12 according to the program recorded on the memory card 25. However, both the images obtained by the front camera 11 and the images obtained by the rear camera 12 may be displayed. In addition, the image obtained by the front camera 11 or the image obtained by the rear camera 12 is displayed as a default display, and a switching button is provided on the input device 20, and the front camera 11 or the rear camera may be displayed.

まず,ヘッダ・データの生成および生成されたヘッダ・データのメモリ21への一時的な記録処理が行われ(ステップ41),その後に映像データのメモリ21への一時的な記録処理が行われる(ステップ42)。つづいて,各種データ等の出力処理が行われ(ステップ43),メモリ21に一時的に記録されたデータ等のメモリ・カード25への書き込み処理が行われる(ステップ44)。 First, header data is generated and the generated header data is temporarily recorded in the memory 21 (step 41), and then video data is temporarily recorded in the memory 21 (step 41). Step 42). Subsequently, various types of data are outputted (step 43), and data temporarily recorded in the memory 21 is written to the memory card 25 (step 44).

図4においては,ヘッダ・データの生成および生成されたヘッダ・データのメモリ21への一時的な記録(ステップ41)の後に,映像データのメモリ21への一時的な記録処理が行われ(ステップ42),その後に各種データ等の出力処理が行われているが(ステップ43),それらの処理の順序は問わない。また,ヘッダ・データおよび映像データを一時的にメモリ21に記録し,メモリ21に記録されたヘッダ・データおよび映像データを読み出し,読み出したヘッダ・データおよび映像データをメモリ・カード25に書き込んでいるが,可能であれば,メモリ21に一時的に記憶せずに,直接にメモリ・カード25に書き込むようにしてもよい。また,ヘッダ・データの生成および記録処理(ステップ41),映像データの記録処理(ステップ42)ならびにデータ等の出力処理(ステップ43)のうち,所望の二つ以上の処理を並行して行うようにしてもよい。 In FIG. 4, after the header data is generated and the generated header data is temporarily recorded in the memory 21 (step 41), the video data is temporarily recorded in the memory 21 (step 41). 42), after which output processing of various data, etc. is performed (step 43), but the order of these processings does not matter. Additionally, the header data and video data are temporarily recorded in the memory 21, the header data and video data recorded in the memory 21 are read, and the read header data and video data are written to the memory card 25. However, if possible, the data may be written directly to the memory card 25 without temporarily storing it in the memory 21. In addition, two or more desired processes among the header data generation and recording processing (step 41), video data recording processing (step 42), and data output processing (step 43) can be performed in parallel. You may also do so.

ドライブ・レコーダ1が取り付けられている車両のエンジンが停止させられ,ドライブ・レコーダ1への電源供給が停止すると,図4に示す記録処理手順は終了する。 When the engine of the vehicle to which the drive recorder 1 is attached is stopped and the power supply to the drive recorder 1 is stopped, the recording processing procedure shown in FIG. 4 ends.

図5は,ヘッダ・データの生成処理手順(図4ステップ41の処理手順)を示すフローチャートであり,コントローラ10の処理手順を示している。 FIG. 5 is a flowchart showing the header data generation processing procedure (the processing procedure of step 41 in FIG. 4), and shows the processing procedure of the controller 10.

ドライブ・レコーダ1が取り付けられている車両が自動運転可能なものである場合,その車両からドライブ・レコーダ1に,自動運転中(車両の運転手の操作にもとづく運転ではない運転の最中)である旨のデータが送信される。たとえば,ドライブ・レコーダ1と車両の車載ネットワークとを接続し,車載ネットワークに出力されている自動運転中か手動運転中(車両の運転手の操作にもとづく運転の最中)かのデータを検出することにより,ドライブ・レコーダ1のコントローラ10は,車両が自動運転中か,手動運転中かを認識する。また,車両とドライブ・レコーダ1とが無線通信可能であり,かつ車両から自動運転中か,手動運転中かを示すデータが送信される場合には,そのデータをドライブ・レコ
ーダ1の通信回路17において受信することにより,ドライブ・レコーダ1のコントローラ10が,車両が自動運転中か,手動運転中かを認識してもよい。
If the vehicle to which the drive recorder 1 is installed is capable of autonomous driving, the vehicle will record information from the vehicle to the drive recorder 1 during autonomous driving (during driving that is not based on the operation of the vehicle driver). Data to that effect is sent. For example, the drive recorder 1 is connected to the vehicle's in-vehicle network, and data output to the in-vehicle network indicating whether automatic driving or manual driving (during operation based on the operation of the vehicle driver) is detected. Accordingly, the controller 10 of the drive recorder 1 recognizes whether the vehicle is being driven automatically or manually. In addition, if the vehicle and the drive recorder 1 are capable of wireless communication and the vehicle transmits data indicating whether the vehicle is driving automatically or manually, the data is transmitted to the communication circuit 17 of the drive recorder 1. By receiving this information, the controller 10 of the drive recorder 1 may recognize whether the vehicle is being driven automatically or manually.

車両が自動運転中か,手動運転中かどうかが,ドライブ・レコーダ1のコントローラ10によって判断される(ステップ51)。自動運転中の場合には,メモリ・カード25に記録されるデータが自動運転中に撮影された映像データであることを示すデータがヘッダ・データとしてメモリ21に一時的に記録される(ステップ52)。また,手動運転中の場合には,メモリ・カード25に記録されるデータが手動運転中に撮影された映像データであることを示すデータがヘッダ・データとしてメモリ21に一時的に記録される(ステップ53)。たとえば,ある時間内に撮影された映像データが自動運転中のデータか,手動運転中のデータかを示すデータがメモリ・カード25に一時的に記録される。もちろん,自動運転中の映像データを格納する自動運転映像フォルダ,手動運転中の映像データを格納する手動運転映像フォルダを生成し,自動運転中に撮影された映像データについては自動運転映像フォルダに格納し,手動運転中に撮影された映像データについては手段運転映像フォルダに格納するようにしてもよい。時間または自動運転映像フォルダへの映像データの格納もしくは手動運転映像フォルダへの映像データの格納が,自動運転時の映像データか手動運転時の映像データかを示すデータと,自動運転時の映像データまたは手動運転時の映像データとの関連づけとなる。 The controller 10 of the drive recorder 1 determines whether the vehicle is operating automatically or manually (step 51). During automatic driving, data indicating that the data recorded on the memory card 25 is video data taken during automatic driving is temporarily recorded in the memory 21 as header data (step 52). ). Additionally, during manual operation, data indicating that the data recorded on the memory card 25 is video data taken during manual operation is temporarily recorded in the memory 21 as header data ( Step 53). For example, data indicating whether video data photographed within a certain period of time is data during automatic operation or data during manual operation is temporarily recorded on the memory card 25. Of course, an automatic driving video folder is created to store video data during automatic driving, and a manual driving video folder is created to store video data during manual driving, and video data taken during automatic driving is stored in the automatic driving video folder. However, video data taken during manual operation may be stored in the manual operation video folder. Data indicating whether the time or video data stored in the automatic driving video folder or video data stored in the manual driving video folder is automatic driving video data or manual driving video data, and video data during automatic driving. Or it can be associated with video data during manual operation.

つづいて,路車間通信情報または車車間通信情報を路車間/車車間情報受信回路16が受信したかどうかがコントローラ10によって確認される(ステップ54)。路車間通信情報または車車間通信情報を受信すると(ステップ54でYES),受信した通信情報を表すデータを,その通信情報を受信した時間を表すデータとともにメモリ21に一時的に記録する(ステップ55)。通信情報を受信した時間がわかるので,その時間にどのような映像を撮影していたかどうかも分かり,撮影した映像を再生するときに,同時に路車間通信情報または車車間通信情報も出力できる。このように,たとえば,時間によって路車間通信情報または視野車間通信情報と映像データとを関連づけできる。路車間通信情報または車車間通信情報のいずれも受信しなければ(ステップ54でNO),ステップ55の処理はスキップされ,受信した情報のメモリ21への一時的な記録は行われない。 Next, the controller 10 confirms whether the road-to-vehicle/vehicle-to-vehicle information receiving circuit 16 has received the road-to-vehicle communication information or the vehicle-to-vehicle communication information (step 54). When road-to-vehicle communication information or vehicle-to-vehicle communication information is received (YES in step 54), data representing the received communication information is temporarily recorded in the memory 21 along with data representing the time when the communication information was received (step 55). ). Since the time when the communication information was received is known, it is also possible to know what kind of video was being shot at that time, and when playing back the shot video, road-to-vehicle communication information or vehicle-to-vehicle communication information can also be output at the same time. In this way, for example, road-to-vehicle communication information or field-of-vehicle communication information and video data can be associated based on time. If neither the road-to-vehicle communication information nor the vehicle-to-vehicle communication information is received (NO in step 54), the process in step 55 is skipped, and the received information is not temporarily recorded in the memory 21.

また,通信回路17によって通信用電波を受信したかどうかも確認される(ステップ56)。通信回路17によって通信用電波が受信されると(ステップ56でYES),その通信用電波の通信状態を表すデータがメモリ21に一時的に記録される(ステップ57)。たとえば,オービス等の路上に設置されている速度取締装置から発せられるレーダー波や,緊急車両等が使用している無線を通信回路17が受信した場合に,それらの内容を示すデータ等がメモリ21に一時的に記録される。通信回路17によって通信用電波が受信されないと(ステップ56でNO),ステップ57の処理はスキップされ,通信用電波の通信状態を表すデータのメモリ21への記録は行われない。 It is also checked whether communication radio waves have been received by the communication circuit 17 (step 56). When the communication radio wave is received by the communication circuit 17 (YES in step 56), data representing the communication state of the communication radio wave is temporarily recorded in the memory 21 (step 57). For example, when the communication circuit 17 receives radar waves emitted from speed control devices installed on the road such as Orbis, or radio waves used by emergency vehicles, etc., the data indicating the contents are stored in the memory 21. is temporarily recorded. If the communication radio wave is not received by the communication circuit 17 (NO in step 56), the process of step 57 is skipped, and data representing the communication state of the communication radio wave is not recorded in the memory 21.

また,リア・カメラ12によって得られた映像データから,車両の運転手の視線がコントローラ10において検出される(ステップ58)。検出された視線を表す視線データも,時間を表すデータとともにメモリ21に一時的に書き込まれる(ステップ59)。いつ,運転手がどの方向を見ていたかがわかる。映像の中から目を検出し,目の瞳孔,虹彩および角膜の部分(いわゆる黒目の部分)と結膜の部分(いわゆる白目の部分)との位置関係により視線がわかる。同様に,リア・カメラ12によって得られた映像データが解析され,車両の運転手が向いている方向も検出され,検出された方向を表すデータも,撮影時刻を表すデータとともにメモリ21に一時的に書き込まれる。 Furthermore, the line of sight of the vehicle driver is detected by the controller 10 from the video data obtained by the rear camera 12 (step 58). The line-of-sight data representing the detected line-of-sight is also temporarily written to the memory 21 along with data representing time (step 59). You can see when the driver was looking and in what direction. The eye is detected in the image, and the line of sight can be determined based on the positional relationship between the pupil, iris, and cornea of the eye (the iris of the eye) and the conjunctiva (the white of the eye). Similarly, the video data obtained by the rear camera 12 is analyzed, the direction in which the driver of the vehicle is facing is also detected, and the data representing the detected direction is also temporarily stored in the memory 21 along with the data representing the shooting time. will be written to.

図6は,映像データの記録処理手順(図4ステップ42の処理手順)を示すフローチャートである。 FIG. 6 is a flowchart showing the video data recording processing procedure (the processing procedure of step 42 in FIG. 4).

映像データの記録処理においても,自動運転中か,手動運転中かがコントローラ10によって確認される(ステップ61)。自動運転中であると,相対的に低画質の映像データがメモリ21に記録される(ステップ62)。たとえば,フロント・カメラ11およびリア・カメラ12から出力される映像データによって表される1フレーム当たりの画素数が第1の閾値よりも少なくなる画素間引きが行われたり(解像度の低下),単位時間あたりの読み出しフレーム数が第1のフレーム数よりも少なくされたりするように(フレーム・レートの低下)フロント・カメラ11およびリア・カメラ12がコントローラ10によって制御される。これにより相対的に低画質の映像データが得られる。手動運転中であると,相対的に中画質の映像データがメモリ21に記録される(ステップ63)。たとえば,フロント・カメラ11およびリア・カメラ12から出力される映像データによって表される1フレーム当たりの画素数が第1の閾値よりも多くなる画素間引きが行われたり,単位時間あたりの読み出しフレーム数が第1のフレーム数よりも多くされたりするようにフロント・カメラ11およびリア・カメラ12がコントローラ10によって制御される。これにより相対的に中画質の映像データが得られる。このように,解像度,フレーム・レートを調整することにより映像データの画質を調整できる。自動運転中には相対的に低画質での映像データをメモリ21に記録し,手動運転中には相対的に中画質での映像データをメモリ21に記録しているが,自動運転中には相対的に中画質での映像データをメモリ21に記録し,手動運転中には相対的に低画質での映像データをメモリ21に記録するようにしてもよい。自動運転中に記録される映像データの画質と手動運転中に記録される映像データの画質とが異なればよい。 Also in the video data recording process, the controller 10 confirms whether automatic operation or manual operation is in progress (step 61). During automatic operation, relatively low-quality video data is recorded in the memory 21 (step 62). For example, pixel thinning is performed such that the number of pixels per frame represented by the video data output from the front camera 11 and the rear camera 12 is less than the first threshold value (reduction in resolution), or The front camera 11 and the rear camera 12 are controlled by the controller 10 so that the number of read frames per frame is less than the first number of frames (reduction in frame rate). As a result, video data with relatively low image quality is obtained. During manual operation, video data of relatively medium quality is recorded in the memory 21 (step 63). For example, pixel thinning is performed such that the number of pixels per frame represented by the video data output from the front camera 11 and rear camera 12 is greater than the first threshold, or the number of read frames per unit time is The front camera 11 and the rear camera 12 are controlled by the controller 10 so that the number of frames is greater than the first number of frames. This allows video data of relatively medium quality to be obtained. In this way, the image quality of video data can be adjusted by adjusting the resolution and frame rate. During automatic driving, relatively low-quality video data is recorded in the memory 21, and during manual driving, relatively medium-quality video data is recorded in the memory 21, but during automatic driving, video data with relatively low image quality is recorded in the memory 21. Video data with a relatively medium quality may be recorded in the memory 21, and video data with a relatively low quality may be recorded in the memory 21 during manual operation. It is sufficient that the image quality of video data recorded during automatic driving is different from the image quality of video data recorded during manual driving.

つづいて,指定された条件となったかどうかがコントローラ10によって確認される(ステップ64)。たとえば,車両の速度が一定以上となった,指定された場所を走行している,ドライブ・レコーダ1の入力装置20に高画質指定スイッチ(指定手段の一例である)が設けられている場合にはその高画質指定スイッチが操作されたことが指定された条件となったものの一例である。車両の速度が一定以上となったかどうかは,リア・カメラ12によって車両のスピード・メータを撮影できるようにドライブ・レコーダ1が車両に取り付けられている場合には,リア・カメラ12により得られる映像を解析することにより検出できるし,GPS受信器22にもとづいて算出される走行距離と時計15にもとづいて算出される,その走行距離にかかった時間とからも検出できる。指定された場所を走行しているかどうかは,GPS受信器22からの出力データにもとづいてわかる。 Next, the controller 10 confirms whether the specified condition has been met (step 64). For example, when the speed of the vehicle exceeds a certain level, when the vehicle is traveling in a designated place, or when the input device 20 of the drive recorder 1 is provided with a high-quality designation switch (which is an example of a designation means), is an example where the specified condition is that the high image quality designation switch is operated. If the drive recorder 1 is installed on the vehicle so that the speedometer of the vehicle can be photographed by the rear camera 12, whether the speed of the vehicle has exceeded a certain level can be determined by checking the image obtained by the rear camera 12. It can be detected by analyzing the distance traveled, and it can also be detected from the travel distance calculated based on the GPS receiver 22 and the time taken for the travel distance calculated based on the clock 15. Whether the vehicle is traveling in a designated location can be determined based on output data from the GPS receiver 22.

指定された条件となると(ステップ64でYES),相対的に高画質の映像データがメモリ21に一時的に記録される(ステップ65)。たとえば,フロント・カメラ11およびリア・カメラ12から出力される映像データの画素間引きを停止したり,単位時間あたりの読み出しフレーム数が中解像度のときのフレーム数よりも多くされたりするようにフロント・カメラ11およびリア・カメラ12がコントローラ10によって制御される。これにより相対的に高画質の映像データが得られる。指定された条件とならなければ(ステップ64でNO),ステップ65の処理はスキップされ,高画質の映像データをメモリ21に記録する処理は行われない。 When the specified condition is met (YES in step 64), relatively high-quality video data is temporarily recorded in the memory 21 (step 65). For example, the front camera may be configured to stop pixel thinning of the video data output from the front camera 11 and rear camera 12, or to increase the number of read frames per unit time than the number of frames when the resolution is medium. Camera 11 and rear camera 12 are controlled by controller 10. This allows relatively high-quality video data to be obtained. If the specified condition is not met (NO in step 64), the process of step 65 is skipped, and the process of recording high-quality video data in the memory 21 is not performed.

さらに,コントローラ10に記録モードの変更指令があったかどうかも確認される(ステップ66)。記録モードの変更指令があった場合には(ステップ66でYES),記録モードが変更され(ステップ67),記録モードの変更指令がなかった場合には(ステップ66でNO),記録モードの変更は行われない。たとえば,上述したように通信回路17によってオービス等の路上に設置されている速度取締装置から発せられるレーダー波や,緊急車両等が使用している無線などの通信用電波を受信した場合に,記録モードの変更指令があったと判断してもよい。記録モードの変更指令があったことにより,たとえば,高画質の映像データをメモリ21に記録するように記録モードを変更することができる。 Furthermore, it is also checked whether there has been a command to change the recording mode to the controller 10 (step 66). If there is a command to change the recording mode (YES in step 66), the recording mode is changed (step 67), and if there is no command to change the recording mode (NO in step 66), the recording mode is changed. will not be carried out. For example, as mentioned above, if the communication circuit 17 receives radar waves emitted from a speed control device installed on the road such as Orbis, or communication radio waves such as radio waves used by emergency vehicles, etc., the data will be recorded. It may be determined that a mode change command has been issued. In response to the instruction to change the recording mode, the recording mode can be changed so that, for example, high-quality video data is recorded in the memory 21.

図6に示す映像データの記録処理においては,自動運転中か,手動運転中かの確認(ステップ61)の後に,指定された条件となったかどうかの確認(ステップ64)が行われているが,指定された条件となったかどうかの確認(ステップ64)の後に,自動運転中か,手動運転中かの確認(ステップ61)が行われてもよいし,これらの両方の確認(ステップ61,64)が並行して行われていてもよい。 In the video data recording process shown in Figure 6, after checking whether automatic operation or manual operation is in progress (step 61), it is checked whether the specified conditions have been met (step 64). , After checking whether the specified conditions have been met (step 64), checking whether automatic operation or manual operation is in progress (step 61) may be performed, or both of these checks (step 61, 64) may be performed in parallel.

図7は,データの出力処理手順(図4ステップ43の処理手順)を示すフローチャートである。 FIG. 7 is a flowchart showing the data output processing procedure (the processing procedure of step 43 in FIG. 4).

データの出力処理手順においても,自動運転中か,手動運転中かがコントローラ10によって確認される(ステップ71)。自動運転中の場合には,車両内に置かれているコミュニケーション・ロボット(図示略)に通信回路17から動作開始コマンドが送信される(ステップ72)。手動運転中の場合には,車両内に置かれているコミュニケーション・ロボットには通信回路17から動作開始コマンドが送信されない。手動運転中の場合には,コミュニケーション・ロボット停止コマンドを送信してもよい。自動運転中であれば,運転手が手動運転していないのでコミュニケーション・ロボットが動作しても運転に支障がない反面,運転手はコミュニケーション・ロボットとコミュニケーションをとることができるので,時間を有効に活用できる。手動運転中の場合には,車両内に置かれているコミュニケーション・ロボットは動作しないので,運転手がコミュニケーション・ロボットから話しかけられて運転に集中できないというような支障が未然に防止できる。また,手動運転中に,コミュニケーション・ロボットに動作停止コマンドが送信されるようにすれば,コミュニケーション・ロボットが動作中の場合に動作を停止させることができる。 Also in the data output processing procedure, the controller 10 confirms whether automatic operation or manual operation is in progress (step 71). When the vehicle is in automatic operation, an operation start command is sent from the communication circuit 17 to a communication robot (not shown) placed in the vehicle (step 72). During manual operation, no operation start command is sent from the communication circuit 17 to the communication robot placed in the vehicle. If the robot is in manual operation, a communication robot stop command may be sent. During automated driving, the driver is not driving manually, so even if the communication robot operates, there is no problem with driving. On the other hand, the driver can communicate with the communication robot, making the most of his time. Can be used. When the vehicle is being driven manually, the communication robot placed inside the vehicle does not operate, thereby preventing problems such as the driver being unable to concentrate on driving due to being spoken to by the communication robot. Furthermore, by sending an operation stop command to the communication robot during manual operation, it is possible to stop the operation of the communication robot if it is currently in operation.

つづいて,コントローラ10によってイベントが起きる可能性が高いかどうかが確認される(ステップ73)。たとえば,走行中の道路の道幅が狭くなっている場合,人通りが多くなっている場合などは,運転手により急ブレーキが踏まれたりしてイベントが起きる可能性が高いと考えられる。イベントが起きる可能性が高い場合には(ステップ73でYES),ドライブ・レコーダ1の表示画面3に表示されている映像の表示態様を変えるようにコントローラ10によって表示制御装置13が制御される(ステップ74)。たとえば,表示画面に,「注意!」という文字を表示させたり,表示画面3に表示されている映像全体または映像の周囲などの一部を半透明の赤色,黄色などで重畳したりすることにより,映像の表示態様を変えるようにするとよい。イベントが起きる可能性が高くない場合には(ステップ73でNO),ドライブ・レコーダ1の表示画面3に表示されている映像の表示態様は変えられない。 Next, the controller 10 checks whether the event is likely to occur (step 73). For example, if the road you are driving on is narrow or there are a lot of people passing by, there is a high possibility that the driver will slam on the brakes and an event will occur. If there is a high possibility that the event will occur (YES in step 73), the display control device 13 is controlled by the controller 10 to change the display mode of the video displayed on the display screen 3 of the drive recorder 1 ( Step 74). For example, by displaying the words "Caution!" on the display screen, or by superimposing the entire image displayed on the display screen 3 or a part of the surrounding area of the image in translucent red, yellow, etc. , it is a good idea to change the display mode of the video. If the possibility of the event occurring is not high (NO in step 73), the display mode of the video displayed on the display screen 3 of the drive recorder 1 cannot be changed.

さらに,車両が走行中の場合に(停車中でもよい),その走行中の場所が以前に走行した場所と同じかどうかもコントローラ10によって確認される(ステップ75)。ドライブ・レコーダ1に装着されているメモリ・カード25には映像ファイルのヘッダ記録領域には以前に走行した場所を示すGPSデータ記録されている。ヘッダ記録領域に記録されているGPSデータと,走行中の車両に取り付けられているドライブ・レコーダ1に設けられているGPS受信器22が受信するGPSデータと,がコントローラ10によって比較されることにより,走行中の場所が以前に走行した場所と同じかどうかの確認ができる。以前と同じ場所を走行している場合には(ステップ75でYES),同じ場所であることが運転手にドライブ・レコーダ1から報知される(ステップ76)。以前と同じ場所を走行していない場合には(ステップ75でNO),同じ場所であることはドライブ・レコーダ1から報知されない。 Further, when the vehicle is running (or even when the vehicle is stopped), the controller 10 also checks whether the location where the vehicle is traveling is the same as the location where it has previously traveled (step 75). In the memory card 25 installed in the drive recorder 1, GPS data indicating previously traveled locations is recorded in the header recording area of the video file. The controller 10 compares the GPS data recorded in the header recording area with the GPS data received by the GPS receiver 22 provided in the drive recorder 1 attached to the running vehicle. , you can check whether the location you are driving is the same as the location you have previously traveled. If the driver is traveling in the same location as before (YES in step 75), the drive recorder 1 notifies the driver that the vehicle is in the same location (step 76). If the vehicle is not traveling in the same location as before (NO in step 75), the drive recorder 1 will not notify that the vehicle is in the same location.

図9は,ドライブ・レコーダ1の表示画面3の一例である。 FIG. 9 is an example of the display screen 3 of the drive recorder 1.

ドライブ・レコーダ1の表示画面3にはフロント・カメラ11によって撮影されている映
像が表示されている。表示画面3の下部に「以前に走行した場所と同じ場所を走行しています」との文字列7が表示されている。この文字列7を見ることにより運転手は以前に走行している場所と同じ場所を走行していることがわかる。既視感により走行した印象を持った場所を走行しているのか,実際に走行したことがある場所なのかが運転手はわかるようになる。以前に走行した場所と同じ場所かどうかは,完全に一致しなくとも,ある範囲内に収まる場所であればよい。
On the display screen 3 of the drive recorder 1, an image captured by the front camera 11 is displayed. At the bottom of the display screen 3, a character string 7 is displayed that reads ``You are driving in the same place where you have traveled before.'' By looking at this character string 7, it can be seen that the driver is traveling in the same location as the driver was previously traveling. Drivers will be able to tell whether they are driving in a place they have the impression of having driven through a sense of déjà vu, or in a place they have actually driven before. Whether or not the location is the same as the previous location does not have to be an exact match, as long as it falls within a certain range.

以前に走行した場所と同じ場所であることが文字列7によって表示されているが,そのような文字列7を表示しないで,あらかじめ定められたマークを表示したり,表示画面3の表示態様を変えたりしてもよい。そのようなマークを運転手が見たり,表示態様の変更を運転手が確認したりすることにより,以前に走行した場所と同じ場所を走行していることを運転手がわかる。また,ドライブ・レコーダ1がスピーカを備えている場合には,文字列7等を表示せずにスピーカから音声または音などを出力することにより,以前に走行した場所であることを運転手に報知してもよい。いずれにしても,以前に走行した場所と同じ場所を走行していることが運転手にわかればよい。 The character string 7 indicates that the location is the same as the previous location, but instead of displaying the character string 7, a predetermined mark may be displayed or the display format of the display screen 3 may be changed. You may change it. When the driver sees such a mark or confirms a change in the display format, the driver knows that the vehicle is traveling in the same location as the vehicle previously traveled. In addition, if the drive recorder 1 is equipped with a speaker, the driver is notified of the location where he or she has previously traveled by outputting voice or sound from the speaker without displaying the character string 7, etc. You may. In any case, it is sufficient for the driver to know that he/she is driving in the same location as the previous location.

図8に戻って,1フレーム分の映像データがメモリ21に一時的に記録されると,その記録されている映像データのハッシュ値(映像データから一義的に決定する第1の計算値の一例である)がコントローラ10によって算出される(ステップ77)。算出されたハッシュ値を表すデータおよび通信回路17によってブロック・チェーン・システムに送信される(ステップ78)。ブロック・チェーン・システムによって,算出されたハッシュ値を表すデータがブロック・チェーン(ブロックのトランザクション)に記録されることとなる。ブロック・チェーンは改ざんが困難なので,映像データが改ざんされたかどうかを,ハッシュ値を用いて確認できるようになる。メモリ・カード25にも算出されたハッシュ値を表すデータが記録されており,映像データの改ざんが行われたかどうかを確認する場合には,ブロック・チェーン・システムに送信されたハッシュ値を表すデータとメモリ・カード25に記録されたハッシュ値を表すデータとが比較され,ハッシュ値が一致していれば映像データの改ざんが行われていず,ハッシュ値が不一致であると映像データの改ざんが行われたと判断される。メモリ・カード25に記録されている映像データとそのハッシュ値を表すデータとは対応づけられてメモリ・カード25に記録されているのはいうまでもない。たとえば,ハッシュ値を表すデータが,ハッシュ値を算出した映像データの,どの時間の映像データから算出されたかを示すデータともに映像ファイルのヘッダ記録領域31に記録される。 Returning to FIG. 8, when one frame of video data is temporarily recorded in the memory 21, the hash value of the recorded video data (an example of a first calculated value uniquely determined from the video data) ) is calculated by the controller 10 (step 77). Data representing the calculated hash value is transmitted to the block chain system by the communication circuit 17 (step 78). The block chain system records data representing the calculated hash value on the block chain (block transactions). Since block chains are difficult to tamper with, it will be possible to use hash values to confirm whether video data has been tampered with. The data representing the calculated hash value is also recorded on the memory card 25, and when checking whether the video data has been tampered with, the data representing the hash value sent to the block chain system is used. and the data representing the hash value recorded on the memory card 25. If the hash values match, the video data has not been tampered with, and if the hash values do not match, the video data has been tampered with. It is determined that the It goes without saying that the video data recorded on the memory card 25 and the data representing its hash value are recorded on the memory card 25 in association with each other. For example, data representing a hash value is recorded in the header recording area 31 of the video file together with data indicating from which time of the video data the hash value was calculated.

このようにして,メモリ21にヘッダ・データおよび映像データが一時的に記録されると,記録されたヘッダ・データおよび映像データがメモリ21から読み出され,映像ファイルのヘッダ記録領域にヘッダ・データが書き込まれ,映像ファイルの映像記録領域に映像データが書き込まれる。 In this way, when the header data and video data are temporarily recorded in the memory 21, the recorded header data and video data are read out from the memory 21, and the header data is stored in the header recording area of the video file. is written, and the video data is written to the video recording area of the video file.

(2)再生処理
図10から図23は,再生用ビューワ・ソフトウエアを用いた再生処理についてのものである。
(2) Reproduction processing Figures 10 to 23 show reproduction processing using the reproduction viewer software.

図10は,タブレット型パーソナル・コンピュータ(再生装置の一例である)の電気的構成を示すブロック図である。 FIG. 10 is a block diagram showing the electrical configuration of a tablet personal computer (which is an example of a playback device).

タブレット型パーソナル・コンピュータ(以下,パーソナル・コンピュータという)80の全体の動作は,CPU(Central Processing Unit)80によって統括される。 The entire operation of a tablet personal computer (hereinafter referred to as a personal computer) 80 is controlled by a CPU (Central Processing Unit) 80.

パーソナル・コンピュータ80には,表示装置82が設けられている。この表示装置82は,
CPU90によって制御される表示制御装置81によって制御される。また,パーソナル・コンピュータ80には,加速度センサ93が設けられており,加速度センサ93からの出力信号は,CPU90に入力する。さらに,パーソナル・コンピュータ80には,CPU90によってアクセスされるSSD(solid state drive)94,メモリ・カード25に記録されているデータ等を読み取り,かつメモリ・カード25にデータ等を書き込むメモリ・カード・リーダ/ライタ95が含まれている。
The personal computer 80 is provided with a display device 82. This display device 82 is
It is controlled by a display control device 81 which is controlled by a CPU 90. Further, the personal computer 80 is provided with an acceleration sensor 93, and an output signal from the acceleration sensor 93 is input to the CPU 90. Furthermore, the personal computer 80 includes an SSD (solid state drive) 94 that is accessed by the CPU 90, and a memory card that reads data recorded on the memory card 25 and writes data etc. to the memory card 25. Includes reader/writer 95.

さらに,パーソナル・コンピュータ80には,キーボード,マウスなどの入力装置96,RAMなどのメモリ97およびインターネットなどのネットワークと接続する通信回路98が含まれている。 Furthermore, the personal computer 80 includes an input device 96 such as a keyboard and a mouse, a memory 97 such as a RAM, and a communication circuit 98 that connects to a network such as the Internet.

後述する動作プログラムは,インターネットを介してパーソナル・コンピュータ80の通信回路98によって受信され,パーソナル・コンピュータ80にインストールされる。インストールされたプログラムをCPU90が読み出して実行することにより,CPU90が各部を制御する。メモリ・カード25などの記録媒体に動作プログラムが格納されており,そのような記録媒体から動作プログラムが読み取られて,パーソナル・コンピュータ80にインストールされてもよい。 An operating program, which will be described later, is received by the communication circuit 98 of the personal computer 80 via the Internet and installed on the personal computer 80. The CPU 90 controls each section by reading and executing the installed program. The operating program is stored in a recording medium such as the memory card 25, and the operating program may be read from such a recording medium and installed in the personal computer 80.

図11から図13は,パーソナル・コンピュータ80における再生処理手順を示すフローチャートである。図14から図24は,パーソナル・コンピュータ80の表示装置92の表示画面に表示される再生ウインドウの一例である。 11 to 13 are flowcharts showing the reproduction processing procedure in the personal computer 80. 14 to 24 are examples of playback windows displayed on the display screen of the display device 92 of the personal computer 80.

ドライブ・レコーダ1に装着されていたメモリ・カード25がドライブ・レコーダ1から取り外され,パーソナル・コンピュータ80に装着される。パーソナル・コンピュータ80にインストールされている動作プログラムがユーザによって起動させられると,表示装置92
表示画面には,図14に示す再生ウインドウ130が表示される。
The memory card 25 installed in the drive recorder 1 is removed from the drive recorder 1 and installed in the personal computer 80. When the operating program installed on the personal computer 80 is started by the user, the display device 92
A playback window 130 shown in FIG. 14 is displayed on the display screen.

図14は,再生ウインドウ130の一例である。 FIG. 14 is an example of the playback window 130.

再生ウインドウ130には,上部にメニュー・バー131が形成されており,このメニュー・バー131の下に映像表示領域141が形成されている。さらに,映像表示領域141の下に地図画像表示領域151,車両情報等表示領域161およびプレイ・リスト表示領域171が形成されている。 A menu bar 131 is formed at the top of the playback window 130, and a video display area 141 is formed below this menu bar 131. Furthermore, a map image display area 151, a vehicle information display area 161, and a play list display area 171 are formed below the video display area 141.

メニュー・バー131は,各種項目を表示し,それぞれの項目を選択することによりプルダウン・メニューを表示し,細かな指令を与えることができるものである。メニュー・バー131には,「ファイル」,「表示」,「再生」,「ツール」および「インフォーメーション」の各文字列,フォルダ・アイコン132,カメラ・アイコン133,プリンタ・アイコン134,リール・アイコン135,FD(フレキシブル・ディスク)アイコン136,ログ・アイコン137およびギア・アイコン138が表示されている。「ファイル」,「表示」,「再生」,「ツール」および「インフォーメーション」の各文字列をプルダウンすることにより,それぞれの項目に対応したプルダウン・メニューが現れ,細かな指令を与えることができる。フォルダ・アイコン132をクリックすることによりフォルダが指定され,カメラ・アイコン133をクリックすることにより静止画に変換され,プリンタ・アイコン134をクリックすることにより印刷が行われ,リール・アイコン135がクリックされることにより動画変換が行われ,FD(フレキシブル・ディスク)アイコン136がクリックされることによりデータのバックアップが行われ,ログ・アイコン137がクリックされることによりログ・データに変換され,ギア・アイコン138がクリックされることにより記録設定の変更が行われる。映像表示領域141は,ドライブ・レコーダ1等により記録された映像を表示する領域である。地図画像表示領域151は,映像表示領域141に表示されている映像の撮影場所近
傍の地図の画像を表示する領域である。車両情報等表示領域161は,映像の記録時における車両の速度などの情報を表示する領域である。車両情報等表示領域161には,映像表示領域141に表示されている映像を記録したドライブ・レコーダ1が取り付けられている車両の状態などを表示する車両状態表示領域162,映像の再生,停止などの操作指令を与える操作ボタン163,映像表示領域141に表示されている映像の記録時刻を表示する時刻表示領域166,車両の加速度をグラフ化して表示する加速度グラフ表示領域168などが含まれている。プレイ・リスト表示領域171は,メモリ・カード25に記録されている映像ファイルのファイル名をリストで表示する領域である。
The menu bar 131 displays various items, and by selecting each item, a pull-down menu is displayed and detailed commands can be given. The menu bar 131 includes the text strings ``File,''``View,''``Play,''``Tool,'' and ``Information,'' a folder icon 132, a camera icon 133, a printer icon 134, and a reel icon. 135, an FD (flexible disk) icon 136, a log icon 137, and a gear icon 138 are displayed. By pulling down the strings ``File,''``Display,''``Playback,''``Tool,'' and ``Information,'' a pull-down menu corresponding to each item will appear, allowing detailed commands to be given. . A folder is specified by clicking the folder icon 132, a still image is converted by clicking the camera icon 133, printing is performed by clicking the printer icon 134, and a reel icon 135 is clicked. By clicking, video conversion is performed, by clicking the FD (flexible disk) icon 136, the data is backed up, by clicking the log icon 137, it is converted to log data, and by clicking the gear icon By clicking 138, the recording settings are changed. The video display area 141 is an area for displaying video recorded by the drive recorder 1 or the like. The map image display area 151 is an area that displays an image of a map near the shooting location of the video displayed in the video display area 141. The vehicle information etc. display area 161 is an area that displays information such as the speed of the vehicle at the time of video recording. The vehicle information display area 161 includes a vehicle status display area 162 that displays the status of the vehicle to which the drive recorder 1 that recorded the video displayed in the video display area 141 is installed, and a vehicle status display area 162 that displays the status of the vehicle, such as video playback, stop, etc. It includes an operation button 163 for giving operation commands, a time display area 166 for displaying the recording time of the video displayed in the video display area 141, an acceleration graph display area 168 for displaying a graph of the acceleration of the vehicle, etc. . The play list display area 171 is an area where file names of video files recorded on the memory card 25 are displayed in a list.

フォルダ・アイコン132がクリックされ,映像ファイルが格納されているフォルダが選択されると,そのフォルダに格納されている映像ファイルのファイル名が,図14に示すように,プレイ・リスト表示領域171に,映像ファイルのファイル名がクリック可能に表示される。映像の記録開始時刻がファイル名とされているが,記録開始時刻以外をファイル名としてもよいのは言うまでもない。 When the folder icon 132 is clicked and a folder containing video files is selected, the file names of the video files stored in that folder are displayed in the play list display area 171, as shown in FIG. , the file name of the video file is displayed in a clickable manner. Although the video recording start time is used as the file name, it goes without saying that the file name may be anything other than the recording start time.

プレイ・リスト表示領域171に表示されているファイル名のうち,いずれかのファイル名が入力装置96に含まれているマウスを用いてクリックされると,対応する映像ファイルがメモリ・カード25から読み出される。読み出された映像ファイルに格納されている映像データの再生が開始する(図11ステップ111)。映像ファイルのヘッダ記録領域には,映像データの記録時刻に対応して各種のヘッダ・データが記録されており,記録時刻の映像が表示される時に記録されたヘッダ・データも読み出され,読み出されたヘッダ・データの内容に応じて映像に種々の重畳処理等が行われる。 When one of the file names displayed in the play list display area 171 is clicked using the mouse included in the input device 96, the corresponding video file is read out from the memory card 25. It will be done. Playback of the video data stored in the read video file starts (step 111 in FIG. 11). In the header recording area of a video file, various header data are recorded in accordance with the recording time of the video data, and when the video at the recording time is displayed, the recorded header data is also read and read. Various superimposition processes and the like are performed on the video depending on the contents of the output header data.

映像データの再生(再生される映像データは,映像を閲覧するユーザが運転したときに撮影され,記録されたものでもよいし,映像を閲覧するユーザ以外のユーザが運転したときに撮影され,記録されたものでもよい)が開始すると,図15に示すように,映像表示領域141に映像データによって表される映像が動画で表示される。また,その映像データが格納されている映像ファイルに記録されているGPS情報を表すデータがインターネットを介して地図の画像を表すデータを送信するウェブ・サイトに送信される。すると,そのサイトから,映像表示領域141に表示されている映像を記録した場所近傍の地図を表す画像データが,パーソナル・コンピュータ80に送信される。地図を表す画像データが,パーソナル・コンピュータ80において受信されると,地図画像表示領域151に地図の画像が表示される。地図の画像には,映像表示領域141に表示されている場所を表す矢印のアイコン152も表示される。また,車両情報等表示領域161の車両状態表示領域162には,映像表示領域141に表示されている映像を記録している時の車両の速度,車両の前後方向加速度(X),車両の左右方向の加速度(Y),車両の上下方向の加速度(Z),車両の位置を示す緯度(N)および車両の位置を示す経度(E)が表示される。時刻表示領域166には,映像表示領域141に表示されている映像の記録時刻が表示され,加速度グラフ表示領域168には加速度のグラフが表示される。 Playback of video data (The video data to be played may be one that was shot and recorded while the user viewing the video was driving, or one that was shot and recorded while a user other than the user viewing the video was driving) 15), the video represented by the video data is displayed in the video display area 141 as a moving image, as shown in FIG. Further, data representing GPS information recorded in the video file in which the video data is stored is transmitted via the Internet to a web site that transmits data representing the map image. Then, image data representing a map near the location where the video displayed in the video display area 141 was recorded is transmitted from that site to the personal computer 80. When image data representing a map is received by the personal computer 80, the map image is displayed in the map image display area 151. An arrow icon 152 representing the location displayed in the video display area 141 is also displayed on the map image. In addition, the vehicle status display area 162 of the vehicle information etc. display area 161 displays the speed of the vehicle when recording the video displayed in the video display area 141, the longitudinal acceleration (X) of the vehicle, and the left and right acceleration of the vehicle. The acceleration in the direction (Y), the acceleration in the vertical direction of the vehicle (Z), the latitude (N) indicating the vehicle position, and the longitude (E) indicating the vehicle position are displayed. The time display area 166 displays the recording time of the video displayed in the video display area 141, and the acceleration graph display area 168 displays an acceleration graph.

映像データは,全方位について記録しているから,車両の進行方向から見える被写体の映像だけでなく,後方(進行方向とは反対方向)の被写体の映像,車両の左方向(車両の進行方向を基準にした左方向)または車両の右方向(車両の進行方向を基準とした右方向)の被写体も表示させることもできる。図16は,映像表示領域141に後方の被写体の映像を表示した再生ウインドウ130を示しており,図17は,映像表示領域141に右方向の被写体の映像を表示した再生ウインドウ130を示しており,図18は,映像表示領域141に左方向の被写体の映像を表示した再生ウインドウ130を示している。たとえば,図15に示す状態でマウスを用いて右方向にドラッグすると,進行方向の被写体の映像から右方向の被写体の映像に徐々に切り替わり,図17に示すように右方向の被写体の映像が映像表示領域141に表示される。図17に示す状態でマウスを用いてさらに右方向にドラッグすると,右方向の被
写体の映像から徐々に切り替わり,図16に示すように後方の被写体の映像が映像表示領域141に表示される。図16に示す状態でマウスを用いてさらに右方向にドラッグすると,後方の被写体の映像から徐々に切り替わり,図18に示すように左方向の被写体の映像が映像表示領域141に表示される。図18に示す状態でマウスを用いてさらに右方向にドラッグすると,左方向の被写体の映像から徐々に切り替わり,図15に示すように進行方向の被写体の映像が映像表示領域141に表示される。このように全方位の被写体の映像を映像表示領域141に表示することができる。上述の実施例ではマウスを用いて右方向にドラッグしているが,左方向にドラッグしても,上述したのと同様に,図15に示すように進行方向の被写体の映像から,図18に示すように左方向の被写体の映像に徐々に切り替わり,さらに,図16に示すように後方の被写体の映像に徐々に切り替わり,図17に示すように右方向の被写体の映像に徐々に切り替わり,図15に示すように進行方向の被写体の映像に徐々に切り替わる。
Video data is recorded in all directions, so it includes not only images of objects visible from the direction of travel of the vehicle, but also images of objects behind (opposite to the direction of travel) and to the left of the vehicle (in the direction of travel of the vehicle). It is also possible to display objects to the left (with reference to the direction of travel of the vehicle) or to the right of the vehicle (to the right with respect to the traveling direction of the vehicle). FIG. 16 shows a playback window 130 in which an image of a subject to the rear is displayed in the image display area 141, and FIG. 17 shows a playback window 130 in which an image of a subject to the right is displayed in the image display area 141. , FIG. 18 shows a playback window 130 in which a video of a subject to the left is displayed in a video display area 141. For example, if you drag the mouse to the right in the state shown in Figure 15, the image of the object in the forward direction will gradually switch to the image of the object in the right direction, and as shown in Figure 17, the image of the object in the right direction will change to the image of the object in the right direction. Displayed in display area 141. If you drag the mouse further to the right in the state shown in FIG. 17, the image will gradually change from the image of the object to the right, and the image of the object behind will be displayed in the image display area 141 as shown in FIG. If the user drags the mouse further to the right in the state shown in FIG. 16, the image gradually changes from the image of the object behind, and the image of the object to the left is displayed in the image display area 141, as shown in FIG. If the user drags the mouse further to the right in the state shown in FIG. 18, the image gradually changes from the image of the object in the left direction, and the image of the object in the advancing direction is displayed in the image display area 141, as shown in FIG. In this way, images of the subject in all directions can be displayed in the image display area 141. In the above example, the mouse is used to drag the mouse to the right, but even if the mouse is dragged to the left, the image of the object in the advancing direction as shown in FIG. The image gradually switches to the image of the object to the left as shown in Fig. 16, and then gradually changes to the image of the object to the rear as shown in Fig. 17. As shown in Figure 15, the image gradually switches to the image of the subject in the direction of travel.

この実施例では,映像表示領域141に映像が表示されると,映像に視野範囲が重畳される(図11ステップ111)。 In this embodiment, when a video is displayed in the video display area 141, the viewing range is superimposed on the video (step 111 in FIG. 11).

図19は,ユーザの視野範囲が表示されている状態を示す再生ウインドウ130の一例である。 FIG. 19 is an example of the playback window 130 showing a state in which the user's visual field range is displayed.

映像表示領域141には,映像データによって表される映像上に視野範囲を示す枠143がCPU90によって重畳(映像に表示する加工処理の一例である)して表示されている。視野範囲外の領域142の映像部分はCPU90によってぼかされている(ぼかされていることを示すためにハッチングが示されている)。視野範囲は,ユーザの年齢ごとにあらかじめ定められており,視野範囲を表すデータはSSD94にあらかじめ記録されている。ユーザの年齢を指定することにより,指定された年齢に対応する視野範囲を表すデータがSSD94から読み取られ,図19に示すように視野範囲示す枠143および視野範囲外の領域142がぼかされる(取得した情報にもとづいて映像データを加工処理し,加工処理後の映像データにもとづく映像を表示させるための制御の一例である)。もちろん,ユーザごとにユーザの視野範囲をあらかじめ検出しておき,ユーザに固有の視野範囲を表すデータをSSD94にあらかじめ記録しておいてもよい。ユーザごとの視野範囲を示す枠143が映像に重畳されることとなる。ユーザは視野範囲がわかるので,どの範囲が見えていて,どの範囲が見えていないかを認識できる。 In the video display area 141, a frame 143 indicating a viewing range is displayed by the CPU 90 superimposed on the video represented by the video data (this is an example of processing to be displayed on the video). The portion of the image outside the field of view 142 is blurred by the CPU 90 (hatching is shown to indicate blurring). The visual field range is predetermined for each user's age, and data representing the visual field range is recorded in the SSD 94 in advance. By specifying the user's age, data representing the visual field range corresponding to the specified age is read from the SSD 94, and the frame 143 indicating the visual field range and the area 142 outside the visual field range are blurred (obtained) as shown in FIG. This is an example of control for processing video data based on the processed information and displaying a video based on the processed video data). Of course, the visual field range of each user may be detected in advance, and data representing the user's unique visual field range may be recorded in the SSD 94 in advance. A frame 143 indicating the visual field range for each user will be superimposed on the video. Since the user can see the field of view, he or she can recognize what range is visible and what range is not visible.

また,視野範囲外の領域142に注意すべき対象物(たとえば,幼児など)が存在するかどうかもCPU90によって判断される(図11ステップ113)。視野範囲外の領域142に注意すべき対象物が存在する場合には(図11ステップ113でYES),ユーザに対して警告(ユーザに対する報知の一例である)が行われる(ステップ114)。たとえば,注意すべき対象物が表示される部分を枠で囲んだり,マークを表示したりする。視野範囲外の領域142に注意すべき対象物が存在するかどうかは,注意すべき対象物をあらかじめ定めておき,CPU90が映像解析を行い,その対象物の画像が視野範囲外の領域142に表示されていることをCPU90が検出したかどうかにもとづいて行われればよい。ユーザは視野範囲外に注意すべき対象物の存在があることが分かるので,必要に応じて首を振って視野範囲を実質的に広げながら運転することが事故の未然防止につながるということが理解できる。視野範囲外の領域142に注意すべき対象物が存在しない場合には(図11ステップ113でNO),ステップ114の処理はスキップされ,警告は行われない。視野範囲外の領域142に注意すべき対象物が存在する場合に,ユーザに報知されればよいので,必ずしも視野範囲外の領域142に表示されなくともよい。たとえば,音の出力によりユーザに報知してもよい。 The CPU 90 also determines whether there is an object (for example, an infant) that requires attention in the area 142 outside the visual field (step 113 in FIG. 11). If there is an object to be noted in the area 142 outside the field of view (YES in step 113 in FIG. 11), a warning (this is an example of notification to the user) is given to the user (step 114). For example, a frame or a mark may be placed around the area where an object to be noted is displayed. To determine whether there is an object to be careful of in the area 142 outside the visual field, the object to be careful is determined in advance, the CPU 90 performs video analysis, and the image of the object is detected in the area 142 outside the visual field. This may be done based on whether or not the CPU 90 detects that it is being displayed. The user understands that there are objects that need attention outside the field of view, and that driving while driving while substantially expanding the field of vision by shaking the head as necessary can help prevent accidents. can. If there is no object to be noted in the area 142 outside the visual field (NO in step 113 in FIG. 11), the process in step 114 is skipped and no warning is issued. If there is an object to be noted in the area 142 outside the viewing range, the user may be notified, so it does not necessarily have to be displayed in the area 142 outside the viewing range. For example, the user may be notified by outputting a sound.

また,CPU90によってユーザの視線を示すマーク144が映像表示領域141に重畳される(ユーザの視線を映像に表示する加工処理の一例である)(図11ステップ115)。ユーザ
の視線を示すデータは,映像の記録時刻と対応づけられて映像ファイルのヘッダ記録領域31に記録されているので,ヘッダ記録領域31からユーザの視線を示すデータを読み取ることにより,表示されている映像の記録時刻にユーザの視線を表すマークを,映像表示領域141に表示されている映像に重畳できる。映像にユーザの視線が重畳されるので,ユーザが本来見ていなければならない被写体(たとえば,信号機,対向車,歩行者など)を見ているかどうかを確認できる。
Further, a mark 144 indicating the user's line of sight is superimposed on the video display area 141 by the CPU 90 (this is an example of a processing process for displaying the user's line of sight on the video) (step 115 in FIG. 11). Data indicating the user's line of sight is recorded in the header recording area 31 of the video file in association with the video recording time, so by reading the data indicating the user's line of sight from the header recording area 31, the data can be displayed. A mark representing the user's line of sight can be superimposed on the video displayed in the video display area 141 at the recording time of the video. Since the user's line of sight is superimposed on the video, it is possible to check whether the user is looking at objects that they should be looking at (for example, traffic lights, oncoming cars, pedestrians, etc.).

図19に示す例では,ユーザの視線とは無関係に視野範囲の枠143とユーザの視線を示すマーク144とを表示している。すなわち,視野範囲の枠143は,映像表示領域141に表示されている映像をユーザが見た場合に,この範囲が視野範囲となるであろう範囲を視野範囲の枠143で示しているので,ユーザの運転時の視線に関係なく,映像表示領域141のほぼ中央部分に視野範囲の枠143が表示されている。たとえば,ユーザの視線が映像の中央部分でなく,映像表示領域141に表示されている映像の端部に視線があった場合でも,映像表示領域141のほぼ中央部分に視野範囲の枠143が表示される。これに対して,ユーザの実際の視線を中心に視野範囲の枠143が映像表示領域141に表示されるようにしてもよい。ユーザの実際の運転時の視野範囲がわかる。この場合も,視野範囲外の領域142のぼかし処理などを行ってもよい。視野範囲の枠143内の領域がユーザによる車両の運転中に,ユーザによって見えている範囲の一例となり,視野範囲外の領域142がユーザによる車両の運転中に,ユーザによって見えていない範囲の一例となり,これらの範囲を区別して表示させる一例となる。 In the example shown in FIG. 19, a frame 143 of the visual field range and a mark 144 indicating the user's line of sight are displayed regardless of the user's line of sight. In other words, the viewing range frame 143 indicates the range that will be the viewing range when the user views the video displayed in the video display area 141. A viewing range frame 143 is displayed approximately in the center of the video display area 141 regardless of the user's line of sight while driving. For example, even if the user's line of sight is not at the center of the image but at the edge of the image displayed in the image display area 141, the field of view frame 143 is displayed approximately at the center of the image display area 141. be done. On the other hand, a frame 143 of the viewing range may be displayed in the video display area 141 centered on the user's actual line of sight. The user's field of view when actually driving can be seen. In this case as well, blurring processing or the like may be performed on the area 142 outside the viewing range. The area within the viewing range frame 143 is an example of the range that is visible to the user while the user is driving the vehicle, and the area 142 outside the viewing range is an example of the area that is not visible to the user while the user is driving the vehicle. This is an example of displaying these ranges separately.

映像表示領域142に表示されている映像の記録時刻においてユーザが向いている方向が変わった場合には(図11ステップ116でYES),変わった方向に視野範囲の枠143を動かして映像に重畳する(図11ステップ117)。ユーザが向いている方向が変わったかどうかは,映像ファイルのヘッダ記録領域に記録されている,ユーザの向いている方向を示すデータにもとづいて判断できる。ユーザが向いている方向が変わらなければ(図11ステップ116でNO),視野範囲の枠143は動かされない。 If the direction in which the user is facing changes at the recording time of the video displayed in the video display area 142 (YES in step 116 in FIG. 11), the viewing range frame 143 is moved in the changed direction and superimposed on the video. (Figure 11 Step 117). Whether the direction in which the user is facing has changed can be determined based on data indicating the direction in which the user is facing, which is recorded in the header recording area of the video file. If the direction in which the user is facing does not change (NO in step 116 in FIG. 11), the field of view frame 143 is not moved.

図20は,視野範囲の枠143が動かされる一例である。 FIG. 20 is an example in which the viewing range frame 143 is moved.

映像表示領域141に表示されている映像の記録時にユーザの向いている方向が進行方向のほぼ正面から右下方向に変わったものとする。すると,視野範囲の枠143の位置から視野範囲の枠143Aの位置に動かされる。また,視線を示すマーク144の位置から視線を示すマーク144Aの位置に動かされる。ユーザは向いている方向が変わったことにより,視野範囲も変わったことを認識できる。ユーザが向いている方向が変わった場合,映像表示領域141に表示されている映像と視野範囲を示す枠143(143A)の相対的位置も変わる。このために,映像と視野範囲を示す枠143の相対的位置が変わらないように(たとえば,映像のほぼ中央に視野範囲を示す枠143が表示されるように)してもよい。たとえば,マウスでドラッグされた場合に映像表示領域141に表示される映像を変えるのと同じようにユーザが向いている方向が変わった方向の映像を表示してもよい。 It is assumed that the direction in which the user is facing at the time of recording the video displayed in the video display area 141 changes from approximately the front in the direction of travel to the lower right direction. Then, the position of the viewing range frame 143 is moved to the position of the viewing range frame 143A. Further, the position of the mark 144 indicating the line of sight is moved to the position of the mark 144A indicating the line of sight. The user can recognize that the field of view has also changed due to the change in the direction in which the user is facing. When the direction in which the user is facing changes, the relative position of the image displayed in the image display area 141 and the frame 143 (143A) indicating the visual field range also changes. For this reason, the relative positions of the image and the frame 143 indicating the viewing range may be made to remain unchanged (for example, the frame 143 indicating the viewing range may be displayed approximately in the center of the image). For example, in the same way as changing the image displayed in the image display area 141 when dragged with a mouse, an image may be displayed in a direction in which the user is facing a different direction.

つづいて,ユーザの視線とユーザが見るべき方向とが一致しているかどうかが判断される(図12ステップ118)。一致していなければ(図12ステップ118でNO),見るべき箇所を示すマークを映像表示領域141上に表示し(図12ステップ119),一致していれば(図12ステップ118でYES),見るべき箇所を示すマークを映像表示領域141上に表示しない。もっとも,一致している場合に,一致している旨をユーザに報知(映像表示領域141上に表示,音出力など)してもよい。見るべき方向は,記録時の運転(右折,左折,車線方向など)またはユーザによる車の運転の操作(ブレーキ操作,ウインカー・レバーの操作など)に応じて異なるのはいうまでもない。 Next, it is determined whether the user's line of sight matches the direction in which the user should look (step 118 in FIG. 12). If they do not match (NO in step 118 in FIG. 12), a mark indicating the location to be viewed is displayed on the video display area 141 (step 119 in FIG. 12), and if they match (YES in step 118 in FIG. 12), A mark indicating a place to be viewed is not displayed on the video display area 141. However, if they match, the user may be notified of the match (by displaying on the video display area 141, outputting sound, etc.). Needless to say, the direction to be viewed differs depending on the driving at the time of recording (right turn, left turn, lane direction, etc.) or the user's driving operation (brake operation, turn signal lever operation, etc.).

図21は,見るべき箇所を示すマークが表示されている一例である。 FIG. 21 is an example in which marks are displayed to indicate the places to look at.

映像表示領域141に表示されている映像において右下の箇所をユーザが見なければならなかったにもかかわらず,ユーザは見ていなかった(たとえば,正面を見ていた)とすると,その右下の箇所を見るべき箇所であったとしてマーク144が映像表示領域141に表示される(ユーザの見るべき箇所を映像に表示する加工処理の一例である)。表示されている映像を解析したり,映像の記録時のイベントを示すイベント・データ(ウインカー・レバーの操作,急ブレーキなど)が映像ファイルのヘッダ記録領域に記録されている場合には,その記録されているイベント・データを読み取ったりして見るべき箇所がどこかCPU90によって決定される。たとえば,ウインカー・レバーを操作して左側車線から右側車線に車線変更した場合に,右サイド・ミラーを見ていなかった場合には,その右サイド・ミラーを見るべき箇所としてマーク145が表示される。また,右折,左折などあらかじめ定まった場所を確認しなければならない場合には,そのような場所を見ていない場合に見るべき箇所として表示するようにしてもよい。 Even though the user should have looked at the lower right part of the video displayed in the video display area 141, if the user was not looking (for example, was looking straight ahead), then the lower right part of the video displayed in the video display area 141 A mark 144 is displayed in the video display area 141 to indicate that the location is the location that the user should see (this is an example of a processing process for displaying the location that the user should see on the video). If the displayed video is analyzed or event data indicating the event at the time of video recording (operation of turn signal lever, sudden braking, etc.) is recorded in the header recording area of the video file, that record is recorded. The CPU 90 determines where to read and view the event data being displayed. For example, if you operate the turn signal lever to change lanes from the left lane to the right lane, and you are not looking in the right side mirror, mark 145 will be displayed as the place to look in the right side mirror. . Furthermore, when it is necessary to confirm a predetermined place such as a right turn or a left turn, such a place may be displayed as a place to be seen if the user is not looking at such a place.

さらに,見るべき箇所をユーザが見ていない場合に,映像表示領域141における動画での映像表示を一時的に停止して,その場面の画像(静止画)を映像表示領域141に表示するようにしてもよい。動画では,ユーザが見るべき箇所を見ていない場面が一瞬で終わってしまうのに対して,停止した状態の画像が映像表示領域141に表示されるので,ユーザに対してより注意を喚起できる。 Furthermore, when the user is not looking at a part that should be viewed, the video display in the video display area 141 is temporarily stopped, and an image (still image) of that scene is displayed in the video display area 141. It's okay. In a video, a scene in which the user is not looking at the part they should be looking at ends in an instant, whereas a stopped image is displayed in the video display area 141, which can draw the user's attention more.

さらに,映像表示領域141に表示されている映像の被写体の動きの変化が無い(少ない)映像部分については(図12ステップ120でYES),CPU90によって表示速度が相対的に速くさせられる(図12ステップ121)。映像の被写体の動きの変化が有る(大きい)映像部分については(図12ステップ120でNO),表示速度は相対的に速くされない。被写体の動きの変化が無い(少ない)か有る(大きい)かは,映像のフレーム間の差分を比較すればわかる。被写体の動きの変化が無い(少ない)映像部分は,歩行者の飛び出し,対向車のはみ出しなど重要な場面ではないと考えられるので,表示速度を速くしても問題が無い。また,車両の位置が変化していない映像部分は車両が停止しているので,あまり事故が起きにくく重要ではないとも考えられる。このために,車両の位置が変化していない映像部分についても表示速度を速くしてもよい。 Furthermore, for the video portion of the video displayed in the video display area 141 where there is no (small) change in the movement of the subject (YES in step 120 in FIG. 12), the display speed is made relatively faster by the CPU 90 (FIG. 12 Step 121). For video parts where there is (large) change in the movement of the subject of the video (NO in step 120 in FIG. 12), the display speed is not relatively increased. Whether there is no (little) or significant (large) change in the movement of the subject can be determined by comparing the differences between video frames. Video parts where there is no (small) change in subject movement are not considered to be important scenes such as pedestrians running out or oncoming cars running out, so there is no problem even if the display speed is increased. Additionally, since the vehicle is stationary in the video portion where the vehicle's position does not change, it is thought that accidents are less likely to occur and are not important. For this reason, the display speed may be increased even for video portions where the position of the vehicle has not changed.

さらに,表示装置92の向きが変えられたかどうかもCPU90によって判断される(図12ステップ122)。向きが変えられた場合には(図12ステップ122でYES),その向きに応じて映像表示領域141に表示される映像の表示範囲が変えられる(図12ステップ123)。向きが変えられていない場合には(図12ステップ122でNO),変えられた向きに応じて映像の表示範囲を変えることは行われない。表示装置92の向きが変えられたかどうか,どの方向に変えられたかどうかは加速度センサ93によって検出できる。ある方向に向いていた表示装置92の表示画面に車両の進行方向の映像(図17参照)が表示されているとする。ある方向に向いていた表示装置92が右方向に向けられた場合には,映像表示領域141に表示されている映像が右方向にドラッグされた場合と同様に右方向の映像(図17参照)が映像表示領域141に表示される。同様に,ある方向に向いていた表示装置92が左方向に向けられた場合には,映像表示領域141に表示されている映像が左方向にドラッグされた場合と同様に左方向の映像(図18参照)が映像表示領域141に表示される。また,ある方向に向いていた表示装置92が後ろ方向に向けられた場合には,後ろ方向の映像(図18参照)が映像表示領域141に表示される。このように車両の進行方向を基準方向として映像の表示範囲を変えることは映像データの加工処理の一例である。疑似的なVR(virtual reality)表示ができるようになる。 Further, the CPU 90 also determines whether the orientation of the display device 92 has been changed (step 122 in FIG. 12). If the orientation has been changed (YES in step 122 in FIG. 12), the display range of the video displayed in the video display area 141 is changed according to the orientation (step 123 in FIG. 12). If the orientation has not been changed (NO in step 122 in FIG. 12), the display range of the video is not changed in accordance with the changed orientation. The acceleration sensor 93 can detect whether the orientation of the display device 92 has been changed and in which direction. Assume that an image in the direction in which the vehicle is traveling (see FIG. 17) is displayed on the display screen of the display device 92 that was facing in a certain direction. When the display device 92, which was facing in a certain direction, is turned to the right, the image displayed in the image display area 141 is moved to the right in the same way as if it were dragged to the right (see Figure 17). is displayed in the video display area 141. Similarly, when the display device 92, which was facing in a certain direction, is turned to the left, the image displayed in the image display area 141 is dragged to the left (Fig. 18) is displayed in the video display area 141. Further, when the display device 92, which was facing in a certain direction, is turned backward, a rearward image (see FIG. 18) is displayed in the image display area 141. Changing the display range of the video using the direction of travel of the vehicle as the reference direction in this way is an example of processing of video data. It becomes possible to display pseudo VR (virtual reality).

さらに,映像表示領域141に表示されている映像の記録時刻に車両の状況に関する情報
が映像ファイルのヘッダ記録領域31に記録されているかどうかがCPU90によって判断される(図12ステップ124)。車両の状況に関する情報が記録されている場合には(図12ステップ124でYES),その車両の状況に関する情報が映像表示領域141に表示される。車両の状況に関する情報が記録されていない場合には(図12ステップ124でNO),その車両の状況に関する情報は映像表示領域141に表示されない。
Further, the CPU 90 determines whether information regarding the vehicle situation is recorded in the header recording area 31 of the video file at the recording time of the video displayed in the video display area 141 (step 124 in FIG. 12). If information regarding the vehicle status is recorded (YES in step 124 in FIG. 12), the information regarding the vehicle status is displayed in the video display area 141. If the information regarding the vehicle situation is not recorded (NO in step 124 in FIG. 12), the information regarding the vehicle situation is not displayed in the video display area 141.

図22は,車両の状況に関する情報が映像表示領域141に表示されている一例である。 FIG. 22 is an example in which information regarding the status of the vehicle is displayed in the video display area 141.

映像表示領域141に,第1の表示態様での吹き出し146が表示されている。この吹き出し146に,映像表示領域141に表示されている映像の記録時刻での車両の状況に関する情報が表示されている。図22に示す例では,吹き出し146に「ブレーキが踏まれた!!」との文字列が表示されており,映像表示領域141に表示されている映像の記録時刻において車両のブレーキ(急ブレーキ)が踏まれたことが分かる。車両の状況に関する情報を表すデータも時刻データに対応づけられて映像ファイルのヘッダ記録領域31に記録されており,そのヘッダ記録領域31から読み出される。もっとも,たとえば,急激な加速度の変化から車両に起きた状況をCPU90において推測して車両の状況に関する情報として吹き出し146に表示するようにしてもよい。たとえば,ある記録時刻において,車両の前後方向の加速度が急激に負方向に変化した場合には急ブレーキが踏まれたと考えられるので,そのような加速度が発生したときの映像に図22に示す吹き出し146と同じ吹き出しを表示するようにしてもよい。 A speech bubble 146 in the first display mode is displayed in the video display area 141. This balloon 146 displays information regarding the state of the vehicle at the recording time of the video displayed in the video display area 141. In the example shown in FIG. 22, the character string "The brake was pressed!!" is displayed in the speech bubble 146, and the vehicle was braked (suddenly) at the recording time of the video displayed in the video display area 141. I can see that it was stepped on. Data representing information regarding the vehicle status is also recorded in the header recording area 31 of the video file in association with the time data, and is read from the header recording area 31. However, for example, the CPU 90 may estimate the situation that has occurred in the vehicle from a sudden change in acceleration and display it in the balloon 146 as information regarding the situation of the vehicle. For example, if the acceleration in the longitudinal direction of the vehicle suddenly changes in the negative direction at a certain recording time, it is considered that the brakes were suddenly pressed, so the speech bubble shown in Figure 22 is added to the video when such acceleration occurs. The same speech bubble as 146 may be displayed.

さらに,地図画像表示領域151に表示されている地図の画像のうちいずれかの位置がユーザによってマウスを用いて指定されると(図13ステップ126でYES),指定された位置を表すデータがサーバに送信され,その位置の緯度および経度をそれぞれ示すデータがサーバからパーソナル・コンピュータ80に送信される。パーソナル・コンピュータ80において緯度および経度をそれぞれ示すデータが受信されると,映像表示領域141に表示される映像のうち,その緯度および経度に最も近い位置において撮影された映像の場面が見つけられ,その場面からの映像が映像表示領域141に表示される(図13ステップ127)。地図の画像のうちいずれもの位置も指定されなければ(図13ステップ126でNO),ステップ127の処理はスキップされ,地図の画像の中の位置を指定することによる映像の表示は行われない。また,地図の画像において指定された位置の映像を映像表示領域141に表示しているが,映像表示領域141に表示される映像は,ユーザが乗車した車両に設置されたドライブ・レコーダによって記録された映像と,第三者の車両に設置されたドライブ・レコーダによって記録された映像とのうち,いずれか一方または両方の映像を映像表示領域141に表示するようにしてもよい。その場合,サーバに,第三者の車両に設置されたドライブ・レコーダによって記録された映像を表すデータが格納されており,ユーザによって指定された位置の場所を記録した映像データがサーバから読み出され,パーソナル・コンピュータ80に送信されることとなる。第三者の車両に設置されたドライブ・レコーダによって記録された映像を表すデータがサーバに多数記録されている場合には,それらの映像のうちパーソナル・コンピュータ80に表示させる映像をユーザに選択させ,選択された映像を表示装置92の表示画面に表示させるようにするとよい。 Furthermore, when the user specifies the position of any of the map images displayed in the map image display area 151 using the mouse (YES in step 126 of FIG. 13), the data representing the specified position is transferred to the server. data indicating the latitude and longitude of the location are transmitted from the server to the personal computer 80. When data indicating latitude and longitude are received by the personal computer 80, the scene of the video displayed in the video display area 141 that was shot at the position closest to the latitude and longitude is found, and the scene of the video displayed in the video display area 141 is found. The video from the scene is displayed in the video display area 141 (step 127 in FIG. 13). If no position in the map image is specified (NO in step 126 in FIG. 13), the process in step 127 is skipped, and no video is displayed by specifying a position in the map image. Furthermore, although the video of the specified position in the map image is displayed in the video display area 141, the video displayed in the video display area 141 is recorded by a drive recorder installed in the vehicle in which the user is riding. The video display area 141 may display either or both of the video recorded by the driver and the video recorded by a drive recorder installed in a third party's vehicle. In that case, the server stores data representing the video recorded by the drive recorder installed in the third party's vehicle, and the video data recording the location specified by the user is read out from the server. The data will be sent to the personal computer 80. If a large number of data representing images recorded by a drive recorder installed in a third party's vehicle are recorded on the server, the user is allowed to select the image to be displayed on the personal computer 80 from among those images. , the selected video may be displayed on the display screen of the display device 92.

さらに,映像表示領域141に表示されている映像の記録時刻に路車間通信または車車間通信の情報が映像ファイルのヘッダ記録領域31に記録されているかどうかがCPU90によって判断される(図13ステップ128)。路車間通信または車車間通信の情報が記録されている場合には(図13ステップ128でYES),その路車間通信または車車間通信の情報が映像表示領域141に表示される。路車間通信および車車間通信の情報が記録されていない場合には(図13ステップ128でNO),その路車間通信または車車間通信の情報は映像表示領域141に表示されない。 Furthermore, the CPU 90 determines whether information on road-to-vehicle communication or vehicle-to-vehicle communication is recorded in the header recording area 31 of the video file at the recording time of the video displayed in the video display area 141 (step 128 in FIG. 13). ). If information on road-to-vehicle communication or vehicle-to-vehicle communication is recorded (YES in step 128 in FIG. 13), the information on the road-to-vehicle communication or vehicle-to-vehicle communication is displayed in the video display area 141. If the information on the road-to-vehicle communication and the vehicle-to-vehicle communication is not recorded (NO in step 128 in FIG. 13), the information on the road-to-vehicle communication or the vehicle-to-vehicle communication is not displayed in the video display area 141.

図23は,路車間通信(車車間通信でも同様である)の情報が映像表示領域141に表示されている一例である。 FIG. 23 is an example in which information on road-to-vehicle communication (the same applies to vehicle-to-vehicle communication) is displayed in the video display area 141.

映像表示領域141に,上述した(図22参照)吹き出し146の第1の表示態様と異なる態様である第2の表示態様での吹き出し147が表示されている。この吹き出し147に,映像表示領域141に表示されている映像の記録時刻での路車間通信の情報が表示されている。図23に示す例では,吹き出し147に「前方左に走行車両あり」との文字列が表示されており,映像表示領域141に表示されている映像の記録時刻において車両の前方の左に走行車両が存在したことが分かる。路車間通信および車車間通信の情報を表すデータも時刻データに対応づけられて映像ファイルのヘッダ記録領域31に記録されており,そのヘッダ記録領域31から読み出される。路車間通信および車車間通信の情報を得たユーザは,映像の記録時にその情報にもとづいてどのような車両の操作を行ったか(たとえば,減速したかどうか)を確認できるようになる。 In the video display area 141, a speech balloon 147 is displayed in a second display mode that is different from the first display mode of the speech balloon 146 described above (see FIG. 22). This balloon 147 displays information about the road-to-vehicle communication at the recording time of the video displayed in the video display area 141. In the example shown in FIG. 23, the text string "There is a vehicle running ahead and to the left" is displayed in the speech bubble 147, and there is a vehicle running ahead and to the left of the vehicle at the recording time of the video displayed in the video display area 141. It turns out that there was. Data representing information on road-to-vehicle communication and vehicle-to-vehicle communication is also recorded in the header recording area 31 of the video file in association with time data, and is read from the header recording area 31. Users who have obtained information on road-to-vehicle communications and vehicle-to-vehicle communications will be able to check what vehicle operations they have performed (for example, whether they have decelerated) based on that information when recording video.

図11に示す再生処理手順においては,視野範囲外に注意対象物が存在するかの処理(図11ステップ113),ユーザの向いている方向が変わったかどうかの処理(図11ステップ113),ユーザの視線とユーザが見るべき方向とが一致しているかどうかの処理(図12ステップ118),被写体の動きの変化が無いかどうかの処理(図12ステップ120),表示装置92の向きが変えられたかどうかの処理(図12ステップ122),車両の状況に関する情報があるかどうかの処理(図12ステップ124),地図の画像の中の位置が指定されたかどうかの処理(図13ステップ126),車車間通信または路車間通信の情報が得られたかどうかの処理(図13ステップ128)の順に各処理が行われているが,これらの処理の順序は任意でよく,それぞれの処理が並行して行われていてもよい。 In the playback processing procedure shown in Figure 11, there is a process to determine whether there is an object of attention outside the field of view (Step 113 in Figure 11), a process to determine whether the direction the user is facing has changed (Step 113 in Figure 11), a process to determine whether the user The process determines whether the line of sight of the user matches the direction in which the user should look (step 118 in FIG. 12), the process determines whether there is any change in the movement of the subject (step 120 in FIG. 12), and the direction of the display device 92 is changed. (Step 122 in Figure 12), Processing to determine whether there is information regarding the vehicle status (Step 124 in Figure 12), Processing to determine whether a position in the map image has been specified (Step 126 in Figure 13), Each process is performed in the order of determining whether information on vehicle-to-vehicle communication or road-to-vehicle communication is obtained (step 128 in Figure 13), but the order of these processes may be arbitrary, and each process may be performed in parallel. It may be done.

(3)変形例
図24は,再生ウインドウ130に含まれるプレイ・リスト表示領域171の一部を示している。
(3) Modification FIG. 24 shows a part of the play list display area 171 included in the playback window 130.

上述した実施例においては,プレイ・リスト表示領域171に表示される映像ファイルのファイル名には,映像データの記録日時が利用されているが,この実施例においては,映像データの記録日時ではなくその映像データの記録場所(撮影地の一例である)を映像ファイルのファイル名としている。 In the embodiment described above, the recording date and time of the video data is used for the file name of the video file displayed in the play list display area 171, but in this embodiment, the recording date and time of the video data is used instead of the recording date and time of the video data. The recording location of the video data (an example of a shooting location) is used as the file name of the video file.

次のようにして映像データの記録場所を映像ファイルのファイル名とする。たとえば,ドライブ・レコーダ1において映像ファイルが生成される場合に,その生成される場所の緯度および経度をGPS受信器22において読み取り,それらの緯度および経度のデータを通信回路17からインターネットを介してサーバに送信する。サーバにおいて,それらの緯度および経度の場所を見つけ出し,見つけ出された場所を表すデータを,インターネットを介して受信し,受信したデータから得られる場所を映像ファイルのファイル名とする。もっとも,記録された日時に対応する映像ファイルのヘッダ記録領域31に記録されている緯度および経度のデータを,再生時にインターネットを介してサーバに送信し,サーバにおいて見つけ出された場所を表すデータを,インターネットを介して受信し,受信したデータから得られる場所を映像ファイルのファイル名としてもよい。図24においては,ファイル名は,記録した順番に表示されている。ファイル名に記録時の場所が含まれているので,どこで撮影されたかが一見してわかるようになる。 Set the recording location of the video data as the file name of the video file as follows. For example, when a video file is generated in the drive recorder 1, the latitude and longitude of the location where the video file is generated is read by the GPS receiver 22, and the latitude and longitude data is transmitted from the communication circuit 17 to the server via the Internet. Send to. The server finds these latitude and longitude locations, receives data representing the found locations via the Internet, and uses the location obtained from the received data as the file name of the video file. However, the latitude and longitude data recorded in the header recording area 31 of the video file corresponding to the recorded date and time is sent to the server via the Internet during playback, and the data representing the location found is sent to the server. , and the location obtained from the received data may be used as the file name of the video file. In FIG. 24, the file names are displayed in the order in which they were recorded. The location of the recording is included in the file name, so you can see at a glance where the image was taken.

図25も,再生ウインドウ130に含まれるプレイ・リスト表示領域171の一部を示している。 FIG. 25 also shows a part of the play list display area 171 included in the playback window 130.

図25においては,出現頻度の低い記録時の場所が含まれている映像ファイルのファイル
名が上位(上方)に表示されるように(優先して表示する場合の一例である),プレイ・リスト表示領域171に表示されている。出現頻度の高い記録時の場所が含まれている映像ファイルのファイル名は下位(下方)に表示されている。出現頻度が高い記録時の場所は通勤時での記録のように日常生活での記録が多いと考えられるのに対して,出現頻度が低い記録時の場所は旅行での記録のように非日常生活での記録が多いと考えられる。日常生活において記録された映像ファイルの再生が行われやすいように,出現頻度の低い記録時の場所が含まれている映像ファイルのファイル名が上位に表示される。
In Figure 25, the play list is set so that the file names of video files that include locations at the time of recording that occur less frequently are displayed at the top (this is an example of displaying with priority). It is displayed in display area 171. File names of video files that include locations at the time of recording that occur frequently are displayed at the bottom (lower part). Recording locations with a high frequency of occurrence are likely to be recorded in daily life, such as records during commuting, whereas recording locations with a low frequency of occurrence are likely to be records of non-daily life, such as records of travel. It is thought that there are many records from daily life. To facilitate playback of video files recorded in daily life, file names of video files that include locations at the time of recording that occur less frequently are displayed at the top.

また,同一場所については,まとめてプレイ・リスト表示領域171に表示するようにしてもよい。同一場所の映像ファイルと異なる場所の映像ファイルとが区別しやすくなる。さらに,映像ファイルのファイル名には記録時の場所が含まれていればよく,記録時の場所のほかに記録日時を映像ファイルのファイル名に含ませてもよい。さらに,プレイ・リスト表示領域171に表示されている映像ファイル名に対応する場所の地図の画像を,たとえば,映像表示領域141に表示するようにしてもよい。名称のみが表示されるよりも地図が表示されるので,どの場所の映像ファイルかわかりやすくなる。たとえば,場所を含む映像ファイルのファイル名を通信回路98からインターネット上の地図サーバ(図示略)に送信し,地図サーバから送信される地図データをパーソナル・コンピュータ80において受信し映像表示領域141に地図の画像を表示する。映像表示領域141に表示されている地図の画像を選択することにより,対応する映像ファイルの再生を開始するようにしてもよい。 Furthermore, the same locations may be displayed together in the play list display area 171. It becomes easier to distinguish between video files from the same location and video files from different locations. Furthermore, the file name of the video file only needs to include the location at the time of recording, and the file name of the video file may include the recording date and time in addition to the location at the time of recording. Furthermore, an image of a map of the location corresponding to the video file name displayed in the play list display area 171 may be displayed in the video display area 141, for example. Since a map is displayed rather than just the name, it is easier to see which location the video file is located. For example, the file name of the video file including the location is transmitted from the communication circuit 98 to a map server (not shown) on the Internet, and the personal computer 80 receives the map data transmitted from the map server and displays the map in the video display area 141. Display the image. By selecting an image of the map displayed in the video display area 141, playback of the corresponding video file may be started.

図26は,MPEG(Moving Picture Experts Group)にもとづくフレーム構成の一例である。 FIG. 26 is an example of a frame structure based on MPEG (Moving Picture Experts Group).

図26において,「I」と付されているものはIフレームを示し,「P」と付されているものはPフレームを示している。1つのIフレームの後に3つのPフレームがつづいており,これらの1つのIフレームと3つのPフレームとによってGOP(Group Of Picture)が構成されている。 In FIG. 26, those marked with "I" indicate I frames, and those marked with "P" indicate P frames. One I frame is followed by three P frames, and one I frame and three P frames constitute a GOP (Group Of Picture).

図8ステップ77に示したようにハッシュ値を算出する場合に,Iフレームの直前ではなくPフレームの直前を,映像データを区切る単位として,その単位ごとにハッシュ値をコントローラ10に算出させる。たとえば,PフレームおよびIフレームならびにIフレームの後の3つのPフレームを一つの単位としてコントローラ10においてハッシュ値を算出する。このように算出されたハッシュ値がブロック・チェーン・システムに送信される。 When calculating a hash value as shown in step 77 of FIG. 8, the controller 10 calculates a hash value for each unit by using the unit immediately before the P frame instead of the unit immediately before the I frame as a unit for dividing the video data. For example, a hash value is calculated in the controller 10 using a P frame, an I frame, and three P frames after the I frame as one unit. The hash value calculated in this way is sent to the block chain system.

また,映像データからハッシュ値を算出するのではなく,ドライブ・レコーダにおいて各種イベント(例えば,急ブレーキがあった,横すべりが起きたなど)が発生した場合に,そのイベントを表すデータからハッシュ値(イベント・データから一義的に決定する第2の計算値の一例である)をコントローラ10において算出し,算出したハッシュ値をブロック・チェーン・システムに送信するようにしてもよい。 In addition, instead of calculating the hash value from video data, when various events occur in the drive recorder (for example, sudden braking, side skidding, etc.), the hash value is calculated from the data representing the event. (which is an example of a second calculated value uniquely determined from event data) may be calculated in the controller 10, and the calculated hash value may be sent to the block chain system.

図27は,ドライブ・レコーダ1の記録処理手順の一例を示すフローチャートである。 FIG. 27 is a flowchart showing an example of the recording processing procedure of the drive recorder 1.

この実施例においては,運転手(たとえば,職業運転手)の点呼時において点呼時の運転手の様子が撮影され,記録されている。記録された映像データ映像ファイルに格納されて,運転手別にサーバに送信され,サーバに記憶されている。ドライブ・レコーダ1は,サーバにアクセスし,運転手の点呼時の映像データが格納されている映像ファイルを読み取る(ステップ181)。ドライブ・レコーダ1のコントローラ10によって,点呼時の映像ファイルがドライブ・レコーダ1に装着されているメモリ・カード25に記録される(ステップ182)。 In this embodiment, when a driver (for example, a professional driver) is called, the appearance of the driver is photographed and recorded. The recorded video data is stored in a video file, transmitted to the server for each driver, and stored in the server. The drive recorder 1 accesses the server and reads a video file in which video data during driver roll call is stored (step 181). The controller 10 of the drive recorder 1 records the video file at the time of roll call on the memory card 25 attached to the drive recorder 1 (step 182).

つづいて,運転手の運転手名と日時とが,運転時の映像データを格納する映像ファイル
のファイル名とされて映像ファイルがコントローラ10によって生成される(ステップ183)。運転手名は,ドライブ・レコーダ1のメモリ21にあらかじめ記憶されていてもよいし,入力装置20から入力するようにしてもよい。ドライブ・レコーダ1が取り付けられている車両のエンジンがスタートし,運転時の映像データの記録が開始し,記録終了するまで(ステップ185でYES),上述のように映像データが映像ファイルに格納されつづける。
Next, the driver's name and date and time are used as the file name of a video file that stores video data during driving, and a video file is generated by the controller 10 (step 183). The driver's name may be stored in advance in the memory 21 of the drive recorder 1, or may be input from the input device 20. The engine of the vehicle to which the drive recorder 1 is installed starts, the recording of video data during driving begins, and the video data is stored in the video file as described above until the recording is completed (YES in step 185). Continue.

このようにして,点呼時の映像データを格納した映像ファイルと運転時の映像データを格納した映像ファイルとがメモリ・カード25に記録される。そのようなメモリ・カード25がパーソナル・コンピュータ80に装着されると,再生ウインドウ130の映像表示領域141に点呼時の映像と運転時の映像とを表示することができる。点呼時の映像データを格納した映像ファイルと運転時の映像データを格納した映像ファイルとが運転手名(関連づけの一例である)によって関連づけられていることとなる。 In this way, a video file storing video data during roll call and a video file storing video data during driving are recorded on the memory card 25. When such a memory card 25 is installed in the personal computer 80, the image during roll call and the image during driving can be displayed in the image display area 141 of the playback window 130. The video file storing the video data during roll call and the video file storing the video data during driving are associated by the driver's name (this is an example of association).

この実施例では,ドライブ・レコーダ1において,メモリ・カード25に点呼時の映像ファイルと運転時の映像ファイルとを格納しているが,再生時にメモリ・カード25に点呼時の映像ファイルと運転時の映像ファイルとを格納するようにしてもよい。たとえば,運転時の映像ファイルが格納されているメモリ・カード25がパーソナル・コンピュータ80に装着され,映像ファイルのファイル名がプレイ・リスト表示領域172に表示される。プレイ・リスト表示領域172に表示されている映像ファイル名の中からいずれかの映像ファイル名が選択されると,その選択された映像ファイル名に対応する映像ファイルのヘッダ記録領域31に記録されている運転手名を表すデータが,点呼時の映像ファイルを記録しているサーバに送信され,そのサーバから点呼時の映像ファイルがパーソナル・コンピュータ80に送信される。点呼時の映像ファイルがパーソナル・コンピュータ80において受信されると,運転手の点呼時の映像ファイルによって表される点呼時の映像と,その運転手の運転時の映像ファイルによって表される運転時の映像と,が映像表示領域141に表示される。点呼時の映像と運転時の映像とは,好ましくは同時に隣り合わせで映像表示領域141に表示されるが,必ずしもそのようにしなくともよい。 In this embodiment, in the drive recorder 1, a video file for roll call and a video file for driving are stored in the memory card 25, but during playback, the video file for roll call and the video file for driving are stored in the memory card 25. The video file may also be stored. For example, a memory card 25 storing a driving video file is installed in the personal computer 80, and the file name of the video file is displayed in the play list display area 172. When one of the video file names displayed in the play list display area 172 is selected, the video file name corresponding to the selected video file name is recorded in the header recording area 31. Data representing the name of the driver present is sent to the server that records the video file for the roll call, and the server sends the video file for the roll call to the personal computer 80. When the roll call video file is received by the personal computer 80, the roll call video represented by the driver's roll call video file and the driving time represented by the driver's driving video file are displayed. The video and are displayed in the video display area 141. The image during roll call and the image during driving are preferably displayed side by side in the image display area 141 at the same time, but this does not necessarily have to be the case.

図28および図29は,ドライブ・レコーダ1の記録処理手順の一例を示すフローチャートである。図28は,トラックにドライブ・レコーダ1を取り付けた場合の記録処理手順の一例を示し,図29は,そのトラックを運転していた運転手が,トラックに積んでいた荷物を,フォークリフトを用いて荷物を動かす場合に,フォークリフトに取り付けられているドライブ・レコーダ1の記録処理手順を示すフローチャートである。 28 and 29 are flowcharts showing an example of the recording processing procedure of the drive recorder 1. Figure 28 shows an example of the recording processing procedure when the drive recorder 1 is attached to a truck. It is a flowchart showing the recording processing procedure of the drive recorder 1 attached to the forklift when moving cargo.

図28を参照して,トラックの運転中にはトラックに取り付けられているドライブ・レコーダ1によって映像データがドライブ・レコーダ1に装着されているメモリ・カード25に記録される(ステップ191)。メモリ・カード25への映像データの記録が終了すると,映像ファイルのヘッダ記録領域に,トラックの運転手の氏名を表すデータおよび日時を表すデータが格納され,映像ファイルの映像記録領域に映像データが記録されている映像ファイルがドライブ・レコーダ1からサーバに送信される(ステップ192)。ドライブ・レコーダ1のメモリ21には運転手の氏名を表すデータがあらかじめ記憶されている。さらに,ドライブ・レコーダからは,フォークリフトからの映像ファイルとの関連づけコマンドがサーバに送信される(ステップ193)。たとえば,トラックのドライブ・レコーダ1から送信された映像ファイルに格納されている映像データによって表される最後の場所(トラックの停車場所)と同じ場所から送信される映像ファイルであり,トラックの停車時刻から数分程度以内にフォークリフトに取り付けられているドライブ・レコーダによって記録が開始された映像データを格納した映像ファイルと,関連づけするようなコマンドがトラックに取り付けられているドライブ・レコーダからサーバに送信される。 Referring to FIG. 28, while the truck is driving, video data is recorded by the drive recorder 1 attached to the truck onto the memory card 25 attached to the drive recorder 1 (step 191). When recording of the video data to the memory card 25 is completed, the data representing the truck driver's name and the date and time are stored in the header recording area of the video file, and the video data is stored in the video recording area of the video file. The recorded video file is transmitted from the drive recorder 1 to the server (step 192). The memory 21 of the drive recorder 1 stores in advance data representing the driver's name. Further, the drive recorder sends a command for associating it with the video file from the forklift to the server (step 193). For example, the video file is transmitted from the same location as the last location (the truck's stopping location) represented by the video data stored in the video file transmitted from the truck's drive recorder 1, and the truck's stopping time. Within a few minutes, the drive recorder attached to the forklift sends a command to the server to associate it with the video file containing the video data that the drive recorder attached to the forklift started recording. Ru.

図29を参照して,フォークリフトに運転手が近づいたことがフォークリフトに取り付けられているドライブ・レコーダ1によって検出されると,ドライブ・レコーダ1に含まれているフロント・カメラ11およびリア・カメラ12による撮影が開始する(ステップ201)。 Referring to FIG. 29, when the drive recorder 1 attached to the forklift detects that the driver approaches the forklift, the front camera 11 and rear camera 12 included in the drive recorder 1 Shooting starts (step 201).

フロント・カメラ11またはリア・カメラ12によって撮影された映像から解析され,運転手がフォークリフトに乗り,フォークリフトの動作が開始したこと,あるいは運転手がフォークリフトに乗ったことが検出されると(ステップ202でYES),フォークリフトに取り付けられているドライブ・レコーダ1に装着されているメモリ・カード25への映像データの記録が開始される(ステップ203)。記録が終了すると,映像ファイルがサーバに送信される(ステップ205)。 When the video captured by the front camera 11 or the rear camera 12 is analyzed and it is detected that the driver gets on the forklift and the forklift starts operating, or that the driver gets on the forklift (step 202 (YES), recording of video data to the memory card 25 attached to the drive recorder 1 attached to the forklift is started (step 203). When recording is completed, the video file is sent to the server (step 205).

サーバにおいては,記録終了時刻と記録開始時刻とがほぼ同じであり,かつ記録終了時の場所と記録開始時の場所とがほぼ同じである,2つの映像ファイルが存在すると,それらの映像ファイルは,上述したように,たとえば,同じ運転手がトラックからフォークリフトに乗り換えた映像ファイルとして扱うこととなる。一連の映像を表す映像ファイルとしてパーソナル・コンピュータ80に送信することにより,トラックの運転時の映像とフォークリフトの運転時の映像とを再生ウインドウ130の映像表示領域141に表示できるようになる。 On the server, if there are two video files whose recording end time and recording start time are almost the same, and where the location at the end of recording and the location at the time of recording start are almost the same, those video files will be As mentioned above, for example, the video file is treated as a video file of the same driver switching from a truck to a forklift. By transmitting a series of images as a video file to the personal computer 80, images of truck driving and forklift driving can be displayed in the video display area 141 of the playback window 130.

上述の実施例では,トラックを運転し,その後にフォークリフトを運転しているが,その逆にフォークリフトを運転し,その後にトラックを運転して,それぞれの映像ファイルが得られるようにしてもよい。また,フォークリフトを運転して荷物をトラックに積み,その後にトラックを運転して目的地に移動し,目的地においてトラックの荷物を,フォークリフトを用いて降ろす,という一連の映像ファイルが得られるようにしてもよい。 In the above-described embodiment, the truck is driven and then the forklift is driven, but the forklift and then the truck may be driven to obtain respective video files. Additionally, a series of video files can be obtained in which a forklift is used to load cargo onto a truck, the truck is then driven to a destination, and the forklift is used to unload the truck's cargo at the destination. It's okay.

図30は,車両に取り付けられるドライブ・レコーダ1の記録処理手順の一例を示すフローチャートである。 FIG. 30 is a flowchart showing an example of the recording processing procedure of the drive recorder 1 attached to the vehicle.

ドライブ・レコーダ1は,車両のフロント・ガラスの内側上部に,車両の速度メータを撮影できる位置に取り付ける。車両のエンジンがスタートすると,フロント・カメラ11およびリア・カメラ12による撮影が開始し,リア・カメラ12によって車両の速度メータが撮影される(ステップ211)。車両の速度メータの映像がコントローラ10によって解析され,車両の速度が,たとえば,30km/h以上(一定以上の速度の一例であるが,他の速度でもよい)の速度となったかどうかが判定される(ステップ212)。30km/h以上となると(ステップ212でYES),メモリ・カード25への映像データの記録が開始する(ステップ213)。車両が30km/h未満となると(ステップ214でYES),メモリ・カード25への映像データの記録が停止する(ステップ215)。 The drive recorder 1 is attached to the upper part of the inside of the windshield of the vehicle at a position where the speedometer of the vehicle can be photographed. When the engine of the vehicle starts, the front camera 11 and rear camera 12 start photographing, and the rear camera 12 photographs the speedometer of the vehicle (step 211). The image of the speedometer of the vehicle is analyzed by the controller 10, and it is determined whether the speed of the vehicle is, for example, 30 km/h or more (this is an example of a speed above a certain level, but other speeds are also possible). (step 212). When the speed exceeds 30 km/h (YES in step 212), recording of video data to the memory card 25 starts (step 213). When the vehicle speed becomes less than 30 km/h (YES in step 214), recording of video data to the memory card 25 is stopped (step 215).

このように,車両の速度が30km/h以上となると,撮影した映像データのメモリ・カード25への記録が行われ,30km/h未満となると,撮影した映像データのメモリ・カード25への記録が停止させられる。一定速度以上で車両が運転されている場合に,撮影により得られる映像データがメモリ・カード25に記録されるようになる。この実施例においては,車両の速度が30km/h以上となると,撮影した映像データのメモリ・カード25への記録が行われ,30km/h未満となると,撮影した映像データのメモリ・カード25への記録が停止させられているが,車両の速度が30km/h以上となった場合に,撮影した映像データのメモリ・カード25への記録を行うが,30km/h未満となっても,撮影した映像データのメモリ・カード25への記録の停止をしなくともよいし,車両の速度に関係なく,撮影した映像データのメモリ・カード25への記録が行われ,30km/h未満となった場合に,撮影した映像データのメモリ・カード25への記録を停止してもよい。 In this way, when the speed of the vehicle is 30 km/h or higher, the captured video data is recorded to the memory card 25, and when the vehicle speed is less than 30 km/h, the captured video data is recorded to the memory card 25. is stopped. When the vehicle is being driven at a speed greater than a certain speed, video data obtained through photography will be recorded on the memory card 25. In this embodiment, when the speed of the vehicle exceeds 30 km/h, the captured video data is recorded to the memory card 25, and when the vehicle speed becomes less than 30 km/h, the captured video data is recorded to the memory card 25. However, if the speed of the vehicle exceeds 30km/h, the captured video data will be recorded on the memory card 25, but even if the speed is less than 30km/h, the recording will continue. There is no need to stop recording the captured video data to the memory card 25, and the recorded video data is recorded to the memory card 25 regardless of the speed of the vehicle, and the speed is less than 30 km/h. In this case, recording of the photographed video data to the memory card 25 may be stopped.

図31は,自動搬送車(無人搬送車)に取り付けられるドライブ・レコーダの記録処理手順の一例を示すフローチャートである。 FIG. 31 is a flowchart showing an example of a recording processing procedure of a drive recorder attached to an automatic guided vehicle (unmanned guided vehicle).

上述したドライブ・レコーダ1が自動搬送車に取り付けられる。自動搬送車には,自動搬送車への周辺物の接近を検知するレーザ・センサが取り付けられている。 The drive recorder 1 described above is attached to an automatic guided vehicle. Automated guided vehicles are equipped with laser sensors that detect when surrounding objects approach the automated guided vehicle.

自動搬送車のエンジンがスタート(自動搬送車の電源がオン)されると,ドライブ・レコーダ1への電源の供給が開始する。すると,ドライブ・レコーダ1に設けられているフロント・カメラ11およびリア・カメラ12により撮影が開始する(ステップ221)。レーザ・センサにより自動搬送車への物体(周辺物の一例であり,他の自動搬送車などでもよい)の接近が検知されると(ステップ222でYES),ドライブ・レコーダ1に装着されているメモリ・カード25への映像データの記録が開始する(ステップ223)。レーザ・センサにより自動搬送車への周辺物の接近が検知されないと(ステップNO),メモリ・カード25への映像データの記録は開始しない。誤って周辺物が自動搬送車に接触した場合でも,その様子を記録できる。このように,車両には運転手が乗車するものだけでなく,運転手が乗車しないものも含まれる。 When the engine of the automatic guided vehicle is started (the power of the automatic guided vehicle is turned on), power supply to the drive recorder 1 starts. Then, the front camera 11 and rear camera 12 provided in the drive recorder 1 start photographing (step 221). When the laser sensor detects the approach of an object (this is an example of a peripheral object, and may be another automatic guided vehicle) to the automated guided vehicle (YES in step 222), the laser sensor attached to the drive recorder 1 Recording of video data to the memory card 25 begins (step 223). If the laser sensor does not detect the approach of a peripheral object to the automatic guided vehicle (step NO), recording of video data to the memory card 25 does not start. Even if a surrounding object accidentally comes into contact with the automated guided vehicle, the situation can be recorded. In this way, vehicles include not only vehicles in which a driver rides, but also vehicles in which a driver does not ride.

図32は,運転評価の処理手順の一例を示すフローチャートである。 FIG. 32 is a flowchart illustrating an example of a processing procedure for driving evaluation.

ドライブ・レコーダ1が取り付けられている車両をユーザが運転し,映像データが記録されたメモリ・カード25をドライブ・レコーダ1から取り外して,パーソナル・コンピュータ80に装着する。図14に示す再生ウインドウ130を表示装置92の表示画面に表示させ,メモリ・カード25に記録されている映像データが再生させられる(ステップ231)。再生されている映像の被写体に動きがある場合に(ステップ232でYES),映像が解析されて,その映像から運転評価が行われる(ステップ233)。たとえば,被写体の動きがある場合に急ブレーキが踏まれたり,歩行者や自転車,オートバイ,自動車などの他の車両が接近しすぎたりした場合には運転評価が低くなる。急ブレーキが踏まれたかどうかは,加速度のデータからわかるし,歩行者や他の車両が接近しすぎているかどうかは映像中の歩行者や他の車両の映像の相対的な大きさからわかる。映像の被写体に動きが無い場合には(ステップ232でNO),その映像部分についての運転評価は行われない。映像が終了するまでステップ232および233の処理が繰り返される。被写体の動きが無い映像部分は,車両が停止中と考えられるので運転の評価の意味があまりない。そのような場所での運転の評価が行われないので,無駄な評価をしない可能性が高くなる。被写体の動きがある場合に運転の評価を行い,被写体の動きが無い場合に運転の評価が行われていないが,車両の動きがある場合に運転の評価を行い,車両の動きが無い場合に運転の評価が行われないようにしてもよい。 A user drives a vehicle to which the drive recorder 1 is attached, removes the memory card 25 on which video data is recorded from the drive recorder 1, and attaches it to the personal computer 80. The playback window 130 shown in FIG. 14 is displayed on the display screen of the display device 92, and the video data recorded on the memory card 25 is played back (step 231). If there is movement in the subject of the video being played back (YES at step 232), the video is analyzed and a driving evaluation is performed from the video (step 233). For example, if the subject moves and the brakes are suddenly pressed, or if other vehicles such as pedestrians, bicycles, motorcycles, or cars approach too closely, the driving evaluation will be lowered. Acceleration data can tell whether the brakes have been applied suddenly, and whether pedestrians or other vehicles are getting too close can be determined by the relative size of the pedestrians or other vehicles in the video. If there is no movement in the subject of the video (NO at step 232), no driving evaluation is performed for that video portion. The processes of steps 232 and 233 are repeated until the video ends. Portions of the video where the subject does not move are considered to be when the vehicle is stationary, so there is little meaning in evaluating driving. Since driving in such places is not evaluated, there is a high possibility that unnecessary evaluations will not be made. Driving is evaluated when there is movement of the subject, and if there is no movement of the object, driving is not evaluated, but when there is movement of the vehicle, driving is evaluated, and when there is no movement of the vehicle, Driving evaluation may not be performed.

図33は,ドライブ・レコーダ1によって記録された映像データの再生処理手順の一例を示すフローチャートである。 FIG. 33 is a flowchart illustrating an example of a procedure for reproducing video data recorded by the drive recorder 1.

この実施例においては,ドライブ・レコーダ1は,バス,タクシー,ハイヤー,電車などのように旅客を輸送する車両に取り付けられるが,必ずしもそのような車両に取り付けられるものでなくともよい。 In this embodiment, the drive recorder 1 is attached to a vehicle that transports passengers, such as a bus, taxi, hire car, or train, but it does not necessarily need to be attached to such a vehicle.

ドライブ・レコーダ1に装着されていたメモリ・カード25がドライブ・レコーダ1から取り外され,パーソナル・コンピュータ80に装着される。パーソナル・コンピュータ80の表示装置14の表示画面には図14に示す再生ウインドウ130が表示され,メモリ・カード25に記録されている映像データが再生される(ステップ241)。 The memory card 25 installed in the drive recorder 1 is removed from the drive recorder 1 and installed in the personal computer 80. A playback window 130 shown in FIG. 14 is displayed on the display screen of the display device 14 of the personal computer 80, and the video data recorded on the memory card 25 is played back (step 241).

CPU90によって映像が解析され,映像にお客が含まれているかどうかがCPU90によって判定される(ステップ242)。たとえば,運転手を除いて車両のシートに人物が座っていればお客がいると判断すればよい。映像にお客が含まれていれば(ステップ242でYES),映像表示領域141に映像が表示される(ステップ243)。映像にお客が含まれていなければ(ステップ242でNO),映像表示領域141への映像表示は停止させられる。映像が終了するまで(ステップ244でNO),ステップ242および243の処理が繰り返される。上述の実施例では映像にお客が含まれていない場合には映像表示領域141への映像表示は停止させられているが,映像表示は行うが表示速度を速めたり,お客が含まれる映像の部分まで映像をスキップしたりしてもよい。 The video is analyzed by the CPU 90, and the CPU 90 determines whether or not the customer is included in the video (step 242). For example, if there is a person sitting in the vehicle seat other than the driver, it can be determined that there is a customer. If the customer is included in the video (YES at step 242), the video is displayed in the video display area 141 (step 243). If the customer is not included in the video (NO in step 242), the video display in the video display area 141 is stopped. The processes of steps 242 and 243 are repeated until the video ends (NO in step 244). In the above embodiment, when the customer is not included in the video, the video display in the video display area 141 is stopped.However, although the video is displayed, the display speed may be increased or the portion of the video that includes the customer may be You can also skip the video until the end.

図34は,記録された映像データの再生処理手順の一例を示すフローチャートである。ドライブ・レコーダ1によって記録されたことが好ましいが,その他の記録装置によって記録されたものでもよい。この再生処理は,映像の中から所望の場面の映像を見つけるものである。 FIG. 34 is a flowchart illustrating an example of a procedure for reproducing recorded video data. It is preferable that the data be recorded by the drive recorder 1, but it may be recorded by other recording devices. This playback process is to find a video of a desired scene from among the videos.

映像データが記録されているメモリ・カード25をパーソナル・コンピュータ80に装着し,再生ウインドウ130が表示装置92の表示画面に表示される。再生ウインドウ130のメニュー・バー131に含まれる「ツール」の文字がユーザによってクリックされると,「検索」項目を含むプルダウン・メニューが現れる。プルダウン・メニューの中から「検索」項目が指定されると,再生ウインドウ130上に,キーワードを入力するためのポップアップ・ウインドウが現れる。そのポップアップ・ウインドウに,入力装置96を用いてユーザが見つけ出したい映像部分の状況を表すキーワードを入力する(ステップ251)。CPU90によって映像データが解析され,入力されたキーワードに関連する場面の映像が見つけ出される(ステップ258)。見つけ出された場面の映像が映像表示領域141に表示される(ステップ254)。ユーザによって入力される映像部分の状況を表すキーワードは,たとえば,新幹線が含まれている映像というように明確なものだけでなく,明るい映像というようなあいまいなものでよい。そのあいまいなキーワードに対応する映像部分が見つけ出される。たとえば,明るい映像というものであれば,映像の中で相対的に輝度の高い映像部分が見つけ出される。また,映像データの記録時の車両の状況を表すキーワードを入力し,その状況の映像を見つけ出すようにしてもよい。たとえば,映像データを記録したドライブ・レコーダが設けられていた車両の状態,スピードを出した,急加速した,ウインカーを出した,というのをキーワードとして,そのキーワードに対応する映像部分を見つけ出すようにできる。車両の状態を表すデータは,映像データが格納されている映像ファイルのヘッダ記録領域31に記録時刻とともに記録されているので,そのデータを用いて映像部分を見つけ出すことができる。また,赤い車が青い車を追い越した後の映像部分を見つけるというように,動的な動きのあとの映像を探すようなキーワードを入力し,対応する映像部分を見つけるようにしてもよい。 The memory card 25 on which video data is recorded is inserted into the personal computer 80, and the playback window 130 is displayed on the display screen of the display device 92. When the user clicks on the word "Tools" included in the menu bar 131 of the playback window 130, a pull-down menu containing the "Search" item appears. When the "Search" item is selected from the pull-down menu, a pop-up window for entering a keyword appears on the playback window 130. Into the pop-up window, the user inputs a keyword representing the situation of the video portion that the user wishes to find using the input device 96 (step 251). The CPU 90 analyzes the video data and finds videos of scenes related to the input keyword (step 258). The video of the found scene is displayed in the video display area 141 (step 254). The keyword input by the user to represent the situation of the video portion may be not only a clear one such as a video containing a bullet train, but also a vague one such as a bright video. A video portion corresponding to the ambiguous keyword is found. For example, if the image is bright, the parts of the image with relatively high brightness are found. Alternatively, a keyword representing the condition of the vehicle at the time of recording the video data may be input, and a video of that condition may be found. For example, if a keyword is used to describe the condition of a vehicle equipped with a drive recorder that recorded video data, such as speeding up, sudden acceleration, or turning on a turn signal, the system can find the video portion that corresponds to that keyword. can. Since the data representing the state of the vehicle is recorded together with the recording time in the header recording area 31 of the video file in which the video data is stored, the video portion can be found using this data. It is also possible to input a keyword to search for a video after a dynamic movement, such as finding a video after a red car passes a blue car, and find the corresponding video.

図35は,トライブ・レコーダ1によって記録された映像データの再生処理手順の一例を示すフローチャートを示している。 FIG. 35 shows a flowchart illustrating an example of a procedure for reproducing video data recorded by the tribe recorder 1.

ドライブ・レコーダ1に装着されていたメモリ・カード25がドライブ・レコーダ1から取り外され,パーソナル・コンピュータ80に装着される。パーソナル・コンピュータ80の表示装置92の表示画面には図14に示す再生ウインドウ130が表示される。 The memory card 25 installed in the drive recorder 1 is removed from the drive recorder 1 and installed in the personal computer 80. A playback window 130 shown in FIG. 14 is displayed on the display screen of the display device 92 of the personal computer 80.

メモリ・カード25に格納されている映像ファイルのヘッダ記録領域31に記録されている車両の移動位置を示す緯度および経度をそれぞれ示すデータが読み取られ,車両の移動範囲がパーソナル・コンピュータ80のCPU90によって検出される(ステップ261)。検出された移動範囲を含む地図の画像データのリクエスト・コマンドがパーソナル・コンピュータ80からサーバに送信され,サーバからパーソナル・コンピュータ80に地図の画像デー
タが送信される。地図の画像データがパーソナル・コンピュータ80において受信されると,映像表示領域141に受信した画像データによって表される地図の画像が表示される(ステップ262)。さらに,映像データの記録時の車両の操作情報を表すデータが映像ファイルのヘッダ記録領域31から読み取られ,映像表示領域141に表示されている地図の画像上に,それぞれの位置において行われた車両の操作状況が表示される(ステップ264)。
Data indicating the latitude and longitude indicating the moving position of the vehicle recorded in the header recording area 31 of the video file stored in the memory card 25 is read, and the moving range of the vehicle is determined by the CPU 90 of the personal computer 80. detected (step 261). A request command for map image data including the detected movement range is transmitted from the personal computer 80 to the server, and the map image data is transmitted from the server to the personal computer 80. When the map image data is received by the personal computer 80, the map image represented by the received image data is displayed in the video display area 141 (step 262). Furthermore, data representing the operation information of the vehicle at the time of recording the video data is read from the header recording area 31 of the video file, and is displayed on the map image displayed in the video display area 141. The operation status of is displayed (step 264).

図35は,映像表示領域141に表示される地図の画像の一例である。 FIG. 35 is an example of a map image displayed in the video display area 141.

地図の画像において,車両の移動状況が鎖線148によって示されている。この移動状況を表す鎖線148はヘッダ記録領域31に記録されている車両の移動位置を示すデータから得られる。さらに,その鎖線で示される移動状況において,車両の操作状況が吹き出し146によって表示されている。ユーザは,地図の画像を見ることにより,車両の移動範囲を比較的容易に把握できるとともに,その移動時においてどのような場所でどのような車両の操作を行ったかを比較的簡単に把握できる。 In the map image, the movement status of the vehicle is indicated by a chain line 148. The dashed line 148 representing the movement status is obtained from data indicating the movement position of the vehicle recorded in the header recording area 31. Further, in the movement situation indicated by the chain line, the operating situation of the vehicle is displayed in a balloon 146. By looking at the map image, the user can relatively easily grasp the range of movement of the vehicle, as well as the location and operation of the vehicle during the movement.

図37は,ドライブ・レコーダ1によって記録された映像データの再生処理手順の一例を示すフローチャートである。この実施例においては,ユーザの運転により得られた映像と第三者の運転により得られた映像とが映像表示領域141に表示される。 FIG. 37 is a flowchart illustrating an example of a procedure for reproducing video data recorded by the drive recorder 1. In this embodiment, a video obtained by the user's driving and a video obtained by the third party's driving are displayed in the video display area 141.

ユーザが運転していた車両に装着されているメモリ・カード25が取り外され,取り外されたメモリ・カード25がパーソナル・コンピュータ80に装着される。ユーザによる車両の運転により得られた映像データがメモリ・カード25から読み取られ,再生される(ステップ271)。また,ユーザの運転により得られた映像データの記録場所(車両の移動範囲)を示すデータ(緯度および経度のそれぞれを示すデータ)が映像ファイルのヘッダ記録領域31から読み取られ,第三者の運転により得られた映像ファイルが多数記憶されているサーバに送信される。サーバにおいて,ユーザが運転した場所と同じ場所を運転して得られた映像データを格納している映像ファイルが見つけ出され,パーソナル・コンピュータ80に送信される。ユーザの移動方向および移動範囲と完全に一致しなくともほぼ一致するような第三者の映像ファイルが見つけられればよい。見つけ出された第三者の映像ファイルがパーソナル・コンピュータ80において受信され(ステップ273),ユーザの運転により得られた映像と第三者の運転により得られた映像とが映像表示領域141に表示されることとなる(ステップ274)。 The memory card 25 installed in the vehicle that the user was driving is removed, and the removed memory card 25 is installed in the personal computer 80. Video data obtained by the user driving the vehicle is read from the memory card 25 and played back (step 271). In addition, data indicating the recording location (vehicle movement range) of video data obtained by the user's driving (data indicating latitude and longitude, respectively) is read from the header recording area 31 of the video file, and the third party's driving The video files obtained are sent to a server where a large number of video files are stored. In the server, a video file storing video data obtained by driving in the same location as the user's driving location is found and transmitted to the personal computer 80. It is only necessary to find a video file of a third party that almost matches, if not completely matches, the direction and range of movement of the user. The found video file of the third party is received by the personal computer 80 (step 273), and the video obtained by the user's driving and the video obtained by the third party's driving are displayed in the video display area 141. (step 274).

図38は,再生ウインドウ130の一例である。 FIG. 38 is an example of the playback window 130.

映像表示領域141は,左右(左右でなく,上下でもよい)に二つの映像表示領域141Aと141Bとに分かれている。左側の映像表示領域141Aに,ユーザの運転により得られた映像(加工処理後の映像データにもとづく映像の一例である)が表示され,右側の映像表示領域141Bに,サーバにおいて見つけ出された映像ファイルによって表される第三者の運転により得られた映像が表示される。映像表示領域141Aにおいては,映像表示領域141Aに表示されている映像が記録された時のユーザによる車両の操作情報を示す吹き出し146Aが表示される。吹き出し146Aに表示される操作情報は,映像データが格納されている映像ファイルのヘッダ記録領域31に記録されている加速度データ等から得られるのはいうまでもない。同様に,映像表示領域141Bに表示されている映像が記録された時の第三者による車両の操作情報を示す吹き出し146Bも映像表示領域141Bに表示される。映像表示領域141Aに表示されている映像が示す位置と映像表示領域141Bに表示されている映像が示す位置とがほぼ一致するように,映像の表示の同期がとられるようにCPU90によって再生制御が行われることが好ましい。 The video display area 141 is divided into two video display areas 141A and 141B on the left and right sides (not just left and right, but also top and bottom). In the image display area 141A on the left, images obtained by the user's driving (an example of images based on video data after processing) are displayed, and in the image display area 141B on the right, images found on the server are displayed. The video obtained by the third party driving represented by the file is displayed. In the video display area 141A, a balloon 146A is displayed that indicates information on the user's operation of the vehicle when the video displayed in the video display area 141A was recorded. Needless to say, the operation information displayed in the balloon 146A is obtained from the acceleration data etc. recorded in the header recording area 31 of the video file in which video data is stored. Similarly, a balloon 146B indicating vehicle operation information by a third party when the video displayed in the video display area 141B was recorded is also displayed in the video display area 141B. The reproduction control is performed by the CPU 90 so that the display of the images is synchronized so that the position indicated by the image displayed in the image display area 141A and the position indicated by the image displayed in the image display area 141B almost match. It is preferable that this is done.

映像表示領域141Aに表示されるユーザの運転の映像と映像表示領域141Bに表示される
第三者の運転の映像とを比較して見ることができるので,自分の運転と第三者の運転とを比較しながら,運転技能を向上させることができる。とくに,吹き出し146Aおよび146Bにより操作の一致,相違などもわかるので,他人の運転と一致しているか,相違しているかもわかるようになる。
You can compare and view the user's driving video displayed in the video display area 141A and the third party's driving video displayed in the video display area 141B, so you can compare your own driving with the third party's driving. You can improve your driving skills by comparing the In particular, since the balloons 146A and 146B allow you to see whether the operations match or differ, you can also see whether the operations match or differ from those of others.

さらに,ユーザの運転と第三者の運転とを比較して,ユーザの運転の評価を表す情報(第三者の運転とユーザの運転との比較にもとづく情報の一例である)を映像表示領域141に表示するようにしてもよい。たとえば,第三者の運転よりも運転技能が悪いとの評価となってしまう場合には,「第三者の運転を参考にして運転技能を向上させましょう。」などの注意情報を表示してもよいし,第三者の運転よりも運転技能が高いとの評価が得られる場合には,「運転技術は高いと思われます。」などの高評価を表す情報を表示してもよい。 Furthermore, the user's driving is compared with the driving of a third party, and information representing the evaluation of the user's driving (this is an example of information based on a comparison between the third party's driving and the user's driving) is displayed in the video display area. 141 may be displayed. For example, if your driving skills are evaluated to be worse than those of a third party, you can display warning information such as "Use the third party's driving as a reference to improve your driving skills." Alternatively, if the driver's driving skills are evaluated to be higher than that of a third party, information indicating the high evaluation may be displayed, such as "Your driving skills seem to be high." .

図39は,再生ウインドウ130の一例である。 FIG. 39 is an example of the playback window 130.

映像表示領域141に表示されている映像の記録時において車両の運転者がみるべき箇所およびその順序を示すアルファベットの文字が,映像に重畳されている。図39に示す例は,たとえば,車線変更時の映像であり,アルファベットで示される箇所をアルファベット順で見ることが好ましい。映像データの記録時に,上述のように運転者の視線を検出しておき,運転者の視線が,アルファベットで示す箇所をアルファベット順に動いているかどうかがCPU90によって検出される。運転者の視線が,アルファベットで示す箇所をアルファベット順に動いている場合には,たとえば,「理想的な運転です。」という文字列が映像表示領域141に表示される。ユーザは運転技能が悪くないことを確認できる。運転者の視線がアルファベットで示す箇所を動いていない場合には,「確認していない箇所があります。」というような文字列を映像表示領域141に表示し,未確認の箇所があったことをユーザに知らせる。また,運転者の視線がアルファベット順に動いていない場合には,「確認順序が理想的ではありません。」というような文字列を映像表示領域141に表示し,確認順序がよくないことをユーザに知らせる。ユーザは,運転中における視線の動きが適切かどうかを知ることができる。 Alphabetical characters indicating the locations and the order in which the driver of the vehicle should look when recording the video displayed in the video display area 141 are superimposed on the video. The example shown in FIG. 39 is, for example, a video when changing lanes, and it is preferable to view the parts indicated by alphabets in alphabetical order. When recording video data, the driver's line of sight is detected as described above, and the CPU 90 detects whether the driver's line of sight is moving in alphabetical order through the locations indicated by the letters. When the driver's line of sight moves in alphabetical order through the locations indicated by the alphabet, for example, the character string "This is ideal driving." is displayed in the video display area 141. The user can confirm that his or her driving skills are not bad. If the driver's line of sight is not moving at the location indicated by the alphabet, a character string such as "There are locations that have not been confirmed." is displayed in the video display area 141 to notify the user that there are locations that have not been confirmed. Let me know. Additionally, if the driver's line of sight does not move in alphabetical order, a string such as "The order of confirmation is not ideal." is displayed in the video display area 141 to notify the user that the order of confirmation is not correct. . Users can know whether their line of sight movements while driving are appropriate.

さらに,図19に示す例では,視野範囲外の領域142をぼかす加工処理を行っていたが,一定時間内の間にユーザが見ていない範囲を検出し,その見ていない範囲をぼかすようにしてもよい。たとえば,右左折の開始から右左折の終了までの間にユーザが見ていない範囲を検出し,その見ていない範囲をぼかすようにしてもよい。映像データの記録時に運転手であるユーザの視線を検出しておき,その視線のデータを用いてユーザが見ていない範囲を検出するのはいうまでもない。たとえば,見ていない範囲が検出された場合には,図19に示すように視野範囲外の領域142と同じように見ていない範囲がぼかされたり,半透明化されたりする。 Furthermore, in the example shown in Figure 19, processing processing was performed to blur the area 142 outside the viewing range, but it is now possible to detect an area that the user has not seen within a certain period of time and blur the area that the user has not seen. You can. For example, the range that the user is not looking at may be detected from the start of the turn to the end of the turn, and the range that the user is not looking at may be blurred. Needless to say, the line of sight of the user, who is a driver, is detected when recording video data, and the range that the user is not looking at is detected using the data on the line of sight. For example, when an unviewed range is detected, the unviewed range is blurred or made semi-transparent in the same way as the area 142 outside the viewing range, as shown in FIG.

さらに,ドライブ・レコーダ1によって記録された映像データを再生する場合,運転手の記憶色となるような補正(加工処理の一例である)をCPU90によって行ってもよい。記憶色に補正するためには,得られた映像のコントラスト,トーン,彩度を調整するが,それぞれどの程度に調整をするかあらかじめ決められていてもよいし,いくつかのプリセット調整値を決めておき,再生時に選択するようにしてもよい。 Further, when reproducing the video data recorded by the drive recorder 1, the CPU 90 may perform correction (this is an example of processing) so as to match the memory color of the driver. In order to correct to the memory color, the contrast, tone, and saturation of the obtained image are adjusted, but the degree of each adjustment may be determined in advance, or several preset adjustment values may be determined. It may also be possible to set it in advance and select it during playback.

さらに,映像の再生時において,パーソナル・コンピュータ80とともにコミュニケーション・ロボットを利用してもよい。 Furthermore, a communication robot may be used together with the personal computer 80 when playing back images.

図40は,パーソナル・コンピュータ80の近くに置かれたコミュニケーション・ロボット280の一例である。 FIG. 40 is an example of a communication robot 280 placed near a personal computer 80.

コミュニケーション・ロボット280は,胴体部281と頭部282とが含まれている。頭部282の目283の内部には眼カメラが設けられており,口284にはスピーカが設けられている。頭部282は,胴体部281に対して時計回りおよび反時計回りに回転自在である。パーソナル・コンピュータ80に向かって右側にコミュニケーション・ロボット280が配置されている。パーソナル・コンピュータ80の正面にユーザが座る。このように,パーソナル・コンピュータ80とコミュニケーション・ロボット280とユーザとの配置位置をあらかじめ定めておく。パーソナル・コンピュータ80の表示装置92の表示画面に再生ウインドウ130を表示させ,映像表示領域141に表示されている映像についてコメントを音声出力するときには表示装置92の方に向き,映像を閲覧しているユーザに対してコメントを音声出力するときにはユーザの方に向くようにコミュニケーション・ロボット280が制御される。 The communication robot 280 includes a body 281 and a head 282. An eye camera is provided inside the eye 283 of the head 282, and a speaker is provided in the mouth 284. The head 282 is rotatable clockwise and counterclockwise relative to the body 281. A communication robot 280 is placed on the right side when facing the personal computer 80. A user sits in front of a personal computer 80. In this way, the positions of the personal computer 80, communication robot 280, and user are determined in advance. When displaying the playback window 130 on the display screen of the display device 92 of the personal computer 80 and outputting a voice comment about the video displayed in the video display area 141, the user turns toward the display device 92 and views the video. When outputting a voice comment to the user, the communication robot 280 is controlled so as to face the user.

図41は,コミュニケーション・ロボット280の電気的構成を示すブロック図である。 FIG. 41 is a block diagram showing the electrical configuration of communication robot 280.

コミュニケーション・ロボット280には,全体の動作を統括するCPU291,データ等を記憶するメモリ292,パーソナル・コンピュータ80,ドライブ・レコーダ1などと通信する無線通信回路294および無線通信回路294と接続されている無線LAN(local area network)ボード293が含まれている。また,コミュニケーション・ロボット280には,頭部282を回転させる頭部モータ296,眼カメラ298ならびにスピーカ300およびマイクロフォン301が含まれている。頭部モータ296は,モータ制御ボード295によって制御され,眼カメラ298によって撮影された映像データはセンサ・ボード297によってコミュニケーション・ロボット280に取り込まれる。さらに,スピーカ300からの音声出力,マイクロフォン301からの音声入力は音声入出力ボード299によって制御される。 The communication robot 280 is connected to a CPU 291 that controls the overall operation, a memory 292 that stores data, etc., and a wireless communication circuit 294 that communicates with the personal computer 80, the drive recorder 1, etc. A wireless LAN (local area network) board 293 is included. The communication robot 280 also includes a head motor 296 that rotates the head 282, an eye camera 298, a speaker 300, and a microphone 301. The head motor 296 is controlled by a motor control board 295, and the image data taken by the eye camera 298 is taken into the communication robot 280 by the sensor board 297. Furthermore, audio output from speaker 300 and audio input from microphone 301 are controlled by audio input/output board 299.

図42は,コミュニケーション・ロボット280の処理手順を示すフローチャートである。コミュニケーション・ロボット280の動作プログラムはメモリ292に格納されているのはいうまでもない。 FIG. 42 is a flowchart showing the processing procedure of communication robot 280. Needless to say, the operation program for communication robot 280 is stored in memory 292.

パーソナル・コンピュータ80の表示装置92の表示画面には,上述した再生ウインドウ130が表示され,再生ウインドウ130の映像表示領域にドライブ・レコーダ1によって記録された映像が表示される。パーソナル・コンピュータ80とコミュニケーション・ロボット280とが通信し,パーソナル・コンピュータ80からコミュニケーション・ロボット280に加速度データがパーソナル・コンピュータ80からコミュニケーション・ロボット280に送信される(加速度データ以外のデータ,映像ファイルのヘッダ記録領域31に記録されているデータ,イベント・データなどがパーソナル・コンピュータ80からコミュニケーション・ロボット280に送信されてもよい。映像を見て,コミュニケーション・ロボット280がユーザ等にアドバイスできるようなデータがパーソナル・コンピュータ80からコミュニケーション・ロボット280に送信されればよい)。 The above-described playback window 130 is displayed on the display screen of the display device 92 of the personal computer 80, and the video recorded by the drive recorder 1 is displayed in the video display area of the playback window 130. The personal computer 80 and the communication robot 280 communicate, and acceleration data is sent from the personal computer 80 to the communication robot 280 (data other than acceleration data and video file data). Data, event data, etc. recorded in the header recording area 31 may be transmitted from the personal computer 80 to the communication robot 280.Data that allows the communication robot 280 to advise the user etc. by viewing the video may be sent from the personal computer 80 to the communication robot 280).

コミュニケーション・ロボット280に送信された加速度データにもとづいて,コミュニケーション・ロボット280のCPU291が表示されている映像を記録したドライブ・レコーダ1が取り付けられている車両の前後方向での急激な加速度の変化があったと判断した場合には(ステップ311),その車両の急ブレーキが踏まれたと考えられる。すると,図40に示すようにユーザの方向を向いていたコミュニケーション・ロボット280は,頭部282が時計回りに90度回転させられ(ステップ312),パーソナル・コンピュータ80の表示装置92の方向を向かされる。表示装置92の表示画面には急ブレーキを踏んだ場面の映像が表示されており,コミュニケーション・ロボット280が表示装置92の方に向くと,危険な運転な場面である旨がスピーカ300から音声出力される(ステップ313)。たとえば,「このような運転は危険です。」との音声が出力される。音声データはメモリ292に記憶されている。 Based on the acceleration data sent to the communication robot 280, the CPU 291 of the communication robot 280 detects sudden changes in acceleration in the longitudinal direction of the vehicle to which the drive recorder 1 that records the displayed image is attached. If it is determined that there was a brake failure (step 311), it is considered that the brakes of the vehicle were suddenly pressed. Then, as shown in FIG. 40, the head 282 of the communication robot 280, which was facing the user, is rotated 90 degrees clockwise (step 312), and is now facing the display device 92 of the personal computer 80. be exposed. The display screen of the display device 92 displays an image of the scene where the brakes are suddenly applied, and when the communication robot 280 turns toward the display device 92, an audio message is output from the speaker 300 indicating that the situation is a dangerous driving situation. (step 313). For example, a voice saying "Driving like this is dangerous." is output. The audio data is stored in memory 292.

その後,コミュニケーション・ロボット280の頭部282が反時計回りに90度動かされ(ステップ314),コミュニケーション・ロボット280はユーザの方に向く。コミュニケーション・ロボット280がユーザの方に向くと,表示装置92の表示画面に表示された映像の場面のような危険な運転はしないように注意を促す旨がスピーカ300から音声出力される(ステップ315)。たとえば,「安全運転を心がけましょう。」との音声が出力される。指導員のような人間ではなく,コミュニケーション・ロボット280からの注意なのでユーザは,素直に注意を聞くようになる。 The head 282 of the communication robot 280 is then moved 90 degrees counterclockwise (step 314) so that the communication robot 280 faces the user. When the communication robot 280 faces the user, a voice is output from the speaker 300 to warn the user not to drive in a dangerous manner, such as in the video scene displayed on the display screen of the display device 92 (step 315). ). For example, a voice message saying, ``Let's drive safely.'' is output. Since the warning comes from the communication robot 280, rather than a human like an instructor, the user obediently listens to the warning.

図43は,上述したコミュニケーション・ロボット280を車内のダッシュボード311上に置いた様子を示している。 FIG. 43 shows the communication robot 280 described above placed on a dashboard 311 inside a car.

上述したように,ドライブ・レコーダ1がフロント・ガラス310の上部に取り付けられている。ドライブ・レコーダ1とコミュニケーション・ロボット280とが通信し,上述のように,車両が自動運転中であることがドライブ・レコーダ1において認識されると,ドライブ・レコーダ1からコミュニケーション・ロボット280に動作開始コマンドが送信される。コミュニケーション・ロボット280が動作し,車両の運転手等と話しを開始することとなる。 As described above, the drive recorder 1 is attached to the top of the windshield 310. When the drive recorder 1 and the communication robot 280 communicate, and as described above, when the drive recorder 1 recognizes that the vehicle is operating automatically, the drive recorder 1 causes the communication robot 280 to start operating. Command is sent. The communication robot 280 operates and starts talking with the driver of the vehicle, etc.

さらに,ドライブ・レコーダ1に記録された映像データを再生する場合に,ドライブ・レコーダ1が取り付けられた車両が走っている道路情報(たとえば,道幅が狭くなっている,行き止まりの道であるなどの情報)をCPU90が映像データから解析し,解析結果に応じて映像表示領域141に表示されている映像の表示を変えて表示してもよい。たとえば,検出した道路情報を示す文字列を映像に重畳して表示してもよいし,映像全体または一部の色相,明度および彩度のうち,の一部を調整してもよい。映像表示領域141に表示されている映像が変わるので,道路の状態に変化があることなどを知ることができる。 Furthermore, when playing back video data recorded on the drive recorder 1, information on the road on which the vehicle to which the drive recorder 1 is attached is running (for example, the road is narrow, the road is a dead end, etc.) information) from the video data, and the display of the video displayed in the video display area 141 may be changed depending on the analysis result. For example, a character string indicating detected road information may be displayed superimposed on the video, or some of the hue, brightness, and saturation of the entire or part of the video may be adjusted. Since the image displayed in the image display area 141 changes, it is possible to know that there is a change in the road condition.

さらに,映像ファイルのヘッダ記録領域31に,イベント記録のトリガ情報を記録するようにしてもよい。たとえば,ウインカーの操作を行った情報,急ブレーキの操作を行った情報,ワイパーの操作を行った情報などをイベント記録のトリガ情報として記録する。さらに,ドライブ・レコーダ1による記録中にユーザが助手席に座り,ユーザの頭に眼鏡型ディスプレイ装置を取り付けてもよい。そのディスプレイ装置のディスプレイ画面には,運転時の注意情報が表示され,ディスプレイ画面を通して,運転中の車両の前方の景色(走行中の車から見える現実の風景の一例である)が見える。車両の前方の景色に重ねて,運転時の注意情報が表示されることとなる。あらかじめ走行する道路が定められており,その道路における注意情報がディスプレイ装置に表示されるのはいうまでもない。また,ユーザ以外の第三者(たとえば,自動車の指導員)が車両に同乗し,ディスプレイ装置に表示する注意情報を選択し,選択された注意情報がユーザのディスプレイ装置に表示するようにしてもよい。 Furthermore, trigger information for event recording may be recorded in the header recording area 31 of the video file. For example, information on turn signal operation, sudden brake operation, wiper operation, etc. is recorded as trigger information for event recording. Furthermore, the user may sit in the passenger seat while the drive recorder 1 is recording, and the glasses-type display device may be attached to the user's head. The display screen of the display device displays driving caution information, and through the display screen, the scenery in front of the vehicle being driven (an example of the actual scenery seen from a moving car) can be seen. Driving caution information will be displayed overlaid on the scenery in front of the vehicle. Needless to say, the road the vehicle will travel on is determined in advance, and caution information for that road is displayed on the display device. Alternatively, a third party other than the user (for example, a driving instructor) may ride in the vehicle and select the caution information to be displayed on the display device, and the selected caution information may be displayed on the user's display device. .

上述の実施例では,ドライブ・レコーダ1は,車両の前方,側方,後方など全方位を記録できるものであったが,必ずしも全方位を記録できるものでなくともよい。 In the above-described embodiment, the drive recorder 1 is capable of recording in all directions such as the front, side, and rear of the vehicle, but it does not necessarily have to be able to record in all directions.

さらに,ドライブ・レコーダ1における記録は,通常の常時記録およびイベント記録を行っているほかに行われるようにしてもよい。たとえば,イベント記録であれば,加速度センサとトリガのスイッチで,前後を記録する。常時記録とは別にイベント記録として残しておく。加速度センサが反応した前後の30秒30秒の1分を記録してもよい。たとえば,1回目のイベントが発生し,2回目のイベントが発生,例えば,1回目カードレールにぶつかり,それで車が振られて2回目ガードレールにぶつかった場合の記録を行ってもよい。記録時間が重複した場合に一つのイベントとしてもよい。イベントとイベントとの間が
空いたら別のイベントとして記録してもよいし,重ならなければ2つのイベントとして処理してよい。
Furthermore, the recording in the drive recorder 1 may be performed in addition to normal constant recording and event recording. For example, for event recording, an acceleration sensor and a trigger switch are used to record the previous and subsequent events. Keep an event record separate from the regular record. You may also record the 30 seconds and 30 seconds before and after the acceleration sensor responds. For example, a first event occurs and a second event occurs, for example, a case may be recorded in which the car collides with a card rail the first time, and then the car is swung and collides with the guard rail a second time. If the recording times overlap, it may be treated as one event. If there is a gap between two events, they may be recorded as separate events, or if they do not overlap, they may be processed as two events.

また,工場の中のラインで,工場のラインをきちんと流すために,ラインを構築して,ラインを監視,ラインを調整するカメラに上述のドライブ・レコーダ1を用いてもよい。工作機械で組み立てするときに,その組み立てを撮像するために,問題が起きそうなところに,仮にカメラを取り付ける。工場で新規にラインを立ち上げたときに,仮に3か月くらいつけて,不具合を検証してもよい。工場の工作機械でアラートを出した前後を記録しておいてもよいし,工作機械についている行灯(信号灯),緑,黄色,赤などのトリガに応じて,その前後を撮像するようにしてもよい。そのようなカメラから得られる映像データを,上述の再生ウインドウ130に表示してもよい。イベントだけ撮像してもよいし,常時撮像してもよい。 Further, the drive recorder 1 described above may be used as a camera for constructing a line in a factory, monitoring the line, and adjusting the line in order to properly run the factory line. When assembling with machine tools, cameras are temporarily installed in areas where problems are likely to occur in order to take images of the assembly. When starting up a new line at a factory, it would be a good idea to run it for about three months and verify any defects. You can record before and after an alert is issued by a machine tool in a factory, or you can capture images before and after an alert is issued in response to a trigger such as a signal light attached to a machine tool, green, yellow, or red. good. Video data obtained from such a camera may be displayed in the playback window 130 described above. Images may be taken only at events, or images may be taken all the time.

全天球型のドライブ・レコーダ(全方位撮影するドライブ・レコーダ),広角カメラのドライブ・レコーダであっても人間が見える範囲はカメラの撮像範囲と同じではなく,人間の年齢,個人差によって見える範囲が変わる。高齢者講習,免許の更新をする中で視野角が狭いと危なく,段差に乗り上げることがおおいので,ドライブ・レコーダ1を用いて運転している映像を記録し,段差に乗り上げていることを見せながら講習するとよい。弓座の見える範囲を表示することにより運転手の否定をするわけでなく,見えないのであれば,きちんと見てください,見えるように首を振ってください,という講習を行うことができる。たとえば,再生時に見える範囲がわかるように枠を表示させるとよい。 Even with spherical drive recorders (drive recorders that shoot in all directions) and drive recorders with wide-angle cameras, the range that humans can see is not the same as the camera's imaging range, and the range that humans can see depends on the age of the person and individual differences. The range changes. During senior citizen training courses and driver's license renewals, narrow viewing angles can be dangerous and cause drivers to run over bumps, so record video of them driving using drive recorder 1 and show that they are running over bumps. It is a good idea to take a class while doing so. By displaying the visible range of the bow seat, the driver is not denied, but can be taught that if he cannot see it, he should look carefully and turn his head so that he can see it. For example, it may be a good idea to display a frame so that you can see the visible range during playback.

ドライブ・レコーダ1による運転状況(風景,景色)の記録時に,運転者の目の動向を同時に記録しておいて,視野範囲をずらしたら,視野範囲の中のどこを向いているかというベクトル,丸を表示してもよい。走行時に視線がどこを向いていたかというのを記録しておき,再生ウインドウ130において表示するときに,表示する範囲,枠を,向いている方向にずらすとよい。全天球(全方位)を撮影できるドライブ・レコーダ1であると,車両の前方,側方,後方の全部が記録されているので,運転手の向いている方向が画像認識でわかる。それに伴い,表示する枠を動かすとよい。時間軸に現在だけでなく,今,過去,未来で,どの程度確認していたか,今,まっすぐ見ていたが,過去は見ていない,ということを再生ウインドウ130で表示するとよい。たとえば,見ていない範囲を塗りつぶしていくとよい。まったく見ていない範囲がわかる。どこまで首を振っているか,視線,どこまで見ているかわかる。ドライブ・レコーダ1と視線検出センサとを接続し,センサで撮った視線を表示してもよい。ユーザが見ていない場所がわかる。通常走行,高速走行,交差点での走行などに応じて,撮像時間が変わる。教習所での運転時間,交差点止まっている前後の間,とか。教習所の中の各ポイントで見る範囲があらかじめ定められており,それとどのくらいマッチしたかを判定する。何パーセント以上見ていれば合格など,基準があればいい。普通の運転でも交差点のときに止まった時にどのくらい見たか,速度,時速40km/hから80km/h,80km/h以上とか,その速度に応じて,どのくらい見ているかを判定してもよい。高速になれば,横は見ないけど,バックミラーは見る,街中だと,横も気にしなければならない。20km/h以下の徐行運転は360度見ていなければならない,ミラー,死角も確認しながら運転しなければならない。ウインカー,ブレーキ,ハンドルの舵角にもとづいて,見る範囲が変わる。右側に曲がろうとすれば,右側は比較的正確に見なければならない。再生ウインドウ130を用いることにより,たとえば,ウインカーを出した前,ハンドルを回す前に確認しているということがわかる。さらに,高齢者教習のときに教習所の中で実際に高齢者が運転し,ドライブ・レコーダをつけて,あとからこのように運転していたと再生ウインドウ130で見せるとよい。シミュレータでもいいが,実際に運転しないと,高齢者は納得しないので,実際の映像で理解してもらうことができる。本人に理解してもらうのと,指導員がわかりやすいという二つの効果がある。指導員向けの情報も出してあげるといい。見ていない範囲を塗りつぶしているのは指導員向けの情報ととらえて
もよい。ミラー見ていない,ミラーなどの注視ポイントをあらかじめ,もっておいて,その計器類(スピード・メーターなど)を見ているかチェックしてもよい。泥酔眼鏡をかけさせたときの運転状況をドライブ・レコーダ1で記録し,その状況を見せてもいい。
When recording the driving situation (scenery, landscape) using the drive recorder 1, if the driver's eye movements are recorded at the same time and the visual field is shifted, a vector indicating where the driver is facing within the visual field, a circle may be displayed. It is a good idea to record where your line of sight was when you were driving, and when displaying it in the playback window 130, shift the displayed range or frame in the direction you are facing. Since the drive recorder 1 is capable of capturing images in all directions, the front, sides, and rear of the vehicle are all recorded, so the direction in which the driver is facing can be determined by image recognition. It is a good idea to move the display frame accordingly. It is preferable to display in the playback window 130 how much you were checking not only the present but also the present, past, and future on the time axis, and how much you were looking straight at the moment but not looking at the past. For example, you can fill in areas that you are not looking at. You can see areas that you haven't seen at all. You can see how far they are shaking their head, how far they are looking, and how far they are looking. The drive recorder 1 and a line of sight detection sensor may be connected and the line of sight taken by the sensor may be displayed. See where users aren't looking. Imaging time varies depending on whether the vehicle is driving normally, at high speeds, or at an intersection. Things like driving time at driving school, before and after stopping at intersections, etc. The range to be viewed at each point in the driving school is predetermined, and it is judged how well it matches that range. It would be nice if there were a standard, such as a certain percentage that you need to see to pass. Even in normal driving, you can judge how much you look when you stop at an intersection, or how much you look depending on your speed, such as from 40 km/h to 80 km/h, or over 80 km/h. At high speeds, I don't look to the side, but I do look in the rearview mirror, and when I'm driving around town, I have to pay attention to the sides as well. When driving slowly at speeds of 20 km/h or less, you must look 360 degrees and check your mirrors and blind spots. The viewing range changes based on the turn signals, brakes, and steering angle. If you want to turn to the right, you have to look relatively accurately to the right. By using the playback window 130, it can be seen that, for example, confirmation is being made before turning on the turn signal or turning the steering wheel. Furthermore, it is a good idea to show in the playback window 130 that an elderly person actually drives in the driving school during a training session for the elderly, turns on a drive recorder, and later shows the driver driving in this manner. A simulator is fine, but elderly people won't be convinced unless they actually drive the car, so you can get them to understand using actual videos. This has two effects: it helps the person understand, and it makes it easier for the instructor to understand. It would be a good idea to provide information for instructors as well. The areas not seen can be considered to be information for instructors. If you are not looking at the mirror, you can have a point of focus in advance, such as a mirror, and check whether you are looking at that instrument (speedometer, etc.). You can record the driving situation when the driver wears the drunk glasses on the drive recorder 1 and show the driving situation.

バスのミラーは十何個あるので,運転手は全部見ているか,タコグラフに加えて,視覚関係での評価をしてもよい。視線(目線)を表示しておいて,運転中の何パーセントをここ見ているという評価ができる。ウインカーを出した前後,見ている箇所とみていない箇所との評価ができる。バスとか業務用の車両は必ずルーチンがあり,バス停,発車の前には確認するマニュアルがあり,フォークリフトでも,前後左右,確認をしているので,バス,電車,トラック,フォークリフトの通常のルーチンにしたがって運転しているかの評価ができる。乗客の動きも見せられる。 There are more than 10 mirrors on a bus, so in addition to the tachograph, you can also use visual evaluation to see if the driver is looking at all of them. By displaying your line of sight, you can evaluate what percentage of your time you are looking at while driving. You can evaluate before and after using the turn signal, and where you are looking and where you are not looking. Buses and commercial vehicles always have a routine, and there is a manual to check at the bus stop and before departure, and forklifts also check front, back, left, and right, so this is a normal routine for buses, trains, trucks, and forklifts. Therefore, it is possible to evaluate whether the driver is driving. You can also see the movements of passengers.

再生されている状態で,見ている状態,目線の履歴を残すと,ウインカーを出した瞬間などをトリガにして,その前後を解析することにより,きちんと死角などをみているかわかる。運転の場合,適切なときに適切な場所を見なければならないので,通常の視線解析と異なる。動画で車が進んでいる,トリガ,ウインカー,ハンドルを切る前には見る場所が決まっている。条件みたいのものが時間によって変わっていく。見たタイミングが遅かったりする。時間と対応づけて適切になっているが重要。本来見るところがある。見るべきところを示し,ユーザが底を見ていたか,というガイド的なお手本を見せる。交差点に近づいていたら,ここを見る,曲がっているときなら,ここを見る。トリガの種類,何をトリガにするか,速度,ウインカー,交差点という場所,赤信号,道路標識,横断歩道なら右と左確認しているか,バックに入れたときに後ろ見ているか,前見てバックしない。ミラーを見て確認する。バックモニターしか見ない。左右は見る。そのようなところを確認しているか,目線が前に向いているにも関わらず,バックはおかしい。後ろを見ているにも関わらず,ドライブはおかしい。運転者を撮像している映像から視線解析,向きがわかる。目を開けているかについても検出し,再生時に目を開けているかどうかの情報を表示するようにしてもよい。運転の悪かったところの場面を映画のフィルムのようにサムネイルで見せるようにしてもよい。たとえば,見ていなければならない箇所,車線変更でミラーを見ていない,ウインカー,アクセル,などを操作していないなど,所定の動作においてやるべきことがあるので,それで一致していないところを切り出してサムネイルとして表示するようにしてもよい。 If you keep a history of your viewing conditions and line of sight during playback, you can use the moment when you turn on your turn signal as a trigger, and analyze what happened before and after that to see if you are looking properly into blind spots. When driving, this is different from normal line of sight analysis because you have to look at the right place at the right time. In the video, the car is moving, the trigger, the turn signal, and the place to look before turning the steering wheel is determined. Things like conditions change over time. I may have seen it too late. It is important that it is appropriate in relation to time. There is something to see. Show the user what to look at and provide a model guide to ensure the user is looking at the bottom. If you are approaching an intersection, look here. If you are turning, look here. Types of triggers, what to trigger, speed, blinkers, location of intersections, red lights, road signs, if it's a crosswalk, are you checking left and right? Are you looking behind you when you put it in reverse? Are you looking ahead? Don't back up. Check the mirror. I only see the rear monitor. Look left and right. Even though I'm looking forward, perhaps because I'm looking at something like that, the back doesn't look right. Despite looking behind me, the drive is strange. The driver's line of sight can be analyzed and the driver's direction can be determined from the video captured. It may also be possible to detect whether the eyes are open and display information on whether the eyes are open during playback. It may also be possible to display thumbnails of scenes of bad driving, similar to a movie film. For example, there are certain things that need to be done during certain actions, such as not looking at the mirror when changing lanes, not operating the turn signal, accelerator, etc., so we can identify areas that do not match. It may also be displayed as a thumbnail.

運転の採点をする場合に,止まっているところは採点の対象外としてもよい。スムーズに動いたか,止まったか,急ハンドル,急ブレーキしていないかどうかで採点する。映像の中でビルが動いている,前の車は動いていない,どの場所がどのくらい動いていたときに,評価対象とする。車両が止まっているときは,評価対象としない。止まっているところは使わないで評価する。車両が止まっているところはパスして,次のところに映像を飛ばす,早送りするようにしてもよい。赤信号から青信号に変わったところに映像を進めてもよい。採点者が映像を見るときに,時間短縮できる。外側の映像だけでなく,内側でお客が乗った時,乗った時だけ,表示する。お客の変化があったときだけ,再生すれば,お客が乗ったときの特集となる。タクシーならお客の顔がわかればよいからである。 When grading driving, stopping points may be excluded from scoring. Scores are given based on whether the vehicle moved smoothly, stopped, and whether there was sudden steering or braking. The evaluation target is whether the building is moving in the video, the car in front is not moving, and where and how much it is moving. When the vehicle is stationary, it is not subject to evaluation. Evaluate without using the parts that are stopped. You may also be able to skip over the part where the vehicle is stopped and skip to the next part, or fast-forward the video. The video may advance to the point where the light changes from red to green. This can save time for graders when viewing videos. In addition to showing images of the outside, the system also displays images inside when a passenger gets on the train, and only when a passenger gets on the train. If you play it only when there is a change in the number of passengers, it becomes a special feature when the passenger rides. This is because in the case of a taxi, it is enough to recognize the customer's face.

また,検索するときに,たしか明るいときとすると,明るい映像を見つけ,新幹線があったということであれば,新幹線の映像を見つけ,新幹線の映像をピックアップできる。このように,大体のものから,条件にあったものを映像の中からピックアップするとよい。一週間の映像があったときに,あいまいなことを言われたときに,探し出すようになる。プレゼンで見せたいときに,あのあたりだった,というのも探せる。スーパーの駐車場で光がこういう状況のものを見せたい,というのを検索してもよい。特定物なのか,こんな状況,こんな時間,記録していた車の状態,スピードを出した,急加速した,ウインカーを出した,というのをキーとして見つけ出すとよい。赤い車が青い車を追い越した後,
動的な動きのあとの映像を探す,動画の中のこの連続したシーンのあとから所望のシーンを探し出すとよい。
Also, when searching for a bright day, you can find bright images, and if there is a Shinkansen, you can find images of Shinkansen and pick up images of Shinkansen. In this way, it's a good idea to pick up things from the video that fit your conditions from a general range of things. When I have a week's footage and am told something ambiguous, I start looking for it. When you want to show something in a presentation, you can find out what happened in that area. You can also search for something like this with lights in a supermarket parking lot. It is best to use the key to find out whether it is a specific object, such as this situation, such time, the state of the car being recorded, whether it was speeding, accelerating suddenly, or using its turn signal. After the red car overtakes the blue car,
It is best to search for images after dynamic movement, and search for the desired scene after these consecutive scenes in the video.

上部に実際の画像,下部に認識した画像を出したり,車種を画像で判別したり,輪郭で見せたりしてもよい。このような場面というあいまいさから,所望の映像の場面の候補を出し,選ばせるようにしてもよい。画像ごとに,ここに何があってという風にタグ付けし,そこにこれが,何分間あったとか。5分以上停止していたら,としてもよいし,映像を再生するソフトウエアに音声認識機能を付けてもよい。 It is also possible to display the actual image at the top and the recognized image at the bottom, or to distinguish the car type from the image, or to show it as an outline. Due to the ambiguity of such scenes, candidates for desired video scenes may be presented and selected. Each image is tagged to say what happened here, and how long it was there. If the video has been stopped for more than 5 minutes, the video may be stopped, or the software that plays the video may be equipped with a voice recognition function.

再生時に,運転者がどこを見ていたか表示すると良い。よそ見していると判定されたときに,再生ウインドウ130にマークを付けてもよいし,よそ見をした瞬間に映像を赤にしてもよい。全天球カメラで撮像し,どこを見ているかがわかるからである。よそ見していたら,警報が鳴ってもよい。目をつぶっていたら警報が鳴ってもよい。その部分だけスキップして再生,その部分だけ再生してもよい。360度カメラのようなウェアラブル・カメラ以外のカメラであれば,ユーザが見た方向がわかるので,その方向を表示できる。ウェアラブル・カメラでもいい。ウェアラブル・カメラでなく,ウェアラブル・センサのように,頭に載せたり,ハチマキみたいなものを用いてカメラをユーザに取り付けたりしてもよい。運転手がどこを向いているのかわかるセンサはあってもいい。耳に加速度センサ(カメラ)をつけてもよいし,女性の髪留めにセンサ(カメラ)をつけてもよい。帽子のつばのところにクリップでセンサ(カメラ)を留めてもよい。それらのセンサと全天球画像とを組み合わせてどっちを向いているのかっていうのをわかるようにしてもよい。全天球画像で解析できる。反対側を出す,裏側の方に,視野範囲を示す枠領域があるということを知らせてもよい。枠を表示中だけど,今見えているものには無いという状況を知らせるようにしてもよい。外枠を緑枠にするとか,見えている範囲はきれいに見えており,それ以外はグレーがかつているようにしてもよい。確認することによりクリアな領域が広がっていくようにしてもよい。見ていない範囲が一目でわかる。頭の動きがない時間は,その範囲をクリアしてもよい。ハンドルをきった前後,ウインカーを出した前後の間だけ見えている範囲と見えていない範囲とを表示するようにしてもよい。下の地図に,カメラが向いている角度を表示してもよい。視線(目線)の角度と車の角度との両方を表示してもよい。映像自体の角度を表示してもよい。車の向きと目線の向きで,どの程度見えているかを見せてもよい。今とっている画角を表示してもよいし,表示しているエリアの画角を表示してもよい。 It would be good to display where the driver was looking during playback. When it is determined that the user is looking away, a mark may be placed on the playback window 130, or the video may be turned red the moment the user looks away. This is because images are taken with a spherical camera, and you can see where you are looking. If you look away, the alarm may go off. If you close your eyes, the alarm may go off. You can skip and play only that part, or you can play only that part. Cameras other than wearable cameras, such as 360-degree cameras, can tell you the direction the user is looking, and can display that direction. It could also be a wearable camera. Instead of a wearable camera, the camera may be placed on the user's head or attached to the user using something like a headband, like a wearable sensor. There may be a sensor that can tell where the driver is facing. Acceleration sensors (cameras) may be attached to ears, or sensors (cameras) may be attached to women's hair clips. The sensor (camera) may be clipped to the brim of the hat. You may be able to tell which direction the object is facing by combining these sensors with a spherical image. Can be analyzed using spherical images. It may be possible to show the opposite side and inform that there is a frame area on the back side that indicates the viewing range. It may be possible to notify the user that a frame is being displayed, but that it is not currently visible. You can also make the outer frame a green frame, or make the visible area look clear and the rest gray. The clear area may be expanded by checking. You can see at a glance what you are not looking at. You may clear the area during times when there is no head movement. The visible and invisible ranges may be displayed only before and after turning the steering wheel or before and after using the turn signal. You may want to show the angle the camera is facing on the map below. Both the angle of the line of sight (line of sight) and the angle of the vehicle may be displayed. The angle of the image itself may also be displayed. You may want to show how much you can see by looking at the direction of the car and your line of sight. The current angle of view may be displayed, or the angle of view of the currently displayed area may be displayed.

全天球カメラのドライブ・レコーダにおいてVR(virtual reality)表示ができるようにしてもよい。全天球カメラの映像は,360度まるまる取っているので,平面でのVRみたいな映像が得られる。そのとき,基準方向は,フロント・カメラ側を基準にしてもいいし,撮影している方向,北側などを基準としてもよい。基準方向を北とした方向とVRの視野角の範囲にどのくらいにマッピングすればいいのか決定する必要がある。ドライブ・レコーダ1の場合,前方方向が前となる。本体を動かした方向が見えるという再生装置としてもよい。この範囲が,自分が見えている範囲だが,10歳若い人はもっと見えている,ということを示せる。比較できるという機能を備えてもよい。今,これくらい見えているのが10年後,30年後は,こんなに見えなくなるということが分かる。年齢ごとの角度範囲を指導員が切り替える機能を持たせてもよい。年齢別で切り替えられてもよい。運転者の見える方向基準でVR表示してもよい。VRデバイスに表示できるような,ドライブ・レコーダ1で記録された映像の再生ソフトウエアを提供してもよい。VRデバイスで,加速度とかをオーバーレイで出してもいいし,OSD(オン・スクリーン・デバイス)で表示してもよい。加速度とかを立体表示してもいい。映像自体は3Dできないが,球体の中で見えている面より手前に,半透過で見せることができる。いらない領域にパネルを出すようにしてもよい。首を動かすだけでわかる。視線がどこに行っているというものは,手前にあればいい,オーバーレイ的なものは手前にある。見ている時間によって濃くなってもよ
いし,見ている頻度によって濃いところと薄いところができるようにしてもよい。横向いたら,横の画像が見え,上向いたら,上の画像が見えるようにしてもよい。向いている方向は,加速度センサ,地磁気センサ,ジャイロで検出するとよい。まっすぐ前というのはカメラが固定されているので,これから前の方向がわかる。球の中心が前とすればよい。カメラは常に前向いている。画像データをフレームワークに与えればいい。
The drive recorder of the omnidirectional camera may be capable of displaying VR (virtual reality). The images from the spherical camera capture the entire 360 degrees, so you can get images similar to VR on a flat surface. At this time, the reference direction may be based on the front camera side, or may be based on the shooting direction, north side, etc. It is necessary to determine how far to map the direction with the reference direction north and the viewing angle range of VR. In the case of drive recorder 1, the forward direction is the front. It may also be a playback device in which the direction in which the main body is moved can be seen. This range is the range that you can see, but you can show that someone 10 years younger can see more. It may also have a function that allows comparison. You can see that what you can see now will not be as visible 10 or 30 years from now. The instructor may also have a function to switch the angle range for each age group. It may be switched according to age. VR display may be performed based on the direction that the driver can see. Software for playing back video recorded by the drive recorder 1, which can be displayed on a VR device, may be provided. With a VR device, acceleration and other information can be displayed as an overlay, or as an OSD (on-screen device). You can also display things like acceleration in 3D. Although the image itself cannot be viewed in 3D, it can be shown semi-transparently in front of the visible surface of the sphere. A panel may be placed in an area where it is not needed. You can tell just by moving your head. Where the line of sight is going, it should be in the foreground, and overlays should be in the foreground. It may become darker depending on how long you look at it, or it may become darker and lighter depending on how often you look at it. If you turn sideways, you can see the image on the side, and if you turn up, you can see the image above. It is best to detect the facing direction using an acceleration sensor, geomagnetic sensor, or gyro. When you are looking straight ahead, the camera is fixed, so you can see the direction in front of you. The center of the ball should be in front. The camera is always facing forward. Just give the image data to the framework.

管理者が見るときのという観点で,信号待ちとか停車中で映像に変化がない状態では見ても仕方がない映像で,そこは勝手に再生ソフトウエア(プログラム)が認識してスキップする機能を持たせるとよい。 From the administrator's point of view, there is no point in watching the video when there is no change in the video while waiting at a traffic light or when the vehicle is stopped. It's good to have it.

地図上において,車両の動いた軌跡を表示し,その軌跡の点を指定したら,そこにジャンプする機能を持たせてもよい。地図のある点が,どの時間の映像かは,地図の点に対応して時間が書いてあり,カーソルを持ってくると時間が出るので,その時間の映像を見つけられる。ストリート・ビューを表示してもよい。ストリート・ビューの映像と,ドラレコで記録している映像とを切り替える機能を持たせてもよい。ストリート・ビューは,過去,現在のものがあるので,1年前は,こういう景色でしたということが分かる。走ったところの3年前の映像が見られる。ビルが建つ前と建った後の映像が見られる。別のウインドウでもいいので表示するとよい。地図自体も古いのに切り替えられるとよい。撮影した日が入っているのであれば,秋の映像が見たいとか,春の映像が見たいとか,所望の季節の映像を表示させてもよい。通勤で同じところを走っていると夏,冬の映像を表示させてもよい。今,走っているところとおなじ映像を表しするようにしてもよい。雨の日は,こんな感じだったとか表示するようにしてもよい。 A function may be provided to display the trajectory of the vehicle on the map and jump to a specified point on the trajectory. To find out which time an image is at a certain point on the map, the time is written corresponding to the point on the map, and when you move the cursor over it, the time will appear, allowing you to find the image at that time. A street view may also be displayed. It may also be possible to provide a function to switch between Street View video and video recorded on a drive recorder. There are past and present street views, so you can see what the scenery looked like a year ago. You can see footage from three years ago of the run. You can see footage of the building before and after it was built. You can also display it in a separate window. Even though the map itself is old, it would be nice to be able to switch to it. If the shooting date is included, the desired season's video may be displayed, such as if you want to see an autumn video or a spring video. You can display summer and winter images while commuting to work in the same area. You may also choose to display the same image as the one you are currently running. You may display something like this on a rainy day.

再生ウインドウ130のプレイ・リスト表示領域172に,この映像はこの辺からこの辺に移動した映像であるという情報を表示してもよい。たとえば,岡崎市から豊田市まで行った映像であるという情報を表示してもよい。テキストで出してもいいし,地図の縮小表示としてもよい。非常にわかりやすくなり,使い勝手が良くなる。市町村と領域データがあれば,〇〇市から××市までという表示が可能となる。ロケーションAPI(Application Programming Interface)を利用し,緯度,経度を検索サーバなどに送信すると,その位置は〇〇市という情報が返ってくるので,その情報を出力すればよい。自動で映像ファイルの行先をつけることができる。映像が並んでいるとき,毎日車で通勤していると,通勤の映像はどうでもよい場合に,旅行の映像だけ見たいのであれば,ここからここまでは,通勤とカテゴライズするとより選択しやすい。今の〇〇市であれば,出発点と到着点とが同じところをカテゴライズし,レアなものを上に持っていくとよい。1回くらいしか行っていないところだと,それは旅行の可能性が高いと考えられるからである。 In the play list display area 172 of the playback window 130, information indicating that this video is a video moved from this area to this area may be displayed. For example, information may be displayed indicating that the video travels from Okazaki City to Toyota City. It can be displayed as text or as a reduced map. It is much easier to understand and easier to use. If you have city/town/village and area data, it is possible to display from ○○ city to XX city. If you use the location API (Application Programming Interface) to send the latitude and longitude to a search server, you will receive information that the location is in XX city, so all you have to do is output that information. You can automatically set the destination of the video file. If the videos are lined up, if you commute by car every day, and you don't care about the commuting videos, but you only want to see the travel videos, it will be easier to choose from here if you categorize them as commuting. . In the case of the current XX city, it would be a good idea to categorize the places where the starting and ending points are the same, and put the rare ones at the top. This is because if you have only been to a place once, there is a high possibility that you were traveling.

映像ファイルのヘッダ記録領域31にはGPSのデータがフレーム単位,1秒おき,0.5秒おきなど周期的で格納されている。映像ファイルのファイル名を,特定の地名,たとえば「東岡崎」とするためには,座標を位置検索サーバのAPIに送信し,サーバから戻ってきた情報を用いて映像ファイル名にすればよい。GPSデータを地図の画像を格納しているサーバに投げて,そのサーバから地図を持ってきて表示できる。パーソナル・コンピュータ80が地図データと地名情報とを持っていれば,外部のサーバに送信する必要はない。イベント情報を表示するようにしてもよい。イベントばかりのデータを再生ウインドウ130に表示し,この道を通ったときは,この場面,この場面でイベントが起きています,という情報を表示できる。どこで,急ブレーキ等をしたかということを地図上で出すようにしもよい。行きかえりの通勤の道であれば,どこでイベントが発生して変わったかっていうイベントをまとめて出すようにしてもよい。道を表示し,この道を通ったら,こういうイベントが発生したというのを重ねて,地図上に出すようにしてもよい。たとえば,地図におけるある道路,国道248号線をピッと押せば,国道248号線を通っているときに起きたイベントが,ある期間内の間,たとえば5年分,まとめて地図上に表示され,その場所
は,集中的に危ないというのがわかる。全部ログがでてきクリックするとログが出たり,心拍が出たり,自転車とかカテゴリ分けしてもよい。軽い事象が発生したところ,ここでアクセルをたくさん踏んでいるとか,場所によって事故しやすい場所を特定して集計して表示してもよい。カテゴライズして通勤の映像ファイルを表示し,クリックしたら全部地図上にマップされるようにしてもよい。
In the header recording area 31 of the video file, GPS data is stored periodically, frame by frame, every second, every 0.5 seconds, etc. In order to name the video file as a specific place name, for example "Higashiokazaki", the coordinates can be sent to the API of the location search server, and the information returned from the server can be used to create the video file name. GPS data can be sent to a server that stores map images, and maps can be retrieved and displayed from that server. If the personal computer 80 has map data and place name information, there is no need to send it to an external server. Event information may also be displayed. Data containing only events can be displayed in the playback window 130, and information can be displayed indicating that when passing through this path, an event is occurring in this scene and in this scene. It may also be possible to display on the map where the driver suddenly braked, etc. If it is a commute to and from work, you may want to display all the events where the event occurred and what changed. It is also possible to display a route, and then display it on the map, indicating that an event has occurred after passing through this route. For example, if you press a certain road on the map, National Route 248, the events that occurred while passing through National Route 248 will be displayed on the map for a certain period of time, for example, five years. You can see that places are centrally dangerous. All the logs will appear, and when you click on them, you can see the logs, heart rate, or you can categorize them by category, such as bicycles. If a minor incident occurs, the accelerator pedal may be pressed a lot here, or other locations where accidents are more likely to occur may be identified and aggregated and displayed. You can display commuting video files by categorizing them, and when you click on them, they can all be mapped on a map.

また,一定の区間ごと,たとえば,この交差点からこの交差点までという感じで,何かしらの運転評価が行われて,それが自動的にサーバに保存されるようにしてもよい。再生したときに,他人の評価データも区間ごとに随時蓄積されてくるので,他人の運転と比較して,自分の運転の評価がどうなのか,荒い運転なのか安全運転なのかというのが,再生ウインドウ130に再生しているときに評価が表示されるとよい。映像の下,近くに評価に応じて花丸,泣いた顔がでるようにしてもよいし,得点がでるようにしてもよいし,他人の平均点がでてきてもよい。 Further, some kind of driving evaluation may be performed for each fixed section, for example from this intersection to this intersection, and the evaluation may be automatically saved on the server. When you playback, other people's evaluation data is also accumulated for each section, so you can see how your driving is evaluated compared to other people's driving, and whether it is rough or safe driving. It would be nice if the ratings were displayed in window 130 during playback. Under the video, a crying face may appear near the bottom of the video depending on the evaluation, or scores may be displayed, or other people's average scores may be displayed.

さらに,一定の区間ごとに,映像がサーバに保存され,同じ場所を比較してもよい。たとえば,ある道路,国道一号線のここからここまでとかを比較してもよい。運転の点数をつけるのに加速度センサ,速度,センサ,ジャイロ,ブレーキの踏み方というのでつけるが,逆にその道にとってその得点というのが,果たして,赤点なのか,合格点なのかということなのか。曲がりくねった道では当然ハンドルを何回も切るので,それで蛇行のし過ぎだといわれても,評価が適切でな良い。道が曲がっているからである。絶対評価ではなく,相対評価を出したり,他の人の運転したものを出したりしてもいい。一位の運転者の映像,あなたは30位です,素晴らしい運転の画像はこれですというのを表示してもよい。一位の映像を表示してもいいのかというのはあるが,それを許諾する機能を設ければよい。これを提供していいですか,というのを表示したり,他の人も見ることができるようにしますかというのを表示したり,アップロードというボタンをつけてもよい。カメラ(ドライブ・レコーダ1)自身が通信機能を持っていてアップロードしてもよいし,得点のデータを送信してもよい。再生ソフトウエアをパーソナル・コンピュータ80にインストールするときに確認してもよいし,インストール時に一括で行ってもよいし,アップロードする映像ファイルを一個一個で行うように選ばせるか,アップロードしようとした瞬間に許可ボタンがでるようにしてもよい。映像ファイルについては確認の上でアッブロードし,得点は確認せずにアップロードしてもよい。ユーザと,ユーザが居た情報とを結びつけるのはしない,という規約としてもよい。アップロードするときに,日付データとかを消してもよい。曜日と時間はあってもよいが,個人を特定する情報は消した方がよい。場所と時間だけで車種,個人名がなければ,そのデータが誰のデータかわからなければよい。 Furthermore, images may be stored on the server for each fixed section, and the same locations may be compared. For example, you can compare a certain road, National Route 1, from here to here. Driving scores are given based on the acceleration sensor, speed, sensor, gyro, and how you press the brakes, but on the other hand, does that score really mean a red point or a passing score for the particular road? . Naturally, on a winding road, you will turn the steering wheel many times, so even if it is said that the car meanderes too much, it is not an appropriate evaluation. This is because the road is crooked. Instead of an absolute evaluation, you can give a relative evaluation or give the results of what other people have driven. You can display the video of the number one driver, you are number 30, and this is the picture of great driving. There is a question of whether it is okay to display the first-place video, but it would be better to provide a function that allows this. You can display a message asking if you can provide this, or if you want others to see it, or you can add an upload button. The camera (drive recorder 1) itself may have a communication function and may upload or transmit score data. You can check this when installing the playback software on the personal computer 80, you can do it all at once during installation, you can choose to upload each video file one by one, or you can check it the moment you try to upload it. You may also have a permission button appear. Video files may be uploaded after checking, but scores may be uploaded without checking. It may be a rule that a user is not associated with information about the user's presence. You can also delete date data etc. when uploading. The day of the week and time may be included, but it is better to remove information that identifies individuals. It's fine if you don't know who the data belongs to, just the location and time without the car model or personal name.

農道のような何もない道路は事故が起きる可能性が低いので,一応は撮影(記録)するが,解像度は下げて,街中は飛び出しがあるので,高解像度で撮影(記録)するというのを場所ごとに指定できるようにするとよい。ここからここまでの範囲は低解像度での記録,ここは高解像度の記録と指定できるようにするとよい。長時間撮影できるようになる。その場所を指定するのは再生ウインドウ130を用いて指定する。ユーザが,ここからここまではいいという範囲をあらかじめ指定する。地図で,丸で囲み,この範囲に入ったときには低解像度で撮影(記録)するように再生ウインドウ130で設定するとよい。録画設定をしたメモリ・カード25をドライブ・レコーダ1にセットする。すると,その通りに動くこととなる。液晶表示装置を持っているドライブ・レコーダ1であれば,ドライブ・レコーダ1で設定することもできる。ここは駐車監視のときも解像度を調整してもいい。走行中においても,解像度を変えるようにしてもよい。絶対ここでは何も起きないというのがあるからである。イベント記録で細かく撮影(記録)していればよい。クラウド(サーバ)側ですべてのデータを持っていれば,この場所ではイベントが発生しない,発生する,がわかるので,クラウド側で解像度調整できる。確率が低いところ低解像度(フレーム・レート),確率が高いところは高解像度で記録する。イベントの切り替えなので,イベントのあった
時には高解像度ということにするとよい。旅行先では高解像度,旅行先までの道中は低解像度で記録するようにしてもよい。高速道路で走っているときには,記録しなくてもよい。イベントが起きたときだけ記録(イベント記録)してもよい。たとえば,京都に行くとしたら,京都市内は高解像度で記録し,京都から離れると記録しない。1秒に1フレームにするとか,低フレーム・レートで記録してもよい。動画投稿サイトにアップしたい場所をあらかじめ設定しておいてもよい。たとえば,サーキットに行ったらサーキットのところは高画質で記録し,その道中は記録しないようにしてもよい。低フレーム・レート(低画質)で記録するエリアではなく,高フレーム・レート(高画質)で記録するエリアを指定してもよい。駐車監視で駐車しているときは低フレーム・レートで記録してもよい。
There is a low possibility of an accident occurring on empty roads such as farm roads, so I will shoot (record) them, but I will lower the resolution and shoot (record) in high resolution because there are bumps in the streets. It would be good to be able to specify each location. It would be good to be able to specify the range from here to here as low-resolution recording, and this area as high-resolution recording. You will be able to shoot for a long time. The location is specified using the playback window 130. The user specifies in advance a range from here to here. It is a good idea to circle the area on the map and set the playback window 130 to shoot (record) at low resolution when the area is within this area. Insert the memory card 25 with recording settings into the drive recorder 1. Then, it will move accordingly. If the drive recorder 1 has a liquid crystal display device, the settings can also be made on the drive recorder 1. You can also adjust the resolution here when monitoring parking. The resolution may be changed even while the vehicle is running. Because absolutely nothing will happen here. All you have to do is take detailed pictures (record) of the event. If you have all the data on the cloud (server) side, you can tell whether an event will occur or not occur at this location, so you can adjust the resolution on the cloud side. Areas where the probability is low are recorded at low resolution (frame rate), and areas where the probability is high are recorded at high resolution. Since it is an event switching, it is a good idea to switch to high resolution when an event occurs. It may be possible to record in high resolution at the travel destination and in low resolution while on the way to the travel destination. There is no need to record when driving on a highway. You may also record only when an event occurs (event recording). For example, if you go to Kyoto, the area within Kyoto will be recorded in high resolution, but the area away from Kyoto will not be recorded. It may be recorded at one frame per second or at a low frame rate. You may also set in advance the location where you want to upload videos to the video posting site. For example, if you go to a circuit, you can record the circuit in high quality, but not record while on the way. You may specify an area to be recorded at a high frame rate (high image quality) instead of an area to be recorded at a low frame rate (low image quality). Parking monitoring may record at a low frame rate when the vehicle is parked.

たとえば,京都は高解像度で撮影すると行ったときに,行きかえりも一応記録しておくとよい。記録しないとドライブ・レコーダとして意味がないし,京都に入って設定しようとしても,運転中なので設定できない。たとえば,清水寺の近くだけ高解像度で記録してもよいが,設定することを忘れてしまうので,未然に防止できる。また,峠での走行中は高解像度で記録するとよい。高速道路は高画質で記録して,一般道は低画質で記録してもよい。首都高は高画質で記録し,普通の高速道路は記録しないとしてもよいし,スピードが100km以上となったら記録する,コーナーで加速度がかかったときに記録する,としてもよい。エリアの設定というのは,ドライブ・レコーダ1に高解像度か低解像度かというスライド・スイッチを設けて切り替えればよい。 For example, when you go to Kyoto to take high-resolution photos, it's a good idea to record the times you go back and forth. If it doesn't record, it's meaningless as a drive recorder, and even if I go into Kyoto and try to set it up, I can't set it up because I'm driving. For example, you may want to record only the vicinity of Kiyomizu Temple in high resolution, but you will forget to set it, so this can be prevented. It is also a good idea to record in high resolution while driving on mountain passes. Expressways may be recorded in high image quality, and general roads may be recorded in low image quality. You can record the Metropolitan Expressway in high quality and not record normal expressways, or you can record when the speed exceeds 100 km/h or when acceleration is applied at a corner. To set the area, simply set a slide switch on the drive recorder 1 to select high resolution or low resolution.

760MHzのITSサービス・システム,高度道路情報,というのが2016年くらいから実験サービスとして始まっているが,この情報をドライブ・レコーダ1の情報と一緒に記録できるとよい。情報には,たとえば,自車の近辺に他の自動車(位置,移動方向,加速度など),信号機(何メートル先か,赤になるまでの時間など),道路標識(何メートル先か,制限速度はなど),歩行者(位置,移動方向など),緊急車両接近通知,急ブレーキ警告,渋滞警告,故障信号車両警告,標識通知,二輪車接近通知,信号タイミング通知,工事情報通知,天候警告などがある。ITSには,路車間通信と車車間通信とがあり,路車間通信は道路と車との通信,車車間は車と車との通信である。路車間通信では,号機の情報とか,周囲の歩行者のセンサから得た情報の通信が行われる。車車間通信では,車がどちらの方向に行くかとか,今のアクセルについての情報などの通信が行われる。たとえば,路車間のデータが受信できたとき,映像と一緒に保存できたとすると,たとえば,LED信号機だったら点滅しており,ちょうど点滅の消えているところのフレームとカメラのフレーム・レートとが同期すると,まったく信号機の光が映像の中に映らないということが起き,状況によっては,ずっと暗いままということがある。もし,信号機の光が映っていなかったとしてもITSの情報で,信号機がどういう状態がデータとして記録できる。ITSの情報から,信号が青という情報がわかれば,再生ウインドウ130の端部に信号が青として情報を表示できる。情報が専用の周波数を用いて提供され始めているので,それを受信機で受信してドライブ・レコーダの映像と一緒に記録して,再生ウインドウ130に表示させることができる。 The 760MHz ITS service system, altitude road information, started as an experimental service around 2016, and it would be great if this information could be recorded together with the information from the drive recorder 1. Information includes, for example, other vehicles in the vicinity of the vehicle (location, direction of movement, acceleration, etc.), traffic lights (how many meters ahead, time until red, etc.), road signs (how many meters ahead, speed limit, etc.). etc.), pedestrians (location, direction of movement, etc.), emergency vehicle approach notification, sudden brake warning, traffic jam warning, failed signal vehicle warning, sign notification, motorcycle approach notification, signal timing notification, construction information notification, weather warning, etc. be. ITS includes road-to-vehicle communication and vehicle-to-vehicle communication. Road-to-vehicle communication is communication between the road and cars, and vehicle-to-vehicle communication is communication between cars. In road-to-vehicle communication, information about the vehicle and information obtained from sensors of surrounding pedestrians are communicated. Vehicle-to-vehicle communication involves communicating information such as which direction the vehicle is going and information about the current accelerator pedal. For example, if data between the road and the vehicle can be received and saved together with the video, for example, if it is an LED traffic light, it will be blinking, and the frame rate of the camera will be synchronized with the frame where the blinking disappears. Then, the light from the traffic light may not appear in the image at all, and depending on the situation, it may remain dark for a long time. Even if the light from the traffic light is not visible, the state of the traffic light can be recorded as data using ITS information. If the information that the signal is blue is known from the ITS information, the information can be displayed as the signal is blue at the end of the playback window 130. Since information is beginning to be provided using a dedicated frequency, it can be received by a receiver, recorded along with the video of the drive recorder, and displayed in the playback window 130.

ITSサービスの情報をドライブ・レコーダ1で記録し,その情報を表示するとよい。隣から自動車が来ている,自転車が来ている,赤信号で渡った,黄色信号で渡った,黄色信号なのに手前からブレーキ踏んでない,などの情報をドライブ・レコーダ1でメモリ・カード25に記録できるとよい。自車の近辺にある他の自動車の情報(位置,移動方向,加速度),何メートル先に信号機があるとか,何メートル先で赤になるまでの時間,道路標識の種類,歩行者も検知して送信するので,それらの情報をドライブ・レコーダ1で受信し記録するとよい。緊急車両が近づいてきたら,その情報,前の車が急ブレーキしたときにバケツ・リレーで,車車間で送られてくるので,そのような情報をドライブ・レコーダ1がメモリ・カード25に記録できるとよい。また,何両先の車が急ブレーキしたというのが事前にわかるので,その情報も記録できるとよい。路車間の場合,それらの情報は交差
点近傍のアンテナから情報が送信される。そのアンテナから5メートルくらいのエリア内に入ると勝手に情報をドライブ・レコーダ1が受信する。車車間では,道路からの情報を受信できる車両は自分の情報を発信することもできる。今,時速何キロとか,カーナビをもとに次ぎは左に行くとか,今,ブレーキ踏んだとか,路車間で受信するときはドラレコで受信する。車車間もドラレコが受信する,となりの車が飛ばした情報も同じ周波数なので受信できる。ドラレコは発信せずに,受信するだけとするとよい。ITS用の装置が送受信機であり,ドラレコが付いている車と,違う車とが通信しているのを,ドライブ・レコーダ1で記録する。ただ,傍受するだけ。ドラレコにソフトを入れて,受信したら,他の車に送信するとしてもよい。
It is preferable to record ITS service information with the drive recorder 1 and display the information. The drive recorder 1 records information on the memory card 25, such as a car coming from next door, a bicycle coming next, crossing at a red light, crossing at a yellow light, not pressing the brake even though the light is yellow. It would be nice if you could. It can also detect information about other cars in the vicinity of your car (location, direction of movement, acceleration), how many meters away there is a traffic light, how many meters away it takes for it to turn red, the type of road sign, and pedestrians. Therefore, it is recommended that the drive recorder 1 receives and records this information. When an emergency vehicle approaches, the information is sent from vehicle to vehicle in a bucket brigade when the vehicle in front brakes suddenly, so the drive recorder 1 can record such information on the memory card 25. Good. Also, since you can know in advance how many cars ahead brake suddenly, it would be nice to be able to record that information as well. In the case of road-to-vehicle traffic, the information is transmitted from antennas near intersections. When the driver enters an area within about 5 meters from the antenna, the drive recorder 1 automatically receives information. Vehicles that can receive information from the road can also transmit their own information. When receiving information on the road or between vehicles, such as how many kilometers per hour you are going, whether you are going to the left next time based on the car navigation system, or whether you have just stepped on the brake, the information is received using a drive recorder. The drive recorder can also receive information from vehicles adjacent to each other as it uses the same frequency. It is best to only receive calls from the drive recorder without making calls. The ITS device is a transmitter/receiver, and the drive recorder 1 records communication between a car equipped with a drive recorder and a different car. Just intercept it. You can also put software in your drive recorder and send it to other cars when it is received.

交差点にビルがあり,死角から車が来た場合に,その車がどういう挙動するか,多少ブレーキを踏んでいるか,という状況で一方の車から他方の車に通信して事故を防止するという場合によい。また,交差点にカメラを設置しておいて,歩行者がいる,という情報も知らせる。曲がるときに気を付けさせるようなシステムであるので,隠れた車がいるときに,ブレーキを踏んでいることがわかれば管理者が管理しやすい,車が報知しているにも関わらず,人がいるのにブレーキ踏まなかったとかが記録されるとよい。前の信号が赤信号であと10秒しないと青にならない,という情報が車に備え付けられているディスプレイに表示されているにも関わらず,スピードを落とさずにいたら燃費が悪いという指摘を受けるとよい。 When there is a building at an intersection and a car approaches from the blind spot, one car communicates with the other car to see how the car behaves and whether it applies its brakes to prevent an accident. good for In addition, cameras are installed at intersections to provide information on the presence of pedestrians. The system is designed to remind people to be careful when turning, so if there is a hidden car, it will be easier for managers to manage it if they can see that they are stepping on the brakes. It would be good to record whether someone did not press the brake even though someone was there. Even though the car's display shows information that the traffic light in front of it is red and will not turn green for another 10 seconds, it is pointed out that if you do not reduce your speed, your fuel efficiency will be poor. good.

再生ウインドウ130においては,ドライブ・レコーダ1を取り付けている車の情報というのは下に表示される。たとえば,速度とか,ウインカーの操作状況とかである。そのような情報とは別に,ITSシステムで得られた情報を別のところに出すとよい。 In the playback window 130, information about the car to which the drive recorder 1 is installed is displayed at the bottom. For example, speed, turn signal operation status, etc. In addition to such information, it is a good idea to send information obtained from the ITS system elsewhere.

たとえば,右前方何メートルに車がいるということはわかるので,オーバーレイで,そこに車がいるような,前方何メートルの信号機がある場合に,その信号機が見えた瞬間に吹出を出して,その信号までの時間を表示するとよい。テキストで表示してもよい。テキストとかアイコンとかで表示してもよい。吹出はアイコンの一例である。 For example, you can tell how many meters there is a car in front of you on the right, so if there is a traffic light in front of you that indicates a car is there, you can use an overlay to display a speech bubble the moment you see that traffic light. It would be good to display the time until the signal. May be displayed as text. It may be displayed as text or icons. A speech bubble is an example of an icon.

ドライブ・レコーダの映像は事故の状況を客観的に示す証拠として利用されているので,加工できないことが望ましい。改竄があったら改竄を検出できることが好ましい。また,ドライブ・レコーダ1が記録した映像っていうのは,運転手が記憶している風景を記録したものではなく,客観的にその場でドライブ・レコーダ1に含まれているカメラ(フロント・カメラ11,リア・カメラ12)の使用に沿った映像が記録されている。これは,ドライブ・レコーダ1の設置場所が運転者の目の位置と違う,ドライブ・レコーダ1の記録のシステムが人間の視覚システムと異なるからである。ドライブ・レコーダの撮影システムと人間の目の撮像のシステムの違いとしては,勿論その画角とか感度とか頭の動きとか眼球運動とかその光学系の違いとか,撮像センサというかと,その目の構造の相違というのもあるが,特には脳の認知構造が異なるので,運転者が記憶している映像というのを得て,ドライブ・レコーダ1に,それに近い映像をなるべく出せる機能をつけて,ドライブ・レコーダ1の記録していたその客観的な映像との違いに基づいて運転者を教育したり,運転者の認知のひずみを補正したりするとよい。 Drive recorder footage is used as evidence that objectively shows the circumstances of the accident, so it is desirable that it cannot be altered. It is preferable to be able to detect tampering if it occurs. In addition, the video recorded by the drive recorder 1 is not a record of the scenery that the driver remembers, but is objectively recorded on the spot by the camera (front camera) included in the drive recorder 1. 11, footage of the use of the rear camera 12) has been recorded. This is because the installation location of the drive recorder 1 is different from the position of the driver's eyes, and the recording system of the drive recorder 1 is different from the human visual system. The differences between the drive recorder imaging system and the human eye imaging system include, of course, the angle of view, sensitivity, head movement, eye movement, optical system, image sensor, and structure of the eye. There are differences, but in particular, the cognitive structure of the brain is different, so we obtain the image that the driver remembers, and then add a function to the drive recorder 1 that can produce an image as close to that as possible. It is advisable to educate the driver or correct distortions in the driver's perception based on the difference from the objective image recorded by the recorder 1.

ドライブ・レコーダ1で記録された映像が,自分が思っていたのはこういう映像であったというように色などを加工できるようにするとよい。客観的に認識していた状態に映像を加工し,運転手が感じていた印象に近い映像を表示できるようにするとよい。 It would be good if the video recorded by the drive recorder 1 could be processed with colors, etc. so that the video is what you thought it was. It would be a good idea to process the video so that it is objectively perceived, so that it can display an image that is closer to the impression the driver was feeling.

改竄の方の検出については,ドライブ・レコーダ1の映像を記録する際に記録するデータのハッシュ値を求め,ハッシュ値を映像に関連して記憶するとともにネットワークに接続されたP2P(ピア・トゥ・ピア)ネットワーク上のブロック・チェーンに記憶するとよ
い。今まではサーバに1人の主体が全部映像データを保存していたが,データ分散型のデータベースで,あらゆる人,インターネットにつながっているたくさんの人がそのデータというのを共有して,同じデータをそれぞれのサーバが持つようになる。それがインターネット上に投げられたブロックというものを,今までのブロック・チェーンにくっつけるっていう作業して,どんどんどんどんチェーンにする。そのチェーンのデータが全部のサーバで同じデータがデータベース上に記録される。特徴はみんなが同じデータを持っているので,過半数の人が改竄しない限り改竄が検出できるということである。
Regarding the detection of tampering, the hash value of the data recorded when recording the video of the drive recorder 1 is obtained, the hash value is stored in relation to the video, and the P2P (peer-to-peer) connected to the network is used. It is best to store it in a block chain on the peer) network. Until now, all video data was stored on a server by one person, but with a data distributed database, all kinds of people, many people connected to the Internet, can share the same data. Each server will have . Blocks posted on the Internet are attached to the existing block chain, and the chain is rapidly created. The same data for that chain is recorded on the database on all servers. The feature is that since everyone has the same data, tampering can be detected unless a majority of people tamper with it.

データの作り方も,ブロックを繋げていく時に前のブロックのハッシュ値を計算してそれを必ず次のブロックに入れていく。一か所のブロックを改竄するっていうことができなくて,その改竄するためにはそれより後のブロックを全部改竄していかなければならないので改竄が非常に困難となる。ブロック・チェーンの値を計算するのに大体ビットコインだと10分ぐらいかかるような計算量に設定されており,そのブロックを全部計算し直すっていうと時間的に不可能となる。契約の一連の流れ,っていうのを全部ブロック・チェーンに記録してもよいし,輸出入手続きの契約など,向こうの国の中の運送をする人,その中での決済する人,両替する人とか,注文をどうこうするとか,色んな契約の束を全部チェーンの中に記録してもよい。たとえば,何月何日にここを通しました。船に積みましたという情報を全部チェーンの中に記録して,後から全部検証できるようにしてもよい。利害が対立する領域で,検証できるような仕組みの所で使われてもよい。また,広告の出稿者が広告枠を買い,例えば7時から,ゴールデンタイムの7時から8時までの間に15秒のCMを何本1か月の間にうつという契約において,本当に広告うたれたか,全部検証する訳に行かないし,あるいは交通広告だったら,どこに張り出されているのか全部検証する訳にいかないし,ネットだと本当にそれだけのインプレッションが与えられたのか,表示が相手のブラウザにされたのかどうか,検証できないが,出稿した人と広告を実際に出す人の間で監査っていうことがされる場合に,ブロック・チェーンを利用してもよい。たとえば,ブロック・チェーンで広告出したらブロックの中に出しました,出しましたって,どんどんチェーンで繋げていく。そうすると,1000回出してくださいと言った人と,今800回出しているということの検証がブロック・チェーン上でできる。 When creating data, when connecting blocks, the hash value of the previous block is calculated and it is always inserted into the next block. It is not possible to tamper with a single block; in order to tamper with that block, you must tamper with all subsequent blocks, making tampering extremely difficult. With Bitcoin, the amount of calculation is set to take about 10 minutes to calculate the value of a block chain, and it would be impossible in terms of time to recalculate all of the blocks. The entire flow of a contract can be recorded on a blockchain, such as a contract for export/import procedures, the person who carries out the transportation within the other country, the person who makes the payment within the destination, and the person who exchanges currency. You can record all kinds of contracts, such as people, orders, etc., in a chain. For example, what month and day did you pass through here? It is also possible to record all the information that the goods were loaded on the ship in the chain so that it can be verified later. It may be used in areas where there are conflicts of interest and where there is a mechanism that allows for verification. In addition, an advertiser buys an ad space and enters into a contract with the company to run a number of 15-second commercials in one month between, say, 7 p.m. and prime time 7 p.m. and 8 p.m. If it is a transit advertisement, there is no way to verify where it is posted, and if it is on the Internet, it is impossible to verify whether it really received that many impressions. Although it is not possible to verify whether or not the advertisement was made, blockchain may be used in cases where an audit is conducted between the person who posted the advertisement and the person who actually publishes the advertisement. For example, if you place an advertisement on a block chain, you will be able to continue to connect the advertisements in the block by posting them in the block. In this way, the person who asked for 1,000 entries and the person who has issued 800 entries now can be verified on the blockchain.

改竄できないようにブロック・チェーン上に映像データ記録すればよい。例えばそのモーションJPEG(Joint Photographic Experts Group)にもとづく動画のように1フレームごと映像にデータを記憶する場合には,そのフレームのハッシュ値を求めて,ブロックとして送信して,ブロック・チェーン・システムの方でチェーンに繋いでもらえば改竄できないようになる。ある一定の範囲,1分ぶん全体の映像ファイルのハッシュ値を算出してもよい。 Video data can be recorded on a block chain so that it cannot be tampered with. For example, when data is stored in a video frame by frame, such as a video based on motion JPEG (Joint Photographic Experts Group), the hash value of that frame is calculated and sent as a block, and the block chain system uses it. If someone else connects it to a chain, it will be impossible to tamper with it. The hash value of the entire video file for a certain range of one minute may be calculated.

MPEGにもとづく映像データにおいて,Iフレームの直前のところで区切ると改竄が容易になってしまうので,どこかのPフレームの直前で区切るとよい。 In video data based on MPEG, if it is separated just before an I frame, it will be easier to tamper with it, so it is better to separate it just before a P frame somewhere.

パブリック型のブロック・チェーンでは,というのはビットコインとかのように誰でもそのブロック・チェーンに参加出来て,ブロック・チェーンに流れているブロックのデータは全部自分で見られるが,コンソーシアム型,プライベート型のブロック・チェーンでは,例えば銀行協会の中で閉じたもので,銀行協会に加盟している銀行の間だけでブロック・チェーンが使えるというものである。例えばパブリック型のそのブロック・チェーン・システムを利用すればよい。ハッシュ値だけじゃなくて,例えば,その位置の情報,ドライブ・レコーダの今のある位置の情報をブロック・チェーン・システムに送信すれば,そのブロック,何月何日に誰がどこにいますっていう情報が送信される。例えば,ドライブ・レコーダ901-1番というドライブ・レコーダがここにある,愛知県岡崎市にある,という情報がブロック・チェーン・システムに送信されると,全部のブロック・チェーンを管理するサーバがP2Pで同報する。映像データ等をブロック・チェーン・システム
に送信すれば,それが欲しいユーザがいれば,そのユーザに売ることができる。
In a public type block chain, like Bitcoin, anyone can participate in the block chain and can see all the block data flowing in the block chain, but in a consortium type, private For example, a type of block chain is closed within a banking association, and the block chain can only be used between banks that are members of the banking association. For example, you can use a public block chain system. If you send not only the hash value, but also the location information, information about the current location of the drive recorder, to the blockchain system, information about who is where in that block, month, day, etc. is sent. For example, when the information that a drive recorder named drive recorder 901-1 is located here in Okazaki City, Aichi Prefecture is sent to the block chain system, the server that manages all block chains It will be broadcast simultaneously. By sending video data etc. to a block chain system, if there is a user who wants it, it can be sold to that user.

同じように広告の配信も出来る。たとえば,特定の場所,愛知県岡崎市にいるユーザにある店の広告を送ろうして,その店の直前にいる人にだけピンポイントで広告を送るようにしてもよい。ブロック・チェーンはそのチェーンを維持するためにコストがかかるが,取引をした時に薄い金額,手数料として引かれ,サーバを管理しているユーザ,そのブロックを一番始めにつけたユーザに配分される。その支払われた通貨の情報もブロック・チェーン上に一緒に記録しておけばよい。例えば写真撮って,100円で撮ってって言ってやると,100円で撮ってって依頼した人の口座から引き落とされ,こちらのドライブ・レコーダのユーザに80円くらい入って,20円はそのサーバを維持している人の方に配分されるというような仕組みにしてもよい。 Advertising can also be distributed in the same way. For example, you may want to send an advertisement for a store to users in a specific location, Okazaki City, Aichi Prefecture, and send the advertisement pinpointed only to people who are directly in front of that store. Block chains require costs to maintain the chain, but when a transaction is made a small amount is deducted as a fee and distributed to the user who manages the server and the user who first added the block. Information on the currency in which the payment was made can also be recorded on the blockchain. For example, if you take a photo and ask for it for 100 yen, the account of the person who asked you to take the photo for 100 yen will be debited, the user of this drive recorder will receive about 80 yen, and 20 yen It is also possible to create a system in which the money is distributed to the person who maintains the server.

映像の再生中に,リモコンなどにより映像を拡大,縮小ができるとよい。さらに,たとえば,カーソルなどにより枠を動かせるようにし,その動かした枠の位置っていうのを映像の時間に関連づけて記憶するようにしてもよい。再生している時に枠を動かして,その動かした枠の位置を記録し,後でその記録した枠の位置の情報に基づいてその部分だけを取り出した映像をストリームとして動画ストリームを作り出すことができるとよい。 It would be a good idea to be able to enlarge or reduce the image using a remote control while the image is being played. Furthermore, for example, the frame may be moved using a cursor or the like, and the position of the moved frame may be stored in association with the video time. You can move the frame during playback, record the position of the moved frame, and later create a video stream by extracting only that part of the video based on the recorded frame position information. Good.

視野範囲を自動で検出せずに,ユーザが手動で動かすことができるとよい。たとえば,ジョイスティック,マウス,キーボードなどで枠を動かした場合に,その動かした位置を記憶しておき,再生時にその動かした枠を表示できるようにするとよい。これにより,運転時の集中度とか,年齢とか目の疾患次第によって目の見える範囲が異なるが,その人が見えていた範囲が他の人に認識してもらうことができるようになる。たとえば,この範囲が見えていた,この範囲を見ていたという主張ができる。また,主観的に認識した明るさ,色への補正,記憶色への補正ができるようにするとよい。とくに,客観的な映像と主観的な映像とを表示し,カメラにより撮影された映像とユーザが実際に見たと思っている映像とを比較できるようにするとよい。同じ場面における2種類の映像を表示すると,裁判の時にカメラは実際にこういう風に記録されているが,自分としてはこういう風に見えていたという説明ができる。刑事責任としては,1つは客観的な事故,結果の発生と,もう1つは故意が重要となる。その人が故意にぶつけたのか,過失でぶつけたのか,を立証することが重要である。客観的な映像は改竄できないが,主観的な映像は自分が思っていたものを別に見せ,両方一緒に見せることができるようになる。 It would be good if the user could manually move the viewing range without having it automatically detected. For example, when a frame is moved using a joystick, mouse, keyboard, etc., it is a good idea to memorize the moved position so that the moved frame can be displayed during playback. This allows other people to see the range that a person can see, although the range of vision varies depending on the driver's level of concentration, age, and eye disease. For example, you can claim that you could see this range or that you were looking at this range. Further, it is preferable to enable correction to subjectively perceived brightness and color, and correction to memory color. In particular, it is preferable to display objective images and subjective images so that the user can compare the images captured by the camera with the images that the user thinks he or she has actually seen. By displaying two types of footage of the same scene, you can explain that this is how the camera actually recorded it during the trial, but this is how it looked to you. Regarding criminal liability, one important factor is the occurrence of an objective accident or result, and the other is intentionality. It is important to prove whether the person hit the object intentionally or negligently. Objective images cannot be tampered with, but subjective images allow you to see what you thought separately, and to show both together.

さらに,車両が走行した位置情報,イベント情報のハッシュ値を算出し,ブロック・チェーン・システムに送信してもよい。これにより,急減速,加速度が発生したなどのイベント情報の改竄が困難となる。 Furthermore, a hash value of the location information and event information of the vehicle may be calculated and sent to the block chain system. This makes it difficult to falsify event information such as sudden deceleration or acceleration.

さらに,主観的に認識した明るさ,色,記憶色へ調整するために,ドライブ・レコーダ1に明るさ調整スライダを設け,そのスライダを操作することにより明るさ,色,記憶色を調整してもよいし,再生ウインドウ130に明るさ調整ボタン,色調整ボタン,記憶色調整ボタンを設け,そのボタンを操作して明るさを調整してもよい。 Furthermore, in order to adjust the brightness, color, and memory color to be subjectively recognized, the drive recorder 1 is provided with a brightness adjustment slider, and by operating the slider, the brightness, color, and memory color can be adjusted. Alternatively, the playback window 130 may be provided with a brightness adjustment button, a color adjustment button, and a memory color adjustment button, and the brightness may be adjusted by operating the buttons.

さらに,自動車などの車両の自動運転において,運転手が車両を運転する手動運転中においてドライブ・レコーダ1が記録しているものか,自動で車両を運転する自動運転中においてドライブ・レコーダ1が記録しているものかを識別するデータを,上述のように映像ファイルのヘッダ記録領域31に記録するとよい。この場合に,好ましくは,自動運転のレベルについても映像ファイルのヘッダ記録領域31に記録するとよい。自動車のCAN(Controller Area Network)中に,自動運転中か手動運転中かの識別データ,自動運転中であれば自動運転のレベルを表すデータが送信される場合には,ドライブ・レコーダ1においてCAN内において通信されるデータを受信することにより(例えば,ドライブ・レコ
ーダ1をCANに接続したり,CAN内において通信されるデータを通信回路17において受信したりする),ドライブ・レコーダ1は映像ファイルのヘッダ記録領域31に,自動運転中か手動運転中かの識別データ,自動運転中であれば自動運転のレベルを表すデータを記録できる。映像データを再生する場合に,再生ウインドウ130に映像表示領域141に表示されている映像が自動運転中のものか,手動運転中のものかを表示させることができ,自動運転中のものであれば,自動運転のレベルについても表示させることができる。
Furthermore, in automated driving of a vehicle such as a car, what is recorded by the drive recorder 1 during manual operation when the driver is driving the vehicle, or what is recorded by the drive recorder 1 during automatic operation when the vehicle is automatically operated. It is preferable to record data for identifying whether the video is being played in the header recording area 31 of the video file as described above. In this case, preferably, the level of automatic driving is also recorded in the header recording area 31 of the video file. If identification data indicating whether automatic driving or manual driving is in progress, and data representing the level of automatic driving if automatic driving is transmitted during the CAN (Controller Area Network) of the vehicle, drive recorder 1 transmits CAN data. By receiving data communicated within the drive recorder (for example, connecting the drive recorder 1 to the CAN or receiving data communicated within the CAN at the communication circuit 17), the drive recorder 1 receives the video file. In the header recording area 31, identification data indicating whether automatic operation or manual operation is in progress, and data representing the level of automatic operation if automatic operation is in progress can be recorded. When playing video data, it is possible to display in the playback window 130 whether the video displayed in the video display area 141 is during automatic operation or manual operation. For example, the level of automated driving can also be displayed.

自動運転と手動運転とで画質を切り替えてドライブ・レコーダ1において映像データを記録するようにしてもよい。自動運転の場合に相対的に高画質で記録し,手動運転の場合に相対的に低画質で記録してもよいし,その逆に自動運転の場合に相対的に低画質で記録し,手動運転の場合に相対的に高画質で記録してもよい。さらに,自動運転のレベルに応じて画質を変えてもよい。自動運転のレベルが高いほど画質を高くして記録してもよいし,自動運転のレベルが高いほど画質を低くして記録してもよい。 The video data may be recorded in the drive recorder 1 by switching the image quality between automatic driving and manual driving. It may be possible to record relatively high image quality in the case of automatic driving and relatively low image quality in the case of manual driving, or conversely, record in relatively low image quality in the case of automatic driving, and record in relatively low image quality in the case of manual driving. When driving, it may be recorded with relatively high image quality. Furthermore, the image quality may be changed depending on the level of automatic driving. The higher the level of automatic driving, the higher the image quality may be for recording, or the higher the level of automatic driving, the lower the image quality may be for recording.

さらに,ドライブ・レコーダ1のように複数のカメラ(フロント・カメラ11,リア・カメラ12)が含まれている場合には,自動運転中か手動運転中かに応じて撮影するカメラを切り替えてもよい。たとえば,自動運転中はフロント・カメラ11のみで得られた映像データを記録し,手動運転中はリア・カメラ12のみで得られた映像データを記録したりしてもよいし,その逆でもよい。さらに,再生においては,自動運転のみの映像を再生し,手動運転の映像はスキップしたり,その逆に手動運転の映像を再生し,自動運転の映像をスキップしたりしてもよい。また,自動運転レベルのうち,いずれかのレベルの場合に記録された映像データを再生し,その他のレベルの場合に記録された映像データはスキップしてもよい。 Furthermore, if the drive recorder 1 includes multiple cameras (front camera 11, rear camera 12), you can switch the camera to take pictures depending on whether automatic driving or manual driving is in progress. good. For example, during automatic driving, video data obtained only from the front camera 11 may be recorded, and during manual driving, video data obtained only from the rear camera 12 may be recorded, or vice versa. . Further, during playback, only automatic driving videos may be played and manual driving videos may be skipped, or vice versa, manual driving videos may be played and automatic driving videos may be skipped. Further, video data recorded at one of the automatic driving levels may be played back, and video data recorded at other levels may be skipped.

さらに,映像データの再生する場合に,再生した映像の運転技術について,コミュニケーション・ロボットが指導してもよい。指導員が,指導を受けるユーザに対して直接説明すると指導を受けるユーザが怒ってしまうことがあるが,コミュニケーション・ロボットが「ここ危なかったよ」と言うと指導員,ユーザの両者の心理的負担が減る。コミュニケーション・ロボットは,再生するパーソナル・コンピュータ80の表示装置92等を見ている指導員およびユーザの近傍に配置される。たとえば,パーソナル・コンピュータ80の表示装置92の右側に必ずコミュニケーション・ロボットを置いて,指導員およびユーザの座る位置もあらかじめ決まっているとよい。コミュニケーション・ロボットを,パーソナル・コンピュータ80の表示装置92の右側に置いたとか,左側に置いたとか,ということを映像データの再生ソフトウエア(プログラム)で設定できてもよい。もちろん,コミュニケーション・ロボットにカメラが設けられており,そのカメラでコミュニケーション・ロボットの周囲360度を撮影し,周囲にある表示装置92,指導員,ユーザの位置などを認識するようにしてもよい。制服を着ている人物を指導員,その他の人物をユーザと認識すればよい。 Furthermore, when playing back video data, the communication robot may provide guidance on driving techniques for the played back video. When an instructor directly explains to a user, the user may become angry, but when a communication robot says, ``That was dangerous,'' the psychological burden on both the instructor and the user is reduced. The communication robot is placed near the instructor and the user who are looking at the display device 92 of the personal computer 80 to be played. For example, it is preferable that the communication robot is always placed on the right side of the display device 92 of the personal computer 80, and the seating positions of the instructor and the user are also determined in advance. It may be possible to set whether the communication robot is placed on the right side or the left side of the display device 92 of the personal computer 80 using the video data reproduction software (program). Of course, the communication robot may be equipped with a camera, and the camera may take pictures of the 360-degree surroundings of the communication robot to recognize the positions of the display device 92, the instructor, the user, etc. in the surroundings. A person wearing a uniform may be recognized as an instructor, and other persons may be recognized as a user.

さらに,ドライブ・レコーダ1の撮影によって得られる映像またはドライブ・レコーダ1の記録によって得られた映像データによって表される映像に含まれる道路の道幅を検出し,その道幅にもとづいて映像の処理を変更するようにしてもよい。たとえば,道幅が狭い所は左右方向の映像を表示したり,再生時の映像の種類を道路の状況(狭い,砂利道,一方通行など)に応じて変更したりするようにしてもよい。また,交差点の所であれば,記録時に映像を表示できるドライブ・レコーダ1であれば,正面の映像を表示したり,再生時にも同様に正面の映像を表示したりしてもよい。また,たとえば,道路の右側または左側の道がわかるような右または左の映像をドライブ・レコーダ1の表示画面3に表示してもよい。 Furthermore, the width of the road included in the video represented by the video obtained by shooting with the drive recorder 1 or the video data obtained by recording with the drive recorder 1 is detected, and the processing of the video is changed based on the road width. You may also do so. For example, when the road is narrow, images from left and right may be displayed, or the type of image during playback may be changed depending on the road condition (narrow, gravel, one-way, etc.). Furthermore, if the drive recorder 1 is at an intersection and is capable of displaying an image during recording, it may display the image of the front, or may similarly display the image of the front during playback. Further, for example, a right or left image may be displayed on the display screen 3 of the drive recorder 1 so that the right or left side of the road can be seen.

さらに,ドライブ・レコーダ1による映像データの記録時において,ドライブ・レコー
ダが取り付けられている車両の少し先の映像を解析して,危険のある状況が発生しているかを画像解析し,危険が生じる何秒か前に映像をその危険が見やすいカメラへ切り替えるようにしてもよい。今表示している映像に,2秒後に危険があるというように,表示モードを切り替えてもよい。例えば前方で横切る車が2秒後にあったとすると,天球モード(車両の前後左右の状況を表示しているモード)で表示しているが,前方だけを表示するモードに切り替えるようにしてもよい。これにより,2秒後に危険の場面が見られる。その後に元の天球モードに戻してもよい。このように,何かおかしな所が起こりえる場合に自動的に表示形態を変えてもよい。また,自動であらかじめ映像ファイルを全部解析して,おかしなところを検出し,再生する映像にマークを付けてもよい。危険かどうかは映像の変化が大きいか,加速度の変化が大きいかどうかで判断すればよい。ユーザが切り替えボタンを操作しなくとも表示が変えられる。例えば,危険などの事象がおきる可能性がある数秒前,たとえば5秒前に切り替えられれば好ましい。
Furthermore, when recording video data with the drive recorder 1, the video from slightly ahead of the vehicle to which the drive recorder is installed is analyzed to determine if a dangerous situation is occurring, and to determine if a dangerous situation is occurring. You may want to switch the video a few seconds in advance to a camera where the danger is easier to see. The display mode may be changed so that the currently displayed image shows danger in two seconds. For example, if a car crosses in front of you two seconds later, the display is in celestial mode (a mode that displays the front, back, left, and right sides of the vehicle), but you may want to switch to a mode that displays only the front. As a result, a dangerous scene can be seen after 2 seconds. After that, you can return to the original celestial sphere mode. In this way, the display format may be automatically changed if something strange may occur. It is also possible to automatically analyze all video files in advance, detect abnormalities, and mark the videos to be played. Whether or not something is dangerous can be determined based on whether there are large changes in the image or changes in acceleration. The display can be changed without the user operating a switching button. For example, it is preferable if the switching can be performed several seconds, for example, 5 seconds, before an event such as danger is likely to occur.

さらに,エンスタ,カー・セキュリティからの通信データをドライブ・レコーダ1において受信し,受信したデータをトリガとしてイベント記録を行うようにしてもよい。ドライブ・レコーダ1に,LTE(Long Term Evolution)にもとづく通信回路,Wi-fiにもとづく通信回路,Bluetooth(登録商標)にもとづく通信回路を設け,それぞれの通信状態を表すデータを記録し,それぞれの通信状態に応じて表示する映像の状態の変更処理を行うようにしてもよい。表示の変更処理は,ドライブ・レコーダ1の表示画面3に表示される映像の表示形態の変更でもよいし,再生時における再生ウインドウ130における映像の表示形態の変更でもよい。たとえば,カー・セキュリティのオンまたはオフという指令信号を受信したら,車両の左右方向,ドアの辺りを撮影する映像に自動的に切り替えるようにしてもよい。また,Wi-fiの信号を受信すると,家のエリアに入ったと考えられるので,映像を停止してもよい。通信手段が複数ある場合に,それぞれの通信手段に応じてそのどの映像を出すかっていうのを決めておくとよい。通信手段または通信の内容に応じて,表示態様を切り替えるようにしてもよい。Bluetooth(登録商標)を用いて車のドア解錠,エンジン・スタートするような場合であれば,Bluetoothの信号を受信したことに応じて,車両周辺映像表示状態から車内映像も合わせて表示する状態に切り替えてもよいし,車両周辺だけでなく,車内も撮影してもよい。これにより,エンジン・スタートする瞬間,車内の状態もわかる。エンスタの時とかは30秒程度で元に戻し,ドア解錠の時はドア施錠まで車両周辺と車内との両方を撮影する状態で維持し,その後に車両周辺だけまたは車両前方だけに切り替える,戻すようにしてもよい。 Furthermore, communication data from Enstar and Car Security may be received by the drive recorder 1, and event recording may be performed using the received data as a trigger. The drive recorder 1 is equipped with a communication circuit based on LTE (Long Term Evolution), a communication circuit based on Wi-Fi, and a communication circuit based on Bluetooth (registered trademark), and records data representing the communication status of each. The state of the video to be displayed may be changed depending on the communication state. The display change process may be a change in the display form of the video displayed on the display screen 3 of the drive recorder 1, or may be a change in the display form of the video in the playback window 130 during playback. For example, when receiving a command signal to turn on or turn off car security, the system may automatically switch to a video that captures the left and right directions of the vehicle and around the doors. Also, when a Wi-Fi signal is received, it is assumed that the device has entered the area of the house, so the video can be stopped. If there are multiple communication means, it is a good idea to decide which video to display depending on each communication means. The display mode may be switched depending on the communication means or the content of the communication. When using Bluetooth (registered trademark) to unlock a car door or start the engine, the state in which images from around the vehicle are displayed together with images inside the vehicle is displayed in response to the reception of a Bluetooth signal. You may also switch to shooting, or you may shoot not only the area around the vehicle but also the inside of the vehicle. This allows you to know the condition inside the car at the moment the engine starts. When entering, it takes about 30 seconds to return to the original state, and when the doors are unlocked, it maintains the state in which both the surroundings of the vehicle and the inside of the vehicle are photographed until the doors are locked, and then switches to only the surroundings of the vehicle or only the front of the vehicle, and then returns. You can do it like this.

さらに,運行管理者,バスとかタクシーとか物流とかにおいては,必ず点呼が行われている。たとえば,今日の体調は万全かなど,アルコール・チェッカーも義務付けられている。その点呼の映像は記録される。その点呼の映像とドライブ・レコーダの映像とを一緒に再生ウインドウ130において見ることができるようにしてもよい。たとえば,点呼の映像ファイルを指定することにより,その点呼された運転手のドライブ・レコーダ1において記録された映像を再生するようにできるとよい。たとえば,順番に点呼して順番に乗ってく場合であれば,その時間的な関係性から点呼映像とドライブ・レコーダ1の映像とを関連づけることができる。 Furthermore, roll calls are always held for operation managers, buses, taxis, and logistics personnel. For example, an alcohol check is required to check whether you are feeling well today. A video of the roll call will be recorded. The video of the roll call and the video of the drive recorder may be viewed together in the playback window 130. For example, by specifying a video file of a roll call, it is possible to reproduce the video recorded on the drive recorder 1 of the driver who was called. For example, if there is a roll call and passengers board the vehicle in turn, the roll call video and the video on the drive recorder 1 can be associated based on their temporal relationship.

フォークリフトにドライブ・レコーダ1が取り付けられており,トラックのような自動車にもドライブ・レコーダ1が取り付けられている場合に,いずれのドライブ・レコーダ1において記録された映像をサーバに送信し,同一の運転手が運転した車両(トラック,フォークリフト)の映像を一元的に連続した一日の動きとして見せられるようにするとよい。たとえば,トラックを運転していてある場所に着き,ある場所においてフォークリフトを運転し,そのあと車に乗って配送先に行った場合に,その一連の映像を見ることができるようにするとよい。点呼の映像と組み合わせることにより,その運転手の1日の流れが全部見ることができる。 When a drive recorder 1 is attached to a forklift and a drive recorder 1 is also attached to a car such as a truck, the images recorded on any of the drive recorders 1 are sent to the server and the same It would be a good idea to be able to display images of the vehicles (trucks, forklifts) driven by drivers in a unified manner as a continuous day's movements. For example, if you drive a truck to a certain location, drive a forklift at a certain location, and then get in your car and drive to a delivery destination, it would be a good idea to be able to see a series of videos of that happening. By combining this with the roll call video, you can see the entire flow of the driver's day.

さらに,複合現実的なもので運転の指導等してもよい。たとえば,ユーザが一度運転し,ドライブ・レコーダに映像が記録される。その後,再生ウインドウ130において,その映像を再生して運転技術の評価が自動で行われる。この自動評価時において,注意点の情報を映像データに付加する。続いて,MR眼鏡をかけて同じ箇所を運転または助手席に同乗して,情報をMR眼鏡に表示する。ユーザは,実際の風景,景色に注意点の情報が重畳して見ることができる。たとえば,信号機を見る箇所,停止線を見る箇所という情報がMR眼鏡のレンズ(ガラス)に表示され,その情報を実際の風景を見ながら確認できる。 Furthermore, driving instruction may be given using mixed reality. For example, a user drives once and a video is recorded on the drive recorder. Thereafter, the video is played back in the playback window 130, and the driving skill is automatically evaluated. During this automatic evaluation, information on precautions is added to the video data. Next, the driver wears the MR glasses, drives or sits in the passenger seat, and displays the information on the MR glasses. The user can see information on points to be noted superimposed on the actual scenery. For example, information about where to look at traffic lights and where to look at stop lines is displayed on the lenses of MR glasses, and this information can be confirmed while looking at the actual scenery.

また,走行履歴データをドライブ・レコーダ1のメモリ21に記録しておき,過去に訪れた場所の近くに来たら,いつどこに行く為にどこを通ったかっていうのを出すようにしてもよい。走行履歴データを参照して,以前に走行したことがあるという表示,音声出力をしてもよい。 Alternatively, the driving history data may be recorded in the memory 21 of the drive recorder 1, and when the user comes near a place visited in the past, it may be possible to display where the user passed to go and when. By referring to driving history data, a display or audio output indicating that the vehicle has traveled previously may be displayed.

さらに,ドライブ・レコーダ1のリア・カメラ12で,車両のメータを撮影して,認識して映像データの記録の開始トリガとしてもよい。また,車両のルーム・ランプを撮影し,ルーム・ランプが付いていることが検出されると,イベント記録を開始し,ルーム・ランプが付いていることを示すデータをサーバに送信してもよい。そのサーバからたとえば,車両のユーザにルーム・ランプが付いていることを示すデータが送信されるようにしてもよい。ユーザは,ルーム・ランプが付いていることが分かる。 Furthermore, the rear camera 12 of the drive recorder 1 may take a picture of the vehicle's meter and recognize it as a trigger to start recording video data. Additionally, if the interior lamp of the vehicle is photographed and it is detected that the interior lamp is on, event recording may be started and data indicating that the interior lamp is on may be sent to the server. . For example, the server may send data to the user of the vehicle indicating that the interior lamp is on. The user can see that the room lamp is on.

工場とかにある自動搬送車にドライブ・レコーダ(カメラ)をつけるようにしてもよい。自動搬送車にはLIDAR(Light Detection and Ranging)のセンサが設けられており,そのセンサによりレーザーで高速に走査して,周辺物を検知できる。周辺物の接近を捉えたときにトリガとしてイベント記録(トリガが与えられたことに応じて一定時間,たとえば,数十秒から数分の間記録する)を開始してもいい。 Drive recorders (cameras) may be attached to automated guided vehicles in factories. Automated guided vehicles are equipped with LIDAR (Light Detection and Ranging) sensors that can detect surrounding objects by scanning at high speed with a laser. Event recording may be started as a trigger (recording for a certain period of time, for example, from several tens of seconds to several minutes, depending on the trigger being given) when the approach of a surrounding object is detected.

画像認識でフォークリフトのフォークが動いた瞬間にトリガにしてイベント記録をしてもよい。ドライブ・レコーダ1のフロント・カメラ11,リア・カメラ12などで撮影を行っておき,フォークリフトが動いたら,それをトリガにして記録してもよい。また,ヘルメットをした人がフォークリフト乗ったらトリガにしたり,逆にヘルメットをしていない人がフォークリフト乗ったらトリガにしたりして,イベント記録を開始してもよい。その場合,人が乗ったら記録を始めて人が下りたら記録停止してもよい。記録再生の開始終了を人の乗り降りで判定してもよい。フォークリフトの特徴として,フォークリフトの所有者はある会社だが,運転する人はその会社の従業員だけでなく,運送業者の人も運転する。運転する人が変わるので,そのような人が乗ったら記録を開始したり,人が来たら記録を開始したり,降りてから3分後まで記録し停止してもよい。フォークリフトの事故が問題となっているが,誰が壊したかわかるようになる。 It is also possible to record an event using image recognition as a trigger the moment the fork of a forklift moves. Photographs may be taken using the front camera 11, rear camera 12, etc. of the drive recorder 1, and when the forklift moves, this may be used as a trigger to record. Additionally, event recording may be started by setting a trigger when a person wearing a helmet rides on a forklift, or conversely, when a person without a helmet rides on a forklift. In that case, you can start recording when someone gets on and stop recording when someone gets off. The start and end of recording and playback may be determined by a person getting on and off the vehicle. A characteristic of forklifts is that although the forklift is owned by a certain company, the people who drive it are not only employees of that company, but also people from the transportation company. Since the person driving the car changes, you can start recording when such a person gets on the car, start recording when someone comes, or record until 3 minutes after getting off and then stop. Forklift accidents have become a problem, but it will now be possible to find out who caused the damage.

さらに,写真を撮るとExif情報が付いており,JPEGデータの中にテキスト・データが埋め込まれている。そのときの撮影した露出とか,シャッタ速度とかが埋め込まれている。それらの情報を再生ソフトウエアで再生ウインドウ130に表示してもよい。動画の映像から静止画ファイルを生成し,その静止画ファイルのヘッダ記録領域にExif情報として記録してもよい。たとえば,再生ウインドウ130に表示される情報をヘッダ記録領域Exif情報として記録することが好ましい。たとえば,映像における一連の加速度の変化を履歴的に静止画ファイルのヘッダ記録領域に入れてもよい。GPSの情報と速度,ある範囲内を移動したときの加速度の最大値,自動車の速度,ブレーキ踏んだかどうか,ウインカーを出したかどうか,などをヘッダ記録領域にExif情報として記録してもよい。速度の一定範囲分全部記録してもよいし,あるイベントが起きたときの前後のプラスマイナス3秒以内に起きたイベントの種類についての全部の値,ドライブ・レコーダに複数のカメラがあった
場合に,どのカメラの映像か,何台のカメラで記録していたかを示す情報,車両のどこにつけられているカメラかを示す情報かなどをヘッダ記録領域にExif情報として記録してもよい。さらに,工場内の自動運転車にドライブ・レコーダが取り付けられる場合には,トリガの原因,行灯のエラーが赤だったのか黄色だったのか,フォークリフトの状態,フォークリフトの旋回の回転量,ジャイロ,バッテリィなどの状態をヘッダ記録領域にExif情報として記録してもよい。AWS(Automatic Guided Vehicle),CWS(Collision Warning System),ストッパ,車車間通信,路車間通信において得られる情報などもヘッダ記録領域にExif情報として記録してもよい。人がいる,人がいない,運転者がいる,運転者がいない,助手席に人がいる,いない,後部座席に座っている,座っていない,業務用車両,違う車両,タクシー,バス,バスの中に人がいる,いないなどの情報もトリガとしてもよいし,これらの情報もヘッダ記録領域にExif情報として記録してもよい。さらに,Exif情報として記録される情報をブロック・チェーン・システムに送信し,トランザクションとしてブロック・チェーンに記録してもよい。
Furthermore, when you take a photo, Exif information is attached to it, and text data is embedded within the JPEG data. The exposure and shutter speed taken at that time are embedded. Such information may be displayed in the playback window 130 using playback software. A still image file may be generated from a moving image and recorded as Exif information in the header recording area of the still image file. For example, it is preferable to record the information displayed in the playback window 130 as header recording area Exif information. For example, a series of changes in acceleration in a video may be historically recorded in the header recording area of a still image file. GPS information and speed, the maximum value of acceleration when moving within a certain range, the speed of the car, whether the brake was pressed, whether the turn signal was turned on, etc. may be recorded as Exif information in the header recording area. You can record all speeds within a certain range, or all values for the types of events that occurred within plus or minus 3 seconds before and after a certain event occurred, if the drive recorder has multiple cameras. Additionally, information indicating which camera's video was recorded, how many cameras were used to record the image, information indicating where on the vehicle the camera was attached, etc. may be recorded as Exif information in the header recording area. Furthermore, if a drive recorder is installed on an autonomous vehicle in a factory, it will be necessary to check the cause of the trigger, whether the error light was red or yellow, the condition of the forklift, the amount of rotation of the forklift, the gyro, and the battery. The status may be recorded as Exif information in the header recording area. Information obtained in AWS (Automatic Guided Vehicle), CWS (Collision Warning System), stopper, vehicle-to-vehicle communication, road-to-vehicle communication, etc. may also be recorded as Exif information in the header recording area. There is a person, there is no person, there is a driver, there is no driver, there is a person in the passenger seat, there is no person, there is a person in the back seat, there is no person sitting, commercial vehicle, different vehicle, taxi, bus, bus Information such as whether there is a person inside or not may be used as a trigger, and this information may also be recorded as Exif information in the header recording area. Furthermore, the information recorded as Exif information may be sent to the block chain system and recorded on the block chain as a transaction.

さらに,再生ウインドウ130を表示する再生ソフトウエア(プログラム)を使用したことに応じてユーザにポイントを与えてもよい。たとえば,インターネットに接続して,取り込みというボタンの押下に応じて取り込んだデータがアップされ,ポイントが加算されるようにしてもよい。通信型のドライブ・レコーダ1であれば,一度許諾しておけば,自動的に映像データを送信することができる。 Furthermore, points may be awarded to the user in response to the use of playback software (program) that displays the playback window 130. For example, by connecting to the Internet and pressing a button called "Import", imported data may be uploaded and points may be added. If the drive recorder 1 is a communication type, once permission is granted, video data can be automatically transmitted.

本発明の範囲は,明細書に明示的に説明された構成や限定されるものではなく,本明細書に開示される本発明の様々な側面の組み合わせをも,その範囲に含むものである。本発明のうち,特許を受けようとする構成を,添付の特許請求の範囲に特定したが,現在の処は特許請求の範囲に特定されていない構成であっても,本明細書に開示される構成を,将来的に特許請求の範囲とする意思を有する。 The scope of the present invention is not limited to the configurations explicitly described in the specification, but also includes combinations of various aspects of the invention disclosed herein. Of the present invention, the structure for which a patent is sought has been specified in the attached claims, but currently, even if the structure is not specified in the claims, it is not disclosed in this specification. The applicant intends to make such a configuration the scope of a patent claim in the future.

本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と,発明を解決するための手段に記載の任意の構成要素または発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正または分割出願等において権利取得する意思を有する。 The present invention is not limited to the configuration described in the embodiments described above. The components of each of the embodiments and modifications described above may be arbitrarily selected and combined. Also, any component of each embodiment or modification, any component described in the means for solving the invention, or a component that embodies any component described in the means for solving the invention. It may be configured in any combination. The applicant intends to obtain rights to these matters through amendments to the application or divisional applications.

本発明の範囲は,明細書に明示的に説明された構成や限定されるものではなく,本明細書に開示される本発明の様々な側面の組み合わせをも,その範囲に含むものである。本発明のうち,特許を受けようとする構成を,添付の特許請求の範囲に特定したが,現在の処は特許請求の範囲に特定されていない構成であっても,本明細書に開示される構成を,将来的に特許請求の範囲とする意思を有する。
本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と,発明を解決するための手段に記載の任意の構成要素または発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正または分割出願等において権利取得する意思を有する。
また,意匠出願への変更出願により,全体意匠または部分意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが,全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと,部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては,装置の一部の部材としても良いし,その部材の部分としても良い。全体意匠はもちろんのこと,図面の実線部
分のうち任意の部分を破線部分とした部分意匠を,権利化する意思を有する。
The scope of the present invention is not limited to the configurations explicitly described in the specification, but also includes combinations of various aspects of the invention disclosed herein. Of the present invention, the structure for which a patent is sought has been specified in the attached claims, but currently, even if the structure is not specified in the claims, it is not disclosed in this specification. The applicant intends to make such a configuration the scope of a patent claim in the future.
The present invention is not limited to the configuration described in the embodiments described above. The components of each of the embodiments and modifications described above may be arbitrarily selected and combined. Also, any component of each embodiment or modification, any component described in the means for solving the invention, or a component that embodies any component described in the means for solving the invention. It may be configured in any combination. The applicant intends to obtain rights to these matters through amendments to the application or divisional applications.
In addition, the applicant intends to acquire rights to the entire design or partial design by filing a conversion application to a design application. Although the drawing depicts the entire device using solid lines, the drawing includes not only the overall design but also a partial design that claims some parts of the device. For example, it is a drawing that not only includes some parts of the device as a partial design, but also includes some parts of the device as a partial design regardless of the components. The part of the device may be a part of the device or a part of the device. We intend to obtain rights not only for the entire design, but also for partial designs in which any part of the solid line part of the drawing is a broken line part.

1:ドライブ・レコーダ,2:取り付け部,3:表示画面,4:カメラ部,5:フロント・レンズ,6:リア・レンズ,7:文字列,10:コントローラ,11:フロント・カメラ,12:リア・カメラ,13:表示制御装置,14:表示装置,15:時計,16:路車間/車車間情報受信回路,17:通信回路,18:加速度センサ,20:入力装置,21:メモリ,22:GPS受信器,25:メモリ・カード,31:ヘッダ記録領域,32:映像記録領域,80:コンピュータ,81:表示制御装置,82:表示装置,90:CPU,92:表示装置,93:加速度センサ,95:メモリ・カード・リーダ/ライタ,96:入力装置,97:メモリ,98:通信回路,130:再生ウインドウ,131:メニュー・バー,132:フォルダ・アイコン,133:カメラ・アイコン,134:プリンタ・アイコン,135:リール・アイコン,136:FDアイコン,137:ログ・アイコン,138:ギア・アイコン, 141:映像表示領域,141A:映像表示領域,141B:映像表示領域,142:視野範囲外の領域,143:枠,143A:枠,144:マーク,144A:マーク,145:マーク,146:吹き出し,146A:吹き出し,146B:吹き出し,147:吹き出し,148:鎖線,151:地図画像表示領域,152:アイコン,161:車両情報等表示領域,162:車両状態表示領域,163:操作ボタン,166:時刻表示領域,168:加速度グラフ表示領域,171:プレイ・リスト表示領域,172:プレイ・リスト表示領域,280:コミュニケーション・ロボット,281:胴体部,282:頭部,283:目,284:口,291:CPU,292:メモリ,293:通信LANボード,294:無線通信回路,295:モータ制御ボード,296:頭部モータ,297:センサ・ボード,298:眼カメラ,299:音声入出力ボード,300:スピーカ,301:マイクロフォン,310:フロント・ガラス,311:ダッシュボード

1: Drive recorder, 2: Mounting section, 3: Display screen, 4: Camera section, 5: Front lens, 6: Rear lens, 7: Character string, 10: Controller, 11: Front camera, 12: Rear camera, 13: Display control device, 14: Display device, 15: Clock, 16: Road/vehicle distance/vehicle distance information receiving circuit, 17: Communication circuit, 18: Acceleration sensor, 20: Input device, 21: Memory, 22 : GPS receiver, 25: memory card, 31: header recording area, 32: video recording area, 80: computer, 81: display control device, 82: display device, 90: CPU, 92: display device, 93: acceleration Sensor, 95: Memory card reader/writer, 96: Input device, 97: Memory, 98: Communication circuit, 130: Playback window, 131: Menu bar, 132: Folder icon, 133: Camera icon, 134 : Printer icon, 135: Reel icon, 136: FD icon, 137: Log icon, 138: Gear icon, 141: Image display area, 141A: Image display area, 141B: Image display area, 142: Viewing range Outside area, 143: Frame, 143A: Frame, 144: Mark, 144A: Mark, 145: Mark, 146: Balloon, 146A: Balloon, 146B: Balloon, 147: Balloon, 148: Chain line, 151: Map image display area , 152: Icon, 161: Vehicle information display area, 162: Vehicle status display area, 163: Operation button, 166: Time display area, 168: Acceleration graph display area, 171: Play/list display area, 172: Play/ List display area, 280: Communication robot, 281: Body, 282: Head, 283: Eyes, 284: Mouth, 291: CPU, 292: Memory, 293: Communication LAN board, 294: Wireless communication circuit, 295: Motor control board, 296: Head motor, 297: Sensor board, 298: Eye camera, 299: Audio input/output board, 300: Speaker, 301: Microphone, 310: Windshield, 311: Dashboard

Claims (5)

自動運転中か手動運転中かの判定結果に応じて撮影した映像データを格納するフォルダを異なるフォルダとする機能を備え
自動運転中か手動運転中かの判定結果に応じて格納する映像データの画質を異なるものとする機能を備えたドライブレコーダ。
Equipped with a function that stores the captured video data in a different folder depending on the judgment result whether automatic operation or manual operation is in progress .
A drive recorder equipped with a function that changes the image quality of stored video data depending on the determination result of whether automatic driving or manual driving is in progress.
指定された条件を満たすと、前記自動運転中及び前記手動運転中の画質よりも高い画質で記録する機能を備えた請求項に記載のドライブレコーダ。 The drive recorder according to claim 1 , further comprising a function of recording at a higher image quality than the image quality during the automatic driving and the manual driving when a specified condition is satisfied. 自動運転中か手動運転中かの判定結果に応じて映像データを記録するカメラを切り替える機能を備えた請求項1または2に記載のドライブレコーダ。 The drive recorder according to claim 1 or 2, further comprising a function of switching a camera for recording video data according to a determination result as to whether automatic driving or manual driving is in progress. 自動運転中か手動運転中かの判定結果に応じて撮影した映像データを格納するフォルダを異なるフォルダとする機能を備え
自動運転中か手動運転中かの判定結果に応じて映像データを記録するカメラを切り替える機能を備えドライブレコーダ。
Equipped with a function that stores the captured video data in a different folder depending on the judgment result whether automatic operation or manual operation is in progress .
A drive recorder with a function that switches the camera that records video data depending on the determination result of whether automatic driving or manual driving is in progress.
請求項1からのいずれかに記載のドライブレコーダの機能をコンピュータに実現させるためのプログラム。 A program for causing a computer to implement the functions of the drive recorder according to any one of claims 1 to 4 .
JP2022126803A 2017-08-09 2022-08-09 Playback device, playback method, program thereof, recording device, recording device control method, etc. Active JP7450287B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022126803A JP7450287B2 (en) 2017-08-09 2022-08-09 Playback device, playback method, program thereof, recording device, recording device control method, etc.

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017154141A JP2019032739A (en) 2017-08-09 2017-08-09 Reproducing apparatus and reproducing method, program thereof, recording apparatus, control method of recording apparatus, and the like
JP2022126803A JP7450287B2 (en) 2017-08-09 2022-08-09 Playback device, playback method, program thereof, recording device, recording device control method, etc.

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017154141A Division JP2019032739A (en) 2017-08-09 2017-08-09 Reproducing apparatus and reproducing method, program thereof, recording apparatus, control method of recording apparatus, and the like

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024027250A Division JP2024059844A (en) 2024-02-27 Playback device, playback method, program thereof, recording device, control method for recording device, etc.

Publications (2)

Publication Number Publication Date
JP2022169621A JP2022169621A (en) 2022-11-09
JP7450287B2 true JP7450287B2 (en) 2024-03-15

Family

ID=65524295

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017154141A Pending JP2019032739A (en) 2017-08-09 2017-08-09 Reproducing apparatus and reproducing method, program thereof, recording apparatus, control method of recording apparatus, and the like
JP2022126803A Active JP7450287B2 (en) 2017-08-09 2022-08-09 Playback device, playback method, program thereof, recording device, recording device control method, etc.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017154141A Pending JP2019032739A (en) 2017-08-09 2017-08-09 Reproducing apparatus and reproducing method, program thereof, recording apparatus, control method of recording apparatus, and the like

Country Status (1)

Country Link
JP (2) JP2019032739A (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11159327B2 (en) 2018-08-06 2021-10-26 Tyson York Winarski Blockchain augmentation of a material exchange format MXF file
US10404467B1 (en) 2018-09-09 2019-09-03 Tyson York Winarski Blockchain digest augmention of media files including group-of-pictures video streams for MXF files
JP2020145564A (en) * 2019-03-05 2020-09-10 株式会社デンソーテン Image processing device and image processing method
JP7276082B2 (en) * 2019-11-11 2023-05-18 マツダ株式会社 Driver state estimation device
JP7083331B2 (en) * 2019-12-09 2022-06-10 本田技研工業株式会社 Vehicle control system
US20220328076A1 (en) * 2020-02-28 2022-10-13 Beijng Baidu Netcom Science and Technology Co.,Ltd. Method and apparatus of playing video, electronic device, and storage medium
CN115556758A (en) * 2022-09-26 2023-01-03 湖北大学 Early warning system and early warning method based on augmented reality

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140376A (en) 2006-11-10 2008-06-19 Fujitsu Ten Ltd Information recording device for vehicle, program, and recording medium
JP2010182148A (en) 2009-02-06 2010-08-19 Toyota Motor Corp Travelling condition recording device
JP2010198214A (en) 2009-02-24 2010-09-09 Fujitsu Ten Ltd Drive recorder and video information display method
JP2011076443A (en) 2009-09-30 2011-04-14 Fujitsu Ten Ltd Data management device, data reading method and program
JP2011091667A (en) 2009-10-23 2011-05-06 Fujitsu Ten Ltd Drive recorder, recording method, data processor, data processing method, and program
JP2017091421A (en) 2015-11-16 2017-05-25 富士通テン株式会社 Drive recorder, display system, recording method of drive recorder, and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007072567A (en) * 2005-09-05 2007-03-22 Denso Corp Vehicle traveling information recording device

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008140376A (en) 2006-11-10 2008-06-19 Fujitsu Ten Ltd Information recording device for vehicle, program, and recording medium
JP2010182148A (en) 2009-02-06 2010-08-19 Toyota Motor Corp Travelling condition recording device
JP2010198214A (en) 2009-02-24 2010-09-09 Fujitsu Ten Ltd Drive recorder and video information display method
JP2011076443A (en) 2009-09-30 2011-04-14 Fujitsu Ten Ltd Data management device, data reading method and program
JP2011091667A (en) 2009-10-23 2011-05-06 Fujitsu Ten Ltd Drive recorder, recording method, data processor, data processing method, and program
JP2017091421A (en) 2015-11-16 2017-05-25 富士通テン株式会社 Drive recorder, display system, recording method of drive recorder, and program

Also Published As

Publication number Publication date
JP2019032739A (en) 2019-02-28
JP2022169621A (en) 2022-11-09

Similar Documents

Publication Publication Date Title
JP7450287B2 (en) Playback device, playback method, program thereof, recording device, recording device control method, etc.
US20210357670A1 (en) Driver Attention Detection Method
AU2017383463B2 (en) On-demand roadway stewardship system
US20200372792A1 (en) Crowdsourced realtime traffic images and videos
CN106796755B (en) Enhance the security system of road surface object in head up display
JP5282612B2 (en) Information processing apparatus and method, program, and information processing system
JP2022523937A (en) Communication for autonomous vehicles
CN112750206A (en) Augmented reality wearable system for vehicle occupants
KR20220083675A (en) Display systems, display devices, display methods and mobile devices
WO2022068098A1 (en) Virtual barrier gate system and virtual barrier gate control method
JP2020518165A (en) Platform for managing and validating content such as video images, pictures, etc. generated by different devices
CN115298520A (en) Display device, display method and vehicle
JP2003178397A (en) Road display detecting/alarming device
JP2020080542A (en) Image providing system for vehicle, server system, and image providing method for vehicle
WO2021192445A1 (en) Display device, display method, and vehicle
JP2024059844A (en) Playback device, playback method, program thereof, recording device, control method for recording device, etc.
JP2023025037A (en) Enhanced navigation instructions with landmarks under difficult driving conditions
US20220105866A1 (en) System and method for adjusting a lead time of external audible signals of a vehicle to road users
JP2009151187A (en) Safe driving teaching system
JP2021044779A (en) Image display device, image display method, and image display system
JP2000003438A (en) Sign recognizing device
US11972616B2 (en) Enhanced navigation instructions with landmarks under difficult driving conditions
US20220005267A1 (en) System and method for three-dimensional reproduction of an off-road vehicle
JP2023111732A (en) Information processing device and information processing method
KR20240024978A (en) Method and vehicle for providing media content adjusted to vehicle movement

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220830

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231024

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240227

R150 Certificate of patent or registration of utility model

Ref document number: 7450287

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150