JP2023019827A - System, information processing method, and program and the like - Google Patents

System, information processing method, and program and the like Download PDF

Info

Publication number
JP2023019827A
JP2023019827A JP2021124846A JP2021124846A JP2023019827A JP 2023019827 A JP2023019827 A JP 2023019827A JP 2021124846 A JP2021124846 A JP 2021124846A JP 2021124846 A JP2021124846 A JP 2021124846A JP 2023019827 A JP2023019827 A JP 2023019827A
Authority
JP
Japan
Prior art keywords
image
information
control unit
correction
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021124846A
Other languages
Japanese (ja)
Inventor
哲也 服部
Tetsuya Hattori
勇喜 清水
Yuki Shimizu
康晴 片桐
Yasuharu Katagiri
和正 石田
Kazumasa Ishida
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yupiteru Corp
Original Assignee
Yupiteru Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yupiteru Corp filed Critical Yupiteru Corp
Priority to JP2021124846A priority Critical patent/JP2023019827A/en
Publication of JP2023019827A publication Critical patent/JP2023019827A/en
Pending legal-status Critical Current

Links

Images

Abstract

To provide a system and the like which are superior to conventional ones, with which it is possible to apply appropriate image processing that is based on the state or condition of a moving body.SOLUTION: A system includes a control unit. The control unit is constituted so as to execute each of the following steps. In an acquisition step, specific information pertaining to the state or condition of a moving body is acquired. In a first correction step, first correction processing is executed, on the basis of the specific information, upon image data that is generated by an image capturing device that the moving body has during the time corresponding to the specific information. In a display control step, the image data upon which the first correction processing is executed is reproducibly displayed.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置、情報処理方法及びプログラム等に関する。 The present invention relates to an information processing device, an information processing method, a program, and the like.

ユーザーによって室内強調ボタンが選択されると、映像表示領域に表示されている暗い映像を表す映像データに対して位置内の明るさ補正を行う技術が開示されている(特許文献1)。 A technique is disclosed in which, when the user selects the room emphasis button, brightness correction within the position is performed on image data representing a dark image displayed in the image display area (Patent Document 1).

特開2019-129530号公報JP 2019-129530 A

しかしながら、特許文献1の技術では、画面には映像データに対する画像処理を行うボタンがあるにすぎず、多様な場面ごとのユーザーの求める画像処理を行うことができなかった。 However, with the technique disclosed in Patent Document 1, there are only buttons on the screen for performing image processing on video data, and it is not possible to perform image processing desired by users for various scenes.

本発明では上記事情を鑑み、移動体の状態又は状況に基づいた、適切な画像処理を施すことができるシステム等を提供するなど、従来に比べて優れたシステム等を提供することとした。 In view of the above circumstances, the present invention provides a system that is superior to the conventional system, such as a system that can perform appropriate image processing based on the state or situation of a mobile object.

本発明の目的はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果を得ることを目的とする構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所を「~が課題である」と読み替えた課題が本明細書には開示されている。課題はそれぞれ独立したものとして記載しているものであり、各々の課題を解決するための構成についても単独で分割出願・補正等により権利取得する意思を有する。課題が明細書の記載から黙示的に把握されるものであっても、本出願人は本明細書に記載の構成の一部を補正又は分割出願にて特許請求の範囲とする意思を有する。またこれら独立の課題を組み合わせた課題を解決する構成についても開示しているものであり、権利取得する意思を有する。 The object of the present invention is not limited to this, and we have the intention to acquire rights by divisional application, amendment, etc. for the structure aiming to obtain the effect of the structure disclosed in the specification and drawings. For example, the present specification discloses a problem in which the descriptions such as "can do", "possible", etc. are replaced with "is a problem". The problems are described as independent ones, and we intend to acquire the rights for the structure for solving each problem independently by filing a divisional application, an amendment, etc. Even if the problem is implicitly grasped from the description of the specification, the applicant intends to claim part of the configuration described in this specification in an amended or divisional application. It also discloses a configuration that solves a problem that combines these independent problems, and has the intention to acquire the right.

(1)本発明の一態様によれば、システムが提供される。このシステムは、制御部を備えてもよい。制御部は、次の各ステップを実行するように構成されてもよい。取得ステップでは、移動体の状態又は状況に関する特定情報を取得してもよい。第1の補正ステップでは、特定情報に基づいて、この特定情報に対応する時間における、移動体が有する撮影装置が生成した画像データへの第1の補正処理を実行してもよい。表示制御ステップでは、第1の補正処理が実行された画像データを再生可能に表示させてもよい。 (1) According to one aspect of the present invention, a system is provided. The system may comprise a controller. The controller may be configured to perform the following steps. The obtaining step may obtain specific information about the state or situation of the mobile object. In the first correction step, based on the specific information, a first correction process may be performed on the image data generated by the imaging device of the moving object at the time corresponding to the specific information. In the display control step, the image data subjected to the first correction process may be displayed in a reproducible manner.

このようにすれば、ユーザーは、移動体の状態又は状況に対応する時間における撮影装置が生成した画像データに第1の補正処理が実行された後の画像データを再生した画像を見ることができる。
特に、画像データへの補正処理は、適切な画像処理とするとよい。画像処理は、移動体が有する撮影装置が生成した画像データよりもユーザーにとって視認しやすい画像データに補正する補正処理とするとよい。特に補正処理は恒常的に実行するとよい。このような態様によれば、移動体の状態又は状況に基づいた、適切な画像処理を施すことができるため、状況や場面によらず、恒常的に、ユーザーにとって視認しやすい画像データを提示可能なシステムを実現することができる。
In this way, the user can view an image reproduced from the image data generated by the imaging device at the time corresponding to the state or situation of the moving object after the first correction processing has been performed. .
In particular, the correcting process for the image data should be appropriate image processing. The image processing may be correction processing for correcting the image data generated by the photographing device of the moving body so that the image data is more visually recognizable for the user. In particular, correction processing should be performed constantly. According to this aspect, it is possible to perform appropriate image processing based on the state or situation of the moving body, so that it is possible to consistently present image data that is easily visible to the user regardless of the situation or scene. system can be realized.

例えば、次に記載の各態様で提供されるとよい。 For example, it may be provided in each aspect described below.

(2)前記システムにおいて、前記第1の補正ステップでは、前記特定情報に基づいて、補正される範囲である補正範囲を可変に、前記画像データへの前記第1の補正処理を実行する、もの。 (2) In the above system, in the first correction step, the first correction process is performed on the image data while making the correction range variable based on the specific information. .

このような態様によれば、全範囲を補正しなくてもよいため、処理負荷を抑制することができる。また、好ましい範囲に補正がかかるため、空間的範囲又は時間的範囲に関わらず、ユーザーの意識を当該好ましい範囲に向けさせることができる。 According to such an aspect, since it is not necessary to correct the entire range, the processing load can be suppressed. Moreover, since the preferable range is corrected, the user's consciousness can be directed to the preferable range regardless of the spatial range or the temporal range.

(3)前記システムにおいて、前記補正範囲は、前記画像データのフレームに設定された関心領域である、もの。 (3) In the system, the correction range is a region of interest set in the frame of the image data.

このような態様によれば、本来視認性を高めたい空間的な領域を絞って、補正をかけることができるため、ユーザーの意識をフレーム単位で好ましい範囲に向けさせることができる。 According to this aspect, since it is possible to narrow down the spatial region in which visibility is originally desired to be improved and perform correction, it is possible to direct the user's awareness to a preferable range on a frame-by-frame basis.

(4)前記システムにおいて、前記制御部は、次の各ステップをさらに実行するように構成され、第1の受付ステップでは、ユーザーによる第1の入力を受け付け、解除ステップでは、前記第1の入力に基づいて、前記画像データに対する前記第1の補正処理を解除する、もの。 (4) In the system, the control unit is configured to further execute the following steps, a first receiving step receiving a first input by the user, and a canceling step receiving the first input and canceling the first correction process on the image data based on.

このような態様によれば、システムが提示した補正処理が不要な場合に、これをユーザーの入力という意思で解除することで視認性を高めることが可能となり、状況や場面に応じて、適切な画像を提示することができる。 According to this aspect, when the correction process presented by the system is unnecessary, it is possible to improve the visibility by canceling it with the intention of the user's input. Images can be presented.

(5)前記システムにおいて、前記制御部は、次の各ステップをさらに実行するように構成され、第2の受付ステップでは、ユーザーによる第2の入力を受け付け、第2の補正ステップでは、前記第2の入力に基づいて、前記画像データへの第2の補正処理を実行する、もの。 (5) In the system, the control unit is configured to further execute the following steps, a second receiving step receiving a second input from the user, and a second correcting step receiving the second 2, performs a second correction process on the image data.

このような態様によれば、装置が提示した補正処理に加えて、ユーザーの入力という意思で補正を追加することで視認性を高めることが可能となり、状況や場面に応じて、ユーザーの好みに合わせた画像を提示することができる。 According to this aspect, in addition to the correction processing presented by the device, it is possible to improve the visibility by adding the correction with the intention of the user's input. A combined image can be presented.

(6)前記システムにおいて、前記表示制御ステップでは、前記第1の補正処理と、前記第2の補正処理とが区別可能な態様で、前記画像データを再生可能に表示させる、もの。 (6) In the system, the display control step displays the image data reproducibly in such a manner that the first correction process and the second correction process can be distinguished from each other.

このような態様によれば、ユーザーは補正処理の種別を把握することができ、ユーザーフレンドリーである。 According to this aspect, the user can grasp the type of correction processing, which is user-friendly.

(7)前記システムにおいて、前記特定情報は、前記移動体の位置、向き、速度、加速度、時刻、時間帯、天候、走行状態及びペダルワークのうちの少なくとも1つである、もの。 (7) In the above system, the specific information is at least one of the position, direction, speed, acceleration, time, time period, weather, driving conditions, and pedal work of the moving body.

このような態様によれば、具体的な移動体の状態である、位置、速度、加速度、走行状態及びペダルワークのうちの少なくとも1つを考慮しているため、これらの情報に基づくことで、より適切な画像処理を施すことができる。 According to this aspect, since at least one of the specific states of the mobile body, namely position, speed, acceleration, running state, and pedal work, is considered, based on this information, More appropriate image processing can be performed.

(8)前記システムにおいて、前記制御部は、取得ステップをさらに実行するように構成され、前記特定情報は、前記移動体の位置であり、前記取得ステップでは、道路ネットワーク情報を取得し、前記第1の補正ステップでは、前記位置と、前記道路ネットワーク情報とに基づいて、前記画像データへの第1の補正処理を実行する、もの。 (8) In the above system, the control unit is configured to further execute an obtaining step, wherein the specific information is the position of the moving body, the obtaining step obtains road network information, In the correction step 1, a first correction process is performed on the image data based on the position and the road network information.

このような態様によれば、位置と、そのときの道路状況に応じて、適切な画像処理を施すことができる。例えば、道路ネットワーク情報から得られる交通量に応じて適切な画像処理を施すことで、よりユーザーにとって視認しやすい画像を提示することができる。 According to this aspect, appropriate image processing can be performed according to the position and the road conditions at that time. For example, by performing appropriate image processing according to traffic volume obtained from road network information, it is possible to present an image that is easier for the user to visually recognize.

(9)前記システムにおいて、前記制御部は、取得ステップをさらに実行するように構成され、前記特定情報は、前記移動体の位置であり、前記取得ステップでは、地形情報を取得し、前記第1の補正ステップでは、前記位置と、前記地形情報とに基づいて、前記画像データへの第1の補正処理を実行する、もの。 (9) In the above system, the control unit is configured to further execute an obtaining step, wherein the specific information is the position of the moving body, and the obtaining step obtains terrain information; In the correction step of (1), a first correction process is performed on the image data based on the position and the terrain information.

このような態様によれば、位置と、そのときの地形や環境等に応じて、適切な画像処理を施すことができる。例えば、繁華街と森林とで、それぞれ異なる画像処理を施すことで、よりユーザーにとって視認しやすい画像を提示することができる。 According to this aspect, appropriate image processing can be performed according to the position and the topography, environment, and the like at that time. For example, by applying different image processing to a busy street and a forest, it is possible to present an image that is easier for the user to visually recognize.

(10)前記システムにおいて、前記特定情報は、前記移動体の位置と、向きとであり、前記第1の補正ステップでは、前記位置と、前記向きとから推定される太陽の位置に基づいて、前記画像データへの第1の補正処理を実行する、もの。 (10) In the system, the specific information is the position and orientation of the moving object, and in the first correction step, based on the position of the sun estimated from the position and the orientation, and performing a first correction process on the image data.

このような態様によれば、太陽の位置を加味して、適切な画像処理を施すことができる。例えば、西日が差し込む状況下では、逆光により本来視認したい領域の明度が低くなる傾向があるため、これを補正するような画像処理を実行することで、ユーザーに視認しやすい画像を提示することができる。 According to such an aspect, appropriate image processing can be performed in consideration of the position of the sun. For example, when the sun shines in the afternoon, the backlight tends to lower the brightness of the area that the user originally wants to see. can be done.

(11)前記システムにおいて、前記第1の補正ステップは、準備ステップと、処理ステップとを備え、前記制御部は、予め記憶された第1のプログラムと、前記第1のプログラムとは異なる第2のプログラムとを呼出可能に構成され、前記第1のプログラムは、前記準備ステップを実行させ、前記準備ステップでは、前記画像データに含まれるパラメータを抽出し、抽出された前記パラメータの値を、前記第2のプログラムに渡し、前記第2のプログラムは、前記処理ステップと、前記表示制御ステップとを実行させ、前記処理ステップでは、前記パラメータに対して前記第1の補正処理を実行することで、その値を変化させ、前記表示制御ステップでは、前記処理ステップにおいて変化した前記パラメータの値に基づく前記画像データを再生可能に表示させる、もの。 (11) In the system, the first correction step includes a preparation step and a processing step, and the control unit stores a first program stored in advance and a second program different from the first program. The first program causes the preparation step to be executed, and in the preparation step, parameters included in the image data are extracted, and the values of the extracted parameters are transferred to the Passed to a second program, the second program causes the processing step and the display control step to be executed, and the processing step executes the first correction processing for the parameter, The value of the parameter is changed, and the display control step reproducibly displays the image data based on the value of the parameter changed in the processing step.

このような態様によれば、より補正処理に特化した別プログラムを利用することができるため、計算コストの削減や画像処理性能の向上に寄与する。特に、元の画像データ等を複製したりはせず、あくまでもパラメータの値を第2のプログラムに渡すことで、画像処理に適した第2のプログラムは、パラメータの値を読み出して、これに沿った画像処理を施された画像データを再生することができる。 According to this aspect, a separate program that is more specialized for correction processing can be used, which contributes to reduction in calculation cost and improvement in image processing performance. In particular, by passing the parameter values to the second program without duplicating the original image data, the second program suitable for image processing reads out the parameter values and follows them. It is possible to reproduce image data that has been subjected to image processing.

(12)前記システムにおいて、前記パラメータは、色相、明度、彩度、コントラスト、ガンマ、鮮鋭度、再生開始時刻、再生終了時刻及びループの有無のうち少なくとも1つを含む、もの。 (12) In the system, the parameters include at least one of hue, brightness, saturation, contrast, gamma, sharpness, playback start time, playback end time, and presence/absence of loop.

このような態様によれば、色相、明度、彩度、コントラスト、ガンマ、鮮鋭度、再生開始時刻、再生終了時刻及びループの有無といった各パラメータが、画像データが有する一般的なものとなっているため、より汎用的な画像処理プログラムを第2のプログラムとして使用することもでき、専用ソフトウェアに限定されないユーザビリティの高いシステムを実現することができる。 According to this aspect, each parameter such as hue, brightness, saturation, contrast, gamma, sharpness, reproduction start time, reproduction end time, and presence or absence of loop is a general parameter of image data. Therefore, a more versatile image processing program can be used as the second program, and a system with high usability that is not limited to dedicated software can be realized.

(13)前記システムにおいて、前記準備ステップでは、前記第2のプログラムの動作に関する動作情報を前記第2のプログラムに渡し、前記表示制御ステップでは、前記動作情報に基づいて、前記第2のプログラムが有する機能の少なくとも一部を制限して、前記画像データを再生可能に表示させる、もの。 (13) In the system, in the preparation step, operation information regarding the operation of the second program is passed to the second program, and in the display control step, the second program is controlled based on the operation information. Reproducible display of the image data by restricting at least part of the functions it has.

このような態様によれば、第2のプログラムをあくまでも補正と再生のためだけに利用することができ、ユーザーが第2のプログラムが有する余計な機能等を使用せずに済み、誤った操作をしてしまうことや、機能の多さから逆にユーザーが使いづらいと感じてしまう問題等を防止又は解消することができる。 According to this aspect, the second program can be used only for correction and reproduction, and the user can avoid using unnecessary functions of the second program, and can avoid erroneous operations. It is possible to prevent or solve the problem that the user finds it difficult to use due to the large number of functions.

(14)前記システムにおいて、前記第1のプログラムは、前記表示制御ステップを実行するように構成され、前記表示制御ステップでは、前記第2のプログラムがインストールされていない場合、このインストールを推奨する画面を表示させる、もの。 (14) In the system, the first program is configured to execute the display control step, and in the display control step, if the second program is not installed, a screen recommending installation of the second program is displayed. The one that displays the .

このような態様によれば、第2のプログラムがインストールされていない場合であっても、ユーザーに推奨される第2のプログラムを知らせることができる。その結果、ユーザーは、第2のプログラムを自身のコンピュータにインストールする等して、適切に第1の補正処理を施された画像データの再生を行うことができる。 According to this aspect, even if the second program is not installed, it is possible to inform the user of the recommended second program. As a result, the user can, for example, install the second program on his/her own computer to reproduce the image data that has been appropriately subjected to the first correction process.

(15)前記システムにおいて、前記第2のプログラムは、外部装置に記憶されたプログラムであり、前記制御部は、前記第2のプログラムを、ネットワークを介して呼び出すように構成される、もの。 (15) In the system, the second program is a program stored in an external device, and the control unit is configured to call the second program via a network.

このような態様によれば、第2のプログラムがインストールされていない場合であっても、第2のプログラムを介した第1の補正処理を行うことができる。例えば、使用しているコンピュータの容量が限られていたり、新たなプログラムをインストールする権限を有していないユーザーであっても、適切に第1の補正処理を行うことができる。 According to this aspect, even if the second program is not installed, the first correction process can be performed via the second program. For example, even a user whose computer capacity is limited or who does not have the authority to install a new program can appropriately perform the first correction process.

(16)システムであって制御部を備え、前記制御部は、次の各ステップを実行するように構成され、記録ステップでは、カメラが撮像した映像を、画像データとして記録し、表示制御ステップでは、前記カメラが撮像した映像をライブビューとして表示させ、記録された前記画像データと、表示された前記映像とのパラメータが、異なるように設定される、もの。 (16) A system comprising a control unit, wherein the control unit is configured to execute the following steps, in the recording step, the image captured by the camera is recorded as image data, and in the display control step, , wherein the image captured by the camera is displayed as a live view, and parameters for the recorded image data and the displayed image are set differently.

このような態様によれば、ライブビューとして視認される映像と、記録しておく画像データとを異なるものとすることで、視認性とカスタム性の両方を担保することができる。 According to such an aspect, both visibility and customizability can be ensured by differentiating the video visually recognized as live view and the image data to be recorded.

(17)前記システムにおいて、前記記録ステップでは、前記映像を補正せずに前記画像データとして記録し、前記表示制御ステップでは、前記映像を補正して前記ライブビューとして表示させる、もの。 (17) In the system, in the recording step, the video is recorded as the image data without correction, and in the display control step, the video is corrected and displayed as the live view.

このような態様によれば、ライブビューとして視認される映像の視認性を高めつつ、記録する画像データの加工による情報欠落を防止することができる。 According to this aspect, it is possible to prevent information loss due to processing of image data to be recorded while enhancing the visibility of the video viewed as a live view.

(18)前記システムにおいて、前記記録ステップでは、表示された前記映像のパラメータをパラメータログとして、前記画像データとともに時系列で記録する、もの。 (18) In the system, in the recording step, the parameters of the displayed image are recorded as a parameter log in chronological order together with the image data.

このような態様によれば、ライブビューとして視認される映像の視認性を記録として保存しておくことができる。あとから、この情報を用いて、画像データを再生する際にも、視認性を再現することができる。 According to such an aspect, it is possible to store the visibility of the video viewed as a live view as a record. Later, using this information, the visibility can be reproduced when reproducing the image data.

(19)前記システムにおいて、前記制御部は、第3の受付ステップをさらに実行するように構成され、前記第3の受付ステップでは、ユーザーによる第3の入力を受け付け、前記表示制御ステップでは、前記第3の入力に基づいて、前記画像データ及び前記パラメータログを読み出して、補正された前記画像データを再生可能に表示させる、もの。 (19) In the system, the control unit is configured to further execute a third receiving step, the third receiving step receiving a third input from the user, and the display controlling step receiving the and reading the image data and the parameter log to reproducibly display the corrected image data based on a third input.

このような態様によれば、ユーザーの所望する場合に、ライブビューのときのような視認性の高い映像をその場で再生することができ、ユーザビリティの高いシステムを実現することができる。 According to such an aspect, when the user desires, it is possible to reproduce an image with high visibility such as in live view on the spot, and it is possible to realize a system with high usability.

(20)前記システムにおいて、前記制御部は、予め記憶された第3のプログラムと、前記第3のプログラムとは異なる第4のプログラムとを呼出可能に構成され、前記表示制御ステップでは、前記画像データが前記第4のプログラムで再生された場合に、前記第3のプログラムでの再生を促す情報を表示させる、もの。 (20) In the above system, the control unit is configured to be able to call a third program stored in advance and a fourth program different from the third program, and in the display control step, the image When data is reproduced by the fourth program, information prompting reproduction by the third program is displayed.

このような態様によれば、意図しないプログラムによって再生された場合でも、好ましいプログラムでの再生を誘導することができ、ユーザーに適切な情報を提供することができる。 According to this aspect, even if the content is played back by an unintended program, it is possible to guide the playback with a preferred program and provide appropriate information to the user.

(21)前記システムにおいて、前記再生を促す情報は、前記画像データの再生画面とともに表示される、もの。 (21) In the above system, the information prompting reproduction is displayed together with a reproduction screen of the image data.

このような態様によれば、あくまでも現在の見え方が好ましくない状態であり、画像データ自体は問題ない旨を、ユーザーに適切に情報として提供することができる。 According to this aspect, it is possible to appropriately provide information to the user that the current appearance is unfavorable and that the image data itself is fine.

(22)情報処理方法であって、前記システムの各ステップを備える、方法。 (22) A method of information processing, comprising the steps of the system.

このような方法によれば、前述のシステムの機能を方法という形で実現及び提供することができる。 According to such a method, the functions of the system described above can be realized and provided in the form of a method.

(23)プログラムであって、コンピュータを前記システムの制御部として機能させる、もの。 (23) A program that causes a computer to function as a controller of the system.

このような態様によれば、前述のシステムの機能をプログラムという形で実現及び提供することができる。
もちろん、この限りではない。
According to this aspect, the functions of the system described above can be realized and provided in the form of a program.
Of course, it is not limited to this.

上述した(1)から(23)に示した発明は、任意に組み合わせることができる。例えば、(1)に示した発明の全て又は一部の構成に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加える構成としてもよい。特に、(1)に示した発明に、(2)以降の少なくとも1つの発明の少なくとも一部の構成を加えた発明とするとよい。また、(1)から(23)に示した発明から任意の構成を抽出し、抽出された構成を組み合わせてもよい。本願の出願人は、これらの構成を含む発明について権利を取得する意思を有する。また「~の場合」「~のとき」という記載があったとしても、その場合やそのときに限られる構成として記載はしているものではない。これらはよりよい構成の例を示しているものであって、これらの場合やときでない構成についても権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えたりした構成についても開示しているものであり、権利取得する意思を有する。 The inventions shown in (1) to (23) above can be combined arbitrarily. For example, a configuration may be adopted in which at least part of the configuration of at least one of the following inventions (2) is added to all or part of the configuration of the invention shown in (1). In particular, the invention shown in (1) may be added with at least a part of the configuration of at least one invention after (2). Also, arbitrary configurations may be extracted from the inventions shown in (1) to (23) and the extracted configurations may be combined. The applicant of this application intends to obtain rights to inventions including these configurations. In addition, even if there is a description of "in the case of" or "when", it is not described as a configuration limited to that case or that time. These are examples of better configurations, and we intend to acquire configurations that are not in these cases or occasions. Moreover, the parts described with order are not limited to this order. It also discloses a configuration in which some parts are deleted or the order is changed, and there is an intention to acquire the right.

本発明によれば、移動体の状態又は状況に基づいた、適切な画像処理を施すことができるため、状況や場面によらず、恒常的に、ユーザーにとって視認しやすい画像データを提示可能なシステムを実現することができる。 According to the present invention, since appropriate image processing can be performed based on the state or situation of a moving object, a system that can constantly present image data that is easy for the user to visually recognize regardless of the situation or scene. can be realized.

なお、本願の発明の効果はこれに限定されず、本明細書及び図面等に開示される構成の部分から奏する効果についても開示されており、当該効果を奏する構成についても分割出願・補正等により権利取得する意思を有する。例えば本明細書において「~できる」「~可能である」などと記載した箇所などは奏する効果を明示する記載であり、また「~できる」「~可能である」などといった記載がなくとも効果を示す部分が存在する。またこのような記載がなくとも当該構成よって把握される効果が存在する。 In addition, the effect of the invention of the present application is not limited to this, and the effect exerted by the parts of the structure disclosed in the specification and drawings, etc. is also disclosed, and the structure exerting the effect is also obtained by divisional application, amendment, etc. Intend to acquire rights. For example, in this specification, the places described as "can do", "can be", etc. are descriptions that clearly show the effect, and even if there is no description such as "can be done", "can be done", etc. There are parts shown. Moreover, even without such a description, there is an effect that can be grasped by the configuration.

図1は、実施形態1に係る情報処理システムのシステム構成の一例を示す図である。FIG. 1 is a diagram illustrating an example of a system configuration of an information processing system according to Embodiment 1. As illustrated in FIG. 図2は、実施形態1の車両の構成を説明する図である。FIG. 2 is a diagram illustrating the configuration of the vehicle according to the first embodiment. 図3は、撮影装置の外観構成の一例を示す図である。FIG. 3 is a diagram showing an example of the external configuration of the photographing device. 図4は、ブラケットの構成を示す図である。FIG. 4 is a diagram showing the configuration of the bracket. 図5は、撮影装置の電気的構成を示すブロック図である。FIG. 5 is a block diagram showing the electrical configuration of the imaging device. 図6は、実施形態1に係るサーバのハードウェア構成の一例を示す図である。6 is a diagram illustrating an example of a hardware configuration of a server according to the first embodiment; FIG. 図7は、実施形態1に係る情報表示端末のハードウェア構成の一例を示す図である。7 is a diagram illustrating an example of a hardware configuration of an information display terminal according to the first embodiment; FIG. 図8は、実施形態1に係るサーバの機能構成の一例を示す図である。8 is a diagram illustrating an example of a functional configuration of a server according to the first embodiment; FIG. 図9は、実施形態1に係る情報表示端末の機能構成の一例を示す図である。9 is a diagram illustrating an example of a functional configuration of an information display terminal according to the first embodiment; FIG. 図10は、実施形態1に係るサーバの情報処理の流れを示すアクティビティ図である。FIG. 10 is an activity diagram showing the flow of information processing by the server according to the first embodiment. 図11は、実施形態1に係る情報表示端末の情報処理の流れを示すアクティビティ図である。FIG. 11 is an activity diagram showing the flow of information processing of the information display terminal according to the first embodiment. 図12は、実施形態1の表示制御部が表示する、画像処理前の画面の一例を示す図である。12 is a diagram illustrating an example of a screen before image processing, displayed by the display control unit according to the first embodiment; FIG. 図13は、実施形態1の表示制御部が表示する、画像処理後の画面の一例を示す図である。13 is a diagram illustrating an example of a screen after image processing, displayed by the display control unit according to the first embodiment; FIG. 図14は、実施形態1の変形例1の表示制御部が表示する、画像処理後の画面の一例を示す図である。14 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 1 of Embodiment 1; FIG. 図15は、実施形態1の変形例2の表示制御部が表示する、画像処理前の画面の一例を示す図である。15 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 2 of Embodiment 1; FIG. 図16は、実施形態1の変形例3の表示制御部が表示する、画像処理前の画面の一例を示す図である。16 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 3 of Embodiment 1; FIG. 図17は、実施形態1の変形例4の表示制御部が表示する、画像処理前の画面の一例を示す図である。17 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 4 of Embodiment 1; FIG. 図18は、実施形態1の変形例5の表示制御部が表示する、画像処理前の画面の一例を示す図である。18 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 5 of Embodiment 1; FIG. 図19は、実施形態1の変形例6の表示制御部が表示する、画像処理前の画面の一例を示す図である。19 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 6 of Embodiment 1; FIG. 図20は、実施形態1の変形例7の表示制御部が表示する、画像処理前の画面の一例を示す図である。20 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 7 of Embodiment 1; FIG. 図21は、実施形態1の変形例8の表示制御部が表示する、画像処理前の画面の一例を示す図である。21 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 8 of Embodiment 1; FIG. 図22は、実施形態1の変形例9の表示制御部が表示する、画像処理前の画面の一例を示す図である。22 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 9 of Embodiment 1; FIG. 図23は、実施形態1の変形例10の表示制御部が表示する、画像処理後の画面の一例を示す図である。23 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 10 of Embodiment 1; FIG. 図24は、実施形態1の変形例11の表示制御部が表示する、画像処理後の画面の一例を示す図である。24 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 11 of Embodiment 1; FIG. 図25は、実施形態1の変形例12の表示制御部が表示する、画像処理後の画面の一例を示す図である。25 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 12 of Embodiment 1; FIG. 図26は、実施形態1の変形例13の表示制御部が表示する、画像処理後の画面の一例を示す図である。26 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 13 of Embodiment 1; FIG. 図27は、実施形態1の変形例14の表示制御部が表示する、画像処理後の画面の一例を示す図である。27 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 14 of Embodiment 1; FIG. 図28は、実施形態1の変形例15の表示制御部が表示する、画像処理後の画面の一例を示す図である。28 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 15 of Embodiment 1; FIG. 図29は、実施形態1の変形例16の表示制御部が表示する、画面の一例を示す図である。29 is a diagram illustrating an example of a screen displayed by a display control unit according to Modification 16 of Embodiment 1; FIG. 図30は、実施形態1の変形例17の表示制御部が表示する、画像処理後の画面の一例を示す図である。30 is a diagram illustrating an example of a screen after image processing, displayed by a display control unit according to Modification 17 of Embodiment 1; FIG. 図31は、実施形態1の変形例18の表示制御部が表示する、画面の一例を示す図である。31 is a diagram illustrating an example of a screen displayed by a display control unit according to Modification 18 of Embodiment 1; FIG. 図32は、実施形態1の変形例19の表示制御部が表示する、画像処理前の画面の一例を示す図である。32 is a diagram illustrating an example of a screen before image processing, displayed by a display control unit according to Modification 19 of Embodiment 1; FIG. 図33は、実施形態1の変形例20の表示制御部が表示する、画面の一例を示す図である。33 is a diagram illustrating an example of a screen displayed by a display control unit according to Modification 20 of Embodiment 1; FIG. 図34は、実施形態1の変形例21の表示制御部が表示する、画面の一例を示す図である。34 is a diagram illustrating an example of a screen displayed by a display control unit according to Modification 21 of Embodiment 1; FIG. 図35は、実施形態1の変形例22の表示制御部が表示する、画面の一例を示す図である。35 is a diagram illustrating an example of a screen displayed by a display control unit according to Modification 22 of Embodiment 1; FIG. 図36は、実施形態1の変形例23の表示制御部が表示する、画面の一例を示す図である。36 is a diagram illustrating an example of a screen displayed by a display control unit according to Modification 23 of Embodiment 1; FIG. 図37は、実施形態2の変形例に係る情報処理システムのシステム構成を示す概略図である。37 is a schematic diagram illustrating a system configuration of an information processing system according to a modification of the second embodiment; FIG. 図38は、実施形態2の変形例に係る情報処理端末の機能構成を示す概略図である。38 is a schematic diagram illustrating a functional configuration of an information processing terminal according to a modification of Embodiment 2; FIG. 図39は、記憶部22及び制御部23によって実現される機能ブロック図である。FIG. 39 is a functional block diagram realized by the storage section 22 and the control section 23. As shown in FIG. 図40は、実施形態4に係る情報処理の流れを示すアクティビティ図である。FIG. 40 is an activity diagram showing the flow of information processing according to the fourth embodiment. 図41は、第1の補正処理の、空間的な補正範囲の一例を示す概略図である。FIG. 41 is a schematic diagram showing an example of a spatial correction range of the first correction process. 図42は、第1の補正処理の、時間的な補正範囲の一例を示す概略図である。FIG. 42 is a schematic diagram showing an example of the temporal correction range of the first correction process. 図43は、第1の補正処理及び第2の補正処理を実行した場合の、再生画面4に付された付加情報43を示す概略図である。FIG. 43 is a schematic diagram showing additional information 43 attached to the reproduced screen 4 when the first correction process and the second correction process are executed. 図44は、実施形態4の変形例3に係る情報処理の流れを示すアクティビティ図である。44 is an activity diagram illustrating the flow of information processing according to Modification 3 of Embodiment 4. FIG. 図45は、制御部33によって実現される機能ブロック図である。FIG. 45 is a functional block diagram realized by the control unit 33. As shown in FIG. 図46は、実施形態5に係る情報処理の流れを示すアクティビティ図である。FIG. 46 is an activity diagram showing the flow of information processing according to the fifth embodiment. 図47は、ライブビューとして表示される画像データIMと、後から再生可能に記録される画像データIMとの態様を示す概略図である。FIG. 47 is a schematic diagram showing aspects of image data IM displayed as a live view and image data IM recorded so as to be reproducible later. 図48は、推奨される第3のプログラムP3での再生を促す付加情報43が再生画面4に重畳された態様を示す概略図である。FIG. 48 is a schematic diagram showing a mode in which additional information 43 prompting reproduction of the recommended third program P3 is superimposed on the reproduction screen 4. As shown in FIG.

以下、図面を参照して本発明を実施するための形態について説明する。なお、以下に示す実施形態は、本発明を提供した一つの実施形態であり、以下の記載に基づいて本願発明の内容が限定して解釈されるものではない。 EMBODIMENT OF THE INVENTION Hereinafter, the form for implementing this invention is demonstrated with reference to drawings. The embodiment shown below is one embodiment that provides the present invention, and the content of the present invention should not be construed as being limited based on the following description.

ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。 By the way, the program for realizing the software appearing in this embodiment may be provided as a non-transitory computer-readable medium (Non-Transitory Computer-Readable Medium), or may be downloaded from an external server. It may be provided as possible, or may be provided so that the program is activated on an external computer and the function is realized on the client terminal (so-called cloud computing).

また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、例えば電圧・電流を表す信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。 Further, in the present embodiment, the term “unit” may include, for example, a combination of hardware resources implemented by circuits in a broad sense and software information processing that can be specifically realized by these hardware resources. . In addition, various information is handled in the present embodiment, and these information are, for example, physical values of signal values representing voltage and current, and signal values as binary bit aggregates composed of 0 or 1. It is represented by high and low, or quantum superposition (so-called quantum bit), and communication and operation can be performed on a circuit in a broad sense.

また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。 A circuit in a broad sense is a circuit implemented by appropriately combining at least circuits, circuits, processors, memories, and the like. Application Specific Integrated Circuits (ASICs), programmable logic devices (e.g., Simple Programmable Logic Devices (SPLDs), Complex Programmable Logic Devices (CPLDs), and field It includes a programmable gate array (Field Programmable Gate Array: FPGA).

[実施形態1]
[情報処理システムのシステム構成]
以下、情報処理システム3000の一例について説明する。図1は、実施形態1に係る情報処理システム3000のシステム構成の一例を示す図である。図1に示されるように、情報処理システム3000は、車両3400、サーバ3700、複数の情報表示端末3800A、3800B、3800C及びネットワーク3900により構成される。車両3400は、ネットワーク3900を介してサーバ3700と通信可能に構成される。より具体的に説明すると、車両3400は、ネットワーク3900を介して車両3400の持つ情報をサーバ3700に送信する。また、複数の情報表示端末3800A、3800B、3800Cは、ネットワーク3900を介してサーバ3700と通信可能に構成される。より具体的に説明すると、複数の情報表示端末3800A、3800B、3800Cは、ネットワーク3900を介してサーバ3700内の情報を取得する。なお、ここで、情報表示端末3800A、3800B、3800Cは、UI(User Interface)としての役割を持つデバイスであればよく、具体例としては、パーソナルコンピュータ、スマートフォン、タブレット等が挙げられる。
[Embodiment 1]
[System configuration of information processing system]
An example of the information processing system 3000 will be described below. FIG. 1 is a diagram showing an example of the system configuration of an information processing system 3000 according to the first embodiment. As shown in FIG. 1, the information processing system 3000 comprises a vehicle 3400, a server 3700, a plurality of information display terminals 3800A, 3800B, 3800C and a network 3900. FIG. Vehicle 3400 is configured to be able to communicate with server 3700 via network 3900 . More specifically, vehicle 3400 transmits information possessed by vehicle 3400 to server 3700 via network 3900 . A plurality of information display terminals 3800A, 3800B, and 3800C are configured to be able to communicate with server 3700 via network 3900. FIG. More specifically, a plurality of information display terminals 3800A, 3800B, and 3800C acquire information in server 3700 via network 3900. FIG. Here, the information display terminals 3800A, 3800B, and 3800C may be devices that have a role as a UI (User Interface), and specific examples include personal computers, smart phones, tablets, and the like.

[車両3400の全体構成]
図2は、実施形態1の車両3400の構成を説明する図である。図2には、車両3400を側面側から見た場合の模式図が示されている。車両3400は、第1の撮影装置としての撮影装置3100と、第2の撮影装置としての撮影装置3200と、を有する。車両3400は、例えば、エンジンを駆動源として有する内燃機関車両、エンジンと走行モータとを駆動源として有するハイブリット車両、走行モータを駆動源として有する電気自動車等である。車両3400は、例えば四輪の自動車であるが、撮影装置3100及び撮影装置3200を配置することが可能な車両であればよい。車両は、例えば、自動車、バス、トラック等の四輪以上の大型輸送車や、自動二輪車、自転車等の二輪車、その他の車両等であってもよい。車両は、例えば、電車、モノレール、リニアモーターカー等の交通機関の車両でもよい。
[Overall Configuration of Vehicle 3400]
FIG. 2 is a diagram illustrating the configuration of vehicle 3400 according to the first embodiment. FIG. 2 shows a schematic diagram of the vehicle 3400 viewed from the side. A vehicle 3400 has an imaging device 3100 as a first imaging device and an imaging device 3200 as a second imaging device. The vehicle 3400 is, for example, an internal combustion engine vehicle having an engine as a drive source, a hybrid vehicle having an engine and a travel motor as drive sources, an electric vehicle having a travel motor as a drive source, or the like. The vehicle 3400 is, for example, a four-wheeled automobile, but may be any vehicle on which the imaging device 3100 and the imaging device 3200 can be arranged. The vehicle may be, for example, a large transportation vehicle with four or more wheels such as an automobile, a bus, or a truck, a two-wheeled vehicle such as a motorcycle or a bicycle, or other vehicles. The vehicle may be, for example, a transportation vehicle such as a train, a monorail, or a linear motor car.

撮影装置3100は、車両3400の前方側に配置されたフロントカメラである。撮影装置3100は、例えば、車両3400の車室における前方側の所定の位置に取り付けられ、フロントガラス越しに、車両3400の前方を撮影方向として撮影する。撮影装置3100は、ドライブレコーダである。より具体的に説明すると、撮影装置3100は、撮影する機能と、撮影した画像を示す画像データを記録する機能と、撮影装置200から取得した画像データを記録する機能と、を有する。 The imaging device 3100 is a front camera arranged on the front side of the vehicle 3400 . The photographing device 3100 is attached, for example, at a predetermined position on the front side of the cabin of the vehicle 3400, and photographs the front of the vehicle 3400 through the windshield as the photographing direction. The imaging device 3100 is a drive recorder. More specifically, the photographing device 3100 has a function of photographing, a function of recording image data representing the photographed image, and a function of recording image data obtained from the photographing device 200 .

撮影装置3200は、車両3400の後方側に配置されたリアカメラである。撮影装置3200は、例えば、車両3400の車室における後方側の所定の位置に取り付けられ、リアガラス越しに、車両の後方を撮影方向として撮影する。撮影装置3200は、撮影する機能と、撮影した画像を示す画像データを撮影装置3100に出力する機能と、を有する。 The imaging device 3200 is a rear camera arranged on the rear side of the vehicle 3400 . The photographing device 3200 is attached, for example, at a predetermined position on the rear side of the cabin of the vehicle 3400, and photographs the rear side of the vehicle through the rear glass. The photographing device 3200 has a function of photographing and a function of outputting image data representing the photographed image to the photographing device 3100 .

撮影装置3100と撮影装置3200とは、ケーブル3300を介して接続される。ケーブル3300は、撮影装置3100と撮影装置3200とを接続する有線の通信路である。ケーブル3300は、例えば、撮影装置3100から撮影装置3200へ動作用の電力を供給する電源線と、撮影装置3100と撮影装置3200との間で各種の信号を伝送するための信号線と、を有する。撮影装置3200は、ケーブル3300を介して、撮影装置3100からの電力の供給を受けて動作する。なお、撮影装置3100と撮影装置3200とが、有線の通信路ではなく、Wi-Fi(登録商標)やBluetooth(登録商標)、その他の規格の無線の通信路によって接続されてもよい。また、撮影装置3100は、撮影装置200と通信により接続することなく使用されてもよい。 The imaging device 3100 and the imaging device 3200 are connected via a cable 3300 . A cable 3300 is a wired communication path that connects the imaging device 3100 and the imaging device 3200 . The cable 3300 has, for example, a power line that supplies power for operation from the imaging device 3100 to the imaging device 3200, and a signal line for transmitting various signals between the imaging devices 3100 and 3200. . The imaging device 3200 operates by being supplied with power from the imaging device 3100 via the cable 3300 . Note that the imaging devices 3100 and 3200 may be connected by a wireless communication channel of Wi-Fi (registered trademark), Bluetooth (registered trademark), or other standards, instead of a wired communication channel. Also, the imaging device 3100 may be used without being connected to the imaging device 200 through communication.

[撮影装置3100の外観構成]
図3は、撮影装置3100の外観構成の一例を示す図である。図3(A)は、撮影装置3100を前方側の右斜め上方向から見た図である。図3(B)は、撮影装置3100を後方側の右斜め上方向から見た図である。撮影装置3100は、筐体3101を有する。筐体3101は、上下方向よりも左右方向に長く、かつ厚みは比較的小さい直方体状である。筐体3101は、車両3400に取り付けられたときに上方を向く上面31011と、第1の側面31012と、第2の側面31013と、第2の側面31013の反対側に位置する第3の側面31014と、第1の側面31012の反対側に位置する第4の側面31015と、を有する。
[External configuration of imaging device 3100]
FIG. 3 is a diagram showing an example of the external configuration of the imaging device 3100. As shown in FIG. FIG. 3A is a diagram of the photographing device 3100 as seen from the front and obliquely upper right direction. FIG. 3B is a diagram of the photographing device 3100 viewed obliquely from the upper right on the rear side. The imaging device 3100 has a housing 3101 . The housing 3101 has a rectangular parallelepiped shape that is longer in the horizontal direction than in the vertical direction and has a relatively small thickness. The housing 3101 has a top surface 31011 facing upward when attached to the vehicle 3400, a first side surface 31012, a second side surface 31013, and a third side surface 31014 located opposite the second side surface 31013. and a fourth side 31015 located opposite the first side 31012 .

上面31011には、ジョイントレール3102と、カメラジャック3191と、が設けられている。ジョイントレール3102は、撮影装置3100を車両3400の所定の取付位置に取り付けるためのブラケット(例えば、後述するブラケット3600)を着脱可能である。取付位置は、例えば、車両3400のフロントガラス(例えば、フロントガラスにおける上端付近)、又は車両3400のルームミラーや車室内の天井等としてもよい。撮影装置3100が車両3400に取りけられたとき、第1の側面31012が車両3400の前方側を向く。このとき、第2の側面31013は、車両3400の後方側から見て右側を向く。第3の側面31014は、車両3400の後方側から見て左側を向く。第4の側面31015は、車両3400の後方側を向く。 A joint rail 3102 and a camera jack 3191 are provided on the upper surface 31011 . The joint rail 3102 can attach and detach a bracket (for example, a bracket 3600 described later) for attaching the imaging device 3100 to a predetermined attachment position of the vehicle 3400 . The mounting position may be, for example, the windshield of the vehicle 3400 (for example, near the upper end of the windshield), the rearview mirror of the vehicle 3400, the ceiling of the vehicle interior, or the like. When the photographing device 3100 is attached to the vehicle 3400 , the first side surface 31012 faces the front side of the vehicle 3400 . At this time, the second side surface 31013 faces rightward when viewed from the rear side of the vehicle 3400 . The third side surface 31014 faces left when viewed from the rear side of the vehicle 3400 . The fourth side 31015 faces the rear side of the vehicle 3400 .

カメラジャック3191は、ケーブル3300の一端が接続される端子である。カメラジャック3191は、例えばUSB TypeCの規格に対応し、撮影装置3100が撮影装置3200とイーサネット規格の通信を行うための端子としてもよい。 Camera jack 3191 is a terminal to which one end of cable 3300 is connected. The camera jack 3191 may correspond to, for example, the USB Type C standard, and may be a terminal for the imaging device 3100 to communicate with the imaging device 3200 according to the Ethernet standard.

第1の側面31012には、撮影レンズ3151と、放音孔3103と、マイク孔3104と、が設けられている。撮影レンズ3151は、撮影装置3100が備える撮影部(後述する撮影部3015)が有する集光用のレンズである。放音孔3103は、撮影レンズ3151の上方に設けられ、撮影装置3100が有する音声出力部(後述する音声出力部3014)が出力した音声を、筐体3101の内部から外部に透過させる孔である。マイク孔3104は、撮影レンズ3151の下方に設けられ、外部からの音を筐体3101の外部から内部に透過させる孔である。筐体3101の内部に透過した音は、撮影装置3100が有するマイクロホン(後述するマイクロホン3121)に入力される。 A photographing lens 3151 , a sound emitting hole 3103 and a microphone hole 3104 are provided on the first side surface 31012 . A photographing lens 3151 is a lens for condensing light included in the photographing unit (the photographing unit 3015 to be described later) provided in the photographing apparatus 3100 . The sound emitting hole 3103 is provided above the photographing lens 3151, and is a hole through which the sound output by the sound output unit (the sound output unit 3014 described later) of the photographing device 3100 is transmitted from the inside of the housing 3101 to the outside. . A microphone hole 3104 is provided below the photographing lens 3151 and is a hole through which external sound is transmitted from the outside of the housing 3101 to the inside. The sound that has passed through the housing 3101 is input to a microphone (a microphone 3121 to be described later) of the imaging device 3100 .

第2の側面31013には、イベント記録ボタン3122が設けられている。イベント記録ボタン3122は、撮影部3015が撮影した画像の記録(録画)の開始、又はその記録の終了を指示するための操作手段である。イベント記録が行われていないときに、ユーザーによりイベント記録ボタン3122が操作されると、撮影装置3100はイベント記録を開始する。イベント記録について詳しくは後述する。イベント記録ボタン3122は、右ハンドルの車両3400の運転者が操作しやすいように、運転者席側を向く第2の側面31013に設けられている。 An event recording button 3122 is provided on the second side surface 31013 . The event recording button 3122 is an operation means for instructing the start of recording (recording) of the image captured by the imaging unit 3015 or the end of the recording. When the event recording button 3122 is operated by the user while event recording is not being performed, the imaging device 3100 starts event recording. Event recording will be described later in detail. The event record button 3122 is provided on the second side 31013 facing the driver's seat for easy operation by the driver of the right-hand drive vehicle 3400 .

第3の側面31014には、端子3192と、記憶媒体挿入口3181と、が設けられている。端子3192は、外部の機器から電力の供給を受けるための端子である。端子3192は、例えばDCジャックである。端子3192は、電源用のコード(例えば、シガープラグコード)の一端側のコネクタが接続される。電源用コードの他端側のコネクタは、例えば車両3400側に設けられた給電用の端子(例えば、シガーソケット)に接続される。 A terminal 3192 and a storage medium insertion port 3181 are provided on the third side surface 31014 . A terminal 3192 is a terminal for receiving power supply from an external device. Terminal 3192 is, for example, a DC jack. Terminal 3192 is connected to a connector on one end of a power supply cord (for example, cigar plug cord). A connector on the other end side of the power cord is connected to a power supply terminal (for example, a cigar socket) provided on the vehicle 3400 side, for example.

端子3192は、車両3400のOBDII(「II」は「2」のローマ数字である。)コネクタに接続可能なOBDIIアダプタが接続されてもよい。OBDIIコネクタは、故障診断コネクタとも称され、車両のECU(Engine Control Unit)に接続され、所定の期間毎(例えば、0.5秒毎)に各種の車両情報が出力される端子である。端子3192が、OBDIIアダプタを用いてOBDIIコネクタと接続されることで、撮影装置3100は、動作用の電力の供給を受けるとともに、車両情報を取得することができる。 Terminal 3192 may be connected to an OBDII adapter connectable to an OBDII (“II” is the Roman numeral for “2”) connector of vehicle 3400 . The OBDII connector, also called a failure diagnosis connector, is a terminal that is connected to an ECU (Engine Control Unit) of a vehicle and outputs various vehicle information every predetermined period (for example, every 0.5 seconds). By connecting the terminal 3192 to the OBDII connector using the OBDII adapter, the imaging device 3100 can receive power for operation and acquire vehicle information.

車両情報は、車両3400の状態に関する情報である。車両情報は、例えば、車両3400の速度(車速)、エンジン回転数、エンジン負荷率、スロットル度、点火時期、残り燃料の割合、インテークマニホールドの圧力、吸入空気量(MAF)、インジェクション開時間、エンジン冷却水の温度(冷却水温度)、エンジンに吸気される空気の温度(吸気温度)、車外の気温(外気温度)、燃料タンクの残り燃料の量(残燃料量)、燃料流量、瞬間燃費、アクセル開度、ウインカー情報(左右のウインカーの動作(オン/オフ))、ブレーキ開度、ハンドルの回転操舵角、ギヤポジション、及びドア開閉状態の情報等の少なくとも1つ以上とするとよい。 Vehicle information is information about the state of vehicle 3400 . The vehicle information includes, for example, the speed of the vehicle 3400 (vehicle speed), engine speed, engine load factor, throttle degree, ignition timing, remaining fuel ratio, intake manifold pressure, intake air amount (MAF), injection opening time, engine Cooling water temperature (cooling water temperature), temperature of air taken into the engine (intake air temperature), air temperature outside the vehicle (outside air temperature), amount of remaining fuel in the fuel tank (remaining fuel amount), fuel flow rate, instantaneous fuel consumption, At least one or more of accelerator opening, blinker information (operation of left and right blinkers (on/off)), brake opening, steering angle of steering wheel, gear position, door opening/closing state, etc. may be used.

記憶媒体挿入口3181は、外部の記憶手段としての記憶媒体3500を、撮影装置3100の内部に挿入するための挿入口である。記憶媒体3500は、撮影装置3100又は撮影装置3200で撮影された画像が記録される記憶媒体で、例えばSDカードである。SDカードは、例えば、SDメモリカード、miniSDカード、及びmicroSDカード等の何れの形状も含む。記憶媒体3500は、さらに、記憶した画像をパーソナルコンピュータ等の情報表示端末で再生するためのビューア(例えば、専用ビューア)のプログラムを記憶してもよい。 A storage medium insertion port 3181 is an insertion port for inserting a storage medium 3500 as an external storage means into the imaging device 3100 . A storage medium 3500 is a storage medium in which images captured by the imaging device 3100 or the imaging device 3200 are recorded, and is an SD card, for example. The SD card includes any form such as SD memory card, miniSD card, and microSD card. The storage medium 3500 may further store a program for a viewer (for example, a dedicated viewer) for reproducing the stored images on an information display terminal such as a personal computer.

第4の側面31015には、操作部3123と、表示面3131と、発光部3021と、が設けられている。操作部3123は、第1のボタン31231と、第2のボタン31232と、第3のボタン31233と、第4のボタン31234と、を有する。第1のボタン31231、第2のボタン31232、第3のボタン31233、及び第4のボタン31234は、表示面3131の右側の一辺に沿って上下に並べて配置される。これら各ボタンに割り当てられる機能としては、例えば以下の機能がある。 An operation unit 3123 , a display surface 3131 , and a light emitting unit 3021 are provided on the fourth side surface 31015 . The operation unit 3123 has a first button 31231 , a second button 31232 , a third button 31233 and a fourth button 31234 . A first button 31231 , a second button 31232 , a third button 31233 , and a fourth button 31234 are arranged vertically along one right side of the display surface 3131 . Functions assigned to these buttons include, for example, the following functions.

第1のボタン31231は、長押しされた場合に画像を切り替るためのボタンとして機能し、短押しされた場合に記憶媒体3500のフォーマットを指示するためのボタンとして機能する。表示面3131に表示される画像は、例えば、撮影装置3100で現在撮影されている画像、及び撮影装置3200で現在撮影されている画像の一方又は両方である。記憶媒体3500をフォーマットすることは、記憶媒体3500を初期化することであり、例えば、記憶媒体3500に記憶された画像等のデータを消去すること、撮影装置3100が記憶媒体3500を使用できる状態にする(例えば、画像の記録及び読み出しをすることができる状態にする)ために、動作設定の内容を示す設定情報を記憶媒体3500に書き込むこと、及び記憶媒体3500を特定のファイル状態にすること、の少なくとも何れかとして把握される。 The first button 31231 functions as a button for switching images when pressed for a long time, and functions as a button for instructing formatting of the storage medium 3500 when pressed for a short time. The image displayed on the display surface 3131 is, for example, one or both of the image currently captured by the imaging device 3100 and the image currently captured by the imaging device 3200 . Formatting the storage medium 3500 is to initialize the storage medium 3500, for example, to erase data such as images stored in the storage medium 3500, and to put the storage medium 3500 into a state in which the imaging apparatus 3100 can use the storage medium 3500. (for example, to enable recording and reading of images), writing setting information indicating the contents of operation settings to the storage medium 3500, and setting the storage medium 3500 to a specific file state; is grasped as at least one of

第2のボタン31232は、撮影装置3100が再生する画像を選択する選択画面を表示するためのボタンである。第3のボタン31233は、撮影装置3100、及び撮影装置3200の設定に関するメニューを表示するためのボタンである。第4のボタン31234は、画像の記録の開始、及び停止を指示するためのボタンである。例えば、後述する常時記録機能による記録中に、第4のボタン31234が短押しされた場合、その記録が一時停止する。その一時停止中に、第4のボタン31234が短押しされた場合、常時記録機能による画像の記録が再開する。第4のボタン31234が長押しされた場合、画像を記録する際のフレームレートを変更することができる。 A second button 31232 is a button for displaying a selection screen for selecting an image to be reproduced by the imaging device 3100 . A third button 31233 is a button for displaying a menu regarding settings of the imaging device 3100 and the imaging device 3200 . A fourth button 31234 is a button for instructing start and stop of image recording. For example, when the fourth button 31234 is pressed for a short time during recording by the constant recording function, which will be described later, the recording is temporarily stopped. When the fourth button 31234 is pressed for a short time during the pause, image recording by the constant recording function resumes. When the fourth button 31234 is long pressed, the frame rate for recording images can be changed.

表示面3131は、撮影装置3100が有する表示部(後述する表示部3013)が表示する画像が表示される領域である。表示面3131は、例えば、長方形又は正方形の領域である。表示面3131に重ねてユーザーのタッチ操作を検知するためのタッチセンサー3124が設けられている。 A display surface 3131 is an area where an image displayed by a display unit (a display unit 3013 to be described later) of the imaging device 3100 is displayed. The display surface 3131 is, for example, a rectangular or square area. A touch sensor 3124 for detecting a user's touch operation is provided over the display surface 3131 .

発光部3021は、第1のボタン31231よりも上方に設けられ、所定の色で発光する。 The light emitting part 3021 is provided above the first button 31231 and emits light in a predetermined color.

なお、撮影装置3200も、ドライブレコーダとしての機能を有してもよく、例えば撮影装置3100と同様の構成を有してもよい。また、撮影装置3100と通信により接続される撮影装置として、撮影装置3200に代えて又は加えて、他の方向を撮影する1又は複数の撮影装置が用いられてもよい。他の方向として、車両3400の右斜め後ろ、左斜め後ろ、車幅方向(側方)等の方向がある。 Note that the imaging device 3200 may also have a function as a drive recorder, and may have the same configuration as the imaging device 3100, for example. Also, as the imaging device connected to the imaging device 3100 by communication, one or a plurality of imaging devices that capture images in other directions may be used instead of or in addition to the imaging device 3200 . As other directions, there are directions such as diagonally rearward right, diagonally rearward left, and vehicle width direction (side) of vehicle 3400 .

[ブラケット3600の構成]
図4は、ブラケット3600の構成を示す図である。図4(A)は、ブラケット3600を前方側の右斜め上方向から見た図である。図4(B)は、ブラケット3600を側面側から見た図である。図4(C)は、ブラケット3600を前方側の右斜め下方向から見た図である。ブラケット3600は、撮影装置3100を車両3400に取り付ける取付部材の一例である。
[Configuration of Bracket 3600]
FIG. 4 is a diagram showing the configuration of bracket 3600. As shown in FIG. FIG. 4A is a diagram of the bracket 3600 viewed obliquely from the upper right side on the front side. FIG. 4B is a side view of the bracket 3600. FIG. FIG. 4(C) is a diagram of the bracket 3600 viewed obliquely from the lower right on the front side. A bracket 3600 is an example of a mounting member for mounting the photographing device 3100 to the vehicle 3400 .

ブラケット3600は、ボールジョイント機構を用いた取付部材である。ブラケット3600において、平板状のベース部3610は、車両3400のフロントガラスに貼り付ける取付面3611を有する。ベース部3610は、ボールスタッド3620の支柱に対して所定角度だけ傾斜する。取付面3611に両面テープ等の接着部材を貼り付け、その接着部材を介して、車両3400のフロントガラス等に貼り付けられる。 Bracket 3600 is an attachment member using a ball joint mechanism. In bracket 3600 , flat base portion 3610 has mounting surface 3611 to be attached to the windshield of vehicle 3400 . The base portion 3610 is inclined at a predetermined angle with respect to the support of the ball stud 3620 . An adhesive member such as a double-sided tape is attached to the mounting surface 3611, and it is attached to the windshield of the vehicle 3400 or the like via the adhesive member.

ボールスタッド3620は、ベース部3610のうち取付面3611とは反対側の面から起立した部位である。ソケット部3630は、ボールスタッド3620のボール部3621が装着される。ナット3640は、ソケット部3630の周囲に着脱自在に取り付けられる。ソケット部3630の外周には、ネジ溝が形成されている。ソケット部3630の外周に当該ネジ溝に嵌め合うナット3640が装着される。ボールスタッド3620のボール部3621がソケット部3630内に装着された状態で、ナット3640が締め付けられる前は、ソケット部3630はボール部3621の周面に沿って所望の方向に回転して、ベース部3650の姿勢及び位置を変位可能である。ナット3640が締め付けられると、ベース部3650の姿勢及び位置が固定される。 The ball stud 3620 is a portion of the base portion 3610 that rises from the surface opposite to the mounting surface 3611 . A ball portion 3621 of a ball stud 3620 is attached to the socket portion 3630 . A nut 3640 is removably attached around the socket portion 3630 . A screw groove is formed on the outer periphery of the socket portion 3630 . A nut 3640 is attached to the outer circumference of the socket portion 3630 so as to fit into the thread groove. With the ball portion 3621 of the ball stud 3620 mounted in the socket portion 3630, before the nut 3640 is tightened, the socket portion 3630 rotates in a desired direction along the peripheral surface of the ball portion 3621, and the base portion rotates. The attitude and position of the 3650 can be displaced. When the nut 3640 is tightened, the attitude and position of the base portion 3650 are fixed.

ベース部3650は、ソケット部3630と一対に形成され、撮影装置3100に装着するための部位である。ベース部3650は、一対のガイドレール3651を下面に有する。一対のガイドレール3651は、撮影装置3100のジョイントレール3102に沿ってスライド可能に構成される。ベース部3650の先端部には爪状の先端部3652が設けられている。先端部3652が、ジョイントレール3102の撮影装置3100の前方側の端部付近に引っ掛けられることで、ブラケット3600が撮影装置3100に取り付けられる。 The base portion 3650 is formed in a pair with the socket portion 3630 and is a part for mounting on the photographing device 3100 . The base portion 3650 has a pair of guide rails 3651 on its bottom surface. The pair of guide rails 3651 are configured to be slidable along the joint rails 3102 of the photographing device 3100 . A claw-shaped tip portion 3652 is provided at the tip portion of the base portion 3650 . The bracket 3600 is attached to the imaging device 3100 by hooking the front end portion 3652 of the joint rail 3102 near the front end of the imaging device 3100 .

[撮影装置3100の電気的構成]
図5は、撮影装置3100の電気的構成を示すブロック図である。制御部3011は、撮影装置3100の各部を制御する。制御部3011は、例えば、プロセッサ3111、及びメモリ3112を含むコンピュータである。プロセッサ3111は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)、ASIC(Application-Specific Integrated Circuit)、及びFPGA(Field Programmable Gate Array)等を有する。メモリ3112は、例えば、RAM(Random Access Memory)、及びROM(Read Only Memory)等を有する主記憶装置である。プロセッサ3111は、メモリ3112のROMから読み出したプログラムをRAMに一時的に記憶させる。メモリ3112のRAMは、プロセッサ3111に作業領域を提供する。プロセッサ3111は、プログラムの実行中に生成されるデータをRAMに一時的に記憶させながら演算処理を行うことにより、各種の制御を行う制御部3011は、さらに、時刻を計る計時部3113を備える。計時部3113は、例えばリアルタイムクロックである。計時部3113は、プロセッサ3111のマザーボードに実装されていていてもよいし、プロセッサ3111に外付けされてもよい。
[Electrical configuration of imaging device 3100]
FIG. 5 is a block diagram showing the electrical configuration of the imaging device 3100. As shown in FIG. A control unit 3011 controls each unit of the imaging device 3100 . The control unit 3011 is, for example, a computer including a processor 3111 and memory 3112 . The processor 3111 includes, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a GPU (Graphics Processing Unit), an ASIC (Application-Specific Integrated Circuit), and an FPGA (Field Programmable Graphic etc.). The memory 3112 is a main storage device including, for example, RAM (Random Access Memory) and ROM (Read Only Memory). The processor 3111 temporarily stores the program read from the ROM of the memory 3112 in the RAM. The RAM of memory 3112 provides a working area for processor 3111 . The processor 3111 performs arithmetic processing while temporarily storing data generated during execution of the program in the RAM, thereby performing various controls. The timer 3113 is, for example, a real-time clock. The clock unit 3113 may be mounted on the motherboard of the processor 3111 or may be externally attached to the processor 3111 .

入力部3012は、ユーザーからの情報の入力を受け付ける。入力部3012は、例えば、上述したマイクロホン3121、イベント記録ボタン3122、操作部3123、及びタッチセンサー3124を有する。マイクロホン3121は、マイク孔3104等を介して入射した音を電気信号に変換する。マイクロホン3121は、例えばコンデンサマイクである。タッチセンサー3124は、表示面3131においてユーザーによりタッチされた位置を検知する。タッチセンサー3124は、例えば静電容量方式である。 The input unit 3012 receives input of information from the user. The input unit 3012 has, for example, the microphone 3121, event recording button 3122, operation unit 3123, and touch sensor 3124 described above. The microphone 3121 converts sound incident through the microphone hole 3104 or the like into an electric signal. Microphone 3121 is, for example, a condenser microphone. The touch sensor 3124 detects the position touched by the user on the display surface 3131 . The touch sensor 3124 is, for example, a capacitive type.

表示部3013は、表示面3131に画像を表示する。表示部3013は、例えば液晶ディスプレイ(LCD;Liquid Crystal Display)である。 A display unit 3013 displays an image on a display surface 3131 . The display unit 3013 is, for example, a liquid crystal display (LCD).

音声出力部3014は、音声を出力する。この音声としては、例えば、報知音や、BGM、音声メッセージ等がある。音声出力部3014は、例えば音声処理回路及びスピーカを有する。 The audio output unit 3014 outputs audio. This sound includes, for example, notification sound, BGM, voice message, and the like. The audio output unit 3014 has, for example, an audio processing circuit and a speaker.

撮影部3015は、撮影し、撮影により得られた画像データを生成する、撮影部3015は、例えば、撮影レンズ3151、及び撮影レンズ3151により集光された光を撮影する撮影素子を有する。撮影素子は、例えば、CMOS(Complementary MOS)又はCCD(Charge Coupled Device)とする。撮影部3015は、例えば赤(R)、緑(G)、青(B)の色成分からなるカラー(多色)の画像を生成する。 The imaging unit 3015 takes an image and generates image data obtained by the imaging. The imaging device is, for example, a CMOS (Complementary MOS) or a CCD (Charge Coupled Device). The imaging unit 3015 generates a color (multicolor) image including, for example, red (R), green (G), and blue (B) color components.

通信部3016は、外部の装置と通信する。通信部3016は、例えば、Wi-Fi(登録商標)、Bluetooth(登録商標)その他の無線LAN(Local Area Network)通信や近距離無線通信により、外部の装置と無線通信するための通信回路を有する。通信部3016は、例えば、LTE(Long Term Evolution)、4G、5G等の移動通信システムの規格等に準拠した通信を行うための通信回路を有してもよい。 A communication unit 3016 communicates with an external device. The communication unit 3016 has a communication circuit for wirelessly communicating with an external device by, for example, Wi-Fi (registered trademark), Bluetooth (registered trademark), other wireless LAN (Local Area Network) communication, or short-range wireless communication. . The communication unit 3016 may have, for example, a communication circuit for performing communication conforming to mobile communication system standards such as LTE (Long Term Evolution), 4G, and 5G.

センサー部3017は、各種のセンサーを有する。センサー部3017は、例えば、加速度センサー、ジャイロセンサー、気圧センサー、及び照度センサーの少なくとも何れかを有する。加速度センサーは、例えば車両の前後、左右、上下の加速度を測定する3軸の加速度センサーである。ジャイロセンサーは、撮影装置3100の傾きを測定するセンサーである。加速度センサー及びジャイロセンサーは、例えば、GNSS衛星からの信号が受信できない場合に、自律航法により車両3400の位置を推測するのに使用されてもよい。気圧センサーは、気圧を測定する。気圧センサーは、例えば、高低差を検知して、高速道と一般道を判定するために用いられる。照度センサーは、撮影装置3100の周辺である車室内の明るさを示す照度を検知するセンサーである。照度センサーは、例えば表示部3013の表示の輝度の調整に使用される。 The sensor unit 3017 has various sensors. The sensor unit 3017 has, for example, at least one of an acceleration sensor, a gyro sensor, an air pressure sensor, and an illuminance sensor. The acceleration sensor is, for example, a three-axis acceleration sensor that measures longitudinal, lateral, and vertical accelerations of the vehicle. A gyro sensor is a sensor that measures the tilt of the imaging device 3100 . Accelerometers and gyro sensors may be used to estimate the position of vehicle 3400 by autonomous navigation, for example, when signals from GNSS satellites cannot be received. An air pressure sensor measures air pressure. An atmospheric pressure sensor is used, for example, to detect a difference in height and determine whether it is a highway or a general road. The illuminance sensor is a sensor that detects the illuminance indicating the brightness of the interior of the vehicle around the imaging device 3100 . The illuminance sensor is used, for example, to adjust the brightness of display on the display unit 3013 .

リーダライタ3018は、記憶媒体挿入口3181から撮影装置3100の内部に挿入された記憶媒体3500を保持する媒体保持部として機能する。リーダライタ3018は、記憶媒体3500にデータを書き込んだり、記憶媒体3500からデータを読み出したりする。リーダライタ3018は、記憶媒体3500を1つだけ保持するものでもよいが、2つ以上の記憶媒体3500を同時に保持することが可能に構成されてもよい。 The reader/writer 3018 functions as a medium holding unit that holds the storage medium 3500 inserted into the photographing apparatus 3100 through the storage medium insertion port 3181 . The reader/writer 3018 writes data to the storage medium 3500 and reads data from the storage medium 3500 . The reader/writer 3018 may hold only one storage medium 3500, but may be configured to hold two or more storage media 3500 at the same time.

端子部3019は、外部の装置と電気的に接続するための端子を有する。端子部3019は、上述した、カメラジャック3191及び端子3192を有する。端子部3019に接続される装置として、車両3400側からの給電がなくても、撮影装置3100及び撮影装置3200が動作できるように、外付けのバッテリが用いられてもよい。端子部3019に接続される装置は、例えば、ユーザーの安全運転を支援する機能を有する装置であってもよい。このような装置として、例えば、運転手(例えば顔)を撮影して、わき見及び居眠り運転に例示される運転手の状態を検知して報知する機能を有する装置や、車両3400の周辺の障害物を検知して報知する機能を有する装置(例えば、前方車両追突警報システム(FCWS:Forward vehicle Collision Warning Systems)のための車両検知に使用される装置)がある。端子部3019に接続される装置は、その他にも、レーダー探知機、レーザー探知機、カーナビゲーション装置、ディスプレイ装置等の車載装置としてもよい。 The terminal portion 3019 has a terminal for electrical connection with an external device. The terminal section 3019 has the camera jack 3191 and the terminal 3192 described above. As a device connected to the terminal portion 3019, an external battery may be used so that the imaging device 3100 and the imaging device 3200 can operate without power supply from the vehicle 3400 side. A device connected to the terminal portion 3019 may be, for example, a device having a function of assisting the user in driving safely. As such a device, for example, a device having a function of photographing the driver (for example, the face) and detecting and notifying the state of the driver exemplified by inattentiveness and drowsy driving, or an obstacle around the vehicle 3400 (For example, devices used for vehicle detection for Forward Vehicle Collision Warning Systems (FCWS)). The device connected to the terminal portion 3019 may also be an in-vehicle device such as a radar detector, a laser detector, a car navigation device, or a display device.

位置情報取得部3020は、撮影装置3100の位置(より具体的に説明すると、現在位置)を示す位置情報を取得する。撮影装置3100の位置は、撮影装置3100が配置された車両3400の位置、車両3400に配置された撮影装置3200の位置、及び車両3400に乗車している運転手その他の人の位置と同視することができる。位置情報取得部3020は、例えば、GNSS(Global Navigation SatelliteSystem:全球測位衛星システム)の一つであるGPS(Global Posisioning System)からの信号に基づき、撮影装置3100の位置情報(緯度情報、及び経度情報)を取得する。位置情報取得部3020は、QZSS(Quasi-Zenith Satellite System:準天頂衛星システム)として、みちびきを併せて利用してもよい。 The position information acquisition unit 3020 acquires position information indicating the position of the imaging device 3100 (more specifically, the current position). The position of the photographing device 3100 should be equated with the position of the vehicle 3400 in which the photographing device 3100 is arranged, the position of the photographing device 3200 arranged in the vehicle 3400, and the position of the driver and other persons riding in the vehicle 3400. can be done. The position information acquisition unit 3020 acquires the position information (latitude information and longitude information) of the imaging device 3100 based on a signal from a GPS (Global Positioning System), which is one of GNSS (Global Navigation Satellite System), for example. ). The position information acquisition unit 3020 may also use Michibiki as a QZSS (Quasi-Zenith Satellite System).

発光部3021は、所定の色で発光する。発光部3021は、例えば、発光ダイオードを有する。 Light emitting unit 3021 emits light in a predetermined color. The light emitting section 3021 has, for example, a light emitting diode.

電源制御部3022は、撮影装置3100の各部や、撮影装置3200への電力の供給を制御する。電源制御部3022は、例えば、電源スイッチや電源制御回路を有する。電源制御部3022は、端子部3019を介して車両3400側から供給された電力を、撮影装置3100の各部や、撮影装置3200へ供給する。電源制御部3022は、さらに、蓄電手段として、二次電池やボタン電池、電気二重層コンデンサ(スーパーキャパシタとも呼ばれる。)を有してもよい。 A power control unit 3022 controls power supply to each unit of the imaging device 3100 and to the imaging device 3200 . The power control unit 3022 has, for example, a power switch and a power control circuit. The power control unit 3022 supplies electric power supplied from the vehicle 3400 side via the terminal unit 3019 to each unit of the imaging device 3100 and the imaging device 3200 . The power control unit 3022 may further include a secondary battery, a button battery, or an electric double layer capacitor (also called a supercapacitor) as a power storage unit.

撮影装置3100は、さらに、フラッシュメモリ(例えばeMMC、SSD)に例示される補助記憶装置を内部の記憶手段として有してもよい。補助記憶装置としては、光学式記憶媒体、磁気記憶媒体、及び半導体記憶媒体に例示される各種の記憶媒体を用いることができる。 The imaging device 3100 may further have an auxiliary storage device exemplified by a flash memory (eg, eMMC, SSD) as internal storage means. Various storage media such as optical storage media, magnetic storage media, and semiconductor storage media can be used as auxiliary storage devices.

[撮影装置3100の画像記録機能]
撮影装置3100は、画像記録機能として、以下の1つ又は2つ以上の機能を有する。画像記録機能は、撮影装置3100が撮影した画像を、所定のファイル形式の画像データとして記録する機能である。画像データは、動画形式の画像データとするとよく、例えばMPEG(Moving Picture Experts Group)形式(例えば、MPEG2、MPEG4)であるが、AVI、MOV、WMV等である。画像データには、Exif(Exchangeable image file format)情報として、撮影日時の情報、撮影場所の情報等が含まれるものとする。
[Image recording function of imaging device 3100]
The imaging device 3100 has one or more of the following functions as image recording functions. The image recording function is a function of recording an image captured by the imaging device 3100 as image data in a predetermined file format. The image data is preferably image data in a moving picture format, for example, MPEG (Moving Picture Experts Group) format (eg, MPEG2, MPEG4), AVI, MOV, WMV, and the like. It is assumed that the image data includes Exif (Exchangeable image file format) information such as shooting date and time information and shooting location information.

[常時記録機能]
常時記録機能(常時録画機能ともいう。)は、撮影装置3100の動作中は、撮影装置3100及び撮影装置3200の一方又は両方により撮影された画像を継続して(つまり、常時)記録する機能である。制御部11は、常時記録機能を実行しているときには、車両3400の駆動源の始動から停止まで撮影した映像データを記憶する。制御部3011は、例えば、車両3400の電源(例えば、アクセサリ電源)のオンにより駆動源の始動を検知する。制御部3011は、例えば、車両3400の電源のオフにより駆動源の停止を検知する。
[Always recording function]
The constant recording function (also referred to as constant recording function) is a function of continuously (that is, constantly) recording images captured by one or both of the imaging device 3100 and the imaging device 3200 while the imaging device 3100 is in operation. be. When executing the constant recording function, the control unit 11 stores image data captured from the start of the drive source of the vehicle 3400 to the stop. The control unit 3011 detects the activation of the driving source by turning on the power source (for example, the accessory power source) of the vehicle 3400, for example. The control unit 3011 detects stoppage of the drive source when the vehicle 3400 is powered off, for example.

[イベント記録機能]
イベント記録機能は、特定のイベントが発生したことに応じて、撮影装置3100及び撮影装置3200の一方又は両方により撮影された画像を記録する機能である。イベントは、撮影装置3100又は撮影装置3200により撮影された画像を記録すべき事象であり、例えば、車両3400の走行中におけるユーザーの急ハンドル、急ブレーキ等の操作時、車両3400の他の物体との衝突時等とする。制御部3011は、イベントが発生したことを、例えば、センサー部3017の加速度センサーにより測定された加速度に基づいて、判定する。より具体的に説明すると、制御部3011は、測定された加速度が所定の閾値以上となった場合又は所定の時間的変化を示した場合に、イベントが発生したと判定する。イベントの発生の判定条件はこれに限られない。制御部3011は、車両情報に基づいて、例えば車速や操舵状態等の車両3400の状態が所定の条件を満たした場合に、イベントが発生したと判定してもよい。制御部3011は、撮影部3015又は撮影装置3200により撮影された画像を解析し、車両3400又は他車両の危険運転(例えば煽り運転、接近、又は異常接近)を検知した場合に、イベントが発生したと判定してもよい。制御部3011は、イベント記録ボタン3122が操作された場合にも、イベントが発生したと判定する。
[Event recording function]
The event recording function is a function of recording an image captured by one or both of the imaging device 3100 and the imaging device 3200 in response to the occurrence of a specific event. An event is an event in which an image captured by the imaging device 3100 or the imaging device 3200 should be recorded. collision, etc. The control unit 3011 determines that an event has occurred based on the acceleration measured by the acceleration sensor of the sensor unit 3017, for example. More specifically, the control unit 3011 determines that an event has occurred when the measured acceleration exceeds a predetermined threshold or exhibits a predetermined temporal change. The condition for determining the occurrence of an event is not limited to this. Based on the vehicle information, the control unit 3011 may determine that an event has occurred when the state of the vehicle 3400, such as vehicle speed and steering state, satisfies a predetermined condition. The control unit 3011 analyzes the image captured by the image capturing unit 3015 or the image capturing device 3200, and an event occurs when the vehicle 3400 or another vehicle is detected to be driving dangerously (for example, driving in a rush, approaching, or approaching abnormally). can be determined. The control unit 3011 also determines that an event has occurred when the event record button 3122 is operated.

制御部3011は、イベントが発生したと判定した場合、そのイベントの発生前後の所定期間(以下「イベント記録期間」という。)において撮影された画像を、記憶媒体3500に記録する。制御部3011は、例えば撮影部3015及び撮影装置3200により撮影された画像をメモリ3112(例えば、RAM)に一時的に記録しておき、イベントが発生したと判定した場合は、メモリ3112から読み出したイベント記録期間の画像を記憶媒体3500に記録するとよい。制御部3011は、例えば、イベントの発生前20秒、及びイベントの発生後20秒の合計40秒の画像を1つのファイルとする。イベント記録期間は一例であり、イベントの種類に応じて異なっていてもよいし、ユーザーが変更可能であってもよい。制御部3011は、1つのイベントの発生につき、複数のファイルからなる画像を記憶媒体3500に記録してもよい。制御部3011は、さらに、イベント記録期間にセンサー部3017で測定された値(例えば、3軸の各方向の加速度)や、位置情報取得部3020で取得された位置情報を、画像と関連付けて、記憶媒体3500に記録してもよい。 When the control unit 3011 determines that an event has occurred, the control unit 3011 records in the storage medium 3500 images captured during a predetermined period before and after the occurrence of the event (hereinafter referred to as “event recording period”). For example, the control unit 3011 temporarily records images captured by the imaging unit 3015 and the imaging device 3200 in the memory 3112 (eg, RAM), and reads the images from the memory 3112 when determining that an event has occurred. Images during the event recording period may be recorded in the storage medium 3500 . The control unit 3011, for example, makes one file 40 seconds of images in total, 20 seconds before the occurrence of the event and 20 seconds after the occurrence of the event. The event recording period is an example, and may differ depending on the type of event, or may be changeable by the user. The control unit 3011 may record an image made up of a plurality of files in the storage medium 3500 for each occurrence of one event. The control unit 3011 further associates the values (eg, acceleration in each direction of three axes) measured by the sensor unit 3017 during the event recording period and the position information acquired by the position information acquisition unit 3020 with the image, It may be recorded on the storage medium 3500 .

[駐車監視機能]
駐車監視機能は、車両3400の駐車中に撮影装置3100及び撮影装置3200の一方又は両方により撮影された画像を記録する機能である。駐車監視機能は、駐車中の車両3400の内部又は車両3400の周辺の外部を監視するための機能である。制御部3011は、車両3400の電源がオフ状態である場合は、外付けバッテリからの電力の供給を受けて、記憶媒体3500に画像を記録する。車両3400の駐車中であるか否かについて、制御部3011は、例えば、車両3400の電源がオフされたこと、車両3400の動力源がオフされたこと、外付けバッテリからの電源供給が開始されたこと、車速が0km/h又は所定速度以下であること、及び位置情報取得部3020が取得した位置情報が所定の位置情報(例えば、自宅や勤務先、駐車場の位置情報)であること、の1つ又は複数に基づいて判定する。
[Parking monitoring function]
The parking monitoring function is a function of recording images captured by one or both of the imaging device 3100 and the imaging device 3200 while the vehicle 3400 is parked. The parking monitoring function is a function for monitoring the inside of the parked vehicle 3400 or the outside around the vehicle 3400 . When vehicle 3400 is powered off, control unit 3011 receives power from an external battery and records an image in storage medium 3500 . Regarding whether or not the vehicle 3400 is parked, the control unit 3011 detects, for example, that the power source of the vehicle 3400 is turned off, that the power source of the vehicle 3400 is turned off, and that the power supply from the external battery is started. that the vehicle speed is 0 km / h or a predetermined speed or less, and that the position information acquired by the position information acquisition unit 3020 is predetermined position information (for example, position information of home, work, or parking lot); is determined based on one or more of

駐車監視機能は、タイムラプスモード、及び動体検知モードを有してもよい。より具体的に説明すると、制御部3011は、タイムラプスモードがユーザーにより選択された場合、常時記録機能及びイベント記録機能等の他の画像記録機能よりも、フレームレートを間引いて画像を記録する。例えば、他の画像記録機能のフレームレートが20~30フレーム/秒であるのに対して、タイムラプスモードのフレームレートは1フレーム/秒とする。動体検知モードは、移動体の検知に応じて画像を記録するモードである。より具体的に説明すると、制御部3011は、動体検知モードがユーザーにより選択された場合に、撮影装置3100及び撮影装置3200により撮影された画像の変化から動体を検知したときは、その検知前後の所定期間に撮影された画像を、記憶媒体3500に記録する。フレームレートは、常時記録機能及びイベント記録機能等と同じフレームレートとしてもよい。 The parking monitoring function may have a time-lapse mode and a motion detection mode. More specifically, when the time-lapse mode is selected by the user, the control unit 3011 records images by thinning the frame rate more than other image recording functions such as the constant recording function and the event recording function. For example, while the frame rate of other image recording functions is 20 to 30 frames/second, the frame rate of the time-lapse mode is 1 frame/second. The moving body detection mode is a mode for recording an image in response to detection of a moving body. More specifically, when the moving body detection mode is selected by the user and the moving body is detected from changes in the images captured by the imaging devices 3100 and 3200, the control unit 3011 detects the motion before and after the detection. Images captured during a predetermined period are recorded in the storage medium 3500 . The frame rate may be the same frame rate as the constant recording function, the event recording function, and the like.

なお、撮影装置3100、3200として、全天球、半天球といった天球画像を撮影する撮影装置が用いられてもよい。また、撮影装置3100として、表示部3013を有しない撮影装置が用いられてもよい。また、撮影装置3100の筐体は、直方体状のものでなくてもよく、例えば円筒状等であってもよい。 As the imaging devices 3100 and 3200, imaging devices that capture celestial images such as omnidirectional and semi-spherical images may be used. Further, as the imaging device 3100, an imaging device that does not have the display unit 3013 may be used. Further, the housing of the photographing device 3100 does not have to be rectangular parallelepiped, and may be cylindrical, for example.

[サーバ3700のハードウェア構成]
以下、図6を参照して、サーバ3700のハードウェア構成について説明する。
[Hardware Configuration of Server 3700]
The hardware configuration of the server 3700 will be described below with reference to FIG.

図6は、実施形態1に係るサーバ3700のハードウェア構成の一例を示す図である。実施形態1において、サーバ3700は、画像処理装置としての役割を果たす。サーバ3700は、ハードウェア構成として、制御部3710、記憶部3720及び通信部3730を含む。制御部3710、記憶部3720及び通信部3730は、通信バスを介してそれぞれ電気的に接続されている。 FIG. 6 is a diagram showing an example of the hardware configuration of the server 3700 according to the first embodiment. In Embodiment 1, the server 3700 serves as an image processing device. Server 3700 includes a control unit 3710, a storage unit 3720, and a communication unit 3730 as a hardware configuration. Control unit 3710, storage unit 3720, and communication unit 3730 are electrically connected to each other via a communication bus.

制御部3710は、CPU及び半導体メモリを含むマイクロコンピュータで構成され、サーバ3700の動作の全体を制御する。特に、制御部3710は、記憶部3720に記憶された所定のプログラムを読み出し、実行することによって、サーバ3700に係る種々の機能を実現する。すなわち、制御部3710が、記憶部3720に記憶されている所定のプログラムに基づき処理を実行することによって、後述する図8に示される機能構成及び後述する図10に示されるアクティビティ図の処理等が実現される。なお、制御部3710は単一であることに限定されない。サーバ3700は、複数の制御部3710を含むように構成されてもよい。 The control unit 3710 is composed of a microcomputer including a CPU and semiconductor memory, and controls the overall operation of the server 3700 . In particular, control unit 3710 realizes various functions related to server 3700 by reading out and executing a predetermined program stored in storage unit 3720 . That is, the control unit 3710 executes processing based on a predetermined program stored in the storage unit 3720, so that the functional configuration shown in FIG. 8 and the processing of the activity diagram shown in FIG. Realized. Note that the control unit 3710 is not limited to a single unit. The server 3700 may be configured to include multiple controllers 3710 .

記憶部3720は、HDD(Hard Disk Drive)、RAM(Random Access Memory)、ROM(Read Only Memory)及びSSD(Solid State Drive)の何れか、又はこれらの任意の組み合わせで構成される。記憶部3720には、車両3400から送られてきた画像情報、車両3400から送られてきた画像以外の情報、実施形態1に係る画像処理プログラムの一部を含む各種プログラムに関する各種データ、制御部3710がプログラムに基づき処理を実行する際に用いられるデータ等が記憶されている。 The storage unit 3720 is configured by any one of HDD (Hard Disk Drive), RAM (Random Access Memory), ROM (Read Only Memory), SSD (Solid State Drive), or any combination thereof. The storage unit 3720 stores image information sent from the vehicle 3400, information other than the image sent from the vehicle 3400, various data related to various programs including part of the image processing program according to the first embodiment, and the control unit 3710. stores data and the like used when executing processing based on the program.

通信部3730は、インターネット及びLAN等のネットワーク3900を介して車両3400及び各情報表示端末3800A、3800B、3800Cと通信可能に接続される、いわゆるネットワークインターフェースである。実施形態1において、画像処理を行うサーバ3700の通信部3730は、情報表示端末3800の通信部3830と通信可能な画像処理装置である。サーバ3700が通信部3730を介して受信する主な情報としては、車両3400の撮影装置3100で撮影した画像情報、撮影装置3200で撮影した画像情報、車両3400の状態に関する情報(車両3400の速度(車速)、加速度、エンジン回転数、エンジン負荷率、スロットル開度、点火時期、残り燃料の割合、インテークマニホールドの圧力、吸入空気量(MAF)、インジェクション開時間、エンジン冷却水の温度(冷却水温度)、エンジンに吸気される空気の温度(吸気温度)、車外の気温(外気温度)、燃料タンクの残り燃料の量(残燃料量)、燃料流量、瞬間燃費、アクセル開度、ウインカー情報(左右のウインカーの動作(オン/オフ))、ブレーキ開度、ハンドルの回転操舵角、ギヤポジション、及びドア開閉状態の情報、位置情報等)、日時情報、気圧、照度、画像処理の指示、画像のダウンロード要求指示、画像以外の情報の要求指示等が挙げられる。サーバ3700が通信部3730を介して送信する主な情報としては、画像処理を実行する前の画像情報、画像処理を実行したあとの画像情報、画像処理方法に関する情報、車両3400の状態に関する情報(車両3400の速度(車速)、加速度、エンジン回転数、エンジン負荷率、スロットル開度、点火時期、残り燃料の割合、インテークマニホールドの圧力、吸入空気量(MAF)、インジェクション開時間、エンジン冷却水の温度(冷却水温度)、エンジンに吸気される空気の温度(吸気温度)、車外の気温(外気温度)、燃料タンクの残り燃料の量(残燃料量)、燃料流量、瞬間燃費、アクセル開度、ウインカー情報(左右のウインカーの動作(オン/オフ))、ブレーキ開度、ハンドルの回転操舵角、ギヤポジション、及びドア開閉状態の情報、位置情報等)、日時情報、気圧、照度等が挙げられる。 Communication unit 3730 is a so-called network interface that is communicably connected to vehicle 3400 and information display terminals 3800A, 3800B, and 3800C via network 3900 such as the Internet and LAN. In Embodiment 1, the communication unit 3730 of the server 3700 that performs image processing is an image processing device that can communicate with the communication unit 3830 of the information display terminal 3800 . The main information that the server 3700 receives via the communication unit 3730 includes image information captured by the imaging device 3100 of the vehicle 3400, image information captured by the imaging device 3200, information on the state of the vehicle 3400 (speed of the vehicle 3400 ( vehicle speed), acceleration, engine speed, engine load factor, throttle opening, ignition timing, percentage of remaining fuel, intake manifold pressure, intake air volume (MAF), injection opening time, engine cooling water temperature (cooling water temperature) ), temperature of the air taken into the engine (intake air temperature), air temperature outside the vehicle (outside air temperature), amount of remaining fuel in the fuel tank (remaining fuel amount), fuel flow rate, instantaneous fuel consumption, accelerator opening, blinker information (left and right turn signal operation (on / off)), brake opening, steering wheel rotation angle, gear position, door open/close status information, position information, etc.), date and time information, air pressure, illuminance, image processing instructions, image Examples include a download request instruction, a request instruction for information other than images, and the like. The main information that the server 3700 transmits via the communication unit 3730 includes image information before executing image processing, image information after executing image processing, information on the image processing method, information on the state of the vehicle 3400 ( Vehicle 3400 speed (vehicle speed), acceleration, engine speed, engine load factor, throttle opening, ignition timing, percentage of remaining fuel, intake manifold pressure, intake air amount (MAF), injection opening time, engine cooling water Temperature (cooling water temperature), temperature of air taken into the engine (intake air temperature), air temperature outside the vehicle (outside air temperature), amount of remaining fuel in the fuel tank (remaining fuel amount), fuel flow rate, instantaneous fuel consumption, accelerator opening , turn signal information (left and right turn signal operation (on/off)), brake opening, steering wheel rotation angle, gear position, information on door open/close status, position information, etc.), date and time information, atmospheric pressure, illuminance, etc. be done.

[情報表示端末3800のハードウェア構成]
次に、図7を参照して、情報表示端末3800のハードウェア構成について説明する。
[Hardware Configuration of Information Display Terminal 3800]
Next, the hardware configuration of the information display terminal 3800 will be described with reference to FIG.

図7は、実施形態1に係る情報表示端末3800のハードウェア構成の一例を示す図である。情報表示端末3800は、ハードウェア構成として、制御部3810、記憶部3820、通信部3830、入力部3840及び出力部3850を含む。制御部3810、記憶部3820、通信部3830、入力部3840及び出力部3850は、通信バスを介してそれぞれ電気的に接続されている。 FIG. 7 is a diagram showing an example of the hardware configuration of the information display terminal 3800 according to the first embodiment. The information display terminal 3800 includes a control section 3810, a storage section 3820, a communication section 3830, an input section 3840 and an output section 3850 as a hardware configuration. Control unit 3810, storage unit 3820, communication unit 3830, input unit 3840 and output unit 3850 are electrically connected to each other via a communication bus.

制御部3810は、CPU及び半導体メモリを含むマイクロコンピュータで構成され、情報表示端末3800の動作の全体を制御する。特に、制御部3810は、記憶部3820に記憶された所定のプログラムを読み出し、実行することによって、情報表示端末3800に係る種々の機能を実現する。すなわち、制御部3810が、記憶部3820に記憶されている所定のプログラムに基づき処理を実行することによって、後述する図9に示される機能構成及び後述する図11に示すアクティビティ図の処理等が実現される。なお、制御部3810は単一であることに限定されない。情報表示端末3800は、複数の制御部3810を含むように構成されてもよい。 The control unit 3810 is composed of a microcomputer including a CPU and a semiconductor memory, and controls the entire operation of the information display terminal 3800 . In particular, control unit 3810 realizes various functions related to information display terminal 3800 by reading out and executing a predetermined program stored in storage unit 3820 . That is, the control unit 3810 executes processing based on a predetermined program stored in the storage unit 3820, thereby realizing the functional configuration shown in FIG. 9 and the processing of the activity diagram shown in FIG. be done. Note that the control unit 3810 is not limited to a single unit. Information display terminal 3800 may be configured to include a plurality of control units 3810 .

記憶部3820は、HDD、SSD、RAM及びROM等の何れか、又はこれらの任意の組み合わせで構成される。記憶部3820には、サーバ3700と画像処理に関するデータをやり取りするためのプログラム、制御部3810がプログラムに基づき処理を実行する際に用いられるデータ等が格納されている。 The storage unit 3820 is configured by any one of HDD, SSD, RAM, ROM, etc., or any combination thereof. Storage unit 3820 stores a program for exchanging data related to image processing with server 3700, data used when control unit 3810 executes processing based on the program, and the like.

通信部3830は、情報表示端末3800とサーバ3700との間で各種データを送受信するために、ネットワーク3900に通信可能に接続される、いわゆるネットワークインターフェースである。すなわち、情報表示端末3800が通信部3830を介して受信する主な情報としては、画像処理を実行する前の画像情報、画像処理を実行したあとの画像情報、画像処理方法に関する情報、車両3400の状態に関する情報(車両3400の速度(車速)、加速度、エンジン回転数、エンジン負荷率、スロットル開度、点火時期、残り燃料の割合、インテークマニホールドの圧力、吸入空気量(MAF)、インジェクション開時間、エンジン冷却水の温度(冷却水温度)、エンジンに吸気される空気の温度(吸気温度)、車外の気温(外気温度)、燃料タンクの残り燃料の量(残燃料量)、燃料流量、瞬間燃費、アクセル開度、ウインカー情報(左右のウインカーの動作(オン/オフ))、ブレーキ開度、ハンドルの回転操舵角、ギヤポジション、及びドア開閉状態の情報等)、日時情報、位置情報、気圧、照度等が挙げられる。情報表示端末3800が通信部3830を介して送信する主な情報としては、画像処理の指示、画像のダウンロード要求指示、画像以外の情報の要求指示等が挙げられる。 The communication unit 3830 is a so-called network interface that is communicably connected to the network 3900 in order to transmit and receive various data between the information display terminal 3800 and the server 3700 . That is, the main information received by the information display terminal 3800 via the communication unit 3830 includes image information before executing image processing, image information after executing image processing, information on the image processing method, and information on the vehicle 3400. State information (vehicle 3400 speed (vehicle speed), acceleration, engine speed, engine load factor, throttle opening, ignition timing, remaining fuel ratio, intake manifold pressure, intake air flow rate (MAF), injection opening time, Temperature of engine cooling water (cooling water temperature), temperature of air taken into the engine (intake air temperature), air temperature outside the vehicle (outside air temperature), amount of remaining fuel in the fuel tank (remaining fuel amount), fuel flow rate, instantaneous fuel consumption , accelerator opening, turn signal information (left and right turn signal operation (on/off)), brake opening, steering wheel rotation angle, gear position, door open/close status information, etc.), date and time information, location information, atmospheric pressure, Illuminance and the like can be mentioned. Main information transmitted by the information display terminal 3800 via the communication unit 3830 includes an image processing instruction, an image download request instruction, and an information request instruction other than the image.

入力部3840は、情報表示端末3800への操作を受け付ける。入力部3840の例として、マウス、キーボード、タッチパネル、マイク、ボタン等が挙げられる。 Input unit 3840 receives an operation to information display terminal 3800 . Examples of the input unit 3840 include a mouse, keyboard, touch panel, microphone, buttons, and the like.

出力部3850は、入力部3840への操作の結果を出力する。出力部3850の例として、ディスプレイ、スピーカ、ライト、ボタン等が挙げられる。 The output unit 3850 outputs the result of the operation to the input unit 3840. FIG. Examples of output unit 3850 include a display, speakers, lights, buttons, and the like.

[サーバ3700の機能構成]
以下、図8を参照して、サーバ3700の制御部3710の機能構成について説明する。
[Functional Configuration of Server 3700]
The functional configuration of the control unit 3710 of the server 3700 will be described below with reference to FIG.

図8は、実施形態1に係るサーバ3700の機能構成の一例を示す図である。図8に示されるように、サーバ3700は、機能構成として、画像処理部3711、通信制御部3712及び記憶制御部3713を含む。 FIG. 8 is a diagram showing an example of the functional configuration of the server 3700 according to the first embodiment. As shown in FIG. 8, the server 3700 includes an image processing unit 3711, a communication control unit 3712, and a storage control unit 3713 as functional configurations.

画像処理部3711は、情報表示端末3800からの要求に基づいて、記憶部3720内、又は情報表示端末3800から送信された画像について、画像処理を実行する。これにより、情報表示端末3800と通信可能なサーバ3700は、画像処理を実行することができる。実施形態1では、画像処理部3711が、情報表示端末3800からの要求に基づいて様々な画像処理を行うものとして説明を行う。しかし、サーバ3700は、画像処理ごとの画像処理部を有するようにしてもよい。また、サーバ3700のソフトウェアが画像処理を行うのではなく、サーバ3700の専用のハードウェア(例えば、GPU等)が画像処理を行うようにしてもよい。専用のハードウェアが画像処理を行う場合は、サーバ3700の1つのハードウェアが複数の画像処理を行うよう構成されてもよいし、複数の画像処理それぞれに対応するサーバ3700の複数のハードウェアがそれぞれ画像処理を行うよう構成されてもよい。 The image processing unit 3711 performs image processing on the image stored in the storage unit 3720 or transmitted from the information display terminal 3800 based on a request from the information display terminal 3800 . As a result, the server 3700 that can communicate with the information display terminal 3800 can execute image processing. In the first embodiment, the image processing unit 3711 performs various image processing based on requests from the information display terminal 3800 . However, the server 3700 may have an image processing unit for each image processing. Further, instead of software of the server 3700 performing image processing, dedicated hardware (for example, GPU, etc.) of the server 3700 may perform image processing. When dedicated hardware performs image processing, one hardware of the server 3700 may be configured to perform a plurality of image processes, or a plurality of hardware of the server 3700 corresponding to each of the plurality of image processes may be configured. Each of them may be configured to perform image processing.

通信制御部3712は、ネットワーク3900を介して車両3400及び情報表示端末3800との情報のやり取りを制御する。 Communication control unit 3712 controls information exchange with vehicle 3400 and information display terminal 3800 via network 3900 .

記憶制御部3713は、記憶部3720内に情報を記憶したり、記憶した情報を取得したりする。 The storage control unit 3713 stores information in the storage unit 3720 and acquires the stored information.

[情報表示端末3800の機能構成]
以下、図9を参照して、情報表示端末3800の制御部3810の機能構成について説明する。
[Functional Configuration of Information Display Terminal 3800]
The functional configuration of the control unit 3810 of the information display terminal 3800 will be described below with reference to FIG.

図9は、実施形態1に係る情報表示端末3800の機能構成の一例を示す図である。図9に示されるように、情報表示端末3800は、機能構成として、表示制御部3811、通信制御部3812及び記憶制御部3813を含む。 FIG. 9 is a diagram showing an example of the functional configuration of the information display terminal 3800 according to the first embodiment. As shown in FIG. 9, the information display terminal 3800 includes a display control section 3811, a communication control section 3812 and a storage control section 3813 as functional configurations.

表示制御部3811は、情報表示端末3800の出力部3850に出力する情報を制御する。より具体的に説明すると、表示制御部3811は、画像に関する情報を含む画面を表示するよう制御する。 The display control section 3811 controls information to be output to the output section 3850 of the information display terminal 3800 . More specifically, the display control unit 3811 controls to display a screen including information about an image.

通信制御部3812は、ネットワーク3900を介してサーバ3700との情報のやり取りを制御する。より具体的に説明すると、通信制御部3812は、サーバ3700より撮影装置3100によって撮影された画像、撮影装置3200によって撮影された画像等を取得する。 A communication control unit 3812 controls exchange of information with the server 3700 via the network 3900 . More specifically, the communication control unit 3812 acquires images captured by the imaging device 3100 and images captured by the imaging device 3200 from the server 3700 .

記憶制御部3813は、記憶部3820内に情報を記憶したり、記憶した情報を取得したりする。 The storage control unit 3813 stores information in the storage unit 3820 and acquires the stored information.

[情報処理の概要]
図10及び図11を用いて実施形態1に係る情報処理システム3000の情報処理の流れを説明する。
[Outline of information processing]
The information processing flow of the information processing system 3000 according to the first embodiment will be described with reference to FIGS. 10 and 11. FIG.

[サーバ3700の情報処理]
まず、サーバ3700の情報処理の流れを説明する。図10は、実施形態1に係るサーバ3700の情報処理の流れを示すアクティビティ図である。以下、このアクティビティ図に沿って、情報処理の流れを概説する。
[Information processing of server 3700]
First, the flow of information processing of the server 3700 will be described. FIG. 10 is an activity diagram showing the flow of information processing of the server 3700 according to the first embodiment. The flow of information processing will be outlined below along this activity diagram.

A4001において、通信制御部3712は、車両3400からの情報の受信を待機する。通信制御部3712は、車両3400から情報を受信したと判定すると、処理をA4002に進める。通信制御部3712は、車両3400からの情報として、車両3400を識別する識別情報、撮影装置3100で撮影された画像情報、撮影装置3200で撮影された画像情報、車両3400の車両情報、及びその他の情報(例えば、画像が撮影された時間情報等)を受信するものとして説明を行う。 At A4001, the communication control unit 3712 waits for reception of information from the vehicle 3400. FIG. When communication control section 3712 determines that information has been received from vehicle 3400, it advances the process to A4002. The communication control unit 3712 receives, as information from the vehicle 3400, identification information identifying the vehicle 3400, image information captured by the imaging device 3100, image information captured by the imaging device 3200, vehicle information of the vehicle 3400, and other information. It is described as receiving information (eg, information about the time the image was taken).

A4002において、記憶制御部3713は、受信した画像情報、車両情報、及びその他の情報を記憶部3720に記憶させる。より具体的に説明すると、記憶制御部3713は、受信した車両3400を識別する識別情報に関連付けて、画像情報、車両情報、及びその他の情報を記憶部3720の所定の領域に記憶する。 At A4002, the storage control unit 3713 causes the storage unit 3720 to store the received image information, vehicle information, and other information. More specifically, memory control unit 3713 stores image information, vehicle information, and other information in a predetermined area of storage unit 3720 in association with received identification information for identifying vehicle 3400 .

A4003において、画像処理部3711は、画像情報、車両情報、及びその他の情報について、解析を行う。実施形態1において、画像処理部3711は、取得した画像情報を解析することにより、例えば、2021年04月29日07時22分10秒~2021年04月29日07時24分18秒、車両3400は霧の中を走行している等と判定する。画像処理部3711は、時間情報ごとの解析結果を、車両3400を識別する識別情報に関連付けて、画像情報、車両情報、及びその他の情報とともに記憶部3720の所定の領域に記憶する。
なお、本実施形態では、サーバ3700が画像情報の解析を行うものとして説明を行うが、画像情報を受信した情報表示端末3800が画像情報を解析するようにしてもよい。
In A4003, the image processing unit 3711 analyzes image information, vehicle information, and other information. In the first embodiment, the image processing unit 3711 analyzes the acquired image information, for example, 07:22:10 on April 29, 2021 to 07:24:18 on April 29, 2021, the vehicle 3400 determines that the vehicle is traveling in fog. The image processing unit 3711 stores the analysis result for each time information in a predetermined area of the storage unit 3720 together with image information, vehicle information, and other information in association with identification information for identifying the vehicle 3400 .
In this embodiment, the server 3700 analyzes the image information, but the information display terminal 3800 that receives the image information may analyze the image information.

A4004において、通信制御部3712は、情報表示端末3800からの指示に基づき、画像情報、車両情報、解析結果及びその他の情報を情報表示端末3800に送信する。より具体的に説明すると、通信制御部3712は、情報表示端末3800から指示された識別情報で識別される車両に関する、指定された日時情報以降の、画像情報、車両情報、及びその他の情報を情報表示端末3800に送信する。 At A<b>4004 , the communication control unit 3712 transmits image information, vehicle information, analysis results, and other information to the information display terminal 3800 based on the instruction from the information display terminal 3800 . More specifically, the communication control unit 3712 displays image information, vehicle information, and other information after the designated date and time information regarding the vehicle identified by the identification information instructed from the information display terminal 3800. Send to the display terminal 3800 .

A4005において、通信制御部3712は、情報表示端末3800からの画像処理要求の受信を待機する。通信制御部3712は、情報表示端末3800から画像処理要求を受信したと判定すると、処理をA4006に進める。例えば、通信制御部3712は、情報表示端末3800から画像処理要求として、画像の全ての範囲について、霧補正を行う要求を受信する。 At A<b>4005 , the communication control unit 3712 waits for reception of an image processing request from the information display terminal 3800 . When the communication control unit 3712 determines that it has received an image processing request from the information display terminal 3800, it advances the process to A4006. For example, the communication control unit 3712 receives from the information display terminal 3800 a request to perform fog correction for the entire range of the image as an image processing request.

A4006において、画像処理部3711は、画像処理要求に基づいて、画像に対して画像処理を実行する。例えば、画像処理部3711は、画像処理要求に基づいて、画像の全てに対して霧補正を行う。霧補正は、霧による視界不良を改善するように、画像の明るさ等を調整する画像処理である。 In A4006, the image processing unit 3711 executes image processing on the image based on the image processing request. For example, the image processing unit 3711 performs fog correction on the entire image based on the image processing request. Fog correction is image processing that adjusts the brightness of an image so as to improve poor visibility due to fog.

A4007において、通信制御部3712は、画像処理部3711における画像処理の結果を情報表示端末3800に送信する。 At A<b>4007 , the communication control unit 3712 transmits the image processing result of the image processing unit 3711 to the information display terminal 3800 .

[情報表示端末3800の情報処理]
次に、情報表示端末3800の情報処理の流れを説明する。図11は、実施形態1に係る情報表示端末3800の情報処理の流れを示すアクティビティ図である。以下、このアクティビティ図に沿って、情報処理の流れを概説する。
[Information processing of information display terminal 3800]
Next, the flow of information processing of the information display terminal 3800 will be described. FIG. 11 is an activity diagram showing the flow of information processing of the information display terminal 3800 according to the first embodiment. The flow of information processing will be outlined below along this activity diagram.

A4011において、表示制御部3811は、ビューア上に外部動画プレーヤの起動ボタンを表示する。このビューア上の起動ボタンが選択されることにより、通信制御部3812は、サーバ3700内の外部動画プレーヤを起動する。このとき、通信制御部3812は、「コマンドライン引数」として動画のファイル名と、ビデオエフェクト設定、外部動画プレーヤの操作部の少なくとも一部を無効にするパラメータ等をサーバ3700に送信する。また、このとき、通信制御部3812は、再生開始時間、再生終了時間、ループの有無等を送信してもよい。以降、通信制御部3812は、制御コマンドを送ることにより、外部動画プレーヤを制御する。このとき、通信制御部3812は、外部動画プレーヤの操作部の少なくとも一部を無効にする指示を送信するとよい。 In A4011, the display control unit 3811 displays an activation button for the external video player on the viewer. By selecting the activation button on the viewer, the communication control unit 3812 activates the external video player in the server 3700 . At this time, the communication control unit 3812 transmits to the server 3700 the file name of the moving image, video effect settings, parameters for disabling at least part of the operation unit of the external moving image player, and the like as “command line arguments”. Also, at this time, the communication control unit 3812 may transmit the reproduction start time, the reproduction end time, the presence or absence of a loop, and the like. Henceforth, the communication control part 3812 controls an external video player by sending a control command. At this time, the communication control unit 3812 preferably transmits an instruction to disable at least part of the operation unit of the external video player.

A4012において、通信制御部3812は、サーバ3700からの情報の受信を待機する。通信制御部3812は、サーバ3700からの情報を受信したと判定すると、処理をA4013に進める。通信制御部3812は、サーバ3700からの情報として、画像情報、車両情報、画像処理部3711が解析した解析情報及びその他の情報を受信するものとして説明を行う。より具体的に説明すると、実施形態1において、通信制御部3812は、画像情報、加速度情報、車速情報、位置情報、解析情報、日時情報等をサーバ3700から受信するものとして説明を行う。 At A<b>4012 , the communication control unit 3812 waits to receive information from the server 3700 . When the communication control unit 3812 determines that information has been received from the server 3700, it advances the process to A4013. The communication control unit 3812 will be described as receiving image information, vehicle information, analysis information analyzed by the image processing unit 3711 and other information as information from the server 3700 . More specifically, in the first embodiment, the communication control unit 3812 receives image information, acceleration information, vehicle speed information, position information, analysis information, date and time information, etc. from the server 3700. FIG.

A4013において、表示制御部3811は、受信した画像情報、車両情報、解析情報、及びその他の情報を表示する。より具体的に説明すると、実施形態1において、表示制御部3811は、画像情報、加速度情報、車速情報、位置情報、解析情報、日時情報等を表示する。 In A4013, the display control unit 3811 displays the received image information, vehicle information, analysis information, and other information. More specifically, in the first embodiment, the display control unit 3811 displays image information, acceleration information, vehicle speed information, position information, analysis information, date and time information, and the like.

A4014において、表示制御部3811は、画像処理の範囲指定を受け付けたか否かを判定する。表示制御部3811は、画像処理の範囲指定を受け付けたと判定すると、処理をA4015に進める。表示制御部3811は、画像処理の範囲指定を受け付けていないと判定すると、処理をA4016に進める。
画像処理の範囲指定を受けない場合、画像の全ての範囲が画像処理の対象となるものとして説明を行う。すなわち、図11では簡略化のため省略されているが、画像処理の範囲指定を受け付けない場合、範囲情報として、「画像の全て」が保持される。実施形態1では、範囲情報として「画像の全て」が保持されたものとして説明を行う。
In A4014, the display control unit 3811 determines whether or not the designation of the image processing range has been received. When the display control unit 3811 determines that the designation of the image processing range has been received, the process proceeds to A4015. When the display control unit 3811 determines that the designation of the image processing range has not been received, the process proceeds to A4016.
Description will be given on the assumption that the entire range of the image is subject to image processing when the range of image processing is not specified. That is, although omitted in FIG. 11 for the sake of simplification, when the range specification of image processing is not accepted, "the whole image" is held as range information. In the description of the first embodiment, it is assumed that "the whole image" is held as the range information.

A4015において、通信制御部3812は、画面等を介して情報表示端末3800の操作者によって選択された画像処理の範囲情報を保持する。 In A4015, the communication control unit 3812 holds the image processing range information selected by the operator of the information display terminal 3800 via the screen or the like.

A4016において、表示制御部3811は、画面を介してユーザーより複数の画像処理のうちから選択された画像処理の実行指示の受け付けを待機する。表示制御部3811は、実施形態1において、表示制御部3811は、画面を介してユーザーより複数の画像処理のうちから霧補正の実行指示を受け付けたものとして説明を行う。 In A4016, the display control unit 3811 waits for acceptance of an instruction to execute image processing selected from among a plurality of image processing by the user via the screen. In the first embodiment, the display control unit 3811 will be described as having received an instruction to perform fog correction among a plurality of image processes from the user via the screen.

ユーザーによる画像処理の実行指示がされた場合、A4017において、通信制御部3812は、サーバ3700に画像処理の実行指示を送信する。実施形態1において、通信制御部3812は、サーバ3700に画像について霧補正の実行指示を送信する。 When the user issues an instruction to execute image processing, the communication control unit 3812 transmits an instruction to execute image processing to the server 3700 in A4017. In the first embodiment, the communication control unit 3812 transmits to the server 3700 an instruction to perform fog correction on the image.

A4018において、通信制御部3812は、サーバ3700で処理された結果の画像の受信を待機する。通信制御部3812は、画像を受信すると、処理をA4019に進める。実施形態1において、通信制御部3812は、サーバ3700で処理された霧補正後の画像を受信する。 At A<b>4018 , the communication control unit 3812 waits for reception of the resulting image processed by the server 3700 . Upon receiving the image, the communication control unit 3812 advances the process to A4019. In the first embodiment, the communication control unit 3812 receives the fog-corrected image processed by the server 3700 .

A4019において、表示制御部3811は、サーバ3700から取得した情報を画面に表示する。実施形態1において、表示制御部3811は、サーバ3700から取得した霧補正後の画像を画面に表示する。 In A4019, the display control unit 3811 displays the information acquired from the server 3700 on the screen. In the first embodiment, the display control unit 3811 displays the fog-corrected image acquired from the server 3700 on the screen.

なお、本実施形態では、情報表示端末3800上のビューアであるPC Browser(PCアプリ)から、サーバ3700内の外部動画プレーヤを制御する。ここで、外部動画プレーヤの例としては、例えば、VLC等のフリーソフトや、クラウドでの画像処理サービス、画像鮮明化サービス等が挙げられる。本実施形態のビューアのインストール時に、表示制御部3811は、外部動画プレーヤを併せてインストールするかを訪ねる。記憶制御部3813は、外部動画プレーヤをインストールする指示があった場合には、外部動画プレーヤのインストールを行う。外部動画プレーヤのインストール時又は起動直後に、表示制御部3811は、外部動画プレーヤを起動するボタンの案内、外部動画プレーヤ利用時の注意を表示する。表示制御部3811は、外部プレーヤ利用時の注意点として、「外部動画プレーヤのボタンを操作した場合、ビューアの表示状態とずれる可能性があること」と、「ビューアの表示状態とずれた場合、外部動画プレーヤを閉じた上で、再度ビューア上から外部動画プレーヤを起動させるとよいこと」等を表示してもよい。 In this embodiment, the PC Browser (PC application), which is a viewer on the information display terminal 3800, controls the external video player in the server 3700. FIG. Examples of external video players include free software such as VLC, image processing services in the cloud, and image sharpening services. When installing the viewer of this embodiment, the display control unit 3811 asks whether to install an external video player as well. The storage control unit 3813 installs the external video player when receiving an instruction to install the external video player. At the time of installation of the external video player or immediately after starting the external video player, the display control unit 3811 displays guidance of a button for starting the external video player and cautions when using the external video player. The display control unit 3811 has the following points to note when using an external player: ``When the button of the external video player is operated, the display state may deviate from the viewer's display state''; After closing the external moving image player, the external moving image player should be started again from the viewer." or the like may be displayed.

クラウド上のシステムを用いる場合、記憶制御部3813は、クラウドの画像鮮明化サービスへ自動ログインするためのID等を記憶部3820に記憶する機能を持つように構成されてもよい。また、通信制御部3812は、情報を自動送出する機能、アップロードを行う機能、変換が完了したかを判定し変換完了したら自動的にダウンロードするか、ダウンロード可能になったこと知らせる機能を持つように構成されてもよい。さらに、表示制御部3811は、ダウンロードした映像を変換前の映像と同期させて再生する機能を備えるとよい。 When using a system on the cloud, the storage control unit 3813 may be configured to have a function of storing an ID or the like for automatic login to a cloud image sharpening service in the storage unit 3820 . Also, the communication control unit 3812 has a function of automatically transmitting information, a function of uploading information, a function of determining whether conversion is completed, and automatically downloading the information when the conversion is completed, or notifying that the download is possible. may be configured. Further, the display control unit 3811 preferably has a function of synchronizing the downloaded video with the pre-conversion video and playing it back.

さらに、表示制御部3811は、非推奨のビューアで再生する場合、専用のビューアで再生すると綺麗に再生できることを表示するように制御する。暗い映像を記録すると、専用のビューアで再生したときは補正されてきれいに表示されるが、例えばWindows(登録商標)等のOSに標準のプレーヤ等で再生すると再生した映像が暗いことがある。そこで、例えば、表示制御部3811は、非推奨のビューアで再生する場合、映像の上下の黒帯領域を設け、この黒帯領域に「この映像は専用ビューアで再生するときれいに再生されます」と表示するように制御する。このとき、表示制御部3811は、文字列とともに、ビューアをインストールできるURLを参照するコード(例えば、QRコード(登録商標))を併せて表示してもよい。他の形態として、表示制御部3811は、非推奨のビューアで再生する場合、映像の序盤に、「この映像は専用ビューアで再生するときれいに再生されます」の文字列を表示してもよいし、ビューアをインストールできるURLを参照するコード(例えば、QRコード(登録商標))を表示してもよい。 Further, the display control unit 3811 performs control so as to display that the content can be reproduced finely by using a dedicated viewer when the content is reproduced using a non-recommended viewer. When a dark image is recorded, it is corrected and displayed clearly when played back with a dedicated viewer, but the played back image may be dark when played back with a standard player for an OS such as Windows (registered trademark). Therefore, for example, the display control unit 3811 provides black belt areas at the top and bottom of the video when playing back with a non-recommended viewer, and displays in the black belt areas, "This video will be played back cleanly with a dedicated viewer." control to At this time, the display control unit 3811 may display a code (for example, a QR code (registered trademark)) that refers to a URL where the viewer can be installed together with the character string. As another form, the display control unit 3811 may display a character string at the beginning of the video when the video is played back with a non-recommended viewer, such as "This video will be played back cleanly with a dedicated viewer." A code (for example, a QR code (registered trademark)) that refers to a URL where the viewer can be installed may be displayed.

[情報処理の詳細]
続いて、前述した情報処理の詳細について説明する。
[Details of information processing]
Next, details of the information processing described above will be described.

図12は、実施形態1の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。表示制御部3811は、サーバ3700内の情報をビューア4100に表示するよう制御する。ビューア4100は、各種機能の呼び出し及び情報を表示できるように構成される。より具体的に説明すると、ビューア4100は、ファイルボタン4101と、表示ボタン4102と、再生ボタン4103と、ツールボタン4104と、インフォメーションボタン4105と、を含み、これらのボタンにより様々な機能の呼び出し及び参照が可能となる。また、ビューア4100は、映像表示領域4110と、加速度グラフ表示領域4120と、地図画像表示領域4130と、日時表示領域4150と、車両状態表示領域4160と、速度グラフ表示領域4170と、を含み、これらの領域により再生中の画像及び画像に関する情報を参照することができる。さらに、ビューア4100は、映像表示領域4110と、霧補正ボタン4140と、HDRボタン4141と、鮮明化ボタン4142と、その他処理ボタン4143と、一部処理ボタン4144と、ストリーム表示ボタン4145と、操作ボタン4146と、プレイリスト表示領域4180と、を含み、これらのボタンの操作に応じて、表示制御部3811は、サーバ3700に画像処理及び画像の再生等を要求する。すなわち、ビューア4100は、ユーザーの複数の操作指示を受け付け可能に構成される。このとき、複数の操作指示のそれぞれは、画像に関する異なる処理結果の表示を指示するものである。 FIG. 12 is a diagram showing an example of a screen before image processing, displayed by the display control unit 3811 of the first embodiment. The display control unit 3811 controls to display information in the server 3700 on the viewer 4100 . Viewer 4100 is configured to display various function calls and information. More specifically, the viewer 4100 includes a file button 4101, a display button 4102, a play button 4103, a tool button 4104, and an information button 4105, and these buttons call and refer to various functions. becomes possible. Viewer 4100 also includes a video display area 4110, an acceleration graph display area 4120, a map image display area 4130, a date and time display area 4150, a vehicle state display area 4160, and a speed graph display area 4170. It is possible to refer to the image being reproduced and the information about the image by the area of . Further, the viewer 4100 includes an image display area 4110, a fog correction button 4140, an HDR button 4141, a sharpening button 4142, an other processing button 4143, a partial processing button 4144, a stream display button 4145, and operation buttons. 4146 and a playlist display area 4180, and the display control unit 3811 requests the server 3700 to perform image processing, image reproduction, and the like in accordance with the operation of these buttons. That is, the viewer 4100 is configured to be able to receive a plurality of user's operation instructions. At this time, each of the plurality of operation instructions instructs display of a different processing result regarding the image.

ファイルボタン4101は、様々なファイルの操作に関する処理を実行可能に構成されている。より具体的に説明すると、ファイルボタン4101が選択されと、表示制御部3811は、「ファイルの参照」、「上書き保存」、「名前を付けて保存」等のファイルに関する処理をプルダウン形式で画面に表示し、何れかのファイルに関する処理が選択されることにより、選択された処理の実行を制御部3810等に要求する。 The file button 4101 is configured to be able to execute processing related to various file operations. More specifically, when the file button 4101 is selected, the display control unit 3811 displays file-related processes such as "file reference", "overwrite save", and "save as" on the screen in a pull-down format. Execution of the selected process is requested to the control unit 3810 or the like by displaying and selecting a process related to any file.

表示ボタン4102は、様々な映像表示領域4110の表示に関する処理を実行可能にする。より具体的に説明すると、表示ボタン4102が選択されると、表示制御部3811は、「並べて表示」、「一列に表示」、「最小化」等の表示に関する処理をプルダウン形式で表示し、何れかの表示に関する処理が選択されることにより、選択された処理を実行する。 Display buttons 4102 enable operations related to the display of various video display areas 4110 . More specifically, when the display button 4102 is selected, the display control unit 3811 displays processing related to display such as “display side by side”, “display in line”, and “minimize” in a pull-down format. The selected process is executed by selecting the process related to the display.

再生ボタン4103は、様々な映像の再生に関する処理を実行可能にする。より具体的に説明すると、再生ボタン4103が選択されると、表示制御部3811は、「次のプレイリストを再生」、「前のプレイリストを再生」、「次の画像処理から再生」、「前の画像処理から再生」等の再生に関する処理をプルダウン形式で表示し、何れかの表示に関する処理が選択されることにより、選択された処理を実行する。 A playback button 4103 enables execution of processing related to playback of various images. More specifically, when the play button 4103 is selected, the display control unit 3811 performs "play next playlist", "play previous playlist", "play from next image processing", " Processing related to reproduction such as "reproduce from previous image processing" is displayed in a pull-down format, and the selected processing is executed by selecting one of the processing related to display.

ツールボタン4104は、様々な機能を呼び出すことができる。より具体的に説明すると、ツールボタン4104が選択されると、表示制御部3811は、「マクロ」、「ユーザー設定」等のプルダウン形式を表示し、何れかの処理が選択されることにより、選択された処理の実行を制御部3810等に要求する。 Tool buttons 4104 can invoke various functions. More specifically, when the tool button 4104 is selected, the display control unit 3811 displays a pull-down format such as "macro" or "user setting", and when any process is selected, the selection is made. It requests the control unit 3810 or the like to execute the process.

インフォメーションボタン4105は、様々な情報を参照することができる。より具体的に説明すると、ツールボタン4104が選択されると、表示制御部3811は、「バージョン情報」等の情報に関するボタンをプルダウン形式で表示し、何れかのボタンを選択することにより、選択された情報をユーザーが参照可能に表示する。 An information button 4105 can refer to various information. More specifically, when the tool button 4104 is selected, the display control unit 3811 displays buttons related to information such as "version information" in a pull-down format. Display the information that the user can refer to.

映像表示領域4110は、撮影装置3100、撮影装置3200で撮影された画像及び画像処理部3711で処理された画像が表示される領域である。また、映像表示領域4110は、ユーザーの指示により任意に表示形式を変更されるようにすることができる。より具体的に説明すると、映像表示領域4110には、ユーザーの指示に基づいて異なる方法による画像処理後の複数の画像を並べて表示されてもよいし、画像処理後の画像と画像処理前の画像とを並べて表示されてもよい。さらに、映像表示領域4110には、加速度グラフ表示領域4120等の任意の情報が表示されてもよい。 A video display area 4110 is an area in which images captured by the imaging devices 3100 and 3200 and images processed by the image processing unit 3711 are displayed. Also, the display format of the video display area 4110 can be arbitrarily changed according to the user's instruction. More specifically, in the video display area 4110, a plurality of images after image processing by different methods may be displayed side by side based on an instruction from the user, or an image after image processing and an image before image processing may be displayed. may be displayed side by side. Furthermore, arbitrary information such as an acceleration graph display area 4120 may be displayed in the image display area 4110 .

加速度グラフ表示領域4120は、映像を撮影した車両の加速度が三次元で表示される領域である。加速度グラフ表示領域4120には、奥行き方向にX軸、横方向にY軸、縦方向にZ軸が形成される。ここで、X軸は車両の前方及び後方についての加速度を示す軸であり、Y軸は車両の横方向についての加速度を示す軸であり、Z軸は車両の垂直方向についての加速度を示す軸である。車両の前方に対する加速度(正の加速度)は、X軸の上方向のグラフとなり、車両の後方に対する加速度(負の加速度)は、X軸の下方向のグラフとなる。車両に向かって右方向に対する加速度は、Y軸の上方向のグラフとなり、車両に向かって左方向に対する加速度は、Y軸の下方向のグラフとなる。車両の上方向に対する加速度は、Z軸においては左方向のグラフとなり、車両の下方向に対する加速度は、Z軸においては右方向のグラフとなる。 Acceleration graph display area 4120 is an area in which the acceleration of the vehicle in which the image is captured is displayed in three dimensions. In the acceleration graph display area 4120, the X axis is formed in the depth direction, the Y axis is formed in the horizontal direction, and the Z axis is formed in the vertical direction. Here, the X axis is the axis that indicates the acceleration in the front and rear directions of the vehicle, the Y axis is the axis that indicates the acceleration in the lateral direction of the vehicle, and the Z axis is the axis that indicates the acceleration in the vertical direction of the vehicle. be. Acceleration toward the front of the vehicle (positive acceleration) is graphed along the upper X-axis, and acceleration toward the rear of the vehicle (negative acceleration) is graphed along the lower X-axis. Acceleration to the right of the vehicle is plotted on the upper Y-axis, and acceleration to the left of the vehicle is plotted on the lower Y-axis. The upward acceleration of the vehicle is graphed leftward on the Z-axis, and the downward acceleration of the vehicle is graphed rightward on the Z-axis.

地図画像表示領域4130は、映像表示領域4110に表示されている映像の撮影場所近傍の地図の画像が表示される領域である。車両の位置を表すデータを情報表示端末3800からネットワーク3900上に存在する不図示の地図サーバに送信し、この地図サーバから車両の位置近傍の地図を表すデータを情報表示端末3800に送信することにより、地図画像表示領域4130に地図の画像が表示される。このとき、地図画像表示領域4130上には、現在地アイコン4131が表示される。 The map image display area 4130 is an area in which an image of a map near the shooting location of the image displayed in the image display area 4110 is displayed. Data representing the position of the vehicle is transmitted from the information display terminal 3800 to a map server (not shown) existing on the network 3900, and data representing a map near the position of the vehicle is transmitted from the map server to the information display terminal 3800. , a map image is displayed in the map image display area 4130 . At this time, a current location icon 4131 is displayed on the map image display area 4130 .

ビューア4100には、霧補正ボタン4140が含まれる。霧補正ボタン4140が選択されることにより、画像処理部3711は、映像表示領域4110に表示されている画像について、霧補正を行う。より具体的に説明すると、霧補正ボタン4140が選択されることにより、情報表示端末3800の通信制御部3812は、サーバ3700に画像を霧除去処理するよう指示する。指示を受け取ったサーバ3700は、画像処理部3711により、画像を霧除去処理する。サーバ3700の通信制御部3712は、霧除去処理がされた画像を情報表示端末3800に送信する。表示制御部3811は、霧除去処理がされた画像を含む映像表示領域4110を表示するよう制御する。言い換えると、PC Browser(PCアプリ)にてボタンを選択することにより映像補正をすることができる。また、このとき、画像処理部3711は、霧補正が行われている状態で、霧補正ボタン4140が再び操作された場合、霧補正を解除するように制御することができる。 Viewer 4100 includes fog correction button 4140 . When the fog correction button 4140 is selected, the image processing unit 3711 performs fog correction on the image displayed in the image display area 4110 . More specifically, when the fog correction button 4140 is selected, the communication control unit 3812 of the information display terminal 3800 instructs the server 3700 to remove fog from the image. The server 3700 that has received the instruction uses the image processing unit 3711 to perform fog removal processing on the image. The communication control unit 3712 of the server 3700 transmits the defogged image to the information display terminal 3800 . The display control unit 3811 controls to display the image display area 4110 including the image subjected to the fog removal process. In other words, image correction can be performed by selecting a button on the PC Browser (PC application). At this time, when the fog correction button 4140 is operated again while fog correction is being performed, the image processing unit 3711 can perform control to cancel the fog correction.

なお、表示制御部3811は、霧補正ボタン4140の選択回数又は選択時間に応じて霧補正の度合いを調整して表示するよう制御することも可能である。より具体的に説明すると、表示制御部3811は、霧補正ボタン4140が押された回数に応じて霧補正の度合いを強めて表示するように制御したり、霧補正ボタン4140が押された時間に応じて霧補正の度合いを強めて表示するように制御したりする。つまり、表示制御部3811は、ユーザーによって選択された霧補正ボタン4140に対する操作指示を受け取り、操作指示に対応する、画像に関する処理結果の表示の指示を受け付け、画像に関する処理結果を含む映像表示領域4110を表示するよう制御する。霧補正ボタン4140は、オブジェクトの一例である。また、霧補正ボタン4140を選択する操作は、オブジェクトの操作の一例である。 The display control unit 3811 can also perform control so that the degree of fog correction is adjusted and displayed according to the number of times the fog correction button 4140 is selected or the selection time. More specifically, the display control unit 3811 controls to increase the degree of fog correction according to the number of times the fog correction button 4140 is pressed, Depending on the situation, the degree of fog correction is strengthened and displayed. That is, the display control unit 3811 receives an operation instruction for the fog correction button 4140 selected by the user, receives an instruction to display the processing result regarding the image corresponding to the operation instruction, and receives the image display area 4110 including the processing result regarding the image. is displayed. The fog correction button 4140 is an example of an object. An operation of selecting the fog correction button 4140 is an example of an object operation.

ビューア4100には、HDR(High Dynamic Range)ボタン4141が含まれる。画像処理部3711は、HDRボタン4141が選択されることにより、映像表示領域4110に表示されている画像について、HDR処理を行う。ここで、HDR処理は、明るさを変えた複数の写真を合成することで、白飛びや黒つぶれのないように表現する処理のことである。より具体的に説明すると、HDRボタン4141が選択されることにより、情報表示端末3800の通信制御部3812は、サーバ3700に画像をHDR処理するよう指示する。指示を受け取ったサーバ3700は、画像処理部3711により、明るさを変えた複数の写真を合成してHDR処理をする。サーバ3700の通信制御部3712は、HDR処理がされた画像を情報表示端末3800に送信する。表示制御部3811は、HDR処理がされた画像を含む映像表示領域4110を表示するよう制御する。 Viewer 4100 includes an HDR (High Dynamic Range) button 4141 . The image processing unit 3711 performs HDR processing on the image displayed in the video display area 4110 when the HDR button 4141 is selected. Here, the HDR process is a process of synthesizing a plurality of photographs with different brightnesses so as not to cause blown-out highlights or blocked-up shadows. More specifically, when the HDR button 4141 is selected, the communication control unit 3812 of the information display terminal 3800 instructs the server 3700 to HDR process the image. The server 3700 that has received the instruction uses the image processing unit 3711 to synthesize a plurality of photographs with different brightnesses and perform HDR processing. A communication control unit 3712 of the server 3700 transmits the HDR-processed image to the information display terminal 3800 . The display control unit 3811 controls to display the video display area 4110 including the HDR-processed image.

また、表示制御部3811は、ユーザーによって選択されたボタンに対応する、画像に関する処理結果の表示の指示を受け付け、画像に関する処理結果を含む画面を表示するよう制御する。より具体的に説明すると、画像処理部3711は、霧補正ボタン4140の選択により霧補正の実行指示を受け付け、HDRボタン4141の選択によりHDR処理の実行指示を受け付け、処理結果を映像表示領域4110に表示するように制御する。ここで、霧補正ボタン4140とHDRボタン4141のように、画像処理に関するボタンは、画像に関する異なる処理結果ごとに異なる。霧補正ボタン4140、HDRボタン4141は、オブジェクトの例である。これにより、ボタンに対応する任意の画像処理をユーザーの選択によって実行することができる。また、表示制御部3811は、複数のボタンを表示する場合、これらを同時に表示しないように制御することができる。より具体的に説明すると、表示制御部3811は、霧補正ボタン4140とHDRボタン4141を同時に表示しないように制御することができる。 In addition, the display control unit 3811 receives an instruction to display the processing result regarding the image corresponding to the button selected by the user, and controls to display the screen including the processing result regarding the image. More specifically, the image processing unit 3711 receives a fog correction execution instruction by selecting the fog correction button 4140, receives an HDR processing execution instruction by selecting the HDR button 4141, and displays the processing result in the video display area 4110. control to display. Here, like the fog correction button 4140 and the HDR button 4141, buttons related to image processing are different for different processing results related to images. A fog correction button 4140 and an HDR button 4141 are examples of objects. As a result, arbitrary image processing corresponding to the buttons can be executed according to the user's selection. In addition, when displaying a plurality of buttons, the display control unit 3811 can control not to display them at the same time. More specifically, the display control unit 3811 can control the fog correction button 4140 and the HDR button 4141 not to be displayed at the same time.

さらに、このとき、表示制御部3811は、画面を介して霧補正ボタン4140とHDRボタン4141とが選択された場合、霧補正ボタン4140に対応する、画像に関する第1の処理結果の表示の指示と、HDRボタン4141に対応する、画像に関する第2の処理結果の表示の指示と、を受け付け、画像に関する第1の処理結果と、画像に関する第2の処理結果とを含む画面を表示するよう制御するようにしてもよい。より具体的に説明すると、表示制御部3811は、ビューア4100を介して霧補正ボタン4140とHDRボタン4141とが選択された場合、霧補正ボタン4140に対応する、画像に関する霧補正の処理結果の表示の指示と、HDRボタン4141に対応する、画像に関するHDR処理の処理結果の表示の指示と、を受け付け、画像に関する霧補正の処理結果と、画像に関するHDR処理の処理結果とを含む画面を表示するよう制御する。これにより、任意の画像処理を複数同時に実行することができる。霧補正ボタン4140は、第1のオブジェクトの一例である。HDRボタン4141は、第2のオブジェクトの一例である。 Further, at this time, when the fog correction button 4140 and the HDR button 4141 are selected via the screen, the display control unit 3811 instructs the display of the first processing result regarding the image corresponding to the fog correction button 4140. , an instruction to display a second processing result regarding the image corresponding to the HDR button 4141, and controls to display a screen including the first processing result regarding the image and the second processing result regarding the image. You may do so. More specifically, when the fog correction button 4140 and the HDR button 4141 are selected via the viewer 4100, the display control unit 3811 displays the fog correction process result for the image corresponding to the fog correction button 4140. and an instruction to display the processing result of the HDR processing for the image corresponding to the HDR button 4141, and display a screen including the processing result of the fog correction processing for the image and the processing result of the HDR processing for the image. to control. As a result, a plurality of arbitrary image processes can be executed simultaneously. The fog correction button 4140 is an example of a first object. HDR button 4141 is an example of a second object.

ビューア4100には、鮮明化ボタン4142が含まれる。画像処理部3711は、鮮明化ボタン4142が選択されることにより、映像表示領域4110に表示されている映像について、鮮明化処理を行う。より具体的に説明すると、鮮明化ボタン4142が選択されることにより、情報表示端末3800の通信制御部3812は、サーバ3700に鮮明化処理を行うよう指示をする。指示を受け取ったサーバ3700は、画像処理部3711により、画像を鮮明化処理する。サーバ3700の通信制御部3712は、鮮明化処理を行った画像を情報表示端末3800に送信する。表示制御部3811は、鮮明化処理がされた画像を含む映像表示領域4110を表示するよう制御する。 Viewer 4100 includes a sharpen button 4142 . The image processing unit 3711 performs sharpening processing on the video displayed in the video display area 4110 when the sharpening button 4142 is selected. More specifically, when the sharpening button 4142 is selected, the communication control unit 3812 of the information display terminal 3800 instructs the server 3700 to perform the sharpening process. The server 3700 that has received the instruction sharpens the image using the image processing unit 3711 . The communication control unit 3712 of the server 3700 transmits the sharpened image to the information display terminal 3800 . The display control unit 3811 controls to display the image display area 4110 including the sharpened image.

ビューア4100には、その他処理ボタン4143が含まれる。表示制御部3811は、その他処理ボタン4143が選択されることにより、様々な画像処理のオプションをビューア4100に表示するよう制御する。ここで、画像処理のオプションは、例えば、後述する画像処理調整領域6290等が挙げられる。この画像処理のオプションが選択されることにより、情報表示端末3800の通信制御部3812は、サーバ3700に画像処理を行うよう指示をする。指示を受け取ったサーバ3700は、画像処理部3711により、画像処理する。サーバ3700の通信制御部3712は、画像処理を行った画像を情報表示端末3800に送信する。表示制御部3811は、画像処理がされた画像を含む映像表示領域4110を表示するよう制御する。 Viewer 4100 includes other processing button 4143 . The display control unit 3811 controls to display various image processing options on the viewer 4100 when the other processing button 4143 is selected. Here, the options for image processing include, for example, an image processing adjustment area 6290, which will be described later. When this image processing option is selected, the communication control unit 3812 of the information display terminal 3800 instructs the server 3700 to perform image processing. The server 3700 that has received the instruction performs image processing using the image processing unit 3711 . The communication control unit 3712 of the server 3700 transmits the processed image to the information display terminal 3800 . The display control unit 3811 controls to display the image display area 4110 including the image that has undergone the image processing.

ビューア4100には、一部処理ボタン4144が含まれる。表示制御部3811は、一部処理ボタン4144が選択されることにより、映像表示領域4110のうち一部を選択できるように表示を制御する。この画像処理のオプションが選択されることにより、情報表示端末3800の通信制御部3812は、サーバ3700に画像の一部について画像処理を行うよう指示をする。指示を受け取ったサーバ3700は、画像処理部3711により、画像の一部について画像処理する。サーバ3700の通信制御部3712は、画像処理を行った画像を情報表示端末3800に送信する。表示制御部3811は、一部について画像処理がされた画像を含む映像表示領域4110を表示するよう制御する。ここで、表示制御部3811は、画像処理前の画像と画像処理後の画像とを用いて、その一部について、画像処理が行われた画像を含む映像表示領域4110に表示するように制御してもよい。なお、一部処理を行うための方法は、別の態様であってもよい。例えば、表示制御部3811は、映像表示領域4110に対して、補正対象範囲の指定を受け付ける。表示制御部3811は、範囲登録チェックボックスをさらに設ける。表示制御部3811は、範囲登録チェックボックスにチェックを入れた状態で補正ボタンが押された状態の間、指定された範囲を補正対象範囲にするというようにしてもよい。このとき、表示制御部3811は、範囲としては補正がかかった状態のまま、一時的に補正を外すボタンを設けてもよい。 Viewer 4100 includes partial processing button 4144 . The display control unit 3811 controls display so that a part of the video display area 4110 can be selected by selecting the partial processing button 4144 . When this image processing option is selected, the communication control unit 3812 of the information display terminal 3800 instructs the server 3700 to perform image processing on part of the image. Upon receiving the instruction, the server 3700 uses the image processing unit 3711 to process a part of the image. The communication control unit 3712 of the server 3700 transmits the processed image to the information display terminal 3800 . The display control unit 3811 controls to display a video display area 4110 including an image partially subjected to image processing. Here, the display control unit 3811 uses the image before image processing and the image after image processing, and controls to display a part of them in the video display area 4110 including the image on which image processing has been performed. may Note that the method for performing the partial processing may be another aspect. For example, the display control unit 3811 receives designation of a correction target range for the image display area 4110 . The display control unit 3811 further provides a range registration check box. The display control unit 3811 may set the specified range as the correction target range while the correction button is pressed with the range registration check box checked. At this time, the display control unit 3811 may provide a button for temporarily canceling the correction while the range remains corrected.

ビューア4100には、ストリーム表示ボタン4145が含まれる。表示制御部3811は、ストリーム表示ボタン4145が選択されることにより、映像表示領域4110に複数の画像を並べて表示するように制御する。 Viewer 4100 includes stream display button 4145 . When the stream display button 4145 is selected, the display control unit 3811 controls to display a plurality of images side by side in the video display area 4110 .

ビューア4100に表示される各ボタンは、他の態様でもよい。例えば、ビューア4100に表示される各ボタンは、プッシュボタンの代わりにラジオボタン、チェックボックス、トグルボタン等を用いてもよい。また、例えば、各ボタンをビューア4100に表示されるソフトボタンとして説明したが、ビューア4100以外の場所に設けてもよく、物理スイッチ等、物理ボタンでもよい。 Each button displayed in viewer 4100 may have other forms. For example, each button displayed on the viewer 4100 may be a radio button, check box, toggle button, or the like instead of a push button. Further, for example, each button has been described as a soft button displayed on the viewer 4100, but it may be provided in a place other than the viewer 4100, and may be a physical button such as a physical switch.

日時表示領域4150は、映像表示領域4110に表示されている映像の記録日時が表示される領域である。また、ここで、日時表示領域4150は、現在の日時を表示するように構成されてもよい。 The date and time display area 4150 is an area in which the recording date and time of the image displayed in the image display area 4110 is displayed. Also, here, the date and time display area 4150 may be configured to display the current date and time.

車両状態表示領域4160は、映像の記録時における車両の速度等の情報が表示される領域である。車両状態表示領域4160には、映像表示領域4110に表示されている映像を記録した撮影装置3100、3200が取り付けられている車両の状態等を表示する。 Vehicle status display area 4160 is an area in which information such as vehicle speed at the time of video recording is displayed. A vehicle state display area 4160 displays the state of the vehicle to which the photographing devices 3100 and 3200 that record the images displayed in the image display area 4110 are attached.

速度グラフ表示領域4170は、車両の速度がグラフ化して表示される領域である。また、ここで、速度グラフ表示領域4170には、速度の他に加速度がグラフ化して表示されてもよい。 Speed graph display area 4170 is an area where the speed of the vehicle is graphed and displayed. In addition to velocity, acceleration may also be graphed and displayed in velocity graph display area 4170 .

プレイリスト表示領域4180は、保存してある動画データの情報が表示される領域である。表示制御部3811は、プレイリスト表示領域4180内の動画データの情報が選択されることにより、サーバ3700内の動画データにアクセスし、映像表示領域4110に表示する。このとき、動画データは、サーバ3700内の他に、情報表示端末3800内に記憶されてもよいし、外部記憶装置に記憶されてもよい。 A play list display area 4180 is an area where information of saved moving image data is displayed. The display control unit 3811 accesses the video data in the server 3700 and displays it in the video display area 4110 by selecting the information of the video data in the playlist display area 4180 . At this time, the video data may be stored in the information display terminal 3800 as well as in the server 3700, or may be stored in an external storage device.

図13は、実施形態1の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。表示制御部3811は、サーバ3700内で処理された情報をビューア4200に表示するよう制御する。実施形態1におけるビューア4200の映像表示領域4210は、図12の映像表示領域4110について、霧補正ボタン4140が選択されることにより霧補正が行われた画像である。すなわち、映像表示領域4210には、画像処理後の画像が含まれる。このとき、霧補正ボタン4240は、選択されたことがわかるように、他のボタンと色が変わって表示されている。さらに、このとき、記憶制御部3813は、撮影装置3100で撮影された画像を記憶領域に記憶する。これにより、情報表示端末3800は、映像表示領域4210には、画像処理後の画像表示しながら、記憶部3820には、画像処理前の画像を記憶できる。 FIG. 13 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 of the first embodiment. The display control unit 3811 controls the information processed in the server 3700 to be displayed on the viewer 4200 . The image display area 4210 of the viewer 4200 in the first embodiment is an image obtained by fogging the image display area 4110 of FIG. 12 by selecting the fog correction button 4140 . That is, the video display area 4210 includes an image after image processing. At this time, the fog correction button 4240 is displayed in a different color from the other buttons so that it can be seen that it has been selected. Furthermore, at this time, the storage control unit 3813 stores the image captured by the imaging device 3100 in the storage area. As a result, the information display terminal 3800 can store an image before image processing in the storage unit 3820 while displaying an image after image processing in the video display area 4210 .

実施形態1では、記憶制御部3813が画像処理前の画像を記憶するように制御をし、表示制御部3811が画像処理後の画像を表示するように制御をする例について述べたが、画像処理後の画像を用いて、画像処理前の画像を再現して表示するようにしてもよい。より具体的に説明すると、記憶制御部3713は、画像処理後の画像と画像に対して実行された画像処理とについて、記憶部3720に記憶するように制御する。次に、画像処理部3711は、画像処理後の画像に関して、実行された画像処理の情報を基に、画像処理前の画像を再現するように制御する。その後、表示制御部3811は、この再現された画像処理前の画像を表示するように制御する。また、このとき、表示制御部3811は、映像表示領域4210に表示される画像がどのデータであるかを表示してもよい。より具体的に説明すると、表示制御部3811は、表示しているデータが、元のデータであるか、画像処理後のデータであるか、画像処理後のデータから画像処理前のデータに再現したデータであるかを表示するようにしてもよい。 In the first embodiment, an example has been described in which the storage control unit 3813 controls to store an image before image processing, and the display control unit 3811 controls to display an image after image processing. The image before image processing may be reproduced and displayed using the image after image processing. More specifically, the storage control unit 3713 controls the storage unit 3720 to store the image after image processing and the image processing performed on the image. Next, the image processing unit 3711 controls to reproduce the image before the image processing based on the information of the executed image processing for the image after the image processing. After that, the display control unit 3811 controls to display the reproduced image before image processing. Also, at this time, the display control unit 3811 may display which data the image displayed in the video display area 4210 is. More specifically, the display control unit 3811 determines whether the data being displayed is the original data, the data after image processing, or the data reproduced from the data after image processing to the data before image processing. You may make it display whether it is data.

[変形例1]
実施形態1の変形例1を説明する。
図14は、実施形態1の変形例1の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例1におけるビューア4300の映像表示領域4310は、映像表示領域4310のうち一部について、霧補正がされた霧補正領域4311と、霧補正領域4311と異なる領域について鮮明化処理がされた鮮明化領域4313と、を含む。このように、変形例1の霧補正ボタン4340に関連する画像処理と鮮明化ボタン4342に関連する画像処理とでは、画像における画像処理の対象とする領域が異なるように構成される。霧補正ボタン4340は、第1のオブジェクトの一例である。鮮明化ボタン4342は、第2のオブジェクトの一例である。変形例1の情報表示端末3800は、異なる領域に対して、任意の画像処理を実行させることができる。
例えば、ユーザーは、映像表示領域4110において所定の領域(霧補正領域4311に対応する領域)を選択し、霧補正ボタン4340を選択する。また、ユーザーは、映像表示領域4110において所定の領域(鮮明化領域4313に対応する領域)を選択し、鮮明化ボタン4342を選択する。このような選択を行うことによって、図14に示されるような画面を表示させることができる。
また、表示制御部3811は、各処理領域に、処理内容を表示させることで、どの領域にどのような処理がなされたか表示することができる。すなわち、表示制御部3811は、霧補正領域4311に、処理内容表示部4312を表示させることで、霧補正領域4311が霧補正を行ったことがわかるように表示することができる。また、表示制御部3811は、鮮明化領域4313に、処理内容表示部4314を表示させることで鮮明化処理を行ったことがわかるように表示することができる。さらに、表示制御部3811は、霧補正ボタン4340と鮮明化ボタン4342と一部処理ボタン4344について、色を変更することで、これらの処理が実行されていることを表示することができる。
変形例1の例では、異なる領域に対する画像処理の例として、霧補正と鮮明化とを例に説明を行ったがこれに限定されるものではなく、他の画像処理であってもよい。また、同じ画像処理(例えば、霧補正)であっても程度の異なる処理を異なる領域に対して実行可能にするようにしてもよい。
[Modification 1]
Modification 1 of Embodiment 1 will be described.
FIG. 14 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 of Modification 1 of Embodiment 1. As shown in FIG. An image display area 4310 of the viewer 4300 in Modification 1 includes a fog-corrected area 4311 in which part of the image display area 4310 has been subjected to fog correction, and an area different from the fog-corrected area 4311 has been subjected to a sharpening process. and a region 4313 . As described above, the image processing related to the fog correction button 4340 and the image processing related to the sharpening button 4342 of the modified example 1 are configured so that the image processing target area in the image is different. The fog correction button 4340 is an example of a first object. A sharpen button 4342 is an example of a second object. The information display terminal 3800 of Modification 1 can execute arbitrary image processing on different regions.
For example, the user selects a predetermined area (area corresponding to the fog correction area 4311 ) in the image display area 4110 and selects the fog correction button 4340 . Also, the user selects a predetermined area (area corresponding to the sharpening area 4313 ) in the video display area 4110 and selects the sharpening button 4342 . By making such a selection, a screen such as that shown in FIG. 14 can be displayed.
In addition, the display control unit 3811 can display what kind of processing has been performed in which region by displaying the processing content in each processing region. That is, the display control unit 3811 can display the processing content display unit 4312 in the fog correction area 4311 so that the fog correction area 4311 has performed fog correction. In addition, the display control unit 3811 can display the processing content display unit 4314 in the sharpening area 4313 so that the sharpening process is performed. Furthermore, the display control unit 3811 can display that these processes are being executed by changing the colors of the fog correction button 4340, sharpening button 4342, and partial processing button 4344. FIG.
In the example of modification 1, fog correction and sharpening have been described as examples of image processing for different regions, but the present invention is not limited to this, and other image processing may be used. Also, even if the same image processing (for example, fog correction) is performed, different degrees of processing may be performed on different regions.

[変形例2]
実施形態1の変形例2を説明する。
図15は、実施形態1の変形例2の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例2におけるビューア4400に表示されているオブジェクトは、晴補正ボタン4440と、曇補正ボタン4441と、雨補正ボタン4442と、霧補正ボタン4443と、である。晴補正ボタン4440と、曇補正ボタン4441と、雨補正ボタン4442と、霧補正ボタン4443と、はそれぞれ天候に関する画像処理に関連するオブジェクトの例である。変形例2においては、ビューアで天候情報をつかって、晴れと雨と霧で異なった画像補正をかける。
表示制御部3811は、各ボタンの選択により、天候に対応したガンマ補正、色補正(色強調、色バランス)、エッジ強調等の画質補正の指示を受け付ける。例えば、表示制御部3811は、雨補正ボタン4442の選択により雨を消去するように、映像をガンマ補正、色補正(色強調、色バランス)、エッジ強調等する画像処理をサーバ3700の画像処理部3711に要求する。また、表示制御部3811は、霧補正ボタン4443の選択により、霧を透明化して霧の向こう側を見えるようにするように、映像をガンマ補正、色補正(色強調、色バランス)、エッジ強調等する画像処理をサーバ3700の画像処理部3711に要求する。また、表示制御部3811は、これらのボタン名として、吹雪を消す操作ボタン、霧を透明化して霧の向こう側を見えるようにするボタン、雨を消去するボタン等、映像により目的のあった映像補正をするボタン名を表示してもよい。さらに、表示制御部3811は、ビューア4400に、「晴」、「曇」、「雨」、「霧」の他にも、「快晴」、「薄曇」、「煙霧」、「砂塵嵐」、「地吹雪」、「霧雨」、「みぞれ」、「雪」、「あられ」、「ひょう」、「雷」等に関するオブジェクトを新たに設けたり、又は代わりに設けたりしてもよい。なお、天候毎に各オブジェクトを設ける代わりに、これらの天候を自動で検知して自動で補正を行う、オールマイティーの自動補正を行ってもよい。オールマイティーの自動補正を可能に構成する場合、表示制御部3811は、映像補正をする/しないボタンを画面上に表示する。表示制御部3811は、もし、オールマイティーの自動補正に限界があと判断した場合、何かしらの状態作り出す。例えば、表示制御部3811は、別の補正手段を表示する。これらにより、天候に対応させて適切な画像処理を行えるようにすることができる。
[Modification 2]
Modification 2 of Embodiment 1 will be described.
FIG. 15 is a diagram showing an example of a screen before image processing, displayed by the display control unit 3811 according to Modification 2 of Embodiment 1. As shown in FIG. Objects displayed on the viewer 4400 in Modification 2 are a sunny correction button 4440 , a cloudy correction button 4441 , a rain correction button 4442 , and a fog correction button 4443 . A fine weather correction button 4440, a cloudy correction button 4441, a rain correction button 4442, and a fog correction button 4443 are examples of objects related to weather-related image processing. In Modified Example 2, the viewer uses weather information to perform different image corrections for fine weather, rain, and fog.
The display control unit 3811 receives instructions for image quality correction such as gamma correction, color correction (color enhancement, color balance), edge enhancement, etc. corresponding to the weather by selecting each button. For example, the display control unit 3811 performs image processing such as gamma correction, color correction (color enhancement, color balance), and edge enhancement on the video so as to erase rain by selecting the rain correction button 4442. Request to 3711. In addition, the display control unit 3811 performs gamma correction, color correction (color enhancement, color balance), and edge enhancement to make the fog transparent so that the other side of the fog can be seen by selecting the fog correction button 4443 . The image processing unit 3711 of the server 3700 is requested to perform image processing such as the above. In addition, the display control unit 3811 provides the button names such as an operation button for erasing a snowstorm, a button for making fog transparent so that the other side of the fog can be seen, a button for erasing rain, and the like. You may display the button name which correct|amends. Furthermore, the display control unit 3811 allows the viewer 4400 to display not only "clear", "cloudy", "rain" and "fog", but also "sunny", "lightly cloudy", "smoke", "dust storm", Objects related to blizzard, drizzle, sleet, snow, hail, hail, thunder, etc. may be newly provided or alternatively provided. Instead of providing each object for each weather, an all-around automatic correction may be performed by automatically detecting these weather conditions and automatically correcting them. When the all-around automatic correction is configured to be possible, the display control unit 3811 displays a button for performing/not performing image correction on the screen. If the display control unit 3811 determines that there is a limit to the automatic correction of the almighty, it creates some kind of state. For example, the display control unit 3811 displays another correction means. As a result, it is possible to perform appropriate image processing in accordance with the weather.

[変形例3]
実施形態1の変形例3を説明する。
図16は、実施形態1の変形例3の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例3におけるビューア4500の映像表示領域4510には、天候が霧の路面を走行する車両3400の撮影装置3100により撮影された画像が映し出されている。
このとき、表示制御部3811は、霧補正ボタン4540を適切な補正方法として強調して表示するよう制御する。すなわち表示制御部3811は、画像の状態に基づいて画面に表示するボタンを変更する。これにより、画像内の情報に基づいて適切な画像処理を行えるようにすることができる。ボタンの変更の一態様として、表示制御部3811は、ボタンを新たに表示させることができる。また、ボタンの変更の別の態様として、ボタンの輪郭を強調することができる。さらに、ボタンの変更のさらに別の態様として、表示制御部3811ボタンを光らせて表示することができる。例えば、車両3400が街の中又は森の中を走行する場合、走行する場所及び/又は向きによって明るさが変わるため、表示制御部3811は、これに応じて、明るさ補正ボタンを新たに表示させたり、明るさ補正ボタンの輪郭を強調したり、明るさ補正ボタンを光らせて表示させたりするように制御するようにしてもよい。
[Modification 3]
Modification 3 of Embodiment 1 will be described.
FIG. 16 is a diagram illustrating an example of a screen before image processing, displayed by the display control unit 3811 according to the third modification of the first embodiment. In the image display area 4510 of the viewer 4500 in the third modification, an image captured by the image capturing device 3100 of the vehicle 3400 traveling on the foggy road surface is displayed.
At this time, the display control unit 3811 performs control to emphasize and display the fog correction button 4540 as an appropriate correction method. That is, the display control unit 3811 changes the buttons displayed on the screen based on the state of the image. Accordingly, appropriate image processing can be performed based on the information in the image. As one mode of changing the button, the display control unit 3811 can newly display the button. Further, as another mode of changing the button, the outline of the button can be emphasized. Furthermore, as still another mode of changing the buttons, the buttons of the display control unit 3811 can be illuminated and displayed. For example, when the vehicle 3400 travels in the city or in the woods, the brightness changes depending on the location and/or direction of travel. , the outline of the brightness correction button may be emphasized, or the brightness correction button may be illuminated and displayed.

[変形例4]
実施形態1の変形例4を説明する。
図17は、実施形態1の変形例4の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例4におけるビューア4600の映像表示領域4610には、トンネルに入る直前の車両3400の撮影装置3100によって撮影された画像が映し出されている。このとき、地図画像表示領域4630中の現在地アイコン4631は、車両3400がトンネルに入る直前であることを示している。
情報表示端末3800の通信制御部3812は、ネットワーク3900を介して、車両3400の位置情報に関連する道路ネットワーク情報を不図示の地図サーバから取得する。そして、表示制御部3811は、トンネル内での画像処理に適したトンネル補正ボタン4640を表示するよう制御する。すなわち、表示制御部3811は、道路ネットワーク情報に基づいて画像に対する画像処理を示唆するボタンを画面に表示するよう制御する。ここで、トンネル補正ボタン4640が選択されることにより、画像処理部3711は、トンネル位置について自動で適切な種類の補正をする。具体的には、トンネル補正ボタン4640が選択されることにより、画像処理部3711は、トンネルの暗さを補正するように明るさを調整したり、トンネルに設けられた照明の影響を低減したり、前方車両の灯火器による影響を低減したりするように画像処理を行う。よって、道路ネットワーク情報に基づいて適切な画像処理を行えるようにすることができる。また、ここで、道路ネットワーク情報は、道路状況に関する情報であり、より具体的に説明すると、トンネルの位置情報の他に、規制速度情報、道路の幅情報、平日の12時間交通量情報、旅行速度情報(ある区間について、区間の距離を走行に要した時間で割ったもので、所要時間には、信号や渋滞等による停止も含む速度)、車線数情報等を含む情報である。
[Modification 4]
Modification 4 of Embodiment 1 will be described.
FIG. 17 is a diagram illustrating an example of a screen before image processing, displayed by the display control unit 3811 according to Modification 4 of Embodiment 1. As illustrated in FIG. In the image display area 4610 of the viewer 4600 in Modification 4, an image photographed by the photographing device 3100 of the vehicle 3400 immediately before entering the tunnel is displayed. At this time, the current location icon 4631 in the map image display area 4630 indicates that the vehicle 3400 is about to enter the tunnel.
A communication control unit 3812 of the information display terminal 3800 acquires road network information related to the position information of the vehicle 3400 from a map server (not shown) via the network 3900 . Then, the display control unit 3811 controls to display a tunnel correction button 4640 suitable for image processing inside the tunnel. That is, the display control unit 3811 performs control to display on the screen a button suggesting image processing for the image based on the road network information. Here, by selecting the tunnel correction button 4640, the image processing unit 3711 automatically performs an appropriate type of correction on the tunnel position. Specifically, when the tunnel correction button 4640 is selected, the image processing unit 3711 adjusts the brightness so as to correct the darkness of the tunnel, or reduces the effects of lighting provided in the tunnel. , image processing is performed to reduce the influence of the lighting equipment of the vehicle ahead. Therefore, appropriate image processing can be performed based on the road network information. Here, the road network information is information about road conditions. More specifically, in addition to tunnel position information, speed regulation information, road width information, weekday 12-hour traffic information, travel This information includes speed information (for a certain section, the distance of the section is divided by the time required to travel, and the required time includes stops due to traffic lights, traffic jams, etc.), lane number information, and the like.

[変形例5]
実施形態1の変形例5を説明する。
図18は、実施形態1の変形例5の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例5のセンサー部3017は、車両3400の加速度情報を計測する。すなわち、変形例5の車両情報には、センサー部3017で計測された加速度情報が含まれる。変形例5におけるビューア4700の映像表示領域4710には、急加速している車両3400の撮影装置3100によって撮影された映像が映し出されている。このとき、加速度グラフ表示領域4720は、X軸の上方向に大きな傾きが見られるグラフとなっており、速度グラフ表示領域4770は、速度が急上昇しているグラフとなっている。また、このとき、ビューア4700には、「1G以上検出」のような加速度表示部4721が設けられてもよい。
表示制御部3811は、車両3400が加速する時の画像処理に適した加速補正ボタン4740を表示するように制御する。すなわち、表示制御部3811は、撮影装置3100を有する車両3400の加速度を検出するセンサー部3017の情報に基づいて加速補正ボタン画面に表示するよう制御する。ここで、加速補正ボタン4740が選択されると、急加速に伴う画面の揺れ及び/又は視界不良等を補正する画像処理が行われる。これにより、移動体の加速度センサーの情報に基づいて適切な画像処理を行えるようにすることができる。撮影装置3100は、撮影部の一例である。車両3400は、移動体の一例である。センサー部3017は、加速度センサーの一例である。加速補正ボタンは、画像に対する画像処理を示唆するオブジェクトの一例である。
また、表示制御部3811は、ユーザーによる1以上の加速度補正の設定を受け付ける。具体的には、表示制御部3811は、ユーザーによる加速度補正を行う数値の入力や加速度グラフ表示領域4720又は速度グラフ表示領域4770へのドラッグ等により1以上の加速度補正の設定を受け付ける。このとき、表示制御部3811は、加速度グラフ表示領域4720又は速度グラフ表示領域4770に補正の種類毎にその範囲に異なる色の帯を表示したり、ドラッグされた範囲を表示したり等する。
[Modification 5]
Modification 5 of Embodiment 1 will be described.
FIG. 18 is a diagram illustrating an example of a screen before image processing, displayed by the display control unit 3811 according to the fifth modification of the first embodiment. The sensor unit 3017 of Modification 5 measures acceleration information of the vehicle 3400 . That is, the vehicle information of Modified Example 5 includes acceleration information measured by the sensor unit 3017 . In the image display area 4710 of the viewer 4700 in Modification 5, an image captured by the imaging device 3100 of the rapidly accelerating vehicle 3400 is displayed. At this time, the acceleration graph display area 4720 is a graph showing a large slope in the upward direction of the X-axis, and the speed graph display area 4770 is a graph showing a rapid increase in speed. At this time, the viewer 4700 may be provided with an acceleration display section 4721 such as "1 G or more detected".
The display control unit 3811 controls to display an acceleration correction button 4740 suitable for image processing when the vehicle 3400 accelerates. That is, the display control unit 3811 controls to display the acceleration correction button screen based on the information from the sensor unit 3017 that detects the acceleration of the vehicle 3400 having the imaging device 3100 . Here, when the acceleration correction button 4740 is selected, image processing for correcting screen shake and/or poor visibility due to sudden acceleration is performed. Accordingly, appropriate image processing can be performed based on the information from the acceleration sensor of the moving body. The imaging device 3100 is an example of an imaging unit. Vehicle 3400 is an example of a mobile object. Sensor unit 3017 is an example of an acceleration sensor. An acceleration correction button is an example of an object that suggests image processing for an image.
The display control unit 3811 also receives one or more acceleration correction settings from the user. Specifically, the display control unit 3811 accepts one or more acceleration correction settings by the user's input of a numerical value for acceleration correction, dragging to the acceleration graph display area 4720 or the speed graph display area 4770, or the like. At this time, the display control unit 3811 displays a band of a different color for each type of correction in the acceleration graph display area 4720 or the velocity graph display area 4770, or displays the dragged area.

[変形例6]
実施形態1の変形例6を説明する。
図19は、実施形態1の変形例6の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例6におけるビューア4800の映像表示領域4810には、車両3400の撮影装置3100によって撮影された映像が映し出されている。また、このとき、車両3400が走行する地図画像表示領域4830中の現在地アイコン4831は、地図上の車両3400の走行する場所を示している。
表示制御部3811は、ユーザー操作等に基づき地図画像表示領域4830上に処理領域4832を設定することができ、現在地アイコン4831がこの領域に入ったときに、霧補正ボタン4840を表示するように制御する。すなわち、表示制御部3811は、撮影装置3100を有する車両3400の位置情報に基づいて画像に対する画像処理を示唆するボタン等を画面に表示するよう制御する。これにより、車両3400の位置情報に基づいて適切な画像処理を行えるようにすることができる。
なお、処理領域4832は、上述したように、ユーザー操作等に基づき、設定されてもよいし、自動で設定されてもよい。例えば、トンネルに入ったら画像を明るくする画像処理のボタンを表示すると設定されている場合、表示制御部3811は、車両3400の位置情報に基づき、車両3400がトンネル内に入ったと判定した場合、画像を明るくする画像処理のボタンを画面に表示するよう制御する。
[Modification 6]
Modification 6 of Embodiment 1 will be described.
FIG. 19 is a diagram showing an example of a screen before image processing, displayed by the display control unit 3811 according to Modification 6 of Embodiment 1. As shown in FIG. In the video display area 4810 of the viewer 4800 in Modification 6, the video captured by the imaging device 3100 of the vehicle 3400 is displayed. At this time, the current location icon 4831 in the map image display area 4830 where the vehicle 3400 is traveling indicates the location where the vehicle 3400 is traveling on the map.
The display control unit 3811 can set a processing area 4832 on the map image display area 4830 based on a user operation or the like, and controls to display the fog correction button 4840 when the current location icon 4831 enters this area. do. That is, the display control unit 3811 performs control to display on the screen a button or the like suggesting image processing for an image based on the position information of the vehicle 3400 having the imaging device 3100 . Accordingly, appropriate image processing can be performed based on the position information of the vehicle 3400. FIG.
As described above, the processing area 4832 may be set based on a user operation or the like, or may be set automatically. For example, if it is set to display an image processing button that brightens the image when entering a tunnel, the display control unit 3811 determines that the vehicle 3400 has entered the tunnel based on the position information of the vehicle 3400, and displays the image. control to display the image processing button to brighten the image on the screen.

[変形例7]
実施形態1の変形例7を説明する。
図20は、実施形態1の変形例7の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例7におけるビューア4900の映像表示領域4910には、曇りのち雨が予想される道を車両3400の撮影装置3100によって撮影された映像が映し出されている。このとき、ビューア4900には、その道における天候情報4911が表示されるようにすることができる。本実施形態では、ビューア4900には、曇のち雨に関する天候情報4911が表示されている。
通信制御部3812は、車両3400の位置情報と、撮影装置3100で撮影された画像に含まれる日時情報と、に基づき、不図示の天候情報提供サーバから、車両3400が通ったルートの天候情報を取得する。そして、表示制御部3811は、車両3400の位置情報と、位置情報に対応する天候情報と、に基づいて、画像処理を示唆するボタンを表示するよう制御する。すなわち、表示制御部3811は、撮影装置3100を有する車両3400の位置情報と画像が撮影された日時の天候情報とに基づいて画像に対する画像処理を示唆するオブジェクトを画面に表示するよう制御する。変形例7においては、ビューアで記録された時間帯に応じた画像補正をかけることができる。例えば、画像処理部3711は、通信制御部3812からの指示と天気情報4911に基づいて、朝と夜と夕方とで異なった画像補正をかけることができる。
変形例7の例では、表示制御部3811は、車両3400の位置情報と、天候情報と、に基づいて、ビューア4900に、雨補正ボタン4941を表示するように制御している。ここで、雨補正ボタン4941が選択されると、雨雲による暗さ及び雨による視界不良等を補正する画像処理が実行される。これにより、車両3400の位置情報とその位置での日時の天候情報に基づいて適切な画像処理を行えるようにすることができる。ここで、天候情報は、曇、雨の他にも、晴、快晴、薄曇、煙霧、砂塵嵐、地吹雪、霧雨、みぞれ、霧、雪、あられ、ひょう、雷を含む情報である。
[Modification 7]
Modification 7 of Embodiment 1 will be described.
FIG. 20 is a diagram showing an example of a screen before image processing, displayed by the display control unit 3811 according to Modification 7 of Embodiment 1. As shown in FIG. In the image display area 4910 of the viewer 4900 in Modification 7, an image captured by the imaging device 3100 of the vehicle 3400 on a cloudy and then rainy road is displayed. At this time, weather information 4911 for that road can be displayed on the viewer 4900 . In this embodiment, the viewer 4900 displays weather information 4911 about cloudy and rainy weather.
The communication control unit 3812 obtains weather information for the route traveled by the vehicle 3400 from a weather information providing server (not shown) based on the location information of the vehicle 3400 and the date and time information included in the image captured by the imaging device 3100. get. Then, the display control unit 3811 performs control to display a button suggesting image processing based on the location information of the vehicle 3400 and the weather information corresponding to the location information. That is, the display control unit 3811 controls to display on the screen an object suggesting image processing for the image based on the positional information of the vehicle 3400 having the imaging device 3100 and the weather information of the date and time when the image was taken. In Modified Example 7, image correction can be applied according to the time period recorded by the viewer. For example, the image processing unit 3711 can apply different image corrections in the morning, at night, and in the evening based on the instruction from the communication control unit 3812 and the weather information 4911 .
In the example of modification 7, the display control unit 3811 controls the viewer 4900 to display the rain correction button 4941 based on the position information of the vehicle 3400 and the weather information. Here, when the rain correction button 4941 is selected, image processing for correcting darkness caused by rain clouds and poor visibility caused by rain is executed. Accordingly, appropriate image processing can be performed based on the location information of the vehicle 3400 and the weather information of the date and time at that location. Here, the weather information includes not only cloudy weather and rain, but also fine weather, fine weather, slightly cloudy weather, haze, dust storm, blizzard, drizzle, sleet, fog, snow, hail, hail, and thunder.

[変形例8]
実施形態1の変形例8を説明する。
図21は、実施形態1の変形例8の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例8におけるビューア5000の映像表示領域5010には、交差点に差し掛かる車両3400の撮影装置3100によって撮影された映像が映し出されている。このとき、地図画像表示領域5030中の現在地アイコン5031は、車両3400が交差点に差し掛かることを示している。速度グラフ表示領域5070は、車両3400が交差点に差し掛かるにあたって、車両3400が減速している様子を示している。
表示制御部3811は、車両3400の減速に応じてブレーキ補正ボタン5040を表示するように制御する。すなわち、表示制御部3811は、撮影装置3100を有する車両3400の操作情報に基づいて画像に対する画像処理を示唆するオブジェクトを画面に表示するよう制御する。ここで、ブレーキ補正ボタン5040が選択されることにより、減速による視界のブレが低減されたり、ブレーキランプによる映像表示領域5010への影響が低減されたりすることができる。これにより、車両3400の操作情報に基づいて適切な画像処理を行えるようにすることができる。ここで、車両3400の操作情報は、車両情報のうち、操作に係る情報である。また、車両情報は、ブレーキの他に、ウィンカーの操作、バック、その他OBD(On-board diagnostics)により取得できる情報を含む。
[Modification 8]
Modification 8 of Embodiment 1 will be described.
FIG. 21 is a diagram showing an example of a screen before image processing, displayed by the display control unit 3811 according to the eighth modification of the first embodiment. In the video display area 5010 of the viewer 5000 in Modification 8, the video captured by the camera 3100 of the vehicle 3400 approaching the intersection is displayed. At this time, the current location icon 5031 in the map image display area 5030 indicates that the vehicle 3400 is approaching the intersection. Speed graph display area 5070 shows how vehicle 3400 decelerates as vehicle 3400 approaches an intersection.
The display control unit 3811 controls to display the brake correction button 5040 according to the deceleration of the vehicle 3400 . That is, the display control unit 3811 performs control to display on the screen an object suggesting image processing for the image based on the operation information of the vehicle 3400 having the imaging device 3100 . Here, by selecting the brake correction button 5040, blurring of the field of view due to deceleration can be reduced, and the influence of the brake lamps on the image display area 5010 can be reduced. Accordingly, appropriate image processing can be performed based on the operation information of the vehicle 3400. FIG. Here, the operation information of the vehicle 3400 is information related to operation among the vehicle information. In addition to the brake, the vehicle information includes operation of the blinker, reverse, and other information that can be acquired by OBD (On-board diagnostics).

[変形例9]
実施形態1の変形例9を説明する。
図22は、実施形態1の変形例9の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例9におけるビューア5100の映像表示領域5110には、車両3400の撮影装置3100によって撮影された映像が映し出されている。このとき、日時表示領域5150には、日時に関する情報が表示される。図22の例では、時刻が夜であることを示している。
表示制御部3811は、画像の属性情報である日時情報に基づいて夜補正ボタン5140を表示するように制御する。すなわち、表示制御部3811は、画像が撮影された日時に基づいて画像に対する画像処理を示唆するボタンを画面に表示するよう制御する。ここで、夜補正ボタン5140が選択されることにより、夜の暗さを明るく補正して周りに何があるかを表示できるようにする。これにより、画像が撮影された日時に基づいて適切な画像処理を行えるようにすることができる。
ここで、夜補正ボタンは、日時に基づいて画像に対する画像処理を示唆するボタンの一例であり、例えば、夕焼けによる明るさを補正して視界を明確にするためのボタン等であってもよい。
なお、上記変形例3から変形例9までの補正を組み合わせた自動補正を実行するように構成されてもよい。変形例3から変形例9までの補正の組み合わせはOR条件で設定されてもよいし、AND条件で設定されてもよい。
[Modification 9]
Modification 9 of Embodiment 1 will be described.
FIG. 22 is a diagram showing an example of a screen before image processing, displayed by the display control unit 3811 according to the ninth modification of the first embodiment. In the image display area 5110 of the viewer 5100 in Modification 9, the image captured by the image capturing device 3100 of the vehicle 3400 is displayed. At this time, information about the date and time is displayed in the date and time display area 5150 . The example in FIG. 22 indicates that the time is night.
The display control unit 3811 controls to display the night correction button 5140 based on the date and time information, which is the image attribute information. That is, the display control unit 3811 performs control to display on the screen a button suggesting image processing for the image based on the date and time when the image was captured. Here, by selecting the night correction button 5140, it is possible to correct the darkness of the night and display what is around. Accordingly, it is possible to perform appropriate image processing based on the date and time when the image was taken.
Here, the night correction button is an example of a button that suggests image processing for an image based on the date and time.
It should be noted that the automatic correction may be performed by combining the corrections of Modifications 3 to 9 described above. A combination of corrections of Modifications 3 to 9 may be set using an OR condition, or may be set using an AND condition.

[変形例10]
実施形態1の変形例10を説明する。
図23は、実施形態1の変形例10の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例10におけるビューア5200の映像表示領域5210には、天候が霧の路面を走行する車両3400の撮影装置3100により撮影された画像が映し出されている。また、映像表示領域5210の一部である霧補正領域5211には、霧補正がされた結果が表示されている。すなわち、霧補正領域5221には、撮影装置3100で撮影された画像の一部に対して行われた画像処理の結果が表示されている。霧補正領域5221に対する画像処理の実行が指示された場合、画像処理部3711は、撮影装置3100で撮影された画像の一部に対して画像処理を実行する。また、霧補正領域5211は、画像処理を行う前にユーザー操作等に応じて設定された領域である。つまり、画像の一部とは、撮影装置3100で撮影された画像の全領域のうち設定された領域である。
より具体的に説明すると、表示制御部3811は、一部処置ボタン5245が選択され、画面上において範囲を指定すること等によって、画像処理の範囲を設定する。次に、表示制御部3811は、霧補正ボタン5240が選択されると、設定した範囲が、霧補正が行われる霧補正領域5211であることを決定する。すると、情報表示端末3800の通信制御部3812は、ネットワーク3900を介してサーバ3700に霧補正領域5211について霧補正を行うよう要求する。要求を受け取ると、画像処理部3711は、霧補正領域5211について霧補正を実行する。通信制御部3812は、霧補正領域5211について霧補正された結果を取得する。表示制御部3811は、霧補正領域5211について画像処理をした結果を表示する。これにより、撮影された画像の一部に対して画像処理を行うことができる。また、これにより、画像処理を行う領域を設定することができる。
[Modification 10]
Modification 10 of Embodiment 1 will be described.
FIG. 23 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 of Modification 10 of Embodiment 1. As shown in FIG. In the video display area 5210 of the viewer 5200 in Modification 10, an image captured by the image capture device 3100 of the vehicle 3400 traveling on a foggy road surface is displayed. Also, in a fog correction area 5211 that is part of the image display area 5210, the result of fog correction is displayed. That is, in the fog correction area 5221, the result of image processing performed on part of the image captured by the imaging device 3100 is displayed. When an instruction to perform image processing on the fog correction area 5221 is given, the image processing unit 3711 performs image processing on part of the image captured by the imaging device 3100 . A fog correction area 5211 is an area set according to a user operation or the like before performing image processing. In other words, the part of the image is the set area out of the entire area of the image captured by the imaging device 3100 .
More specifically, when the partial treatment button 5245 is selected, the display control unit 3811 sets the range of image processing by specifying the range on the screen. Next, when the fog correction button 5240 is selected, the display control unit 3811 determines that the set range is the fog correction area 5211 where fog correction is performed. Then, the communication control unit 3812 of the information display terminal 3800 requests the server 3700 via the network 3900 to perform fog correction on the fog correction area 5211 . Upon receiving the request, the image processing unit 3711 performs fog correction on the fog correction area 5211 . The communication control unit 3812 acquires the result of fog correction for the fog correction area 5211 . The display control unit 3811 displays the result of image processing performed on the fog correction area 5211 . Accordingly, image processing can be performed on a portion of the captured image. Also, this makes it possible to set an area for which image processing is to be performed.

[変形例11]
実施形態1の変形例11を説明する。
図24は、実施形態1の変形例11の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例11におけるビューア5300の映像表示領域5310には、一例として夜中に車両3400の撮影装置3100によって撮影された映像が映し出されている。また、映像表示領域5310の一部である夜補正領域5311には、夜補正がされた結果が表示されている。さらに、日時表示領域5350は、時刻が夜であることが示されている。日時表示領域5350が夜である場合に、夜補正領域5311には、夜補正がされた結果が表示される。すなわち、画像に対する画像処理は、撮影装置3100で撮影された画像の一部に対する画像処理であり、画像の一部とは、撮影装置3100で撮影された画像のうち設定された時間帯に撮影された画像である。
表示制御部3811は、一部処置ボタン5345への操作及び画像の日時情報に基づいて、画像処理の範囲を設定する。次に、表示制御部3811は、夜補正ボタン5340への操作に基づいて、その範囲が夜の時刻に補正が行われる夜補正領域5311であることを決定する。さらに、通信制御部3812は、ネットワーク3900を介してサーバ3700に夜補正領域5311について画像処理をするよう指示をする。次に、画像処理部3711は、夜補正領域5311について画像処理を実行する。さらに、通信制御部3812は、夜補正領域5311について画像処理をした結果を取得する。最後に、表示制御部3811は、夜補正領域5311について画像処理をした結果を表示する。これにより、設定された時間帯に撮影された画像の一部の領域に対して適切に画像処理を行えるようにすることができる。
変形例11では、一部処置ボタン5345及び夜補正ボタン5340を例に説明を行ったが、表示制御部3811は、ビューア5300に時間帯を入力する手段を設け、この手段を介して入力された時間帯に撮影された画像に対して、設定された画像処理を実行するよう指示するようにしてもよい。
[Modification 11]
Modification 11 of Embodiment 1 will be described.
FIG. 24 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 according to the eleventh modification of the first embodiment. In the image display area 5310 of the viewer 5300 in Modification 11, as an example, an image captured by the imaging device 3100 of the vehicle 3400 in the middle of the night is displayed. Also, in a night correction area 5311 that is part of the image display area 5310, the result of night correction is displayed. Further, the date and time display area 5350 indicates that the time is night. When the date and time display area 5350 is night, the night correction area 5311 displays the result of night correction. That is, image processing for an image is image processing for a part of an image captured by the imaging device 3100, and the part of the image is an image captured by the imaging device 3100 during a set time zone. This is an image.
The display control unit 3811 sets the range of image processing based on the operation of the partial treatment button 5345 and the date and time information of the image. Next, based on the operation of the night correction button 5340, the display control unit 3811 determines that the range is the night correction area 5311 where correction is performed at night time. Furthermore, the communication control unit 3812 instructs the server 3700 via the network 3900 to perform image processing on the night correction area 5311 . Next, the image processing section 3711 executes image processing on the night correction area 5311 . Furthermore, the communication control unit 3812 acquires the result of image processing performed on the night correction area 5311 . Finally, the display control unit 3811 displays the result of image processing performed on the night correction area 5311 . Accordingly, it is possible to appropriately perform image processing on a partial area of an image captured during the set time period.
In Modified Example 11, the partial treatment button 5345 and the night correction button 5340 have been described as examples. It is also possible to instruct to execute the set image processing for the images shot during the time period.

[変形例12]
実施形態1の変形例12を説明する。
図25は、実施形態1の変形例12の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例12の位置情報取得部3020は、車両3400の位置情報を取得する。すなわち、変形例12のその他の情報には、位置情報取得部3020が取得した位置情報が含まれる。変形例12におけるビューア5400の映像表示領域5410には、車両3400の撮影装置3100によって撮影された映像が映し出されている。また、映像表示領域5410の一部である霧補正領域5411には、霧補正がされた結果が表示されている。さらに、地図画像表示領域5430中の現在地アイコン5431は、地図上の車両3400の走行する場所を示している。また、地図画像表示領域5430には、処理領域5432が表示されている。この処理領域5432内に現在地アイコン5431がある場合に、霧補正領域5411には、霧補正がされた結果が表示される。すなわち、画像に対する画像処理は、撮影装置3100で撮影された画像の一部に対する画像処理であり、画像の一部とは、撮影装置3100を有する車両3400の位置情報が、設定された範囲内で撮影された画像である。
まず、表示制御部3811は、一部処置ボタン5445への操作及び位置情報に基づいて、画像処理の範囲を設定する。次に、霧補正ボタン5440の操作に基づいて、その範囲が所定の位置に霧補正が行われる霧補正領域5411であることを決定する。さらに、通信制御部3812は、ネットワーク3900を介してサーバ3700に霧補正領域5411について画像処理をするよう指示をする。次に、画像処理部3711は、霧補正領域5411について画像処理を実行する。さらに、通信制御部3812は、霧補正領域5411について画像処理をした結果を取得する。最後に、表示制御部3811は、霧補正領域5411について画像処理をした結果を表示する。これにより、設定された位置を移動する車両3400が撮影した画像の一部の領域に対して適切に画像処理を行えるようにすることができる。
変形例12では、一部処置ボタン5445及び霧補正ボタン5440を例に説明を行ったが、表示制御部3811は、ビューア5300に緯度情報及び経度情報を入力する手段を設け、この手段を介して入力された緯度及び経度で撮像された画像に対して、設定された画像処理を実行するよう指示するようにしてもよい。
なお、位置情報の入力は緯度情報及び経度情報に限られず、表示制御部3811は、ビューア5300に表示された地図上でユーザーが選択した範囲内の位置において撮像された画像に対して、設定された画像処理を実行するよう指示するようにしてもよい。
また、表示制御部3811は、ビューア5300にユーザーの車の履歴ルート情報を表示し、表示した履歴ルート上においてユーザーが選択した範囲内の位置において撮像された画像に対して、設定された画像処理を実行するよう指示するようにしてもよい。
[Modification 12]
Modification 12 of Embodiment 1 will be described.
FIG. 25 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 of Modification 12 of Embodiment 1. As shown in FIG. The location information acquisition unit 3020 of Modification 12 acquires the location information of the vehicle 3400 . That is, the other information of Modification 12 includes the position information acquired by the position information acquisition unit 3020 . In the image display area 5410 of the viewer 5400 in the twelfth modification, an image captured by the imaging device 3100 of the vehicle 3400 is displayed. Also, in a fog correction area 5411 that is part of the image display area 5410, the result of fog correction is displayed. Further, a current location icon 5431 in the map image display area 5430 indicates the location where the vehicle 3400 travels on the map. A processing area 5432 is displayed in the map image display area 5430 . When the current location icon 5431 is within the processing area 5432, the result of fog correction is displayed in the fog correction area 5411. FIG. That is, the image processing for an image is image processing for a part of the image captured by the imaging device 3100, and the part of the image means that the position information of the vehicle 3400 having the imaging device 3100 is within a set range. This is a photographed image.
First, the display control unit 3811 sets the range of image processing based on the operation of the partial treatment button 5445 and the position information. Next, based on the operation of the fog correction button 5440, it is determined that the range is the fog correction area 5411 where fog correction is performed at a predetermined position. Furthermore, the communication control unit 3812 instructs the server 3700 via the network 3900 to perform image processing on the fog correction area 5411 . Next, the image processing section 3711 executes image processing on the fog correction area 5411 . Furthermore, the communication control unit 3812 acquires the result of image processing performed on the fog correction area 5411 . Finally, the display control unit 3811 displays the result of image processing performed on the fog correction area 5411 . Accordingly, it is possible to appropriately perform image processing on a partial area of an image captured by vehicle 3400 moving in a set position.
In the modification 12, the partial treatment button 5445 and the fog correction button 5440 have been described as an example. It is also possible to instruct execution of set image processing on an image captured at the input latitude and longitude.
Note that input of position information is not limited to latitude information and longitude information. It is also possible to instruct to execute image processing.
In addition, the display control unit 3811 displays the history route information of the user's vehicle on the viewer 5300, and the set image processing is applied to the image captured at the position within the range selected by the user on the displayed history route. may be instructed to execute

[変形例13]
実施形態1の変形例13を説明する。
図26は、実施形態1の変形例13の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例13におけるビューア5500の映像表示領域5510には、曇りのち雨が予想される道を車両3400の撮影装置3100によって撮影された映像が映し出されている。また、映像表示領域5510の一部である曇補正領域5511には、曇補正がされた結果が表示されている。さらに、ビューア5500には、その道における天候情報5512を表示されるようにすることができる。ここで、ビューア5500には、曇のち雨に関する天候情報5512が表示されている。この再生している画像の日時の天候が曇である場合に、曇補正領域5511には、曇補正がされた結果が表示される。すなわち、画像に対する画像処理は、撮影装置3100で撮影された画像の一部に対する画像処理であり、画像の一部とは、撮影装置3100を有する車両3400の位置における画像が撮影された日時の天候情報が設定された天気を示す画像である。
まず、情報表示端末3800の通信制御部3812は、車両3400の位置情報と、撮影装置3100で撮影された画像に含まれる日時情報と、に基づき、不図示の天候情報提供サーバから、車両3400が通ったルートの天候情報を取得する。次に、表示制御部3811は、一部処置ボタン5545への操作、時刻情報、天候情報等に基づいて、画像処理の範囲を設定する。さらに、曇補正ボタン5540の操作に基づいて、その範囲が所定の位置に曇補正が行われる曇補正領域5511であることを決定する。さらに、通信制御部3812は、ネットワーク3900を介してサーバ3700に曇補正領域5511について画像処理をするよう指示をする。次に、画像処理部3711は、曇補正領域5511について画像処理を実行する。さらに、通信制御部3812は、曇補正領域5511について画像処理をした結果を取得する。最後に、表示制御部3811は、曇補正領域5511について画像処理をした結果を表示する。これにより、車両3400の位置における天候に基づいて撮影した画像の一部の領域に対して適切に画像処理を行えるようにすることができる。ここで、天候情報は、曇、雨の他にも、晴、快晴、薄曇、煙霧、砂塵嵐、地吹雪、霧雨、みぞれ、霧、雪、あられ、ひょう、雷を含む情報である。
[Modification 13]
Modification 13 of Embodiment 1 will be described.
FIG. 26 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 of Modification 13 of Embodiment 1. As shown in FIG. In the image display area 5510 of the viewer 5500 in the thirteenth modification, an image captured by the imaging device 3100 of the vehicle 3400 on a cloudy and then rainy road is displayed. Also, in a fog correction area 5511 that is part of the image display area 5510, the result of fog correction is displayed. In addition, the viewer 5500 can display weather information 5512 for that road. Here, the viewer 5500 displays weather information 5512 relating to rain after cloudy weather. If the weather at the date and time of the reproduced image is cloudy, the result of cloudiness correction is displayed in the cloudiness correction area 5511 . That is, the image processing for an image is image processing for a part of the image captured by the imaging device 3100, and the part of the image is the weather at the date and time when the image at the position of the vehicle 3400 having the imaging device 3100 was captured. It is the image which shows the weather with which the information was set.
First, the communication control unit 3812 of the information display terminal 3800, based on the location information of the vehicle 3400 and the date and time information included in the image captured by the image capturing device 3100, determines whether the vehicle 3400 is detected by a weather information providing server (not shown). Get weather information for the route you traveled. Next, the display control unit 3811 sets the range of image processing based on the operation of the partial treatment button 5545, time information, weather information, and the like. Further, based on the operation of the fogging correction button 5540, the range is determined to be the fogging correction area 5511 where the fogging correction is performed at a predetermined position. Furthermore, the communication control unit 3812 instructs the server 3700 via the network 3900 to perform image processing on the fogging correction area 5511 . Next, the image processing section 3711 performs image processing on the fogging correction area 5511 . Furthermore, the communication control unit 3812 acquires the result of image processing performed on the fogging correction area 5511 . Finally, the display control unit 3811 displays the result of image processing performed on the fogging correction area 5511 . As a result, it is possible to appropriately perform image processing on a partial region of the image captured based on the weather at the position of the vehicle 3400 . Here, the weather information includes not only cloudy weather and rain, but also fine weather, fine weather, slightly cloudy weather, haze, dust storm, blizzard, drizzle, sleet, fog, snow, hail, hail, and thunder.

[変形例14]
実施形態1の変形例14を説明する。
図27は、実施形態1の変形例14の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例14のセンサー部3017は、車両3400の加速度情報を計測する。すなわち、変形例14の車両情報には、センサー部3017で計測された加速度情報が含まれる。変形例14におけるビューア5600の映像表示領域5610には、急加速している車両3400の撮影装置3100によって撮影された映像が映し出されている。このとき、加速度グラフ表示領域5620は、X軸の上方向に大きな傾きが見られるグラフとなっており、速度グラフ表示領域5670は、速度が急上昇しているグラフとなっている。また、このとき、ビューア5600には、「1G以上検出」のような加速度表示部5621が設けられてもよい。また、映像表示領域5610の一部である加速度補正領域5611には、加速度補正がされた結果が表示されている。さらに、車両3400の加速度センサーが1G以上を検出した場合に、加速度補正領域5611には、加速度補正がされた結果が表示される。すなわち、画像に対する画像処理は、撮影装置3100で撮影された画像の一部に対する画像処理であり、画像の一部とは、撮影装置3100を有する車両3400のセンサー情報が設定された閾値内の画像である。
まず、情報表示端末3800の通信制御部3812は、ネットワーク3900を介してサーバ3700から画像情報及び車両3400の加速度情報等を取得する。次に、表示制御部3811は、一部処置ボタン5645への操作、車両3400の加速度情報等に基づいて、画像処理の範囲を設定する。さらに、加速補正ボタン5640の操作に基づいて、その範囲が所定の位置に加速度補正が行われる加速度補正領域5611であることを決定する。次に、通信制御部3812は、ネットワーク3900を介してサーバ3700に加速度補正領域5611について画像処理をするよう指示をする。さらに、画像処理部3711は、加速度補正領域5611について画像処理を実行する。次に、通信制御部3812は、加速度補正領域5611について画像処理をした結果を取得する。最後に、表示制御部3811は、加速度補正領域5611について画像処理をした結果を表示する。これにより、車両3400のセンサー情報に基づいて撮影した画像の一部の領域に対して適切に画像処理を行えるようにすることができる。ここで、センサー情報は、車両3400の加速度の他に、車両3400の速度(車速)、エンジン回転数、エンジン負荷率、スロットル開度、点火時期、残り燃料の割合、インテークマニホールドの圧力、吸入空気量(MAF)、インジェクション開時間、エンジン冷却水の温度(冷却水温度)、エンジンに吸気される空気の温度(吸気温度)、車外の気温(外気温度)、燃料タンクの残り燃料の量(残燃料量)、燃料流量、瞬間燃費、アクセル開度、ウインカー情報(左右のウインカーの動作(オン/オフ))、ブレーキ開度、ハンドルの回転操舵角、ギヤポジション、及びドア開閉状態の情報等の情報を含む。
なお、上記変形例10から変形例14までの補正を組み合わせた自動補正を実行するように構成されてもよい。変形例10から変形例14までの補正の組み合わせは、OR条件で設定してもよいし、AND条件で設定されてもよい。
[Modification 14]
Modification 14 of Embodiment 1 will be described.
FIG. 27 is a diagram illustrating an example of a screen after image processing, displayed by the display control unit 3811 according to the fourteenth modification of the first embodiment. The sensor unit 3017 of Modification 14 measures acceleration information of the vehicle 3400 . That is, the vehicle information of Modified Example 14 includes acceleration information measured by the sensor unit 3017 . In the video display area 5610 of the viewer 5600 in the fourteenth modification, a video captured by the imaging device 3100 of the vehicle 3400 that is rapidly accelerating is displayed. At this time, the acceleration graph display area 5620 is a graph in which a large slope can be seen in the upward direction of the X-axis, and the speed graph display area 5670 is a graph in which the speed is rapidly increasing. At this time, the viewer 5600 may be provided with an acceleration display section 5621 such as "1 G or more detected". Also, in an acceleration correction area 5611 that is part of the video display area 5610, the result of acceleration correction is displayed. Furthermore, when the acceleration sensor of vehicle 3400 detects 1 G or more, the result of acceleration correction is displayed in acceleration correction area 5611 . That is, the image processing for the image is image processing for a part of the image captured by the imaging device 3100, and the part of the image is an image within the threshold for which the sensor information of the vehicle 3400 having the imaging device 3100 is set. is.
First, the communication control unit 3812 of the information display terminal 3800 acquires image information, acceleration information of the vehicle 3400 and the like from the server 3700 via the network 3900 . Next, the display control unit 3811 sets the range of image processing based on the operation of the partial treatment button 5645, the acceleration information of the vehicle 3400, and the like. Further, based on the operation of the acceleration correction button 5640, it is determined that the range is the acceleration correction area 5611 in which acceleration correction is performed at a predetermined position. Next, the communication control unit 3812 instructs the server 3700 via the network 3900 to perform image processing on the acceleration correction area 5611 . Furthermore, the image processing unit 3711 performs image processing on the acceleration correction area 5611 . Next, the communication control unit 3812 acquires the result of image processing performed on the acceleration correction area 5611 . Finally, the display control unit 3811 displays the result of image processing performed on the acceleration correction area 5611. FIG. Accordingly, it is possible to appropriately perform image processing on a partial area of an image captured based on sensor information of the vehicle 3400 . In addition to the acceleration of the vehicle 3400, the sensor information includes the speed of the vehicle 3400 (vehicle speed), engine speed, engine load factor, throttle opening, ignition timing, percentage of remaining fuel, intake manifold pressure, intake air amount (MAF), injection opening time, temperature of engine cooling water (cooling water temperature), temperature of air taken into the engine (intake air temperature), air temperature outside the vehicle (outside air temperature), amount of remaining fuel in the fuel tank (remaining fuel amount), fuel flow rate, instantaneous fuel consumption, accelerator opening, turn signal information (left and right turn signal operation (on/off)), brake opening, steering angle of steering wheel, gear position, and information on door open/close status, etc. Contains information.
It should be noted that the automatic correction may be performed by combining the corrections of Modifications 10 to 14 described above. A combination of corrections from modified examples 10 to 14 may be set using an OR condition, or may be set using an AND condition.

[変形例15]
実施形態1の変形例15を説明する。
図28は、実施形態1の変形例15の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例15におけるビューア5700の映像表示領域5710には、車両3400の撮影装置3100によって撮影された映像が映し出されている。
表示制御部3811は、予めの設定から補正を掛ける範囲として自動霧補正領域5711を設定したり、ユーザーの操作から補正を掛ける範囲として手動霧補正領域5713を設定したりするように制御する。また、表示制御部3811は、自動霧補正領域5711に対して「自動処理」といった処理内容表示部5712の表示をし、手動霧補正領域5713に対して「手動処理」といった処理内容表示部5714の表示をするように制御する。すなわち、画面には、画像処理が行われる範囲が自動で選択されたか、手動で選択されたかの情報が含まれる。これにより、実行された画像処理の範囲が、手動でつけた範囲と自動的についた範囲が区別することができる。
[Modification 15]
Modification 15 of Embodiment 1 will be described.
FIG. 28 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 of Modification 15 of Embodiment 1. As shown in FIG. In the image display area 5710 of the viewer 5700 in the fifteenth modification, an image captured by the imaging device 3100 of the vehicle 3400 is displayed.
The display control unit 3811 performs control so as to set an automatic fog correction area 5711 as a range in which correction is applied from preset settings, and to set a manual fog correction area 5713 as a range to apply correction from user's operation. In addition, the display control unit 3811 causes the processing content display unit 5712 to display "automatic processing" for the automatic fog correction area 5711, and the processing content display unit 5714 to display "manual processing" for the manual fog correction area 5713. control to display. That is, the screen includes information as to whether the range for which image processing is to be performed has been automatically selected or manually selected. As a result, it is possible to distinguish between the manually added range and the automatically added range of the executed image processing.

[変形例16]
実施形態1の変形例16を説明する。
図29は、実施形態1の変形例16の表示制御部3811が表示する、画面の一例を示す図である。変形例16におけるビューア5800の映像表示領域5810には、画像処理前のオリジナル画像表示部5811と、画像処理後の処理1結果表示部5813と、画像処理後の処理2結果表示部5815と、画像処理後の処理3結果表示部5817とが、異なる複数のストリームとして表示しされている。それぞれの表示部には、車両3400の撮影装置3100によって撮影された映像が映し出されている。すなわち、画面には、撮影装置3100で撮影された画像と、1以上の画像処理後の画像と、が含まれる。
表示制御部3811は、ストリーム表示ボタン5845の選択により、複数の画像を表示するように制御する。また、ここで、表示制御部3811は、複数の画像を時間的に前後に並べてつなげて表示してもよい。さらに、ここで、表示制御部3811は、オリジナル画像表示部5811に対して「オリジナル」といったオリジナル表示部5812の表示をし、処理1結果表示部5813に対して「処理1」といった処理1内容表示部5814の表示をし、処理2結果表示部5815に対して「処理2」といった処理2内容表示部5816の表示をし、処理3結果表示部5817に対して「処理3」といった処理3内容表示部5818の表示をするように制御する。これにより、画像処理の前後を比較して表示することができる。
また、表示制御部3811は、オリジナル画像表示部5811、処理1結果表示部5813、処理2結果表示部5815及び処理3結果表示部5817を複数のストリームとして表示する。さらに、表示制御部3811は、オリジナル画像表示部5811、処理1結果表示部5813、処理2結果表示部5815及び処理3結果表示部5817を書き出し対象又は再生対象等として、それぞれ選択可能に表示する。このとき、表示制御部3811は、選択された表示部について、再生するように制御をしたり、画像ファイルとして出力するように制御したりすることができる。変形例16では、表示制御部3811は、候補映像ウインドウである処理1結果表示部5813、処理2結果表示部5815及び処理3結果表示部5817を複数開いて元映像ウインドウであるオリジナル画像表示部5811と時間的に同期して再生する。表示制御部3811は、ユーザーの選択ボタン等の操作により、その中から最もよいものの選択を受け付ける。記憶制御部3813は、選択結果と、元映像の情報との関係性と、を記憶部3820に記憶する。さらに、記憶制御部3813は、記憶した選択結果と、元映像の情報との関係性と、に基づいて、ユーザーの画像処理の傾向を学習モデルに機械学習させ、記憶部3820にその結果を記憶する。表示制御部3811は、機械学習の結果に基づいて、画像処理を調整する。すなわち、表示制御部3811は、1以上の画像処理後の画像の選択に関する学習情報に基づいて、画像処理のパラメータを調整する。これにより、選択された画像処理結果を学習し、以降の画像処理をより適切に行えるようにすることができる。また、表示制御部3811は、画像の一部に対して画像処理を行ってもよい。
[Modification 16]
Modification 16 of Embodiment 1 will be described.
FIG. 29 is a diagram showing an example of a screen displayed by the display control unit 3811 of Modification 16 of Embodiment 1. As shown in FIG. In the video display area 5810 of the viewer 5800 in Modification 16, an original image display portion 5811 before image processing, a processing 1 result display portion 5813 after image processing, a processing 2 result display portion 5815 after image processing, and an image A processing 3 result display portion 5817 after processing is displayed as a plurality of different streams. An image captured by the image capturing device 3100 of the vehicle 3400 is displayed on each display unit. That is, the screen includes an image captured by the imaging device 3100 and an image after one or more image processes.
The display control unit 3811 controls to display a plurality of images by selecting the stream display button 5845 . Further, here, the display control unit 3811 may arrange and display a plurality of images in chronological order. Further, here, the display control unit 3811 displays the original display unit 5812 such as "original" on the original image display unit 5811, and displays the contents of the processing 1 such as "processing 1" on the processing 1 result display unit 5813. 5814 is displayed, the processing 2 content display section 5816 such as "processing 2" is displayed in the processing 2 result display section 5815, and the processing 3 content display such as "processing 3" is displayed in the processing 3 result display section 5817. It controls to display the part 5818 . Thereby, before and after image processing can be compared and displayed.
Further, the display control unit 3811 displays the original image display unit 5811, the process 1 result display unit 5813, the process 2 result display unit 5815, and the process 3 result display unit 5817 as multiple streams. Furthermore, the display control unit 3811 selectively displays an original image display unit 5811, a processing 1 result display unit 5813, a processing 2 result display unit 5815, and a processing 3 result display unit 5817 as a write target, a playback target, or the like. At this time, the display control unit 3811 can control the selected display unit to reproduce or output as an image file. In modification 16, the display control unit 3811 opens a plurality of processing 1 result display units 5813, processing 2 result display units 5815, and processing 3 result display units 5817, which are candidate video windows, and displays the original image display unit 5811, which is the source video window. Play in sync with the time. The display control unit 3811 accepts the selection of the best one among them by the user's operation of the selection button or the like. The storage control unit 3813 stores the selection result and the relationship between the information of the original video in the storage unit 3820 . Furthermore, the storage control unit 3813 causes the learning model to perform machine learning of the user's image processing tendency based on the stored selection result and the relationship with the information of the original video, and stores the result in the storage unit 3820. do. The display control unit 3811 adjusts image processing based on the results of machine learning. That is, the display control unit 3811 adjusts the image processing parameters based on the learning information regarding the selection of one or more images after image processing. Thereby, the selected image processing result can be learned, and subsequent image processing can be performed more appropriately. Also, the display control unit 3811 may perform image processing on a part of the image.

[変形例17]
実施形態1の変形例17を説明する。
図30は、実施形態1の変形例17の表示制御部3811が表示する、画像処理後の画面の一例を示す図である。変形例17におけるビューア5900の映像表示領域5910には、車両3400の撮影装置3100によって撮影された映像が映し出されている。
表示制御部3811は、霧補正ボタン5940が選択されることにより、霧補正の画像処理結果を映像表示領域5910に表示をするように制御する。また、表示制御部3811は、映像表示領域5910に対して「霧補正中」といった処理内容表示部5911の表示をするように制御する。すなわち、画面には、撮影装置3100で撮影された画像に対してどのような画像処理を行ったかの情報が含まれる。これにより、どのような画像処理が行われたかを確認することができる。
[Modification 17]
Modification 17 of Embodiment 1 will be described.
FIG. 30 is a diagram showing an example of a screen after image processing, displayed by the display control unit 3811 according to the seventeenth modification of the first embodiment. In the video display area 5910 of the viewer 5900 in Modification 17, the video captured by the imaging device 3100 of the vehicle 3400 is displayed.
When the fog correction button 5940 is selected, the display control unit 3811 controls to display the fog correction image processing result in the image display area 5910 . Further, the display control unit 3811 controls the image display area 5910 so that the processing content display unit 5911 displays “Fog correction in progress”. That is, the screen includes information about what kind of image processing was performed on the image captured by the image capturing device 3100 . This makes it possible to confirm what kind of image processing has been performed.

[変形例18]
実施形態1の変形例18を説明する。
図31は、実施形態1の変形例18の表示制御部3811が表示する、画面の一例を示す図である。変形例18におけるビューア6000のプレイリスト表示領域6080には、記憶部3720又は記憶部3820内の録画情報が表示されている。
記憶制御部3813は、撮影装置3100で撮影された画像に対してどのような画像処理を行ったかの情報をログ情報として記憶部3820に記憶する。このとき、記憶制御部3813は、ログ情報について、撮影中に変化しないスタティック(静的)なものと、撮影中の映像状態等によって変化するダイナミック(動的)なものと、に分けて記録するように制御することができる。より具体的に説明すると、記憶制御部3813は、静的なものはファイルに対して1つ、動的なものは少なくともその変化点に1つ望ましくはすべてのフレーム等複数のフレームに渡って、記録するように制御する。また、変形例18において、霧除去処理を行って記録するか、行わずに記録するかのユーザーの選択に従った記録を行う機能を備え、ビューアでいずれが選択されていたかを判定可能な情報を記録する機能を備えてもよい。サーバ3700の記憶制御部3713は、記憶部3720に対して同様の処理を行うことができる。表示制御部3811は、これらのログ情報を異なるタイミングで読み込んで処理するように制御することができる。また、記憶制御部3813は、ドライブレコーダのイメージセンサーや後述するISPのパラメータ等の画質に関わるドライブレコーダのパラメータを、そのパラメータで撮影したドライブレコーダの映像データと関連付けて記録するように構成されてもよい。このとき、表示制御部3811は、ビューアやドライブレコーダでの再生時に、このパラメータを用いた再生を行うようにしてもよい。表示制御部3811は、このパラメータを用いた再生を行うときには、このパラメータを用いずに再生を行うかを切り替える機能を備えていてもよい。
また、このとき、表示制御部3811は、撮影装置3100で撮影された画像に対してどのような画像処理を行ったかの情報を表示することができる。すなわち、表示制御部3811は、プレイリスト6081のように、撮影装置3100で撮影された画像に対して、どのようなタイミングでどのような画像処理がされたかを表示するように制御する。これにより、どのような画像処理が行われたかを確認することができる。
さらに、プレイリスト6081の再生時、表示制御部3811は、画像処理前の画像を再生するか、ログ情報を基に画像処理後の画像を再生するかを選択できるように表示してもよい。さらに、このとき、表示制御部3811は、ログ情報に基づいて画像処理後の画像から画像処理前の画像に変換して画面に出力するように構成されてもよい。このとき、画像処理部3711は、記憶部3720内の画像処理に関するログ情報及び画像処理後の画像を基に元の画像に戻すように画像処理を行う。次に、通信制御部3812は、元の画像に戻された画像を取得する。さらに、表示制御部3811は、この元の画像に戻された画像を表示する。これにより、画像処理後の画像を画像処理前の元の画像に戻すことができる。
[Modification 18]
Modification 18 of Embodiment 1 will be described.
FIG. 31 is a diagram showing an example of a screen displayed by the display control unit 3811 of Modification 18 of Embodiment 1. As shown in FIG. Recording information in the storage unit 3720 or the storage unit 3820 is displayed in the playlist display area 6080 of the viewer 6000 in the eighteenth modification.
The storage control unit 3813 stores information about what kind of image processing was performed on the image captured by the image capturing device 3100 in the storage unit 3820 as log information. At this time, the storage control unit 3813 divides and records the log information into static log information that does not change during shooting and dynamic log information that changes depending on the video state during shooting. can be controlled as follows. More specifically, the storage control unit 3813 stores one static file for one file and one dynamic file for at least one change point. Control to record. Further, in Modified Example 18, a function is provided for recording according to the user's selection of recording with or without fogging removal processing, and information that enables determination of which one was selected by the viewer. may be provided with a function to record The storage control unit 3713 of the server 3700 can perform similar processing on the storage unit 3720 . The display control unit 3811 can control to read and process these pieces of log information at different timings. In addition, the storage control unit 3813 is configured to record drive recorder parameters relating to image quality, such as drive recorder image sensors and ISP parameters described later, in association with drive recorder video data shot with the parameters. good too. At this time, the display control unit 3811 may perform playback using this parameter during playback with a viewer or drive recorder. The display control unit 3811 may have a function of switching whether to perform playback without using this parameter when performing playback using this parameter.
Also, at this time, the display control unit 3811 can display information about what kind of image processing has been performed on the image captured by the imaging device 3100 . That is, the display control unit 3811 performs control to display what timing and what image processing was performed on the image captured by the image capture device 3100, as in the playlist 6081 . This makes it possible to confirm what kind of image processing has been performed.
Furthermore, when playing back the playlist 6081, the display control unit 3811 may display so as to select whether to play back the image before image processing or play back the image after image processing based on the log information. Further, at this time, the display control unit 3811 may be configured to convert an image after image processing into an image before image processing based on the log information and output the image to the screen. At this time, the image processing unit 3711 performs image processing so as to restore the original image based on the log information regarding the image processing in the storage unit 3720 and the image after the image processing. Next, the communication control unit 3812 acquires the image restored to the original image. Furthermore, the display control unit 3811 displays the image restored to the original image. As a result, the image after image processing can be restored to the original image before image processing.

[変形例19]
実施形態1の変形例19を説明する。
図32は、実施形態1の変形例19の表示制御部3811が表示する、画像処理前の画面の一例を示す図である。変形例19におけるビューア6100の映像表示領域6110には、霧の中を走る車両3400の撮影装置3100によって撮影された映像が映し出されている。
サーバ3700の画像処理部3711は、画像を解析し、霧を検出する。次に、通信制御部3712は、霧を検出した結果を情報表示端末3800に送信する。その後、表示制御部3811は、霧を検出という情報に基づいて、「霧を検出」といった検出情報表示部6111を表示するように制御する。また、このとき、表示制御部3811は、霧を検出という情報に基づいて、霧補正ボタン6140を表示するように制御する。すなわち、表示制御部3811は、画像から検出された物体に応じて画面に含まれるボタンを変更する。これにより、画像内の物体に基づいて画像処理の方法を変更することができる。
[Modification 19]
Modification 19 of Embodiment 1 will be described.
FIG. 32 is a diagram showing an example of a screen before image processing, displayed by the display control unit 3811 according to the nineteenth modification of the first embodiment. In the image display area 6110 of the viewer 6100 in Modification 19, an image captured by the imaging device 3100 of the vehicle 3400 running in the fog is displayed.
An image processing unit 3711 of the server 3700 analyzes the image and detects fog. Next, the communication control section 3712 transmits the fog detection result to the information display terminal 3800 . After that, the display control unit 3811 controls the detection information display unit 6111 to display "fog detected" based on the information indicating that fog is detected. Also, at this time, the display control unit 3811 controls to display the fog correction button 6140 based on the information that fog is detected. That is, the display control unit 3811 changes the buttons included in the screen according to the object detected from the image. This allows the image processing method to be changed based on the object in the image.

[変形例20]
実施形態1の変形例20を説明する。
図33は、実施形態1の変形例20の表示制御部3811が表示する、画面の一例を示す図である。変形例20におけるビューア6200には、画像処理調整領域6290が含まれる。表示制御部3811は、ユーザーによる画像処理調整領域6290の操作により、画質パラメータの調整を受け付ける。画像処理調整領域6290には、色相調整オブジェクト6291と、明るさ調整オブジェクト6292と、コントラスト調整オブジェクト6293と、彩度調整オブジェクト6294と、ガンマ値調整オブジェクト6295と、シグマ値調整オブジェクト6296と、半径調整オブジェクト6297と、変動量調整オブジェクト6298と、が含まれる。色相調整オブジェクト6291の選択により、画像の色相を調整する画像処理が実行される。また、明るさ調整オブジェクト6292の選択により、画像の明るさを調整する画像処理が実行される。さらに、コントラスト調整オブジェクト6293の選択により、画像のコントラストを調整する画像処理が実行される。また、彩度調整オブジェクト6294の選択により、画像の彩度を調整する画像処理が実行される。さらに、ガンマ値調整オブジェクト6295の選択により、画像のガンマ値を調整する画像処理が実行される。また、シグマ値調整オブジェクト6296の選択により、画像のシグマ値を調整する画像処理が実行される。さらに、画像の一部に対して処理がされている場合、半径調整オブジェクト6297の選択により、画像処理がされる領域と画像処理がされない領域の境界線を調整する画像処理が実行される。変動量調整オブジェクト6298の選択により、単位時間当たりの画像の数量を調整する画像処理が実行される。つまり、画面には、画像処理の程度を調整する調整オブジェクトが含まれる。変形例20では、各調整オブジェクトは、スライダー形式で表示されているが、スライダーの他にもラジオボタン、チェックボックス、プルダウンメニュー等を用いてもよい。
表示制御部3811は、これらの調整オブジェクトに設けられた操作部の操作を受け付けると、受け付けた操作に応じて、画像処理の程度を調整する。例えば、変形例20において、色相調整オブジェクト6291が左端に移動させられると、表示制御部3811は、色相を0にする画像処理を画像処理部3711に対して要求する。また、色相調整オブジェクト6291が中央に移動させられると、表示制御部3811は、色相を50にする画像処理を画像処理部3711に対して要求する。さらに、色相調整オブジェクト6291が右端に移動させられると、表示制御部3811は、色相を100にする画像処理を画像処理部3711に対して要求する。明るさ調整オブジェクト6292、コントラスト調整オブジェクト6293、彩度調整オブジェクト6294、ガンマ値調整オブジェクト6295、シグマ値調整オブジェクト6296、半径調整オブジェクト6297及び変動量調整オブジェクト6298についても同様である。すなわち、表示制御部3811は、調整オブジェクトの操作に応じて、画像処理の程度を調整する。これにより、明暗等の画像処理の程度を調整することができる。
また、調整オブジェクトは、画像を記録又は再生しながら調整するように構成することができる。このとき、記憶制御部3813は、調整オブジェクトの操作のタイミングと、画像の記録タイミング又は画像の再生タイミングと、を関連付けて記憶するように制御する。これにより、どのようなタイミングで画像処理の程度の調整がされたかわかるようになる。
さらに、記憶制御部3813は、調整結果と、元映像の情報との関係性と、を記憶部3820に記憶する。さらに、記憶制御部3813は、記憶した調整結果と、元映像の情報との関係性と、に基づいて、ユーザーの画像処理の傾向を学習モデルに機械学習させ、記憶部3820にその結果を記憶する。表示制御部3811は、この機械学習の結果に基づいて、画像処理を調整する。すなわち、表示制御部3811は、過去の画像処理の調整の程度の学習情報に基づいて、画像処理の程度を調整する。これにより、画像処理の程度の調整結果を学習し、以降の画像処理をより適切に行えるようにすることができる。また、表示制御部3811は、画像の一部に対して画像処理を行ってもよい。
また、表示制御部3811は、ドライブレコーダで補正を加えられた画質パラメータについては、ビューアではさらに補正を加える処理を控える方向の処理を指示できるように構成されてもよい。一方で、表示制御部3811は、ドライブレコーダで補正を加えていない又は補正できない画質パラメータについては、ビューアではより補正を加える方向での処理を指示できるように構成されてもよい。
[Modification 20]
Modification 20 of Embodiment 1 will be described.
FIG. 33 is a diagram showing an example of a screen displayed by the display control unit 3811 of Modification 20 of Embodiment 1. As shown in FIG. The viewer 6200 in Modification 20 includes an image processing adjustment area 6290 . The display control unit 3811 accepts adjustment of image quality parameters by user's operation of the image processing adjustment area 6290 . The image processing adjustment area 6290 includes a hue adjustment object 6291, a brightness adjustment object 6292, a contrast adjustment object 6293, a saturation adjustment object 6294, a gamma value adjustment object 6295, a sigma value adjustment object 6296, and a radius adjustment object 6296. An object 6297 and a variation adjustment object 6298 are included. Selection of the hue adjustment object 6291 executes image processing for adjusting the hue of the image. Also, by selecting the brightness adjustment object 6292, image processing for adjusting the brightness of the image is executed. Furthermore, selection of the contrast adjustment object 6293 executes image processing for adjusting the contrast of the image. Also, by selecting the saturation adjustment object 6294, image processing for adjusting the saturation of the image is executed. Further, selection of the gamma value adjustment object 6295 executes image processing for adjusting the gamma value of the image. Also, selection of the adjust sigma value object 6296 performs image processing to adjust the sigma value of the image. Furthermore, when a part of the image is processed, selection of the radius adjustment object 6297 executes image processing for adjusting the boundary line between the area to be image processed and the area not to be image processed. By selecting the variation amount adjustment object 6298, image processing for adjusting the number of images per unit time is executed. That is, the screen includes an adjustment object that adjusts the degree of image processing. In Modified Example 20, each adjustment object is displayed in a slider format, but radio buttons, check boxes, pull-down menus, and the like may be used instead of sliders.
When the display control unit 3811 receives an operation of the operation unit provided for these adjustment objects, the display control unit 3811 adjusts the degree of image processing according to the received operation. For example, in modification 20, when the hue adjustment object 6291 is moved to the left end, the display control unit 3811 requests the image processing unit 3711 to perform image processing to set the hue to 0. Also, when the hue adjustment object 6291 is moved to the center, the display control section 3811 requests the image processing section 3711 to perform image processing to set the hue to 50. FIG. Furthermore, when the hue adjustment object 6291 is moved to the right end, the display control section 3811 requests the image processing section 3711 to perform image processing to set the hue to 100. FIG. The same applies to brightness adjustment object 6292, contrast adjustment object 6293, saturation adjustment object 6294, gamma value adjustment object 6295, sigma value adjustment object 6296, radius adjustment object 6297, and variation amount adjustment object 6298. That is, the display control section 3811 adjusts the degree of image processing according to the operation of the adjustment object. This makes it possible to adjust the degree of image processing such as brightness.
Also, the adjustment object can be configured to adjust while the image is being recorded or played back. At this time, the storage control unit 3813 performs control so that the timing of operation of the adjustment object and the timing of recording the image or the timing of reproducing the image are stored in association with each other. This makes it possible to know at what timing the degree of image processing was adjusted.
Furthermore, the storage control unit 3813 stores the relationship between the adjustment result and the information of the original video in the storage unit 3820 . Furthermore, the storage control unit 3813 causes the learning model to perform machine learning on the tendency of the user's image processing based on the relationship between the stored adjustment result and the information of the original video, and stores the result in the storage unit 3820. do. The display control unit 3811 adjusts image processing based on the results of this machine learning. That is, the display control unit 3811 adjusts the degree of image processing based on learning information about the degree of adjustment of past image processing. As a result, it is possible to learn the adjustment result of the degree of image processing, and to perform subsequent image processing more appropriately. Also, the display control unit 3811 may perform image processing on a part of the image.
Further, the display control unit 3811 may be configured to instruct processing in the direction of refraining from further correcting the image quality parameter corrected by the drive recorder in the viewer. On the other hand, the display control unit 3811 may be configured to instruct the viewer to perform more correction for image quality parameters that have not been corrected or cannot be corrected by the drive recorder.

[変形例21]
実施形態1の変形例21を説明する。
図34は、実施形態1の変形例21の表示制御部3811が表示する、画面の一例を示す図である。変形例21におけるビューア6300には、画像処理調整領域6390が含まれる。画像処理調整領域6390には、画像固定指示部6391と、シャープネス固定指示部6392と、バンディングノイズ除去固定指示部6393と、フィルム粒状化固定指示部6394と、が含まれる。つまり、画面には、調整オブジェクトによる調整を禁止する固定指示部が含まれる。固定指示部は、固定指示オブジェクトの一例である。
表示制御部3811は、調整オブジェクトを固定する固定指示部に固定指示がされた場合には、調整オブジェクトの操作の変更を禁止する。言い換えると、表示制御部3811は、これらの固定指示部を操作することにより、画像処理の程度の調整を固定することができる。例えば、変形例21において、画像固定指示部6391のチェックボックスにチェックを入れることで、表示制御部3811は、画像調整の領域内にある「色相」、「明るさ」、「コントラスト」、「彩度」及び「ガンマ」について、その程度の調整を固定する。このとき、表示制御部3811は、その固定された調整オブジェクトの画質調整結果を表示するすなわち、表示制御部3811は、固定指示オブジェクトの操作に応じて、調整オブジェクトによる調整を禁止する。これにより、画像処理の程度を固定することができる。このとき、表示制御部3811は、「色相」、「明るさ」、「コントラスト」、「彩度」及び「ガンマ」について、調整が固定されているように表示する。例えば、表示制御部3811は、固定指示部の操作のチェックボックスがチェックされることで、調整オブジェクトの操作部の色を薄く表示し、操作できなくしたり、調整オブジェクトの操作部を非表示にして、操作できなくしたりする。
[Modification 21]
Modification 21 of Embodiment 1 will be described.
FIG. 34 is a diagram showing an example of a screen displayed by the display control unit 3811 of Modification 21 of Embodiment 1. As shown in FIG. The viewer 6300 in Modification 21 includes an image processing adjustment area 6390 . The image processing adjustment area 6390 includes an image fixing instruction portion 6391 , a sharpness fixing instruction portion 6392 , a banding noise removal fixing instruction portion 6393 , and a film graining fixing instruction portion 6394 . That is, the screen includes a fixed instruction section that prohibits adjustment by the adjustment object. A fixed instruction part is an example of a fixed instruction object.
The display control unit 3811 prohibits changing the operation of the adjustment object when a fixation instruction is given to the fixation instruction unit that fixes the adjustment object. In other words, the display control section 3811 can fix the adjustment of the degree of image processing by operating these fixing instruction sections. For example, in Modified Example 21, by checking the check box of the image fixation instruction section 6391, the display control section 3811 controls the "hue", "brightness", "contrast", and "saturation" in the image adjustment area. For "degrees" and "gamma", the degree of adjustment is fixed. At this time, the display control unit 3811 displays the image quality adjustment result of the fixed adjustment object, that is, the display control unit 3811 prohibits adjustment by the adjustment object according to the operation of the fixed instruction object. This makes it possible to fix the degree of image processing. At this time, the display control unit 3811 displays the “hue”, “brightness”, “contrast”, “saturation”, and “gamma” so that the adjustments are fixed. For example, the display control unit 3811 displays the operation part of the adjustment object in a light color so that it cannot be operated, or hides the operation part of the adjustment object when the check box for the operation of the fixed instruction part is checked. , make it inoperable.

[変形例22]
実施形態1の変形例22を説明する。
図35は、実施形態1の変形例22の表示制御部3811が表示する、画面の一例を示す図である。変形例22におけるビューア6400には、ファイルボタン6401が展開されることで、「ファイルの参照」、「上書き保存」、「名前を付けて保存」、「処理結果を書出」、「位置情報を削除して書出」及び「閉じる」の画像出力に関するオプションが表示された状態が映し出されている。すなわち、画面には、画像出力オブジェクトが含まれる。
表示制御部3811は、ファイルボタン6401が選択されることにより、「ファイルの参照」、「上書き保存」、「名前を付けて保存」、「処理結果を書出」、「位置情報を削除して書出」及び「閉じる」等のファイルの処理に関するメニューを表示するように制御する。何れかのファイルに関する処理を選択することにより、その処理が行われる。ここで、制御部3810は、「位置情報を削除して書出」が選択された場合は、画像情報に紐づく位置情報を削除して、画像情報を出力する。言い換えると、制御部3810は、画像出力オブジェクトの操作に応じて、画像の位置情報を削除して画像を出力する。これにより、画像に紐づく位置情報を削除する操作をすることができる。ここで、制御部3810は、「位置情報を削除して書出」が選択された場合、位置情報を削除した投稿用の映像を書き出してもよい。ここで、投稿用の映像とは、動画投稿用の形式に変換された映像である。このとき、制御部3810は、投稿用の動画について、タイトルやサムネイル等を自動で設定してもよい。また、制御部3810は、「処理結果を書出」が選択された場合は、画像情報に紐づく位置情報を削除せずに、画像情報を出力する。ここで、制御部3810は、「処理結果を書出」が選択された場合、位置情報を削除しない投稿用の映像を書き出してもよい。さらに、制御部3810は、画像情報を出力する場合、画像処理前の画像のみを出力するように構成してもよいし、画像処理後の画像を出力してもよいし、画像処理前の画像と画像処理後の画像を同時に出力するように構成してもよい。また、制御部3810は、投稿用の書き出し機能を使用する場合、元の映像と加工後の映像を1つのファイルに格納してアップロードする機能を備えるように構成してもよい。このとき、書き出される映像は、両映像を並べたストリームとされてもよいし、両映像を時間的に前後に並べてつなげた映像ストリームとされてもよい。また、このとき、制御部3810は、それぞれの映像が「元映像」「加工後の映像」であることを示す表示を埋め込んで書き出してもよい。さらに、制御部3810は、映像の書き出し時に映像を書き出す場所的範囲を矩形等で選択する機能を備えるように構成されてもよい。このとき、画質の補正は、選択された範囲内にのみ行ってから再エンコードして書き出して行われることが好ましい。
[Modification 22]
Modification 22 of Embodiment 1 will be described.
FIG. 35 is a diagram showing an example of a screen displayed by the display control unit 3811 of Modification 22 of Embodiment 1. As shown in FIG. A file button 6401 is expanded on the viewer 6400 in the modified example 22, so that "reference file", "overwrite save", "save as", "write process result", and "write position information" are displayed. A state in which options for image output of "delete and export" and "close" are displayed is displayed. That is, the screen includes an image output object.
When the file button 6401 is selected, the display control unit 3811 performs "reference file", "overwrite save", "save as", "write process result", and "delete position information". Controls to display a menu related to file processing such as "Export" and "Close". By selecting a process for any file, that process is performed. Here, when “write after deleting position information” is selected, the control unit 3810 deletes the position information linked to the image information and outputs the image information. In other words, the control unit 3810 deletes the position information of the image and outputs the image according to the operation of the image output object. As a result, it is possible to perform an operation to delete the position information associated with the image. Here, when “write after deleting position information” is selected, control unit 3810 may write out the video for posting with the position information deleted. Here, the video for posting is a video converted into a video posting format. At this time, the control unit 3810 may automatically set the title, thumbnail, etc. of the video for posting. In addition, when “write processing result” is selected, the control unit 3810 outputs the image information without deleting the position information associated with the image information. Here, when “write processing result” is selected, control unit 3810 may write out a video for posting without deleting the position information. Furthermore, when outputting image information, the control unit 3810 may be configured to output only an image before image processing, may output an image after image processing, or may output an image before image processing. and an image after image processing may be output at the same time. Further, when using the writing function for posting, the control unit 3810 may be configured to have a function of storing the original video and the processed video in one file and uploading the file. At this time, the video to be written out may be a stream in which both videos are arranged side by side, or may be a video stream in which both videos are arranged chronologically and connected. Also, at this time, the control unit 3810 may embed and write out a display indicating that each video is the “original video” and the “processed video”. Furthermore, the control unit 3810 may be configured to have a function of selecting a locational range for writing a video by using a rectangle or the like when writing the video. At this time, it is preferable to correct the image quality only within the selected range and then re-encode and write out the data.

[変形例23]
実施形態1の変形例23を説明する。
図36は、実施形態1の変形例23の表示制御部3811が表示する、画面の一例を示す図である。変形例23におけるビューア6500の映像表示領域6510には、他車両6511の後ろを走る車両3400の撮影装置3100によって撮影された映像が映し出されている。映像表示領域6510には、HDRボタン6541の操作に基づいて、HDR化処理がされることにより、他車両6511を特定できるナンバープレート情報6512が含まれる。
表示制御部3811は、映像表示領域6510にナンバープレート情報6512のような個人を特定可能な情報が含まれている場合は、個人情報処理ボタン6540を表示するように制御する。表示制御部3811は、個人情報処理ボタン6540の操作に基づき、ナンバープレート情報6512をマスクして表示するように制御する。すなわち、表示制御部3811は、画像処理された画像に個人を特定可能な情報が含まれている場合は、個人を特定可能な情報に対してマスク処理の実行を要求する。これにより、個人を特定可能な情報が含まれないよう適切に画像処理を行えるようにすることができる。ここで、個人を特定可能な情報は、氏名、生年月日、顔、ナンバープレート、特定の個人に結び付けられる情報等を含む情報である。
[Modification 23]
Modification 23 of Embodiment 1 will be described.
FIG. 36 is a diagram showing an example of a screen displayed by the display control unit 3811 of Modification 23 of Embodiment 1. As shown in FIG. In the image display area 6510 of the viewer 6500 in the modification 23, the image captured by the image capturing device 3100 of the vehicle 3400 running behind the other vehicle 6511 is displayed. Video display area 6510 includes license plate information 6512 that can identify other vehicle 6511 by performing HDR conversion processing based on operation of HDR button 6541 .
The display control unit 3811 controls to display a personal information processing button 6540 when the video display area 6510 contains information that can identify an individual, such as the license plate information 6512 . The display control unit 3811 performs control to mask and display the license plate information 6512 based on the operation of the personal information processing button 6540 . In other words, when the processed image contains information that can identify an individual, the display control unit 3811 requests execution of mask processing for the information that can identify an individual. As a result, it is possible to appropriately perform image processing so that information that can identify an individual is not included. Here, the information that can identify an individual is information including name, date of birth, face, license plate, information linked to a specific individual, and the like.

[変形例24]
上述した実施形態では、例えば、図12に示されるように、複数の画像処理それぞれに対応するボタンが情報表示端末3800の画面に表示される例を用いて説明を行った。しかしながら、情報表示端末3800には、複数の画像処理それぞれよりは少ない数のボタンを表示するようにしてもよい。そして、表示制御部3811は、設定された、ボタンに対応する操作に応じて、画像処理部3711等に対して、画像処理を要求するようにしてもよい。より具体的に説明すると、表示制御部3811は、例えば、1つのボタンを画面に表示し、ボタンがクリックされると、第1の画像処理を画像処理部3711等に対して要求し、ボタンがダブルクリックされると、第2の画像処理を画像処理部3711等に対して要求し、ボタンがトリプルクリックされると、第3の画像処理を画像処理部3711等に対して要求するようにしてもよい。
変形例24によれば、少ないボタンで、ユーザーが望む画像処理を指示することが可能な画面を提供することができる。
[Modification 24]
In the above-described embodiment, for example, as shown in FIG. 12, an example in which buttons corresponding to each of a plurality of image processes are displayed on the screen of the information display terminal 3800 has been described. However, the information display terminal 3800 may display a smaller number of buttons than each of the plurality of image processes. Then, the display control unit 3811 may request image processing to the image processing unit 3711 or the like according to the set operation corresponding to the button. More specifically, the display control unit 3811 displays, for example, one button on the screen, and when the button is clicked, requests the image processing unit 3711 or the like to perform the first image processing. When the button is double-clicked, the image processing unit 3711 or the like is requested to perform the second image processing, and when the button is triple-clicked, the image processing unit 3711 or the like is requested to perform the third image processing. good too.
According to Modification 24, it is possible to provide a screen on which the user can instruct desired image processing with a small number of buttons.

[実施形態2]
実施形態1では、サーバ3700にて画像処理を行い、情報表示端末3800からその画像を表示する場合について述べた。
変形例では、図37及び図38を用いて、情報処理端末6800が画像処理及びその画像を表示する場合について、説明する。
[Embodiment 2]
In the first embodiment, the server 3700 performs image processing and the information display terminal 3800 displays the image.
In the modified example, a case where the information processing terminal 6800 performs image processing and displays the image will be described with reference to FIGS. 37 and 38. FIG.

[情報処理システム6600のシステム構成]
図37は、実施形態2の変形例に係る情報処理システム6600のシステム構成を示す概略図である。図37に示されるように、情報処理システム6600は、車両3400、複数の情報処理端末6800D、6800E、6800F及びネットワーク3900により構成される。車両3400は、ネットワーク3900を介して複数の情報処理端末6800D、6800E、6800Fと通信可能に構成される。より具体的に説明すると、車両3400は、ネットワーク3900を介して車両3400の持つ情報を複数の情報処理端末6800D、6800E、6800Fに送信する。複数の情報処理端末6800D、6800E、6800Fは、ネットワーク3900を介して車両3400と通信可能に構成される。より具体的に説明すると、複数の情報処理端末6800D、6800E、6800Fは、ネットワーク3900を介して複数の情報処理端末6800D、6800E、6800Fの情報を取得する。
[System configuration of information processing system 6600]
FIG. 37 is a schematic diagram showing the system configuration of an information processing system 6600 according to the modification of the second embodiment. As shown in FIG. 37, the information processing system 6600 includes a vehicle 3400, a plurality of information processing terminals 6800D, 6800E, 6800F, and a network 3900. FIG. Vehicle 3400 is configured to be able to communicate with a plurality of information processing terminals 6800D, 6800E, 6800F via network 3900 . More specifically, vehicle 3400 transmits information possessed by vehicle 3400 to a plurality of information processing terminals 6800D, 6800E, and 6800F via network 3900. FIG. A plurality of information processing terminals 6800D, 6800E, 6800F are configured to be able to communicate with vehicle 3400 via network 3900 . More specifically, the plurality of information processing terminals 6800D, 6800E, 6800F acquire information of the plurality of information processing terminals 6800D, 6800E, 6800F via the network 3900. FIG.

[情報処理端末6800の機能構成]
図38は、実施形態2の変形例に係る情報処理端末6800の機能構成を示す概略図である。なお、情報処理端末6800のハードウェア構成は、実施形態1の情報表示端末3800のハードウェア構成と同様である。すなわち、情報処理端末6800の制御部が、情報処理端末6800の記憶部に記憶されているプログラムに基づき処理を実行することによって、図38に示される情報処理端末6800の機能構成等が実現される。
図38に示されるように、情報処理端末6800は、機能構成として、表示制御部6811、通信制御部6812、記憶制御部6813及び画像処理部6814を含む。
[Functional Configuration of Information Processing Terminal 6800]
FIG. 38 is a schematic diagram showing the functional configuration of an information processing terminal 6800 according to the modification of the second embodiment. The hardware configuration of the information processing terminal 6800 is the same as that of the information display terminal 3800 of the first embodiment. That is, the control unit of information processing terminal 6800 executes processing based on the program stored in the storage unit of information processing terminal 6800, thereby realizing the functional configuration of information processing terminal 6800 shown in FIG. .
As shown in FIG. 38, the information processing terminal 6800 includes a display control unit 6811, a communication control unit 6812, a storage control unit 6813, and an image processing unit 6814 as functional configurations.

表示制御部6811は、情報処理端末6800の出力部(不図示)に出力する情報を制御する。より具体的に説明すると、表示制御部6811は、画像に関する情報を含む画面を表示するよう制御する。 A display control unit 6811 controls information to be output to an output unit (not shown) of the information processing terminal 6800 . More specifically, the display control unit 6811 controls to display a screen including information about an image.

通信制御部6812は、ネットワーク3900を介してサーバ3700との情報のやり取りを制御する。 A communication control unit 6812 controls exchange of information with the server 3700 via the network 3900 .

記憶制御部6813は、情報処理端末6800の記憶部内に情報を記憶したり、記憶した情報を取得したりする。 The storage control unit 6813 stores information in the storage unit of the information processing terminal 6800 and acquires the stored information.

画像処理部6814は、画面を介した操作指示に基づき、情報処理端末6800の記憶部内の画像について、画像処理を実行する。これにより、情報処理端末6800は、画像処理を実行することができる。実施形態2では、画像処理部6814が、情報表示端末3800の画面を介した要求等に基づいて様々な画像処理を行うものとして説明を行う。しかし、情報処理端末6800は、画像処理ごとの画像処理部を有するようにしてもよい。また、情報処理端末6800のソフトウェアが画像処理を行うのではなく、情報処理端末6800の専用のハードウェア(例えば、GPU等)が画像処理を行うようにしてもよい。専用のハードウェアが画像処理を行う場合は、情報処理端末6800の1つのハードウェアが複数の画像処理を行うよう構成されてもよいし、複数の画像処理それぞれに対応する情報処理端末6800の複数のハードウェアがそれぞれ画像処理を行うよう構成されてもよい。 The image processing unit 6814 executes image processing on the images in the storage unit of the information processing terminal 6800 based on the operation instruction via the screen. Accordingly, the information processing terminal 6800 can execute image processing. In the second embodiment, the image processing unit 6814 performs various image processing based on requests through the screen of the information display terminal 3800 and the like. However, the information processing terminal 6800 may have an image processing unit for each image processing. Further, instead of software of the information processing terminal 6800 performing image processing, dedicated hardware (for example, GPU, etc.) of the information processing terminal 6800 may perform image processing. When dedicated hardware performs image processing, one hardware of the information processing terminal 6800 may be configured to perform a plurality of image processes, or a plurality of information processing terminals 6800 corresponding to each of the plurality of image processes may be configured. may be configured to perform image processing respectively.

実施形態2によれば、情報処理端末側で画像処理を行うことができる。 According to the second embodiment, image processing can be performed on the information processing terminal side.

[実施形態3]
実施形態3では、車両3400の撮影装置3100内で画像処理を行う例について説明する。
[Embodiment 3]
In the third embodiment, an example in which image processing is performed within the imaging device 3100 of the vehicle 3400 will be described.

制御部3011は、撮影部3015で撮影した画像を記憶媒体3500に記録する。制御部3011は、記録した画像をプロセッサ3111により画像処理を行う。このとき、制御部3011は、どのような画像処理をどのようなタイミングで行ったのかを記憶媒体3500に記録する。このとき、制御部3011は、記憶媒体3500に記録した情報を、ネットワーク3900を介して送信することができる。 The control unit 3011 records the image captured by the imaging unit 3015 in the storage medium 3500 . The control unit 3011 causes the processor 3111 to perform image processing on the recorded image. At this time, the control unit 3011 records in the storage medium 3500 what kind of image processing was performed and at what timing. At this time, the control section 3011 can transmit the information recorded in the storage medium 3500 via the network 3900 .

制御部3011は、撮影装置3100での再生中に、所定の操作をすることで、画像処理した画像を書き出すように制御をする。制御部3011は、撮影装置3100内で画像処理した画像の書き出し中には、所定の報知を行う。より具体的に説明すると、制御部3011は、撮影装置3100内で画像処理した画像の書き出し中には、「エンジンを切らないでください」という表示を表示部3013に表示するように制御したり、「エンジンを切らないでください」という音声を音声出力部3014から出力するように制御したりする。これらの報知は、継続的(繰り返し)に行うことができる。 The control unit 3011 performs control to write out an image that has undergone image processing by performing a predetermined operation during playback in the imaging device 3100 . The control unit 3011 gives a predetermined notification while the image processed in the imaging device 3100 is being written. More specifically, the control unit 3011 controls the display unit 3013 to display a message "Please do not turn off the engine" while the image processed in the imaging device 3100 is being written, Control is performed such that a voice saying “Please do not turn off the engine” is output from the voice output unit 3014 . These notifications can be continuously (repeatedly) performed.

また、実施形態3では、制御部3011は、霧の除去が可能な画像処理機能を備えてもよい。このときは、制御部3011は、ユーザーの操作により、対象の映像について、霧の除去を行う。次に、制御部3011は、ユーザーの操作により、霧除去処理を行った後の映像を記録する。さらに、制御部3011は、霧除去処理を行う前の映像を再現して再生可能に構成されてもよい。この再現は、制御部3011は、霧除去処理を行う前の映像を、霧除去処理を行った後のデータと関連づけて記録することで実行してもよいし、霧除去処理による霧除去の度合いを示す情報を霧除去後の映像に関連づけて記録し、この情報を用いて実行してもよい。例えば、運転者が見ていた状態と映像の補正後の状態の差が大きいと、本来運転者が見ていた状態と異なる映像で記録され、運転者にとっては自分が事故を起こしたとき不利になってしまう可能性があるが、霧除去処理による霧除去の度合いを把握可能とすることができる。 Further, in the third embodiment, the control unit 3011 may have an image processing function capable of removing fog. At this time, the control unit 3011 removes the fog from the target image by the user's operation. Next, the control unit 3011 records the image after performing the fog removal process by the user's operation. Furthermore, the control unit 3011 may be configured to reproduce and reproduce the image before performing the fog removal process. This reproduction may be executed by the control unit 3011 recording an image before the fog removal process in association with data after the fog removal process, or by recording the image before the fog removal process. may be recorded in association with the image after defogging, and may be executed using this information. For example, if there is a large difference between what the driver saw and the corrected image, the image will be different from what the driver originally saw, which would be a disadvantage for the driver if he or she were to cause an accident. However, it is possible to grasp the degree of fog removal by the fog removal process.

また、制御部3011は、霧除去処理を行って記録するか、行わずに記録するかのユーザーの選択に従った記録を行う機能を備えていてもよい。さらに、制御部3011は、これらの情報を情報表示端末にて表示する機能を有していてもよい。制御部3011は、霧除去処理を行って記録されていたか、行わずに記録されていたかいずれが選択されていたかを情報表示端末のビューア上において判定可能な情報を記録する機能を備えてもよい。なお、このときのドライブレコーダから情報表示端末への情報の受け渡しは、ネットワーク3900を介してもよいし、SDカード等の情報記録媒体を用いてもよい。 The control unit 3011 may also have a function of performing recording according to the user's selection of whether to perform recording with or without performing the fog removal process. Furthermore, the control section 3011 may have a function of displaying these information on an information display terminal. The control unit 3011 may have a function of recording information that can be determined on the viewer of the information display terminal as to whether the recording was performed with the fog removal processing performed or the recording was performed without performing the processing. . Information may be transferred from the drive recorder to the information display terminal at this time via the network 3900 or using an information recording medium such as an SD card.

実施形態3によれば、車両側で画像処理を行うことができる。 According to the third embodiment, image processing can be performed on the vehicle side.

[実施形態4]
続いて、実施形態4について説明する。実施形態4は、図1に示される情報処理システム3000によって実施されてもよい。図39は、記憶部22及び制御部23によって実現される機能ブロック図である。図39に示される制御部23は、例えば、情報表示端末3800A、3800B、3800C等に具備される制御部3810であってもよい。図39に示される記憶部22は、例えば、情報表示端末3800A、3800B、3800C等に具備される記憶部3820であってもよい。
[Embodiment 4]
Next, Embodiment 4 will be described. Embodiment 4 may be implemented by the information processing system 3000 shown in FIG. FIG. 39 is a functional block diagram realized by the storage section 22 and the control section 23. As shown in FIG. The controller 23 shown in FIG. 39 may be, for example, the controller 3810 provided in the information display terminals 3800A, 3800B, 3800C, and the like. The storage unit 22 shown in FIG. 39 may be, for example, the storage unit 3820 provided in the information display terminals 3800A, 3800B, 3800C, and the like.

記憶部22は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部23によって実行される情報表示端末3800に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶部32は、制御部33によって実行される情報表示端末3800に係る種々のプログラムとして、例えば画像データIMのビューアとなる第1のプログラムP1及び第2のプログラムP2を記憶してもよい。 The storage unit 22 stores various information defined by the above description. For example, it can be used as a storage device such as a solid state drive (SSD) for storing various programs related to the information display terminal 3800 executed by the control unit 23, or as a temporary storage device related to program calculation. It can be implemented as a memory such as a Random Access Memory (RAM) that stores information (arguments, arrays, etc.) required for the . A combination of these may also be used. In particular, the storage unit 32 may store, as various programs related to the information display terminal 3800 executed by the control unit 33, for example, a first program P1 and a second program P2 that serve as viewers of the image data IM. .

制御部23は、記憶部22に記憶された各種プログラムを実行することにより、取得部231、受付部232、補正部233、解除部234および表示制御部235として機能してもよい。すなわち、記憶部22に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部23によって具体的に実現されることで、制御部23に含まれる各機能部として実行されてもよい。以下、制御部23に関する各機能部について説明する。 The control unit 23 may function as an acquisition unit 231 , a reception unit 232 , a correction unit 233 , a cancellation unit 234 and a display control unit 235 by executing various programs stored in the storage unit 22 . That is, information processing by software stored in the storage unit 22 may be specifically realized by the control unit 23 which is an example of hardware, and may be executed as each function unit included in the control unit 23 . Each functional unit related to the control unit 23 will be described below.

取得部231は、種々の情報を取得するように構成されてもよい。例えば、取得部231は、取得ステップとして、移動体の状態又は状況に関する特定情報IF1を取得してもよい。これについては後にさらに詳述する。 The acquisition unit 231 may be configured to acquire various information. For example, the acquisition unit 231 may acquire specific information IF1 regarding the state or situation of the moving body as the acquisition step. This will be explained in more detail later.

受付部232は、種々の情報を受け付けるように構成されてもよい。例えば、受付部232は、第1の受付ステップとして、ユーザーによる第1の入力を受け付けてもよい。受付部232は、第2の受付ステップとして、ユーザーによる第2の入力を受け付けてもよい。これについては後にさらに詳述する。 The reception unit 232 may be configured to receive various types of information. For example, the reception unit 232 may receive a first input from the user as the first reception step. The accepting unit 232 may accept a second input from the user as a second accepting step. This will be explained in more detail later.

補正部233は、補正処理を実行するように構成されてもよい。例えば、補正部233は、第1の補正ステップとして、特定情報IF1に基づいて、この特定情報IF1に対応する時間における、移動体が有する撮影装置3100が生成した画像データIMへの第1の補正処理を実行してもよい。なお、第1の補正処理は、例えば人工知能等のプログラムによる自動補正処理を含んでもよい。補正部233は、第2の補正ステップとして、第2の入力に基づいて、画像データIMへの第2の補正処理を実行してもよい。なお、第2の補正処理は、例えばユーザーの入力に基づく任意の手動補正処理を含んでもよい。さらに、補正部233は、準備ステップと、処理ステップとを実行してもよい。これについては後にさらに詳述する。 The correction unit 233 may be configured to perform correction processing. For example, as a first correction step, the correction unit 233 performs the first correction to the image data IM generated by the imaging device 3100 of the moving body at the time corresponding to the specific information IF1 based on the specific information IF1. processing may be performed. Note that the first correction processing may include automatic correction processing by a program such as artificial intelligence, for example. As a second correction step, the correction unit 233 may perform a second correction process on the image data IM based on the second input. Note that the second correction process may include any manual correction process based on user input, for example. Furthermore, the correction unit 233 may perform a preparation step and a processing step. This will be explained in more detail later.

解除部234は、補正部233による補正処理を解除するように構成されてもよい。例えば、解除部234は、解除ステップとして、第1の入力に基づいて、画像データIMに対する第1の補正処理を解除してもよい。これについては後にさらに詳述する。 The cancellation unit 234 may be configured to cancel the correction processing by the correction unit 233 . For example, as the canceling step, the canceling unit 234 may cancel the first correction process on the image data IM based on the first input. This will be explained in more detail later.

表示制御部235は、種々の視覚情報を、表示可能な表示部に表示させるように制御するように構成される。ここで、視覚情報とは、画面、画像、アイコン、テキスト等といった、ユーザーが視認可能な態様で生成された情報そのものでもよいし、画面、画像、アイコン、テキスト等を表示させるためのレンダリング情報であってもよい。例えば、表示制御部235は、表示制御ステップとして、第1の補正処理が実行された画像データIMを再生可能に表示させてもよい。これについては後にさらに詳述する。 The display control unit 235 is configured to control various visual information to be displayed on a display capable of displaying. Here, the visual information may be information itself generated in a form that can be visually recognized by the user, such as screens, images, icons, texts, etc., or rendering information for displaying screens, images, icons, texts, etc. There may be. For example, as the display control step, the display control unit 235 may reproducibly display the image data IM on which the first correction process has been performed. This will be explained in more detail later.

[情報処理の概要]
続いて、実施形態4に係る情報処理システム3000の情報処理方法について説明する。情報処理方法は、情報処理装置の一例である情報表示端末3800の各ステップを備える。図40は、実施形態4に係る情報処理の流れを示すアクティビティ図である。以下、本アクティビティ図に沿って、本情報処理を概述する。
[Outline of information processing]
Next, an information processing method of the information processing system 3000 according to the fourth embodiment will be described. The information processing method includes steps of an information display terminal 3800, which is an example of an information processing device. FIG. 40 is an activity diagram showing the flow of information processing according to the fourth embodiment. This information processing will be outlined below along this activity diagram.

まず、移動体が走行中にあたっては、撮影装置3100が、走行中の態様を画像データIMとして記録してもよい(アクティビティA101)。画像データIMは、例えば所定のフレームレートを有する動画形式のデータであってよい。撮影装置3100のフレームレートは、特に限定されないが、例えば10fps以上であり、好ましくは、30fps以上であり、より好ましくは60fps以上であり、具体的には例えば、10,20,30,40,50,60,70,80,90,100,110,120,130,140,150,160,170,180,190,200,210,220,230,240,250fpsであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。生成された画像データIMは、ライブビューとして、撮影装置3100が有する表示部3013に表示させてもよい。かかる画像データIMの記録は、移動体の走行が完了するまで、継続的に実施されてよい。 First, when the moving object is running, the photographing device 3100 may record the state of the running as image data IM (activity A101). The image data IM may be, for example, moving image format data having a predetermined frame rate. The frame rate of the imaging device 3100 is not particularly limited, but is, for example, 10 fps or higher, preferably 30 fps or higher, more preferably 60 fps or higher. , 60, 70, 80, 90, 100, 110, 120, 130, 140, 150, 160, 170, 180, 190, 200, 210, 220, 230, 240, 250 fps, and any of the numerical values exemplified here or within a range between the two. The generated image data IM may be displayed on the display unit 3013 of the imaging device 3100 as a live view. The recording of the image data IM may be continuously performed until the moving body finishes running.

続いて、撮影装置3100とネットワークを介して接続された情報表示端末3800は、アクティビティA101において継続的に記録されることで生成された一連の画像データIMを受信してもよい(アクティビティA102)。つまり、受付部332は、撮影装置3100から画像データIMを受信してもよい。もちろん、ネットワークに代えて、受付部332は、SDカード(登録商標)等の記憶媒体を介して画像データIMを受け付けてもよい。以後の説明では、簡単のためにネットワーク経由を例示するが、必ずしもこれに限定されるものではない。 Subsequently, the information display terminal 3800 connected to the imaging device 3100 via the network may receive a series of image data IM generated by continuous recording in activity A101 (activity A102). That is, the reception unit 332 may receive the image data IM from the imaging device 3100 . Of course, instead of the network, the receiving unit 332 may receive the image data IM via a storage medium such as an SD card (registered trademark). In the following description, for the sake of simplification, an example of communication via a network will be used, but it is not necessarily limited to this.

続いて、取得部231は、取得ステップとして、移動体の状態又は状況に関する特定情報IF1を取得してもよい(アクティビティA103)。具体的には、制御部23が記憶部22に記憶された専用プログラムを読み出すことで、特定情報IF1を取得して、記憶部22に記憶させてもよい。特定情報IF1は、受付部332が受信した画像データIMに含まれていてもよいし、撮影装置3100又は外部の装置から別個の情報として受信してもよい。好ましくは、特定情報IF1は、移動体の位置、向き、速度、加速度、時刻、時間帯、天候、走行状態及びペダルワークのうちの少なくとも1つであってよい。例えば、トンネル位置について自動で適切な種類の補正をしてもよいし、晴れと雨と霧で異なった画像補正をかけるようにしてもよい。また、朝と夜と夕方とで異なった画像補正をかけるようにしてもよいし、霧、雪、雨等、状況、天気等に応じて適切な補正方法を選択して補正するようにしてもよい。それぞれの最適なパラメータが予め用意されてもよい。さらに具体的には、吹雪を消す操作ボタン、霧を透明化して霧の向こう側を見えるようにするボタン、雨を消去するボタン等、映像により目的のあった映像補正をするボタンとして実施されてもよい。さらに、オールマイティーの自動補正として、これらを適宜組み合わせた自動補正としてもよい。 Subsequently, the acquisition unit 231 may acquire specific information IF1 regarding the state or situation of the mobile object as an acquisition step (activity A103). Specifically, the control unit 23 may read the dedicated program stored in the storage unit 22 to acquire the specific information IF1 and store it in the storage unit 22 . The specific information IF1 may be included in the image data IM received by the reception unit 332, or may be received as separate information from the imaging device 3100 or an external device. Preferably, the specific information IF1 may be at least one of the position, orientation, speed, acceleration, time, time period, weather, running condition, and pedal work of the moving body. For example, an appropriate type of correction may be automatically applied to the tunnel position, or different image corrections may be applied for sunny, rainy and foggy conditions. Also, different image corrections may be applied in the morning, at night, and in the evening. good. Optimal parameters for each may be prepared in advance. More specifically, it is implemented as a button to correct the image according to the purpose, such as an operation button to erase the snowstorm, a button to make the fog transparent so that you can see the other side of the fog, a button to erase the rain, etc. good too. Furthermore, as an almighty automatic correction, automatic correction may be made by appropriately combining these.

このような態様によれば、具体的な移動体の状態である、位置、速度、加速度、走行状態及びペダルワークのうちの少なくとも1つを考慮して、より適切な画像処理を施すことができるため、ユーザビリティをさらに向上させることができる。 According to this aspect, it is possible to perform more appropriate image processing in consideration of at least one of the specific states of the moving body, namely, position, speed, acceleration, traveling state, and pedal work. Therefore, usability can be further improved.

続いて、補正部233は、第1の補正ステップとして、特定情報IF1に基づいて、この特定情報IF1に対応する時間における、移動体が有する撮影装置3100が生成した画像データIMへの第1の補正処理を実行してもよい(アクティビティA104)。具体的には、制御部23が記憶部22に記憶された専用プログラムを読み出すことで、特定情報IF1に基づいて画像データIMに対する補正範囲を決定してもよい。すなわち好ましくは、補正部233は、第1の補正ステップとして、特定情報IF1に基づいて、補正される範囲である補正範囲を可変に、画像データIMへの第1の補正処理を実行してもよい。このような態様によれば、全範囲を補正しなくてもよいため、処理負荷を抑制することができる。また、好ましい範囲に補正がかかるため、ユーザビリティの高い機能を実現することができる。逆に、補正部233は、特定情報IF1に基づいて、補正すべきでない範囲を可変に、画像データIMへの第1の補正処理を実行してもよい。さらに、補正すべき範囲と、補正すべきでない範囲との両方を可変に、第1の補正処理が適宜実行されるようにしてもよい。 Subsequently, as a first correction step, based on the specific information IF1, the correction unit 233 converts the image data IM generated by the imaging device 3100 of the moving object at the time corresponding to the specific information IF1 into the first image data IM. Correction processing may be performed (activity A104). Specifically, the control unit 23 may read the dedicated program stored in the storage unit 22 to determine the correction range for the image data IM based on the specific information IF1. That is, preferably, as the first correction step, the correction unit 233 performs the first correction process on the image data IM while changing the correction range, which is the range to be corrected, based on the specific information IF1. good. According to such an aspect, since it is not necessary to correct the entire range, the processing load can be suppressed. In addition, since the preferable range is corrected, a function with high usability can be realized. Conversely, the correction unit 233 may perform the first correction process on the image data IM while changing the range that should not be corrected based on the specific information IF1. Furthermore, the first correction process may be executed as appropriate while both the range to be corrected and the range not to be corrected are variable.

その後、表示制御部235は、表示制御ステップとして、第1の補正処理が実行された画像データIMを再生可能に、表示させてもよい(アクティビティA105)。このような表示は、画像データIMのフレームをコマ送りで表示することで、動画データとして再生可能であることが好ましい。 After that, as a display control step, the display control unit 235 may reproducibly display the image data IM on which the first correction processing has been performed (activity A105). Such a display is preferably capable of being reproduced as moving image data by displaying the frames of the image data IM frame by frame.

なお、表示制御部235による表示制御中に、受付部232は、第1の受付ステップとして、ユーザーによる第1の入力を受け付けてもよい。制御部33は、第1の入力に基づいて、画像データIMに対する補正処理の有無を切替可能に構成されるとよい(アクティビティA106)。例えば、画像データIMに対しての補正処理が行われている場合、解除部234は、解除ステップとして、第1の入力に基づいて、画像データIMに対する第1の補正処理を解除してもよい。例えば、画像データIMに対しての補正処理が解除されている場合、補正部233は、第1の入力に基づいて、画像データIMに対する第1の補正処理を再開してもよい。このような態様によれば、装置が提示した補正処理が不要な場合に、これをユーザーの意思で解除することで視認性を高めることが可能となり、よりユーザビリティを向上させることができる。これは例えば、範囲としては補正がかかった状態のまま、一時的に補正を外すボタンを設ける等とすればよい。 During display control by the display control unit 235, the reception unit 232 may receive a first input from the user as a first reception step. Control unit 33 may be configured to be able to switch between the presence or absence of correction processing for image data IM based on the first input (activity A106). For example, if the image data IM has undergone correction processing, the cancellation unit 234 may cancel the first correction processing on the image data IM based on the first input as a cancellation step. . For example, when the correction process for the image data IM has been canceled, the correction unit 233 may restart the first correction process for the image data IM based on the first input. According to this aspect, when the correction processing presented by the device is unnecessary, the visibility can be improved by canceling the correction processing at the user's will, and the usability can be further improved. For example, this can be done by providing a button for temporarily canceling the correction while the range remains corrected.

以上をまとめると、本実施形態に係る情報処理装置の一例である情報表示端末3800は、制御部23を備える。制御部23は、次の各部を備える。補正部233は、第1の補正ステップとして、特定情報IF1に基づいて、この特定情報IF1に対応する時間における、移動体が有する撮影装置3100が生成した画像データIMへの第1の補正処理を実行する。表示制御部235は、表示制御ステップとして、第1の補正処理が実行された画像データIMを再生可能に表示させる。このような態様によれば、移動体の状態又は状況に基づいた、適切な画像処理を施すことができるため、ユーザビリティを向上させることができる。 To summarize the above, the information display terminal 3800, which is an example of the information processing apparatus according to this embodiment, includes the control unit 23. FIG. The control unit 23 includes the following units. As a first correction step, based on the specific information IF1, the correction unit 233 performs a first correction process on the image data IM generated by the imaging device 3100 of the moving object at the time corresponding to the specific information IF1. Execute. As a display control step, the display control unit 235 reproducibly displays the image data IM on which the first correction processing has been performed. According to this aspect, it is possible to perform appropriate image processing based on the state or situation of the moving object, thereby improving usability.

[情報処理の詳細]
続いて、先に概述した情報処理の詳細について説明する。図41は、第1の補正処理の、空間的な補正範囲の一例を示す概略図である。図42は、第1の補正処理の、時間的な補正範囲の一例を示す概略図である。すなわち、第1の補正処理は、場所的範囲又は時間的範囲を限定して適用されてもよい。
[Details of information processing]
Next, the details of the information processing outlined above will be described. FIG. 41 is a schematic diagram showing an example of a spatial correction range of the first correction process. FIG. 42 is a schematic diagram showing an example of the temporal correction range of the first correction process. That is, the first correction process may be applied with a limited location range or time range.

図41の態様においては、表示制御部235によって画像データIMが表示され、これが再生画面4として示されている。補正範囲は、画像データIMのフレームに設定された関心領域Rである。再生画面4は、補正領域41と、非補正領域42とを有している。関心領域Rは、補正領域41として図示されている。具体的には、特定情報IF1に含まれる種々の情報に応じて、補正領域41が決定されるとよい。 In the mode of FIG. 41, the image data IM is displayed by the display control unit 235, and this is shown as the playback screen 4. FIG. The correction range is the region of interest R set in the frame of the image data IM. The playback screen 4 has a correction area 41 and a non-correction area 42 . Region of interest R is illustrated as correction region 41 . Specifically, the correction area 41 may be determined according to various information included in the specific information IF1.

例えば、移動体の速度や加速度に応じて、補正領域41の大きさを変化させてもよい。例えば、移動体が左折する際には、巻き込み事故防止を懸念して、移動体の左側が可視化されるように補正処理が実行されてもよい。補正領域41の形状や大きさはあくまでも任意であり、例えば矩形でも円形でも楕円形でもよい。ユーザーによる入力に基づいて形状を変化可能に構成されてもよい。このような態様によれば、本来視認性を高めたい領域を絞って、補正をかけることができるため、ユーザビリティを向上させることができる。 For example, the size of the correction area 41 may be changed according to the speed or acceleration of the moving object. For example, when the moving body turns left, the correction process may be performed so that the left side of the moving body is visualized in order to prevent a collision accident. The shape and size of the correction area 41 are absolutely arbitrary, and may be rectangular, circular, or elliptical, for example. The shape may be changeable based on user input. According to such an aspect, it is possible to narrow down the area in which the visibility is originally desired to be improved and to apply the correction, thereby improving the usability.

また、例えば、時刻や時間帯から太陽の位置を把握させ、逆光状態でもユーザーが容易に視認可能なように、適切な補正処理が施されてもよい。図42の態様では、再生画面4の下方に位置する、画像データIMの再生時刻を示すシークバー5において、補正時間51が示されている。シークバー5は、ビデオ編集ソフトのタイムライン等の概念に相当してもよい。例えば、補正時間51は、西日が差し込む時間帯であり、且つ移動体の進行方向によって撮影装置3100にとって逆光の撮影となる時間帯である。換言すると、特定情報IF1は、移動体の位置と、向きとである。補正部233は、第1の補正ステップとして、位置と、向きとから推定される太陽の位置に基づいて、画像データIMへの第1の補正処理を実行してもよい。このような態様によれば、太陽の位置を加味して、適切な画像処理を施すことができるため、ユーザビリティをさらに向上させることができる。 Further, for example, appropriate correction processing may be performed so that the position of the sun can be grasped from the time of day or the time zone so that the user can easily recognize the position even in backlight conditions. In the mode of FIG. 42, a correction time 51 is shown in the seek bar 5 positioned below the playback screen 4 and indicating the playback time of the image data IM. The seek bar 5 may correspond to a concept such as a timeline of video editing software. For example, the correction time 51 is a time zone in which the sun shines in the afternoon, and a time zone in which the photographing device 3100 shoots against the light depending on the traveling direction of the moving body. In other words, the specific information IF1 is the position and orientation of the mobile object. As a first correction step, the correction unit 233 may perform a first correction process on the image data IM based on the position of the sun estimated from the position and orientation. According to this aspect, it is possible to perform appropriate image processing in consideration of the position of the sun, thereby further improving usability.

また、前述の様々な補正処理は、第2の補正処理の一例であるユーザーによる恣意的な手動補正として実施されてもよい。換言すると、受付部232は、第2の受付ステップとして、ユーザーによる第2の入力を受け付け、補正部233は、第2の補正ステップとして、第2の入力に基づいて、画像データIMへの第2の補正処理を実行してもよい。このような態様によれば、装置が提示した補正処理に加えて、ユーザーの意思で補正を追加することで視認性を高めることが可能となり、よりユーザビリティを向上させることができる。 Also, the various correction processes described above may be performed as arbitrary manual corrections by the user, which is an example of the second correction process. In other words, the reception unit 232 receives a second input from the user as a second reception step, and the correction unit 233 performs a second input to the image data IM based on the second input as a second correction step. 2 correction process may be executed. According to this aspect, in addition to the correction processing presented by the device, it is possible to improve the visibility by adding the correction according to the user's intention, and it is possible to further improve the usability.

また、第1の補正処理及び第2の補正処理に関連し、表示制御部235は、第1の補正処理と、第2の補正処理とが区別可能な態様で、画像データIMを再生可能に表示させるとよい。換言すると、手動でつけた範囲と自動的についた範囲が区別できるように表示されるとよい。図43は、第1の補正処理及び第2の補正処理を実行した場合の、再生画面4に付された付加情報43を示す概略図である。図43に示されるように、再生画面4の右上に「自動補正中」や「手動補正中」といった付加情報43を付してもよい。ここでは付加情報43は、テキストによるアノテーションであるが、代わりにイラストやアイコンを用いてもよい。このような態様によれば、ユーザーは補正処理の種別を把握することができ、ユーザーフレンドリーである。 In addition, in relation to the first correction process and the second correction process, the display control unit 235 enables the image data IM to be reproduced in a manner in which the first correction process and the second correction process can be distinguished. should be displayed. In other words, it is preferable that the manually added range and the automatically added range are displayed so as to be distinguishable. FIG. 43 is a schematic diagram showing additional information 43 attached to the reproduced screen 4 when the first correction process and the second correction process are executed. As shown in FIG. 43 , additional information 43 such as “under automatic correction” or “under manual correction” may be added to the upper right of the playback screen 4 . Although the additional information 43 is a text annotation here, an illustration or an icon may be used instead. According to this aspect, the user can grasp the type of correction processing, which is user-friendly.

なお、補正処理の方法は特に限定されるものではなく、明度、ダイナミックレンジ、コントラスト、ガンマ、彩度、色相等のうちの少なくとも1つを適宜補正するようにしてもよい。また、人が見て視認しやすいことを基準として補正がなされることが好ましい。 The method of correction processing is not particularly limited, and at least one of brightness, dynamic range, contrast, gamma, saturation, hue, etc. may be corrected as appropriate. Moreover, it is preferable that the correction is performed based on the ease of visual recognition by human eyes.

逆にユーザーにとって視認しにくい画像データIMを実現してもよい。例えば、個人情報保護の観点から、不特定多数の人物が写り込んだ場合に、このような人物の顔に対してモザイクをかける機能等を実現してもよい。モザイクをかけるのは、録画するとき、男性を認識したとき、及び女性を認識したときの少なくともいずれかとするとよい。また、他の車のナンバープレートに対してモザイクをかける機能等を実現してもよい。モザイクをかける対象は、人工知能やその他の方法により決定されるとよい。このようなモザイクを掛ける処理は、画像をきれいにした後で汚くする補正処理の一例である。モザイクは、「視認しくい」の一例であり、他の手法によって実現してもよい。 Conversely, image data IM that is difficult for the user to visually recognize may be realized. For example, from the viewpoint of personal information protection, when an unspecified number of people are captured, a function of applying a mosaic to the faces of such people may be realized. Mosaic may be applied at least one of when recording, when recognizing a man, and when recognizing a woman. Also, a function of applying a mosaic to license plates of other cars may be realized. The target to be mosaiced is preferably determined by artificial intelligence or other methods. Such mosaic processing is an example of correction processing for making an image dirty after making it clean. Mosaic is an example of "not visible" and may be implemented in other ways.

また、かかる補正処理は、光学素子や光学系に基づく収差やノイズ等を除去するISP(Imaging Signal Processor)による補正とは異なり、ISPを経て得られた画像データIMに対してさらに行う補正処理である。具体的には、ガンマ補正、色強調、色バランス等の色補正、エッジ強調等が含まれてよい。逆に、オリジナルの画像データIMとは、ISPによる補正を経て得られた画像データIMを指している。このような補正処理は、ISPによる補正後、H264等の適切なファイル形式にエンコードする前に行われてもよいし、一度エンコードがなされた画像データIMに対して補正をして再びエンコードするように実施してもよい。 In addition, unlike correction by an ISP (Imaging Signal Processor) that removes aberrations, noise, etc. based on optical elements and optical systems, this correction processing is a correction processing that is further performed on the image data IM obtained through the ISP. be. Specifically, gamma correction, color enhancement, color correction such as color balance, edge enhancement, and the like may be included. Conversely, the original image data IM refers to the image data IM obtained through correction by the ISP. Such correction processing may be performed after correction by the ISP and before encoding into an appropriate file format such as H264. may be implemented.

[変形例1]
続いて、実施形態4の変形例1について説明する。この変形例1では、取得部231は、特定情報IF1に加えて、特定情報IF1以外の種々の情報を外部の装置から取得してもよい。変形例1では、例えば、特定情報IF1は、移動体の位置であってよい。取得部231は、取得ステップとして、道路ネットワーク情報IF2を取得し、補正部233は、第1の補正ステップとして、位置と、道路ネットワーク情報IF2とに基づいて、画像データIMへの第1の補正処理を実行してもよい。具体的には、制御部23が記憶部22に記憶された専用プログラムを読み出すことで、道路ネットワーク情報IF2を取得し、さらにこれを用いて第1の補正処理が実行されればよい。
[Modification 1]
Next, Modification 1 of Embodiment 4 will be described. In this modified example 1, in addition to the specific information IF1, the acquisition unit 231 may acquire various information other than the specific information IF1 from an external device. In Modification 1, for example, the specific information IF1 may be the position of the mobile object. The acquisition unit 231 acquires the road network information IF2 as an acquisition step, and the correction unit 233 performs a first correction to the image data IM based on the position and the road network information IF2 as a first correction step. processing may be performed. Specifically, the control unit 23 reads out the dedicated program stored in the storage unit 22 to acquire the road network information IF2, and furthermore, the first correction process is executed using this.

道路ネットワーク情報IF2は、例えば、規制速度、道路の幅、平日の12時間交通量、旅行速度(ある区間について、区間の距離を走行に要した時間で割ったもので、所要時間には、信号や渋滞等による停止も含む速度)や車線数等の種々の情報を属性データとして有する。補正部233は、これの情報に基づいて、適切な補正の種類又は補正範囲を決定して、第1の補正処理を実行してもよい。このような態様によれば、位置と、そのときの道路状況に応じて、適切な画像処理を施すことができるため、ユーザビリティをさらに向上させることができる。 The road network information IF2 includes, for example, the speed limit, road width, 12-hour traffic volume on weekdays, and travel speed (for a certain section, divide the distance of the section by the time required to travel. It has various information such as speed (including stoppage due to traffic jam, etc.) and number of lanes as attribute data. Based on this information, the correction unit 233 may determine an appropriate correction type or correction range and execute the first correction process. According to this aspect, it is possible to perform appropriate image processing according to the position and the road conditions at that time, so that usability can be further improved.

[変形例2]
続いて、実施形態4の変形例2について説明する。この変形例2では、変形例1同様、取得部231は、特定情報IF1に加えて、特定情報IF1以外の種々の情報を外部の装置から取得してもよい。変形例2では、例えば、特定情報IF1は、移動体の位置であってよい。取得部231は、地形情報IF3を取得し、補正部233は、第1の補正ステップとして、位置と、地形情報IF3とに基づいて、画像データIMへの第1の補正処理を実行してもよい。具体的には、制御部23が記憶部22に記憶された専用プログラムを読み出すことで、地形情報IF3を取得し、さらにこれを用いて第1の補正処理が実行されればよい。
[Modification 2]
Next, Modification 2 of Embodiment 4 will be described. In this modified example 2, as in modified example 1, the acquisition unit 231 may acquire various information other than the specific information IF1 from an external device in addition to the specific information IF1. In Modified Example 2, for example, the specific information IF1 may be the position of the mobile object. The acquisition unit 231 acquires the terrain information IF3, and the correction unit 233 performs the first correction process on the image data IM based on the position and the terrain information IF3 as a first correction step. good. Specifically, the control unit 23 reads out the dedicated program stored in the storage unit 22 to acquire the terrain information IF3, and furthermore, the first correction process is executed using this.

地形情報IF3は、例えば、地図データを発行する機関に係る外部のサーバから取得されてもよい。地形情報IF3は、都市部、郊外、高速道路、一般道、砂利道、山岳、トンネル内等の地形に関する情報を含む情報であってよい。補正部233は、これの情報に基づいて、適切な補正の種類又は補正範囲を決定して、第1の補正処理を実行してもよい。例えば、繁華街であれば、ネオン光の影響が強いため、これを緩和するような補正処理を実施してもよい。例えば、森林中であれば、全体的に明るさを強調する補正処理を実施してもよい。このような態様によれば、位置と、そのときの地形や環境等に応じて、適切な画像処理を施すことができるため、ユーザビリティをさらに向上させることができる。 The topography information IF3 may be acquired from an external server related to an organization that issues map data, for example. The terrain information IF3 may be information that includes information about terrain such as urban areas, suburbs, highways, general roads, gravel roads, mountains, and inside tunnels. Based on this information, the correction unit 233 may determine an appropriate correction type or correction range and execute the first correction process. For example, in a downtown area, the influence of neon light is strong, so correction processing may be performed to mitigate this. For example, if it is in a forest, a correction process that emphasizes the brightness as a whole may be performed. According to this aspect, it is possible to perform appropriate image processing according to the position and the topography, environment, etc. at that time, so that usability can be further improved.

[変形例3]
続いて、実施形態4の変形例3について説明する。この変形例3では、補正部233は、準備ステップと、処理ステップとを実行してもよい。また、制御部23は、予め記憶された第1のプログラムP1と、第1のプログラムP1とは異なる第2のプログラムP2とを呼出可能に構成されてもよい。特に、第1のプログラムP1は、画像データIMを再生するにあたって推奨されるプレーヤーアプリケーションであってよく、第2のプログラムP2は、補正処理機能を有している汎用のプレーヤーアプリケーションであってよい。つまり、標準的なビューアである第1のプログラムP1内に様々の機能を組み込みすぎると肥大化するため、VLC等のフリーソフトや、各社などが提供するクラウドサービスでの画像処理を用いて代替することができる。図44は、実施形態4の変形例3に係る情報処理の流れを示すアクティビティ図である。以下、本アクティビティ図に沿って、本情報処理を概述する。
[Modification 3]
Next, Modification 3 of Embodiment 4 will be described. In this modified example 3, the correction unit 233 may perform a preparation step and a processing step. Further, the control unit 23 may be configured to be able to call a first program P1 stored in advance and a second program P2 different from the first program P1. In particular, the first program P1 may be a player application recommended for reproducing the image data IM, and the second program P2 may be a general-purpose player application having correction processing functions. In other words, if too many functions are incorporated into the first program P1, which is a standard viewer, it will become bloated. be able to. 44 is an activity diagram illustrating the flow of information processing according to Modification 3 of Embodiment 4. FIG. This information processing will be outlined below along this activity diagram.

まず、情報表示端末3800の受付部232がユーザーによる動画再生のための入力を受け付けると、制御部23が記憶部22に記憶された第1のプログラムP1を呼び出してもよい(アクティビティA201)。続いて、第1のプログラムP1に対して、画像データIMを読み込ませてもよい(アクティビティA202)。続いて、第1のプログラムP1に基づく動作として、取得部231は、画像データIMに含まれる複数のパラメータPTを抽出し、これらを取得してもよい(アクティビティA203)。 First, when the reception unit 232 of the information display terminal 3800 receives an input for reproducing a moving image from the user, the control unit 23 may call the first program P1 stored in the storage unit 22 (activity A201). Subsequently, the image data IM may be read into the first program P1 (activity A202). Subsequently, as an operation based on the first program P1, the acquisition unit 231 may extract and acquire a plurality of parameters PT included in the image data IM (activity A203).

情報表示端末3800に予め第2のプログラムP2がインストールされていない場合は、第2のプログラムP2のインストールを提案してもよい。換言すると、表示制御部235は、第2のプログラムP2がインストールされていない場合、このインストールを推奨する画面を表示させてもよい。推奨する画面には、第2のプログラムP2の名称が記載されているとよく、そのインストール先のURLが記載されているとさらに好ましい。このような態様によれば、第2のプログラムがインストールされていない場合であっても、第2のプログラムを介した第1の補正処理を行うことができる。 If the second program P2 is not pre-installed in the information display terminal 3800, the installation of the second program P2 may be suggested. In other words, if the second program P2 is not installed, the display control unit 235 may display a screen recommending its installation. The recommended screen preferably includes the name of the second program P2, and more preferably includes the URL of its installation destination. According to this aspect, even if the second program is not installed, the first correction process can be performed via the second program.

具体的には、PCビューアである第1のプログラムP1のインストール時に、外部プレーヤをインストールするかを尋ね、インストールする指示があった場合にはインストールを行ってもよい。インストール時または起動直後に、外部プレーヤを起動するボタンの案内があってもよい。外部プレーヤ利用時の注意が表示されてもよい。外部プレーヤ利用時の注意としては、外部プレーヤのボタンを操作した場合にPCビューアである第1のプログラムP1の表示状態とずれる可能性があること、その場合、一旦外部プレーヤである第2のプログラムP2を閉じて再度PCビューアである第1のプログラムP1上から外部プレーヤである第2のプログラムP2を起動させるとよい、等が含まれてもよい。 Specifically, when installing the first program P1, which is a PC viewer, it is possible to ask whether or not to install an external player, and to install the external player if there is an instruction to install it. At the time of installation or immediately after starting, there may be guidance for a button to start the external player. A caution when using an external player may be displayed. When using an external player, it is important to note that the display state of the first program P1, which is the PC viewer, may deviate from the display state of the first program P1, which is the PC viewer, when the buttons of the external player are operated. It may be included that P2 may be closed and the second program P2, which is an external player, may be started again from the first program P1, which is a PC viewer.

情報表示端末3800に予め第2のプログラムP2がインストールされている場合は、制御部23が記憶部22に記憶された第2のプログラムP2を呼び出してもよい(アクティビティA205)。つまり。外部プレーヤ起動ボタン等がビューアである第1のプログラムP1のUI上にあり、これを押すことで、VLC等の第2のプログラムP2が起動されるとよい。そして、第2のプログラムP2に基づく動作として、取得部231は、画像データIMに含まれる複数のパラメータPTを取得してもよい(アクティビティA206)。ここで、パラメータPTは、色相、明度、彩度、コントラスト、ガンマ、鮮鋭度、再生開始時刻、再生終了時刻及びループの有無のうち少なくとも1つを含んでよい。このような態様によれば、各パラメータが、画像データが有する一般的なものとなっているため、より汎用的な画像処理プログラムを第2のプログラムとして使用することもでき、ユーザビリティの高い装置を実現することができる。さらに、第2のプログラムP2に基づく動作として、取得部231は、第2のプログラムP2の動作に関する動作情報IF4を取得してもよい(アクティビティA207)。 If the second program P2 is pre-installed in the information display terminal 3800, the control unit 23 may call the second program P2 stored in the storage unit 22 (activity A205). in short. An external player activation button or the like may be provided on the UI of the first program P1, which is the viewer, and by pressing this button, the second program P2 such as VLC may be activated. As an operation based on the second program P2, the acquisition unit 231 may acquire a plurality of parameters PT included in the image data IM (activity A206). Here, the parameter PT may include at least one of hue, brightness, saturation, contrast, gamma, sharpness, playback start time, playback end time, and presence/absence of loop. According to this aspect, since each parameter is a general one possessed by image data, a more versatile image processing program can be used as the second program, and an apparatus with high usability can be provided. can be realized. Furthermore, as an operation based on the second program P2, the acquisition unit 231 may acquire operation information IF4 regarding the operation of the second program P2 (activity A207).

具体的には、libvlc.dllなどをビューアに組み込むのではなく「コマンドライン引数」として、動画のファイル名と、ビデオエフェクト設定等とを渡して起動してもよい。

vlc.exe 20200101090000.avi --hue=0 --brightness=1.5 --contrast=0.6 --saturation=1.9 --gamma=0.3 --sharpen-sigma=0.9

また、再生開始時間、再生終了時間、ループの有無等を渡してもよい。外部プレーヤーである第2のプログラムP2の操作部の少なくとも一部を無効にするパラメータを渡してもよい。これに加えて、ビューアである第1のプログラムP1から制御コマンドを送って外部プレーヤである第2のプログラムP2をコントロールするようにしてもよい。例えば、第2のプログラムP2がVLCプレーヤであれば、http、telnet等でビューアである第1のプログラムP1側から制御してもよい。
Specifically, libvlc. dll or the like into the viewer, the file name of the moving image, the video effect settings, etc. may be passed as "command line arguments" and started.

vlc. exe 20200101090000.exe avi --hue=0 --brightness=1.5 --contrast=0.6 --saturation=1.9 --gamma=0.3 --sharpen-sigma=0.9

Also, the playback start time, playback end time, presence/absence of looping, etc. may be transferred. A parameter may be passed that disables at least part of the controls of the second program P2, which is an external player. In addition to this, a control command may be sent from the first program P1, which is the viewer, to control the second program P2, which is the external player. For example, if the second program P2 is a VLC player, it may be controlled from the side of the first program P1, which is a viewer, using http, telnet, or the like.

以上を換言すると、第1のプログラムP1は、準備ステップを実行させてもよい。そして、補正部233は、準備ステップとして、画像データIMに含まれるパラメータPTを抽出し、抽出されたパラメータPTの値を、第2のプログラムP2に渡してもよい。また、補正部233は、準備ステップとして、第2のプログラムP2の動作に関する動作情報IF4を第2のプログラムP2に渡してもよい。 In other words, the first program P1 may cause preparatory steps to be performed. Then, as a preparatory step, the correction unit 233 may extract the parameter PT included in the image data IM and pass the value of the extracted parameter PT to the second program P2. In addition, as a preparatory step, the correction unit 233 may pass operation information IF4 regarding the operation of the second program P2 to the second program P2.

続いて、補正部233は、処理ステップとして、パラメータPTに対して第1の補正処理を実行することで、その値を変化させてもよい(アクティビティA208)。そして、表示制御部235は、処理部において変化したパラメータPTの値に基づく画像データIMを再生可能に表示させてもよい。このような態様によれば、より補正処理に特化した別プログラムを利用することができるため、計算コストの削減や画像処理性能の向上に寄与する。 Subsequently, as a processing step, the correction unit 233 may change the value of the parameter PT by executing a first correction process on the parameter PT (activity A208). Then, the display control section 235 may reproducibly display the image data IM based on the value of the parameter PT changed in the processing section. According to this aspect, a separate program that is more specialized for correction processing can be used, which contributes to reduction in calculation cost and improvement in image processing performance.

また、好ましくは、表示制御部235は、動作情報IF4に基づいて、第2のプログラムP2が有する機能の少なくとも一部を制限して、画像データIMを再生可能に表示させてもよい(アクティビティA209)。このような態様によれば、第2のプログラムをあくまでも補正と再生のためだけに利用することができ、ユーザーが第2のプログラムが有する余計な機能等を使用せずに済み、ユーザビリティの高い装置を実現することができる。 Further, preferably, the display control unit 235 may restrict at least part of the functions of the second program P2 based on the operation information IF4 to display the image data IM reproducibly (activity A209 ). According to this aspect, the second program can be used only for correction and reproduction, and the user does not have to use unnecessary functions of the second program, and the device has high usability. can be realized.

[変形例4]
続いて、実施形態4の変形例4について説明する。ところで、前述した変形例3では、第2のプログラムP2がインストールされていない場合に、第2のプログラムP2のインストールを推奨する画面を表示させていた。この変形例4では、第2のプログラムP2を情報表示端末3800にインストールすることなく、ネットワーク経由で第2のプログラムP2を使用することができる。換言すると、第2のプログラムP2は、外部装置に記憶されたプログラムであってよい。そして、制御部23は、第2のプログラムP2を、ネットワークを介して呼び出すように構成されてもよい。このような態様によれば、第2のプログラムがインストールされていない場合であっても、第2のプログラムを介した第1の補正処理をクラウドサービスという形式で行うことができる。
[Modification 4]
Next, Modification 4 of Embodiment 4 will be described. By the way, in the third modified example described above, when the second program P2 is not installed, a screen recommending the installation of the second program P2 is displayed. In this modification 4, the second program P2 can be used via the network without installing the second program P2 in the information display terminal 3800. FIG. In other words, the second program P2 may be a program stored in an external device. Then, the control unit 23 may be configured to call the second program P2 via the network. According to this aspect, even if the second program is not installed, the first correction process can be performed via the second program in the form of a cloud service.

具体的には、第1のプログラムP1において、クラウドの画像鮮明化サービスへの自動ログインするためのID等を記憶しておく機能、自動送出する機能、アップロードを行う機能、変換が完了したかを判定し変換完了したら自動的にダウンロードするか、ダウンロード可能になったこと知らせる機能、ダウンロードした映像を変換前の映像と同期させて再生する機能等を備えるとよい。 Specifically, in the first program P1, there is a function of storing an ID for automatic login to a cloud image sharpening service, a function of automatic sending, a function of uploading, and checking whether conversion is completed. It is preferable to have a function of automatically downloading the image after it is determined and the conversion is completed, a function of notifying that the download is possible, a function of synchronizing the downloaded image with the image before conversion, and reproducing the image.

[変形例5]
続いて、実施形態4の変形例5について説明する。前述の補正処理は多様であり、異なる補正処理を重ねて行ってもよい。同一時刻の1つの再生画面4に対して異なる補正処理が施されてもよいし、異なる時刻に対して異なる補正処理が施されてもよい。異なる補正処理は、ニーズや場面によって決定されることが好ましい。
[Modification 5]
Next, Modification 5 of Embodiment 4 will be described. There are various types of correction processes described above, and different correction processes may be superimposed. Different correction processes may be applied to one reproduced screen 4 at the same time, or different correction processes may be applied to different times. Different correction processes are preferably determined by needs and situations.

前者でいうならば例えば、魚眼レンズを用いた撮影装置3100を用いた場合、画像データIMの中央付近は移動体のデッキボードが映り込むことが多く、この部分は情報として不必要なことが多い。そこでかかる中央部分については補正処理をしないことで、全体としての処理負荷を抑えることができる。さらに補正をしていない箇所の情報は視認性が悪いため、この位置に何らかの付加情報43を埋め込むようにしてもよい。例えば補正前のオリジナルの画像データIMを埋め込んでもよいし、推奨されるプレーヤー等を提示してもよい。 In terms of the former, for example, when the photographing device 3100 using a fish-eye lens is used, the deck board of the moving object is often reflected near the center of the image data IM, and this portion is often unnecessary as information. Therefore, the processing load as a whole can be suppressed by not performing correction processing on such a central portion. Further, since the visibility of the information in the uncorrected portion is poor, some additional information 43 may be embedded in this position. For example, original image data IM before correction may be embedded, or a recommended player or the like may be presented.

後者でいうならば例えば、交通事故の瞬間において、物陰から人が飛び出す場合は、薄暗い箇所から徐々に前に出てくる当該人物にフォーカスを当て、ユーザーが適宜視認可能に補正処理が行われるとよい。車内と車外とで異なる処理を行ってもよい。 In terms of the latter, for example, at the moment of a traffic accident, when a person jumps out from behind an object, the focus is placed on the person gradually coming forward from a dark place, and correction processing is performed so that the user can appropriately recognize it. good. Different processing may be performed inside the vehicle and outside the vehicle.

[変形例6]
続いて、実施形態4の変形例6について説明する。魚眼レンズを用いて撮影する撮影装置(例えば、撮影装置3100及び3200の一方または両方)で撮影した映像の一部を鮮明化する鮮明化処理が行われてもよい。鮮明化処理は、撮影した映像を補正する補正処理の一例である。特に、円周魚眼レンズを用いた撮影装置で撮影された映像(以下「円周魚眼映像」という。)の一部を鮮明化する鮮明化処理が行われるとよい。この場合において、円周魚眼映像のまま鮮明化処理をした後、形状変換(幾何学変換)をする処理パターンが採用されてもよい。特に、形状変換は、矩形等へ射影する処理、言い換えると、平面画像に変換する処理とするとよい。このようにすると、円周魚眼映像から複数の箇所を取り出して矩形画面に複数表示するような構成において処理を簡略化できる。あるいは、円周魚眼映像から一部を取り出して画像を表示する場合において、その取り出す領域を再生中に変更できる機能を有するときに、領域変更操作に対する追従性を高めることができる。また、複数の取り出し領域が重なるケースにおいて(例えば「回」の形状、「目」の形状のように複数の矩形領域が重なる状態)等で、重なり部分の鮮明化処理を削減する機能が備えられるとよい。このようにすると、重複した鮮明化処理が削減される分だけ処理を簡略化できる。
[Modification 6]
Next, Modification 6 of Embodiment 4 will be described. A sharpening process may be performed to sharpen a part of an image captured by an image capturing device that captures images using a fisheye lens (for example, one or both of the image capturing devices 3100 and 3200). Sharpening processing is an example of correction processing for correcting a captured image. In particular, it is preferable to perform a sharpening process for sharpening a part of an image captured by an imaging device using a circular fisheye lens (hereinafter referred to as a "circumferential fisheye image"). In this case, a processing pattern may be adopted in which shape conversion (geometric conversion) is performed after sharpening processing is performed on the circular fisheye image as it is. In particular, the shape conversion may be a process of projecting onto a rectangle or the like, in other words, a process of converting to a plane image. By doing so, it is possible to simplify processing in a configuration in which a plurality of portions are extracted from a circular fisheye image and displayed on a rectangular screen. Alternatively, when displaying an image by extracting a portion from a circular fisheye image, if the image has a function of changing the area to be extracted during playback, it is possible to improve the followability to the area changing operation. In addition, in cases where multiple extraction areas overlap (for example, when multiple rectangular areas overlap, such as the shape of a “turn” or the shape of an “eye”), a function is provided to reduce the sharpening process for overlapping parts. Good. In this way, the processing can be simplified by the amount of reduction in redundant sharpening processing.

円周魚眼映像の一部を取り出して形状変換した後で鮮明化する処理パターンにおいて、取り出した領域以外の領域は鮮明化処理を行わないようするとよい。このようにすると、鮮明化処理範囲が限定されるため、処理負荷を軽減できる、 In the processing pattern for extracting a part of the circular fisheye image, transforming the shape, and then sharpening, it is preferable not to perform the sharpening process on areas other than the extracted area. By doing so, the processing load can be reduced because the sharpening processing range is limited.

円周魚眼レンズで撮影した円周魚眼映像の一部を切り抜いて、形状変換(例えば、矩形等へ射影)し、形状変換した映像の一部を鮮明化する鮮明化処理を行ってもよい。このような処理は、鮮明化範囲の二重の絞り込みということができる。 A part of the circular fisheye image captured by the circular fisheye lens may be cut out, shape-converted (for example, projected into a rectangle, etc.), and a sharpening process may be performed to sharpen the part of the shape-converted image. Such processing can be referred to as a double narrowing of the sharpening range.

鮮明化処理は、性能の低いPC等の装置では行わないようにするとよい。性能の低いPC等の装置であるかは、自動またはユーザーの手動で切り替えられるよい。性能の低いことは装置の処理能力が所定のスペック以下であることをいうとよく、特に、鮮明化処理はGPUを搭載していないPC等の装置では行わないようにするとよい。 The sharpening process should not be performed on a low-performance device such as a PC. A device such as a PC with low performance may be switched automatically or manually by the user. Low performance means that the processing capability of the device is below a predetermined specification, and in particular, sharpening processing should not be performed on a device such as a PC that does not have a GPU.

鮮明化処理後の映像を書き出す機能や、Youtube(登録商標)等のSNS等へ投稿するための書き出し機能をアップロードする機能が備えられてもよい。 A function of writing out the image after the sharpening process and a function of uploading a writing function for posting to SNS such as YouTube (registered trademark) may be provided.

[変形例7]
続いて、実施形態4の変形例7について説明する。前述の実施形態では、記録された画像データIMを、走行中の移動体という話で説明したが、前述した撮影装置3100の駐車監視機能として、画像データIMを記録するようにしてもよい。かかる場合、撮影装置3100の駐車監視機能において、走行時と異なる補正処理が実行されてもよい。
[Modification 7]
Next, Modification 7 of Embodiment 4 will be described. In the above-described embodiment, the recorded image data IM is described as a moving body that is running. In such a case, the parking monitoring function of the imaging device 3100 may perform correction processing different from that during running.

[実施形態5]
続いて、実施形態5について説明する。実施形態5は、図1に示される情報処理システム3000によって実施されてもよい。図45は、制御部33によって実現される機能ブロック図である。図45に示される制御部33は、例えば、車両3400に搭載された撮影装置3100に具備される制御部3011であってもよい。図45に示される記憶部32は、例えば、撮影装置3100等に具備されるメモリ3112であってもよい。
[Embodiment 5]
Next, Embodiment 5 will be described. Embodiment 5 may be implemented by the information processing system 3000 shown in FIG. FIG. 45 is a functional block diagram realized by the control unit 33. As shown in FIG. The control unit 33 shown in FIG. 45 may be, for example, the control unit 3011 provided in the photographing device 3100 mounted on the vehicle 3400 . The storage unit 32 shown in FIG. 45 may be, for example, a memory 3112 provided in the imaging device 3100 or the like.

記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えば、制御部33によって実行される撮影装置3100に係る種々のプログラム等を記憶するソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶部32は、制御部33によって実行される撮影装置3100に係る種々のプログラムとして、第3のプログラムP3及び第4のプログラムP4を記憶してもよい。 The storage unit 32 stores various information defined by the above description. This may be, for example, a storage device such as a solid state drive (SSD) for storing various programs related to the imaging device 3100 executed by the control unit 33, or a temporary storage device related to program calculation. It can be implemented as a memory such as a Random Access Memory (RAM) that stores the necessary information (arguments, arrays, etc.). A combination of these may also be used. In particular, the storage unit 32 may store a third program P3 and a fourth program P4 as various programs related to the imaging device 3100 executed by the control unit 33 .

制御部33は、記憶部32に記憶された各種プログラムを実行することにより、取得部331、受付部332、記録部333、補正部334および表示制御部335として機能してもよい。すなわち、記憶部32に記憶されているソフトウェアによる情報処理がハードウェアの一例である制御部33によって具体的に実現されることで、制御部33に含まれる各機能部として実行されてもよい。以下、制御部33に関する各機能部について説明する。 The control unit 33 may function as an acquisition unit 331 , a reception unit 332 , a recording unit 333 , a correction unit 334 and a display control unit 335 by executing various programs stored in the storage unit 32 . That is, information processing by software stored in the storage unit 32 may be specifically realized by the control unit 33 as an example of hardware, and may be executed as each function unit included in the control unit 33 . Each functional unit related to the control unit 33 will be described below.

取得部331は、種々の情報を取得するように構成される。 The acquisition unit 331 is configured to acquire various information.

受付部332は、種々の情報を受け付けるように構成される。 The reception unit 332 is configured to receive various information.

記録部333は、データを記憶媒体に記録するように構成される。例えば、記録部333は、カメラが撮像した映像を、画像データIMとして記録する。これについては後にさらに詳述する。 The recording unit 333 is configured to record data on a storage medium. For example, the recording unit 333 records the image captured by the camera as image data IM. This will be explained in more detail later.

補正部334は、補正処理を実行するように構成される。 The correction unit 334 is configured to perform correction processing.

表示制御部335は、種々の視覚情報を、表示可能な表示部に表示させるように制御するように構成される。ここで、視覚情報とは、画面、画像、アイコン、テキスト等といった、ユーザーが視認可能な態様で生成された情報そのものでもよいし、画面、画像、アイコン、テキスト等を表示させるためのレンダリング情報であってもよい。例えば、表示制御部335は、カメラが撮像した映像をライブビューとして表示させてもよい。これについては後にさらに詳述する。 The display control unit 335 is configured to control various visual information to be displayed on a display capable of displaying. Here, the visual information may be information itself generated in a form that can be visually recognized by the user, such as screens, images, icons, texts, etc., or rendering information for displaying screens, images, icons, texts, etc. There may be. For example, the display control unit 335 may display the image captured by the camera as a live view. This will be explained in more detail later.

続いて、実施形態5に係る情報処理システム3000の情報処理方法について説明する。実施形態5では、制御部33は、予め記憶された第3のプログラムP3と、第3のプログラムP3とは異なる第4のプログラムP4とを呼出可能に構成されてもよい。特に、第3のプログラムP3は、画像データIMを再生するにあたって推奨されるプレーヤーアプリケーションであってよく、第4のプログラムP4は、汎用のプレーヤーアプリケーションであってよい。図46は、実施形態5に係る情報処理の流れを示すアクティビティ図である。以下、本アクティビティ図に沿って、本情報処理を概述する。 Next, an information processing method of the information processing system 3000 according to the fifth embodiment will be described. In Embodiment 5, the control unit 33 may be configured to be able to call a third program P3 stored in advance and a fourth program P4 different from the third program P3. In particular, the third program P3 may be a player application recommended for reproducing the image data IM, and the fourth program P4 may be a general-purpose player application. FIG. 46 is an activity diagram showing the flow of information processing according to the fifth embodiment. This information processing will be outlined below along this activity diagram.

移動体の走行中は、下記のアクティビティA301~A305が逐次繰り返されることとなる。まず、移動体が走行中にあたっては、記録部333が、撮影装置3100における撮影部3015が撮像した映像を、画像データIMとして記録してもよい(アクティビティA301)。具体的には、制御部33が記憶部32に記憶された専用プログラムを読み出すことで、画像データIMを逐次記憶部32に記憶させるように実施するとよい。 While the moving body is running, the following activities A301 to A305 are sequentially repeated. First, while the moving body is running, the recording unit 333 may record the video imaged by the imaging unit 3015 of the imaging device 3100 as the image data IM (activity A301). Specifically, the image data IM may be sequentially stored in the storage unit 32 by the control unit 33 reading out the dedicated program stored in the storage unit 32 .

画像データIMは、例えば所定のフレームレートを有する動画形式のデータであってよい。撮影装置3100のフレームレートは、特に限定されないが、例えば10fps以上であり、好ましくは、30fps以上であり、より好ましくは60fps以上であり、具体的には例えば、10,20,30,40,50,60,70,80,90,100,110,120,130,140,150,160,170,180,190,200,210,220,230,240,250fpsであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。 The image data IM may be, for example, moving image format data having a predetermined frame rate. The frame rate of the imaging device 3100 is not particularly limited, but is, for example, 10 fps or higher, preferably 30 fps or higher, more preferably 60 fps or higher. , 60, 70, 80, 90, 100, 110, 120, 130, 140, 150, 160, 170, 180, 190, 200, 210, 220, 230, 240, 250 fps, and any of the numerical values exemplified here or within a range between the two.

続いて、画像データIMを撮影装置3100の表示部3013に表示させるための、アクティビティA302及びA303の処理と、画像データIMを情報表示端末3800で後から再生するための、アクティビティA304及び305の処理とがパラレルに実行される。 Subsequently, the processing of activities A302 and A303 for displaying the image data IM on the display unit 3013 of the photographing device 3100, and the processing of activities A304 and A305 for later reproducing the image data IM on the information display terminal 3800. are executed in parallel.

具体的には、画像データIMが記録されるとともに、各フレームに第1の補正処理を施して(アクティビティA302)、ライブビュー表示するとよい(アクティビティA303)。換言すると、表示制御部335は、カメラが撮像した映像をライブビューとして表示させるとよい。ここで、記録された画像データIMと、表示された映像とのパラメータPTの値が、異なるように設定されてもよい。 Specifically, the image data IM is recorded, and each frame is subjected to the first correction process (activity A302) and displayed in live view (activity A303). In other words, the display control unit 335 may display the image captured by the camera as a live view. Here, the values of the parameters PT for the recorded image data IM and the displayed video may be set differently.

図47は、ライブビューとして表示される画像データIMと、後から再生可能に記録される画像データIMとの態様を示す概略図である。図47に示されるように、記録部333が画像データIMを記録するにあたっては、記録部333は、映像を補正せずに画像データIMとして記録しつつ、表示制御部335は、映像を補正してライブビューとして表示させるとよい。このような態様によれば、ライブビューとして視認される映像の視認性を高めつつ、記録する画像データの加工による情報欠落を防止することができる。 FIG. 47 is a schematic diagram showing aspects of image data IM displayed as a live view and image data IM recorded so as to be reproducible later. As shown in FIG. 47, when the recording unit 333 records the image data IM, the recording unit 333 records the image as the image data IM without correcting the image, while the display control unit 335 corrects the image. to display it as a live view. According to this aspect, it is possible to prevent information loss due to processing of image data to be recorded while enhancing the visibility of the video viewed as a live view.

一方で、ライブビューとして表示されている画像データIMが記録されると、取得部331は、画像データIMに含まれる各種パラメータPTを抽出して取得してもよい(アクティビティA304)。そして、記録部333は、記録部333は、表示された映像のパラメータPTをパラメータログPLとして、画像データIMとともに時系列で記録してもよい(アクティビティA305)。このような態様によれば、ライブビューとして視認される映像の視認性を保存しておくことができる。 On the other hand, when the image data IM displayed as a live view is recorded, the acquisition unit 331 may extract and acquire various parameters PT included in the image data IM (activity A304). Then, the recording unit 333 may record the parameter PT of the displayed video as a parameter log PL along with the image data IM in chronological order (activity A305). According to such an aspect, it is possible to preserve the visibility of the video viewed as a live view.

移動体の走行完了後は、撮影装置3100とネットワークを介して接続された情報表示端末3800を介して、画像データIMを再生してもよい。画像データIMを情報表示端末3800で再生する場合、情報表示端末3800の受付部332は、第3の受付ステップとして、ユーザーによる、画像データIMを再生するための第3の入力を受け付ける(アクティビティA306)。続いて、第3の入力を契機として、制御部23が画像データIMを読み出してもよい(アクティビティA307)。 After the moving object has completed running, the image data IM may be reproduced via the information display terminal 3800 connected to the imaging device 3100 via the network. When the image data IM is reproduced on the information display terminal 3800, the reception unit 332 of the information display terminal 3800 receives a third input for reproducing the image data IM from the user as a third reception step (activity A306 ). Subsequently, with the third input as a trigger, the control unit 23 may read the image data IM (activity A307).

続いて、情報表示端末3800に第3のプログラムP3のプログラムがインストールされている場合は、第3のプログラムP3に基づく動作として、制御部23がパラメータログPLを読み出してもよい(アクティビティA308)。続いて、第3のプログラムP3に基づく動作として、補正部233がパラメータログPLの値を参照し、これに基づいて元の画像データIMの各パラメータの値を適切に変化させる第1の補正処理が実行されてもよい(アクティビティA309)。その後、第3のプログラムP3に基づく動作として、補正された画像データIMが、表示制御部235によって表示されるとよい(アクティビティA311)。 Subsequently, when the program of the third program P3 is installed in the information display terminal 3800, the control unit 23 may read the parameter log PL as an operation based on the third program P3 (activity A308). Subsequently, as an operation based on the third program P3, the correction unit 233 refers to the value of the parameter log PL, and based on this, the value of each parameter of the original image data IM is appropriately changed for the first correction processing. may be performed (activity A309). After that, as an operation based on the third program P3, the corrected image data IM may be displayed by the display control unit 235 (activity A311).

換言すると、表示制御部335は、第3の入力に基づいて、画像データIM及びパラメータログPLを読み出して、補正された画像データIMを再生可能に表示させてもよい。このような態様によれば、ユーザーの所望する場合に、視認性の高い映像をその場で再生することができ、ユーザビリティの高い装置を実現することができる。 In other words, the display control unit 335 may read the image data IM and the parameter log PL based on the third input, and display the corrected image data IM reproducibly. According to such an aspect, when the user desires, a video with high visibility can be reproduced on the spot, and a device with high usability can be realized.

一方、情報表示端末3800に第3のプログラムP3のプログラムがインストールされていない場合は、第4のプログラムP4に基づく動作として、制御部23が第3のプログラムP3での再生を推奨する付加情報43を生成してもよい(アクティビティA310)。その後、第4のプログラムP4に基づく動作として、記録された状態のままの画像データIMに付加情報43が重畳された態様で、表示制御部235によって表示されるとよい(アクティビティA311)。換言すると、表示制御部335は、画像データIMが第4のプログラムP4で再生された場合に、第3のプログラムP3での再生を促す情報を表示させるとよい。このような態様によれば、意図しないプログラムによって再生された場合でも、好ましいプログラムでの再生を誘導することができ、ユーザーに適切な情報を提供することができる。 On the other hand, when the program of the third program P3 is not installed in the information display terminal 3800, as an operation based on the fourth program P4, the control unit 23 displays the additional information 43 recommending reproduction with the third program P3. may be generated (activity A310). Thereafter, as an operation based on the fourth program P4, the image data IM may be displayed by the display control unit 235 in a form in which the additional information 43 is superimposed on the image data IM as it is recorded (activity A311). In other words, the display control unit 335 preferably displays information prompting reproduction by the third program P3 when the image data IM is reproduced by the fourth program P4. According to this aspect, even if the content is played back by an unintended program, it is possible to guide the playback with a preferred program and provide appropriate information to the user.

図48は、推奨される第3のプログラムP3での再生を促す付加情報43が再生画面4に重畳された態様を示す概略図である。図48に示されるように、再生を促す情報は、画像データIMの再生画面とともに表示されるとよい。このような態様によれば、あくまでも現在の見え方が好ましくない状態であり、画像データ自体は問題ない旨を、ユーザーに適切に情報として提供することができる。 FIG. 48 is a schematic diagram showing a mode in which additional information 43 prompting reproduction of the recommended third program P3 is superimposed on the reproduction screen 4. As shown in FIG. As shown in FIG. 48, the information prompting reproduction is preferably displayed together with the reproduction screen of the image data IM. According to this aspect, it is possible to appropriately provide information to the user that the current appearance is unfavorable and that the image data itself is fine.

他にも、文字列とともに、第3のプログラムP3のURLをエンコードしたQRコード(登録商標)を、埋め込んで記録したり、再生映像のファイルの先頭部分にこれらを記載した画面の映像を入れて記録したりしてもよい。 In addition to the character string, a QR code (registered trademark) that encodes the URL of the third program P3 is embedded and recorded, or a screen image that describes these is inserted at the beginning of the playback image file. You may record.

以上をまとめると、本実施形態に係る情報処理装置の一例である撮影装置3100は、制御部33を備える。制御部33は、次の各部を備える。記録部333は、カメラが撮像した映像を、画像データIMとして記録する。表示制御部335は、カメラが撮像した映像をライブビューとして表示させる。ここで、記録された画像データIMと、表示された映像とのパラメータPTが、異なるように設定される。このような態様によれば、ライブビューとして視認される映像と、記録しておく画像データとを異なるものとすることで、視認性とカスタム性の両方を担保することができる。 To summarize the above, the imaging device 3100 as an example of the information processing device according to this embodiment includes the control unit 33 . The control unit 33 includes the following units. The recording unit 333 records the image captured by the camera as image data IM. The display control unit 335 displays the image captured by the camera as a live view. Here, the parameters PT of the recorded image data IM and the displayed video are set differently. According to such an aspect, both visibility and customizability can be ensured by differentiating the video visually recognized as live view and the image data to be recorded.

さらに換言すると、ドライブレコーダ等の撮影装置3100のイメージセンサやISPのパラメータ等の画質に関わる各種のパラメータPTを、ドライブレコーダの映像データとを関連付けて記録しておき、ビューア、本体での再生時に、このパラメータを用いた再生を行うとよい。 Furthermore, in other words, various parameters PT related to image quality, such as parameters of the image sensor and ISP of the photographing device 3100 such as a drive recorder, are recorded in association with the video data of the drive recorder, and when reproduced on the viewer and the main body. , it is preferable to perform playback using this parameter.

[変形例1]
続いて、実施形態5の変形例1について説明する。この変形例1では、記録される画像データIMは、実施形態5とは異なり、ライブビューに使用するものと略同様に、補正処理のなされた視認性の高い画像データIMである。これに対して、敢えて、補正前のオリジナルの画像データIMを後から再生したい場合には、情報表示端末3800等を用いて、画像データIMに対して補正処理をかけることで、画像データIMを生成するようにしてもよい。かかる補正処理は、好ましくは正確な逆変換処理であるが、逆変換と推測される補正処理がかけられてもよい。
[Modification 1]
Next, Modification 1 of Embodiment 5 will be described. In this modified example 1, unlike the fifth embodiment, the image data IM to be recorded is image data IM that has undergone correction processing and has high visibility, in substantially the same manner as that used for live view. On the other hand, if it is desired to reproduce the original image data IM before correction later, the information display terminal 3800 or the like can be used to apply correction processing to the image data IM, thereby reproducing the image data IM. may be generated. Such correction processing is preferably exact inverse transform processing, but correction processing presumed to be inverse transform may be applied.

[変形例2]
続いて、実施形態5の変形例2について説明する。この変形例2では、パラメータPTを2種類に分けて記録する。パラメータPTには、画像データIMの時系列全体を通して定数をとるものと、フレーム単位で変化するものとが含まれている。前者については、画像データIM単位で記録し、後者については画像データIMのフレーム単位で記録することで、より処理負荷を抑えて効率的に補正処理を行うことができる。
[Modification 2]
Next, Modification 2 of Embodiment 5 will be described. In this modified example 2, the parameters PT are divided into two types and recorded. The parameters PT include those that are constant throughout the entire time series of the image data IM and those that change on a frame-by-frame basis. The former is recorded in units of image data IM, and the latter is recorded in units of frames of image data IM, so that the processing load can be suppressed and correction processing can be performed efficiently.

換言すると、パラメータPTについて、撮影中に変化しない決め打ちのスタティック(静的)なものと、撮影中の映像状態等によって変化するダイナミック(動的)なものとを分けて記録しておき、例えば、静的なものはファイルに対して1つ、動的なものは少なくともその変化点に1つ望ましくはすべてのフレームなど複数のフレームに渡って記録しておき、ビューアではこれらを異なるタイミングで、
それぞれ別々に読み込んで処理してもよい。
In other words, regarding the parameter PT, fixed static parameters that do not change during shooting and dynamic parameters that change depending on the video state during shooting are separately recorded. , one static one for the file, and one dynamic one at the change point. Desirably, record over multiple frames, such as all frames.
Each may be read and processed separately.

[その他]
プログラムであって、コンピュータを情報処理装置の制御部、例えば撮影装置3100における制御部33や情報表示端末3800における制御部23として機能させる、ものが提供されてもよい。
[others]
A program may be provided that causes a computer to function as a control unit of an information processing device, such as the control unit 33 in the imaging device 3100 or the control unit 23 in the information display terminal 3800 .

霧・HDR・鮮明化などの異なるアルゴリズムのうちのいずれを現在再生中の映像に適用するか切り替える仕組みが必要となるという課題があるので、補正処理に関して、以下のような態様を採用してもよい。
1.GPSから太陽の位置と方向を得て、映像に補正をかける補正内容を変更したり変化させる。
2.GPS位置情報と地図情報から街なかか、森の中か等を判断して、適用アルゴリズムを変化させる。
3.フォグランプをオンにする操作が検出された場合には、霧のアルゴリズムを適用する。
4.コントラストの差が小さく、白いときは霧と判定し、霧除去アルゴリズムを適用する。
5.黒が多いときは、暗闇と判定し、明るくする。
6.CLAHE、ガンマ、コントラストを、セットで可変させる。
Since there is a problem that it is necessary to have a mechanism for switching which of the different algorithms such as fog, HDR, sharpening, etc. is applied to the image currently being reproduced, even if the following aspects are adopted for the correction processing good.
1. The position and direction of the sun are obtained from GPS, and the content of correction applied to the image is changed or varied.
2. Based on GPS location information and map information, it is determined whether the location is in the city or in the woods, and the applied algorithm is changed.
3. If the operation of turning on the fog lights is detected, a fog algorithm is applied.
4. If the difference in contrast is small and the image is white, it is determined to be fog and a fog removal algorithm is applied.
5. When there is a lot of black, it is determined to be dark and brightened.
6. CLAHE, gamma, and contrast are varied as a set.

ドライブレコーダ等の撮影装置3100で記録した映像について、撮影装置3100で画質補正をかけた映像を記録した映像とは別のファイルに書き出す機能を備えてもよい。 A function may be provided to write the video recorded by the imaging device 3100 such as a drive recorder to a file different from the video recorded with the video image quality-corrected by the imaging device 3100 .

ドライブレコーダ本体での再生中に所定の操作をすることで、画質補正した映像を書き出す機能を備えてもよい。 The drive recorder may have a function of writing out an image corrected in image quality by performing a predetermined operation during playback on the drive recorder main body.

画質補正した映像の書き出し中にはエンジンを切らないでくださいという報知を継続的に行ってもよく、特に音声で繰り返し行うとよい。 The notification that the engine should not be turned off while the image corrected for image quality is being written may be continuously notified, particularly preferably repeatedly by voice.

ビューアにはユーザーが操作可能な画質パラメータを調整する操作部、例えばラジオボタン、チェックボックス、プルダウンメニュー、スライダー等が設けられ、記録された映像を再生しながら操作部の操作に応じた画質調整結果を表示し、表示された状態で操作部を固定する固定指示部、例えば固定する指示を与えるチェックボックス等に固定指示がされた場合には操作部の操作の変更を禁止し、その固定された操作部の画質調整結果を表示するようにしてもよい。 The viewer is provided with an operation unit for adjusting image quality parameters that can be operated by the user, such as radio buttons, check boxes, pull-down menus, sliders, etc., and the result of image quality adjustment according to the operation of the operation unit while playing back the recorded video. is displayed, and if a fixation instruction is given to a fixation instruction section that fixes the operation section in the displayed state, for example, a check box that gives a fixation instruction, the operation of the operation section is prohibited from being changed. The image quality adjustment result of the operation unit may be displayed.

ビューアには、ユーザーが操作可能な画質パラメータを調整する操作部、例えばラジオボタン、チェックボックス、プルダウンメニュー、スライダー等が設けられ、ユーザーの操作部の操作と、映像の時刻とを同期させて、記録する機能を備えてもよい。記録されたユーザー操作部の操作に応じた画質調整を行って再生する機能を備えてもよい。 The viewer is provided with operation units for adjusting image quality parameters that can be operated by the user, such as radio buttons, check boxes, pull-down menus, and sliders. A recording function may be provided. A function of adjusting the image quality according to the operation of the recorded user operation unit and playing back may be provided.

ドライブレコーダ等の撮影装置3100又はビューアとなる第1のプログラムP1がインストールされた情報表示端末3800には、位置情報を削除した投稿用の映像の書き出し機能と、位置情報を削除しない投稿用の書き出し機能とが備えられてもよい。 The imaging device 3100 such as a drive recorder or the information display terminal 3800 in which the first program P1 serving as a viewer is installed has a function of writing video for posting with position information deleted and a writing function for posting without deleting the position information. function may be provided.

記録された映像の補正後の映像を補正の状態の異なる複数のストリームとして表示し、複数のストリームである表示画面の中から、書き出し対象または再生対象のストリームをユーザーが選択する選択機能を備えてもよい。これは例えば、候補映像ウインドウが複数開いて元映像ウインドウと時間的に同期して再生する、その中からユーザーが選択ボタン等で最も良いものを選ぶ、等とすればよい。 It displays the recorded video after correction as multiple streams with different correction states, and has a selection function that allows the user to select the stream to be written or played back from the multiple streams on the display screen. good too. For example, a plurality of candidate video windows may be opened and reproduced in synchronism with the original video window, and the user may select the best one from among them using a selection button or the like.

上記のユーザーの選択結果や選択の状態と、そのときの元映像の情報の関係性を使って、別の映像の再生時の画質調整パラメータ等を決定するようにしてもよい。ここでは当該関係性を記録するか、学習モデルに学習させて記録してもよい。 Image quality adjustment parameters and the like for playback of another video may be determined using the relationship between the user's selection result and selection state and the information of the original video at that time. Here, the relationship may be recorded, or may be recorded after being learned by a learning model.

映像の書き出し時に映像を書き出す場所的範囲を矩形等で選択する機能を備え、画質の補正は選択された範囲内にのみ行ってから再エンコードして書き出すようにしてもよい。 It is also possible to provide a function of selecting a locational range for writing the video with a rectangle or the like when writing the video, and perform image quality correction only within the selected range before re-encoding and writing.

例えばYoutube等のSNS等へ投稿するための書き出し機能を備え、元の映像と加工後の映像とを1つのファイルに格納してアップロードする機能を備えるとよい。両映像を並べたストリームとしてもよいし、両映像を時間的に前後に並べてつなげた映像ストリームとしてもよい。このとき、それぞれの映像が「元映像」「加工後の映像」であることを示す表示を埋め込んで書き出すとよい。 For example, it is preferable to provide a writing function for posting to SNS such as YouTube, and a function to store and upload the original video and the processed video in one file. A stream in which both images are arranged side by side may be used, or a video stream in which both images are arranged one behind the other in terms of time and connected may be used. At this time, it is preferable to embed an indication indicating that each image is an "original image" and a "processed image" before writing.

全天球、半天球カメラで撮影した映像については、映像を展開してその一部を座標変換して表示したものに対して、加工処理を行うとよい。このようにすれば処理負荷を低減できる。あるいは、例えば最外周部分を含むドーナツ状の部分について加工を加える一方、ドーナツの穴の部分、つまる内部の円領域については、加工を行わないか、又は別の加工を行うようにしてもよい。 In the case of an image captured by an omnidirectional or semispherical camera, it is preferable to process the displayed image by expanding the image and performing coordinate transformation on a part of the image. By doing so, the processing load can be reduced. Alternatively, for example, while the donut-shaped portion including the outermost portion is processed, the hole portion of the donut, that is, the inner circular region, may not be processed or may be processed differently.

さらに、次の態様でも提供可能である。 Furthermore, the following aspects can also be provided.

前記情報処理装置において、前記画面には、オブジェクトが含まれ前記制御部は、ユーザーによって選択された前記オブジェクトに対する操作指示を受け取り、前記操作指示に対応する、前記画像に関する処理結果の表示の指示を受け付け、前記画像に関する処理結果を含む画面を表示するよう制御する、情報処理装置。 In the information processing apparatus, the screen includes an object, and the control unit receives an operation instruction for the object selected by the user, and issues an instruction to display a processing result regarding the image in response to the operation instruction. An information processing device that receives and controls to display a screen containing a processing result regarding the image.

このような態様によれば、オブジェクトの操作に対応する任意の画像処理をユーザーの選択によって実行することができる。 According to such an aspect, any image processing corresponding to the operation of the object can be executed by the user's selection.

前記情報処理装置において、前記画面には、オブジェクトが含まれ、前記オブジェクトは、前記画像に関する異なる処理結果ごとに異なり、前記制御部は、ユーザーによって選択されたオブジェクトに対応する、前記画像に関する処理結果の表示の指示を受け付け、前記画像に関する処理結果を含む画面を表示するよう制御する、情報処理装置。 In the information processing device, the screen includes an object, the object differs for each different processing result of the image, and the control unit controls the processing result of the image corresponding to the object selected by the user. , and controls to display a screen including a processing result of the image.

このような態様によれば、オブジェクトに対応する任意の画像処理をユーザーの選択によって実行することができる。 According to such an aspect, any image processing corresponding to the object can be executed by the user's selection.

前記情報処理装置において、前記制御部は、前記画面を介して第1のオブジェクトと第2のオブジェクトとが選択された場合、前記第1のオブジェクトに対応する、前記画像に関する第1の処理結果の表示の指示と、前記第2のオブジェクトに対応する、前記画像に関する第2の処理結果の表示の指示と、を受け付け、前記画像に関する前記第1の処理結果と、前記画像に関する前記第2の処理結果とを含む画面を表示するよう制御する、情報処理装置。 In the information processing apparatus, when a first object and a second object are selected through the screen, the control unit outputs a first processing result regarding the image corresponding to the first object. receiving an instruction to display and an instruction to display a second processing result regarding the image corresponding to the second object, and performing the first processing result regarding the image and the second processing regarding the image; An information processing device that controls to display a screen containing results.

このような態様によれば、任意の画像処理を複数同時に実行することができる。 According to this aspect, a plurality of arbitrary image processes can be executed simultaneously.

前記情報処理装置において、前記第1のオブジェクトに関連する画像処理と前記第2のオブジェクトに関連する画像処理とでは、前記画像における画像処理の対象とする領域が異なる、情報処理装置。 In the information processing device, the image processing related to the first object and the image processing related to the second object are different in an image processing target region in the image.

このような態様によれば、異なる領域に対して、任意の画像処理を複数同時に実行することができる。 According to this aspect, it is possible to simultaneously perform a plurality of arbitrary image processes on different regions.

前記情報処理装置において、前記画面に表示されているオブジェクトは、天候に関する画像処理に関連するオブジェクトである、情報処理装置。 In the information processing apparatus, the object displayed on the screen is an object related to image processing related to weather.

このような態様によれば、天候に対応させて適切な画像処理を行えるようにすることができる。 According to such an aspect, it is possible to perform appropriate image processing corresponding to the weather.

前記情報処理装置において、前記制御部は、前記画像の状態に基づいて前記画面に表示するオブジェクトを変更する、情報処理装置。 In the information processing apparatus, the control unit changes an object to be displayed on the screen based on the state of the image.

このような態様によれば、画像内の情報に基づいて適切な画像処理を行えるようにすることができる。 According to this aspect, it is possible to perform appropriate image processing based on the information in the image.

前記情報処理装置において、前記制御部は、道路ネットワーク情報に基づいて前記画像に対する画像処理を示唆するオブジェクトを前記画面に表示するよう制御する、情報処理装置。 In the information processing apparatus, the control unit controls to display an object suggesting image processing for the image on the screen based on road network information.

このような態様によれば、道路ネットワーク情報に基づいて適切な画像処理を行えるようにすることができる。 According to this aspect, appropriate image processing can be performed based on the road network information.

前記情報処理装置において、前記制御部は、前記撮影部を有する移動体の加速度を検出する加速度センサーの情報に基づいて前記画像に対する画像処理を示唆するオブジェクトを前記画面に表示するよう制御する、情報処理装置。 In the information processing device, the control unit controls to display on the screen an object suggesting image processing for the image based on information from an acceleration sensor that detects acceleration of a moving body having the imaging unit. processing equipment.

このような態様によれば、移動体の加速度センサーの情報に基づいて適切な画像処理を行えるようにすることができる。 According to this aspect, it is possible to perform appropriate image processing based on the information from the acceleration sensor of the moving body.

前記情報処理装置において、前記制御部は、前記撮影部を有する移動体の位置情報に基づいて前記画像に対する画像処理を示唆するオブジェクトを前記画面に表示するよう制御する、情報処理装置。 In the information processing apparatus, the control unit performs control to display on the screen an object suggesting image processing for the image based on position information of a moving body having the imaging unit.

このような態様によれば、移動体の位置情報に基づいて適切な画像処理を行えるようにすることができる。 According to such an aspect, it is possible to perform appropriate image processing based on the position information of the moving body.

前記情報処理装置において、前記制御部は、前記撮影部を有する移動体の位置情報と前記画像が撮影された日時の天候情報とに基づいて前記画像に対する画像処理を示唆するオブジェクトを前記画面に表示するよう制御する、情報処理装置。 In the information processing apparatus, the control unit displays on the screen an object suggesting image processing for the image based on location information of a moving body having the image capturing unit and weather information at the date and time when the image was captured. Information processing device that controls to

このような態様によれば、移動体の位置情報とその位置での日時の天候情報に基づいて適切な画像処理を行えるようにすることができる。 According to this aspect, it is possible to perform appropriate image processing based on the location information of the moving body and the weather information of the date and time at that location.

前記情報処理装置において、前記制御部は、前記撮影部を有する移動体の操作情報に基づいて前記画像に対する画像処理を示唆するオブジェクトを前記画面に表示するよう制御する、情報処理装置。 In the information processing apparatus, the control unit performs control to display an object suggesting image processing for the image on the screen based on operation information of a moving object having the imaging unit.

このような態様によれば、移動体の操作情報に基づいて適切な画像処理を行えるようにすることができる。 According to such an aspect, it is possible to perform appropriate image processing based on the operation information of the moving object.

前記情報処理装置において、前記制御部は、前記画像が撮影された日時に基づいて前記画像に対する画像処理を示唆するオブジェクトを前記画面に表示するよう制御する、情報処理装置。 In the information processing apparatus, the control unit performs control to display on the screen an object suggesting image processing for the image based on the date and time when the image was captured.

このような態様によれば、画像が撮影された日時に基づいて適切な画像処理を行えるようにすることができる。 According to this aspect, it is possible to perform appropriate image processing based on the date and time when the image was taken.

前記情報処理装置において、前記画像に対する画像処理は、前記撮影部で撮影された画像の一部に対する画像処理である、情報処理装置。 In the information processing device, the image processing for the image is image processing for a part of the image captured by the imaging unit.

このような態様によれば、撮影された画像の一部に対して画像処理を行えるようにすることができる。 According to this aspect, it is possible to perform image processing on part of the captured image.

前記情報処理装置において、前記画像の一部とは、前記撮影部で撮影された画像の全領域のうち設定された領域である、情報処理装置。 In the information processing apparatus, the part of the image is a set area out of the entire area of the image captured by the imaging unit.

このような態様によれば、画像処理を行う領域を設定することができる。 According to such an aspect, it is possible to set the area where the image processing is performed.

前記情報処理装置において、前記画像の一部とは、前記撮影部で撮影された画像のうち設定された時間帯に撮影された画像である、情報処理装置。 In the information processing device, the part of the image is an image captured in a set time zone among the images captured by the imaging unit.

このような態様によれば、設定された時間帯に撮影された画像の一部の領域に対して適切に画像処理を行えるようにすることができる。 According to this aspect, it is possible to appropriately perform image processing on a partial area of an image captured during the set time period.

前記情報処理装置において、前記画像の一部とは、前記撮影部を有する移動体の位置情報が設定された範囲内で撮影された画像である、情報処理装置。 In the information processing device, the part of the image is an image captured within a range in which the position information of the moving body having the imaging unit is set.

このような態様によれば、設定された位置を移動する移動体が撮影した画像の一部の領域に対して適切に画像処理を行えるようにすることができる。 According to such an aspect, it is possible to appropriately perform image processing on a partial area of an image captured by a moving body moving in a set position.

前記情報処理装置において、前記画像の一部とは、前記撮影部を有する移動体の位置における前記画像が撮影された日時の天候情報が設定された天気を示す画像である、情報処理装置。 In the information processing apparatus, the part of the image is an image indicating the weather set with weather information of the date and time when the image was taken at the position of the moving body having the image capturing unit.

このような態様によれば、移動体の位置における天候に基づいて撮影した画像の一部の領域に対して適切に画像処理を行えるようにすることができる。 According to such an aspect, it is possible to appropriately perform image processing on a partial area of an image captured based on the weather at the position of the mobile object.

前記情報処理装置において、前記画像の一部とは、前記撮影部を有する移動体のセンサー情報が設定された閾値内の画像である、情報処理装置。 In the information processing device, the part of the image is an image within a threshold set by the sensor information of the moving body having the imaging unit.

このような態様によれば、移動体のセンサー情報に基づいて撮影した画像の一部の領域に対して適切に画像処理を行えるようにすることができる。 According to this aspect, it is possible to appropriately perform image processing on a partial area of an image captured based on the sensor information of the moving object.

前記情報処理装置において、前記画面には、前記画像処理が行われる範囲が自動で選択されたか、手動で選択されたかの情報が含まれる、情報処理装置。 In the information processing apparatus, the screen includes information as to whether the range in which the image processing is performed has been automatically selected or manually selected.

このような態様によれば、実行された画像処理の範囲が、自動で設定されたか又は手動で選択されたかを識別することができる。 According to this aspect, it is possible to identify whether the range of image processing that has been performed has been automatically set or manually selected.

前記情報処理装置において、前記画面には、前記撮影部で撮影された画像と、1以上の画像処理後の画像と、が含まれる、情報処理装置。 In the information processing apparatus, the screen includes an image captured by the capturing unit and an image after one or more image processes.

このような態様によれば、画像処理の前後を比較して表示することができる。 According to such an aspect, it is possible to compare and display before and after image processing.

前記情報処理装置において、前記制御部は、前記1以上の画像処理後の画像の選択に関する学習情報に基づいて、画像処理のパラメータを調整する、情報処理装置。 In the information processing apparatus, the control unit adjusts image processing parameters based on learning information related to selection of the one or more image-processed images.

このような態様によれば、選択された画像処理結果を学習し、以降の画像処理をより適切に行えるようにすることができる According to this aspect, it is possible to learn the selected image processing result and perform subsequent image processing more appropriately.

前記情報処理装置において、前記画面には、画像処理後の画像が含まれ、前記制御部は、前記撮影部で撮影された画像を記憶領域に記憶する、情報処理装置。 In the information processing device, the screen includes an image after image processing, and the control unit stores the image captured by the imaging unit in a storage area.

このような態様によれば、画面に画像処理後の画像を表示しつつ、元の画像を記憶することができる。 According to this aspect, the original image can be stored while displaying the image after the image processing on the screen.

前記情報処理装置において、前記画面には、前記撮影部で撮影された画像に対してどのような画像処理を行ったかの情報が含まれる、情報処理装置。 In the information processing device, the screen includes information about what kind of image processing has been performed on the image captured by the imaging unit.

このような態様によれば、どのような画像処理が行われたかを確認することができる。 According to such an aspect, it is possible to confirm what kind of image processing has been performed.

前記情報処理装置において、前記制御部は、前記撮影部で撮影された画像に対してどのような画像処理を行ったかの情報をログ情報として記憶領域に記憶する、情報処理装置。 In the information processing apparatus, the control unit stores information on what kind of image processing was performed on the image captured by the imaging unit as log information in a storage area.

このような態様によれば、どのような画像処理が行われたかを確認することができる。 According to such an aspect, it is possible to confirm what kind of image processing has been performed.

前記情報処理装置において、前記制御部は、前記ログ情報に基づいて画像処理後の画像から画像処理前の画像に変換して前記画面に出力する、情報処理装置。 In the information processing apparatus, the control unit converts an image after image processing into an image before image processing based on the log information, and outputs the image to the screen.

このような態様によれば、画像処理後の画像を画像処理前の元の画像に戻すことができる。 According to such an aspect, the image after image processing can be restored to the original image before image processing.

前記情報処理装置において、前記制御部は、前記画像から検出された物体に応じて前記画面に含まれるオブジェクトを変更する、情報処理装置。 In the information processing apparatus, the control unit changes an object included in the screen according to an object detected from the image.

このような態様によれば、画像内の物体に基づいて画像処理の方法を変更することができる。 According to this aspect, it is possible to change the image processing method based on the object in the image.

前記情報処理装置において、前記画面には、前記画像処理の程度を調整する調整オブジェクトが含まれ、前記制御部は、前記調整オブジェクトの操作に応じて、前記画像処理の程度を調整する、情報処理装置。 In the information processing device, the screen includes an adjustment object for adjusting the degree of the image processing, and the control unit adjusts the degree of the image processing according to an operation of the adjustment object. Device.

このような態様によれば、明暗等の画像処理の程度を調整することができる。 According to this aspect, the degree of image processing such as brightness can be adjusted.

前記情報処理装置において、前記制御部は、前記調整オブジェクトの操作のタイミングと、前記画像の記録タイミング又は前記画像の再生タイミングと、を関連付けて記憶する、情報処理装置。 In the information processing device, the control unit associates and stores the timing of operation of the adjustment object and the recording timing of the image or the reproduction timing of the image.

このような態様によれば、どのようなタイミングで画像処理の程度の調整がされたかわかるようになる。 According to such an aspect, it becomes possible to know at what timing the degree of image processing was adjusted.

前記情報処理装置において、前記画面には、前記調整オブジェクトによる調整を禁止する固定指示オブジェクトが含まれ、前記制御部は、前記固定指示オブジェクトの操作に応じて、前記調整オブジェクトによる調整を禁止する、情報処理装置。 In the information processing device, the screen includes a fixed instruction object that prohibits adjustment by the adjustment object, and the control unit prohibits adjustment by the adjustment object in accordance with an operation of the fixed instruction object. Information processing equipment.

このような態様によれば、画像処理の程度を固定することができる。 According to such an aspect, the degree of image processing can be fixed.

前記情報処理装置において、前記制御部は、過去の前記画像処理の調整の程度の学習情報に基づいて、画像処理の程度を調整する、情報処理装置。 In the information processing device, the control unit adjusts the degree of image processing based on learning information about the degree of adjustment of the image processing in the past.

このような態様によれば、画像処理の程度の調整結果を学習し、以降の画像処理をより適切に行えるようにすることができる According to this aspect, it is possible to learn the adjustment result of the degree of image processing, and to perform subsequent image processing more appropriately.

前記情報処理装置において、前記画面には、画像出力オブジェクトが含まれ、前記制御部は、前記画像出力オブジェクトの操作に応じて、前記画像の位置情報を削除して前記画像を出力する、情報処理装置。 In the information processing apparatus, the screen includes an image output object, and the control unit deletes the position information of the image and outputs the image in accordance with an operation of the image output object. Device.

このような態様によれば、画像に紐づく位置情報を削除する操作をすることができる。 According to this aspect, it is possible to perform an operation to delete the position information associated with the image.

前記情報処理装置において、前記制御部は、画像処理された前記画像に個人を特定可能な情報が含まれている場合は、前記個人を特定可能な情報に対してマスク処理の実行を要求する、情報処理装置。 In the information processing device, if the image that has undergone image processing contains information that can identify an individual, the control unit requests execution of mask processing for the information that can identify the individual. Information processing equipment.

このような態様によれば、個人を特定可能な情報が含まれないよう適切に画像処理を行えるようにすることができる。 According to this aspect, it is possible to appropriately perform image processing so that information that can identify an individual is not included.

前記情報処理装置において、前記制御部は、前記画面を介した操作指示に基づき、画像処理を実行する、情報処理装置。 In the information processing apparatus, the control unit executes image processing based on an operation instruction through the screen.

このような態様によれば、情報処理装置は、画像処理を実行することができる。 According to such an aspect, the information processing device can execute image processing.

前記情報処理装置と通信可能な画像処理装置であって、制御部を有し、前記制御部は、前記情報処理装置からの要求に基づいて、画像処理を実行する、情報処理装置。 An information processing apparatus, which is an image processing apparatus communicable with the information processing apparatus, comprising a control section, wherein the control section executes image processing based on a request from the information processing apparatus.

プログラムであって、コンピュータを、前記情報処理装置の制御部として機能させるためのプログラム。 A program for causing a computer to function as a control section of the information processing apparatus.

もちろん、これに限定されるものではない。 Of course, it is not limited to this.

なお、本発明の範囲は、明細書に明示的に説明された構成や限定されるものではなく、本明細書に開示される本発明の様々な側面の組み合わせをも、その範囲に含むものである。本発明のうち、特許を受けようとする構成を、添付の特許請求の範囲に特定したが、現在の処は特許請求の範囲に特定されていない構成であっても、本明細書に開示される構成を、将来的に特許請求の範囲とする意思を有する。 It should be noted that the scope of the present invention is not limited to the configurations or limitations expressly set forth herein, and encompasses within its scope any combination of the various aspects of the invention disclosed herein. While the claimed features of the invention are identified in the appended claims, any configuration not presently specified in the claims is disclosed herein. We intend to claim such configurations in the future.

本願発明は上述した実施の形態に記載の構成に限定されない。上述した各実施の形態や変形例の構成要素は任意に選択して組み合わせて構成するとよい。また各実施の形態や変形例の任意の構成要素と、発明を解決するための手段に記載の任意の構成要素又は発明を解決するための手段に記載の任意の構成要素を具体化した構成要素とは任意に組み合わせて構成するとよい。これらについても本願の補正又は分割出願等において権利取得する意思を有する。「~の場合」「~のとき」という記載があったとしてもその場合やそのときに限られる構成として記載はしているものではない。これらの場合やときでない構成についても開示しているものであり、権利取得する意思を有する。また順番を伴った記載になっている箇所もこの順番に限らない。一部の箇所を削除したり、順番を入れ替えた構成についても開示しているものであり、権利取得する意思を有する。 The present invention is not limited to the configurations described in the above-described embodiments. The constituent elements of the above-described embodiments and modifications may be arbitrarily selected and combined. In addition, arbitrary constituent elements of each embodiment and modifications, arbitrary constituent elements described in Means for Solving the Invention, or constituent elements embodying arbitrary constituent elements described in Means for Solving the Invention and may be configured in any combination. We intend to acquire the rights for these as well in the amendment of the present application or in the divisional application. Even if there is a description of "in the case of" or "when", it is not described as a configuration limited to that case or that time. We disclose and intend to reserve these occasions and occasions. Moreover, the parts described with order are not limited to this order. It also discloses a configuration in which some parts are deleted or the order is changed, and there is an intention to acquire the right.

また、意匠登録出願への変更により、全体意匠又は部分意匠について権利取得する意思を有する。図面は本装置の全体を実線で描画しているが、全体意匠のみならず当該装置の一部の部分に対して請求する部分意匠も包含した図面である。例えば当該装置の一部の部材を部分意匠とすることはもちろんのこと、部材と関係なく当該装置の一部の部分を部分意匠として包含した図面である。当該装置の一部の部分としては、装置の一部の部材としても良いし、その部材の部分としても良い。全体意匠はもちろんのこと、図面の実線部分のうち任意の部分を破線部分とした部分意匠を、権利化する意思を有する。また、装置の筐体の内部のモジュール・部材・部品等についても、図面に表示されているものは、いずれも独立して取引の対象となるものであって、同様に、意匠登録出願への変更を行って権利化を行う意思を有するものである。 In addition, the applicant intends to acquire rights to the entire design or partial design by converting the design registration application. Although the entire device is drawn in solid lines in the drawing, the drawing includes not only the overall design but also the partial design claimed for a part of the device. For example, it is a drawing that includes a part of the device as a partial design regardless of the member, as well as a partial design of a part of the member of the device. The part of the device may be a part of the device or a part of the member. We intend to acquire rights not only for the overall design, but also for the partial design in which any part of the solid line part of the drawing is a broken line part. In addition, the modules, members, parts, etc. inside the housing of the device that are shown in the drawings are all subject to trade independently. It has the intention of making changes and obtaining rights.

11 :制御部
22 :記憶部
23 :制御部
231 :取得部
232 :受付部
233 :補正部
234 :解除部
235 :表示制御部
32 :記憶部
33 :制御部
331 :取得部
332 :受付部
333 :記録部
334 :補正部
335 :表示制御部
4 :再生画面
41 :補正領域
42 :非補正領域
43 :付加情報
5 :シークバー
51 :補正時間
IF1 :特定情報
IF2 :道路ネットワーク情報
IF3 :地形情報
IF4 :動作情報
IM :画像データ
P1 :第1のプログラム
P2 :第2のプログラム
P3 :第3のプログラム
P4 :第4のプログラム
PL :パラメータログ
PT :パラメータ
R :関心領域
3000:情報処理システム
3011:制御部
3013:表示部
3014:音声出力部
3015:撮影部
3111:プロセッサ
3100:撮影装置
3200:撮影装置
3400:車両
3500:記録媒体
3700:サーバ
3710:制御部
3711:画像処理部
3712:通信制御部
3713:記憶制御部
3720:記憶部
3730:通信部
3800:情報表示端末
3810:制御部
3811:表示制御部
3812:通信制御部
3813:記憶制御部
3820:記憶部
3830:通信部
3840:入力部
3850:出力部
3900:ネットワーク
4100:再生ウインドウ
4101:ファイルボタン
4102:表示ボタン
4103:再生ボタン
4104:ツールボタン
4105:インフォメーションボタン
4110:映像表示領域
4120:加速度グラフ表示領域
4130:地図画像表示領域
4131:現在地アイコン
4140:霧補正ボタン
4141:HDRボタン
4142:鮮明化ボタン
4143:その他処理ボタン
4144:一部処理ボタン
4145:ストリーム表示ボタン
4146:操作ボタン
4150:日時表示領域
4160:車両状態表示領域
4170:速度グラフ表示領域
4180:プレイリスト表示領域
4200:再生ウインドウ
4210:映像表示領域
4240:霧補正ボタン
4300:再生ウインドウ
4310:映像表示領域
4311:霧補正領域
4312:処理内容表示部
4313:鮮明化領域
4314:処理内容表示部
4340:霧補正ボタン
4342:鮮明化ボタン
4344:一部処理ボタン
4400:再生ウインドウ
4440:晴補正ボタン
4441:雲補正ボタン
4442:雨補正ボタン
4443:霧補正ボタン
4500:再生ウインドウ
4510:映像表示領域
4540:霧補正ボタン
4600:再生ウインドウ
4610:映像表示領域
4630:地図画像表示領域
4631:現在地アイコン
4640:トンネル補正ボタン
4700:再生ウインドウ
4720:加速度グラフ表示領域
4721:加速度表示部
4740:加速補正ボタン
4770:速度グラフ表示領域
4800:再生ウインドウ
4810:映像表示領域
4830:地図画像表示領域
4831:現在地アイコン
4832:処理領域
4840:霧補正ボタン
4900:再生ウインドウ
4910:映像表示領域
4911:天候情報
4941:雨補正ボタン
5000:再生ウインドウ
5010:映像表示領域
5030:地図画像表示領域
5031:現在地アイコン
5040:ブレーキ補正ボタン
5070:速度グラフ表示領域
5100:再生ウインドウ
5110:映像表示領域
5140:夜補正ボタン
5150:日時表示領域
5200:再生ウインドウ
5210:映像表示領域
5211:霧補正領域
5240:霧補正ボタン
5300:再生ウインドウ
5310:映像表示領域
5311:夜補正領域
5340:夜補正ボタン
5350:日時表示領域
5400:再生ウインドウ
5410:映像表示領域
5411:霧補正領域
5430:地図画像表示領域
5431:現在地アイコン
5432:処理領域
5440:霧補正ボタン
5500:再生ウインドウ
5510:映像表示領域
5511:曇補正領域
5512:天候情報
5540:曇補正ボタン
5541:雨補正ボタン
5600:再生ウインドウ
5610:映像表示領域
5611:加速度補正領域
5620:加速度グラフ表示領域
5621:加速度表示部
5640:加速補正ボタン
5700:再生ウインドウ
5710:映像表示領域
5711:自動霧補正領域
5712:処理内容表示部
5713:手動霧補正領域
5714:処理内容表示部
5740:霧補正ボタン
5745:ストリーム表示ボタン
5800:再生ウインドウ
5810:映像表示領域
5811:オリジナル画像表示部
5812:オリジナル表示部
5813:処理1結果表示部
5814:処理1内容表示部
5815:処理2結果表示部
5816:処理2内容表示部
5817:処理3結果表示部
5818:処理3内容表示部
5846:操作ボタン
5900:再生ウインドウ
5910:映像表示領域
5911:処理内容表示部
5940:霧補正ボタン
6000:再生ウインドウ
6080:プレイリスト表示領域
6081:プレイリスト
6100:再生ウインドウ
6110:映像表示領域
6111:検出情報表示部
6140:霧補正ボタン
6200:再生ウインドウ
6290:画像処理調整領域
6291:色相調整オブジェクト
6292:明るさ調整オブジェクト
6293:コントラスト調整オブジェクト
6294:彩度調整オブジェクト
6295:ガンマ値調整オブジェクト
6296:シグマ値調整オブジェクト
6297:半径調整オブジェクト
6298:変動量調整オブジェクト
6300:再生ウインドウ
6390:画像処理調整領域
6391:画像調整固定オブジェクト
6392:シャープネス調整固定オブジェクト
6393:バンディングノイズ除去調整固定オブジェクト
6394:フィルム粒状化調整固定オブジェクト
6400:再生ウインドウ
6401:ファイルボタン
6410:映像表示領域
6500:再生ウインドウ
6510:映像表示領域
6511:他車両
6512:ナンバープレート情報
6540:個人情報処理ボタン
6541:HDRボタン
6600:情報処理システム
6800:情報処理端末
6811:表示制御部
6812:通信制御部
6813:記憶制御部
6814:画像処理部
11 : Control unit 22 : Storage unit 23 : Control unit 231 : Acquisition unit 232 : Reception unit 233 : Correction unit 234 : Cancellation unit 235 : Display control unit 32 : Storage unit 33 : Control unit 331 : Acquisition unit 332 : Reception unit 333 : Recording unit 334 : Correction unit 335 : Display control unit 4 : Playback screen 41 : Correction area 42 : Non-correction area 43 : Additional information 5 : Seek bar 51 : Correction time IF1 : Specific information IF2 : Road network information IF3 : Terrain information IF4 : Motion information IM : Image data P1 : First program P2 : Second program P3 : Third program P4 : Fourth program PL : Parameter log PT : Parameter R : Region of interest 3000 : Information processing system 3011 : Control Unit 3013: Display unit 3014: Audio output unit 3015: Imaging unit 3111: Processor 3100: Imaging device 3200: Imaging device 3400: Vehicle 3500: Recording medium 3700: Server 3710: Control unit 3711: Image processing unit 3712: Communication control unit 3713 : Storage control unit 3720: Storage unit 3730: Communication unit 3800: Information display terminal 3810: Control unit 3811: Display control unit 3812: Communication control unit 3813: Storage control unit 3820: Storage unit 3830: Communication unit 3840: Input unit 3850: Output unit 3900: Network 4100: Playback window 4101: File button 4102: Display button 4103: Playback button 4104: Tool button 4105: Information button 4110: Video display area 4120: Acceleration graph display area 4130: Map image display area 4131: Current location icon 4140: Fog correction button 4141: HDR button 4142: Sharpening button 4143: Other processing button 4144: Partial processing button 4145: Stream display button 4146: Operation button 4150: Date and time display area 4160: Vehicle state display area 4170: Speed graph display Area 4180: playlist display area 4200: playback window 4210: video display area 4240: fog correction button 4300: playback window 4310: video display area 4311: fog correction area 4312: processing content display section 4313: sharpening region 4314: processing content Display unit 4340: Fog correction button 4342: Sharpening button 4344: Partial processing button 4400: Reproduction window 4440: Sunny correction button 4441: Cloud correction button 4442: Rain correction button 4443: Fog correction button 4500: Reproduction window 4510: video display area 4540: fog correction button 4600: playback window 4610: video display area 4630: map image display area 4631: current location icon 4640: tunnel correction button 4700: playback window 4720: acceleration graph display area 4721: acceleration display section 4740 : Acceleration correction button 4770: Speed graph display area 4800: Playback window 4810: Video display area 4830: Map image display area 4831: Current location icon 4832: Processing area 4840: Fog correction button 4900: Playback window 4910: Video display area 4911: Weather Information 4941: Rain correction button 5000: Playback window 5010: Video display area 5030: Map image display area 5031: Current location icon 5040: Brake correction button 5070: Speed graph display area 5100: Playback window 5110: Video display area 5140: Night correction button 5150: date and time display area 5200: playback window 5210: video display area 5211: fog correction area 5240: fog correction button 5300: playback window 5310: video display area 5311: night correction area 5340: night correction button 5350: date and time display area 5400: Playback window 5410: video display area 5411: fog correction area 5430: map image display area 5431: current location icon 5432: processing area 5440: fog correction button 5500: playback window 5510: video display area 5511: fog correction area 5512: weather information 5540 : Cloud correction button 5541: Rain correction button 5600: Playback window 5610: Video display area 5611: Acceleration correction area 5620: Acceleration graph display area 5621: Acceleration display section 5640: Acceleration correction button 5700: Playback window 5710: Video display area 5711: Automatic fog correction area 5712: Processing content display section 5713: Manual fog correction area 5714: Processing content display section 5740: Fog correction button 5745: Stream display button 5800: Playback window 5810: Video display area 5811: Original image display section 5812: Original Display section 5813: Process 1 result display section 5814: Process 1 content display section 5815: Process 2 result display section 5816: Process 2 content display section 5817: Process 3 result display section 5818: Process 3 content display section 5846: Operation button 5900: Playback window 5910: Video display area 5911: Processing content display section 5940: Fog correction button 6000: Playback window 6080: Playlist table Display area 6081: playlist 6100: playback window 6110: video display area 6111: detection information display part 6140: fog correction button 6200: playback window 6290: image processing adjustment area 6291: hue adjustment object 6292: brightness adjustment object 6293: contrast Adjustment object 6294: Saturation adjustment object 6295: Gamma value adjustment object 6296: Sigma value adjustment object 6297: Radius adjustment object 6298: Variation amount adjustment object 6300: Playback window 6390: Image processing adjustment area 6391: Image adjustment fixed object 6392: Sharpness Adjustment fixed object 6393: Banding noise removal adjustment fixed object 6394: Film graining adjustment fixed object 6400: Playback window 6401: File button 6410: Video display area 6500: Playback window 6510: Video display area 6511: Other vehicle 6512: License plate information 6540: Personal information processing button 6541: HDR button 6600: Information processing system 6800: Information processing terminal 6811: Display control unit 6812: Communication control unit 6813: Storage control unit 6814: Image processing unit

Claims (23)

システムであって、
制御部を備え、
前記制御部は、次の各ステップを実行するように構成され、
取得ステップでは、移動体の状態又は状況に関する特定情報を取得し、
第1の補正ステップでは、前記特定情報に基づいて、この特定情報に対応する時間における、前記移動体が有する撮影装置が生成した画像データへの第1の補正処理を実行し、
表示制御ステップでは、前記第1の補正処理が実行された前記画像データを再生可能に表示させる、もの。
a system,
Equipped with a control unit,
The control unit is configured to perform the following steps,
The obtaining step obtains specific information about the state or situation of the mobile body,
In a first correction step, based on the specific information, performing a first correction process on image data generated by an imaging device of the moving body at a time corresponding to the specific information,
In the display control step, the image data on which the first correction process has been executed is displayed in a reproducible manner.
請求項1に記載のシステムにおいて、
前記第1の補正ステップでは、前記特定情報に基づいて、補正される範囲である補正範囲を可変に、前記画像データへの前記第1の補正処理を実行する、もの。
The system of claim 1, wherein
In the first correction step, the first correction process for the image data is performed on the basis of the specific information so that a correction range, which is a range to be corrected, is variable.
請求項2に記載のシステムにおいて、
前記補正範囲は、前記画像データのフレームに設定された関心領域である、もの。
3. The system of claim 2, wherein
The correction range is a region of interest set in the frame of the image data.
請求項1~請求項3の何れか1つに記載のシステムにおいて、
前記制御部は、次の各ステップをさらに実行するように構成され、
第1の受付ステップでは、ユーザーによる第1の入力を受け付け、
解除ステップでは、前記第1の入力に基づいて、前記画像データに対する前記第1の補正処理を解除する、もの。
In the system according to any one of claims 1 to 3,
The control unit is configured to further perform the following steps,
In a first receiving step, receiving a first input by the user,
The canceling step cancels the first correction process on the image data based on the first input.
請求項1~請求項4の何れか1つに記載のシステムにおいて、
前記制御部は、次の各ステップをさらに実行するように構成され、
第2の受付ステップでは、ユーザーによる第2の入力を受け付け、
第2の補正ステップでは、前記第2の入力に基づいて、前記画像データへの第2の補正処理を実行する、もの。
In the system according to any one of claims 1 to 4,
The control unit is configured to further perform the following steps,
A second receiving step receives a second input from the user,
A second correction step executes a second correction process on the image data based on the second input.
請求項5に記載のシステムにおいて、
前記表示制御ステップでは、前記第1の補正処理と、前記第2の補正処理とが区別可能な態様で、前記画像データを再生可能に表示させる、もの。
6. The system of claim 5, wherein
In the display control step, the image data is displayed reproducibly in such a manner that the first correction process and the second correction process can be distinguished from each other.
請求項1~請求項6の何れか1つに記載のシステムにおいて、
前記特定情報は、前記移動体の位置、向き、速度、加速度、時刻、時間帯、天候、走行状態及びペダルワークのうちの少なくとも1つである、もの。
In the system according to any one of claims 1 to 6,
The specific information is at least one of the position, orientation, speed, acceleration, time, time zone, weather, running state, and pedal work of the mobile body.
請求項1~請求項7の何れか1つに記載のシステムにおいて、
前記制御部は、取得ステップをさらに実行するように構成され、
前記特定情報は、前記移動体の位置であり、
前記取得ステップでは、道路ネットワーク情報を取得し、
前記第1の補正ステップでは、前記位置と、前記道路ネットワーク情報とに基づいて、前記画像データへの第1の補正処理を実行する、もの。
In the system according to any one of claims 1 to 7,
The control unit is configured to further perform an obtaining step,
The specific information is the position of the mobile body,
The obtaining step obtains road network information,
In the first correction step, a first correction process is performed on the image data based on the position and the road network information.
請求項1~請求項8の何れか1つに記載のシステムにおいて、
前記制御部は、取得ステップをさらに実行するように構成され、
前記特定情報は、前記移動体の位置であり、
前記取得ステップでは、地形情報を取得し、
前記第1の補正ステップでは、前記位置と、前記地形情報とに基づいて、前記画像データへの第1の補正処理を実行する、もの。
In the system according to any one of claims 1 to 8,
The control unit is configured to further perform an obtaining step,
The specific information is the position of the mobile object,
The obtaining step obtains terrain information,
In the first correction step, a first correction process is performed on the image data based on the position and the terrain information.
請求項1~請求項9の何れか1つに記載のシステムにおいて、
前記特定情報は、前記移動体の位置と、向きとであり、
前記第1の補正ステップでは、前記位置と、前記向きとから推定される太陽の位置に基づいて、前記画像データへの第1の補正処理を実行する、もの。
In the system according to any one of claims 1 to 9,
the specific information is the position and orientation of the moving body;
In the first correction step, a first correction process is performed on the image data based on the position of the sun estimated from the position and the orientation.
請求項1~請求項10の何れか1つに記載のシステムにおいて、
前記第1の補正ステップは、準備ステップと、処理ステップとを備え、
前記制御部は、予め記憶された第1のプログラムと、前記第1のプログラムとは異なる第2のプログラムとを呼出可能に構成され、
前記第1のプログラムは、前記準備ステップを実行させ、
前記準備ステップでは、
前記画像データに含まれるパラメータを抽出し、
抽出された前記パラメータの値を、前記第2のプログラムに渡し、
前記第2のプログラムは、前記処理ステップと、前記表示制御ステップとを実行させ、
前記処理ステップでは、前記パラメータに対して前記第1の補正処理を実行することで、その値を変化させ、
前記表示制御ステップでは、前記処理ステップにおいて変化した前記パラメータの値に基づく前記画像データを再生可能に表示させる、もの。
In the system according to any one of claims 1 to 10,
The first correction step comprises a preparation step and a processing step,
The control unit is configured to be able to call a first program stored in advance and a second program different from the first program,
The first program causes the preparatory step to be executed,
In the preparatory step,
extracting parameters included in the image data;
passing the extracted parameter values to the second program;
The second program causes the processing step and the display control step to be executed,
In the processing step, the value of the parameter is changed by executing the first correction processing on the parameter;
In the display control step, the image data based on the value of the parameter changed in the processing step is reproducibly displayed.
請求項11に記載のシステムにおいて、
前記パラメータは、色相、明度、彩度、コントラスト、ガンマ、鮮鋭度、再生開始時刻、再生終了時刻及びループの有無のうち少なくとも1つを含む、もの。
12. The system of claim 11, wherein
The parameters include at least one of hue, brightness, saturation, contrast, gamma, sharpness, playback start time, playback end time, and presence/absence of loop.
請求項11又は請求項12に記載のシステムにおいて、
前記準備ステップでは、前記第2のプログラムの動作に関する動作情報を前記第2のプログラムに渡し、
前記表示制御ステップでは、前記動作情報に基づいて、前記第2のプログラムが有する機能の少なくとも一部を制限して、前記画像データを再生可能に表示させる、もの。
A system according to claim 11 or claim 12, wherein
In the preparation step, passing operation information about the operation of the second program to the second program;
In the display control step, based on the operation information, at least part of the functions of the second program are restricted to display the image data in a reproducible manner.
請求項11~請求項13の何れか1つに記載のシステムにおいて、
前記第1のプログラムは、前記表示制御ステップを実行するように構成され、
前記表示制御ステップでは、前記第2のプログラムがインストールされていない場合、このインストールを推奨する画面を表示させる、もの。
In the system according to any one of claims 11 to 13,
The first program is configured to execute the display control step,
In the display control step, if the second program is not installed, a screen recommending installation of the second program is displayed.
請求項11~請求項13の何れか1つに記載のシステムにおいて、
前記第2のプログラムは、外部装置に記憶されたプログラムであり、
前記制御部は、前記第2のプログラムを、ネットワークを介して呼び出すように構成される、もの。
In the system according to any one of claims 11 to 13,
The second program is a program stored in an external device,
The control unit is configured to call the second program via a network.
システムであって
制御部を備え、
前記制御部は、次の各ステップを実行するように構成され、
記録ステップでは、カメラが撮像した映像を、画像データとして記録し、
表示制御ステップでは、前記カメラが撮像した映像をライブビューとして表示させ、
記録された前記画像データと、表示された前記映像とのパラメータが、異なるように設定される、もの。
A system comprising a control unit,
The control unit is configured to perform the following steps,
In the recording step, the video captured by the camera is recorded as image data,
In the display control step, the image captured by the camera is displayed as a live view,
The parameters of the recorded image data and the displayed video are set differently.
請求項16に記載のシステムにおいて、
前記記録ステップでは、前記映像を補正せずに前記画像データとして記録し、
前記表示制御ステップでは、前記映像を補正して前記ライブビューとして表示させる、もの。
17. The system of claim 16, wherein
In the recording step, the image is recorded as the image data without correction,
In the display control step, the image is corrected and displayed as the live view.
請求項17に記載のシステムにおいて、
前記記録ステップでは、表示された前記映像のパラメータをパラメータログとして、前記画像データとともに時系列で記録する、もの。
18. The system of claim 17, wherein
In the recording step, parameters of the displayed image are recorded as a parameter log in chronological order together with the image data.
請求項18に記載のシステムにおいて、
前記制御部は、第3の受付ステップをさらに実行するように構成され、
前記第3の受付ステップでは、ユーザーによる第3の入力を受け付け、
前記表示制御ステップでは、前記第3の入力に基づいて、前記画像データ及び前記パラメータログを読み出して、補正された前記画像データを再生可能に表示させる、もの。
19. The system of claim 18, wherein
The control unit is configured to further execute a third receiving step,
In the third receiving step, receiving a third input by the user;
In the display control step, based on the third input, the image data and the parameter log are read, and the corrected image data is reproducibly displayed.
請求項16~請求項19の何れか1つに記載のシステムにおいて、
前記制御部は、予め記憶された第3のプログラムと、前記第3のプログラムとは異なる第4のプログラムとを呼出可能に構成され、
前記表示制御ステップでは、前記画像データが前記第4のプログラムで再生された場合に、前記第3のプログラムでの再生を促す情報を表示させる、もの。
In the system according to any one of claims 16 to 19,
The control unit is configured to be able to call a third program stored in advance and a fourth program different from the third program,
In the display control step, when the image data is reproduced by the fourth program, information prompting reproduction by the third program is displayed.
請求項20に記載のシステムにおいて、
前記再生を促す情報は、前記画像データの再生画面とともに表示される、もの。
21. The system of claim 20, wherein
The information prompting reproduction is displayed together with a reproduction screen of the image data.
情報処理方法であって、
請求項1~請求項21の何れか1つに記載のシステムの各ステップを備える、方法。
An information processing method,
A method comprising the steps of a system according to any one of claims 1-21.
プログラムであって、
コンピュータを請求項1~請求項21の何れか1つに記載のシステムの制御部として機能させる、もの。
a program,
A computer that functions as a controller of the system according to any one of claims 1 to 21.
JP2021124846A 2021-07-29 2021-07-29 System, information processing method, and program and the like Pending JP2023019827A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021124846A JP2023019827A (en) 2021-07-29 2021-07-29 System, information processing method, and program and the like

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021124846A JP2023019827A (en) 2021-07-29 2021-07-29 System, information processing method, and program and the like

Publications (1)

Publication Number Publication Date
JP2023019827A true JP2023019827A (en) 2023-02-09

Family

ID=85159390

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021124846A Pending JP2023019827A (en) 2021-07-29 2021-07-29 System, information processing method, and program and the like

Country Status (1)

Country Link
JP (1) JP2023019827A (en)

Similar Documents

Publication Publication Date Title
JP6633216B2 (en) Imaging device and electronic equipment
CN106094809B (en) Vehicle driving assistance device
EP3211616A2 (en) Driver assistance apparatus
EP3700198B1 (en) Imaging device, image processing apparatus, and image processing method
JP6534103B2 (en) Recording apparatus and image reproduction method
JP2010130114A (en) Drive recorder
KR102163317B1 (en) Control method for vehicle
JP2017517041A (en) Method for storing camera image data in a vehicle accident data memory
JP2010198214A (en) Drive recorder and video information display method
WO2021244591A1 (en) Driving auxiliary device and method, and vehicle and storage medium
JP2008299656A (en) Image recording condition setting method in drive recorder
WO2019235127A1 (en) Record/play device, record/play method, and program
KR20220083675A (en) Display systems, display devices, display methods and mobile devices
JP2023019828A (en) Information processing system, image processing device, and program and the like
JP2007272867A (en) Road condition photographing device and road condition photography system using the same
JP6981095B2 (en) Server equipment, recording methods, programs, and recording systems
JP2023019827A (en) System, information processing method, and program and the like
JP2015023510A (en) On-vehicle device
US20200084369A1 (en) Control device, imaging device, control method, and program
WO2020137398A1 (en) Operation control device, imaging device, and operation control method
JP2022190766A (en) Vehicle peripheral information display device and vehicle peripheral information display method
JP6661858B2 (en) System, program, imaging device, and software
WO2018155242A1 (en) Information processing device, information processing method, and information processing program
TW201931323A (en) Method for enabling dashboard camera to provide more functions and dashboard camera using the same including an image message capture/input step, a comparison or/and determination step, a transmitting or/and recording step, and action or instruction performing step
JP7418681B2 (en) Recording control device, recording control method, and recording control program

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20240216