JP2019146058A - Photographing system, photographing unit and photographing device - Google Patents

Photographing system, photographing unit and photographing device Download PDF

Info

Publication number
JP2019146058A
JP2019146058A JP2018029446A JP2018029446A JP2019146058A JP 2019146058 A JP2019146058 A JP 2019146058A JP 2018029446 A JP2018029446 A JP 2018029446A JP 2018029446 A JP2018029446 A JP 2018029446A JP 2019146058 A JP2019146058 A JP 2019146058A
Authority
JP
Japan
Prior art keywords
shooting
unit
photographing
information
condition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018029446A
Other languages
Japanese (ja)
Other versions
JP6973163B2 (en
Inventor
浩幸 山元
Hiroyuki Yamamoto
浩幸 山元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2018029446A priority Critical patent/JP6973163B2/en
Publication of JP2019146058A publication Critical patent/JP2019146058A/en
Application granted granted Critical
Publication of JP6973163B2 publication Critical patent/JP6973163B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)

Abstract

To solve the problem that in a situation where an on-vehicle camera tries to derive a photographing condition for obtaining a good-quality photographed image, the on-vehicle camera cannot derive the photographing condition on time in a point where a scene to be photographed varies rapidly, so that good-quality photographed image with high recognition rate of a photographic subject cannot be obtained.SOLUTION: The photographing system comprises: a photographing device; communication means that communicates with the photographing device; a photographing part that photographs a reference photographic subject at a specific point where the photographing device photographs and outputs a photographed image; an image recognizing part that derives a recognition rate at which the reference photographic subject is recognized in the photographed image on the basis of a result of comparison of photographed image information subjected to image processing on the basis of the output photographed image with correct-answer image information representing a prepared reference photographic subject; a condition deriving part that derives a photographing setting for improving the recognition rate of the reference photographic subject in the photographed image accompanying the derivation of the recognition rate, and derives a photographing condition which is utilized by the photographing device on the basis of the photographing setting; and a condition renewing part that transmits the photographing condition to the photographing device through the communication means to make the device to utilize the condition.SELECTED DRAWING: Figure 1

Description

本発明は、撮影環境に応じた撮像条件を導出する撮影システム、その撮影システムで用いられる撮影ユニット、及び、その撮影システムが導出する撮影条件を利用する撮像装置に関する。   The present invention relates to an imaging system for deriving an imaging condition corresponding to an imaging environment, an imaging unit used in the imaging system, and an imaging apparatus that uses an imaging condition derived by the imaging system.

従来、車載カメラや監視カメラ等の、特に屋外において被写体を撮影する撮影装置は、撮影する光景、つまり撮影環境が時々刻々と変化するなか、被写体を精度良く認識できる、つまり被写体の認識率が高い撮影画像を提供する必要がある。   2. Description of the Related Art Conventionally, a photographing apparatus that photographs a subject, such as an in-vehicle camera or a surveillance camera, can recognize the subject accurately while the scene of photographing, that is, the photographing environment changes every moment, that is, the recognition rate of the subject is high. It is necessary to provide a photographed image.

そこで、特許文献1では、屋外において被写体を撮影する車載カメラが、自装置を搭載した車両の走行する撮影環境の情報を外部から取得して、撮影に関わる適切なパラメータ、つまり撮影条件を導出し自装置に設定することで、良質な撮影画像を提供する手法が提案されている。   Therefore, in Patent Document 1, an in-vehicle camera that captures a subject outdoors obtains information on the imaging environment in which the vehicle on which the device is mounted travels from outside, and derives appropriate parameters related to imaging, that is, imaging conditions. There has been proposed a method for providing a high-quality photographed image by setting the own apparatus.

特開2006−222844号JP 2006-222844 A

しかしながら、従来技術のように、車両の外部に設置した撮影装置が時々刻々と変化する撮影環境にある被写体を撮影して、車載カメラがこのとき撮影した撮影環境の情報を取得しても、良質な撮影画像を得るための撮影条件を車載カメラ自体が導出するとなると、例えば、車載カメラを搭載した車両の走行経路において撮影する光景が急激に変化する地点では、車載カメラでの撮影条件の導出が間に合わず、被写体の認識率が高い良質な撮影画像を得られない虞がある。   However, as in the prior art, even if the photographing device installed outside the vehicle photographs a subject in a photographing environment that changes from moment to moment, and the in-vehicle camera acquires information on the photographing environment photographed at this time, it is good quality. If the in-vehicle camera itself derives the imaging conditions for obtaining a captured image, for example, the in-vehicle camera derives the imaging conditions at a point where the scene photographed on the travel route of the vehicle equipped with the in-vehicle camera changes rapidly. There is a possibility that a high-quality captured image with a high recognition rate of the subject cannot be obtained in time.

本発明は、上述した課題を解決するためのものであり、撮影環境に応じて撮像条件を導出する撮影システム、その撮影システムで用いられる撮影ユニット、及び、その撮影システムが導出する撮影条件を利用する撮影装置を提供することを目的とする。   The present invention is for solving the above-described problem, and uses an imaging system for deriving an imaging condition according to an imaging environment, an imaging unit used in the imaging system, and an imaging condition derived by the imaging system. An object of the present invention is to provide a photographing apparatus that performs the above.

本発明は、撮影装置と、撮影装置との間で種々の情報を送受信するための通信を行う通信手段と、撮影装置が撮影する特定地点において、参考被写体を撮影し撮影画像を出力する撮影部と、出力された撮影画像に基づき画像処理された撮影画像情報と、予め用意された参考被写体を表す正解画像情報との比較に基づき、撮影画像において参考被写体を認識するときの精度を示す認識率を導出する画像認識部と、認識率の導出に伴い、撮影画像における参考被写体の認識率を向上させる撮影設定を導出し、撮影設定に基づき撮影装置が利用する撮影条件を導出する条件導出部と、条件導出部が導出した撮影条件を記憶する記憶部と、撮影装置に対し記憶部に記憶された撮影条件を利用させるために、通信手段を介して、撮影条件を送信する条件更新部と、を備えた撮影システムである。   The present invention includes a photographing device, a communication unit that performs communication for transmitting and receiving various information between the photographing device, and a photographing unit that photographs a reference subject and outputs a photographed image at a specific point where the photographing device photographs. And a recognition rate indicating accuracy when recognizing the reference subject in the photographed image based on a comparison between the photographed image information image-processed based on the output photographed image and correct image information representing the reference subject prepared in advance And a condition deriving unit for deriving a shooting setting for improving the recognition rate of the reference subject in the shot image and deriving a shooting condition used by the shooting apparatus based on the shooting setting. A storage unit that stores the imaging condition derived by the condition deriving unit, and a condition for transmitting the imaging condition via the communication unit so that the imaging apparatus uses the imaging condition stored in the storage unit. And Shinbu a photographing system provided with a.

本発明によれば、撮影システムは撮影装置が特定地点において撮影をするときに被写体を認識率高く撮影できるようにする効果が得られる。   According to the present invention, the photographing system can obtain an effect of photographing a subject with a high recognition rate when the photographing device photographs at a specific point.

本発明の実施の形態1における、撮影システムの適用例を示すシステム構成図である。It is a system configuration figure showing an example of application of a photography system in Embodiment 1 of the present invention. 撮影ユニットが参考被写体を撮影するときの撮影ベクトル情報を示す模式図である。It is a schematic diagram which shows imaging | photography vector information when an imaging | photography unit image | photographs a reference subject. 撮影システムでの無線通信の確立を示す模式図である。It is a schematic diagram which shows establishment of the radio | wireless communication in an imaging | photography system. 撮影システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of an imaging | photography system. 撮影システムの構成の変形例を示す機能ブロック図である。It is a functional block diagram which shows the modification of a structure of an imaging | photography system. 撮影システムで扱う種々の情報の関連を示す情報関連図である。It is an information related figure which shows the relationship of the various information handled with an imaging | photography system. 撮影条件情報に含まれる情報の一例を示す情報リスト図である。It is an information list figure which shows an example of the information contained in imaging condition information. 撮影システムが撮影装置に対し撮影条件を送信する処理を示すフローチャート図である。It is a flowchart figure which shows the process in which an imaging | photography system transmits imaging | photography conditions with respect to an imaging device. 撮影ユニットが参考被写体を撮影し認識率を導出する定義済み処理を示すフローチャート図である。It is a flowchart figure which shows the predefined process in which an imaging | photography unit image | photographs a reference object and derives a recognition rate. 撮影条件を導出するための画像変換処理を説明するための模式図である。It is a schematic diagram for demonstrating the image conversion process for deriving imaging | photography conditions. 実施の形態2における、撮影システムの適用例を示すシステム構成図である。10 is a system configuration diagram illustrating an application example of an imaging system in Embodiment 2. FIG. 撮影システムの構成を示す機能ブロック図である。It is a functional block diagram which shows the structure of an imaging | photography system. 撮影システムで扱う種々の情報の関連を示す情報関連図である。It is an information related figure which shows the relationship of the various information handled with an imaging | photography system. 撮影システムが撮影装置に対し撮影条件を送信する処理を示すフローチャート図である。It is a flowchart figure which shows the process in which an imaging | photography system transmits imaging | photography conditions with respect to an imaging device.

実施の形態1.
図1は、本発明の実施の形態1における、撮影システム1の適用例を示すシステム構成図である。撮影システム1は、少なくとも複数の撮影ユニット4を備える。撮影システム1はさらに撮影装置3を備えるものとしても良い。
Embodiment 1 FIG.
FIG. 1 is a system configuration diagram showing an application example of the imaging system 1 in Embodiment 1 of the present invention. The photographing system 1 includes at least a plurality of photographing units 4. The photographing system 1 may further include a photographing device 3.

撮影システム1は、撮影ユニット4が撮影する撮影画像の情報をもとに、撮影装置3が被写体を撮影するときの種々の設定である撮影条件を導出する。撮影条件の導出については後述する。   The photographing system 1 derives photographing conditions that are various settings when the photographing device 3 photographs a subject based on information of a photographed image photographed by the photographing unit 4. Derivation of shooting conditions will be described later.

移動体2は、例えば、自動車又は列車等の車両、船舶、並びに、航空機である。本実施の形態では、自動車を例に説明をする。   The mobile body 2 is, for example, a vehicle such as an automobile or a train, a ship, and an aircraft. In the present embodiment, a description will be given by taking an automobile as an example.

移動体2が移動する経路を移動経路Rとする。移動経路Rは予め定められる経路である。移動体2は、例えば、衛星測位システムを利用することによって、移動経路R上での自身の位置を検知することが出来る。   A route along which the moving body 2 moves is referred to as a moving route R. The movement route R is a predetermined route. The mobile body 2 can detect its own position on the movement route R by using, for example, a satellite positioning system.

撮影装置3は、移動体2の外部、つまり周囲の光景を撮影する、例えば、車載カメラである。   The imaging device 3 is, for example, an in-vehicle camera that captures a scene outside the moving body 2, that is, a surrounding scene.

光源Lは、例えば、太陽や街路灯等の光源を示しており、撮影装置3が被写体を撮影する撮影環境を照らすものである。ところで、光源Lの他に、移動体2はヘッドライト等の照明装置を備えることで、照明装置を光源として撮影環境を照らすことが出来る。   The light source L indicates, for example, a light source such as the sun or a street lamp, and illuminates a shooting environment in which the shooting device 3 captures a subject. Incidentally, in addition to the light source L, the moving body 2 includes an illuminating device such as a headlight, so that the photographing environment can be illuminated using the illuminating device as a light source.

移動経路Rの周辺にある、光源からの光を遮蔽又は反射する物体を物体Eとする。物体Eは、撮影装置3が被写体を撮影した撮影画像の画質に影響を及ぼす。
図1では、物体Eの例として、物体E1はトンネル、物体E2は森林、及び、物体E3は海を示している。物体E1及びE2は光を遮蔽し、物体E3は光を反射するので、被写体の撮影画像は撮影環境の一部である物体Eの種類及び配置の影響を受けることになる。
An object around the moving path R that shields or reflects light from the light source is referred to as an object E. The object E affects the image quality of a captured image obtained by capturing the subject by the image capturing apparatus 3.
In FIG. 1, as an example of the object E, the object E1 indicates a tunnel, the object E2 indicates a forest, and the object E3 indicates a sea. Since the objects E1 and E2 block light and the object E3 reflects light, the captured image of the subject is affected by the type and arrangement of the object E that is a part of the shooting environment.

ところで、撮影システム1は、通信手段を有しており、移動体2又は撮影装置3との間で通信することが出来るものとする。撮影システム1は、通信手段を用いて、移動体2又は撮影装置3に対し撮影条件を送信する。そして、撮影装置3は、撮影システム1が送信した撮影条件を利用することが出来るものとする。   By the way, the imaging system 1 has a communication unit and can communicate with the moving body 2 or the imaging apparatus 3. The imaging system 1 transmits imaging conditions to the moving body 2 or the imaging device 3 using communication means. The photographing apparatus 3 can use the photographing conditions transmitted by the photographing system 1.

撮影システム1と移動体2又は撮影装置3との通信には、例えば、中距離無線通信、長距離無線通信又は広域無線通信を用いることが出来る。撮影システム1は、移動体2又は撮影装置3との通信が確立した状態において撮影条件を送信する。撮影システム1と移動体2又は撮影装置3との通信の確立については後述する。   For communication between the imaging system 1 and the moving body 2 or the imaging device 3, for example, medium-range wireless communication, long-range wireless communication, or wide-area wireless communication can be used. The imaging system 1 transmits imaging conditions in a state where communication with the moving body 2 or the imaging device 3 is established. The establishment of communication between the imaging system 1 and the moving body 2 or the imaging device 3 will be described later.

撮影ユニット4a,4b,・・・,4eは、移動経路Rに沿って配置された、移動体2に搭載の撮影装置3での撮影を模擬するための撮影機器である。撮影ユニット4a,4b,・・・,4eをまとめて撮影ユニット4と記載する。   The photographing units 4a, 4b,..., 4e are photographing devices for simulating photographing with the photographing device 3 mounted on the moving body 2 arranged along the moving route R. The photographing units 4a, 4b,..., 4e are collectively referred to as a photographing unit 4.

参考被写体5a,5b,・・・,5eは、移動経路Rに沿って配置された撮影ユニット4の撮影対象である。図1では、撮影ユニット4aは参考被写体5aを撮影し、撮影ユニット4bは参考被写体5bを撮影し、撮影ユニット4cは参考被写体5cを撮影し、撮影ユニット4dは参考被写体5dを撮影し、撮影ユニット4eは参考被写体5eを撮影する。参考被写体5a,5b,・・・,5eをまとめて参考被写体5と記載する。
参考被写体5は、撮影装置3が撮影する、例えば、自動車、人、路面標示又は動物等の被写体を模擬するものである。参考被写体5は、模擬する被写体を、例えば、模型、写真又はディスプレイ等のように、二次元又は三次元で視覚的に表現する。
Reference subjects 5a, 5b,..., 5e are shooting targets of the shooting unit 4 arranged along the movement route R. In FIG. 1, the photographing unit 4a photographs the reference subject 5a, the photographing unit 4b photographs the reference subject 5b, the photographing unit 4c photographs the reference subject 5c, the photographing unit 4d photographs the reference subject 5d, and the photographing unit. 4e photographs the reference subject 5e. Reference subjects 5a, 5b,..., 5e are collectively referred to as reference subject 5.
The reference subject 5 simulates a subject photographed by the photographing device 3, such as a car, a person, a road marking, or an animal. The reference subject 5 visually represents a subject to be simulated in two dimensions or three dimensions, such as a model, a photograph, or a display.

撮影ユニット4は、移動経路Rにおいて、撮影装置3が撮影する光景に変化が生じやすい、つまり、撮影環境の変化が緩やかではない地点に設置される。このような地点を特定地点Aとする。図1では、撮影ユニット4a,4b,・・・,4eと対応する特定地点Aをそれぞれ、特定地点A1,A2,・・・,A5としている。   The photographing unit 4 is installed on the moving route R at a point where the scene taken by the photographing device 3 is likely to change, that is, the photographing environment is not gradually changed. Such a point is defined as a specific point A. In FIG. 1, specific points A corresponding to the photographing units 4a, 4b,..., 4e are specified as specific points A1, A2,.

そして、撮影ユニット4は、特定地点Aにおいて、常時、参考被写体5を撮影している。常時撮影するとは、周期的又は定期的に繰り返し撮影することであり、撮影環境の変化に応じた撮影画像を得ることを目的とする。   The photographing unit 4 always photographs the reference subject 5 at the specific point A. “Continuous photographing” means that photographing is repeated periodically or periodically, and an object is to obtain a photographed image corresponding to a change in photographing environment.

なお、日時によって撮影環境の変化の仕方が異なるので、例えば、曇が無いため天候要因の変化が少なく撮影環境が緩やかに変化する期間は撮影の頻度を少なくしたり、その反対に天候要因の変化が多く撮影環境の変化が緩やかではない期間は撮影の頻度を多くしたりしても良い。   Since the shooting environment changes depending on the date and time, for example, there is no change in the weather factor because there is no cloudiness, so the frequency of shooting is reduced during the period when the shooting environment changes slowly, and vice versa. However, the frequency of shooting may be increased during a period in which there are many changes in the shooting environment.

図1では、撮影ユニット4aが参考被写体5aを撮影したときの撮影画像を撮影画像P1とし、撮影ユニット4bが参考被写体5bを撮影したときの撮影画像を撮影画像P2とし、撮影ユニット4cが参考被写体5cを撮影したときの撮影画像を撮影画像P3とし、撮影ユニット4dが参考被写体5dを撮影したときの撮影画像を撮影画像P4とし、撮影ユニット4eが参考被写体5eを撮影したときの撮影画像を撮影画像P5としている。   In FIG. 1, a captured image when the photographing unit 4a photographs the reference subject 5a is a photographed image P1, a photographed image when the photographing unit 4b photographs the reference subject 5b is a photographed image P2, and the photographing unit 4c is the reference subject. A photographed image when the photographing unit 4d photographed the reference subject 5e is taken as a photographed image P3, a photographed image when the photographing unit 4d photographed the reference subject 5d, and a photographed image P4. The image is P5.

ここで、撮影装置3が被写体を撮影した撮影画像において当該被写体を認識する精度を認識率と定義する。同様に、撮影ユニット4が参考被写体5を撮影した撮影画像において当該参考被写体5を認識する精度についても認識率を用いて表すことが出来る。   Here, the accuracy of recognizing a subject in a photographed image obtained by photographing the subject by the photographing device 3 is defined as a recognition rate. Similarly, the accuracy of recognizing the reference subject 5 in the photographed image obtained by photographing the reference subject 5 by the photographing unit 4 can also be expressed using the recognition rate.

図2は、撮影ユニット4が参考被写体5を撮影するときの撮影ベクトル情報を示す模式図である。撮影ユニット4と参考被写体5との位置と、撮影ユニット4での撮影画像における認識率との関係について考える。   FIG. 2 is a schematic diagram showing shooting vector information when the shooting unit 4 captures the reference subject 5. Consider the relationship between the position of the photographing unit 4 and the reference subject 5 and the recognition rate of the photographed image in the photographing unit 4.

図2に示す物体E1はトンネルである。図2(a)は、参考被写体5a1がトンネルの外側に設置される場合を示す。図2(b)は、参考被写体5a2がトンネルの内側に設置される場合を示す。このように、図2(a)の参考被写体5a1は日光が遮られず、一方で、図2(b)の参考被写体5a2は日光が遮られる。その結果、撮影ユニット4aが参考被写体5a1を撮影した撮影画像P11と、参考被写体5a2を撮影した撮影画像P12との間で認識率に差異が生じる。   The object E1 shown in FIG. 2 is a tunnel. FIG. 2A shows a case where the reference subject 5a1 is installed outside the tunnel. FIG. 2B shows a case where the reference subject 5a2 is installed inside the tunnel. Thus, the reference subject 5a1 in FIG. 2A is not blocked by sunlight, while the reference subject 5a2 in FIG. 2B is blocked by sunlight. As a result, a difference occurs in the recognition rate between the photographed image P11 obtained by photographing the reference subject 5a1 by the photographing unit 4a and the photographed image P12 obtained by photographing the reference subject 5a2.

つまり、撮影ユニット4aに対する参考被写体5の位置の違いによっては、撮影ユニット4aが撮影する撮影画像内の参考被写体5の位置に差異は殆ど生じないが、撮影における焦点の違いから認識率に差異が生じることが考えられる。ここで、”撮影ユニット4aに対する参考被写体5の位置の違いによっては、撮影ユニット4aが撮影する撮影画像内の参考被写体5の位置に差異は殆ど生じない”とは、撮影された参考被写体5の画像の大小の違いは生じても、画像の中心位置の差異は殆ど生じないという意味である。   That is, depending on the difference in the position of the reference subject 5 with respect to the photographing unit 4a, there is almost no difference in the position of the reference subject 5 in the photographed image taken by the photographing unit 4a, but there is a difference in the recognition rate due to the difference in focus in photographing. It is possible that this will occur. Here, “the difference in the position of the reference subject 5 in the photographed image taken by the photographing unit 4a hardly occurs depending on the difference in the position of the reference subject 5 with respect to the photographing unit 4a” means that the photographed reference subject 5 This means that even if there is a difference in image size, there is almost no difference in the center position of the image.

そこで、撮影ユニット4が参考被写体5を撮影する向きの情報と撮影する距離の情報とをあわせた、撮影ベクトル情報を定義する。   Therefore, shooting vector information is defined by combining information on the direction in which the shooting unit 4 shoots the reference subject 5 and information on the shooting distance.

そして、撮影ユニット4が参考被写体5を撮影したときに導出する認識率と共に、当該参考被写体5と対応する撮影ベクトル情報を認識率と関連付けて出力することにより、撮影システム1は、撮影装置3に対し撮影ベクトル情報を含む撮影条件を導出して提供することが可能となる。
参考被写体5と対応する撮影ベクトル情報は、撮影ユニット4が予め保持しても良いし、撮影における向きと距離の調整に伴い導出しても良い。
The photographing system 1 outputs the photographing vector information corresponding to the reference subject 5 together with the recognition rate together with the recognition rate derived when the photographing unit 4 has photographed the reference subject 5, thereby allowing the photographing system 1 to the photographing device 3. On the other hand, it is possible to derive and provide shooting conditions including shooting vector information.
The shooting vector information corresponding to the reference subject 5 may be held in advance by the shooting unit 4 or may be derived with adjustment of the direction and distance in shooting.

これにより、撮影装置3は、撮影ベクトル情報と関連付けて撮影条件を設定することができ、これから撮影する被写体の撮影向き及び撮影距離と、撮影ベクトル情報に含まれる撮影向き及び撮影距離との差分に基づいて、当該被写体を撮影するための撮影条件を撮影装置3がさらに調整することが可能となる。その結果、撮影装置3での撮影画像における認識率をより向上させることが出来る。   Thereby, the imaging device 3 can set the imaging condition in association with the imaging vector information, and the difference between the imaging direction and the imaging distance of the subject to be imaged from the imaging direction and the imaging distance included in the imaging vector information. Based on this, the photographing apparatus 3 can further adjust the photographing conditions for photographing the subject. As a result, it is possible to further improve the recognition rate in the photographed image by the photographing apparatus 3.

図1では、撮影ユニット4cは移動経路Rを挟んで参考被写体5cを撮影している。このときの撮影条件に撮影ベクトル情報を付与することで、撮影ユニット4cは対向車線から向かってくる他の移動体2を撮影する撮影装置3を模擬している意図を撮影条件に含めることが出来る。また、撮影ユニット4dは移動経路Rを挟まず参考被写体5dを撮影している。同様にして、このときの撮影条件に撮影ベクトル情報を付与することで、撮影ユニット4dは同一車線の先行する移動体2を撮影する撮影装置3を模擬している意図を撮影条件に含めることが出来る。   In FIG. 1, the photographing unit 4 c photographs the reference subject 5 c with the movement route R in between. By adding the shooting vector information to the shooting conditions at this time, the shooting unit 4c can include the intention of simulating the shooting device 3 for shooting the other moving body 2 coming from the opposite lane in the shooting conditions. . Further, the photographing unit 4d photographs the reference subject 5d without sandwiching the movement route R. Similarly, by adding the shooting vector information to the shooting conditions at this time, the shooting unit 4d can include in the shooting conditions the intention of simulating the shooting device 3 for shooting the preceding moving body 2 in the same lane. I can do it.

上述のとおり、撮影ユニット4に対する参考被写体5の相対的な位置は、撮影条件を受信して設定する撮影装置3の撮影に影響を及ぼすため、撮影ユニット4が撮影ベクトル情報の異なる複数の参考被写体5を撮影するごとに、撮影ベクトル情報と対応付けて認識率を導出することにより、複数の撮影ベクトル情報と対応して情報を区別した撮影条件を撮影装置3に対して提供することも可能である。
例えば、特定地点Aに複数の参考被写体5を配置して、当該特定地点Aの撮影ユニット4が当該複数の参考被写体5を撮影して、それぞれの認識率を導出するとともに、認識率と対応した撮影ベクトル情報を関連付けるようにしても良い。
このとき、撮影ユニット4は複数の参考被写体5を撮影するために、自律的に又は外部操作によって撮影向きを変える機構を備えるようにしても良い。
As described above, the relative position of the reference subject 5 with respect to the photographing unit 4 affects the photographing of the photographing device 3 that receives and sets the photographing conditions, so that the photographing unit 4 has a plurality of reference subjects having different photographing vector information. It is also possible to provide the photographing apparatus 3 with photographing conditions in which information is distinguished in association with a plurality of pieces of photographing vector information by deriving a recognition rate in association with photographing vector information each time the image is taken. is there.
For example, a plurality of reference subjects 5 are arranged at a specific point A, and the photographing unit 4 at the specific point A images the plurality of reference subjects 5 to derive respective recognition rates and correspond to the recognition rates. The shooting vector information may be associated.
At this time, the photographing unit 4 may be provided with a mechanism for changing the photographing direction autonomously or by an external operation in order to photograph a plurality of reference subjects 5.

ところで、撮影装置3が、撮影システム1から受信した撮影条件を特定地点Aにおいて即時に利用できるようにするために、撮影システム1は、移動体2が特定地点Aに到達するのに先立ち、移動体2又は撮影装置3に対して撮影条件を送信する。そこで、撮影システム1では、移動経路R上を進行向きDに移動する移動体2が、特定地点Aよりも先に到着する位置を特定位置Bとして予め定める。そして、撮影システム1は、移動体2が特定位置Bに到達したときに撮影条件を送信することで、移動体2が特定地点Aに到達するのに先立ち撮影条件を提供することが出来る。
図1では、特定地点A1,A2,・・・,A5と対応する特定位置Bをそれぞれ、特定位置B1,B2,・・・,B5としている。
By the way, in order that the imaging device 3 can immediately use the imaging conditions received from the imaging system 1 at the specific point A, the imaging system 1 moves before the moving body 2 reaches the specific point A. The imaging conditions are transmitted to the body 2 or the imaging device 3. Therefore, in the photographing system 1, a position where the moving body 2 moving in the traveling direction D on the moving route R arrives before the specific point A is determined as the specific position B in advance. The imaging system 1 can provide imaging conditions prior to the mobile body 2 reaching the specific point A by transmitting the imaging conditions when the mobile body 2 reaches the specific position B.
In FIG. 1, specific positions B corresponding to specific points A1, A2,..., A5 are set as specific positions B1, B2,.

つまり、撮影装置3は、特定位置Bにおいて撮影条件を既に受信しているので、特定地点Aにおいて即時に撮影条件を利用して撮影を行うことが出来る。
図1では、撮影装置3が、撮影ユニット4bの撮影により導出された撮影条件を、撮影ユニット4cの撮影により導出された撮影条件に切り替えて利用する様子を条件切替Renewとして示している。
That is, since the photographing apparatus 3 has already received the photographing condition at the specific position B, the photographing apparatus 3 can immediately perform photographing using the photographing condition at the specific point A.
In FIG. 1, a state in which the photographing apparatus 3 uses the photographing condition derived by photographing by the photographing unit 4b by switching to the photographing condition derived by photographing by the photographing unit 4c is indicated as a condition switching Renew.

このため、特定位置Bの位置は、撮影装置3が撮影条件を受信してから特定地点Aにおいて利用できる位置とする必要がある。このような特定位置Bは、移動体2の移動速度の範囲によって定めることが出来る。
また、特定位置Bを撮影システム1での無線通信が可能な範囲と定めても良い。この場合、撮影システム1の無線通信の範囲であれば、例えば、撮影装置3を搭載した移動体2の位置情報に基づき、又は、撮影装置3からの要求に応じて、撮影条件を送信するようにしても良い。
For this reason, the position of the specific position B needs to be a position that can be used at the specific point A after the photographing apparatus 3 receives the photographing condition. Such a specific position B can be determined by the range of the moving speed of the moving body 2.
Further, the specific position B may be determined as a range in which wireless communication with the imaging system 1 is possible. In this case, within the wireless communication range of the imaging system 1, for example, the imaging condition is transmitted based on the position information of the moving body 2 equipped with the imaging device 3 or in response to a request from the imaging device 3. Anyway.

通信器6は、撮影システム1の通信手段の一部であって、移動経路Rに沿って配置され、撮影ユニット4と移動体2又は撮影装置3との通信の中継を行う。なお、通信器6は地上でなくとも高所に設置されても良い。
図1では、通信器6のうち、撮影ユニット4cの通信を中継するものを通信器6cとし、撮影ユニット4eの通信を中継するものを通信器6eとしている。
The communicator 6 is a part of communication means of the photographing system 1 and is arranged along the movement route R, and relays communication between the photographing unit 4 and the moving body 2 or the photographing device 3. The communication device 6 may be installed at a high place, not on the ground.
In FIG. 1, among the communication devices 6, the communication device 6c relays the communication of the photographing unit 4c, and the communication device 6e relays the communication of the photographing unit 4e.

なお、通信器6が中継する通信を区別することにより、複数の撮影ユニット4が通信器6を共有しても良い。また、撮影ユニット4は、通信器6の中継を介さず、直接に移動体2又は撮影装置3と通信するようにしても良い。   A plurality of photographing units 4 may share the communication device 6 by distinguishing the communication relayed by the communication device 6. Further, the photographing unit 4 may directly communicate with the moving body 2 or the photographing device 3 without using the relay of the communication device 6.

撮影システム1は、導出した撮影条件を移動体2又は撮影装置3に対して送信するための通信手段として、撮影ユニット4及び通信器6の少なくともいずれかの通信を利用する。
図1では、撮影システム1から移動体2又は撮影装置3への通信を通信Sendとし、移動体2又は撮影装置3から撮影システム1への通信を通信Receiveとして、矢印で示している。
The imaging system 1 uses communication of at least one of the imaging unit 4 and the communication device 6 as a communication unit for transmitting the derived imaging condition to the moving body 2 or the imaging device 3.
In FIG. 1, communication from the imaging system 1 to the moving body 2 or the imaging device 3 is indicated by an arrow, and communication from the moving body 2 or the imaging device 3 to the imaging system 1 is indicated as a communication Receive.

通信器6が、撮影システム1と移動体2又は撮影装置3との通信を中継することにより、特定地点Aと特定位置Bとの距離が撮影ユニット4と移動体2又は撮影装置3との無線通信の通信範囲を越えている場合、又は、特定地点Aと特定位置Bとの間に無線通信を遮蔽する物体Eが存在する場合、通信器6を特定位置Bからの無線通信の範囲内に配置することで、特定地点Aに配置された撮影ユニット4と特定位置Bに到達した移動体2又は撮影装置3との間で確実に通信することが可能となる。   The communication device 6 relays communication between the imaging system 1 and the moving body 2 or the imaging apparatus 3, so that the distance between the specific point A and the specific position B is wireless between the imaging unit 4 and the mobile body 2 or the imaging apparatus 3. When the communication range is exceeded, or when there is an object E that shields wireless communication between the specific point A and the specific position B, the communication device 6 is within the wireless communication range from the specific position B. By arranging, it is possible to reliably communicate between the photographing unit 4 arranged at the specific point A and the moving body 2 or the photographing device 3 that has reached the specific position B.

次に、撮影システム1における無線通信の確立について説明する。   Next, establishment of wireless communication in the imaging system 1 will be described.

図3は、撮影システム1での無線通信の確立を説明する模式図である。図3(a)は、撮影システム1の側から移動体2又は撮影装置3に対して通信を確立させる過程を説明する模式図である。図3(b)は、移動体2又は撮影装置3の側から撮影システム1に対して通信を確立させる過程を説明する模式図である。   FIG. 3 is a schematic diagram for explaining establishment of wireless communication in the imaging system 1. FIG. 3A is a schematic diagram illustrating a process of establishing communication with the moving body 2 or the imaging apparatus 3 from the imaging system 1 side. FIG. 3B is a schematic diagram for explaining a process of establishing communication with the photographing system 1 from the moving body 2 or the photographing apparatus 3 side.

図3(a)では、撮影システム1の撮影ユニット4又は通信器6から、移動体2又は撮影装置3に対し、無線電波の報知信号Wb1又はWb2を間欠的に送信する。報知信号Wb1又はWb2を受信した移動体2又は撮影装置3は、報知信号Wb1又はWb2の送信元の撮影ユニット4又は通信器6に対し、無線電波の応答信号Wr1を送信する。これにより、撮影システム1と移動体2又は撮影装置3との間の通信が確立する。   In FIG. 3A, the radio wave notification signal Wb <b> 1 or Wb <b> 2 is intermittently transmitted from the imaging unit 4 or the communication device 6 of the imaging system 1 to the moving body 2 or the imaging device 3. The mobile body 2 or the imaging device 3 that has received the notification signal Wb1 or Wb2 transmits a radio wave response signal Wr1 to the imaging unit 4 or the communication device 6 that is the transmission source of the notification signal Wb1 or Wb2. Thereby, communication between the imaging system 1 and the moving body 2 or the imaging device 3 is established.

図3(b)では、移動体2又は撮影装置3は、衛星測位システムを利用して得られる位置情報PosInfoをもとに、進行向きDにおける無線電波の通信範囲内に撮影ユニット4又は通信器6が配置されていることを検知すると、撮影システム1の撮影ユニット4又は通信器6に対し、無線電波の報知信号Wb3を送信する。報知信号Wb3を受信した撮影ユニット4又は通信器6は、報知信号Wb3の送信元の移動体2又は撮影装置3に対し、無線電波の応答信号Wr2又はWr3を送信する。これにより、撮影システム1と移動体2又は撮影装置3との間の通信が確立する。
なお、移動体2又は撮影装置3の側から通信を確立させる場合であっても、位置情報PosInfoを利用せず、図3(a)での報知信号Wb1及びWb2と同様にして、間欠的に報知信号Wb3を送信するようにしても良い。
In FIG. 3 (b), the moving body 2 or the imaging device 3 has the imaging unit 4 or the communication device within the radio wave communication range in the traveling direction D based on the position information PosInfo obtained by using the satellite positioning system. When 6 is detected, a radio wave notification signal Wb3 is transmitted to the photographing unit 4 or the communication device 6 of the photographing system 1. The imaging unit 4 or the communication device 6 that has received the notification signal Wb3 transmits a radio wave response signal Wr2 or Wr3 to the mobile body 2 or the imaging device 3 that is the transmission source of the notification signal Wb3. Thereby, communication between the imaging system 1 and the moving body 2 or the imaging device 3 is established.
Even when communication is established from the mobile unit 2 or the imaging device 3 side, the position information PosInfo is not used, and intermittently in the same manner as the notification signals Wb1 and Wb2 in FIG. The notification signal Wb3 may be transmitted.

図3(a)及び(b)において、撮影システム1と移動体2又は撮影装置3との間の通信が確立すると、撮影システム1は、移動体2又は撮影装置3から撮影システム1への通信Receiveによって、移動体2の位置情報PosInfoを周期的に又は任意のタイミングで取得できるようになるため、移動体2が特定位置Bに到達したことを検出できる。そして、撮影システム1は、移動体2が特定位置Bに到達したことを検出すると、撮影システム1から移動体2又は撮影装置3への通信Sendによって、撮影条件を送信する。   3A and 3B, when communication between the imaging system 1 and the moving body 2 or the imaging device 3 is established, the imaging system 1 communicates with the imaging system 1 from the mobile body 2 or the imaging device 3. By receiving, the position information PosInfo of the moving body 2 can be acquired periodically or at an arbitrary timing, so that it is possible to detect that the moving body 2 has reached the specific position B. When the imaging system 1 detects that the moving body 2 has reached the specific position B, the imaging system 1 transmits imaging conditions by communication Send from the imaging system 1 to the moving body 2 or the imaging device 3.

次に、撮影システム1の構成について説明する。
図4は、撮影システム1の構成を示す機能ブロック図である。撮影システム1は、複数の撮影ユニット4及び通信器6と、さらに電子計算機500を備える。撮影システム1、撮影ユニット4及び電子計算機500は現実空間Srにある。
Next, the configuration of the photographing system 1 will be described.
FIG. 4 is a functional block diagram illustrating the configuration of the imaging system 1. The imaging system 1 includes a plurality of imaging units 4 and a communication device 6, and an electronic computer 500. The photographing system 1, the photographing unit 4, and the electronic computer 500 are in the real space Sr.

外部ネットワーク20は、例えば、広域ネットワーク網、インターネット網又は専用回線網などの通信回線である。撮影システム1の電子計算機500は外部ネットワーク20に接続して、他の装置との間で情報の送受信を行う。   The external network 20 is a communication line such as a wide area network, the Internet network, or a dedicated line network. The electronic computer 500 of the photographing system 1 is connected to the external network 20 and transmits / receives information to / from other devices.

外部サーバ30は、例えば、クラウド上のサーバ装置であり、外部ネットワーク20に接続して、撮影システム1の電子計算機500に対して種々の情報を提供する。   The external server 30 is a server device on the cloud, for example, and is connected to the external network 20 to provide various information to the electronic computer 500 of the imaging system 1.

次に、撮影ユニット4の構成について説明する。
撮影ユニット4は、撮影部411、画像調整部412、画像認識部413及び第1の通信部414を備える。
また、撮影ユニット4は、参考被写体5を撮影した撮影画像における参考被写体5の正解画像を示す情報として、図示しない記憶媒体に正解画像情報Dcを保持する。この参考被写体5を表す正解画像は予め用意されるものとする。
Next, the configuration of the photographing unit 4 will be described.
The shooting unit 4 includes a shooting unit 411, an image adjustment unit 412, an image recognition unit 413, and a first communication unit 414.
Further, the photographing unit 4 holds correct image information Dc in a storage medium (not shown) as information indicating a correct image of the reference subject 5 in a photographed image obtained by photographing the reference subject 5. It is assumed that a correct image representing the reference subject 5 is prepared in advance.

撮影部411は、参考被写体5を撮影し、撮影した画像である撮影画像D1を出力する撮像装置である。   The imaging unit 411 is an imaging device that images the reference subject 5 and outputs a captured image D1 that is a captured image.

画像調整部412は、撮影部411が出力した撮影画像D1に対して、参考被写体5の写り込みが鮮明となるように画質を調整する画像処理を行った、撮影画像情報D2を出力する。   The image adjustment unit 412 outputs captured image information D2 obtained by performing image processing for adjusting the image quality so that the reflected image of the reference subject 5 is clearly displayed on the captured image D1 output by the imaging unit 411.

画像認識部413は、画像処理として、画像調整部412が出力した撮影画像情報D2と正解画像情報Dcとの比較に基づき参考被写体5の画像認識を行う。ここでの画像認識とは、撮影画像情報D2から正解画像情報Dcと類似する画像情報を抽出することである。   The image recognition unit 413 performs image recognition of the reference subject 5 based on a comparison between the captured image information D2 output from the image adjustment unit 412 and the correct image information Dc as image processing. Image recognition here is extracting image information similar to the correct image information Dc from the captured image information D2.

そして、画像認識部413は、撮影画像情報D2から抽出した画像情報が正解画像情報Dcに合致する度合いを数値化した認識率を導出する。なお、撮影画像情報D2から抽出した画像情報が正解画像情報Dcと完全に一致する場合の認識率を100%とする。   Then, the image recognition unit 413 derives a recognition rate that quantifies the degree to which the image information extracted from the captured image information D2 matches the correct image information Dc. The recognition rate when the image information extracted from the captured image information D2 completely matches the correct image information Dc is 100%.

画像認識部413は、導出した認識率を含む信号Sig1を電子計算機500に対して出力する。画像認識部413は、このとき出力する信号Sig1に、さらに撮影ベクトル情報を含めても良い。   The image recognition unit 413 outputs a signal Sig1 including the derived recognition rate to the electronic computer 500. The image recognition unit 413 may further include shooting vector information in the signal Sig1 output at this time.

第1の通信部414は、移動体2若しくは撮影装置3、通信器6、並びに、電子計算機500との間で通信を行う。第1の通信部414と移動体2又は撮影装置3との通信は無線通信となるが、第1の通信部414と通信器6及び電子計算機500との通信は有線通信であっても無線通信であっても良い。   The first communication unit 414 communicates with the moving body 2 or the imaging device 3, the communication device 6, and the electronic computer 500. Communication between the first communication unit 414 and the moving body 2 or the imaging device 3 is wireless communication, but communication between the first communication unit 414 and the communication device 6 and the electronic computer 500 is wireless communication even if it is wired communication. It may be.

電子計算機500は、高速演算処理及び通信処理が実行可能なコンピュータであり、例えば、クラウド・コンピューティングを構成するスーパーコンピュータである。電子計算機500は、現実空間Srにおいて、撮影ユニット4の第1の通信部414又は通信器6との間で通信を行う。   The electronic computer 500 is a computer that can execute high-speed arithmetic processing and communication processing, and is, for example, a supercomputer that constitutes cloud computing. The electronic computer 500 communicates with the first communication unit 414 of the photographing unit 4 or the communication device 6 in the real space Sr.

電子計算機500は、撮影ユニット4が参考被写体5を撮影する撮影画像に基づき、当該撮影画像において認識率を向上させる撮影ユニット4の撮影設定を導出する。そして、電子計算機500は、導出した撮影設定に基づき、特定地点Aにおいて撮影装置3が被写体を撮影するときの認識率を向上させる撮影条件を導出する。   The electronic computer 500 derives the shooting setting of the shooting unit 4 that improves the recognition rate in the shot image based on the shot image obtained by the shooting unit 4 shooting the reference subject 5. Then, the electronic computer 500 derives an imaging condition that improves the recognition rate when the imaging device 3 captures the subject at the specific point A based on the derived imaging setting.

次に、電子計算機500の構成について説明する。
電子計算機500は、記憶部501、条件導出部502、設定変更部503、条件更新部504及び第2の通信部505を備える。
Next, the configuration of the electronic computer 500 will be described.
The electronic computer 500 includes a storage unit 501, a condition derivation unit 502, a setting change unit 503, a condition update unit 504, and a second communication unit 505.

記憶部501は、撮影ユニット4に関わる情報、並びに、移動体2及び撮影装置3に関わる情報を記憶するための記憶媒体である。記憶部501が記憶する種々の情報については後述する。   The storage unit 501 is a storage medium for storing information related to the photographing unit 4 and information related to the moving body 2 and the photographing device 3. Various information stored in the storage unit 501 will be described later.

条件導出部502は、撮影ユニット4の画像認識部413から認識率を含む信号Sig1を受信し、当該撮影ユニット4が撮影する認識率を向上させるように種々の設定内容を調整した撮影設定を導出する。条件導出部502は導出した撮影設定を、信号Sig2によって記憶部501に記憶したり記憶部501から取得したりする。   The condition deriving unit 502 receives the signal Sig1 including the recognition rate from the image recognition unit 413 of the shooting unit 4, and derives shooting settings in which various setting contents are adjusted so as to improve the recognition rate of shooting by the shooting unit 4. To do. The condition deriving unit 502 stores the obtained shooting setting in the storage unit 501 or obtains it from the storage unit 501 by the signal Sig2.

条件導出部502は、ここでの設定内容の調整を、学習アルゴリズムを用いた学習処理を通じて行う。学習アルゴリズムには、例えば、強化学習(Re−inforcement Learning)又はニューラルネットワーク(neural network)等の、既知の手法を利用する。   The condition deriving unit 502 adjusts the setting contents here through a learning process using a learning algorithm. As the learning algorithm, for example, a known method such as reinforcement learning (Re-inforce Learning) or a neural network is used.

さらに、条件導出部502は、導出した撮影設定に基づき、当該撮影ユニット4が配置された特定地点Aにおいて撮影装置3が撮影する撮影条件を導出する。条件導出部502は導出した撮影条件を、信号Sig2によって記憶部501に記憶したり記憶部501から取得したりする。   Further, the condition deriving unit 502 derives a photographing condition for photographing by the photographing device 3 at the specific point A where the photographing unit 4 is arranged based on the derived photographing setting. The condition deriving unit 502 stores the acquired photographing condition in the storage unit 501 or obtains it from the storage unit 501 by the signal Sig2.

また、条件導出部502は、第2の通信部505及び外部ネットワーク20を介して、外部サーバ30との間で通信を行い、外部サーバ30から特定地点Aにおける種々の撮影環境に関わる情報を収集して、記憶部501に記憶させる。条件導出部502が外部サーバ30から撮影環境を収集するときの通信を信号ExInfoで示している。   In addition, the condition deriving unit 502 communicates with the external server 30 via the second communication unit 505 and the external network 20, and collects information related to various shooting environments at the specific point A from the external server 30. And stored in the storage unit 501. Communication when the condition deriving unit 502 collects a shooting environment from the external server 30 is indicated by a signal ExInfo.

設定変更部503は、条件導出部502が導出した撮影設定を、撮影部411、画像調整部412及び画像認識部413に対して設定する。
図4では、撮影部411に対する撮影設定を信号Sig4とし、画像調整部412に対する撮影設定を信号Sig5とし、画像認識部413に対する撮影設定を信号Sig6としている。
The setting change unit 503 sets the shooting setting derived by the condition deriving unit 502 for the shooting unit 411, the image adjustment unit 412, and the image recognition unit 413.
In FIG. 4, the shooting setting for the shooting unit 411 is a signal Sig4, the shooting setting for the image adjustment unit 412 is a signal Sig5, and the shooting setting for the image recognition unit 413 is a signal Sig6.

条件更新部504は、電子計算機500の第2の通信部505及び撮影ユニット4の第1の通信部414を介して、移動体2又は撮影装置3との間で通信を行う。そして、条件更新部504は、移動体2又は撮影装置3から受信した種々の情報を記憶部501に記憶させる。   The condition update unit 504 communicates with the moving body 2 or the imaging device 3 via the second communication unit 505 of the electronic computer 500 and the first communication unit 414 of the imaging unit 4. Then, the condition update unit 504 causes the storage unit 501 to store various information received from the moving body 2 or the imaging device 3.

条件更新部504は、移動体2又は撮影装置3から受信した位置情報PosInfoにより、移動体2が特定位置Bに到達したことを検出すると、条件導出部502が記憶部501に記憶した当該移動体2に搭載の撮影装置3と対応する撮影条件を取得して、当該移動体2又は撮影装置3に対して送信する。   When the condition updating unit 504 detects that the moving body 2 has reached the specific position B based on the position information PosInfo received from the moving body 2 or the imaging device 3, the condition updating unit 504 stores the moving body stored in the storage unit 501 by the condition deriving unit 502. 2 is acquired and transmitted to the moving body 2 or the imaging device 3.

移動体2は、衛星測位システム50との間で位置情報PosInfoをやり取りし、移動経路R上での自らの位置を検知することが出来るものとする。なお、撮影装置3が移動体2の扱う位置情報PosInfoを取得して位置情報PosInfoを電子計算機500に対し送信するようにしても良い。
衛星測位システム50には、例えば、GPS(Global Positioning System)を利用することが出来る。
It is assumed that the moving body 2 can exchange its position information PosInfo with the satellite positioning system 50 and detect its own position on the moving route R. Note that the photographing apparatus 3 may acquire the position information PosInfo handled by the moving body 2 and transmit the position information PosInfo to the electronic computer 500.
For the satellite positioning system 50, for example, a GPS (Global Positioning System) can be used.

第2の通信部505は、撮影ユニット4、通信器6、移動体2若しくは撮影装置3、並びに、外部ネットワーク20を介する外部サーバ30との間で通信を行う。第2の通信部505と移動体2又は撮影装置3との通信は無線通信となるが、第2の通信部505と撮影ユニット4、通信器6及び外部ネットワーク20を介する外部サーバ30との通信は有線通信であっても無線通信であっても良い。   The second communication unit 505 communicates with the imaging unit 4, the communication device 6, the moving body 2 or the imaging device 3, and the external server 30 via the external network 20. Communication between the second communication unit 505 and the moving body 2 or the imaging device 3 is wireless communication, but communication between the second communication unit 505 and the imaging unit 4, the communication device 6, and the external server 30 via the external network 20. May be wired communication or wireless communication.

撮影システム1が、電子計算機500の第2の通信部505と、撮影ユニット4の第1の通信部414及び通信器6の少なくともいずれかとの通信を介して、移動体2又は撮影装置3との間で通信を行う手段を通信手段10とする。つまり、撮影システム1は、移動体2又は撮影装置3と通信を行うための通信手段10を備える。   The imaging system 1 communicates with the moving body 2 or the imaging device 3 via communication between the second communication unit 505 of the electronic computer 500 and at least one of the first communication unit 414 of the imaging unit 4 and the communication device 6. A means for performing communication between them is referred to as a communication means 10. That is, the imaging system 1 includes a communication unit 10 for communicating with the moving body 2 or the imaging device 3.

ここで、撮影システム1において電子計算機500が導出する、撮影ユニット4の撮影設定と撮影装置3の撮影条件との関係について説明する。   Here, the relationship between the imaging settings of the imaging unit 4 and the imaging conditions of the imaging device 3 derived by the electronic computer 500 in the imaging system 1 will be described.

特定地点Aで撮影ユニット4が撮影した撮影画像において参考被写体5の認識率が高い場合、撮影ユニット4が参考被写体5を撮影する状況と、同じ特定地点Aで撮影装置3が被写体を撮影する状況とが近似しているほど、撮影ユニット4において調整された撮影設定を利用して撮影装置3が被写体を撮影した撮影画像において、当該被写体を認識する認識率も高くなる傾向があると言える。   When the recognition rate of the reference subject 5 is high in the photographed image taken by the photographing unit 4 at the specific point A, the situation where the photographing unit 4 photographs the reference subject 5 and the situation where the photographing device 3 photographs the subject at the same specific point A It can be said that the recognition rate for recognizing the subject tends to increase in the photographed image obtained by photographing the subject by the photographing apparatus 3 using the photographing setting adjusted in the photographing unit 4.

このように、撮影システム1では、撮影ユニット4が参考被写体5を撮影する撮影環境を、撮影装置3が被写体を撮影する撮影環境に極力近似させることが望ましい。
そのために、撮影ユニット4が撮影する光景である撮影環境を、撮影装置3の撮影環境に極力近似させるように撮影ユニット4及び参考被写体5を設置する。
As described above, in the photographing system 1, it is desirable that the photographing environment in which the photographing unit 4 photographs the reference subject 5 is as close as possible to the photographing environment in which the photographing device 3 photographs the subject.
For this purpose, the photographing unit 4 and the reference subject 5 are installed so that the photographing environment that is a scene photographed by the photographing unit 4 is approximated to the photographing environment of the photographing device 3 as much as possible.

例えば、撮影ユニット4が参考被写体5を撮影する向きを、撮影装置3での撮影頻度の高い撮影向きの範囲、又は、認識率高く撮影したい特定の被写体が存在する撮影向きの範囲に調整して設置する。撮影装置3での撮影向きの範囲とするのは、撮影装置3が撮影する被写体は撮影画像の中央であるとは限らず、撮影画像の隅に写り込む被写体を画像処理する場合もあることを考えると、撮影ユニット4の撮影向きを、撮影装置3の撮影向きに一致させる必要はないためである。   For example, the direction in which the photographing unit 4 shoots the reference subject 5 is adjusted to a range of a photographing direction with a high photographing frequency in the photographing device 3 or a range of a photographing direction in which a specific subject to be photographed with a high recognition rate exists. Install. The range of the photographing direction in the photographing device 3 is that the subject photographed by the photographing device 3 is not necessarily the center of the photographed image, and the subject reflected in the corner of the photographed image may be subjected to image processing. This is because it is not necessary to match the shooting direction of the shooting unit 4 with the shooting direction of the shooting device 3.

また、撮影環境の近似度合いは、例えば、撮像素子、被写体及び光源位置の位置関係、並びに、光源からの光量などの近似度合いと、正の相関関係があると言える。そのため、撮影ユニット4の撮影環境を撮影装置3の撮影環境に近似させるように、撮影ユニット4が移動体2のヘッドライトを模擬した照光装置を備えるようにしても良い。撮影ユニット4は、照明装置を制御することにより、夜間において撮影装置3と同等の撮影環境で撮影することが可能となる。   Moreover, it can be said that the degree of approximation of the shooting environment has a positive correlation with the degree of approximation of the positional relationship between the image sensor, the subject and the light source, and the amount of light from the light source, for example. Therefore, the photographing unit 4 may include an illumination device that simulates the headlight of the moving body 2 so that the photographing environment of the photographing unit 4 is approximated to the photographing environment of the photographing device 3. The photographing unit 4 can photograph in the photographing environment equivalent to the photographing device 3 at night by controlling the lighting device.

図4に示す撮影システム1の構成では、電子計算機500が、認識率を向上させる学習処理を、複数の特定地点Aの学習結果を利用して行うことが可能である。その結果として、特定地点Aでの情報を利用して個別に学習処理を実行するよりも、撮影環境が類似する又は撮影環境の変化に高い正の相関がみられる複数の特定地点Aでの学習結果を利用して、より収束度合いが早く、また、より再現率高く学習処理を実行して、より精度良く認識できる撮影設定を得られる効果が期待できる。   In the configuration of the imaging system 1 illustrated in FIG. 4, the electronic computer 500 can perform learning processing for improving the recognition rate by using learning results of a plurality of specific points A. As a result, learning at a plurality of specific points A where the shooting environment is similar or a high positive correlation is seen in the change of the shooting environment, rather than individually performing learning processing using information at the specific point A By using the result, it is possible to expect an effect of obtaining a shooting setting that can be recognized more accurately by executing learning processing with a higher degree of convergence and with a higher recall rate.

なお、”高い正の相関を示す”とは、ある情報、又は、ある情報を数値化したデータのまとまりの間に正の相関関係があり、共分散を求めて標準化した相関係数rが信頼区間にあることを言う。このときの相関係数rの信頼区間には、例えば、相関係数の標準誤差を用いた95%信頼区間を用いる。また、相関係数としてはPearsonの積率相関係数を利用することが出来る。   Note that “shows a high positive correlation” means that there is a positive correlation between certain information or a set of data obtained by digitizing certain information, and the standardized correlation coefficient r for covariance is reliable. Say that you are in the leg. As the confidence interval of the correlation coefficient r at this time, for example, a 95% confidence interval using the standard error of the correlation coefficient is used. As the correlation coefficient, Pearson's product moment correlation coefficient can be used.

また、電子計算機500が、外部サーバ30から複数の特定地点Aと対応した情報を収集する際に、外部サーバ30は、各特定地点Aの位置情報で関連付けをして情報を提供したり、特定地点Aでの変化の度合いを比較し選定して情報を提供したり、電子計算機500への情報の提供を効率的に行うことが可能となる。その結果として、電子計算機500が外部サーバ30から効率的に情報を収集して効率的に処理したり、関連付けされた情報をまとめて処理することで、撮影設定及び撮影条件の導出における即時性を向上させる効果が期待できる。   When the computer 500 collects information corresponding to a plurality of specific points A from the external server 30, the external server 30 provides information by associating with the position information of each specific point A, or specifying information It is possible to compare and select the degree of change at the point A to provide information, and to efficiently provide information to the electronic computer 500. As a result, the electronic computer 500 efficiently collects information from the external server 30 and processes it efficiently, or processes the associated information together to improve immediacy in deriving shooting settings and shooting conditions. The improvement effect can be expected.

また、撮影ユニット4で撮影条件の導出を行う場合と比べて、撮影ユニット4をより少ない実装で構成できるため、多くの撮影ユニット4を設置するコストを抑えられる効果が得られる。   Further, as compared with the case where the photographing conditions are derived by the photographing unit 4, the photographing unit 4 can be configured with a smaller number of implementations, so that the cost of installing many photographing units 4 can be reduced.

次に、撮影システム1の構成の変形例について説明する。
図5は、撮影システム1の構成の変形例を示す機能ブロック図である。図5に示すように、撮影システム1の各撮影ユニット4は、図4に示す電子計算機500の機能を備える。つまり、図5に示す各撮影ユニット4は、個別に動作して撮影装置3の撮影条件を導出する。
Next, a modified example of the configuration of the photographing system 1 will be described.
FIG. 5 is a functional block diagram illustrating a modified example of the configuration of the imaging system 1. As shown in FIG. 5, each photographing unit 4 of the photographing system 1 has the function of the electronic computer 500 shown in FIG. That is, each photographing unit 4 shown in FIG. 5 operates individually to derive the photographing condition of the photographing device 3.

撮影ユニット4は、撮影部411、画像調整部412、画像認識部413、記憶部501、条件導出部502、設定変更部503、条件更新部504及び第1の通信部414を備える。
また、撮影ユニット4は、参考被写体5を撮影した撮影画像における参考被写体5の正解画像を示す情報として、図示しない記憶媒体に正解画像情報Dcを保持する。
図4と同じ符号の構成については説明を繰り返さない。
The photographing unit 4 includes a photographing unit 411, an image adjusting unit 412, an image recognizing unit 413, a storage unit 501, a condition deriving unit 502, a setting changing unit 503, a condition updating unit 504, and a first communication unit 414.
Further, the photographing unit 4 holds correct image information Dc in a storage medium (not shown) as information indicating a correct image of the reference subject 5 in a photographed image obtained by photographing the reference subject 5.
The description of the same reference numerals as in FIG. 4 will not be repeated.

図5に示す撮影システム1の構成では、各撮影ユニット4が、配置された特定地点Aにおいて、認識率が向上する撮影設定及び撮影装置3に送信する撮影条件を個別に導出し、移動体2の位置を検知しながら撮影条件を個別に送信することが可能となる。その結果として、図4に示した電子計算機500を備える大規模な撮影システム1を構築せずに、撮影装置3に対して撮影条件を提供する効果が得られる。   In the configuration of the imaging system 1 shown in FIG. 5, each imaging unit 4 individually derives imaging settings for improving the recognition rate and imaging conditions to be transmitted to the imaging device 3 at the arranged specific point A, and the moving body 2. It is possible to transmit the shooting conditions individually while detecting the position. As a result, the effect of providing the imaging conditions to the imaging device 3 can be obtained without constructing the large-scale imaging system 1 including the electronic computer 500 shown in FIG.

また、撮影システム1においてシステムの拡張又は保守作業に伴い、撮影ユニット4の設置台数又は設置場所の変更を行ったとしても、変更の対象とならない撮影ユニット4はその間に動作を継続することが可能である。このことは、図4に示す構成と比べて、撮影システム1の拡張性及び保守性を高めることに繋がる。   In addition, even if the installation number or installation location of the imaging units 4 is changed in accordance with the system expansion or maintenance work in the imaging system 1, the imaging units 4 that are not subject to change can continue to operate during that time. It is. This leads to an increase in expandability and maintainability of the imaging system 1 compared to the configuration shown in FIG.

次に、撮影システム1の記憶部501が記憶する種々の情報について説明する。
図6は、撮影システム1で扱う種々の情報の関連を示す情報関連図である。図6では、図4に示す撮影システム1の場合について説明する。
Next, various information stored in the storage unit 501 of the imaging system 1 will be described.
FIG. 6 is an information relation diagram showing the relation between various information handled by the photographing system 1. 6, the case of the imaging system 1 shown in FIG. 4 will be described.

記憶部501は、撮影ユニット4に関する情報である撮影ユニット情報30a、並びに、移動体2及び撮影装置3に関する情報である移動体及び撮影装置情報30bを記憶している。   The storage unit 501 stores shooting unit information 30a that is information about the shooting unit 4, and moving body and shooting device information 30b that is information about the moving body 2 and the shooting device 3.

撮影ユニット情報30aに含まれる情報としては、例えば、配置情報31、撮影環境情報32、撮影情報33、撮影設定情報34及び学習情報35がある。   Examples of information included in the photographing unit information 30a include arrangement information 31, photographing environment information 32, photographing information 33, photographing setting information 34, and learning information 35.

配置情報31は、予め用意される情報であって、各特定地点Aの位置を示す特定地点情報31a、及び、各特定位置Bの位置を示す特定位置情報31bを含む。   The arrangement information 31 is information prepared in advance, and includes specific point information 31a indicating the position of each specific point A and specific position information 31b indicating the position of each specific position B.

撮影環境情報32は、日時情報32a、気象情報32b及び撮影視野情報32cを含む。
日時情報32aは、日時を示す情報である。
気象情報32bは、各特定地点Aでの天候及び気温を示す情報である。
撮影視野情報32cは、各特定地点Aにおいて撮影に影響を及ぼす対象の情報であり、例えば、図1に示す物体Eの情報であったり、霧の発生といった撮影ユニット4の周囲の状況を示す情報であったりする。
そして、日時情報32a、気象情報32b及び撮影視野情報32cは互いに関連付けられている。
The shooting environment information 32 includes date and time information 32a, weather information 32b, and shooting field of view information 32c.
The date information 32a is information indicating the date.
The weather information 32b is information indicating the weather and temperature at each specific point A.
The imaging field of view information 32c is information on an object that affects imaging at each specific point A. For example, the imaging field information 32c is information on the object E shown in FIG. Or
The date / time information 32a, the weather information 32b, and the photographing visual field information 32c are associated with each other.

条件導出部502は、周期的若しくは定期的に又は所定のタイミングで、外部サーバ30から撮影環境情報32に含まれる各情報を収集する。所定のタイミングとは、例えば、外部サーバ30の側から情報の提供があったときである。
条件導出部502は、配置情報31に含まれる各情報と関連付けて撮影環境情報32に含まれる各情報を取得し、記憶部501に記憶する。配置情報31及び撮影環境情報32を関連付けた情報を、関連付け情報Rel1とする。
The condition deriving unit 502 collects each piece of information included in the shooting environment information 32 from the external server 30 periodically, periodically, or at a predetermined timing. The predetermined timing is, for example, when information is provided from the external server 30 side.
The condition deriving unit 502 acquires each piece of information included in the shooting environment information 32 in association with each piece of information included in the arrangement information 31 and stores it in the storage unit 501. Information that associates the arrangement information 31 and the shooting environment information 32 is referred to as association information Rel1.

撮影情報33は、各撮影ユニット4が導出した認識率である認識率情報33aと、認識率情報33aと対応付けられた撮影ベクトル情報である撮影ベクトル情報33bとを含む。   The shooting information 33 includes recognition rate information 33a that is a recognition rate derived by each shooting unit 4, and shooting vector information 33b that is shooting vector information associated with the recognition rate information 33a.

撮影設定情報34は、各撮影ユニット4での撮影処理及び画像処理に関わる設定内容の情報であって、撮影制御情報34a、照明制御情報34b、及び、画像処理制御情報34cを含む。   The shooting setting information 34 is information on setting contents related to shooting processing and image processing in each shooting unit 4, and includes shooting control information 34a, illumination control information 34b, and image processing control information 34c.

撮影制御情報34aは、各撮影ユニット4の撮影部411での撮影処理に関わる設定内容の情報である。撮影ユニット4が、例えば、撮影向きを変える機構などの自装置を制御するメカニズムを備える場合、撮影制御情報34aはさらに撮影ユニット4のメカニズム制御に関わる情報を含んでも良い。   The shooting control information 34 a is information on setting contents related to shooting processing in the shooting unit 411 of each shooting unit 4. In a case where the photographing unit 4 includes a mechanism for controlling its own device such as a mechanism for changing the photographing direction, the photographing control information 34a may further include information related to mechanism control of the photographing unit 4.

照明制御情報34bは、撮影ユニット4が照明装置等の光源を備える場合に、光源となる照明装置を制御するための、例えば、照光の有無、照光量及び照光向き等のパラメータに関する情報である。照明制御情報34bは、移動体2がヘッドライトを制御するときに利用する情報となる。   The illumination control information 34b is information relating to parameters such as the presence / absence of illumination, the amount of illumination, and the illumination direction for controlling the illumination device serving as the light source when the photographing unit 4 includes a light source such as an illumination device. The illumination control information 34b is information used when the moving body 2 controls the headlight.

画像処理制御情報34cは、各撮影ユニット4の画像調整部412及び画像認識部413が撮影画像を画像処理するときに用いる画像処理アルゴリズムと、その画像処理に関わるパラメータの情報である。画像処理アルゴリズムは、画像抽出アルゴリズム、画像認識アルゴリズム及び画像推論アルゴリズムを含む。   The image processing control information 34c is information on an image processing algorithm used when the image adjusting unit 412 and the image recognizing unit 413 of each photographing unit 4 process a photographed image, and parameters related to the image processing. The image processing algorithm includes an image extraction algorithm, an image recognition algorithm, and an image inference algorithm.

ここで、各撮影ユニット4で行われる撮影処理及び画像処理は、撮影装置3で行われる撮影処理及び画像処理と同等であるものとする。ここでの同等とは、製造元や機種が装置によって異なっても、設定の調整により同程度の画質の撮影画像が得られることを指す。
装置により製造元や機種が異なることについては、撮影システム1の電子計算機500が、装置ごとの仕様と設定内容とを対応付けた情報を予め保持して利用することにより、撮影ユニット4の撮影設定に基づいて、各撮影装置3の撮影条件を導出することが出来る。
Here, it is assumed that the photographing process and the image processing performed by each photographing unit 4 are equivalent to the photographing process and the image processing performed by the photographing apparatus 3. Here, “equivalent” means that a photographed image having the same image quality can be obtained by adjusting the setting even if the manufacturer and model differ from device to device.
Regarding the fact that the manufacturer and model differ depending on the device, the electronic computer 500 of the photographing system 1 stores and uses information in which the specifications and setting contents of each device are associated with each other in advance so that the photographing setting of the photographing unit 4 can be made. Based on this, it is possible to derive the photographing conditions of each photographing device 3.

学習情報35は、学習制御情報35a及び学習データ35bを含む。   The learning information 35 includes learning control information 35a and learning data 35b.

学習制御情報35aは、撮影システム1の条件導出部502で実行される学習処理に用いる学習アルゴリズムの情報、学習処理に関わるパラメータの情報、学習データへの重み付け情報、及び、学習処理のバイアス情報を示す情報である。   The learning control information 35a includes learning algorithm information used for learning processing executed by the condition derivation unit 502 of the imaging system 1, information on parameters related to learning processing, weighting information on learning data, and bias information of learning processing. It is information to show.

学習データ35bは、撮影システム1の条件導出部502で実行される学習処理の学習結果である。   The learning data 35b is a learning result of learning processing executed by the condition deriving unit 502 of the imaging system 1.

なお、配置情報31、撮影環境情報32、撮影情報33、撮影設定情報34及び学習情報35は関連付けされており、この関連付けを示す情報を関連付け情報Rel2とする。   The arrangement information 31, the shooting environment information 32, the shooting information 33, the shooting setting information 34, and the learning information 35 are associated with each other, and information indicating this association is referred to as association information Rel2.

移動体及び撮影装置情報30bに含まれる情報としては、移動体情報36、撮影装置情報37及び撮影条件情報38がある。   Information included in the moving body and imaging device information 30b includes moving body information 36, imaging device information 37, and imaging condition information 38.

移動体情報36は、移動体識別情報36a、位置情報36b及び撮影装置情報37を含む。   The moving body information 36 includes moving body identification information 36 a, position information 36 b, and imaging device information 37.

移動体識別情報36aは、予め用意される情報であって、各移動体2を識別するために予め定められた移動体2に固有の情報である。条件更新部504は、位置情報PosInfoとともに、移動体識別情報36aを取得しても良い。   The moving body identification information 36a is information prepared in advance, and is information unique to the moving body 2 that is predetermined to identify each moving body 2. The condition update unit 504 may acquire the moving body identification information 36a together with the position information PosInfo.

位置情報36bは、各移動体2の位置を示す情報である。各移動体2から取得する衛星測位システム50の位置情報PosInfoに基づき、条件更新部504によって更新される。なお、条件更新部504が、移動体2又は撮影装置3を介さず、衛星測位システムから直接に位置情報PosInfoを取得しても良い。
移動体情報36と配置情報31とを関連付けた情報を関連付け情報Rel3とする。
The position information 36b is information indicating the position of each moving body 2. Based on the position information PosInfo of the satellite positioning system 50 acquired from each mobile unit 2, it is updated by the condition update unit 504. Note that the condition update unit 504 may acquire the position information PosInfo directly from the satellite positioning system without using the moving body 2 or the imaging device 3.
Information that associates the mobile object information 36 with the arrangement information 31 is referred to as association information Rel3.

撮影装置情報37は、撮影装置識別情報37aを含む。
撮影装置識別情報37aは、予め用意される情報であって、各撮影装置3を識別するために予め定められた撮影装置3に固有の情報である。条件更新部504は、位置情報PosInfoとともに、撮影装置識別情報37aを取得しても良い。
The imaging device information 37 includes imaging device identification information 37a.
The imaging device identification information 37a is information prepared in advance, and is information unique to the imaging device 3 that is predetermined to identify each imaging device 3. The condition update unit 504 may acquire the imaging device identification information 37a together with the position information PosInfo.

撮影条件情報38は、撮影制御情報38a、照明制御情報38b及び画像処理制御情報38cを含む。   The shooting condition information 38 includes shooting control information 38a, illumination control information 38b, and image processing control information 38c.

撮影制御情報38aは、各撮影装置3の撮影処理に関わる設定内容の情報である。撮影装置3が、例えば、撮影向きを変える機構などの自装置を制御するメカニズムを備える場合、撮影制御情報38aはさらに撮影装置3のメカニズム制御に関わる情報を含んでも良い。   The shooting control information 38 a is information on setting contents related to shooting processing of each shooting apparatus 3. When the imaging device 3 includes a mechanism for controlling the own device such as a mechanism for changing the imaging direction, the imaging control information 38a may further include information related to mechanism control of the imaging device 3.

照明制御情報38bは、各移動体2が備えるヘッドライトを制御するための、例えば、照光の有無、照光量及び照光向き等のパラメータに関する情報である。   The illumination control information 38b is information regarding parameters such as the presence / absence of illumination, the amount of illumination, and the illumination direction for controlling the headlights included in each moving body 2.

画像処理制御情報38cは、各撮影装置3が撮影画像を画像処理するときに用いる画像処理アルゴリズムと、その画像処理に関わるパラメータの情報である。画像処理アルゴリズムは、画像抽出アルゴリズム、画像認識アルゴリズム及び画像推論アルゴリズムを含む。   The image processing control information 38c is information on an image processing algorithm used when each photographing apparatus 3 performs image processing on a photographed image and parameters related to the image processing. The image processing algorithm includes an image extraction algorithm, an image recognition algorithm, and an image inference algorithm.

図7は、撮影条件情報38が含む情報の一例を示す情報リスト図である。   FIG. 7 is an information list diagram illustrating an example of information included in the shooting condition information 38.

撮影条件情報38のうち撮影制御情報38aの内容をリスト71に示す。リスト71には、撮像素子の感度、露出時間、露光エリア、収束の明るさ、ホワイトバランス、収束色空間、ゲインコントロール、ブラックレベルコントロール、フィルタ係数、光の透過波長帯域、及び、メカニズム制御の情報が含まれる。メカニズム制御の情報は、例えば、撮影向き、遮光手段を備える場合の遮光、振れ補正、及び、複数のカメラを備える場合のカメラ選択などが含まれる。   The contents of the shooting control information 38a in the shooting condition information 38 are shown in a list 71. The list 71 includes information on image sensor sensitivity, exposure time, exposure area, convergence brightness, white balance, convergence color space, gain control, black level control, filter coefficient, light transmission wavelength band, and mechanism control. Is included. The information on the mechanism control includes, for example, shooting direction, light shielding when a light shielding unit is provided, shake correction, and camera selection when a plurality of cameras are provided.

撮影条件情報38のうち照明制御情報38bの内容をリスト72に示す。リスト72には、照光の有無(つまり、照光のON又はOFFの状態)、照光量及び照光向きの情報が含まれる。照明制御情報38bは、移動体2のヘッドライトを制御するための情報であるが、撮影装置3がより認識率の高い撮影を行うために利用できる情報であり、撮影装置3の側からヘッドライトを制御することも考えられるため、ここでは撮影条件情報38に含めている。   The contents of the illumination control information 38b in the shooting condition information 38 are shown in a list 72. The list 72 includes information on the presence / absence of illumination (that is, whether illumination is on or off), the amount of illumination, and the illumination direction. The illumination control information 38b is information for controlling the headlight of the moving body 2. The illumination control information 38b is information that can be used by the photographing apparatus 3 for photographing with a higher recognition rate, and the headlight from the photographing apparatus 3 side. In this case, it is included in the photographing condition information 38.

撮影条件情報38のうち画像処理制御情報38cの内容をリスト73に示す。リスト73には、画像抽出アルゴリズム、画像認識アルゴリズム及び画像推論アルゴリズムの情報が含まれる。さらに、画像抽出アルゴリズムの情報は、抽出パラメータとして、輪郭強調、色相、彩度、コントラスト調整及び色抽出の情報を含む。また、画像認識アルゴリズムの情報は認識パラメータの情報を含む。また、画像推論アルゴリズムの情報は推論パラメータの情報を含む。   List 73 shows the contents of the image processing control information 38c in the photographing condition information 38. The list 73 includes information on an image extraction algorithm, an image recognition algorithm, and an image inference algorithm. Further, the information on the image extraction algorithm includes information on contour enhancement, hue, saturation, contrast adjustment, and color extraction as extraction parameters. The information of the image recognition algorithm includes information of recognition parameters. The information of the image inference algorithm includes information of inference parameters.

図6及び図7に示す情報は複数存在するものがある。図4に示す撮影システム1の場合、配置情報31及び撮影環境情報32は、配置される撮影ユニット4の分だけ存在する。また、撮影情報33、撮影設定情報34、学習情報35及び撮影条件情報38は、配置される各撮影ユニット4が撮影する参考被写体5の分だけ存在する。また、移動体情報36及び撮影装置情報37は、撮影システム1を利用する撮影装置3の分だけ存在する。   There are a plurality of pieces of information shown in FIGS. In the case of the photographing system 1 shown in FIG. 4, the arrangement information 31 and the photographing environment information 32 exist for the number of photographing units 4 to be arranged. Further, the shooting information 33, the shooting setting information 34, the learning information 35, and the shooting condition information 38 exist for the reference subject 5 to be shot by each of the shooting units 4 arranged. Further, the moving body information 36 and the imaging device information 37 exist for the imaging device 3 that uses the imaging system 1.

一方で、図5に示す撮影システム1の場合、配置情報31及び撮影環境情報32は、自装置である撮影ユニット4の分だけ存在する。また、撮影情報33、撮影設定情報34、学習情報35及び撮影条件情報38は、自装置である撮影ユニット4が撮影する参考被写体5の分だけ存在する。また、移動体情報36及び撮影装置情報37は、撮影システム1を利用する撮影装置3の分だけ存在する。   On the other hand, in the case of the photographing system 1 shown in FIG. 5, the arrangement information 31 and the photographing environment information 32 exist for the photographing unit 4 that is the own device. Further, the shooting information 33, the shooting setting information 34, the learning information 35, and the shooting condition information 38 exist for the reference subject 5 shot by the shooting unit 4 that is the device itself. Further, the moving body information 36 and the imaging device information 37 exist for the imaging device 3 that uses the imaging system 1.

次に、撮影システム1における電子計算機500及び撮影ユニット4の動作について、図4、図6、図8及び図9を用いて説明する。   Next, operations of the electronic computer 500 and the photographing unit 4 in the photographing system 1 will be described with reference to FIGS. 4, 6, 8 and 9.

図8は、撮影システム1が撮影装置3に対し撮影条件を送信する処理を示すフローチャート図である。また、図9は、撮影ユニット4が参考被写体5を撮影して認識率を導出する定義済み処理を示すフローチャート図である。   FIG. 8 is a flowchart showing processing in which the photographing system 1 transmits photographing conditions to the photographing device 3. FIG. 9 is a flowchart showing a predefined process in which the photographing unit 4 photographs the reference subject 5 and derives the recognition rate.

先ず、図8について説明する。
処理S801では、電子計算機500は、記憶部501に記憶される種々の情報の初期値を与えられると、撮影システム1での種々の処理を実行するための初期設定を行う。
初期設定とは、記憶部501に記憶される、撮影ユニット情報30aの配置情報31に含まれる特定地点情報31a及び特定位置情報31b、並びに、移動体及び撮影装置情報30bに含まれる移動体識別情報36a及び撮影装置識別情報37aの、予め定められる情報の設定である。その他の都度更新される情報に対しても適切な初期情報が設定されるものとする。
その後、処理S802に進む。
First, FIG. 8 will be described.
In process S801, the electronic computer 500 performs initial settings for executing various processes in the imaging system 1 when given initial values of various information stored in the storage unit 501.
The initial setting refers to the specific spot information 31a and the specific position information 31b included in the arrangement information 31 of the photographing unit information 30a stored in the storage unit 501, and the moving object identification information included in the moving object and the photographing device information 30b. This is a predetermined information setting of 36a and imaging device identification information 37a. It is assumed that appropriate initial information is set for information that is updated every other time.
Then, it progresses to process S802.

処理S802では、電子計算機500の条件導出部502は、処理S801での配置情報31の初期設定が済んだことをきっかけに、外部サーバ30から信号ExInfoを受信して、各特定地点Aにおける撮影環境情報32を収集する。そして、条件導出部502は、配置情報31と撮影環境情報32との関連付け情報Rel1を参照して、撮影環境情報32を更新する更新処理を開始する。この更新処理は、周期的若しくは定期的に又は所定のタイミングで実行される。
その後、処理S803に進む。
In the process S802, the condition deriving unit 502 of the computer 500 receives the signal ExInfo from the external server 30 after the initial setting of the arrangement information 31 in the process S801 is completed, and the shooting environment at each specific point A Information 32 is collected. Then, the condition deriving unit 502 refers to the association information Rel1 between the arrangement information 31 and the shooting environment information 32, and starts an update process for updating the shooting environment information 32. This update process is executed periodically or periodically or at a predetermined timing.
Then, it progresses to process S803.

処理S802において、条件導出部502が配置情報31の初期設定をきっかけに外部サーバ30から撮影環境情報32を収集することを、図6に矢印Based1で示す。   The fact that the condition deriving unit 502 collects the shooting environment information 32 from the external server 30 triggered by the initial setting of the arrangement information 31 in process S802 is indicated by an arrow Base1 in FIG.

処理S803では、電子計算機500の条件更新部504が、移動体2又は撮影装置3から位置情報PosInfoを受信すると、移動体2ごとに位置情報36bを更新するとともに、配置情報31と移動体情報36との関連付け情報Rel3を参照して、特定位置Bに到達した移動体2が存在するかどうかを判定する。判定の結果、存在する場合には処理S813に進む。存在しない場合には処理S804に進む。   In process S803, when the condition updating unit 504 of the electronic computer 500 receives the position information PosInfo from the moving body 2 or the imaging device 3, the position information 36b is updated for each moving body 2, and the arrangement information 31 and the moving body information 36 are updated. With reference to the association information Rel3, it is determined whether there is the moving body 2 that has reached the specific position B. As a result of the determination, if it exists, the process proceeds to step S813. If it does not exist, the process proceeds to step S804.

なお、処理S803以降は、例えば、各移動体2の位置情報PosInfoの取得や各撮影ユニット4の撮影設定の導出などの各処理は個別に実行される。   In addition, after the processing S803, for example, each processing such as acquisition of the position information PosInfo of each moving body 2 and derivation of the photographing setting of each photographing unit 4 is executed individually.

処理S804では、条件導出部502が、配置情報31と学習情報35との関連付け情報Rel2を参照して、撮影ユニット4を配置した特定地点Aと関連付けられた学習情報35が記憶部501に記憶されているかどうかを確認する。その後、処理S805に進む。   In process S804, the condition deriving unit 502 refers to the association information Rel2 between the arrangement information 31 and the learning information 35, and the learning information 35 associated with the specific point A where the photographing unit 4 is arranged is stored in the storage unit 501. Check whether it is. Then, it progresses to process S805.

処理S805では、処理S804において、学習情報35が記憶されていれば処理S807に進み、記憶されていなければ処理S806に進む。   In process S805, if learning information 35 is stored in process S804, the process proceeds to process S807, and if not stored, the process proceeds to process S806.

処理S806では、電子計算機500の設定変更部503が、記憶部501に記憶された撮影設定情報34の情報に基づき、撮影ユニット4の撮影部411、画像調整部412及び画像認識部413を初期化する。撮影ユニット4は初期化後に動作を開始する。その後、定義済み処理S809に進む。   In step S806, the setting change unit 503 of the electronic computer 500 initializes the shooting unit 411, the image adjustment unit 412 and the image recognition unit 413 of the shooting unit 4 based on the information of the shooting setting information 34 stored in the storage unit 501. To do. The photographing unit 4 starts operation after initialization. Thereafter, the process proceeds to the predefined process S809.

処理S807では、条件導出部502が、関連付け情報Rel2に基づき、撮影設定情報34及び学習情報35を更新しながら学習処理を実行して、撮影部411、画像調整部412及び画像認識部413に設定する撮影設定情報34を導出する。
より具体的には、条件導出部502は、撮影ユニット4の画像認識部413からの信号Sig1に含まれる認識率を取得して、当該撮影ユニット4の撮影環境において認識率をさらに高めるように、当該撮影ユニット4の撮影部411が行う撮影処理の設定(つまり、撮影制御情報34a及び照明制御情報34b)、並びに、当該撮影ユニット4の画像調整部412及び画像認識部413が行う画像処理の設定(つまり、画像処理制御情報34c)をそれぞれ調整する。これらの設定をあわせて撮影設定(つまり、撮影設定情報34)と呼ぶ。条件導出部502は、各撮影ユニット4の撮影設定の調整を個別に行う。
また、条件導出部502は、調整した撮影設定を対応する撮影ユニット4に反映するために、設定変更部503に対して撮影設定情報34を含む信号Sig3を出力する。
その後、処理S808に進む。
In process S807, the condition deriving unit 502 executes learning processing while updating the shooting setting information 34 and the learning information 35 based on the association information Rel2, and sets the shooting unit 411, the image adjustment unit 412, and the image recognition unit 413. The shooting setting information 34 is derived.
More specifically, the condition deriving unit 502 acquires the recognition rate included in the signal Sig1 from the image recognition unit 413 of the shooting unit 4, and further increases the recognition rate in the shooting environment of the shooting unit 4. Setting of shooting processing performed by the shooting unit 411 of the shooting unit 4 (that is, shooting control information 34a and illumination control information 34b), and setting of image processing performed by the image adjustment unit 412 and the image recognition unit 413 of the shooting unit 4 (That is, the image processing control information 34c) is adjusted. These settings are collectively referred to as shooting settings (that is, shooting setting information 34). The condition deriving unit 502 individually adjusts the shooting settings of each shooting unit 4.
Further, the condition deriving unit 502 outputs a signal Sig3 including the shooting setting information 34 to the setting changing unit 503 in order to reflect the adjusted shooting setting on the corresponding shooting unit 4.
Then, it progresses to process S808.

処理S807において、条件導出部502が学習情報35を参照して撮影設定情報34を導出することを、図6に矢印Refer1で示す。   The fact that the condition deriving unit 502 derives the shooting setting information 34 by referring to the learning information 35 in the process S807 is indicated by an arrow Refer1 in FIG.

なお、条件導出部502は、学習処理において、例えば、光源からの光量など、時々刻々と変化する撮影環境を予測することにより、撮影ユニット4が認識率を出力した時点よりも時間が進んだ時点で、撮影の認識率を向上させるように撮影設定の調整を行っても良い。   In the learning process, the condition deriving unit 502 predicts a shooting environment that changes from moment to moment, such as the amount of light from the light source, for example, when the time advances from the time when the shooting unit 4 outputs the recognition rate. Thus, the shooting setting may be adjusted to improve the shooting recognition rate.

処理S808では、設定変更部503が、処理S807で出力された信号Sig3に含まれる撮影設定情報34と対応する撮影ユニット4を検索して、当該撮影ユニット4の撮影部411、画像調整部412及び画像認識部413に対し、撮影設定を反映させるための信号Sig4、信号Sig5及び信号Sig6をそれぞれ出力する。撮影部411は信号Sig4を入力して対応する撮影設定を反映し、画像調整部412は信号Sig5を入力して対応する撮影設定を反映し、画像認識部413は信号Sig6を入力して対応する撮影設定を反映する。
その後、定義済み処理S809に進む。
In process S808, the setting change unit 503 searches for the shooting unit 4 corresponding to the shooting setting information 34 included in the signal Sig3 output in process S807, and the shooting unit 411, the image adjustment unit 412 and the shooting unit 4 of the shooting unit 4 are searched. A signal Sig4, a signal Sig5, and a signal Sig6 for reflecting the shooting setting are output to the image recognition unit 413, respectively. The imaging unit 411 inputs the signal Sig4 to reflect the corresponding imaging setting, the image adjustment unit 412 inputs the signal Sig5 to reflect the corresponding imaging setting, and the image recognition unit 413 inputs the signal Sig6 to respond. Reflect shooting settings.
Thereafter, the process proceeds to the predefined process S809.

定義済み処理S809は、図9で示す定義済みの処理である。定義済み処理S809では、撮影ユニット4は参考被写体5を撮影したときの認識率を導出する。その後、処理S810に進む。   The predefined process S809 is a predefined process shown in FIG. In the predefined process S809, the photographing unit 4 derives a recognition rate when the reference subject 5 is photographed. Then, it progresses to process S810.

処理S810では、条件導出部502が、画像認識部413から出力された信号Sig1に含まれる撮影情報33を取得し、記憶部501の情報を更新させる。その後、処理S811に進む。   In process S810, the condition deriving unit 502 acquires the shooting information 33 included in the signal Sig1 output from the image recognition unit 413, and updates the information in the storage unit 501. Then, it progresses to process S811.

処理S811では、条件導出部502が、取得した撮影情報33に含まれる認識率情報33aが既に記憶されたものと比べて向上したか又は低下したかを判定する。その後、処理S812に進む。   In process S811, the condition deriving unit 502 determines whether the recognition rate information 33a included in the acquired shooting information 33 has been improved or decreased as compared with the information already stored. Then, it progresses to process S812.

処理S812では、条件導出部502が、処理S811での判定結果に基づき、関連付け情報Rel2で関連付けられた各情報と対応させて学習情報35の学習データ35bを更新する。
より具体的には、条件導出部502は、例えば、処理S811での判定において認識率が向上した場合、特定地点情報31aでの特定地点Aにおいて撮影環境情報32が示す撮影環境では、撮影ユニット4の撮影設定を撮影設定情報34の内容とすることが適することを学習データ35bに反映させる。
また、条件導出部502は、例えば、処理S811での判定において認識率が低下した場合、特定地点情報31aでの特定地点Aにおいて撮影環境情報32が示す撮影環境では、撮影ユニット4の撮影設定を撮影設定情報34の内容とすることが適さないことを学習データ35bに反映させる。
その後、処理S803に進む。
In the process S812, the condition deriving unit 502 updates the learning data 35b of the learning information 35 in association with each piece of information associated with the association information Rel2 based on the determination result in the process S811.
More specifically, the condition deriving unit 502, for example, in the shooting environment indicated by the shooting environment information 32 at the specific point A in the specific point information 31a when the recognition rate is improved in the determination in the process S811, the shooting unit 4 It is reflected in the learning data 35b that it is appropriate to set the shooting setting to the contents of the shooting setting information 34.
In addition, for example, when the recognition rate decreases in the determination in step S811, the condition deriving unit 502 sets the shooting setting of the shooting unit 4 in the shooting environment indicated by the shooting environment information 32 at the specific point A in the specific point information 31a. It is reflected in the learning data 35b that it is not suitable for the contents of the shooting setting information 34.
Then, it progresses to process S803.

処理S812において、条件導出部502が関連付け情報Rel2を参照して学習情報35を更新することを、図6に矢印Refer2で示す。   The fact that the condition deriving unit 502 updates the learning information 35 with reference to the association information Rel2 in the process S812 is indicated by an arrow Refer2 in FIG.

このように、各撮影ユニット4は条件導出部502が調整した撮影設定により参考被写体5を撮影して認識率を導出することを繰り返し、条件導出部502は撮影ユニット4が導出した認識率に基づき当該撮影ユニット4の認識率を向上させる撮影設定を学習処理により導出することを繰り返すことで、各撮影ユニット4は撮影環境が時々刻々と変化しても良好な認識率を維持して撮影を行うことが出来る。   As described above, each photographing unit 4 repeatedly shoots the reference subject 5 based on the photographing setting adjusted by the condition deriving unit 502 and derives the recognition rate, and the condition deriving unit 502 is based on the recognition rate derived by the photographing unit 4. By repeatedly deriving shooting settings that improve the recognition rate of the shooting unit 4 through learning processing, each shooting unit 4 performs shooting while maintaining a good recognition rate even if the shooting environment changes from moment to moment. I can do it.

処理S813では、条件更新部504は、処理S803において移動体2が到達した特定位置B(つまり、特定位置情報31b)と対応する特定地点A(つまり、特定地点情報31a)に関連付けられた学習結果の内容(つまり、学習データ35b)が十分であるかどうかを判定する。学習データ35bが十分であるかどうかの判定基準は、例えば、学習の成果である認識率(つまり、認識率情報33a)が、予め定められた変動範囲に収束した場合としたり、予め定められた認識率に達した場合としたり、条件導出部502での学習処理が予め定められた時間を経過した場合としたりすることが考えられる。
ここでの判定を行うことで、学習が十分に進んでおらず撮影装置3での認識率を向上させる見込みが低い撮影条件を、撮影装置3に対して提供してしまう事態を回避することが出来る。
判定の結果、十分であると判定する場合には処理S814に進む。十分ではないと判定する場合には処理S816に進む。
In the process S813, the condition update unit 504 learns the learning result associated with the specific point A (that is, the specific point information 31a) corresponding to the specific position B (that is, the specific position information 31b) reached by the mobile body 2 in the process S803. It is determined whether the content of (i.e., learning data 35b) is sufficient. The criterion for determining whether or not the learning data 35b is sufficient is, for example, a case where the recognition rate (that is, the recognition rate information 33a) that is the result of learning converges within a predetermined fluctuation range, or is determined in advance. It is conceivable that the recognition rate has been reached or the learning process in the condition deriving unit 502 has passed a predetermined time.
By performing the determination here, it is possible to avoid a situation in which learning is not sufficiently advanced and a photographing condition that is unlikely to improve the recognition rate in the photographing device 3 is provided to the photographing device 3. I can do it.
As a result of the determination, if it is determined that it is sufficient, the process proceeds to step S814. When it determines with it not being enough, it progresses to process S816.

処理S814では、条件導出部502が、導出した撮影設定(つまり、撮影設定情報34)に基づき、撮影装置3に送信する撮影条件(つまり、撮影条件情報38)を導出する。その後、処理S815に進む。   In the process S814, the condition deriving unit 502 derives the photographing condition (that is, the photographing condition information 38) to be transmitted to the photographing apparatus 3 based on the derived photographing setting (that is, the photographing setting information 34). Then, it progresses to process S815.

処理S814において、条件導出部502が撮影設定情報34を参照して撮影条件情報38を導出することを、図6に矢印Refer3で示す。   The fact that the condition deriving unit 502 derives the shooting condition information 38 with reference to the shooting setting information 34 in the process S814 is indicated by an arrow Refer3 in FIG.

処理S815では、条件更新部504は、配置情報31と移動体情報36との関連付け情報Rel3に基づき、位置情報36bが特定位置B(つまり、特定位置情報31b)に到達した移動体2又は当該移動体2の撮影装置3に対し、導出した撮影条件を送信する。その後、処理を終了する。   In the process S815, the condition update unit 504, based on the association information Rel3 between the arrangement information 31 and the moving body information 36, the moving body 2 where the position information 36b has reached the specific position B (that is, the specific position information 31b) or the movement The derived imaging conditions are transmitted to the imaging device 3 of the body 2. Thereafter, the process ends.

処理S816では、条件更新部504は、配置情報31と移動体情報36との関連付け情報Rel3に基づき、位置情報36bが特定位置B(つまり、特定位置情報31b)に到達した移動体2又は当該移動体2の撮影装置3に対し、導出した撮影条件を送信しない。その後、処理を終了する。   In the process S816, the condition updating unit 504, based on the association information Rel3 between the arrangement information 31 and the moving body information 36, the moving body 2 where the position information 36b has reached the specific position B (that is, the specific position information 31b) or the movement The derived imaging conditions are not transmitted to the imaging device 3 of the body 2. Thereafter, the process ends.

処理S815及びS816において、条件更新部504が関連付け情報Rel3を参照して撮影条件情報38を送信することを、図6に矢印Based2で示す。   In steps S815 and S816, the condition update unit 504 refers to the association information Rel3 and transmits the shooting condition information 38, as indicated by an arrow Base2 in FIG.

なお、図8のフローチャートの処理S814で行う撮影条件情報38の導出を、処理S807で行う撮影設定情報34の導出の都度に実施するようにしても良い。   Note that the derivation of the shooting condition information 38 performed in step S814 in the flowchart of FIG. 8 may be performed every time the shooting setting information 34 is derived in step S807.

次に、図9について説明する。
処理S901では、撮影ユニット4の撮影部411が、参考被写体5を撮影する。撮影部411は、撮影した撮影画像である撮影画像D1を出力する。その後、処理S902に進む。
Next, FIG. 9 will be described.
In process S901, the photographing unit 411 of the photographing unit 4 photographs the reference subject 5. The photographing unit 411 outputs a photographed image D1 that is a photographed photographed image. Then, it progresses to process S902.

処理S902では、撮影ユニット4の画像調整部412は、処理S901で出力された撮影画像D1において参考被写体5がより鮮明となるように、撮影画像D1に対して画質の調整を行う。そして、画像調整部412は、画質を調整した画像情報である撮影画像情報D2を出力する。その後、処理S903に進む。   In process S902, the image adjustment unit 412 of the photographing unit 4 adjusts the image quality of the photographed image D1 so that the reference subject 5 becomes clearer in the photographed image D1 output in process S901. Then, the image adjustment unit 412 outputs captured image information D2, which is image information whose image quality has been adjusted. Then, it progresses to process S903.

処理S903では、撮影ユニット4の画像認識部413は、処理S902で出力された撮影画像情報D2から正解画像情報Dcに類似する画像情報を抽出する。その後、処理S904に進む。   In step S903, the image recognition unit 413 of the photographing unit 4 extracts image information similar to the correct image information Dc from the photographed image information D2 output in step S902. Then, it progresses to process S904.

処理S904では、画像認識部413は、処理S903で抽出した画像情報と、正解画像情報Dcとの比較に基づき認識率を導出する。その後、処理を終了する。   In process S904, the image recognition unit 413 derives a recognition rate based on the comparison between the image information extracted in process S903 and the correct image information Dc. Thereafter, the process ends.

ところで、撮影ユニット4の撮影設定に基づき撮影装置3の撮影条件を導出するにあたり、撮影ユニット4の撮影環境を撮影装置3の撮影環境に近似させることが望ましいことを説明した。   By the way, it has been described that it is desirable to approximate the photographing environment of the photographing unit 4 to the photographing environment of the photographing device 3 in deriving the photographing condition of the photographing device 3 based on the photographing setting of the photographing unit 4.

ここでは、図8の処理S814において、条件導出部502が、撮影ユニット4の撮影設定に基づき、撮影装置3の撮影条件を導出する過程の一例を説明する。   Here, an example of a process in which the condition deriving unit 502 derives the photographing condition of the photographing apparatus 3 based on the photographing setting of the photographing unit 4 in the process S814 of FIG.

電子計算機500は、撮影ユニット4と撮影装置3との撮影環境の差分に関する情報に基づき、撮影ユニット4が撮影した撮影画像を、あたかも撮影装置3が被写体を撮影したような撮影画像に変換する画像処理を行うことを考える。このときの画像処理を画像変換処理Transとする。また、画像変換処理Transにより生成される画像を変換撮影画像Ptとする。
電子計算機500は、変換撮影画像Ptを生成するための差分に関する情報と、撮影ユニット4の撮影設定とに基づき、撮影装置3の撮影条件を導出する。
The electronic computer 500 converts an image captured by the image capturing unit 4 into an image captured as if the image capturing device 3 captured an object, based on information regarding the difference in image capturing environment between the image capturing unit 4 and the image capturing device 3. Consider processing. The image processing at this time is referred to as image conversion processing Trans. In addition, an image generated by the image conversion process Trans is referred to as a converted captured image Pt.
The electronic computer 500 derives the photographing condition of the photographing device 3 based on the information regarding the difference for generating the converted photographed image Pt and the photographing setting of the photographing unit 4.

図10は、撮影条件を導出するための画像変換処理Transを説明するための模式図である。   FIG. 10 is a schematic diagram for explaining an image conversion process Trans for deriving a shooting condition.

電子計算機500の条件導出部502は、撮影ユニット4から参考被写体5を撮影した撮影画像を取得する。このとき取得する撮影画像を原撮影画像Poとする。
そして、条件導出部502は、撮影ユニット4と特定の撮影装置3Xの撮影位置との撮影位置の差分、撮影ユニット4を基点とする参考被写体5の撮影向き及び撮影距離と、特定の撮影装置3Xを基点とする特定の被写体2Xの撮影向き及び撮影距離との差分、並びに、撮影ユニット4と特定の撮影装置3Xとの撮影環境の差分のそれぞれに関する情報に基づいて、画像変換処理Transを行い、原撮影画像Poを変換する。
The condition deriving unit 502 of the electronic computer 500 acquires a captured image obtained by capturing the reference subject 5 from the photographing unit 4. The captured image acquired at this time is referred to as an original captured image Po.
The condition deriving unit 502 then compares the photographing position between the photographing unit 4 and the photographing position of the specific photographing device 3X, the photographing direction and photographing distance of the reference subject 5 with the photographing unit 4 as a base point, and the specific photographing device 3X. The image conversion processing Trans is performed based on the information about the difference between the shooting direction and the shooting distance of the specific subject 2X with reference to the difference between the shooting environments of the shooting unit 4 and the specific shooting device 3X, The original photographed image Po is converted.

なお、撮影ユニット4と特定の撮影装置3Xの撮影位置との撮影位置の差分、撮影ユニット4を基点とする参考被写体5の撮影向き及び撮影距離と、特定の撮影装置3Xを基点とする特定の被写体2Xの撮影向き及び撮影距離との差分、並びに、撮影ユニット4と特定の撮影装置3Xとの撮影環境の差分のそれぞれに関する情報を、電子計算機500は予め保持しているものとする。
また、このときの特定の撮影装置3X及び特定の被写体2Xは、電子計算機500に、基本的なモデルケースとして予め与えられるものとする。
Note that the difference between the shooting positions of the shooting unit 4 and the shooting position of the specific shooting device 3X, the shooting direction and shooting distance of the reference subject 5 with the shooting unit 4 as a base point, and a specific point with the specific shooting device 3X as a base point It is assumed that the electronic computer 500 holds in advance information regarding the difference between the shooting direction and shooting distance of the subject 2X and the difference in shooting environment between the shooting unit 4 and the specific shooting device 3X.
Further, the specific photographing device 3X and the specific subject 2X at this time are given in advance to the electronic computer 500 as a basic model case.

条件導出部502は、画像変換処理Transにおいて、座標変換処理Tr1及び光量推定処理Tr2を行う。   The condition deriving unit 502 performs a coordinate conversion process Tr1 and a light amount estimation process Tr2 in the image conversion process Trans.

座標変換処理Tr1は、撮影ユニット4と特定の撮影装置3Xとの撮影位置、撮影向き及び撮影距離の差分に関する情報に基づき、撮影ユニット4から取得した参考被写体5の原撮影画像Poを変換して、特定の撮影装置3Xから特定の被写体2Xを撮影した場合の撮影画像を導出する処理である。
導出する過程の例として、撮影ユニット4と特定の撮影装置3Xとの撮影位置の差分は、特定の撮影装置3Xが撮影ユニット4よりも北向きに1メートルだけ移動した位置とする。また、撮影ユニット4と特定の撮影装置3Xとの撮影向き及び撮影距離の差分は、特定の被写体2Xが参考被写体5よりも北向き及び西向きにそれぞれ2メートルだけ移動した位置とする。これにより、特定の撮影装置3Xから見た特定の被写体2Xの撮影向きが、撮影ユニット4から見た参考被写体5の撮影向きに対して、相対的に、北向きに1メートル及び西向きに2メートルの差分が生じることが分かる。これらの撮影位置、撮影向き及び撮影距離の差分の情報を基に、特定の撮影装置3Xから特定の被写体2Xを撮影した場合の撮影画像を推定して導出することが出来る。
このようにして、座標変換処理Tr1では、撮影ユニット4が参考被写体5を撮影したときの撮影画像に基づき、異なる撮影位置、撮影向き及び撮影距離において異なる被写体を撮影した場合の、撮影画像を導出する。
The coordinate conversion process Tr1 converts the original photographed image Po of the reference subject 5 acquired from the photographing unit 4 based on information on the photographing position, photographing direction, and photographing distance difference between the photographing unit 4 and the specific photographing device 3X. This is a process for deriving a captured image when a specific subject 2X is captured from a specific capturing device 3X.
As an example of the derivation process, the difference in shooting position between the shooting unit 4 and the specific shooting device 3X is a position where the specific shooting device 3X has moved by 1 meter northward from the shooting unit 4. Further, the difference between the photographing direction and the photographing distance between the photographing unit 4 and the specific photographing device 3X is a position where the specific subject 2X has moved by 2 meters toward the north and west from the reference subject 5, respectively. Thereby, the shooting direction of the specific subject 2X viewed from the specific shooting device 3X is 1 meter in the north direction and 2 meters in the west direction relative to the shooting direction of the reference subject 5 viewed from the shooting unit 4. It can be seen that a difference of Based on the information on the difference between these shooting positions, shooting directions, and shooting distances, it is possible to estimate and derive a shot image when a specific subject 2X is shot from a specific shooting device 3X.
In this way, in the coordinate conversion processing Tr1, based on the photographed image obtained when the photographing unit 4 photographed the reference subject 5, a photographed image when different subjects are photographed at different photographing positions, photographing directions, and photographing distances is derived. To do.

光量推定処理Tr2は、撮影ユニット4と特定の撮影装置3Xとの撮影位置による撮影環境の差分、及び、参考被写体5と特定の被写体2Xとの設置位置による撮影環境の差分に基づき、特定の撮影装置3Xから特定の被写体2Xを撮影した場合に、特定の撮影装置3Xに対して入射する特定の被写体2X及び撮影環境からの光量を推定して導出する処理である。このときの光量の推定値は、上述の撮影環境の差分から、特定の撮影装置3Xに入射する光量が、撮影ユニット4に対して増減する量を推定することにより導出することが出来る。   The light amount estimation process Tr2 is based on the difference in the shooting environment depending on the shooting position between the shooting unit 4 and the specific shooting device 3X and the difference in shooting environment based on the installation position of the reference subject 5 and the specific subject 2X. This is a process of estimating and deriving the amount of light from the specific subject 2X and the shooting environment incident on the specific shooting device 3X when the specific subject 2X is shot from the device 3X. The estimated value of the amount of light at this time can be derived by estimating the amount by which the amount of light incident on the specific photographing apparatus 3X increases or decreases with respect to the photographing unit 4 from the difference in the photographing environment described above.

このように、条件導出部502は、画像変換処理Transを行うことによって、撮影ユニット4が撮影した原撮影画像Poに基づき、あたかも撮影ユニット4と異なる撮影位置にある撮影装置3から参考被写体5と異なる被写体を撮影したかのように、原撮影画像Poを変換した変換撮影画像Ptを生成することが出来る。   As described above, the condition deriving unit 502 performs the image conversion process Trans, and based on the original photographed image Po photographed by the photographing unit 4, the reference subject 5 and the reference subject 5 from the photographing device 3 at a photographing position different from the photographing unit 4. A converted photographed image Pt obtained by converting the original photographed image Po can be generated as if a different subject was photographed.

そして、条件導出部502は、画像変換処理Transにおいて原撮影画像Poを変換撮影画像Ptに変換処理を行うとともに、原撮影画像Poと対応する撮影設定を変換撮影画像Ptと対応する撮影条件に変換する。
この撮影設定から撮影条件への変換処理は、画像変換処理Transの前後において撮影画像での認識率を維持するように行う。つまり、画像変換処理Transでの原撮影画像Poから変換撮影画像Ptへの変換に伴い、変換中又は変換後の撮影画像における認識率の値を、画像変換処理Transを行う前の原撮影画像Poでの認識率の値に維持するための調整を撮影設定に対して行う。言い換えると、撮影ユニット4が撮影した撮影画像への変換処理により生じる画質の変化を打ち消すように、撮影設定の内容を調整しつつ補正を行う。このようにすることで、特定の撮影装置3Xの撮影条件を導出することが出来る。
Then, the condition deriving unit 502 converts the original captured image Po into the converted captured image Pt in the image conversion process Trans, and converts the captured setting corresponding to the original captured image Po into the captured condition corresponding to the converted captured image Pt. To do.
The conversion process from the shooting setting to the shooting condition is performed so as to maintain the recognition rate in the shot image before and after the image conversion process Trans. That is, along with the conversion from the original photographed image Po to the converted photographed image Pt in the image conversion process Trans, the value of the recognition rate in the photographed image during or after conversion is converted into the original photographed image Po before the image conversion process Trans is performed. The adjustment for maintaining the recognition rate value in is performed on the shooting setting. In other words, correction is performed while adjusting the content of the shooting settings so as to cancel the change in image quality caused by the conversion process to the shot image shot by the shooting unit 4. By doing in this way, the imaging conditions of the specific imaging device 3X can be derived.

このことは、撮影装置3の撮影頻度の高い位置に撮影ユニット4を設置したり、撮影装置3が撮影する頻度の高い被写体の位置に参考被写体5を設置したりすることが困難な場合であっても、電子計算機500は、撮影装置3に対して、高い認識率で被写体を撮影するための撮影条件を導出し、提供することを可能とする。   This is a case where it is difficult to install the photographing unit 4 at a position where the photographing device 3 is frequently photographed, or to install the reference subject 5 at a position where the photographing device 3 photographs frequently. However, the electronic computer 500 can derive and provide shooting conditions for shooting a subject with a high recognition rate to the shooting apparatus 3.

なお、条件導出部502は、画像変換処理Transを行うことなく、撮影ユニット4の撮影設定のみに基づいて撮影装置3の撮影条件を導出するようにしても良いし、撮影ユニット4の撮影設定、並びに、座標変換処理Tr1及び光量推定処理Tr2の差分に関する情報の少なくともいずれかに基づいて撮影装置3の撮影条件を導出するようにしても良い。   The condition deriving unit 502 may derive the shooting conditions of the shooting device 3 based only on the shooting settings of the shooting unit 4 without performing the image conversion process Trans, In addition, the imaging condition of the imaging device 3 may be derived based on at least one of the information regarding the difference between the coordinate conversion processing Tr1 and the light amount estimation processing Tr2.

つまり、実施の形態1では、撮影ユニット4での撮影に基づき導出される撮影設定を利用することによって、撮影装置3が従来よりも認識率高く撮影することが可能な撮影条件を設定できるようにすることを目的の1つとする。   That is, in the first embodiment, by using the shooting setting derived based on the shooting by the shooting unit 4, the shooting condition that allows the shooting device 3 to take a higher recognition rate than before can be set. One of the purposes is to do.

例えば、撮影装置3の仕様によっては、撮影システム1から受信した撮影条件のうち、照光制御情報38bのみを利用し、自装置の設定に反映することも可能である。   For example, depending on the specifications of the photographing apparatus 3, it is possible to reflect only the illumination control information 38b among the photographing conditions received from the photographing system 1 and reflect the information in the setting of the own apparatus.

また、撮影装置3は、図示しない記憶装置を備えることで、予め用意された初期撮影条件と、撮影システム1から受信した撮影条件とを切り替えて又は一部を利用して設定し、撮影することが出来る。例えば、撮影装置3は、移動体2の移動開始時には自装置の記憶装置に予め用意され記憶された初期撮影条件を設定し、撮影システム1から撮影条件を受信するとその撮影条件を設定し、その後に再び記憶装置に記憶された初期撮影条件を設定することが出来る。このようにすることで、撮影装置3は、受信した撮影条件では適切に撮影できなかった場合や、受信した撮影条件が不要となった場合に、自装置で保持する初期撮影条件に戻して動作することが可能となる。   In addition, the photographing apparatus 3 includes a storage device (not shown) so that the initial photographing conditions prepared in advance and the photographing conditions received from the photographing system 1 can be switched or partially set and photographed. I can do it. For example, when the moving body 2 starts moving, the photographing device 3 sets initial photographing conditions prepared and stored in the storage device of the own device, receives the photographing conditions from the photographing system 1, sets the photographing conditions, and then The initial photographing conditions stored in the storage device can be set again. By doing in this way, the imaging device 3 operates to return to the initial imaging conditions held by itself when the received imaging conditions cannot be properly captured or when the received imaging conditions are no longer necessary. It becomes possible to do.

以上、説明したように、実施の形態1によれば、撮影システム1は撮影部411を備え、撮影部411は、特定地点Aにおいて参考被写体5を撮影して撮影画像における認識率を導出し、撮影システム1は条件導出部502をさらに備え、条件導出部502は繰り返し撮影部411での撮影の認識率を向上させる撮影設定を導出し、条件導出部502は撮影設定に基づいて撮影装置3の撮影条件を導出し、撮影システム1は条件更新部504をさらに備え、条件更新部504は撮影装置3が特定地点Aで撮影するのに先立ち通信手段10を用いて撮影装置3に送信するように構成したので、撮影装置3は特定地点Aにおいて認識率高く撮影できる撮影条件を利用することが可能となる。
その結果として、撮影装置3が特定地点Aにおいて撮影をするときに、又は、特定地点Aにおいて撮影を開始するときに、被写体を認識率高く撮影できるようにする効果が得られる。このことは、特定地点Aにおける撮影環境の変化に依らず撮影装置3が良好な画質で被写体を撮影することを可能とする。
As described above, according to the first embodiment, the imaging system 1 includes the imaging unit 411, and the imaging unit 411 captures the reference subject 5 at the specific point A to derive the recognition rate in the captured image. The imaging system 1 further includes a condition deriving unit 502. The condition deriving unit 502 derives an imaging setting for improving the recognition rate of the imaging in the repeated imaging unit 411. The condition deriving unit 502 is based on the imaging setting. The imaging condition is derived, and the imaging system 1 further includes a condition updating unit 504, which transmits the condition updating unit 504 to the imaging apparatus 3 using the communication unit 10 before the imaging apparatus 3 captures the image at the specific point A. Since it comprised, the imaging device 3 can utilize the imaging conditions which can image | photograph at a specific point A with high recognition rate.
As a result, an effect is obtained that enables the subject to be photographed with a high recognition rate when the photographing device 3 takes a picture at the specific point A or starts taking a picture at the specific point A. This enables the photographing apparatus 3 to photograph the subject with good image quality regardless of the change of the photographing environment at the specific point A.

実施の形態2.
実施の形態1では、撮影装置3に提供する撮影条件を、撮影ユニット4が撮影した撮影画像に基づき導出した。実施の形態2では、撮影システムは、現実空間において撮影装置3が撮影する撮影環境と当該撮影装置3で行われる被写体の撮影とを仮想空間において表現し、その仮想空間において撮影装置3が被写体を撮影する撮影画像に基づき、現実空間の撮影装置3に提供するための撮影条件を導出する。
なお、実施の形態1と同じ符号のものについては説明を繰り返さない。
Embodiment 2. FIG.
In the first embodiment, the photographing conditions provided to the photographing device 3 are derived based on the photographed image photographed by the photographing unit 4. In the second embodiment, the photographing system represents in a virtual space the photographing environment in which the photographing device 3 photographs in the real space and the photographing of the subject performed by the photographing device 3, and the photographing device 3 represents the subject in the virtual space. Based on the photographed image to be photographed, a photographing condition for providing to the photographing device 3 in the real space is derived.
The description of the same reference numerals as in Embodiment 1 will not be repeated.

図11は、実施の形態2における、撮影システム100の適用例を示すシステム構成図である。撮影システム100は、電子計算機511及び通信器6を備える。   FIG. 11 is a system configuration diagram illustrating an application example of the imaging system 100 in the second embodiment. The imaging system 100 includes an electronic computer 511 and a communication device 6.

電子計算機511は、高速演算処理を実行可能な演算装置であり、例えば、クラウド・コンピューティングを構成するスーパーコンピュータである。電子計算機511は、現実空間Srにおいて通信器6との間で通信を行う。図11では、電子計算機511は、通信器6a,6b,・・・,6eとの間で通信を行う。   The electronic computer 511 is an arithmetic device that can execute high-speed arithmetic processing, and is, for example, a supercomputer that constitutes cloud computing. The electronic computer 511 communicates with the communication device 6 in the real space Sr. In FIG. 11, the electronic computer 511 communicates with the communication devices 6a, 6b,.

電子計算機511は、シミュレーション解析を実行することにより、現実空間Srを3次元でモデル化した仮想空間Svを構築する。   The electronic computer 511 constructs a virtual space Sv in which the real space Sr is modeled in three dimensions by executing simulation analysis.

仮想空間Svには、認識率を導出するための参考被写体150が配置されている。図11では、参考被写体150として、参考被写体150a,150b,・・・,150eを模式的に示している。   A reference subject 150 for deriving a recognition rate is arranged in the virtual space Sv. In FIG. 11, reference subjects 150a, 150b,..., 150e are schematically shown as reference subjects 150.

また、仮想空間Svには、参考被写体150を撮影して認識率を導出する撮影ユニット140が配置されている。図11では、撮影ユニット140として、撮影ユニット140a,140b,・・・,140eのそれぞれが、参考被写体150a,150b,・・・,150eを撮影して認識率を導出することを模式的に示している。   In the virtual space Sv, a photographing unit 140 that photographs the reference subject 150 and derives a recognition rate is arranged. FIG. 11 schematically shows that as the photographing unit 140, the photographing units 140a, 140b,..., 140e each photograph the reference subjects 150a, 150b,. ing.

電子計算機511は、仮想空間Svにおいて、撮影ユニット140での参考被写体150の撮影画像を推定する。図11では、撮影ユニット140a,140b,・・・,140eのそれぞれにおいて推定した撮影画像を撮影画像P110,P120,・・・,P150として模式的に示している。   The electronic computer 511 estimates a captured image of the reference subject 150 in the imaging unit 140 in the virtual space Sv. In FIG. 11, captured images estimated in each of the capturing units 140a, 140b,..., 140e are schematically illustrated as captured images P110, P120,.

電子計算機511が構築する仮想空間Svには、撮影装置3を搭載した移動体2が移動する移動経路Rの周辺環境のモデルとして、例えば、移動経路Rv、光源Lv及び物体Evが配置されている。図11では、仮想空間Svにおける物体Evの例として、物体Ev1はトンネル、物体Ev2は森林、及び、物体Ev3は海を示している。
仮想空間Svにおいて、物体Ev1及びEv2は光を遮蔽し、物体Ev3は光を反射するので、被写体の撮影画像は撮影環境の一部である物体Evの種類及び配置の影響を受けることになる。
In the virtual space Sv constructed by the electronic computer 511, for example, a movement path Rv, a light source Lv, and an object Ev are arranged as models of the surrounding environment of the movement path R along which the moving body 2 on which the photographing apparatus 3 is mounted moves. . In FIG. 11, as an example of the object Ev in the virtual space Sv, the object Ev1 indicates a tunnel, the object Ev2 indicates a forest, and the object Ev3 indicates a sea.
In the virtual space Sv, the objects Ev1 and Ev2 shield light and the object Ev3 reflects light, so that the captured image of the subject is affected by the type and arrangement of the object Ev that is a part of the shooting environment.

仮想空間Svにおいて、撮影ユニット140は参考被写体150の撮影処理を行う。   In the virtual space Sv, the shooting unit 140 performs shooting processing of the reference subject 150.

電子計算機511は撮影ユニット140の撮影画像に対して画像処理を行いながら認識率を導出するとともに、学習処理を実行して当該認識率を向上させる撮影条件を導出する。
そして、電子計算機511は、現実空間Srにおいて、導出した撮影条件を移動体2又は撮影装置3に対し送信する。
The electronic computer 511 derives a recognition rate while performing image processing on the photographed image of the photographing unit 140, and also performs a learning process to derive a photographing condition that improves the recognition rate.
Then, the electronic computer 511 transmits the derived imaging condition to the moving body 2 or the imaging device 3 in the real space Sr.

電子計算機511は、導出した撮影条件を移動体2又は撮影装置3に対して送信するための通信手段として通信器6の通信を利用する。   The electronic computer 511 uses the communication of the communication device 6 as a communication unit for transmitting the derived imaging condition to the moving body 2 or the imaging device 3.

また、電子計算機511は、通信器6を介して、移動体2又は撮影装置3との間で種々の情報を送受信する。通信器6と移動体2又は撮影装置3との間の通信の確立については、実施の形態1と同様である。   Further, the electronic computer 511 transmits / receives various information to / from the moving body 2 or the imaging device 3 via the communication device 6. The establishment of communication between the communication device 6 and the moving body 2 or the imaging device 3 is the same as in the first embodiment.

特定地点A1,A2,・・・,A5は、現実空間Srにおける撮影地点であり、電子計算機511に対して任意に設定できるものとする。電子計算機511は、設定された現実空間Srの特定地点A1,A2,・・・,A5を仮想空間Svに対応させて特定地点A110,A120,・・・,A150を配置する。図11では、電子計算機511が仮想空間Svに配置する特定地点A110,A120,・・・,A150を模式的に示している。   The specific points A1, A2,..., A5 are shooting points in the real space Sr, and can be arbitrarily set for the electronic computer 511. The electronic computer 511 arranges the specific points A110, A120,..., A150 so that the specific points A1, A2,..., A5 of the set real space Sr correspond to the virtual space Sv. In FIG. 11, specific points A110, A120,..., A150 that the computer 511 places in the virtual space Sv are schematically shown.

特定位置Bは、現実空間Srにおいて、移動体2又は撮影装置3に対し撮影条件を送信する位置であり、通信器6と移動体2又は撮影装置3との通信が可能な範囲に配置される。図11では、電子計算機511が現実空間Srに配置する特定位置Bとして、特定位置B110,B120,・・・,B150を模式的に示している。   The specific position B is a position where the imaging conditions are transmitted to the moving body 2 or the imaging device 3 in the real space Sr, and is arranged in a range where communication between the communication device 6 and the moving body 2 or the imaging device 3 is possible. . In FIG. 11, specific positions B110, B120,..., B150 are schematically shown as specific positions B that the electronic computer 511 places in the real space Sr.

なお、現実空間Svにおける特定地点A及び特定位置Bの配置に関する情報は、通信器6の配置と通信範囲との情報と関連付けられる。   In addition, the information regarding the arrangement of the specific point A and the specific position B in the real space Sv is associated with information about the arrangement of the communication device 6 and the communication range.

図12は、撮影システム100の構成を示す機能ブロック図である。なお、実施の形態1の図4及び図5と同じ符号のものについては説明を繰り返さない。   FIG. 12 is a functional block diagram illustrating the configuration of the imaging system 100. The description of the same reference numerals as those in FIGS. 4 and 5 of the first embodiment will not be repeated.

電子計算機511は、画像調整部412、画像認識部413、記憶部501、条件導出部502、設定変更部503、条件更新部504、第2の通信部505及び解析部1201を備える。   The electronic computer 511 includes an image adjustment unit 412, an image recognition unit 413, a storage unit 501, a condition derivation unit 502, a setting change unit 503, a condition update unit 504, a second communication unit 505, and an analysis unit 1201.

電子計算機511の第2の通信部505は、現実空間Srにおいて、外部ネットワーク20を介して外部サーバ30と通信を行い、例えば、撮影装置3を搭載した移動体2が移動する移動経路Rの特定地点Aでの撮影環境に関する情報など、撮影システム100で扱う種々の情報を収集する。第2の通信部505と通信器6及び外部サーバ30との通信は有線通信であっても無線通信であっても良い。   The second communication unit 505 of the electronic computer 511 communicates with the external server 30 via the external network 20 in the real space Sr, and for example, specifies the moving route R on which the moving body 2 on which the imaging device 3 is mounted moves. Various types of information handled by the photographing system 100 such as information on the photographing environment at the point A are collected. Communication between the second communication unit 505, the communication device 6, and the external server 30 may be wired communication or wireless communication.

また、第2の通信部505は、通信器6を介して移動体2又は撮影装置3との間で通信を行う。   The second communication unit 505 communicates with the moving body 2 or the imaging device 3 via the communication device 6.

撮影システム100が、現実空間Srにおいて、電子計算機511の第2の通信部505及び通信器6を介して、移動体2又は撮影装置3との間で通信を行う手段を通信手段10とする。つまり、撮影システム100は、移動体2又は撮影装置3と通信を行うための通信手段10を備える。   A means for the photographing system 100 to communicate with the mobile body 2 or the photographing apparatus 3 via the second communication unit 505 and the communication device 6 of the electronic computer 511 in the real space Sr is referred to as a communication means 10. That is, the imaging system 100 includes a communication unit 10 for communicating with the moving body 2 or the imaging device 3.

解析部1201は、時々刻々と変化する現実空間Srの特定地点Aにおける撮影環境を表現するための仮想空間Svを構築する。このように、解析部1201が、現実空間Srの撮影環境を3次元でモデル化した仮想空間Svを構築するために行うシミュレーションを、構築シミュレーションSimAとする。   The analysis unit 1201 constructs a virtual space Sv for expressing a shooting environment at a specific point A in the real space Sr that changes every moment. In this way, the simulation performed by the analysis unit 1201 to construct the virtual space Sv in which the shooting environment of the real space Sr is modeled in three dimensions is referred to as a construction simulation SimA.

構築シミュレーションSimAでは、解析部1201は、外部サーバ30から収集する種々の情報を利用してシミュレーション解析を行うことで、仮想空間Svに撮影ユニット140が撮影するための撮影環境を表現する。
より具体的には、解析部1201は、例えば、移動体2を含む種々の物体Evの配置、並びに、大気中の塵及び水の密度の情報などの情報を反映させて表現した撮影環境において、例えば、光源Lv及び移動体2のヘッドライト等の光源からの光の照射向き、光度及び照度に基づき、光が反射、屈折及び吸収される状況をシミュレーション解析する。なお、このときのシミュレーション解析の一例として、光線追跡法(レイ・トレーシング)を利用することができる。
In the construction simulation SimA, the analysis unit 1201 performs a simulation analysis using various information collected from the external server 30 to express a shooting environment for the shooting unit 140 to shoot in the virtual space Sv.
More specifically, the analysis unit 1201, for example, in a shooting environment expressed by reflecting information such as the arrangement of various objects Ev including the moving body 2 and information on the density of dust and water in the atmosphere, For example, a simulation analysis is performed on a situation in which light is reflected, refracted, and absorbed based on the light irradiation direction, light intensity, and illuminance from a light source such as the light source Lv and the headlight of the moving body 2. As an example of the simulation analysis at this time, a ray tracing method (ray tracing) can be used.

また、解析部1201は、仮想空間Svに、現実空間Srの撮影装置3をモデル化した撮影ユニット140を配置する。
モデル化された撮影ユニット140は、撮影装置3の撮影機能を表現した撮影部1202を備える。撮影部1202は、撮影装置3の撮影機能に関する情報として、例えば、内部の構造、レンズの形状、フィルタ係数、露光エリア及び感度等の情報を利用してモデル化される。
Further, the analysis unit 1201 arranges a photographing unit 140 that models the photographing device 3 in the real space Sr in the virtual space Sv.
The modeled photographing unit 140 includes a photographing unit 1202 that represents the photographing function of the photographing device 3. The photographing unit 1202 is modeled using information such as an internal structure, a lens shape, a filter coefficient, an exposure area, and sensitivity as information regarding the photographing function of the photographing device 3.

そして、解析部1201は、撮影ユニット140が参考被写体150を撮影したときの撮影画像D1をシミュレーション解析によって導出する。   Then, the analysis unit 1201 derives a photographed image D1 when the photographing unit 140 photographs the reference subject 150 by simulation analysis.

このように、解析部1201が、仮想空間Svにおいてモデル化した撮影ユニット140を配置するとともに、撮影ユニット140での撮影画像の情報を導出するために行うシミュレーションを撮影シミュレーションSimBとする。   In this way, the analysis unit 1201 arranges the imaging unit 140 modeled in the virtual space Sv, and a simulation performed for deriving information of the captured image in the imaging unit 140 is an imaging simulation SimB.

画像調整部412及び画像認識部413は、実施の形態1と同様の要領により、撮影ユニット140の撮影部1202が導出した撮影画像D1を画像処理して、認識率及び撮影ベクトル情報を含む信号Sig1を出力する。   The image adjustment unit 412 and the image recognition unit 413 perform image processing on the photographed image D1 derived by the photographing unit 1202 of the photographing unit 140 in the same manner as in the first embodiment, and a signal Sig1 including the recognition rate and the photographing vector information. Is output.

ここで、電子計算機511は、仮想空間Svにおいて撮影ユニット140が参考被写体150を撮影した撮影画像における参考被写体150の正解画像の情報として、正解画像情報Dcを保持している。   Here, the electronic computer 511 holds the correct image information Dc as information on the correct image of the reference subject 150 in the captured image obtained by capturing the reference subject 150 in the virtual space Sv.

条件導出部502は、実施の形態1と同様の要領により、画像認識部413から信号Sig1を受信すると、当該撮影ユニット140の撮影における認識率を向上させるように、学習処理を実行しながら種々の設定内容を調整し、撮影条件を導出する。   When the condition deriving unit 502 receives the signal Sig1 from the image recognizing unit 413 in the same manner as in the first embodiment, the condition deriving unit 502 executes various learning processes while performing learning processing so as to improve the recognition rate in shooting of the shooting unit 140. Adjust the settings and derive the shooting conditions.

なお、実施の形態1では、撮影ユニット4の撮影設定を導出した後に、撮影装置3の撮影条件を導出したが、本実施の形態では、仮想空間Svの撮影ユニット140は撮影装置3をそのままモデル化したものであるため、撮影ユニット140での撮影の認識率を向上させる撮影設定は、そのまま撮影装置3の撮影条件とすることが出来る。   In the first embodiment, the shooting conditions of the shooting device 3 are derived after the shooting settings of the shooting unit 4 are derived. However, in this embodiment, the shooting unit 140 in the virtual space Sv directly models the shooting device 3. Therefore, the shooting setting for improving the recognition rate of shooting by the shooting unit 140 can be set as the shooting condition of the shooting apparatus 3 as it is.

図13は、撮影システム100で扱う種々の情報の関連を示す情報関連図である。図13に示す種々の情報は図12の電子計算機511の記憶部501に記憶される。   FIG. 13 is an information relation diagram showing the relation between various types of information handled by the imaging system 100. Various information shown in FIG. 13 is stored in the storage unit 501 of the computer 511 in FIG.

仮想空間情報130aは、構築シミュレーションSimA及び撮影シミュレーションSimBで扱われる情報として、配置情報131、撮影環境情報132、撮影情報133、撮影条件情報134及び学習情報135を含む。但し、配置情報131は現実空間Srに関わる情報としても扱われる。   The virtual space information 130a includes arrangement information 131, shooting environment information 132, shooting information 133, shooting condition information 134, and learning information 135 as information handled by the construction simulation SimA and the shooting simulation SimB. However, the arrangement information 131 is also handled as information related to the real space Sr.

配置情報131、特定地点情報131a及び特定位置情報131bはそれぞれ、図6の配置情報31、特定地点情報31a及び特定位置情報31bと対応する。   The arrangement information 131, the specific spot information 131a, and the specific position information 131b correspond to the arrangement information 31, the specific spot information 31a, and the specific position information 31b in FIG. 6, respectively.

撮影環境情報132、日時情報132a、気象情報132b及び撮影視野情報132cはそれぞれ、図6の撮影環境情報32、日時情報32a、気象情報32b及び撮影視野情報32cと対応する。   The shooting environment information 132, date / time information 132a, weather information 132b, and shooting field information 132c correspond to the shooting environment information 32, date / time information 32a, weather information 32b, and shooting field information 32c in FIG. 6, respectively.

解析部1201は、配置情報131及び撮影環境情報132の情報を用いて構築シミュレーションSimAを実行する。   The analysis unit 1201 executes the construction simulation SimA using the information on the arrangement information 131 and the shooting environment information 132.

撮影情報133、認識率情報133a及び撮影ベクトル情報133bはそれぞれ、図6の撮影情報33、認識率情報33a及び撮影ベクトル情報33bと対応する。   The shooting information 133, the recognition rate information 133a, and the shooting vector information 133b correspond to the shooting information 33, the recognition rate information 33a, and the shooting vector information 33b of FIG. 6, respectively.

撮影条件情報134、照明制御情報134b、画像処理制御情報134c及び撮影制御情報134aはそれぞれ、図6の撮影設定情報34、照明制御情報34b、画像処理制御情報34c及び撮影制御情報34aと対応する。図6の撮影条件情報38が存在しないのは、本実施の形態では、撮影ユニット140の撮影設定はそのまま撮影装置3の撮影条件と扱われるためである。   The shooting condition information 134, the illumination control information 134b, the image processing control information 134c, and the shooting control information 134a correspond to the shooting setting information 34, the illumination control information 34b, the image processing control information 34c, and the shooting control information 34a of FIG. 6, respectively. The imaging condition information 38 of FIG. 6 does not exist because in this embodiment, the imaging settings of the imaging unit 140 are treated as they are as the imaging conditions of the imaging device 3.

学習情報135、学習データ135b及び学習制御情報135bはそれぞれ、図6の学習情報35、学習データ35b及び学習制御情報35bと対応する。   The learning information 135, the learning data 135b, and the learning control information 135b correspond to the learning information 35, the learning data 35b, and the learning control information 35b in FIG. 6, respectively.

現実空間情報130bは、現実空間Srに関する情報として、移動体情報36及び撮影装置情報37を含む。   The real space information 130b includes moving body information 36 and imaging device information 37 as information regarding the real space Sr.

また、関連付け情報Rel11、Rel12及びRel13のそれぞれは、図6の関連付け情報Rel1、Rel2及びRel3と対応し、矢印Based11及びBased12のそれぞれは、図6の矢印Based1及びBased2と対応し、矢印Refer11及びRefer12はそれぞれ、図6の矢印Refer1及びRefer2と対応する。   Further, each of the association information Rel11, Rel12, and Rel13 corresponds to the association information Rel1, Rel2, and Rel3 in FIG. 6, and each of the arrows Base11 and Based12 corresponds to each of the arrows Based1 and Based2 in FIG. 6, and the arrows Refer11 and Refer12. Respectively correspond to the arrows Refer1 and Refer2 in FIG.

図13に示すように、外部サーバ30は、電子計算機511に対し種々の情報を提供するための情報源として、例えば、天体情報システム141、気象予報システム142、地図情報システム143及び道路情報システム144等の、撮影環境に関わる情報を管理するシステムを利用しても良い。   As shown in FIG. 13, the external server 30 is, for example, an astronomical information system 141, a weather forecast system 142, a map information system 143, and a road information system 144 as information sources for providing various information to the computer 511. For example, a system for managing information related to the shooting environment may be used.

天体情報システム141は、例えば、天体物理データシステム(Astrophysics Data System、ADS)を利用することが出来る。   Astronomical information system 141 can use, for example, an astrophysical data system (ASTROPHYSICS DATA SYSTEM, ADS).

気象予報システム142は、例えば、世界気象監視計画(World Weather Watch、WWW)を利用することが出来る。   The weather forecasting system 142 can use, for example, a World Weather Watch (WWW).

地図情報システム143は、例えば、地理情報システム(geographic information system、GIS)を利用することが出来る。   The map information system 143 can use, for example, a geographic information system (GIS).

道路情報システム144は、例えば、航法衛星システム(navigation satellite system、NSS)、及び、各地域における交通用途の広域監視システムでの映像を利用することが出来る。   The road information system 144 can use, for example, images from a navigation satellite system (NSS) and a wide-area monitoring system for traffic use in each region.

また、外部サーバ30は、上述したシステムの他に、移動経路Rの周辺を撮影する撮影装置3から撮影環境に関わる情報を収集して利用するようにしても良い。   In addition to the system described above, the external server 30 may collect and use information related to the imaging environment from the imaging device 3 that captures the periphery of the movement route R.

外部サーバ30はこれらの情報源とクラウド・ネットワークや専用回線によって接続することが出来る。そして、電子計算機511は、外部サーバ30を介して、又は、直接に、これらの情報源にアクセスすることが出来るものとする。   The external server 30 can be connected to these information sources via a cloud network or a dedicated line. The electronic computer 511 can access these information sources via the external server 30 or directly.

次に、撮影システム100における電子計算機511及び撮影ユニット140の動作について、図12、図13及び図14を用いて説明する。   Next, operations of the electronic computer 511 and the photographing unit 140 in the photographing system 100 will be described with reference to FIGS.

図14は、撮影システム100が撮影装置3に対し撮影条件を送信する処理を示すフローチャート図である。   FIG. 14 is a flowchart illustrating processing in which the photographing system 100 transmits photographing conditions to the photographing device 3.

処理S1401では、電子計算機511の条件更新部504は、現実空間Srにおける移動体2の位置情報36bと、移動体2及び撮影装置3を識別するための移動体識別情報36a及び撮影装置識別情報37aとを取得して、記憶部501の移動体情報36及び撮影装置情報37に記憶する。
ここで、条件更新部504が情報取得の対象とする撮影装置3及び撮影装置3を搭載した移動体2として、予めに撮影システム100に対して撮影条件の送信を要求した、又は、事前に撮影システム100に対して登録手続きが行われた、撮影装置3及び当該撮影装置3を搭載した移動体2を対象に絞り込む方が、電子計算機511でのシミュレーション解析の処理負荷を軽減できる。
その後、処理S1402aに進む。
In the process S1401, the condition updating unit 504 of the electronic computer 511, the position information 36b of the moving body 2 in the real space Sr, the moving body identification information 36a for identifying the moving body 2 and the photographing apparatus 3, and the photographing apparatus identification information 37a. Are stored in the moving body information 36 and the photographing apparatus information 37 of the storage unit 501.
Here, the condition update unit 504 requests the imaging system 100 to transmit the imaging conditions in advance as the imaging apparatus 3 to be acquired information and the mobile body 2 on which the imaging apparatus 3 is mounted, or imaging in advance. The processing load of simulation analysis in the electronic computer 511 can be reduced by narrowing down the imaging apparatus 3 and the mobile body 2 equipped with the imaging apparatus 3 that have undergone registration procedures to the system 100.
Then, it progresses to process S1402a.

処理S1402aは、処理S1402bとの間での繰り返しを示すループ処理である。   The process S1402a is a loop process indicating repetition with the process S1402b.

処理S1402aと処理S1402bとのループ処理の間、電子計算機511の解析部1201は、処理S1401において情報を取得した撮影装置3に対して送信する撮影条件を導出するため、当該撮影装置3を搭載した移動体2がこの先に通過する特定地点Aにおける撮影環境のモデル化と、当該特定地点Aにおける撮影条件の導出とを繰り返し行う。   During the loop processing of the processing S1402a and the processing S1402b, the analysis unit 1201 of the electronic computer 511 is mounted with the imaging device 3 in order to derive imaging conditions to be transmitted to the imaging device 3 that acquired information in the processing S1401. The modeling of the shooting environment at the specific point A through which the moving body 2 passes and the derivation of the shooting conditions at the specific point A are repeated.

具体的には、解析部1201は、当該特定地点Aを対象として仮想空間Svを構築するための構築シミュレーションSimAを実行し、構築した仮想空間Svの特定地点Aにおいて参考被写体150を撮影した撮影画像を導出するための撮影シミュレーションSimBを実行する。
処理S1402aのループ処理への遷移後、処理S1403に進む。
Specifically, the analysis unit 1201 executes a construction simulation SimA for constructing the virtual space Sv for the specific point A, and a photographed image obtained by photographing the reference subject 150 at the specific point A of the constructed virtual space Sv. The imaging simulation SimB for deriving is performed.
After the transition to the loop process of process S1402a, the process proceeds to process S1403.

なお、処理S1402a以降は、電子計算機511は要求のあった撮影装置3及び当該撮影装置3を搭載した移動体2ごとに個別に処理を実行する。   Note that, after the processing S1402a, the electronic computer 511 executes the processing individually for each of the imaging device 3 that has been requested and the mobile body 2 in which the imaging device 3 is mounted.

処理S1403では、電子計算機511の条件導出部502は、処理S1401で要求のあった撮影装置3ごとに仮想空間Svを構築するために、外部サーバ30から信号ExInfoを受信して、当該撮影装置3がこの先に通過する特定地点Aの配置情報131と、当該特定地点Aの撮影環境情報132とを収集するとともに、配置情報131と撮影環境情報132との関連付け情報Rel11を参照して、撮影環境情報132を更新する更新処理を開始する。この更新処理は、周期的若しくは定期的に又は所定のタイミングで実行される。その他の都度更新される情報に対しても適切な初期情報が設定されるものとする。
その後、処理S1404に進む。
In process S1403, the condition deriving unit 502 of the electronic computer 511 receives the signal ExInfo from the external server 30 in order to construct a virtual space Sv for each of the imaging apparatuses 3 requested in process S1401, and the imaging apparatus 3 Collects the location information 131 of the specific point A passing through and the shooting environment information 132 of the specific point A, and refers to the association information Rel11 between the location information 131 and the shooting environment information 132, and the shooting environment information An update process for updating 132 is started. This update process is executed periodically or periodically or at a predetermined timing. It is assumed that appropriate initial information is set for information that is updated every other time.
Then, it progresses to process S1404.

処理S1404では、条件更新部504が、移動体2又は撮影装置3から位置情報PosInfoを受信すると、移動体2ごとに位置情報36bを更新するとともに、配置情報131と移動体情報36との関連付け情報Rel12を参照して、特定位置Bに到達した移動体2が存在するかどうかを判定する。判定の結果、存在する場合には処理S1414に進む。存在しない場合には処理S1405に進む。   In process S <b> 1404, when the condition update unit 504 receives the position information PosInfo from the moving body 2 or the imaging device 3, the position updating unit 504 updates the position information 36 b for each moving body 2 and also associates the arrangement information 131 with the moving body information 36. Referring to Rel12, it is determined whether or not there is a moving body 2 that has reached the specific position B. As a result of the determination, if it exists, the process proceeds to step S1414. If it does not exist, the process advances to step S1405.

処理S1405では、条件導出部502が、配置情報131と学習情報135との関連付け情報Rel13を参照して、仮想空間Svにおいて撮影ユニット140を配置した特定地点Aと関連付けられた学習情報135が記憶部501に記憶されているかどうかを確認する。その後、処理S1406に進む。   In process S1405, the condition deriving unit 502 refers to the association information Rel13 between the arrangement information 131 and the learning information 135, and the learning information 135 associated with the specific point A where the photographing unit 140 is arranged in the virtual space Sv is stored in the storage unit. It is confirmed whether or not it is stored in 501. Then, it progresses to process S1406.

処理S1406では、処理S1405において、学習情報135が記憶されていれば処理S1408に進み、記憶されていなければ処理S1407に進む。   In process S1406, if learning information 135 is stored in process S1405, the process proceeds to process S1408, and if not stored, the process proceeds to process S1407.

処理S1407では、電子計算機511の設定変更部503が、記憶部501に記憶された撮影条件134の情報に基づき、電子計算機511の画像調整部412及び画像認識部413の画像処理の設定を初期化する。その後、処理S1410に進む。   In process S 1407, the setting change unit 503 of the electronic computer 511 initializes the image processing settings of the image adjustment unit 412 and the image recognition unit 413 of the electronic computer 511 based on the information of the shooting condition 134 stored in the storage unit 501. To do. Then, it progresses to process S1410.

処理S1408では、条件導出部502が、関連付け情報Rel13に基づき、撮影条件情報134及び学習情報135を更新しながら学習処理を実行して、撮影部1202、画像調整部412及び画像認識部413に設定する撮影条件情報134を導出する。
また、条件導出部502は、調整した撮影条件を対応する撮影ユニット140に反映するために、設定変更部503に対して撮影条件情報134を含む信号Sig3を出力する。
その後、処理S1409に進む。
In process S1408, the condition deriving unit 502 executes learning processing while updating the shooting condition information 134 and the learning information 135 based on the association information Rel13, and sets the shooting unit 1202, the image adjustment unit 412 and the image recognition unit 413. The imaging condition information 134 to be derived is derived.
In addition, the condition deriving unit 502 outputs a signal Sig3 including the shooting condition information 134 to the setting changing unit 503 in order to reflect the adjusted shooting condition in the corresponding shooting unit 140.
Then, it progresses to process S1409.

処理S1408において、条件導出部502が学習情報135を参照して撮影設定情報134を導出することを、図13に矢印Refer11で示す。   The fact that the condition deriving unit 502 derives the shooting setting information 134 with reference to the learning information 135 in the process S1408 is indicated by an arrow Refer11 in FIG.

処理S1409では、設定変更部503が、処理S1408で出力された信号Sig3に含まれる撮影条件情報134と対応する撮影ユニット140を検索して、当該撮影ユニット140の撮影部1202、並びに、電子計算機511の画像調整部412及び画像認識部413に対し、撮影条件を反映させるための信号Sig4、信号Sig5及び信号Sig6をそれぞれ出力する。撮影部1202は信号Sig4を入力して対応する撮影条件を反映し、画像調整部412は信号Sig5を入力して対応する撮影条件を反映し、画像認識部413は信号Sig6を入力して対応する撮影条件の内容を反映する。
その後、処理S1410に進む。
In processing S1409, the setting change unit 503 searches for the imaging unit 140 corresponding to the imaging condition information 134 included in the signal Sig3 output in processing S1408, and the imaging unit 1202 of the imaging unit 140 and the electronic computer 511. The signal Sig4, the signal Sig5, and the signal Sig6 for reflecting the shooting conditions are output to the image adjustment unit 412 and the image recognition unit 413, respectively. The imaging unit 1202 inputs the signal Sig4 to reflect the corresponding imaging condition, the image adjustment unit 412 inputs the signal Sig5 to reflect the corresponding imaging condition, and the image recognition unit 413 inputs the signal Sig6 to respond. Reflect the shooting conditions.
Then, it progresses to process S1410.

処理S1410では、仮想空間Svにおいて撮影ユニット140が参考被写体150を撮影した撮影画像D1を出力する。その後、処理S1411に進む。   In process S1410, the photographic unit 140 outputs a photographic image D1 obtained by photographing the reference subject 150 in the virtual space Sv. Then, it progresses to process S1411.

処理S1411では、画像調整部412は、処理S1410で出力された撮影画像D1において参考被写体150がより鮮明となるように、撮影画像D1に対して画質の調整を行った撮影画像情報D2を出力する。
画像認識部413は、出力された撮影画像情報D2から正解画像情報Dcに類似する画像情報を抽出し、正解画像情報Dcとの比較に基づき認識率を導出して信号Sig1を出力する。
条件導出部502は、画像認識部413から出力された信号Sig1に含まれる撮影情報133を取得し、記憶部501の情報を更新させる。
その後、処理S1412に進む。
In process S1411, the image adjustment unit 412 outputs captured image information D2 obtained by adjusting the image quality of the captured image D1 so that the reference subject 150 becomes clearer in the captured image D1 output in process S1410. .
The image recognition unit 413 extracts image information similar to the correct image information Dc from the output captured image information D2, derives a recognition rate based on the comparison with the correct image information Dc, and outputs a signal Sig1.
The condition deriving unit 502 acquires the shooting information 133 included in the signal Sig1 output from the image recognition unit 413, and updates the information in the storage unit 501.
Then, it progresses to process S1412.

処理S1412では、条件導出部502が、取得した撮影情報133に含まれる認識率情報133aが前回と比べて向上したか又は低下したかを判定する。その後、処理S1413に進む。   In process S1412, the condition deriving unit 502 determines whether the recognition rate information 133a included in the acquired shooting information 133 has improved or decreased compared to the previous time. Then, it progresses to process S1413.

処理S1413では、条件導出部502が、処理S1412での判定結果に基づき、関連付け情報Rel13で関連付けられた各情報と対応させて学習情報135の学習データ135bを更新する。
より具体的には、条件導出部502は、例えば、処理S1412での判定において認識率が向上した場合、特定地点情報131aでの特定地点Aにおいて撮影環境情報132が示す撮影環境では、撮影ユニット140の撮影条件を撮影条件情報134の内容とすることが適することを学習データ135bに反映させる。
また、条件導出部502は、例えば、処理S1412での判定において認識率が低下した場合、特定地点情報131aでの特定地点Aにおいて撮影環境情報132が示す撮影環境では、撮影ユニット140の撮影条件を撮影条件情報34の内容とすることが適さないことを学習データ135bに反映させる。
その後、処理S1402bに進み、ループ処理を継続する。
In process S1413, the condition deriving unit 502 updates the learning data 135b of the learning information 135 in association with each piece of information associated with the association information Rel13 based on the determination result in the process S1412.
More specifically, the condition deriving unit 502, for example, in the shooting environment indicated by the shooting environment information 132 at the specific spot A in the specific spot information 131a when the recognition rate is improved in the determination in step S1412, the shooting unit 140. It is reflected in the learning data 135b that it is appropriate to set the shooting condition of the shooting condition information 134 as the content of the shooting condition information 134.
For example, when the recognition rate decreases in the determination in step S1412, the condition deriving unit 502 sets the shooting condition of the shooting unit 140 in the shooting environment indicated by the shooting environment information 132 at the specific point A in the specific point information 131a. The fact that it is not suitable for the contents of the shooting condition information 34 is reflected in the learning data 135b.
Thereafter, the process proceeds to process S1402b, and the loop process is continued.

処理S1413において、条件導出部502が関連付け情報Rel12を参照して学習情報135を更新することを、図13に矢印Refer12で示す。   In step S1413, the condition derivation unit 502 refers to the association information Rel12 and updates the learning information 135 with an arrow Refer12 in FIG.

このように、仮想空間Svの撮影ユニット140は条件導出部502が調整した撮影条件により参考被写体150を撮影して撮影画像を出力することを繰り返し、条件導出部502は撮影ユニット140が出力した撮影画像に基づき当該撮影ユニット140の認識率を向上させる撮影条件を学習処理により導出することを繰り返すことで、撮影ユニット140は撮影環境が時々刻々と変化しても良好な認識率を維持して撮影を行うことが出来る。   As described above, the imaging unit 140 in the virtual space Sv repeatedly captures the reference subject 150 according to the imaging conditions adjusted by the condition deriving unit 502 and outputs the captured image. The condition deriving unit 502 captures the imaging output by the imaging unit 140. By repeatedly deriving shooting conditions that improve the recognition rate of the shooting unit 140 based on the image through learning processing, the shooting unit 140 can capture images while maintaining a good recognition rate even if the shooting environment changes from moment to moment. Can be done.

処理S1414では、条件更新部504は、処理S1404において移動体2が到達した特定位置B(つまり、特定位置情報131b)と対応する特定地点A(つまり、特定地点情報131a)に関連付けられた学習結果の内容(つまり、学習データ135b)が十分であるかどうかを判定する。学習データ135bが十分であるかどうかの判定基準は、例えば、学習の成果である認識率(つまり、認識率情報133a)が、予め定められた変動範囲に収束した場合としたり、予め定められた認識率に達した場合としたり、条件導出部502での学習処理が予め定められた時間を経過した場合としたりすることが考えられる。
ここでの判定を行うことで、学習が十分に進んでおらず撮影装置3での認識率を向上させる見込みが低い撮影条件を、撮影装置3に対して提供してしまう事態を回避することが出来る。
判定の結果、十分であると判定する場合には処理S1415に進む。十分ではないと判定する場合には処理S1416に進む。
In the process S1414, the condition update unit 504 learns the learning result associated with the specific point A (that is, the specific point information 131a) corresponding to the specific position B (that is, the specific position information 131b) reached by the moving body 2 in the process S1404. Is determined as to whether the content (i.e., learning data 135b) is sufficient. The criterion for determining whether or not the learning data 135b is sufficient is, for example, a case where the recognition rate (that is, the recognition rate information 133a) that is the result of learning converges within a predetermined fluctuation range, or is determined in advance. It is conceivable that the recognition rate has been reached or the learning process in the condition deriving unit 502 has passed a predetermined time.
By performing the determination here, it is possible to avoid a situation in which learning is not sufficiently advanced and a photographing condition that is unlikely to improve the recognition rate in the photographing device 3 is provided to the photographing device 3. I can do it.
As a result of the determination, if it is determined that it is sufficient, the process proceeds to step S1415. If it is determined that it is not sufficient, the process advances to step S1416.

処理S1415では、条件更新部504は、配置情報131と移動体情報36との関連付け情報Rel12に基づき、位置情報36bが特定位置B(つまり、特定位置情報131b)に到達した移動体2又は当該移動体2の撮影装置3に対し、導出した撮影条件を送信する。その後、処理を終了する。   In the process S1415, the condition update unit 504, based on the association information Rel12 between the arrangement information 131 and the moving body information 36, the moving body 2 where the position information 36b has reached the specific position B (that is, the specific position information 131b) or the movement The derived imaging conditions are transmitted to the imaging device 3 of the body 2. Thereafter, the process ends.

処理S1416では、条件更新部504は、配置情報131と移動体情報36との関連付け情報Rel12に基づき、位置情報36bが特定位置B(つまり、特定位置情報131b)に到達した移動体2又は当該移動体2の撮影装置3に対し、導出した撮影条件を送信しない。その後、処理を終了する。   In the process S1416, the condition update unit 504, based on the association information Rel12 between the arrangement information 131 and the moving body information 36, the moving body 2 where the position information 36b has reached the specific position B (that is, the specific position information 131b) or the movement The derived imaging conditions are not transmitted to the imaging device 3 of the body 2. Thereafter, the process ends.

以上、説明したように、実施の形態2によれば、撮影システム100は、例えば、外部サーバ30、天体情報システム141、気象予報システム142、地図情報システム143、道路情報システム144、及び、移動経路Rの周辺を撮影する撮影装置3などの情報源から収集した情報に基づき、撮影装置3が撮影する現実空間Srにおける撮影環境を仮想空間Svで表現するとともに、撮影装置3に対し被写体を認識率高く撮影するための撮影条件を導出して提供することが可能となる。
その結果として、撮影装置3がこれから撮影する撮影環境において良好な画質で被写体を撮影する効果が得られる。
As described above, according to the second embodiment, the imaging system 100 includes, for example, the external server 30, the astronomical information system 141, the weather forecast system 142, the map information system 143, the road information system 144, and the travel route. Based on information collected from an information source such as the photographing device 3 that photographs the periphery of R, the photographing environment in the real space Sr photographed by the photographing device 3 is represented by a virtual space Sv, and the subject is recognized with respect to the photographing device 3 It is possible to derive and provide shooting conditions for high shooting.
As a result, it is possible to obtain an effect of shooting a subject with good image quality in a shooting environment in which the shooting apparatus 3 will take a shot.

また、実施の形態2によれば、撮影システム100は、実施の形態1のように撮影ユニット4の撮影設定と撮影装置3の撮影条件とを区別することなく、撮影装置3の撮影条件を直接に導出することが可能となる。その結果として、撮影ユニット140と撮影装置3との撮影位置、撮影向き及び撮影距離などの差分を考慮することなく、撮影装置3の撮影環境に基づいて被写体の認識率を向上させる撮影条件を導出する効果が得られる。   Further, according to the second embodiment, the photographing system 100 directly sets the photographing condition of the photographing device 3 without distinguishing the photographing setting of the photographing unit 4 and the photographing condition of the photographing device 3 as in the first embodiment. Can be derived. As a result, a shooting condition that improves the recognition rate of the subject is derived based on the shooting environment of the shooting device 3 without taking into account differences in shooting position, shooting direction, shooting distance, and the like between the shooting unit 140 and the shooting device 3. Effect is obtained.

また、実施の形態2によれば、撮影システム100は、撮影装置3が撮影する特定地点Aを任意に設定して撮影条件を導出することが可能である。このことは、任意の撮影装置3が撮影を開始するタイミングに合わせて、撮影システム100は撮影装置3の撮影条件を予め導出して提供することを可能とする。
つまり、撮影システム100が撮影装置3に対して即時性高く撮影条件を提供できるため、撮影環境の変化が緩やかでない場合においても撮影装置3は良好な撮影画像を得ることが出来るようになる。
Further, according to the second embodiment, the imaging system 100 can arbitrarily set the specific point A where the imaging device 3 captures an image and derive the imaging conditions. This enables the photographing system 100 to derive and provide the photographing conditions of the photographing device 3 in advance in accordance with the timing when any photographing device 3 starts photographing.
That is, since the photographing system 100 can provide photographing conditions to the photographing device 3 with high immediacy, the photographing device 3 can obtain a good photographed image even when the photographing environment is not gradually changed.

実施の形態3.
実施の形態3では、実施の形態1の撮影システム1又は実施の形態2の撮影システム100は、導出した撮影装置3の撮影条件を、記憶部501に記憶される種々の情報と関連付けて蓄積する。
Embodiment 3 FIG.
In the third embodiment, the imaging system 1 of the first embodiment or the imaging system 100 of the second embodiment accumulates the derived imaging conditions of the imaging device 3 in association with various information stored in the storage unit 501. .

撮影装置3は、ある特定地点Aにおいて、天候が晴れの日に利用した撮影条件を、日照角度及び時間帯が同等であり天候が晴れの別日に利用したとしても、被写体の認識率が高い撮影画像を得ることが出来る。   The imaging device 3 has a high subject recognition rate even if the shooting conditions used on a sunny day at a specific point A are used on another day when the sunlight angle and time zone are the same and the weather is sunny. A photographed image can be obtained.

また、撮影装置3は、天候が悪い日に利用した撮影条件を、撮影環境が同等である別の時点において利用したとしても、例えば、撮影制御の調整及び照明装置の制御を、被写体の認識率が高くなるように、即時に行うことが可能となる。   Moreover, even if the imaging apparatus 3 uses the imaging conditions used on a bad day at another time when the imaging environment is equivalent, for example, the adjustment of the imaging control and the control of the illumination device are performed using the recognition rate of the subject. It becomes possible to carry out immediately so that becomes high.

撮影システム1又は100の条件導出部502は、ある特定地点Aのある時点において撮影設定を導出したときに利用した情報群と、導出した当該撮影設定と、当該撮影設定に基づき導出した撮影条件とを関連付けて記憶部501に蓄積するとともに、蓄積された各特定地点A及び各時点での各情報群に対し、それぞれの相関関係を導出して管理する。
このようにすることで、条件更新部504は、図示しないとある特定地点A0のとある時点T0において新たに撮影条件を導出することなく、既に蓄積された別の特定地点Aの別の時点における情報群のうちから、特定地点A0及び時点T0における情報群と高い正の相関を示すものを選定し、選定された当該情報群と関連付けられる撮影条件を選定して、特定地点A0及び時点T0において撮影する撮影装置3に対し、選定された導出済みの撮影条件を送信することが可能となる。ここでの”高い正の相関を示す”とは、上述したとおりである。
The condition deriving unit 502 of the imaging system 1 or 100 includes an information group used when the imaging setting is derived at a certain time of a specific point A, the derived imaging setting, and the imaging condition derived based on the imaging setting. Are stored in the storage unit 501, and the correlation is derived and managed for each stored specific point A and each information group at each time point.
By doing in this way, the condition update unit 504 at a certain time point of another specific point A that has already been accumulated without deriving a new photographing condition at a certain time point T0 at a certain point A0, if not shown. From the information group, the information group having a high positive correlation with the information group at the specific point A0 and the time point T0 is selected, and the photographing condition associated with the selected information group is selected, and at the specific point A0 and the time point T0. The selected derived imaging conditions can be transmitted to the imaging device 3 that performs imaging. Here, “showing a high positive correlation” is as described above.

このとき、撮影装置3は、既に導出された撮影条件を利用して撮影したときの撮影画像での認識率を撮影システム1又は100に対してフィードバックし、撮影システム1又は100は蓄積する各情報群のそれぞれの相関関係に対して見直しを実行することにより、さらに撮影環境が類似する撮影条件を撮影装置3に対して送信することが可能となる。   At this time, the imaging device 3 feeds back the recognition rate in the captured image when the image is captured using the already derived imaging conditions to the imaging system 1 or 100, and the imaging system 1 or 100 stores each piece of information stored. By performing the review on each correlation of the group, it is possible to transmit to the photographing apparatus 3 photographing conditions having a similar photographing environment.

以上、実施の形態3によれば、撮影システム1000は、特定地点Aにおける撮影環境の変化に応じて、被写体を認識率高く撮影するための撮影条件を選定し、撮影装置3に対して選定した撮影条件を即時に提供することが出来る。   As described above, according to the third embodiment, the photographing system 1000 selects the photographing condition for photographing the subject with a high recognition rate according to the change of the photographing environment at the specific point A, and selects the photographing device 3. Shooting conditions can be provided immediately.

なお、実施の形態2及び3は、撮影装置3が車両に搭載される車載カメラの他に、例えば、屋外に設置される監視カメラの場合であっても適用することが出来る。   The second and third embodiments can be applied to, for example, a surveillance camera installed outdoors, in addition to the in-vehicle camera in which the photographing apparatus 3 is mounted on a vehicle.

屋外監視カメラである撮影装置3が撮影を開始するときの天候が悪い場合に、被写体を認識率高く撮影するための撮影条件の導出をスムーズに行うことが出来ず、重要な撮影画像の記録を逃してしまう虞がある。
このような場合に、実施の形態2の撮影システム100は、特定地点Aに配置された撮影装置3に対し、撮影を開始するときの撮影環境において被写体を認識率高く撮影できる撮影条件を導出して、撮影装置3に対して提供することが出来る。
これにより、撮影装置3は天候が悪い場合であっても被写体を認識率高く撮影する撮影条件によって撮影を開始することが可能となる。
When the shooting device 3 that is an outdoor monitoring camera starts shooting, the shooting conditions for shooting the subject with high recognition rate cannot be derived smoothly, and important shooting images are recorded. There is a risk of missing.
In such a case, the imaging system 100 according to the second embodiment derives imaging conditions that allow the imaging device 3 arranged at the specific point A to image the subject with a high recognition rate in the imaging environment when the imaging is started. Can be provided to the photographing apparatus 3.
As a result, the photographing apparatus 3 can start photographing under photographing conditions for photographing a subject with a high recognition rate even when the weather is bad.

また、屋外監視カメラである撮影装置3は、撮影中に天候が急に変化して豪雨や濃霧が発生した場合に、被写体を認識率高く撮影するための撮影条件の導出をスムーズに行うことが出来ず、この間に良質な撮影画像が得られない虞がある。
このような場合に、実施の形態3の撮影システム1000は、特定地点Aに配置された撮影装置3に対し、記憶部501に記憶された情報群のうち高い正の相関を示すものと関連付けられた撮影条件を選定して、撮影装置3に対して提供することが出来る。
これにより、撮影装置3は天候が悪い場合であっても被写体を認識率高く撮影する撮影条件によって撮影を継続することが可能となる。
In addition, the photographing device 3 that is an outdoor monitoring camera can smoothly derive photographing conditions for photographing a subject with a high recognition rate when the weather suddenly changes during photographing and heavy rain or heavy fog occurs. There is a possibility that a good quality photographed image cannot be obtained during this period.
In such a case, the imaging system 1000 according to the third embodiment is associated with the imaging apparatus 3 arranged at the specific point A, which has a high positive correlation among the information groups stored in the storage unit 501. The photographing conditions can be selected and provided to the photographing device 3.
As a result, the photographing apparatus 3 can continue photographing according to photographing conditions for photographing a subject with a high recognition rate even when the weather is bad.

1、100、1000 撮影システム
2 移動体
3 撮影装置
4、140 撮影ユニット
411 撮影部
412 画像調整部
413 画像認識部
414 第1の通信部
5、150 参考被写体
6 通信器
500、511 電子計算機
501 記憶部
502 条件導出部
503 設定変更部
504 条件更新部
505 第2の通信部
1201 解析部
DESCRIPTION OF SYMBOLS 1,100,1000 Shooting system 2 Mobile body 3 Shooting device 4,140 Shooting unit 411 Shooting unit 412 Image adjustment unit 413 Image recognition unit 414 First communication unit 5,150 Reference subject 6 Communication device 500,511 Computer 501 Storage Unit 502 condition deriving unit 503 setting changing unit 504 condition updating unit 505 second communication unit 1201 analyzing unit

Claims (12)

撮影装置と、
前記撮影装置との間で種々の情報を送受信するための通信を行う通信手段と、
前記撮影装置が撮影する特定地点において、参考被写体を撮影し撮影画像を出力する撮影部と、
出力された前記撮影画像に基づき画像処理された撮影画像情報と、予め用意された前記参考被写体を表す正解画像情報との比較に基づき、前記撮影画像において前記参考被写体を認識するときの精度を示す認識率を導出する画像認識部と、
前記認識率の導出に伴い、前記撮影画像における前記参考被写体の前記認識率を向上させる撮影設定を導出し、前記撮影設定に基づき前記撮影装置が利用する撮影条件を導出する条件導出部と、
前記条件導出部が導出した前記撮影条件を記憶する記憶部と、
前記撮影装置に対し前記記憶部に記憶された前記撮影条件を利用させるために、前記通信手段を介して、前記撮影条件を送信する条件更新部と、
を備えた撮影システム。
A photographing device;
Communication means for performing communication for transmitting and receiving various types of information to and from the imaging device;
A photographing unit that photographs a reference subject and outputs a photographed image at a specific point where the photographing apparatus photographs;
Based on the comparison between the captured image information image-processed based on the output captured image and the correct image information representing the reference subject prepared in advance, the accuracy when the reference subject is recognized in the captured image is shown. An image recognition unit for deriving a recognition rate;
A condition deriving unit for deriving a shooting setting for improving the recognition rate of the reference subject in the captured image with deriving the recognition rate, and deriving a shooting condition used by the shooting device based on the shooting setting;
A storage unit for storing the photographing conditions derived by the condition deriving unit;
A condition updating unit for transmitting the imaging condition via the communication unit in order to cause the imaging apparatus to use the imaging condition stored in the storage unit;
Shooting system equipped with.
前記撮影部での撮影、前記条件導出部での前記撮影条件の導出、及び、前記条件更新部での前記撮影条件の送信は、前記特定地点において前記撮影装置が撮影するのに先立って実行される、
請求項1に記載の撮影システム。
Shooting by the shooting unit, derivation of the shooting condition by the condition deriving unit, and transmission of the shooting condition by the condition updating unit are executed prior to shooting by the shooting device at the specific point. The
The imaging system according to claim 1.
構築シミュレーション及び撮影シミュレーションを実行する解析部をさらに備え、
前記解析部は、
前記構築シミュレーションを実行することにより、前記撮影部と、特定地点において前記撮影部が撮影する撮影環境及び前記参考被写体とを表現する仮想空間を構築し、
前記撮影シミュレーションを実行することにより、前記仮想空間において前記撮影部が前記参考被写体を撮影する撮影画像を出力し、
前記画像認識部は、前記解析部が出力する撮影画像に基づき前記認識率を導出する、
請求項1または2に記載の撮影システム。
It further comprises an analysis unit for executing a construction simulation and a shooting simulation,
The analysis unit
By executing the construction simulation, constructing a virtual space expressing the photographing unit, a photographing environment photographed by the photographing unit at a specific point, and the reference subject,
By executing the shooting simulation, the shooting unit outputs a shot image in which the reference subject is shot in the virtual space;
The image recognition unit derives the recognition rate based on a captured image output by the analysis unit;
The imaging system according to claim 1 or 2.
前記条件導出部は、
前記特定地点において前記撮影部が撮影するときの撮影環境に関する情報群、前記特定地点で撮影する前記撮影部の前記撮影設定、及び、前記撮影設定に基づき導出する前記撮影条件を関連付けて前記記憶部に蓄積し、
前記条件更新部は、
前記記憶部に蓄積された前記情報群のうち、前記撮影装置が撮影している撮影環境に関する情報群と高い正の相関を示す情報群を選定し、選定した当該情報群に関連付けられる前記撮影条件を送信する、
請求項1〜3のいずれか1項に記載の撮影システム。
The condition derivation unit includes:
The storage unit associates the information group related to the shooting environment when the shooting unit is shooting at the specific point, the shooting setting of the shooting unit shooting at the specific point, and the shooting condition derived based on the shooting setting. Accumulate in
The condition update unit
Among the information groups stored in the storage unit, an information group that has a high positive correlation with an information group related to a shooting environment that the shooting apparatus is shooting is selected, and the shooting conditions associated with the selected information group Send,
The imaging system according to any one of claims 1 to 3.
前記撮影装置は移動体に搭載され、
前記条件更新部は、前記通信手段を介して前記移動体の位置を検知するとともに、前記移動体が前記特定地点に先立ち特定位置に到達したことを検出すると、前記撮影条件を送信する、
請求項1〜4のいずれか1項に記載の撮影システム。
The imaging device is mounted on a moving body,
The condition update unit detects the position of the moving body via the communication means, and transmits the imaging condition when detecting that the moving body has reached a specific position prior to the specific point.
The imaging system according to any one of claims 1 to 4.
前記撮影装置は屋外に設置された監視カメラであって、
前記条件更新部は、前記撮影装置の撮影開始に先立ち前記撮影条件を送信する、
請求項1〜4のいずれか1項に記載の撮影システム。
The imaging device is a surveillance camera installed outdoors,
The condition update unit transmits the shooting conditions prior to the start of shooting of the shooting device.
The imaging system according to any one of claims 1 to 4.
前記撮影装置は屋外に設置された監視カメラであって、
前記条件更新部は、前記撮影装置が撮影している撮影環境の変化に応じて前記撮影条件を抽出して送信する、
請求項3または4に記載の撮影システム。
The imaging device is a surveillance camera installed outdoors,
The condition update unit extracts and transmits the shooting condition according to a change in a shooting environment in which the shooting apparatus is shooting,
The imaging system according to claim 3 or 4.
前記条件導出部は、
前記撮影部から前記参考被写体を撮影した原撮影画像を取得し、
前記撮影部と、特定の撮影装置との撮影位置の差分、
前記撮影部を基点とする前記参考被写体の撮影向き及び撮影距離と、前記特定の撮影装置を基点とする特定の被写体の撮影向き及び撮影距離との差分、
並びに、前記撮影部と、前記特定の撮影装置との撮影環境の差分
のそれぞれに関する情報の少なくともいずれかに基づいて、前記原撮影画像を変換撮影画像に変換する画像変換処理を行い、
前記画像変換処理での前記原撮影画像から前記変換撮影画像への変換に伴い、変換中又は変換後の撮影画像における認識率の値を、前記画像変換処理を行う前の前記原撮影画像での認識率の値に維持するための調整を前記撮影設定に対して行うことにより、前記特定の撮影装置の前記撮影条件を導出する、
請求項1〜7のいずれか1項に記載の撮影システム。
The condition derivation unit includes:
An original photographed image obtained by photographing the reference subject is acquired from the photographing unit,
A difference in shooting position between the shooting unit and a specific shooting device;
A difference between a shooting direction and a shooting distance of the reference subject with the shooting unit as a base point, and a shooting direction and a shooting distance of a specific subject with the specific shooting device as a base point;
In addition, based on at least one of the information related to the difference in shooting environment between the shooting unit and the specific shooting device, an image conversion process for converting the original shot image into a converted shot image is performed.
Along with the conversion from the original photographed image to the converted photographed image in the image conversion process, the value of the recognition rate in the photographed image during or after the conversion is converted into the original photographed image before the image conversion process. Deriving the photographing condition of the specific photographing device by performing adjustment for maintaining the value of the recognition rate on the photographing setting;
The imaging system according to any one of claims 1 to 7.
撮影装置との間で種々の情報を送受信するための通信を行う第1の通信部と、
前記撮影装置が撮影する特定地点において、参考被写体を撮影し撮影画像を出力する撮影部と、
出力された前記撮影画像に基づき画像処理された撮影画像情報と、予め用意された前記参考被写体を表す正解画像情報との比較に基づき、前記撮影画像において前記参考被写体を認識するときの精度を示す認識率を導出する画像認識部と、
前記認識率の導出に伴い、前記撮影画像における前記参考被写体の前記認識率を向上させる撮影設定を導出し、前記撮影設定に基づき前記撮影装置が利用する撮影条件を導出する条件導出部と、
前記条件導出部が導出した前記撮影条件を記憶する記憶部と、
前記撮影装置に対し前記記憶部に記憶された前記撮影条件を利用させるために、前記第1の通信部を介して、前記撮影条件を送信する条件更新部と、
を備えた撮影ユニット。
A first communication unit that performs communication for transmitting and receiving various types of information to and from the imaging device;
A photographing unit that photographs a reference subject and outputs a photographed image at a specific point where the photographing apparatus photographs;
Based on the comparison between the captured image information image-processed based on the output captured image and the correct image information representing the reference subject prepared in advance, the accuracy when the reference subject is recognized in the captured image is shown. An image recognition unit for deriving a recognition rate;
A condition deriving unit for deriving a shooting setting for improving the recognition rate of the reference subject in the captured image with deriving the recognition rate, and deriving a shooting condition used by the shooting device based on the shooting setting;
A storage unit for storing the photographing conditions derived by the condition deriving unit;
A condition updating unit for transmitting the imaging condition via the first communication unit in order to cause the imaging device to use the imaging condition stored in the storage unit;
Shooting unit equipped with.
前記撮影部での撮影、前記条件導出部での前記撮影条件の導出、及び、前記条件更新部での前記撮影条件の送信は、前記特定地点において前記撮影装置が撮影するのに先立って実行される、
請求項9に記載の撮影ユニット。
Shooting by the shooting unit, derivation of the shooting condition by the condition deriving unit, and transmission of the shooting condition by the condition updating unit are executed prior to shooting by the shooting device at the specific point. The
The imaging unit according to claim 9.
請求項1〜10のいずれか1項に記載の撮影条件に含まれる情報のうち少なくともいずれかの情報を前記特定地点での自装置の撮影に利用する撮影装置。   The imaging device which utilizes at least any one information among the information included in the imaging conditions of any one of Claims 1-10 for the imaging | photography of the own apparatus in the said specific point. 自装置に予め用意された初期撮影条件を記憶する記憶装置を備え、
請求項1〜10のいずれか1項に記載の撮影条件を前記記憶装置に保持して、前記初期撮影条件又は前記撮影条件を切り替えて利用する、
請求項11に記載の撮影装置。
A storage device for storing initial photographing conditions prepared in advance in the own device is provided.
The photographing condition according to any one of claims 1 to 10 is held in the storage device, and the initial photographing condition or the photographing condition is switched and used.
The imaging device according to claim 11.
JP2018029446A 2018-02-22 2018-02-22 Shooting system, shooting unit and shooting device Active JP6973163B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018029446A JP6973163B2 (en) 2018-02-22 2018-02-22 Shooting system, shooting unit and shooting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018029446A JP6973163B2 (en) 2018-02-22 2018-02-22 Shooting system, shooting unit and shooting device

Publications (2)

Publication Number Publication Date
JP2019146058A true JP2019146058A (en) 2019-08-29
JP6973163B2 JP6973163B2 (en) 2021-11-24

Family

ID=67772757

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018029446A Active JP6973163B2 (en) 2018-02-22 2018-02-22 Shooting system, shooting unit and shooting device

Country Status (1)

Country Link
JP (1) JP6973163B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092403A (en) * 2008-10-10 2010-04-22 Hitachi Automotive Systems Ltd Road marking recognition system
JP2014090373A (en) * 2012-10-31 2014-05-15 Nikon Corp Auxiliary imaging apparatus and imaging apparatus
JP2015061239A (en) * 2013-09-19 2015-03-30 キヤノン株式会社 Imaging management system, imaging management apparatus, control method of them, and program
JP2015192222A (en) * 2014-03-27 2015-11-02 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging control method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010092403A (en) * 2008-10-10 2010-04-22 Hitachi Automotive Systems Ltd Road marking recognition system
JP2014090373A (en) * 2012-10-31 2014-05-15 Nikon Corp Auxiliary imaging apparatus and imaging apparatus
JP2015061239A (en) * 2013-09-19 2015-03-30 キヤノン株式会社 Imaging management system, imaging management apparatus, control method of them, and program
JP2015192222A (en) * 2014-03-27 2015-11-02 パナソニックIpマネジメント株式会社 Imaging apparatus and imaging control method

Also Published As

Publication number Publication date
JP6973163B2 (en) 2021-11-24

Similar Documents

Publication Publication Date Title
US20210217212A1 (en) Method and system for automatically colorizing night-vision images
US11601601B2 (en) Optical array for high-quality imaging in harsh environments
TWI703064B (en) Systems and methods for positioning vehicles under poor lighting conditions
JP5299513B2 (en) Obstacle detection device and method, and obstacle detection system
JP7225600B2 (en) Information processing device, information processing method, program
KR20170010315A (en) Systems and methods for haziness detection
CN104134352A (en) Video vehicle characteristic detection system and detection method based on combination of long exposure and short exposure
US11019274B2 (en) Adaptive illumination for a time-of-flight camera on a vehicle
CN114520880B (en) Exposure parameter adjusting method and device
US10602064B2 (en) Photographing method and photographing device of unmanned aerial vehicle, unmanned aerial vehicle, and ground control device
JPWO2019194256A1 (en) Arithmetic processing unit, object identification system, learning method, automobile, vehicle lighting equipment
US20210231457A1 (en) Apparatus and method for collecting data for map generation, and vehicle
JP6973163B2 (en) Shooting system, shooting unit and shooting device
CN117291864A (en) Visibility estimating device and method, and recording medium
CN116547726A (en) Correction of images of an imaging device during rain, incident light and dirt
EP2423899A1 (en) Method for identifying reflecting objects subjected to variable lighting conditions and system for performing said method
CN117037007B (en) Aerial photographing type road illumination uniformity checking method and device
WO2023286806A1 (en) Stationary object information acquisition device, program, and stationary object information acquisition method
US11769334B2 (en) Image collection system and image collection method
CN111323342B (en) Information processing system, nonvolatile storage medium storing program, and information processing method
WO2023286811A1 (en) Stationary object information collection system, program, and stationary object information storage method
WO2023210276A1 (en) Information processing device, information processing method, and program
JP2023128156A (en) Image providing system and image providing method
JP2023128154A (en) Image providing system and image providing method
CN113055600A (en) Image exposure adjusting method, device, equipment and storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210817

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211018

R151 Written notification of patent or utility model registration

Ref document number: 6973163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151