JP2020184170A - Image analyzer, electronic controller, and image analysis method - Google Patents

Image analyzer, electronic controller, and image analysis method Download PDF

Info

Publication number
JP2020184170A
JP2020184170A JP2019087864A JP2019087864A JP2020184170A JP 2020184170 A JP2020184170 A JP 2020184170A JP 2019087864 A JP2019087864 A JP 2019087864A JP 2019087864 A JP2019087864 A JP 2019087864A JP 2020184170 A JP2020184170 A JP 2020184170A
Authority
JP
Japan
Prior art keywords
light emission
time
pattern
emission pattern
image analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019087864A
Other languages
Japanese (ja)
Other versions
JP7263904B2 (en
Inventor
将章 笹原
Masaaki Sasahara
将章 笹原
泰伸 杉浦
Yasunobu Sugiura
泰伸 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019087864A priority Critical patent/JP7263904B2/en
Publication of JP2020184170A publication Critical patent/JP2020184170A/en
Application granted granted Critical
Publication of JP7263904B2 publication Critical patent/JP7263904B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

To enable specifying time when image data is photographed, from the image data even though a frame defect is present during transmission of information.SOLUTION: An image analyzer 100 comprises a transmission unit 101 for transmitting a light emission command of a light emission pattern, and light emission time of the light emission pattern to an electronic controller installed in a moving body; an acquisition unit 106 for acquiring image data of the moving body including the light emission pattern from an imaging apparatus that photographs the moving body; a pattern detection unit 107 for detecting the light emission pattern from the image data; and a photographing time specification unit 108 for setting the light emission time to time when the image data is photographed.SELECTED DRAWING: Figure 3

Description

本発明は、画像解析装置、電子制御装置、及びこれらで実行される画像解析方法に関するものである。 The present invention relates to an image analysis device, an electronic control device, and an image analysis method executed by these devices.

近年、ネットワークカメラ等を用いた監視・管理システムが様々な用途で導入されている。交通用途としては、信号無視監視、スピード違反監視等の監視の目的、道路運行管理、通行料徴収管理等の管理の目的の他、渋滞情報取得、車両識別情報取得等の情報取得の目的でも利用されている。さらに、カメラにより得られた映像は、自動走行車両の運転支援への活用も期待されている。災害や事故への対応力の強化、道路状況の可視化を進めて安全・安心を高めるため、また、自動運転を実現するため、見える範囲を広げ、道路ネットワーク全体を管理することが求められている。 In recent years, monitoring and management systems using network cameras and the like have been introduced for various purposes. For traffic purposes, it is used for the purpose of monitoring such as signal ignoring monitoring and speed violation monitoring, for the purpose of managing road operation management, toll collection management, etc., as well as for the purpose of acquiring information such as traffic congestion information acquisition and vehicle identification information acquisition. Has been done. Furthermore, the images obtained by the camera are expected to be used for driving support of autonomous vehicles. In order to strengthen the ability to respond to disasters and accidents, promote visualization of road conditions to improve safety and security, and realize autonomous driving, it is required to expand the visible range and manage the entire road network. ..

特許文献1には、映像情報間の時刻同期を実現するネットワークカメラシステムが記載されている。ネットワークカメラシステムは、ネットワークで相互に接続された複数のカメラ装置と照明装置とを備えている。具体的には、基準時刻情報が紐づけられたコード化情報を含む照射光を照明装置から照射し、複数のカメラ装置が照明光の反射光を取り込み監視対象エリアの撮影を行うこと、撮影により得られた映像情報を解析して基準時刻情報を抽出すること、基準時刻情報に紐づけて映像情報を符号化することが開示されている。 Patent Document 1 describes a network camera system that realizes time synchronization between video information. A network camera system includes a plurality of camera devices and lighting devices connected to each other by a network. Specifically, the illumination device irradiates the irradiation light including the coded information associated with the reference time information, and a plurality of camera devices capture the reflected light of the illumination light to take a picture of the monitored area. It is disclosed that the obtained video information is analyzed to extract the reference time information, and that the video information is encoded in association with the reference time information.

特開2012−124574号公報Japanese Unexamined Patent Publication No. 2012-124574

ところで、本発明者は以下の課題を知見した。
特許文献1の映像情報時刻同期方法では、反射光自体が基準時刻情報を含んでいるので、フレームの欠損等が発生した場合、基準時刻情報を復元することができない。さらに、特許文献1の映像情報時刻同期方法は、赤外線を撮影することができないカメラでは利用できない。
By the way, the present inventor has found the following problems.
In the video information time synchronization method of Patent Document 1, since the reflected light itself contains the reference time information, the reference time information cannot be restored when a frame is lost or the like. Further, the video information time synchronization method of Patent Document 1 cannot be used with a camera that cannot capture infrared rays.

そこで、本発明の目的は、情報送信時にフレーム欠損があっても画像データが撮影された時刻を特定することを可能にした画像解析装置、電子制御装置、及びこれらで実行される画像解析方法を提供することである。 Therefore, an object of the present invention is an image analysis device, an electronic control device, and an image analysis method executed by these, which make it possible to specify the time when the image data is taken even if there is a frame defect at the time of information transmission. Is to provide.

上述課題を解決するために、本開示の画像解析装置(100)は、発光パターンの発光指令と前記発光パターンの発光時刻とを移動体(200)に搭載された電子制御装置(201)に送信する送信部(101)と、前記発光パターンを含む前記移動体の画像データを、前記移動体を撮影した撮影装置から取得する取得部(106)と、前記発光パターンを前記画像データから検出するパターン検出部(107)と、前記発光時刻を前記画像データが撮影された時刻とする撮影時刻特定部(108)と、を有する。 In order to solve the above-mentioned problems, the image analysis device (100) of the present disclosure transmits a light emission command of a light emission pattern and a light emission time of the light emission pattern to an electronic control device (201) mounted on a moving body (200). The transmission unit (101), the acquisition unit (106) that acquires the image data of the moving body including the light emitting pattern from the photographing apparatus that photographed the moving body, and the pattern that detects the light emitting pattern from the image data. It has a detection unit (107) and a shooting time specifying unit (108) in which the light emission time is the time when the image data is shot.

また、本開示の移動体(200)に搭載された電子制御装置(201)は、発光パターンの発光指令と前記発光パターンの発光時刻とを画像解析装置から受信する受信部(204)と、前記発光時刻に前記発光パターンを用いて発光することを前記移動体に搭載された光源(206)に指示する発光指示部(207)と、を有する。 Further, the electronic control device (201) mounted on the mobile body (200) of the present disclosure includes a receiving unit (204) that receives a light emitting command of a light emitting pattern and a light emitting time of the light emitting pattern from an image analysis device, and the above. It has a light emitting instruction unit (207) that instructs a light source (206) mounted on the moving body to emit light using the light emitting pattern at a light emitting time.

なお、特許請求の範囲及び本項に記載した発明の構成要件に付した括弧内の番号は、本発明と後述の実施形態との対応関係を示すものであり、本発明を限定する趣旨ではない。 The numbers in parentheses attached to the scope of claims and the constituent requirements of the invention described in this section indicate the correspondence between the present invention and the embodiments described later, and are not intended to limit the present invention. ..

本発明の画像解析装置、電子制御装置、及びこれらで実行される画像解析方法によれば、情報送信時にフレーム欠損があっても画像データが撮影された時刻を特定することを可能にする。 According to the image analysis device, the electronic control device, and the image analysis method executed by these, it is possible to specify the time when the image data was taken even if there is a frame defect at the time of information transmission.

本発明の各実施形態に共通する画像解析システムの概要を説明する図The figure explaining the outline of the image analysis system common to each embodiment of this invention. 本発明の各実施形態に共通する画像解析システムの動作を説明するシーケンス図A sequence diagram illustrating the operation of the image analysis system common to each embodiment of the present invention. 本発明の実施形態1の画像解析装置の構成を説明するブロック図A block diagram illustrating the configuration of the image analysis apparatus according to the first embodiment of the present invention. 本発明の実施形態1の画像解析装置が生成する発光パターン及び発光パターンの発光時刻を説明する図The figure explaining the light emission pattern generated by the image analysis apparatus of Embodiment 1 of this invention, and the light emission time of the light emission pattern. 本発明の実施形態1の画像解析装置が取得する画像データを説明する図The figure explaining the image data acquired by the image analysis apparatus of Embodiment 1 of this invention. 本発明の実施形態1の画像解析装置が検出する発光パターンを説明する図The figure explaining the light emission pattern detected by the image analysis apparatus of Embodiment 1 of this invention. 本発明の実施形態1の画像解析装置において、画像データを撮影した時刻及び遅延時間を特定する方法を説明する図The figure explaining the method of specifying the time at which image data was taken and the delay time in the image analysis apparatus of Embodiment 1 of this invention. 本発明の実施形態1の画像解析装置の動作を説明するフローチャートA flowchart illustrating the operation of the image analysis apparatus according to the first embodiment of the present invention. 本発明の実施形態1の変形例1の画像解析装置の動作を説明するフローチャートA flowchart illustrating the operation of the image analysis apparatus of the first modification of the first embodiment of the present invention. 本発明の実施形態2の画像解析装置の動作を説明するフローチャートA flowchart illustrating the operation of the image analysis apparatus according to the second embodiment of the present invention. 本発明の実施形態3の画像解析装置が生成する発光パターンを説明する図The figure explaining the light emission pattern generated by the image analysis apparatus of Embodiment 3 of this invention. 本発明の実施形態3の画像解析装置が生成する別の発光パターンを説明する図The figure explaining another light emission pattern generated by the image analysis apparatus of Embodiment 3 of this invention. 本発明の実施形態4の画像解析装置の構成を説明するブロック図A block diagram illustrating the configuration of the image analysis apparatus according to the fourth embodiment of the present invention. 本発明の実施形態4の画像解析装置の動作を説明するフローチャートA flowchart illustrating the operation of the image analysis apparatus according to the fourth embodiment of the present invention. 本発明の実施形態5の電子制御装置の構成を説明するブロック図A block diagram illustrating the configuration of the electronic control device according to the fifth embodiment of the present invention. 本発明の実施形態5の電子制御装置の動作を説明するフローチャートA flowchart illustrating the operation of the electronic control device according to the fifth embodiment of the present invention.

以下、本発明の実施形態について、図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

なお、本発明とは、特許請求の範囲又は課題を解決するための手段の項に記載された発明を意味するものであり、以下の実施形態に限定されるものではない。また、少なくともかぎ括弧内の語句は、特許請求の範囲又は課題を解決するための手段の項に記載された語句を意味し、同じく以下の実施形態に限定されるものではない。 The present invention means the invention described in the section of the scope of claims or means for solving the problem, and is not limited to the following embodiments. In addition, at least the words in brackets mean the words and phrases described in the section of claims or means for solving the problem, and are not limited to the following embodiments.

特許請求の範囲の従属項に記載の構成及び方法、従属項に記載の構成及び方法に対応する実施形態の構成及び方法、並びに特許請求の範囲に記載がなく実施形態のみに記載の構成及び方法は、本発明においては任意の構成及び方法である。特許請求の範囲の記載が実施形態の記載よりも広い場合における実施形態に記載の構成及び方法も、本発明の構成及び方法の例示であるという意味で、本発明においては任意の構成及び方法である。いずれの場合も、特許請求の範囲の独立項に記載することで、本発明の必須の構成及び方法となる。 The configuration and method described in the dependent clause of the claims, the configuration and method of the embodiment corresponding to the configuration and method described in the dependent clause, and the configuration and method described only in the embodiment without description in the claims. Is an arbitrary configuration and method in the present invention. In the present invention, any configuration and method may be used in the sense that the configuration and method described in the embodiment when the claims are broader than the description of the embodiment are also examples of the configuration and method of the present invention. is there. In either case, the description in the independent clause of the claims provides an essential configuration and method of the present invention.

実施形態に記載した効果は、本発明の例示としての実施形態の構成を有する場合の効果であり、必ずしも本発明が有する効果ではない。 The effects described in the embodiments are effects in the case of having the configuration of the embodiment as an example of the present invention, and are not necessarily the effects of the present invention.

複数の実施形態がある場合、各実施形態に開示の構成は各実施形態のみで閉じるものではなく、実施形態をまたいで組み合わせることが可能である。例えば一の実施形態に開示の構成を、他の実施形態に組み合わせてもよい。また、複数の実施形態それぞれに開示の構成を集めて組み合わせてもよい。 When there are a plurality of embodiments, the configuration disclosed in each embodiment is not closed only in each embodiment, but can be combined across the embodiments. For example, the configuration disclosed in one embodiment may be combined with another embodiment. Further, the disclosed configurations may be collected and combined in each of the plurality of embodiments.

発明が解決しようとする課題に記載した知見や課題は公知の課題ではなく、本発明者が独自に知見したものであり、本発明の構成及び方法と共に発明の進歩性を肯定する事実である。 The findings and issues described in the issues to be solved by the invention are not known issues, but are independently discovered by the present inventor, and are facts that affirm the inventive step of the invention together with the constitution and method of the present invention.

以下の各実施形態は、主として車両を撮影した画像データの画像解析方法を実行する装置を例として説明するが、本発明は、特許請求の範囲で限定がない限り、車両以外の移動体を撮影した画像データの画像解析方法を実行する装置も含むものである。 Each of the following embodiments will be described mainly by using an apparatus for executing an image analysis method of image data obtained by photographing a vehicle as an example, but the present invention photographs a moving body other than the vehicle unless there is a limitation within the scope of the patent claim. It also includes an apparatus for executing an image analysis method of the image data.

(各実施形態に共通する画像解析システムの概要)
まず、図1を用いて、画像解析システム10の概要について説明する。
(Outline of image analysis system common to each embodiment)
First, the outline of the image analysis system 10 will be described with reference to FIG.

画像解析システム10は、画像解析装置100及び車両200に搭載された電子制御装置201を有する。画像解析システム10は、さらに、カメラ300を含むようにしてもよい。 The image analysis system 10 includes an image analysis device 100 and an electronic control device 201 mounted on the vehicle 200. The image analysis system 10 may further include a camera 300.

カメラ300は、車両200を撮影し、通信ネットワーク30を介して車両200の画像データを画像解析装置100に送信する。
カメラ300は、道路や道路周辺の建物に取り付けられるインフラカメラ、セキュリティカメラ、ライブカメラの他、車両に取り付けられるドライブレコーダーであってもよい。
カメラ300は、IPアドレスが割り当てられカメラ自身で通信を行うネットワークカメラの他、カメラ自身で通信せず、通信ネットワークを利用できる機器を介して通信を行うカメラも想定される。
カメラ300は、可視光が結合する像を撮影できるものの他、赤外光や紫外光が結合する像を撮影できるものであってもよい。
The camera 300 photographs the vehicle 200 and transmits the image data of the vehicle 200 to the image analysis device 100 via the communication network 30.
The camera 300 may be an infrastructure camera, a security camera, a live camera attached to a road or a building around the road, or a drive recorder attached to a vehicle.
As the camera 300, in addition to a network camera to which an IP address is assigned and communication is performed by the camera itself, a camera that does not communicate by the camera itself but communicates via a device that can use a communication network is also assumed.
The camera 300 may be capable of capturing an image in which visible light is combined, as well as an image in which infrared light or ultraviolet light is combined.

車両200は、電子制御装置201を搭載している。電子制御装置201は、画像解析装置100と通信し、必要な情報をネットワーク20を介して送受信することができる。車両200は、ドライバーが操作を行うドライバー運転車両であっても、各レベルに応じてシステムが操作を行う自動運転車両であってもよい。 The vehicle 200 is equipped with an electronic control device 201. The electronic control device 201 can communicate with the image analysis device 100 and transmit and receive necessary information via the network 20. The vehicle 200 may be a driver-driven vehicle operated by the driver or an automatically driven vehicle operated by the system according to each level.

画像解析装置100は、カメラ300を含む複数のカメラから画像データを収集し、解析し、管理する。例えば、画像データを基に、オペレータが車両200の運転者に対してアドバイスを行ったり、ある地点の道路を走行する自動車の画像を収集して統計をとったり、と様々な用途が考えられる。また、画像データに紐づけて、例えば車両200の位置情報等、車両200に関する情報を保存するようにしてもよい。 The image analysis device 100 collects, analyzes, and manages image data from a plurality of cameras including the camera 300. For example, based on the image data, the operator gives advice to the driver of the vehicle 200, collects images of a vehicle traveling on a road at a certain point, and collects statistics. Further, the information related to the vehicle 200, such as the position information of the vehicle 200, may be saved in association with the image data.

画像解析装置100と電子制御装置201との通信に利用される通信ネットワーク20には、特に電子制御装置201と図示しない基地局装置との間で無線通信方式が用いられる。無線通信方式としては、例えば、IEEE802.11(WiFi)やIEEE802.16(WiMAX)、W−CDMA(Wideband Code Division Multiple Access)、HSPA(High Speed Packet Access)、LTE(Long Term Evolution)、LTE−A(Long Term Evolution Advanced)、4G、5G等を用いることができる。基地局装置と画像解析装置100との間は、電話回線やインターネット等の有線通信方式が用いられる。 In the communication network 20 used for communication between the image analysis device 100 and the electronic control device 201, a wireless communication method is particularly used between the electronic control device 201 and a base station device (not shown). Examples of wireless communication methods include IEEE802.11 (WiFi), IEEE802.16 (WiMAX), W-CDMA (Wideband Code Division Multiple Access), HSPA (High Speed Packet Access), LTE (Long Term Evolution), and LTE-. A (Long Term Evolution Advanced), 4G, 5G and the like can be used. A wired communication method such as a telephone line or the Internet is used between the base station device and the image analysis device 100.

画像解析装置100とカメラ300との通信に利用される通信ネットワーク30には、通常電話回線やインターネット等の有線通信方式が用いられる。もちろん、一部の区間、例えばカメラ300と図示しない基地局装置との間で、通信ネットワーク20と同様の無線通信方式を用いるようにしてもよい。 A wired communication system such as a telephone line or the Internet is usually used for the communication network 30 used for communication between the image analysis device 100 and the camera 300. Of course, a wireless communication method similar to that of the communication network 20 may be used between a part of the section, for example, the camera 300 and the base station device (not shown).

通信ネットワーク20、通信ネットワーク30とも、情報の送受信に際し、トラフィックの増大とともに送受信の遅延が生じる。また、カメラ300においては画像データを圧縮して送信するので、圧縮に要する時間も遅延を生じさせる原因となる。 In both the communication network 20 and the communication network 30, when transmitting and receiving information, transmission and reception delays occur as the traffic increases. Further, since the camera 300 compresses the image data and transmits the image data, the time required for the compression also causes a delay.

ここで、画像解析装置100と電子制御装置201との間は、自動運転や運転支援等の用途に用いられることもあり、通常数ナノ秒以内の高い精度で時刻が同期されている。しかし、カメラ300と画像解析装置100との間は、必ずしも時刻が同期されているとは限らない。したがって、カメラ300から送信される画像データに付随する撮影時刻は、必ずしも画像解析装置100が管理する時刻と同期が取れておらず、撮影時刻の信頼性は低い。また、画像解析装置100が受信した時刻を画像データの撮影時刻とした場合、遅延時間分時刻がずれてしまう。 Here, the image analysis device 100 and the electronic control device 201 may be used for applications such as automatic driving and driving support, and the time is usually synchronized with high accuracy within several nanoseconds. However, the time is not always synchronized between the camera 300 and the image analysis device 100. Therefore, the shooting time associated with the image data transmitted from the camera 300 is not necessarily synchronized with the time managed by the image analysis device 100, and the reliability of the shooting time is low. Further, when the time received by the image analysis device 100 is set as the shooting time of the image data, the time shifts by the delay time.

そこで、各実施形態の画像解析システム10では、車両200に搭載された光源、例えばヘッドランプや屋根等に別途取り付けた光源を、画像解析装置100からの指示で所定の時刻に所定の発光パターンで発光させるようにしている。カメラ300で車両200を撮影すると、この発光パターンも含めた画像が撮影されることになる。そして、画像解析装置100で画像に含まれる発光パターンを手掛かりに、画像の撮影時刻や遅延時間を特定する。 Therefore, in the image analysis system 10 of each embodiment, a light source mounted on the vehicle 200, for example, a light source separately attached to a headlamp, a roof, or the like is set to a predetermined light emission pattern at a predetermined time according to an instruction from the image analysis device 100. It is designed to emit light. When the vehicle 200 is photographed by the camera 300, an image including this light emission pattern is photographed. Then, the image analysis device 100 identifies the shooting time and the delay time of the image by using the light emission pattern included in the image as a clue.

次に、画像解析システム10の基本的な動作を、図2を用いて説明する。 Next, the basic operation of the image analysis system 10 will be described with reference to FIG.

ステップS11において、画像解析装置100は、発光指令と発光時刻を車両200に搭載された電子制御装置201に送信する。
ステップS12において、電子制御装置201は、発光指令と発光時刻を画像解析装置100から受信する。
ステップS13において、電子制御装置201は、発光時刻に発光パターンを用いて発光するよう、車両200に搭載された光源206に発光を指示する。
ステップS14において、カメラ300は、カメラ300に備えられた撮像素子を用いて車両200を撮影する。この際、撮影された画像には、発光パターンも含まれている。
ステップS15において、発光パターンを含む画像データを画像解析装置100に出力する。
ステップS16において、画像解析装置100は、カメラ300から発光パターンを含む車両200の画像データを取得する。
ステップS17において、画像解析装置100は、取得した画像データから発光パターンを検出する。
ステップS18において、画像解析装置100は、S11で発光指令の対象となった発光パターンとS17で検出された発光パターンのマッチングを行い、同一の発光パターンであると判断された場合、S11で送信した発光時刻を画像データの撮影時刻とする。また、ステップS11で送信された発光時刻とステップS16で取得した画像データの取得時刻との時間差を遅延時間とする。
In step S11, the image analysis device 100 transmits the light emission command and the light emission time to the electronic control device 201 mounted on the vehicle 200.
In step S12, the electronic control device 201 receives the light emission command and the light emission time from the image analysis device 100.
In step S13, the electronic control device 201 instructs the light source 206 mounted on the vehicle 200 to emit light so as to emit light using the light emission pattern at the light emission time.
In step S14, the camera 300 photographs the vehicle 200 using the image sensor provided in the camera 300. At this time, the captured image also includes a light emission pattern.
In step S15, the image data including the light emission pattern is output to the image analysis device 100.
In step S16, the image analysis device 100 acquires image data of the vehicle 200 including the light emission pattern from the camera 300.
In step S17, the image analysis device 100 detects a light emission pattern from the acquired image data.
In step S18, the image analysis device 100 matches the light emission pattern targeted by the light emission command in S11 with the light emission pattern detected in S17, and if it is determined that the light emission patterns are the same, transmission is performed in S11. Let the light emission time be the shooting time of the image data. Further, the time difference between the light emission time transmitted in step S11 and the acquisition time of the image data acquired in step S16 is defined as the delay time.

以上の画像解析システム10により、画像データの撮影時刻を正確に特定することができる。また、発光パターンのマッチングを用いているので、カメラ300での撮影時や、ネットワーク30を介して画像データを送信中にフレームの欠損があった場合でも、画像データの撮影時刻を正確に特定することができる。 With the above image analysis system 10, the shooting time of the image data can be accurately specified. Further, since the matching of the light emission pattern is used, the shooting time of the image data can be accurately specified even when the camera 300 shoots or when the image data is transmitted via the network 30 and there is a frame defect. be able to.

(実施形態1)
1.画像解析装置100の構成
まず、図3を用いて、本実施形態の画像解析装置100の構成を説明する。
(Embodiment 1)
1. 1. Configuration of Image Analysis Device 100 First, the configuration of the image analysis device 100 of the present embodiment will be described with reference to FIG.

画像解析装置100(「画像解析装置」に相当)は、通信部101、地図DB102、CPU103、取得部106、及びメモリ109を有する。 The image analysis device 100 (corresponding to the “image analysis device”) has a communication unit 101, a map DB 102, a CPU 103, an acquisition unit 106, and a memory 109.

ここで、「画像解析装置」とは、入力された命令に基づき演算や制御を実行し結果を出力できればよく、情報処理装置、情報処理モジュール、マイコン等、その名称は問わない。また、パッケージ化された半導体装置であっても、配線基板において各半導体装置が配線接続された構成であってもよく、半導体チップ、システムボード、PC、携帯情報端末も含む。 Here, the "image analysis device" may be any name such as an information processing device, an information processing module, a microcomputer, etc., as long as it can execute calculations and controls based on the input instructions and output the result. Further, it may be a packaged semiconductor device or a configuration in which each semiconductor device is connected by wiring on a wiring board, and includes a semiconductor chip, a system board, a PC, and a personal digital assistant.

通信部101は、図1の通信ネットワーク20を介して電子制御装置201との間で情報を送受信する。本実施形態では、特に、通信部101(「送信部」に相当)は、「発光パターン」の発光指令及び発光パターンを発光させる発光時刻を車両200(「移動体」に相当)に搭載された電子制御装置201(「電子制御装置」に相当)に送信する。さらに、生成した発光パターンを送信してもよい。また、通信部101(「受信部」に相当)は、電子制御装置201から車両200の位置情報を受信する。さらに、通信部101は、走行計画情報、及び速度情報を受信してもよい。 The communication unit 101 transmits / receives information to / from the electronic control device 201 via the communication network 20 of FIG. In the present embodiment, in particular, the communication unit 101 (corresponding to the “transmission unit”) is mounted on the vehicle 200 (corresponding to the “moving body”) with the light emission command of the “light emission pattern” and the light emission time for emitting the light emission pattern. It transmits to the electronic control device 201 (corresponding to the "electronic control device"). Further, the generated light emission pattern may be transmitted. Further, the communication unit 101 (corresponding to the “reception unit”) receives the position information of the vehicle 200 from the electronic control device 201. Further, the communication unit 101 may receive the travel plan information and the speed information.

ここで、「発光パターン」とは、点灯及び消灯を組み合わせた点滅パターンに加えて、消灯せず光の強弱を示す調光パターンも含む。また、発光は、可視光の場合その色を問わず、赤外光、紫外光も含む。さらに、光に代えて電磁波を用いる場合も発光パターンに含む。
また、「移動体」とは、移動できるものであればよく停止している場合も含む。
Here, the "light emission pattern" includes, in addition to a blinking pattern that combines lighting and extinguishing, a dimming pattern that indicates the intensity of light without extinguishing. Further, the light emission includes infrared light and ultraviolet light regardless of the color of visible light. Further, the case where electromagnetic waves are used instead of light is also included in the light emission pattern.
Further, the “moving body” includes a case where the moving body is often stopped as long as it can move.

地図DB102は、道路、道路構造、建物、及び住居に関する情報を保持する。地図DB102は、本実施形態のカメラ300が設置された位置の情報やカメラ300の撮影対象エリアの情報も含むことを前提としているが、カメラ300に関する情報は別途データベースを設けて保有してもよい。地図DB102は、HDDやフラッシュメモリ等の不揮発性記憶装置(図示せず)で構成される他、RAM等の揮発性記憶装置で構成してもよい。 The map DB 102 holds information about roads, road structures, buildings, and dwellings. The map DB 102 is premised on including information on the position where the camera 300 of the present embodiment is installed and information on the shooting target area of the camera 300, but the information on the camera 300 may be stored by providing a separate database. .. The map DB 102 may be composed of a non-volatile storage device (not shown) such as an HDD or a flash memory, or may be composed of a volatile storage device such as a RAM.

CPU103は、通信部101、地図DB102、取得部106、及びメモリ109と接続され、これらを制御するとともに各種演算を行う。また、本実施形態では、CPU103は、パターン生成部104、発光時刻決定部105、パターン検出部107、及び撮影時刻特定部108を実現する。 The CPU 103 is connected to the communication unit 101, the map DB 102, the acquisition unit 106, and the memory 109, controls these, and performs various calculations. Further, in the present embodiment, the CPU 103 realizes a pattern generation unit 104, a light emission time determination unit 105, a pattern detection unit 107, and a shooting time identification unit 108.

パターン生成部104は、光を使った信号として把握できる発光パターンを「生成する」。発光パターンは、点灯及び消灯を組み合わせる場合の他、点灯と消灯の中間の輝度を1つまたは複数組み合わせる場合、連続的に輝度が変化する場合、など様々なパターンが考えられる。また、発光パターンは、一定のパターンを2回以上反復するパターンであってもよい。発光パターンの表現方法としては、離散値(デジタル)で表しても連続値(アナログ)で表してもよい。離散値の場合、2値の他、3値以上でもよく、点灯、消灯、中間輝度にそれぞれの値を割り当てることができる。あるいは、それぞれの値に、光の波長を割り当ててもよい。この場合、複数種類の色を発光させる発光パターンとなる。
なお、パターン生成部104は、発光指令の都度発光パターンを生成することに代えて、予め保持していた複数の発光パターンの中から特定の発光パターンを選択してもよい。さらに、保持する発光パターンは1つでもよい。
The pattern generation unit 104 "generates" a light emission pattern that can be grasped as a signal using light. As the light emission pattern, various patterns can be considered, such as a case where lighting and extinguishing are combined, a case where one or a plurality of brightnesses intermediate between lighting and extinguishing are combined, and a case where the brightness changes continuously. Further, the light emission pattern may be a pattern in which a constant pattern is repeated twice or more. As a method of expressing the light emission pattern, it may be expressed as a discrete value (digital) or a continuous value (analog). In the case of discrete values, in addition to two values, three or more values may be used, and each value can be assigned to lighting, extinguishing, and intermediate brightness. Alternatively, the wavelength of light may be assigned to each value. In this case, the light emission pattern is such that a plurality of types of colors are emitted.
Note that the pattern generation unit 104 may select a specific light emission pattern from a plurality of light emission patterns held in advance, instead of generating the light emission pattern each time a light emission command is issued. Further, only one light emission pattern may be retained.

ここで、「生成する」とは、新たに生成する場合の他、予め保存していたものを使用する場合も含む。 Here, the term "generate" includes not only the case of newly generating but also the case of using a previously saved one.

図4は、パターン生成部104が生成する発光パターンの一例を示している。図4の発光パターンでは、縦軸が発光強度を示し、横軸が時刻を示している。この例では、発光強度は2値で表現されており、2値のうち一方を点灯、他方を消灯に割り当てることができる。
また、図4では、同一の発光パターンを2回繰り返した例を示している。この場合、1つの発光パターンの長さは、最初のパターンの開始時刻と次のパターンの開始時刻とが別個に特定できる程度の長さであることが望ましい。
FIG. 4 shows an example of a light emission pattern generated by the pattern generation unit 104. In the light emission pattern of FIG. 4, the vertical axis shows the light emission intensity and the horizontal axis shows the time. In this example, the emission intensity is represented by two values, and one of the two values can be assigned to turn on and the other to turn off.
Further, FIG. 4 shows an example in which the same light emission pattern is repeated twice. In this case, it is desirable that the length of one light emission pattern is such that the start time of the first pattern and the start time of the next pattern can be specified separately.

発光時刻決定部105は、発光パターンの発光を開始する時刻である発光時刻を決定する。 The light emission time determination unit 105 determines the light emission time, which is the time when the light emission of the light emission pattern is started.

図4の例では、発光パターンのうちの最初の発光パターンの発光時刻は8時00分05秒となっている。この例では、最初の発光パターンの発光時刻のみ指定しているが、それ以降のパターンについてもそれぞれ発光時刻を決定してもよい。 In the example of FIG. 4, the light emission time of the first light emission pattern among the light emission patterns is 8:00:05. In this example, only the light emission time of the first light emission pattern is specified, but the light emission time may be determined for each of the subsequent patterns.

発光時刻のより具体的な決定方法の一例を挙げる。
通信部101で受信した車両200の位置情報に基づき、カメラ300の撮影対象エリアに車両200が進入したと判断した場合に、現在時刻から所定の時間後の時刻、例えば2秒後の時刻を発光時刻として決定する。
An example of a more specific method for determining the light emission time will be given.
When it is determined that the vehicle 200 has entered the shooting target area of the camera 300 based on the position information of the vehicle 200 received by the communication unit 101, the time after a predetermined time from the current time, for example, the time after 2 seconds is emitted. Determined as the time.

その他の決定方法として、以下の例を挙げる。
発光時刻決定部105は、通信部101で受信した車両200の情報と地図DB102の地図情報とに基づき、車両200とカメラ300との相対関係を分析する。すなわち、受信した車両200の位置情報に基づき、カメラ300との位置関係を求め、受信した車両200の走行計画情報に基づき、カメラ300の撮影対象エリアを通過するか否かを判定する。カメラ300の撮影対象エリアを通過すると判定した場合、受信した車両200の速度情報に基づき、車両200がカメラ300の撮影対象エリアに到達することが予想される時刻を求める。そして、到達することが予想される時刻、又はそれよりも一定時間後の時刻を、発光時刻と決定する。例えば、到達することが予想される時刻が8時00分00秒である場合、カメラ300の撮影対象エリア内に確実に移動している時点として、5秒後の8時00分05秒を発光時刻として決定する。
The following examples are given as other determination methods.
The light emission time determination unit 105 analyzes the relative relationship between the vehicle 200 and the camera 300 based on the information of the vehicle 200 received by the communication unit 101 and the map information of the map DB 102. That is, based on the received position information of the vehicle 200, the positional relationship with the camera 300 is obtained, and based on the received travel plan information of the vehicle 200, it is determined whether or not to pass through the shooting target area of the camera 300. When it is determined that the vehicle 200 passes through the shooting target area of the camera 300, the time at which the vehicle 200 is expected to reach the shooting target area of the camera 300 is obtained based on the received speed information of the vehicle 200. Then, the time expected to arrive or a time after a certain time is determined as the light emission time. For example, when the time expected to arrive is 8:00:00, the time point at which the camera 300 is surely moving into the shooting target area is 8:00:05, which is 5 seconds later. Determined as the time.

取得部106(「取得部」に相当)は、図1のネットワーク30を介して、「発光パターンを含む」車両200の「画像データ」を、車両200を撮影したカメラ300から「取得する」。 The acquisition unit 106 (corresponding to the “acquisition unit”) “acquires” “image data” of the vehicle 200 “including the light emitting pattern” from the camera 300 that has taken the vehicle 200 via the network 30 of FIG.

ここで、「発光パターンを含む」とは、画像データに発光パターンを含む場合の他、画像データに紐づけられたデータとして発光パターンを含む場合も含む。
また、「画像データ」とは、静止画又は動画のいずれであってもよい。
また、「取得する」とは、撮影装置から直接的に取得する場合の他、他の装置を介して間接的に取得する場合を含む。
Here, "including the light emission pattern" includes not only the case where the image data includes the light emission pattern but also the case where the light emission pattern is included as the data associated with the image data.
Further, the "image data" may be either a still image or a moving image.
Further, the “acquisition” includes a case of directly acquiring from a photographing device and a case of indirectly acquiring through another device.

取得部106は、画像データを通信ネットワーク30を介して取得する場合の他、記録媒体を読み込むことにより画像データを取得してもよい。この場合、取得部106は、USB等のインターフェースや光ディスクドライブ等の読取装置で実現することができる。 In addition to the case where the image data is acquired via the communication network 30, the acquisition unit 106 may acquire the image data by reading the recording medium. In this case, the acquisition unit 106 can be realized by an interface such as USB or a reading device such as an optical disk drive.

図5(A)及び(B)は、発光パターンを含む車両200の画像データを示している。図5(A)は、車両200の光源206が点灯している画像データを示し、図5(B)は、光源206が消灯している画像データを示している。画像データ中の光源206の明暗を検出する方法としては、画像解析等の周知の方法を用いることができる。なお、図5(A)及び(B)は、説明のため画像全体に明暗差があるように表現している。 5 (A) and 5 (B) show image data of the vehicle 200 including the light emission pattern. FIG. 5A shows image data in which the light source 206 of the vehicle 200 is lit, and FIG. 5B shows image data in which the light source 206 is turned off. As a method of detecting the brightness of the light source 206 in the image data, a well-known method such as image analysis can be used. Note that FIGS. 5A and 5B are expressed so that there is a difference in brightness in the entire image for the sake of explanation.

パターン検出部107(「パターン検出部」に相当)は、取得した車両200の画像データから発光パターンを検出する。 The pattern detection unit 107 (corresponding to the “pattern detection unit”) detects a light emission pattern from the acquired image data of the vehicle 200.

図6(A)及び(B)は、取得された画像データから発光パターンを検出する方法を示している。図6(A)及び(B)に示すように、発光パターンを含む画像データを撮影された時刻の順に並べて、光源206が点灯している画像と消灯している画像とを時間軸上で分類することにより、画像データから発光パターンを検出する。 6 (A) and 6 (B) show a method of detecting an emission pattern from the acquired image data. As shown in FIGS. 6A and 6B, the image data including the light emission pattern is arranged in the order of the time when the light source was taken, and the image in which the light source 206 is turned on and the image in which the light source 206 is turned off are classified on the time axis. By doing so, the light emission pattern is detected from the image data.

なお、図6では、説明のため、ピクチャーが1枚若しくは2枚毎に光源206の明暗が切り替わるような点滅周期の早い発光パターンが実行された場合を示しているが、これよりも長い点滅周期の発光パターンであってもよい。例えば、1秒から数秒で点灯と消灯が切り替わるような発光パターンであってもよい。このような場合、図6のピクチャーA、ピクチャーBは、カメラ30のフレームレートが30フレーム毎秒(FPS)である場合、30枚程度のピクチャをまとめて1つのピクチャーとして表現していると理解できる。 Note that FIG. 6 shows a case where a light emission pattern having a fast blinking cycle is executed such that the light source 206 is switched between light and dark for every one or two pictures, but the blinking cycle is longer than this. It may be the light source pattern of. For example, the light emission pattern may be such that lighting and extinguishing are switched in 1 to several seconds. In such a case, it can be understood that the pictures A and B in FIG. 6 collectively represent about 30 pictures as one picture when the frame rate of the camera 30 is 30 frames per second (FPS). ..

図6(B)に示すように、画像データの一部が欠落や欠損している場合、パターン検出部107は、その一部をないものとみなして発光パターンを検出する。 As shown in FIG. 6B, when a part of the image data is missing or missing, the pattern detection unit 107 detects the light emission pattern by regarding the part as missing.

なお、発光パターンに赤外光や紫外光を用いる場合は、カメラ300の撮像素子がカバーする波長範囲によっては、赤外光や紫外光により認識される発光パターンが画像データに直接含まれない場合もある。この場合、画像データそのものではなく、画像データに紐づけられた赤外光や紫外光が撮影されたデータにより点灯しているか消灯しているかが判断される。 When infrared light or ultraviolet light is used as the light emission pattern, the light emission pattern recognized by infrared light or ultraviolet light may not be directly included in the image data depending on the wavelength range covered by the image sensor of the camera 300. There is also. In this case, it is determined whether the infrared light or ultraviolet light associated with the image data is turned on or off based on the captured data, not the image data itself.

撮影時刻特定部108(「撮影時刻特定部」に相当)は、パターン生成部104で生成し通信部101により電子制御装置201に送信した発光パターンと、パターン検出部107で検出した発光パターンとに基づき、発光時刻決定部105で決定した発光時刻を画像データが撮影された時刻とする。 The shooting time specifying unit 108 (corresponding to the “shooting time specifying unit”) is divided into a light emitting pattern generated by the pattern generating unit 104 and transmitted to the electronic control device 201 by the communication unit 101 and a light emitting pattern detected by the pattern detecting unit 107. Based on this, the light emission time determined by the light emission time determination unit 105 is set as the time when the image data is taken.

図7は、送信した発光パターンと検出した発光パターンとに基づき、画像データが撮影された時刻を特定する方法の一例を示している。具体的には、送信した発光パターンと検出した発光パターンのパターンマッチングを行い、両者の波形が同一のものと解される程度に一致するかどうかを判定する。例えば、検出した発光パターンPは、送信した発光パターンと形状が異なるので、送信した発光パターンを含む映像データとは異なる映像データから検出した発光パターンであることが分かる。これに対し、検出した発光パターンQは、一部欠損があるものの、大部分が送信した発光パターンと形状が同じであるので、送信した発光パターンを含む映像データから検出した発光パターンであることが分かる。そして、発光時刻決定部105は、電子制御装置201に送信した発光パターンの発光時刻を、検出した発光パターンQを含む画像データが撮影された時刻とする。図7の例では、8時00分05秒を、検出した発光パターンQを含む画像データが撮影された時刻とする。 FIG. 7 shows an example of a method of specifying the time when the image data was taken based on the transmitted light emission pattern and the detected light emission pattern. Specifically, pattern matching is performed between the transmitted light emission pattern and the detected light emission pattern, and it is determined whether or not the waveforms of both are matched to the extent that they are considered to be the same. For example, since the detected light emission pattern P has a different shape from the transmitted light emission pattern, it can be seen that the light emission pattern is detected from video data different from the video data including the transmitted light emission pattern. On the other hand, although the detected light emission pattern Q has some defects, most of it has the same shape as the transmitted light emission pattern, so that it may be a light emission pattern detected from the video data including the transmitted light emission pattern. I understand. Then, the light emission time determination unit 105 sets the light emission time of the light emission pattern transmitted to the electronic control device 201 to the time when the image data including the detected light emission pattern Q is taken. In the example of FIG. 7, 8:00:05 is set as the time when the image data including the detected light emission pattern Q is taken.

なお、同一の発光パターンが繰り返され、発光パターンごとに複数の発光時刻が設けられている場合は、それぞれの発光時刻をそれぞれの対応する画像データが撮影された時刻とする。これにより、一連の画像データの中間時点での正確な撮影時刻も特定することができる。 When the same light emission pattern is repeated and a plurality of light emission times are provided for each light emission pattern, each light emission time is set as the time when the corresponding image data is taken. Thereby, it is possible to specify the accurate shooting time at the intermediate time point of the series of image data.

また、パターンマッチングにおいて、波形が同一のものと解される程度に一致するかどうかを判定する方法として、例えば両者の波形をシフトして差分を求め、一定の閾値を超えるか否かで判定することが考えられる。これにより、画像データの欠落や欠損により一部の発光パターンが検出できない場合であっても、画像データの撮影時刻を特定できる。 Further, in pattern matching, as a method of determining whether or not the waveforms match to the extent that they are considered to be the same, for example, the two waveforms are shifted to obtain the difference, and it is determined whether or not the difference exceeds a certain threshold value. Is possible. Thereby, even when a part of the light emission pattern cannot be detected due to the lack or deletion of the image data, the shooting time of the image data can be specified.

さらに、撮影時刻特定部108(「撮影時刻特定部」に相当)は、画像データが撮影された時刻から画像データを取得した時刻までの時間である遅延時間を特定してもよい。 Further, the shooting time specifying unit 108 (corresponding to the “shooting time specifying unit”) may specify a delay time which is a time from the time when the image data is shot to the time when the image data is acquired.

図7の例の場合、画像データが撮影された時刻は発光時刻である8時00分05秒であると特定した。画像解析装置100がカメラ300から画像データを取得した時刻が8時00分07秒であるので、これらの時間差である2秒が遅延時間となる。 In the case of the example of FIG. 7, it was specified that the time when the image data was taken was 8:00:05, which is the light emission time. Since the time when the image analysis device 100 acquires the image data from the camera 300 is 8:00:07, the delay time is 2 seconds, which is the time difference between them.

メモリ109は、車両200から受信した位置情報、走行計画情報、及び速度情報や、カメラ300から取得した画像データ、フレームレートを示す情報、並びに、発光指令、発光時刻、発光パターン、及び発光強度に関する情報を保存する。メモリ109も、HDDやフラッシュメモリ等の不揮発性記憶装置(図示せず)で構成される他、RAM等の揮発性記憶装置で構成してもよい。 The memory 109 relates to position information, travel plan information, and speed information received from the vehicle 200, image data acquired from the camera 300, information indicating a frame rate, and light emission command, light emission time, light emission pattern, and light emission intensity. To save the information. The memory 109 may also be composed of a non-volatile storage device (not shown) such as an HDD or a flash memory, or may be composed of a volatile storage device such as a RAM.

2.画像解析装置100の動作
次に、図8を用いて、本実施形態の画像解析装置100の動作を説明する。
2. Operation of Image Analysis Device 100 Next, the operation of the image analysis device 100 of the present embodiment will be described with reference to FIG.

なお、図8は、画像解析装置100を用いた画像解析方法を示すだけでなく、画像解析装置で実行されるプログラムの処理手順を示すものである。また、一のステップで他のステップの結果を利用する関係でない限り、各ステップの順序は入れ替えてもよい。例えば、ステップS102とステップS103は順序を入れ替えることができる。以下、各実施形態のフローチャートについても同様である。 Note that FIG. 8 not only shows an image analysis method using the image analysis device 100, but also shows a processing procedure of a program executed by the image analysis device. Further, the order of each step may be changed unless the relationship is such that the result of another step is used in one step. For example, the order of step S102 and step S103 can be changed. Hereinafter, the same applies to the flowchart of each embodiment.

ステップS101において、通信部101は、車両200に搭載された電子制御装置201から位置情報を受信する。
ステップS102において、パターン生成部104は、発光パターンを生成する。
ステップS103において、発光時刻決定部105は、ステップS101で受信した位置情報に基づいて、発光パターンを発光させる発光時刻を決定する。
ステップS104において、通信部101は、電子制御装置201に発光指令、発光時刻、及び発光パターンを送信する。
ステップS105において、取得部106は、カメラ300から、発光パターンを含む車両200の画像データを取得する。
ステップS106において、パターン検出部107は、ステップS105で取得した画像データから発光パターンを検出する。
ステップS107において、撮影時刻特定部108は、送信した発光パターンと検出した発光パターンとに基づき、発光時刻決定部105で決定しステップS104で送信された発光時刻を、ステップS105で取得した画像データが撮影された時刻とする。さらに、撮影時刻特定部108は、画像データが撮影された時刻から画像データを取得した時刻までの時間である遅延時間を特定する。
In step S101, the communication unit 101 receives the position information from the electronic control device 201 mounted on the vehicle 200.
In step S102, the pattern generation unit 104 generates a light emission pattern.
In step S103, the light emission time determination unit 105 determines the light emission time for causing the light emission pattern to emit light based on the position information received in step S101.
In step S104, the communication unit 101 transmits a light emission command, a light emission time, and a light emission pattern to the electronic control device 201.
In step S105, the acquisition unit 106 acquires image data of the vehicle 200 including the light emission pattern from the camera 300.
In step S106, the pattern detection unit 107 detects the light emission pattern from the image data acquired in step S105.
In step S107, the shooting time specifying unit 108 determines the light emission time determined by the light emission time determination unit 105 based on the transmitted light emission pattern and the detected light emission pattern, and obtains the light emission time transmitted in step S104 by the image data acquired in step S105. It is the time when the picture was taken. Further, the shooting time specifying unit 108 specifies a delay time, which is a time from the time when the image data is shot to the time when the image data is acquired.

3.小括
以上、実施形態1によれば、画像データから発光パターンを検出し、送信した発光パターンと検出した発光パターンに基づき画像が撮影された時刻を特定するので、情報送信時にフレーム欠損があっても画像が撮影された時刻や遅延時間を特定することができる。
また、画像が撮影された時刻を正確に特定できることにより、複数のカメラから送信される画像の時間的な関係、すなわち他の画像との同期や撮影順序を正確に決定することができる。また、遅延時間を正確に特定できることにより、例えば取得した画像データに基づきリアルタイムで車両200に対する指示や制御を行う場合、遅延時間の大きい画像データを用いないようにすることができる。以上は、後述の変形例においても同様である。
そして、本実施形態では画像解析装置100が発光パターンを生成しているので、車両200で発光パターンを生成する必要がなく、車両200での処理を軽減することができる。
3. 3. Summary As described above, according to the first embodiment, since the light emission pattern is detected from the image data and the transmitted light emission pattern and the time when the image is taken are specified based on the transmitted light emission pattern, there is a frame defect at the time of information transmission. It is also possible to specify the time when the image was taken and the delay time.
Further, by being able to accurately specify the time when the image was taken, it is possible to accurately determine the temporal relationship of the images transmitted from the plurality of cameras, that is, the synchronization with other images and the shooting order. Further, since the delay time can be accurately specified, for example, when instructing or controlling the vehicle 200 in real time based on the acquired image data, it is possible to avoid using the image data having a large delay time. The above is the same for the modified examples described later.
Since the image analysis device 100 generates the light emission pattern in the present embodiment, it is not necessary to generate the light emission pattern in the vehicle 200, and the processing in the vehicle 200 can be reduced.

(実施形態1の変形例)
実施形態1では、画像解析装置100で発光パターンを生成し、車両200に搭載された電子制御装置201に送信した。本変形例は、電子制御装置201で発光パターンを生成するものである。
(Modified Example of Embodiment 1)
In the first embodiment, the image analysis device 100 generates a light emission pattern and transmits the light emission pattern to the electronic control device 201 mounted on the vehicle 200. In this modification, the electronic control device 201 generates a light emission pattern.

1.画像解析装置100の構成
本変形例の画像解析装置100の構成は、図3とほぼ同様なので、図3を援用する。
ただし、本変形例では、パターン生成部104は有しない。以下、図3を援用し、実施形態1とは異なる機能を有する部分のみ、説明する。
1. 1. Configuration of Image Analysis Device 100 Since the configuration of the image analysis device 100 of this modified example is almost the same as that of FIG. 3, FIG. 3 is incorporated.
However, in this modification, the pattern generation unit 104 is not provided. Hereinafter, only the portion having a function different from that of the first embodiment will be described with reference to FIG.

通信部101(「送信部」に相当)は、発光パターンの発光指令及び発光パターンの発光時刻を車両200の電子制御装置201に送信し、発光パターンは送信しない。 The communication unit 101 (corresponding to the “transmission unit”) transmits the light emission command of the light emission pattern and the light emission time of the light emission pattern to the electronic control device 201 of the vehicle 200, and does not transmit the light emission pattern.

通信部101(「受信部」に相当)は、車両200に搭載された電子制御装置201から、電子制御装置201で「生成された」発光パターンを受信する。 The communication unit 101 (corresponding to the “reception unit”) receives a light emission pattern “generated” by the electronic control device 201 from the electronic control device 201 mounted on the vehicle 200.

ここで、「生成された」とは、新たに生成された場合の他、予め保存していたものが使用される場合も含む。 Here, the term "generated" includes not only the case where it is newly generated but also the case where a previously saved one is used.

撮影時刻特定部108(「撮影時刻特定部」に相当)は、通信部101により電子制御装置201から受信した発光パターンと、パターン検出部107で検出した発光パターンとに基づき、発光時刻決定部105で決定した発光時刻を画像データが撮影された時刻とする。 The shooting time specifying unit 108 (corresponding to the “shooting time specifying unit”) determines the light emitting time based on the light emitting pattern received from the electronic control device 201 by the communication unit 101 and the light emitting pattern detected by the pattern detecting unit 107. Let the light emission time determined in step 2 be the time when the image data was taken.

2.画像解析装置100の動作
次に、図9を用いて、本変形例の画像解析装置100の動作を説明する。
2. Operation of Image Analysis Device 100 Next, the operation of the image analysis device 100 of this modified example will be described with reference to FIG.

本変形例の画像解析装置100の動作は、図8の実施形態1の画像解析装置100の動作における発光パターンを生成するステップS102を有しない。それに代えて、発光パターンを受信するステップS108を有する。 The operation of the image analysis device 100 of this modification does not include step S102 for generating a light emission pattern in the operation of the image analysis device 100 of the first embodiment of FIG. Instead, it has step S108 to receive the emission pattern.

ステップS101において、通信部101は、車両200に搭載された電子制御装置201から位置情報を受信する。
ステップS103において、発光時刻決定部105は、ステップS101で受信した位置情報に基づいて、発光パターンを発光させる発光時刻を決定する。
ステップS104において、通信部101は、電子制御装置201に発光指令、及び発光時刻を送信する。
ステップS108において、通信部101は、発光パターンを電子制御装置201から受信する。
ステップS105において、取得部106は、カメラ300から、発光パターンを含む車両200の画像データを取得する。
ステップS106において、パターン検出部107は、取得106で取得した画像データから発光パターンを検出する。
ステップS107において、撮影時刻特定部108は、電子制御装置201から受信した発光パターンと、ステップS106で検出した発光パターンとに基づき、発光時刻決定部105で決定しステップS104で送信された発光時刻を、ステップS105で取得した画像データが撮影された時刻とする。さらに、撮影時刻特定部108は、画像データが撮影された時刻から画像データを取得した時刻までの時間である遅延時間を特定する。
In step S101, the communication unit 101 receives the position information from the electronic control device 201 mounted on the vehicle 200.
In step S103, the light emission time determination unit 105 determines the light emission time for causing the light emission pattern to emit light based on the position information received in step S101.
In step S104, the communication unit 101 transmits a light emission command and a light emission time to the electronic control device 201.
In step S108, the communication unit 101 receives the light emission pattern from the electronic control device 201.
In step S105, the acquisition unit 106 acquires image data of the vehicle 200 including the light emission pattern from the camera 300.
In step S106, the pattern detection unit 107 detects the light emission pattern from the image data acquired in the acquisition 106.
In step S107, the photographing time specifying unit 108 determines the light emitting time determined by the light emitting time determining unit 105 based on the light emitting pattern received from the electronic control device 201 and the light emitting pattern detected in step S106, and determines the light emitting time transmitted in step S104. , The time when the image data acquired in step S105 was taken. Further, the shooting time specifying unit 108 specifies a delay time, which is a time from the time when the image data is shot to the time when the image data is acquired.

3.小括
以上、実施形態1の変形例1によれば、実施形態1と共通の効果に加えて、画像解析装置100で発光指令の都度発光パターンを生成する必要がなく、画像解析装置100での処理を軽減することができる。さらに、車両200においても固有の発光パターンを予め準備しておくことができるため、車両200でも発光パターンを生成する必要がなく、車両での処理を軽減することができる。
3. 3. Summary As described above, according to the first modification of the first embodiment, in addition to the effects common to the first embodiment, it is not necessary for the image analysis device 100 to generate a light emission pattern each time a light emission command is given, and the image analysis device 100 does not need to generate a light emission pattern. The processing can be reduced. Further, since the unique light emission pattern can be prepared in advance in the vehicle 200, it is not necessary to generate the light emission pattern in the vehicle 200, and the processing in the vehicle can be reduced.

(実施形態2)
実施形態2は、カメラのフレームレートに応じて、生成する発光パターンを変更するものである。
(Embodiment 2)
In the second embodiment, the light emission pattern to be generated is changed according to the frame rate of the camera.

1.画像データのフレームレートと発光パターンの周波数の関係
画像データは、特定のフレームレート(Frames Per Second:FPS)で撮影された静止画の集合からなる動画で構成される。静止画はピクチャと呼ばれることがある。また、静止画は画像と呼ばれることがある。さらに、動画は映像と呼ばれることがある。
1. 1. Relationship between the frame rate of the image data and the frequency of the light emission pattern The image data is composed of a moving image consisting of a set of still images taken at a specific frame rate (Frames Per Second: FPS). Still images are sometimes called pictures. Still images are sometimes called images. In addition, video is sometimes referred to as video.

フレームレートは、動画において、単位時間あたりに処理させるフレーム数(静止画像数、コマ数)であり、映像に対するサンプリング周波数ともいわれる。フレームレートは、一般的に、60FPS、50FPS、30FPS、25FPS、24FPSがあり、フレームレートが高くなればなるほど動きが滑らかな動画となる。 The frame rate is the number of frames (number of still images, number of frames) to be processed per unit time in a moving image, and is also called a sampling frequency for a moving image. Generally, the frame rate is 60 FPS, 50 FPS, 30 FPS, 25 FPS, or 24 FPS, and the higher the frame rate, the smoother the motion of the moving image.

発光パターンは、図4の例で示す通り矩形からなる波で表すことができるので、発光パターンの形状を周波数で表現することが可能である。そして、周波数を高くすれば分解能も高まることから、画像データの撮影時刻や遅延時間の精度を上げることができる。ただし、発光パターンを発光させる場合は、LED等の発光素子を比較的高速で点滅させることができるが、発光パターンを受信する側であるカメラ300では、カメラ300のフレームレートを超える発光パターンは検出することができない。すなわち、本発明において、発光パターンの周波数の理論的な限界は、カメラ300のフレームレートにあるといえる。 Since the light emission pattern can be represented by a wave having a rectangle as shown in the example of FIG. 4, the shape of the light emission pattern can be represented by a frequency. Then, as the frequency is increased, the resolution is also increased, so that the accuracy of the shooting time and the delay time of the image data can be improved. However, when the light emitting pattern is made to emit light, a light emitting element such as an LED can be blinked at a relatively high speed, but the camera 300 on the side receiving the light emitting pattern detects a light emitting pattern exceeding the frame rate of the camera 300. Can not do it. That is, in the present invention, it can be said that the theoretical limit of the frequency of the light emission pattern lies in the frame rate of the camera 300.

ここで、フレームレートが可変であるカメラ300を用いる場合を考える。カメラ300が通信ネットワーク30に接続されたカメラである場合、通信ネットワーク30の混雑に応じてフレームレートが変更される。例えば、ネットワーク30が混雑してきた場合、フレームレートを下げることにより、送信する画像データのサイズを小さくする。これに対応して、本実施形態では、フレームレートに応じて、生成する発光パターンの周波数を変更するようにしている。 Here, consider the case of using the camera 300 having a variable frame rate. When the camera 300 is a camera connected to the communication network 30, the frame rate is changed according to the congestion of the communication network 30. For example, when the network 30 becomes congested, the size of the image data to be transmitted is reduced by lowering the frame rate. Correspondingly, in this embodiment, the frequency of the light emission pattern to be generated is changed according to the frame rate.

2.画像解析装置100の構成
本実施形態の画像解析装置100の構成は、図3に示す実施形態1の画像解析装置100と同様であるので、図3を援用する。以下、図3を援用し、実施形態1とは異なる機能を有する部分のみ、説明する。
2. Configuration of Image Analysis Device 100 The configuration of the image analysis device 100 of the present embodiment is the same as that of the image analysis device 100 of the first embodiment shown in FIG. 3, so FIG. 3 is incorporated. Hereinafter, only the portion having a function different from that of the first embodiment will be described with reference to FIG.

取得部106(「取得部」に相当)は、画像データに加えて、さらに、カメラ300から画像データのフレームレートを示す情報を取得する。 The acquisition unit 106 (corresponding to the “acquisition unit”) further acquires information indicating the frame rate of the image data from the camera 300 in addition to the image data.

パターン生成部104(「パターン生成部」に相当)は、画像データのフレームレート以下の周波数を有する発光パターンを生成する。例えば、フレームレートが30FPSである場合は、30Hz以下の周波数を有する発光パターン、例えば周波数が10Hzの発光パターンを生成する。 The pattern generation unit 104 (corresponding to the “pattern generation unit”) generates an emission pattern having a frequency equal to or lower than the frame rate of the image data. For example, when the frame rate is 30 FPS, an emission pattern having a frequency of 30 Hz or less, for example, an emission pattern having a frequency of 10 Hz is generated.

また、パターン生成部104は、発光パターンを含む画像データを撮影している間にフレームレートが変更される場合には、変更されたフレームレート以下の周波数を有する前記発光パターンに変更してもよい。 Further, when the frame rate is changed while the image data including the light emission pattern is being captured, the pattern generation unit 104 may change to the light emission pattern having a frequency equal to or lower than the changed frame rate. ..

例えば、車両200が撮影対象エリアに到達してから30秒間はカメラ300のフレームレートは25FPSでその後は15FPSとなる場合を考える。この場合、パターン生成部104は、最初の30秒間は25Hz以下の周波数を有する発光パターンを生成する。そして、その後は15Hz以下の周波数を有する発光パターンを生成する。 For example, consider a case where the frame rate of the camera 300 is 25 FPS for 30 seconds after the vehicle 200 reaches the shooting target area, and then 15 FPS. In this case, the pattern generation unit 104 generates an emission pattern having a frequency of 25 Hz or less for the first 30 seconds. Then, after that, an emission pattern having a frequency of 15 Hz or less is generated.

3.画像解析装置100の動作
次に、図10を用いて、本実施形態の画像解析装置100の動作を説明する。
3. 3. Operation of Image Analysis Device 100 Next, the operation of the image analysis device 100 of the present embodiment will be described with reference to FIG.

本実施形態の画像解析装置100の動作は、図8の実施形態1の画像解析装置100の動作に対し、画像データのフレームレートを取得するステップS201が追加されている。そして、フレームレートを考慮して発光パターンを生成するようステップS102の機能を変更している。その他のステップは、図8と同様であるので、図8と異なるステップのみ説明する。 As for the operation of the image analysis device 100 of the present embodiment, step S201 for acquiring the frame rate of the image data is added to the operation of the image analysis device 100 of the first embodiment of FIG. Then, the function of step S102 is changed so as to generate a light emission pattern in consideration of the frame rate. Since the other steps are the same as those in FIG. 8, only the steps different from those in FIG. 8 will be described.

ステップS101の後、ステップS210において、取得部106は、カメラ300から画像データのフレームレートを取得する。
ステップS102において、パターン生成部104は、画像データのフレームレート以下の周波数を有する発光パターンを生成する。
After step S101, in step S210, the acquisition unit 106 acquires the frame rate of the image data from the camera 300.
In step S102, the pattern generation unit 104 generates an emission pattern having a frequency equal to or lower than the frame rate of the image data.

4.小括
以上、実施形態2によれば、フレームレートが可変の場合においても、それぞれのフレームレートに追随して可能な限り周波数が近い発光パターンを生成することができる。その結果、画像データの撮影時刻や遅延時間の精度を上げることができる。
4. Summary As described above, according to the second embodiment, even when the frame rate is variable, it is possible to generate an emission pattern having a frequency as close as possible to each frame rate. As a result, the accuracy of the shooting time and the delay time of the image data can be improved.

(実施形態3)
実施形態3は、2以上の発光パターンを合成した発光パターンを用いるものである。
(Embodiment 3)
In the third embodiment, a light emission pattern obtained by synthesizing two or more light emission patterns is used.

1.発光パターンの波形
図11は、周波数の低い発光パターンと周波数の高い発光パターンを合成して、合成発光パターンを生成する場合を示すものである。以降、合成後の合成発光パターンに含まれる発光パターンのうち、周波数の低い発光パターンを低周波成分発光パターン、周波数の高い発光パターンを高周波成分発光パターンと呼ぶ。
1. 1. Waveform of light emission pattern FIG. 11 shows a case where a light emission pattern having a low frequency and a light emission pattern having a high frequency are combined to generate a combined light emission pattern. Hereinafter, among the emission patterns included in the composite emission pattern after synthesis, the emission pattern having a low frequency is referred to as a low frequency component emission pattern, and the emission pattern having a high frequency is referred to as a high frequency component emission pattern.

低周波成分発光パターン(「第1の発光パターン」に相当)と高周波成分発光パターン(「第2の発光パターン」に相当)を合成すると、両者の特徴を有する合成発光パターンを得ることができる。例えば、低周波成分発光パターンを5FPS、高周波成分発光パターンを30FPSとする。この合成発光パターンに基づき、車両200の光源206を発光させる。合成発光パターンの縦軸は光の強度を示していることから、合成発光パターンは光の強弱を伴った発光パターンとして発光される。 By synthesizing the low-frequency component emission pattern (corresponding to the "first emission pattern") and the high-frequency component emission pattern (corresponding to the "second emission pattern"), a combined emission pattern having the characteristics of both can be obtained. For example, the low frequency component emission pattern is 5 FPS, and the high frequency component emission pattern is 30 FPS. Based on this synthetic light emission pattern, the light source 206 of the vehicle 200 is made to emit light. Since the vertical axis of the synthetic light emission pattern indicates the intensity of light, the synthetic light emission pattern is emitted as a light emission pattern accompanied by the intensity of light.

カメラ300は、合成発光パターンを含む画像データを撮影し、画像解析装置100に送信する。ここで、カメラ300の撮影環境に応じて、パターン検出部107で検出できる合成発光パターンの波形は異なる。撮影環境が良好な場合(S/N比が高い場合)、例えば晴天時や大気が澄んでいる場合、図11(A)のように高周波成分発光パターンの特徴が十分残存しており、高周波成分発光パターンを分離、検出することができる。しかし、撮影環境が悪い場合(S/N比が低い場合)、例えば曇天や雨天時、大気が汚染されている場合、図11(B)のように高周波成分発光パターンの特徴が十分残存しておらず低周波成分発光パターンのみが検出できる。つまり、撮影環境が良好な場合は、高周波成分発光パターンの周波数レベルの精度で遅延時間を特定することができる。また、撮影環境が悪い場合では、高周波成分発光パターンの周波数レベルの精度は困難であるが、低周波成分発光パターンの周波数レベルの精度で遅延時間を特定することができる。 The camera 300 captures image data including the composite light emission pattern and transmits it to the image analysis device 100. Here, the waveform of the synthetic light emission pattern that can be detected by the pattern detection unit 107 differs depending on the shooting environment of the camera 300. When the shooting environment is good (when the S / N ratio is high), for example, when the weather is fine or the atmosphere is clear, the characteristics of the high-frequency component emission pattern remain sufficiently as shown in FIG. 11 (A), and the high-frequency component The emission pattern can be separated and detected. However, when the shooting environment is bad (when the S / N ratio is low), for example, when it is cloudy or rainy, or when the atmosphere is polluted, the characteristics of the high-frequency component emission pattern remain sufficiently as shown in FIG. 11B. Only the low frequency component emission pattern can be detected. That is, when the shooting environment is good, the delay time can be specified with the accuracy of the frequency level of the high frequency component emission pattern. Further, when the shooting environment is bad, the accuracy of the frequency level of the high frequency component emission pattern is difficult, but the delay time can be specified by the accuracy of the frequency level of the low frequency component emission pattern.

図12は、点灯及び消灯を組み合わせた発光パターンである点滅パターンと、光の強弱を示す調光パターンとを合成して合成発光パターンを生成する場合を示すものである。点滅パターンは矩形波であるからデジタル信号であるともいえる。また、調光パターンは連続的に光の強度が変化するものであるからアナログ信号であるともいえる。すなわち、図12の例は、デジタル波からなる発光パターンとアナログ波からなる発光パターンとを合成する例といえる。また、別の観点で見れば、アナログ波は量子化が細かいともいえるので、図12の例でいえば、点滅パターンは低周波成分発光パターン、調光パターンは高周波成分発光パターンと解することもできる。 FIG. 12 shows a case where a blinking pattern, which is a light emitting pattern combining lighting and extinguishing, and a dimming pattern indicating the intensity of light are combined to generate a synthetic light emitting pattern. Since the blinking pattern is a square wave, it can be said to be a digital signal. Further, the dimming pattern can be said to be an analog signal because the light intensity changes continuously. That is, the example of FIG. 12 can be said to be an example of synthesizing an emission pattern composed of digital waves and an emission pattern composed of analog waves. From another point of view, it can be said that analog waves have fine quantization. Therefore, in the example of FIG. 12, the blinking pattern may be interpreted as a low-frequency component emission pattern, and the dimming pattern may be interpreted as a high-frequency component emission pattern. it can.

このような合成発光パターンにおいて、撮影環境が良好な場合(S/N比が高い場合)、図12(A)のように調光パターンの特徴が十分残存しており、調光パターンを分離、検出することができる。これに対して、撮影環境が悪い場合(S/N比が低い場合)、図12(B)のように調光パターンの特徴が十分残存しておらず点滅パターンのみが検出できる。 In such a synthetic light emission pattern, when the shooting environment is good (when the S / N ratio is high), the characteristics of the dimming pattern remain sufficiently as shown in FIG. 12A, and the dimming pattern is separated. Can be detected. On the other hand, when the shooting environment is bad (when the S / N ratio is low), the characteristics of the dimming pattern do not sufficiently remain as shown in FIG. 12B, and only the blinking pattern can be detected.

2.画像解析装置100の構成
本実施形態の画像解析装置100の構成は、図3に示す実施形態1の画像解析装置100と同様であるので、図3を援用する。図3との相違は、パターン生成部104が、複数の発光パターンを合成して合成発光パターンを生成することができる点のみが異なる。
2. Configuration of Image Analysis Device 100 The configuration of the image analysis device 100 of the present embodiment is the same as that of the image analysis device 100 of the first embodiment shown in FIG. 3, so FIG. 3 is incorporated. The difference from FIG. 3 is that the pattern generation unit 104 can synthesize a plurality of light emission patterns to generate a synthetic light emission pattern.

3.小括
以上、実施形態3によれば、撮影環境が良好な場合は遅延時間の検出精度を上げることができ、撮影環境が悪い場合でも最低限の遅延時間の検出を可能にすることができる。
3. 3. Summary As described above, according to the third embodiment, it is possible to improve the detection accuracy of the delay time when the shooting environment is good, and to detect the minimum delay time even when the shooting environment is bad.

(実施形態4)
実施形態4は、車両200とカメラ300との距離に応じて発光パターンの発光強度を変えるものである。
(Embodiment 4)
In the fourth embodiment, the emission intensity of the emission pattern is changed according to the distance between the vehicle 200 and the camera 300.

1.発光パターンの発光強度
車両200とカメラ300との距離が遠い場合、画像データに含まれる発光パターンが明確に検出できないことが考えられる。そこで、車両200とカメラ300との距離に応じて発光パターンの発光強度を変える。
1. 1. Light emission intensity of light emission pattern When the distance between the vehicle 200 and the camera 300 is long, it is considered that the light emission pattern included in the image data cannot be clearly detected. Therefore, the emission intensity of the emission pattern is changed according to the distance between the vehicle 200 and the camera 300.

2.画像解析装置100の構成
次に、図13を用いて、本実施形態の画像解析装置100の構成を説明する。
2. Configuration of Image Analysis Device 100 Next, the configuration of the image analysis device 100 of the present embodiment will be described with reference to FIG.

本実施形態の画像解析装置100の構成は、図3に示す実施形態1の画像解析装置100に発光強度決定部110を追加したものである。 The configuration of the image analysis device 100 of the present embodiment is that the light emission intensity determining unit 110 is added to the image analysis device 100 of the first embodiment shown in FIG.

発光強度決定部110(「発光強度決定部」に相当)は、通信部101で取得した車両200の位置情報とカメラ300の位置から演算される車両200とカメラ300との距離に基づき、発光パターンの発光強度を決定する。
発光パターンの発光強度を変えるためには、車両200に搭載された光源206からの光の光度、輝度、光束、照度又は放射強度を変化させる必要がある。そこで、発光強度決定部110は、発光強度を示す光源からの光の光度、輝度、光束、照度又は放射強度のいずれかを決定する。
The light emission intensity determination unit 110 (corresponding to the “light emission intensity determination unit”) has a light emission pattern based on the position information of the vehicle 200 acquired by the communication unit 101 and the distance between the vehicle 200 and the camera 300 calculated from the position of the camera 300. Determines the emission intensity of.
In order to change the emission intensity of the emission pattern, it is necessary to change the luminous intensity, brightness, luminous flux, illuminance or radiant intensity of the light from the light source 206 mounted on the vehicle 200. Therefore, the emission intensity determination unit 110 determines any one of the luminous intensity, the brightness, the luminous flux, the illuminance, and the radiation intensity of the light from the light source indicating the emission intensity.

通信部101(「送信部」に相当)は、発光指令、発光時刻、及び発光パターンに加えて、発光強度決定部110で決定した発光強度を電子制御装置201に送信する。 The communication unit 101 (corresponding to the “transmission unit”) transmits the light emission intensity determined by the light emission intensity determination unit 110 to the electronic control device 201 in addition to the light emission command, the light emission time, and the light emission pattern.

3.画像解析装置100の動作
次に、図14を用いて、本実施形態の画像解析装置100の動作を説明する。
3. 3. Operation of Image Analysis Device 100 Next, the operation of the image analysis device 100 of the present embodiment will be described with reference to FIG.

本実施形態の画像解析装置100の動作は、図8の実施形態1の画像解析装置100の動作に対し、発光強度を決定するステップS401を追加し、発光強度を車両200に送信するようステップS104を変更したものである。その他のステップは、図8と同様であるので、図8と異なるステップのみ説明する。 The operation of the image analysis device 100 of the present embodiment adds step S401 for determining the light emission intensity to the operation of the image analysis device 100 of the first embodiment of FIG. 8, and steps S104 for transmitting the light emission intensity to the vehicle 200. Is a modification of. Since the other steps are the same as those in FIG. 8, only the steps different from those in FIG. 8 will be described.

ステップS103の後、ステップS401において、発光強度決定部110は、カメラ300の位置と車両200の位置情報に基づいて、発光パターンの発光強度を決定する。
ステップS104において、通信部101は、発光指令、発光時刻、及び発光パターンに加えて、発光強度を電子制御装置201に送信する。
After step S103, in step S401, the light emission intensity determination unit 110 determines the light emission intensity of the light emission pattern based on the position of the camera 300 and the position information of the vehicle 200.
In step S104, the communication unit 101 transmits the light emission intensity to the electronic control device 201 in addition to the light emission command, the light emission time, and the light emission pattern.

4.小括
以上、実施形態4によれば、車両200とカメラ300との距離が遠い場合であっても、画像データから発光パターンを検出することができる。
4. Summary As described above, according to the fourth embodiment, the light emission pattern can be detected from the image data even when the distance between the vehicle 200 and the camera 300 is long.

(実施形態5)
実施形態5では、車両200に搭載された電子制御装置201の構成及び動作について説明する。
(Embodiment 5)
In the fifth embodiment, the configuration and operation of the electronic control device 201 mounted on the vehicle 200 will be described.

1.電子制御装置201の構成
まず、図15を用いて、本実施形態の電子制御装置201の構成を説明する。
1. 1. Configuration of Electronic Control Device 201 First, the configuration of the electronic control device 201 of the present embodiment will be described with reference to FIG.

電子制御装置201及び光源206は車両200に搭載されている。 The electronic control device 201 and the light source 206 are mounted on the vehicle 200.

電子制御装置201は、GPS202、CPU203、通信部204、及びメモリ205を有する。 The electronic control device 201 includes a GPS 202, a CPU 203, a communication unit 204, and a memory 205.

GPS202は、GPS衛星から信号を受け取り、車両200の現在の位置情報を検知する。例えば、GPS202は、車両200の走行中一定間隔で経度緯度情報をそれぞれ位置情報として検出する。GPS202は、GPSの他、ディファレンシャルGPSや慣性航行システム(INS)であってもよい。 The GPS 202 receives a signal from a GPS satellite and detects the current position information of the vehicle 200. For example, the GPS 202 detects longitude and latitude information as position information at regular intervals while the vehicle 200 is traveling. In addition to GPS, GPS202 may be a differential GPS or an inertial navigation system (INS).

CPU203は、GPS202、通信部204、メモリ205、及び光源206と接続され、これらを制御するとともに各種演算を行う。また、CPU202は、発光指示部207を実現する。
発光指示部207は、通信部204により受信した発光指令、発光時刻、発光パターン、及び発光強度に基づき、光源206に発光を指示する。
The CPU 203 is connected to the GPS 202, the communication unit 204, the memory 205, and the light source 206, controls these, and performs various calculations. Further, the CPU 202 realizes the light emitting instruction unit 207.
The light emission instruction unit 207 instructs the light source 206 to emit light based on the light emission command, the light emission time, the light emission pattern, and the light emission intensity received by the communication unit 204.

通信部204(「受信部」に相当)は、画像解析装置100(「画像解析装置」に相当)から発光パターンの発光指令及び発光パターンを発光させる発光時刻を受信する。 The communication unit 204 (corresponding to the “reception unit”) receives a light emission command of the light emission pattern and a light emission time for causing the light emission pattern to be emitted from the image analysis device 100 (corresponding to the “image analysis device”).

また、通信部204は、画像解析装置100に対し、GPS202が取得した位置情報を送信する。これに加えて、他の図示しない各種センサが取得した走行計画情報及び速度情報を送信してもよい。
なお、位置情報、走行計画情報、及び速度情報の送信は、一定の時間間隔で送信しても、車両200に挙動が発生するごとに送信してもよい。
Further, the communication unit 204 transmits the position information acquired by the GPS 202 to the image analysis device 100. In addition to this, travel plan information and speed information acquired by various other sensors (not shown) may be transmitted.
The position information, the travel plan information, and the speed information may be transmitted at regular time intervals or every time the vehicle 200 behaves.

なお、実施形態1の変形例1のように、電子制御装置201が、パターン生成部を有し、発光パターンを画像解析装置100に送信して、車両200と画像解析装置100とが発光パターンを共有するようにしてもよい。また、発光指令の都度発光パターンを生成することに代えて、予め保持していた複数の発光パターンの中から特定の発光パターンを選択してもよい。 As in the first modification of the first embodiment, the electronic control device 201 has a pattern generation unit, transmits a light emission pattern to the image analysis device 100, and the vehicle 200 and the image analysis device 100 generate a light emission pattern. You may want to share it. Further, instead of generating a light emission pattern each time a light emission command is issued, a specific light emission pattern may be selected from a plurality of light emission patterns held in advance.

メモリ205は、画像解析装置100から受信した発光パターン、発光時刻及び発光強度等を保存する。メモリ205は、HDDやフラッシュメモリ等の不揮発性記憶装置(図示せず)で構成される他、RAM等の揮発性記憶装置で構成してもよい。 The memory 205 stores the light emission pattern, the light emission time, the light emission intensity, and the like received from the image analysis device 100. The memory 205 may be composed of a non-volatile storage device (not shown) such as an HDD or a flash memory, or may be composed of a volatile storage device such as a RAM.

光源206は、発光指示部207の指示に基づき、発光時刻に発光パターンを用いて発光する。光源206としては、LEDの他、白熱電球、ハロゲン電球、蛍光灯、ストロボライト、レーザ、メーザ等が利用できる。発光する光は、可視光の他、赤外光や紫外光であってもよいが、その場合、カメラ300が赤外光や紫外光を撮影できる撮像素子を有していることが必要となる。 The light source 206 emits light by using a light emission pattern at the light emission time based on the instruction of the light emission instruction unit 207. As the light source 206, incandescent lamps, halogen bulbs, fluorescent lamps, strobe lights, lasers, measurers and the like can be used in addition to LEDs. The light emitted may be infrared light or ultraviolet light in addition to visible light, but in that case, it is necessary that the camera 300 has an imaging element capable of photographing infrared light or ultraviolet light. ..

2.電子制御装置201の動作
次に、図18を用いて、電子制御装置201の動作を説明する。
2. Operation of Electronic Control Device 201 Next, the operation of the electronic control device 201 will be described with reference to FIG.

ステップS501において、通信部204は、GPS202により取得した車両200の位置情報をCPU203の指示に基づき画像解析装置100に送信する。
ステップS502において、通信部204は、画像解析装置100から、発光指令、発光時刻、及び発光パターンを受信する。
ステップS503において、発光指示部207は、車両200に搭載された光源206に、発光時刻に発光パターンを用いて発光することを指示する。
In step S501, the communication unit 204 transmits the position information of the vehicle 200 acquired by GPS 202 to the image analysis device 100 based on the instruction of the CPU 203.
In step S502, the communication unit 204 receives the light emission command, the light emission time, and the light emission pattern from the image analysis device 100.
In step S503, the light emitting instruction unit 207 instructs the light source 206 mounted on the vehicle 200 to emit light at the light emitting time using the light emitting pattern.

3.小括
以上、実施形態5によれば、光源206で発光パターンを発光することにより、画像解析装置100側で発光パターンを利用して、画像データの撮影時刻及び遅延時間を特定することができる。
3. 3. Summary As described above, according to the fifth embodiment, by emitting light from the light source 206, the image analysis apparatus 100 can use the light emission pattern to specify the shooting time and the delay time of the image data.

(総括)
以上、本発明の各実施形態における画像解析装置、電子制御装置、及びこれらで実行される画像解析方法の特徴について説明した。
(Summary)
The features of the image analysis device, the electronic control device, and the image analysis method executed by these in each embodiment of the present invention have been described above.

各実施形態で使用した用語は例示であるので、同義の用語、あるいは同義の機能を含む用語に置き換えてもよい。 Since the terms used in each embodiment are examples, they may be replaced with synonymous terms or terms including synonymous functions.

実施形態の説明に用いたブロック図は、画像解析装置及び移動体等の構成を機能毎に分類及び整理したものである。これらの機能ブロックは、ハードウェア又はソフトウェアの任意の組み合わせで実現される。また、機能を示したものであることから、かかるブロック図は方法の発明の開示としても把握できるものである。 The block diagram used in the description of the embodiment is a classification and arrangement of the configurations of the image analysis device, the moving body, and the like for each function. These functional blocks are realized by any combination of hardware or software. Further, since the block diagram shows the function, the block diagram can be grasped as the disclosure of the invention of the method.

各実施形態に記載した処理、フロー、及び方法として把握できる機能ブロック、については、一のステップで他のステップの結果を利用する関係にある等の制約がない限り、順序を入れ替えてもよい。 The order of the processes, flows, and functional blocks that can be grasped as a method described in each embodiment may be changed as long as there are no restrictions such as using the results of other steps in one step.

各実施形態及び本発明で使用する「第1」「第2」の用語は、同種の2以上の構成や方法を区別するために使用しており、順序や優劣を限定するものではない。 The terms "first" and "second" used in each embodiment and the present invention are used to distinguish two or more configurations and methods of the same type, and do not limit the order or superiority or inferiority.

加えて、本発明は、各実施形態で説明した構成及び機能を有する専用のハードウェアで実現できるだけでなく、メモリやハードディスク等の記録媒体に記録した本発明を実現するためのプログラム及びこれを実行可能な専用又は汎用CPU及びメモリ等を有する汎用のハードウェアとの組み合わせとしても実現できる。 In addition, the present invention can be realized not only by the dedicated hardware having the configuration and the function described in each embodiment, but also a program for realizing the present invention recorded on a recording medium such as a memory or a hard disk, and an execution thereof. It can also be realized as a combination with a general-purpose hardware having a possible dedicated or general-purpose CPU and memory.

専用や汎用のハードウェアの記録媒体(外部記憶装置(ハードディスク、USBメモリ、CD/BD等)、内部記憶装置(RAM、ROM等))に格納されるプログラムは、記録媒体を介して、あるいは記録媒体を介さずにサーバから通信回線を経由して、専用又は汎用のハードウェアに提供することもできる。これにより、プログラムのアップグレードを通じて常に最新の機能を提供することができる。 Programs stored in dedicated or general-purpose hardware recording media (external storage devices (hard disks, USB memory, CD / BD, etc.), internal storage devices (RAM, ROM, etc.)) can be recorded via the recording medium. It can also be provided to dedicated or general-purpose hardware from the server via a communication line without using a medium. This ensures that you always have the latest features through program upgrades.

本発明の移動体は、主として車両として説明したが、自動二輪車、電動機付自転車、鉄道はもちろん、船舶、航空機等、移動する移動体全般に適用することが可能である。 Although the moving body of the present invention has been described mainly as a vehicle, it can be applied to all moving moving bodies such as motorcycles, bicycles with electric motors, railways, ships, and aircraft.

100 画像解析装置、101 通信部、104 パターン生成部、106 取得部、107 パターン検出部、108 撮影時刻特定部、110 発光強度決定部、200 車両、201 電子制御装置、204 通信部、206 光源、207 発光指示部 100 image analysis device, 101 communication unit, 104 pattern generation unit, 106 acquisition unit, 107 pattern detection unit, 108 shooting time identification unit, 110 emission intensity determination unit, 200 vehicles, 201 electronic control device, 204 communication unit, 206 light source, 207 Light emission indicator

Claims (14)

発光パターンの発光指令と前記発光パターンの発光時刻とを移動体(200)に搭載された電子制御装置(201)に送信する送信部(101)と、
前記発光パターンを含む前記移動体の画像データを、前記移動体を撮影した撮影装置から取得する取得部(106)と、
前記発光パターンを前記画像データから検出するパターン検出部(107)と、
前記発光時刻を前記画像データが撮影された時刻とする撮影時刻特定部(108)と、
を有する、
画像解析装置(100)。
A transmission unit (101) that transmits the light emission command of the light emission pattern and the light emission time of the light emission pattern to the electronic control device (201) mounted on the moving body (200).
An acquisition unit (106) that acquires image data of the moving body including the light emitting pattern from an imaging device that has taken an image of the moving body.
A pattern detection unit (107) that detects the light emission pattern from the image data,
A shooting time specifying unit (108) having the light emission time as the time when the image data was shot,
Have,
Image analyzer (100).
前記画像解析装置は、さらに、前記発光パターンを生成するパターン生成部(104)を有し、
前記送信部は、さらに、生成した前記発光パターンを前記電子制御装置に送信し、
前記撮影時刻特定部は、送信した前記発光パターンと検出した前記発光パターンとに基づき、前記発光時刻を前記画像データが撮影された時刻とする、
請求項1に記載の画像解析装置。
The image analysis device further includes a pattern generation unit (104) that generates the light emission pattern.
The transmission unit further transmits the generated light emission pattern to the electronic control device.
The shooting time specifying unit sets the light emission time as the time when the image data is shot, based on the transmitted light emission pattern and the detected light emission pattern.
The image analysis apparatus according to claim 1.
前記画像解析装置は、さらに、前記電子制御装置で生成された前記発光パターンを受信する受信部(101)を有し、
前記撮影時刻特定部は、受信した前記発光パターンと検出した前記発光パターンとに基づき、前記発光時刻を前記画像データが撮影された時刻とする、
請求項1に記載の画像解析装置。
The image analysis device further includes a receiving unit (101) that receives the light emission pattern generated by the electronic control device.
The shooting time specifying unit sets the light emission time as the time when the image data is shot, based on the received light emission pattern and the detected light emission pattern.
The image analysis apparatus according to claim 1.
前記撮影時刻特定部は、前記画像データが撮影された時刻から前記画像データを取得した時刻までの時間である遅延時間を特定する、
請求項1に記載の画像解析装置。
The shooting time specifying unit specifies a delay time, which is the time from the time when the image data is shot to the time when the image data is acquired.
The image analysis apparatus according to claim 1.
前記取得部は、さらに、前記画像データのフレームレートを示す情報を前記撮影装置から取得し、
前記パターン生成部は、前記フレームレートが示す周波数以下の周波数を有する前記発光パターンを生成する、
請求項2に記載の画像解析装置。
The acquisition unit further acquires information indicating the frame rate of the image data from the photographing apparatus.
The pattern generation unit generates the light emission pattern having a frequency equal to or lower than the frequency indicated by the frame rate.
The image analysis apparatus according to claim 2.
前記パターン生成部は、低周波成分からなる第1の発光パターンと高周波成分からなる第2の発光パターンとを合成して前記発光パターンを生成する、
請求項2に記載の画像解析装置。
The pattern generation unit generates the light emission pattern by synthesizing a first light emission pattern composed of a low frequency component and a second light emission pattern composed of a high frequency component.
The image analysis apparatus according to claim 2.
前記パターン生成部は、点灯及び消灯を組み合わせた点滅パターンと光の強弱を示す調光パターンとを合成して前記発光パターンを生成する、
請求項2に記載の画像解析装置。
The pattern generation unit generates the light emission pattern by synthesizing a blinking pattern that combines lighting and extinguishing and a dimming pattern that indicates the intensity of light.
The image analysis apparatus according to claim 2.
前記画像解析装置は、さらに、位置情報を前記電子制御装置から受信する受信部(101)と、
前記移動体を撮影した前記撮影装置の位置と前記位置情報とに基づき、前記発光パターンの発光強度を決定する発光強度決定部(110)と、を有し、
前記送信部は、前記発光強度決定部で決定した前記発光強度を前記電子制御装置に送信する、
請求項1に記載の画像解析装置。
The image analysis device further includes a receiving unit (101) that receives position information from the electronic control device.
It has a light emitting intensity determining unit (110) that determines the light emitting intensity of the light emitting pattern based on the position of the photographing device that photographed the moving body and the position information.
The transmitting unit transmits the light emitting intensity determined by the light emitting intensity determining unit to the electronic control device.
The image analysis apparatus according to claim 1.
移動体(200)に搭載された電子制御装置(201)と、前記電子制御装置と通信する画像解析装置(100)とを備える画像解析システムであって、
前記電子制御装置は、
発光パターンの発光指令と前記発光パターンの発光時刻とを前記画像解析装置から受信する受信部(204)と、
前記発光時刻に前記発光パターンを用いて発光することを前記移動体に搭載された光源(206)に指示する発光指示部(207)と、
を有し、
前記画像解析装置は、
前記発光指令と前記発光時刻とを前記電子制御装置に送信する送信部(101)と、
前記発光パターンを含む前記移動体の画像データを、前記移動体を撮影した撮影装置から取得する取得部(106)と、
前記発光パターンを前記画像データから検出するパターン検出部(107)と、
前記発光時刻を前記画像データが撮影された時刻とする撮影時刻特定部(108)と、
を有する、
画像解析システム。
An image analysis system including an electronic control device (201) mounted on a moving body (200) and an image analysis device (100) that communicates with the electronic control device.
The electronic control device is
A receiver (204) that receives the light emission command of the light emission pattern and the light emission time of the light emission pattern from the image analyzer, and
A light emitting instruction unit (207) that instructs a light source (206) mounted on the moving body to emit light using the light emitting pattern at the light emitting time.
Have,
The image analysis device is
A transmission unit (101) that transmits the light emission command and the light emission time to the electronic control device, and
An acquisition unit (106) that acquires image data of the moving body including the light emitting pattern from an imaging device that has taken an image of the moving body.
A pattern detection unit (107) that detects the light emission pattern from the image data,
A shooting time specifying unit (108) having the light emission time as the time when the image data was shot,
Have,
Image analysis system.
移動体(200)に搭載された電子制御装置(201)であって、
発光パターンの発光指令と前記発光パターンの発光時刻とを画像解析装置から受信する受信部(204)と、
前記発光時刻に前記発光パターンを用いて発光することを前記移動体に搭載された光源(206)に指示する発光指示部(207)と、
を有する、
電子制御装置。
An electronic control device (201) mounted on a mobile body (200).
A receiver (204) that receives the light emission command of the light emission pattern and the light emission time of the light emission pattern from the image analysis device, and
A light emitting instruction unit (207) that instructs a light source (206) mounted on the moving body to emit light using the light emitting pattern at the light emitting time.
Have,
Electronic control device.
移動体(200)に搭載された電子制御装置(201)と通信する画像解析装置(100)で実行される画像解析方法であって、
発光パターンの発光指令と前記発光パターンの発光時刻とを前記電子制御装置に送信し(S104)、
前記発光パターンを含む前記移動体の画像データを、前記移動体を撮影した撮影装置から取得し(S105)、
前記発光パターンを前記画像データから検出し(S106)、
前記発光時刻を前記画像データが撮影された時刻とする(S107)、
画像解析方法。
An image analysis method executed by an image analysis device (100) that communicates with an electronic control device (201) mounted on a mobile body (200).
The light emission command of the light emission pattern and the light emission time of the light emission pattern are transmitted to the electronic control device (S104).
The image data of the moving body including the light emission pattern is acquired from the photographing device in which the moving body is photographed (S105).
The emission pattern is detected from the image data (S106),
Let the light emission time be the time when the image data was taken (S107).
Image analysis method.
移動体(200)に搭載された電子制御装置(201)と、前記電子制御装置と通信する画像解析装置(100)とを備える画像解析システムで実行される画像解析方法であって、
前記画像解析装置は、
発光パターンの発光指令と前記発光パターンの発光時刻とを前記電子制御装置に送信し(S104)、
前記電子制御装置は、
前記発光指令と前記発光時刻とを前記画像解析装置から受信し(S502)、
前記発光時刻に前記発光パターンを用いて発光することを前記移動体に搭載された光源(206)に指示し(S503)、
前記画像解析装置は、
前記発光パターンを含む前記移動体の画像データを、前記移動体を撮影した撮影装置から取得し(S105)、
前記発光パターンを前記画像データから検出し(S106)、
前記発光時刻を前記画像データが撮影された時刻とする(S107)、
画像解析方法。
An image analysis method executed by an image analysis system including an electronic control device (201) mounted on a moving body (200) and an image analysis device (100) that communicates with the electronic control device.
The image analysis device is
The light emission command of the light emission pattern and the light emission time of the light emission pattern are transmitted to the electronic control device (S104).
The electronic control device is
The light emission command and the light emission time are received from the image analyzer (S502),
The light source (206) mounted on the moving body was instructed to emit light using the light emission pattern at the light emission time (S503).
The image analysis device is
The image data of the moving body including the light emission pattern is acquired from the photographing device in which the moving body is photographed (S105).
The emission pattern is detected from the image data (S106),
Let the light emission time be the time when the image data was taken (S107).
Image analysis method.
移動体(200)に搭載された電子制御装置(201)と通信する画像解析装置(100)で実行される画像解析プログラムであって、
発光パターンの発光指令と前記発光パターンの発光時刻とを前記電子制御装置に送信し(S104)、
前記発光パターンを含む前記移動体の画像データを、前記移動体を撮影した撮影装置から取得し(S105)、
前記発光パターンを前記画像データから検出し(S106)、
前記発光時刻を前記画像データが撮影された時刻とする(S107)、
画像解析プログラム。
An image analysis program executed by an image analysis device (100) that communicates with an electronic control device (201) mounted on a mobile body (200).
The light emission command of the light emission pattern and the light emission time of the light emission pattern are transmitted to the electronic control device (S104).
The image data of the moving body including the light emission pattern is acquired from the photographing device in which the moving body is photographed (S105).
The emission pattern is detected from the image data (S106),
Let the light emission time be the time when the image data was taken (S107).
Image analysis program.
移動体(200)に搭載された電子制御装置(201)で実行される発光パターン点灯プログラムであって、
発光パターンの発光指令と前記発光パターンの発光時刻とを画像解析装置から受信し(S502)、
前記発光時刻に前記発光パターンを用いて発光することを前記移動体に搭載された光源(206)に指示する(S503)、
発光パターン点灯プログラム。
A light emission pattern lighting program executed by an electronic control device (201) mounted on a moving body (200).
The light emission command of the light emission pattern and the light emission time of the light emission pattern are received from the image analyzer (S502).
The light source (206) mounted on the moving body is instructed to emit light using the light emission pattern at the light emission time (S503).
Light emission pattern lighting program.
JP2019087864A 2019-05-07 2019-05-07 Image analysis device, electronic control device, and image analysis method Active JP7263904B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019087864A JP7263904B2 (en) 2019-05-07 2019-05-07 Image analysis device, electronic control device, and image analysis method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019087864A JP7263904B2 (en) 2019-05-07 2019-05-07 Image analysis device, electronic control device, and image analysis method

Publications (2)

Publication Number Publication Date
JP2020184170A true JP2020184170A (en) 2020-11-12
JP7263904B2 JP7263904B2 (en) 2023-04-25

Family

ID=73045204

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019087864A Active JP7263904B2 (en) 2019-05-07 2019-05-07 Image analysis device, electronic control device, and image analysis method

Country Status (1)

Country Link
JP (1) JP7263904B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010044481A (en) * 2008-08-11 2010-02-25 Hitachi Ltd Control system
JP2018082313A (en) * 2016-11-16 2018-05-24 本田技研工業株式会社 Periphery monitoring device
WO2018211711A1 (en) * 2017-05-19 2018-11-22 特定非営利活動法人ニューロクリアティブ研究会 Behavior analysis device, behavior analysis program, behavior analysis system, marker control device, and marker control program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010044481A (en) * 2008-08-11 2010-02-25 Hitachi Ltd Control system
JP2018082313A (en) * 2016-11-16 2018-05-24 本田技研工業株式会社 Periphery monitoring device
WO2018211711A1 (en) * 2017-05-19 2018-11-22 特定非営利活動法人ニューロクリアティブ研究会 Behavior analysis device, behavior analysis program, behavior analysis system, marker control device, and marker control program

Also Published As

Publication number Publication date
JP7263904B2 (en) 2023-04-25

Similar Documents

Publication Publication Date Title
US11175406B2 (en) Range imaging system and solid-state imaging device
EP3527045B1 (en) Surveillance system and method of controlling a surveillance system
KR101950850B1 (en) The apparatus and method of indoor positioning with indoor posioning moudule
US8605154B2 (en) Vehicle headlight management
WO2013172398A1 (en) Device for detecting vehicle light and method therefor
JP2007286943A (en) Signal light detection apparatus
JP2008059846A (en) Lighting device, lighting system, and lighting control method
JP2022003335A (en) Deterioration diagnostic device, deterioration diagnostic system, deterioration diagnostic method, and program
KR101806324B1 (en) Multifunction security camera
JP2012054689A (en) Visible light data processing device, visible light communication system, visible light data processing method, and program thereof
JP7263904B2 (en) Image analysis device, electronic control device, and image analysis method
JP2017112433A (en) Image capturing device, image capturing method, and image capturing program
CN105230002A (en) Detect encoded light
CN112565618B (en) Exposure control device
DK3073807T3 (en) APPARATUS AND METHOD FOR CHECKING A LIGHTING SYSTEM
KR101943195B1 (en) Apparatus for method for controlling intelligent light
CN113997855A (en) Outdoor early warning method and device, electronic equipment and computer storage medium
CN115210786A (en) Selecting light sources for activation based on type and/or probability of human presence
KR20160121958A (en) Pan-tilt integrated surveillance camera system with a position tracking function of the object
CN111432517A (en) Visual light control system and method
JP6350352B2 (en) Imaging control apparatus, imaging control method, and imaging control program
KR20200057268A (en) Mobile car registration number recognition system
JP2021044667A (en) Exposure control apparatus
JP2004334665A (en) Violative vehicle photographing system
KR101758663B1 (en) Cctv controller, oprating method and computer program thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220801

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230314

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230327

R151 Written notification of patent or utility model registration

Ref document number: 7263904

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151