JP2020038629A - Intelligence path side unit and method for processing information thereof - Google Patents

Intelligence path side unit and method for processing information thereof Download PDF

Info

Publication number
JP2020038629A
JP2020038629A JP2019133674A JP2019133674A JP2020038629A JP 2020038629 A JP2020038629 A JP 2020038629A JP 2019133674 A JP2019133674 A JP 2019133674A JP 2019133674 A JP2019133674 A JP 2019133674A JP 2020038629 A JP2020038629 A JP 2020038629A
Authority
JP
Japan
Prior art keywords
image
highlight
camera
roadside unit
dark light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019133674A
Other languages
Japanese (ja)
Other versions
JP6818820B2 (en
Inventor
雷 房
Lei Fang
雷 房
海松 王
Kaimatsu O
海松 王
星 胡
Xing Hu
星 胡
▲聖▼ 陶
Sheng Tao
▲聖▼ 陶
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020038629A publication Critical patent/JP2020038629A/en
Application granted granted Critical
Publication of JP6818820B2 publication Critical patent/JP6818820B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0116Measuring and analyzing of parameters relative to traffic conditions based on the source of data from roadside infrastructure, e.g. beacons
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/017Detecting movement of traffic to be counted or controlled identifying vehicles
    • G08G1/0175Detecting movement of traffic to be counted or controlled identifying vehicles by photographing vehicles, e.g. when violating traffic rules
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/095Traffic lights
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096708Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control
    • G08G1/096725Systems involving transmission of highway information, e.g. weather, speed limits where the received information might be used to generate an automatic action on the vehicle control where the received information generates an automatic action on the vehicle control
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0967Systems involving transmission of highway information, e.g. weather, speed limits
    • G08G1/096766Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission
    • G08G1/096783Systems involving transmission of highway information, e.g. weather, speed limits where the system is characterised by the origin of the information transmission where the origin of the information is a roadside individual element
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/52Elements optimising image sensor operation, e.g. for electromagnetic interference [EMI] protection or temperature control by heat transfer or cooling elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/741Circuitry for compensating brightness variation in the scene by increasing the dynamic range of the image compared to the dynamic range of the electronic image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • G06V20/625License plates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

To solve the issue that the intelligence path side unit makes an inaccurate recognition.SOLUTION: The present invention provides an intelligence path side unit and a method for processing information thereof. The intelligence path side unit includes: a highlight camera for acquiring a highlight image; a dark light camera for acquiring a dark light image; and a controller for extracting vehicle information on the basis of the high light image and the dark light image. The high light camera and the dark light camera have the same imaging vision. The intelligence path side unit acquires a high light image and a dark light image of the same time and of the same imaging region by setting two cameras with different sensitivities and the same imaging vision and recognizes vehicles in the imaging region by combining two images of the high light image and the dark light image, and this can significantly increase the accuracy of recognition of a scene with a large variety of light intensities.SELECTED DRAWING: Figure 1

Description

本開示は、交通技術分野に関し、特に、インテリジェント路側ユニットおよびインテリジェント路側ユニットの情報処理方法に関する。   The present disclosure relates to the traffic technology field, and particularly to an intelligent roadside unit and an information processing method of the intelligent roadside unit.

インテリジェント路側ユニットは、自動運転の重要なサポートである。インテリジェント路側ユニットのインテリジェント需要が高まるにつれて、インテリジェント路側ユニットの感知能力に対する要求は、ますます高くなり、インテリジェント路側ユニットの自発的な感知能力を向上させるために様々なセンサ検知器をインテリジェント路側ユニットに追加する必要がある。
Intelligent roadside units are an important support for autonomous driving. As the intelligent demand for intelligent roadside units increases, the demands on the sensing capabilities of intelligent roadside units increase, and various sensor detectors are added to intelligent roadside units to improve the spontaneous sensing capabilities of intelligent roadside units. There is a need to.

しかしながら、各カメラの感度は、一定であるので、一部の特定のシーンに対する認識が不正確という問題が生じる。   However, since the sensitivity of each camera is constant, there is a problem that recognition of some specific scenes is inaccurate.

本発明は、関連技術におけるインテリジェント路側ユニットの認識が不正確という問題を解決するために、インテリジェント路側ユニットおよびインテリジェント路側ユニットの情報処理方法を提供する。   The present invention provides an intelligent roadside unit and an information processing method for the intelligent roadside unit in order to solve the problem of incorrect recognition of the intelligent roadside unit in the related art.

本出願の第1の方面の実施例は、
ハイライト画像を取得するためのハイライトカメラと、
ダークライト画像を取得するためのダークライトカメラと、
前記ハイライト画像および前記ダークライト画像に基づいて車両情報を抽出するコントローラと、を含み、前記ハイライトカメラと前記ダークライトカメラとは、同じ撮影視野を有するインテリジェント路側ユニットを提供する。
An embodiment of the first aspect of the present application is:
A highlight camera for acquiring a highlight image,
A dark light camera for acquiring dark light images,
A controller for extracting vehicle information based on the highlight image and the dark light image, wherein the highlight camera and the dark light camera provide an intelligent roadside unit having the same field of view.

本願実施例におけるインテリジェント路側ユニットは、ハイライトカメラと、ダークライトカメラと、コントローラとを含み、ハイライトカメラは、ハイライト画像を取得し、ダークライトカメラは、ダークライト画像を取得し、ハイライトカメラとダークライトカメラとは、同じ撮影視野を有し、コントローラは、ハイライト画像およびダークライト画像に基づいて車両情報を抽出する。これにより、感度が異なるが、同じ撮影視野を有する2つのカメラを設置して、同一時刻、同一撮影領域のハイライト画像およびダークライト画像を取得し、ハイライト画像およびダークライト画像の2つの画像を組み合わせて当該撮影領域の車両を認識することにより、光強度の差が大きいシーンに対する認識精度を大幅に向上させることができる。   The intelligent roadside unit in the embodiment of the present application includes a highlight camera, a dark light camera, and a controller, the highlight camera acquires a highlight image, the dark light camera acquires a dark light image, and a highlight. The camera and the dark light camera have the same field of view, and the controller extracts vehicle information based on the highlight image and the dark light image. Thereby, two cameras having different sensitivities but having the same field of view are installed to acquire a highlight image and a dark light image of the same photographing area at the same time, and the two images of the highlight image and the dark light image are acquired. By recognizing the vehicle in the shooting area by combining the above, the recognition accuracy for a scene having a large difference in light intensity can be significantly improved.

本出願の第2の方面の実施例は、
ハイライト画像およびダークライト画像を取得するステップと、
前記ハイライト画像および前記ダークライト画像に基づいて車両情報を抽出するステップと、を含み、ハイライトカメラによってハイライト画像が取得され、ダークカメラによってダークライト画像が取得され、前記ハイライトカメラと前記ダークライトカメラとは、同じ撮影視野を有するインテリジェント路側ユニットの情報処理方法を提供する。
An embodiment of the second aspect of the present application is:
Obtaining a highlight image and a dark light image;
Extracting vehicle information based on the highlight image and the dark light image, wherein a highlight image is obtained by a highlight camera, a dark light image is obtained by a dark camera, and the highlight camera and the The dark light camera provides an information processing method for intelligent roadside units having the same field of view.

本願実施例におけるインテリジェント路側ユニットの情報処理方法は、ハイライト画像およびダークライト画像を取得し、その後、ハイライト画像およびダークライト画像に基づいて車両情報を抽出し、ハイライトカメラによってハイライト画像が取得され、ダークカメラによってダークライト画像が取得され、ハイライトカメラとダークライトカメラとは、同じ撮影視野を有する。感度が異なるが、同じ撮影視野を有する2つのカメラを設置して、同一時刻、同一撮影領域のハイライト画像およびダークライト画像を取得し、ハイライト画像およびダークライト画像の2つの画像を組み合わせて当該撮影領域の車両を認識することにより、光強度の差が大きいシーンに対する認識精度を大幅に向上させることができる。   The information processing method of the intelligent roadside unit in the embodiment of the present application acquires a highlight image and a dark light image, and then extracts vehicle information based on the highlight image and the dark light image. The acquired dark light image is acquired by the dark camera, and the highlight camera and the dark light camera have the same field of view. Two cameras having different sensitivities but having the same photographing field of view are installed to acquire a highlight image and a dark light image of the same photographing area at the same time, and combine the two images of the highlight image and the dark light image. By recognizing the vehicle in the shooting area, the recognition accuracy for a scene having a large difference in light intensity can be significantly improved.

本出願の第3の方面の実施例は、プロセッサとメモリとを含むインテリジェント路側ユニットを提供し、前記プロセッサは、前記メモリに記憶されている実行可能なプログラムコードを読み出し、前記実行可能なプログラムコードに対応するプログラムを実行することにより、上記実施例に記載のインテリジェント路側ユニットの情報処理方法を実現する。
An embodiment of the third aspect of the present application provides an intelligent roadside unit including a processor and a memory, the processor reading executable program code stored in the memory, By executing the program corresponding to the above, the information processing method of the intelligent roadside unit described in the above embodiment is realized.

本出願の第4方面の実施例は、コンピュータプログラムが記憶されている非一時的なコンピュータプログラム読み取り可能な記憶媒体を提供し、当該プログラムがプロセッサによって実行される時に、上記実施例に記載のインテリジェント路側ユニットの情報処理方法が実現される。   An embodiment of the fourth aspect of the present application provides a non-transitory computer program readable storage medium having a computer program stored thereon, wherein the program is executed by a processor when the computer program is executed by a processor. An information processing method for the roadside unit is realized.

本発明の付加的な特徴及び利点は、一部が以下の説明に示され、一部が下記の説明により明らかになり、又は本発明の実践により理解される。   Additional features and advantages of the invention will be set forth in part in the description which follows, and in part will be obvious from the description, or may be learned by practice of the invention.

本発明の上記のおよび/または付加的な特徴と利点は、実施例を図面を参照して以下に説明することにより、明らかになり、理解され易くなる。ここで、
本願実施例に係るインテリジェント路側ユニットの概略構成図である。 本願実施例に係る別のインテリジェント路側ユニットの概略構成図である。 本開示の実施例に係る別のインテリジェント路側ユニットの概略構成図である。 本開示の実施例に係るインテリジェント路側ユニットの情報処理方法の概略フローチャートである。
The above and / or additional features and advantages of the present invention will become more apparent and easier to understand when embodiments thereof are described below with reference to the drawings. here,
It is a schematic structure figure of an intelligent roadside unit concerning an example of the present application. It is a schematic structure figure of another intelligent roadside unit concerning an example of this application. FIG. 6 is a schematic configuration diagram of another intelligent roadside unit according to an embodiment of the present disclosure. 5 is a schematic flowchart of an information processing method of the intelligent roadside unit according to the embodiment of the present disclosure.

以下、本発明の実施例を詳細に説明する。前記実施例における例が図面に示され、同一または類似する符号は、常に同一または類似する部品、或いは、同一または類似する機能を有する部品を表す。以下に、図面を参照しながら説明される実施例は例示的なものであり、本発明を解釈することを旨とし、本発明を限定するものと理解してはいけない。   Hereinafter, embodiments of the present invention will be described in detail. Examples in the above embodiments are shown in the drawings, and the same or similar reference numerals always indicate the same or similar parts or parts having the same or similar functions. The embodiments described below with reference to the drawings are illustrative, and the present invention is intended to be interpreted and should not be understood as limiting the present invention.

以下、図面を参照しながら、本願実施例に係るインテリジェント路側ユニットおよびその情報処理方法について説明する。   Hereinafter, an intelligent roadside unit and an information processing method thereof according to an embodiment of the present application will be described with reference to the drawings.

関連技術では、各カメラの感度が一定であるので、一部の特定のシーンに対する認識が不正確という問題が生じる。例えば、トンネルの出入り口に配置されるインテリジェント路側ユニットは、トンネル内とトンネル外との光強度の差が非常に大きいため、1つのカメラによって撮影された画像を用いて認識を行うと、大きな誤差が生じる。   In the related art, since the sensitivity of each camera is constant, there is a problem that recognition of some specific scenes is inaccurate. For example, an intelligent roadside unit placed at the entrance of a tunnel has a very large difference in light intensity between inside and outside of the tunnel, so if recognition is performed using an image taken by one camera, a large error will occur. Occurs.

本発明の実施例におけるインテリジェント路側ユニットは、感度が異なる2つのカメラを設置して、ハイライト画像およびダークライト画像を取得し、ハイライト画像およびダークライト画像の2つの画像を組み合わせて車両を認識することにより、光強度の差が大きいシーンに対する認識精度を大幅に向上させることができる。   The intelligent roadside unit in the embodiment of the present invention installs two cameras having different sensitivities to acquire a highlight image and a dark light image, and recognizes a vehicle by combining the two images of the highlight image and the dark light image. By doing so, the recognition accuracy for a scene having a large difference in light intensity can be significantly improved.

図1は、本願実施例に係るインテリジェント路側ユニットの概略構成図である。
図1に示すように、当該インテリジェント路側ユニットは、ハイライトカメラ110と、ダークライトカメラ120と、コントローラ130と、を含む。
FIG. 1 is a schematic configuration diagram of the intelligent roadside unit according to the embodiment of the present application.
As shown in FIG. 1, the intelligent roadside unit includes a highlight camera 110, a dark light camera 120, and a controller 130.

ハイライトカメラ110は、ハイライト画像を取得し、ダークライトカメラ120は、ダークライト画像を取得し、ハイライトカメラ110とダークライトカメラ120とは、同じ撮影視野を有する。コントローラ130は、ハイライト画像およびダークライト画像に基づいて車両情報を抽出する。   The highlight camera 110 acquires a highlight image, the dark light camera 120 acquires a dark light image, and the highlight camera 110 and the dark light camera 120 have the same shooting field of view. The controller 130 extracts vehicle information based on the highlight image and the dark light image.

実際の応用では、一部の特別なシーン、例えば、トンネル内およびトンネル外について、トンネル内とトンネル外との光強度の差が大きいため、トンネルの出入り口に設置されたインテリジェント路側ユニットが、1つのカメラを用いてトンネル内およびトンネル外を撮影すると、光強度が異なることによって撮影された画像の撮影効果が良好でなく画像内の車両の認識精度に影響を及ぼす。   In practical applications, for some special scenes, for example, inside and outside the tunnel, the difference in light intensity between the inside and outside of the tunnel is so large that the intelligent roadside unit installed at the entrance of the tunnel has one When the inside and outside of the tunnel are photographed using the camera, the light intensity is different, so that the photographing effect of the photographed image is not good and the recognition accuracy of the vehicle in the image is affected.

本実施例において、インテリジェント路側ユニットは、感度が異なるが同じ撮影視野を有する2つのカメラ、ハイライトカメラ110およびダークライトカメラ120を含み、ハイライトカメラ110の感度は、ダークライトカメラ120の感度より低く、すなわち、ハイライトカメラ110は、ダークライトカメラ120より光への要求が高い。そのため、ダークライトカメラ120は、暗い環境での物体を鮮明に撮影することができるが、明るい環境での物体について、露光過度によって撮影効果が良好ではない。一方、ハイライトカメラ110は、明るい環境での物体を鮮明に撮影することができるが、暗い環境での物体について、撮影効果が良好ではない。   In this embodiment, the intelligent roadside unit includes two cameras having different sensitivities but having the same field of view, the highlight camera 110 and the dark light camera 120, and the sensitivity of the highlight camera 110 is higher than that of the dark light camera 120. Low, that is, the highlight camera 110 has a higher demand for light than the dark light camera 120. Therefore, the dark light camera 120 can clearly shoot an object in a dark environment, but the shooting effect of an object in a bright environment is not good due to overexposure. On the other hand, the highlight camera 110 can clearly shoot an object in a bright environment, but does not have a good imaging effect for an object in a dark environment.

ハイライトカメラ110とダークライトカメラ120とが同じ撮影視野を有することは、撮影角度が同じであり、撮影領域が同じであることを意味する。つまり、ハイライト画像とダークライト画像とは、同一撮影領域の画像である。具体的な実現時に、2つのカメラの配置高さが同じであり、2つのカメラ間の距離が道路の幅より遥かに小さいので、2つのカメラの撮影視野が同じであると見なすことができる。例えば、道路の幅は通常、メートルを単位として測定され、2つのカメラ間の距離はミリメートルを単位として測定されるため、2つのカメラ間の視野が同じであると見なすことができる。   The fact that the highlight camera 110 and the dark light camera 120 have the same shooting field of view means that the shooting angles are the same and the shooting areas are the same. That is, the highlight image and the dark light image are images in the same shooting area. In a specific implementation, the two cameras have the same placement height and the distance between the two cameras is much smaller than the width of the road, so the two cameras can be considered to have the same field of view. For example, the width of a road is typically measured in meters and the distance between two cameras is measured in millimeters, so the field of view between the two cameras can be considered to be the same.

したがって、コントローラ130は、ハイライトカメラ110によって撮影されたハイライト画像、およびダークカメラ120によって撮影されたダークライト画像に基づいて、同一撮影領域内の車両情報、例えば、車両の台数、各ナンバープレートの番号、色などを一緒に認識することができる。   Therefore, based on the highlight image taken by the highlight camera 110 and the dark light image taken by the dark camera 120, the controller 130 can provide vehicle information in the same shooting area, for example, the number of vehicles, each license plate, Number, color, etc. can be recognized together.

具体的には、コントローラ130は、ハイライト画像における比較的鮮明な領域内の車両情報を抽出し、暗光画像における比較的鮮明な領域内の車両情報を抽出することにより、撮像領域内の車両情報を取得することができる。   Specifically, the controller 130 extracts the vehicle information in a relatively clear area in the highlight image, and extracts the vehicle information in a relatively clear area in the dark light image, so that the vehicle in the imaging area is extracted. Information can be obtained.

本願実施例におけるインテリジェント路側ユニットは、高強度の差が大き領域について、感度が異なるが同じ撮影視野を有する2つのカメラを設置して、同一時刻、同一撮影領域のハイライト画像およびダークライト画像を取得し、ハイライト画像およびダークライト画像に基づいて当該撮影領域内の車両を認識する。1つのカメラによって撮影された画像を用いて認識することにより、認識精度を大幅に向上させることができる。   The intelligent roadside unit according to the embodiment of the present invention installs two cameras having different sensitivities but the same photographing field of view in an area where the difference between the high intensities is large, and outputs a highlight image and a dark light image of the same photographing area at the same time. The acquired vehicle is recognized based on the highlight image and the dark light image. By performing recognition using an image captured by one camera, recognition accuracy can be significantly improved.

本願実施例の可能な一実施形態において、コントローラ130がハイライト画像およびダークライト画像に基づいて車両情報を抽出するとき、コントローラ130は、さらに、ハイライト画像からハイライト領域画像を切り出し、ダークライト画像に基づいてダークライト領域画像を切り出し、ハイライト領域画像とダークライト領域画像とをつなぎ合わせて対象画像を生成した後、対象画像から車両情報を抽出することができる。   In one possible embodiment of the present example, when the controller 130 extracts the vehicle information based on the highlight image and the dark light image, the controller 130 further cuts out the highlight region image from the highlight image, After extracting the dark light area image based on the image and connecting the highlight area image and the dark light area image to generate the target image, the vehicle information can be extracted from the target image.

ハイライトカメラ110とダークライトカメラ120とは、同じ視野を有するので、2つの画像を融合してから撮影領域内の車両情報を抽出することができる。また、ハイライト画像における撮像領域内の強い光の領域であるハイライト領域の撮影品質が良好であり、かつ、ダークライト画像における撮像領域内の暗い光の領域であるダークライト領域の撮影品質が良好であるので、コントローラ130は、ハイライト画像からハイライト領域画像を切り出して、ダークライト領域から切り出されたダークライト領域画像とつなぎ合わせて、当該撮影領域の画質が良好な対象画像を取得することができる。これにより、対象画像から撮影領域内の、すなわち光強度が異なる領域内の車両情報を抽出することができる。   Since the highlight camera 110 and the dark light camera 120 have the same field of view, it is possible to extract vehicle information in the shooting area after fusing the two images. In addition, the shooting quality of the highlight area, which is the strong light area in the imaging area in the highlight image, is good, and the shooting quality of the dark light area, which is the dark light area in the imaging area in the dark light image, is good. Since the image is good, the controller 130 cuts out the highlight region image from the highlight image and joins it with the dark light region image cut out from the dark light region to obtain a target image with good image quality in the shooting region. be able to. As a result, it is possible to extract the vehicle information in the shooting area, that is, in the areas having different light intensities from the target image.

トンネルを例とすると、ハイライトカメラ110およびダークライトカメラ120の撮影領域は、トンネル内領域とトンネル外領域とを含み、コントローラ130は、ハイライト画像からトンネル外の画像を切り出し、ダークライト画像に基づいてトンネル内の画像を切り出すことができ、そして、切り出したトンネル外の画像とトンネル内の画像とをつなぎ合わせて対象画像を取得することができる。対象画像においてトンネル内の画像およびトンネル外の画像は、いずれも鮮明であるため、コントローラ130は、対象画像からトンネル内の車両情報およびトンネル外の車両情報を抽出することができる。   Taking a tunnel as an example, the shooting areas of the highlight camera 110 and the dark light camera 120 include an inside area of the tunnel and an outside area of the tunnel, and the controller 130 cuts out an image outside the tunnel from the highlight image and converts it into a dark light image. The image inside the tunnel can be cut out based on the extracted image, and the image outside the tunnel and the image inside the tunnel can be joined to obtain the target image. Since the image inside the tunnel and the image outside the tunnel in the target image are both clear, the controller 130 can extract vehicle information inside the tunnel and vehicle information outside the tunnel from the target image.

実際の応用では、カメラがレーダ信号によって干渉されるため、画像の鮮明度を向上させるために、本実施例において、インテリジェント路側ユニットは、ハイライトカメラの少なくとも一部を被覆する遮蔽層と、ダークライトカメラの少なくとも一部を被覆する遮蔽層とをさらに含むことができる。   In a practical application, in order to improve the sharpness of the image, since the camera is interfered with by the radar signal, in this embodiment, the intelligent roadside unit includes a shielding layer covering at least a part of the highlight camera and a dark layer. And a shielding layer covering at least a part of the light camera.

遮蔽層が放熱に影響を与えるので、実際の使用では、遮蔽層は、ハイライトカメラ110およびダークライトカメラ120の、レンズおよび放熱部分を除いた他の部分を被覆することができる。これにより、カメラの作動および放熱に影響を与えることなく、画像の鮮明度を向上させる。   In actual use, the shielding layer can cover other parts of the highlight camera 110 and the dark light camera 120 except for the lens and the heat radiation part, because the shielding layer affects heat radiation. This improves the sharpness of the image without affecting the operation and heat radiation of the camera.

図2は、本願実施例に係る別のインテリジェント路側ユニットの概略構成図である。
認識精度を向上させるために、図1に示す実施例に基づいて、図2に示すように、当該インテリジェント路側ユニットは、第1のレーダ140と第2のレーダ150とをさらに含むことができる。
ここで、第1のレーダ140の検出距離は、第2のレーダ150の検出距離より大きい。
FIG. 2 is a schematic configuration diagram of another intelligent roadside unit according to the embodiment of the present application.
In order to improve the recognition accuracy, based on the embodiment shown in FIG. 1, as shown in FIG. 2, the intelligent roadside unit may further include a first radar 140 and a second radar 150.
Here, the detection distance of the first radar 140 is larger than the detection distance of the second radar 150.

設置時に、第1のレーダ140の高さを第2のレーダ150より高くすることができるので、第1のレーダ140は、遠い所の障害物情報を検出し、第2のレーダ150は、インテリジェント路側ユニットに近い障害物情報を検出する。障害物情報は、障害物とインテリジェント路側ユニットとの間の距離、および障害物の方位などの情報を含むことができる。   During installation, the height of the first radar 140 can be higher than the second radar 150, so that the first radar 140 detects distant obstacle information and the second radar 150 Obstacle information near the roadside unit is detected. Obstacle information may include information such as the distance between the obstacle and the intelligent roadside unit, and the orientation of the obstacle.

レーザレーダは、高精度および耐干渉の利点を有するので、具体的な実現において、第1のレーダ140と第2のレーダ150とは、いずれもレーザレーダにすることができる。第1のレーダの検出距離が第2のレーダの検出距離より大きいので、具体的な実現において、第1のレーダ150は、64ラインのレーザレーダを使用することができ、第2のレーダ150は、16ラインのレーザレーダを使用することができる。これにより、第1のレーダの検出精度が確保されるだけでなく、第2のレーダのコストも低減される。   Since the laser radar has the advantages of high accuracy and anti-interference, in a specific realization, both the first radar 140 and the second radar 150 can be laser radars. Since the detection range of the first radar is greater than the detection range of the second radar, in a specific implementation, the first radar 150 can use a 64-line laser radar and the second radar 150 , 16 lines of laser radar can be used. This not only ensures the detection accuracy of the first radar, but also reduces the cost of the second radar.

コントローラ130は、ハイライト画像、ダークライト画像、および第1のレーダ140と第2のレーダ150とによって検出された障害物情報に基づいて、車両情報を正確に抽出することができる。   The controller 130 can accurately extract the vehicle information based on the highlight image, the dark light image, and the obstacle information detected by the first radar 140 and the second radar 150.

レーダは、車両の距離、速度、方位などを正確に検出することができるので、レーダによって検出された車両情報、およびカメラによって撮像された画像に基づいて、撮影領域の車両情報を正確に抽出する。   Since the radar can accurately detect the distance, speed, azimuth, etc. of the vehicle, the vehicle information of the photographing area is accurately extracted based on the vehicle information detected by the radar and the image captured by the camera. .

さらに、本願実施例の可能な一実現形態において、インテリジェント路側ユニットは、アンテナをさらに含むことができる。   Further, in one possible implementation of the present embodiment, the intelligent roadside unit may further include an antenna.

インテリジェント路側ユニットは、レーダによって検出された障害物情報、及びカメラによって撮影された画像などをアンテナを介してサーバまたは無人運転自動車に送信することができる。   The intelligent roadside unit can transmit obstacle information detected by a radar, an image captured by a camera, and the like to a server or an unmanned vehicle via an antenna.

無人運転自動車は、インテリジェント路側ユニットによって送信された情報を受信し、受信した情報に基づいて対応する制御手段を講じることにより、無人運転自動車の安全性および信頼性を向上させる。   The driverless vehicle improves the safety and reliability of the driverless vehicle by receiving the information transmitted by the intelligent roadside unit and taking corresponding control measures based on the received information.

アンテナのカメラへの干渉を防ぐために、アンテナとカメラとの間の距離を所定の距離より大きくする。すなわち、アンテナとハイライトカメラ110との間の距離,およびアンテナとダークライトカメラ120との間の距離は、いずれも所定の距離より大きい。   In order to prevent the antenna from interfering with the camera, the distance between the antenna and the camera is made larger than a predetermined distance. That is, the distance between the antenna and the highlight camera 110 and the distance between the antenna and the dark light camera 120 are all larger than the predetermined distance.

図3は、本願実施例に係る別のインテリジェント路側ユニットの概略構成図である。   FIG. 3 is a schematic configuration diagram of another intelligent roadside unit according to the embodiment of the present application.

車流量が多い場合は、車両の待ち時間が長くなる。車両の待ち時間を短くするために、さらに、本願実施例の可能な一実現形態において、図3に示すように、当該インテリジェント路側ユニットは、信号機160をさらに含むことができる。   When the vehicle flow rate is large, the waiting time of the vehicle increases. In order to reduce the waiting time of the vehicle, and furthermore, in one possible implementation of the present embodiment, the intelligent roadside unit may further include a traffic light 160 as shown in FIG.

本実施例において、コントローラ130は、抽出された車両情報に基づいて信号機を制御することができる。具体的には、コントローラ130は、車流量情報に基づいて信号機160を制御することができる。例えば、現在の車流量が比較的多い場合、青信号の時間を長くすることができ、現在の車流量が比較的少ない場合、青信号の時間を短くすることができる。   In this embodiment, the controller 130 can control the traffic light based on the extracted vehicle information. Specifically, the controller 130 can control the traffic light 160 based on the vehicle flow information. For example, when the current vehicle flow rate is relatively high, the time of the green signal can be lengthened, and when the current vehicle flow rate is relatively low, the time of the green signal can be shortened.

上記実施例を実現するために、本願実施例は、インテリジェント路側ユニットの情報処理方法をさらに提供する。図4は、本開示の実施例に係るインテリジェント路側ユニットの情報処理方法の概略フローチャートである。   In order to realize the above embodiment, the embodiment of the present application further provides an information processing method of the intelligent roadside unit. FIG. 4 is a schematic flowchart of the information processing method of the intelligent roadside unit according to the embodiment of the present disclosure.

本発明の実施例におけるインテリジェント路側ユニットの情報処理方法は、本願実施例に係るインテリジェント路側ユニットによって実行することができ、感度が異なる2つのカメラによって画像を撮影することにより車両の認識精度を向上させることを実現する。   The information processing method of the intelligent roadside unit according to the embodiment of the present invention can be executed by the intelligent roadside unit according to the embodiment of the present invention, and improves the recognition accuracy of the vehicle by taking images with two cameras having different sensitivities. Realize that.

図4に示すように、当該インテリジェント路側ユニットの情報処理方法は、以下のステップ201およびステップ202を含む。   As shown in FIG. 4, the information processing method of the intelligent roadside unit includes the following steps 201 and 202.

ステップ201において、ハイライト画像およびダークライト画像を取得する。   In step 201, a highlight image and a dark light image are acquired.

本実施例において、ハイライトカメラによってハイライト画像が取得され、ダークカメラによってダークライト画像が取得され、ハイライトカメラとダークライトカメラとは、同じ撮影視野を有する。   In this embodiment, a highlight image is acquired by a highlight camera, a dark light image is acquired by a dark camera, and the highlight camera and the dark light camera have the same field of view.

実際の応用では、一部の特別なシーン、例えば、トンネル内およびトンネル外について、トンネル内とトンネル外との光強度の差が大きいため、トンネルの出入り口に設置されたインテリジェント路側ユニットが、1つのカメラを用いてトンネル内およびトンネル外を撮影すると、光強度が異なることによって撮影された画像の撮影効果が良好でなく、画像内の車両の認識精度に影響を及ぼす。   In practical applications, for some special scenes, for example, inside and outside the tunnel, the difference in light intensity between the inside and outside of the tunnel is so large that the intelligent roadside unit installed at the entrance of the tunnel has one When the inside and outside of the tunnel are photographed using the camera, the effect of photographing the photographed image is not good due to the difference in light intensity, and the recognition accuracy of the vehicle in the image is affected.

本実施例において、ハイライトカメラおよびダークライトカメラは、感度が異なるが、同じ撮影視野を有する。ハイライトカメラの感度は、ダークライトカメラの感度より低く、すなわち、ハイライトカメラは、ダークライトカメラより光への要求が高い。そのため、ダークライトカメラは、暗いト環境での物体を鮮明に撮影することができるが、明るい環境での物体について、露光過度によって撮影効果が良好ではない。一方、ハイライトカメラは、明るい環境での物体を鮮明に撮影することができるが、暗い環境での物体について、撮影効果が良好ではない。   In this embodiment, the highlight camera and the dark light camera have different sensitivities, but have the same field of view. The sensitivity of the highlight camera is lower than that of the dark light camera, that is, the highlight camera has a higher demand for light than the dark light camera. Therefore, the dark light camera can clearly photograph an object in a dark environment, but the photographing effect of an object in a bright environment is not good due to overexposure. On the other hand, the highlight camera can clearly shoot an object in a bright environment, but does not have a good imaging effect for an object in a dark environment.

ハイライトカメラとダークライトカメラとが同じ撮影視野を有することは、撮影角度が同じであり、撮影領域が同じであることを意味する。つまり、ハイライト画像とダークライト画像とは、同一撮影領域の画像である。具体的な実現時に、2つのカメラの配置高さが同じであり、2つのカメラ間の距離が道路の幅より遥かに小さいので、2つのカメラの撮影視野が同じであると見なすことができる。例えば、道路の幅は通常、メートルを単位として測定され、2つのカメラ間の距離はミリメートルを単位として測定されるため、2つのカメラ間の視野が同じであると見なすことができる。   The fact that the highlight camera and the dark light camera have the same field of view means that the shooting angles are the same and the shooting areas are the same. That is, the highlight image and the dark light image are images in the same shooting area. In a specific implementation, the two cameras have the same placement height and the distance between the two cameras is much smaller than the width of the road, so the two cameras can be considered to have the same field of view. For example, the width of a road is typically measured in meters and the distance between two cameras is measured in millimeters, so the field of view between the two cameras can be considered to be the same.

ステップ202において、ハイライト画像およびダークライト画像に基づいて車両情報を抽出する。   In step 202, vehicle information is extracted based on the highlight image and the dark light image.

コントローラは、ハイライトカメラによって撮影されたハイライト画像、およびダークカメラによって撮影されたダークライト画像に基づいて、同一撮影領域内の車両情報、例えば、車両の台数、各ナンバープレートの番号、色などを一緒に認識することができる。   Based on the highlight image photographed by the highlight camera and the dark light image photographed by the dark camera, the controller acquires vehicle information in the same photographing area, for example, the number of vehicles, the number of each license plate, the color, etc. Can be recognized together.

具体的には、インテリジェント路側ユニットは、ハイライト画像における比較的鮮明な領域内の車両情報を抽出し、暗光画像における比較的鮮明な領域内の車両情報を抽出することにより、撮像領域内の車両情報を取得することができる。   Specifically, the intelligent roadside unit extracts vehicle information in a relatively clear area in the highlight image, and extracts vehicle information in a relatively clear area in the dark light image, thereby extracting the vehicle information in the imaging area. Vehicle information can be obtained.

本願実施例におけるインテリジェント路側ユニットは、高強度の差が大き領域について、感度が異なるが同じ撮影視野を有する2つのカメラにより、同一時刻、同一撮影領域のハイライト画像およびダークライト画像を取得し、ハイライト画像およびダークライト画像に基づいて当該撮影領域内の車両を認識する。1つのカメラによって撮影された画像を用いて認識することにより、認識精度を大幅に向上させることができる。   The intelligent roadside unit in the embodiment of the present application obtains a highlight image and a dark light image at the same time, the same photographing region, by two cameras having different sensitivities but the same photographing visual field, for a region where the difference in high intensity is large, The vehicle in the shooting area is recognized based on the highlight image and the dark light image. By performing recognition using an image captured by one camera, recognition accuracy can be significantly improved.

本願実施例の可能な一実施形態において、インテリジェント路側ユニットがハイライト画像およびダークライト画像に基づいて車両情報を抽出するとき、インテリジェント路側ユニットは、さらに、ハイライト画像からハイライト領域画像を切り出し、ダークライト画像に基づいてダークライト領域画像を切り出し、ハイライト領域画像とダークライト領域画像とをつなぎ合わせて対象画像を生成した後、対象画像から車両情報を抽出することができる。   In one possible embodiment of the present example, when the intelligent roadside unit extracts the vehicle information based on the highlight image and the darklight image, the intelligent roadside unit further cuts out the highlight area image from the highlight image, After extracting the dark light area image based on the dark light image and connecting the highlight area image and the dark light area image to generate the target image, the vehicle information can be extracted from the target image.

ハイライトカメラとダークライトカメラとは、同じ視野を有するので、2つの画像を融合してから撮影領域内の車両情報を抽出することができる。また、ハイライト画像における撮像領域内の強い光の領域であるハイライト領域の撮影品質が良好であり、かつ、ダークライト画像における撮像領域内の暗い光の領域であるダークライト領域の撮影品質が良好であるので、インテリジェント路側ユニットは、ハイライト画像からハイライト領域画像を切り出して、ダークライト領域から切り出されたダークライト領域画像とつなぎ合わせて、当該撮影領域の画質が良好な対象画像を取得することができる。これにより、対象画像から撮影領域内の、すなわち光強度が異なる領域内の車両情報を抽出することができる。   Since the highlight camera and the dark light camera have the same field of view, vehicle information in the shooting area can be extracted after fusing the two images. In addition, the shooting quality of the highlight area, which is the strong light area in the imaging area in the highlight image, is good, and the shooting quality of the dark light area, which is the dark light area in the imaging area in the dark light image, is good. Because it is good, the intelligent roadside unit cuts out the highlight area image from the highlight image and joins it with the dark light area image cut out from the dark light area to obtain a target image with good image quality of the shooting area can do. As a result, it is possible to extract the vehicle information in the shooting area, that is, in the areas having different light intensities from the target image.

トンネルを例とすると、ハイライトカメラおよびダークライトカメラの撮影領域は、トンネル内領域とトンネル外領域とを含み、インテリジェント路側ユニットは、ハイライト画像からトンネル外の画像を切り出し、ダークライト画像に基づいてトンネル内の画像を切り出すことができ、そして、切り出したトンネル外の画像とトンネル内の画像とをつなぎ合わせて対象画像を取得することができる。対象画像においてトンネル内の画像およびトンネル外の画像は、いずれも鮮明であるため、インテリジェント路側ユニットは、対象画像からトンネル内の車両情報およびトンネル外の車両情報を抽出することができる。   Taking a tunnel as an example, the shooting areas of the highlight camera and the dark light camera include an area inside the tunnel and an area outside the tunnel, and the intelligent roadside unit cuts out the image outside the tunnel from the highlight image, and based on the dark light image. Thus, an image inside the tunnel can be cut out, and an image outside the tunnel and an image inside the tunnel can be joined to obtain a target image. Since the image inside the tunnel and the image outside the tunnel in the target image are both clear, the intelligent roadside unit can extract vehicle information inside the tunnel and vehicle information outside the tunnel from the target image.

実際の応用では、カメラがレーダ信号によって干渉されるため、画像の鮮明度を向上させるために、本実施例において、ハイライトカメラの少なくとも一部は、遮蔽層によって被覆することができ、ダークライトカメラの少なくとも一部は、遮蔽層によって被覆することができる。   In a practical application, at least part of the highlight camera can be covered by a shielding layer in this embodiment, in order to improve the sharpness of the image, since the camera is interfered by the radar signal. At least a portion of the camera can be covered by a shielding layer.

遮蔽層が放熱に影響を与えるので、実際の使用では、遮蔽層は、ハイライトカメラおよびダークライトカメラの、レンズおよび放熱部分を除いた他の部分を被覆することができる。これにより、カメラの作動および放熱に影響を与えることなく、画像の鮮明度を向上させる。   In actual use, the shielding layer can cover other parts of the highlight camera and the dark light camera except for the lens and the heat radiation part, since the shielding layer affects the heat radiation. This improves the sharpness of the image without affecting the operation and heat radiation of the camera.

認識精度を向上させるために、本願実施例の一実現形態において、当該インテリジェント路側ユニットの情報処理方法は、第1のレーダと第2のレーダとによって検出された障害物情報を取得するステップをさらに含むことができる。ここで、第1のレーダの検出距離は、第2のレーダの検出距離より大きい。   In order to improve recognition accuracy, in an embodiment of the present embodiment, the information processing method of the intelligent roadside unit further includes a step of acquiring obstacle information detected by the first radar and the second radar. Can be included. Here, the detection distance of the first radar is larger than the detection distance of the second radar.

設置時に、第1のレーダの高さを第2のレーダより高くすることができるので、第1のレーダは、遠い所の障害物情報を検出し、第2のレーダは、インテリジェント路側ユニットに近い障害物情報を検出する。ここで、障害物情報は、障害物とインテリジェント路側ユニットとの間の距離、および障害物の方位などの情報を含むことができる。   When installed, the first radar can be higher than the second radar, so that the first radar detects distant obstacle information and the second radar is closer to the intelligent roadside unit. Detect obstacle information. Here, the obstacle information may include information such as a distance between the obstacle and the intelligent roadside unit and an orientation of the obstacle.

レーザレーダは、高精度および反干渉の利点を有するので、具体的な実現において、第1のレーダと第2のレーダとは、いずれもレーザレーダにすることができる。第1のレーダの検出距離が第2のレーダの検出距離より大きいので、具体的な実現において、第1のレーダは、64ラインのレーザレーダを使用することができ、第2のレーダは、16ラインのレーザレーダを使用することができる。これにより、第1のレーダの検出精度が確保されるだけでなく、第2のレーダのコストも低減される。   Since the laser radar has the advantages of high accuracy and anti-interference, in a specific realization, both the first radar and the second radar can be laser radars. Since the detection range of the first radar is greater than the detection range of the second radar, in a specific implementation, the first radar may use a 64-line laser radar, and the second radar may use a 16-line laser radar. Line laser radar can be used. This not only ensures the detection accuracy of the first radar, but also reduces the cost of the second radar.

インテリジェント路側ユニットは、ハイライト画像、ダークライト画像、および第1のレーダ140と第2のレーダ150とによって検出された障害物情報に基づいて、車両情報を正確に抽出することができる。   The intelligent roadside unit can accurately extract the vehicle information based on the highlight image, the dark light image, and the obstacle information detected by the first radar 140 and the second radar 150.

レーダは、車両の距離、速度、方位などを正確に検出することができるので、レーダによって検出された車両情報、およびカメラによって撮像された画像に基づいて、撮影領域の車両情報を正確に抽出する。   Since the radar can accurately detect the distance, speed, azimuth, etc. of the vehicle, the vehicle information of the photographing area is accurately extracted based on the vehicle information detected by the radar and the image captured by the camera. .

さらに、本願実施例の可能な一実現形態において、インテリジェント路側ユニットの情報処理方法は、インテリジェント路側ユニットは、レーダによって検出された障害物情報、及びカメラによって撮影された画像などをアンテナを介してサーバまたは無人運転自動車に送信するステップをさらに含むことができる。   Further, in one possible realization of the embodiment of the present application, the information processing method of the intelligent roadside unit includes the step of: transmitting the information of the obstacle detected by the radar and the image captured by the camera to the server via the antenna. Alternatively, the method may further include transmitting to the driverless vehicle.

無人運転自動車は、インテリジェント路側ユニットによって送信された情報を受信し、受信した情報に基づいて対応する制御手段を講じることにより、無人運転自動車の安全性および信頼性を向上させる。   The driverless vehicle improves the safety and reliability of the driverless vehicle by receiving the information transmitted by the intelligent roadside unit and taking corresponding control measures based on the received information.

アンテナのカメラへの干渉を防ぐために、アンテナとカメラとの間の距離を所定の距離より大きくする。つまり、アンテナとハイライトカメラとの間の距離,およびアンテナとダークライトカメラとの間の距離は、いずれも所定の距離より大きい。   In order to prevent the antenna from interfering with the camera, the distance between the antenna and the camera is made larger than a predetermined distance. That is, the distance between the antenna and the highlight camera and the distance between the antenna and the dark light camera are both larger than the predetermined distance.

車流量が比較的多い場合、車両の待ち時間が増加する。車両の待ち時間を減らすために、本願実施例の可能な一実現形態において、当該インテリジェント路側ユニットの情報処理方法は、抽出された車流量情報に基づいて信号機を制御するステップをさらに含むことができる。   When the vehicle flow rate is relatively large, the waiting time of the vehicle increases. In order to reduce the waiting time of the vehicle, in one possible implementation of the present embodiment, the information processing method of the intelligent roadside unit may further include controlling a traffic light based on the extracted vehicle flow information. .

具体的には、当該インテリジェント路側ユニットは、車流量情報に基づいて信号機を制御することができる。例えば、現在の車流量が比較的多い場合、青信号の時間を長くすることができ、現在の車流量が比較的少ない場合、青信号の時間を短くすることができる。   Specifically, the intelligent roadside unit can control a traffic light based on vehicle flow rate information. For example, when the current vehicle flow rate is relatively high, the time of the green signal can be lengthened, and when the current vehicle flow rate is relatively low, the time of the green signal can be shortened.

上記の実施例を実現するために、本願実施例は、プロセッサとメモリとを含むインテリジェント路側ユニットをさらに提供する。
ここで、プロセッサは、メモリに記憶されている実行可能なプログラムコードを読み出し、前記実行可能なプログラムコードに対応するプログラムを実行することにより、上記実施例に記載のインテリジェント路側ユニットの情報処理方法を実現する。
In order to realize the above embodiment, the present embodiment further provides an intelligent roadside unit including a processor and a memory.
Here, the processor reads the executable program code stored in the memory and executes the program corresponding to the executable program code, thereby executing the information processing method of the intelligent roadside unit according to the above embodiment. Realize.

上記の実施例を実現するために、本願実施例は、コンピュータプログラムが記憶されている非一時的なコンピュータプログラム読み取り可能な記憶媒体をさらに提供し、当該プログラムがプロセッサによって実行される時に、上記の実施例に記載のインテリジェント路側ユニットの情報処理方法が実現される。
In order to realize the above embodiment, the embodiment of the present application further provides a non-transitory computer program readable storage medium in which a computer program is stored, and the above program is executed when the program is executed by a processor. The information processing method of the intelligent roadside unit described in the embodiment is realized.

本開示の説明において、「一実施例」、「一部の実施例」、「例」、「具体的な例」、或いは「一部の例」などの用語を参考した説明とは、当該実施例或いは例を合わせて説明された具体的な特徴、構成、材料或いは特性が、本開示の少なくとも1つの実施例或いは例に含まれることである。本明細書において、上記用語に対する例示的な説明は、必ずしも同じ実施例或いは例を示すものではない。また、説明された具体的な特徴、構成、材料或いは特性は、いずれか1つ或いは複数の実施例又は例において適切に結合することができる。なお、相互に矛盾しない限り、当業者は、本明細書において説明された異なる実施例又は例、及び異なる実施例又は例の特徴を結合し、組み合わせることができる。   In the description of the present disclosure, the description referring to terms such as "one embodiment", "some examples", "examples", "specific examples", and "some examples" Specific features, configurations, materials, or characteristics described in connection with the examples or examples are included in at least one embodiment or example of the present disclosure. In this specification, an exemplifying description of the above terms does not necessarily indicate the same embodiment or example. Also, the described specific features, configurations, materials, or characteristics may be combined in any one or more embodiments or examples as appropriate. It should be noted that a person skilled in the art can combine and combine the different embodiments or examples described in this specification and the features of the different embodiments or examples, as long as they do not conflict with each other.

なお、「第1」、「第2」の用語は、単に目的を説明するためのものであり、比較的な重要性を指示又は暗示するか、或いは示された技術的特徴の数を黙示的に指示すると理解してはいけない。よって、「第1」、「第2」が限定されている特徴は少なくとも1つの前記特徴を含むことを明示又は暗示するものである。本開示の説明において、明確且つ具体的な限定がない限り、「複数」とは、少なくとも2つ、例えば、2つ、3つなどを意味する。   It should be noted that the terms "first" and "second" are merely intended to describe purposes and imply or imply comparative importance, or imply the number of technical features indicated. Do not understand when instructing. Thus, features limited to "first" and "second" are those that explicitly or imply that they include at least one of the features. In the description of the present disclosure, “plurality” means at least two, for example, two, three, and the like, unless there is a clear and specific limitation.

フローチャートにおける、又はここで他の形態で記載された任意のプロセス又は方法は、特定ロジック機能又はプロセスのステップを実現するための1つ又は複数の実行可能な命令コードを含むモジュール、セグメント又は一部を表すと理解されてもよい。また、本発明の好ましい実施形態の範囲は、示された又は論議された順番ではなく、係る機能に応じてほぼ同時の形態又は逆の順番で機能を実行することができる他の実現を含むことができる。これは、当業者であれば理解すべきのものである。   Any process or method described in a flowchart or in another form herein may include a module, segment, or portion that includes one or more executable instruction codes for implementing a particular logic function or step of a process. May be understood to represent Also, the scope of the preferred embodiments of the present invention is not to be limited to the order shown or discussed, but to include other implementations that can perform the functions in a substantially simultaneous manner or in reverse order, depending on the function. Can be. This should be understood by those skilled in the art.

フローチャートで示された又はここで他の形態で説明されたロジック及び/又はステップは、例えば、ロジック機能を実現するための実行可能な命令の順番付けられたリストと見なすことができ、任意のコンピュータ読み取り可能な記憶媒体に具体的に実装されて、命令実行システム、装置、又はデバイス(例えばコンピュータに基づいたシステム、プロセッサを含むシステム、又は他の命令実行システム、装置又はデバイスから命令を取得して命令を実行するシステム)に利用されるか、又はこれらの命令実行システム、装置又はデバイスと組み合わせて利用される。本明細書において、「コンピュータ読み取り可能な記憶媒体」は、命令実行システム、装置又はデバイスによって、又は、命令実行システム、装置又はデバイスと組み合わせて使用するためのプログラムを含む、格納する、通信する、伝播する、又は伝送することができる任意の装置であってもよい。コンピュータ読み取り可能な記憶媒体のより具体的な例(非限定的なリスト)として、1つ又は複数の配線を備える電気接続部(電子デバイス)、ポータブルコンピュータディスクカートリッジ(磁気デバイス)、ランダムアクセスメモリ(RAM)読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュメモリ)、光ファイバデバイス、及びポータブルコンパクトディスク読み出し専用メモリ(CDROM)を含む。また、コンピュータ読み取り可能な記憶媒体は、前記プログラムが印刷され得る紙又は他の適切な媒体であってもよく、これは、例えば、紙や他の媒体を光学的スキャンし、次に編集し、解釈し、又は必要な場合に他の適切な形態で処理して前記プログラムを電子的に取得して、そしてコンピュータメモリに格納するからである。   The logic and / or steps shown in the flowcharts or described elsewhere herein can be considered, for example, as an ordered list of executable instructions for implementing a logic function, and on any computer. An instruction execution system, apparatus, or device (e.g., a computer-based system, a system including a processor, or other instructions execution system, apparatus, or device) that is specifically implemented on a readable storage medium to obtain instructions from (A system that executes instructions) or in combination with these instruction execution systems, apparatuses, or devices. As used herein, a “computer-readable storage medium” refers to, stores, communicates with, or includes, a program for use by, or in combination with, an instruction execution system, apparatus or device. It can be any device that can propagate or transmit. More specific examples (non-limiting list) of computer-readable storage media include electrical connections (electronic devices) with one or more wires, portable computer disk cartridges (magnetic devices), and random access memory ( RAM) including read only memory (ROM), erasable programmable read only memory (EPROM or flash memory), fiber optic devices, and portable compact disk read only memory (CDROM). Also, the computer-readable storage medium may be paper or other suitable medium on which the program can be printed, for example, by optically scanning and then editing the paper or other medium, This is because the program is interpreted or otherwise processed, if necessary, in another suitable form and the program is obtained electronically and stored in computer memory.

なお、本発明の各部分は、ハードウェア、ソフトウェア、ファームウェア、又はこれらの組み合わせによって実現することができる。上記実施形態において、複数のステップ又は方法は、メモリに記憶された且つ適切な命令実行システムによって実行されるソフトウェア又はファームウェアによって実現することができる。例えば、ハードウェアで実現される場合に、もう1つの実施形態と同様に、本分野において周知である、データ信号に対してロジック機能を実現するためのロジックゲート回路を備える離散ロジック回路、適切なな組み合わせロジックゲート回路を備える特定用途向け集積回路、プログラマブルゲートアレイ(PGA)、フィールドプログラマブルゲートアレイ(FPGA)などの当分野の周知技術のうちいずれか1つ又はこれらの組み合わせによって実現することができる。   Each part of the present invention can be realized by hardware, software, firmware, or a combination thereof. In the above embodiments, the steps or methods may be implemented by software or firmware stored in memory and executed by a suitable instruction execution system. For example, when implemented in hardware, as in another embodiment, a discrete logic circuit with a logic gate circuit for implementing a logic function on data signals, as is well known in the art, It can be realized by any one or a combination of well-known techniques in the art such as an application-specific integrated circuit including a logic gate circuit, a programmable gate array (PGA), and a field programmable gate array (FPGA). .

普通の当業者であれば、上記の実施例に係る方法に含まれる全部又は一部のステップは、プログラムによってハードウェアを命令することで実行することができると理解することができる。前記プログラムは、コンピュータ読み取り可能な記憶媒体に格納することができ、当該プログラムが実行される時に、方法実施例におけるステップの1つ又はそれらの組み合わせが実行される。   One of ordinary skill in the art can understand that all or some of the steps included in the method according to the above-described embodiment can be performed by instructing hardware by a program. The program can be stored on a computer-readable storage medium, and when the program is executed, one or a combination of the steps in the method embodiments is executed.

また、本発明の各実施例における各機能ユニットは、1つの処理モジュールに集積されてもよいし、それぞれが個別の物理的存在であってもよいし、2つ以上のユニットが1つのモジュールに集積されてもよい。前記集積モジュールは、ハードウェアの形態で実現されてもよいし、ソフトウェア機能モジュールの形態で実現されてもよい。前記集積モジュールがソフト機能モジュールの形態で実現されるとともに、独立した製品として販売又は使用される場合に、1つのコンピュータ読み取り可能な記憶媒体に記憶されてもよい。   In addition, each functional unit in each embodiment of the present invention may be integrated in one processing module, may be a separate physical entity, or two or more units may be integrated into one module. It may be integrated. The integrated module may be realized in the form of hardware or in the form of a software function module. When the integrated module is realized in the form of a software function module and is sold or used as an independent product, it may be stored in one computer-readable storage medium.

前述した記憶媒体は、読み出し専用メモリ、磁気ディスク、又はCDなどであってもよい。なお、以上、本発明の実施例を示して説明したが、上記実施例は、例示するものであり、本発明を制限するためのものであると理解してはいけない。普通の当業者であれば、本発明の範囲内で上記実施例に対して変更、修正、置換え、変形を行うことができる。   The storage medium described above may be a read-only memory, a magnetic disk, a CD, or the like. Although the embodiments of the present invention have been shown and described above, the above embodiments are illustrative and should not be understood as limiting the present invention. A person of ordinary skill in the art can make changes, modifications, substitutions, and variations to the above embodiments within the scope of the present invention.

Claims (17)

ハイライト画像を取得するためのハイライトカメラと、
ダークライト画像を取得するためのダークライトカメラと、
前記ハイライト画像および前記ダークライト画像に基づいて車両情報を抽出するコントローラと、を含み、
前記ハイライトカメラと前記ダークライトカメラとは、同じ撮影視野を有する、
ことを特徴とするインテリジェント路側ユニット。
A highlight camera for acquiring a highlight image,
A dark light camera for acquiring dark light images,
A controller that extracts vehicle information based on the highlight image and the dark light image,
The highlight camera and the dark light camera have the same shooting field of view,
An intelligent roadside unit.
前記コントローラは、前記ハイライト画像からハイライト領域画像を切り出し、前記ダークライト画像に基づいてダークライト領域画像を切り出し、前記ハイライト領域画像と前記ダークライト領域画像とをつなぎ合わせて対象画像を生成し、前記対象画像から前記車両情報を抽出する、
ことを特徴とする請求項1に記載のインテリジェント路側ユニット。
The controller cuts out a highlight region image from the highlight image, cuts out a dark light region image based on the dark light image, and connects the highlight region image and the dark light region image to generate a target image. And extracting the vehicle information from the target image,
The intelligent roadside unit according to claim 1, wherein:
前記インテリジェント路側ユニットは、前記ハイライトカメラの少なくとも一部を被覆する遮蔽層と、前記ダークライトカメラの少なくとも一部を被覆する遮蔽層と、をさらに含む、
ことを特徴とする請求項1に記載のインテリジェント路側ユニット。
The intelligent roadside unit further includes a shielding layer covering at least a part of the highlight camera, and a shielding layer covering at least a part of the dark light camera.
The intelligent roadside unit according to claim 1, wherein:
前記インテリジェント路側ユニットは、第1のレーダと第2のレーダとをさらに含み、
前記第1のレーダの検出距離は、前記第2のレーダの検出距離より大きい、 ことを特徴とする請求項1に記載のインテリジェント路側ユニット。
The intelligent roadside unit further includes a first radar and a second radar,
The intelligent roadside unit according to claim 1, wherein a detection distance of the first radar is larger than a detection distance of the second radar.
前記第1のレーダと前記第2のレーダとは、いずれもレーザレーダである、
ことを特徴とする請求項4に記載のインテリジェント路側ユニット。
The first radar and the second radar are both laser radars,
The intelligent roadside unit according to claim 4, wherein:
前記インテリジェント路側ユニットは、アンテナをさらに含み、前記アンテナと前記カメラとの間の距離は、所定の距離より大きい、
ことを特徴とする請求項1に記載のインテリジェント路側ユニット。
The intelligent roadside unit further includes an antenna, wherein a distance between the antenna and the camera is greater than a predetermined distance.
The intelligent roadside unit according to claim 1, wherein:
前記遮蔽層は、前記ハイライトカメラ及び前記ダークカメラの、レンズと放熱部分とを除いた他の部分を被覆する、
ことを特徴とする請求項3に記載のインテリジェント路側ユニット。
The shielding layer covers the highlight camera and the dark camera, and other parts except the lens and the heat radiation part,
The intelligent roadside unit according to claim 3, wherein:
前記インテリジェント路側ユニットは、信号機をさらに含み、前記コントローラは、抽出された車両情報に基づいて前記信号機を制御する、
ことを特徴とする請求項1に記載のインテリジェント路側ユニット。
The intelligent roadside unit further includes a traffic light, wherein the controller controls the traffic light based on the extracted vehicle information,
The intelligent roadside unit according to claim 1, wherein:
ハイライト画像およびダークライト画像を取得するステップと、
前記ハイライト画像および前記ダークライト画像に基づいて車両情報を抽出するステップと、を含み、
ハイライトカメラによってハイライト画像が取得され、ダークカメラによってダークライト画像が取得され、前記ハイライトカメラと前記ダークライトカメラとは、同じ撮影視野を有する、
ことを特徴とするインテリジェント路側ユニットの情報処理方法。
Obtaining a highlight image and a dark light image;
Extracting vehicle information based on the highlight image and the dark light image,
A highlight image is acquired by a highlight camera, a dark light image is acquired by a dark camera, and the highlight camera and the dark light camera have the same shooting field of view.
An information processing method for an intelligent roadside unit.
前記ハイライト画像および前記ダークライト画像に基づいて車両情報を抽出するステップは、
前記ハイライト画像からハイライト領域画像を切り出し、前記ダークライト画像に基づいてダークライト領域画像を切り出すステップと、
前記ハイライト領域画像と前記ダークライト領域画像とをつなぎ合わせて対象画像を生成するステップと、
前記対象画像から前記車両情報を抽出するステップとをさらに含む、
ことを特徴とする請求項9に記載のインテリジェント路側ユニットの情報処理方法。
Extracting the vehicle information based on the highlight image and the dark light image,
Cutting out a highlight region image from the highlight image, and cutting out a dark light region image based on the dark light image;
Generating a target image by joining the highlight region image and the dark light region image;
Extracting the vehicle information from the target image.
The information processing method for an intelligent roadside unit according to claim 9, wherein:
前記ハイライトカメラの少なくとも一部が遮蔽層によって被覆され、前記ダークライトカメラの少なくとも一部が遮蔽層によって被覆される、
ことを特徴とする請求項9に記載のインテリジェント路側ユニットの情報処理方法。
At least a part of the highlight camera is covered by a shielding layer, and at least a part of the dark light camera is covered by a shielding layer.
The information processing method for an intelligent roadside unit according to claim 9, wherein:
前記方法は、第1のレーダと第2のレーダとによって検出された障害物情報を取得するステップをさらに含み、
前記第1のレーダの検出距離は、前記第2のレーダの検出距離より大きい、 ことを特徴とする請求項9に記載のインテリジェント路側ユニットの情報処理方法。
The method further comprises obtaining obstacle information detected by the first radar and the second radar;
The information processing method of the intelligent roadside unit according to claim 9, wherein a detection distance of the first radar is larger than a detection distance of the second radar.
前記第1のレーダと前記第2のレーダとは、いずれもレーザレーダである、
ことを特徴とする請求項12に記載のインテリジェント路側ユニットの情報処理方法。
The first radar and the second radar are both laser radars,
13. The information processing method for an intelligent roadside unit according to claim 12, wherein:
前記遮蔽層は、前記ハイライトカメラ及び前記ダークカメラの、レンズと放熱部分とを除いた他の部分を被覆する、
ことを特徴とする請求項11に記載のインテリジェント路側ユニットの情報処理方法。
The shielding layer covers the highlight camera and the dark camera, and other parts except for a lens and a heat radiating part.
The information processing method for an intelligent roadside unit according to claim 11, wherein:
前記方法は、抽出された車両情報に基づいて信号機を制御するステップをさらに含む、
ことを特徴とする請求項9に記載のインテリジェント路側ユニットの情報処理方法。
The method further comprises controlling a traffic light based on the extracted vehicle information,
The information processing method for an intelligent roadside unit according to claim 9, wherein:
プロセッサとメモリとを含むインテリジェント路側ユニットであって、
前記プロセッサは、前記メモリに記憶されている実行可能なプログラムコードを読み出し、前記実行可能なプログラムコードに対応するプログラムを実行することにより、請求項9〜15のいずれかに記載のインテリジェント路側ユニットの情報処理方法を実現する、
ことを特徴とするインテリジェント路側ユニット。
An intelligent roadside unit including a processor and a memory,
The intelligent roadside unit according to claim 9, wherein the processor reads an executable program code stored in the memory and executes a program corresponding to the executable program code. Realize the information processing method,
An intelligent roadside unit.
コンピュータプログラムが記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、当該プログラムがプロセッサによって実行される時に、請求項9〜15のいずれかに記載のインテリジェント路側ユニットの情報処理方法が実現される、
ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
A non-transitory computer-readable storage medium storing a computer program, wherein the information processing method for an intelligent roadside unit according to any one of claims 9 to 15, when the program is executed by a processor. Realized,
Non-transitory computer-readable storage medium characterized by the above-mentioned.
JP2019133674A 2018-08-31 2019-07-19 Intelligent roadside unit and its information processing method Active JP6818820B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201811012972.7A CN110874921A (en) 2018-08-31 2018-08-31 Intelligent road side unit and information processing method thereof
CN201811012972.7 2018-08-31

Publications (2)

Publication Number Publication Date
JP2020038629A true JP2020038629A (en) 2020-03-12
JP6818820B2 JP6818820B2 (en) 2021-01-20

Family

ID=67437836

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019133674A Active JP6818820B2 (en) 2018-08-31 2019-07-19 Intelligent roadside unit and its information processing method

Country Status (4)

Country Link
US (1) US11217091B2 (en)
EP (1) EP3618423A1 (en)
JP (1) JP6818820B2 (en)
CN (1) CN110874921A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020191010A (en) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 Object recognition device

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111091066B (en) * 2019-11-25 2023-09-22 重庆工程职业技术学院 Automatic driving automobile ground state assessment method and system
CN111639667B (en) * 2020-04-14 2023-06-16 北京迈格威科技有限公司 Image recognition method, device, electronic equipment and computer readable storage medium
CN112687108B (en) * 2020-06-28 2022-08-09 浙江大华技术股份有限公司 Detection method and detection device for man-vehicle matching, shooting device and storage medium
CN112102618A (en) * 2020-09-14 2020-12-18 广东新时空科技股份有限公司 Pedestrian number and vehicle number identification method based on edge calculation

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092857A (en) * 2003-08-11 2005-04-07 Hitachi Ltd Image processing system and vehicle control system
WO2006098356A1 (en) * 2005-03-15 2006-09-21 Omron Corporation Image processor, image processing method, program and recording medium
JP2009044451A (en) * 2007-08-08 2009-02-26 Fujitsu Ten Ltd Image processor, on-vehicle image processor, and on-vehicle image processing method
US20180048801A1 (en) * 2016-08-09 2018-02-15 Contrast, Inc. Real-time hdr video for vehicle control

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5275059B2 (en) * 2009-01-28 2013-08-28 三菱電機株式会社 Vehicle detection device, vehicle detection system, vehicle detection method for vehicle detection device, and vehicle detection program
US20130083229A1 (en) * 2011-09-30 2013-04-04 Omnivision Technologies, Inc. Emi shield for camera module
CN102768803B (en) * 2012-07-31 2014-10-22 株洲南车时代电气股份有限公司 Vehicle intelligent monitoring and recording system and method based on radar and video detection
JP2014063242A (en) * 2012-09-20 2014-04-10 Sanyo Electric Co Ltd Mobile information communication device
CN203134149U (en) * 2012-12-11 2013-08-14 武汉高德红外股份有限公司 Vehicle auxiliary driving system based on different wave band imaging fusion image processing
CN206725915U (en) * 2014-09-05 2017-12-08 苹果公司 Electronic equipment and container
CN104320568B (en) * 2014-10-31 2017-11-17 武汉理工大学 A kind of microwave camera
CN204795290U (en) * 2015-07-07 2015-11-18 曼瑞检测科技(苏州)有限公司 Anechoic chamber is with low camera that disturbs
US20170372602A1 (en) * 2016-06-24 2017-12-28 Continental Advanced Lidar Solutions Us, Llc Ladar enabled traffic control
CN106828952B (en) * 2016-07-14 2019-03-15 科盾科技股份有限公司 A kind of method and device of assisting in flying device safe flight
CN106128115B (en) * 2016-08-01 2018-11-30 青岛理工大学 A kind of fusion method based on twin camera detection Traffic Information
US10528850B2 (en) * 2016-11-02 2020-01-07 Ford Global Technologies, Llc Object classification adjustment based on vehicle communication
CN206604193U (en) * 2017-01-24 2017-11-03 长荣玩具(东莞)有限公司 The control circuit structure of remote-control toy truck
CN106710233A (en) * 2017-03-10 2017-05-24 信利光电股份有限公司 Method and system for identifying license numbers through double camera modules
CN207249743U (en) * 2017-06-07 2018-04-17 云南师范大学 A kind of portable infrared image and low-light (level) image fusion system
CN107403554B (en) * 2017-09-01 2023-07-11 北京九州安华信息安全技术有限公司 Binocular integrated driver behavior analysis device and method
CN107945540A (en) * 2017-10-27 2018-04-20 清华大学苏州汽车研究院(吴江) A kind of bus or train route cooperative control system of signal lamp intersection
US10803340B2 (en) * 2017-12-08 2020-10-13 Hunter Engineering Company Method and apparatus for license plate recognition using multiple fields of view
CN108010360A (en) * 2017-12-27 2018-05-08 中电海康集团有限公司 A kind of automatic Pilot context aware systems based on bus or train route collaboration
CN108109393A (en) * 2018-01-10 2018-06-01 合肥师范学院 The traffic monitor of changeable image pickup mode
CN108449547B (en) * 2018-02-01 2021-02-09 蒋涛 Method for controlling a night vision system, storage medium and processor
CN110738852B (en) * 2019-10-23 2020-12-18 浙江大学 Intersection steering overflow detection method based on vehicle track and long and short memory neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005092857A (en) * 2003-08-11 2005-04-07 Hitachi Ltd Image processing system and vehicle control system
WO2006098356A1 (en) * 2005-03-15 2006-09-21 Omron Corporation Image processor, image processing method, program and recording medium
JP2009044451A (en) * 2007-08-08 2009-02-26 Fujitsu Ten Ltd Image processor, on-vehicle image processor, and on-vehicle image processing method
US20180048801A1 (en) * 2016-08-09 2018-02-15 Contrast, Inc. Real-time hdr video for vehicle control

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020191010A (en) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 Object recognition device
WO2020235462A1 (en) * 2019-05-23 2020-11-26 日立オートモティブシステムズ株式会社 Object recognition device
JP7289723B2 (en) 2019-05-23 2023-06-12 日立Astemo株式会社 Object recognition device

Also Published As

Publication number Publication date
JP6818820B2 (en) 2021-01-20
EP3618423A1 (en) 2020-03-04
US11217091B2 (en) 2022-01-04
CN110874921A (en) 2020-03-10
US20200074855A1 (en) 2020-03-05

Similar Documents

Publication Publication Date Title
JP6818820B2 (en) Intelligent roadside unit and its information processing method
KR102581779B1 (en) Apparatus and method for prevention of collision at crossroads
JP2020038638A (en) Intelligent roadside unit
US11257367B2 (en) System and method for controlling traffic lights
CN109819173B (en) Depth fusion method based on TOF imaging system and TOF camera
KR102059244B1 (en) Apparatus for Light Detection and Ranging
JP2015143979A (en) Image processor, image processing method, program, and image processing system
JP2020038652A (en) Intelligent roadside unit
JP6881917B2 (en) Distance measuring device, imaging control device
US20180276844A1 (en) Position or orientation estimation apparatus, position or orientation estimation method, and driving assist device
CN112540384A (en) Obstacle detection method, device and equipment
KR102535618B1 (en) Driver assistance system for detecting obstacle using fusion object sensing information and method thereof
US20200051261A1 (en) Image processing device and image capture apparatus
JP2020038654A (en) Intelligent roadside unit and control method thereof
JP7077282B2 (en) Intelligent roadside unit and its information processing method
JP2019159380A (en) Object detection device, object detection method, and program
KR20180096102A (en) Apparatus and method for obtaining target information using infrared sensor
JP6431271B2 (en) Vehicle detection and vehicle number recognition device
KR101403936B1 (en) Camera system for vehicles
KR100958352B1 (en) Monitoring method
KR20170119167A (en) System and method for detecting object
KR101824042B1 (en) Camera-integrated laser detector and driving method thereof
JP2007192755A (en) Range finder
CN112307825A (en) Visual detection method and device for automatic driving, electronic equipment and storage medium
JPH05341842A (en) Fault detector for traveling vehicle

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200811

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201208

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201228

R150 Certificate of patent or registration of utility model

Ref document number: 6818820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250