JPWO2020071133A1 - Sign recognition device - Google Patents

Sign recognition device Download PDF

Info

Publication number
JPWO2020071133A1
JPWO2020071133A1 JP2020550281A JP2020550281A JPWO2020071133A1 JP WO2020071133 A1 JPWO2020071133 A1 JP WO2020071133A1 JP 2020550281 A JP2020550281 A JP 2020550281A JP 2020550281 A JP2020550281 A JP 2020550281A JP WO2020071133 A1 JPWO2020071133 A1 JP WO2020071133A1
Authority
JP
Japan
Prior art keywords
sign
candidate
unit
dimensional object
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020550281A
Other languages
Japanese (ja)
Other versions
JP7145227B2 (en
Inventor
雄飛 椎名
雄飛 椎名
永崎 健
健 永崎
啓佑 岩崎
啓佑 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Publication of JPWO2020071133A1 publication Critical patent/JPWO2020071133A1/en
Application granted granted Critical
Publication of JP7145227B2 publication Critical patent/JP7145227B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions

Abstract

道路標識に酷似した速度遵守ステッカーなどの物体を道路標識として誤って標識認識をすることを抑制する標識認識装置を得ることを目的とする。少なくとも一つの撮像部101、102と、撮像部101、102で得た画像から標識候補603を推定する標識推定部111と、撮像部101、102の撮像範囲に含まれる立体物602を認識する立体物認識部112と、標識推定部111による標識候補603の推定に関する情報と立体物認識部112による立体物602の認識に関する情報から標識候補603が道路標識であるか否かを判定する標識判定部113と、を備えたことを特徴とする標識認識装置1。The purpose is to obtain a sign recognition device that suppresses erroneous sign recognition of an object such as a speed compliance sticker that closely resembles a road sign as a road sign. A solid that recognizes at least one imaging unit 101, 102, a sign estimation unit 111 that estimates a label candidate 603 from the images obtained by the imaging units 101, 102, and a three-dimensional object 602 included in the imaging range of the imaging units 101, 102. A sign determination unit that determines whether or not the sign candidate 603 is a road sign from the information regarding the estimation of the sign candidate 603 by the object recognition unit 112 and the sign estimation unit 111 and the information regarding the recognition of the three-dimensional object 602 by the three-dimensional object recognition unit 112. A sign recognition device 1 comprising 113.

Description

本発明は、道路標識を認識する標識認識装置に関する。 The present invention relates to a sign recognition device that recognizes a road sign.

安全運転や自動運転に向けた社会的認知度の向上により、車載カメラ装置における物体認識や距離測定への要求は高度化している。 With the improvement of social recognition for safe driving and autonomous driving, the demand for object recognition and distance measurement in in-vehicle camera devices is increasing.

車載カメラ装置は、画像による視覚的な情報と、対象物への距離情報を同時に計測するため、自動車周辺の様々な対象物(人、車、立体物、白線、路面、標識など)を詳細に把握し、運転支援時の安全性の向上に寄与するデバイスである。 Since the in-vehicle camera device simultaneously measures visual information by images and distance information to the object, various objects (people, cars, three-dimensional objects, white lines, road surfaces, signs, etc.) around the automobile are measured in detail. It is a device that can be grasped and contributes to improving safety during driving assistance.

車載カメラ装置における物体認識の対象の一つとして標識がある。一般に、標識認識機能は、地図情報と連携して自動運転を行う車の加速又は減速に使われる。また、先進運転支援システムの評価指標であるEuroNCAP(2016年〜2020年アップデート)においても、速度支援システム(SAS:Speed Assistance Systems)に関する評価項目が設けられており、その重要度は増している。 There is a sign as one of the objects of object recognition in the in-vehicle camera device. Generally, the sign recognition function is used for accelerating or decelerating a vehicle that automatically drives in cooperation with map information. In addition, EuroNCAP (2016-2020 update), which is an evaluation index for advanced driver assistance systems, also has evaluation items related to Speed Assistance Systems (SAS), and their importance is increasing.

そして、標識を認識する装置については、特許文献1に記載されている。 A device that recognizes a sign is described in Patent Document 1.

特開2017−26430号公報Japanese Unexamined Patent Publication No. 2017-26430

車載カメラ装置の道路標識の認識機能の課題は、市街地や高速道路等の様々な走行条件下において、対象とする道路標識に対して道路標識の認識結果を出力し、道路標識ではない物体には道路標識の認識結果を出力しないという正確性を高めることにある。 The problem of the road sign recognition function of the in-vehicle camera device is to output the recognition result of the road sign for the target road sign under various driving conditions such as urban areas and highways, and for objects that are not road signs. The purpose is to improve the accuracy of not outputting the recognition result of the road sign.

しかし、特許文献1に記載の装置は、画像処理により外観から標識を識別するため、市街地や高速道路に設置されている道路標識に酷似した看板、又は、トラック等の大型車両の背後に貼付されている速度遵守ステッカーなど、対象とする道路標識と見た目が酷似している物体についても道路標識であると誤認識してしまう可能性があった。 However, in order to identify the sign from the appearance by image processing, the device described in Patent Document 1 is attached to a signboard very similar to a road sign installed in an urban area or a highway, or behind a large vehicle such as a truck. There is a possibility that an object that looks very similar to the target road sign, such as a speed compliance sticker, may be mistakenly recognized as a road sign.

本発明は、上記の問題点を解決するためになされたものであり、道路標識に酷似した速度遵守ステッカーなどの物体を道路標識として誤って標識認識をすることを抑制する標識認識装置を得ることを目的とする。 The present invention has been made to solve the above-mentioned problems, and obtains a sign recognition device that suppresses erroneous sign recognition of an object such as a speed compliance sticker that closely resembles a road sign as a road sign. With the goal.

上記目的を達成するために、本発明は、少なくとも一つの撮像部と、前記撮像部で得た画像から標識候補を推定する標識推定部と、前記撮像部の撮像範囲に含まれる所定の立体物を認識する立体物認識部と、前記標識推定部による前記標識候補の推定に関する情報と前記立体物認識部による前記立体物の認識に関する情報から前記標識候補が道路標識であるか否かを判定する標識判定部と、を備えた標識認識装置である。 In order to achieve the above object, the present invention comprises at least one imaging unit, a labeling estimation unit that estimates a label candidate from an image obtained by the imaging unit, and a predetermined three-dimensional object included in the imaging range of the imaging unit. It is determined whether or not the sign candidate is a road sign from the information regarding the estimation of the sign candidate by the sign estimation unit and the information regarding the recognition of the three-dimensional object by the three-dimensional object recognition unit. It is a sign recognition device including a sign determination unit.

本発明に係る標識認識装置によれば、市街地や高速道路など様々な走行条件において出現する対象標識に酷似した物体に対して誤った標識認識結果を出力することを抑制することができる。 According to the sign recognition device according to the present invention, it is possible to suppress the output of an erroneous sign recognition result for an object that closely resembles a target sign that appears in various traveling conditions such as an urban area or a highway.

本発明の実施の形態に係る標識認識装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the sign recognition apparatus which concerns on embodiment of this invention. カメラ装置による処理フロー図である。It is a processing flow diagram by a camera device. 図2の標識判定の処理内容を表すフローチャートである。It is a flowchart which shows the processing content of the sign determination of FIG. バスの背後に設けられた道路標識候補の一例の図である。It is a figure of an example of a road sign candidate provided behind a bus. 標識候補の拡大画像Enlarged image of sign candidates 標識候補の拡大画像Enlarged image of sign candidates 道路上に設けられた道路標識候補の図である。It is a figure of the road sign candidate provided on the road. バスの背後に設けられた道路標識候補の他の例の図である。It is a figure of another example of a road sign candidate provided behind a bus. バスの背後に設けられた道路標識候補の上面図である。It is a top view of a road sign candidate provided behind a bus.

−システム構成−
図1は、本発明の実施の形態に係る標識認識装置の概略構成を示すブロック図である。図1に示されるように、本実施の形態に係る標識認識装置1は、車両に搭載され車両前方の撮影対象領域の画像処理に基づいて車外環境を認識する装置である。標識認識装置1は、画像処理により例えば、道路の白線、歩行者、車両、その他の立体物、信号機、道路標識、点灯ランプなどの認識を行い、道路標識の真偽を判定する機能を持つ。その他、当該標識認識装置1を搭載した自己の車両のブレーキ及びステアリングなどの調整を行う機能も備え得るが、この機能に関しては省略可能である。
-System configuration-
FIG. 1 is a block diagram showing a schematic configuration of a sign recognition device according to an embodiment of the present invention. As shown in FIG. 1, the sign recognition device 1 according to the present embodiment is a device mounted on a vehicle and recognizes the outside environment of the vehicle based on image processing of a region to be photographed in front of the vehicle. The sign recognition device 1 has a function of recognizing, for example, white lines of roads, pedestrians, vehicles, other three-dimensional objects, traffic lights, road signs, lighting lamps, etc. by image processing, and determining the authenticity of road signs. In addition, a function of adjusting the brake and steering of the own vehicle equipped with the sign recognition device 1 may be provided, but this function can be omitted.

標識認識装置1は車両に搭載された道路標識の認識システムであり、カメラ装置100、CAN(Controller Area Network)110、出力装置114等を備えている。 The sign recognition device 1 is a road sign recognition system mounted on a vehicle, and includes a camera device 100, a CAN (Controller Area Network) 110, an output device 114, and the like.

カメラ装置100は、左カメラ101、右カメラ102、画像入力インタフェース103、画像処理部104、演算処理部105、記憶部106、CANインタフェース107、制御処理部108、及びバス109を備えている。 The camera device 100 includes a left camera 101, a right camera 102, an image input interface 103, an image processing unit 104, an arithmetic processing unit 105, a storage unit 106, a CAN interface 107, a control processing unit 108, and a bus 109.

画像入力インタフェース103、画像処理部104、演算処理部105、記憶部106、CANインタフェース107、制御処理部108は、単一又は複数のコンピュータユニットにより構成することができる。本実施形態においては単一のコンピュータユニットで構成した場合を例示しており、画像処理部104、制御処理部108、記憶部106、演算処理105、画像入力インタフェース103、及びCANインタフェース107は、カメラ装置100の内部バス109を介して相互に接続されている。 The image input interface 103, the image processing unit 104, the arithmetic processing unit 105, the storage unit 106, the CAN interface 107, and the control processing unit 108 can be configured by a single computer unit or a plurality of computer units. In this embodiment, a case in which a single computer unit is used is illustrated, and the image processing unit 104, the control processing unit 108, the storage unit 106, the arithmetic processing 105, the image input interface 103, and the CAN interface 107 are cameras. They are connected to each other via the internal bus 109 of the device 100.

また、カメラ装置100は、前述したCAN110を介して他のコンピュータユニットや出力装置114に接続されている。以下、各部について順次説明していく。 Further, the camera device 100 is connected to another computer unit or output device 114 via the CAN 110 described above. Hereinafter, each part will be described in sequence.

左カメラ101と右カメラ102は、画像情報を取得するために左右に配置されている。左カメラ101と右カメラ102は左右に設定間隔を空けて車載されており、所定領域がそれぞれ視野に納まるようにしてある。 The left camera 101 and the right camera 102 are arranged on the left and right to acquire image information. The left camera 101 and the right camera 102 are mounted on the vehicle with a set interval on the left and right so that a predetermined area is within the field of view.

また、画像入力インタフェース103は、左カメラ101と右カメラ102の撮像を制御して、撮像した画像を取り込む。画像入力インタフェース103を通して取り込まれた画像データは、バス109を通して例えば画像処理部104及び演算処理部105に送られる。 Further, the image input interface 103 controls the imaging of the left camera 101 and the right camera 102, and captures the captured images. The image data taken in through the image input interface 103 is sent to, for example, the image processing unit 104 and the arithmetic processing unit 105 via the bus 109.

画像処理部104は、左カメラ101の撮像素子から得られる第一の画像と、右カメラ102の撮像素子から得られる第二の画像とを比較して、それぞれの画像に対して撮像素子に起因するデバイス固有の偏差の補正、及びノイズ補間などの画像補正を行い、これを記憶部106に記憶する。さらに、第一の画像及び第二の画像の間で、相互に対応する箇所を計算して、視差情報(同一点を異なった二点から眺めた時に見える方向の違い、すなわち二つの方向の間の角度の情報)を計算し、これを記憶部106に記憶する。 The image processing unit 104 compares the first image obtained from the image sensor of the left camera 101 with the second image obtained from the image sensor of the right camera 102, and causes each image to be caused by the image sensor. The device-specific deviation correction and the image correction such as noise interpolation are performed, and this is stored in the storage unit 106. Furthermore, the points corresponding to each other are calculated between the first image and the second image, and the parallax information (the difference in the direction seen when the same point is viewed from two different points, that is, between the two directions) is calculated. (Information on the angle of) is calculated and stored in the storage unit 106.

演算処理部105は、標識推定部111と立体物認識部112と標識判定部113を有する。 The arithmetic processing unit 105 includes a sign estimation unit 111, a three-dimensional object recognition unit 112, and a sign determination unit 113.

標識推定部111は、左カメラ101及び右カメラ102で撮像され記憶部106に蓄えられた画像から標識候補を推定する。ここで標識候補の推定の基礎とする画像は、左カメラ101で撮影された画像、右カメラ102で撮影された画像のいずれでも良く、また双方のカメラで撮影された画像を用いても良い。推定方法に関しては、例えば画像処理により認識された形状を例えば記憶部106に格納された道路標識のデータベースと照合し、いずれかの道路標識との合致度が一定以上のものを道路標識の候補と推定する。 The sign estimation unit 111 estimates a sign candidate from an image captured by the left camera 101 and the right camera 102 and stored in the storage unit 106. Here, the image used as the basis for estimating the marker candidate may be either an image taken by the left camera 101 or an image taken by the right camera 102, or an image taken by both cameras may be used. Regarding the estimation method, for example, the shape recognized by image processing is collated with, for example, a database of road signs stored in the storage unit 106, and a road sign candidate having a degree of matching with any of the road signs is considered as a candidate for the road sign. presume.

立体物認識部112は、画像処理部104で演算した視差情報から左カメラ101及び右カメラ102の撮像範囲に含まれる立体物を認識する。具体的には、左カメラ101及び右カメラ102で得た画像からステレオ画像処理によって立体物を認識する。立体物認識部112は、記憶部106に蓄えられた画像及び視差情報(画像上の各点に対する距離情報)を使い、車両周辺の環境を知覚するために必要な所定の立体物の認識を行う。認識対象の立体物は、人、車、その他の障害物、例えば信号機、道路標識、車のテールランプ及びヘッドライトなどである。これら対象となる立体物のデータベース(例えば識別するための基準データ)は例えば記憶部106に格納されており、立体物認識部112は入力された撮影画像について各被写体の切り出し画像とその視差情報等からデータベースを基に立体物を認識する。 The three-dimensional object recognition unit 112 recognizes a three-dimensional object included in the imaging range of the left camera 101 and the right camera 102 from the parallax information calculated by the image processing unit 104. Specifically, a three-dimensional object is recognized by stereo image processing from the images obtained by the left camera 101 and the right camera 102. The three-dimensional object recognition unit 112 recognizes a predetermined three-dimensional object necessary for perceiving the environment around the vehicle by using the image and the parallax information (distance information for each point on the image) stored in the storage unit 106. .. The three-dimensional object to be recognized is a person, a car, or other obstacle, such as a traffic light, a road sign, a tail lamp of a car, and a headlight. A database of these target three-dimensional objects (for example, reference data for identification) is stored in, for example, a storage unit 106, and the three-dimensional object recognition unit 112 has a cut-out image of each subject and its parallax information, etc. for the input captured image. Recognize three-dimensional objects based on the database.

標識判定部113は、標識推定部111による標識の推定に関する情報と立体物認識部112による立体物の認識に関する情報から、標識推定部111で推定した標識候補が道路標識であるか否かを判定する。演算処理部105による道路標識の認識結果や中間的な計算結果(例えば標識推定部111や立体物認識部112の演算結果等)は適宜、記憶部106に記憶される。この判定アルゴリズムについては後述する。 The sign determination unit 113 determines whether or not the sign candidate estimated by the sign estimation unit 111 is a road sign from the information regarding the estimation of the sign by the sign estimation unit 111 and the information regarding the recognition of the three-dimensional object by the three-dimensional object recognition unit 112. do. The recognition result of the road sign by the calculation processing unit 105 and the intermediate calculation result (for example, the calculation result of the sign estimation unit 111 and the three-dimensional object recognition unit 112) are appropriately stored in the storage unit 106. This determination algorithm will be described later.

記憶部106は例えばメモリであり、画像処理部104や演算処理部105で得られた情報等を記憶する。 The storage unit 106 is, for example, a memory, and stores information and the like obtained by the image processing unit 104 and the arithmetic processing unit 105.

CANインタフェース107はCAN110に対する入出力部であり、カメラ装置100の演算情報は、このCANインタフェース107を介してCAN110に出力され、CAN110を介して自己の車両の制御システムに出力される。具体的には、CANインタフェース107は、CAN110を介して、標識判定部113が標識候補を道路標識であると判定した場合に出力装置114に標識認識結果を出力する。 The CAN interface 107 is an input / output unit for the CAN 110, and the calculation information of the camera device 100 is output to the CAN 110 via the CAN interface 107 and output to the control system of its own vehicle via the CAN 110. Specifically, the CAN interface 107 outputs a sign recognition result to the output device 114 when the sign determination unit 113 determines that the sign candidate is a road sign via the CAN 110.

制御処理部108は、以上のカメラ装置100の動作について、各処理部が異常動作を起こしていないか、又はデータ転送時にエラーが発生していないかどうかなどを監視して異常動作を防ぐ役割を果たす。 The control processing unit 108 has a role of monitoring the operation of the camera device 100 as described above to see if each processing unit has caused an abnormal operation or if an error has occurred during data transfer to prevent the abnormal operation. Fulfill.

以上のようにカメラ装置100で演算された道路標識の判定結果等は、CAN110を介して出力装置114や他の車載コンピュータユニット(例えば車両制御を実行するユニット)に送信される。出力装置114は運転室に搭載された例えばモニタやランプ、ブザー、スピーカ等の表示出力や音声出力をする装置であり、カメラ装置100から入力された情報を基に道路標識を視覚的又は聴覚的に乗員に報知する。報知の方法は単に道路標識の有無のみを知らせるようにすることもできるし、道路標識の種類も併せて知らせるようにすることもできる。また、視覚的出力態様と聴覚的出力態様の少なくとも一方を選択できる構成とすることもできる。他のコンピュータユニットで車両のブレーキやステアリングの制御を実行する場合には、他のコンピュータユニットによる制御の基礎情報にカメラ装置100で演算された道路標識の情報等が付加される。 The road sign determination result and the like calculated by the camera device 100 as described above are transmitted to the output device 114 and other in-vehicle computer units (for example, a unit that executes vehicle control) via the CAN 110. The output device 114 is a device mounted in the driver's cab that outputs a display or a sound of, for example, a monitor, a lamp, a buzzer, a speaker, etc., and visually or audibly displays a road sign based on the information input from the camera device 100. Notify the occupants. The method of notification may be such that only the presence or absence of a road sign is notified, or the type of road sign may also be notified. Further, at least one of the visual output mode and the auditory output mode can be selected. When the brake or steering of the vehicle is controlled by another computer unit, the road sign information calculated by the camera device 100 is added to the basic information of the control by the other computer unit.

−処理フロー−
次に図2を基にカメラ装置100による処理フローを説明する。図2は、カメラ装置100による処理フロー図である。図2に示した車載カメラ装置200は、図1のカメラ装置100を模式的に表したものである。まず左カメラ101による撮像201と右カメラ102による撮像202が行われる。そして、左カメラ101で撮像された画像データ203及び右カメラ102で撮像された画像データ204のそれぞれについて、撮像素子が持つ固有の癖を吸収するための補正などの画像処理や、前方の撮像した物体に対して測定距離(視差情報)を計算するなどのステレオ画像処理205を行う。このステレオ画像処理205については、画像処理部104により実行される。
-Processing flow-
Next, the processing flow by the camera device 100 will be described with reference to FIG. FIG. 2 is a processing flow diagram by the camera device 100. The in-vehicle camera device 200 shown in FIG. 2 is a schematic representation of the camera device 100 of FIG. First, imaging 201 by the left camera 101 and imaging 202 by the right camera 102 are performed. Then, for each of the image data 203 captured by the left camera 101 and the image data 204 captured by the right camera 102, image processing such as correction for absorbing the peculiar habit of the image sensor and front imaging are performed. Stereo image processing 205 such as calculating the measurement distance (parallax information) for an object is performed. The stereo image processing 205 is executed by the image processing unit 104.

次に、ステレオ画像又は諧調画像の所定の切り出しなどの画像処理である立体物検知206を行う。立体物検知206の結果などは、図1の記憶部106に記憶される。その後、ステレオ画像処理205で得られた測定距離結果207と立体物検知206の処理結果とを基に、画像処理(物体認識のための計算処理)である物体認識208の処理が実施される。これら立体物検知206及び物体認識208の処理は、図1の立体物認識部112で行われる。前述した通り、ここで認識される立体物は、人、車、その他の障害物、例えば信号機、道路標識、車のテールランプ及びヘッドライトなどである。その後、立体物検知206及び物体認識208の処理で得られた物体認識結果216(認識された立体物の情報及び立体物とは認識されなかったその他の視差情報を含む)を記憶部106に保存する保存処理215が行われる。本実施の形態では、立体物認識部112の物体認識結果216は記憶部106に保存されると同時に、CAN110を介して他のコンピュータユニットや標識判定部113に出力される。 Next, the stereoscopic object detection 206, which is an image process such as a predetermined cropping of a stereo image or a gradation image, is performed. The result of the three-dimensional object detection 206 and the like are stored in the storage unit 106 of FIG. After that, based on the measurement distance result 207 obtained by the stereo image processing 205 and the processing result of the three-dimensional object detection 206, the object recognition 208 process, which is an image process (calculation process for object recognition), is performed. The processing of the three-dimensional object detection 206 and the object recognition 208 is performed by the three-dimensional object recognition unit 112 of FIG. As mentioned above, the three-dimensional objects recognized here are people, cars and other obstacles such as traffic lights, road signs, car tail lamps and headlights. After that, the object recognition result 216 (including the recognized three-dimensional object information and other parallax information not recognized as the three-dimensional object) obtained by the processing of the three-dimensional object detection 206 and the object recognition 208 is stored in the storage unit 106. Preservation process 215 is performed. In the present embodiment, the object recognition result 216 of the three-dimensional object recognition unit 112 is stored in the storage unit 106, and at the same time, is output to another computer unit or the sign determination unit 113 via the CAN 110.

カメラ装置100においては以上の物体認識の処理と並行して、単眼画像を入力として標識認識処理209が実施される。標識認識処理209は、入力画像から円形物体を抽出する標識検知210、円形物体の種別を特定する標識識別211、画像間での対応付けを行う標識追跡212、及び複数フレームでの総合的な判断を下す標識判定213の4つの処理で構成される。 In the camera device 100, in parallel with the above object recognition process, the sign recognition process 209 is performed by inputting a monocular image. The sign recognition process 209 includes a sign detection 210 that extracts a circular object from an input image, a sign identification 211 that identifies the type of the circular object, a sign tracking 212 that associates images with each other, and a comprehensive determination in a plurality of frames. It is composed of four processes of the sign determination 213.

すなわち、本実施形態では判定対象とする道路標識の外形として円形を想定しており、標識検知210の処理では、例えば画像処理により真円との一致度が一定以上と推定される形状が標識候補として検出される。続く標識識別211の処理では、標識検知210の処理で検出した標識候補が例えば記憶部106に格納された標識のデータベース(認識辞書)と照合され、標識候補の種別(標識候補がどの道路標識の候補であるのか)が識別される。標識追跡212の処理では、カメラ視野の中で車両の走行等に伴って変位し得る標識候補が、連続するフレーム(カメラ画像)間における画像処理による対応付けにより追跡される。ここまでの標識検知210、標識識別211、標識追跡212までの各処理が例えば標識推定部111により実行される。 That is, in the present embodiment, a circular shape is assumed as the outer shape of the road sign to be determined, and in the processing of the sign detection 210, for example, a shape whose degree of coincidence with the perfect circle is estimated to be a certain level or more by image processing is a sign candidate. Is detected as. In the subsequent processing of the sign identification 211, the sign candidates detected in the process of the sign detection 210 are collated with, for example, a sign database (recognition dictionary) stored in the storage unit 106, and the type of the sign candidate (which road sign is the sign candidate). Is it a candidate?) Is identified. In the processing of the sign tracking 212, sign candidates that can be displaced due to the traveling of a vehicle or the like in the camera field of view are tracked by associating between consecutive frames (camera images) by image processing. Each process up to the sign detection 210, the sign identification 211, and the sign tracking 212 up to this point is executed by, for example, the sign estimation unit 111.

標識判定213の処理では、例えば複数フレームの画像から標識候補が本物の道路標識であるかが判定される。この標識判定213の処理は標識判定部113により実行され、立体物認識部112による物体認識208の処理で得られた物体認識結果216に基づいて実行される点が特徴である。本実施形態では、立体物認識部112で認識された立体物その他の視差情報と標識推定部111で推定された標識候補との包含関係及び位置関係から真の道路標識か否かが判定される。この標識判定の処理の詳細については後述する。 In the process of the sign determination 213, for example, it is determined from the images of a plurality of frames whether the sign candidate is a real road sign. The processing of the sign determination 213 is executed by the sign determination unit 113, and is characterized in that it is executed based on the object recognition result 216 obtained by the processing of the object recognition 208 by the three-dimensional object recognition unit 112. In the present embodiment, it is determined whether or not the road sign is a true road sign from the inclusion relationship and the positional relationship between the parallax information of the three-dimensional object and other objects recognized by the three-dimensional object recognition unit 112 and the sign candidate estimated by the sign estimation unit 111. .. The details of this sign determination process will be described later.

最後に、以上の標識認識処理209で得られた標識認識結果を記憶部106に保存する保存処理214が行われる。標識認識処理209による標識認識結果は記憶部106に保存されると同時に、CAN110を介して他のコンピュータユニットや出力装置114に出力される。本実施形態では、対象標識と酷似した物体(つまり真の道路標識ではないと推定される物体)については、出力装置114に標識認識結果が出力されることはなく、真の道路標識と推定される物体についてのみ出力装置114に標識認識結果が出力されて乗員に報知される。 Finally, a storage process 214 for storing the sign recognition result obtained in the above sign recognition process 209 in the storage unit 106 is performed. The sign recognition result by the sign recognition process 209 is stored in the storage unit 106, and at the same time, is output to another computer unit or output device 114 via the CAN 110. In the present embodiment, for an object very similar to the target sign (that is, an object presumed not to be a true road sign), the sign recognition result is not output to the output device 114, and it is presumed to be a true road sign. The sign recognition result is output to the output device 114 and notified to the occupant only for the object.

図3は、図2の標識判定の処理内容を表すフローチャートである。以下、図3に基づいて本発明の標識判定213の処理フローについて説明する。 FIG. 3 is a flowchart showing the processing content of the sign determination of FIG. Hereinafter, the processing flow of the label determination 213 of the present invention will be described with reference to FIG.

(ステップ501)
図2における標識追跡212の結果を入力として、複数の画像での標識候補の識別結果を得る。その後、処理は、次のステップ502へ移行する。
(Step 501)
By inputting the result of the sign tracking 212 in FIG. 2, the identification result of the sign candidate in a plurality of images is obtained. After that, the process proceeds to the next step 502.

(ステップ502)
取得した各画像での識別結果を考慮し、最終的な判定結果を出力する。判定方法としては、各画像の識別結果の多数決を取得しても良いし、識別結果と同時に得られる信頼度まで考慮して判定結果を取得しても良い。なお、自車両の走行速度が遅いほど多くの画像の識別結果が取得可能であり、また、画像ボケも少ないために有利な状況となる。その後、処理は、次のステップ503へ移行する。
(Step 502)
The final judgment result is output in consideration of the identification result of each acquired image. As a determination method, a majority vote of the identification result of each image may be acquired, or the determination result may be acquired in consideration of the reliability obtained at the same time as the identification result. It should be noted that the slower the traveling speed of the own vehicle, the more image identification results can be obtained, and the less the image blur, which is an advantageous situation. After that, the process proceeds to the next step 503.

(ステップ503)
第一の確認として標識候補と、立体物認識部112で認識された立体物との重なり具合をチェックする。標識候補と立体物の包含関係を確認し、標識候補が立体物に全て包含されていた場合、道路上に設置された道路標識である可能性は低いと判断し、標識結果としては出力しないこととする。その後、処理は終了する。
(Step 503)
As the first confirmation, the degree of overlap between the sign candidate and the three-dimensional object recognized by the three-dimensional object recognition unit 112 is checked. Check the inclusion relationship between the sign candidate and the three-dimensional object, and if all the sign candidates are included in the three-dimensional object, judge that it is unlikely that it is a road sign installed on the road, and do not output it as a sign result. And. After that, the process ends.

一方、標識候補が立体物に包含されていない場合は、道路上に設置されている道路標識であると判定し、処理は、ステップ504へ移行する。 On the other hand, if the sign candidate is not included in the three-dimensional object, it is determined that the sign is a road sign installed on the road, and the process proceeds to step 504.

(ステップ504)
本ステップはステップ503では道路標識と認識され得るが実際には道路標識ではない標識候補(つまりステップ503の判定漏れ)の一部を検出するための処理であり、標識候補が遮蔽物より外側(例えば画像内の左右の外側)にあるか判定する。遮蔽物とは、立体物認識部112で立体物に関するデータベースと照合できず所定の立体物とは認識されなかった視差情報のことをいう。遮蔽物と扱われる視差情報の1つの典型例は、現実には所定の立体物であって視差情報は入力されたものの撮影画像に全体が映っておらず所定の立体物と認識できない被写体の一部であって、撮影画像に全部が映っている部分(図6のバス801の側面802等)である。仮に遮蔽物が自車両(カメラ)と現実の道路標識の間にある場合、道路標識の全体は映らず標識候補は真の道路標識ではない可能性が高い。このような事象を識別するために、標識候補が遮蔽物よりも画像内において左右方向の外側に位置しているか(標識候補の左右方向の内側に存在する遮蔽物が存在しないか)を判定する。標識候補が遮蔽物よりも外側に位置している場合には、図6及び図7後述する例のように、その標識候補が道路上に設置された道路標識である可能性は低いと判断し、標識結果としては出力しないこととする。つまり、標識候補と自己の車両との間に遮蔽物が位置する場合には、標識候補は道路標識でないと判定される。その後、処理は終了する。
(Step 504)
This step is a process for detecting a part of a sign candidate that can be recognized as a road sign in step 503 but is not actually a road sign (that is, the judgment omission in step 503), and the sign candidate is outside the shield (that is, the sign candidate is outside the shield (that is, the judgment omission in step 503). For example, it is determined whether or not it is on the left and right outside of the image. The shield means parallax information that cannot be collated with the database related to the three-dimensional object by the three-dimensional object recognition unit 112 and is not recognized as a predetermined three-dimensional object. One typical example of parallax information treated as a shield is one of a subject that is actually a predetermined three-dimensional object and the parallax information is input but the entire image is not shown in the captured image and cannot be recognized as a predetermined three-dimensional object. It is a part (a side surface 802 of the bus 801 in FIG. 6 and the like) in which the whole image is reflected in the photographed image. If the shield is between the vehicle (camera) and the actual road sign, the entire road sign is not shown and the sign candidate is likely not a true road sign. In order to identify such an event, it is determined whether the sign candidate is located outside the shield in the left-right direction in the image (whether there is a shield existing inside the sign candidate in the left-right direction). .. When the sign candidate is located outside the shield, it is judged that it is unlikely that the sign candidate is a road sign installed on the road, as in the examples described later in FIGS. 6 and 7. , It is not output as a labeling result. That is, when a shield is located between the sign candidate and the own vehicle, it is determined that the sign candidate is not a road sign. After that, the process ends.

一方、標識候補が遮蔽物より外側に位置していない場合(標識候補の左右方向の内側に遮蔽物が存在しない場合)は、道路上に設置されている道路標識であると判定し、処理は、ステップ505へ移行する。 On the other hand, when the sign candidate is not located outside the shield (when there is no shield inside the sign candidate in the left-right direction), it is determined that the sign is a road sign installed on the road, and the process is performed. , Step 505.

(ステップ505)
標識判定213は、標識候補が道路標識である旨の標識判定結果を出力する。その後、処理は終了する。
(Step 505)
The sign determination 213 outputs a sign determination result indicating that the sign candidate is a road sign. After that, the process ends.

−実施例1−
図4Aは、バスの背後に設けられた道路標識候補の一例の図である。図4Aに示されるように、バス601は、後面に標識候補603及び標識候補604を備えている。なお、バス601の後面は、カメラ装置100によって立体物602として認識されている。
− Example 1-
FIG. 4A is a diagram of an example of a road sign candidate provided behind the bus. As shown in FIG. 4A, the bus 601 includes a sign candidate 603 and a sign candidate 604 on the rear surface. The rear surface of the bus 601 is recognized as a three-dimensional object 602 by the camera device 100.

欧州においてトラック及びバスなどの大型車両の後面には、この車両は一般道では標識候補603に示された80kphで走行し、高速道路では標識候補604に示された100kphで走行するということを示す、速度遵守ステッカーが貼りつけられている。 On the rear surface of large vehicles such as trucks and buses in Europe, it is shown that this vehicle travels at 80 kph indicated by sign candidate 603 on general roads and at 100 kph indicated by sign candidate 604 on highways. , A speed compliance sticker is affixed.

図4B、及び図4Cの標識候補603及び標識候補604の拡大画像に示されるように、これらの物体は速度制限標識に酷似しているため従来のカメラ装置の処理では、標識認識結果として出力されてしまう。 As shown in the enlarged images of the sign candidate 603 and the sign candidate 604 of FIGS. 4B and 4C, since these objects closely resemble the speed limit sign, they are output as the sign recognition result in the processing of the conventional camera device. It ends up.

一方で、本発明の標識認識装置1は、標識候補603及び標識候補604が立体物602に包含されているので、図3のステップ503において道路上に設置された道路標識である可能性は低いと判断し、標識認識結果としては出力することを抑制する。図4Aの例では、このように標識候補603及び標識候補604が道路標識ではないことが識別され、乗員への誤報が回避される。 On the other hand, in the sign recognition device 1 of the present invention, since the sign candidate 603 and the sign candidate 604 are included in the three-dimensional object 602, it is unlikely that the sign recognition device 1 is a road sign installed on the road in step 503 of FIG. It is judged that the sign recognition result is suppressed from being output. In the example of FIG. 4A, it is thus identified that the sign candidate 603 and the sign candidate 604 are not road signs, and false alarms to the occupants are avoided.

−実施例2−
図5は、道路上に設けられた道路標識候補の図である。図5に示されるように、標識候補701は、立体物702に包含されていない。また、標識候補701は、立体物703にも包含されていない。この例の場合、標識候補701が立体物702にも立体物703にも包含されていないため、図3のステップ503からステップ504に手順が移行する。ステップ504においては標識候補701が遮蔽物より画面内で外側にあるかが判定されるが、遮蔽物が検出されていないため判定が満たされることなくステップ505に手順が移り、標識候補701が道路上に設置されている真の道路標識として出力装置114に出力される。
− Example 2-
FIG. 5 is a diagram of road sign candidates provided on the road. As shown in FIG. 5, the labeling candidate 701 is not included in the three-dimensional object 702. Further, the label candidate 701 is not included in the three-dimensional object 703. In the case of this example, since the labeling candidate 701 is not included in the three-dimensional object 702 or the three-dimensional object 703, the procedure shifts from step 503 to step 504 in FIG. In step 504, it is determined whether the sign candidate 701 is outside the screen from the obstruction, but since the obstruction is not detected, the determination is not satisfied and the procedure moves to step 505, and the sign candidate 701 is on the road. It is output to the output device 114 as a true road sign installed above.

−実施例3−
図6は、バスの背後に設けられた道路標識候補の他の例の図である。図6の例では、バス801の後面804に貼り付けられた速度遵守ステッカーが標識候補803として認識されている。バス801のような大型車両が隣の車線を走行している場合、又は大型車両が路肩に停車している場合、バス801の後面804の位置がカメラ装置100の撮像範囲を逸脱して、後面804の全部が映らずバス801がバスとして認識されない。図6の例ではバス801の後面804に標識候補803が包含されているが、後面804が所定の立体物として認識されないため図3のステップ503の判定では速度遵守ステッカーである標識候補803が道路標識と判定され得る。
− Example 3-
FIG. 6 is a diagram of another example of a road sign candidate provided behind a bus. In the example of FIG. 6, the speed compliance sticker attached to the rear surface 804 of the bus 801 is recognized as the sign candidate 803. When a large vehicle such as bus 801 is traveling in the adjacent lane, or when a large vehicle is parked on the shoulder of the road, the position of the rear surface 804 of the bus 801 deviates from the imaging range of the camera device 100, and the rear surface The entire 804 is not displayed and the bus 801 is not recognized as a bus. In the example of FIG. 6, the sign candidate 803 is included in the rear surface 804 of the bus 801. However, since the rear surface 804 is not recognized as a predetermined three-dimensional object, the sign candidate 803, which is a speed compliance sticker, is a road in the determination of step 503 of FIG. It can be judged as a sign.

しかし、バス801の側面802については全体が映っており、所定の立体物とは認識されずに遮蔽物として分類される。図6の例では遮蔽物である側面802の外側に標識候補803が位置していることから、図3においてステップ504の判定が満たされ、標識候補803が誤って道路標識として出力装置114に出力されることが回避できる。 However, the entire side surface 802 of the bus 801 is reflected, and it is not recognized as a predetermined three-dimensional object and is classified as a shield. In the example of FIG. 6, since the sign candidate 803 is located outside the side surface 802 which is a shield, the determination of step 504 is satisfied in FIG. 3, and the sign candidate 803 is erroneously output to the output device 114 as a road sign. Can be avoided.

図7は、バスの背後に設けられた道路標識候補の上面図(図6の例を俯瞰して表したモデル図)である。図7に示されるように、バス801の側面802と標識候補803の位置関係を見ると、仮に標識候補803が道路上に設置されている道路標識805であった場合には、この側面802を持つバス801に遮蔽されて道路標識805は撮影画像に映らないはずである。このように、標識候補803と側面802の位置関係を確認することで、図3のステップ504に示されるように、誤った標識認識結果を出力することを防ぐことができる。 FIG. 7 is a top view of a road sign candidate provided behind the bus (a model diagram showing the example of FIG. 6 from a bird's-eye view). As shown in FIG. 7, looking at the positional relationship between the side surface 802 of the bus 801 and the sign candidate 803, if the sign candidate 803 is a road sign 805 installed on the road, this side surface 802 is used. The road sign 805 should not appear in the captured image because it is shielded by the bus 801 that it has. By confirming the positional relationship between the sign candidate 803 and the side surface 802 in this way, it is possible to prevent an erroneous sign recognition result from being output as shown in step 504 of FIG.

−変形例−
なお、本実施の形態でカメラ装置100が左カメラ101及び右カメラ102を備えた例を示したが、本発明はこれに限らず左カメラ101又は右カメラ102のいずれか一方を省略し、立体物認識を単眼処理で実行する構成とすることもできる。カメラをまた、図3の例ではステップ503,504の手順を持つフローを説明したが、例えばステップ503の手順で道路標識の真偽判定について十分な精度が得られる場合には、ステップ504の手順は省略しても良い。
-Modification example-
Although an example in which the camera device 100 is provided with the left camera 101 and the right camera 102 is shown in the present embodiment, the present invention is not limited to this, and either the left camera 101 or the right camera 102 is omitted to form a stereoscopic structure. It is also possible to configure the object recognition to be executed by monocular processing. The camera also described the flow having the procedure of steps 503 and 504 in the example of FIG. 3, but if the procedure of step 503 can obtain sufficient accuracy for determining the authenticity of the road sign, the procedure of step 504 is described. May be omitted.

1 標識認識装置、100 カメラ装置、101 左カメラ、102 右カメラ、103 画像入力インタフェース、104 画像処理部、105 演算処理部、106 記憶部、107 CANインタフェース、108 制御処理部、109 バス、110 CAN、111 標識推定部、112 立体物認識部、113 標識判定部、114 出力装置、200 カメラ装置、201 撮像、202 撮像、203 画像データ、204 画像データ、205 ステレオ画像処理、206 立体物検知、207 測定距離結果、208 物体認識、209 標識認識処理、210 標識検知、211 標識識別、212 標識追跡、213 標識判定、214 保存処理、215 保存処理、601 バス、602 立体物、603 標識候補、604 標識候補、701 標識候補、702 立体物、703 立体物、801 バス、802 立体物、803 標識候補、804 後面、805 道路標識 1 sign recognition device, 100 camera device, 101 left camera, 102 right camera, 103 image input interface, 104 image processing unit, 105 arithmetic processing unit, 106 storage unit, 107 CAN interface, 108 control processing unit, 109 bus, 110 CAN , 111 sign estimation unit, 112 three-dimensional object recognition unit, 113 sign determination unit, 114 output device, 200 camera device, 201 imaging, 202 imaging, 203 image data, 204 image data, 205 stereo image processing, 206 three-dimensional object detection, 207 Measurement distance result, 208 object recognition, 209 sign recognition processing, 210 sign detection, 211 sign identification, 212 sign tracking, 213 sign judgment, 214 storage processing, 215 storage processing, 601 bus, 602 three-dimensional object, 603 sign candidate, 604 sign Candidate, 701 sign candidate, 702 three-dimensional object, 703 three-dimensional object, 801 bus, 802 three-dimensional object, 803 sign candidate, 804 rear surface, 805 road sign

Claims (7)

少なくとも一つの撮像部と、
前記撮像部で得た画像から標識候補を推定する標識推定部と、
前記撮像部の撮像範囲に含まれる所定の立体物を認識する立体物認識部と、
前記標識推定部による前記標識候補の推定に関する情報と前記立体物認識部による前記立体物の認識に関する情報から前記標識候補が道路標識であるか否かを判定する標識判定部と、を備えたことを特徴とする標識認識装置。
With at least one imaging unit
A marker estimation unit that estimates a label candidate from an image obtained by the imaging unit, and a label estimation unit.
A three-dimensional object recognition unit that recognizes a predetermined three-dimensional object included in the imaging range of the imaging unit,
It is provided with a sign determination unit for determining whether or not the sign candidate is a road sign from the information regarding the estimation of the sign candidate by the sign estimation unit and the information regarding the recognition of the three-dimensional object by the three-dimensional object recognition unit. A sign recognition device characterized by.
請求項1に記載の標識認識装置において、
前記標識推定部は、単一の前記撮像部で得られた画像から単眼画像処理によって前記標識候補の推定をする、ことを特徴とする標識認識装置。
In the sign recognition device according to claim 1,
The sign estimation unit is a sign recognition device characterized in that a sign candidate is estimated by monocular image processing from an image obtained by a single imaging unit.
請求項1に記載の標識認識装置において、
前記立体物認識部は、複数の前記撮像部で得た画像からステレオ画像処理によって前記立体物を認識することを特徴とする標識認識装置。
In the sign recognition device according to claim 1,
The three-dimensional object recognition unit is a marker recognition device characterized by recognizing the three-dimensional object by stereo image processing from images obtained by the plurality of image pickup units.
請求項3に記載の標識認識装置において、
前記標識判定部は、
前記立体物認識部で認識した前記立体物と、前記標識推定部で取得した前記標識候補の包含関係を判定し、前記標識候補が前記立体物に包含される場合には、前記標識候補は道路標識でないと判定することを特徴とする標識認識装置。
In the sign recognition device according to claim 3,
The sign determination unit
When the inclusion relationship between the three-dimensional object recognized by the three-dimensional object recognition unit and the sign candidate acquired by the sign estimation unit is determined and the sign candidate is included in the three-dimensional object, the sign candidate is a road. A sign recognition device characterized in that it is determined that it is not a sign.
請求項3に記載の標識認識装置において、
前記標識判定部は、
前記ステレオ画像処理で前記立体物と認識されなかった視差情報である遮蔽物と、前記標識推定部で取得した前記標識候補との位置関係を判定し、前記標識候補が前記遮蔽物の外側に位置する場合には、前記標識候補は道路標識でないと判定することを特徴とする標識認識装置。
In the sign recognition device according to claim 3,
The sign determination unit
The positional relationship between the shield, which is parallax information not recognized as the three-dimensional object by the stereo image processing, and the sign candidate acquired by the sign estimation unit is determined, and the sign candidate is located outside the shield. When the sign is used, the sign recognition device is characterized in that the sign candidate is determined not to be a road sign.
請求項1に記載の標識認識装置において、
前記標識判定部による標識認識結果を出力する出力装置をさらに備えた、ことを特徴とする標識認識装置。
In the sign recognition device according to claim 1,
A sign recognition device further comprising an output device that outputs a sign recognition result by the sign determination unit.
請求項6に記載の標識認識装置において、
前記出力装置は、モニタ又はブザーであることを特徴とする標識認識装置。
In the sign recognition device according to claim 6,
The output device is a sign recognition device characterized by being a monitor or a buzzer.
JP2020550281A 2018-10-04 2019-09-19 sign recognition device Active JP7145227B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018189045 2018-10-04
JP2018189045 2018-10-04
PCT/JP2019/036681 WO2020071133A1 (en) 2018-10-04 2019-09-19 Sign recognition device

Publications (2)

Publication Number Publication Date
JPWO2020071133A1 true JPWO2020071133A1 (en) 2021-09-02
JP7145227B2 JP7145227B2 (en) 2022-09-30

Family

ID=70055884

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020550281A Active JP7145227B2 (en) 2018-10-04 2019-09-19 sign recognition device

Country Status (3)

Country Link
JP (1) JP7145227B2 (en)
CN (1) CN112840349A (en)
WO (1) WO2020071133A1 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086268A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Display object recognition device for vehicle
WO2017057043A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Image processing device, image processing method, and program
JP2017091283A (en) * 2015-11-12 2017-05-25 三菱電機株式会社 Driving support device
JP2017091232A (en) * 2015-11-11 2017-05-25 日立オートモティブシステムズ株式会社 Object detector
JP2017228131A (en) * 2016-06-23 2017-12-28 日産自動車株式会社 Reflection target detection method and reflection target detection device
US20180189578A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Lane Network Construction Using High Definition Maps for Autonomous Vehicles
US20180260639A1 (en) * 2014-05-14 2018-09-13 Mobileye Vision Technologies Ltd. Systems and methods for detecting traffic signs

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010062633A1 (en) * 2010-12-08 2012-06-14 Robert Bosch Gmbh Method and device for detecting traffic signs in the vicinity of a vehicle and comparison with traffic sign information from a digital map
WO2012137354A1 (en) * 2011-04-08 2012-10-11 トヨタ自動車株式会社 Road shape inferring system
CN105740877A (en) * 2014-12-09 2016-07-06 比亚迪股份有限公司 Traffic sign recognition method and device, and vehicle
JP6062473B2 (en) * 2015-03-17 2017-01-18 本田技研工業株式会社 Road sign judgment device and road sign judgment method
JP6381137B2 (en) * 2015-07-21 2018-08-29 日本電信電話株式会社 Label detection apparatus, method, and program
JP6319712B2 (en) * 2015-09-15 2018-05-09 マツダ株式会社 Sign recognition display device
DE102016003424B4 (en) * 2016-03-21 2023-09-28 Elektrobit Automotive Gmbh Method and device for recognizing traffic signs
JP6414567B2 (en) * 2016-06-02 2018-10-31 トヨタ自動車株式会社 Speed limit display device for vehicle

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010086268A (en) * 2008-09-30 2010-04-15 Mazda Motor Corp Display object recognition device for vehicle
US20180260639A1 (en) * 2014-05-14 2018-09-13 Mobileye Vision Technologies Ltd. Systems and methods for detecting traffic signs
WO2017057043A1 (en) * 2015-09-30 2017-04-06 ソニー株式会社 Image processing device, image processing method, and program
JP2017091232A (en) * 2015-11-11 2017-05-25 日立オートモティブシステムズ株式会社 Object detector
JP2017091283A (en) * 2015-11-12 2017-05-25 三菱電機株式会社 Driving support device
JP2017228131A (en) * 2016-06-23 2017-12-28 日産自動車株式会社 Reflection target detection method and reflection target detection device
US20180189578A1 (en) * 2016-12-30 2018-07-05 DeepMap Inc. Lane Network Construction Using High Definition Maps for Autonomous Vehicles

Also Published As

Publication number Publication date
JP7145227B2 (en) 2022-09-30
CN112840349A (en) 2021-05-25
WO2020071133A1 (en) 2020-04-09

Similar Documents

Publication Publication Date Title
JP4420011B2 (en) Object detection device
JP5345350B2 (en) Vehicle driving support device
US9180814B2 (en) Vehicle rear left and right side warning apparatus, vehicle rear left and right side warning method, and three-dimensional object detecting device
EP3161507B1 (en) Method for tracking a target vehicle approaching a motor vehicle by means of a camera system of the motor vehicle, camera system and motor vehicle
WO2018092265A1 (en) Driving assistance device and driving assistance method
CN108027422A (en) Detected dangerous deviation vehicle automatically by means of automobile sensor
US20070126565A1 (en) Process for monitoring blind angle in motor vehicles
US9870513B2 (en) Method and device for detecting objects from depth-resolved image data
CN107680012A (en) Vehicle DAS (Driver Assistant System) and method
CN107408338A (en) Driver assistance system
JP2010113601A (en) Vehicle warning apparatus
US20180204462A1 (en) Device and method for start assistance for a motor vehicle
JP2022502642A (en) How to evaluate the effect of objects around the means of transportation on the driving operation of the means of transportation
JP4906437B2 (en) Perimeter monitoring system
JP4848644B2 (en) Obstacle recognition system
US11893802B2 (en) Systems and methods for traffic light identification
US20200410788A1 (en) Management apparatus, vehicle, inspection apparatus, and vehicle inspection system and inforamtion processing method therefor
JP2011103058A (en) Erroneous recognition prevention device
JP7145227B2 (en) sign recognition device
JP2015191437A (en) Driving support device
CN113591673A (en) Method and device for recognizing traffic signs
KR102536826B1 (en) Apparatus and method for driving information of a car, and program recorded on a recording medium performing the method
JP7432198B2 (en) Situation awareness estimation system and driving support system
JP2011090490A (en) Obstacle recognition device
JP6681044B2 (en) Reverse running detection system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210302

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220412

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220613

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220823

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220916

R150 Certificate of patent or registration of utility model

Ref document number: 7145227

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150