JP6789151B2 - Camera devices, detectors, detection systems and mobiles - Google Patents

Camera devices, detectors, detection systems and mobiles Download PDF

Info

Publication number
JP6789151B2
JP6789151B2 JP2017034128A JP2017034128A JP6789151B2 JP 6789151 B2 JP6789151 B2 JP 6789151B2 JP 2017034128 A JP2017034128 A JP 2017034128A JP 2017034128 A JP2017034128 A JP 2017034128A JP 6789151 B2 JP6789151 B2 JP 6789151B2
Authority
JP
Japan
Prior art keywords
image
region
controller
camera
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017034128A
Other languages
Japanese (ja)
Other versions
JP2018142756A (en
Inventor
隆一 澤田
隆一 澤田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2017034128A priority Critical patent/JP6789151B2/en
Publication of JP2018142756A publication Critical patent/JP2018142756A/en
Application granted granted Critical
Publication of JP6789151B2 publication Critical patent/JP6789151B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、カメラ装置、検出装置、検出システムおよび移動体に関するものである。 The present invention relates to camera devices, detection devices, detection systems and mobile objects.

カメラにより撮像した画像から、歩行者、車両等の認識対象物を検出して、警報を発することができる検出装置が知られている(例えば、特許文献1参照)。 A detection device capable of detecting a recognition object such as a pedestrian or a vehicle from an image captured by a camera and issuing an alarm is known (see, for example, Patent Document 1).

特開平11−215487号公報Japanese Unexamined Patent Publication No. 11-215487

車両等の移動体に搭載される検出装置など、屋外でカメラ画像を用いて物体を検出する装置では、カメラのレンズに泥または雨滴などの付着物が付着することがある。カメラを移動体の内部に置いて、ウィンドウ越しに外部を撮像する場合も、カメラの視野内のウィンドウに泥または雨滴などの付着物が付着することがある。そのような場合、撮像した画像内に付着物が写り込むことによって、それら付着物の一部を、車両または歩行者等の認識対象物と誤認識してしまうことがある。 In a device that detects an object using a camera image outdoors, such as a detection device mounted on a moving body such as a vehicle, deposits such as mud or raindrops may adhere to the lens of the camera. Even when the camera is placed inside a moving object and the outside is imaged through the window, deposits such as mud or raindrops may adhere to the window in the field of view of the camera. In such a case, if the deposits are reflected in the captured image, a part of the deposits may be erroneously recognized as a recognition target such as a vehicle or a pedestrian.

付着物を認識対象物と誤認識すると、使用者に対して不要な警報が頻繁に発生し煩わしさを感じさせうる。認識対象物が認識されず、使用者に対して必要な警報が提供されないと、警報装置としての機能を十分に発揮することができなくなりうる。 If the deposit is mistakenly recognized as a recognition target, an unnecessary alarm is frequently generated for the user, which may cause annoyance. If the object to be recognized is not recognized and the necessary alarm is not provided to the user, the function as an alarm device may not be fully exerted.

したがって、これらの点に着目してなされた本発明の目的は、付着物がある場合における認識対象物の認識精度を改善したカメラ装置、検出装置、検出システムおよび移動体を提供することにある。 Therefore, an object of the present invention made by paying attention to these points is to provide a camera device, a detection device, a detection system, and a moving body having improved recognition accuracy of a recognition target object in the presence of deposits.

本開示の一実施形態に係るカメラ装置は、カメラとコントローラとを備える。カメラは、移動体に取り付けられ移動体の周辺を撮像する。コントローラは、カメラからの撮像画像について、移動体の外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する撮像画像上の第1領域を検出する第1処理、および、認識対象物に係る形状または特徴に基づき撮像画像の部分を検出画像として検出する第2処理を行う。コントローラは、第1処理の結果および第2処理の結果に基づいて信号を生成する。コントローラは、第2処理において、撮像画像から検出画像を検出する複数のアルゴリズムを有し、第1領域と、撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて認識対象物の認識を行う The camera device according to the embodiment of the present disclosure includes a camera and a controller. The camera is attached to the moving body and images the periphery of the moving body. The controller recognizes the deposits attached to the translucent member exposed to the outside of the moving body in the captured image from the camera, and detects the first region on the captured image in which the deposits are located. A second process is performed to detect a portion of the captured image as a detection image based on the shape or feature of the recognition target. The controller generates a signal based on the result of the first process and the result of the second process. The controller has a plurality of algorithms for detecting the detected image from the captured image in the second process, and uses different algorithms in the first region and the second region, which is a region other than the first region of the captured image. Recognize the object to be recognized

本開示の一実施形態に係る検出装置は、入力部とコントローラとを備える。入力部は、移動体に取り付けられ移動体の周辺を撮像するカメラからの撮像画像を受信する。コントローラは、入力部で受信したカメラからの撮像画像について、移動体の外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する撮像画像上の第1領域を検出する第1処理、および、認識対象物に係る形状または特徴に基づき検出画像を検出する第2処理を行う。コントローラは、第1処理の結果および第2処理の結果に基づいて信号を生成する。コントローラは、第2処理において、撮像画像から検出画像を検出する複数のアルゴリズムを有し、第1領域と、撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて認識対象物の認識を行う。 The detection device according to the embodiment of the present disclosure includes an input unit and a controller. The input unit receives an image captured by a camera attached to the moving body and images the surroundings of the moving body. The controller recognizes the deposits attached to the translucent member exposed to the outside of the moving body in the captured image from the camera received by the input unit, and detects the first region on the captured image in which the deposits are located. The first process and the second process of detecting the detected image based on the shape or feature of the recognition object are performed. The controller generates a signal based on the result of the first process and the result of the second process. The controller has a plurality of algorithms for detecting the detected image from the captured image in the second process, and uses different algorithms in the first region and the second region, which is a region other than the first region of the captured image. To recognize the object to be recognized.

本開示の一実施形態に係る検出システムは、カメラと検出装置とを備える。カメラは、移動体に取り付けられ移動体の周辺を撮像する。検出装置は、入力部とコントローラとを含む。入力部は、カメラからの撮像画像を受信する。コントローラは、入力部で受信したカメラからの撮像画像について、移動体の外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する撮像画像上の第1領域を検出する第1処理、および、認識対象物に係る形状または特徴に基づき検出画像を検出する第2処理を行う。コントローラは、第1処理の結果および第2処理の結果に基づいて信号を生成する。コントローラは、第2処理において、撮像画像から検出画像を検出する複数のアルゴリズムを有し、第1領域と、撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて認識対象物の認識を行う。 The detection system according to the embodiment of the present disclosure includes a camera and a detection device. The camera is attached to the moving body and images the periphery of the moving body. The detection device includes an input unit and a controller. The input unit receives the captured image from the camera. The controller recognizes the deposits attached to the translucent member exposed to the outside of the moving body in the captured image from the camera received by the input unit, and detects the first region on the captured image in which the deposits are located. The first process and the second process of detecting the detected image based on the shape or feature of the recognition object are performed. The controller generates a signal based on the result of the first process and the result of the second process. The controller has a plurality of algorithms for detecting the detected image from the captured image in the second process, and uses different algorithms in the first region and the second region, which is a region other than the first region of the captured image. To recognize the object to be recognized.

本開示の一実施形態に係る移動体は、カメラ装置を備える。カメラ装置は、周辺を撮像するカメラおよびコントローラを含む。コントローラは、入力部で受信したカメラからの撮像画像について、移動体の外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する撮像画像上の第1領域を検出するする第1処理、および、認識対象物に係る形状または特徴に基づき検出画像を検出する第2処理を行う。コントローラは、第1処理の結果および第2処理の結果に基づいて信号を生成する。コントローラは、第2処理において、撮像画像から検出画像を検出する複数のアルゴリズムを有し、第1領域と、撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて認識対象物の認識を行う。
The moving body according to the embodiment of the present disclosure includes a camera device. The camera device includes a camera and a controller that image the surroundings. The controller recognizes the deposits attached to the translucent member exposed to the outside of the moving body in the captured image from the camera received by the input unit, and detects the first region on the captured image in which the deposits are located. The first process is performed, and the second process is performed to detect the detected image based on the shape or feature of the object to be recognized. The controller generates a signal based on the result of the first process and the result of the second process. The controller has a plurality of algorithms for detecting the detected image from the captured image in the second process, and uses different algorithms in the first region and the second region, which is a region other than the first region of the captured image. To recognize the object to be recognized.

本発明によれば、付着物がある場合における認識対象物の認識精度を改善することができる。 According to the present invention, it is possible to improve the recognition accuracy of the recognition target object when there is an deposit.

複数の実施形態の1つに係るカメラ装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the camera apparatus which concerns on one of a plurality of embodiments. 図1の検出システムを備える車両を左側方から見た図である。It is a figure which looked at the vehicle equipped with the detection system of FIG. 1 from the left side. 複数の実施形態の他の1つに係るカメラ装置の概略構成を示すブロック図である。It is a block diagram which shows the schematic structure of the camera apparatus which concerns on another one of a plurality of embodiments. 図1のコントローラの機能ブロック図の第1例である。This is the first example of the functional block diagram of the controller of FIG. カメラにより撮像した第1画像の例を示す図である。It is a figure which shows the example of the 1st image imaged by a camera. 第1画像を変換して得られる第2画像の第1例を示す図である。It is a figure which shows the 1st example of the 2nd image obtained by converting the 1st image. コントローラが実行する処理を示すフローチャートの第1例である。This is the first example of a flowchart showing the processing executed by the controller. 図6の第2画像からの検出画像の検出を説明する図である。It is a figure explaining the detection of the detection image from the 2nd image of FIG. 第1画像を変換して得られる第2画像の第2例を示す図である。It is a figure which shows the 2nd example of the 2nd image obtained by converting the 1st image. コントローラが実行する処理を示すフローチャートの第2例である。This is the second example of the flowchart showing the process executed by the controller. コントローラが実行する処理を示すフローチャートの第3例である。This is a third example of a flowchart showing the processing executed by the controller. 図1のコントローラの機能ブロック図の第2例である。This is the second example of the functional block diagram of the controller of FIG. コントローラの実行する処理を示すフローチャートの第4例である。This is a fourth example of a flowchart showing the processing executed by the controller. 図1のコントローラの機能ブロック図の第3例である。It is a 3rd example of the functional block diagram of the controller of FIG. 図14の機能ブロック図の第3例による処理を説明する図である。It is a figure explaining the process by the 3rd example of the functional block diagram of FIG. コントローラの実行する処理を示すフローチャートの第5例である。This is a fifth example of a flowchart showing the processing executed by the controller.

以下、本発明の実施の形態について、図面を参照して説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1を参照して、複数の実施形態の1つに係る検出システム10について説明する。 The detection system 10 according to one of the plurality of embodiments will be described with reference to FIG.

検出システム10は、カメラ20と検出装置30とを備える。カメラ20と検出装置30とは、例えばネットワーク15を介して情報を送受信可能である。ネットワーク15は、例えば無線、有線、またはCAN(Controller Area Network)等を含んでよい。 The detection system 10 includes a camera 20 and a detection device 30. The camera 20 and the detection device 30 can transmit and receive information via, for example, a network 15. The network 15 may include, for example, wireless, wired, CAN (Controller Area Network), or the like.

検出システム10は、図2に示すように、移動体50内に搭載することができる。検出装置30は、移動体50内の警報装置40および/またはECU(Electronic Control Unit)45等と、ネットワーク15を介して情報の送受信を可能としうる。 As shown in FIG. 2, the detection system 10 can be mounted in the moving body 50. The detection device 30 can transmit and receive information via the network 15 with the alarm device 40 and / or the ECU (Electronic Control Unit) 45 or the like in the mobile body 50.

警報装置40は、運転者60に対して警報を発する装置である。警報装置40は、警告音を発するスピーカー、運転者60の座席を振動させる振動発生装置を含みうる。警報装置40は、移動体50内のディスプレイ装置を兼用することができる。ECU45は、移動体50の制御用のコンピュータである。移動体が車両の場合、ECUは、移動体50のブレーキ制御用のECU、エンジン制御用のECU、および、ステアリング制御用のECUを含んでよい。 The alarm device 40 is a device that issues an alarm to the driver 60. The alarm device 40 may include a speaker that emits a warning sound and a vibration generator that vibrates the seat of the driver 60. The alarm device 40 can also serve as a display device in the moving body 50. The ECU 45 is a computer for controlling the mobile body 50. When the moving body is a vehicle, the ECU may include an ECU for brake control of the moving body 50, an ECU for engine control, and an ECU for steering control.

本開示における「移動体」は、例えば車両、船舶、および航空機等を含んでよい。車両は、例えば自動車、産業車両、鉄道車両、生活車両、および滑走路を走行する固定翼機等を含んでよい。自動車は、例えば乗用車、トラック、バス、二輪車、およびトロリーバス等を含んでよい。産業車両は、例えば農業および建設向けの産業車両等を含んでよい。産業車両は、例えばフォークリフトおよびゴルフカート等を含んでよい。農業向けの産業車両は、例えばトラクター、耕耘機、移植機、バインダー、コンバイン、および芝刈り機等を含んでよい。建設向けの産業車両は、例えばブルドーザー、スクレーバー、ショベルカー、クレーン車、ダンプカー、およびロードローラ等を含んでよい。車両は、人力で走行するものを含んでよい。車両の分類は、上述した例に限られない。例えば、自動車は、道路を走行可能な産業車両を含んでよい。複数の分類に同じ車両が含まれてよい。船舶は、例えばマリンジェット、ボート、およびタンカー等を含んでよい。航空機は、例えば固定翼機および回転翼機等を含んでよい。 The "moving body" in the present disclosure may include, for example, a vehicle, a ship, an aircraft, and the like. Vehicles may include, for example, automobiles, industrial vehicles, railroad vehicles, living vehicles, fixed-wing aircraft traveling on runways, and the like. Automobiles may include, for example, passenger cars, trucks, buses, motorcycles, trolley buses and the like. Industrial vehicles may include, for example, industrial vehicles for agriculture and construction. Industrial vehicles may include, for example, forklifts and golf carts. Industrial vehicles for agriculture may include, for example, tractors, cultivators, transplanters, binders, combines, lawnmowers and the like. Industrial vehicles for construction may include, for example, bulldozers, scrapers, excavators, crane trucks, dump trucks, road rollers and the like. The vehicle may include a vehicle that runs manually. The classification of vehicles is not limited to the above examples. For example, automobiles may include industrial vehicles that can travel on the road. The same vehicle may be included in multiple categories. Vessels may include, for example, marine jets, boats, tankers and the like. Aircraft may include, for example, fixed-wing aircraft, rotorcraft, and the like.

カメラ20は移動体50に固定される。カメラ20は移動体50に対して着脱可能に固定されうる。カメラ20は、移動体50の外部領域を撮像可能である。カメラ20の位置は、移動体50の内部および外部において任意である。例えば、一実施形態において、カメラ20は、図2に示すように移動体50の後方に位置し、移動体50の後方の外部領域を撮像できる。他の実施形態において、カメラ20に代えて、移動体50の内側にカメラ20aが設けられてもよい。例えば、一実施形態において、カメラ20は、図2に示すように移動体50のリアウィンドウに面し、移動体50の後方の外部領域を撮像できる。検出装置30の位置は、移動体50内において任意である。警報装置40は、警報を発する。運転者60は、警報装置40の発する警報を知覚しうる。例えば、警報装置40がディスプレイ装置の場合、警報装置40は、運転者60によって視認可能に置かれる。例えば図2に示すように、警報装置40は、移動体50のダッシュボードの中に位置する。 The camera 20 is fixed to the moving body 50. The camera 20 can be detachably fixed to the moving body 50. The camera 20 can image an external region of the moving body 50. The position of the camera 20 is arbitrary inside and outside the moving body 50. For example, in one embodiment, the camera 20 is located behind the moving body 50 as shown in FIG. 2 and can image an external region behind the moving body 50. In another embodiment, the camera 20a may be provided inside the moving body 50 instead of the camera 20. For example, in one embodiment, the camera 20 faces the rear window of the moving body 50 and can image an external region behind the moving body 50 as shown in FIG. The position of the detection device 30 is arbitrary within the moving body 50. The alarm device 40 issues an alarm. The driver 60 can perceive the alarm issued by the alarm device 40. For example, when the alarm device 40 is a display device, the alarm device 40 is visibly placed by the driver 60. For example, as shown in FIG. 2, the alarm device 40 is located in the dashboard of the moving body 50.

カメラ20について詳細に説明する。例えば、図1に示すように、カメラ20は、撮像光学系21と撮像素子22と、制御部23と、通信部24とを備える。 The camera 20 will be described in detail. For example, as shown in FIG. 1, the camera 20 includes an image pickup optical system 21, an image pickup element 22, a control unit 23, and a communication unit 24.

撮像光学系21は、被写体像を撮像素子22の受光面上に結像させる。例えば、撮像光学系21は、絞りおよび1つ以上のレンズを含んでよい。レンズは、広角レンズを採用しうる。レンズは、魚眼レンズを用いてよい。魚眼レンズは、例えば、水平画角が180°以上としうる。魚眼レンズは、例えば、水平画角が180°未満としうる。 The image pickup optical system 21 forms a subject image on the light receiving surface of the image pickup element 22. For example, the imaging optics 21 may include an aperture and one or more lenses. A wide-angle lens can be adopted as the lens. As the lens, a fisheye lens may be used. The fisheye lens may have a horizontal angle of view of 180 ° or more, for example. The fisheye lens can have, for example, a horizontal angle of view of less than 180 °.

撮像素子22は、2次元配列された複数の画素を有する。撮像素子22は、例えばCCD(Charge Coupled Device)撮像素子またはCMOS(Complementary Metal Oxide Semiconductor)撮像素子を含んでよい。撮像素子22は、撮像光学系21によって結像される被写体像を撮像して、撮像画像を生成可能である。本願において、撮像画像は動画像としてよい。動画像は映像と言い換えることができる。 The image sensor 22 has a plurality of pixels arranged in two dimensions. The image pickup device 22 may include, for example, a CCD (Charge Coupled Device) image pickup device or a CMOS (Complementary Metal Oxide Semiconductor) image pickup device. The image pickup device 22 can take an image of a subject imaged by the image pickup optical system 21 and generate an image pickup image. In the present application, the captured image may be a moving image. Video can be rephrased as video.

制御部23は、1つ以上のプロセッサを含む。本開示における「プロセッサ」は、特定の処理に特化した専用のプロセッサ、および特定のプログラムを読み込むことによって特定の機能を実行する汎用のプロセッサを含んでよい。専用のプロセッサには、DSP(Digital Signal Processor)および特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれてよい。プロセッサには、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれてよい。PLDには、FPGA(Field-Programmable Gate Array)が含まれてよい。制御部23は、1つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、およびSiP(System In a Package)のいずれかであってよい。 The control unit 23 includes one or more processors. The "processor" in the present disclosure may include a dedicated processor specialized for a specific process, and a general-purpose processor that executes a specific function by loading a specific program. Dedicated processors may include DSPs (Digital Signal Processors) and application specific integrated circuits (ASICs). The processor may include a programmable logic device (PLD). The PLD may include an FPGA (Field-Programmable Gate Array). The control unit 23 may be either a SoC (System-on-a-Chip) in which one or a plurality of processors cooperate, or a SiP (System In a Package).

制御部23は、カメラ20全体の動作を制御する。制御部23は、任意のフレームレートで、撮像素子22に撮像画像を生成させてよい。当該フレームレートは、例えば、警報装置40の一例であるディスプレイ装置が表示可能なフレームレートに略一致してよい。当該フレームレートは、例えば、警報装置40の一例であるディスプレイ装置が表示可能なフレームレートより大きくしうる。当該フレームレートが表示可能なフレームレートより大きい場合、警報装置40の一例であるディスプレイ装置は、一部のフレームを表示しうる。当該画像処理は、例えば露出調整処理、ホワイトバランス処理、および歪み補正処理等を含んでよい。制御部23は、通信部24を介して検出装置30へ、撮像画像を出力する。例えば、制御部23は、上述のフレームレートで撮像画像を順次に出力してよい。以下、上述のフレームレートで出力される各撮像画像を、単にフレームともいう。カメラ20から出力される当該複数の撮像画像を、第1画像ともいう。 The control unit 23 controls the operation of the entire camera 20. The control unit 23 may cause the image pickup device 22 to generate an image pickup image at an arbitrary frame rate. The frame rate may substantially match the frame rate that can be displayed by the display device, which is an example of the alarm device 40, for example. The frame rate may be higher than the frame rate that can be displayed by the display device, which is an example of the alarm device 40, for example. When the frame rate is larger than the frame rate that can be displayed, the display device, which is an example of the alarm device 40, can display a part of the frames. The image processing may include, for example, exposure adjustment processing, white balance processing, distortion correction processing, and the like. The control unit 23 outputs the captured image to the detection device 30 via the communication unit 24. For example, the control unit 23 may sequentially output captured images at the above-mentioned frame rate. Hereinafter, each captured image output at the above-mentioned frame rate is also simply referred to as a frame. The plurality of captured images output from the camera 20 are also referred to as a first image.

通信部24は、検出装置30と通信可能な通信インタフェースを含む。通信部24は、警報装置40、ECU45および他の外部装置と通信可能な通信インタフェースを含んでよい。通信部24は、ネットワーク15を介して情報の送受信が可能であってよい。本開示における「通信インタフェース」は、例えば物理コネクタ、および無線通信機を含んでよい。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、および電磁波による伝送に対応した電磁コネクタを含んでよい。電気コネクタは、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、RCA端子に対応するコネクタ、EIAJ CP−1211Aに規定されるS端子に対応するコネクタ、EIAJ RC−5237に規定されるD端子に対応するコネクタ、HDMI(登録商標)規格に準拠するコネクタ、およびBNC(British Naval ConnectorまたはBaby-series N Connector等)を含む同軸ケーブルに対応するコネクタを含んでよい。光コネクタは、IEC 61754に準拠する種々のコネクタを含んでよい。無線通信機は、Bluetooth(登録商標)、およびIEEE802.11を含む各規格に準拠する無線通信機を含んでよい。無線通信機は、少なくとも1つのアンテナを含む。 The communication unit 24 includes a communication interface capable of communicating with the detection device 30. The communication unit 24 may include a communication interface capable of communicating with the alarm device 40, the ECU 45 and other external devices. The communication unit 24 may be able to send and receive information via the network 15. The "communication interface" in the present disclosure may include, for example, a physical connector and a wireless communication device. The physical connector may include an electric connector corresponding to transmission by an electric signal, an optical connector corresponding to transmission by an optical signal, and an electromagnetic connector corresponding to transmission by an electromagnetic wave. The electric connector includes a connector compliant with IEC60603, a connector compliant with the USB standard, a connector corresponding to the RCA terminal, a connector corresponding to the S terminal specified by EIAJ CP-1211A, and a D terminal specified by EIAJ RC-5237. It may include a corresponding connector, a connector conforming to the HDMI® standard, and a connector corresponding to a coaxial cable including a BNC (British Naval Connector or Baby-series N Connector, etc.). Optical connectors may include various connectors according to IEC 61754. The wireless communication device may include a wireless communication device conforming to each standard including Bluetooth (registered trademark) and 802.11. The wireless communication device includes at least one antenna.

検出装置30について詳細に説明する。検出装置30は、コントローラ31と、メモリ32と、入力部33と、出力部34とを備える。 The detection device 30 will be described in detail. The detection device 30 includes a controller 31, a memory 32, an input unit 33, and an output unit 34.

入力部33は、カメラ20からの撮像画像を受信する入力インタフェースである。出力部34は、警報装置40およびECU45へ信号を出力する出力インタフェースである。入力部33および出力部34は、カメラ20の通信部24と同様な通信インタフェースを備える1つの通信部であってよい。 The input unit 33 is an input interface for receiving an image captured by the camera 20. The output unit 34 is an output interface that outputs a signal to the alarm device 40 and the ECU 45. The input unit 33 and the output unit 34 may be one communication unit having a communication interface similar to that of the communication unit 24 of the camera 20.

コントローラ31は、1つ以上のプロセッサを含む。コントローラ31は、1つまたは複数のプロセッサが協働するSoC、およびSiPのいずれかであってよい。コントローラ31は、第1処理および第2処理を含む処理を実行できる。第1処理において、コントローラ31は、カメラ20からの撮像画像について、移動体50の外部に露出する透光部材に付着した付着物を認識する。第2処理において、コントローラ31は、認識対象物に係る形状または特徴に基づき撮像画像の部分を検出画像として検出する。コントローラ31は、第1処理の結果および前記第2処理の結果に基づいて信号を生成する。なお、本願において、「認識対象物」は、検出装置30、検出システム10、または、後述するカメラ装置11が、撮像画像の中から認識する対象となっている物体である。図面において、認識対象物は、単に「対象物」と記載する場合がある。 The controller 31 includes one or more processors. The controller 31 may be either an SoC or a SiP in which one or more processors cooperate. The controller 31 can execute a process including the first process and the second process. In the first process, the controller 31 recognizes the deposits attached to the translucent member exposed to the outside of the moving body 50 in the image captured by the camera 20. In the second process, the controller 31 detects a portion of the captured image as a detection image based on the shape or feature of the recognition object. The controller 31 generates a signal based on the result of the first process and the result of the second process. In the present application, the "recognition target object" is an object that the detection device 30, the detection system 10, or the camera device 11 described later recognizes from the captured image. In the drawings, the recognition object may be simply described as "object".

透光部材は、カメラ20の撮像光学系21が移動体50の外部に露出しているとき、撮像光学系21の最も被写体側のレンズとなりうる。投光部材は、カメラ20が図2のカメラ20aで示すように、移動体50の内部に設けられたとき、ウィンドウとなりうる。ウィンドウにはリアウィンドウ、フロントウィンドウ、サイドウィンドウを含みうる。このウィンドウは、ウィンドシールドといいうる。 The translucent member can be the lens closest to the subject of the image pickup optical system 21 when the image pickup optical system 21 of the camera 20 is exposed to the outside of the moving body 50. The light projecting member can be a window when the camera 20 is provided inside the moving body 50, as shown by the camera 20a in FIG. Windows can include rear windows, front windows, and side windows. This window can be called a windshield.

付着物は、投光部材に付着してカメラ20の撮像視野を少なくとも部分的に妨げる物体である。付着物は、個体、液体、およびそれらが混じり合ったものを含む。付着物は、光透過性を有してよく、光透過性を有さなくてよい。付着物は、降雨時の雨滴、降雪時の雪、地面からはねた泥水、木の葉、虫、ごみ等を含みうる。 The deposit is an object that adheres to the light projecting member and at least partially obstructs the imaging field of view of the camera 20. Deposits include solids, liquids, and mixtures thereof. The deposit may have light transmission and may not have light transmission. Deposits can include raindrops during rainfall, snow during snowfall, muddy water splashed from the ground, leaves, insects, debris, and the like.

認識対象物は、検出対象とする被写体物である。認識対象物には、歩行者、自動車、自転車、および、電柱のうち1つ以上を含みうる。検出画像は、撮像画像中から検出された認識対象物と判定されうる認識対象物の候補の画像である。撮像画像中で、認識対象物が、移動体50の進行方向にある場合、コントローラ31は、この認識対象物を障害物であると認識しうる。 The recognition target is a subject to be detected. The object to be recognized may include one or more of pedestrians, automobiles, bicycles, and utility poles. The detected image is an image of a candidate recognition object that can be determined to be a recognition object detected from the captured image. When the recognition target is in the traveling direction of the moving body 50 in the captured image, the controller 31 can recognize the recognition target as an obstacle.

信号は、出力部34を介して警報装置40に送出される警報信号を含む。警報装置40は、検出装置30から送出される警報信号を受けて、運転者60に向けての警報を発することができる。警報装置40が、ディスプレイ装置の場合、信号はカメラ20の撮像画像を加工した画像信号であってよい。例えば、コントローラ31は、撮像画像内に歩行者である認識対象物を検出したとき、その歩行者が障害物と認識される場合、警報装置40に表示する歩行者の画像に運転者60の注意を喚起するように加工を施しうる。例えば、コントローラ31は、歩行者の画像に赤等の色を付すことができる。 The signal includes an alarm signal sent to the alarm device 40 via the output unit 34. The alarm device 40 can issue an alarm to the driver 60 in response to the alarm signal sent from the detection device 30. When the alarm device 40 is a display device, the signal may be an image signal obtained by processing an image captured by the camera 20. For example, when the controller 31 detects a recognition object that is a pedestrian in the captured image and the pedestrian is recognized as an obstacle, the driver 60 pays attention to the pedestrian image displayed on the alarm device 40. Can be processed to evoke. For example, the controller 31 can add a color such as red to the image of a pedestrian.

警報信号は、ECU45に送信されてよい。例えば、ECU45がブレーキ制御用のECUの場合、ECU45は警告信号を受信すると、移動体50を停止させ歩行者との衝突を避ける。例えば、ECU45が進路制御用のECUの場合、ECU45は警告信号を受信すると、移動体50の進路を変更して歩行者との衝突を避ける。例えば、ECU45が音響制御用のECUの場合、ECU45は警告信号を受信すると、音を発し、運転者60および当該歩行者の少なくとも一方に警告を発する。 The alarm signal may be transmitted to the ECU 45. For example, when the ECU 45 is an ECU for brake control, when the ECU 45 receives a warning signal, the moving body 50 is stopped to avoid a collision with a pedestrian. For example, when the ECU 45 is an ECU for course control, when the ECU 45 receives a warning signal, the ECU 45 changes the course of the moving body 50 to avoid a collision with a pedestrian. For example, when the ECU 45 is an ECU for acoustic control, when the ECU 45 receives a warning signal, it emits a sound and issues a warning to at least one of the driver 60 and the pedestrian.

メモリ32は、一次メモリおよび二次メモリを含んでよい。メモリ32は、例えば半導体メモリ、磁気メモリ、および光メモリ等を用いて構成されてよい。半導体メモリは、揮発性メモリおよび不揮発性メモリを含んでよい。磁気メモリは、例えばハードディスクおよび磁気テープ等を含んでよい。メモリ32は、コントローラ31の動作に必要な種々の情報およびプログラムを記憶する。例えば、メモリ32は、カメラ20より出力された撮像画像、第1処理および第2処理の結果を一時的に保存してよい。メモリ32は、第1処理および第2処理に使用されるデータを格納してよい。例えば、メモリ32は、後述するテンプレートマッチングに使用される歩行者、自動車、自転車等の認識対象物のテンプレート、機械学習により得られるアルゴリズム、認識対象物の検出用プログラム等を予め保存してよい。 The memory 32 may include a primary memory and a secondary memory. The memory 32 may be configured by using, for example, a semiconductor memory, a magnetic memory, an optical memory, or the like. The semiconductor memory may include a volatile memory and a non-volatile memory. The magnetic memory may include, for example, a hard disk, magnetic tape, and the like. The memory 32 stores various information and programs necessary for the operation of the controller 31. For example, the memory 32 may temporarily store the captured image output from the camera 20 and the results of the first processing and the second processing. The memory 32 may store data used for the first process and the second process. For example, the memory 32 may store in advance templates for recognition objects such as pedestrians, automobiles, and bicycles, algorithms obtained by machine learning, and programs for detecting recognition objects, which are used for template matching described later.

図3に示すように、検出システム10のカメラ20と検出装置30とを、カメラ装置11として一体化することも可能である。カメラ装置11は、撮像光学系21aおよび撮像素子22aを含むカメラ20aとコントローラ31aと、メモリ32aと、出力部34aとを備える。撮像光学系21a、撮像素子22a、コントローラ31a、メモリ32a、および、出力部34aは、それぞれ、図1の撮像光学系21、撮像素子22、コントローラ31、メモリ32および出力部34と同様の機能を有する。検出システム10は、カメラ20と検出装置30とに機能が分散されたカメラ装置とみなしうる。 As shown in FIG. 3, the camera 20 of the detection system 10 and the detection device 30 can be integrated as the camera device 11. The camera device 11 includes a camera 20a including an image pickup optical system 21a and an image pickup element 22a, a controller 31a, a memory 32a, and an output unit 34a. The image pickup optical system 21a, the image sensor 22a, the controller 31a, the memory 32a, and the output unit 34a have the same functions as the image pickup optical system 21, the image sensor 22, the controller 31, the memory 32, and the output unit 34, respectively. Have. The detection system 10 can be regarded as a camera device whose functions are distributed between the camera 20 and the detection device 30.

図4の機能ブロック図を用いて、複数の実施形態の1つに係るコントローラ31の動作についてさらに詳しく説明する。 The operation of the controller 31 according to one of the plurality of embodiments will be described in more detail with reference to the functional block diagram of FIG.

複数の実施形態の1つにおいて、コントローラ31は、座標変換部35、検出部36、認識部37、判定部38、信号生成部39(以下、各部ともよぶ)を含む。各部の各々は、ハードウエアモジュールであってよく、ソフトウエアモジュールであってよい。各部が行える動作を、コントローラ31は実行できる。コントローラ31は、座標変換部35、検出部36、認識部37、判定部38、信号生成部39を含む形態に限られず、座標変換部35、検出部36、認識部37、判定部38、信号生成部39の1つ又は複数が省略されてよい。複数の実施形態のうちの1つにおいて、コントローラ31は、各部の全ての動作を実行してよい。各部が行う動作は、コントローラ31が行う動作として言い換えてよい。コントローラ31が各部のいずれかを使役して行う処理は、コントローラ31が自ら実行してよい。以下に、各部の動作を説明する。 In one of the plurality of embodiments, the controller 31 includes a coordinate conversion unit 35, a detection unit 36, a recognition unit 37, a determination unit 38, and a signal generation unit 39 (hereinafter, also referred to as each unit). Each of the parts may be a hardware module or a software module. The controller 31 can execute the operations that each part can perform. The controller 31 is not limited to the form including the coordinate conversion unit 35, the detection unit 36, the recognition unit 37, the determination unit 38, and the signal generation unit 39, and the coordinate conversion unit 35, the detection unit 36, the recognition unit 37, the determination unit 38, and the signal. One or more of the generation units 39 may be omitted. In one of the plurality of embodiments, the controller 31 may perform all operations of each part. The operation performed by each unit may be paraphrased as the operation performed by the controller 31. The controller 31 may execute the process performed by the controller 31 by using any of the parts. The operation of each part will be described below.

座標変換部35は、カメラ20から入力された撮像画像の座標変換を行い、歪みを補正する。図1の撮像光学系21に魚眼レンズを用いて撮像した画像である第1画像70は、図5に示すように、周辺ほど歪みが大きい画像となる。第1画像70の実効的な領域は、レンズの画角と、撮像素子の画素面積に対応して定まる。撮像素子の画素面積がレンズの画角に対して大きいと、第1画像70の実効的な領域は、端部が弧状となる。図5において、付着物の画像71a、71bおよび歩行者である認識対象物の画像72が表示されている。座標変換部35は、撮像画像を、図6に例示するように歪みを補正した第2画像75に座標変換する。第2画像75には、付着物の画像76a、76bおよび歩行者である認識対象物の画像77が表示されている。なお、図5および図6は、座標変換前後のイメージを示すものであって、正確に座標変換をしたものではない。また、図5、図6は、駐車場を表示するものであり、駐車スペースを示す白線が実線により図示されている。 The coordinate conversion unit 35 performs coordinate conversion of the captured image input from the camera 20 and corrects the distortion. As shown in FIG. 5, the first image 70, which is an image captured by the image pickup optical system 21 of FIG. 1 using a fisheye lens, has a larger distortion toward the periphery, as shown in FIG. The effective region of the first image 70 is determined according to the angle of view of the lens and the pixel area of the image sensor. When the pixel area of the image pickup device is large with respect to the angle of view of the lens, the effective region of the first image 70 has an arcuate end. In FIG. 5, images 71a and 71b of the deposit and images 72 of the recognition target object which is a pedestrian are displayed. The coordinate conversion unit 35 converts the captured image into a second image 75 with distortion corrected as illustrated in FIG. In the second image 75, images 76a and 76b of deposits and images 77 of the recognition target object that is a pedestrian are displayed. It should be noted that FIGS. 5 and 6 show images before and after the coordinate conversion, and do not accurately perform the coordinate conversion. Further, FIGS. 5 and 6 show parking lots, and white lines indicating parking spaces are shown by solid lines.

座標変換部35により座標変換を行うことにより、認識部37において、第2画像75上全体で同一のパターンを用いてマッチングを行うことが可能になる。パターンは、テンプレートマッチングのテンプレートのような領域的なパターンおよび特徴量のパターンを含む。コントローラ31は、座標変換部35を有さなくともよい。例えば、カメラ20の制御部23が画像の歪みを補正する場合、または、撮像光学系21が魚眼レンズのような歪の大きいレンズを使用しない場合、コントローラ31の座標変換部35は不要となる。 By performing coordinate conversion by the coordinate conversion unit 35, the recognition unit 37 can perform matching using the same pattern on the entire second image 75. The pattern includes a regional pattern such as a template matching template and a feature pattern. The controller 31 does not have to have the coordinate conversion unit 35. For example, when the control unit 23 of the camera 20 corrects the distortion of the image, or when the imaging optical system 21 does not use a lens having a large distortion such as a fisheye lens, the coordinate conversion unit 35 of the controller 31 becomes unnecessary.

検出部36は、座標変換部35から出力された第2画像75に対して、第1処理を実行する。検出部36は、第1処理において、撮像画像から種々の方法に基づいて付着物が付着した第1領域を検出しうる。第1領域は、図6において付着物の画像76aおよび76bが表示される領域として示される。例えば、第1領域は、撮像画像上の付着物が付着した部分の近傍の座標も含めて設定してよい。例えば、第1領域は、付着物が付着した領域の周りの所定画素数の距離まで含んでよい。例えば、第1領域は、付着物ごとに付着物を凸包するように設定してよい。 The detection unit 36 executes the first process on the second image 75 output from the coordinate conversion unit 35. In the first process, the detection unit 36 can detect the first region to which the deposits are attached from the captured image based on various methods. The first region is shown in FIG. 6 as the region where the images 76a and 76b of the deposits are displayed. For example, the first region may be set including the coordinates in the vicinity of the portion where the deposit is attached on the captured image. For example, the first region may include a predetermined number of pixels around the region to which the deposits have adhered. For example, the first region may be set so as to convexly enclose the deposits for each deposit.

第1領域を検出する第1の方法として、検出部36は、撮像画像のうちぼけている領域を第1領域として検出しうる。付着物には、カメラ20のピントが大きく外れているためである。より具体的には、検出部36は、撮像画像を細かいブロックに分割し、フーリエ変換を行い、高周波数成分が低いブロックを第1領域として検出しうる。第2の方法としては、移動体50が移動中であれば、検出部36は、動き検出による方法を採用しうる。この方法では、検出部36は、撮像画像を細かいブロックに分割し、各ブロックの動きベクトルの向きが類似している領域を統合し、背景画像に対して動きの少ない領域を第1領域と判定しうる。第3の方法として、検出部36は、付着物の特徴量に基づく検出を行う。検出部36は、予め機械学習により付着物の画像を学習した結果を第1領域の判定に用いてよい。第4の方法としては、検出部36は、撮像画像の輝度値の低い領域を第1領域と判定することができる。検出部36は、第1領域の検出のために、第1から第4の方法を組み合わせて用いてよい。また、検出部36は、第1から第4の方法以外の種々の方法を採用することができる。 As a first method of detecting the first region, the detection unit 36 can detect a blurred region of the captured image as the first region. This is because the camera 20 is largely out of focus on the deposits. More specifically, the detection unit 36 can divide the captured image into fine blocks, perform a Fourier transform, and detect the block having a low high frequency component as the first region. As a second method, if the moving body 50 is moving, the detection unit 36 can adopt a method based on motion detection. In this method, the detection unit 36 divides the captured image into fine blocks, integrates regions in which the directions of the motion vectors of the blocks are similar, and determines that the region with less motion with respect to the background image is the first region. Can be done. As a third method, the detection unit 36 performs detection based on the feature amount of the deposit. The detection unit 36 may use the result of learning the image of the deposit by machine learning in advance for the determination of the first region. As a fourth method, the detection unit 36 can determine a region having a low brightness value of the captured image as the first region. The detection unit 36 may use the first to fourth methods in combination for the detection of the first region. Further, the detection unit 36 can adopt various methods other than the first to fourth methods.

認識部37は、座標変換部35から出力された第2画像75に対して、第2処理を実行する。認識部37は、第2処理において、撮像画像に対し認識対象物の候補の画像である検出画像を検出する。認識部37は、特定の認識対象物に対する検出画像の認識対象物らしさを決定するアルゴリズムを有することができる。認識対象物らしさは、検出画像が歩行者、自動車、自転車等の特定の認識対象物である確からしさを確率で示したものとすることができる。認識部37が行う認識対象物の候補の検出と、当該認識対象物の候補の認識対象物らしさの出力を、認識対象物の認識とよぶ。 The recognition unit 37 executes the second process on the second image 75 output from the coordinate conversion unit 35. In the second process, the recognition unit 37 detects a detected image which is a candidate image of the recognition target with respect to the captured image. The recognition unit 37 can have an algorithm for determining the recognition target-likeness of the detected image with respect to a specific recognition target. The recognition target-likeness can be a probability indicating the certainty that the detected image is a specific recognition target such as a pedestrian, a car, or a bicycle. The detection of the recognition target candidate performed by the recognition unit 37 and the output of the recognition target-likeness of the recognition target candidate are referred to as recognition of the recognition target.

認識対象物の認識の方法は、公知の種々の方法を含むものとする。例えば、認識対象物の認識の方法は、物体の形状認識による方法、テンプレートマッチングによる方法、画像から特徴量を算出しマッチングに利用する方法を含む。 The method of recognizing the object to be recognized shall include various known methods. For example, the method of recognizing a recognition object includes a method of recognizing the shape of an object, a method of template matching, and a method of calculating a feature amount from an image and using it for matching.

物体の形状認識では、撮像画像から背景差分または動き検出等の方法により物体を抽出し、この物体の形状が目的とする物体の形状と一致するか否かを判断するものである。 In the shape recognition of an object, an object is extracted from the captured image by a method such as background subtraction or motion detection, and it is determined whether or not the shape of the object matches the shape of the target object.

テンプレートマッチングは、認識対象物のテンプレートを用意し撮像画像上でスライドさせ、撮像画像全体の中にテンプレートの画像との類似度が高い部分画像が存在するか探索するものである。類似度の計算は、SSD(Sum of Squared Difference)またはSAD(Sum of Absolute Difference)、NCC(Normalized Cross-Correlation)、ZNCC(Zero-means Normalized Cross-Correlation)等の指標を用いることができる。 In template matching, a template of a recognition object is prepared and slid on the captured image, and a partial image having a high degree of similarity to the template image is searched for in the entire captured image. For the calculation of similarity, an index such as SSD (Sum of Squared Difference) or SAD (Sum of Absolute Difference), NCC (Normalized Cross-Correlation), ZNCC (Zero-means Normalized Cross-Correlation) can be used.

特徴量を用いる方法は、画像からパターンを認識するのに有用な特徴を数値化した特徴量を抽出し、認識対象物の候補の検出に使用する。この方法では、Haar−like特徴量、SIFT(Scale-Invariant Feature Transform)特徴量、SURF(Speed Up Robust Features)特徴量、HOG(Histograms of Oriented Gradients)特徴量、JOINT Haar−like特徴量、Joint HOG特徴量、Shapelet特徴量、および、CoHOG(Co-occurrence Histograms of Oriented Gradients)特徴量等を含む多くの種類の特徴量から選択した特徴量を使用しうる。この方法では、認識対象物の特徴量のパターンと撮像画像とのマッチングにより、撮像画像中の認識対象物の候補である検出画像の検出が行われる。この認識方法では、予め多数の学習用の画像から特徴量を算出し、その結果をコンピュータに学習させる。学習した結果に基づいて、識別器が認識対象物を認識する。使用される識別器には、SVM(Support Vector Machine)、AdaBoost、Real AdaBoost等が含まれる。特徴量の設定値は、ディープラーニングによって人工知能が算出した値としうる。 In the method using the feature amount, the feature amount obtained by quantifying the features useful for recognizing the pattern is extracted from the image and used for detecting the candidate of the recognition target object. In this method, Har-like features, SIFT (Scale-Invariant Feature Transform) features, SURF (Speed Up Robust Features) features, HOG (Histograms of Oriented Gradients) features, JOINT Haar-like features, Joint HOG A feature selected from many types of features can be used, including features, Shapelet features, CoHOG (Co-occurrence Histograms of Oriented Gradients) features, and the like. In this method, the detected image that is a candidate for the recognition target in the captured image is detected by matching the feature amount pattern of the recognition target with the captured image. In this recognition method, a feature amount is calculated in advance from a large number of images for learning, and the result is learned by a computer. The classifier recognizes the recognition object based on the learned result. The classifier used includes SVM (Support Vector Machine), AdaBoost, Real AdaBoost and the like. The set value of the feature amount can be a value calculated by artificial intelligence by deep learning.

何れの方法も、認識対象物らしさを数値化する。認識対象物らしさが閾値以上であれば認識対象物であると判断し、閾値以下であれば認識対象物ではないと判断することが可能になる。認識対象物らしさは、認識対象物である可能性を確率で表すことができる。 Both methods quantify the uniqueness of the object to be recognized. If the recognition object likeness is equal to or more than the threshold value, it can be determined that it is a recognition object, and if it is less than the threshold value, it can be determined that it is not a recognition object. The recognition object-likeness can express the possibility of being a recognition object with a probability.

判定部38は、検出部36が第1処理により検出した第1領域と、認識部37が第2処理により検出した検出画像の認識対象物らしさに基づいて、検出画像が認識対象物であるか否かを判定する。判定部38は、第1領域と、第1領域以外の領域である第2領域とでは、認識対象物であることを判定するために異なる処理を実行してよい。 The determination unit 38 determines whether the detected image is a recognition target based on the first region detected by the detection unit 36 in the first process and the recognition target likeness of the detected image detected by the recognition unit 37 in the second process. Judge whether or not. The determination unit 38 may execute different processes in order to determine that the first region and the second region, which is a region other than the first region, are recognition objects.

例えば、判定部38は、検出画像が認識対象物であるか否かを判定するための認識対象物らしさに対する複数の判定基準を有する。判定部38は、第1領域と第2領域とでは、判定基準を互いに異ならせることができる。判定基準は、判定部38が検出画像を歩行者、自動車、自転車等の特定の認識対象物であると判定するための認識対象物らしさに対する閾値とすることができる。例えば、判定部38は、第1領域では第2領域に比べて閾値を上げることにより、付着物を歩行者、自動車、自転車等の認識対象物と誤判定する可能性を低減することができる。また、例えば、判定部38は、第1領域では第2領域に比べて閾値を下げることにより、歩行者、自動車、自転車等の認識対象物が、認識対象物であると判定されずに検知漏れとなる可能性を低減することができる。 For example, the determination unit 38 has a plurality of determination criteria for the recognition object-likeness for determining whether or not the detected image is a recognition object. The determination unit 38 can make the determination criteria different from each other in the first region and the second region. The determination criterion can be a threshold value for the recognition object-likeness for the determination unit 38 to determine that the detected image is a specific recognition object such as a pedestrian, an automobile, or a bicycle. For example, the determination unit 38 can reduce the possibility of erroneously determining the deposit as a recognition target such as a pedestrian, an automobile, or a bicycle by raising the threshold value in the first region as compared with the second region. Further, for example, the determination unit 38 lowers the threshold value in the first region as compared with the second region, so that the recognition target such as a pedestrian, an automobile, or a bicycle is not determined to be the recognition target and is not detected. It is possible to reduce the possibility of becoming.

例えば、判定部38は、第2処理において検出した検出画像から、第1処理において検出された第1領域に少なくとも部分的に重複する検出画像の一部または全部を除外した結果に基づいて、認識対象物の判定を行ってよい。この場合、第1処理は、第2処理の後に実行されるか、第2処理と並行して実行される。コントローラ31は、第2処理において検出した検出画像から、第1領域に全体が重複する検出画像を除外した結果に基づいて、認識対象物の判定および信号の生成をしてよい。 For example, the determination unit 38 recognizes based on the result of excluding a part or all of the detected image detected in the first process from the detected image detected in the second process at least partially overlapping the first region. The object may be determined. In this case, the first process is executed after the second process or in parallel with the second process. The controller 31 may determine the recognition target object and generate a signal based on the result of excluding the detection image that completely overlaps the first region from the detection image detected in the second process.

信号生成部39は、認識対象物があると判定部38が判定した場合、判定された認識対象物に関する警報を含む信号を生成する。信号生成部39は、移動体50の進行方向または予測進路内に認識対象物が位置すると判断した場合に、警報を生成してよい。警報を含む信号は、警報信号として出力部34、ネットワーク15を介して、警報装置40および/またはECU45に伝達される。 When the determination unit 38 determines that there is a recognition object, the signal generation unit 39 generates a signal including an alarm regarding the determined recognition object. The signal generation unit 39 may generate an alarm when it is determined that the recognition target is located in the traveling direction or the predicted course of the moving body 50. The signal including the alarm is transmitted to the alarm device 40 and / or the ECU 45 as an alarm signal via the output unit 34 and the network 15.

次に、図4の機能ブロック図に従うコントローラ31が実行する処理の第1例を図7のフローチャートを用いて説明する。 Next, a first example of the process executed by the controller 31 according to the functional block diagram of FIG. 4 will be described with reference to the flowchart of FIG.

座標変換部35は、カメラ20から撮像画像である第1画像70の入力を受けると(ステップS101)、第1画像70を、歪みを補正した第2画像75に座標変換する(ステップS102)。 When the coordinate conversion unit 35 receives the input of the first image 70 which is the captured image from the camera 20 (step S101), the coordinate conversion unit 35 coordinates the first image 70 into the second image 75 corrected for distortion (step S102).

図7において、上下の二重線に挟まれた処理は、並行処理を行うことを意味する。すなわち、第1例において、第1処理と第2処理とは並行に行われる。 In FIG. 7, the processing sandwiched between the upper and lower double lines means that parallel processing is performed. That is, in the first example, the first process and the second process are performed in parallel.

検出部36は、第2画像75から付着物を認識する(ステップS103)。検出部36は、付着物を認識した場合(ステップS104)、判定部38に付着物が付着している第2画像75上の第1領域の座標を引き渡す。判定部38は、第1領域について判定基準の変更を行う(ステップS105)。図7のフローチャートの例では、ステップS103以前に第2画像全体に第2領域用の判定基準が与えられているものとし、ステップS105で第1領域の判定基準を変更している。図7のフローチャートは、ステップS103以前に第2画像全体に第2領域用の判定基準が与えられているものとせず、ステップS104の後に、付着物の有無に応じて、第1領域と第2領域とのそれぞれに異なる判定基準を設定するようにしてもよい。 The detection unit 36 recognizes the deposit from the second image 75 (step S103). When the detection unit 36 recognizes the deposit (step S104), the detection unit 36 delivers the coordinates of the first region on the second image 75 to which the deposit is attached to the determination unit 38. The determination unit 38 changes the determination criteria for the first region (step S105). In the example of the flowchart of FIG. 7, it is assumed that the determination standard for the second region is given to the entire second image before step S103, and the determination criterion of the first region is changed in step S105. In the flowchart of FIG. 7, it is not assumed that the determination criteria for the second region is given to the entire second image before step S103, and after step S104, the first region and the second region are determined according to the presence or absence of deposits. A different criterion may be set for each of the regions.

判定基準の変更の例として、認識対象物らしさに基づいて認識対象物であることを判定する閾値を変更することができる。閾値は、検出する対象、周辺環境、閾値を変更する目的等に応じて種々の変更をすることができる。例えば、判定部38は、第1領域の閾値を80%とし、第2領域の閾値を60%とすることができる。このようにすることによって、付着物が検出された第1領域における認識対象物の判定を厳しくし、付着物を認識対象物であると誤判定する可能性を低減できる。ステップS104において、付着物が検出されない場合、判定部38は、全ての領域を付着物のない第2領域とする。 As an example of changing the determination criteria, the threshold value for determining that the object is a recognition object can be changed based on the appearance of the recognition object. The threshold value can be variously changed depending on the object to be detected, the surrounding environment, the purpose of changing the threshold value, and the like. For example, the determination unit 38 can set the threshold value of the first region to 80% and the threshold value of the second region to 60%. By doing so, it is possible to make the determination of the recognition target object in the first region where the deposit is detected strict and reduce the possibility of erroneously determining the deposit as the recognition target object. When no deposit is detected in step S104, the determination unit 38 sets all the regions as the second region without deposits.

認識部37は、ステップS103からS105に並行して、認識対象物の認識を行う(ステップS106)。認識対象物の認識は、第2画像からの認識対象物の候補画像である検出画像の検出と、特定の認識対象物らしさの算出を行うことを含む。 The recognition unit 37 recognizes the recognition target object in parallel with steps S103 to S105 (step S106). Recognition of the recognition target includes detecting a detection image which is a candidate image of the recognition target from the second image and calculating the uniqueness of the specific recognition target.

判定部38は、ステップS104、S105で設定された判定基準に従って、判定処理を行う(ステップS107)。 The determination unit 38 performs the determination process according to the determination criteria set in steps S104 and S105 (step S107).

ステップS107において、判定部38により認識対象物があると判定された場合(ステップS108)、信号生成部39は、警報装置40および/またはECU45に送信される信号を生成する(ステップS109)。 When the determination unit 38 determines in step S107 that there is an object to be recognized (step S108), the signal generation unit 39 generates a signal to be transmitted to the alarm device 40 and / or the ECU 45 (step S109).

例えば、ステップS106において、図6の第2画像75である撮像画像について、認識部37は、図8に示すように歩行者である認識対象物の候補の検出画像78a、78bを検出しうる。図8では、検出画像78a、78bを強調するため網掛けして示している。検出画像78bは、付着物の画像76aの一部を歩行者と誤認識したものである。認識部37は、検出画像78a,78bとともに、検出画像の認識対象物らしさを出力する。説明のため検出画像78a、78bの認識対象物らしさ(すなわち、歩行者らしさ)は、双方とも70%とする。判定部38が、第1領域の認識対象物らしさの閾値を80%、第2領域の認識対象物らしさの閾値を60%としている場合、第2領域に属する検出画像78aは歩行者であると判断されるが、第1領域に属する検出画像78bは、歩行者であると判断されない。これにより、付着物の画像76aの一部を認識対象物であると誤判定する可能性が低減される。 For example, in step S106, with respect to the captured image which is the second image 75 of FIG. 6, the recognition unit 37 can detect the detection images 78a and 78b of the candidates of the recognition target object which is a pedestrian as shown in FIG. In FIG. 8, the detected images 78a and 78b are shaded to emphasize them. The detected image 78b erroneously recognizes a part of the attached image 76a as a pedestrian. The recognition unit 37 outputs the recognition target-likeness of the detected image together with the detected images 78a and 78b. For the sake of explanation, the recognition target-likeness (that is, pedestrian-likeness) of the detected images 78a and 78b is set to 70% for both. When the determination unit 38 sets the threshold value of the recognition object-likeness of the first region to 80% and the threshold value of the recognition object-likeness of the second region to 60%, the detection image 78a belonging to the second region is considered to be a pedestrian. Although it is determined, the detected image 78b belonging to the first region is not determined to be a pedestrian. As a result, the possibility of erroneously determining a part of the image 76a of the deposit as a recognition target is reduced.

図9は、第2画像75の他の例を示す。図9において、第1領域79a〜79cは、付着物の画像が表示される領域と一致してよい。第1領域79a〜79cは、付着物の画像が表示される領域を包含してよい。図9では、付着物の画像を省略する。第2画像75の第1領域79a〜79c以外の領域は第2領域である。この例では、検出部36により付着物が検出された第1領域79aに、歩行者である認識対象物の画像77aが重なっている。 FIG. 9 shows another example of the second image 75. In FIG. 9, the first regions 79a to 79c may coincide with the region where the image of the deposit is displayed. The first regions 79a to 79c may include regions in which an image of the deposit is displayed. In FIG. 9, the image of the deposit is omitted. The regions other than the first regions 79a to 79c of the second image 75 are the second regions. In this example, the image 77a of the recognition target object, which is a pedestrian, overlaps the first region 79a in which the deposit is detected by the detection unit 36.

認識部37は、認識対象物の画像77aの第1領域79aと重ならない上部の領域の形状および特徴について評価して、検出画像78cとして検出しうる。判定部38は、第1領域79a〜79cでは認識対象物らしさの閾値を80%とし、第2画像75から第1領域79a〜79cを除いた第2領域では認識対象物らしさの閾値を60%とする。判定部38は、認識部37からの検出画像78cと認識対象物らしさに基づいて、第2領域の閾値60%を用いて歩行者であると判定しうる。一方、第2画像75上で認識対象物の画像77aの第1領域79aと重なる部分は、付着物に遮られるため認識部37で検出されないか、または、閾値が高いため判定部38で認識対象物と判定されない。しかし、第2領域において、撮像された認識対象物の画像77aの一部の検出画像78cが、認識対象物であると判定されているので、信号生成部39は警報装置40および/またはECU45に送信する信号を生成することができる。 The recognition unit 37 can evaluate the shape and characteristics of the upper region that does not overlap with the first region 79a of the image 77a of the recognition target and detect it as the detection image 78c. The determination unit 38 sets the threshold value of the recognition target-likeness to 80% in the first regions 79a to 79c, and sets the threshold value of the recognition target-likeness to 60% in the second region excluding the first regions 79a to 79c from the second image 75. And. The determination unit 38 can determine that the person is a pedestrian using the threshold value 60% of the second region based on the detection image 78c from the recognition unit 37 and the appearance of the recognition object. On the other hand, the portion of the second image 75 that overlaps with the first region 79a of the image 77a of the recognition target is not detected by the recognition unit 37 because it is blocked by the deposits, or is recognized by the determination unit 38 because the threshold value is high. Not judged as a thing. However, in the second region, since it is determined that the detected image 78c of a part of the image 77a of the image to be recognized is the object to be recognized, the signal generation unit 39 sends the alarm device 40 and / or the ECU 45. It is possible to generate a signal to be transmitted.

検出システム10は、第2領域の認識対象物らしさに対する閾値を第1領域79a〜79cの認識対象物らしさに対する閾値よりも高くすることで、例えば付着物が雨等の場合に付着物のために像が歪む結果、誤認識を生じる可能性を低減することができる。反対に、認識対象物の存在を認識できない認識漏れが問題となる場合、検出システム10は、第1領域79a〜79cの閾値を第2領域の閾値よりも低くしてよい。なお、図8中、車である認識対象物の画像77bについては、第1領域79a〜79cと重なっていないので、第2領域の閾値を用いて認識対象物か否かの判定がなされる。また、検出画像全体が、第1領域79a〜79cに包含されるような場合は、検出画像全体について第1領域に設定された閾値が適用される。 The detection system 10 raises the threshold value for the recognition object-likeness of the second region higher than the threshold value for the recognition object-likeness of the first regions 79a to 79c, for example, for deposits when the deposits are rain or the like. As a result of the image being distorted, the possibility of misrecognition can be reduced. On the contrary, when the recognition omission that cannot recognize the existence of the recognition object becomes a problem, the detection system 10 may set the threshold value of the first region 79a to 79c lower than the threshold value of the second region. In FIG. 8, since the image 77b of the recognition target object, which is a car, does not overlap with the first regions 79a to 79c, it is determined whether or not the image 77b is a recognition target object using the threshold value of the second region. When the entire detected image is included in the first regions 79a to 79c, the threshold value set in the first region is applied to the entire detected image.

このようにして、本開示の複数の実施形態の一つに係る検出システム10によれば、カメラ20のレンズ、または、カメラ20が移動体50の内部に位置する場合のウィンドウに、泥および/または雨滴などの付着物が付着した場合の認識対象物の認識精度を改善することができる。ここで、認識対象物の認識精度は、撮像画像から認識対象物の候補を検出し、検出した認識対象物の候補から正しい認識対象物を判定する精度を意味するものとする。 In this way, according to the detection system 10 according to one of the plurality of embodiments of the present disclosure, mud and / on the lens of the camera 20 or the window when the camera 20 is located inside the moving body 50. Alternatively, it is possible to improve the recognition accuracy of the recognition target object when deposits such as raindrops adhere to it. Here, the recognition accuracy of the recognition object means the accuracy of detecting the candidate of the recognition object from the captured image and determining the correct recognition object from the detected candidates of the recognition object.

次に、図4の機能ブロック図に従うコントローラ31が実行する処理の第2例を、図10を用いて説明する。 Next, a second example of the process executed by the controller 31 according to the functional block diagram of FIG. 4 will be described with reference to FIG.

図10のステップS201〜S204、S206、S208、S209は、図7に示した第1例のステップS101〜S104、S106、S108、S109と同様であるので説明を省略する。ステップS205において、判定部38は、検出部36から第1領域の座標を引き渡されると、当該第1領域を判定除外領域とする。ステップS207において、判定部38は、ステップS206で認識された検出画像について、全部または少なくとも一部が判定除外領域と重なっている場合、判定処理の対象から除外する。 Since steps S201 to S204, S206, S208, and S209 of FIG. 10 are the same as steps S101 to S104, S106, S108, and S109 of the first example shown in FIG. 7, description thereof will be omitted. In step S205, when the determination unit 38 hands over the coordinates of the first region from the detection unit 36, the determination unit 38 sets the first region as the determination exclusion region. In step S207, the determination unit 38 excludes the detected image recognized in step S206 from the target of the determination process when all or at least a part of the detected image overlaps with the determination exclusion region.

例えば、図9において、認識対象物の画像77aは、第1領域79aと重なりを有するので、判定処理から除外される。一方、第1領域79a〜79cと重なりのない認識対象物の画像77bは、検出対象物の候補として検出され判定処理をうける。コントローラ31が実行する処理の第2例によれば、判定部38は、付着物の輪郭等が歩行者または自動車等の認識対象物の輪郭形状に類似するために、付着物を認識対象物であると誤認識する可能性を低減することができる。また、判定部38は、付着物と重なりのある画像を判定から除外するので、第1例よりも認識対象物以外の画像を認識対象物であると誤判断する可能性が低くなり、判定部38が行う処理も単純となる。 For example, in FIG. 9, the image 77a of the recognition target has an overlap with the first region 79a, and is therefore excluded from the determination process. On the other hand, the image 77b of the recognition target object that does not overlap with the first regions 79a to 79c is detected as a candidate for the detection target object and undergoes determination processing. According to the second example of the process executed by the controller 31, the determination unit 38 recognizes the deposit as the recognition target because the contour of the deposit resembles the contour shape of the recognition target such as a pedestrian or an automobile. It is possible to reduce the possibility of erroneously recognizing the existence. Further, since the determination unit 38 excludes the image overlapping with the adhered object from the determination, the possibility of erroneously determining an image other than the recognition object as the recognition object is lower than in the first example, and the determination unit 38 The process performed by 38 is also simple.

判定部38は、検出画像が判定除外領域と重なっている場合でも、重なりの大きさ、重なり方に応じて、判定処理の対象から除外するか否かを変えてよい。例えば、判定部38は、検出画像の全体が判定除外領域に含まれる場合のみ、判定処理から除外してよい。また、例えば、判定部38は、判定除外領域と重なっていない検出画像の第2画像75上の面積が、所定の大きさ以上である場合に、判定処理から除外してよい。 Even if the detected image overlaps the determination exclusion region, the determination unit 38 may change whether or not to exclude the detected image from the target of the determination processing according to the size of the overlap and the overlapping method. For example, the determination unit 38 may exclude the entire detected image from the determination process only when it is included in the determination exclusion region. Further, for example, the determination unit 38 may exclude the detection image from the determination process when the area on the second image 75 of the detection image that does not overlap with the determination exclusion region is equal to or larger than a predetermined size.

次に、図4の機能ブロック図に従うコントローラ31が実行する処理の第3例を、図11を用いて説明する。第2例では付着物を認識する第1処理と、検出画像を認識する第2処理とを、並行に処理していた。第3例においては、第2処理を行った後に第1処理を順次に実行する。図11において、ステップS301、S302は、図10のステップS201、S202とそれぞれ同様の処理である。図11において、ステップS303は、図10のステップS206と同様の処理である。図11において、ステップS304からS306は、図10のステップS203〜S205とそれぞれ同様の処理である。図11において、ステップS307〜S309は、図10のステップS207〜S209とそれぞれ同様の処理である。 Next, a third example of the process executed by the controller 31 according to the functional block diagram of FIG. 4 will be described with reference to FIG. In the second example, the first process of recognizing the deposit and the second process of recognizing the detected image were processed in parallel. In the third example, the first process is sequentially executed after the second process is performed. In FIG. 11, steps S301 and S302 are the same processes as steps S201 and S202 in FIG. 10, respectively. In FIG. 11, step S303 is the same process as step S206 in FIG. In FIG. 11, steps S304 to S306 are the same processes as steps S203 to S205 in FIG. 10, respectively. In FIG. 11, steps S307 to S309 are the same processes as steps S207 to S209 in FIG. 10, respectively.

複数の実施形態の他の1つに係るコントローラ31の動作について、図12の機能ブロック図を用いて説明する。 The operation of the controller 31 according to the other one of the plurality of embodiments will be described with reference to the functional block diagram of FIG.

図12において、検出部36は、付着物が付着している第2画像75上の第1領域の座標を、認識部37に引き渡す。認識部37は、第2処理において、撮像画像から認識対象物の検出画像を検出する複数のアルゴリズムを有し、第1領域と記第2領域とでは、互いに異なるアルゴリズムを用いて検出画像の検出を行うことができる。 In FIG. 12, the detection unit 36 delivers the coordinates of the first region on the second image 75 to which the deposits are attached to the recognition unit 37. The recognition unit 37 has a plurality of algorithms for detecting the detected image of the recognition target object from the captured image in the second process, and detects the detected image by using algorithms different from each other in the first region and the second region. It can be performed.

互いに異なるアルゴリズムを用いるとは、例えば、物体の形状認識、テンプレートマッチング、特徴量を用いた認識等の、物体認識の基本的なアルゴリズムを変更することを含む。例えば、図9の第2画像75について、認識部37は、第1領域79a〜79cに対しては、特徴量を用いたパターンマッチングを行い、第2領域についてはテンプレートマッチングにより検出画像の検出を行ってよい。 Using different algorithms includes changing the basic algorithms of object recognition, such as object shape recognition, template matching, and recognition using features. For example, with respect to the second image 75 of FIG. 9, the recognition unit 37 performs pattern matching using the feature amount on the first regions 79a to 79c, and detects the detected image by template matching on the second region. You may go.

互いに異なるアルゴリズムを用いるとは、認識アルゴリズムで用いる一部の要素を異ならせることを含む。例えば、認識部37は、テンプレートマッチングに用いるテンプレートを変更してよい。または、認識部37は、特徴量を用いた認識における、機械学習で得られた学習結果を変更すること等を行いうる。また、認識部37は、画像認識処理に用いる何れかのパラメータを変更することができる。 Using different algorithms includes making some elements used in the recognition algorithm different. For example, the recognition unit 37 may change the template used for template matching. Alternatively, the recognition unit 37 can change the learning result obtained by machine learning in the recognition using the feature amount. Further, the recognition unit 37 can change any parameter used for the image recognition process.

図12の機能ブロック図に従うコントローラ31が実行する処理の第4例を、図13を用いて説明する。図13において、ステップS401〜S403、S407〜409は図7のステップS101〜S103、S107〜S109と同様の処理であるので説明を省略する。図7のフローチャートとは異なり、各ステップS401〜S409は、並列処理を含まず順次処理される。ステップS404において、検出部36は、付着物が付着している第2画像75上の第1領域の座標を、認識部37に引き渡す。ステップS405において、認識部37は、撮像画像の全部または一部について認識対象物の認識を行うアルゴリズムを予め設定されたアルゴリズムから変更する。ステップS406において、認識部37は、変更したアルゴリズムに基づいて認識対象物の候補の検出画像の検出を行う。 A fourth example of the process executed by the controller 31 according to the functional block diagram of FIG. 12 will be described with reference to FIG. In FIG. 13, steps S401 to S403 and S407 to 409 are the same processes as steps S101 to S103 and S107 to S109 in FIG. 7, and thus description thereof will be omitted. Unlike the flowchart of FIG. 7, each step S401 to S409 is sequentially processed without including parallel processing. In step S404, the detection unit 36 delivers the coordinates of the first region on the second image 75 to which the deposits are attached to the recognition unit 37. In step S405, the recognition unit 37 changes the algorithm for recognizing the recognition object for all or part of the captured image from the preset algorithm. In step S406, the recognition unit 37 detects the detection image of the candidate recognition target based on the modified algorithm.

コントローラ31が実行する処理の第4例によれば、認識部37は、認識部37が行う第2処理において、撮像画像から認識対象物の候補を検出する複数のアルゴリズムを有し、第1領域と、第2領域とでは、互いに異なるアルゴリズムを用いることができる。これによって、認識部37は、撮像画像上で付着物と重なっているか否かに応じて、より認識精度の高いアルゴリズムを選択できる。 According to the fourth example of the process executed by the controller 31, the recognition unit 37 has a plurality of algorithms for detecting candidates for recognition objects from the captured image in the second process performed by the recognition unit 37, and has a first region. And in the second region, algorithms different from each other can be used. As a result, the recognition unit 37 can select an algorithm with higher recognition accuracy depending on whether or not it overlaps with the deposit on the captured image.

複数の実施形態のさらに他の1つに係るコントローラ31の動作について、図14の機能ブロック図を用いて説明する。 The operation of the controller 31 according to still one of the plurality of embodiments will be described with reference to the functional block diagram of FIG.

図14に示すように、本開示の複数の実施形態の1つに係る検出システム10のコントローラ31は、座標変換部35、検出部36、認識部37、判定部38、信号生成部39に加え、前処理部80を含む。図14において、検出部36は、付着物が付着している第2画像75上の第1領域の座標を、前処理部80に引き渡す。前処理部80は、座標変換部35から出力された撮像画像の第2画像75を変更する処理を行う。前処理部80が、第2処理の前に第2画像75に対して行う撮像画像の変更を、以下において前処理ともよぶ。前処理には、第2画像75から第1領域を削除して空白に加工することを含む。撮像画像から第1領域を空白に加工することを、第1領域をマスクするともいう。 As shown in FIG. 14, the controller 31 of the detection system 10 according to one of the plurality of embodiments of the present disclosure includes the coordinate conversion unit 35, the detection unit 36, the recognition unit 37, the determination unit 38, and the signal generation unit 39. , Including the pretreatment unit 80. In FIG. 14, the detection unit 36 delivers the coordinates of the first region on the second image 75 to which the deposits are attached to the preprocessing unit 80. The preprocessing unit 80 performs a process of changing the second image 75 of the captured image output from the coordinate conversion unit 35. The change of the captured image that the preprocessing unit 80 performs on the second image 75 before the second processing is also referred to as preprocessing below. The preprocessing includes deleting the first region from the second image 75 and processing it into a blank. Processing the first region blank from the captured image is also referred to as masking the first region.

前処理部80が行う前処理は、第1領域をマスクすることに限られない。例えば、前処理部80は、第1領域の付着物の画像をぼかしてよい。このようにすることによって、認識部37が付着物を認識対象物として認識され難いようにする。 The preprocessing performed by the preprocessing unit 80 is not limited to masking the first region. For example, the pretreatment unit 80 may blur the image of the deposits in the first region. By doing so, the recognition unit 37 makes it difficult for the recognition unit 37 to recognize the deposit as a recognition target.

図15は、第1領域79a〜79cをマスクした第2画像75の一例を示す。図15において、マスクされた領域を破線で囲んで示す。第1領域79a〜79cは空白となっている。認識部37は、第1領域79a〜79cの画素情報が削除された第2画像に対して認識対象物の認識を実行することができる。 FIG. 15 shows an example of the second image 75 in which the first regions 79a to 79c are masked. In FIG. 15, the masked area is shown surrounded by a broken line. The first regions 79a to 79c are blank. The recognition unit 37 can execute the recognition of the recognition target object for the second image in which the pixel information of the first regions 79a to 79c is deleted.

図14の機能ブロックに従うコントローラ31が実行する処理の第5例を、図16を用いて説明する。図16において、ステップS501〜S503、S507〜509は図7のフローチャートのステップS101〜S103、S107〜S109と同様の処理であるので説明を省略する。図7のフローチャートとは異なり、各ステップS401〜S409は、並列処理を含まず順次処理される。ステップS504において、検出部36は、付着物が付着している第2画像75上の第1領域79a〜79cの座標を、前処理部80に引き渡す。ステップS505において、前処理部80は、第2画像75の第1領域79a〜79cの検出箇所の画素情報を加工する。ステップS506において、認識部37は、第1領域79a〜79cの画素情報が加工された第2画像75に基づいて認識処理を実行する。 A fifth example of the process executed by the controller 31 according to the functional block of FIG. 14 will be described with reference to FIG. In FIG. 16, steps S501 to S503 and S507 to 509 are the same processes as steps S101 to S103 and S107 to S109 in the flowchart of FIG. 7, and thus description thereof will be omitted. Unlike the flowchart of FIG. 7, each step S401 to S409 is sequentially processed without including parallel processing. In step S504, the detection unit 36 delivers the coordinates of the first regions 79a to 79c on the second image 75 to which the deposits are attached to the preprocessing unit 80. In step S505, the preprocessing unit 80 processes the pixel information of the detection points of the first regions 79a to 79c of the second image 75. In step S506, the recognition unit 37 executes the recognition process based on the second image 75 in which the pixel information of the first regions 79a to 79c is processed.

第5例によれば、検出システム10は、認識部37および判定部38の処理を変えることなく、付着物が付着した第1領域の情報を検出画像の検出および判定から除外することができる。これによって、付着物を認識対象物であると誤認識する可能性が低くなる。また、撮像画像上で第1領域79a〜79cと重なっていない認識対象物の部分については、認識部37および判定部38により、認識対象物の一部として認識および判定の対象とされうる。 According to the fifth example, the detection system 10 can exclude the information of the first region to which the deposits are attached from the detection and determination of the detected image without changing the processing of the recognition unit 37 and the determination unit 38. This reduces the possibility of erroneously recognizing the deposit as a recognition target. Further, the portion of the recognition object that does not overlap with the first regions 79a to 79c on the captured image can be recognized and determined as a part of the recognition object by the recognition unit 37 and the determination unit 38.

本発明を諸図面や実施形態に基づき説明してきたが、当業者であれば本開示に基づき種々の変形や修正を行うことが容易であることに注意されたい。したがって、これらの変形や修正は本発明の範囲に含まれることに留意されたい。例えば、各手段、各ステップ等に含まれる機能等は論理的に矛盾しないように再配置可能であり、複数の手段やステップ等を1つに組み合わせたり、あるいは分割したりすることが可能である。 Although the present invention has been described based on the drawings and embodiments, it should be noted that those skilled in the art can easily make various modifications and modifications based on the present disclosure. Therefore, it should be noted that these modifications and modifications are within the scope of the present invention. For example, the functions included in each means, each step, etc. can be rearranged so as not to be logically inconsistent, and a plurality of means, steps, etc. can be combined or divided into one. ..

10 検出システム
11 カメラ装置
15 ネットワーク
20,20a,20b カメラ
21,21a 撮像光学系
22,22a 撮像素子
23 制御部
24 通信部
30 検出装置
31,31a コントローラ
32,32a メモリ
33 入力部
34,34a 出力部
35 座標変換部
36 第1検出部
37 認識部
38 判定部
39 信号生成部
40 警報装置
45 ECU
50 移動体
60 運転者
70 第1画像
71a,71b 付着物の画像
72 認識対象物の画像
75 第2画像
76a,76b,76c 付着物の画像
77,77a,77b 認識対象物の画像
78a,78b,79 検出画像
79a,79b,79c 第1領域
80 前処理部
10 Detection system 11 Camera device 15 Network 20,20a, 20b Camera 21,21a Image sensor 22,22a Image sensor 23 Control unit 24 Communication unit 30 Detection device 31, 31a Controller 32, 32a Memory 33 Input unit 34, 34a Output unit 35 Coordinate conversion unit 36 First detection unit 37 Recognition unit 38 Judgment unit 39 Signal generation unit 40 Alarm device 45 ECU
50 Moving object 60 Driver 70 First image 71a, 71b Image of deposit 72 Image of recognition object 75 Second image 76a, 76b, 76c Image of deposit 77, 77a, 77b Image of recognition target 78a, 78b, 79 Detected image 79a, 79b, 79c 1st area 80 Preprocessing unit

Claims (8)

移動体に取り付けられ該移動体の周辺を撮像するカメラと、
前記カメラからの撮像画像について、前記移動体の外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する前記撮像画像上の第1領域を検出する第1処理、および、認識対象物に係る形状または特徴に基づき前記撮像画像の部分を検出画像として検出する第2処理を行い、前記第1処理の結果および前記第2処理の結果に基づいて信号を生成するコントローラと
を備え
前記コントローラは、前記第2処理において、前記撮像画像から前記検出画像を検出する複数のアルゴリズムを有し、前記第1領域と、前記撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて前記認識対象物の認識を行うカメラ装置。
A camera attached to a moving body and taking an image of the surroundings of the moving body,
With respect to the image captured from the camera, the first process of recognizing the deposits attached to the translucent member exposed to the outside of the moving body and detecting the first region on the captured image where the deposits are located , and A controller that performs a second process of detecting a portion of the captured image as a detection image based on the shape or feature of the recognition target, and generates a signal based on the result of the first process and the result of the second process. equipped with a,
The controller has a plurality of algorithms for detecting the detected image from the captured image in the second process, and the first region and the second region, which is a region other than the first region of the captured image, , A camera device that recognizes the recognition object using algorithms different from each other .
前記コントローラは、前記第2処理において、前記検出画像の前記認識対象物らしさを決定し、且つ、前記コントローラは、前記検出画像が前記認識対象物であるか否かを判定するために、前記認識対象物らしさに対する複数の判定基準を有し、前記第1領域に全部または一部が重複する前記検出画像と、前記第2領域のみに属する前記検出画像とでは、前記判定基準が互いに異なる請求項に記載のカメラ装置。 In the second process, the controller determines the recognition target-likeness of the detected image, and the controller determines whether or not the detected image is the recognition target. A claim in which the determination criteria are different between the detection image having a plurality of determination criteria for object-likeness and having all or part of the first region overlapping and the detection image belonging only to the second region. The camera device according to 1 . 前記コントローラは、前記第1処理において検出した前記第1領域に基づいて前記撮像画像を変更し、該変更した撮像画像に対して前記第2処理を行う請求項1又は2に記載のカメラ装置。 The camera device according to claim 1 or 2 , wherein the controller modifies the captured image based on the first region detected in the first process, and performs the second process on the changed captured image. 前記コントローラは、前記第1領域の画像を、前記撮像画像から削除して前記第2処理を行う請求項に記載のカメラ装置。 The camera device according to claim 3 , wherein the controller deletes the image of the first region from the captured image and performs the second process. 前記コントローラは、前記検出画像を前記認識対象物であると判定した場合、前記信号を生成する請求項1からの何れか一項に記載のカメラ装置。 The camera device according to any one of claims 1 to 3 , wherein the controller generates the signal when the detected image is determined to be the recognition target. 移動体に取り付けられ該移動体の周辺を撮像するカメラからの撮像画像を受信する入力部と、
前記入力部で受信した前記カメラからの撮像画像について、前記移動体の外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する前記撮像画像上の第1領域を検出する第1処理、および、認識対象物に係る形状または特徴に基づき検出画像を検出する第2処理を行い、前記第1処理の結果および前記第2処理の結果に基づいて信号を生成するコントローラと
を備え、前記コントローラは、前記第2処理において、前記撮像画像から前記検出画像を検出する複数のアルゴリズムを有し、前記第1領域と、前記撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて前記認識対象物の認識を行う検出装置。
An input unit that is attached to a moving body and receives an image captured by a camera that images the surroundings of the moving body.
Regarding the captured image from the camera received by the input unit, the deposits adhering to the translucent member exposed to the outside of the moving body are recognized, and the first region on the captured image where the deposits are located is detected. With a controller that performs the first process of performing the first process and the second process of detecting the detected image based on the shape or feature of the recognition target, and generates a signal based on the result of the first process and the result of the second process.
The controller has a plurality of algorithms for detecting the detected image from the captured image in the second process, and is a second region other than the first region and the first region of the captured image. A region is a detection device that recognizes the recognition target using algorithms different from each other .
移動体に取り付けられ該移動体の周辺を撮像するカメラと、
前記カメラからの撮像画像を受信する入力部、および、前記入力部で受信した前記カメラからの撮像画像について、前記移動体の外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する前記撮像画像上の第1領域を検出する第1処理、および、認識対象物に係る形状または特徴に基づき検出画像を検出する第2処理を行い、前記第1処理の結果および前記第2処理の結果に基づいて信号を生成するコントローラを含み、前記コントローラは、前記第2処理において、前記撮像画像から前記検出画像を検出する複数のアルゴリズムを有し、前記第1領域と、前記撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて前記認識対象物の認識を行う検出装置と
を備える検出システム。
A camera attached to a moving body and taking an image of the surroundings of the moving body,
With respect to the input unit that receives the image captured from the camera and the image captured from the camera received by the input unit, the deposits adhering to the translucent member exposed to the outside of the moving body are recognized and attached. The first process of detecting the first region on the captured image in which the kimono is located and the second process of detecting the detected image based on the shape or feature of the recognition target are performed, and the result of the first process and the said look including a controller for generating a signal based on the result of the second processing, the controller, in the second processing, a plurality of algorithms for detecting said detection image from the captured image, said first region, A detection system including a detection device that recognizes the recognition object by using algorithms different from those of the second region, which is a region other than the first region of the captured image .
周辺を撮像するカメラ、および、前記カメラからの撮像画像について、外部に露出する透光部材に付着した付着物を認識し、当該付着物が位置する前記撮像画像上の第1領域を検出する第1処理、および、認識対象物に係る形状または特徴に基づき検出画像を検出する第2処理を行い、前記第1処理の結果および前記第2処理の結果に基づいて信号を生成するコントローラを含み、前記コントローラは、前記第2処理において、前記撮像画像から前記検出画像を検出する複数のアルゴリズムを有し、前記第1領域と、前記撮像画像の第1領域以外の領域である第2領域とでは、互いに異なるアルゴリズムを用いて前記認識対象物の認識を行うカメラ装置を備える移動体。 With respect to a camera that images the surroundings and an image captured by the camera, a first region on the captured image in which the deposits are located is recognized by recognizing deposits adhering to a translucent member exposed to the outside. 1 process, and performs a second process of detecting a detection image on the basis of the shape or characteristics according to the object to be recognized, unrealized a controller that generates a signal based on the result of the result and the second processing of the first processing The controller has a plurality of algorithms for detecting the detected image from the captured image in the second process, and includes the first region and a second region which is a region other than the first region of the captured image. Then, a moving body including a camera device that recognizes the recognition object by using different algorithms .
JP2017034128A 2017-02-24 2017-02-24 Camera devices, detectors, detection systems and mobiles Active JP6789151B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017034128A JP6789151B2 (en) 2017-02-24 2017-02-24 Camera devices, detectors, detection systems and mobiles

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017034128A JP6789151B2 (en) 2017-02-24 2017-02-24 Camera devices, detectors, detection systems and mobiles

Publications (2)

Publication Number Publication Date
JP2018142756A JP2018142756A (en) 2018-09-13
JP6789151B2 true JP6789151B2 (en) 2020-11-25

Family

ID=63528392

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017034128A Active JP6789151B2 (en) 2017-02-24 2017-02-24 Camera devices, detectors, detection systems and mobiles

Country Status (1)

Country Link
JP (1) JP6789151B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689493A (en) * 2020-05-18 2021-11-23 杭州海康威视数字技术股份有限公司 Lens attachment detection method, lens attachment detection device, electronic equipment and storage medium
US20230325983A1 (en) * 2020-11-10 2023-10-12 Mitsubishi Electric Corporation Sensor noise removal device and sensor noise removal method

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4654208B2 (en) * 2007-02-13 2011-03-16 日立オートモティブシステムズ株式会社 Vehicle environment recognition device
JP2012038048A (en) * 2010-08-06 2012-02-23 Alpine Electronics Inc Obstacle detecting device for vehicle
EP2871101B1 (en) * 2012-07-03 2020-06-17 Clarion Co., Ltd. Vehicle surrounding monitoring device
CN105393293B (en) * 2013-07-18 2017-05-03 歌乐株式会社 Vehicle-mounted device
JP6245875B2 (en) * 2013-07-26 2017-12-13 クラリオン株式会社 Lens dirt detection device and lens dirt detection method
JP6313081B2 (en) * 2014-03-20 2018-04-18 クラリオン株式会社 In-vehicle image processing apparatus and vehicle system using the same
JP5995899B2 (en) * 2014-03-24 2016-09-21 日立建機株式会社 Self-propelled industrial machine image processing device
JP2016033729A (en) * 2014-07-31 2016-03-10 クラリオン株式会社 Surrounding environment recognition device

Also Published As

Publication number Publication date
JP2018142756A (en) 2018-09-13

Similar Documents

Publication Publication Date Title
CN107392103B (en) Method and device for detecting road lane line and electronic equipment
Wu et al. Lane-mark extraction for automobiles under complex conditions
US9734425B2 (en) Environmental scene condition detection
CN107341454B (en) Method and device for detecting obstacles in scene and electronic equipment
CN108638999B (en) Anti-collision early warning system and method based on 360-degree look-around input
US11527077B2 (en) Advanced driver assist system, method of calibrating the same, and method of detecting object in the same
US9773176B2 (en) Image processing apparatus and image processing method
CN109145798B (en) Driving scene target identification and travelable region segmentation integration method
US10268904B2 (en) Vehicle vision system with object and lane fusion
US20130286205A1 (en) Approaching object detection device and method for detecting approaching objects
JP4584120B2 (en) Road marking line detection device, road marking line detection method, road marking line detection program
JP4425642B2 (en) Pedestrian extraction device
WO2019194256A1 (en) Operation processing device, object identifying system, learning method, automobile, and lighting appliance for vehicle
JP6569280B2 (en) Road marking detection device and road marking detection method
WO2019009110A1 (en) Exterior recognition device for vehicles
KR20190019840A (en) Driver assistance system and method for object detection and notification
JP6847709B2 (en) Camera devices, detectors, detection systems and mobiles
WO2021131953A1 (en) Information processing device, information processing system, information processing program, and information processing method
JP6789151B2 (en) Camera devices, detectors, detection systems and mobiles
US20140226908A1 (en) Object detection apparatus, object detection method, storage medium, and integrated circuit
Premachandra et al. Road intersection moving object detection by 360-degree view camera
Wang et al. On the application of cameras used in autonomous vehicles
Dai et al. A driving assistance system with vision based vehicle detection techniques
CN115088248A (en) Image pickup apparatus, image pickup system, and image pickup method
US11924527B2 (en) Optical sensor activation and fusion

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200318

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200522

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201006

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201102

R150 Certificate of patent or registration of utility model

Ref document number: 6789151

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150