JP2023003924A - Arithmetic device and speed calculation method - Google Patents

Arithmetic device and speed calculation method Download PDF

Info

Publication number
JP2023003924A
JP2023003924A JP2021105309A JP2021105309A JP2023003924A JP 2023003924 A JP2023003924 A JP 2023003924A JP 2021105309 A JP2021105309 A JP 2021105309A JP 2021105309 A JP2021105309 A JP 2021105309A JP 2023003924 A JP2023003924 A JP 2023003924A
Authority
JP
Japan
Prior art keywords
image
angle
time
distance
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021105309A
Other languages
Japanese (ja)
Inventor
正幸 小林
Masayuki Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Astemo Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Astemo Ltd filed Critical Hitachi Astemo Ltd
Priority to JP2021105309A priority Critical patent/JP2023003924A/en
Priority to PCT/JP2022/020714 priority patent/WO2022270183A1/en
Priority to DE112022001636.1T priority patent/DE112022001636T5/en
Publication of JP2023003924A publication Critical patent/JP2023003924A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P3/00Measuring linear or angular speed; Measuring differences of linear or angular speeds
    • G01P3/64Devices characterised by the determination of the time taken to traverse a fixed distance
    • G01P3/68Devices characterised by the determination of the time taken to traverse a fixed distance using optical means, i.e. using infrared, visible, or ultraviolet light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0108Measuring and analyzing of parameters relative to traffic conditions based on the source of data
    • G08G1/0112Measuring and analyzing of parameters relative to traffic conditions based on the source of data from the vehicle, e.g. floating car data [FCD]
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/0104Measuring and analyzing of parameters relative to traffic conditions
    • G08G1/0125Traffic data processing
    • G08G1/0133Traffic data processing for classifying traffic situation
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle

Abstract

To calculate a speed of a measurement object using a sensing result of a time when the distance information may not be directly calculated and a sensing result of a time when the distance information may be directly calculated.SOLUTION: An arithmetic device is mounted on a moving object and includes: a crossing angle identification unit that identifies a crossing angle, which is an angle at which the traveling direction of the moving object and the traveling direction of a detected object intersect; a sensing information acquisition unit which acquires a sensing result which includes at least a captured image taken by a camera; a ranging unit which calculates a distance from the detected object at a first time on the basis of the sensing result; an angle of view identification unit which specifies an angle of view, which is an angle with respect to the traveling direction of the moving object at a second time on the basis of the captured image; and a speed calculation unit which calculates a speed of the detected object on the basis of the crossing angle, the distance from the moving object at the first time, the angle with the moving object at the second time, the time difference between the first and second times, and the speed of the moving object.SELECTED DRAWING: Figure 3

Description

本発明は、演算装置、および速度算出方法に関する。 The present invention relates to an arithmetic device and a speed calculation method.

カメラによって撮像された画像等に基づき、画像中で移動する物体を検知するための様々な技術が知られている。特許文献1には、撮像手段により撮像した画像から物体領域を抽出する物体領域抽出手段と、前記撮像手段の撮像範囲外に照射した電磁波の反射波から前記撮像範囲外の物体までの距離情報を取得する距離情報取得手段と、前記距離情報取得手段が取得した距離情報を用いて、前記撮像範囲外の物体が前記撮像手段の撮像範囲内に入った際に前記物体領域抽出手段が該物体の物体領域を抽出するための予測領域情報を作成する情報作成手段と、を有することを特徴とする画像処理装置が開示されている。 2. Description of the Related Art Various techniques are known for detecting a moving object in an image, such as an image captured by a camera. Japanese Patent Laid-Open No. 2004-100001 discloses an object region extracting means for extracting an object region from an image captured by an image capturing means, and distance information to an object outside the image capturing range from a reflected wave of an electromagnetic wave irradiated outside the image capturing range of the image capturing means. Using the distance information acquisition means to acquire and the distance information acquired by the distance information acquisition means, when the object outside the imaging range enters the imaging range of the imaging means, the object area extraction means extracts the object. and information creating means for creating prediction area information for extracting an object area.

特開2015-195018号公報JP 2015-195018 A

特許文献1に記載されている発明では、測定対象の速度を算出するためには異なる時刻における距離情報を取得する必要があり、距離情報が得られない状況では速度を算出できない。 In the invention described in Patent Document 1, it is necessary to acquire distance information at different times in order to calculate the speed of the object to be measured, and the speed cannot be calculated in situations where distance information cannot be obtained.

本発明の第1の態様による演算装置は、移動体に搭載される演算装置であって、前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定する交差角度特定部と、カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得するセンシング情報取得部と、前記センシング結果に基づき第1時刻における前記検知物体との距離を算出する測距部と、前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定する画角特定部と、前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出する速度算出部と、を備える。
本発明の第2の態様による速度算出方法は、移動体に搭載される演算装置が実行する速度算出方法であって、前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定することと、カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得することと、前記センシング結果に基づき第1時刻における前記検知物体との距離を算出することと、前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定することと、前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出することと、を含む。
An arithmetic device according to a first aspect of the present invention is an arithmetic device mounted on a mobile object, and is an intersection angle specifying an intersection angle, which is an angle at which the traveling direction of the mobile object and the traveling direction of a detected object intersect. a specifying unit, a sensing information acquisition unit that acquires a sensing result including at least an image captured by a camera, and a distance measurement unit that calculates a distance to the detected object at a first time based on the sensing result; an angle-of-view specifying unit that specifies an angle of view that is an angle with respect to the moving direction of the moving body at a second time based on the captured image; the intersection angle; the distance from the moving body at the first time; a velocity calculation unit configured to calculate the velocity of the detected object based on the angle with the moving body at the time point, the time difference between the first time and the second time, and the velocity of the moving body.
A speed calculation method according to a second aspect of the present invention is a speed calculation method executed by an arithmetic device mounted on a moving body, and is an angle at which the moving direction of the moving body and the moving direction of the detected object intersect. identifying the crossing angle; obtaining sensing results including at least an image captured by a camera; calculating a distance to the detected object at a first time based on the sensing results; specifying an angle of view that is an angle with respect to a traveling direction of the moving body at a second time based on the captured image, the intersection angle, a distance from the moving body at the first time, and the moving body at the second time and calculating the speed of the detected object based on the angle between and, the time difference between the first time and the second time, and the speed of the moving body.

本発明によれば、距離情報が直接算出できない時刻のセンシング結果と、距離情報が直接算出できる時刻のセンシング結果とを用いて測定対象の速度を算出できる。上記した以外の課題、構成および効果は、以下の発明を実施するための形態の説明により明らかにされる。 According to the present invention, the speed of the object to be measured can be calculated using the sensing result at the time when the distance information cannot be directly calculated and the sensing result at the time when the distance information can be directly calculated. Problems, configurations, and effects other than those described above will be clarified by the following description of the mode for carrying out the invention.

視野画角と車両の位置関係を説明する図Diagram explaining the positional relationship between the field of view and the vehicle 視野の相関関係を示す図Visual field correlation diagram 第1の実施の形態に係るカメラシステムが有する機能を示す機能ブロック図FIG. 2 is a functional block diagram showing functions of the camera system according to the first embodiment; FIG. 単眼検知部の動作を説明する概念図Conceptual diagram explaining the operation of the monocular detection unit ステレオマッチング部による視差画像生成を説明する概念図Conceptual diagram for explaining parallax image generation by the stereo matching unit ステレオ検知部による立体物の検知方法を説明する概念図Conceptual diagram explaining how the stereo detector detects three-dimensional objects 速度算出処理を示すフローチャートFlowchart showing speed calculation processing 図7のステップS705およびステップS706の詳細を示すフローチャートFlowchart showing details of steps S705 and S706 in FIG. 図7のステップS708に示した速度算出処理の詳細を示すフローチャートFlowchart showing details of speed calculation processing shown in step S708 of FIG. 第1の具体例を示す図A diagram showing a first specific example 図10の例を自車両を中心とした相対的な位置に置き換えた図The figure which replaced the example of FIG. 10 with the relative position centering on the own vehicle. 図11における距離を説明する図A diagram explaining the distance in FIG. 11 第2の具体例を示す図A diagram showing a second specific example 図13の例を自車両を中心とした相対的な位置に置き換えた図The figure which replaced the example of FIG. 13 with the relative position centering on the own vehicle. 第3の具体例を示す図A diagram showing a third specific example 第4の具体例を示す図A diagram showing a fourth specific example 図8のステップS804に示すテンプレート選択処理の詳細を示すフローチャートFlowchart showing details of template selection processing shown in step S804 of FIG. テンプレートのサイズを説明する図Diagram explaining the size of the template 変形例1におけるカメラシステムの機能構成図Functional configuration diagram of a camera system in modification 1 変形例2におけるカメラシステムの機能構成図Functional configuration diagram of a camera system in modification 2 第2の実施の形態に係るカメラシステムが有する機能を示す機能ブロック図FIG. 3 is a functional block diagram showing functions of a camera system according to a second embodiment; FIG. 速度算出部による速度の算出方法を示す図The figure which shows the calculation method of the speed by a speed calculation part.

以下、図面を参照して本発明の実施形態を説明する。実施例は、本発明を説明するための例示であって、説明の明確化のため、適宜、省略および簡略化がなされている。本発明は、他の種々の形態でも実施することが可能である。特に限定しない限り、各構成要素は単数でも複数でも構わない。 Embodiments of the present invention will be described below with reference to the drawings. The examples are exemplifications for explaining the present invention, and are appropriately omitted and simplified for clarity of explanation. The present invention can also be implemented in various other forms. Unless otherwise specified, each component may be singular or plural.

同一あるいは同様の機能を有する構成要素が複数ある場合には、同一の符号に異なる添字を付して説明する場合がある。また、これらの複数の構成要素を区別する必要がない場合には、添字を省略して説明する場合がある。 When there are a plurality of components having the same or similar functions, they may be described with the same reference numerals and different suffixes. Further, when there is no need to distinguish between these constituent elements, the subscripts may be omitted in the description.

実施例において、プログラムを実行して行う処理について説明する場合がある。ここで、計算機は、プロセッサ(例えばCPU、GPU)によりプログラムを実行し、記憶資源(例えばメモリ)やインターフェースデバイス(例えば通信ポート)等を用いながら、プログラムで定められた処理を行う。そのため、プログラムを実行して行う処理の主体を、プロセッサとしてもよい。同様に、プログラムを実行して行う処理の主体が、プロセッサを有するコントローラ、装置、システム、計算機、ノードであってもよい。プログラムを実行して行う処理の主体は、演算部であれば良く、特定の処理を行う専用回路を含んでいてもよい。ここで、専用回路とは、例えばFPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)、CPLD(Complex Programmable Logic Device)等である。 In the embodiments, there are cases where the processing performed by executing the program will be described. Here, the computer executes a program by means of a processor (eg, CPU, GPU) and performs processing determined by the program while using storage resources (eg, memory) and interface devices (eg, communication port). Therefore, the main body of the processing performed by executing the program may be the processor. Similarly, a main body of processing executed by executing a program may be a controller having a processor, a device, a system, a computer, or a node. The subject of the processing performed by executing the program may be an arithmetic unit, and may include a dedicated circuit for performing specific processing. Here, the dedicated circuit is, for example, FPGA (Field Programmable Gate Array), ASIC (Application Specific Integrated Circuit), CPLD (Complex Programmable Logic Device), or the like.

プログラムは、プログラムソースから計算機にインストールされてもよい。プログラムソースは、例えば、プログラム配布サーバまたは計算機が読み取り可能な記憶メディアであってもよい。プログラムソースがプログラム配布サーバの場合、プログラム配布サーバはプロセッサと配布対象のプログラムを記憶する記憶資源を含み、プログラム配布サーバのプロセッサが配布対象のプログラムを他の計算機に配布してもよい。また、実施例において、2以上のプログラムが1つのプログラムとして実現されてもよいし、1つのプログラムが2以上のプログラムとして実現されてもよい。 The program may be installed on the computer from a program source. The program source may be, for example, a program distribution server or a computer-readable storage medium. When the program source is a program distribution server, the program distribution server may include a processor and storage resources for storing the distribution target program, and the processor of the program distribution server may distribute the distribution target program to other computers. Also, in the embodiment, two or more programs may be implemented as one program, and one program may be implemented as two or more programs.

―第1の実施の形態―
図1~図18を参照して、演算装置の第1の実施の形態を説明する。本実施の形態に係る演算装置は、検知物体(以下では「測定対象」とも呼ぶ)が、特定可能な距離に存在している時刻の検知と測距結果と、その時刻以外のセンシング結果から特定したその物体の画角と、自車両の速度とを用いて、検知物体の速度を特定する。本実施の形態では、自車両の進路と検知物体の進路とが、略直交に交わると仮定する。検知物体の速度は、二つの時刻の間の検知物体の移動量から時刻差を割ることで求める。
-First Embodiment-
A first embodiment of an arithmetic device will be described with reference to FIGS. 1 to 18. FIG. The arithmetic device according to the present embodiment detects a detected object (hereinafter also referred to as a “measurement target”) from the detection and distance measurement results at the time when it exists at an identifiable distance, and from the sensing results other than that time. The speed of the detected object is specified by using the angle of view of the detected object and the speed of the own vehicle. In this embodiment, it is assumed that the course of the own vehicle and the course of the detected object intersect substantially at right angles. The velocity of the detected object is obtained by dividing the time difference from the amount of movement of the detected object between two times.

検知物体の移動量のうち、演算装置から見て奥行方向の移動量を自車の移動量と断定する。前述の一方の時刻の距離と移動量から、他方の時刻の奥行距離を特定し、該もう一方の時刻の物体の画角から、横方向の距離を特定することで、横方向の移動量も特定する。前述の直交に近い移動方向への特定は、物体の種別識別において行う。識別器で物体の種別を識別する際に、物体の向いている向きを識別し、その画角において該向きが直交に近い移動方向かを特定する。 Of the amount of movement of the detected object, the amount of movement in the depth direction viewed from the computing device is determined to be the amount of movement of the own vehicle. By specifying the depth distance at the other time from the distance and the amount of movement at one time, and specifying the distance in the horizontal direction from the angle of view of the object at the other time, the amount of movement in the horizontal direction can also be determined. Identify. The above-mentioned identification of the near-orthogonal movement direction is performed in object type identification. When discriminating the type of the object with the discriminator, the direction in which the object is facing is discriminated, and whether the direction is a direction of movement that is nearly orthogonal at the angle of view is specified.

本実施の形態に係る画像処理システムは、カメラが撮影して得られる画像(以下では「撮影画像」と呼ぶ)から対象となる物体を検知する。対象となる物体は、たとえば移動体や立体物、特定の物体などである。この「移動体」とは、背景に対して動いているものを指す。ただし、「背景」とは、撮影画像中で変化しない画素からなる領域に限らない。たとえば、走行する車両に搭載されるカメラの撮影画像の場合には、車両の走行に伴い撮像位置が変化する路面も背景であり、路面に対して移動を行う歩行者や車両が移動体である。またたとえば、固定された監視カメラであれば、カメラ画像内で動く人物や動物、動かされる物、などが移動体である。 The image processing system according to the present embodiment detects a target object from an image (hereinafter referred to as "captured image") captured by a camera. The target object is, for example, a moving object, a three-dimensional object, or a specific object. This "moving object" refers to an object that is moving relative to the background. However, the “background” is not limited to an area composed of pixels that do not change in the captured image. For example, in the case of an image captured by a camera mounted on a running vehicle, the background is the road surface whose imaging position changes as the vehicle runs, and pedestrians and vehicles moving on the road surface are moving objects. . Further, for example, in the case of a fixed surveillance camera, moving objects include people, animals, and objects that move within the camera image.

「立体物」は、たとえば、路面に対して高さのある物体で、車両や歩行者、二輪車、電柱などである。「特定の物体」は、たとえば、車両や歩行者、二輪車などの設計者が意図的に検知したいと定めた特定の物体を指す。特定の物体は、テンプレートやパターンや機械学習の辞書などを予め用意して、テンプレートやパターンや機械学習の辞書との類似度が高いものを検知する。画像処理システムはこの検知を行うとともに、カメラから一定の範囲の物体を検知し、物体の距離と速度を算出する。 A "three-dimensional object" is, for example, an object having a height relative to the road surface, such as a vehicle, a pedestrian, a two-wheeled vehicle, and a utility pole. A “specific object” refers to a specific object such as a vehicle, a pedestrian, a motorcycle, etc., which a designer intentionally determines to detect. Templates, patterns, machine learning dictionaries, and the like are prepared in advance for specific objects, and objects that have a high degree of similarity with the templates, patterns, and machine learning dictionaries are detected. The image processing system performs this detection as well as detects an object within a certain range from the camera and calculates the distance and velocity of the object.

図1は視野画角と車両の位置関係を説明する図である。車両100は、カメラシステム101と、左撮像部102と、右撮像部103とを備える。左撮像部102は車両100の左側に配された撮像部であり、光軸102Axは車両100の前方に向き、車両100の中心軸に対して図示右側に広い視野である右視野1021を有する。右撮像部103は車両100の右側に配された撮像部であり、光軸103Axは車両100の前方に向き、車両100の中心軸に対して図示左側に広い視野である左視野1031を有する。車両100は車両速度センサと、舵角センサまたはヨーレートセンサの少なくとも1つを備える。以下では、右撮像部103の撮影画像を右画像203と呼び、左撮像部102の撮影画像を左画像202と呼ぶ。 FIG. 1 is a diagram for explaining the positional relationship between the viewing angle and the vehicle. Vehicle 100 includes camera system 101 , left imaging section 102 , and right imaging section 103 . The left imaging unit 102 is an imaging unit arranged on the left side of the vehicle 100. The optical axis 102Ax faces the front of the vehicle 100 and has a wide right field of view 1021 on the right side of the central axis of the vehicle 100 in the figure. The right imaging unit 103 is arranged on the right side of the vehicle 100. The optical axis 103Ax faces the front of the vehicle 100 and has a wide left field of view 1031 on the left side of the central axis of the vehicle 100 in the figure. Vehicle 100 includes a vehicle speed sensor and at least one of a steering angle sensor and a yaw rate sensor. The image captured by the right imaging unit 103 is hereinafter referred to as a right image 203 , and the image captured by the left imaging unit 102 is hereinafter referred to as a left image 202 .

図1に示すように、右視野1021と左視野1031は車両100の前方では重複している。この重複する視野を以下では「ステレオ視野」と呼び、右視野1021からステレオ視野を除いた視野を「右単眼視野」と呼び、左視野1031からステレオ視野を除いた視野を「左単眼視野」と呼ぶ。 As shown in FIG. 1 , right field of view 1021 and left field of view 1031 overlap in front of vehicle 100 . This overlapping visual field is hereinafter referred to as "stereo visual field", the visual field obtained by removing the stereo visual field from the right visual field 1021 is referred to as the "right monocular visual field", and the visual field obtained by removing the stereo visual field from the left visual field 1031 is referred to as the "left monocular visual field". call.

図2は、視野の相関関係を示す図である。図示上断は左撮像部102の撮影画像である左画像202、図示中断は右撮像部103の撮影画像である右画像203、図示下段は左画像202および右画像203を用いて作成された合成画像204である。合成画像204は、右単眼領域204Rと、ステレオ領域204Sと、左単眼領域204Lとに分けられる。 FIG. 2 is a diagram showing the correlation of fields of view. The upper part of the figure shows a left image 202 captured by the left imaging unit 102, the middle part of the figure shows a right image 203 that is an image captured by the right imaging unit 103, and the lower part of the figure shows a composition created using the left image 202 and the right image 203. An image 204 is shown. The composite image 204 is divided into a right monocular region 204R, a stereo region 204S, and a left monocular region 204L.

右単眼領域204Rは、図1を参照して説明した右単眼視野の領域に相当する。ステレオ領域204Sは、図1を参照して説明したステレオ視野の領域に相当する。左単眼領域204Lは、図1を参照して説明した左単眼視野の領域に相当する。 The right monocular region 204R corresponds to the region of the right monocular visual field described with reference to FIG. The stereo region 204S corresponds to the stereo field of view region described with reference to FIG. The left monocular region 204L corresponds to the left monocular visual field region described with reference to FIG.

図3は、第1の実施の形態に係るカメラシステム101が有する機能を示す機能ブロック図である。カメラシステム101は、1つのハードウェアである演算装置として実現されてもよいし、複数のハードウェア装置により実現されてもよい。カメラシステム101は、左撮像部102と、右撮像部103と、ステレオマッチング部301と、単眼検知部302と、単眼測距部303と、テンプレート作成部304と、画像保持部305と、類似箇所探索部306と、画角特定部307と、ステレオ検知部308と、速度算出部309と、車両速度入力部310と、車両舵角入力部311と、ヨーレート入力部312と、交差角度特定部1901Zとを備える。カメラシステム101は、車両100に搭載される車両速度センサ313と、車両舵角センサ314と、ヨーレートセンサ315とに接続される。 FIG. 3 is a functional block diagram showing functions of the camera system 101 according to the first embodiment. The camera system 101 may be realized as a single piece of hardware, an arithmetic device, or may be realized by a plurality of hardware devices. The camera system 101 includes a left imaging unit 102, a right imaging unit 103, a stereo matching unit 301, a monocular detection unit 302, a monocular distance measurement unit 303, a template generation unit 304, an image storage unit 305, a similar part A search unit 306, a view angle identification unit 307, a stereo detection unit 308, a speed calculation unit 309, a vehicle speed input unit 310, a vehicle steering angle input unit 311, a yaw rate input unit 312, and an intersection angle identification unit 1901Z. and Camera system 101 is connected to vehicle speed sensor 313 , vehicle steering angle sensor 314 , and yaw rate sensor 315 mounted on vehicle 100 .

交差角度特定部1901Zは、車両100の進行方向と他の車両の進行方向とが交差する角度である交差角度を特定するが、本実施の形態では交差角度は常に90度と仮定している。そのため本実施の形態における交差角度特定部1901Zは特段の演算を行わず、交差角度の値が「90」度であることを保持する構成を備えればよい。たとえば交差角度特定部1901Zは、不揮発性記憶装置により実現できる。 Crossing angle specifying unit 1901Z specifies the crossing angle, which is the angle at which the traveling direction of vehicle 100 intersects the traveling direction of another vehicle. In the present embodiment, the crossing angle is always assumed to be 90 degrees. Therefore, the crossing angle specifying unit 1901Z in the present embodiment does not perform any particular calculation, and may be configured to hold that the value of the crossing angle is "90" degrees. For example, the crossing angle specifying unit 1901Z can be realized by a nonvolatile storage device.

左撮像部102および右撮像部103は撮像センサを含み、たとえば公知のカメラとして構成される。撮像センサにはレンズが取り付けられ、装置の外界を撮像する。撮像センサは、例えばCMOS(Complementary Metal Oxide Semiconductor)を備え、光を電気信号に変換する。 The left imaging unit 102 and the right imaging unit 103 include imaging sensors, and are configured as known cameras, for example. A lens is attached to the imaging sensor and images the outside world of the device. The imaging sensor includes, for example, a CMOS (Complementary Metal Oxide Semiconductor) and converts light into electrical signals.

左撮像部102および右撮像部103の撮像センサで電気信号に変換された情報は、さらに左撮像部102および右撮像部103内で、撮影画像を表す画像データに変換される。画像データは画素の輝度値を含む。輝度値は、たとえばデジタル値として表現することができ、RGB(Red Green Blue)やRC(Red Clear)等の色毎の輝度値や、モノクロの輝度値として表される。左撮像部102および右撮像部103は、画像データをステレオマッチング部301、単眼検知部302、単眼測距部303、テンプレート作成部304、画像保持部305、類似箇所探索部306、および画角特定部307に送信する。左撮像部102および右撮像部103は、所定の周期、たとえば17ミリ秒ごとに画像データを送信する。 The information converted into electrical signals by the imaging sensors of the left imaging unit 102 and the right imaging unit 103 is further converted into image data representing captured images in the left imaging unit 102 and the right imaging unit 103 . The image data includes luminance values of pixels. A luminance value can be expressed as a digital value, for example, and is expressed as a luminance value for each color such as RGB (Red Green Blue) or RC (Red Clear), or as a monochrome luminance value. The left imaging unit 102 and the right imaging unit 103 convert image data into a stereo matching unit 301, a monocular detection unit 302, a monocular distance measurement unit 303, a template creation unit 304, an image storage unit 305, a similar part search unit 306, and an angle of view specification. 307. Left imaging unit 102 and right imaging unit 103 transmit image data at predetermined intervals, for example, every 17 milliseconds.

左撮像部102および右撮像部103は、撮像センサの露光条件を変更する機能を備える。たとえば、撮像センサにグローバルシャッタまたはローリングシャッタ等の電子シャッタが備わっており、露光時間を任意の時間に設定して撮影することができる。受光素子として、受光すると電荷が蓄積されるフォトダイオードを用いる場合には、露光時間は、フォトダイオードの蓄積電荷をリセットしてから、輝度値に係る情報を読み出すために電荷を取り出すまでの時間を指す。 The left imaging unit 102 and the right imaging unit 103 have a function of changing exposure conditions of the imaging sensor. For example, an image sensor has an electronic shutter such as a global shutter or a rolling shutter, and can shoot with an arbitrary exposure time. When a photodiode that accumulates charge when receiving light is used as the light receiving element, the exposure time is the time from resetting the accumulated charge of the photodiode to extracting the charge to read out information related to the luminance value. Point.

露光時間を長くすると電荷が多く蓄積されるので、読み出される輝度値が高くなる。一方で露光時間を短くすると蓄えられる電荷が少なくなるので、読み出される輝度が低くなる。そのため、露光時間に相関して、撮像センサから得られる画像の明るさが変化する。 If the exposure time is lengthened, a large amount of electric charge is accumulated, so that the read luminance value is increased. On the other hand, if the exposure time is shortened, less charge is stored, so the readout brightness is lower. Therefore, the brightness of the image obtained from the imaging sensor changes in correlation with the exposure time.

左撮像部102および右撮像部103は、フォトダイオードから取り出される電荷量を電圧に変換し、A/D(Analog Digital)変換を行ってデジタル値を取得する。左撮像部102および右撮像部103はA/D変換に用いる増幅器を備えており、露光条件の一部として増幅器のゲインが変更できるように構成される場合がある。その場合には、増幅器のゲイン設定に応じて読み出される輝度値が変化する。ゲインを高くすれば輝度値は高く、ゲインを低くすれば輝度値は低くなる。 The left imaging unit 102 and the right imaging unit 103 convert the amount of charge taken out from the photodiode into a voltage and perform A/D (Analog Digital) conversion to obtain a digital value. The left imaging unit 102 and the right imaging unit 103 have amplifiers used for A/D conversion, and may be configured so that the gain of the amplifiers can be changed as part of the exposure conditions. In that case, the read luminance value changes according to the gain setting of the amplifier. A higher gain results in a higher luminance value, and a lower gain results in a lower luminance value.

ここで、一般的に、露光条件(上記の例では露光時間およびゲイン)の変化により輝度値が低くなると、暗い対象物の輝度値が0になったり、コントラスト比が低い対象物の輝度値が一様になったりし、輪郭や濃淡等が判別できなくなる場合がある。この問題は輝度値をデジタル値として表現する場合に顕著であるが、アナログ値として表現する場合にも同質の問題が発生し得る。同様に、露光条件の変化により輝度値が高くなると、明るい対象物の輝度値が最大値となり、対象物の輪郭や対象物の濃淡が判別できなくなる場合がある。従って、撮影する対象物の明るさに応じて露光条件を設定する必要がある。 Here, in general, when the luminance value decreases due to changes in exposure conditions (exposure time and gain in the above example), the luminance value of a dark object becomes 0, or the luminance value of an object with a low contrast ratio becomes 0. It may become uniform, and it may not be possible to distinguish outlines, shading, etc. This problem is conspicuous when the luminance value is expressed as a digital value, but the same problem can occur when it is expressed as an analog value. Similarly, when the luminance value increases due to a change in exposure conditions, the luminance value of a bright object becomes the maximum value, and the outline of the object and the shading of the object cannot be determined in some cases. Therefore, it is necessary to set the exposure conditions according to the brightness of the object to be photographed.

左撮像部102および右撮像部103は、時系列的に繰り返し電子シャッタを切り、シャッタ毎の画像データを取得することにより動画を撮影することができる。単位時間あたりの電子シャッタを切り画像データを出力する回数をフレームレートと呼び、1秒あたりのフレームレートをFPS(Frame Per Second)の単位で表す。 The left imaging unit 102 and the right imaging unit 103 can shoot moving images by repeatedly releasing the electronic shutters in time series and acquiring image data for each shutter. The number of times the electronic shutter is released and image data is output per unit time is called a frame rate, and the frame rate per second is expressed in units of FPS (Frame Per Second).

左撮像部102および右撮像部103が取得する撮影画像は、撮像素子がセンシングして得られた結果なので、以下では撮影画像を「センシング結果」とも呼ぶ。また、左撮像部102および右撮像部103は、センシング情報を取得するので、「センシング情報取得部」と呼ぶことができる。また以下では、左撮像部102と右撮像部103とを区別するために、前者を「第1撮像部」、後者を「第2撮像部」と呼ぶことがある。ただしこの呼び分けは便宜的であり、入れ替え可能な呼称である。 The captured images acquired by the left imaging unit 102 and the right imaging unit 103 are the result of sensing by the imaging elements, and therefore the captured images are also referred to as "sensing results" below. Also, since the left imaging unit 102 and the right imaging unit 103 acquire sensing information, they can be called "sensing information acquisition units". Also, hereinafter, in order to distinguish between the left imaging unit 102 and the right imaging unit 103, the former may be referred to as a "first imaging unit" and the latter may be referred to as a "second imaging unit". However, this classification is for convenience, and the names are interchangeable.

ステレオマッチング部301は、左撮像部102および右撮像部103から画像データを含むデータを受信し、これを処理することにより視差を演算する。視差とは、複数の撮像部の位置の違いから生じる、同一物体の写る画像座標の差である。視差は、近距離のものは大きく、遠距離のものは小さくなり、視差から距離を算出することが可能である。 The stereo matching unit 301 receives data including image data from the left imaging unit 102 and the right imaging unit 103 and processes the data to calculate parallax. Parallax is a difference in image coordinates in which the same object is captured, which is caused by differences in the positions of a plurality of imaging units. The parallax is large at short distances and small at long distances, and the distance can be calculated from the parallax.

ステレオマッチング部301では、左画像202および右画像203の画像データの歪みを補正する。たとえば、中心射影や透視投影モデルと言われる、同一の高さで同一の奥行距離の物体が、画像座標の水平に並ぶように画像データの歪を補正する。なお、水平方向に並ぶように補正するのは、左撮像部102と右撮像部103が左右方向に並んで配されているためである。補正された左画像202および右画像203を用いて、これらの一方を基準となる基準画像データとし、他方を比較対象とする比較画像データとして視差を求める。 The stereo matching unit 301 corrects distortion of image data of the left image 202 and the right image 203 . For example, distortion of image data is corrected so that objects having the same height and the same depth distance, which are called a central projection model or a perspective projection model, are arranged horizontally in the image coordinates. It should be noted that the reason why the left imaging unit 102 and the right imaging unit 103 are arranged side by side in the left-right direction is corrected so that they are aligned in the horizontal direction. Using the corrected left image 202 and right image 203, one of them is used as reference image data as a reference, and the other is used as comparison image data to be compared, and a parallax is obtained.

なお上述した説明では中心射影を用いる例を記載したが、画角が広い場合は画像データのサイズを抑制するために、たとえば円筒や球面に射影してもよい。その際のマッチングを行う際には、投影面上同一距離の物体が並ぶ探索線でマッチングをとる必要がある。 In the above description, an example using central projection has been described, but when the angle of view is wide, projection may be performed on a cylindrical or spherical surface in order to reduce the size of the image data. When performing matching at that time, it is necessary to perform matching using a search line along which objects at the same distance on the projection plane line up.

視差を求める際は、まず前述の基準画像データと、比較画像データの消失点の垂直座標を合わせる。そして、基準画像データの各座標に対して、比較画像データの同一垂直座標のどの水平座標が同一物体を映しているのかを、たとえばSSD(Sum of Squared Difference)やSAD(Sum of Absolute Difference)などの手法で検査する。 When obtaining the parallax, first, the vertical coordinates of the vanishing points of the reference image data and the comparison image data are matched. For each coordinate of the reference image data, which horizontal coordinate of the same vertical coordinate of the comparison image data shows the same object is determined by, for example, SSD (Sum of Squared Difference) or SAD (Sum of Absolute Difference). method.

ただしSSDやSADに限定されず、そのほかの手法でもよい、たとえばコーナー特徴点抽出を行い、同一特徴点かを検査する、FAST(Features from Accelerated Segment Test)やBRIEF(Binary Robust Independent Elementary Features)などの手法を組み合わせて同一物体のマッチングを行ってもよい。 However, it is not limited to SSD or SAD, and other methods may be used. Matching of the same object may be performed by combining methods.

単眼検知部302は、左画像202または右画像203に映る特定の物体を検知する。特定の物体とは、立体物や移動体であり、具体的には歩行者、車両、自転車などである。検知はカメラから一定の範囲内の特定の物体を検知する。検知された結果は、検知された物体の写る左画像202または右画像203の画像座標の情報を保持する。たとえば、検知物体を囲む長方形の枠(以下、「単眼検知枠」と呼ぶ)の左上と左下の垂直水平の画像座標として保持する。 A monocular detection unit 302 detects a specific object appearing in the left image 202 or the right image 203 . A specific object is a three-dimensional object or a moving object, specifically a pedestrian, a vehicle, a bicycle, or the like. Detection detects a specific object within a certain range from the camera. The detected result holds image coordinate information of the left image 202 or the right image 203 in which the detected object is captured. For example, they are held as vertical and horizontal image coordinates of the upper left and lower left of a rectangular frame surrounding the object to be detected (hereinafter referred to as "monocular detection frame").

種別識別部317は、単眼検知部302やステレオ検知部308により検知された物体の種別を識別する。物体の種別は、横断動作を行うことが想定される物体である、四輪車、二輪車、歩行者は、移動方向となる物体の前面の向きが、何れの向きなのかも特定する。これらの移動体の前面の向きは、カメラシステム101に対しての物体の前面の向きである。本実施例では、直交に近い移動方向に限定して動作する。直交に近い移動方向かは、画角とカメラシステム101に対する物体の前面の向きにより判断する。例えばカメラシステム101の右側に写る物体の場合、物体の進行する向きの面と側面とが写る。45°の角度の場合は、前面と側面が45°の向きで見える場合に直交に近い移動方向の物体と分かる。種別識別部317は、直交に近い移動方向の物体か否かの判断結果を、速度算出部309に伝達する。 A type identification unit 317 identifies the type of an object detected by the monocular detection unit 302 or the stereo detection unit 308 . For the type of object, which is an object assumed to perform a crossing motion, such as a four-wheeled vehicle, a two-wheeled vehicle, and a pedestrian, the orientation of the front surface of the object, which is the direction of movement, is also specified. The front orientations of these moving bodies are the front orientations of the objects with respect to the camera system 101 . In this embodiment, the operation is limited to the directions of movement that are nearly orthogonal. Whether the direction of movement is nearly orthogonal or not is determined by the angle of view and the orientation of the front surface of the object with respect to the camera system 101 . For example, in the case of an object captured on the right side of the camera system 101, the surface and side of the object in the advancing direction are captured. In the case of an angle of 45°, an object with a direction of motion close to orthogonal can be identified when the front and side faces are viewed at a 45° orientation. The type identification unit 317 transmits the determination result as to whether or not the moving direction of the object is nearly orthogonal to the speed calculation unit 309 .

単眼測距部303は、単眼検知部302で検知された特定の物体の位置を特定し、左撮像部102または右撮像部103からの距離と方向を求める。たとえば、特定された距離と方向は、車両100前方の奥行距離と横方向の横距離の平面上の位置を特定できる座標系で表す。ただし、カメラからの距離であるユーグリッド距離と方向で表す極座標系で表した情報を保持してもよく、奥行と横の2軸との相互変換は三角関数を用いればよい。単眼測距部303は、左画像202、右画像203、および合成画像204を路面に射影した俯瞰画像を用いて、俯瞰画像の垂直座標と水平座標と、実際の路面に対する俯瞰画像の垂直と水平方向の縮尺から位置を特定する。 A monocular ranging unit 303 identifies the position of a specific object detected by the monocular detection unit 302 and obtains the distance and direction from the left imaging unit 102 or the right imaging unit 103 . For example, the specified distance and direction are represented by a coordinate system that can specify the position on the plane of the depth distance in front of the vehicle 100 and the lateral distance in the lateral direction. However, information expressed in a polar coordinate system expressed by a Eugrid distance, which is a distance from the camera, and a direction may be held, and a trigonometric function may be used for interconversion between the depth and two horizontal axes. A monocular distance measurement unit 303 uses an overhead image obtained by projecting the left image 202, the right image 203, and the combined image 204 onto the road surface, and calculates the vertical and horizontal coordinates of the overhead image and the vertical and horizontal coordinates of the overhead image with respect to the actual road surface. Locating a location from a directional scale.

ただし位置の特定に俯瞰画像を用いることは必須の構成ではない。カメラの位置と姿勢の外部パラメータと、焦点距離・撮像素子の画素ピッチと光学系の歪の情報を用いて、幾何計算を行うことで特定してもよい。 However, it is not essential to use a bird's-eye view image to specify the position. It may be specified by performing geometric calculations using extrinsic parameters of the position and orientation of the camera, and information on the focal length, the pixel pitch of the imaging device, and the distortion of the optical system.

テンプレート作成部304は、撮影画像の1つを選択し、この撮影画像(以下、「検知画像」と呼ぶ)から特定の領域を切り抜いてテンプレートとする。具体的にはテンプレート作成部304は、単眼検知部302で検知された物体の単眼検知枠の内部および周辺の画素情報から、類似箇所を探すためのテンプレートを作成する。このテンプレートは、あらかじめ定められた画像サイズに拡大縮小される。テンプレートを拡大縮小する際は、縦横の比率を維持するか、大きく変えないこととする。拡大縮小処理の後に、画素の輝度値自体か、縮小画像内を複数の小領域(以下、「カーネル」とも呼ぶ)に分割し、カーネル内の輝度値の関係を、その画像の特徴として記憶する。画像の特徴は様々な形で抽出され、カーネル内の左右や上下の平均輝度差や、周辺と中央の平均輝度差、輝度の平均や分散など、様々な特徴量が存在するが、本実施の形態ではいずれを用いてもよい。 The template creation unit 304 selects one of the captured images, cuts out a specific region from this captured image (hereinafter referred to as a “detected image”), and uses it as a template. Specifically, the template creation unit 304 creates a template for searching for similar portions from pixel information inside and around the monocular detection frame of the object detected by the monocular detection unit 302 . This template is scaled to a predetermined image size. When scaling a template, maintain the aspect ratio or do not change it significantly. After the enlargement/reduction process, either the brightness value of the pixel itself or the reduced image is divided into a plurality of small regions (hereinafter also referred to as "kernels"), and the relationship between the brightness values in the kernel is stored as a feature of the image. . Image features are extracted in various forms, and there are various feature amounts such as left-right and top-bottom average brightness differences in the kernel, average brightness differences between the periphery and the center, and brightness averages and variances. Any form may be used.

画像保持部305は、左画像202および右画像203を一定時間、または異なる時刻の左画像202および右画像203が一定枚数蓄積されるまで保持する。この保持には記憶装置、たとえばDRAM(Dynamic Random Access Memory)などが用いられる。保持する記憶装置内の番地と範囲は、あらかじめ複数定めておき、撮像画像毎に転送先の番地を順に変えていき、一巡後は古い画像が記憶された領域を上書きしていくとよい。予め番地が定められているため、保持された画像を読み出す際に番地を通知する必要がない。 The image holding unit 305 holds the left image 202 and the right image 203 for a certain period of time, or until a certain number of left images 202 and right images 203 at different times are accumulated. A storage device such as a DRAM (Dynamic Random Access Memory) is used for this holding. A plurality of addresses and ranges in the storage device to be held may be determined in advance, and the transfer destination address may be changed for each captured image, and after one cycle, the area where the old image is stored may be overwritten. Since the address is determined in advance, there is no need to notify the address when reading out the held image.

類似箇所探索部306は、テンプレート作成部304で作成されたテンプレートに類似する箇所を、画像保持部305に格納される画像の中から探し出す。以下では、類似箇所探索部306がテンプレートとの類似箇所を探索する画像を「探索対象画像」と呼ぶ。探索対象画像は、単眼検知部302で検知された時刻の画像とは異なる画像である。どの時刻の画像を選択するかは、検知された時刻の画像のひとつ前の時刻に撮影された画像を選ぶことを基本とする。類似箇所は検知された時刻の単眼検知枠座標の近くに存在する可能性が高く、またテンプレートに対して、検知物体の向きの変化や、露光変化などによる輝度変化も少ないことが期待されるので、高精度な探索が可能である。 A similar part searching unit 306 searches for a part similar to the template created by the template creating unit 304 from the image stored in the image holding unit 305 . Hereinafter, an image in which the similar portion search unit 306 searches for a similar portion to the template will be referred to as a “search target image”. The search target image is an image different from the image at the time detected by the monocular detection unit 302 . The selection of the image at which time is based on the selection of the image captured at the time immediately preceding the image at the detected time. It is highly probable that the similar part exists near the coordinates of the monocular detection frame at the time of detection, and it is expected that there will be little change in brightness due to changes in the orientation of the detection object and changes in exposure with respect to the template. , a highly accurate search is possible.

ただし、撮像間隔が短い場合は、2つ以上前の時刻の画像を探索対象画像に選択してもよい。また、車速に応じて選択する画像を変えてもよい。たとえば、車速が閾値以上の場合は、検知された画像の撮像時刻に対して、近い時刻の古い画像を選び、車速が前述の閾値よりも遅い場合は、前述の近い時刻の古い画像よりも更に古い画像を選んでもよい。車両速度が速い場合は、検知された時刻に対して近い時刻の画像であれば、テンプレートに対して大きく見え方が変わらず、探索の精度が確保しやすい。また、車速が遅い場合は、検知された時刻に対して、類似箇所を探す画像での検知物体の位置変化が大きくなり、算出速度の精度を向上できる。 However, if the imaging interval is short, an image taken two or more times before may be selected as the search target image. Also, the image to be selected may be changed according to the vehicle speed. For example, if the vehicle speed is greater than or equal to the threshold, an older image that is closer to the captured time of the detected image is selected. You can choose an old image. When the vehicle speed is high, if the image is taken at a time close to the detected time, the appearance does not change significantly with respect to the template, and it is easy to ensure search accuracy. In addition, when the vehicle speed is slow, the positional change of the detected object in the image for searching for a similar part increases with respect to the detected time, and the accuracy of the calculated speed can be improved.

画角特定部307は、類似箇所探索部306が特定した類似箇所に写る特定の物体の、カメラの水平画角を特定する。ただし位置とともに高さも特定する場合は、垂直画像も特定する。また、カメラがロール回転する可能性がある場合も、水平と垂直の両方の画角を特定することで、速度を高精度に算出できる。水平画角は、奥行距離と横距離の比率から三角関数で求めればよい。 The angle-of-view specifying unit 307 specifies the horizontal angle of view of the camera for a specific object appearing in the similar location specified by the similar location searching unit 306 . However, if the height is specified along with the position, then the vertical image is also specified. Also, even if there is a possibility that the camera rolls, the speed can be calculated with high accuracy by specifying both the horizontal and vertical angles of view. The horizontal angle of view can be obtained by a trigonometric function from the ratio of the depth distance and the horizontal distance.

ステレオ検知部308は、ステレオマッチング部301で作成した視差画から、同一距離で一定のサイズの範囲の箇所を立体物として検知する。検知された物体は視差画座標情報を保持する。たとえば、検知物体を囲む長方形の枠(以下、「ステレオ検知枠」と呼ぶ)の左上と左下の垂直水平の画像座標として保持する。 A stereo detection unit 308 detects, from the parallax image created by the stereo matching unit 301, portions within a certain size range at the same distance as a three-dimensional object. Detected objects carry parallax image coordinate information. For example, they are held as vertical and horizontal image coordinates of the upper left and lower left of a rectangular frame (hereinafter referred to as "stereo detection frame") surrounding the object to be detected.

ステレオ測距部316は、ステレオ検知部308により検知された物体の位置を特定して距離と方向を特定する。たとえば、特定された距離と方向は、車両100前方の奥行距離と横方向の横距離の平面上の位置を特定できる座標系で表す。ただし、カメラからの距離であるユーグリッド距離と方向で表す極座標系で表した情報を保持してもよく、奥行と横の2軸との相互変換は三角関数を用いればよい。 A stereo ranging unit 316 identifies the position of the object detected by the stereo detection unit 308 to identify the distance and direction. For example, the specified distance and direction are represented by a coordinate system that can specify the position on the plane of the depth distance in front of the vehicle 100 and the lateral distance in the lateral direction. However, information expressed in a polar coordinate system expressed by a Eugrid distance, which is a distance from the camera, and a direction may be held, and a trigonometric function may be used for interconversion between the depth and two horizontal axes.

ステレオ測距部316は、物体の視差から奥行方向の距離を算出する。ステレオ測距部316は、算出した物体の視差にばらつきがある場合は、平均や最頻値を用いる。視差のばらつきが大きい際は、特定の外れ値をとる手法を用いてもよい。横距離は、ステレオ検知部308の検知枠の水平画角と奥行距離から、三角関数を用いて求める。 A stereo ranging unit 316 calculates the distance in the depth direction from the parallax of the object. The stereo ranging unit 316 uses an average or mode when there is variation in the calculated parallax of the object. When the disparity of parallax is large, a method of taking a specific outlier may be used. The horizontal distance is obtained from the horizontal angle of view and the depth distance of the detection frame of the stereo detection unit 308 using a trigonometric function.

速度算出部309は、単眼測距部303またはステレオ測距部316から測距結果を受け取り、画角特定部307から類似箇所の画角を受け取り、車両速度入力部310と車両舵角入力部311とヨーレート入力部312から車両挙動情報を受け取り、検知された特定の物体の速度を算出する。ただし速度算出部309は、車両速度入力部310から車両速度を受け取る代わりに、算出した相対的な奥行距離の微分値を車両速度として用いてもよい。これは、奥行距離は精度が良く測距でき、横距離は精度が悪く測距される場合に有用である。また奥行速度を車両速度の代わりに用いると、直交しない横断車両との衝突予測も精度よくできる。 The speed calculation unit 309 receives the distance measurement result from the monocular distance measurement unit 303 or the stereo distance measurement unit 316, receives the angle of view of the similar part from the angle of view identification unit 307, and inputs the vehicle speed input unit 310 and the vehicle steering angle input unit 311. and the vehicle behavior information from the yaw rate input unit 312, and calculates the speed of the detected specific object. However, instead of receiving the vehicle speed from the vehicle speed input unit 310, the speed calculation unit 309 may use the calculated differential value of the relative depth distance as the vehicle speed. This is useful when the depth distance can be measured with high accuracy and the horizontal distance is measured with low accuracy. Also, if the depth velocity is used instead of the vehicle velocity, it is possible to accurately predict a collision with a crossing vehicle that is not orthogonal.

車両速度入力部310は、車両速度センサ313から車両の速度情報が入力される。車両舵角入力部311は、車両舵角センサ314から車両の舵角情報が入力される。ヨーレート入力部312は、ヨーレートセンサ315から車両の旋回速度が入力される。 Vehicle speed input unit 310 receives vehicle speed information from vehicle speed sensor 313 . Vehicle steering angle input unit 311 receives vehicle steering angle information from vehicle steering angle sensor 314 . Yaw rate input unit 312 receives the turning speed of the vehicle from yaw rate sensor 315 .

車両速度センサ313は、車両100に搭載された車両の速度を測定する装置である。車両速度センサ313はたとえば、車輪の回転速度と車輪の外周長から車両の速度を測定する。車両舵角センサ314は、車両100に搭載された、操舵輪の舵角を測定する装置である。車両舵角センサ314はたとえば、車両100に搭載されるステアリングの回転角度センサである。ヨーレートセンサ315は、車両100の旋回速度を測定する装置である。ヨーレートセンサ315はたとえば、車両100の重心付近や、複数個所に装着された慣性センサである。 Vehicle speed sensor 313 is a device mounted on vehicle 100 that measures the speed of the vehicle. Vehicle speed sensor 313 measures the speed of the vehicle from, for example, the rotational speed of the wheels and the outer circumference of the wheels. The vehicle steering angle sensor 314 is a device mounted on the vehicle 100 that measures the steering angle of the steered wheels. Vehicle steering angle sensor 314 is, for example, a steering rotation angle sensor mounted on vehicle 100 . Yaw rate sensor 315 is a device that measures the turning speed of vehicle 100 . Yaw rate sensor 315 is, for example, an inertial sensor mounted near the center of gravity of vehicle 100 or at a plurality of locations.

ステレオマッチング部301、単眼検知部302、単眼測距部303、テンプレート作成部304、類似箇所探索部306、画角特定部307、ステレオ検知部308、および速度算出部309は、次のように実現されてもよい。すなわちこれらの機能ブロックは、不図示の中央演算装置であるCPU、不図示の読み出し専用の記憶装置であるROM、および不図示の読み書き可能な記憶装置であるRAMを用いて、CPUがROMに格納されるプログラムをRAMに展開して実行することで実現されてもよい。 Stereo matching unit 301, monocular detection unit 302, monocular distance measurement unit 303, template creation unit 304, similar part search unit 306, angle of view identification unit 307, stereo detection unit 308, and speed calculation unit 309 are realized as follows. may be That is, these functional blocks are stored in the ROM by the CPU using a CPU as a central processing unit (not shown), a ROM as a read-only storage device (not shown), and a RAM as a readable/writable storage device (not shown). It may be realized by deploying the program to be executed in RAM and executing it.

ただしこれらの機能ブロックは、CPU、ROM、およびRAMの組み合わせの代わりに書き換え可能な論理回路であるFPGAや特定用途向け集積回路であるASICにより実現されてもよい。またこれらの機能ブロックは、CPU、ROM、およびRAMの組み合わせの代わりに、異なる構成の組み合わせ、たとえばCPU、ROM、RAMとFPGAの組み合わせにより実現されてもよい。 However, these functional blocks may be implemented by FPGA, which is a rewritable logic circuit, or ASIC, which is an application-specific integrated circuit, instead of the combination of CPU, ROM, and RAM. Also, these functional blocks may be realized by a combination of different configurations, for example, a combination of CPU, ROM, RAM and FPGA, instead of the combination of CPU, ROM, and RAM.

車両速度入力部310、車両舵角入力部311、およびヨーレート入力部312は、通信ポート、たとえばIEEE802.3に対応する通信モジュールにより実現されてもよいし、電圧や電流を読み込み可能なADコンバータにより実現されてもよい。 Vehicle speed input unit 310, vehicle steering angle input unit 311, and yaw rate input unit 312 may be realized by a communication port, for example, a communication module compatible with IEEE 802.3, or by an AD converter capable of reading voltage and current. may be implemented.

図4は単眼検知部302の動作を説明する概念図である。図4の上段左に示す第1右画像203-1は、時刻t1に撮影された右画像203である。図4の上段右に示す第1射影画像401は、第1右画像203-1を路面に射影変換して得られる。この射影変換では、1画素が路面の奥行と横の一定距離に相当するように変換される。変換のためには、カメラの姿勢であるカメラの路面からの高さと路面に対するカメラの光軸の向きを、チルト回転、パン回転、ロール回転の情報からカメラ幾何計算を行い、路面の一定距離間隔が第1右画像203-1のどこに対応するのか求めることで、変換用のアフィンテーブルを作成する。このアフィンテーブルを用いてアフィン変換を行い、第1右画像203-1を路面に射影した第1射影画像401を得る。 4A and 4B are conceptual diagrams for explaining the operation of the monocular detection unit 302. FIG. A first right image 203-1 shown in the upper left of FIG. 4 is the right image 203 captured at time t1. The first projected image 401 shown in the upper right of FIG. 4 is obtained by projectively transforming the first right image 203-1 onto the road surface. In this projective transformation, one pixel is transformed so as to correspond to a constant distance in the depth and width of the road surface. For the conversion, the camera's height from the road surface, which is the camera's posture, and the orientation of the camera's optical axis with respect to the road surface are calculated using tilt rotation, pan rotation, and roll rotation information. corresponds to where in the first right image 203-1, an affine table for conversion is created. Affine transformation is performed using this affine table to obtain a first projected image 401 in which the first right image 203-1 is projected onto the road surface.

図4の中段左に示す第2右画像203-2は、時刻t2に撮影された右画像203である。時刻t2は、前述の時刻t1よりも後の時刻である。図4の中段右に示す第2射影画像402は、第2右画像203-2を路面に射影変換して得られる。図4の下段に示す差分画像404は、第1射影画像401と第2射影画像402とを用いて以下のように作成される。 A second right image 203-2 shown in the middle left of FIG. 4 is the right image 203 captured at time t2. Time t2 is a time later than time t1 described above. A second projected image 402 shown in the middle right of FIG. 4 is obtained by projectively transforming the second right image 203-2 onto the road surface. A differential image 404 shown in the lower part of FIG. 4 is created using the first projected image 401 and the second projected image 402 as follows.

差分画像404は、時刻t1と時刻t2との間に車両100が移動した分だけ、この移動を打ち消す方向に第2射影画像402を並進移動させ、第1射影画像401と重ねて差異を抽出して得られる。この差異は、第1射影画像401と第2射影画像402の輝度を比較するだけではなく、各画像のエッジの強度と方向を比較して差異を抽出することで、撮像された画角により立体物が映り込む角度が変わることを差分として取得できる。このようにして生成された差分画像404を用いることで立体物の検知が可能となる。 The difference image 404 is obtained by translating the second projection image 402 in a direction that cancels out the movement of the vehicle 100 between time t1 and time t2, and superimposing it on the first projection image 401 to extract the difference. obtained by This difference can be obtained not only by comparing the brightness of the first projected image 401 and the second projected image 402, but also by comparing the intensity and direction of the edge of each image and extracting the difference. The change in the angle at which an object is reflected can be obtained as a difference. A three-dimensional object can be detected by using the difference image 404 generated in this way.

図5はステレオマッチング部301による視差画像生成を説明する概念図である。図5の下部に示す視差画像500は、右画像203を基準画像とし、左画像202との視差を算出して得られた画像である。視差とは、複数の撮像部の位置の違いから生じる、同一物体の写る画像座標の差である。視差は、近距離のものは大きく、遠距離のものは小さくなり、視差から距離を算出することが可能である。 FIG. 5 is a conceptual diagram for explaining parallax image generation by the stereo matching unit 301. As shown in FIG. A parallax image 500 shown in the lower part of FIG. 5 is an image obtained by using the right image 203 as a reference image and calculating the parallax with the left image 202 . Parallax is a difference in image coordinates in which the same object is captured, which is caused by differences in the positions of a plurality of imaging units. The parallax is large at short distances and small at long distances, and the distance can be calculated from the parallax.

図6はステレオ検知部308による立体物の検知方法を説明する概念図である。短冊視差画像600は、視差画像500を縦長の短冊状に、換言すると図示左右方向に並ぶ縦長の複数の領域601に分割したものである。ステレオ検知部308は、分割された領域毎に、距離または視差が同一である存在の頻度を示すヒストグラムを作成して評価をする。このヒストグラムは、たとえば距離の逆数などの、路面のみが写る領域では頻度が一定となる横軸を設定する。符号603で示す短冊領域は路面しか映らないので、符号6031のヒストグラムに示すように頻度が一定となる。 6A and 6B are conceptual diagrams for explaining a three-dimensional object detection method by the stereo detection unit 308. FIG. A strip parallax image 600 is obtained by dividing the parallax image 500 into vertically long strips, in other words, into a plurality of vertically long regions 601 aligned in the horizontal direction of the figure. The stereo detection unit 308 creates a histogram that indicates the frequency of presence of the same distance or parallax for each divided area and evaluates it. In this histogram, the horizontal axis, such as the reciprocal of the distance, is set such that the frequency is constant in the area where only the road surface is shown. Since only the road surface is shown in the strip area indicated by reference numeral 603, the frequency is constant as indicated by the histogram indicated by reference numeral 6031. FIG.

立体物を含む領域602のヒストグラム6021は、立体物の存在する距離までの路面の視差が頻度一定に存在し、立体物が存在する距離Z0の頻度にピークが生じる。このように立体物がある場合、ヒストグラム中の最頻値に一定以上の高さの立体物の距離にピークが生じるので、最頻値から立体物の距離を特定できる。 In the histogram 6021 of the area 602 including the three-dimensional object, the parallax of the road surface up to the distance where the three-dimensional object exists has a constant frequency, and the frequency of the distance Z0 where the three-dimensional object exists has a peak. When there is a three-dimensional object in this way, since a peak occurs in the distance of the three-dimensional object having a height equal to or higher than a certain height in the mode value in the histogram, the distance of the three-dimensional object can be specified from the mode value.

ステレオ検知部308は、立体物の距離が特定できたら、視差画像の中の立体物の位置を特定する。符号604は、視差画像500上に立体物の検知結果を表示した例である。矩形6022は、立体物を検知した範囲を示している。ステレオ検知部308は、ヒストグラムで特定した立体物の水平座標の範囲で、特定した距離の視差の座標の集合を特定するラベリング処理およびクラスタリング処理を行う。なお無効視差や視差誤差等で立体物の視差の中に視差の無効値が含まれる場合や視差誤差が多い場合は、たとえばMean―Shiftを用いたクラスタリング処理などのように、分散離散した座標の視差から、一定距離の視差の集合を抽出できる手法を用いるとよい。 After the distance to the three-dimensional object can be specified, the stereo detection unit 308 specifies the position of the three-dimensional object in the parallax images. Reference numeral 604 is an example of displaying the detection result of a three-dimensional object on the parallax image 500 . A rectangle 6022 indicates the range in which the three-dimensional object is detected. The stereo detection unit 308 performs labeling processing and clustering processing for identifying a set of parallax coordinates at the identified distance within the horizontal coordinate range of the three-dimensional object identified by the histogram. Note that if the parallax of a three-dimensional object contains invalid values of parallax due to invalid parallax or parallax error, or if there are many parallax errors, for example, clustering processing using Mean-Shift may be used to It is preferable to use a method that can extract a set of parallaxes at a constant distance from the parallaxes.

図7は速度算出処理を示すフローチャートである。まずステップS701ではステレオマッチング部301がステレオマッチングを行う。ステレオマッチングでは、視差画像500を生成する。続くステップS702では、単眼検知部302またはステレオ検知部308が特定の物体や立体物や移動体を抽出して、画像座標上のいずれかの物体の座標を出力する物体検知処理を行う。 FIG. 7 is a flowchart showing speed calculation processing. First, in step S701, the stereo matching unit 301 performs stereo matching. In stereo matching, a parallax image 500 is generated. In subsequent step S702, the monocular detection unit 302 or the stereo detection unit 308 extracts a specific object, three-dimensional object, or moving object, and performs object detection processing for outputting the coordinates of any object on the image coordinates.

続くステップS703では速度算出部309は、直前のステップS702において検知された物体の距離を算出する。続くステップS704では速度算出部309は、テンプレート作成部304で検知された物体の特徴をテンプレートとして抽出する。物体検知は、単眼検知部302またはステレオ検知部308で行った結果を用いる。続くステップS705の探索範囲設定処理と、S706の類似箇所特定処理は、いずれも類似箇所探索部306が実行する。ここではステップS705およびS706の概要を説明し、詳細は図8を参照して後に説明する。 In subsequent step S703, the velocity calculation unit 309 calculates the distance of the object detected in immediately preceding step S702. In subsequent step S704, the velocity calculation unit 309 extracts the features of the object detected by the template creation unit 304 as a template. For object detection, the results obtained by the monocular detection unit 302 or the stereo detection unit 308 are used. The similar part searching unit 306 executes both the subsequent search range setting processing in step S705 and the similar part identifying process in step S706. An outline of steps S705 and S706 will be described here, and details will be described later with reference to FIG.

ステップS705では、類似箇所を探索する画像上の座標の範囲を設定する。この設定ではさらに、探索する際のテンプレートと照会するテンプレートの代表点、たとえば下端中央の範囲や、テンプレートと照会する際の画像を切り抜く範囲である幅と高さ、さらには、幅と高さを決める縮尺も決定する。この設定ではさらに、類似箇所との照会方法によって、探索範囲の中の照会処理を行う点の間隔も設定する。代表点は、ステップS703において測距された距離に対して、車両の挙動情報から、類似箇所を探索する画像と、物体検知S702と物体測距S703を行った画像の撮像時刻の時間で、物体が静止していた場合にどの程度接近や離間したのかを想定した位置を中心に設定する。 In step S705, a range of coordinates on the image for searching for similar portions is set. With this setting, you can also set the representative points of the template to be searched and the template to be queried, such as the range at the bottom center, the width and height of the image clipping range when queried with the template, and the width and height. Also decide the scale to be decided. This setting also sets the interval between points in the search range for query processing, depending on the query method for similar locations. The representative point is the time at which an image for searching for a similar location and an image for which object detection S702 and object ranging S703 are performed are captured based on the behavior information of the vehicle with respect to the distance measured in step S703. Set the position as the center based on the assumption of how close or far it would have been if it had been stationary.

ステップS706では、S705で設定された探索範囲を対象として、S704で作成したテンプレートとの類似箇所を探索する。探索処理の対象となる画像は、S702とS703で検知や測距された画像とは異なる時刻に撮像された画像である。速度算出部309は、探索して最も類似した箇所の画像座標を出力する。さらに、最も類似した箇所において、識別器を用いて物体の種別を識別し、検知した物体の種別と一致しているか、または回帰推定を行い、検知された物体種別の座標を推定し座標が一致していることの検算も行う。この検算を行うことで、類似箇所の特定精度を上げることができる。また、この検算により、類似箇所を探索する画像において、遮蔽物や光の加減や露光の問題で、検知物体がカメラ画像上で見えない状態で、実際の物体の速度とは異なる速度を算出することを防ぐ。 In step S706, the search range set in S705 is searched for similar portions to the template created in S704. The image to be searched is an image captured at a time different from that of the images detected and distance-measured in S702 and S703. A speed calculation unit 309 searches and outputs the image coordinates of the most similar part. Furthermore, at the most similar location, the classifier is used to identify the type of the object to determine whether it matches the type of the detected object, or regression estimation is performed to estimate the coordinates of the detected object type to determine whether the coordinates match. We also do a recalculation of what we are doing. By performing this recalculation, it is possible to improve the accuracy of identifying similar portions. In addition, by this verification, in the image to search for similar locations, when the detected object cannot be seen in the camera image due to obstructions, light adjustment, and exposure problems, the speed of the object is calculated differently from the actual speed. prevent

ステップS707では画角特定部307は、ステップS706で特定された類似箇所の画角を特定する。このステップS707では、類似箇所の画像座標から、カメラ幾何等を用いて、物体のカメラかの位置を特定し、奥行距離と横距離の比率から三角関数で画角を特定する。なお、カメラの姿勢変化や高さの変化の特定が困難で、カメラ幾何の誤差が懸念される場合には、光軸からの類似箇所の座標の距離から、画角を算出することで、カメラの姿勢変化や高さ変化を特定せずに画角を特定してもよい。ただし、カメラの姿勢変化や高さの変化を特定し算出した方がカメラ幾何計算による速度算出の精度が高まるので、カメラの姿勢や高さ変化の特定を行い、これらの特定に失敗する場合のみ光軸からの類似箇所の座標の距離からの画角算出を行い、この場合には速度の信頼度が下がったことをあわせて出力する。 In step S707, the view angle specifying unit 307 specifies the view angle of the similar portion specified in step S706. In this step S707, from the image coordinates of the similar part, the camera position of the object is specified using camera geometry, etc., and the angle of view is specified by a trigonometric function from the ratio of the depth distance and the horizontal distance. If it is difficult to identify changes in camera posture or height, and camera geometry errors are a concern, the angle of view can be calculated from the distance of the coordinates of similar points from the optical axis. The angle of view may be specified without specifying the posture change or height change. However, if you specify and calculate changes in the camera's posture and height, the accuracy of the speed calculation by camera geometric calculation will increase, so only when you fail to specify the camera's posture and height changes. The angle of view is calculated from the distance of the coordinates of the similar point from the optical axis, and in this case, the fact that the reliability of the speed is lowered is also output.

続くステップS708では、速度算出部309が速度算出処理を行う。速度算出部309は、ステップS707において特定した画角と、ステップS703における物体測距と車両挙動の情報から速度を算出する。車両挙動は、車両速度入力部310、車両舵角入力部311、およびヨーレート入力部312が取得する車両速度、車両舵角、およびヨーレートの情報を用いる。 In subsequent step S708, the speed calculation unit 309 performs speed calculation processing. The speed calculation unit 309 calculates the speed from the angle of view specified in step S707 and the information on the object ranging and vehicle behavior in step S703. For the vehicle behavior, information on vehicle speed, vehicle steering angle, and yaw rate obtained by vehicle speed input section 310, vehicle steering angle input section 311, and yaw rate input section 312 is used.

図8は、図7のステップS705およびステップS706の詳細を示すフローチャートである。まずステップS801では速度算出部309は、車両挙動情報を用いてフレーム間の移動量を特定する。具体的には速度算出部309は、テンプレートを作成した検知画像の撮影時刻と、類似箇所を探索する画像の撮像時刻との差を算出し、車両挙動情報に含まれる車両の速度との乗算により移動量を算出する。続くステップS802では速度算出部309は、検知画像上の、検知物体の高さ幅のピクセル数を特定する。 FIG. 8 is a flowchart showing details of steps S705 and S706 in FIG. First, in step S801, the speed calculation unit 309 identifies the amount of movement between frames using vehicle behavior information. Specifically, the speed calculation unit 309 calculates the difference between the photographing time of the detection image for which the template is created and the photographing time of the image for searching for similar locations, and multiplies the difference by the speed of the vehicle included in the vehicle behavior information. Calculate the amount of movement. In subsequent step S802, the velocity calculation unit 309 identifies the number of pixels in the height and width of the detected object on the detected image.

続くステップS803では速度算出部309は、探索対象画像における検知画像上の物体の大きさ、すなわちピクセル数を推定する。ステップS803における処理の詳細は次のとおりである。ステップS803ではまず、カメラ幾何を用いて、検知画像上の物体の実サイズを特定する。次に、検知画像上の検知物体の距離に対して、ステップS801において特定したフレーム間の移動量だけ動いた物体の位置を特定し、この物体が静止していた場合の探索対象画像上の物体位置を特定する。物体が移動している場合については後述する。次に、特定した実サイズを有する物体が、探索画像上の特定した物体位置に存在する場合の、画像上の高さおよび幅のピクセル数を、カメラ幾何等を用い特定する。以上のとおりステップS803では、探索画像上の物体の高さおよび幅のピクセル数を推定する。 In subsequent step S803, the velocity calculation unit 309 estimates the size of the object on the detection image in the search target image, that is, the number of pixels. The details of the processing in step S803 are as follows. First, in step S803, the camera geometry is used to identify the actual size of the object on the detected image. Next, with respect to the distance of the detected object on the detected image, the position of the object moved by the amount of movement between frames identified in step S801 is specified, and the position of the object on the search target image when this object is stationary is determined. Locate. A case where the object is moving will be described later. Next, the number of pixels in height and width on the image when the object having the specified actual size exists at the specified object position on the search image is specified using camera geometry or the like. As described above, in step S803, the number of pixels in the height and width of the object on the search image is estimated.

特定した物体が静止していない場合は次のように処理する。検知時点で判明している物体の種別と向きの情報から、移動速度を仮定して、等速直線運動している物体としてもよい。仮定する移動速度は、衝突事故の頻度が高い、たとえば四輪車両であれば30~80km/h程度、自転車であれば10~20km/h程度、歩行者であれば5~8km/h程度の速度を仮定してもよい。速度を仮定することで、衝突確率の高い物体の類似箇所を短時間で探索できる可能性を向上させ、事故回避の成功率を高めることができる。 If the identified object is not stationary, proceed as follows. The moving speed may be assumed based on information about the type and direction of the object known at the time of detection, and the object may be in uniform linear motion. The assumed moving speed is about 30 to 80 km/h for a four-wheeled vehicle, about 10 to 20 km/h for a bicycle, and about 5 to 8 km/h for a pedestrian. Velocity may be assumed. By assuming the speed, it is possible to improve the possibility of searching for similar locations of objects with a high collision probability in a short time, and to increase the success rate of accident avoidance.

また、検知した物体の方向から、物体の移動速度を仮定して、等速直線運動の物体を想定してもよい。その場合は、例えば8方向を特定して、左右方向、前後方向、そしてその間の斜め方向に応じて、奥行と横の距離の特定処理に、物体の奥行または横速度を仮定する。前後方向では、物体の想定する速度をすべて奥行方向であると想定し、向きに応じて速度値の符号を決定する。 Alternatively, the moving speed of the object may be assumed from the detected direction of the object, and the object may be assumed to be in uniform linear motion. In that case, for example, eight directions are specified, and the depth or lateral velocity of the object is assumed for the process of specifying the depth and lateral distance according to the left-right direction, the front-back direction, and the oblique direction therebetween. In the front-rear direction, all velocities assumed for the object are assumed to be in the depth direction, and the sign of the velocity value is determined according to the orientation.

左右方向では物体の速度をすべて左右方向であると想定し、向きに応じて速度値の符号を決定する。斜め方向では、速度の1/√2倍の速度を奥行と横速度の大きさとして、向きに応じて速度値の符号を決定する。種別と向きから物体の速度を仮定することで、探索時間の短縮を行うことができる。また、物体の速度の仮定は、速度算出においても考慮することで、算出速度の精度を改善することができる。以上がステップS803の説明である。 In the left-right direction, all the velocities of the object are assumed to be in the left-right direction, and the sign of the velocity value is determined according to the direction. In the oblique direction, the sign of the velocity value is determined according to the direction, with the velocity 1/√2 times the velocity being the magnitude of the depth and lateral velocity. Search time can be shortened by assuming the speed of an object based on its type and orientation. In addition, the accuracy of the calculated speed can be improved by taking the assumption of the speed of the object into consideration when calculating the speed. The above is the description of step S803.

続くステップS804ではテンプレート作成部304は、テンプレートサイズを決定する。テンプレートサイズは、テンプレートとして特徴を抽出する際の、画像を拡大縮小するサイズである。テンプレート作成時と探索時に過度な拡大をしてしまうと、探索精度が落ちる恐れがあるため、テンプレートサイズは、ステップS802で特定したピクセル数とステップS803で推定したピクセル数に応じて、そして予め探索処理で設計したテンプレートサイズのバリエーションの中から決定する。 In subsequent step S804, the template creation unit 304 determines the template size. The template size is the size to which the image is scaled when extracting features as a template. Excessive enlargement during template creation and search may reduce search accuracy. It is determined from variations of the template size designed in the process.

具体的にはテンプレート作成部304は、ステップS802で特定したピクセル数と、ステップS803において推定したピクセル数のうち、少ないピクセル数に対して、あらかじめ用意したテンプレートサイズのバリエーションの近いものを選択する。一般的に車両100の前方に向けて取り付けられたカメラシステムでは、前進している際に衝突する事故の回避を行う目的で取り付けられている。前進している際は、ステップS803において用いられる探索対象画像は、ステップS802において用いられる検知画像よりも過去の画像である。そのため、探索対象画像の方が距離が遠くピクセル数が少ないため、ステップS803で推定したピクセル数を用いてテンプレートサイズを決定する。 Specifically, the template creation unit 304 selects a template size variation prepared in advance for a smaller number of pixels from among the number of pixels specified in step S802 and the number of pixels estimated in step S803. Generally, a camera system installed facing the front of the vehicle 100 is installed for the purpose of avoiding a collision accident while moving forward. When moving forward, the search target image used in step S803 is an image earlier than the detected image used in step S802. Therefore, since the search target image is farther and has fewer pixels, the template size is determined using the number of pixels estimated in step S803.

ステップS805ではテンプレート作成部は検知画像における検知枠の周辺を切り抜く。具体的にはテンプレート作成部は、ステップS804において決定したテンプレートサイズの縦横比に合わせて、高さまたは幅を広げ、また予め探索処理で用いる処理で想定される、物体の周辺の余白サイズに応じて広げた範囲を切り抜く。 In step S805, the template creation unit cuts out the periphery of the detection frame in the detection image. Specifically, the template creation unit widens the height or width according to the aspect ratio of the template size determined in step S804, and also increases the size of the margin around the object, which is assumed in the processing used in the search processing in advance. to cut out the expanded area.

続くステップS806ではテンプレート作成部は、ステップS805において切り抜かれた画像を、ステップS804において決定したテンプレートサイズに拡大または縮小する。拡大縮小する際は、縦横の比率を維持するか、大きく変えずに処理する。続くステップS807ではテンプレート作成部は、ステップS804において拡大縮小された画像の明るさの調整やノイズ除去処理等の前処理を行う。続くステップS808ではテンプレート作成部は、ステップS807において前処理が施された画像から、テンプレートとする特徴量を抽出し、図8に示す処理を終了する。 In subsequent step S806, the template creation unit enlarges or reduces the image cut out in step S805 to the template size determined in step S804. When scaling, maintain the aspect ratio or do not change it significantly. In subsequent step S807, the template creation unit performs preprocessing such as brightness adjustment and noise removal processing for the image that has been enlarged or reduced in step S804. In subsequent step S808, the template creation unit extracts feature amounts to be used as a template from the image preprocessed in step S807, and the processing shown in FIG. 8 ends.

図9は図7のステップS708に示した速度算出処理の詳細を示すフローチャートである。まずステップS901では速度算出部309は、ステップS801において特定した移動量を用いて、ステップS803と同様に、検知された物体が探索対象画像における奥行距離を特定する。具体的には、ステップS801において特定したフレーム間の奥行方向の移動量を用いて、検知画像上の検知物体の奥行距離に対して、S801の移動量だけ動いた物体の位置を特定し、この物体が静止していた場合の探索対象画像の撮像時刻の物体奥行距離を特定する。 FIG. 9 is a flow chart showing details of the speed calculation process shown in step S708 of FIG. First, in step S901, the velocity calculation unit 309 uses the movement amount specified in step S801 to specify the depth distance of the detected object in the search target image, as in step S803. Specifically, using the amount of movement in the depth direction between frames identified in step S801, the position of the object moved by the amount of movement in step S801 with respect to the depth distance of the detection object on the detection image is identified. The object depth distance at the time when the search target image is captured when the object is stationary is specified.

ステップS902では速度算出部309は、ステップS901において特定した奥行距離と、ステップS707において特定した画角とを用いて、探索対象画像の類似箇所の横距離を特定する。具体的には、奥行距離をZとして、画角をθとすると、横距離Xは次の式1により算出される。 In step S902, the speed calculation unit 309 identifies the horizontal distance of the similar portion of the search target image using the depth distance identified in step S901 and the angle of view identified in step S707. Specifically, when Z is the depth distance and θ is the angle of view, the horizontal distance X is calculated by the following equation (1).

X=Z・Tan(θ) ・・・(式1) X=Z·Tan(θ) (Formula 1)

続くステップS903では速度算出部309は、ステップS703で測距した奥行距離および横距離から、ステップS901~S902で特定した奥行距離と横距離をそれぞれ減算する。この演算により、検知画像の撮影時刻と探索対象画像の撮影時刻との間に移動した移動量を算出する。 In subsequent step S903, the velocity calculation unit 309 subtracts the depth distance and the lateral distance specified in steps S901 and S902 from the depth distance and lateral distance measured in step S703. By this calculation, the amount of movement between the photographing time of the detection image and the photographing time of the search target image is calculated.

続くステップS904では速度算出部309は、ステップS903において算出された移動量を、検知画像と探索対象画像の時刻差である時間で微分することで速度を算出して図9に示す処理を終了する。なおフローチャートには記載していないが、算出された速度が検知された物体の種別に応じて、種別の想定される速度域の範囲に入っているか否かの検算を行い、大きく乖離がある場合は、速度の信頼度が低いことを出力してもよい。信頼度が低い場合は、車両制御を保留したり、制御量や制御の種類を限定することで、誤制御による弊害を抑制できる。 In subsequent step S904, the speed calculation unit 309 differentiates the movement amount calculated in step S903 by the time difference between the detected image and the search target image to calculate the speed, and ends the processing shown in FIG. . Although not shown in the flow chart, depending on the type of detected object, the calculated speed is checked to see if it is within the expected speed range for the type, and if there is a large discrepancy may output that the velocity is unreliable. If the reliability is low, it is possible to suppress adverse effects due to erroneous control by suspending vehicle control or limiting the amount of control and the type of control.

図10~図16を参照して4つの具体例を説明する。まず、図10~図12を参照して第1の具体例を説明する。図10は、車両100(以下では「自車両」とも呼ぶ)と被衝突車両の衝突の様子を示す図である。図10では、車両100が図示下部から上部に向かって走行し、被衝突車両が図示右から左に走行する。 Four specific examples will be described with reference to FIGS. 10 to 16. FIG. First, a first specific example will be described with reference to FIGS. 10 to 12. FIG. FIG. 10 is a diagram showing a state of collision between the vehicle 100 (hereinafter also referred to as "self-vehicle") and the colliding vehicle. In FIG. 10, the vehicle 100 runs from the bottom to the top, and the collided vehicle runs from the right to the left.

符号1000は時刻T0の自車両、符号1001は時刻T1の自車両、符号1002はT2の自車両、符号1010は時刻T0の被衝突車両、符号1011は時刻T1の被衝突車両、符号1012はT2の被衝突車両である。図10では時刻T2において両車両が衝突する。自車両および被衝突車両は、おおよそ等速直進運動をしており、加減速や旋回をしていない。 Reference numeral 1000 is the own vehicle at time T0, reference numeral 1001 is the own vehicle at time T1, reference numeral 1002 is the own vehicle at T2, reference numeral 1010 is the colliding vehicle at time T0, reference numeral 1011 is the colliding vehicle at time T1, and reference numeral 1012 is T2. is the colliding vehicle. In FIG. 10, both vehicles collide at time T2. The own vehicle and the colliding vehicle are in approximately uniform straight-ahead motion, and are not accelerating, decelerating, or turning.

図11は図10の例を、自車両の位置を中心に、相対的な位置で被衝突車両の見た位置に置き換えた、自車中心の相対位置の図である。本実施の形態では、自車両の進行方向に対する被衝突車両の位置をカメラの画角と同様に「画角」と呼ぶ。画角1120は、自車両と時刻T0の被衝突車両1010とを結ぶ直線が、自車両の進行方向となす角度である。画角1121は、自車両と時刻T1の被衝突車両1011とを結ぶ直線が、自車両の進行方向となす角度である。画角1122は、自車両と時刻T2の被衝突車両1012とを結ぶ直線が、自車両の進行方向となす角度である。本実施の形態では、自車両と被衝突車両の走行軌跡が直交する前提なので、被衝突車両の横位置は、画角と奥行距離を用いて推定できる。 FIG. 11 is a diagram of the relative position of the vehicle center, in which the example of FIG. 10 is replaced with the position of the collision-affected vehicle in the relative position with the position of the vehicle as the center. In the present embodiment, the position of the colliding vehicle with respect to the traveling direction of the own vehicle is called the "angle of view", like the angle of view of the camera. The angle of view 1120 is the angle formed by the straight line connecting the own vehicle and the collided vehicle 1010 at time T0 with the traveling direction of the own vehicle. The angle of view 1121 is the angle formed by the straight line connecting the own vehicle and the collided vehicle 1011 at time T1 with the traveling direction of the own vehicle. The angle of view 1122 is the angle formed by the straight line connecting the own vehicle and the collided vehicle 1012 at time T2 with the traveling direction of the own vehicle. In the present embodiment, since the trajectories of the own vehicle and the colliding vehicle are assumed to be perpendicular to each other, the lateral position of the colliding vehicle can be estimated using the angle of view and the depth distance.

図12は、図11における距離を説明する図である。図12における各車両の位置は図11と同様である。ただし時刻T2における被衝突車両は作図の都合により省略している。奥行距離Z1は、時刻T1における被衝突車両1011の、自車両から奥行き方向の距離である。横距離X1は、時刻T1における被衝突車両1011の、自車両から横方向の距離である。奥行距離Z0は、時刻T0における被衝突車両1010の、自車両から奥行き方向の距離である。横距離X0は、時刻T0における被衝突車両1010の、自車両から横方向の距離である。奥行差分距離Z10は、奥行距離Z0と奥行距離Z1の差分である。 FIG. 12 is a diagram for explaining distances in FIG. The position of each vehicle in FIG. 12 is the same as in FIG. However, the colliding vehicle at time T2 is omitted for convenience of drawing. The depth distance Z1 is the distance in the depth direction of the colliding vehicle 1011 from the own vehicle at time T1. The lateral distance X1 is the lateral distance of the colliding vehicle 1011 from the host vehicle at time T1. The depth distance Z0 is the distance in the depth direction from the own vehicle of the colliding vehicle 1010 at the time T0. The lateral distance X0 is the lateral distance of the collided vehicle 1010 from the host vehicle at time T0. The depth difference distance Z10 is the difference between the depth distance Z0 and the depth distance Z1.

横距離X1、および奥行距離Z0は、ステップS703の処理で算出される。奥行差分距離Z10は、自車挙動から算出され、時刻T1とT0の時間がT10で、自車速度がV0の場合には、次の式2により算出される。 The lateral distance X1 and the depth distance Z0 are calculated in the process of step S703. The depth difference distance Z10 is calculated from the vehicle behavior, and is calculated by the following equation 2 when the time between times T1 and T0 is T10 and the vehicle speed is V0.

Z10=V0・T10 ・・・(式2) Z10=V0·T10 (Formula 2)

横距離X0は、時刻T0の被衝突車両の角度1220を「θ0」とおくと、次の式3により算出される。 The lateral distance X0 is calculated by the following equation 3, where the angle 1220 of the colliding vehicle at time T0 is set to "θ0".

X0=Z0・Tan(θ0)=(Z1+Z10)・Tan(θ0)・・・(式3) X0=Z0·Tan(θ0)=(Z1+Z10)·Tan(θ0) (Formula 3)

図13~図14を参照して第2の具体例を説明する。第2の具体例では、自車両と横断車両が衝突しない。図13は、直進する自車両と、自車両の前を横切る横断車両の走行軌跡を示す図である。1300は時刻T0の自車両、1301は時刻T1の自車両、1302はT2の自車両、1310は時刻T0の横断車両、1311は時刻T1の横断車両、1312はT2の横断車両である。横断車両は、自車両が交差点へ到達するよりも前に交差点を横断するため、横断車両は自車両に衝突しない。 A second specific example will be described with reference to FIGS. 13 and 14. FIG. In the second specific example, the own vehicle and the crossing vehicle do not collide. FIG. 13 is a diagram showing the travel trajectories of the own vehicle traveling straight ahead and the crossing vehicle crossing in front of the own vehicle. Reference numeral 1300 denotes the own vehicle at time T0, 1301 the own vehicle at time T1, 1302 the own vehicle at T2, 1310 the crossing vehicle at time T0, 1311 the crossing vehicle at time T1, and 1312 the crossing vehicle at T2. Since the crossing vehicle crosses the intersection before the own vehicle reaches the intersection, the crossing vehicle does not collide with the own vehicle.

図14は、図13に示した例を、自車両の位置を中心に、相対的な位置で横断車両の見た位置に置き換えた、自車中心の相対位置の図である。画角1420は、自車両と時刻T0の横断車両1310とを結ぶ直線が、自車両の進行方向となす角度である。画角1421は、自車両と時刻T1の横断車両1311とを結ぶ直線が、自車両の進行方向となす角度である。 FIG. 14 is a diagram of the relative positions of the own vehicle center, in which the example shown in FIG. 13 is replaced with the position seen by the crossing vehicle in the relative position with the position of the own vehicle as the center. The angle of view 1420 is the angle formed by the traveling direction of the vehicle and the straight line connecting the vehicle and the crossing vehicle 1310 at time T0. The angle of view 1421 is the angle formed by the straight line connecting the own vehicle and the crossing vehicle 1311 at time T1 and the traveling direction of the own vehicle.

奥行距離Z41は、時刻T1における横断車両1311の、自車両から奥行き方向の距離である。横距離X41は、時刻T1における横断車両1311の、自車両から横方向の距離である。奥行距離Z40は、時刻T0における横断車両1310の、自車両から奥行き方向の距離である。横距離X40は、時刻T0における横断車両1310の、自車両から横方向の距離である。奥行差分距離Z410は、奥行距離Z0と奥行距離Z1の差分である。 The depth distance Z41 is the distance in the depth direction of the crossing vehicle 1311 from the own vehicle at time T1. The lateral distance X41 is the lateral distance of the crossing vehicle 1311 from the host vehicle at time T1. The depth distance Z40 is the depth direction distance of the crossing vehicle 1310 from the own vehicle at the time T0. The lateral distance X40 is the lateral distance of the crossing vehicle 1310 from the host vehicle at time T0. The depth difference distance Z410 is the difference between the depth distance Z0 and the depth distance Z1.

横距離X41、および奥行距離Z40は、ステップS703の処理で算出される。奥行差分距離Z410は、自車挙動から算出され、時刻T41とT40の時間がT40で、自車速度がV4の場合には、次の式4により算出される。 Lateral distance X41 and depth distance Z40 are calculated in the process of step S703. The depth difference distance Z410 is calculated from the vehicle behavior, and is calculated by the following equation 4 when the time between times T41 and T40 is T40 and the vehicle speed is V4.

Z410=V4・T40 ・・・(式4) Z410=V4·T40 (Formula 4)

横距離X40は、時刻T0の被衝突車両の角度1220を「θ4」とおくと、次の式5により算出される。 The lateral distance X40 is calculated by the following equation 5, where the angle 1220 of the colliding vehicle at time T0 is set to "θ4".

X40=Z40・Tan(θ4)=(Z41+Z410)・Tan(θ4)・・・(式5) X40=Z40·Tan(θ4)=(Z41+Z410)·Tan(θ4) (Formula 5)

図15を参照して第3の具体例を説明する。この第3の具体例では、算出速度の精度の改善、または短時間で速度を算出する効果を奏する状況を説明する。図15は、図11や図14のように、自車両100の位置を中心として、他の車両との相対的な位置関係を示している。符号1510は時刻T0における横断車両の相対位置であり、符号1511は時刻T1における横断車両の相対位置である。距離1521は、自車両のカメラシステム101における測距の上限の奥行距離である。 A third specific example will be described with reference to FIG. In this third specific example, a situation will be described in which the accuracy of the calculated speed is improved or the speed is calculated in a short time. FIG. 15, like FIGS. 11 and 14, shows relative positional relationships with other vehicles centering on the position of own vehicle 100. FIG. Reference numeral 1510 is the relative position of the crossing vehicle at time T0, and reference numeral 1511 is the relative position of the crossing vehicle at time T1. A distance 1521 is the upper limit depth distance for ranging in the camera system 101 of the host vehicle.

時刻T1における横断車両1511は、カメラシステム101が測距可能な奥行き距離1521よりも手前に存在しているので、カメラシステム101は測距結果とともに速度も算出する。時刻T0における横断車両1510の奥行き距離は、前述の距離1521よりも若干遠いので測定可能であっても精度が低く、横断車両1510の位置の測距結果を用いて速度を算出すると、速度の精度が低く、誤ったブレーキ制御になる可能性がある。 Since the crossing vehicle 1511 at time T1 is in front of the depth distance 1521 that can be measured by the camera system 101, the camera system 101 calculates the speed as well as the distance measurement result. The depth distance of crossing vehicle 1510 at time T0 is slightly greater than distance 1521 described above, so even if it can be measured, the accuracy is low. is low and can result in erroneous brake control.

本実施の形態では、時刻T1における横断車両1511の測距結果と、自車挙動情報と、時刻T0における横断車両1510の画角の情報と、を用いて速度を算出することで、速度の算出精度を高めることができる。本実施の形態の利点は、溶断車両1511よりも近い位置に来てから速度を算出するよりも、速度算出の時刻を早めることができる点にあるともいえる。 In the present embodiment, the speed is calculated using the distance measurement result of the crossing vehicle 1511 at time T1, the vehicle behavior information, and the angle of view information of the crossing vehicle 1510 at time T0. Accuracy can be improved. It can be said that the advantage of this embodiment is that the speed calculation can be made earlier than when the speed is calculated after the vehicle 1511 has come closer to the fusing vehicle 1511 .

撮像画像の透視射影を奥行距離一定の面に対して行う場合は、同様に奥行距離一定の位置に平面上のキャリブレーションチャートを配置してキャリブレーションされる。この場合は、撮像画像の歪み補正の精度は奥行距離ごとにほぼ同じとなることが多い。画素の幾何精度が奥行距離毎にほぼ同じである場合に、本実施の形態におけるいずれの測距手段も原理上奥行距離が遠方になればなるほど、測距精度も悪くなる。 When perspective projection of a captured image is performed on a plane with a constant depth distance, calibration is performed by arranging a calibration chart on a plane at a position with a constant depth distance. In this case, the accuracy of distortion correction of the captured image is often the same for each depth distance. If the geometrical accuracy of pixels is substantially the same for each depth distance, in principle, the farther the depth distance is, the worse the accuracy of distance measurement is in any of the distance measuring means in the present embodiment.

なお図15における前述の説明では、測距の奥行距離は符号1521で示す距離で一定としたが、キャリブレーション方法、光学系、測距原理によって、異なる測距の範囲や、上限距離を定めてもよい。たとえば360°の周囲を撮像し、円筒や球面に射影した画像で処理する場合は、カメラからのユーグリッド距離で測距精度が変わるため、カメラからのユークリッド距離で測距上限を設定した方がよい場合がある。 In the above description with reference to FIG. 15, the depth distance for ranging is constant at the distance indicated by reference numeral 1521. However, depending on the calibration method, optical system, and ranging principle, different ranging ranges and upper limit distances may be determined. good too. For example, when capturing a 360-degree image and processing it with an image projected onto a cylindrical or spherical surface, the distance measurement accuracy varies depending on the Euclidean distance from the camera. There are good cases.

符号1522は、近傍側の測距限界距離を示す。単眼測距部303は物体と路面の接地点の画像座標とカメラ幾何で距離を算出するが、近傍は垂直画角の制約で、一定よりも近い距離では接地点が撮影画像に写らず測距できない。そのため、一定距離以内となると測距ができなくなる。符号1520は、カメラシステム101が測距可能な範囲を示す。範囲1520は遠方側の測距上限距離1521と、近傍側の測距の限界距離1522と、センサの画角上限に挟まれた領域である。 A reference numeral 1522 indicates the range-finding limit distance on the near side. The monocular distance measurement unit 303 calculates the distance from the image coordinates of the contact point between the object and the road surface and the camera geometry. Can not. Therefore, distance measurement becomes impossible within a certain distance. A reference numeral 1520 indicates a range in which the camera system 101 can measure the distance. A range 1520 is an area sandwiched between an upper limit distance 1521 for distance measurement on the far side, a limit distance 1522 for distance measurement on the near side, and the upper limit of the angle of view of the sensor.

カメラシステム101は、測定対象が範囲1520から出る際と、入る際のどちらかにおいて、範囲1520内のにおける測定対象の測距結果と、範囲1520外の測定対象の画角を用いて速度を算出することで、従来技術では速度算出ができなかった際の速度を算出することができる。また、測定対象が範囲1520から出る場合には、速度だけでなく、範囲1520内の測距結果と速度算出の際に算出した移動量とを足し合わせて、範囲1520外の時刻における測定対象の距離を算出してもよい。 The camera system 101 uses the distance measurement result of the measurement object within the range 1520 and the angle of view of the measurement object outside the range 1520 to calculate the velocity when the measurement object exits or enters the range 1520. By doing so, it is possible to calculate the speed when the conventional technology cannot calculate the speed. In addition, when the object to be measured goes out of the range 1520, not only the speed but also the distance measurement result within the range 1520 and the amount of movement calculated when calculating the speed are added together to determine the position of the object to be measured at the time outside the range 1520. A distance may be calculated.

図16を参照して第4の具体例を説明する。第4の具体例では、第3の具体例と同様に、算出速度の精度の改善、または短時間で速度を算出する効果を奏する状況を説明する。
図16は、図15などと同様に、自車両100の位置を中心として、他の車両との相対的な位置関係を示している。符号1610は時刻T0における横断車両の相対位置であり、符号1611は時刻T1における横断車両の相対位置である。符号1620は、少なくとも1つの撮像部で撮影可能な画角である、単眼視視野の画角を示す。符号1621は、左撮像部102および右撮像部103の視野が重なり、ステレオマッチングやステレオ検知を行う、ステレオ視の画角を示す。
A fourth specific example will be described with reference to FIG. In the fourth specific example, similar to the third specific example, a situation will be described in which the accuracy of the calculated speed is improved or the speed is calculated in a short period of time.
Similar to FIG. 15 and the like, FIG. 16 shows relative positional relationships with other vehicles centering on the position of own vehicle 100 . Reference numeral 1610 is the relative position of the crossing vehicle at time T0, and reference numeral 1611 is the relative position of the crossing vehicle at time T1. A reference numeral 1620 indicates an angle of view of a monocular visual field, which is an angle of view that can be captured by at least one imaging unit. Reference numeral 1621 denotes a stereo viewing angle at which the fields of view of the left imaging unit 102 and the right imaging unit 103 overlap and stereo matching and stereo detection are performed.

カメラシステム101は、ステレオ視画角1621の範囲内だけでなく、単眼視画角1620の範囲内でも測距可能である。しかし、単眼視画角1620の範囲内よりもステレオ視画角1621の範囲内の方が測距精度が高い。そのためカメラシステム101は、単眼視画角1620における測距結果をあえて使わずに、範囲が狭いステレオ視画角1621の測距結果を用いて速度算出をすることで、速度の精度を上げることができる。具体的には、ステレオ視の測距結果の位置1611と単眼視の検知結果の位置1610の画角と自車挙動を用いて速度を算出することで精度を改善することができる。 The camera system 101 is capable of ranging not only within the range of the stereo viewing angle 1621 but also within the range of the monocular viewing angle 1620 . However, the distance measurement accuracy is higher within the range of the stereoscopic viewing angle 1621 than within the range of the monocular viewing angle 1620 . Therefore, the camera system 101 does not dare to use the distance measurement result at the monocular viewing angle 1620, but uses the distance measurement result at the stereo viewing angle 1621, which has a narrow range, to calculate the speed, thereby increasing the speed accuracy. can. Specifically, accuracy can be improved by calculating the speed using the angle of view of the position 1611 of the distance measurement result of stereo vision and the position 1610 of the detection result of monocular vision and the vehicle behavior.

測距の誤差には、偶発的に正にも負にも値が分散する偶然誤差と、系統的に正または負に平均値がオフセットする系統誤差とがある。系統誤差は、測距手段、センサ、および撮像部などが切り替わる際に傾向が変化する場合がある。これはセンサ間や撮像部間で、アライメントがとれていない場合に生じることがある。センサや撮像部が切り替わる際に、異なるセンサや撮像部の測距結果の差分から移動量を求めて速度を算出すると精度が悪くなる恐れがある。本実施の形態では、左撮像部102および右撮像部103のいずれか一方のみを用いた測距結果と画角とを用いて速度を算出することで、精度を改善することができる。 Ranging errors include random errors, in which values are randomly distributed both positively and negatively, and systematic errors, in which average values are systematically offset positively or negatively. The tendency of the systematic error may change when the distance measurement means, sensor, imaging unit, and the like are switched. This may occur when there is misalignment between sensors or between imaging units. When the sensor or image pickup unit is switched, if the movement amount is obtained from the difference in the distance measurement results of different sensors or image pickup units to calculate the speed, accuracy may deteriorate. In the present embodiment, the accuracy can be improved by calculating the velocity using the distance measurement result using only one of the left imaging unit 102 and the right imaging unit 103 and the angle of view.

図17は、図8のステップS804であるテンプレート選択処理の詳細を示すフローチャートである。まずステップS1701ではテンプレート作成部304は、ステップS802とS803とで算出された、検知画像のピクセル数と探索対象画像のピクセル数とのうち小さい方を選択し、このピクセル数を「基準ピクセル数」として決定する。続くステップS1702ではテンプレート作成部304は、基準ピクセル数が、あらかじめ定められた閾値である基準Aを超えるかを否かを判断し、超えると判断する場合はステップS1703に進み、超えないと判断する場合はステップS1704に進む。ステップS1703ではテンプレート作成部304は、1番目のテンプレートサイズであるテンプレートサイズ1をテンプレートサイズと決定する。 FIG. 17 is a flow chart showing the details of the template selection process in step S804 of FIG. First, in step S1701, the template creation unit 304 selects the smaller one of the number of pixels of the detection image and the number of pixels of the search target image calculated in steps S802 and S803, and defines this number of pixels as the "reference number of pixels". Determined as In subsequent step S1702, the template creation unit 304 determines whether or not the number of reference pixels exceeds the reference A, which is a predetermined threshold. If so, the process advances to step S1704. In step S1703, the template creation unit 304 determines template size 1, which is the first template size, as the template size.

続くステップS1704ではテンプレート作成部304は、基準ピクセル数が、あらかじめ定められた閾値である基準Bを超えるかを否かを判断し、超えると判断する場合はステップS1705に進み、超えないと判断する場合はステップS1706に進む。ステップS1705ではテンプレート作成部304は、2番目のテンプレートサイズであるテンプレートサイズ2をテンプレートサイズと決定する。ステップS1706ではテンプレート作成部304は、3番目のテンプレートサイズであるテンプレートサイズ3をテンプレートサイズと決定する。 In subsequent step S1704, the template creation unit 304 determines whether or not the number of reference pixels exceeds the reference B, which is a predetermined threshold. If so, the process advances to step S1706. In step S1705, the template creation unit 304 determines template size 2, which is the second template size, as the template size. In step S1706, the template creation unit 304 determines template size 3, which is the third template size, as the template size.

基準Aは基準Bよりも大きい。第1テンプレートサイズは第2テンプレートサイズよりも大きく、第2テンプレートサイズは第3テンプレートサイズよりも大きい。第1テンプレートサイズと基準Aは、同一または近い値である。第2テンプレートサイズと基準Bは、同一または近い値である。 Criterion A is greater than Criterion B. The first template size is larger than the second template size and the second template size is larger than the third template size. The first template size and the reference A are the same or close values. The second template size and the reference B are the same or close values.

図18は、テンプレートのサイズを説明する図である。図18は第1の具体例に連動しており、時刻T0よりも時刻T1の方が自車両と他の車両の距離が近く、撮影画像には他車両が大きく撮影される。符号1801は、時刻T0に撮影された撮影画像における車両の検知箇所の画像である。符号1802は、時刻T1に撮影された撮影画像における車両の検知箇所の画像である。符号1811は、時刻T0に撮影された撮影画像において、類似箇所を探す際に参照される画像である。符号1812は、時刻T1に撮影された撮影画像において、テンプレートを作成する際の画像のピクセル数の例である。 FIG. 18 is a diagram for explaining the sizes of templates. FIG. 18 is associated with the first specific example. At time T1, the distance between the own vehicle and the other vehicle is closer than at time T0, and the other vehicle is captured larger in the captured image. A reference numeral 1801 denotes an image of the detection location of the vehicle in the captured image captured at time T0. A reference numeral 1802 denotes an image of the detection location of the vehicle in the captured image captured at time T1. Reference numeral 1811 denotes an image that is referred to when searching for a similar part in the captured image captured at time T0. A reference numeral 1812 is an example of the number of pixels of the image when creating the template in the captured image captured at time T1.

図18に示す例では、テンプレートの作成対象となる撮影画像1812における車両のピクセル数と、類似箇所を探索する対象となる撮影画像1811における車両のピクセル数のうち、前者のピクセル数が少ない。そのため、撮影画像1812における車両のピクセル数に近い予め定められたテンプレートサイズに合わせてテンプレートを作り、探索時の照会も行う。 In the example shown in FIG. 18, the number of pixels of the vehicle in the photographed image 1812 for which the template is to be created is smaller than the number of pixels of the vehicle in the photographed image 1811 to be searched for similar locations. Therefore, a template is created according to a predetermined template size close to the number of pixels of the vehicle in the photographed image 1812, and is also queried during the search.

上述した第1の実施の形態によれば、次の作用効果が得られる。
(1)カメラシステム101は、自車両100に搭載される。カメラシステム101は、移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を90度であると仮定する交差角度特定部1901Zと、カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得するセンシング情報取得部を含む左撮像部102および右撮像部103と、センシング結果に基づき第1時刻における検知物体との距離を算出する測距部である単眼測距部303およびステレオ測距部316と、を備える。カメラシステム101はさらに、撮影画像に基づき第1時刻とは異なる時刻である第2時刻における移動体の進行方向に対する検知物体の角度である画角を特定する画角特定部307と、交差角度、第1時刻における移動体との距離、第2時刻における移動体との角度、第1時刻と第2時刻の時間差、および移動体の速度に基づき、検知物体の速度を算出する速度算出部309と、を備える。そのため、距離情報が直接算出できない第2時刻のセンシング結果と、距離情報が直接算出できる第1時刻のセンシング結果とを用いて測定対象の速度を算出できる。
According to the first embodiment described above, the following effects are obtained.
(1) The camera system 101 is mounted on the own vehicle 100 . The camera system 101 includes an intersection angle specifying unit 1901Z that assumes that the intersection angle between the traveling direction of the moving object and the traveling direction of the detected object is 90 degrees, and a photographed image obtained by the camera. A left imaging unit 102 and a right imaging unit 103 including sensing information acquisition units that acquire at least sensing results, and a monocular distance measurement unit 303 that is a distance measurement unit that calculates the distance to the detected object at the first time based on the sensing results. and a stereo ranging unit 316 . The camera system 101 further includes an angle-of-view specifying unit 307 that specifies an angle of view, which is the angle of the detected object with respect to the moving direction of the moving object, at a second time that is different from the first time based on the captured image; a speed calculation unit 309 that calculates the speed of the detected object based on the distance to the moving object at the first time, the angle to the moving object at the second time, the time difference between the first time and the second time, and the speed of the moving object; , provided. Therefore, the speed of the object to be measured can be calculated using the sensing result at the second time when the distance information cannot be directly calculated and the sensing result at the first time when the distance information can be directly calculated.

たとえば、本実施の形態の構成によらず、たとえばステレオ測距部316が測定する異なる時刻の距離情報を用いて、測定対象の速度を算出することも可能である。しかしこの場合は、測定対象がステレオ視野に入った後に2回の測定周期を経なければ、2回の距離測定ができない。これに対して本実施の形態の構成によれば、測定対象がステレオ視野に入る前に画角を測定し、ステレオ視野に入った直後に1回だけ距離を測定できれば速度を算出できるため、早いタイミングで速度を算出できる。 For example, regardless of the configuration of the present embodiment, it is possible to calculate the velocity of the measurement target using distance information measured by stereo distance measuring section 316 at different times. However, in this case, two distance measurements cannot be performed unless two measurement cycles are performed after the object to be measured enters the stereo field of view. In contrast, according to the configuration of the present embodiment, the angle of view is measured before the object to be measured enters the stereo field of view, and the velocity can be calculated by measuring the distance only once immediately after entering the stereo field of view. Speed can be calculated by timing.

(2)撮影画像には、左撮像部102が撮影する左画像202と、右撮像部103が撮影する右画像203とを含む。測距部は単眼測距部303とステレオ測距部316とから構成される。単眼測距部303は、左画像202または右画像203における検知物体の撮影位置に基づき検知物体との距離を算出する。ステレオ測距部316は、左画像202および右画像203における検知物体の視差に基づき検知物体との距離を算出する。そのため、距離情報が直接算出できない撮影画像における測定対象の情報も用いて、測定対象の速度を算出できる。 (2) The captured images include a left image 202 captured by the left imaging unit 102 and a right image 203 captured by the right imaging unit 103 . The distance measurement unit is composed of a monocular distance measurement unit 303 and a stereo distance measurement unit 316 . A monocular distance measurement unit 303 calculates the distance to the detection object based on the shooting position of the detection object in the left image 202 or the right image 203 . A stereo ranging unit 316 calculates the distance to the detected object based on the parallax of the detected object in the left image 202 and the right image 203 . Therefore, it is possible to calculate the speed of the measurement object by using the information of the measurement object in the captured image for which the distance information cannot be directly calculated.

(3)交差角度特定部1901Zは、交差角度を90度と仮定する。2本の道路が交差する十字路では、道路同士が90度で直交することが多い。そのため、発生頻度が高い交差角度が90度のケースに限定することで、交差角度を特定する処理を省いて処理を高速化できる。 (3) The crossing angle specifying unit 1901Z assumes that the crossing angle is 90 degrees. At a crossroad where two roads intersect, the roads often cross each other at 90 degrees. Therefore, by limiting the case where the crossing angle is 90 degrees, which occurs frequently, the process of specifying the crossing angle can be omitted and the processing speed can be increased.

(4)画角特定部307は、ある時刻における撮影画像から移動体の画像情報を取得し、別な時刻における撮影画像に撮影された移動体の位置から画角を特定する。そのため、ミリ波センサなどの距離を直接に測定できるセンサのセンシング結果を用いることなく、測定対象の速度を算出できる。 (4) The angle-of-view specifying unit 307 acquires image information of the moving object from the captured image at a certain time, and specifies the angle of view from the position of the moving object captured in the captured image at another time. Therefore, the speed of the object to be measured can be calculated without using the sensing result of a sensor that can directly measure the distance, such as a millimeter wave sensor.

(5)カメラシステム101は、図8や図17を参照して説明したように、ある時刻における撮影画像における移動体のピクセル数、および別の時刻における撮影画像に撮影されると想定される移動体のピクセル数のうち、少ない方のピクセル数に基づきマッチング用テンプレートを作成するテンプレート作成部304を備える。画角特定部307は、テンプレート作成部304が作成したテンプレートを用いて撮影画像を探索することで画角を特定する。そのため、テンプレートマッチングにおける誤マッチングを減らすことができる。 (5) As described with reference to FIGS. 8 and 17, the camera system 101 calculates the number of pixels of the moving object in the captured image at a certain time and the movement assumed to be captured in the captured image at another time. A template creation unit 304 is provided for creating a matching template based on the smaller number of pixels of the body. The angle-of-view specifying unit 307 specifies the angle of view by searching the captured image using the template created by the template creating unit 304 . Therefore, erroneous matching in template matching can be reduced.

(6)画角特定部307は、測距部であるステレオ測距部316が測距可能な領域である測距可能領域の外側に存在する検知物体が撮影された撮影画像に基づき画角を特定する。そのため、ステレオ測距部316が使用する、ある時刻における左画像202および右画像203に加えて、距離測定が不可能な別時刻に撮影された左画像202または右画像203を利用して、測定対象の速度を算出できる。 (6) The angle-of-view specifying unit 307 determines the angle of view based on the photographed image of the detected object existing outside the range-measurable area where the stereo range-finding unit 316, which is a range-finding unit, can perform range-finding. Identify. Therefore, in addition to the left image 202 and the right image 203 at a certain time, which are used by the stereo ranging unit 316, the left image 202 or the right image 203 captured at another time when the distance cannot be measured can be used for measurement. Can calculate target speed.

(7)第1時刻は第2時刻よりも遅い時刻である。そのため、測定対象が無限遠から車両100に近づいてくる場合のように、遠くて正確な距離が測定できない状態が続く場合には、先に画角を測定し、その後に測定対象がより近づいてから距離を測定することで、高精度にかつ早いタイミングで速度を算出できる。 (7) The first time is later than the second time. Therefore, when the object to be measured approaches the vehicle 100 from infinity and the distance cannot be measured accurately, the angle of view is measured first, and then the object to be measured approaches the vehicle 100. By measuring the distance, the speed can be calculated with high accuracy and at an early timing.

(8)第1時刻は第2時刻よりも早い時刻である。そのため、測定対象が車両100から遠ざかる場合のように、先に距離を測定し、その後に画角を測定することで、第2時刻やそれ以降では距離情報が得られないにもかかわらず、測定対象の速度を算出できる。 (8) The first time is earlier than the second time. Therefore, by first measuring the distance and then measuring the angle of view, as in the case where the object to be measured moves away from the vehicle 100, even though the distance information cannot be obtained at the second time or later, the measurement Can calculate target speed.

(9)撮影画像は、左撮像部102が撮像する左画像202と、右撮像部103が撮像する右画像203とを含む。図1を参照して説明したように、左撮像部102の視野、および右撮像部103の視野は、ステレオ視野において重複する。ステレオ測距部316は、左画像202および右画像203におけるステレオ視野に存在する検知物体の視差に基づき検知物体との距離を算出する。画角特定部307は、左画像202または右画像203におけるステレオ視野ではない領域、すなわち図2の左単眼領域204Lや右単眼領域204Rに存在する検知物体に基づき画角を特定する。そのため、ステレオ領域204Sで高精度に距離を測定し、単眼領域で画角を算出することで、高精度に早いタイミングで速度を算出できる。 (9) The captured images include a left image 202 captured by the left imaging unit 102 and a right image 203 captured by the right imaging unit 103 . As described with reference to FIG. 1, the field of view of the left imaging unit 102 and the field of view of the right imaging unit 103 overlap in the stereo field of view. The stereo ranging unit 316 calculates the distance to the detected object based on the parallax of the detected object existing in the stereo field of view in the left image 202 and the right image 203 . The angle-of-view specifying unit 307 specifies the angle of view based on the detected object present in the left image 202 or the right image 203, which is not a stereo field of view, that is, the left monocular region 204L and the right monocular region 204R in FIG. Therefore, by measuring the distance with high accuracy in the stereo area 204S and calculating the angle of view in the monocular area, the speed can be calculated with high accuracy and at an early timing.

(10)撮影画像は、左撮像部102が撮像する第1画像であり、ステレオ測距部316は、第1画像における検知物体の撮影位置に基づき検知物体との距離を算出する。 (10) The captured image is the first image captured by the left imaging unit 102, and the stereo ranging unit 316 calculates the distance to the detected object based on the captured position of the detected object in the first image.

(変形例1)
上述した第1の実施の形態におけるカメラシステム101は、左撮像部102および右撮像部103を備えた。しかしカメラシステム101は撮像部を有さず、カメラシステム101の外部に存在する撮像部から撮影画像を取得するセンシング結果取得部を備えてもよい。
(Modification 1)
The camera system 101 in the first embodiment described above includes a left imaging section 102 and a right imaging section 103 . However, the camera system 101 may have no imaging unit, and may have a sensing result acquisition unit that acquires a captured image from an imaging unit that exists outside the camera system 101 .

図19は、変形例1におけるカメラシステム101Aの機能構成図である。図3との相違点は、左撮像部102および右撮像部103の代わりにセンシング結果取得部110を備える点である。センシング結果取得部110は、左撮像部102および右撮像部103からセンシング結果である左画像202および右画像203を取得し、カメラシステム101Aが備える他の機能ブロックに出力する。なお第1の実施の形態では、センシング結果取得部110の機能は左撮像部102および右撮像部103に含まれていた。この変形例1によれば、カメラシステム101Aが撮像部を含まないため、任意の様々な撮像装置と組み合わせて使用できる。 FIG. 19 is a functional configuration diagram of a camera system 101A in Modification 1. As shown in FIG. A difference from FIG. 3 is that a sensing result acquisition unit 110 is provided instead of the left imaging unit 102 and the right imaging unit 103 . Sensing result acquisition section 110 acquires left image 202 and right image 203, which are sensing results, from left imaging section 102 and right imaging section 103, and outputs them to other functional blocks included in camera system 101A. Note that in the first embodiment, the function of the sensing result acquisition unit 110 is included in the left imaging unit 102 and the right imaging unit 103 . According to Modification 1, since the camera system 101A does not include an imaging unit, it can be used in combination with any of various imaging devices.

(変形例2)
上述した第1の実施の形態におけるカメラシステム101は、左撮像部102および右撮像部103を備えたが、一方の撮像部をミリ波センサと入れ替えてもよい。この場合は、ミリ波センサによる測距結果と、単眼カメラにおける類似箇所の探索および画角の特定とを用いて、対象物の速度を算出する。その際に、単眼カメラとミリ波センサの車両100への取り付け位置を考慮する必要があり、画角を算出する単眼カメラを基点として、測距結果から単眼カメラからミリ波センサの距離を差し引くことで変換する。なお本変形例は、前述の変形例1と組み合わせてもよい。
(Modification 2)
The camera system 101 in the first embodiment described above includes the left imaging unit 102 and the right imaging unit 103, but one imaging unit may be replaced with a millimeter wave sensor. In this case, the velocity of the object is calculated using the result of distance measurement by the millimeter wave sensor, and the search for similar locations and the specification of the angle of view by the monocular camera. At that time, it is necessary to consider the mounting positions of the monocular camera and the millimeter wave sensor on the vehicle 100. With the monocular camera for calculating the angle of view as a base point, the distance from the monocular camera to the millimeter wave sensor is subtracted from the distance measurement result. Convert with . This modification may be combined with modification 1 described above.

図20は、変形例2におけるカメラシステム101Bの機能構成図である。図3との相違点は、左撮像部102および右撮像部103の代わりにセンシング結果取得部110を備える点である。なお本変形例ではカメラシステム101Bは、ステレオマッチング部301、テンプレート作成部304、ステレオ検知部308、およびステレオ測距部316を備えなくてもよいが、図20ではカメラシステム101Bに2台のカメラが接続された場合を考慮してこれらの構成を残している。本変形例では、ミリ波センサ103Rのセンシング結果から移動体と想定される物体を検出し、車両100と物体の位置関係に基づき撮影画像においてマッチングを行う。 FIG. 20 is a functional configuration diagram of a camera system 101B in Modification 2. As shown in FIG. A difference from FIG. 3 is that a sensing result acquisition unit 110 is provided instead of the left imaging unit 102 and the right imaging unit 103 . Note that in this modification, the camera system 101B does not have to include the stereo matching unit 301, the template creation unit 304, the stereo detection unit 308, and the stereo ranging unit 316, but in FIG. These configurations are left in consideration of the case where the In this modification, an object assumed to be a moving object is detected from the sensing result of the millimeter wave sensor 103R, and matching is performed in the captured image based on the positional relationship between the vehicle 100 and the object.

本変形例によれば、次の作用効果が得られる。
(11)センシング結果は、撮像部が撮像する撮影画像と、距離センサが計測する距離情報とを含む。測距部は、距離情報を検知物体との距離とする。そのため、ミリ波センサとカメラの組合せに対しても、第1の実施の形態において説明したた手法を組み合わせることができる。この組み合わせは、ミリ波センサによる測定が不可能な範囲をカメラで撮影可能な場合に効果がある。
According to this modified example, the following effects are obtained.
(11) The sensing result includes the captured image captured by the imaging unit and the distance information measured by the distance sensor. The distance measuring unit uses the distance to the detected object as the distance information. Therefore, the technique described in the first embodiment can also be combined with the combination of the millimeter wave sensor and the camera. This combination is effective when the camera can capture a range that cannot be measured by a millimeter wave sensor.

(変形例3)
上述した第1の実施の形態におけるカメラシステム101は、左撮像部102および右撮像部103の2つの撮像部を有したが、1つの撮像部のみを備えてもよい。この場合はカメラシステム101は、ステレオマッチング部301、ステレオ検知部308、およびステレオ測距部316を備えなくてもよく、単眼測距部303が測距する。
(Modification 3)
Although the camera system 101 in the first embodiment described above has two imaging units, the left imaging unit 102 and the right imaging unit 103, it may have only one imaging unit. In this case, the camera system 101 does not need to include the stereo matching unit 301, the stereo detection unit 308, and the stereo distance measurement unit 316, and the monocular distance measurement unit 303 measures the distance.

この変形例3によれば、次の作用効果が得られる。
(12)撮影画像は、左撮像部102が撮像する第1画像である。単眼測距部303は、第1画像における検知物体の撮影位置に基づき検知物体との距離を算出する。そのため、1台のカメラが撮影する異なる時刻の撮影画像を用いて、距離情報が直接算出できない第2時刻のセンシング結果と、距離情報が直接算出できる第1時刻のセンシング結果とを用いて測定対象の速度を算出できる。換言すると、センシング情報が1台のカメラが撮影する複数の撮影画像であっても、早期に測定対象の速度を算出できる。
According to this modified example 3, the following effects are obtained.
(12) The captured image is the first image captured by the left imaging unit 102 . A monocular distance measurement unit 303 calculates the distance to the detection object based on the shooting position of the detection object in the first image. Therefore, by using the images captured by one camera at different times, the sensing result at the second time when the distance information cannot be directly calculated and the sensing result at the first time when the distance information can be directly calculated are used. can be calculated. In other words, even if the sensing information is a plurality of captured images captured by one camera, the speed of the object to be measured can be calculated early.

―第2の実施の形態―
図21~図22を参照して、演算装置の第2の実施の形態を説明する。以下の説明では、第1の実施の形態と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、第1の実施の形態と同じである。本実施の形態では、主に、自車と横断車両の進行路が直交しない場合を考慮する点で、第1の実施の形態と異なる。
-Second Embodiment-
A second embodiment of the arithmetic device will be described with reference to FIGS. 21 and 22. FIG. In the following description, the same components as those in the first embodiment are assigned the same reference numerals, and differences are mainly described. Points that are not particularly described are the same as those in the first embodiment. This embodiment differs from the first embodiment mainly in that it considers the case where the travel paths of the own vehicle and the crossing vehicle are not orthogonal.

図21は、第2の実施の形態に係るカメラシステム101Aが有する機能を示す機能ブロック図である。第1の実施の形態におけるカメラシステム101との相違点は、種別識別部317の代わりに交差角度特定部1901を備える点である。車両100には、GPS1903と地図情報1904も搭載され、位置特定装置1903および地図情報1904は交差角度特定部1901に接続される。 FIG. 21 is a functional block diagram showing functions of the camera system 101A according to the second embodiment. A difference from the camera system 101 in the first embodiment is that an intersection angle identification unit 1901 is provided instead of the type identification unit 317 . The vehicle 100 is also equipped with a GPS 1903 and map information 1904 , which are connected to the intersection angle identification unit 1901 .

位置特定装置1903は、衛星航法システムを構成する複数の衛星から電波を受信し、その電波に含まれる信号を解析することで車両100の位置、すなわち緯度と経度を算出する。位置特定装置1903は、算出した緯度と経度を交差角度特定部1901に出力する。 Position specifying device 1903 receives radio waves from a plurality of satellites that constitute the satellite navigation system, and calculates the position of vehicle 100, that is, the latitude and longitude, by analyzing the signals contained in the radio waves. The position specifying device 1903 outputs the calculated latitude and longitude to the intersection angle specifying section 1901 .

地図情報1904は、道路の沿線方向を算出可能な情報を含む地図データベースである。地図情報1904はたとえば、交差点や道路の端点を示すノードと、ノード同士を接続するリンクの情報を含む。ノードの情報には、その緯度と経度の組合せの情報を含む。リンクの情報には、接続対象となる2つのノードの識別情報を含み、さらに屈曲点や通過点を示す緯度と経度の情報を複数含んでもよい。リンクの情報には、リンクの沿線方向を示す情報、たとえば北を0度とする0~180度の情報が含まれてもよい。 The map information 1904 is a map database that includes information that enables calculation of directions along roads. The map information 1904 includes, for example, nodes indicating intersections and end points of roads, and information on links connecting the nodes. The node information includes information on the combination of latitude and longitude. The link information includes identification information of two nodes to be connected, and may further include a plurality of pieces of latitude and longitude information indicating inflection points and passing points. The link information may include information indicating the direction along the link, for example, information from 0 to 180 degrees where north is 0 degrees.

交差角度特定部1901は、自車両100の進行方向と周辺を走行する車両の進行方向とが交差する角度である交差角度φを特定する。ただし交差角度φは、直交からのずれ分を示す値であり、2つの車両の進行方向が直交する場合には交差角度φはゼロである。交差角度特定部1901はたとえば、まず位置特定装置1903から取得する位置情報を用いて、最新の車両100の位置情報と、位置情報の微分から進行方向の情報とを得る。次に交差角度特定部1901は、地図情報1904を参照して車両100の進行方向に存在する交差点において、車両100が走行するリンクと他のリンクとが交わる角度を特定する。 The intersection angle specifying unit 1901 specifies an intersection angle φ that is an angle at which the direction of travel of the own vehicle 100 intersects with the direction of travel of a vehicle traveling in the surrounding area. However, the crossing angle φ is a value indicating the amount of deviation from orthogonality, and the crossing angle φ is zero when the traveling directions of the two vehicles are orthogonal. For example, the crossing angle specifying unit 1901 first uses the position information acquired from the position specifying device 1903 to obtain the latest position information of the vehicle 100 and information on the traveling direction from differentiation of the position information. Next, the crossing angle specifying unit 1901 refers to the map information 1904 to specify the angle at which the link on which the vehicle 100 travels intersects with another link at the crossing existing in the traveling direction of the vehicle 100 .

速度算出部1904は、交差角度特定部1901が特定する交差角度と、単眼測距部303またはステレオ測距部316が特定する距離と、自車の車速、操舵角、およびヨーレートとから、速度を算出する。詳しくは後述する。 A speed calculation unit 1904 calculates a speed based on the crossing angle specified by the crossing angle specifying unit 1901, the distance specified by the monocular ranging unit 303 or the stereo ranging unit 316, and the vehicle speed, steering angle, and yaw rate of the own vehicle. calculate. Details will be described later.

図22は、速度算出部1904による速度の算出方法を示す図である。符号2000は時刻T0における自車両100を示し、符号2001は時刻T1における自車両100を示す。符号2010は時刻T0における横断車両を示し、符号2011は時刻T1における横断車両を示す。画角θは、自車両100と時刻T0の被衝突車両2010とを結ぶ直線が、自車両の進行方向となす角度である。この画角の定義は第1の実施の形態と同様である。角度φは、自車両100と横断車両が交差する角度である。なお角度φは、第1の実施の形態ではゼロ度に固定されていた。 FIG. 22 is a diagram showing a speed calculation method by the speed calculation unit 1904. As shown in FIG. Reference numeral 2000 indicates own vehicle 100 at time T0, and reference numeral 2001 indicates own vehicle 100 at time T1. Reference numeral 2010 indicates the crossing vehicle at time T0, and reference numeral 2011 indicates the crossing vehicle at time T1. The angle of view θ is an angle formed by a straight line connecting host vehicle 100 and collided vehicle 2010 at time T0 with the traveling direction of the host vehicle. The definition of this angle of view is the same as in the first embodiment. The angle φ is the angle at which the own vehicle 100 and the crossing vehicle intersect. Note that the angle φ was fixed at zero degrees in the first embodiment.

奥行距離z9は、時刻T0から時刻T1に自車両100が走行した距離である。奥行距離z8は、時刻T1における自車両2001から交差点までの距離である。なお、奥行距離z9と奥行距離z8との和を「奥行距離z98」と呼ぶ。奥行距離z5は、時刻T0における自車両100から横断車両2010までの奥行距離である。横距離x5は、時刻T0における自車両100と横断車両2010との図示横方向の距離である。横距離x5は次の式6を用いて算出され、奥行距離z5は次の式7を用いて算出される。 The depth distance z9 is the distance traveled by the vehicle 100 from time T0 to time T1. The depth distance z8 is the distance from the own vehicle 2001 to the intersection at time T1. The sum of the depth distance z9 and the depth distance z8 is called "depth distance z98". Depth distance z5 is the depth distance from host vehicle 100 to crossing vehicle 2010 at time T0. Lateral distance x5 is the illustrated lateral distance between host vehicle 100 and crossing vehicle 2010 at time T0. The horizontal distance x5 is calculated using Equation 6 below, and the depth distance z5 is calculated using Equation 7 below.

Figure 2023003924000002
Figure 2023003924000002

Figure 2023003924000003
Figure 2023003924000003

ただし式6および式7における「θ’」は、前述のθと次に示す数8の関係にある。 However, "[theta]'" in Equations 6 and 7 has a relationship with [theta] described above and Equation 8 shown below.

θ’=90-θ ・・・(式8) θ′=90−θ (Formula 8)

奥行距離z9は、自車両100の奥行方向の速度と、時刻T0から時刻T1までの時間差の積で求まる。自車両100の奥行方向の速度は、自車速度と舵角とヨーレートより求められる。舵角とヨーレートが0で直進している場合は、自車速度が奥行方向の速度である。奥行距離Z8は、単眼測距部303またはステレオ測距部316で特定した距離の奥行成分である。角度θは、画角特定部307において特定された時刻T0の自車両のカメラからみた横断車両の画角である。式6と式7を用いることで、時刻T0の距離を直接観測せずに特定し、移動量から速度を算出することができる。 The depth distance z9 is obtained by multiplying the speed of the vehicle 100 in the depth direction by the time difference from time T0 to time T1. The speed of the vehicle 100 in the depth direction is obtained from the vehicle speed, the steering angle, and the yaw rate. When the steering angle and yaw rate are 0 and the vehicle is traveling straight, the vehicle speed is the speed in the depth direction. The depth distance Z8 is the depth component of the distance specified by the monocular distance measurement unit 303 or the stereo distance measurement unit 316. FIG. The angle θ is the angle of view of the crossing vehicle seen from the camera of the own vehicle at time T<b>0 specified by the angle of view specifying unit 307 . By using Equations 6 and 7, the distance at time T0 can be specified without direct observation, and the speed can be calculated from the amount of movement.

上述した第2の実施の形態によれば、次の作用効果が得られる。
(13)交差角度特定部1901は、位置特定装置1903が取得する移動体の位置情報と、地図情報1904に基づき交差角度を算出する。そのため、車両100の位置や進行方向に基づき、より確かな交差角度を算出できる。
According to the second embodiment described above, the following effects are obtained.
(13) The intersection angle identification unit 1901 calculates the intersection angle based on the position information of the moving object acquired by the position identification device 1903 and the map information 1904 . Therefore, a more reliable crossing angle can be calculated based on the position and traveling direction of the vehicle 100 .

(第2の実施の形態の変形例)
交差角度特定部1901は、検知された部分の物体の識別結果や、ステレオマッチング部301の三次元点群情報から、横断する車両の向きを特定することで交差角を算出してもよい。交差角度特定部1901はたとえば、識別器と横断車両の写る画像上の画角から、交差角度を特定する。仮に直交に近い角度で交差する場合は、横断車両の写る角度に応じて、車両の斜め前を角度が写る。例えば45°であれば、前面と側面がそれぞれ315°と45°の角度で写る。識別器で識別された車両の向きが、画角により直交に近い角度で交差する場合の向きに対して、どの程度角度差があるかが、自車と横断車両の交差する角度となる。また例えば、ステレオマッチングにより得られた視差は三次元点群となり、横断車両の前面と側面も、点群が面として検出できる。この面の向きより車両の進行方向を特定し、自車と横断車両の交差する交差角度を算出してもよい。
(Modification of Second Embodiment)
The intersection angle identification unit 1901 may calculate the intersection angle by identifying the orientation of the crossing vehicle from the identification result of the object in the detected portion and the three-dimensional point group information from the stereo matching unit 301 . The intersection angle identification unit 1901 identifies the intersection angle, for example, from the angle of view on the image of the classifier and the crossing vehicle. If the roads intersect at an angle close to a right angle, the image will appear obliquely in front of the vehicle according to the angle at which the crossing vehicle appears. For example, if it is 45 degrees, the front and side surfaces are captured at angles of 315 degrees and 45 degrees, respectively. The degree of angle difference between the direction of the vehicle identified by the discriminator and the direction of crossing at an angle close to a right angle due to the angle of view is the angle at which the vehicle intersects with the crossing vehicle. Further, for example, the parallax obtained by stereo matching becomes a three-dimensional point group, and the front and side surfaces of the crossing vehicle can also be detected as planes from the point group. The direction of travel of the vehicle may be specified from the direction of this plane, and the crossing angle at which the own vehicle and the crossing vehicle intersect may be calculated.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。 In addition, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiments have been described in detail in order to explain the present invention in an easy-to-understand manner, and are not necessarily limited to those having all the described configurations. In addition, it is possible to replace part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. Moreover, it is possible to add, delete, or replace a part of the configuration of each embodiment with another configuration.

また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。 Further, each of the above configurations, functions, processing units, processing means, and the like may be realized by hardware, for example, by designing a part or all of them using an integrated circuit. Moreover, each of the above configurations, functions, etc. may be realized by software by a processor interpreting and executing a program for realizing each function. Information such as programs, tables, and files that implement each function can be stored in recording devices such as memories, hard disks, SSDs (Solid State Drives), or recording media such as IC cards and SD cards.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。 Further, the control lines and information lines indicate those considered necessary for explanation, and not all control lines and information lines are necessarily indicated on the product. In practice, it may be considered that almost all configurations are interconnected.

上述した各実施の形態および変形例において、機能ブロックの構成は一例に過ぎない。別々の機能ブロックとして示したいくつかの機能構成を一体に構成してもよいし、1つの機能ブロック図で表した構成を2以上の機能に分割してもよい。また各機能ブロックが有する機能の一部を他の機能ブロックが備える構成としてもよい。 In each of the embodiments and modifications described above, the configuration of the functional blocks is merely an example. Some functional configurations shown as separate functional blocks may be configured integrally, or a configuration represented by one functional block diagram may be divided into two or more functions. Further, a configuration may be adopted in which part of the functions of each functional block is provided in another functional block.

上述した各実施の形態および変形例は、それぞれ組み合わせてもよい。上記では、種々の実施の形態および変形例を説明したが、本発明はこれらの内容に限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。 Each of the embodiments and modifications described above may be combined. Although various embodiments and modifications have been described above, the present invention is not limited to these contents. Other aspects conceivable within the scope of the technical idea of the present invention are also included in the scope of the present invention.

101、101A…カメラシステム
102…左撮像部
103…右撮像部
301…ステレオマッチング部
302…単眼検知部
303…単眼測距部
304…テンプレート作成部
306…類似箇所探索部
307…画角特定部
308…ステレオ検知部
309、1904…速度算出部
1901、1901Z…交差角度特定部
1904…地図情報
101, 101A... camera system 102... left imaging unit 103... right imaging unit 301... stereo matching unit 302... monocular detection unit 303... monocular distance measurement unit 304... template creation unit 306... similar part search unit 307... angle of view specification unit 308 .

Claims (13)

移動体に搭載される演算装置であって、
前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定する交差角度特定部と、
カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得するセンシング情報取得部と、
前記センシング結果に基づき第1時刻における前記検知物体との距離を算出する測距部と、
前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定する画角特定部と、
前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出する速度算出部と、を備える演算装置。
A computing device mounted on a mobile body,
an intersection angle specifying unit that specifies an intersection angle, which is an angle at which the traveling direction of the moving body and the traveling direction of the detected object intersect;
a sensing information acquisition unit that acquires a sensing result including at least an image captured by a camera;
a distance measuring unit that calculates a distance to the detected object at a first time based on the sensing result;
a view angle specifying unit that specifies a view angle, which is an angle with respect to the moving direction of the moving object at a second time, based on the captured image;
Based on the intersection angle, the distance to the moving body at the first time, the angle to the moving body at the second time, the time difference between the first time and the second time, and the speed of the moving body, A computing device comprising: a speed calculation unit that calculates the speed of a detected object.
請求項1に記載の演算装置において、
前記撮影画像は、第1撮像部が撮像する第1画像と、第2撮像部が撮像する第2画像とを含み、
前記測距部は、前記第1画像または前記第2画像における前記検知物体の撮影位置に基づき前記検知物体との距離を算出する、または前記第1画像および前記第2画像における前記検知物体の視差に基づき前記検知物体との距離を算出する、演算装置。
The arithmetic device according to claim 1,
The captured image includes a first image captured by a first imaging unit and a second image captured by a second imaging unit,
The distance measuring unit calculates a distance to the detection object based on a shooting position of the detection object in the first image or the second image, or a parallax of the detection object in the first image and the second image. A computing device that calculates the distance to the detected object based on
請求項1に記載の演算装置において、
前記センシング結果は、撮像部が撮像する前記撮影画像と、距離センサが計測する距離情報とを含み、
前記測距部は、前記距離情報を前記検知物体との距離とする、演算装置。
The arithmetic device according to claim 1,
The sensing result includes the captured image captured by the imaging unit and the distance information measured by the distance sensor,
The distance measuring unit is an arithmetic device, wherein the distance information is a distance to the detected object.
請求項1に記載の演算装置において、
前記交差角度特定部は、前記交差角度を90度と仮定する、演算装置。
The arithmetic device according to claim 1,
The arithmetic device, wherein the intersection angle specifying unit assumes that the intersection angle is 90 degrees.
請求項1に記載の演算装置において、
前記交差角度特定部は、前記移動体の位置情報と地図情報に基づき前記交差角度を算出する、演算装置。
The arithmetic device according to claim 1,
The intersection angle identification unit is a computing device that calculates the intersection angle based on position information and map information of the moving object.
請求項1に記載の演算装置において、
前記画角特定部は、前記第1時刻における前記撮影画像から前記移動体の画像情報を取得し、前記第2時刻における前記撮影画像に撮影された前記移動体の位置から前記画角を特定する、演算装置。
The arithmetic device according to claim 1,
The angle-of-view specifying unit acquires image information of the moving object from the captured image at the first time, and specifies the angle of view from the position of the moving object captured in the captured image at the second time. , arithmetic unit.
請求項6に記載の演算装置において、
前記第1時刻における前記撮影画像における前記移動体のピクセル数、および前記第2時刻における前記撮影画像に撮影されると想定される前記移動体のピクセル数のうち、少ない方のピクセル数に基づきマッチング用テンプレートを作成するテンプレート作成部をさらに備え、
前記画角特定部は、前記マッチング用テンプレートを用いて前記第2時刻における前記撮影画像を探索することで前記画角を特定する、演算装置。
In the arithmetic device according to claim 6,
Matching based on the number of pixels of the moving body assumed to be captured in the captured image at the first time and the pixel count of the moving body assumed to be captured in the captured image at the second time, whichever is smaller. It further comprises a template creation unit that creates a template for
The angle-of-view specifying unit specifies the angle of view by searching the captured image at the second time using the matching template.
請求項1に記載の演算装置において、
前記画角特定部は、前記測距部が測距可能な領域である測距可能領域の外側に存在する前記検知物体が撮影された前記撮影画像に基づき前記画角を特定する、演算装置。
The arithmetic device according to claim 1,
The angle-of-view specifying unit specifies the angle of view based on the photographed image of the detected object existing outside a range-measurable area in which the range-finding unit can measure the range.
請求項8に記載の演算装置において、
前記第1時刻は前記第2時刻よりも遅い時刻である、演算装置。
In the arithmetic device according to claim 8,
The computing device, wherein the first time is later than the second time.
請求項8に記載の演算装置において、
前記第1時刻は前記第2時刻よりも早い時刻である、演算装置。
In the arithmetic device according to claim 8,
The computing device, wherein the first time is earlier than the second time.
請求項8に記載の演算装置において、
前記撮影画像は、第1撮像部が撮像する第1画像と、第2撮像部が撮像する第2画像とを含み、
前記第1撮像部の視野、および前記第2撮像部の視野は、ステレオ視野において重複し、
前記測距部は、前記第1画像および前記第2画像における前記ステレオ視野に存在する前記検知物体の視差に基づき前記検知物体との距離を算出し、
前記画角特定部は、前記第1画像における前記ステレオ視野ではない領域に存在する前記検知物体に基づき前記画角を特定する、演算装置。
In the arithmetic device according to claim 8,
The captured image includes a first image captured by a first imaging unit and a second image captured by a second imaging unit,
The field of view of the first imaging unit and the field of view of the second imaging unit overlap in a stereo field of view,
The distance measuring unit calculates a distance to the detection object based on parallax of the detection object existing in the stereo field of view in the first image and the second image,
The angle-of-view specifying unit specifies the angle of view based on the detected object existing in a region other than the stereo field of view in the first image.
請求項1に記載の演算装置において、
前記撮影画像は、第1撮像部が撮像する第1画像を含み、
前記測距部は、前記第1画像における前記検知物体の撮影位置に基づき前記検知物体との距離を算出する、演算装置。
The arithmetic device according to claim 1,
The captured image includes a first image captured by a first imaging unit,
The arithmetic device, wherein the distance measuring unit calculates a distance to the detection object based on a photographing position of the detection object in the first image.
移動体に搭載される演算装置が実行する速度算出方法であって、
前記移動体の進行方向と検知物体の進行方向とが交差する角度である交差角度を特定することと、
カメラが撮影して得られる撮影画像を少なくとも含むセンシング結果を取得することと、
前記センシング結果に基づき第1時刻における前記検知物体との距離を算出することと、
前記撮影画像に基づき第2時刻における前記移動体の進行方向に対する角度である画角を特定することと、
前記交差角度、前記第1時刻における前記移動体との距離、前記第2時刻における前記移動体との角度、前記第1時刻と前記第2時刻の時間差、および前記移動体の速度に基づき、前記検知物体の速度を算出することと、を含む速度算出方法。
A speed calculation method executed by an arithmetic device mounted on a moving object,
specifying an intersection angle, which is an angle at which the traveling direction of the moving body and the traveling direction of the detected object intersect;
Acquiring a sensing result including at least a photographed image obtained by photographing by a camera;
calculating a distance to the detected object at a first time based on the sensing result;
specifying an angle of view, which is an angle with respect to the traveling direction of the moving object at a second time, based on the captured image;
Based on the intersection angle, the distance to the moving body at the first time, the angle to the moving body at the second time, the time difference between the first time and the second time, and the speed of the moving body, calculating the velocity of the sensed object.
JP2021105309A 2021-06-25 2021-06-25 Arithmetic device and speed calculation method Pending JP2023003924A (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021105309A JP2023003924A (en) 2021-06-25 2021-06-25 Arithmetic device and speed calculation method
PCT/JP2022/020714 WO2022270183A1 (en) 2021-06-25 2022-05-18 Computation device and speed calculation method
DE112022001636.1T DE112022001636T5 (en) 2021-06-25 2022-05-18 COMPUTING DEVICE AND SPEED CALCULATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021105309A JP2023003924A (en) 2021-06-25 2021-06-25 Arithmetic device and speed calculation method

Publications (1)

Publication Number Publication Date
JP2023003924A true JP2023003924A (en) 2023-01-17

Family

ID=84544511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021105309A Pending JP2023003924A (en) 2021-06-25 2021-06-25 Arithmetic device and speed calculation method

Country Status (3)

Country Link
JP (1) JP2023003924A (en)
DE (1) DE112022001636T5 (en)
WO (1) WO2022270183A1 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3879874B2 (en) * 1996-12-19 2007-02-14 松下電器産業株式会社 Logistics measuring device
JP5320880B2 (en) * 2007-11-30 2013-10-23 日産自動車株式会社 Distance measuring device, distance measuring method and vehicle
TW201013214A (en) * 2008-09-17 2010-04-01 Altek Corp Photography device and method for sensing the moving speed of the photographed object
JP6459659B2 (en) 2014-03-18 2019-01-30 株式会社リコー Image processing apparatus, image processing method, driving support system, program
CN110556003B (en) * 2019-08-27 2021-04-06 精英数智科技股份有限公司 Method, device, equipment and storage medium for monitoring speed of trackless rubber-tyred vehicle

Also Published As

Publication number Publication date
WO2022270183A1 (en) 2022-12-29
DE112022001636T5 (en) 2024-01-04

Similar Documents

Publication Publication Date Title
CN112292711B (en) Associating LIDAR data and image data
CN107272021B (en) Object detection using radar and visually defined image detection areas
US10690770B2 (en) Navigation based on radar-cued visual imaging
US9846812B2 (en) Image recognition system for a vehicle and corresponding method
US10909395B2 (en) Object detection apparatus
US8594378B2 (en) 3D object detecting apparatus and 3D object detecting method
Nedevschi et al. High accuracy stereovision approach for obstacle detection on non-planar roads
WO2005086080A1 (en) Method and apparatus for detecting a presence
EP3324359B1 (en) Image processing device and image processing method
JP6021689B2 (en) Vehicle specification measurement processing apparatus, vehicle specification measurement method, and program
US10832428B2 (en) Method and apparatus for estimating a range of a moving object
KR20150074544A (en) Method of tracking vehicle
US10789727B2 (en) Information processing apparatus and non-transitory recording medium storing thereon a computer program
Leu et al. High speed stereo vision based automotive collision warning system
KR102003387B1 (en) Method for detecting and locating traffic participants using bird&#39;s-eye view image, computer-readerble recording medium storing traffic participants detecting and locating program
US10789489B2 (en) Vehicle exterior environment recognition apparatus
WO2022270183A1 (en) Computation device and speed calculation method
JP4788399B2 (en) Pedestrian detection method, apparatus, and program
JP6886136B2 (en) Alignment device, alignment method and computer program for alignment
JP7404173B2 (en) Image processing device
JP7293100B2 (en) camera system
JP7064400B2 (en) Object detection device
Hwang et al. Vehicle detection system design based on stereo vision sensors
WO2021161655A1 (en) Image processing device
JP2018194538A (en) Information processing system and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240219