JP2021103101A - Object detector - Google Patents

Object detector Download PDF

Info

Publication number
JP2021103101A
JP2021103101A JP2019233828A JP2019233828A JP2021103101A JP 2021103101 A JP2021103101 A JP 2021103101A JP 2019233828 A JP2019233828 A JP 2019233828A JP 2019233828 A JP2019233828 A JP 2019233828A JP 2021103101 A JP2021103101 A JP 2021103101A
Authority
JP
Japan
Prior art keywords
scene
light
pixel
light receiving
resolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019233828A
Other languages
Japanese (ja)
Other versions
JP7338455B2 (en
Inventor
一樹 加藤
Kazuki Kato
一樹 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2019233828A priority Critical patent/JP7338455B2/en
Publication of JP2021103101A publication Critical patent/JP2021103101A/en
Application granted granted Critical
Publication of JP7338455B2 publication Critical patent/JP7338455B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of Optical Distance (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Image Analysis (AREA)

Abstract

To detect an object with high accuracy and to improve processing time for detecting the object.SOLUTION: An object detector 50 includes: a light emitting part 110; a light receiving part 120; an identification part 230; a scene determination part 240; and a resolution determination part 250. The light emitting part irradiates a measurement range with irradiation light. The light receiving part has a plurality of light-receiving elements 124 capable of receiving incident light including reflected light of irradiation light from the measurement range, and outputs a light-receiving value corresponding to a light-receiving state of the light-receiving elements 124 included in each pixel as a pixel value of each pixel with a preset collection of light-receiving elements 124 as one pixel. The identification part identifies an object existing within the measurement range from an image represented by the pixel value of each pixel. The scene determination part acquires information about the scene and determines the scene according to the acquired information. According to the scene determination result, the resolution determination part determines a number of collections of light receiving elements 124 constituting one pixel in the light receiving part 120, and determines the resolution of each pixel.SELECTED DRAWING: Figure 2

Description

本開示は、物体検出装置に関する。 The present disclosure relates to an object detection device.

近年、車両の衝突回避や運転支援のため、車両に撮像カメラ、ミリ波レーダ、レーザレーダ(LiDAR:Light Detection and Rangingとも呼ばれる)等のセンサが搭載され、かかるセンサの検出結果に基づき、車両制御、例えば、駆動力制御、操舵制御、制動制御等を行う技術が提案されている。特許文献1には、レーダによる自車前方の探査と、カメラによる自車前方の撮影とのセンサフュージョンの認識処理により、自車前方の先行車等の障害物を認識する技術が開示されている。 In recent years, sensors such as image pickup cameras, millimeter-wave radars, and laser radars (also called LiDAR: Light Detection and Ranging) have been installed in vehicles to avoid vehicle collisions and drive assistance, and vehicle control is based on the detection results of these sensors. For example, techniques for performing driving force control, steering control, braking control, and the like have been proposed. Patent Document 1 discloses a technique of recognizing an obstacle such as a preceding vehicle in front of the own vehicle by a sensor fusion recognition process of exploration in front of the own vehicle by a radar and photographing of the front of the own vehicle by a camera. ..

特開2005−329779号公報Japanese Unexamined Patent Publication No. 2005-329779

上記のようにレーダ等のセンサにより物体を高精度に検出すためには、センサの分解能が高く、センサによって取得されるデータの表す画像の解像度が高いことが好ましい。しかしながら、分解能が高く高解像度であるほど取得されるデータ量は多くなり、取得されるデータの処理に要する時間が長くなる。一方、センサの分解能が低く、取得される画像の解像度が低ければ、取得されるデータ量は少なくなり、取得されるデータの処理に要する時間は短くなる。しかしながら、この場合には、高精度な物体の検出が困難となり、例えば、近接する複数の異なる物体を識別することができず、複数の異なる物体を1つの物体と認識してしまう場合がある。このため、高精度な物体の検出を可能とするとともに、物体の検出のための処理時間の向上を可能とする技術が望まれている。 In order to detect an object with high accuracy by a sensor such as a radar as described above, it is preferable that the resolution of the sensor is high and the resolution of the image represented by the data acquired by the sensor is high. However, the higher the resolution and the higher the resolution, the larger the amount of data to be acquired, and the longer the time required to process the acquired data. On the other hand, if the resolution of the sensor is low and the resolution of the acquired image is low, the amount of data to be acquired is small and the time required to process the acquired data is short. However, in this case, it becomes difficult to detect an object with high accuracy, and for example, a plurality of different objects in close proximity cannot be identified, and a plurality of different objects may be recognized as one object. Therefore, there is a demand for a technique capable of detecting an object with high accuracy and improving the processing time for detecting the object.

本開示は、以下の形態として実現することが可能である。 The present disclosure can be realized in the following forms.

本開示の一形態として、車両に搭載される物体検出装置(50)が提供される。この物体検出装置は、測定範囲に対して照射光を照射する発光部(110)と、前記測定範囲からの反射光を含む入射光を受光可能な複数の受光要素(124)を有し、予め設定された前記受光要素の集まりを一画素として、各画素に含まれる前記受光要素の受光状態に応じた受光値を各画素の画素値として出力する受光部(120)と、前記各画素の画素値で表される画像から、前記測定範囲内に存在する物体を識別する識別部(230)と、シーンに関する情報を取得し、取得した前記情報に従って前記シーンを判定するシーン判定部(240)と、前記シーンの判定結果に応じて、前記受光部における前記一画素を構成する前記受光要素の集まりの数を決定し、前記各画素の分解能を決定する解像度決定部(250)と、を備える。 As one form of the present disclosure, an object detection device (50) mounted on a vehicle is provided. This object detection device has a light emitting unit (110) that irradiates the measurement range with irradiation light, and a plurality of light receiving elements (124) capable of receiving incident light including reflected light from the measurement range, and has a plurality of light receiving elements (124) in advance. A light receiving unit (120) that outputs a set light receiving element as one pixel and outputs a light receiving value corresponding to the light receiving state of the light receiving element included in each pixel as a pixel value of each pixel, and a pixel of each pixel. An identification unit (230) that identifies an object existing in the measurement range from an image represented by a value, and a scene determination unit (240) that acquires information about the scene and determines the scene according to the acquired information. A resolution determining unit (250) is provided, which determines the number of groups of the light receiving elements constituting the one pixel in the light receiving unit according to the determination result of the scene, and determines the resolution of each pixel.

上記形態の物体検出装置によれば、例えば、高分解能とすべききシーンでは各画素の分解能を高くして高精度な物体の検出を可能とするとともに、高分解能とすべきシーンでなければ各画素の分解能を低くして物体の検出のための処理時間の向上を図ることが可能である。 According to the object detection device of the above-described embodiment, for example, in a scene that should have high resolution, the resolution of each pixel is increased to enable highly accurate detection of an object, and if it is not a scene that should have high resolution, each pixel. It is possible to reduce the resolution of the object and improve the processing time for detecting the object.

本開示は、物体検出装置以外の種々の形態で実現することも可能である。例えば、物体検出装置を備える車両、物体検出方法、これらの装置および方法を実現するためのコンピュータプログラム、かかるコンピュータプログラムを記憶した記憶媒体等の形態で実現することができる。 The present disclosure can also be realized in various forms other than the object detection device. For example, it can be realized in the form of a vehicle provided with an object detection device, an object detection method, a computer program for realizing these devices and methods, a storage medium for storing the computer program, and the like.

本開示の一実施形態としての物体検出装置を搭載した車両の概略構成を示す説明図。An explanatory view showing a schematic configuration of a vehicle equipped with an object detection device as an embodiment of the present disclosure. 第1実施形態における物体検出装置の機能的構成を示すブロック図。The block diagram which shows the functional structure of the object detection apparatus in 1st Embodiment. 受光素子の構成を模式的に示す説明図。The explanatory view which shows typically the structure of the light receiving element. 物体検出処理の手順を示すフローチャート。A flowchart showing the procedure of the object detection process. 第1シーンの例を示す説明図。Explanatory drawing which shows the example of the 1st scene. 第2シーンの例を示す説明図。Explanatory drawing which shows the example of the 2nd scene. 第2シーンの他の例を示す説明図。Explanatory drawing which shows another example of the 2nd scene. 第3シーンの例を示す説明図。Explanatory drawing which shows the example of the 3rd scene. 第2実施形態における検出部の機能的構成を示すブロック図。The block diagram which shows the functional structure of the detection part in 2nd Embodiment. 第2実施形態における物体検出処理の手順を示すフローチャート。The flowchart which shows the procedure of the object detection processing in 2nd Embodiment.

A.第1実施形態:
A1.装置構成:
図1に示すように、本実施形態の物体検出装置50は、車両500に搭載され、車両500の設定した範囲に存在する物体、例えば、他の車両や歩行者や建物等を検出する。検出結果は、例えば、車両500の駆動力制御、制動制御、操舵制御等の運転制御に利用される。
A. First Embodiment:
A1. Device configuration:
As shown in FIG. 1, the object detection device 50 of the present embodiment is mounted on the vehicle 500 and detects an object existing in the range set by the vehicle 500, for example, another vehicle, a pedestrian, a building, or the like. The detection result is used for driving control such as driving force control, braking control, and steering control of the vehicle 500, for example.

物体検出装置50は、照射光Lzを照射して、対象物からの反射光を受光する。図1では、照射光Lzの射出中心位置を原点とし、車両500の前方方向をY軸とし、原点を通り車両500の幅方向左から右の方向をX軸とし、原点を通り鉛直上方をZ軸として表わしている。図1に示すように、照射光Lzは、Z軸方向に縦長の光であり、1回の照射により、縦長の所定範囲Arに照射される。また、照射光Lzは、X−Y平面と平行な方向の一次元走査により所定の測定範囲MR全体に照射される。物体検出装置50は、対象物からの照射光Lzの反射光に加えて、反射光以外の光、例えば、日光、街灯の光、他車両の前照灯など(以下、「背景光」と呼ぶ)を受光する。 The object detection device 50 irradiates the irradiation light Lz and receives the reflected light from the object. In FIG. 1, the origin is the emission center position of the irradiation light Lz, the front direction of the vehicle 500 is the Y-axis, the width direction of the vehicle 500 is the X-axis through the origin, and the Z is vertically above the origin. It is represented as an axis. As shown in FIG. 1, the irradiation light Lz is vertically long light in the Z-axis direction, and is irradiated to a vertically long predetermined range Ar by one irradiation. Further, the irradiation light Lz is applied to the entire MR in a predetermined measurement range by one-dimensional scanning in a direction parallel to the XY plane. In the object detection device 50, in addition to the reflected light of the irradiation light Lz from the object, light other than the reflected light, for example, sunlight, street light, headlight of another vehicle, etc. (hereinafter, referred to as "background light"). ) Is received.

物体検出装置50は、受光した光から背景光を除いた光を対象物からの反射光として特定し、照射光Lzを照射してから反射光を受光するまでの時間、すなわち、光の飛行時間TOF(Time of Flight)を特定する。物体検出装置50は、かかる飛行時間TOFを、車両500と対象物との間を光が往復する時間であるものとして、対象物までの距離を算出する。従って、物体検出装置50は、照射光Lzの反射光の受光強度(「受光値」とも呼ぶ)を各画素の画素値とする反射強度画像と、背景光の受光強度を各画素の画素値とする背景光画像と、物体までの距離を表す距離画像と、を取得し、これら3つの画像を利用して物体を検出する。 The object detection device 50 identifies the light obtained by removing the background light from the received light as the reflected light from the object, and the time from irradiating the irradiation light Lz to receiving the reflected light, that is, the flight time of the light. Identify the TOF (Time of Flight). The object detection device 50 calculates the distance to the object, assuming that the flight time TOF is the time for light to reciprocate between the vehicle 500 and the object. Therefore, the object detection device 50 uses a reflection intensity image in which the light receiving intensity (also referred to as “light receiving value”) of the reflected light of the irradiation light Lz is the pixel value of each pixel, and the light receiving intensity of the background light as the pixel value of each pixel. A background light image to be used and a distance image representing the distance to the object are acquired, and the object is detected using these three images.

図2に示すように、物体検出装置50は、センサ装置10と、処理装置20と、を備える。センサ装置10は、後述するように、照射光Lzを照射し、照射光Lzの反射光を含む入射光の受光値を画素ごとに取得して、画素ごとの画素値として出力する。処理装置20は、後述するように、センサ装置10を制御して、センサ装置10から出力される各画素の画素値を取得し、取得した各画素の画素値を利用して物体を検出する。センサ装置10は、例えば、車両に搭載されるLiDARである。 As shown in FIG. 2, the object detection device 50 includes a sensor device 10 and a processing device 20. As will be described later, the sensor device 10 irradiates the irradiation light Lz, acquires the received value of the incident light including the reflected light of the irradiation light Lz for each pixel, and outputs it as a pixel value for each pixel. As will be described later, the processing device 20 controls the sensor device 10 to acquire the pixel value of each pixel output from the sensor device 10, and detects an object by using the acquired pixel value of each pixel. The sensor device 10 is, for example, a LiDAR mounted on a vehicle.

センサ装置10は、照射光Lzを照射する発光部110と、照射光Lzの反射光を含む入射光の受光強度を画素ごとに取得して、画素ごとの画素値として出力する受光部120と、照射光Lzを所定の測定範囲MR内で走査させる走査部130と、を備える。 The sensor device 10 includes a light emitting unit 110 that irradiates the irradiation light Lz, and a light receiving unit 120 that acquires the light receiving intensity of the incident light including the reflected light of the irradiation light Lz for each pixel and outputs it as a pixel value for each pixel. A scanning unit 130 for scanning the irradiation light Lz within a predetermined measurement range MR is provided.

発光部110は、発光素子111及び発光制御部112を備える。発光素子111は、半導体レーザダイオードにより構成されており、発光制御部112の制御に従って、パルス状のレーザ光を照射光Lzとして所定周期ごとに射出する。例えば、所定周期は、照射光Lzが照射されて測定範囲MR内の対象物OBからの反射光がセンサ装置10において受光されるまでに要する期間以上の期間として予め実験等により求めて設定されている。なお、発光素子111から射出された照射光Lzは、図示しない光学系により図1に示すような縦長の照射光Lzに形成される。発光制御部112は、処理装置20の制御に従って、上述したように発光素子111を駆動する。発光素子111は1つでも複数であっても良い。なお、発光素子111として、半導体レーザダイオードに代えて、固体レーザ等の他の任意の種類のレーザ発光素子を用いても良い。 The light emitting unit 110 includes a light emitting element 111 and a light emitting control unit 112. The light emitting element 111 is composed of a semiconductor laser diode, and emits pulsed laser light as irradiation light Lz at predetermined intervals according to the control of the light emitting control unit 112. For example, the predetermined period is set in advance by an experiment or the like as a period longer than the period required for the sensor device 10 to receive the reflected light from the object OB in the measurement range MR after being irradiated with the irradiation light Lz. There is. The irradiation light Lz emitted from the light emitting element 111 is formed into a vertically long irradiation light Lz as shown in FIG. 1 by an optical system (not shown). The light emitting control unit 112 drives the light emitting element 111 as described above according to the control of the processing device 20. The number of light emitting elements 111 may be one or a plurality. As the light emitting element 111, any other type of laser light emitting element such as a solid-state laser may be used instead of the semiconductor laser diode.

走査部130は、いわゆる一次元スキャナによって構成される。走査部130は、発光部110から射出された照射光Lzを反射するミラー131と、ミラー131の中心軸に沿って固定された回転軸132と、回転軸132を回転駆動するアクチュエータ133と、アクチュエータ133を制御するアクチュエータ制御部134と、を備える。アクチュエータ133は、例えば、ロータリソレノイドであり、アクチュエータ制御部134の制御に従って、予め定められた角度範囲(以下、「画角範囲」とも呼ぶ)内で正転および反転を繰り返す。この結果、走査部130は、回転軸132を中心にミラー131を回動させることによって、照射光Lzの一次元走査を、測定範囲MR(図1参照)の水平方向の一方端から他方端までの全体に亘って行なうことができる。測定範囲MRは、照射光Lzの走査範囲に相当する。なお、アクチュエータ133は、ロータリソレノイドに限定されるものではなく、ブラシレスモータを始めとする種々の電動モータを用いても良い。また、所定の画角範囲内で正転および反転を繰り返すことに限定されず、同一方向に回転し続ける回転型であり、その一定範囲で受発光するものであっても良い。 The scanning unit 130 is composed of a so-called one-dimensional scanner. The scanning unit 130 includes a mirror 131 that reflects the irradiation light Lz emitted from the light emitting unit 110, a rotating shaft 132 fixed along the central axis of the mirror 131, an actuator 133 that rotationally drives the rotating shaft 132, and an actuator. It includes an actuator control unit 134 that controls 133. The actuator 133 is, for example, a rotary solenoid, and repeats forward rotation and inversion within a predetermined angle range (hereinafter, also referred to as “angle of view range”) under the control of the actuator control unit 134. As a result, the scanning unit 130 rotates the mirror 131 around the rotation axis 132 to perform one-dimensional scanning of the irradiation light Lz from one end to the other end in the horizontal direction of the measurement range MR (see FIG. 1). Can be done throughout. The measurement range MR corresponds to the scanning range of the irradiation light Lz. The actuator 133 is not limited to the rotary solenoid, and various electric motors such as a brushless motor may be used. Further, the rotation type is not limited to repeating normal rotation and inversion within a predetermined angle of view range, and may be a rotary type that continues to rotate in the same direction and may receive and emit light within a certain range.

走査部130によって照射光Lzの一次元走査が行われることにより、発光部110は、車両500前方の測定範囲MR(図1参照)に対して、照射光Lzを照射する方位を変更しながら照射光Lzを照射する。なお、照射光Lzは、横長でも良く、走査は二次元走査でも良い。また、走査部130を省略して、発光部110から測定範囲MR内の全体に亘って照射光を照射するとともに、受光部120で測定範囲MR内の全体に亘る反射光を含む光を受光するようにしても良い。 By performing one-dimensional scanning of the irradiation light Lz by the scanning unit 130, the light emitting unit 110 irradiates the measurement range MR (see FIG. 1) in front of the vehicle 500 while changing the direction of irradiating the irradiation light Lz. Irradiate light Lz. The irradiation light Lz may be horizontally long, and the scanning may be two-dimensional scanning. Further, the scanning unit 130 is omitted, the irradiation light is emitted from the light emitting unit 110 over the entire measurement range MR, and the light receiving unit 120 receives the light including the reflected light over the entire measurement range MR. You may do so.

発光部110により照射された照射光Lzは、測定範囲MR内の対象物OBにより反射される。対象物OBにより反射された反射光及び背景光を含む光は、走査部130のミラー131に戻り、受光部120の受光素子121により受光される。 The irradiation light Lz emitted by the light emitting unit 110 is reflected by the object OB in the measurement range MR. The light including the reflected light and the background light reflected by the object OB returns to the mirror 131 of the scanning unit 130 and is received by the light receiving element 121 of the light receiving unit 120.

受光部120は、受光素子121及び受光制御部122を備える。受光素子121は、図3に示すように、受光面123に複数の受光要素124が面状に二次元配列された受光素子アレイである。受光要素124は、例えば、シングルフォトンアバランシェダイオード(SPAD:Single Photon Avalanche Diode)により構成される。但し、受光要素124としては、PINフォトダイオードやAPD等の他の種類の受光素子により構成されていてもよい。 The light receiving unit 120 includes a light receiving element 121 and a light receiving control unit 122. As shown in FIG. 3, the light receiving element 121 is a light receiving element array in which a plurality of light receiving elements 124 are two-dimensionally arranged in a plane on the light receiving surface 123. The light receiving element 124 is composed of, for example, a single photon avalanche diode (SPAD). However, the light receiving element 124 may be composed of other types of light receiving elements such as a PIN photodiode and an APD.

受光制御部122は、受光面123(図3参照)に配列された複数の受光要素124を、水平方向の数H及び垂直方向の数Vの受光要素124の集まりを一画素として、二次元配列された複数の画素Psに区分し、各画素Psに含まれる[H×V]個の受光要素124の受光結果を、それぞれ、各画素Psの画素値として出力する。H及びVはそれぞれ1以上の整数である。1つの画素Psを構成する受光要素124の数[H×V]を、「画素サイズ」とも呼ぶ。この画素サイズが小さいほど、受光部120で取得される照射光Lzの反射光を含む光を検出する画素の分解能は大きく、取得される画像の解像度は大きくなる。 The light receiving control unit 122 arranges a plurality of light receiving elements 124 arranged on the light receiving surface 123 (see FIG. 3) in a two-dimensional manner with a group of light receiving elements 124 having a number H in the horizontal direction and a number V in the vertical direction as one pixel. It is divided into a plurality of pixel Ps, and the light receiving results of [H × V] light receiving elements 124 included in each pixel Ps are output as pixel values of each pixel Ps. H and V are integers of 1 or more, respectively. The number [H × V] of the light receiving elements 124 constituting one pixel Ps is also referred to as “pixel size”. The smaller the pixel size, the higher the resolution of the pixel that detects the light including the reflected light of the irradiation light Lz acquired by the light receiving unit 120, and the larger the resolution of the acquired image.

1つの画素Psの画素サイズ、すなわち、受光要素124の数[H×V]は、受光制御部122によって変えることができる。受光制御部122は、処理装置20からの制御に従って設定された画素サイズ、すなわち、分解能で、各画素Psに含まれる[H×V]個の受光要素124の受光値を、それぞれ、各画素Psの画素値として処理装置20へ出力する。なお、図3の一点鎖線枠で示す画素Ps_tは、H=V=8の画素サイズに設定された低分解能な画素の一例を示し、図3の破線枠で示す画素Ps_hは、H=V=4の画素サイズに設定された高分解能な画素の一例を示している。なお、低分解能画素Ps_t及び高分解能画素Ps_hの画素サイズは一例であって、これに限定されるものではなく、任意の値に設定が可能である。 The pixel size of one pixel Ps, that is, the number of light receiving elements 124 [H × V] can be changed by the light receiving control unit 122. The light receiving control unit 122 sets the pixel size set according to the control from the processing device 20, that is, with the resolution, the light receiving values of the [H × V] light receiving elements 124 included in each pixel Ps, respectively, for each pixel Ps. Is output to the processing device 20 as the pixel value of. The pixel Ps_t shown by the alternate long and short dash line frame in FIG. 3 shows an example of a low-resolution pixel set to a pixel size of H = V = 8, and the pixel Ps_h shown by the broken line frame in FIG. 3 is H = V =. An example of a high-resolution pixel set to a pixel size of 4 is shown. The pixel sizes of the low-resolution pixels Ps_t and the high-resolution pixels Ps_h are examples, and are not limited to these, and can be set to arbitrary values.

処理装置20(図2参照)は、例えば、マイクロコンピュータで構成され、CPUが予め用意されたプログラムを実行することで、物体の検出に必要な各種処理を実行する。処理装置20は、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)、CPLD(Complex Programmable Logic Device)等の集積回路にCPUやメモリを備える態様であってもよい。処理装置20は、センサ装置10の制御を含む物体検出装置50全体の制御を行なう制御部210の他、測距部220、識別部230、シーン判定部240、解像度決定部250を備える。 The processing device 20 (see FIG. 2) is composed of, for example, a microcomputer, and the CPU executes a program prepared in advance to execute various processes necessary for detecting an object. The processing device 20 may have a mode in which a CPU and a memory are provided in an integrated circuit such as an ASIC (Application Specific Integrated Circuit), an FPGA (Field Programmable Gate Array), or a CPLD (Complex Programmable Logic Device). The processing device 20 includes a distance measuring unit 220, an identification unit 230, a scene determination unit 240, and a resolution determination unit 250, in addition to a control unit 210 that controls the entire object detection device 50 including the control of the sensor device 10.

測距部220は、受光部120から出力される各画素の画素値から、背景光画像、反射強度画像、及び距離画像を取得する。背景光画像、距離画像及び反射強度画像は、発光部110が1回の走査を行う周期ごとに取得される。この走査が行われる周期はフレーム期間とも呼ばれ、取得された距離画像、背景光画像及び反射強度画像は、距離のフレーム画像、背景光のフレーム画像及び反射強度のフレーム画像とも呼ばれる。 The ranging unit 220 acquires a background light image, a reflection intensity image, and a distance image from the pixel values of each pixel output from the light receiving unit 120. The background light image, the distance image, and the reflection intensity image are acquired every cycle in which the light emitting unit 110 performs one scan. The period in which this scanning is performed is also referred to as a frame period, and the acquired distance image, background light image, and reflection intensity image are also referred to as a distance frame image, background light frame image, and reflection intensity frame image.

背景光画像とは、背景光の受光強度を示す画像を意味する。背景光画像は、対象物OBから反射光を受けると推定される方位に対応する画素を除くその他の画素の画素値に基づいて取得される画像である。距離画像とは、受光面123の各画素について算出された対象物OBまでの距離を画素値として示す画像を意味する。距離画像は、各画素について、照射光を照射してから反射光を受光するまでの時間、すなわち、光の飛行時間TOFから、対象物OBまでの距離を算出し、算出した距離を画素値として示す画像である。反射強度画像とは、照射光Lzを照射した領域、すなわち、図1に示す所定範囲Arから受光した光の各画素における強度(以下、「反射強度」と呼ぶ)を画素値とする画像を意味する。反射強度画像は、受光部120から出力される各画素の画素値から、対応する背景光の値を除去した画素値で構成されても良い。 The background light image means an image showing the light receiving intensity of the background light. The background light image is an image acquired based on the pixel values of the other pixels excluding the pixels corresponding to the orientation estimated to receive the reflected light from the object OB. The distance image means an image showing the distance to the object OB calculated for each pixel of the light receiving surface 123 as a pixel value. In the distance image, for each pixel, the time from irradiating the irradiation light to receiving the reflected light, that is, the distance from the flight time TOF of the light to the object OB is calculated, and the calculated distance is used as the pixel value. It is an image which shows. The reflection intensity image means an image in which the intensity in each pixel of the light received from the region irradiated with the irradiation light Lz, that is, the predetermined range Ar shown in FIG. 1 (hereinafter, referred to as “reflection intensity”) is used as the pixel value. To do. The reflection intensity image may be composed of pixel values obtained by removing the corresponding background light values from the pixel values of each pixel output from the light receiving unit 120.

識別部230は、反射強度画像及び距離画像から、測定範囲MR内に存在する、他の車両や歩行者や建物等の物体を識別する。シーン判定部240は、識別部230による識別結果から測定範囲MRにおけるシーンを判別する。解像度決定部250は、シーンの判別結果に従って、1フレーム期間で取得するフレーム画像の一画素の分解能、すなわち、フレーム画像の解像度を決定する。なお、シーン判定部240によるシーンの判別及び解像度決定部250による分解能の決定については、後述する。 The identification unit 230 identifies objects such as other vehicles, pedestrians, and buildings existing in the measurement range MR from the reflection intensity image and the distance image. The scene determination unit 240 determines the scene in the measurement range MR from the identification result by the identification unit 230. The resolution determination unit 250 determines the resolution of one pixel of the frame image acquired in one frame period, that is, the resolution of the frame image, according to the determination result of the scene. The scene determination by the scene determination unit 240 and the resolution determination by the resolution determination unit 250 will be described later.

A2.物体検出処理:
車両500(図1参照)の起動スイッチがオンとなると、物体検出装置50において図4に示す物体検出処理が繰り返し実行される。なお、車両500において、物体検出処理の開始および終了のユーザによる指示を受け付けるインターフェイス、例えば、物理的なボタンやモニタに表示されるメニュー画面を、インストルメントパネルに予め設けて置き、ボタンやメニュー画面の操作により処理開始指示を受け付けた場合に、物体検出処理が開始されてもよい。物体検出処理に含まれる後述のステップS110〜S180は、フレーム期間ごとに繰り返し実行される。
A2. Object detection processing:
When the start switch of the vehicle 500 (see FIG. 1) is turned on, the object detection device 50 repeatedly executes the object detection process shown in FIG. In the vehicle 500, an interface for receiving instructions from the user to start and end the object detection process, for example, a physical button or a menu screen displayed on the monitor is provided in advance on the instrument panel, and the button or menu screen is provided. The object detection process may be started when the process start instruction is received by the operation of. Steps S110 to S180, which will be described later, included in the object detection process are repeatedly executed every frame period.

図4に示すように、制御部210(図2参照)は、発光部110を制御して、発光素子111の発光、すなわち、照射光Lzの照射を行ない(ステップS110)、受光部120を制御して、受光素子121の受光、すなわち、設定された分解能の各画素で受光を行ない、受光制御部122から各画素の受光値を各画素の画素値として取得する(ステップS120)。そして、制御部210は、測距部220により、測距処理を行い(ステップS130)、設定された分解能の背景光、距離及び反射強度のフレーム画像を取得する(ステップS140)。なお、以下では、背景光、距離及び反射強度のフレーム画像を単に「フレーム画像」とも呼ぶ。そして、制御部210は、識別部230により、測距部220で取得したフレーム画像から、測定範囲MR内に存在する、他の車両や歩行者や建物等の対象物OBを識別する(ステップS150)。また、制御部210は、シーン判定部240により、測距部220で取得したフレーム画像のシーン判定を行い(ステップS160)、解像度決定部250により、シーンの判別結果に従って、以降の1フレーム期間で取得するフレーム画像の一画素の分解能、すなわち、フレーム画像の解像度を決定する(ステップS170)。そして、制御部210は、決定した解像度に対応するように、1フレーム期間における発光部110の発光制御条件及び受光部120の受光制御条件を設定し(ステップS180)、一端処理を終了する。 As shown in FIG. 4, the control unit 210 (see FIG. 2) controls the light emitting unit 110 to emit light from the light emitting element 111, that is, to irradiate the irradiation light Lz (step S110), and controls the light receiving unit 120. Then, the light receiving element 121 receives light, that is, each pixel having a set resolution receives light, and the light receiving value of each pixel is acquired as the pixel value of each pixel from the light receiving control unit 122 (step S120). Then, the control unit 210 performs the distance measurement process by the distance measurement unit 220 (step S130), and acquires a frame image of the background light, the distance, and the reflection intensity having the set resolution (step S140). In the following, the frame image of the background light, the distance and the reflection intensity is also simply referred to as a “frame image”. Then, the control unit 210 identifies an object OB such as another vehicle, a pedestrian, or a building existing in the measurement range MR from the frame image acquired by the distance measuring unit 220 by the identification unit 230 (step S150). ). Further, the control unit 210 determines the scene of the frame image acquired by the distance measuring unit 220 by the scene determination unit 240 (step S160), and the resolution determination unit 250 determines the scene in the subsequent one frame period according to the scene determination result. The resolution of one pixel of the frame image to be acquired, that is, the resolution of the frame image is determined (step S170). Then, the control unit 210 sets the light emission control condition of the light emitting unit 110 and the light reception control condition of the light receiving unit 120 in one frame period so as to correspond to the determined resolution (step S180), and ends the processing once.

A3.シーン判定:
上記したシーン判定部240によるシーン判定では、具体的には、予め設定されたシーンに該当するか可能性があるか否かの判定が行なわれる。そして、予め設定されたシーンに該当しないと判定した場合には、取得するフレーム画像の一画素の分解能を、例えば、図3に示した低分解能画素Ps_tのような低分解能とする。一方、予め設定されたシーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の分解能を、例えば、図3に示した高分解能画素Ps_hのような高分解能とする。あらかじめ設定されたシーンとしては、以下に示す第1〜第3シーンが例示される。
A3. Scene judgment:
In the scene determination by the scene determination unit 240 described above, specifically, it is determined whether or not the scene corresponds to a preset scene. Then, when it is determined that the scene does not correspond to the preset scene, the resolution of one pixel of the acquired frame image is set to a low resolution such as the low resolution pixel Ps_t shown in FIG. On the other hand, when it is determined that there is a possibility that the scene corresponds to a preset scene, the resolution of one pixel of the acquired frame image is set to a high resolution such as the high resolution pixel Ps_h shown in FIG. .. Examples of the preset scenes include the first to third scenes shown below.

(1)第1シーン
第1シーンは例えば以下の場合が考えられる。
(1a)自車の進行方向に、一定以上の高さを持つ物体が存在した場合(図5の領域1a参照)
(1b)自車の進行方向に、路面から連続する一定以上の高さを持つ物体が存在した場合(図5の領域1b参照)
(1) First scene For example, the following cases can be considered as the first scene.
(1a) When an object having a certain height or higher exists in the traveling direction of the own vehicle (see region 1a in FIG. 5).
(1b) When an object having a height above a certain level continuous from the road surface exists in the traveling direction of the own vehicle (see region 1b in FIG. 5).

上空の物体、例えば、看板やトンネル、高架、歩道橋等が存在する場合、これらの下の空間や、その空間を通過する車両を正しく識別するために、上空の物体が存在しそうな領域を検出し、その領域から少なくとも縦方向が高分解能なフレーム画像を取得することが望ましい。そこで、上記の第1シーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とすることが望ましい。 When there are objects in the sky, such as signs, tunnels, elevated structures, pedestrian bridges, etc., in order to correctly identify the space under them and the vehicles passing through that space, the area where the objects in the sky are likely to exist is detected. , It is desirable to acquire a frame image with high resolution at least in the vertical direction from that area. Therefore, when it is determined that there is a possibility that the first scene is applicable, it is desirable to set at least the resolution in the vertical direction of one pixel of the acquired frame image to be high resolution.

第1シーンに該当する可能性の判定は、例えば、以下のように実行することができる。取得した低解像度のフレーム画像(以下、「低解像度画像」とも呼ぶ)を構成する複数の低解像度画素(以下、「低解像度画素群」とも呼ぶ)に含まれる物体の存在を示す低解像度画素のうち、路面からの高さHi(iは画素の位置を示す番号である)があらかじめ定めた高さ閾値Hth以上である低解像度画素の数Nを求める。そして、求めた数Nが予め定めた一定の画素数閾値Nth以上であった場合に、第1シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。なお、高さ閾値Hthとしては、道路法等の法規で定められる種々の高さ制限に基づいて設定すれば良い。画素数閾値Nthとしては、上空の物体の存在を想定し得る数に設定すれば良い。 The determination of the possibility of falling under the first scene can be executed, for example, as follows. A low-resolution pixel indicating the presence of an object included in a plurality of low-resolution pixels (hereinafter, also referred to as "low-resolution pixel group") constituting the acquired low-resolution frame image (hereinafter, also referred to as "low-resolution image"). Among them, the number N of low-resolution pixels whose height Hi from the road surface (i is a number indicating the position of the pixel) is equal to or higher than the predetermined height threshold Hth is obtained. Then, when the obtained number N is equal to or higher than a predetermined fixed number of pixels threshold value Nth, it is determined that there is a possibility of corresponding to the first scene, and the resolution of at least one pixel of the acquired frame image in the vertical direction is determined. Is a high resolution. The height threshold value Hth may be set based on various height restrictions defined by laws and regulations such as the Road Act. The number of pixels threshold Nth may be set to a number that can assume the existence of an object in the sky.

なお、上記説明では、取得するフレーム画像の全体を高分解能化するものとして説明したが、高さ閾値Hthの上下方向の周辺の領域のみ、すなわち、一定以上の高さを持つ物体が存在する領域、あるいは、路面から連続する一定以上の高さを持つ物体が存在する領域およびその周辺領域のみを高分解能化するようにしてもよい。 In the above description, the resolution of the entire frame image to be acquired has been increased, but only the area around the height threshold Hth in the vertical direction, that is, the area where an object having a height of a certain value or more exists. Alternatively, the resolution may be increased only in the region where an object having a height continuous above a certain level exists from the road surface and the peripheral region thereof.

(2)第2シーン
第2シーンは例えば以下の場合が考えられる。
(2a)先行車両が一定距離以内に存在しない場合、すなわち、先行車両と自車との間に車両がいない領域が存在する場合(図6の領域2a参照)
(2b)取得されたフレーム画像で路面と判定された方位が存在する場合(図7の領域2b参照)
(2) Second scene For example, the following cases can be considered for the second scene.
(2a) When the preceding vehicle does not exist within a certain distance, that is, when there is an area where there is no vehicle between the preceding vehicle and the own vehicle (see region 2a in FIG. 6).
(2b) When there is an orientation determined to be the road surface in the acquired frame image (see region 2b in FIG. 7).

路面上に存在する低背物が存在する場合、その低背物を検出するためには、低背物が存在している可能性の有る領域、すなわち、通常の低解像度の状態において、路面と判定される領域(以下、「路面領域」とも呼ぶ)を検出し、その領域から少なくとも縦方向の分解能が高分解能なフレーム画像を取得することが望ましい。そこで、第2シーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とすることが望ましい。 When there is a low-profile object existing on the road surface, in order to detect the low-profile object, in the area where the low-profile object may be present, that is, in a normal low resolution state, the road surface and the low-profile object are present. It is desirable to detect the region to be determined (hereinafter, also referred to as "road surface region") and acquire a frame image having a high resolution at least in the vertical direction from that region. Therefore, when it is determined that there is a possibility that the second scene is applicable, it is desirable to set at least the resolution in the vertical direction of one pixel of the acquired frame image to be high resolution.

第2シーンに該当する可能性の判定は、例えば、以下のように実行することができる。取得した低解像度画像に存在する物体を識別し、先行車両あるいは路面を検出した場合に、第2シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。なお、先行車両の検出は、低解像度画像から識別された物体の形状が「車両」の可能性があるか否かを判定することにより実行される。また、路面の検出は、低解像度画像から識別された物体のうち、予め定められた路面閾値Rth以下の物体の領域を路面の領域と判定することにより実行される。なお、路面閾値Rthとしては、道路法等の法規で定められる種々の高さ制限に基づいて設定すれば良い。 The determination of the possibility of falling under the second scene can be executed, for example, as follows. When an object existing in the acquired low-resolution image is identified and a preceding vehicle or a road surface is detected, it is determined that there is a possibility of corresponding to the second scene, and at least the vertical resolution of one pixel of the acquired frame image is determined. Is set to high resolution. The detection of the preceding vehicle is executed by determining whether or not the shape of the object identified from the low-resolution image may be a "vehicle". Further, the detection of the road surface is executed by determining the region of the object identified from the low-resolution image as the region of the object having the predetermined road surface threshold Rth or less as the region of the road surface. The road surface threshold value Rth may be set based on various height restrictions defined by laws and regulations such as the Road Law.

なお、上記説明では、取得するフレーム画像の全体を高分解能化するものとして説明したが、路面閾値Rthの上下方向の周辺の領域、すなわち、車両がいない領域と判定された領域、あるいは、路面と判定された領域と、その周辺領域のみを高分解能化するようにしてもよい。 In the above description, the resolution of the entire frame image to be acquired has been increased, but the area around the road surface threshold value Rth in the vertical direction, that is, the area determined to be the area where there is no vehicle, or the road surface. The resolution may be increased only in the determined region and the peripheral region thereof.

(3)第3シーン
第3シーンは例えば以下の場合が考えられる。
(3a)右折待ちの停止車両等の停止物体の左横に自車が通り抜けられそうな空間が存在する場合(図8の領域3a)
(3) Third scene For example, the following cases can be considered for the third scene.
(3a) When there is a space on the left side of a stopped object such as a stopped vehicle waiting for a right turn so that the own vehicle can pass through (area 3a in FIG. 8).

右折待ちの停止車両等の停止物体の左横に存在する空間が存在する場合、その空間を通り抜け可能であるか否か判断するために、進行方向の右側の停止物体及びその左横の空間の領域を検出し、その空間の領域の横幅を高精度に測定可能な少なくとも横方向が高分解能なフレーム画像を取得することが望ましい。そこで、第3シーンに該当する可能性があると判定した場合には、取得するフレーム画像の一画素の少なくとも横方向の分解能を高分解能とすることが望ましい。 If there is a space on the left side of a stopped object such as a stopped vehicle waiting for a right turn, the space on the right side of the stopped object in the direction of travel and the space on the left side of it are used to determine whether or not it is possible to pass through that space. It is desirable to acquire a frame image having a high resolution at least in the horizontal direction, which can detect a region and measure the width of the region in the space with high accuracy. Therefore, when it is determined that there is a possibility that it corresponds to the third scene, it is desirable to set at least the resolution in the lateral direction of one pixel of the acquired frame image to be high resolution.

第3シーンに該当する可能性の判定は、例えば、以下のように実行することができる。取得した低解像度画像に存在する物体を識別し、進行方向の路面の右側に存在する停止物体を検出し、その左横方向に路面を検出した場合に、第3シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも横方向の分解能を高分解能とする。 The determination of the possibility of falling under the third scene can be executed, for example, as follows. If an object existing in the acquired low-resolution image is identified, a stopped object existing on the right side of the road surface in the traveling direction is detected, and the road surface is detected in the left lateral direction thereof, it may correspond to the third scene. The resolution of at least one pixel of the acquired frame image in the lateral direction is set to high resolution.

なお、上記説明では、取得するフレーム画像の全体を高分解能化するものとして説明したが、停止物体の左横の空間及びその周辺領域のみを高分解能化するようにしてもよい。 In the above description, the resolution of the entire frame image to be acquired has been increased, but the resolution may be increased only in the space on the left side of the stopped object and the peripheral area thereof.

上記3つのシーンは一例であって、これら3つのシーンのみに限定されるものではない。通常の低分解能ではなく高分解能で画像を取得して物体の識別を行なうことが望ましいと判断される種々のシーンを予め設定されたシーンとしても良い。また、上記3つのシーンやそれ以外の種々のシーンの全てを予め設定されたシーンとしても良く、これらのうちの1つ、あるいは、1つ以上のシーンを予め設定されたシーンとしても良い。 The above three scenes are examples, and are not limited to these three scenes. Various scenes in which it is judged that it is desirable to acquire an image with a high resolution instead of the usual low resolution to identify an object may be set as a preset scene. Further, all of the above three scenes and various other scenes may be preset scenes, and one or more of these scenes may be preset scenes.

以上説明したように、上記物体検出装置では、通常は低分解能で物体検出を行い、高分解能で物体検出を行なうべきシーンの場合に、高分解能で物体の検出を行なうことができる。これにより、高精度な物体の検出を可能とするとともに、物体の検出のための処理時間の向上を図ることができる。 As described above, the object detection device can usually detect an object with a low resolution, and can detect an object with a high resolution in the case of a scene in which the object can be detected with a high resolution. As a result, it is possible to detect an object with high accuracy and to improve the processing time for detecting the object.

B.第2実施形態:
図9に示す第2実施形態の物体検出装置50は、自己位置検出装置30を備える点が第1実施形態の物体検出装置50(図2参照)と異なる。また、第2実施形態の物体検出装置50は、自己位置検出装置30と、処理装置20の制御部210、測距部220、識別部230、シーン判定部240、及び解像度決定部250と、による物体検出処理の手順が、図10に示すように、第1実施形態の物体検出処理の手順(図4参照)と異なる。そこで、以下では、物体検出処理の手順に関係する内容についてのみ説明を加える。
B. Second embodiment:
The object detection device 50 of the second embodiment shown in FIG. 9 is different from the object detection device 50 of the first embodiment (see FIG. 2) in that the self-position detection device 30 is provided. Further, the object detection device 50 of the second embodiment is composed of the self-position detection device 30, the control unit 210 of the processing device 20, the distance measuring unit 220, the identification unit 230, the scene determination unit 240, and the resolution determination unit 250. As shown in FIG. 10, the procedure of the object detection process is different from the procedure of the object detection process of the first embodiment (see FIG. 4). Therefore, in the following, only the contents related to the procedure of the object detection process will be described.

図10に示すように、制御部210(図9参照)は、物体検出処理を開始すると、まず、自己位置検出装置30から自車が存在する位置の周囲情報を取得し、取得した周囲情報から、シーン判定部240により、シーン判定を行う(ステップS102)。自己位置検出装置30には、例えば、車両に搭載されるナビゲーション装置が利用される。シーン判定部240は、自己位置検出装置30で検出される自車が存在する位置(「以下、自己位置」とも呼ぶ)から一定距離以内の地図情報や交通情報等として、シーンの判定に必要な情報を取得して、取得した情報からシーン判定を行なう。 As shown in FIG. 10, when the control unit 210 (see FIG. 9) starts the object detection process, it first acquires the surrounding information of the position where the own vehicle exists from the self-position detecting device 30, and from the acquired surrounding information. , The scene determination unit 240 determines the scene (step S102). For the self-position detecting device 30, for example, a navigation device mounted on a vehicle is used. The scene determination unit 240 is necessary for determining the scene as map information, traffic information, etc. within a certain distance from the position where the own vehicle exists (hereinafter, also referred to as “self-position”) detected by the self-position detection device 30. Information is acquired, and a scene is determined from the acquired information.

そして、制御部210は、解像度決定部250により、シーンの判別結果に従って、1フレーム期間で取得するフレーム画像の一画素の分解能、すなわち、フレーム画像の解像度を決定する(ステップS104)。そして、制御部210は、決定した解像度に対応するように、1フレーム期間における発光部110の発光制御条件及び受光部120の受光制御条件を設定する(ステップS106)。そして制御部210は、発光部110の制御による照射光Lzの照射(ステップS110)、受光部120の制御による受光素子121の受光(ステップS120)、測距部220による測距処理(ステップS130)、フレーム画像の取得(ステップS140)、識別部230による測定範囲MR内に存在する対象物OBの識別(ステップS150)を行い、一旦処理を終了する。 Then, the control unit 210 determines the resolution of one pixel of the frame image acquired in one frame period, that is, the resolution of the frame image, according to the determination result of the scene by the resolution determination unit 250 (step S104). Then, the control unit 210 sets the light emission control condition of the light emitting unit 110 and the light reception control condition of the light receiving unit 120 in one frame period so as to correspond to the determined resolution (step S106). Then, the control unit 210 irradiates the irradiation light Lz under the control of the light emitting unit 110 (step S110), receives light from the light receiving element 121 under the control of the light receiving unit 120 (step S120), and performs distance measurement processing by the distance measuring unit 220 (step S130). , The frame image is acquired (step S140), the object OB existing in the measurement range MR is identified by the identification unit 230 (step S150), and the process is temporarily terminated.

自己位置検出装置30から取得される情報によって判定されるシーンとしては、以下に示す第1〜第3シーンが例示される。 Examples of the scene determined by the information acquired from the self-position detection device 30 include the first to third scenes shown below.

(1)第1シーン
第1シーンは例えば以下の場合が考えられる。
(1c)自己位置検出装置から取得される情報から、看板やトンネル、高架、歩道橋等の一定以上の高さの物体(図5の領域1a,1b参照)が存在する付近を通過することが想定される場合
(1) First scene For example, the following cases can be considered as the first scene.
(1c) From the information acquired from the self-position detection device, it is assumed that the vehicle will pass near the presence of objects of a certain height or higher (see areas 1a and 1b in FIG. 5) such as signboards, tunnels, elevated tracks, and pedestrian bridges. If done

上記第1シーンに該当する可能性の判断は、自己位置検出装置30から、自己位置から自車が進行する方向の一定距離以内に、上記の看板やトンネル、高架、歩道橋等の一定以上の高さの物体が存在する情報を取得した場合に、第1シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。 The possibility of falling under the first scene is determined from the self-position detection device 30 within a certain distance in the direction in which the vehicle travels from the self-position, above a certain height of the above-mentioned signs, tunnels, elevated structures, pedestrian bridges, etc. When the information on the existence of the object is acquired, it is determined that it may correspond to the first scene, and at least the resolution in the vertical direction of one pixel of the acquired frame image is set to high resolution.

(2)第2シーン
第2シーンは例えば以下の場合が考えられる。
(2c)自己位置検出装置から取得される情報から、低背物(図6の領域2a,図7の領域2b参照)が存在する付近を通過することが想定される場合
(2) Second scene For example, the following cases can be considered for the second scene.
(2c) When it is assumed from the information acquired from the self-position detection device that the vehicle passes near a low profile object (see region 2a in FIG. 6 and region 2b in FIG. 7).

上記第2シーンに該当する可能性の判断は、自己位置検出装置30から、自己位置から自車が進行する方向の一定距離以内に、低背物が落下していることを示す情報を取得した場合に、第2シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも縦方向の分解能を高分解能とする。 In the determination of the possibility of falling under the second scene, information indicating that a low-profile object has fallen within a certain distance in the direction in which the vehicle travels from the self-position is acquired from the self-position detection device 30. In this case, it is determined that there is a possibility that the second scene is applicable, and at least the resolution in the vertical direction of one pixel of the acquired frame image is set to high resolution.

(3)第3シーン
第3シーンは例えば以下の場合が考えられる。
(3b)路面上に右折車両等の停止物体(図8の領域3a参照)が存在する付近を通過することが想定される場合
(3) Third scene For example, the following cases can be considered for the third scene.
(3b) When it is assumed that the vehicle will pass in the vicinity of a stopped object (see region 3a in FIG. 8) such as a right-turning vehicle on the road surface.

上記第3シーンに該当する可能性の判断は、自己位置検出装置30から、自己位置から自車が進行する方向の一定距離以内に、停止物体が存在していることを示す情報を取得した場合に、第3シーンに該当する可能性があると判定し、取得するフレーム画像の一画素の少なくとも横方向の分解能を高分解能とする。 The determination of the possibility of falling under the third scene is when information indicating that a stopped object exists within a certain distance from the self-position in the direction in which the vehicle travels is acquired from the self-position detection device 30. In addition, it is determined that there is a possibility that it corresponds to the third scene, and at least the resolution in the lateral direction of one pixel of the acquired frame image is set to high resolution.

なお、自己位置検出装置30から取得される情報から高分解能化すべきシーンとして判定されるシーンは、上記第1シーン〜第3シーンに限定されるものではない。通常の低分解能ではなく高分解能で画像を取得して物体の識別を行なうことが望ましいと判断される種々のシーンとして、自己位置検出装置30から取得される情報に基づいて判定できる種々のシーンを予め設定されたシーンとすることも可能である。 The scenes determined as the scenes to be improved in resolution from the information acquired from the self-position detection device 30 are not limited to the first to third scenes. As various scenes in which it is judged that it is desirable to acquire an image with high resolution instead of the usual low resolution to identify an object, various scenes that can be determined based on the information acquired from the self-position detection device 30 are used. It is also possible to set a preset scene.

以上説明したように、上記物体検出装置では、通常は低分解能で物体の識別を行い、高分解能で物体の識別を行なうべきシーンと判定された場合に、高分解能で物体の識別を行なうことができる。これにより、高精度な物体の検出を可能とするとともに、高精度な物体の検出のための処理時間の向上を可能とすることができる。 As described above, the object detection device usually identifies an object with a low resolution, and when it is determined that the scene should be identified with a high resolution, the object can be identified with a high resolution. it can. This makes it possible to detect an object with high accuracy and improve the processing time for detecting an object with high accuracy.

C.他の実施形態:
(1)第1実施形態では、取得したフレーム画像に基づいて高解像度化すべきシーン判定を行う物体検出装置について説明し、第2実施形態では、自己位置検出装置から取得した情報に基づいて高解像度すべきシーン判定を行なう物体検出装置について説明した。物体検出装置としては、いずれか一方の判定に限定する必要はなく、取得したフレーム画像に基づくシーン判定と自己位置検出装置から取得した情報に基づくシーン判定の両方を備える構成としても良い。
C. Other embodiments:
(1) In the first embodiment, an object detection device that determines a scene to be high resolution based on the acquired frame image will be described, and in the second embodiment, high resolution will be described based on the information acquired from the self-position detection device. The object detection device that determines the scene to be used has been described. The object detection device does not have to be limited to one of the determinations, and may be configured to include both a scene determination based on the acquired frame image and a scene determination based on the information acquired from the self-position detection device.

本開示に記載の物体検出装置50及びその手法は、コンピュータプログラムにより具体化された一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリを構成することによって提供された専用コンピュータにより、実現されてもよい。あるいは、本開示に記載の物体検出装置50及びその手法は、一つ以上の専用ハードウエア論理回路によってプロセッサを構成することによって提供された専用コンピュータにより、実現されてもよい。もしくは、本開示に記載の物体検出装置50及びその手法は、一つ乃至は複数の機能を実行するようにプログラムされたプロセッサ及びメモリと一つ以上のハードウエア論理回路によって構成されたプロセッサとの組み合わせにより構成された一つ以上の専用コンピュータにより、実現されてもよい。また、コンピュータプログラムは、コンピュータにより実行されるインストラクションとして、コンピュータ読み取り可能な非遷移有形記録媒体に記憶されていてもよい。 The object detection device 50 and its method described in the present disclosure are provided by a dedicated computer provided by configuring a processor and memory programmed to perform one or more functions embodied by a computer program. , May be realized. Alternatively, the object detection device 50 and its method described in the present disclosure may be realized by a dedicated computer provided by configuring the processor with one or more dedicated hardware logic circuits. Alternatively, the object detection device 50 and its method described in the present disclosure comprises a processor and memory programmed to perform one or more functions and a processor composed of one or more hardware logic circuits. It may be realized by one or more dedicated computers configured by a combination. Further, the computer program may be stored in a computer-readable non-transitional tangible recording medium as an instruction executed by the computer.

本開示は、上述の実施形態に限られるものではなく、その趣旨を逸脱しない範囲において種々の構成で実現することができる。例えば、発明の概要の欄に記載した形態中の技術的特徴に対応する各実施形態中の技術的特徴は、上述の課題の一部又は全部を解決するために、あるいは、上述の効果の一部又は全部を達成するために、適宜、差し替えや、組み合わせを行うことが可能である。また、その技術的特徴が本明細書中に必須なものとして説明されていなければ、適宜、削除することが可能である。 The present disclosure is not limited to the above-described embodiment, and can be realized by various configurations within a range not deviating from the gist thereof. For example, the technical features in each embodiment corresponding to the technical features in the embodiments described in the column of the outline of the invention may be used to solve some or all of the above-mentioned problems, or one of the above-mentioned effects. It is possible to replace or combine as appropriate to achieve part or all. Further, if the technical feature is not described as essential in the present specification, it can be deleted as appropriate.

10…センサ装置、20…処理装置、30…自己位置検出装置、50…物体検出装置、110…発光部、111…発光素子、112…発光制御部、120…受光部、121…受光素子、122…受光制御部、123…受光面、124…受光要素、130…走査部、131…ミラー、132…回転軸、133…アクチュエータ、134…アクチュエータ制御部、201…受光要素、210…制御部、220…測距部、230…識別部、240…シーン判定部、250…解像度決定部、500…車両、Ar…所定範囲、Lz…照射光、MR…測定範囲、OB…対象物、Ps…画素、Ps_h…高分解能画素、Ps_t…低分解能画素 10 ... sensor device, 20 ... processing device, 30 ... self-position detection device, 50 ... object detection device, 110 ... light emitting unit, 111 ... light emitting element, 112 ... light emission control unit, 120 ... light receiving unit, 121 ... light receiving element, 122 ... light receiving control unit, 123 ... light receiving surface, 124 ... light receiving element, 130 ... scanning unit, 131 ... mirror, 132 ... rotating shaft, 133 ... actuator, 134 ... actuator control unit, 201 ... light receiving element, 210 ... control unit, 220 ... ranging unit, 230 ... identification unit, 240 ... scene judgment unit, 250 ... resolution determination unit, 500 ... vehicle, Ar ... predetermined range, Lz ... irradiation light, MR ... measurement range, OB ... object, Ps ... pixel, Ps_h ... high resolution pixel, Ps_t ... low resolution pixel

Claims (7)

車両に搭載される物体検出装置(50)であって、
測定範囲に対して照射光を照射する発光部(110)と、
前記測定範囲からの前記照射光の反射光を含む入射光を受光可能な複数の受光要素(124)を有し、予め設定された前記受光要素の集まりを一画素として、各画素に含まれる前記受光要素の受光状態に応じた受光値を各画素の画素値として出力する受光部(120)と、
前記各画素の画素値で表される画像から、前記測定範囲内に存在する物体を識別する識別部(230)と、
シーンに関する情報を取得し、取得した前記情報に従って前記シーンを判定するシーン判定部(240)と、
前記シーンの判定結果に応じて、前記受光部における前記一画素を構成する前記受光要素の集まりの数を決定し、前記各画素の分解能を決定する解像度決定部(250)と、
を備える、物体検出装置。
An object detection device (50) mounted on a vehicle.
A light emitting unit (110) that irradiates the measurement range with irradiation light,
The said, which has a plurality of light receiving elements (124) capable of receiving incident light including reflected light of the irradiation light from the measurement range, and includes a set of preset light receiving elements as one pixel in each pixel. A light receiving unit (120) that outputs a light receiving value according to the light receiving state of the light receiving element as a pixel value of each pixel, and a light receiving unit (120).
An identification unit (230) that identifies an object existing in the measurement range from an image represented by the pixel value of each pixel, and
A scene determination unit (240) that acquires information about a scene and determines the scene according to the acquired information.
A resolution determining unit (250) that determines the number of groups of the light receiving elements constituting the one pixel in the light receiving unit and determines the resolution of each pixel according to the determination result of the scene.
An object detection device.
請求項1に記載の物体検出装置であって、
前記シーン判定部は、前記識別部における識別結果から前記情報を取得し、取得した前記情報に従って前記シーンを判定する、
物体検出装置。
The object detection device according to claim 1.
The scene determination unit acquires the information from the identification result in the identification unit, and determines the scene according to the acquired information.
Object detector.
請求項1に記載の物体検出装置であって、
前記シーン判定部は、前記情報を有する外部装置(30)から前記情報を取得し、取得した前記情報に従って前記シーンを判定する、物体検出装置。
The object detection device according to claim 1.
The scene determination unit is an object detection device that acquires the information from an external device (30) having the information and determines the scene according to the acquired information.
請求項1から請求項3のいずれか一項に記載の物体検出装置であって、
前記シーン判定部は、前記シーンが、前記車両が通行する路面に対して予め定められる第1の高さ以上の高さを有する物体が存在し得る第1シーンであるか否かを判定し、
前記解像度決定部は、前記シーンが前記第1シーンであった場合に、前記受光部から出力される前記各画素の分解能を、少なくとも前記測定範囲の高さ方向について高くする、物体検出装置。
The object detection device according to any one of claims 1 to 3.
The scene determination unit determines whether or not the scene is a first scene in which an object having a height equal to or higher than a predetermined first height with respect to the road surface through which the vehicle passes can exist.
The resolution determining unit is an object detection device that increases the resolution of each pixel output from the light receiving unit at least in the height direction of the measurement range when the scene is the first scene.
請求項1から請求項4のいずれか一項に記載の物体検出装置であって、
前記シーン判定部は、前記シーンが、前記車両が通行する路面に対して予め定められる第2の高さ以下の高さを有する物体が存在し得る第2シーンであるか否か判定し、
前記解像度決定部は、前記シーンが前記第2シーンであった場合に、前記受光部から出力される前記各画素の分解能を、少なくとも前記測定範囲の高さ方向について高くする、物体検出装置。
The object detection device according to any one of claims 1 to 4.
The scene determination unit determines whether or not the scene is a second scene in which an object having a height equal to or lower than a predetermined second height with respect to the road surface through which the vehicle passes can exist.
The resolution determining unit is an object detection device that increases the resolution of each pixel output from the light receiving unit at least in the height direction of the measurement range when the scene is the second scene.
請求項1から請求項5のいずれか一項に記載の物体検出装置であって、
前記シーン判定部は、前記シーンが、前記車両が通行する路面上に停止物体が存在し得る第3シーンであるか否か判定し、
前記解像度決定部は、前記シーンが前記第3シーンであった場合に、前記受光部から出力される前記各画素の分解能を、少なくとも前記測定範囲の横方向について高くする、物体検出装置。
The object detection device according to any one of claims 1 to 5.
The scene determination unit determines whether or not the scene is a third scene in which a stopped object may exist on the road surface through which the vehicle passes.
The resolution determining unit is an object detection device that increases the resolution of each pixel output from the light receiving unit at least in the lateral direction of the measurement range when the scene is the third scene.
請求項1から請求項6のいずれか一項に記載の物体検出装置であって、
前記受光要素は、前記受光状態に応じた受光値を出力するSPADを有する、物体検出装置。
The object detection device according to any one of claims 1 to 6.
The light receiving element is an object detection device having a SPAD that outputs a light receiving value according to the light receiving state.
JP2019233828A 2019-12-25 2019-12-25 object detector Active JP7338455B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019233828A JP7338455B2 (en) 2019-12-25 2019-12-25 object detector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019233828A JP7338455B2 (en) 2019-12-25 2019-12-25 object detector

Publications (2)

Publication Number Publication Date
JP2021103101A true JP2021103101A (en) 2021-07-15
JP7338455B2 JP7338455B2 (en) 2023-09-05

Family

ID=76755051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019233828A Active JP7338455B2 (en) 2019-12-25 2019-12-25 object detector

Country Status (1)

Country Link
JP (1) JP7338455B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042637A1 (en) * 2021-09-14 2023-03-23 株式会社デンソー Control device, control method, and control program

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191148A (en) * 1993-12-27 1995-07-28 Mitsubishi Electric Corp Wide angle laser radar device

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7021885B2 (en) 2017-09-11 2022-02-17 株式会社日立エルジーデータストレージ Distance measuring device

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07191148A (en) * 1993-12-27 1995-07-28 Mitsubishi Electric Corp Wide angle laser radar device

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023042637A1 (en) * 2021-09-14 2023-03-23 株式会社デンソー Control device, control method, and control program

Also Published As

Publication number Publication date
JP7338455B2 (en) 2023-09-05

Similar Documents

Publication Publication Date Title
JP6471528B2 (en) Object recognition apparatus and object recognition method
KR100352423B1 (en) Vehicle distance measuring device
JP2019144186A (en) Optical distance measuring device and method therefor
CN103523014A (en) In-vehicle apparatus
WO2020196513A1 (en) Object detection device
US20220011440A1 (en) Ranging device
JP2019144184A (en) Optical distance measuring device and method therefor
US11892539B2 (en) Measurement device, measurement method, and non-transitory storage medium
CN115427831A (en) Optical distance measuring device
US20220126792A1 (en) Sensing system for vehicle and vehicle
JP5320880B2 (en) Distance measuring device, distance measuring method and vehicle
JP7338455B2 (en) object detector
JP2021501877A (en) Equipment and method
WO2022190364A1 (en) Information processing device, information processing method, program, and storage medium
EP4035940A1 (en) Gating camera, automobile, vehicle lamp, image processing device, and image processing method
JP2006258507A (en) Apparatus for recognizing object in front
JP2021113767A (en) Obstacle detection device and obstacle detection system
WO2022186099A1 (en) Information processing device, information processing method, program, and storage medium
JP7103324B2 (en) Anomaly detection device for object recognition and anomaly detection program for object recognition
WO2022186103A1 (en) Information processing device, information processing method, program, and storage medium
US20230062562A1 (en) Sensing system and distance measuring system
WO2021166912A1 (en) Object detection device
WO2023042637A1 (en) Control device, control method, and control program
WO2023047886A1 (en) Vehicle detection device, vehicle detection method, and vehicle detection program
JP7487470B2 (en) OBJECT DETECTION DEVICE AND METHOD FOR CONTROLLING OBJECT DETECTION DEVICE

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220310

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230406

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230725

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230807

R151 Written notification of patent or utility model registration

Ref document number: 7338455

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151