WO2022024688A1 - 被検知体および周辺監視システム - Google Patents
被検知体および周辺監視システム Download PDFInfo
- Publication number
- WO2022024688A1 WO2022024688A1 PCT/JP2021/025502 JP2021025502W WO2022024688A1 WO 2022024688 A1 WO2022024688 A1 WO 2022024688A1 JP 2021025502 W JP2021025502 W JP 2021025502W WO 2022024688 A1 WO2022024688 A1 WO 2022024688A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- detected
- vehicle
- movement
- infrared light
- objects
- Prior art date
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60Q—ARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
- B60Q1/00—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
- B60Q1/26—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
- B60Q1/34—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction
- B60Q1/36—Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction using movable members, e.g. arms with built-in flashing lamps
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/48—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
- G01S7/481—Constructional features, e.g. arrangements of optical elements
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/09—Arrangements for giving variable traffic instructions
- G08G1/095—Traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
Definitions
- the present invention relates to a detected object and a peripheral monitoring system.
- peripheral monitoring sensors have been devised to detect and identify objects around the vehicle and support the driving of the vehicle.
- a peripheral monitoring sensor called LiDAR (Light Detection and Ringing) that uses infrared light is known.
- LiDAR Light Detection and Ringing
- Patent Document 1 As one of the suitable places for detecting an object around the vehicle, one in which LiDAR is provided inside the lamp for the vehicle has been devised (see Patent Document 1).
- the detection accuracy of LiDAR depends on the number of point clouds and the shape of the point cloud
- the identification accuracy of the object decreases when the number of point clouds decreases or when an object having a similar shape of the point cloud is detected. ..
- the present invention has been made in view of such a situation, and one of its exemplary purposes is to provide a new technique for improving the identification accuracy of surrounding objects.
- the object to be detected in a certain aspect of the present invention is an object to be detected provided on an object to be identified, and the object to be detected identifies the object to be detected with respect to a peripheral monitoring sensor that uses infrared light. It is configured to appear to move relative to the object.
- the identification accuracy of surrounding objects can be improved by using the information based on the observed movement of the object to be detected.
- the identification target is a moving body
- the detected body may be configured so that the detected body looks different from the movement of the moving body to the peripheral monitoring sensor. As a result, the detected body appears to move differently from the movement of the moving body, so that, for example, characteristic information on where the detected body is provided on the moving body can be obtained.
- the reflection position or the reflection direction of the region that reflects infrared light changes. This makes it easier for the detected body to appear to move differently from the movement of the moving body, and makes it easier to determine where the detected body is provided on the moving body.
- the number of detected objects provided on the moving object may be plurality. As a result, the orientation of the moving body can be determined by the relative arrangement of the plurality of detected bodies.
- the moving body is a vehicle, and the detected body may be provided on the vehicle lighting equipment of the vehicle. This makes it easier to determine the position of the vehicle lamp in the vehicle.
- the identification target is a fixed object
- the detected object may be configured so that the detected object appears to move with respect to the peripheral monitoring sensor.
- the object to be detected provided on the fixed object appears to move, which makes it easier to identify the fixed object.
- the fixed object is a traffic signal
- the detected object may be configured so that the movement looks different depending on the lighting state of the traffic signal.
- Another aspect of the present invention is a peripheral monitoring system.
- This system includes a peripheral monitoring sensor that uses infrared light and a detected object.
- the peripheral monitoring sensor may identify the state of the identification object provided with the detected object by the change of the infrared light emitted from the detected object. This makes it possible to improve the identification accuracy of surrounding objects. Further, when there are a plurality of detected objects provided in the moving body, the orientation of the moving body can be determined by the relative arrangement of the plurality of detected bodies.
- the accuracy of identifying surrounding objects can be improved.
- FIG. 2 (a) is a schematic diagram illustrating the position of the detected body in the front view of the vehicle
- FIG. 2 (b) is a schematic diagram illustrating the position of the detected body in the rear view of the vehicle
- FIG. 2 (c). ) Is a schematic diagram illustrating the position of the detected object in the side view of the vehicle.
- 3 (a) to 3 (d) are schematic views for explaining the shape and movement of the detected object.
- 4 (a) to 4 (d) are schematic views for explaining a combination of mounting positions of a plurality of detected objects.
- 5 (a) to 5 (d) are schematic views showing an example in which a plurality of objects to be detected are provided on a traffic signal.
- 6 (a) to 6 (b) are schematic views showing an example in which a plurality of objects to be detected are provided on a pedestrian traffic light.
- LiDAR will be described as an example as a peripheral monitoring sensor that uses infrared light.
- a sensor such as LiDAR detects and identifies an object by using information on the shape of the point cloud and the movement of the point cloud over time.
- LiDAR provides information on detection of surrounding objects, types of objects, distances to objects, and placement of objects.
- the number of point clouds decreases or the point cloud is missing, so that the object identification accuracy may decrease.
- the inventor of the present application has come up with the idea of providing a detected object in which the object to be discriminated can obtain characteristic information different from the information such as the point cloud obtained from the entire object.
- a object to be detected such as a reflector that reflects infrared light or a light emitter that emits infrared light is provided on an object to be identified such as a vehicle or a traffic light, and characteristic information obtained from the object to be detected is obtained.
- FIG. 1 is a schematic diagram of a LiDAR unit.
- the LiDAR unit 10 has a housing 12, a transmission unit 14, and a LiDAR 16.
- the transmissive portion 14 is, for example, an infrared transmissive film.
- the LiDAR unit 10 has a LiDAR 16 in the housing 12.
- the LiDAR 16 is configured to acquire information around the vehicle.
- the LiDAR 16 is a sensor that emits infrared light, which is generally invisible light, in front of the LiDAR 16 and acquires information such as the distance to the object, the shape of the object, and the material of the object based on the emitted light and the return light. ..
- the LiDAR 16 has a light emitting element 18 that emits light toward the periphery of the vehicle (front of the vehicle) and a light receiving element 20 that receives light incident from the outside.
- the detected object according to the present embodiment is provided on the identification target.
- the identification object according to the present embodiment is a moving object which is a movable object, and specifically, a vehicle. Further, the detected object is configured so that the detected object appears to move relative to the identification target with respect to the peripheral monitoring sensor using infrared light.
- FIG. 2 (a) is a schematic diagram illustrating the position of the detected body in the front view of the vehicle
- FIG. 2 (b) is a schematic diagram illustrating the position of the detected body in the rear view of the vehicle
- FIG. 2 (c). ) Is a schematic diagram illustrating the position of the detected object in the side view of the vehicle.
- the R1 position shown in FIG. 2A which is an example of mounting the detected body, is inside the right headlamp 22R.
- the L1 position shown in FIG. 2A is inside the left headlamp 22L.
- Lighting equipment such as headlamps are provided with a transparent cover and an outer lens capable of emitting visible light including infrared light to the outside. Therefore, the detected body is protected from the environment as compared with the case where the detected body is provided outside the vehicle (for example, the exterior).
- the distance L [m] between the right side headlamp 22R and the left side headlamp 22L may be set to a constant value regardless of the vehicle.
- the LiDAR unit 10 of another vehicle detects a plurality of detected objects of movement different from the movement of the vehicle from the information of surrounding objects, and the distance between the detected objects corresponds to L, the object is the vehicle. Can be identified as.
- the f1 position shown in FIG. 2A corresponds to the back side of the rear-view mirror in the vehicle, and infrared light can be irradiated to the detected object through the front window and emitted from the detected object to the outside of the vehicle.
- the position. Therefore, the detected body is protected from the environment as compared with the case where the detected body is provided outside the vehicle (for example, the exterior).
- the position R1'shown in FIG. 2B is inside the right tail lamp 24R.
- the L1'position shown in FIG. 2B is inside the left tail lamp 24L.
- the distance L [m] between the right tail lamp 24R and the left tail lamp 24L may be set to a constant value regardless of the vehicle.
- the object is the vehicle. Can be identified as.
- the r1 position shown in FIG. 2B corresponds to the inside of the upper part of the rear window of the vehicle, and it is possible to irradiate the detected object with infrared light through the rear window and emit infrared light from the detected object to the outside of the vehicle. Position. Therefore, the detected body is protected from the environment as compared with the case where the detected body is provided outside the vehicle (for example, the exterior).
- positions A1 to A13 shown in FIGS. 2A to 2C are examples of candidates for mounting positions of the detected object in the vehicle.
- the positions A1 to A13 for example, a place on the roof, such as a bumper, a license plate, a doorknob, a roof rail, or the like, which is easily identified as a vehicle, is selected.
- the shape of the object to be detected may be a polygon such as a triangle or a square, a circle, an ellipse, a rectangular parallelepiped, or a curved surface. It should be something to do.
- the object to be detected may be a reflective object, a component in which the reflective object is embedded, a unit in which the reflective object is arrayed, or a reflective surface (mirror or the like).
- the detected object may be a self-luminous substance, a component in which the self-luminous substance is embedded, a unit in which reflective objects are arrayed, or a self-luminous surface (light guide body or optical fiber surface).
- the detected body 26a shown in FIG. 3A is a rectangular parallelepiped light emitter or reflector, and moves relative to the vehicle. More specifically, the detected body 26a swings around the Y-axis in the vertical direction of the vehicle at a specific cycle. Therefore, when the vehicle provided with the detected body 26a is irradiated with the infrared light emitted from the LiDAR 16 of another vehicle, the movement of the vehicle is different from the point cloud information for the entire object corresponding to the vehicle. Information on the detected object 26a that looks different is obtained.
- the detected body 26a may reciprocate at a specific cycle along the X axis in the vehicle width direction.
- the circular object to be detected 26b may reciprocate at a specific cycle along the Y axis in the vertical direction of the vehicle.
- the rectangular object to be detected 26c may reciprocate at a specific cycle along the Z axis in the front-rear direction of the vehicle.
- the objects to be detected 26a to 26c according to the present embodiment are configured so that the reflection position or the reflection direction of the region that reflects infrared light changes. This makes it easier for the detected body to appear to move differently from the movement of the vehicle, and makes it easier to determine where the detected body is provided in the vehicle.
- the detected body itself does not move relatively with respect to the vehicle, and the detected body may appear to move relatively with respect to the vehicle by changing the light emitting state of the detected body. More specifically, the detected body does not move, and the light emitting surface of the detected body blinks or the light emitting region changes stepwise, so that the detected body moves differently from the movement of the vehicle. You may make it look like. For example, the light emitting region of the light guide may be changed periodically. This makes it easier to determine where the detected object is installed in the vehicle even if the detected object itself does not move. Infrared light reflection and blinking do not flicker or impair visibility for drivers or pedestrians.
- the accuracy of object identification can be further improved by changing the movement of the object to be detected for each position mounted on the vehicle.
- 4 (a) to 4 (d) are schematic views for explaining a combination of mounting positions of a plurality of detected objects.
- FIG. 4A by mounting the object to be detected at the positions R1 and L1 of the vehicle, the left and right headlamps of the vehicle are recognized in the information of the point cloud of the object detected by the LiDAR 16. Information can be added.
- FIG. 4B by providing the object to be detected at the position f1 in addition to the position R1 and the position L1, the identification accuracy of the object is further improved.
- FIG. 4 (c) shows a case where the detected object is mounted at the position L1', the position R1'and the position A7 shown in FIG. 2 (b). If there are point clouds with characteristic movements at positions L1', R1'and A7 in the point cloud showing the outline of the object, the LiDAR unit 10 of another vehicle will use the detected object in the vehicle. Identify as being. Further, when the movement of the detected object mounted on the position L1'corresponds to the left tail lamp 24L and the movement of the detected object mounted on the position R1' corresponds to the right tail lamp 24R, the identified vehicle. Can also be identified as a preceding vehicle (a vehicle traveling ahead on the own lane side) when viewed from other vehicles.
- FIG. 4D shows a case where the detected object is mounted at the positions A8, A9, A10, and A13 shown in FIG. 2C.
- the LiDAR unit 10 of another vehicle moves the detected object to the side. Identify the vehicle as seen from the side.
- the orientation of the vehicle is determined by the relative arrangement of the plurality of detected objects. Can be determined.
- the detected object appears to move relative to the vehicle (identification target) with respect to the LiDAR unit 10 that uses infrared light. It is configured. According to this aspect, the identification accuracy of the vehicle can be improved by using the information based on the observed movement of the detected object.
- the detected object according to the present embodiment is configured to look different from the movement of the vehicle with respect to the LiDAR unit 10 that uses infrared light. Thereby, for example, characteristic information on where the detected object is provided in the vehicle can be obtained.
- the identification object is not limited to a moving object such as a vehicle, and may be a fixed object which is an object fixed at a predetermined position. Therefore, the detected object according to the present embodiment may be provided not only for a moving object such as a vehicle but also for a fixed object such as a traffic signal.
- 5 (a) to 5 (d) are schematic views showing an example in which a plurality of objects to be detected are provided on a traffic signal.
- the vehicle traffic light 30 shown in FIG. 5A which is a type of traffic signal, is provided with a detected object at a position R1 above a blue signal light, a position C1 above a yellow signal light, and a position L1 above a red signal light, respectively. ing.
- These detected objects are configured so that the detected object appears to move relative to the traffic signal with respect to the peripheral monitoring sensor using infrared light. More specifically, these detected objects are configured so that the detected objects appear to move with respect to the LiDAR unit 10 included in the vehicle. In this way, the three objects to be detected that are in a predetermined positional relationship with respect to the three-color signal lights of the vehicle traffic light 30 appear to move, so that the vehicle traffic light 30 can be easily identified. Further, by making the movement of the detected object on the signal lamp of the lit color among the three detected objects different from the movement of the other two detected objects, what color of the vehicle traffic light 30 is used. It can be determined whether the signal light of is lit.
- the detected body corresponding to the yellow signal light among the three detected bodies in the vehicle traffic light 30 shown in FIG. 5 (a) is located at the position C1'under the yellow signal light. It is the same as the vehicle traffic light 30 except that it is provided.
- the three objects to be detected are arranged at the positions of the vertices of the triangle, and it becomes easy to recognize the point cloud having a characteristic movement in the point cloud showing the outline of the vehicle traffic light. That is, even in the LiDAR unit 10 where it is difficult to directly detect the color information of the traffic signal, the lighting state of the traffic signal can be identified.
- the detected objects corresponding to the three-color signal lights are provided at the three positions R1, C1, and L1 of the columns, respectively.
- the function of each detected object is the same as that of the vehicle traffic light 30.
- the detected body corresponding to the yellow signal light among the three detected bodies in the vehicle traffic light 34 shown in FIG. 5 (c) is provided at the position C1'on the right side of the column. It is the same as the vehicle traffic light 30 except that the traffic light 30 is used.
- 6 (a) to 6 (b) are schematic views showing an example in which a plurality of detected objects are provided on a pedestrian traffic light.
- the pedestrian traffic light 38 shown in FIG. 6A which is a type of traffic light, is provided with a detected object at a position A1 above the red signal light and a position A2 below the blue signal light, respectively.
- These detected objects are configured so that the detected objects appear to move with respect to the LiDAR unit 10 included in the vehicle.
- the two detected objects having a predetermined positional relationship with respect to the two-color signal lights of the pedestrian traffic light 38 appear to move, which makes it easier to identify the pedestrian traffic light 38.
- the pedestrian traffic light 38 It is possible to determine what color of the signal light is lit.
- the detected objects corresponding to the two-color signal lights are provided at the two positions A1 and A2 of the support column, respectively.
- the function of each detected object is the same as that of the vehicle traffic light 30.
- the peripheral monitoring system includes a LiDAR unit 10 that uses infrared light and a detected body.
- the LiDAR unit 10 identifies the state of the object on which the detected body is provided by the change of the infrared light emitted from the detected body. This makes it possible to improve the identification accuracy of surrounding objects. Further, when there are a plurality of detected objects provided in the vehicle, the orientation of the vehicle can be determined by the relative arrangement of the plurality of detected objects to be detected.
- the present invention has been described above with reference to the above-described embodiments, the present invention is not limited to the above-described embodiments, and the configurations of the embodiments may be appropriately combined or substituted. Those are also included in the present invention. Further, it is also possible to appropriately rearrange the combinations and the order of processing in each embodiment based on the knowledge of those skilled in the art, and to add modifications such as various design changes to the embodiments. Additional embodiments may also be included within the scope of the invention.
- the object to be identified is not limited to the object described in the above embodiment, and may be various objects including moving objects and fixed objects.
- the identification object is placed, for example, in a device (for example, forklift), a worker (for example, work clothes worn by the worker), or in the factory, which performs various movements (for example, movement) in the factory. It may be a fixed object (for example, a signal light). It is also possible to provide an object to be detected on these objects to be identified and to monitor the state (for example, movement) of each object to be identified by using the information based on the observed movement of the object to be identified.
- the present invention can be used for a detected object and a peripheral monitoring system.
- LiDAR unit 12 housing, 14 transmissive part, 16 LiDAR, 18 light emitting element, 20 light receiving element, 22R right headlamp, 22L left headlamp, 24R right tail lamp, 26a, 26b, 26c detected body, 24L left tail lamp, 30 Vehicle traffic lights, 38 pedestrian traffic lights.
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mechanical Engineering (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Optical Radar Systems And Details Thereof (AREA)
- Traffic Control Systems (AREA)
Abstract
被検知体26aは、識別対象物に設けられる被検知体であって、赤外光を利用する周辺監視センサに対して、被検知体が識別対象物に対して相対的に動いて見えるように構成されている。
Description
本発明は、被検知体および周辺監視システムに関する。
従来、車両周囲の物体を検知及び識別し、自動車の運転支援を行う周辺監視センサが種々考案されている。例えば、赤外光を利用するLiDAR(Light Detection and Ranging)と呼ばれる周辺監視センサが知られている。また、車両周囲の物体を検知するために適した場所の一つとして車両用灯具の内部にLiDARを設けたものも考案されている(特許文献1参照)。
ところで、LiDARの検知精度は、点群数や点群の形状に依存するため、点群数が減少した場合や点群の形状が似ている物体を検知した場合、物体の識別精度が低下する。また、赤外光を利用した周辺監視センサは、物体の色を判別しづらい。
本発明はこうした状況に鑑みてなされたものであり、その例示的な目的の一つは、周囲の物体の識別精度を向上する新たな技術を提供することにある。
上記課題を解決するために、本発明のある態様の被検知体は、識別対象物に設けられる被検知体であって、赤外光を利用する周辺監視センサに対して、被検知体が識別対象物に対して相対的に動いて見えるように構成されている。
この態様によると、観測された被検知体の動きに基づく情報を利用することにより、周囲の物体の識別精度を向上できる。
識別対象物は、移動体であり、被検知体は、周辺監視センサに対して、被検知体が移動体の動きとは異なる動きに見えるように構成されていてもよい。これにより、被検知体が移動体の動きと異なる動きに見えることで、例えば、被検知体が移動体のどこに設けられているかの特徴的な情報が得られる。
赤外光を反射する領域の反射位置または反射方向が変化するように構成されていてもよい。これにより、被検知体が移動体の動きとは異なる動きに見えやすくなり、被検知体が移動体のどこに設けられているか判別しやすくなる。また、移動体に設けられる被検知体は複数であってもよい。これにより、複数の被検知体の相対配置によって、移動体の向きを判別できる。
赤外光を出射する領域が変化するように構成されていてもよい。これにより、被検知体が移動体の動きとは異なる動きに見えやすくなり、被検知体が移動体のどこに設けられているか判別しやすくなる。
移動体は、車両であり、被検知体は、車両が有する車両用灯具に設けられてもよい。これにより、車両における車両用灯具の位置を判別しやすくなる。
識別対象物は、固定物であり、被検知体は、周辺監視センサに対して、被検知体が動いて見えるように構成されていてもよい。これにより、固定物に設けられている被検知体が動いて見えることで、固定物を識別しやすくなる。
固定物は、交通信号機であり、被検知体は、交通信号機の点灯状態に応じて動きが異なって見えるように構成されていてもよい。これにより、交通信号機の色の情報を直接検知できない周辺監視センサであっても、交通信号機の点灯状態を識別できる。
本発明の他の態様は、周辺監視システムである。このシステムは、赤外光を利用する周辺監視センサと、被検知体と、を備えている。周辺監視センサは、被検知体から出射する赤外光の変化によって被検知体が設けられる識別対象物の状態を識別してもよい。これにより、周囲の物体の識別精度を向上できる。また、移動体に設けられる被検知体が複数ある場合、検知した複数の被検知体の相対配置によって、移動体の向きを判別できる。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システムなどの間で変換したものもまた、本発明の態様として有効である。
本発明によれば、周囲の物体の識別精度を向上できる。
以下、図面を参照しながら、本発明を実施するための形態について詳細に説明する。なお、図面の説明において同一の要素には同一の符号を付し、重複する説明を適宜省略する。また、以下に述べる構成は例示であり、本発明の範囲を何ら限定するものではない。なお、以下では、赤外光を利用する周辺監視センサとしてLiDARを例に説明する。
LiDARのようなセンサは、点群の形状や点群の経時的な動きの情報を用いて、物体の検知や識別を行う。具体的には、LiDARは、周囲の物体の検知、物体の種類、物体までの距離、物体の配置の情報を提供する。一方で、遠方の物体や物体が小さい場合には、点群数が減少したり、点群が欠けたりするため、物体の識別精度が低下するおそれがある。
そこで、本願発明者は、判別しようとする物体に、物体全体から得られる点群等の情報とは別の特徴的な情報が得られる被検知体を設ける点に想到した。具体的には、赤外光を反射する反射体や赤外光を発する発光体といった被検知体を車両や信号機等の識別対象物に設け、それら被検知体から得られた特徴的な情報を加味することで、識別対象物の識別精度を向上できる点に想到した。
(LiDARユニット)
図1は、LiDARユニットの模式図である。LiDARユニット10は、ハウジング12と、透過部14と、LiDAR16とを有している。透過部14は、例えば、赤外線透過フィルムである。
図1は、LiDARユニットの模式図である。LiDARユニット10は、ハウジング12と、透過部14と、LiDAR16とを有している。透過部14は、例えば、赤外線透過フィルムである。
LiDARユニット10は、ハウジング12内に、LiDAR16を有している。LiDAR16は、車両周囲の情報を取得するように構成されている。LiDAR16は、一般にその前方に非可視光である赤外光を出射し、出射光と戻り光とに基づいて、物体までの距離、物体の形状、物体の材質などの情報を取得するセンサである。LiDAR16は、車両周囲(車両前方)に向けて光を射出する発光素子18と、外部から入射する光を受光する受光素子20とを有している。
(被検知体の位置)
本実施の形態に係る被検知体は、識別対象物に設けられている。本実施の形態に係る識別対象物は、移動可能な物体である移動体であり、具体的には車両である。また、被検知体は、赤外光を利用する周辺監視センサに対して、被検知体が識別対象物に対して相対的に動いて見えるように構成されている。図2(a)は、車両の正面視における被検知体の位置を例示した模式図、図2(b)は、車両の背面視における被検知体の位置を例示した模式図、図2(c)は、車両の側面視における被検知体の位置を例示した模式図である。
本実施の形態に係る被検知体は、識別対象物に設けられている。本実施の形態に係る識別対象物は、移動可能な物体である移動体であり、具体的には車両である。また、被検知体は、赤外光を利用する周辺監視センサに対して、被検知体が識別対象物に対して相対的に動いて見えるように構成されている。図2(a)は、車両の正面視における被検知体の位置を例示した模式図、図2(b)は、車両の背面視における被検知体の位置を例示した模式図、図2(c)は、車両の側面視における被検知体の位置を例示した模式図である。
被検知体の搭載例の一例である図2(a)に示すR1位置は、右側ヘッドランプ22Rの内部である。同様に、図2(a)に示すL1位置は、左側ヘッドランプ22Lの内部である。ヘッドランプ等の灯具は、赤外光を含む可視光を外部へ出射することができる透明なカバーやアウターレンズを備えている。そのため、被検知体を車両の外部(例えば外装)へ設ける場合と比較して、環境から被検知体が保護される。
また、右側ヘッドランプ22Rと左側ヘッドランプ22Lとの間隔L[m]は、車両によらず一定の値に設定されているとよい。これにより、他車両のLiDARユニット10が、周囲の物体の情報から車両の動きとは異なる動きの被検知体を複数検知し、それら被検知体の間隔がLに相当する場合、その物体が車両であると識別できる。
また、図2(a)に示すf1位置は、車内のバックミラーの裏側に相当し、フロントウィンドウを介して被検知体への赤外光の照射及び被検知体から車外への出射が可能な位置である。そのため、被検知体を車両の外部(例えば外装)へ設ける場合と比較して、環境から被検知体が保護される。
次に、車両の背面視における被検知体の配置について説明する。図2(b)に示す位置R1’は、右側テールランプ24Rの内部である。同様に、図2(b)に示すL1’位置は、左側テールランプ24Lの内部である。また、右側テールランプ24Rと左側テールランプ24Lとの間隔L[m]は、車両によらず一定の値に設定されているとよい。
これにより、他車両のLiDARユニット10が、周囲の物体の情報から車両の動きとは異なる動きの被検知体を複数検知し、それら被検知体の間隔がLに相当する場合、その物体が車両であると識別できる。
また、図2(b)に示すr1位置は、車両のリアウィンドウ上部の内側に相当し、リアウィンドウを介して被検知体への赤外光の照射及び被検知体から車外への出射が可能な位置である。そのため、被検知体を車両の外部(例えば外装)へ設ける場合と比較して、環境から被検知体が保護される。
なお、図2(a)~図2(c)に示す多数の位置A1~A13は、車両における被検知体の搭載位置の候補の一例である。位置A1~A13は、例えば、ルーフの上、バンパ、ナンバープレート、ドアノブ、ルーフレール等の車両として識別しやすい場所が選択される。
(被検知体の動き)
図3(a)~図3(d)は、被検知体の形状と動きを説明するための模式図である。被検知体の形状は、三角や四角等の多角形、円形、楕円形、直方体、曲面であってもよく、反射や自発光する面積が大きく、LiDAR16が検知する点群として特徴的な動きをするものであるとよい。また、被検知体は、反射物、反射物が埋め込まれた部品、反射物がアレイ化されたユニット、反射表面(ミラー等)であってもよい。また、被検知体は、自発光物、自発光物が埋め込まれた部品、反射物がアレイ化されたユニット、自発光表面(導光体や光ファイバ表面)であってもよい。
図3(a)~図3(d)は、被検知体の形状と動きを説明するための模式図である。被検知体の形状は、三角や四角等の多角形、円形、楕円形、直方体、曲面であってもよく、反射や自発光する面積が大きく、LiDAR16が検知する点群として特徴的な動きをするものであるとよい。また、被検知体は、反射物、反射物が埋め込まれた部品、反射物がアレイ化されたユニット、反射表面(ミラー等)であってもよい。また、被検知体は、自発光物、自発光物が埋め込まれた部品、反射物がアレイ化されたユニット、自発光表面(導光体や光ファイバ表面)であってもよい。
図3(a)に示す被検知体26aは、直方体の発光体または反射体であり、車両に対して相対的に動く。より具体的には、被検知体26aは、車両上下方向のY軸を中心に特定の周期で揺動する。したがって、被検知体26aが設けられた車両に対して、他車両のLiDAR16から出射した赤外光が照射されると、車両に相当する物体全体に対する点群情報とは別に、車両の動きとは異なる動きに見える被検知体26aの情報が得られる。
より詳述すると、他車両のLiDARユニット10が得た車両全体の点群の情報に加えて、車両の動きとは異なる被検知体26aの揺動によって得られる動的な情報が得られる。その結果、点群から得られた車両全体の概形の一部において、車両の動きと異なる(特徴的な)動きの点群の情報が得られる。そして、この特徴的な動きの点群の車両における位置と、その特徴的な動きとに基づいて、物体が車両であるだけでなく、車両がどちらを向いているかも判別できる。例えば、被検知体26aの動きが、右側ヘッドランプ22Rに相当する位置R1に設けられている被検知体の動きに対応する場合、車両が対向車であることが推定できる。
被検知体の他の動きとしては、図3(b)に示すように、被検知体26aが車幅方向のX軸に沿って特定の周期で往復運動してもよい。また、図3(c)に示すように、円形の被検知体26bが車両上下方向のY軸に沿って特定の周期で往復運動してもよい。また、図3(d)に示すように、四角形の被検知体26cが車両前後方向のZ軸に沿って特定の周期で往復運動してもよい。
このように、本実施の形態に係る被検知体26a~26cは、赤外光を反射する領域の反射位置または反射方向が変化するように構成されている。これにより、被検知体が車両の動きとは異なる動きに見えやすくなり、被検知体が車両のどこに設けられているか判別しやすくなる。
また、被検知体自体は車両に対して相対的に動かず、被検知体の発光状態を変化させることにより、被検知体が車両に対して相対的に動いて見えるようにしてもよい。より具体的には、被検知体自体は動かずに、被検知体の発光面が明滅したり、発光領域が段階的に変化したりすることで、被検知体が車両の動きとは異なる動きに見えるようにしてもよい。例えば、導光体の発光領域を周期的に変化させてもよい。これにより、被検知体自体が動かなくても、被検知体が車両のどこに設けられているか判別しやすくなる。また、赤外光の反射や点滅は、ドライバや歩行者へのちらつきや視界の障害にならない。
また、車両に搭載する位置ごとに被検知体の動きを変えることで、物体の識別精度を更に向上できる。図4(a)~図4(d)は、複数の被検知体の搭載位置の組合せを説明するための模式図である。図4(a)に示すように、車両の位置R1と位置L1に被検知体を搭載することで、LiDAR16で検知した物体の点群の情報の中に車両の左右ヘッドランプを認識させる特徴的な情報を加えることができる。また、図4(b)に示すように、位置R1と位置L1に加えて、位置f1にも被検知体を設けることで、物体の識別精度が更に向上する。
図4(c)は、図2(b)に示す位置L1’、位置R1’および位置A7に被検知体を搭載した場合を示している。物体の概形を示す点群の中に、特徴的な動きをする点群が位置L1’、位置R1’および位置A7に存在する場合、他車両のLiDARユニット10は、検知した物体を車両であると識別する。また、位置L1’に搭載された被検知体の動きが、左側テールランプ24Lに対応し、位置R1’に搭載された被検知体の動きが、右側テールランプ24Rに対応している場合、識別した車両が他車両から見て先行車(自車線側を先に走行する車両)であることも識別できる。
図4(d)は、図2(c)に示す位置A8、位置A9、位置A10、位置A13に被検知体を搭載した場合を示している。物体の概形を示す点群の中に、特徴的な動きをする点群が位置A8、位置A9、位置A10、位置A13に存在する場合、他車両のLiDARユニット10は、検知した物体を側方から見た車両であると識別する。
このように、複数の被検知体を車両の異なる場所に設け、かつ、その搭載位置に対応した異なる動きを被検知体ごとに割り当てることで、複数の被検知体の相対配置によって、車両の向きを判別できる。
上述のように、本実施の形態に係る被検知体は、赤外光を利用するLiDARユニット10に対して、被検知体が車両(識別対象物)に対して相対的に動いて見えるように構成されている。この態様によれば、観測された被検知体の動きに基づく情報を利用することにより、車両の識別精度を向上できる。
また、本実施の形態に係る被検知体は、赤外光を利用するLiDARユニット10に対して、車両の動きとは異なる動きに見えるように構成されている。これにより、例えば、被検知体が車両のどこに設けられているかの特徴的な情報が得られる。
(交通信号機の識別)
識別対象物は、車両等の移動体に限らず、所定の位置に固定された物体である固定物であってもよい。したがって、本実施の形態に係る被検知体は、車両等の移動体だけでなく交通信号機等の固定物に対して設けてもよい。図5(a)~図5(d)は、交通信号機に複数の被検知体を設けた例を示す模式図である。
識別対象物は、車両等の移動体に限らず、所定の位置に固定された物体である固定物であってもよい。したがって、本実施の形態に係る被検知体は、車両等の移動体だけでなく交通信号機等の固定物に対して設けてもよい。図5(a)~図5(d)は、交通信号機に複数の被検知体を設けた例を示す模式図である。
交通信号機の一種である図5(a)に示す車両用信号機30は、青色信号灯の上の位置R1、黄色信号灯の上の位置C1、赤色信号灯の上の位置L1にそれぞれ被検知体が設けられている。これら被検知体は、赤外光を利用する周辺監視センサに対して、被検知体が交通信号機に対して相対的に動いて見えるように構成されている。より具体的には、これら被検知体は、車両が備えるLiDARユニット10に対して、被検知体が動いて見えるように構成されている。このように、車両用信号機30の3色の信号灯に対して所定の位置関係にある3つの被検知体が動いて見えることで、車両用信号機30を識別しやすくなる。また、3つの被検知体のうち、点灯している色の信号灯の上にある被検知体の動きを、他の2つの被検知体の動きと異ならせることで、車両用信号機30の何色の信号灯が点灯している状態か判別できる。
図5(b)に示す車両用信号機32は、図5(a)に示す車両用信号機30における3つの被検知体のうち黄色信号灯に対応する被検知体が黄色信号灯の下の位置C1’に設けられている以外は、車両用信号機30と同様である。これにより、3つの被検知体が三角形の頂点の位置に配置されることとなり、車両用信号機の概形を示す点群の中の、特徴的な動きをする点群を認識しやすくなる。つまり、交通信号機の色の情報を直接検知しづらいLiDARユニット10であっても、交通信号機の点灯状態を識別できる。
図5(c)に示す車両用信号機34は、3色の信号灯に対応した被検知体が支柱の3つの位置R1,C1,L1にそれぞれ設けられている。なお、各被検知体の機能は車両用信号機30と同じである。図5(d)に示す車両用信号機36は、図5(c)に示す車両用信号機34における3つの被検知体のうち黄色信号灯に対応する被検知体が支柱の右の位置C1’に設けられている以外は、車両用信号機30と同様である。
図6(a)~図6(b)は、歩行者用信号機に複数の被検知体を設けた例を示す模式図である。
交通信号機の一種である図6(a)に示す歩行者用信号機38は、赤色信号灯の上の位置A1、青色信号灯の下の位置A2にそれぞれ被検知体が設けられている。これら被検知体は、車両が備えるLiDARユニット10に対して、被検知体が動いて見えるように構成されている。このように、歩行者用信号機38の2色の信号灯に対して所定の位置関係にある2つの被検知体が動いて見えることで、歩行者用信号機38を識別しやすくなる。また、2つの被検知体のうち、点灯や点滅している色の信号灯の上または下にある被検知体の動きを、他の被検知体の動きと異ならせることで、歩行者用信号機38の何色の信号灯が点灯している状態か判別できる。
図6(b)に示す歩行者用信号機40は、2色の信号灯に対応した被検知体が支柱の2つの位置A1,A2にそれぞれ設けられている。なお、各被検知体の機能は車両用信号機30と同じである。
なお、本実施の形態に係る周辺監視システムは、赤外光を利用するLiDARユニット10と、被検知体と、を備えている。LiDARユニット10は、被検知体から出射する赤外光の変化によって被検知体が設けられる物体の状態を識別している。これにより、周囲の物体の識別精度を向上できる。また、車両に設けられる被検知体が複数ある場合、検知した複数の被検知体の相対配置によって、車両の向きを判別できる。
以上、本発明を上述の各実施の形態を参照して説明したが、本発明は上述の各実施の形態に限定されるものではなく、各実施の形態の構成を適宜組み合わせたものや置換したものについても本発明に含まれるものである。また、当業者の知識に基づいて各実施の形態における組合せや処理の順番を適宜組み替えることや各種の設計変更等の変形を実施の形態に対して加えることも可能であり、そのような変形が加えられた実施の形態も本発明の範囲に含まれうる。
上記実施の形態では、主に、識別対象物が車両あるいは交通信号機である例を説明した。識別対象物は上記実施の形態において説明した物体に限定されるものではなく、移動体および固定物を含む各種の物体であってもよい。識別対象物は、たとえば、工場内で各種の動作(たとえば、移動など)を行う装置(たとえば、フォークリフトなど)、作業者(たとえば、作業者が着用する作業着など)、または工場内に配置された固定物(たとえば、信号灯など)などであってもよい。これらの識別対象物に被検知体を設け、観測された被検知体の動きに基づく情報を利用して、それぞれの識別対象物の状態(たとえば、動きなど)を監視することも可能である。
本発明は、被検知体および周辺監視システムに利用できる。
10 LiDARユニット、 12 ハウジング、 14 透過部、 16 LiDAR、 18 発光素子、 20 受光素子、 22R 右側ヘッドランプ、 22L 左側ヘッドランプ、 24R 右側テールランプ、 26a,26b,26c 被検知体、 24L 左側テールランプ、 30 車両用信号機、 38 歩行者用信号機。
Claims (8)
- 識別対象物に設けられる被検知体であって、
赤外光を利用する周辺監視センサに対して、前記被検知体が前記識別対象物に対して相対的に動いて見えるように構成されていることを特徴とする被検知体。 - 前記識別対象物は、移動体であり、
前記被検知体は、前記周辺監視センサに対して、前記被検知体が前記移動体の動きとは異なる動きに見えるように構成されていることを特徴とする請求項1に記載の被検知体。 - 赤外光を反射する領域の反射位置または反射方向が変化するように構成されていることを特徴とする請求項2に記載の被検知体。
- 赤外光を出射する領域が変化するように構成されていることを特徴とする請求項2に記載の被検知体。
- 前記移動体は、車両であり、
前記被検知体は、前記車両が有する車両用灯具に設けられることを特徴とする請求項2乃至4のいずれか1項に記載の被検知体。 - 前記識別対象物は、固定物であり、
前記被検知体は、前記周辺監視センサに対して、前記被検知体が動いて見えるように構成されていることを特徴とする請求項1に記載の被検知体。 - 前記固定物は、交通信号機であり、
前記被検知体は、前記交通信号機の点灯状態に応じて動きが異なって見えるように構成されていることを特徴とする請求項6に記載の被検知体。 - 赤外光を利用する周辺監視センサと、
請求項1乃至7のいずれか1項に記載の被検知体と、を備え、
前記周辺監視センサは、前記被検知体から出射する赤外光の変化によって前記被検知体が設けられる識別対象物の状態を識別することを特徴とする周辺監視システム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022540114A JPWO2022024688A1 (ja) | 2020-07-27 | 2021-07-06 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020-126756 | 2020-07-27 | ||
JP2020126756 | 2020-07-27 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2022024688A1 true WO2022024688A1 (ja) | 2022-02-03 |
Family
ID=80036217
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2021/025502 WO2022024688A1 (ja) | 2020-07-27 | 2021-07-06 | 被検知体および周辺監視システム |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2022024688A1 (ja) |
WO (1) | WO2022024688A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024100770A1 (ja) * | 2022-11-08 | 2024-05-16 | 日本電信電話株式会社 | 表示装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005049805A (ja) * | 2003-07-30 | 2005-02-24 | Systec:Kk | 風車型反射装置 |
JP2005182455A (ja) * | 2003-12-19 | 2005-07-07 | Stanley Electric Co Ltd | 車両間通信システム |
JP2006235807A (ja) * | 2005-02-23 | 2006-09-07 | Honda Motor Co Ltd | 車両用被認識装置 |
JP2007018142A (ja) * | 2005-07-06 | 2007-01-25 | Clarion Co Ltd | 車両周辺監視装置 |
JP2008176663A (ja) * | 2007-01-19 | 2008-07-31 | Toyota Central R&D Labs Inc | 車両検出装置、車両検出用発光装置及び車両検出システム |
JP2014093700A (ja) * | 2012-11-06 | 2014-05-19 | Koito Mfg Co Ltd | 路車間通信システムおよび送受信装置 |
JP2016060314A (ja) * | 2014-09-17 | 2016-04-25 | 株式会社小糸製作所 | 車両用リアランプ |
JP2018116653A (ja) * | 2017-01-20 | 2018-07-26 | 株式会社デンソーテン | 識別装置、識別システム、および識別方法 |
JP2018201196A (ja) * | 2017-05-26 | 2018-12-20 | パナソニックIpマネジメント株式会社 | 撮像装置、撮像システム、車両走行制御システム、及び画像処理装置 |
-
2021
- 2021-07-06 WO PCT/JP2021/025502 patent/WO2022024688A1/ja active Application Filing
- 2021-07-06 JP JP2022540114A patent/JPWO2022024688A1/ja active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005049805A (ja) * | 2003-07-30 | 2005-02-24 | Systec:Kk | 風車型反射装置 |
JP2005182455A (ja) * | 2003-12-19 | 2005-07-07 | Stanley Electric Co Ltd | 車両間通信システム |
JP2006235807A (ja) * | 2005-02-23 | 2006-09-07 | Honda Motor Co Ltd | 車両用被認識装置 |
JP2007018142A (ja) * | 2005-07-06 | 2007-01-25 | Clarion Co Ltd | 車両周辺監視装置 |
JP2008176663A (ja) * | 2007-01-19 | 2008-07-31 | Toyota Central R&D Labs Inc | 車両検出装置、車両検出用発光装置及び車両検出システム |
JP2014093700A (ja) * | 2012-11-06 | 2014-05-19 | Koito Mfg Co Ltd | 路車間通信システムおよび送受信装置 |
JP2016060314A (ja) * | 2014-09-17 | 2016-04-25 | 株式会社小糸製作所 | 車両用リアランプ |
JP2018116653A (ja) * | 2017-01-20 | 2018-07-26 | 株式会社デンソーテン | 識別装置、識別システム、および識別方法 |
JP2018201196A (ja) * | 2017-05-26 | 2018-12-20 | パナソニックIpマネジメント株式会社 | 撮像装置、撮像システム、車両走行制御システム、及び画像処理装置 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024100770A1 (ja) * | 2022-11-08 | 2024-05-16 | 日本電信電話株式会社 | 表示装置 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2022024688A1 (ja) | 2022-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10661706B2 (en) | Optical device and direction display device | |
EP3659861A1 (en) | Lamp device, sensor system, and sensor device | |
US10618458B2 (en) | Vehicle headlight control device | |
US10317523B2 (en) | Lighting device for a vehicle and vehicle headlight | |
EP3703031A1 (en) | Sensing system and vehicle | |
US9784839B2 (en) | Automotive lighting device and a vehicle having the same | |
JP5779028B2 (ja) | ヘッドランプの配光制御手段 | |
CN107914634B (zh) | 车辆用照明装置 | |
JP7352341B2 (ja) | 自動車用照明灯 | |
JP5976352B2 (ja) | 車両用前照灯の配光制御システム及び車両用前照灯システム | |
JPWO2019026437A1 (ja) | 車両用照明システム及び車両 | |
JP2015201296A (ja) | 車両用灯具 | |
CN111828927B (zh) | 用于车辆的集成LiDAR的灯设备 | |
EP4108523A1 (en) | Vehicle light | |
WO2022024688A1 (ja) | 被検知体および周辺監視システム | |
CN111853691A (zh) | 用于车辆的集成lidar的灯设备 | |
WO2020184103A1 (ja) | 車両用灯具及び車両 | |
KR20130136107A (ko) | 자동차 | |
CN115244332A (zh) | 发光装置、以及传感器单元 | |
WO2022196638A1 (ja) | センサシステム | |
JP7496352B2 (ja) | 灯具システム | |
KR102421054B1 (ko) | 주차 가이드 장치 및 방법 | |
JP2023548794A (ja) | 自動車投光器用の照射装置 | |
CN115681873A (zh) | 车辆用描绘装置 | |
JP2013086739A (ja) | ヘッドライト制御装置、ヘッドライトシステム、及びヘッドライトシステムの制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 21848877 Country of ref document: EP Kind code of ref document: A1 |
|
ENP | Entry into the national phase |
Ref document number: 2022540114 Country of ref document: JP Kind code of ref document: A |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 21848877 Country of ref document: EP Kind code of ref document: A1 |