WO2014007286A1 - 状態認識システム及び状態認識方法 - Google Patents

状態認識システム及び状態認識方法 Download PDF

Info

Publication number
WO2014007286A1
WO2014007286A1 PCT/JP2013/068241 JP2013068241W WO2014007286A1 WO 2014007286 A1 WO2014007286 A1 WO 2014007286A1 JP 2013068241 W JP2013068241 W JP 2013068241W WO 2014007286 A1 WO2014007286 A1 WO 2014007286A1
Authority
WO
WIPO (PCT)
Prior art keywords
state
vehicle
road
image
travel path
Prior art date
Application number
PCT/JP2013/068241
Other languages
English (en)
French (fr)
Inventor
克行 中村
耕太 入江
將裕 清原
修 深田
早川 泰久
Original Assignee
クラリオン株式会社
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社, 日産自動車株式会社 filed Critical クラリオン株式会社
Priority to US14/412,385 priority Critical patent/US9542605B2/en
Priority to JP2014523764A priority patent/JP6133861B2/ja
Publication of WO2014007286A1 publication Critical patent/WO2014007286A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a system for recognizing a state, and more particularly, to a system mounted on a vehicle and recognizing a road surface state.
  • Determining the road surface condition is preferable for safe driving of vehicles such as automobiles.
  • Japanese Patent Laid-Open No. 2011-174794 obtains short-cycle Gabor filter processing data and long-cycle Gabor filter processing data by performing Gabor filter processing on an image photographed by a camera.
  • a technique for determining the wet and dry condition of the road surface by normalizing from both the data and comparing the normalized value with a predetermined threshold value is disclosed.
  • An object of the present invention is to suitably determine whether the state of a traveling road is on-road or off-road even in a situation where the road surface state cannot be clearly observed.
  • a typical example of the invention disclosed in the present application is as follows. That is, a state recognition system for recognizing a state of a traveling path on which a vehicle travels, and an analysis unit that analyzes an image photographed by an in-vehicle camera mounted on the vehicle, and a travel based on a result of analysis by the analysis unit
  • a traveling path discriminating unit that determines a state of the road, and extracts an attachment of a lens of the vehicle-mounted camera from the image, determines a type and an amount of the extracted attachment, and the lens based on the determination result
  • a lens diagnosis unit for diagnosing the state of
  • FIG. 1 is a block diagram showing the configuration of an external environment recognition system 1 according to the first embodiment of the present invention.
  • the external recognition system 1 of the present embodiment is a computer that includes a processor (CPU) 101, a memory 102, and an input / output interface 103, and these components are connected by a bus.
  • the processor 101 is an arithmetic device that executes a program stored in the memory 102.
  • the memory 102 is, for example, a non-volatile storage device such as a flash memory or a high-speed and volatile storage device such as a DRAM (Dynamic Random Access Memory), and stores an operating system (OS) and application programs.
  • OS operating system
  • the processor 101 executes the operating system, the basic functions of the computer are realized, and when the application program is executed, the functions provided by the external recognition system 1 are realized.
  • the streetlight analysis unit 201 When the processor 101 executes a predetermined program, the streetlight analysis unit 201, the road surface analysis unit 202, the traveling road determination unit 203, and the lens diagnosis unit 204 are mounted on the external environment recognition system 1.
  • the in-vehicle camera that captures an image input to the external environment recognition system 1 is a wide-angle camera with a wide angle of view or a narrow-angle camera that can capture an image with a narrow angle of view, and is attached to the front or rear of the vehicle.
  • the camera attached to the rear of the vehicle is more susceptible to mud and snow splashing by the vehicle, and its lens is likely to become dirty, so the effect of applying this embodiment is higher.
  • the streetlight analysis unit 201 extracts a high-intensity area brighter than a predetermined brightness in an area above the horizon (sky) of the input image, thereby lighting around the road (streetlights and surrounding buildings) Is analyzed.
  • the streetlight analysis unit 201 has a day / night determination function and is controlled to operate only at night.
  • the day / night determination function can determine whether it is day or night based on the brightness of the input image or the exposure control (Auto-Exposure) information of the camera that captures the image.
  • the road surface analysis unit 202 extracts road surface features from the input image, and outputs road surface feature amounts and recognition results as road surface information. Details of the configuration of the road surface analysis unit 202 will be described later with reference to FIG.
  • the travel path determination unit 203 is on-road based on the lighting information analyzed by the streetlight analysis unit 201, the road surface information analyzed by the road surface analysis unit 202, and the lens state diagnosed by the lens diagnosis unit 204. Or offload. That is, the travel path determination unit 203 analyzes the lighting information and the road surface information in time series to determine whether the travel path is on-road (paved road) or off-road (unpaved road, mud road, snowy road, grassland, For example, desert). Details of the processing in the travel path determination unit 203 will be described later with reference to FIG.
  • the lens diagnosis unit 204 diagnoses the lens state based on the image information and the traveling road state, and includes a stain extraction unit 2041 and a stain determination unit 2042.
  • Typical lens stains include water droplets, mud, snow, and water droplet traces, and the stain extraction unit 2041 extracts regions that are suspected to be stains (attachment candidate regions). For example, the candidate object region is extracted based on the edge, color, shape, size, and temporal change in the input image.
  • the dirt determination unit 2042 determines the type of the extracted deposit candidate area based on the travel path state determined by the travel path determination unit 203, and determines the type of the determined deposit candidate area and the amount of the deposit. Is output as lens state information. For example, since it is difficult to discriminate between water droplets and muddy water at night, more accurate discrimination is realized based on the traveling road state. When a deposit that seems to be water droplets or muddy water is detected on-road, the deposit is determined to be a water droplet. On the other hand, when an adhering substance like water droplets or muddy water is detected in off-road, the adhering substance is determined to be muddy water. Thereby, muddy water having a large influence as lens dirt is more appropriately determined.
  • the external environment recognition system 1 may have a secondary storage device.
  • the secondary storage device is a large-capacity non-volatile storage device such as a magnetic storage device or a flash memory, and may store a program executed by the processor 101 and data used by the processor 101 when the program is executed. .
  • the program is read from the secondary storage device, loaded into the memory 102, and executed by the processor 101.
  • the input / output interface 103 is an interface for inputting / outputting data such as USB.
  • the input / output interface 103 may include a communication interface connected to the in-vehicle network.
  • the program executed by the processor 101 is provided to the computer via a nonvolatile storage medium or a network.
  • the computer may be provided with an interface for reading a storage medium (CD-ROM, flash memory, etc.).
  • FIG. 2 is a block diagram showing the configuration of the road surface analysis unit 202 of the first embodiment.
  • the road surface analysis unit 202 includes a solid line lane feature extraction unit 2020, a solid line lane presence / absence determination unit 2021, a periodic lane feature extraction unit 2022, a periodic lane presence / absence determination unit 2023, an outside road feature extraction unit 2024, an outside road stability presence / absence determination unit 2025, A road surface paint feature extracting unit 2026, a road surface paint presence / absence determining unit 2027, a road surface color feature extracting unit 2028, and a road surface covering presence / absence determining unit 2029 are provided.
  • the traveling road state is suitably determined even in bad weather or dark night.
  • the solid line lane feature extraction unit 2020 extracts a solid line component from the left and right lane analysis region images, analyzes the degree and color of the extracted solid line, and outputs a feature amount of the solid line lane.
  • the solid line lane presence / absence determination unit 2021 determines the presence / absence of a solid line lane based on the solid line lane feature amount, and outputs solid line lane information indicating the probability that a solid line lane exists.
  • the periodic lane feature extraction unit 2022 extracts a shape having a periodicity (such as a broken line) from the images of the left and right lane analysis regions, analyzes the periodicity of the extracted shape, and outputs a feature amount of the periodic lane.
  • the periodic lane presence / absence determining unit 2023 determines the presence / absence of a periodic lane based on the periodic lane feature amount, and outputs periodic lane information indicating the probability that the periodic lane exists.
  • the lanes can be broadly classified into a solid line type (white, yellow) and a periodic type (broken line, botsdots, etc.).
  • the solid line lane feature extraction unit 2020 and the periodic lane feature extraction unit 2022 are different from each other. To extract. If a solid line lane and / or a periodic lane is detected, there is a high possibility that the vehicle is on road (paved road).
  • the out-of-road feature extraction unit 2024 extracts the feature amount (luminance, etc.) of the images in the left and right out-of-road analysis areas and outputs the out-of-road feature amount.
  • the out-of-road stability presence / absence determination unit 2025 analyzes the time-series change (periodicity, stability) of the output out-of-road feature amount to determine whether the object outside the road is an artificial object, grass, snow, mud, etc. It is determined whether the object is a natural object, and out-of-road information indicating the probability that the object outside the road is an artifact is output. For example, when the brightness of the out-of-road analysis area does not change in time series, it can be determined that a roadside belt is provided outside the road.
  • luminance of an out-of-road analysis area changes periodically, it can determine with the artifacts (for example, guardrail, a noise barrier, etc.) being installed outside the road. If an artifact is detected outside the road, there is a high possibility of being on-road (paved road). If natural objects are detected outside the road, there is a high possibility that the road is off-road (unpaved road).
  • artifacts for example, guardrail, a noise barrier, etc.
  • the road surface paint feature extraction unit 2026 extracts features of road surface paint (for example, pedestrian crossing, stop line, speed limit character paint, etc.) in an area between the left and right lane analysis units.
  • the road surface paint presence / absence determination unit 2027 analyzes the feature amount of the road surface paint, determines the presence or absence of road surface paint, and outputs road surface paint information indicating the probability that the road surface paint exists. If road surface paint is detected, there is a high possibility of being on-road (paved road).
  • the road surface color feature extraction unit 2028 determines the color ratio of the image.
  • the road surface covering presence / absence determining unit 2029 determines whether the road surface is covered by the determined color of the image, and outputs road surface covering information indicating the probability that the road surface is covered. For example, when the color in the image is dominant white, there is a high possibility that the road surface is covered with snow.
  • FIG. 3 is a diagram illustrating an example of an image input to the external environment recognition system 1 according to the first embodiment.
  • the image is input from the in-vehicle camera to the external environment recognition system 1 of the first embodiment.
  • the in-vehicle camera is a wide-angle camera with a wide angle of view or a narrow-angle camera with a narrow angle of view that can take images far and is attached to the front or rear of the vehicle.
  • FIG. 3 illustrates an image acquired by the wide-angle camera.
  • an area 401 where the vehicle body and / or the light shielding plate is reflected, and there is an area 402 where the vehicle body is reflected in the lower part.
  • lane analysis areas 403 for analyzing the lane in which the vehicle travels are provided on the left and right of the image.
  • an outside road analysis area 404 for analyzing a state outside the running road is provided on the left and right outside of the lane analysis area.
  • characteristics such as a solid line 411, a periodic lane 412, a road surface paint 413, a streetlight 414, and a stable roadside as shown in FIG. 3 often appear. On the other hand, these characteristics rarely appear on unpaved roads. These characteristics are suitable characteristics for determining whether the traveling road is on-road or off-road, and can be extracted without greatly losing clarity even in bad weather or dark night.
  • FIG. 4 is a flowchart of the process executed by the travel path determination unit 203 of the first embodiment.
  • the travel path determination unit 203 determines whether or not the lens state is such that the travel path can be determined using the lens state information output by the lens diagnosis unit 204 (S101). For example, in a lens state in which the road surface is almost invisible, there is a high possibility that the road surface is erroneously determined to be off-road, so that it is determined that the travel path cannot be determined.
  • the travel path determination unit 203 uses the road surface information analyzed by the road surface analysis unit 202 to calculate an off-road probability (S102).
  • the probability of being off-road can be obtained by the following Bayesian estimation.
  • the road class is C (off-road, on-road)
  • the road surface information is N vectors x LANE (solid line lane information, periodic lane information, outside road information, road surface paint information, road surface cover information,... )
  • x LANE ) of the road class after obtaining the road surface information can be obtained by the following equation.
  • the posterior probability can be calculated by the following equation.
  • the posterior probability can be calculated by learning in advance the probability that each observation value can be obtained from the road class, and multiplying the prior probability by the product thereof.
  • the prior probability may be set to an arbitrary value or may be given in a uniform distribution.
  • the travel route class may be determined by an identification model that models a discriminant function.
  • the probability of the road class and the discrimination result may be obtained after obtaining observation information using an algorithm such as support vector machine or boosting.
  • the probability of the travel route class and the discrimination result after obtaining the observation information may be obtained by using a time series generation model such as a hidden Markov model (HMM: Hidden Markov Model).
  • the travel path determination unit 203 uses the lamp information vector x LIGHT (high luminance area area ratio, high luminance area concentration, high luminance area score,%) Analyzed by the street lamp analysis unit 201 to perform off-road.
  • xLIGHT ) is calculated by the following equation (S103). For example, if the area ratio of the high-brightness area is equal to or higher than a predetermined threshold value, there is a high possibility of being on-road. When the number of high and high luminance area points is large, the score can be obtained from the viewpoint that it is likely to be on-road like a streetlight or a surrounding building.
  • the traveling path determination unit 203 calculates an immediate off-road score p (C
  • is a weight of road surface information
  • is a weight of lighting information.
  • a predetermined number (offset time) of offload scores of a plurality of frames are accumulated, and an average value or median value is obtained to calculate a time series representative value of the offload score (S106). Thereafter, it is determined whether or not the time-series representative value of the obtained offload score exceeds a predetermined threshold (S107). If the time-series representative value exceeds the threshold value, it is determined that the traveling road is off-road (S108). On the other hand, if the off-road score is equal to or less than a predetermined threshold, it is determined that the road is on-road (S109).
  • the off-road score was obtained by calculating the weighted sum, but the road surface information and the street light information were used comprehensively. Then, the offload score of the current frame may be obtained.
  • the first embodiment of the present invention since it has a streetlight analysis unit that analyzes the lighting in the image and a road surface analysis unit that analyzes the characteristics of the road surface from the image, The above two features can be used to accurately determine whether the vehicle is on-road or off-road.
  • the road surface information used by the road surface analysis unit is a feature that does not lose much clarity even in bad weather or dark night (solid line lanes, periodic lanes, road stability, road surface paint, etc.). It is possible to make a suitable travel route determination without being greatly affected by the above. That is, erroneous determination and non-determination of the traveling road state can be greatly reduced.
  • the traveling path is determined based on the lens state, it is possible to avoid forcibly making the determination when the lens is extremely dirty. That is, erroneous determination and non-determination caused by lens contamination can be greatly reduced.
  • FIG. 5 is a block diagram showing the configuration of the external environment recognition system 1 according to the second embodiment of the present invention.
  • the external environment recognition system 1 of the second embodiment is different from the external environment recognition system 1 of the first embodiment described above in that information from the in-vehicle sensor is used in combination to determine whether it is off-road or on-road. For this reason, the external environment recognition system 1 of the second embodiment has a vehicle behavior analysis unit 205.
  • the same components and processes as those in the first embodiment described above are denoted by the same reference numerals, and description thereof is omitted.
  • a plurality of in-vehicle sensors are mounted on a vehicle on which the external environment recognition system 1 of the second embodiment is mounted.
  • the external environment recognition system 1 can use information output from various in-vehicle sensors.
  • vehicle sensor information vehicle speed output from a vehicle speed sensor, steering angle output from a steering angle sensor, lateral acceleration and longitudinal acceleration output from an acceleration sensor, yaw rate output from a yaw rate sensor, output from a wheel speed sensor The wheel speed can be used.
  • operation information of various control systems such as an anti-lock braking system (ABS), a traction control system (TCS), and a vehicle dynamics control (VDC) can be used as in-vehicle sensor information.
  • ABS anti-lock braking system
  • TCS traction control system
  • VDC vehicle dynamics control
  • the pitching amount is determined using a vehicle height sensor that measures the sinking of the vehicle and an acceleration sensor that measures the vertical vibration. You may acquire and use these vehicle-mounted sensor information. Further, information from sensors other than those described above may be used.
  • the vehicle behavior analysis unit 205 is implemented by the processor 101 executing a predetermined program.
  • the vehicle behavior analysis unit 205 analyzes information output from the in-vehicle sensor and outputs vehicle behavior information indicating the behavior of the vehicle to the travel path determination unit 203.
  • the vehicle behavior analysis unit 205 outputs vehicle behavior information to the road surface analysis unit 202
  • the road surface analysis unit 202 outputs road surface information to the vehicle behavior analysis unit 205.
  • the lane change can be detected with high accuracy by using both the solid line lane information and periodic lane information output by the road surface analysis unit 202 and the steering angle information output by the vehicle behavior analysis unit 205.
  • the road surface analysis unit 202 can determine whether the feature amount (periodicity) extracted by the periodic lane feature extraction unit 2022 is appropriate based on the vehicle speed acquired from the vehicle behavior analysis unit 205.
  • the traveling road discrimination unit 203 includes lighting information analyzed by the street lamp analysis unit 201, road surface information analyzed by the road surface analysis unit 202, vehicle behavior information analyzed by the vehicle behavior analysis unit 205, and a lens diagnosed by the lens diagnosis unit 204. Based on the state, it is determined whether the state of the traveling road is on-road or off-road. In other words, the travel path determination unit 203 determines whether the travel path is on-road or off-road by analyzing the lighting information, road surface information, and vehicle behavior information in time series. Details of the processing in the travel path determination unit 203 will be described later with reference to FIG.
  • FIG. 6 is a flowchart of processing executed by the travel path determination unit 203 of the second embodiment.
  • the travel route determination unit 203 of the second embodiment determines the state of the travel route based on the vehicle behavior information analyzed by the vehicle behavior analysis unit 205 in addition to the lighting information and the road surface information. For this reason, step S110 is added.
  • step S103 the travel path determination unit 203 calculates the probability of being off-road using the lighting information, and then calculates the probability of being off-road using the vehicle behavior information (S110).
  • the vehicle speed is extremely high (for example, exceeding 100 km / h), it is estimated that the vehicle is traveling on a highway, and there is a high possibility that the vehicle is on-road (paved road).
  • a large rudder angle is continuously detected during traveling, that is, if the turning radius is small, it is estimated that the vehicle is turning at an intersection or is turning around in a parking lot or the like. Probability is high.
  • the variation in the vehicle speed and / or the variation in the steering angle is large, there is a high possibility that the vehicle is off-road.
  • the variation in the wheel speed is large, it is estimated that the grips of the wheels are different, and there is a high possibility of being off-road.
  • the vehicle information vector is represented by x VEHICLE
  • x VEHICLE ) is calculated by the following equation (S110).
  • the travel path determination unit 203 calculates an immediate off-road score p (C
  • is the weight of road surface information
  • is the weight of lighting information
  • is the weight of vehicle behavior information.
  • the off-road score was obtained by calculating the weighted sum.
  • An immediate off-road score may be obtained by comprehensively using road surface information, street light information, and vehicle behavior information.
  • ambiguous information suitable for description of the probabilistic model information that cannot be determined by a single piece of information alone and that is effective in combination
  • information that is not suitable for description determinable information that can be used to determine the travel route using only single information. Therefore, partial information suitable for the description of the probabilistic model is selected from the road surface information, street light information, and vehicle behavior information, and a road surface / street light / vehicle behavior information vector is constructed, and offloading is performed in the same manner as described above.
  • An immediate score may be obtained. Thereafter, the off-road score immediate value may be forcibly rewritten using information that can determine the travel route.
  • the on-load / intensity can be obtained in an environment such as darkness or bad weather that is difficult to determine only by image information or in a state where the lens is dirty.
  • the off-road determination performance can be further improved.
  • the feature with high discrimination performance obtained from the in-vehicle sensor it is possible to increase the number of cases where it is possible to determine whether the travel path is on-road or off-road. That is, the rate at which the traveling road state is correctly determined can be increased.
  • FIG. 7 is a block diagram showing a configuration of an information system of a vehicle equipped with the external environment recognition system 1 of the first or second embodiment described above.
  • the external recognition system 1 of the third embodiment is different from the external recognition system 1 of the first and second embodiments described above in that it includes a control unit 206 and an object detection unit 207.
  • the same components and processes as those in the first or second embodiment described above are denoted by the same reference numerals, and description thereof is omitted.
  • the input / output interface 103 is connected with a camera 301, an in-vehicle sensor 302, and a car navigation system 303.
  • the camera 301 is a wide-angle camera with a wide angle of view or a narrow-angle camera with a narrow angle of view that can take images far and far.
  • the in-vehicle sensor 302 is a vehicle speed sensor, a steering angle sensor, an acceleration sensor, a yaw rate sensor, a wheel speed sensor, and the like, and provides vehicle behavior information to the external environment recognition system 1.
  • In-vehicle sensor 302 may include various control systems such as ABS, TCS, and VDC.
  • the car navigation system 303 is a system that provides route guidance to the position of the host vehicle and the destination, and provides road information such as road type and road width to the external environment recognition system 1.
  • the input / output interface 103 is connected to a speaker 311, a display 312, a lamp (LED) 313, and a dirt removing device 314.
  • the speaker 311, the display 312, the lamp 313, and the dirt removing device 314 are devices to be controlled by the external environment recognition system 1, and their operations are controlled by the control unit 206.
  • Speaker 311 is a device that converts an electrical signal into sound.
  • the display 312 is a display device that displays a predetermined message, and includes, for example, a liquid crystal display panel (LCD).
  • the lamp 313 is a light emitting element such as a light emitting diode.
  • the speaker 311, the display 312, and the lamp 313 are notification devices that notify the driver or passengers that the amount of dirt exceeds a predetermined threshold.
  • the speaker 311, the display 312, and the lamp 313 also function as a notification device that notifies a warning regarding a collision object detected by the object detection unit 207.
  • the dirt removing device 314 is a device that removes lens dirt of the camera 301, and is a wiper, a washer, an air injection device, or the like.
  • the control unit 206 and the object detection unit 207 are implemented by the processor 101 executing a predetermined program.
  • the control unit 206 controls a control target (dirt removal device, object recognition unit, notification device) and the like. For example, the type and amount of adhered matter on the lens are obtained, and when the amount of dirt exceeds a predetermined threshold, a dirt removing device (such as a wiper, a washer or an air jet device for removing lens dirt) is operated.
  • the object detection unit 207 extracts an object (such as a vehicle, a two-wheeled vehicle, or a pedestrian) that is included in the input image and that may affect the traveling of the vehicle.
  • an object such as a vehicle, a two-wheeled vehicle, or a pedestrian
  • the travel route determination unit 203 may determine whether the travel route is on-road or off-road based on the type of road acquired from the car navigation system 303. For example, if the type of road currently running is an expressway or a general road, it can be determined that the vehicle is on-road.
  • the object detection unit 207 may increase the determination threshold used for object detection because the possibility that a collision object exists is low when the traveling path determination unit 203 determines that the vehicle is traveling off-road.
  • the traveling road can be determined with high accuracy.
  • the present invention is not limited to the above-described embodiments, and includes various modifications and equivalent configurations within the scope of the appended claims.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and the present invention is not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment may be replaced with the configuration of another embodiment.
  • another configuration may be added, deleted, or replaced.
  • each of the above-described configurations, functions, processing units, processing means, etc. may be realized in hardware by designing a part or all of them, for example, with an integrated circuit, and the processor realizes each function. It may be realized by software by interpreting and executing the program to be executed.
  • Information such as programs, tables, and files that realize each function can be stored in a storage device such as a memory, a hard disk, and an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, and a DVD.
  • a storage device such as a memory, a hard disk, and an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, and a DVD.
  • control lines and information lines indicate what is considered necessary for the explanation, and do not necessarily indicate all control lines and information lines necessary for mounting. In practice, it can be considered that almost all the components are connected to each other.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

車両が走行する走行路の状態を認識する状態認識システムであって、車両に搭載された車載カメラによって撮影された画像を解析する解析部と、前記解析部が解析した結果に基づいて走行路の状態を判定する走行路判別部と、前記画像から前記車載カメラのレンズの付着物を抽出し、前記抽出された付着物の種別及び量を判定し、前記判定の結果に基づいて前記レンズの状態を診断するレンズ診断部と、を備える。

Description

状態認識システム及び状態認識方法 参照による取り込み
 本出願は、平成24年(2012年)7月3日に出願された日本出願である特願2012-149322の優先権を主張し、その内容を参照することにより、本出願に取り込む。
 本発明は、状態を認識するシステムに関し、特に、車両に搭載され、路面の状態を認識するシステムに関する。
 車両の電子制御技術の進歩に伴い、路面の状態を的確に判定する技術が求められている。路面の状態を判定することは、自動車等の車両の安全走行の上で好ましいものである。
 例えば、特開2011-174794号は、カメラで撮影された画像についてガボールフィルタ処理して、短周期のガボールフィルタ処理データと長周期のガボールフィルタ処理データとを得る。この両データから正規化処理して、正規化値を所定のしきい値と比較することにより、路面の乾湿状態を判定する技術を開示する。
 前述した特開2011-174794号に記載された技術では、路面テクスチャの周波数解析結果に基づいて路面の乾湿状態を判定するので、テクスチャが明瞭に見えない悪天候や暗夜において、路面の状態を判定することは困難である。また、車外に設置される車載カメラに応用する場合、レンズに汚れが付着しやすいため、路面の状態を判定することが困難である。
 本発明は、このような路面状態を明瞭に観測できない状況においても、走行路の状態がオンロードであるかオフロードであるかを好適に判別することを目的とする。
 本願において開示される発明の代表的な一例を示せば以下の通りである。すなわち、車両が走行する走行路の状態を認識する状態認識システムであって、車両に搭載された車載カメラによって撮影された画像を解析する解析部と、前記解析部が解析した結果に基づいて走行路の状態を判定する走行路判別部と、前記画像から前記車載カメラのレンズの付着物を抽出し、前記抽出された付着物の種別及び量を判定し、前記判定の結果に基づいて前記レンズの状態を診断するレンズ診断部と、を備える。
 本発明の代表的な実施の形態によれば、路面状態を明瞭に観測できない状況においても好適に走行路の種別を判別することができる。前述した以外の課題、構成及び効果は、以下の実施例の説明により明らかにされる。
本発明の第1の実施例の外界認識システムの構成を示すブロック図である。 本発明の第1の実施例の路面解析部の構成を示すブロック図である。 本発明の第1の実施例の外界認識システムに入力される画像の例を説明する図である。 本発明の第1の実施例の走行路判別部が実行する処理のフローチャートである。 本発明の第2の実施例の外界認識システムの構成を示すブロック図である。 本発明の第2の実施例の走行路判別部が実行する処理のフローチャートである。 本発明の第3の実施例の外界認識装置を搭載した車両の情報系の構成を示すブロック図である。
 <実施例1>
 図1は、本発明の第1の実施例の外界認識システム1の構成を示すブロック図である。
 本実施例の外界認識システム1は、プロセッサ(CPU)101、メモリ102及び入出力インターフェース103を有し、これらの構成がバスで接続された計算機である。
 プロセッサ101は、メモリ102に格納されたプログラムを実行する演算装置である。
 メモリ102は、例えば、フラッシュメモリのような不揮発性の記憶装置やDRAM(Dynamic Random Access Memory)のような高速かつ揮発性の記憶装置であり、オペレーティングシステム(OS)及びアプリケーションプログラムを格納する。プロセッサ101が、オペレーティングシステムを実行することによって、計算機の基本機能が実現され、アプリケーションプログラムを実行することによって、外界認識システム1が提供する機能が実現される。
 プロセッサ101が、所定のプログラムを実行することによって、街灯解析部201、路面解析部202、走行路判別部203、レンズ診断部204が外界認識システム1に実装される。
 外界認識システム1へ入力される画像を撮影する車載カメラは、画角が広い広角カメラ又は画角が狭く遠方まで撮像できる狭角カメラであり、車両の前方又は後方に取り付けられる。一般に、車両の後方に取り付けられるカメラの方が、車両による泥や雪の跳ね上げの影響を受けやすく、そのレンズが汚れやすいので、本実施例を適用することによる効果が高い。
 街灯解析部201は、入力された画像の地平線より上(空)の領域において、所定の輝度より明るい高輝度領域を抽出することによって、走行路の周囲の灯火(街灯、周囲の建物の灯り)を解析する。街灯解析部201は、昼夜判定機能を有しており、夜間のみ動作するように制御される。なお、昼夜判定機能は、入力された画像の明るさや、画像を撮影するカメラの露光制御(Auto Exposure)情報によって、昼か夜かを判定することができる。
 路面解析部202は、入力された画像中から路面の特徴を抽出し、路面の特徴量及び認識結果を路面情報として出力する。路面解析部202の構成の詳細は、図2を用いて後述する。走行路判別部203は、街灯解析部201が解析した灯火情報と路面解析部202が解析した路面情報とレンズ診断部204が診断したレンズ状態とに基づいて、走行路の状態がオンロードであるかオフロードであるかを判別する。すなわち、走行路判別部203は、灯火情報及び路面情報を時系列に解析することによって、走行路がオンロード(舗装路)であるか、オフロード(未舗装路、泥道、雪道、草原、砂漠など)であるかを判別する。走行路判別部203における処理の詳細は、図3を用いて後述する。
 レンズ診断部204は、画像情報と走行路状態に基づいてレンズ状態を診断するものであり、汚れ抽出部2041及び汚れ判定部2042を有する。代表的なレンズ汚れには、水滴、泥、雪、水滴痕などがあり、汚れ抽出部2041はこれら汚れであると疑われる領域(付着物候補領域)を抽出する。例えば、入力された画像内のエッジ、色、形状、大きさ、及び時間変化によって付着物候補領域を抽出する。
 汚れ判定部2042は、走行路判別部203によって判別された走行路状態に基づいて、抽出された付着物候補領域の種別を判定し、判定された付着物候補領域の種別と付着物の量とをレンズ状態情報として出力する。例えば、夜間においては水滴と泥水との判別が困難であるため、走行路状態に基づいて、より高精度の判別を実現する。オンロードにおいて水滴又は泥水らしい付着物を検出した場合は、その付着物を水滴であると判定する。一方、オフロードにおいて水滴又は泥水らしい付着物を検出した場合、その付着物を泥水であると判定する。これによって、レンズ汚れとしての影響が大きい泥水をより適切に判別する。
 外界認識システム1は、二次記憶装置を有してもよい。二次記憶装置は、例えば、磁気記憶装置、フラッシュメモリ等の大容量かつ不揮発性の記憶装置であり、プロセッサ101によって実行されるプログラム及びプログラム実行時にプロセッサ101が使用するデータを格納してもよい。この場合、プログラムは、二次記憶装置から読み出され、メモリ102にロードされて、プロセッサ101によって実行される。
 入出力インターフェース103は、USBなどのデータを入出力するインターフェースである。入出力インターフェース103は、車内ネットワークに接続される通信インターフェースを含んでもよい。
 なお、プロセッサ101によって実行されるプログラムは、不揮発性の記憶媒体又はネットワークを介して計算機に提供される。このため、計算機は、記憶媒体(CD-ROM、フラッシュメモリ等)を読み込むインターフェースを備えるとよい。
 図2は、第1の実施例の路面解析部202の構成を示すブロック図である。
 路面解析部202は、実線レーン特徴抽出部2020、実線レーン有無判定部2021、周期レーン特徴抽出部2022、周期レーン有無判定部2023、路外特徴抽出部2024、路外安定性有無判定部2025、路面ペイント特徴抽出部2026、路面ペイント有無判定部2027、路面色特徴抽出部2028及び路面被覆有無判定部2029を有する。これらの構成が路面を解析することによって、悪天候や暗夜においても走行路状態を好適に判別する。
 実線レーン特徴抽出部2020は、左右のレーン解析領域の画像から実線の成分を抽出し、抽出された実線の直線度合い及び色を解析し、実線レーンの特徴量を出力する。実線レーン有無判定部2021は、実線レーン特徴量に基づいて、実線レーンの有無を判定し、実線レーンが存在する確率を示す実線レーン情報を出力する。
 周期レーン特徴抽出部2022は、左右のレーン解析領域の画像から周期性を有する形状(破線など)を抽出し、抽出された形状の周期性を解析し、周期レーンの特徴量を出力する。周期レーン有無判定部2023は、周期レーン特徴量に基づいて、周期レーンの有無を判定し、周期レーンが存在する確率を示す周期レーン情報を出力する。
 なお、レーンは、実線タイプ(白色、黄色)と、周期タイプ(破線、ボッツドッツなど)に大別することができ、実線レーン特徴抽出部2020及び周期レーン特徴抽出部2022は、各々、異なる特徴量を抽出する。なお、実線レーン及び/又は周期レーンが検出されれば、オンロード(舗装路)である可能性が高い。
 路外特徴抽出部2024は、左右の路外解析領域の画像の特徴量(輝度など)を抽出し、路外特徴量を出力する。路外安定性有無判定部2025は、出力された路外特徴量の時系列変化(周期性、安定性)を解析して、路外の物体が人工物であるのか、草、雪、泥などの自然物であるのかを判定し、路外の物体が人工物である確率を示す路外情報を出力する。例えば、路外解析領域の輝度が時系列で変化しない場合、路外には路側帯が設けられていると判定することができる。また、路外解析領域の輝度が周期的に変化する場合、路外には人工物(例えば、ガードレール、防音壁など)が設置されていると判定することができる。なお、路外に人工物が検出されれば、オンロード(舗装路)である可能性が高い。路外に自然物が検出されれば、オフロード(未舗装路)である可能性が高い。
 路面ペイント特徴抽出部2026は、左右のレーン解析部の間の領域で、路面ペイント(例えば、横断歩道、停止線、制限速度の文字ペイントなど)の特徴を抽出する。路面ペイント有無判定部2027は、路面ペイントの特徴量を解析して、路面ペイントの有無を判定し、路面ペイントが存在する確率を示す路面ペイント情報を出力する。なお、路面ペイントが検出されれば、オンロード(舗装路)である可能性が高い。
 路面色特徴抽出部2028は、画像の色の比率を判定する。路面被覆有無判定部2029は、判定された画像の色によって、路面が被覆されているかを判定し、路面が被覆されている確率を示す路面被覆情報を出力する。例えば、画像中の色が白が支配的である場合、路面を雪が被覆している可能性が高い。
 図3は、第1の実施例の外界認識システム1に入力される画像の例を説明する図である。
 第1の実施例の外界認識システム1には、車載カメラから画像が入力される。車載カメラは、画角が広い広角カメラ又は画角が狭く遠方まで撮像できる狭角カメラであり、車両の前方又は後方に取り付けられる。図3は、広角カメラが取得した画像を例示している。
 車載カメラから入力される画像の上部には、車体及び/又は遮光板が写り込んだ領域401があり、また、下部には車体が写り込んだ領域402がある。また、画像の左右には車両が走行するレーンを解析するためのレーン解析領域403が設けられる。さらに、レーン解析領域の左右外側には走行路の外側の状態を解析するための路外解析領域404が設けられる。
 舗装路では、図3に示すような、実線レーン411、周期レーン412、路面ペイント413、街灯414、安定した路側部などの特徴が現れることが多い。一方、未舗装路では、これらの特徴が現れることは少ない。これらの特徴は、走行路がオンロードであるかオフロードであるかを判別するための好適な特徴であり、悪天候や暗夜においても明瞭さを大きく失うことなく抽出することができる。
 図4は、第1の実施例の走行路判別部203が実行する処理のフローチャートである。
 まず、走行路判別部203は、レンズ診断部204が出力したレンズ状態情報を用いて、走行路の判別が可能なレンズ状態か否かを判定する(S101)。例えば、路面がほとんど見えないレンズ状態であれば、誤ってオフロードと判定される可能性が高まるため、走行路の判別が不可能であると判定する。ここで、走行路の判別が可能なレンズ状態と判定された場合、走行路判別部203は、路面解析部202が解析した路面情報を用いて、オフロードである確率を計算する(S102)。
 例えば、オフロードである確率は、下記のベイズ推定によって求めることができる。具体的には、走行路クラスをC(オフロード、オンロード)、路面情報をN個のベクトルxLANE(実線レーン情報、周期レーン情報、路外情報、路面ペイント情報、路面被覆情報・・・)で表すと、路面情報を得た上での走行路クラスの事後確率(オフロードらしさ) p(C|xLANE)は次式によって求めることができる。
Figure JPOXMLDOC01-appb-M000001
 ここで、各路面情報ベクトルに独立性があると仮定すると、事後確率を次式によって計算することができる。
Figure JPOXMLDOC01-appb-M000002
 すなわち、走行路クラスから各観測値が得られる確率を事前に学習しておき、それらの積を事前確率に乗じることによって、事後確率を計算することができる。事前確率は任意の値を設定してもよいし、一様分布で与えてもよい。
 上記は観測データの生起確率をモデル化する生成モデルの例であるが、判別関数をモデル化する識別モデルによって走行路クラスを決定してもよい。例えば、サポートベクターマシンやブースティングなどのアルゴリズムを用いて、観測情報を得た上での走行路クラスの確率及び判別結果を求めても構わない。また、隠れマルコフモデル(HMM:Hidden Markov Model)のような時系列生成モデルを用いて、観測情報を得た上での走行路クラスの確率及び判別結果を求めてもよい。
 次に、走行路判別部203は、街灯解析部201が解析した灯火情報ベクトルxLIGHT(高輝度領域面積率、高輝度領域集中度、高輝度領域点数・・・)を用いて、オフロードである確率p(C|xLIGHT)を次式によって計算する(S103)。例えば、高輝度領域の面積率が所定の閾値以上であればオンロードである可能性が高く、高輝度領域の集中度が高い場合は後続車などによるライト直射でありオンロードである可能性が高い、高輝度領域点数が多い場合は街灯や周囲の建物の灯りらしくオンロードである可能性が高い、といった観点によってスコアを求めることができる。
Figure JPOXMLDOC01-appb-M000003
 S101において走行路判別が不可能であると判定された場合、上記のp(C|xLANE)及びp(C|xLIGHT)の計算も不正確となるため、これらのスコアに規定値を設定する(S104)。例えば、p(C|xLANE)及びp(C|xLIGHT)をゼロに設定し、オンロードであると仮定したうえで後述する処理(S105)に移行する。
 その後、走行路判別部203は、ステップS101及びS102で計算された確率の重み付け和を計算することによって、オフロードスコア即値p(C|x)を求める(S105)。ここで、αは路面情報の重み、βは灯火情報の重みである。
Figure JPOXMLDOC01-appb-M000004
 そして、複数のフレームのオフロードスコアを所定数(一定時間)蓄積し、その平均値又は中央値を求めることによってオフロードスコアの時系列代表値を算出する(S106)。その後、求めたオフロードスコアの時系列代表値が所定の閾値を超えているか否かを判定する(S107)。時系列代表値が閾値を超えていれば、走行路はオフロードであると判定する(S108)。一方、オフロードスコアが所定の閾値以下であれば、走行路はオンロードであると判定する(S109)。
 なお、路面情報を用いたオフロード確率、街灯情報を用いたオフロード確率の順に計算したが、この順序は図示したものに限らない。また、路面情報を用いたオフロード確率及び街灯情報を用いたオフロード確率を別に計算した後に、重み付け和を計算することによってオフロードスコアを求めたが、路面情報及び街灯情報を総合的に用いて現フレームのオフロードスコアを求めてもよい。
 また、前述したように各路面情報の確率を用いる方法の他に、決定木を用いたルールによってオフロードかオンロードかを判定してもよい。
 以上に説明したように、本発明の第1の実施例によると、画像中の灯火を解析する街灯解析部と、画像から路面の特徴を解析する路面解析部とを有するので、空間中及び路面上の二つの特徴を用いて、オンロードであるかオフロードであるかを的確に判定することができる。また、路面解析部で用いる路面情報は、悪天候や暗夜においても明瞭さを大きく失うことのない特徴(実線レーン、周期レーン、路外安定性、路面ペイントなど)であるため、天候や時間帯などによる大きな影響を受けることなく、好適な走行路判定が可能となる。すなわち、走行路状態の誤判定や不判定を大きく低減することができる。
 また、レンズ状態に基づいて走行路判別を行うか否かを決定するため、レンズが極めて汚れた状態で無理に判定を行うことを避けることができる。すなわち、レンズ汚れに起因する誤判定や不判定を大きく低減することができる。また、オンロードであるかオフロードであるかの判定結果を用いて、レンズの汚れやすさを的確に判定することができる。例えば、レンズへの付着物のうち水滴と泥水との判別は困難であるため、オンロードであるかオフロードであるかの判定結果を用いて、レンズの付着物の種類を推定することができる。
 <実施例2>
 次に、本発明の第2実施例について説明する。
 図5は、本発明の第2の実施例の外界認識システム1の構成を示すブロック図である。
 第2の実施例の外界認識システム1は、前述した第1の実施例の外界認識システム1と異なり、オフロードかオンロードかの判定に、車載センサからの情報を併用する点が異なる。このため、第2の実施例の外界認識システム1は、車両挙動解析部205を有する。なお、第2の実施例では、前述した第1の実施例と同じ構成及び処理には同じ符号を付し、それらの説明は省略する。
 第2の実施例の外界認識システム1が搭載される車両には、複数の車載センサ(例えば、車速センサ、操舵角センサ、加速度センサ、ヨーレートセンサ、車輪速センサなど)が搭載される。このため、外界認識システム1は、様々な車載センサから出力される情報を利用することができる。例えば、車載センサ情報として、車速センサから出力される車速、操舵角センサから出力される操舵角、加速度センサから出力される横加速度及び前後加速度、ヨーレートセンサから出力されるヨーレート、車輪速センサから出力される車輪速などを利用することができる。さらに、車載センサ情報として、アンチロックブレーキングシステム(ABS)、トラクションコントロールシステム(TCS)、ビークルダイナミクスコントロール(VDC)などの各種制御システムの動作情報を利用することができる。また、前述したような、一般的に車両に搭載されるセンサから得られる情報の他に、車の沈み込みを測定する車高センサ、縦方向の揺れを測定する加速度センサを用いてピッチング量を取得し、これらの車載センサ情報を利用してもよい。さらに、前述した以外のセンサからの情報を利用してもよい。
 車両挙動解析部205は、プロセッサ101が、所定のプログラムを実行することによって実装される。車両挙動解析部205は、車載センサから出力される情報を解析して、車両の挙動を示す車両挙動情報を走行路判別部203に出力する。
 ここで、車両挙動解析部205は路面解析部202に車両挙動情報を出力し、路面解析部202は車両挙動解析部205に路面情報を出力する。例えば、路面解析部202が出力する実線レーン情報及び周期レーン情報と、車両挙動解析部205が出力する舵角情報との両方を用いることによって、レーンチェンジを高精度に検出することができる。さらに、路面解析部202は、車両挙動解析部205から取得した車速に基づいて、周期レーン特徴抽出部2022が抽出した特徴量(周期性)が妥当であるかを判定することができる。このように、双方の情報を共有することにより、オンロードと判定できる情報の精度を高めることができ、好適に走行路を判別することができる。
 走行路判別部203は、街灯解析部201が解析した灯火情報と、路面解析部202が解析した路面情報と、車両挙動解析部205が解析した車両挙動情報と、レンズ診断部204が診断したレンズ状態とに基づいて、走行路の状態がオンロードであるかオフロードであるかを判別する。すなわち、走行路判別部203は、灯火情報、路面情報及び車両挙動情報を時系列に解析することによって、走行路がオンロードであるか、オフロードであるかを判別する。走行路判別部203における処理の詳細は、図6を用いて後述する。
 図6は、第2の実施例の走行路判別部203が実行する処理のフローチャートである。
 第2の実施例の走行路判別部203は、灯火情報及び路面情報に加え、車両挙動解析部205が解析した車両挙動情報に基づいて、走行路の状態を判定する。このため、ステップS110が追加される。
 走行路判別部203は、ステップS103において、灯火情報を用いてオフロードである確率を計算した後、車両挙動情報を用いて、オフロードである確率を計算する(S110)。
 例えば、車速が極めて高い(例えば、100km/hを超える)場合、高速道路を走行していることが推定され、オンロード(舗装路)である可能性が高い。また、走行中に大きな舵角が継続して検出される場合、すなわち旋回半径が小さい場合、交差点を曲がっている、又は駐車場のような場内を周回していると推定され、オンロードである可能性が高い。また、車速のばらつき及び/又は舵角のばらつきが大きい場合、オフロードである可能性が高い。さらに、車輪速のばらつきが大きい場合、各車輪のグリップが異なっていることが推定され、オフロードである可能性が高い。また、横加速度が大きい場合、横揺れが大きいので、オフロード(未舗装路)である可能性が高い。また、大きな前後加速度が検出される場合、頻繁に加速・減速が行われているので、オフロード(未舗装路)である可能性が高い。また、ABS、TCS、VDCが頻繁に作動している場合、路面のグリップ(摩擦)が低いと推定され、オフロード(未舗装路)である可能性が高い。さらに、大きなピッチングが検出される場合、縦揺れが大きいので、オフロード(未舗装路)である可能性が高い。これらの知識を確率モデルで記述するために、車両情報ベクトルをxVEHICLEで表し、オフロードである確率p(C|xVEHICLE)を次式によって計算する(S110)。
Figure JPOXMLDOC01-appb-M000005
 その後、走行路判別部203は、ステップS102、S103、S110で計算された確率の重み付け和を計算することによって、オフロードスコア即値p(C|x)を求める(S105)。ここで、αは路面情報の重み、βは灯火情報の重み、γは車両挙動情報の重みである。
Figure JPOXMLDOC01-appb-M000006
 その後の判定方法は、前述した第1の実施例と同じであるため、説明は省略する。
 なお、路面情報を用いたオフロード確率、街灯情報を用いたオフロード確率、車両挙動情報を用いたオフロード確率の順に計算したが、この順序は図示したものに限らない。また、路面情報を用いたオフロード確率、街灯情報を用いたオフロード確率及び車両挙動情報を用いたオフロード確率を別に計算した後に、重み付け和を計算することによってオフロードスコアを求めたが、路面情報、街灯情報及び車両挙動情報を総合的に用いてオフロードスコア即値を求めてもよい。
 例えば、路面情報、街灯情報、車両挙動情報の中には確率モデルの記述に適した曖昧な情報(単独の情報だけでは走行路を断定できず組み合わせで効力を発揮する情報)と、確率モデルの記述に適さない情報(単独の情報だけで走行路を断定できる決定的な情報)とがある。このため、路面情報、街灯情報、車両挙動情報のうち、確率モデルの記述に適した部分的な情報を選別して路面・街灯・車両挙動情報ベクトルを構成し、前述した方法と同様にオフロードスコア即値を求めてもよい。その後、走行路を断定できる情報を用いてオフロードスコア即値を強制的に書き換えてもよい。例えば、車速が120km/h以上であればオンロードと断定する、TCS/VDCが作動すればオフロードと断定する、などの処理を追加することによって、より好適に走行路を判別することができる。
 以上に説明したように、本発明の第2の実施例によると、車載センサの情報を用いるため、画像情報だけでは判別困難な暗闇や悪天候などの環境やレンズが汚れた状態において、オンロード/オフロードの判定性能をさらに向上させることができる。また、車載センサから得られる判別性能が高い特徴を用いることで、走行路がオンロードなのかオフロードなのかを断定できるケースを増やすことができる。すなわち、走行路状態が正しく判定される率を高めることができる。
 <実施例3>
 次に、本発明の第3実施例について説明する。
 図7は、前述した第1又は第2の実施例の外界認識システム1を搭載した車両の情報系の構成を示すブロック図である。
 第3の実施例の外界認識システム1は、前述した第1及び第2の実施例の外界認識システム1と、制御部206及び物体検出部207を有する点が異なる。なお、第3の実施例では、前述した第1又は第2の実施例と同じ構成及び処理には同じ符号を付し、それらの説明は省略する。
 入出力インターフェース103には、カメラ301、車載センサ302、及びカーナビゲーションシステム303が接続される。カメラ301は、画角が広い広角カメラ又は画角が狭く遠方まで撮像できる狭角カメラであり、車両の前方又は後方に取り付けられ、車外の画像を外界認識システム1に提供する。車載センサ302は、車速センサ、操舵角センサ、加速度センサ、ヨーレートセンサ、車輪速センサなどであり、車両の挙動の情報を外界認識システム1に提供する。なお、車載センサ302は、ABS、TCS、VDCなどの各種制御システムを含んでもよい。カーナビゲーションシステム303は、自車両の位置と目的地までの経路案内を行うシステムであり、道路種別及び道路幅員などの道路情報を外界認識システム1に提供する。
 また、入出力インターフェース103には、スピーカ311、ディスプレイ312、ランプ(LED)313及び汚れ除去装置314が接続される。
 スピーカ311、ディスプレイ312、ランプ313及び汚れ除去装置314は、外界認識システム1の制御対象となる装置であり、制御部206によって、その動作が制御される。
 スピーカ311は、電気信号を音に変換する装置である。ディスプレイ312は、所定のメッセージを表示する表示装置で、例えば、液晶表示パネル(LCD)によって構成される。ランプ313は、発光ダイオードなどの発光素子である。これらのスピーカ311、ディスプレイ312、ランプ313は、汚れの量が所定の閾値を超えたことを運転者又は同乗者に報知する報知装置である。
 なお、スピーカ311、ディスプレイ312及びランプ313は、物体検出部207が検出した衝突物体に関する警告を報知する報知装置としても機能する。
 汚れ除去装置314は、カメラ301のレンズ汚れを除去する装置であり、ワイパー、ウォッシャ、空気噴射装置などである。
 制御部206及び物体検出部207は、プロセッサ101が、所定のプログラムを実行することによって実装される。制御部206は、制御対象(汚れ除去装置、物体認識部、報知装置)などを制御する。例えば、レンズの付着物の種別及び付着量を求め、汚れの量が所定の閾値を超えた場合、汚れ除去装置(レンズ汚れを除去するワイパー、ウォッシャ、空気噴射装置など)を動作させる。物体検出部207は、入力された画像に含まれる、車両の走行に影響する可能性がある物体(車両、二輪車、歩行者など)を抽出する。これによって、自車両と衝突の可能性が高い物体が検出された場合に警告を報知する衝突警告システムを実現することができる。
 走行路判別部203は、カーナビゲーションシステム303から取得した道路の種別に基づいて、走行路がオンロードであるかオフロードであるかを判定してもよい。例えば、現在走行中の道路の種別が高速道路又は一般道路であれば、オンロードであると断定することができる。
 物体検出部207は、走行路判別部203が、オフロード走行中であると判定した場合、衝突物体が存在する可能性が低いので、物体検出に用いる判定閾値を高くしてもよい。
 以上に説明したように、本発明の第3の実施例によると、オンロード/オフロードの判定結果に基づいて、的確に衝突物体を検出し、誤検出を抑制することができる。また、オンロード/オフロードの判定結果に基づいて汚れを好適に判別し、汚れ除去を的確に行うことができる。また、カーナビゲーションから得られた道路情報を用いることによって、高い確度で走行路を判定することができる。
 なお、本発明は前述した実施例に限定されるものではなく、添付した特許請求の範囲の趣旨内における様々な変形例及び同等の構成が含まれる。例えば、前述した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに本発明は限定されない。また、ある実施例の構成の一部を他の実施例の構成に置き換えてもよい。また、ある実施例の構成に他の実施例の構成を加えてもよい。また、各実施例の構成の一部について、他の構成の追加・削除・置換をしてもよい。
 また、前述した各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等により、ハードウェアで実現してもよく、プロセッサがそれぞれの機能を実現するプログラムを解釈し実行することにより、ソフトウェアで実現してもよい。
 各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリ、ハードディスク、SSD(Solid State Drive)等の記憶装置、又は、ICカード、SDカード、DVD等の記録媒体に格納することができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、実装上必要な全ての制御線や情報線を示しているとは限らない。実際には、ほとんど全ての構成が相互に接続されていると考えてよい。

Claims (12)

  1.  車両が走行する走行路の状態を認識する状態認識システムであって、
     車両に搭載された車載カメラによって撮影された画像を解析する解析部と、
     前記解析部が解析した結果に基づいて走行路の状態を判定する走行路判別部と、
     前記画像から前記車載カメラのレンズの付着物を抽出し、前記抽出された付着物の種別及び量を判定し、前記判定の結果に基づいて前記レンズの状態を診断するレンズ診断部と、を備えることを特徴とする状態認識システム。
  2.  請求項1に記載の状態認識システムであって、
     前記走行路判別部は、前記画像及び前記レンズ診断部で診断された前記レンズの状態に基づいて走行路の状態を判定することを特徴とする状態認識システム。
  3.  請求項1に記載の状態認識システムであって、
     前記車両は、前記車両の走行状態を検出するセンサを有し、
     前記状態認識システムは、前記センサから出力される情報に基づいて前記車両の挙動を解析する挙動解析部をさらに備え、
     前記走行路判別部は、前記画像及び前記挙動解析部によって解析された前記車両の挙動に基づいて走行路の状態を判定することを特徴とする状態認識システム。
  4.  請求項1に記載の状態認識システムであって、
     前記解析部は、前記画像中の灯火を解析する第1の解析部と、前記画像から路面の特徴を解析する第2の解析部とを有し、
     前記走行路判別部は、前記第1の解析部によって解析された灯火の情報及び前記第2の解析部によって解析された路面の特徴に基づいて走行路の状態を判定することを特徴とする状態認識システム。
  5.  請求項1に記載の状態認識システムであって、
     前記状態認識システムは、前記車両が走行中の道路の情報を出力するナビゲーションシステムに接続されており、
     前記走行路判別部は、前記画像及び前記ナビゲーションシステムから取得した道路の情報に基づいて走行路の状態を判定することを特徴とする状態認識システム。
  6.  請求項1に記載の状態認識システムであって、
     前記レンズ診断部は、前記走行路判別部が判定した前記走行路の状態に基づいて、前記付着物が水であるか泥であるかを判定することを特徴とする状態認識システム。
  7.  車両が走行路の状態を車載システムが認識するための状態認識方法であって、
     前記車載システムは、プログラムを実行することによって所定の処理を行うプロセッサと、前記プログラムを格納するメモリとを有し、
     前記方法は、
     前記プロセッサが、車両に搭載された車載カメラによって撮影された画像を解析する解析ステップと、
     前記プロセッサが、前記解析ステップにおける解析結果に基づいて走行路の状態を判定する走行路判別ステップと、
     前記プロセッサが、前記画像から前記車載カメラのレンズの付着物を抽出し、前記抽出された付着物の種別及び量を判定し、前記判定の結果に基づいて前記レンズの状態を診断するレンズ診断ステップを含むことを特徴とする状態認識方法。
  8.  請求項7に記載の状態認識方法であって、
     前記走行路判別ステップでは、前記プロセッサは、前記画像及び前記レンズ診断ステップにおいて診断された前記レンズの状態に基づいて走行路の状態を判定することを特徴とする状態認識方法。
  9.  請求項7に記載の状態認識方法であって、
     前記車両は、前記車両の走行状態を検出するセンサを有し、
     前記方法は、前記プロセッサが、前記センサから出力される情報に基づいて前記車両の挙動を解析する挙動解析ステップをさらに含み、
     前記走行路判別ステップでは、前記プロセッサは、前記画像及び前記挙動解析ステップにおいて解析された前記車両の挙動に基づいて走行路の状態を判定することを特徴とする状態認識方法。
  10.  請求項7に記載の状態認識方法であって、
     前記解析ステップは、前記画像中の灯火を解析する第1の解析ステップと、前記画像から路面の特徴を解析する第2の解析ステップとを含み、
     前記走行路判別ステップでは、前記プロセッサは、前記第1の解析ステップにおいて解析された灯火の情報及び前記第2の解析ステップにおいて解析された路面の特徴に基づいて走行路の状態を判定することを特徴とする状態認識方法。
  11.  請求項7に記載の状態認識方法であって、
     前記車載システムは、前記車両が走行中の道路の情報を出力するナビゲーションシステムに接続されており、
     前記走行路判別ステップでは、前記プロセッサは、前記画像及び前記ナビゲーションシステムから取得した道路の情報に基づいて走行路の状態を判定することを特徴とする状態認識方法。
  12.  請求項7に記載の状態認識方法であって、
     前記レンズ診断ステップでは、前記走行路判別ステップで判定した前記走行路の状態に基づいて、前記付着物が水であるか泥であるかを判定することを特徴とする状態認識方法。
PCT/JP2013/068241 2012-07-03 2013-07-03 状態認識システム及び状態認識方法 WO2014007286A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/412,385 US9542605B2 (en) 2012-07-03 2013-07-03 State recognition system and state recognition method
JP2014523764A JP6133861B2 (ja) 2012-07-03 2013-07-03 状態認識システム及び状態認識方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2012-149322 2012-07-03
JP2012149322 2012-07-03

Publications (1)

Publication Number Publication Date
WO2014007286A1 true WO2014007286A1 (ja) 2014-01-09

Family

ID=49882038

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/068241 WO2014007286A1 (ja) 2012-07-03 2013-07-03 状態認識システム及び状態認識方法

Country Status (3)

Country Link
US (1) US9542605B2 (ja)
JP (1) JP6133861B2 (ja)
WO (1) WO2014007286A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008566A1 (ja) * 2013-07-18 2015-01-22 クラリオン株式会社 車載装置
JP2018195118A (ja) * 2017-05-18 2018-12-06 日本電信電話株式会社 路面データ収集装置、方法、及びプログラム
WO2019124014A1 (ja) * 2017-12-18 2019-06-27 株式会社オートネットワーク技術研究所 車載撮像装置、洗浄方法及びコンピュータプログラム
US10518751B2 (en) 2017-09-18 2019-12-31 Ford Global Technologies, Llc Vehicle image sensor cleaning
CN110705527A (zh) * 2019-11-25 2020-01-17 甘肃建投重工科技有限公司 一种基于机器视觉自动识别的洗扫车路面高压预清洗装置
CN111223320A (zh) * 2020-02-18 2020-06-02 上汽大众汽车有限公司 基于v2i的低附路面智能驾驶安全控制方法

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9566963B2 (en) * 2015-06-25 2017-02-14 Robert Bosch Gmbh Method of decreasing braking distance
JP6611353B2 (ja) * 2016-08-01 2019-11-27 クラリオン株式会社 画像処理装置、外界認識装置
US10771665B1 (en) * 2019-02-27 2020-09-08 Ford Global Technologies, Llc Determination of illuminator obstruction by known optical properties
GB2584611B (en) * 2019-05-09 2021-10-27 Jaguar Land Rover Ltd Apparatus and method for use with a vehicle
KR102203475B1 (ko) * 2019-08-20 2021-01-18 엘지전자 주식회사 자율 주행 시스템에서 차량을 제어하기 위한 방법 및 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
JP2006315489A (ja) * 2005-05-11 2006-11-24 Toyota Motor Corp 車両周囲警報装置
JP2010146284A (ja) * 2008-12-18 2010-07-01 Mazda Motor Corp 車両用対象物検出装置及び車両用運転支援システム

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7103208B2 (en) * 2002-08-26 2006-09-05 Eastman Kodak Company Detecting and classifying blemishes on the transmissive surface of an image sensor package
JP2007071539A (ja) 2005-09-02 2007-03-22 Denso Corp 車載ナビゲーション装置
JP5022609B2 (ja) * 2006-02-27 2012-09-12 日立オートモティブシステムズ株式会社 撮像環境認識装置
JP2008258982A (ja) * 2007-04-05 2008-10-23 Canon Inc 画像処理装置及びその制御方法及びプログラム
JP4991384B2 (ja) 2007-05-08 2012-08-01 株式会社日立製作所 接近物検知装置及び接近物検知プログラム
JP2009002797A (ja) * 2007-06-21 2009-01-08 Aisin Aw Co Ltd 車両状態判定装置
JP5075152B2 (ja) * 2009-03-24 2012-11-14 日立オートモティブシステムズ株式会社 車両制御装置
JP5457224B2 (ja) 2010-02-24 2014-04-02 国立大学法人九州工業大学 路面状態検出装置
JP5704416B2 (ja) * 2011-11-01 2015-04-22 アイシン精機株式会社 障害物警報装置
JP6117634B2 (ja) * 2012-07-03 2017-04-19 クラリオン株式会社 レンズ付着物検知装置、レンズ付着物検知方法、および、車両システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003255430A (ja) * 2002-02-28 2003-09-10 Toshiba Corp 映像診断装置、車載型映像監視装置の映像診断システム
JP2006315489A (ja) * 2005-05-11 2006-11-24 Toyota Motor Corp 車両周囲警報装置
JP2010146284A (ja) * 2008-12-18 2010-07-01 Mazda Motor Corp 車両用対象物検出装置及び車両用運転支援システム

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015008566A1 (ja) * 2013-07-18 2015-01-22 クラリオン株式会社 車載装置
US10095934B2 (en) 2013-07-18 2018-10-09 Clarion Co., Ltd. In-vehicle device
JP2018195118A (ja) * 2017-05-18 2018-12-06 日本電信電話株式会社 路面データ収集装置、方法、及びプログラム
US10518751B2 (en) 2017-09-18 2019-12-31 Ford Global Technologies, Llc Vehicle image sensor cleaning
WO2019124014A1 (ja) * 2017-12-18 2019-06-27 株式会社オートネットワーク技術研究所 車載撮像装置、洗浄方法及びコンピュータプログラム
CN110705527A (zh) * 2019-11-25 2020-01-17 甘肃建投重工科技有限公司 一种基于机器视觉自动识别的洗扫车路面高压预清洗装置
CN110705527B (zh) * 2019-11-25 2023-03-03 甘肃建投重工科技有限公司 一种基于机器视觉自动识别的洗扫车路面高压预清洗装置
CN111223320A (zh) * 2020-02-18 2020-06-02 上汽大众汽车有限公司 基于v2i的低附路面智能驾驶安全控制方法

Also Published As

Publication number Publication date
US9542605B2 (en) 2017-01-10
US20150169967A1 (en) 2015-06-18
JP6133861B2 (ja) 2017-05-31
JPWO2014007286A1 (ja) 2016-06-02

Similar Documents

Publication Publication Date Title
JP6133861B2 (ja) 状態認識システム及び状態認識方法
US11390276B2 (en) Control device, control method, and non-transitory storage medium
JP7291129B2 (ja) 路面状態と天候に基づく環境影響を認識し評価する方法及び装置
JP7499256B2 (ja) ドライバの挙動を分類するためのシステムおよび方法
US11688174B2 (en) System and method for determining vehicle data set familiarity
US9218535B2 (en) Arrangement and method for recognizing road signs
EP2549457B1 (en) Vehicle-mounting vehicle-surroundings recognition apparatus and vehicle-mounting vehicle-surroundings recognition system
JP5981322B2 (ja) 車載画像処理装置
WO2014007175A1 (ja) 車載環境認識装置
WO2014017403A1 (ja) 車載用画像認識装置
JP2015095886A (ja) 周囲環境認識装置
US9965690B2 (en) On-vehicle control device
US20110074955A1 (en) Method and system for weather condition detection with image-based road characterization
CN104507765A (zh) 摄像机装置、三维物体检测装置以及镜头清洗方法
US10839263B2 (en) System and method for evaluating a trained vehicle data set familiarity of a driver assitance system
US20140347487A1 (en) Method and camera assembly for detecting raindrops on a windscreen of a vehicle
JP4940177B2 (ja) 交通流計測装置
Kuo et al. Vision-based vehicle detection in the nighttime
JPWO2019174682A5 (ja)
US20190057272A1 (en) Method of detecting a snow covered road surface
CN114255452A (zh) 目标测距方法及装置
Yang An enhanced three-frame-differencing approach for vehicle detection under challenging environmental conditions
Guan et al. Development of advanced driver assist systems using smart phones
CN117409600A (zh) 基于关键点姿态检测的紧急停车带占用预警方法
Persson Rukin Active safety sensor verification-Development of image analysis support tool

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13812985

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2014523764

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 14412385

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 13812985

Country of ref document: EP

Kind code of ref document: A1