WO2023047666A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2023047666A1
WO2023047666A1 PCT/JP2022/014837 JP2022014837W WO2023047666A1 WO 2023047666 A1 WO2023047666 A1 WO 2023047666A1 JP 2022014837 W JP2022014837 W JP 2022014837W WO 2023047666 A1 WO2023047666 A1 WO 2023047666A1
Authority
WO
WIPO (PCT)
Prior art keywords
parking space
parking
unit
cluster
correction
Prior art date
Application number
PCT/JP2022/014837
Other languages
English (en)
French (fr)
Inventor
一浩 黒田
賢治 橋本
Original Assignee
ソニーセミコンダクタソリューションズ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーセミコンダクタソリューションズ株式会社 filed Critical ソニーセミコンダクタソリューションズ株式会社
Publication of WO2023047666A1 publication Critical patent/WO2023047666A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present disclosure relates to an information processing device, an information processing method, and a program. More specifically, the present invention relates to an information processing apparatus, an information processing method, and a program that perform a process of highly accurately analyzing a parking space of a parking lot based on sensor detection data such as an image captured by a camera mounted on a vehicle.
  • parking lots in various areas such as shopping centers, amusement parks, and tourist spots are often capable of parking a large number of vehicles.
  • a user who is a driver of a vehicle searches for an available parking space in the parking lot and parks the vehicle. In this case, the user runs the vehicle in the parking lot and visually checks the surroundings to search for an empty space.
  • manual driving vehicles In addition to self-driving vehicles, manual driving vehicles also display an image showing the parking space obtained by analyzing the image of the parking lot captured by the vehicle's camera on the display unit of the vehicle and notify the driver.
  • a configuration for processing has also been proposed.
  • the parking lot detected using the image captured by the vehicle's camera is not accurate enough, and incorrect parking lot information may be output to the automatic driving control unit and display unit.
  • the automatic driving control unit If an erroneous parking section obtained by analyzing camera-captured images is output to the automatic driving control unit, the automatic driving control unit performs automatic parking processing based on the erroneous parking section. A situation occurs in which the vehicle is parked diagonally against the vehicle. There is also the possibility of causing an accident such as contact with an adjacent parked vehicle.
  • the driver will perform parking processing based on the incorrect parking space information displayed on the display unit.
  • the driver may perform an erroneous driving operation based on the display data different from the actual parking space, which may make correct parking difficult, such as contact with an adjacent parked vehicle.
  • Patent Document 1 Japanese Unexamined Patent Application Publication No. 2017-052471 discloses a process of correcting parking space information obtained by analyzing camera-captured images. This patent document 1 discloses a configuration for selecting one target parking space from a plurality of parking spaces in a parking lot and correcting this one target parking space based on surrounding parking space data.
  • the configuration described in this patent document 1 is for performing section correction only for one target parking section selected from a plurality of parking sections in the parking lot, and performs processing for collectively correcting a large number of parking sections. It cannot be used when the target parking position is undetermined.
  • there are various problems such as the inability to perform processing for accurately displaying a plurality of parking spaces on the display unit.
  • the present disclosure has been made in view of the above problems, for example, and includes an information processing device and an information processing method that input detection information from a sensor such as a vehicle camera and analyze a parking space in a parking lot with high accuracy. and to provide programs.
  • a first aspect of the present disclosure includes: a parking space detection unit that performs parking space detection based on detection information from the sensor and generates a parking space detection result; a parking space correction unit that executes correction processing of the parking space detection result generated by the parking space detection unit;
  • the parking section correction unit a clustering process for determining a plurality of parking spaces that are estimated to be arranged according to a unique arrangement rule from the parking space detection result as a cluster that is one parking space group; a smoothing process that equalizes at least one of the shape and arrangement of a plurality of parking spaces included in one cluster; and correcting the parking space included in the parking space detection result.
  • a second aspect of the present disclosure is An information processing method executed in an information processing device, a parking space detection step in which the parking space detection unit performs parking space detection based on the detection information of the sensor and generates a parking space detection result;
  • the parking space correction unit has a parking space correction step of performing correction processing of the parking space detection result generated by the parking space detection unit,
  • the parking space correction unit in the parking space correction step, a clustering process for determining a plurality of parking spaces that are estimated to be arranged according to a unique arrangement rule from the parking space detection result as a cluster that is one parking space group; a smoothing process that equalizes at least one of the shape and arrangement of a plurality of parking spaces included in one cluster; and correcting the parking space included in the parking space detection result.
  • a third aspect of the present disclosure is A program for executing information processing in an information processing device, a parking space detection step of causing the parking space detection unit to perform parking space detection based on the detection information of the sensor and generate a parking space detection result; cause the parking space correction unit to execute a parking space correction step for executing correction processing of the parking space detection result generated by the parking space detection unit;
  • the program in the parking space correction step, a clustering process for determining a plurality of parking spaces that are estimated to be arranged according to a unique arrangement rule from the parking space detection result as a cluster that is one parking space group; a smoothing process that equalizes at least one of the shape and arrangement of a plurality of parking spaces included in one cluster; and correcting the parking spaces included in the parking space detection result.
  • the program of the present disclosure can be provided, for example, in a computer-readable format to an information processing device, an image processing device, or a computer system capable of executing various program codes via a storage medium or a communication medium. It's a program. By providing such a program in a computer-readable format, processing according to the program is realized on the information processing device or computer system.
  • a system is a logical collective configuration of a plurality of devices, and the devices of each configuration are not limited to being in the same housing.
  • an apparatus and method for correcting a parking space detected based on a camera-captured image and generating parking space correction data with reduced error are realized.
  • it has a parking space correction unit that performs correction processing of the parking space detection result generated by executing the parking space detection process based on the image captured by the camera.
  • the parking space correction unit determines a plurality of parking spaces estimated to be arranged according to a unique arrangement rule from the parking space detection result as one cluster, and determines the shape and arrangement of the plurality of parking spaces in one cluster.
  • Parking section correction processing is executed by executing smoothing processing for equalizing at least one of the above.
  • the width (W), the depth (L), and the length and direction of the parking space interval (S) of each of the plurality of parking spaces in the cluster are made uniform.
  • This configuration realizes an apparatus and method for correcting a parking space detected based on a camera-captured image and generating parking space correction data with reduced errors. Note that the effects described in this specification are merely examples and are not limited, and additional effects may be provided.
  • FIG. 5 is a diagram for explaining problems in an example of parking space detection processing using sensor detection information such as a camera-captured image
  • FIG. 5 is a diagram for explaining problems in an example of parking space detection processing using sensor detection information such as a camera-captured image
  • FIG. 5 is a diagram for explaining problems in an example of parking space detection processing using sensor detection information such as a camera-captured image
  • FIG. 5 is a diagram for explaining problems in an example of parking space detection processing using sensor detection information such as a camera-captured image
  • FIG. 7 is a diagram illustrating a specific example of parking processing when automatic parking processing is performed by the processing of the information processing device of the present disclosure; It is a figure explaining the specific example of the process which the parking space detection part of the information processing apparatus of this indication, a parking space correction
  • FIG. 1 shows an example of a parking lot 30 in various areas such as shopping centers, amusement parks, tourist spots, and the like.
  • This parking lot 30 has a plurality of parking spaces, and has a configuration in which a vehicle can be parked in each parking space.
  • the user who is the driver of the vehicle 10 often visually searches for an available parking space in the parking lot 30 and parks the vehicle. In this case, the user runs the vehicle in the parking lot and visually checks the surroundings to search for an empty space.
  • a method for solving such a problem there is a method of detecting a parking space using detection information from a sensor 20 such as a camera attached to the vehicle 10.
  • self-driving vehicles which are being developed, detect a parking space using information detected by a sensor such as a camera attached to the vehicle, and automatically park in a vacant parking space.
  • a sensor such as a camera attached to the vehicle
  • the image of the parking lot captured by the vehicle's camera is analyzed, the parking lot in the parking lot is determined, and the parking space information is displayed on the vehicle's display unit to provide the driver with parking space information.
  • a vehicle 10 shown in FIG. 1 is equipped with a sensor 20 such as a camera.
  • the sensor 20 is configured by, for example, a camera that captures an image in front of the vehicle 10, a distance sensor, or the like.
  • the information detected by the sensor 20 of the vehicle 10 for example, the parking lot detected by analyzing the image captured by the camera, has low accuracy, and there are cases where incorrect parking lot information is output to the automatic driving control unit and the display unit. be.
  • the automatic driving control unit will perform automatic parking processing based on the erroneous parking space information. There is a possibility of causing an accident such as contact with a parked vehicle.
  • the driver will perform parking processing based on the incorrect parking space information displayed on the display unit.
  • the driver may perform an erroneous driving operation based on the display data different from the actual parking space, which may make correct parking processing difficult, such as contact with an adjacent parked vehicle.
  • the vehicle 10 captures an image of a parking lot 30 with a sensor 20 such as a camera, analyzes the image with an information processing device inside the vehicle 10, and detects white lines and the like included in the image. Based on the information, a parking space is determined. For example, if correct image analysis is performed, parking lots P01-P04 as shown in FIG. 2 will be detected.
  • the sensor 20 such as a camera mounted on the vehicle 10 cannot capture an image of the parking lot 30 from above.
  • an image of the parking lot 30 obliquely forward is photographed and analyzed. That is, analysis processing is performed using a photographed image as shown in FIG.
  • FIG. 3(a) In the photographed image shown in FIG. 3(a), there is a portion where the white line indicating the parking space is shaded by the parked vehicle, and in such a case, it is difficult to accurately analyze the parking space.
  • the information processing device in the vehicle 10 that is, the parking space analysis unit 51 shown in FIG. 3, may generate a parking space analysis result containing many errors as shown in FIG. be.
  • the parking section analysis unit 51 shown in FIG. 3 converts a photographed image as shown in FIG. A feature point indicating a white line or the like is extracted, and a parking space is determined based on the extracted feature point. As a result, there is a possibility of generating a parking space analysis result containing many errors as shown in FIG. 3(b).
  • a low-precision parking space analysis result is generated, and if this analysis result is output to, for example, the automatic driving control unit, the automatic driving control unit makes an error based on the erroneous parking space analysis result. There is a possibility that automatic parking processing will be performed.
  • FIG. 4 is a diagram illustrating a specific example of erroneous automatic parking processing by the automatic driving control unit.
  • the parking space analysis unit 51 shown in FIG. 4 outputs a parking space analysis result including an error as shown in FIG.
  • the automatic driving control unit performs automatic parking processing according to the parking section analysis result including this error.
  • the automatic driving control unit 52 first determines a travel route for automatic parking as shown in FIG. 4(c1). Next, as shown in (c2), the vehicle 10 is caused to travel along the determined automatic parking route to perform automatic parking processing. As shown in FIG. 4(c2), the vehicle 10 is parked so as to fit in the wrong parking space analyzed by the parking space analysis unit 51. FIG. FIG. 5 shows the result of this automatic parking process. The vehicle 10 will be parked diagonally in the actual parking space.
  • the present disclosure solves such problems, and makes it possible to input detection information from a sensor such as a vehicle camera and analyze parking spaces in a parking lot with high accuracy. Details of the apparatus and processing of the present disclosure will be described below.
  • FIG. 6 is a diagram illustrating a configuration example of the information processing apparatus of the present disclosure.
  • the information processing apparatus of the present disclosure is installed in an automatically driving vehicle. It should be noted that the information processing device of the present disclosure can be installed not only in an automatic driving vehicle but also in other general vehicles.
  • FIG. 6 is a block diagram showing the configuration of a mobile device (self-driving vehicle) 100 having an information processing device 120 of the present disclosure.
  • a mobile device (automatic driving vehicle) 100 includes a sensor 110 such as a camera, an information processing device 120 of the present disclosure, a drive unit (automatic driving execution unit) 140 and a display unit 150 .
  • the information processing device 120 has a parking section analysis unit 121 , an automatic driving control unit 122 and a display control unit 123 .
  • the parking space analysis unit 121 has a parking space detection unit 131 and a parking space correction unit 132 .
  • a sensor 110 provided in the mobile device (self-driving vehicle) 100 is, for example, a sensor such as a camera, a LiDAR (Light Detection and Ranging), or a ToF (Time of Flight) sensor.
  • LiDAR (Light Detection and Ranging) and ToF sensors are sensors that output light such as laser light, analyze reflected light from objects, and measure the distance to surrounding objects.
  • Information detected by the sensor 110 is input to the parking space detection unit 131 in the parking space analysis unit 121 of the information processing device 120 .
  • the parking space detection unit 131 executes a parking space detection process based on information detected by the sensor 110, such as an image captured by a camera.
  • FIG. 7 shows the following figures.
  • a sensor 110 such as a camera mounted on a mobile device (automatic driving vehicle) 100 captures an image of the parking lot obliquely forward from the entrance of the parking lot rather than from above. That is, the parking space detection unit 131 receives a photographed image as shown in FIG. 7A from the sensor 110 and performs processing for detecting a parking space.
  • the parking section detection unit 131 uses a photographed image as shown in FIG. 7A or converts the photographed image into a bird's-eye view image observed from the sky, and uses the converted bird's-eye view image to detect, for example, the white lines indicating the parking section. etc. are extracted, and the parking space is discriminated based on the extracted feature points.
  • image conversion processing to be executed when detecting a parking space for example, image conversion processing to a bird's-eye view image that converts an image captured by a camera obliquely above into an image viewed from above, coordinate system conversion processing, such as Processing such as coordinate conversion between the base link coordinate system and the world coordinate system also causes errors.
  • the parking space analysis result generated by the parking space detection unit 131 may be a parking space analysis result including an error as shown in FIG. 7B, for example.
  • the parking space detection result including the error is input to the parking space correction unit 132 of the parking space analysis unit 121 .
  • the parking space correction unit 132 executes correction processing of the parking space detection result including the error input from the parking space detection unit 131 .
  • the parking space detection result correction process executed by the parking space correction unit 132 is performed according to the following two processing steps.
  • First step A clustering process for setting a plurality of parking spaces estimated to consist of a regular array as one parking space group (cluster)
  • Second step A plurality of parking space groups (cluster) In-cluster parking lot smoothing process that adjusts the position (arrangement), shape, and/or orientation of parking lots to produce uniform data
  • the right side of FIG. 8 shows an example of the processing of the first step and the processing of the second step executed by the parking section correction unit 132 .
  • the parking section correction unit 132 executes a clustering process of setting a plurality of parking sections that are estimated to be arranged with regularity as one parking section group (cluster).
  • the example shown in FIG. 8 (first step) is an example in which four parking spaces P01 to P04 detected by the parking space detection unit 131 are selected as one cluster.
  • the parking space correction unit 132 adjusts all or at least one of the positions (arrangements), shapes, and orientations of a plurality of parking spaces within one parking space group (cluster).
  • Intra-cluster parking lot smoothing processing is performed to make the data uniform across the clusters.
  • the example shown in FIG. 8 (second step) is obtained as a result of executing the intra-cluster parking lot smoothing process that equalizes all of the positions (arrangements), shapes, and orientations of multiple parking lots in one cluster. Correction results for parking sections P1 to P4 are shown.
  • the correction result of the parking lots P1 to P4 shown in FIG. 8 is that the positions (arrangements), shapes, and directions of the parking lots P1 to P4 in one cluster composed of the parking lots P1 to P4 are all adjusted evenly.
  • the parking space detection unit 131 of the parking space analysis unit 121 first inputs sensor detection information from the sensor 110 such as a camera. For example, at the parking lot entrance, a photographed image of the parking lot photographed obliquely from above is input. This is the photographed image shown in FIG. 9 (s11).
  • the parking section detection unit 131 first converts the photographed image shown in (s11) into a bird's-eye view image shown in FIG. 9 (s12), that is, a bird's-eye view of the parking lot from above.
  • the parking section detection unit 131 performs feature point extraction processing using the converted bird's-eye view image.
  • the black circles shown in FIG. 9 (s13) are feature points.
  • FIG. 9 (s13) shows a simplified example of feature point extraction.
  • the feature point extracting process is executed in units of pixels, and actually many feature points are extracted that are much larger than the number of feature points shown in FIG. 9 (s13).
  • Feature points are extracted from pixels with large luminance changes, such as edge parts in the image. Specifically, for example, feature points are extracted from pixel regions such as the outline of a white line indicating a parking space or the outline of a vehicle.
  • the parking space detection unit 131 analyzes the feature points shown in FIG. 9 (s13) and detects the area indicating the parking space. For example, a rectangular shape that is estimated to correspond to a parking space is extracted, and parking space estimation processing is performed.
  • the example shown in FIG. 9 (s14) is an example in which four parking spaces are detected.
  • the parking space detection unit 131 of the parking space analysis unit 121 receives sensor detection information from the sensor 110 such as a camera, for example, an image captured by a camera, executes bird's-eye conversion of the image, and converts the bird's-eye view image after the conversion into a characteristic feature. Points are extracted and parking spaces are detected based on the extracted feature points.
  • the sensor 110 such as a camera, for example, an image captured by a camera
  • the parking space detection unit 131 of the parking space analysis unit 121 receives sensor detection information from the sensor 110 such as a camera, for example, an image captured by a camera, executes bird's-eye conversion of the image, and converts the bird's-eye view image after the conversion into a characteristic feature. Points are extracted and parking spaces are detected based on the extracted feature points.
  • the parking space detection result generated by the parking space detection unit 131 is often an inaccurate result as shown in FIG. 9 (s14). In other words, parking space detection results containing errors that are different from actual parking space detection results are often output.
  • the white line indicating the parking space may not be visible due to the shadow of the parked vehicle, the white line indicating the parking space may be thin, or This is caused by various factors, such as problems related to the structure of the camera and problems caused by image processing of the captured image, in addition to the problem of broken lane markings.
  • problems related to the camera structure are, for example, lens distortion of the camera, and problems caused by image processing are, for example, bird's-eye view conversion processing and conversion errors that occur in coordinate conversion processing.
  • the parking space analysis result generated by the parking space detection unit 131 often contains many errors, for example, as shown in FIG. 9 (s14).
  • the error-containing parking space detection result generated by the parking space detection unit 131 is input to the parking space correction unit 132 of the parking space analysis unit 121 .
  • the parking space correction unit 132 executes correction processing of the parking space detection result including the error input from the parking space detection unit 131, and generates parking space data with reduced error.
  • the parking space correction unit 132 first calculates the center coordinates, vertex coordinates, size, coordinate difference of each vertex with the adjacent space, etc. of the error-containing parking space detection result input from the parking space detection unit 131 . As shown in FIG. 10 (step S21), the center coordinates, vertex coordinates, size, and coordinate difference of each vertex with respect to adjacent sections are calculated for each of the parking sections P01 to P04. FIG. 10 (S21) shows the center coordinates and vertex coordinates of each of the parking sections P01 to P04.
  • the parking section correction unit 132 classifies a large number of parking sections as shown in FIG. 11(1) into three clusters A to C as shown in FIG. 11(2).
  • Each of the three clusters A to C shown in FIG. 11(2) is a parking space group (cluster) arranged according to individual arrangement rules (cluster-specific arrangement rules).
  • the parking section correction unit 132 executes clustering processing (parking section group division processing) for setting parking sections arranged according to one arrangement rule as one parking section group (cluster).
  • the parking space correction unit 132 performs the parking space correction process on a cluster-by-cluster basis.
  • a specific example of the parking section correction process for each cluster executed by the parking section correction unit 132 will be described with reference to FIG. 12 .
  • the parking section correction unit 132 calculates the width (W), depth (L), and distance (S) of the parking sections P1 to P4 included in one cluster. Calculate the direction and direction.
  • the width (W) and depth (L) of these parking spaces P1 to P4, and the length and direction of the interval (S) between adjacent parking spaces are the parking space P1 calculated in FIG. 10 (step S21) described above.
  • ⁇ P4 can be calculated based on the center coordinates and vertex coordinates.
  • one cluster includes four parking spaces P1 to P4.
  • the parking space correction unit 132 calculates the following data. the length and direction of the width (W1) and depth (L1) of the parking space P01; the length and direction of the width (W2) and depth (L2) of the parking space P02; the length and direction of the width (W3) and depth (L3) of the parking space P03; the length and direction of the width (W4) and depth (L4) of the parking space P04; length and direction of the distance (S12) between the parking space P01 and the parking space P02; the length and direction of the distance (S23) between the parking spaces P02 and P03; the length and direction of the distance (S34) between the parking section P03 and the parking section P04;
  • the width (W), depth (L), and space (S) data of the parking space includes not only length data, but also width (W), depth (L), and space (S) data. Orientation data measured in length is also included. These lengths and directions can be obtained, for example, from the coordinate positions of the endpoints of the width (W), depth (L), and spacing (S) data.
  • the data including the width (W) and depth (L) of each of the parking spaces P0 to P4 and the length and direction of the space (S) between the parking spaces can be expressed as vectors. That is, in FIG. 12 (step S23), the parking section correction unit 132 sets a vector (VW) indicating the width (W) of each parking section, a vector (VL) indicating the depth of each parking section, and a vector (VL) indicating the depth of each parking section. A vector (VS) indicating the spacing is calculated.
  • the parking section correction unit 132 performs smoothing processing of the positions (arrangements), shapes, and orientations of the parking sections included in one cluster as processing in units of clusters. do.
  • the parking section correction unit 132 corrects a plurality of parking sections included in one cluster, that is, the parking section in FIG. 12 ( The length and direction (vector) of the width (W), depth (L), and spacing (S) of the parking lots P1 to P4 shown in S23) are adjusted, and these are data having a uniform length and direction (uniform vector).
  • the width (W), the depth (L), and the interval (S) of the parking lots P1 to P4 are smoothed into uniform data (uniform vector). Execute the conversion process.
  • the parking section correction unit 132 calculates, for example, the following values as smoothed data for each parking section.
  • a plurality of parking spaces (P01 to P04) within the cluster after this correction have the same equalized smoothed parking space width (W01), smoothed parking space depth (L01), and smoothed parking space interval (S01). It consists of data (a common vector) with a length and direction of .
  • Various methods can be applied as a method of smoothing the width (W), depth (L), and parking space interval (S) of the parking spaces P1 to P4.
  • the shape, spacing, and direction of the parking space farther away are matched. may be performed.
  • a calculation process may be performed using linear approximation by the method of least squares, weighted moving average, or the like.
  • the parking lot smoothing process may be performed using the results of machine learning processing based on the parking lot setting data of various parking lots.
  • the parking space correction data generated by the parking space correction unit 132 of the parking space analysis unit 121 is output to the automatic driving control unit 122 and the display control unit 123.
  • the automatic driving control unit 122 receives parking space correction data generated by the parking space correction unit 132 of the parking space analysis unit 121, and determines a driving route for automatic parking processing based on the input parking space correction data. . Further, the driving unit 140 outputs drive information for causing the vehicle to travel according to the determined travel route and to execute automatic parking processing, thereby performing automatic parking.
  • FIG. 13 is a diagram illustrating processing executed by the parking detection unit 131 of the parking analysis unit 121, processing executed by the parking correction unit 132, and processing executed by the automatic driving control unit 122.
  • a parking space detection unit 131 of the parking space analysis unit 121 executes a parking space detection process based on information detected by the sensor 110, for example, an image captured by a camera. That is, as described above with reference to FIG. 9, feature points indicating, for example, white lines indicating parking spaces are extracted from the photographed image, and the parking spaces are detected based on the extracted feature points.
  • a parking space detection result as shown in (1) is generated.
  • the parking space detection result generated by the parking space detection unit 131 is a result including an error different from the substance as shown in FIG. 13(1).
  • the parking space detection result including the error generated by the parking space detection unit 131 that is, the parking space detection result shown in FIG.
  • the parking space correction unit 132 executes correction processing of the parking space detection result including the error input from the parking space detection unit 131, and generates parking space data with reduced error.
  • the parking space correction unit 132 generates parking space data with reduced errors, for example, by executing the processing described above with reference to FIGS. 10 to 12 . That is, it is the parking section correction result shown in FIG. 13(2).
  • the automatic driving control unit 122 performs automatic parking processing according to the parking section correction result shown in FIG. 13(2) in which the error is reduced.
  • the automatic driving control unit 122 first determines a travel route for automatic parking using the parking section correction result, as shown in FIG. 13(3a).
  • the mobile device (automatic driving vehicle) 100 is caused to travel along the determined automatic parking travel route to perform automatic parking processing.
  • the mobile device (self-driving vehicle) 100 fits within one parking space specified in the parking space correction result shown in FIG. 13(2) generated by the parking space correction unit 132. parked like this.
  • FIG. 14 shows the result of this automatic parking process.
  • the mobile device (self-driving vehicle) 100 can be parked accurately in the actual parking space.
  • the parking space correction data generated by the parking space correction unit 132 of the parking space analysis unit 121 is output to the display control unit 123 in addition to the automatic driving control unit 122.
  • the display control unit 123 receives the parking space correction data generated by the parking space correction unit 132 of the parking space analysis unit 121, and generates and displays display data to be output to the display unit 150 based on the input parking space correction data. do.
  • FIG. 15 illustrates an example of processing executed by the parking detection unit 131 of the parking analysis unit 121, processing executed by the parking correction unit 132, and display data output processing to the display unit 150 executed by the display control unit 123. It is a figure to do.
  • the processing of the parking space detection unit 131 and the parking space correction unit 132 of the parking space analysis unit 121 is the same as the processing described above with reference to FIG.
  • the parking space detection unit 131 executes the parking space detection process based on the information detected by the sensor 110, for example, the image captured by the camera, and generates a parking space detection result as shown in FIG. 15(1).
  • the parking space detection result generated by the parking space detection unit 131 is a result including an error different from the substance as shown in FIG. 15(1).
  • the parking space detection result including the error generated by the parking space detection unit 131 that is, the parking space detection result shown in FIG.
  • the parking space correction unit 132 executes correction processing of the parking space detection result including the error input from the parking space detection unit 131, and generates parking space data with reduced error.
  • the parking space correction unit 132 generates parking space data with reduced errors, for example, by executing the processing described above with reference to FIGS. 10 to 12 . That is, it is the parking section correction result shown in FIG. 15(2).
  • the parking space correction result shown in FIG. 15 (2) generated by the parking space correction unit 132 is output to the display control unit 123.
  • the display control unit 123 generates display data for the display unit 150 using the parking section correction result shown in FIG. 15(2) with the error reduced. For example, an image is generated by superimposing the parking space correction result shown in FIG. 15(2) generated by the parking space correction unit 132 on the bird's-eye view image generated by the parking space detection unit 131 described above with reference to FIG. and output to the display unit 150 .
  • This superimposed image is the display data of the display section 150 shown in FIG. As shown in FIG. 15, on the display unit 150, the parking space correction result shown in FIG. It is For example, the user (driver) of the mobile device (automatic driving vehicle) 100 can see the display image on the display unit 150 and correctly grasp the configuration of the parking lot and the vacant space. In contrast, parking processing can be performed accurately.
  • the information processing apparatus 120 of the present disclosure has a program execution function such as a CPU, and the flow shown in FIG. 16 is executed according to a program stored in a storage unit within the information processing apparatus. Processing of each step of the flowchart shown in FIG. 16 will be described below.
  • Step S101 First, in step S101, the parking space correction unit 132 in the parking space analysis unit 121 inputs the parking space detection result generated by the parking space detection unit 131.
  • the parking space detection result generated by the parking space detection unit 131 is often a parking space detection result that includes an error that differs from the actual parking space detection result.
  • step S102 Next, in step S ⁇ b>102 , the parking section correction unit 132 performs clustering processing for a plurality of parking sections included in the parking section detection result generated by the parking section detection unit 131 .
  • Step S103 The processing after step S103 is processing executed in units of clusters.
  • the parking section correction unit 132 selects a cluster to be processed in step S103.
  • Step S104 the parking section correction unit 132 analyzes the position and shape of each parking section in the cluster selected as the processing target, and based on the analysis results, determines the shape and arrangement of the parking sections in the cluster. and/or to generate a parking space correction result.
  • the parking section correction unit 132 generates a vector (VW) indicating the width (W) of each parking section in one cluster selected as a processing target, a vector (VL) indicating the depth of each parking section, and a vector (VL) indicating the depth of each parking section. Compute a vector (VS) indicating the spacing of the partitions.
  • the parking section correction unit 132 performs smoothing processing of the positions (arrangements), shapes, and orientations of the parking sections P1 to Pn included in the cluster. This process is the process described earlier with reference to (step S24) in FIG.
  • the width (W), depth (L), and interval between the parking lots P1 to Pn are calculated.
  • S The length and direction (vector) are adjusted, and a smoothing process is performed to make them data having a uniform length and direction (uniform vector).
  • the width (W), the depth (L), and the length and direction of the intervals (S) of the parking lots P1 to Pn included in the cluster selected as the processing target are made uniform data (uniform vector) by smoothing. Execute the process.
  • step S104 the parking sections P1 to Pn in the selected cluster are corrected to have reduced errors and substantially match the actual parking sections.
  • step S105 the parking section correction unit 132 determines whether or not there is an unprocessed cluster for which the parking section correction process has not been completed. If there is an unprocessed cluster, the process returns to step S103 and executes the process of step S104 for the unprocessed cluster.
  • step S105 If it is determined in step S105 that there is no unprocessed cluster for which the parking section correction process has not been completed, the process is completed.
  • the parking space detection result including the error generated by the parking space detection unit 131 is corrected, and the corrected parking space data that substantially matches the actual parking space is obtained. will be generated.
  • the parking section correction unit 132 classifies a large number of parking sections as shown in FIG. 17(1) into three clusters A to C as shown in FIG. 17(2).
  • Each of the three clusters A to C shown in FIG. 17(2) is a parking space group (cluster) arranged according to individual arrangement rules (cluster-specific arrangement rules).
  • step S102 the parking section correction unit 132 executes clustering processing (parking section group division processing) for setting parking sections arranged according to one arrangement rule as one parking section group (cluster).
  • clustering processing parking section group division processing
  • steps S103 and S104 will be described with reference to FIG. 18 and subsequent figures.
  • FIG. 18 (S103) shows an example of the process of step S103 of the flow shown in FIG. 16, that is, the process of selecting clusters to be corrected.
  • the example shown in FIG. 18 (S103) is an example in which cluster A is selected as the correction target cluster.
  • FIG. 18 shows a processing example of the first half of step S104 in the flow shown in FIG. 16, that is, a processing example of acquiring data to be applied to the smoothing processing from the processing target cluster (cluster A). .
  • step S104 the parking section correction unit 132 analyzes the position and shape of each of the parking sections Pa1 to Pa4 in the cluster A selected as the processing target.
  • FIG. 18 (S104-1) is a diagram showing a specific example of this processing.
  • the width (W), depth (L), distance (S) between adjacent parking spaces, and other lengths and directions of each of the parking spaces Pa1 to Pa4 in the cluster A are calculated. Although only the width (Wa1) and depth (La1) of the parking space Pa1 and the distance (Sa12) between the parking spaces Pa1 and Paa2 are shown in the figure, the other parking spaces Pa1 to Pa4 are similarly shown. The length and direction (vector) of the width (W), depth (L), interval (S) between adjacent parking spaces, etc. are calculated.
  • FIG. 19 shows an example of the processing of the second half of step S104 in the flow shown in FIG. 16, that is, the smoothing processing of the cluster to be processed (cluster A).
  • the length and direction (vector ) and perform a smoothing process to make them data with a uniform length and direction (a uniform vector).
  • the width (W), the depth (L), and the length and direction of the interval (S) of the parking spaces Pa1 to Pa4 included in the cluster A selected as the processing target are made uniform data (uniform vector). Execute the conversion process.
  • the parking spaces Pa1 to Pa4 in the selected cluster A are corrected to parking spaces that substantially match the actual parking spaces with reduced errors, as shown in FIG.
  • step S105 it is determined whether or not there is an unprocessed cluster.
  • unprocessed clusters B and C exist, so the process returns to step S103 to select one cluster to be processed from the unprocessed clusters.
  • FIG. 20 A specific example of processing when cluster B is selected as the cluster to be processed will be described with reference to FIGS. 20 and 21.
  • FIG. 20 A specific example of processing when cluster B is selected as the cluster to be processed will be described with reference to FIGS. 20 and 21.
  • FIG. 20 (S103) is the processing of step S103 of the flow shown in FIG. 16, and is an example in which cluster B is selected as the correction target cluster.
  • FIG. 20 shows the processing of the first half of step S104 in the flow shown in FIG. 16, that is, the processing example of acquiring data to be applied to the smoothing processing from the processing target cluster (cluster B). .
  • step S104 the parking section correction unit 132 analyzes the position and shape of each of the parking sections Pb1 to Pb3 in the cluster B selected as the processing target.
  • the width (W), depth (L), distance (S) between adjacent parking spaces, and other lengths and directions of each of the parking spaces Pb1 to Pb3 in the cluster B are calculated.
  • the figure shows only the width (Wb1) and depth (Lb1) of the parking space Pb1 and the distance (Sb12) between the parking spaces Pb1 and Pb2.
  • the length and direction (vector) of the width (W), depth (L), interval (S) between adjacent parking spaces, etc. are calculated.
  • FIG. 21 shows an example of the processing of the second half of step S104 in the flow shown in FIG. 16, ie, the smoothing processing of the cluster to be processed (cluster B).
  • the length and direction (vector ) and perform a smoothing process to make them data with a uniform length and direction (a uniform vector).
  • the width (W), the depth (L), and the length and direction of the intervals (S) of the parking lots Pb1 to Pb3 included in the cluster B selected as the processing target are made uniform data (uniform vector). Execute the conversion process.
  • the parking spaces Pb1 to Pb3 in the selected cluster B are corrected to parking spaces that substantially match the actual parking spaces with reduced errors, as shown in FIG.
  • step S105 it is determined whether or not there is an unprocessed cluster.
  • there is an unprocessed cluster C so the process returns to step S103 and cluster C is selected as the cluster to be processed.
  • FIG. 22 A specific example of processing when cluster C is selected as the cluster to be processed will be described with reference to FIGS. 22 and 23.
  • FIG. 22 A specific example of processing when cluster C is selected as the cluster to be processed will be described with reference to FIGS. 22 and 23.
  • FIG. 22 is the processing of step S103 of the flow shown in FIG. 16, and is an example in which cluster C is selected as the correction target cluster.
  • FIG. 22 shows a processing example of the first half of step S104 in the flow shown in FIG. 16, that is, a processing example of acquiring data to be applied to the smoothing processing from the processing target cluster (cluster C). .
  • step S104 the parking section correction unit 132 analyzes the position and shape of each of the parking sections Pc1 to Pc4 in the cluster C selected as the processing target.
  • the width (W), depth (L), distance (S) between adjacent parking spaces, and other lengths and directions of each of the parking spaces Pc1 to Pc3 in the cluster C are calculated.
  • the figure shows only the width (Wc1) and depth (Lc1) of the parking space Pc1 and the distance (Sc12) between the parking spaces Pc1 and Pc2.
  • the length and direction (vector) of the width (W), depth (L), interval (S) between adjacent parking spaces, etc. are calculated.
  • FIG. 23 shows an example of the processing of the second half of step S104 in the flow shown in FIG. 16, that is, the smoothing processing of the cluster to be processed (cluster C).
  • the length and direction (vector ) and perform a smoothing process to make them data with a uniform length and direction (a uniform vector).
  • the width (W), the depth (L), and the length and direction of the intervals (S) of the parking lots Pc1 to Pc4 included in the cluster C selected as the processing target are made uniform data (uniform vector). Execute the conversion process.
  • the parking spaces Pc1 to Pc3 in the selected cluster C are corrected to parking spaces that substantially match the actual parking spaces with reduced errors, as shown in FIG.
  • step S105 of the flow shown in FIG. 16 it is determined that there is no unprocessed cluster, and the process ends.
  • all the parking spaces within the cluster detected by the parking space detection unit 131 are corrected, and parking space data that substantially matches the actual parking space is generated.
  • This correction result is output to the automatic operation control unit 122 and the display control unit 123, used for automatic operation control, and displayed on the display unit 150.
  • Example 2 Correction example of stepped parking section
  • the configuration of the mobile device (self-driving vehicle) 100 and the information processing device 120 is similar to the configuration shown in FIG. 6 described above.
  • FIG. 24 shows "(1) parking detection result" generated by the parking detection unit 131 of the parking analysis unit 120 based on the information (camera captured image) obtained by the sensor (camera) 110, and the parking detection.
  • An example of the parking space correction process executed by the parking space correction unit 132 by inputting the result is shown.
  • the "(1) parking space detection result" generated by the parking space detection unit 131 based on the information (camera captured image) obtained by the sensor (camera) 110 includes the parking spaces P01 to P04 as shown on the left side of FIG. are not arranged in a straight line, but arranged in steps.
  • the parking space analysis result generated by the parking space detection unit 131 is a parking space analysis result containing many errors.
  • the parking space detection result including the error is input to the parking space correction unit 132 of the parking space analysis unit 121 .
  • the parking space correction unit 132 executes correction processing of the parking space detection result including the error input from the parking space detection unit 131 .
  • the right side of FIG. 24 shows an outline of the correction processing of the parking space detection result executed by the parking space correction unit 132 .
  • the parking section correction unit 132 executes the parking section correction process according to the following two processing steps as shown in FIG. (First step) A clustering process for setting a plurality of parking spaces estimated to consist of a regular array as one parking space group (cluster) (Second step) A plurality of parking space groups (cluster) In-cluster parking lot smoothing process that adjusts the position (arrangement), shape, and/or orientation of parking lots to produce uniform data
  • the parking section correction unit 132 executes a clustering process of setting a plurality of parking sections that are estimated to be arranged with regularity as one parking section group (cluster).
  • the example shown in FIG. 24 (first step) is an example in which four parking spaces P01 to P04, which are detected by the parking space detection unit 131 and are arranged in a stepped manner, are selected as one cluster.
  • the parking space correction unit 132 adjusts all or at least one of the positions (arrangements), shapes, and orientations of a plurality of parking spaces within one parking space group (cluster).
  • Intra-cluster parking lot smoothing processing is performed to make the data uniform across the clusters.
  • the example shown in FIG. 24 (second step) is an intra-cluster parking lot smoothing process that equalizes all of the positions (arrangements), shapes, and orientations of a plurality of parking lots arranged stepwise within one cluster. It shows the correction results of the parking spaces P1 to P4 obtained as a result of the execution.
  • the correction result of the parking spaces P1 to P4 shown in FIG. 24 indicates that the positions (arrangements), shapes, and directions of the parking spaces P1 to P4 in one cluster composed of the parking spaces P1 to P4 are all adjusted evenly.
  • the parking space correction unit 132 first calculates the center coordinates, vertex coordinates, size, and each vertex of the adjacent space of the parking space detection result including the error input from the parking space detection unit 131. Calculate the coordinate difference of The center coordinates, vertex coordinates, size, and coordinate difference of each vertex with respect to adjacent sections are calculated for each of the parking sections P01 to P04.
  • the parking space correction unit 132 performs the parking space correction process on a cluster-by-cluster basis.
  • a specific example of the cluster-based parking section correction processing executed by the parking section correction unit 132 will be described with reference to FIG. 26 .
  • the parking section correction unit 132 calculates the width (W), depth (L), and distance (S) of the parking sections P1 to P4 included in one cluster. Calculate the direction and direction.
  • the width (W) and depth (L) of these parking spaces P1 to P4, and the length and direction of the interval (S) between adjacent parking spaces are the parking space P1 calculated in FIG. 25 (step S151) described above.
  • ⁇ P4 can be calculated based on the center coordinates and vertex coordinates.
  • one cluster includes parking spaces P1 to P4 arranged in four steps.
  • the parking space correction unit 132 calculates the following data. do. the length and direction of the width (W1) and depth (L1) of the parking space P01; the length and direction of the width (W2) and depth (L2) of the parking space P02; the length and direction of the width (W3) and depth (L3) of the parking space P03; the length and direction of the width (W4) and depth (L4) of the parking space P04; length and direction of the distance (S12) between the parking space P01 and the parking space P02; the length and direction of the distance (S23) between the parking spaces P02 and P03; the length and direction of the distance (S34) between the parking section P03 and the parking section P04;
  • the width (W), depth (L), and space (S) data of the parking space includes not only length data, but also width (W), depth (L), and space (S) data. Orientation data measured in length is also included. These lengths and directions can be obtained, for example, from the coordinate positions of the endpoints of the width (W), depth (L), and spacing (S) data.
  • the data including the width (W) and depth (L) of each of the parking spaces P0 to P4 and the length and direction of the space (S) between the parking spaces can be expressed as vectors. That is, in FIG. 26 (step S153), the parking section correction unit 132 sets the vector (VW) indicating the width (W) of each parking section, the vector (VL) indicating the depth of each parking section, and the vector (VL) indicating the depth of each parking section. A vector (VS) indicating the spacing is calculated.
  • the parking section correction unit 132 performs smoothing processing of the positions (arrangements), shapes, and orientations of the parking sections included in one cluster as processing in units of clusters. do.
  • the length and direction (vector) of the width (W), depth (L), and spacing (S) of the parking lots P1 to P4 shown in S153) are adjusted, and these are data having a uniform length and direction (uniform vector).
  • the width (W), the depth (L), and the interval (S) of the parking lots P1 to P4 are smoothed into uniform data (uniform vector). Execute the conversion process.
  • the parking section correction unit 132 calculates, for example, the following values as smoothed data for each parking section.
  • a plurality of parking spaces (P01 to P04) within the cluster after this correction have the same equalized smoothed parking space width (W01), smoothed parking space depth (L01), and smoothed parking space interval (S01). It consists of data (a common vector) with a length and direction of .
  • correction processing is performed by smoothing the parking section according to the processing according to the flowchart described above with reference to FIG. 16 .
  • Example 3 Regarding an embodiment in which a parking section correction unit inserts a parking section that could not be detected by the parking section detection unit to generate a parking section correction result]
  • Example 3 an example will be described in which a parking space correction unit inserts a parking space that the parking space detection unit cannot detect to generate a parking space correction result.
  • the information processing apparatus 120 of the third embodiment also has the same configuration as the information processing apparatus 120 of the first embodiment described above with reference to FIG. That is, as described with reference to FIG. 6, the information processing device 120 has a parking space analysis unit 121, an automatic driving control unit 122, and a display control unit 123.
  • the parking space analysis unit 121 includes a parking space detection unit. 131 and a parking section correction unit 132 .
  • the parking space detection unit 131 of the parking space analysis unit 121 executes the parking space detection process based on the information detected by the sensor 110, for example, the image captured by the camera.
  • the parking space detection result generated by the parking space detection unit 131 is often a parking space detection result containing an error different from the actual parking space detection result. This is due to the problem of the photographed image itself input from the sensor 110 as described above, that is, the white line indicating the parking space may not be visible due to the shadow of the parked vehicle, the white line indicating the parking space may be thin, or This is caused by various factors, such as problems related to the structure of the camera and problems caused by image processing of the captured image, in addition to the problem of broken lane markings.
  • parking spaces that should actually exist may not be detected in the parking space detection results generated by the parking space detection unit 131, and may be lost due to detection errors.
  • the photographed image (a) shown in FIG. 27 is the photographed image of the camera, which is the sensor 110 .
  • a sensor 110 such as a camera mounted on a mobile device (vehicle) 100 captures an image of a parking lot obliquely forward at the entrance of the parking lot, and a parking space detection unit 131 detects a parking space based on this image. I do.
  • the bird's-eye view conversion process and feature point detection process of the captured image are performed to detect the parking space.
  • the parking space may not be detected if the white line indicating the parking space is shaded by the parked vehicle or if the white line is interrupted.
  • the parking section detection unit 131 cannot detect the parking section that originally exists, and generates a parking section detection result in which a part of the parking section (P02) is missing. may be lost.
  • the parking space correction unit 132 of the parking space analysis unit 121 corrects the parking space that the parking space detection unit 131 of the parking space analysis unit 121 could not detect. This is an embodiment for executing a correction process for inserting a .
  • FIG. 28 is a flow chart illustrating a sequence of processing executed by the parking space correction unit 132 of the parking space analysis unit 121 of the information processing device 120 of the third embodiment. Hereinafter, processing of each step of the flow shown in FIG. 28 will be described in order.
  • Step S201 First, in step S201, the parking space correction unit 132 in the parking space analysis unit 121 inputs the parking space detection result generated by the parking space detection unit 131.
  • clustering is performed on the premise that there is a parking space that could not be detected in the parking space detection result generated by the parking space detection unit 131 . That is, the parking section correction unit 132 performs clustering on the premise that there is a parking section for which a detection error occurred in step S202.
  • Step S203 The processing after step S203 is processing executed in units of clusters.
  • the parking section correction unit 132 selects a cluster to be processed in step S203.
  • step S204 the parking space correction unit 132 has a blank area (a parking space detection error area estimated to have failed to detect a parking space) that satisfies the parking space insertion condition in the cluster selected as the processing target. determine whether or not to
  • the parking space insertion condition for the blank area is defined in advance.
  • the conditions are as follows. (Condition a) A blank area exists between parking spaces and is a blank area where one or more but less than two vehicles can be parked. For example, when such condition a is satisfied, it is determined that the area satisfies the parking space insertion condition.
  • Condition a A blank area exists between parking spaces and is a blank area where one or more but less than two vehicles can be parked.
  • Condition b There is a feature point presumed to correspond to a white line or the like presumed to indicate a parking space in the blank area. If both conditions a and b are satisfied, the area is determined to satisfy the parking space insertion condition.
  • the parking space insertion condition may be satisfied based on the regularity of the arrangement and shape of the parking spaces.
  • past recognition history data may be recorded in the storage unit, and this recorded data may be referenced to determine whether or not to insert a parking space into the blank area (parking space non-detection area).
  • Step S205 If the parking space correction unit 132 determines in step S205 that there is an area that satisfies the parking space insertion condition (a parking space detection error area estimated to have failed in parking space detection), the process proceeds to step S206. On the other hand, if it is determined that it does not exist, the process proceeds to step S207.
  • Step S206 If it is determined in step S205 that there is an area that satisfies the parking space insertion condition (a parking space detection error area in which parking space detection is presumed to have failed), the process proceeds to step S206.
  • step S206 the parking section correction unit 132 inserts a new parking section into the area that satisfies the parking section insertion condition (the parking section detection error area in which the parking section detection is presumed to have failed).
  • the shape and layout of the parking spaces to be inserted are determined according to pre-defined rules. For example, the parking space insertion process is executed according to a rule such that the shape is the average value of the detected parking space shapes, and the array is the intermediate position of the parking space adjacent to the parking space insertion position.
  • Step S207 In step S206, when the process of inserting a new parking space is completed, or in step S205, it is determined that there is no area that satisfies the parking space insertion condition (a parking space detection error area in which parking space detection is presumed to have failed). If so, the process proceeds to step S207.
  • the parking section correction unit 132 in step S207, analyzes the position and shape of each parking section in the cluster selected as the processing target, and based on the analysis results, determines the shape and shape of the parking section in the cluster.
  • a smoothing operation is performed on at least one of the arrays to produce a parking space correction result.
  • step S206 correction processing is executed for all parking spaces in the cluster including the newly inserted parking space.
  • the parking section correction unit 132 generates a vector (VW) indicating the width (W) of each parking section in one cluster selected as a processing target, a vector (VL) indicating the depth of each parking section, and a vector (VL) indicating the depth of each parking section. Compute a vector (VS) indicating the spacing of the partitions.
  • the parking section correction unit 132 performs smoothing processing of the positions (arrangements), shapes, and orientations of the parking sections P1 to Pn included in the cluster. This process is the process described earlier with reference to (step S24) in FIG.
  • the width (W), depth (L), and interval between the parking lots P1 to Pn are calculated.
  • S The length and direction (vector) are adjusted, and a smoothing process is performed to make them data having a uniform length and direction (uniform vector).
  • the width (W), the depth (L), and the length and direction of the intervals (S) of the parking lots P1 to Pn included in the cluster selected as the processing target are made uniform data (uniform vector) by smoothing. Execute the process.
  • step S207 the parking sections P1 to Pn in the selected cluster are corrected to have reduced errors and substantially match the actual parking sections.
  • step S208 the parking section correction unit 132 determines whether or not there is an unprocessed cluster for which the parking section correction process has not been completed. If there is an unprocessed cluster, the process returns to step S203 and executes the processes from step S204 onward for the unprocessed cluster.
  • step S208 If it is determined in step S208 that there is no unprocessed cluster for which the parking section correction process has not been completed, the process is completed.
  • the parking space detection result including the parking space insertion process is corrected with respect to the parking space detection error generated by the parking space detection unit 131 and the parking space detection result including the detection error.
  • a correction process will be performed to generate corrected parking space data that substantially matches the actual parking space.
  • clustering is performed on the premise that there are parking spaces that could not be detected in the parking space detection results generated by the parking space detection unit 131 .
  • the parking section correction section 132 corrects the center coordinates, vertex coordinates, size, and adjacent sections of each parking section in the parking section detection result input from the parking section detection section 131. Calculate the coordinate difference of the vertices.
  • clustering is performed on the assumption that there is a parking space that could not be detected in the parking space detection result generated by the parking space detection unit 131 .
  • clustering is performed with an area composed of parking lots of .
  • an area consisting of one blank area and three parking lots P01, P03, P04 shown in FIG. 29 (S202b) is set as one cluster (parking lot group).
  • step S204 the parking space correction unit 132 determines whether or not there is a blank area satisfying the parking space insertion condition (a parking space detection error area estimated to have failed in parking space detection) in the cluster selected as the processing target. determine whether For example, the parking space correction unit 132 determines whether or not the blank area shown in FIG. 30 (S204) corresponds to a blank area that satisfies the parking space insertion condition (a parking space detection error area estimated to have failed in parking space detection). judge.
  • the parking space insertion conditions for blank areas include, for example, the following conditions.
  • Condition a A blank area exists between parking spaces and is a blank area where one or more but less than two vehicles can be parked.
  • Condition b There is a feature point presumed to correspond to a white line or the like presumed to indicate a parking space in the blank area. For example, when condition a is satisfied, or when both conditions a and b are satisfied, it is determined that the area satisfies the parking space insertion condition.
  • the parking space correction unit 132 inserts a new parking space into a region that satisfies the parking space insertion condition (a parking space detection error region in which parking space detection is presumed to have failed).
  • the parking section P02 shown in FIG. 30 (S206) is the newly inserted parking section.
  • FIG. 31 shows the processing executed in step S207. That is, it is a cluster-based parking lot smoothing process.
  • FIG. 31 (S207a) shows a processing example of acquiring data to be applied to the smoothing processing from the cluster.
  • step S207 the parking section correction unit 132 analyzes the position and shape of each of the parking sections Pa1 to Pa4 in the cluster selected as the processing target.
  • the additionally inserted parking space P02 is also included in the analysis target.
  • FIG. 31 (S207a) is a diagram showing a specific example of this processing.
  • the width (W), depth (L), distance (S) between adjacent parking spaces, and other lengths and directions of each of the parking spaces Pa1 to Pa4 in the cluster are calculated.
  • the width (Wa1) and depth (La1) of the parking space Pa1 and the distance (Sa12) between the parking spaces Pa1 and Paa2 are shown in the figure, the other parking spaces Pa1 to Pa4 are similarly shown.
  • the length and direction (vector) of the width (W), depth (L), interval (S) between adjacent parking spaces, etc. are calculated.
  • FIG. 31 (S207b) shows the processing result of the cluster smoothing processing.
  • the parking spaces Pa1 to Pa4 in the cluster are included in the parking space detection result generated by the parking space detection unit 131, as shown in FIG. 31 (S207b).
  • the error is also eliminated, and the parking space is corrected to substantially match the actual parking space.
  • Example 4 Regarding an embodiment in which the parking lot correction process is executed by applying the time-series data of the parking lot detection results generated by the parking lot detection unit.
  • the fourth embodiment is a particularly effective process when, for example, the parking space detection error described above as the third embodiment occurs.
  • the parking space detection error described above as the third embodiment occurs.
  • the parking space detection unit 131 when a parking space that should actually exist is not detected in the parking space detection result generated by the parking space detection unit 131 and is lost due to a detection error, the parking space is detected. described the process of inserting
  • the information processing apparatus 120 of the fourth embodiment also has the same configuration as the information processing apparatus 120 of the first embodiment described above with reference to FIG. That is, as described with reference to FIG. 6, the information processing device 120 has a parking space analysis unit 121, an automatic driving control unit 122, and a display control unit 123.
  • the parking space analysis unit 121 includes a parking space detection unit. 131 and a parking section correction unit 132 .
  • the parking space detection unit 131 of the parking space analysis unit 121 executes the parking space detection process based on the information detected by the sensor 110, for example, the image captured by the camera.
  • the parking space detection result generated by the parking space detection unit 131 is often a parking space detection result containing an error different from the actual parking space detection result. This is due to the problem of the photographed image itself input from the sensor 110 as described above, that is, the white line indicating the parking space may not be visible due to the shadow of the parked vehicle, the white line indicating the parking space may be thin, or This is caused by various factors, such as problems related to the structure of the camera and problems caused by image processing of the captured image, in addition to the problem of broken lane markings.
  • parking spaces that should actually exist may not be detected in the parking space detection results generated by the parking space detection unit 131, and may be lost due to detection errors.
  • the parking space that actually exists is checked and highly accurate parking space correction processing is performed.
  • the parking space detection unit 131 detects a parking space included in the captured image based on sensor detection information input from the sensor 110, such as a camera captured image.
  • the parking space detection process by the parking space detection unit 131 is periodically performed at predetermined time intervals.
  • the parking space detection unit 131 generates a parking space detection result based on the camera-captured image (F1: frame 1) captured by the sensor 110 at time t1.
  • a parking space detection result is generated based on the image (F2: frame 2), and further a parking space detection result is generated based on the image captured by the camera at time t3 (F3: frame 3).
  • the parking space correction unit 132 also sequentially executes correction processing of the parking space detection results generated by the parking space detection unit 131 based on the images captured by the camera at each timing (t1, t2, t3, . . . ). As a result, parking section correction results as shown in the bottom of FIG. 32 are sequentially generated.
  • a mobile device (vehicle) 100 equipped with a sensor 110 captures images while traveling. Therefore, the direction in which the parking lot is photographed also changes from time to time, and there may be a case where the parking space cannot be identified at a certain timing.
  • a specific example is shown in FIG.
  • the parking space detection unit 131 generates the parking space detection result based on the camera-captured image (F1: frame 1) captured by the sensor 110 at time t1, and the parking space detection result is generated at time t2.
  • An example of generating a parking space detection result based on a camera-captured image (F2: frame 2) and further generating a parking space detection result based on a camera-captured image (F3: frame 3) at time t3 is shown.
  • the three parking space detection results generated by the parking space detection unit 131 at different timings are all parking space detection results based on the captured image of the same parking lot area.
  • the parking space detection result based on the camera shot image (F3: frame 3) at the last time t3 is included in the parking space detection result based on the camera shot images (F1, F2) at other times t1 and t2.
  • Parking section P02 is not included.
  • the parking space correction unit 132 performs tracking processing with reference to the time-series data of the parking space detection result generated by the parking space detection unit 131, and the parking space at other times is corrected. Compare and refer to partition detection results. Furthermore, based on the result of the comparison and reference, a parking space correction process is executed to insert and correct the parking space lost due to the detection error.
  • FIG. 34 shows the following diagrams. (1) Time-series parking space detection results (F1, F2, F3) generated by the parking space detection unit (2) Tracking processing executed by parking section correction unit 132
  • the three parking space detection results (F1, F2, F3) shown in FIG. 34(1) are the parking space detection results (F1, F2, F3) described with reference to FIG. That is, the parking space detection result generated by the parking space detection unit 131 based on the camera-captured image (F1: frame 1) captured by the sensor 110 at time t1 is converted to the camera-captured image (F2: frame 2) at the next time t2. 3 shows the parking space detection result generated based on the above, and the parking space detection result generated based on the image captured by the camera at time t3 (F3: frame 3).
  • the parking space detection result based on the camera-shot image (F3: frame 3) at the last time t3 is the parking space detection result based on the camera-shot images (F1, F2) at other times t1 and t2. P02 is not included.
  • FIG. 34(2) shows an example of the tracking process executed by the parking section correction unit 132.
  • the parking space correction unit 132 receives the parking space detection result (F1, F2) generated by the parking space detection unit 131 in the past. ) to execute the tracking process that refers to the time-series data.
  • the parking space detection result (F3) and the parking space detection results (F1, F2) at other times are compared and referenced.
  • the parking section correction unit 132 can confirm that there is a parking section (P02) missing due to a detection error in the parking section detection result (F3).
  • the parking section correction unit 132 executes a process of inserting the parking section (P02) in which the detection error has occurred from the parking section detection unit 131 into the parking section detection result (F3), and further corrects the shape, direction, etc. of each parking section. Execute processing to correct the This correction process is the same process as in the third embodiment described above.
  • the fourth embodiment applies the time-series data of the parking space detection results generated by the parking space detection unit to confirm the parking space that actually exists, thereby realizing highly accurate parking space correction processing. becomes possible.
  • FIG. 35 is a flowchart for explaining a processing sequence executed by the parking section correction section 132 of the parking section analysis section 121. As shown in FIG. Hereinafter, processing of each step of the flow shown in FIG. 35 will be described in order.
  • Steps S301 to S303 are the same processes as steps S201 to S203 of the flow shown in FIG. 28 described above as the processing flow of the third embodiment.
  • step S301 the parking space correction unit 132 in the parking space analysis unit 121 inputs the parking space detection result generated by the parking space detection unit 131.
  • clustering is performed on the premise that there is a parking section that could not be detected in the parking section detection result generated by the parking section detection unit 131 . That is, the parking section correction unit 132 performs clustering on the premise that there is a parking section for which a detection error occurred in step S302.
  • step S303 the parking section correction unit 132 selects clusters to be processed.
  • Step S304 the parking space correction unit 132 has a blank area (a parking space detection error area estimated to have failed in parking space detection) that satisfies the parking space insertion condition in the cluster selected as the processing target. determine whether or not to
  • step S304 as described above with reference to FIG. 34, the tracking process for the cluster to be processed is executed, and the area satisfying the parking space insertion condition (parking space detection) is included in the cluster to be processed.
  • a process for determining whether or not there is a parking space detection error region where it is estimated that the detection failed is executed.
  • the parking space correction unit 132 refers to the time-series data of the parking space detection result generated by the parking space detection unit 131 in the past. Execute the tracking process. The parking space detection result to be corrected and the parking space detection result at another time are compared and referenced, and as a result of the comparison and reference processing, it is determined whether there is a missing parking space due to a detection error in the parking space detection result to be corrected. Check whether
  • Step S305 If the parking section correction unit 132 determines in step S305 that there is a parking section detection error area in which parking section detection is estimated to have failed as a result of the tracking processing of the target cluster, the process proceeds to step S306. On the other hand, if it is determined that it does not exist, the process proceeds to step S307.
  • Step S306 If it is determined in step S305 that there is a parking space detection error area in which it is estimated that parking space detection has failed as a result of the tracking processing of the processing target cluster, the process proceeds to step S306.
  • step S306 the parking section correction unit 132 inserts a new parking section into the parking section detection error area in which the parking section detection is presumed to have failed as a result of the tracking processing of the processing target cluster.
  • Step S307 When the insertion processing of a new parking space is completed in step S306, or when it is determined in step S305 that there is no parking space detection error area in which it is estimated that the parking space detection has failed as a result of the tracking processing of the cluster to be processed. goes to step S307.
  • the parking section correction unit 132 in step S307, analyzes the position and shape of each parking section in the cluster selected as the processing target, and based on the analysis results, determines the shape and shape of the parking section in the cluster.
  • a smoothing operation is performed on at least one of the arrays to produce a parking space correction result.
  • step S306 correction processing is performed for all parking spaces in the cluster including the newly inserted parking space.
  • the parking section correction unit 132 generates a vector (VW) indicating the width (W) of each parking section in one cluster selected as a processing target, a vector (VL) indicating the depth of each parking section, and a vector (VL) indicating the depth of each parking section. Compute a vector (VS) indicating the spacing of the partitions.
  • the parking section correction unit 132 performs smoothing processing of the positions (arrangements), shapes, and orientations of the parking sections P1 to Pn included in the cluster. This process is the process described earlier with reference to (step S24) in FIG.
  • the width (W), depth (L), and interval between the parking lots P1 to Pn are calculated.
  • S The length and direction (vector) are adjusted, and a smoothing process is performed to make them data having a uniform length and direction (uniform vector).
  • the width (W), the depth (L), and the length and direction of the intervals (S) of the parking lots P1 to Pn included in the cluster selected as the processing target are made uniform data (uniform vector) by smoothing. Execute the process.
  • the parking sections P1 to Pn in the selected cluster are corrected to a parking section that substantially matches the actual parking section by reducing the error.
  • step S308 the parking section correction unit 132 determines whether or not there is an unprocessed cluster for which the parking section correction process has not been completed. If there is an unprocessed cluster, the process returns to step S303, and the processes from step S304 onward are executed for the unprocessed cluster.
  • step S308 If it is determined in step S308 that there is no unprocessed cluster for which the parking section correction process has not been completed, the process is completed.
  • the parking space detection result including the parking space insertion process is corrected with respect to the parking space detection error generated by the parking space detection unit 131 and the parking space detection result including the detection error.
  • a correction process will be performed to generate corrected parking space data that substantially matches the actual parking space.
  • FIG. 36 a hardware configuration example of the information processing apparatus of the present disclosure will be described with reference to FIG. 36 .
  • the information processing device is mounted inside the vehicle.
  • the hardware configuration shown in FIG. 36 is an example of the hardware configuration of the information processing device in the vehicle.
  • the hardware configuration shown in FIG. 36 will be described.
  • a CPU (Central Processing Unit) 301 functions as a data processing section that executes various processes according to programs stored in a ROM (Read Only Memory) 302 or a storage section 308 . For example, the process according to the sequence described in the above embodiment is executed.
  • a RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301 . These CPU 301 , ROM 302 and RAM 303 are interconnected by a bus 304 .
  • the CPU 301 is connected to an input/output interface 305 via a bus 304, and the input/output interface 305 includes various switches, a touch panel, a microphone, a user input unit, a camera, a situation data acquisition unit for various sensors 321 such as LiDAR, and the like.
  • An input unit 306, an output unit 307 including a display, a speaker, and the like are connected.
  • the output unit 307 also outputs driving information to the driving unit 322 of the vehicle.
  • the CPU 301 receives commands, situation data, and the like input from the input unit 306 , executes various processes, and outputs processing results to the output unit 307 , for example.
  • a storage unit 308 connected to the input/output interface 305 includes, for example, a hard disk, and stores programs executed by the CPU 301 and various data.
  • a communication unit 309 functions as a transmission/reception unit for data communication via a network such as the Internet or a local area network, and communicates with an external device.
  • a GPU Graphics Processing Unit
  • a drive 310 connected to the input/output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card to record or read data.
  • a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card to record or read data.
  • FIG. 37 is a block diagram showing a configuration example of a vehicle control system 511 of a vehicle 500 equipped with the information processing device of the present disclosure.
  • the vehicle control system 511 is provided in the vehicle 500 and performs processing related to driving support of the vehicle 500 and automatic driving.
  • the vehicle control system 511 includes a vehicle control ECU (Electronic Control Unit) 521, a communication unit 522, a map information accumulation unit 523, a GNSS (Global Navigation Satellite System) reception unit 524, an external recognition sensor 525, an in-vehicle sensor 526, a vehicle sensor 527, It has a recording unit 528 , a driving support/automatic driving control unit 529 , a DMS (Driver Monitoring System) 530 , an HMI (Human Machine Interface) 531 , and a vehicle control unit 532 .
  • a vehicle control ECU Electronic Control Unit
  • a communication unit 522 includes a communication unit 522, a map information accumulation unit 523, a GNSS (Global Navigation Satellite System) reception unit 524, an external recognition sensor 525, an in-vehicle sensor 526, a vehicle sensor 527, It has a recording unit 528 , a driving support/automatic driving control unit 529 , a DMS (Driver Monitoring System) 530
  • Vehicle control ECU Electronic Control Unit
  • communication unit 522 communication unit 522
  • map information storage unit 523 GNSS reception unit 524
  • external recognition sensor 525 external recognition sensor
  • in-vehicle sensor 526 vehicle sensor 527
  • recording unit 528 driving support/automatic driving control unit 529
  • driving support/automatic driving control unit 529 driving support/automatic driving control unit 529
  • DMS driver monitoring system
  • HMI human machine interface
  • vehicle control unit 532 is communicably connected to each other via a communication network 541 .
  • the communication network 541 is, for example, a CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network), FlexRay (registered trademark), Ethernet (registered trademark), and other digital two-way communication standards.
  • the communication network 541 may be used properly depending on the type of data to be communicated. For example, CAN is applied to data related to vehicle control, and Ethernet is applied to large-capacity data. Each part of the vehicle control system 511 performs wireless communication assuming relatively short-range communication such as near field communication (NFC (Near Field Communication)) or Bluetooth (registered trademark) without going through the communication network 541. may be connected directly using NFC (Near Field Communication) or Bluetooth (registered trademark) without going through the communication network 541.
  • NFC Near Field Communication
  • Bluetooth registered trademark
  • the vehicle control ECU (Electronic Control Unit) 521 is composed of various processors such as a CPU (Central Processing Unit) and an MPU (Micro Processing Unit).
  • a vehicle control ECU (Electronic Control Unit) 521 controls the functions of the vehicle control system 511 as a whole or part of it.
  • the communication unit 522 communicates with various devices inside and outside the vehicle, other vehicles, servers, base stations, etc., and transmits and receives various data. At this time, the communication unit 522 can perform communication using a plurality of communication methods.
  • the communication with the outside of the vehicle that can be performed by the communication unit 522 will be described schematically.
  • the communication unit 522 is, for example, 5G (5th generation mobile communication system), LTE (Long Term Evolution), DSRC (Dedicated Short Range Communications), etc., via a base station or access point, on the external network communicates with a server (hereinafter referred to as an external server) located in the external network.
  • the external network with which the communication unit 522 communicates is, for example, the Internet, a cloud network, or a provider's own network.
  • the communication method for communicating with the external network by the communication unit 522 is not particularly limited as long as it is a wireless communication method capable of digital two-way communication at a predetermined communication speed or higher and at a predetermined distance or longer.
  • the communication unit 522 can communicate with a terminal existing in the vicinity of the own vehicle using P2P (Peer To Peer) technology.
  • Terminals in the vicinity of one's own vehicle include, for example, terminals worn by pedestrians, bicycles, and other moving bodies that move at relatively low speeds, terminals installed at fixed locations such as stores, or MTC (Machine Type Communication).
  • MTC Machine Type Communication
  • the communication unit 522 can also perform V2X communication.
  • V2X communication includes, for example, vehicle-to-vehicle communication with other vehicles, vehicle-to-infrastructure communication with roadside equipment, etc., and vehicle-to-home communication , and communication between the vehicle and others, such as vehicle-to-pedestrian communication with a terminal or the like possessed by a pedestrian.
  • the communication unit 522 can receive from the outside a program for updating the software that controls the operation of the vehicle control system 511 (Over The Air).
  • the communication unit 522 can also receive map information, traffic information, information around the vehicle 500, and the like from the outside.
  • the communication unit 522 can transmit information about the vehicle 500, information about the surroundings of the vehicle 500, and the like to the outside.
  • the information about the vehicle 500 that the communication unit 522 transmits to the outside includes, for example, data indicating the state of the vehicle 500, recognition results by the recognition unit 573, and the like.
  • the communication unit 522 performs communication corresponding to a vehicle emergency notification system such as e-call.
  • the communication unit 522 can communicate with each device in the vehicle using, for example, wireless communication.
  • the communication unit 522 performs wireless communication with devices in the vehicle using a communication method such as wireless LAN, Bluetooth, NFC, and WUSB (Wireless USB) that enables digital two-way communication at a communication speed higher than a predetermined value. can be done.
  • the communication unit 522 can also communicate with each device in the vehicle using wired communication.
  • the communication unit 522 can communicate with each device in the vehicle by wired communication via a cable connected to a connection terminal (not shown).
  • the communication unit 522 performs digital two-way communication at a predetermined communication speed or higher through wired communication, such as USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), and MHL (Mobile High-Definition Link). can communicate with each device in the vehicle.
  • USB Universal Serial Bus
  • HDMI registered trademark
  • MHL Mobile High-Definition Link
  • equipment in the vehicle refers to equipment that is not connected to the communication network 541 in the vehicle, for example.
  • in-vehicle devices include mobile devices and wearable devices possessed by passengers such as drivers, information devices that are brought into the vehicle and temporarily installed, and the like.
  • the communication unit 522 receives electromagnetic waves transmitted by a vehicle information and communication system (VICS (registered trademark)) such as radio beacons, optical beacons, and FM multiplex broadcasting.
  • VICS vehicle information and communication system
  • the map information accumulation unit 523 accumulates one or both of the map obtained from the outside and the map created by the vehicle 500 .
  • the map information accumulation unit 523 accumulates a three-dimensional high-precision map, a global map covering a wide area, and the like, which is lower in accuracy than the high-precision map.
  • High-precision maps are, for example, dynamic maps, point cloud maps, and vector maps.
  • the dynamic map is, for example, a map consisting of four layers of dynamic information, semi-dynamic information, semi-static information, and static information, and is provided to the vehicle 500 from an external server or the like.
  • a point cloud map is a map composed of a point cloud (point cloud data).
  • the vector map refers to a map adapted to an ADAS (Advanced Driver Assistance System) in which traffic information such as lane and signal positions are associated with a point cloud map.
  • ADAS Advanced Driver Assistance System
  • the point cloud map and vector map may be provided from an external server or the like, and based on the sensing results of the radar 552, LiDAR 553, etc., the vehicle 500 serves as a map for matching with a local map described later. It may be created and stored in the map information storage unit 523 . Further, when a high-precision map is provided from an external server or the like, in order to reduce the communication capacity, map data of, for example, several hundred meters square regarding the planned route on which the vehicle 500 will travel from now on is acquired from the external server or the like. .
  • the GNSS reception unit 524 receives GNSS signals from GNSS satellites and acquires position information of the vehicle 500 .
  • the received GNSS signal is supplied to the driving support/automatic driving control unit 529 .
  • the GNSS receiving unit 524 is not limited to the method using GNSS signals, and may acquire position information using beacons, for example.
  • the external recognition sensor 525 includes various sensors used for recognizing the situation outside the vehicle 500, and supplies sensor data from each sensor to each part of the vehicle control system 511.
  • the type and number of sensors included in the external recognition sensor 525 are arbitrary.
  • the external recognition sensor 525 includes a camera 551, a radar 552, a LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) 553, and an ultrasonic sensor 554.
  • the external recognition sensor 525 may be configured to include one or more sensors among the camera 551 , radar 552 , LiDAR 553 , and ultrasonic sensor 554 .
  • the numbers of cameras 551 , radars 552 , LiDARs 553 , and ultrasonic sensors 554 are not particularly limited as long as they can be installed in vehicle 500 in practice.
  • the type of sensor provided in the external recognition sensor 525 is not limited to this example, and the external recognition sensor 525 may be provided with other types of sensors. An example of the sensing area of each sensor included in the external recognition sensor 525 will be described later.
  • the shooting method of the camera 551 is not particularly limited as long as it is a shooting method that enables distance measurement.
  • the camera 551 may be a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, or any other type of camera as required.
  • the camera 551 is not limited to this, and may simply acquire a captured image regardless of distance measurement.
  • the external recognition sensor 525 can include an environment sensor for detecting the environment with respect to the vehicle 500 .
  • the environment sensor is a sensor for detecting the environment such as weather, climate, brightness, etc., and can include various sensors such as raindrop sensors, fog sensors, sunshine sensors, snow sensors, and illuminance sensors.
  • the external recognition sensor 525 includes a microphone used for detecting sounds around the vehicle 500 and the position of the sound source.
  • the in-vehicle sensor 526 includes various sensors for detecting information inside the vehicle, and supplies sensor data from each sensor to each part of the vehicle control system 511 .
  • the types and number of various sensors included in in-vehicle sensor 526 are not particularly limited as long as they are the number that can be realistically installed in vehicle 500 .
  • the in-vehicle sensor 526 may comprise one or more sensors among cameras, radar, seating sensors, steering wheel sensors, microphones, and biometric sensors.
  • the camera included in the in-vehicle sensor 526 for example, cameras of various shooting methods capable of distance measurement, such as a ToF camera, a stereo camera, a monocular camera, and an infrared camera, can be used. Not limited to this, the camera provided in the vehicle interior sensor 526 may simply acquire a captured image regardless of distance measurement.
  • the biosensors included in the in-vehicle sensor 526 are provided, for example, in seats, steering wheels, etc., and detect various biometric information of passengers such as the driver.
  • the vehicle sensor 527 includes various sensors for detecting the state of the vehicle 500, and supplies sensor data from each sensor to each section of the vehicle control system 511.
  • the types and number of various sensors included in vehicle sensor 527 are not particularly limited as long as they are the number that can be realistically installed in vehicle 500 .
  • the vehicle sensor 527 includes a speed sensor, an acceleration sensor, an angular velocity sensor (gyro sensor), and an inertial measurement unit (IMU (Inertial Measurement Unit)) integrating them.
  • the vehicle sensor 527 includes a steering angle sensor that detects the steering angle of the steering wheel, a yaw rate sensor, an accelerator sensor that detects the amount of operation of the accelerator pedal, and a brake sensor that detects the amount of operation of the brake pedal.
  • the vehicle sensor 527 includes a rotation sensor that detects the number of revolutions of an engine or a motor, an air pressure sensor that detects tire air pressure, a slip rate sensor that detects a tire slip rate, and a wheel speed sensor that detects the rotational speed of a wheel.
  • a sensor is provided.
  • the vehicle sensor 527 includes a battery sensor that detects remaining battery power and temperature, and an impact sensor that detects an external impact.
  • the recording unit 528 includes at least one of a nonvolatile storage medium and a volatile storage medium, and stores data and programs.
  • the recording unit 528 is used, for example, as EEPROM (Electrically Erasable Programmable Read Only Memory) and RAM (Random Access Memory), and as a storage medium, magnetic storage devices such as HDD (Hard Disc Drive), semiconductor storage devices, optical storage devices, And a magneto-optical storage device can be applied.
  • a recording unit 528 records various programs and data used by each unit of the vehicle control system 511 .
  • the recording unit 528 includes an EDR (Event Data Recorder) and a DSSAD (Data Storage System for Automated Driving), and records information on the vehicle 500 before and after an event such as an accident and biometric information acquired by the in-vehicle sensor 526. .
  • EDR Event Data Recorder
  • DSSAD Data Storage System for Automated Driving
  • the driving support/automatic driving control unit 529 controls driving support and automatic driving of the vehicle 500 .
  • the driving support/automatic driving control unit 529 includes an analysis unit 561 , an action planning unit 562 and an operation control unit 563 .
  • the analysis unit 561 analyzes the vehicle 500 and its surroundings.
  • the analysis unit 561 includes a self-position estimation unit 571 , a sensor fusion unit 572 and a recognition unit 573 .
  • the self-position estimation unit 571 estimates the self-position of the vehicle 500 based on the sensor data from the external recognition sensor 525 and the high-precision map accumulated in the map information accumulation unit 523. For example, the self-position estimation unit 571 generates a local map based on sensor data from the external recognition sensor 525, and estimates the self-position of the vehicle 500 by matching the local map and the high-precision map.
  • the position of the vehicle 500 is based on, for example, the center of the rear wheels versus the axle.
  • a local map is, for example, a three-dimensional high-precision map created using techniques such as SLAM (Simultaneous Localization and Mapping), an occupancy grid map, or the like.
  • the three-dimensional high-precision map is, for example, the point cloud map described above.
  • the occupancy grid map is a map that divides the three-dimensional or two-dimensional space around the vehicle 500 into grids (lattice) of a predetermined size and shows the occupancy state of objects in grid units.
  • the occupancy state of an object is indicated, for example, by the presence or absence of the object and the existence probability.
  • the local map is also used, for example, by the recognizing unit 573 to detect and recognize the situation outside the vehicle 500 .
  • the self-position estimator 571 may estimate the self-position of the vehicle 500 based on the GNSS signal and sensor data from the vehicle sensor 527.
  • the sensor fusion unit 572 combines a plurality of different types of sensor data (for example, image data supplied from the camera 551 and sensor data supplied from the radar 552) to perform sensor fusion processing to obtain new information.
  • Methods for combining different types of sensor data include integration, fusion, federation, and the like.
  • the recognition unit 573 executes a detection process for detecting the situation outside the vehicle 500 and a recognition process for recognizing the situation outside the vehicle 500 .
  • the recognition unit 573 performs detection processing and recognition processing of the situation outside the vehicle 500 based on information from the external recognition sensor 525, information from the self-position estimation unit 571, information from the sensor fusion unit 572, and the like. .
  • the recognition unit 573 performs detection processing and recognition processing of objects around the vehicle 500 .
  • Object detection processing is, for example, processing for detecting the presence or absence, size, shape, position, movement, and the like of an object.
  • Object recognition processing is, for example, processing for recognizing an attribute such as the type of an object or identifying a specific object.
  • detection processing and recognition processing are not always clearly separated, and may overlap.
  • the recognition unit 573 detects objects around the vehicle 500 by clustering the point cloud based on sensor data from the LiDAR 553, the radar 552, or the like for each point group cluster. Thereby, the presence/absence, size, shape, and position of an object around the vehicle 500 are detected.
  • the recognition unit 573 detects the movement of objects around the vehicle 500 by performing tracking that follows the movement of the cluster of points classified by clustering. Thereby, the speed and traveling direction (movement vector) of the object around the vehicle 500 are detected.
  • the recognition unit 573 detects or recognizes vehicles, people, bicycles, obstacles, structures, roads, traffic lights, traffic signs, road markings, etc. from the image data supplied from the camera 551 .
  • the types of objects around the vehicle 500 may be recognized by performing recognition processing such as semantic segmentation.
  • the recognition unit 573 based on the map accumulated in the map information accumulation unit 523, the estimation result of the self-position by the self-position estimation unit 571, and the recognition result of the object around the vehicle 500 by the recognition unit 573, Recognition processing of traffic rules around the vehicle 500 can be performed. Through this processing, the recognizing unit 573 can recognize the position and state of traffic signals, the content of traffic signs and road markings, the content of traffic restrictions, the lanes in which the vehicle can travel, and the like.
  • the recognition unit 573 can perform recognition processing of the environment around the vehicle 500 .
  • the surrounding environment to be recognized by the recognition unit 573 includes the weather, temperature, humidity, brightness, road surface conditions, and the like.
  • the action planning unit 562 creates an action plan for the vehicle 500.
  • the action planning unit 562 creates an action plan by performing route planning and route following processing.
  • trajectory planning is the process of planning a rough route from the start to the goal. This route planning is referred to as trajectory planning, and in the route planned in the route planning, trajectory generation (Local path planning) processing is also included. Path planning may be distinguished from long-term path planning and activation generation from short-term path planning, or from local path planning. A safety priority path represents a concept similar to launch generation, short-term path planning, or local path planning.
  • Route following is the process of planning actions to safely and accurately travel the route planned by route planning within the planned time.
  • the action planning unit 562 can, for example, calculate the target velocity and the target angular velocity of the vehicle 500 based on the results of this route following processing.
  • the motion control unit 563 controls the motion of the vehicle 500 in order to implement the action plan created by the action planning unit 562.
  • the operation control unit 563 controls a steering control unit 581, a brake control unit 582, and a drive control unit 583 included in the vehicle control unit 532, which will be described later, so that the trajectory calculated by the trajectory planning is controlled by the vehicle 500. Acceleration/deceleration control and direction control are performed so as to proceed.
  • the operation control unit 563 performs cooperative control aimed at realizing ADAS functions such as collision avoidance or shock mitigation, follow-up driving, vehicle speed maintenance driving, collision warning of own vehicle, and lane deviation warning of own vehicle.
  • the operation control unit 563 performs cooperative control aimed at automatic driving in which the vehicle autonomously travels without depending on the operation of the driver.
  • the DMS 530 performs driver authentication processing, driver state recognition processing, etc., based on sensor data from the in-vehicle sensor 526 and input data input to the HMI 531, which will be described later.
  • the driver's condition to be recognized by the DMS 530 includes, for example, physical condition, wakefulness, concentration, fatigue, gaze direction, drunkenness, driving operation, posture, and the like.
  • the DMS 530 may perform authentication processing for passengers other than the driver and processing for recognizing the state of the passenger. Also, for example, the DMS 530 may perform a process of recognizing the situation inside the vehicle based on the sensor data from the sensor 526 inside the vehicle. Conditions inside the vehicle to be recognized include temperature, humidity, brightness, smell, and the like, for example.
  • the HMI 531 inputs various data, instructions, etc., and presents various data to the driver.
  • HMI 531 includes an input device for human input of data.
  • the HMI 531 generates an input signal based on data, instructions, etc. input from an input device, and supplies the input signal to each part of the vehicle control system 511 .
  • the HMI 531 includes operators such as touch panels, buttons, switches, and levers as input devices.
  • the HMI 531 is not limited to this, and may further include an input device capable of inputting information by a method other than manual operation using voice, gestures, or the like.
  • the HMI 531 may use, as an input device, a remote control device using infrared rays or radio waves, or an external connection device such as a mobile device or wearable device corresponding to the operation of the vehicle control system 511 .
  • the presentation of data by the HMI 531 will be briefly explained.
  • the HMI 531 generates visual, auditory, and tactile information for passengers or outside the vehicle.
  • the HMI 531 also performs output control for controlling the output, output content, output timing, output method, and the like of each of the generated information.
  • the HMI 531 generates and outputs visual information such as an operation screen, a status display of the vehicle 500, a warning display, an image such as a monitor image showing the situation around the vehicle 500, and information indicated by light.
  • the HMI 531 also generates and outputs information indicated by sounds such as voice guidance, warning sounds, warning messages, etc., as auditory information.
  • the HMI 531 generates and outputs, as tactile information, information given to the passenger's tactile sense by force, vibration, movement, or the like.
  • a display device that presents visual information by displaying an image by itself or a projector device that presents visual information by projecting an image can be applied.
  • the display device displays visual information within the passenger's field of view, such as a head-up display, a transmissive display, or a wearable device with an AR (Augmented Reality) function. It may be a device.
  • the HMI 531 can also use a display device provided in the vehicle 500, such as a navigation device, an instrument panel, a CMS (Camera Monitoring System), an electronic mirror, a lamp, etc., as an output device for outputting visual information.
  • Audio speakers, headphones, and earphones can be applied as output devices for the HMI 531 to output auditory information.
  • a haptic element using haptic technology can be applied as an output device for the HMI 531 to output tactile information.
  • a haptic element is provided at a portion of the vehicle 500 that is in contact with a passenger, such as a steering wheel or a seat.
  • a vehicle control unit 532 controls each unit of the vehicle 500 .
  • the vehicle control section 532 includes a steering control section 581 , a brake control section 582 , a drive control section 583 , a body system control section 584 , a light control section 585 and a horn control section 586 .
  • the steering control unit 581 detects and controls the state of the steering system of the vehicle 500 .
  • the steering system includes, for example, a steering mechanism including a steering wheel, an electric power steering, and the like.
  • the steering control unit 581 includes, for example, a control unit such as an ECU that controls the steering system, an actuator that drives the steering system, and the like.
  • the brake control unit 582 detects and controls the state of the brake system of the vehicle 500 .
  • the brake system includes, for example, a brake mechanism including a brake pedal, an ABS (Antilock Brake System), a regenerative brake mechanism, and the like.
  • the brake control unit 582 includes, for example, a control unit such as an ECU that controls the brake system.
  • the drive control unit 583 detects and controls the state of the drive system of the vehicle 500 .
  • the drive system includes, for example, an accelerator pedal, a driving force generator for generating driving force such as an internal combustion engine or a driving motor, and a driving force transmission mechanism for transmitting the driving force to the wheels.
  • the drive control unit 583 includes, for example, a control unit such as an ECU that controls the drive system.
  • the body system control unit 584 detects and controls the state of the body system of the vehicle 500 .
  • the body system includes, for example, a keyless entry system, smart key system, power window device, power seat, air conditioner, air bag, seat belt, shift lever, and the like.
  • the body system control unit 584 includes, for example, a control unit such as an ECU that controls the body system.
  • the light control unit 585 detects and controls the states of various lights of the vehicle 500 .
  • Lights to be controlled include, for example, headlights, backlights, fog lights, turn signals, brake lights, projections, bumper displays, and the like.
  • the light control unit 585 includes a control unit such as an ECU that controls lights.
  • the horn control unit 586 detects and controls the state of the car horn of the vehicle 500 .
  • the horn control unit 586 includes, for example, a control unit such as an ECU that controls the car horn.
  • FIG. 38 is a diagram showing an example of sensing areas by the camera 551, radar 552, LiDAR 553, ultrasonic sensor 554, etc. of the external recognition sensor 525 in FIG. 38 schematically shows a top view of the vehicle 500, the left end side being the front end (front) side of the vehicle 500, and the right end side being the rear end (rear) side of the vehicle 500.
  • a sensing area 591F and a sensing area 591B show examples of sensing areas of the ultrasonic sensor 554.
  • a sensing area 591F covers the front end periphery of the vehicle 500 with a plurality of ultrasonic sensors 554 .
  • Sensing area 591B covers the rear end periphery of vehicle 500 with a plurality of ultrasonic sensors 554 .
  • the sensing results in the sensing area 591F and the sensing area 591B are used, for example, for parking assistance of the vehicle 500 and the like.
  • Sensing areas 592F to 592B show examples of sensing areas of the radar 552 for short or medium range. Sensing area 592F covers the front of vehicle 500 to a position farther than sensing area 591F. Sensing area 592B covers the rear of vehicle 500 to a position farther than sensing area 591B. Sensing area 592L covers the rear periphery of the left side surface of vehicle 500 . Sensing area 592R covers the rear periphery of the right side surface of vehicle 500 .
  • the sensing result in the sensing area 592F is used, for example, to detect vehicles, pedestrians, etc., existing in front of the vehicle 500, and the like.
  • the sensing result in the sensing area 592B is used, for example, for the rear collision prevention function of the vehicle 500 or the like.
  • the sensing results in sensing area 592L and sensing area 592R are used, for example, for detecting an object in a lateral blind spot of vehicle 500, or the like.
  • Sensing areas 593F to 593B show examples of sensing areas by the camera 551. Sensing area 593F covers the front of vehicle 500 to a position farther than sensing area 592F. Sensing area 593B covers the rear of vehicle 500 to a position farther than sensing area 592B. Sensing area 593L covers the periphery of the left side surface of vehicle 500 . Sensing area 593R covers the periphery of the right side surface of vehicle 500 .
  • the sensing results in the sensing area 593F can be used, for example, for the recognition of traffic lights and traffic signs, the lane departure prevention support system, and the automatic headlight control system.
  • Sensing results in sensing area 593B can be used, for example, for parking assistance and surround view systems.
  • Sensing results in the sensing area 593L and the sensing area 593R can be used, for example, in a surround view system.
  • a sensing area 594 shows an example of the sensing area of the LiDAR 553. Sensing area 594 covers the front of vehicle 500 to a position farther than sensing area 593F. On the other hand, the sensing area 594 has a narrower lateral range than the sensing area 593F.
  • the sensing result in the sensing area 594 is used, for example, for detecting objects such as surrounding vehicles.
  • Sensing area 595 shows an example of a sensing area of radar 552 for long range. Sensing area 595 covers the front of vehicle 500 to a position farther than sensing area 594 . On the other hand, the sensing area 595 has a narrower lateral range than the sensing area 594 .
  • the sensing results in the sensing area 595 are used, for example, for ACC (Adaptive Cruise Control), emergency braking, and collision avoidance.
  • ACC Adaptive Cruise Control
  • emergency braking emergency braking
  • collision avoidance collision avoidance
  • the sensing regions of the camera 551, the radar 552, the LiDAR 553, and the ultrasonic sensor 554 included in the external recognition sensor 525 may have various configurations other than those shown in FIG. Specifically, the ultrasonic sensor 554 may sense the sides of the vehicle 500 , and the LiDAR 553 may sense the rear of the vehicle 500 . Moreover, the installation position of each sensor is not limited to each example mentioned above. Also, the number of each sensor may be one or plural.
  • the technique disclosed in this specification can take the following configurations.
  • a parking space detection unit that performs parking space detection based on sensor detection information and generates a parking space detection result; a parking space correction unit that executes correction processing of the parking space detection result generated by the parking space detection unit;
  • the parking section correction unit a clustering process for determining a plurality of parking spaces that are estimated to be arranged according to a unique arrangement rule from the parking space detection result as a cluster that is one parking space group; a smoothing process that equalizes at least one of the shape and arrangement of a plurality of parking spaces included in one cluster; and correcting the parking space included in the parking space detection result.
  • the parking space detection unit The information processing apparatus according to (1), wherein the parking space detection result is generated based on the detected feature points by detecting the feature points from the image captured by the camera.
  • the parking space detection unit The information processing apparatus according to (1) or (2), which executes bird's-eye view conversion of a camera-captured image, detects feature points from the bird's-eye view converted image, and generates the parking space detection result based on the detected feature points.
  • the parking section correction unit Analyzing the vertex coordinates of each of a plurality of parking bays included in one cluster, and uniformizing at least one of the shape and arrangement of each of the plurality of parking bays in the one cluster based on the analyzed vertex coordinates
  • the information processing apparatus according to any one of (1) to (3), which performs a smoothing process for smoothing.
  • the parking section correction unit The information processing according to any one of (1) to (4), wherein a smoothing process is performed to equalize the length and direction of the width (W) and depth (L) of each of a plurality of parking spaces included in one cluster. Device.
  • the parking section correction unit The information processing apparatus according to any one of (1) to (5), which performs a smoothing process to equalize the length and direction of the interval (S) between adjacent parking spaces in one cluster.
  • the parking section correction unit A vector calculated by calculating the width (W) and depth (L) of each of a plurality of parking spaces included in one cluster and the length and direction of the interval (S) between adjacent parking spaces in the cluster.
  • the information processing apparatus according to any one of (1) to (6), which performs a smoothing process to equalize the
  • the parking section correction unit When a parking space not included in the parking space detection result generated by the parking space detection unit satisfies a parking space insertion condition defined in advance, a process of inserting a new parking space into the cluster is executed (1). (7) The information processing device according to any one of the above.
  • the parking section correction unit (1) to (8) executing a process of inserting a new parking section into the cluster when the blank area between the parking sections in the cluster is a blank area in which one or more but less than two vehicles can be parked.
  • the information processing device according to any one of the above.
  • the parking section correction unit Acquiring time-series data of parking space detection results generated by the parking space detection unit, When it is confirmed that a parking space not included in the cluster of the parking space detection result to be corrected is included in the cluster of the time-series data by comparing and referring to the parking spaces of the clusters of each time-series data, the correction target The information processing apparatus according to any one of (1) to (9), which executes a process of inserting a new parking space into the cluster of the parking space detection result of (1) to (9).
  • the information processing device further has an automatic operation control unit,
  • the automatic operation control unit is The information processing apparatus according to any one of (1) to (10), wherein a parking space correction result corrected by the parking space correction unit is input, and automatic parking processing is executed with reference to the input parking space correction result.
  • the information processing device further includes a display control unit, The display control unit The information processing apparatus according to any one of (1) to (11), which executes a process of inputting a parking space correction result corrected by the parking space correction unit and displaying the input parking space correction result on a display unit.
  • An information processing method executed in an information processing device a parking space detection step in which the parking space detection unit performs parking space detection based on the detection information of the sensor and generates a parking space detection result;
  • the parking space correction unit has a parking space correction step of performing correction processing of the parking space detection result generated by the parking space detection unit,
  • the parking space correction unit in the parking space correction step, a clustering process for determining a plurality of parking spaces that are estimated to be arranged according to a unique arrangement rule from the parking space detection result as a cluster that is one parking space group; a smoothing process that equalizes at least one of the shape and arrangement of a plurality of parking spaces included in one cluster; and correcting the parking spaces included in the parking space detection result.
  • a program for executing information processing in an information processing device a parking space detection step of causing the parking space detection unit to perform parking space detection based on the detection information of the sensor and generate a parking space detection result; cause the parking space correction unit to execute a parking space correction step for executing correction processing of the parking space detection result generated by the parking space detection unit;
  • the program in the parking space correction step, a clustering process for determining a plurality of parking spaces that are estimated to be arranged according to a unique arrangement rule from the parking space detection result as a cluster that is one parking space group; a smoothing process that equalizes at least one of the shape and arrangement of a plurality of parking spaces included in one cluster; to execute correction processing of the parking spaces included in the parking space detection result.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • a program recording the processing sequence is installed in the memory of a computer built into dedicated hardware and executed, or the program is loaded into a general-purpose computer capable of executing various processing. It can be installed and run.
  • the program can be pre-recorded on a recording medium.
  • the program can be received via a network such as a LAN (Local Area Network) or the Internet and installed in a recording medium such as an internal hard disk.
  • a system is a logical collective configuration of a plurality of devices, and there are cases in which devices of each configuration are in the same housing, but it is not limited to devices of each configuration being in the same housing. do not have.
  • a device and method for correcting a parking space detected based on an image captured by a camera and generating parking space correction data with reduced errors are realized.
  • it has a parking space correction unit that performs correction processing of the parking space detection result generated by executing the parking space detection process based on the image captured by the camera.
  • the parking space correction unit determines a plurality of parking spaces estimated to be arranged according to a unique arrangement rule from the parking space detection result as one cluster, and determines the shape and arrangement of the plurality of parking spaces in one cluster.
  • Parking section correction processing is executed by executing smoothing processing for equalizing at least one of the above.
  • the width (W), the depth (L), and the length and direction of the parking space interval (S) of each of the plurality of parking spaces in the cluster are made uniform. This configuration realizes an apparatus and method for correcting a parking space detected based on a camera-captured image and generating parking space correction data with reduced errors.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Traffic Control Systems (AREA)

Abstract

カメラ撮影画像に基づいて検出された駐車区画を補正し、誤差を低減した駐車区画補正データを生成する装置、方法を提供する。カメラ撮影画像に基づく駐車区画検出処理を実行して生成された駐車区画検出結果の補正処理を実行する駐車区画補正部を有する。駐車区画補正部は、駐車区画検出結果から固有の配列規則に従って配列されていると推定される複数の駐車区画を1つのクラスタと判定し、1つのクラスタ内の複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理を実行して駐車区画補正処理を実行する。例えばクラスタ内の複数の駐車区画各々の幅(W)、奥行(L)、駐車区画間隔(S)の長さと方向を均一化する処理を実行する。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関する。具体的には、例えば車両に装着されたカメラの撮影画像など、センサ検出データに基づいて駐車場の駐車区画を高精度に解析する処理を行う情報処理装置、および情報処理方法、並びにプログラムに関する。
 例えば、ショッピングセンターや遊園地、観光地、その他、様々なエリアの駐車場は多数の車両を駐車可能としている場合が多い。
 車両の運転者であるユーザは、駐車場から駐車可能な空きスペースを探して駐車する。この場合、ユーザは、駐車場内で車両を走行させ、周囲を目視で確認して空きスペースを探すことになる。
 このような駐車可能スペースの確認処理は時間を要し、また、狭い駐車場内で走行を行うと他の車両や人との接触事故が起こりやすいという問題がある。
 また、近年、自動運転車両の開発が進んでおり、車両に装着されたカメラ等のセンサ検出情報を用いて駐車区画を検出して空いている駐車区画に自動駐車するといった処理も可能となってきている。
 なお、自動運転車両に限らず、手動運転車両においても車両のカメラで撮影した駐車場の画像を解析して得られた駐車区画を示す画像を車両の表示部に表示して運転者に通知する処理を行う構成についても提案されている。
 しかし、車両のカメラの撮影画像を用いて検出される駐車区画は、精度が十分でなく、誤った駐車区画情報を自動運転制御部や表示部に出力する場合がある。
 例えば駐車場の駐車区画を示す白線等のラインが消えている場合や、薄くなっている場合、あるいは駐車車両によって駐車区画を示すラインが撮影できないといった場合も多く、このような場合、カメラ撮影画像の解析による駐車区画の識別精度は低下する。
 また、カメラのレンズ歪や、斜め上方からのカメラ撮影画像を上空から見た鳥瞰図に変換する場合に発生する補正歪も精度低下の原因となる。
 カメラ撮影画像の解析によって得られた誤った駐車区画を自動運転制御部に出力してしまうと、自動運転制御部は、誤った駐車区画に基づいて自動駐車処理を行ってしまい、実際の駐車区画に対して斜め方向に駐車する事態が発生する。また隣接駐車車両に接触するといった事故を発生させる可能性もある。
 また、誤った駐車区画情報を表示部に出力した場合、運転者は、表示部に表示された誤った駐車区画情報に基づいて駐車処理を行うことになる。この場合、運転者は、実際の駐車区画と異なる表示データに基づいて誤った運転操作を行う可能性があり、隣接する駐車車両への接触など、正しい駐車が困難になる可能性がある。
 なお、カメラ撮影画像の解析によって得られる駐車区画情報を補正する処理を開示した従来技術として特許文献1(特開2017-052471号公報)がある。
 この特許文献1は、駐車場内の複数の駐車区画から1つの目標駐車区画を選択し、この1つの目標駐車区画を周囲の駐車区画データに基づいて補正する構成を開示している。
 しかし、この特許文献1に記載の構成は、駐車場内の複数の駐車区画から選択される1つの目標駐車区画のみの区画補正を行うものであり、多数の駐車区画をまとめて補正する処理を行うものではなく、駐車目標位置が未定の場合には利用することができない。また、複数の駐車区画を正確に表示部に表示する処理を行うこともできないといった様々な問題がある。
特開2017-052471号公報
 本開示は、例えば上記問題点に鑑みてなされたものであり、車両のカメラ等のセンサの検出情報を入力して駐車場の駐車区画を高精度に解析する情報処理装置、および情報処理方法、並びにプログラムを提供することを目的とする。
 本開示の第1の側面は、
 センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成する駐車区画検出部と、
 前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行する駐車区画補正部を有し、
 前記駐車区画補正部は、
 前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
 1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
 を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行する情報処理装置にある。
 さらに、本開示の第2の側面は、
 情報処理装置において実行する情報処理方法であり、
 駐車区画検出部が、センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成する駐車区画検出ステップと、
 駐車区画補正部が、前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行する駐車区画補正ステップを有し、
 前記駐車区画補正部は、前記駐車区画補正ステップにおいて、
 前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
 1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
 を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行する情報処理方法にある。
 さらに、本開示の第3の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 駐車区画検出部に、センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成させる駐車区画検出ステップと、
 駐車区画補正部に、前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行させる駐車区画補正ステップを実行させ、
 前記プログラムは、前記駐車区画補正ステップにおいて、
 前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
 1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
 を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な情報処理装置、画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、情報処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本発明の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、カメラ撮影画像に基づいて検出された駐車区画を補正し、誤差を低減した駐車区画補正データを生成する装置、方法が実現される。
 具体的には、例えば、カメラ撮影画像に基づく駐車区画検出処理を実行して生成された駐車区画検出結果の補正処理を実行する駐車区画補正部を有する。駐車区画補正部は、駐車区画検出結果から固有の配列規則に従って配列されていると推定される複数の駐車区画を1つのクラスタと判定し、1つのクラスタ内の複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理を実行して駐車区画補正処理を実行する。例えばクラスタ内の複数の駐車区画各々の幅(W)、奥行(L)、駐車区画間隔(S)の長さと方向を均一化する処理を実行する。
 本構成により、カメラ撮影画像に基づいて検出された駐車区画を補正し、誤差を低減した駐車区画補正データを生成する装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
カメラ撮影画像等のセンサ検出情報を利用した駐車区画検出処理例について説明する図である。 カメラ撮影画像等のセンサ検出情報を利用した駐車区画検出処理例について説明する図である。 カメラ撮影画像等のセンサ検出情報を利用した駐車区画検出処理例における問題点ついて説明する図である。 カメラ撮影画像等のセンサ検出情報を利用した駐車区画検出処理例における問題点ついて説明する図である。 カメラ撮影画像等のセンサ検出情報を利用した駐車区画検出処理例における問題点ついて説明する図である。 本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理装置の駐車区画検出部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部と駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部と駐車区画補正部、および自動運転制御部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の処理によって自動駐車処理を行った場合の駐車処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部と駐車区画補正部、および表示制御部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理のシーケンスを説明するフローチャートを示す図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部と駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理のシーケンスを説明するフローチャートを示す図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部と駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画検出部と駐車区画補正部が実行する処理の具体例について説明する図である。 本開示の情報処理装置の駐車区画補正部が実行する処理のシーケンスを説明するフローチャートを示す図である。 本開示の情報処理装置のハードウェア構成例について説明する図である。 本開示の情報処理装置を搭載した車両の構成例について説明する図である。 本開示の情報処理装置を搭載した車両のセンサの構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行う。
 1.駐車場における車両駐車処理の一般的な処理と、その問題点について
 2.(実施例1)本開示の情報処理装置の構成と、実行する処理の詳細について
 3.駐車区画補正部が実行する処理のシーケンスについて
 4.(実施例2)階段状の駐車区画の補正例について
 5.(実施例3)駐車区画検出部が検出できなかった駐車区画を駐車区画補正部で挿入して駐車区画補正結果を生成する実施例について
 6.(実施例4)駐車区画検出部が生成した駐車区画検出結果の時系列データを適用して駐車区画補正処理を実行する実施例について
 7.本開示の情報処理装置のハードウェア構成例について
 8.車両の構成例について
 9.本開示の構成のまとめ
  [1.駐車場における車両駐車処理の一般的な処理と、その問題点について]
 まず、駐車場における車両駐車処理の一般的な処理と、その問題点について説明する。
 図1以下を参照して、車両を駐車場に駐車させる場合の一般的な走行例について説明する。
 図1は、例えば、ショッピングセンターや遊園地、観光地、その他の様々なエリアの駐車場30の一例を示している。この駐車場30は、複数の駐車区画を有し、各駐車区画に車両を駐車可能とした構成を持つ。
 従来の一般的な駐車処理は、車両10の運転者であるユーザが目視で駐車場30から駐車可能な空きスペースを探して駐車するといった処理が実行される場合が多い。
 この場合、ユーザは、駐車場内で車両を走行させ、周囲を目視で確認して空きスペースを探すことになる。
 このような駐車可能スペースの確認処理は時間を要し、また、狭い駐車場内で走行を行うと他の車両や人との接触事故が起こりやすいという問題がある。
 このような問題を解決する手法の一つとして、車両10に装着されたカメラ等のセンサ20の検出情報を用いて駐車区画を検出する方法がある。
 例えば、近年、開発が進んでいる自動運転車両は、車両に装着されたカメラ等のセンサ検出情報を用いて駐車区画を検出して空いている駐車区画に自動駐車する処理を行う。
 自動運転車両に限らず、手動運転車両においても車両のカメラが撮影した駐車場の撮影画像を解析して駐車場内の駐車区画を判別して車両の表示部に表示し、運転者に駐車区画情報を提示するといった処理が可能である。
 図1に示す車両10は、カメラ等のセンサ20を装着している。センサ20は、例えば車両10の前方の画像を撮影するカメラや距離センサなどによって構成される。
 しかし、車両10のセンサ20の検出情報、例えばカメラ撮影画像の解析を行って検出される駐車区画は精度が低く、誤った駐車区画情報を自動運転制御部や表示部に出力してしまう場合がある。
 例えば駐車場の駐車区画を示す白線等のラインが消えている場合や、薄くなっている場合、あるいは駐車車両によって駐車区画ラインが撮影できない場合、カメラ撮影画像の解析による駐車区画の判別精度は低下する。
 また、カメラのレンズ歪や、斜め上方からのカメラ撮影画像を上空から見た鳥瞰図に変換する場合に発生する補正歪も精度低下の原因となる。
 カメラ撮影画像の解析によって得られた誤った駐車区画情報を自動運転制御部に出力してしまうと、自動運転制御部は、誤った駐車区画情報に基づいて自動駐車処理を行ってしまい、隣接する駐車車両に接触してしまうといった事故を発生させる可能性がある。
 また、誤った駐車区画情報を表示部に出力した場合、運転者は、表示部に表示された誤った駐車区画情報に基づいて駐車処理を行うことになる。この場合、運転者は、実際の駐車区画と異なる表示データに基づいて誤った運転操作を行う可能性があり、隣接する駐車車両への接触など、正しい駐車処理が困難になる可能性がある。
 例えば図1に示す例において、車両10は、カメラ等のセンサ20により、駐車場30の画像を撮影して、車両10内部の情報処理装置で画像解析を行い、画像内に含まれる白線などの情報に基づいて、駐車区画を判別する。
 例えば、正しい画像解析が行われた場合、図2に示すような、駐車区画P01~P04が検出されることになる。
 しかし、車両10に装着されたカメラ等のセンサ20は、駐車場30の画像を上方から撮影できるわけではない。駐車場30の入り口において、斜め前方方向の駐車場30の画像を撮影して解析することになる。
 すなわち、図3(a)に示すような撮影画像を用いて解析処理を行うことになる。
 図3(a)に示す撮影画像には、駐車区画を示す白線が駐車車両の陰になっている部分があり、このような場合、正確な駐車区画の解析を行うことが困難となる。
 このような場合、車両10内の情報処理装置、すなわち図3に示す駐車区画解析部51は、図3(b)に示すような誤差を多く含む駐車区画解析結果を生成してしまう可能性がある。
 なお、図3に示す駐車区画解析部51は、図3(a)に示すような撮影画像、あるいはこの撮影画像を上空から観察した俯瞰画像に変換して、変換後の俯瞰画像を用いて例えば白線等を示す特徴点を抽出して、抽出した特徴点に基づいて駐車区画を判別する。
 この結果、図3(b)に示すような誤差を多く含む駐車区画解析結果を生成してしまう可能性がある。
 図3(b)に示すような精度の低い駐車区画解析結果が生成され、この解析結果が、例えば自動運転制御部に出力されると自動運転制御部は誤った駐車区画解析結果に基づいて誤った自動駐車処理を行ってしまう可能性がある。
 図4は、自動運転制御部による誤った自動駐車処理の具体例を説明する図である。
 図4に示す駐車区画解析部51は、図4(b)に示すような誤差を含む駐車区画解析結果を自動運転制御部52に出力する。
 自動運転制御部は、この誤差を含む駐車区画解析結果に従って自動駐車処理を行う。
 自動運転制御部52は、まず、図4(c1)に示すように自動駐車用走行ルートを決定する。次に、(c2)に示すように、決定した自動駐車用走行ルートに従って車両10を走行させて自動駐車処理を行う。
 図4(c2)に示すように、車両10は、駐車区画解析部51が解析した誤った駐車区画内に収まるように駐車される。
 図5は、この自動駐車処理の結果を示している。車両10は、実際の駐車区画内に斜めに駐車されてしまうことになる。
 このように、カメラ撮影画像等、センサ20の検出情報を用いて解析される駐車区画の精度が低く誤差を含む駐車区画検出結果が生成されてしまうと、誤った処理が行われることになる。
 本開示は、このような問題を解決するものであり、車両のカメラ等のセンサの検出情報を入力して駐車場の駐車区画を高精度に解析することを可能とするものである。
 以下、本開示の装置、処理の詳細について説明する。
  [2.(実施例1)本開示の情報処理装置の構成と、実行する処理の詳細について]
 次に、実施例1として本開示の情報処理装置の構成と、実行する処理の詳細について説明する。
 図6は、本開示の情報処理装置の一構成例を示す図である。
 なお、以下に説明する実施例では、本開示の情報処理装置が自動運転車両に装着された場合の例について説明する。
 なお、本開示の情報処理装置は、自動運転車両内に限らず、その他の一般的な車両内に装着することも可能である。
 図6は、本開示の情報処理装置120を有する移動装置(自動運転車両)100の構成を示すブロック図である。
 移動装置(自動運転車両)100は、カメラ等のセンサ110、本開示の情報処理装置120、駆動部(自動運転実行部)140、表示部150を有する。
 情報処理装置120は、駐車区画解析部121、自動運転制御部122、表示制御部123を有する。
 さらに、駐車区画解析部121は、駐車区画検出部131、駐車区画補正部132を有する。
 移動装置(自動運転車両)100に備えられたセンサ110は、例えばカメラ、LiDAR(Light Detection and Ranging)、ToF(Time of Flight)センサ等のセンサである。
 なお、LiDAR(Light Detection and Ranging)やToFセンサは、例えばレーザ光等の光を出力してオブジェクトによる反射光を解析して、周囲のオブジェクトの距離を計測するセンサである。
 センサ110の検出情報、例えばカメラの撮影画像は、情報処理装置120の駐車区画解析部121内の駐車区画検出部131に入力される。
 駐車区画検出部131は、センサ110の検出情報、例えばカメラの撮影画像に基づいて駐車区画の検出処理を実行する。
 図7を参照して、駐車区画検出部131が実行する駐車区画検出処理の具体例について説明する。
 図7には、以下の各図を示している。
 (a)センサ110の撮影画像
 (b)駐車区画検出部131が撮影画像に基づいて解析した駐車区画検出結果
 移動装置(自動運転車両)100に装着されたカメラ等のセンサ110は、駐車場の画像を上方からではなく駐車場入り口から斜め前方方向の駐車場の画像を撮影する。
 すなわち、駐車区画検出部131は、図7(a)に示すような撮影画像をセンサ110から入力して、駐車区画を検出する処理を行う。
 駐車区画検出部131は、図7(a)に示すような撮影画像、あるいはこの撮影画像を上空から観察した俯瞰画像に変換して、変換後の俯瞰画像を用いて、例えば駐車区画を示す白線等を示す特徴点を抽出して、抽出した特徴点に基づいて駐車区画を判別する。
 しかし、図7(a)に示す撮影画像から理解されるように、駐車区画を示す白線が駐車車両の陰になっている部分があり、さらに、駐車場によっては白線が途切れてしまっているような場合もある。このような場合、正確な駐車区画の解析を行うことが困難となる。
 また、センサ110であるカメラのレンズ歪などに起因する誤差もある。
 さらに、駐車区画の検出を行う際に実行する画像変換処理、例えば、斜め上方からのカメラ撮影画像を上面から見た画像に変換する鳥瞰画像への画像変換処理や、座標系の変換処理、例えばベースリンク座標系-ワールド座標系の座標変換等の処理も誤差発生の要因となる。
 この結果、駐車区画検出部131の生成する駐車区画解析結果は、例えば図7(b)に示すような誤差を含む駐車区画解析結果となる場合がある。
 この誤差が含まれる駐車区画検出結果は、駐車区画解析部121の駐車区画補正部132に入力される。
 駐車区画補正部132は、駐車区画検出部131から入力した誤差を含む駐車区画検出結果の補正処理を実行する。
 図8を参照して、駐車区画補正部132が実行する駐車区画検出結果の補正処理の具体例について説明する。
 駐車区画補正部132が実行する駐車区画検出結果の補正処理は、以下の2つの処理ステップに従って実行される。
 (第1ステップ)規則性を持つ配列からなると推定される複数の駐車区画を1つの駐車区画群(クラスタ)として設定するクラスタリング処理
 (第2ステップ)1つの駐車区画群(クラスタ)内の複数の駐車区画の位置(配列)、形状、向きの全て、または少なくともいずれかを調整して均一なデータとするクラスタ内駐車区画平滑化処理
 図8の右側には駐車区画補正部132が実行する上記の第1ステップの処理と、第2ステップの処理例を示している。
 まず、駐車区画補正部132は、(第1ステップ)として、規則性を持つ配列からなると推定される複数の駐車区画を1つの駐車区画群(クラスタ)として設定するクラスタリング処理を実行する。
 図8(第1ステップ)に示す例は、駐車区画検出部131が検出した4つの駐車区画P01~P04を1つのクラスタとして選択した例である。
 次に、駐車区画補正部132は、(第2ステップ)として、1つの駐車区画群(クラスタ)内の複数の駐車区画の位置(配列)、形状、向きの全て、または少なくともいずれかを調整して均一なデータとするクラスタ内駐車区画平滑化処理を実行する。
 図8(第2ステップ)に示す例は、1つのクラスタ内の複数の駐車区画の位置(配列)、形状、向きの全てを均一化するクラスタ内駐車区画平滑化処理を実行した結果として得られる駐車区画P1~P4の補正結果を示している。
 図8(第2ステップ)に示す駐車区画P1~P4の補正結果は、駐車区画P1~P4から構成される1つのクラスタ内の駐車区画P1~P4の位置(配列)、形状、向きの全てが均一に調整されている。
 図9以下を参照して、駐車区画解析部121の駐車区画検出部131と、駐車区画補正部132の実行する処理の具体例について説明する。
 まず、図9を参照して駐車区画解析部121の駐車区画検出部131の実行する処理の具体例について説明する。
 駐車区画解析部121の駐車区画検出部131は、まず、カメラ等のセンサ110からセンサ検出情報を入力する。例えば駐車場入り口で、駐車場を斜め上方から撮影した駐車場の撮影画像を入力する。図9(s11)に示す撮影画像である。
 駐車区画検出部131は、まず、この(s11)に示す撮影画像を、図9(s12)に示す俯瞰画像、すなわち上から駐車場を見た俯瞰画像に変換する。
 次に、駐車区画検出部131は、変換した俯瞰画像を用いて特徴点抽出処理を行う。例えば図9(s13)に示す黒丸が特徴点である。
 なお、図9(s13)には特徴点抽出例を簡略化して示している。特徴点抽出処理は画素単位で実行され、実際には図9(s13)に示す特徴点数よりはるかに多い多数の特徴点が抽出される。
 特徴点は、例えば画像内のエッジ部分など輝度変化の大きな画素などから抽出される。具体的には、例えば駐車区画を示す白線の輪郭部分や、車両の輪郭部分などの画素領域から特徴点が抽出されることになる。
 次に、駐車区画検出部131は、図9(s13)に示す特徴点を解析し、駐車区画を示す領域を検出する。例えば駐車区画に相当すると推定される矩形形状を抽出して、駐車区画の推定処理を行う。図9(s14)に示す例は4つの駐車区画を検出した例である。
 このように、駐車区画解析部121の駐車区画検出部131は、カメラ等のセンサ110からセンサ検出情報、例えばカメラ撮影画像を入力し、画像の俯瞰変換を実行し、変換後の俯瞰画像から特徴点を抽出して、抽出した特徴点に基づいて駐車区画を検出する。
 しかし、前述したように、駐車区画検出部131が生成する駐車区画検出結果は、図9(s14)に示すように精度の低い結果となる場合が多い。すなわち、実体とは異なる誤差を含む駐車区画検出結果が出力されることが多い。
 これは、前述したようにセンサ110から入力する撮影画像自身の問題、すなわち、駐車区画を示す白線が駐車車両の陰になって見えない部分があることや、駐車区画を示す白線が薄い、あるいは区画線が切れているといった問題の他、カメラ構造上の問題や、撮影画像に対する画像処理に起因する問題など、様々な要因によるものである。
 カメラ構造上の問題とは例えばカメラのレンズ歪等であり、画像処理に起因する問題とは、例えば鳥瞰変換処理や、座標変換処理において発生する変換誤差などである。
 これらの様々な要因により、駐車区画検出部131の生成する駐車区画解析結果は、例えば図9(s14)に示すような誤差を多く含む駐車区画解析結果となる場合が多い。
 駐車区画検出部131が生成した誤差を含む駐車区画検出結果は、駐車区画解析部121の駐車区画補正部132に入力される。
 駐車区画補正部132は、駐車区画検出部131から入力した誤差を含む駐車区画検出結果の補正処理を実行し、誤差を低減した駐車区画データを生成する。
 図10以下を参照して、駐車区画補正部132が実行する駐車区画補正処理の具体例について説明する。
 駐車区画補正部132は、まず、駐車区画検出部131から入力した誤差を含む駐車区画検出結果の中心座標や頂点座標、大きさ、隣接区画との各頂点の座標差分などを算出する。
 図10(ステップS21)に示すように、駐車区画P01~P04各々の中心座標や頂点座標、大きさ、隣接区画との各頂点の座標差分などを算出する。
 図10(S21)には、駐車区画P01~P04各々の中心座標、頂点座標を示している。
 さらに、駐車区画補正部132は、算出した各駐車区画の座標情報に基づいて、駐車区画の区分分けとしてのクラスタリングを行う。
 具体的には、1つの配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群(=クラスタ)と判定するクラスタリング処理(駐車区画群区分処理)を実行する。
 図10(S22)に示す4つの駐車区画P01~P4は1つのクラスタ(駐車区画群)である。
 実際には、例えば図11(1)に示すように、1つの駐車場内に多数の駐車区画が分散して存在するような場合が多い。
 このような場合、駐車区画補正部132は、図11(1)に示すような多数の駐車区画を、図11(2)に示すような3つのクラスタA~Cに分類する。
 図11(2)に示す3つのクラスタA~Cの各々は、それぞれ個別の配列規則(クラスタ固有の配列規則)に従って配列した駐車区画群(クラスタ)である。
 このように、駐車区画補正部132は、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 次に、駐車区画補正部132は、クラスタ単位で、駐車区画の補正処理を実行する。
 図12を参照して駐車区画補正部132が実行するクラスタ単位の駐車区画補正処理の具体例について説明する。
 駐車区画補正部132は、図12(ステップS23)に示すように、1つのクラスタに含まれる駐車区画P1~P4の幅(W)、奥行(L)、隣接駐車区画の間隔(S)の長さと方向を算出する。
 なお、これらの駐車区画P1~P4の幅(W)、奥行(L)、隣接駐車区画の間隔(S)の長さと方向は、先に説明した図10(ステップS21)において算出した駐車区画P1~P4の中心座標や頂点座標に基づいて算出することができる。
 図12(ステップS23)に示す例は1つのクラスタ内に4つの駐車区画P1~P4が含まれており、この場合、駐車区画補正部132は、以下の各データを算出する。
 駐車区画P01の幅(W1)と奥行(L1)各々の長さと方向、
 駐車区画P02の幅(W2)と奥行(L2)各々の長さと方向、
 駐車区画P03の幅(W3)と奥行(L3)各々の長さと方向、
 駐車区画P04の幅(W4)と奥行(L4)各々の長さと方向、
 駐車区画P01と駐車区画P02との間隔(S12)の長さと方向、
 駐車区画P02と駐車区画P03との間隔(S23)の長さと方向、
 駐車区画P03と駐車区画P04との間隔(S34)の長さと方向、
 なお、上記の駐車区画の幅(W)、奥行(L)、区画の間隔(S)の各データには、長さデータのみならず幅(W)、奥行(L)、間隔(S)の長さを計測した方向データも含まれる。これらの長さと方向は、例えば幅(W)、奥行(L)、間隔(S)各データの端点の座標位置から取得可能である。
 なお、上記の各駐車区画P0~P4の幅(W)、奥行(L)、および各駐車区画の間隔(S)の長さと方向を含むデータは各々ベクトルとして表現可能である。
 すなわち、駐車区画補正部132は、図12(ステップS23)において、各駐車区画の幅(W)を示すベクトル(VW)と、各駐車区画の奥行を示すベクトル(VL)と、各駐車区画の間隔を示すベクトル(VS)を算出する。
 次に、駐車区画補正部132は、図12(ステップS24)に示すように、クラスタ単位の処理として、1つのクラスタに含まれる駐車区画の位置(配列)、形状、向きの平滑化処理を実行する。
 駐車区画補正部132は、先に説明した図10(ステップS21)において算出した駐車区画P1~P4の中心座標や頂点座標に基づいて、1つのクラスタに含まれる複数の駐車区画、すなわち図12(S23)に示す駐車区画P1~P4の幅(W)、奥行(L)、区画の間隔(S)の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、図12(S24)に示すように、駐車区画P1~P4の幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 駐車区画補正部132は、例えば、各駐車区画の平滑化データとして、以下の各値を算出する。
 平滑化駐車区画幅(=駐車区画幅ベクトル):長さ=W01、方向=y方向
 平滑化駐車区画奥行(=駐車区画奥行ベクトル):長さ=L01、方向=x方向
 平滑化駐車区画間隔(=駐車区画間隔ベクトル):長さ=S01、方向=y方向
 さらに、これらの平滑化データである平滑化駐車区画幅(W01),平滑化駐車区画奥行(L01),平滑化駐車区画間隔(S01)の長さと方向データを用いて、クラスタ内の駐車区画を再配置して、図12(S24)に示すような補正された駐車区画データ(P01~P04)を生成する。
 この補正後のクラスタ内の複数の駐車区画(P01~P04)は、同一の均一化された平滑化駐車区画幅(W01),平滑化駐車区画奥行(L01),平滑化駐車区画間隔(S01)の長さと方向を持つデータ(共通のベクトル)によって構成される。
 なお、駐車区画P1~P4の幅(W)、奥行(L)、駐車区画間隔(S)の平滑化処理の手法としては、様々な手法が適用可能である。
 例えば単純な平均化処理が利用可能である。すなわち、
 平滑化駐車区画幅W01=(W1+W2+W3+W4)/4
 平滑化駐車区画奥行L01=(L1+L2+L3+L4)/4
 平滑化駐車区画間隔S01=(S12+S23+S34)/3
 このような平均化処理を実行して各データの平滑化データを算出することができる。
 さらに、検出精度が一番高いと推定される自車に近い側の駐車区画から取得される形状や間隔、方向を基準として、遠方の駐車区画の形状、間隔、方向をこれに一致させるといった手法を行ってもよい。
 また、最小二乗法による線形近似や、加重移動平均等を利用して算出する処理を行ってもよい。
 加重移動平均による平滑化データの算出処理を行う場合、例えば検出精度が一番高いと推定されるセンサ110に近い駐車区画の測定データの重みを大きくして算出するといった処理が可能である。
 この他、重み付けには自車との距離や、検出精度の評価値である認識スコア等が利用できる。
 さらに、様々な駐車場の駐車区画設定データに基づく機械学習処理の結果を用いて駐車区画の平滑化処理を行ってもよい。
 以上、図6に示す情報処理装置120内の駐車区画解析部121の駐車区画検出部131と駐車区画補正部132が実行する駐車区画検出処理と駐車区画補正処理の詳細について説明した。
 図6に示すように、駐車区画解析部121の駐車区画補正部132が生成した駐車区画補正データは、自動運転制御部122と、表示制御部123に出力される。
 自動運転制御部122は、駐車区画解析部121の駐車区画補正部132が生成した駐車区画補正データを入力し、入力した駐車区画補正データに基づいて、自動駐車処理のための走行ルートを決定する。さらに、駆動部140に決定した走行ルートに従って車両を走行させて自動駐車処理を実行させる駆動情報を出力して自動駐車を行う。
 図13を参照して、自動運転制御部122による自動駐車処理の実行例について説明する。
 図13は、駐車区画解析部121の駐車区画検出部131が実行する処理と、駐車区画補正部132が実行する処理と、自動運転制御部122が実行する処理を説明する図である。
 駐車区画解析部121の駐車区画検出部131は、センサ110の検出情報、例えばカメラの撮影画像に基づいて駐車区画の検出処理を実行する。すなわち、先に図9を参照して説明したように、撮影画像から、例えば駐車区画を示す白線等を示す特徴点を抽出して、抽出した特徴点に基づいて駐車区画を検出し、図13(1)に示すような駐車区画検出結果を生成する。
 しかし、駐車区画検出部131が生成する駐車区画検出結果は、図13(1)に示すように実体とは異なる誤差を含む結果である。
 駐車区画検出部131が生成した誤差を含む駐車区画検出結果、すなわち、図13(1)に示す駐車区画検出結果は、駐車区画解析部121の駐車区画補正部132に入力される。
 駐車区画補正部132は、駐車区画検出部131から入力した誤差を含む駐車区画検出結果の補正処理を実行し、誤差を低減した駐車区画データを生成する。
 駐車区画補正部132は、例えば先に図10~図12を参照して説明した処理を実行して、誤差を低減した駐車区画データを生成する。
 すなわち、図13(2)に示す駐車区画補正結果である。
 駐車区画補正部132が生成したこの図13(2)に示す駐車区画補正結果が自動運転制御部122に出力される。
 自動運転制御部122は、誤差が低減された図13(2)に示す駐車区画補正結果に従って自動駐車処理を行う。
 自動運転制御部122は、まず、図13(3a)に示すように、駐車区画補正結果を利用して自動駐車用走行ルートを決定する。次に、(3b)に示すように、決定した自動駐車用走行ルートに従って移動装置(自動運転車両)100を走行させて自動駐車処理を行う。
 図13(3b)に示すように、移動装置(自動運転車両)100は、駐車区画補正部132が生成した図13(2)に示す駐車区画補正結果に規定された1つの駐車区画内に収まるように駐車される。
 図14は、この自動駐車処理の結果を示している。移動装置(自動運転車両)100は、実際の駐車区画内に正確に駐車することが可能となる。
 このように、駐車区画補正部132が生成した誤差の少ない図13(2)に示す駐車区画補正結果を利用して自動駐車を行うことで、移動装置(自動運転車両)100は、実際の駐車区画内に正確に駐車することが可能となる。
 図6に示すように、駐車区画解析部121の駐車区画補正部132が生成した駐車区画補正データは、自動運転制御部122の他、表示制御部123にも出力される。
 表示制御部123は、駐車区画解析部121の駐車区画補正部132が生成した駐車区画補正データを入力し、入力した駐車区画補正データに基づいて表示部150に出力する表示データを生成して表示する。
 図15を参照して、表示制御部123による表示データの生成処理と表示部150に対する表示データの出力処理の実行例について説明する。
 図15は、駐車区画解析部121の駐車区画検出部131が実行する処理と、駐車区画補正部132が実行する処理と、表示制御部123が実行する表示部150に対する表示データ出力処理例を説明する図である。
 駐車区画解析部121の駐車区画検出部131と駐車区画補正部132の処理は、先に図13を参照して説明した処理と同様の処理である。
 すなわち、駐車区画検出部131は、センサ110の検出情報、例えばカメラの撮影画像に基づいて駐車区画の検出処理を実行し、図15(1)に示すような駐車区画検出結果を生成する。
 しかし、駐車区画検出部131が生成する駐車区画検出結果は、図15(1)に示すように実体とは異なる誤差を含む結果である。
 駐車区画検出部131が生成した誤差を含む駐車区画検出結果、すなわち、図15(1)に示す駐車区画検出結果は、駐車区画解析部121の駐車区画補正部132に入力される。
 駐車区画補正部132は、駐車区画検出部131から入力した誤差を含む駐車区画検出結果の補正処理を実行し、誤差を低減した駐車区画データを生成する。
 駐車区画補正部132は、例えば先に図10~図12を参照して説明した処理を実行して、誤差を低減した駐車区画データを生成する。
 すなわち、図15(2)に示す駐車区画補正結果である。
 駐車区画補正部132が生成したこの図15(2)に示す駐車区画補正結果が表示制御部123に出力される。
 表示制御部123は、誤差が低減された図15(2)に示す駐車区画補正結果を利用して、表示部150に対する表示データを生成する。
 例えば、先に図9を参照して説明した駐車区画検出部131が生成した俯瞰画像上に、駐車区画補正部132が生成した図15(2)に示す駐車区画補正結果を重畳した画像を生成して、表示部150に出力する。
 この重畳画像が、図15に示す表示部150の表示データである。
 図15に示すように、表示部150には、駐車区画検出部131が生成した俯瞰画像上に、駐車区画補正部132が生成した図15(2)に示す駐車区画補正結果が点線画像として重畳されている。
 例えば移動装置(自動運転車両)100のユーザ(運転者)は、表示部150の表示画像を見て、駐車区画の構成や、空きスペースを正しく把握することが可能となり、空いている駐車区画に対して、正確に駐車処理を行うことができる。
 このように、駐車区画補正部132が生成した誤差の少ない図15(2)に示す駐車区画補正結果を利用した表示データを生成して表示部150に表示することで、移動装置(自動運転車両)100のユーザ(運転者)は、駐車区画の構成や、空きスペースを正しく把握でき、正確にかつ迅速な駐車処理を行うことが可能となる。
  [3.駐車区画補正部が実行する処理のシーケンスについて]
 次に、駐車区画補正部が実行する処理のシーケンスについて説明する。
 図16に示すフローチャートを参照して図6に示す情報処理装置120内の駐車区画解析部121内の駐車区画補正部132が実行する処理のシーケンスについて説明する。
 なお、本開示の情報処理装置120は例えばCPU等のプログラム実行機能を持ち、図16に示すフローは、情報処理装置内の記憶部に格納されたプログラムに従って実行される。
 以下、図16に示すフローチャートの各ステップの処理について説明する。
  (ステップS101)
 まず、ステップS101において、駐車区画解析部121内の駐車区画補正部132は、駐車区画検出部131が生成した駐車区画検出結果を入力する
 前述したように、駐車区画検出部131が生成した駐車区画検出結果は実体とは異なる誤差を含む駐車区画検出結果である場合が多い。
  (ステップS102)
 次に、駐車区画補正部132は、ステップS102において、駐車区画検出部131が生成した駐車区画検出結果に含まれる複数の駐車区画について、クラスタリング処理を実行する。
 すなわち、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(=クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 なお、例えば隣接する複数の駐車区画が検出された場合でも、その隣接する複数の駐車区画の形状などの分散や偏差などが、予め規定したしきい値以上となった場合は、これらの複数の隣接する駐車区画には規則性が無いものとみなし、クラスタの設定を行わない。
  (ステップS103)
 ステップS103以下の処理は、クラスタ単位で実行する処理である。
 まず、駐車区画補正部132は、ステップS103において、処理対象とするクラスタを選択する。
  (ステップS104)
 次に、駐車区画補正部132は、ステップS104において、処理対象として選択したクラスタ内にある駐車区画各々の位置、形状を解析し、解析結果に基づいて、クラスタ内の駐車区画の形状、および配列の少なくともいずれか一方の平滑化処理を実行して、駐車区画補正結果を生成する。
 具体的には、例えば、駐車区画各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向を算出する。
 この処理は、先に図12の(ステップS23)を参照して説明した処理である。
 すなわち、駐車区画補正部132は、処理対象として選択した1つのクラスタ内の駐車区画各々の幅(W)を示すベクトル(VW)と、各駐車区画の奥行を示すベクトル(VL)と、各駐車区画の間隔を示すベクトル(VS)を算出する。
 次に、駐車区画補正部132は、クラスタに含まれる駐車区画P1~Pnの位置(配列)、形状、向きの平滑化処理を実行する。
 この処理は、先に図12の(ステップS24)を参照して説明した処理である。
 具体的には、処理対象として選択したクラスタに含まれる駐車区画P1~Pn各々の中心座標や頂点座標に基づいて、駐車区画P1~Pn各々の幅(W)、奥行(L)、区画の間隔(S)の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、処理対象として選択したクラスタに含まれる駐車区画P1~Pnの幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 このステップS104の処理によって、選択クラスタ内の駐車区画P1~Pnは、誤差が低減され、実際の駐車区画にほぼ一致した駐車区画に補正されることになる。
  (ステップS105)
 次に、駐車区画補正部132は、ステップS105において、駐車区画補正処理の完了していない未処理クラスタがあるか否かを判定する。
 未処理クラスタがある場合は、ステップS103に戻り、未処理クラスタについてステップS104の処理を実行する。
 ステップS105において、駐車区画補正処理の完了していない未処理クラスタがないと判定した場合は処理を完了する。
 この図16に示すフローに従った処理を実行することで、駐車区画検出部131が生成した誤差を含む駐車区画検出結果が補正され、実際の駐車区画とほぼ一致する補正された駐車区画データが生成されることになる。
 この図16に示すフローに従った処理の具体的な処理例について、図17以下を参照して説明する。
 まず、図17を参照して、ステップS102のクラスタリング処理の具体例について説明する。
 駐車区画補正部132は、ステップS102において、駐車区画検出部131が生成した駐車区画検出結果に含まれる複数の駐車区画について、クラスタリング処理を実行する。
 すなわち、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(=クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 駐車区画検出部131から入力した駐車区画検出結果が、例えば図17(1)に示すデータであるとする。
 駐車区画補正部132は、図17(1)に示すような多数の駐車区画を、図17(2)に示すような3つのクラスタA~Cに分類する。
 図17(2)に示す3つのクラスタA~Cの各々は、それぞれ個別の配列規則(クラスタ固有の配列規則)に従って配列した駐車区画群(クラスタ)である。
 このように、駐車区画補正部132は、ステップS102において、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 次に、ステップS103~S104の処理の具体例について、図18以下を参照して説明する。
 図18(S103)は、図16に示すフローのステップS103の処理、すなわち補正対象とするクラスタを選択する処理例を示している。
 図18(S103)に示す例は、補正対象クラスタとしてクラスタAを選択した例である。
 図18(S104-1)は、図16に示すフローのステップS104の前半部分の処理、すなわち、処理対象クラスタ(クラスタA)から、平滑化処理に適用するデータを取得する処理例を示している。
 駐車区画補正部132は、ステップS104において、処理対象として選択したクラスタA内にある駐車区画Pa1~Pa4各々の位置、形状を解析する。
 図18(S104-1)は、この処理の具体例を示す図である。
 図に示すように、クラスタA内の駐車区画Pa1~Pa4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向を算出する。
 図には、駐車区画Pa1の幅(Wa1)、奥行(La1)と、駐車区画Pa1とPaa2の間隔(Sa12)のみ示しているが、その他のPa2~Pa4についても同様に駐車区画Pa1~Pa4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を算出する。
 次の図19(S401-2)は、図16に示すフローのステップS104の後半部分の処理、すなわち、処理対象クラスタ(クラスタA)の平滑化処理の処理例を示している。
 具体的には、処理対象として選択したクラスタ(クラスタA)に含まれる駐車区画Pa1~Pa4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、処理対象として選択したクラスタAに含まれる駐車区画Pa1~Pa4の幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 この処理によって、選択クラスタA内の駐車区画Pa1~Pa4は、図19に示すように、誤差が低減され、実際の駐車区画にほぼ一致した駐車区画に補正されることになる。
 クラスタAの駐車区画補正処理が終了すると、図16に示すフローのステップS105に進む。
 ステップS105においては未処理クラスタがあるか否かが判定される。
 図19に示す処理終了時点では、未処理クラスタB,Cが存在するので、ステップS103に戻り、未処理クラスタから1つの処理対象クラスタを選択する。
 処理対象クラスタとしてクラスタBを選択した場合の処理の具体例について、図20、図21を参照して説明する。
 図20(S103)は、図16に示すフローのステップS103の処理であり、補正対象クラスタとしてクラスタBを選択した例である。
 図20(S104-1)は、図16に示すフローのステップS104の前半部分の処理、すなわち、処理対象クラスタ(クラスタB)から、平滑化処理に適用するデータを取得する処理例を示している。
 駐車区画補正部132は、ステップS104において、処理対象として選択したクラスタB内にある駐車区画Pb1~Pb3各々の位置、形状を解析する。
 図に示すように、クラスタB内の駐車区画Pb1~Pb3各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向を算出する。
 図には、駐車区画Pb1の幅(Wb1)、奥行(Lb1)と、駐車区画Pb1とPb2の間隔(Sb12)のみ示しているが、その他のPb2~Pb3についても同様に駐車区画Pb1~Pb3各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を算出する。
 次の図21(S401-2)は、図16に示すフローのステップS104の後半部分の処理、すなわち、処理対象クラスタ(クラスタB)の平滑化処理の処理例を示している。
 具体的には、処理対象として選択したクラスタ(クラスタB)に含まれる駐車区画Pb1~Pb3各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、処理対象として選択したクラスタBに含まれる駐車区画Pb1~Pb3の幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 この処理によって、選択クラスタB内の駐車区画Pb1~Pb3は、図21に示すように、誤差が低減され、実際の駐車区画にほぼ一致した駐車区画に補正されることになる。
 クラスタBの駐車区画補正処理が終了すると、図16に示すフローのステップS105に進む。
 ステップS105においては未処理クラスタがあるか否かが判定される。
 図21に示す処理終了時点では、未処理クラスタCが存在するので、ステップS103に戻り、処理対象クラスタとしてクラスタCを選択する。
 処理対象クラスタとしてクラスタCを選択した場合の処理の具体例について、図22、図23を参照して説明する。
 図22(S103)は、図16に示すフローのステップS103の処理であり、補正対象クラスタとしてクラスタCを選択した例である。
 図22(S104-1)は、図16に示すフローのステップS104の前半部分の処理、すなわち、処理対象クラスタ(クラスタC)から、平滑化処理に適用するデータを取得する処理例を示している。
 駐車区画補正部132は、ステップS104において、処理対象として選択したクラスタC内にある駐車区画Pc1~Pc4各々の位置、形状を解析する。
 図に示すように、クラスタC内の駐車区画Pc1~Pc3各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向を算出する。
 図には、駐車区画Pc1の幅(Wc1)、奥行(Lc1)と、駐車区画Pc1とPc2の間隔(Sc12)のみ示しているが、その他のPc2~Pc4についても同様に駐車区画Pc1~Pc4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を算出する。
 次の図23(S401-2)は、図16に示すフローのステップS104の後半部分の処理、すなわち、処理対象クラスタ(クラスタC)の平滑化処理の処理例を示している。
 具体的には、処理対象として選択したクラスタ(クラスタC)に含まれる駐車区画Pc1~Pc4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、処理対象として選択したクラスタCに含まれる駐車区画Pc1~Pc4の幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 この処理によって、選択クラスタC内の駐車区画Pc1~Pc3は、図23に示すように、誤差が低減され、実際の駐車区画にほぼ一致した駐車区画に補正されることになる。
 図23に示す処理終了時点で、全てのクラスタ、すなわちクラスタA~Cに対する駐車区画補正処理が終了することになる。
 この時点で、図16に示すフローのステップS105において、未処理クラスタがないと判定され、処理が終了する。
 この図16に示すフローに従った処理の結果、駐車区画検出部131が検出したクラスタ内の駐車区画はすべて補正され、ほぼ実際の駐車区画に一致した駐車区画データが生成されることになる。
 この補正結果は、自動運転制御部122や表示制御部123に出力され、自動運転制御に利用され、表示部150に表示されることになる。
  [4.(実施例2)階段状の駐車区画の補正例について]
 次に、実施例2として、階段状の駐車区画の補正例について説明する。
 なお、本実施例2においても移動装置(自動運転車両)100と情報処理装置120の構成は、先に説明した図6に示す構成と同様の構成が適用される。
 図24以下を参照して本実施例2において、情報処理装置120の駐車区画解析部120が実行する処理について説明する。
 図24には、駐車区画解析部120の駐車区画検出部131がセンサ(カメラ)110の取得情報(カメラ撮影画像)に基づいて生成した「(1)駐車区画検出結果」と、この駐車区画検出結果を入力して駐車区画補正部132が実行する駐車区画補正処理の一例を示している。
 駐車区画検出部131がセンサ(カメラ)110の取得情報(カメラ撮影画像)に基づいて生成した「(1)駐車区画検出結果」は、図24の左側に示すように、各駐車区画P01~P04が直線状に配列されておらず、階段状に配列されている。
 なお、駐車区画検出部131の生成した駐車区画解析結果は、誤差を多く含む駐車区画解析結果である。
 この誤差が含まれる駐車区画検出結果は、駐車区画解析部121の駐車区画補正部132に入力される。
 駐車区画補正部132は、駐車区画検出部131から入力した誤差を含む駐車区画検出結果の補正処理を実行する。
 図24右側には、駐車区画補正部132が実行する駐車区画検出結果の補正処理の概要を示している。
 駐車区画補正部132は、図24に示すように以下の2つの処理ステップに従って駐車区画補正処理を実行する。
 (第1ステップ)規則性を持つ配列からなると推定される複数の駐車区画を1つの駐車区画群(クラスタ)として設定するクラスタリング処理
 (第2ステップ)1つの駐車区画群(クラスタ)内の複数の駐車区画の位置(配列)、形状、向きの全て、または少なくともいずれかを調整して均一なデータとするクラスタ内駐車区画平滑化処理
 まず、駐車区画補正部132は、(第1ステップ)として、規則性を持つ配列からなると推定される複数の駐車区画を1つの駐車区画群(クラスタ)として設定するクラスタリング処理を実行する。
 図24(第1ステップ)に示す例は、駐車区画検出部131が検出した4つの階段状に配列された駐車区画P01~P04を1つのクラスタとして選択した例である。
 次に、駐車区画補正部132は、(第2ステップ)として、1つの駐車区画群(クラスタ)内の複数の駐車区画の位置(配列)、形状、向きの全て、または少なくともいずれかを調整して均一なデータとするクラスタ内駐車区画平滑化処理を実行する。
 図24(第2ステップ)に示す例は、1つのクラスタ内に階段状に配列された複数の駐車区画の位置(配列)、形状、向きの全てを均一化するクラスタ内駐車区画平滑化処理を実行した結果として得られる駐車区画P1~P4の補正結果を示している。
 図24(第2ステップ)に示す駐車区画P1~P4の補正結果は、駐車区画P1~P4から構成される1つのクラスタ内の駐車区画P1~P4の位置(配列)、形状、向きの全てが均一に調整されている。
 図25以下を参照して、駐車区画解析部121の駐車区画補正部132の実行する処理の具体例について説明する。
 図25(S151)に示すように、駐車区画補正部132は、まず、駐車区画検出部131から入力した誤差を含む駐車区画検出結果の中心座標や頂点座標、大きさ、隣接区画との各頂点の座標差分などを算出する。
 駐車区画P01~P04各々の中心座標や頂点座標、大きさ、隣接区画との各頂点の座標差分などを算出する。
 さらに、駐車区画補正部132は、算出した各駐車区画の座標情報に基づいて、駐車区画の区分分けとしてのクラスタリングを行う。
 具体的には、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(=クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 図25(S152)に示す4つの駐車区画P01~P4は階段状の配列規則を有する1つのクラスタ(駐車区画群)に設定される。
 次に、駐車区画補正部132は、クラスタ単位で、駐車区画の補正処理を実行する。
 図26を参照して駐車区画補正部132が実行するクラスタ単位の駐車区画補正処理の具体例について説明する。
 駐車区画補正部132は、図26(ステップS153)に示すように、1つのクラスタに含まれる駐車区画P1~P4の幅(W)、奥行(L)、隣接駐車区画の間隔(S)の長さと方向を算出する。
 なお、これらの駐車区画P1~P4の幅(W)、奥行(L)、隣接駐車区画の間隔(S)の長さと方向は、先に説明した図25(ステップS151)において算出した駐車区画P1~P4の中心座標や頂点座標に基づいて算出することができる。
 図26(ステップS153)に示す例は1つのクラスタ内に4つの階段状に配列された駐車区画P1~P4が含まれており、この場合、駐車区画補正部132は、以下の各データを算出する。
 駐車区画P01の幅(W1)と奥行(L1)各々の長さと方向、
 駐車区画P02の幅(W2)と奥行(L2)各々の長さと方向、
 駐車区画P03の幅(W3)と奥行(L3)各々の長さと方向、
 駐車区画P04の幅(W4)と奥行(L4)各々の長さと方向、
 駐車区画P01と駐車区画P02との間隔(S12)の長さと方向、
 駐車区画P02と駐車区画P03との間隔(S23)の長さと方向、
 駐車区画P03と駐車区画P04との間隔(S34)の長さと方向、
 なお、上記の駐車区画の幅(W)、奥行(L)、区画の間隔(S)の各データには、長さデータのみならず幅(W)、奥行(L)、間隔(S)の長さを計測した方向データも含まれる。これらの長さと方向は、例えば幅(W)、奥行(L)、間隔(S)各データの端点の座標位置から取得可能である。
 なお、上記の各駐車区画P0~P4の幅(W)、奥行(L)、および各駐車区画の間隔(S)の長さと方向を含むデータは各々ベクトルとして表現可能である。
 すなわち、駐車区画補正部132は、図26(ステップS153)において、各駐車区画の幅(W)を示すベクトル(VW)と、各駐車区画の奥行を示すベクトル(VL)と、各駐車区画の間隔を示すベクトル(VS)を算出する。
 次に、駐車区画補正部132は、図26(ステップS154)に示すように、クラスタ単位の処理として、1つのクラスタに含まれる駐車区画の位置(配列)、形状、向きの平滑化処理を実行する。
 駐車区画補正部132は、先に説明した図25(ステップS151)において算出した駐車区画P1~P4の中心座標や頂点座標に基づいて、1つのクラスタに含まれる複数の駐車区画、すなわち図26(S153)に示す駐車区画P1~P4の幅(W)、奥行(L)、区画の間隔(S)の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、図26(S154)に示すように、駐車区画P1~P4の幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 駐車区画補正部132は、例えば、各駐車区画の平滑化データとして、以下の各値を算出する。
 平滑化駐車区画幅(=駐車区画幅ベクトル):長さ=W01、方向=y方向
 平滑化駐車区画奥行(=駐車区画奥行ベクトル):長さ=L01、方向=x方向
 平滑化駐車区画間隔(=駐車区画間隔ベクトル):長さ=S01、方向=xy斜め方向(x軸に対して+30度の方向)
 さらに、これらの平滑化データである平滑化駐車区画幅(W01),平滑化駐車区画奥行(L01),平滑化駐車区画間隔(S01)の長さと方向データを用いて、クラスタ内の駐車区画を再配置して、図26(S154)に示すような補正された駐車区画データ(P01~P04)を生成する。
 この補正後のクラスタ内の複数の駐車区画(P01~P04)は、同一の均一化された平滑化駐車区画幅(W01),平滑化駐車区画奥行(L01),平滑化駐車区画間隔(S01)の長さと方向を持つデータ(共通のベクトル)によって構成される。
 このように階段状の駐車区画を有する構成においても、先に図16を参照して説明したフローチャートに従った処理により、駐車区画の平滑化処理による補正処理が行われる。
  [5.(実施例3)駐車区画検出部が検出できなかった駐車区画を駐車区画補正部で挿入して駐車区画補正結果を生成する実施例について]
 次に、実施例3として、駐車区画検出部が検出できなかった駐車区画を駐車区画補正部で挿入して駐車区画補正結果を生成する実施例について説明する。
 なお、本実施例3の情報処理装置120も先に図6を参照して説明した実施例1の情報処理装置120の構成と同様の構成を有する。
 すなわち、図6を参照して説明したように、情報処理装置120は、駐車区画解析部121、自動運転制御部122、表示制御部123を有し、駐車区画解析部121は、駐車区画検出部131、駐車区画補正部132を有する。
 駐車区画解析部121の駐車区画検出部131は、センサ110の検出情報、例えばカメラの撮影画像に基づいて駐車区画の検出処理を実行する。
 しかし、前述したように、駐車区画検出部131が生成する駐車区画検出結果は、実際の駐車区画とは異なる誤差を含む駐車区画検出結果となることが多い。
 これは、前述したようにセンサ110から入力する撮影画像自身の問題、すなわち、駐車区画を示す白線が駐車車両の陰になって見えない部分があることや、駐車区画を示す白線が薄い、あるいは区画線が切れているといった問題の他、カメラ構造上の問題や、撮影画像に対する画像処理に起因する問題など、様々な要因によるものである。
 さらに、駐車区画検出部131が生成する駐車区画検出結果に、実際には存在するはずの駐車区画が検出されず、検出エラーによって欠損してしまう場合もある。
 図27を参照して駐車区画検出部131の駐車区画検出エラーの具体例について説明する。
 図27に示す(a)撮影画像は、センサ110であるカメラの撮影画像である。移動装置(車両)100に装着されたカメラ等のセンサ110は、駐車場の入り口において、斜め前方方向の駐車場の画像を撮影し、駐車区画検出部131は、この画像に基づいて駐車区画検出を行う。
 具体的には、先に図9を参照して説明したよう撮影画像の俯瞰変換処理、特徴点検出処理を行って駐車区画検出を行う。この処理の際に駐車区画を示す白線が駐車車両の陰になっている部分や白線が途切れている場合などには、駐車区画を検出できなくなる場合がある。
 この結果、駐車区画検出部131は、例えば図27(b)に示すように、本来、存在する駐車区画を検出できず、一部の駐車区画(P02)が欠損した駐車区画検出結果を生成してしまう場合がある。
 本実施例3の情報処理装置は、このように駐車区画解析部121の駐車区画検出部131が検出できなかった駐車区画を、駐車区画解析部121の駐車区画補正部132が補正、すなわち駐車区画を挿入する補正処理を実行する実施例である。
 図28以下を参照して、本実施例3の情報処理装置120の駐車区画解析部121の駐車区画補正部132が実行する処理について説明する。
 図28は、本実施例3の情報処理装置120の駐車区画解析部121の駐車区画補正部132が実行する処理のシーケンスを説明するフローチャートである。
 以下、図28に示すフローの各ステップの処理について、順次、説明する。
  (ステップS201)
 まず、ステップS201において、駐車区画解析部121内の駐車区画補正部132は、駐車区画検出部131が生成した駐車区画検出結果を入力する
  (ステップS202)
 次に、駐車区画補正部132は、ステップS202において、駐車区画検出部131が生成した駐車区画検出結果に含まれる複数の駐車区画について、クラスタリング処理を実行する。
 すなわち、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(=クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 ただし、本実施例3においては、駐車区画検出部131が生成した駐車区画検出結果に検出できなかった駐車区画が存在することを前提としたクラスタリングを行う。
 すなわち、駐車区画補正部132は、ステップS202において検出エラーとなった駐車区画が存在することを前提としたクラスタリングを実行する。
 具体的には、例えば隣接する駐車区画の間に1台以上2台未満の駐車可能な空白領域(駐車区画非検出領域)が存在する場合、その空白領域(駐車区画非検出領域)を挟む複数の駐車区画から構成される領域を1つのクラスタとするクラスタリングを実行する。
  (ステップS203)
 ステップS203以下の処理は、クラスタ単位で実行する処理である。
 まず、駐車区画補正部132は、ステップS203において、処理対象とするクラスタを選択する。
  (ステップS204)
 次に、駐車区画補正部132は、ステップS204において、処理対象として選択したクラスタ内に、駐車区画挿入条件を満たす空白領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)が存在するか否かを判定する。
 なお、空白領域に対する駐車区画挿入条件は、予め規定しておく。駐車区画挿入条件は様々な設定が可能である。例えば、以下のような条件である。
 (条件a)空白領域が、駐車区画の間に存在し、1台以上2台未満の駐車可能な空白領域である。
 例えばこのような条件aを満たす場合、駐車区画挿入条件を満たす領域と判定する。
 さらに、例えば、以下のような条件設定としてもよい。
 (条件a)空白領域が、駐車区画の間に存在し、1台以上2台未満の駐車可能な空白領域である。
 (条件b)空白領域に駐車区画を示すと推定される白線等に該当すると推定される特徴点がある。
 上記条件a,bの両条件を満たす場合、駐車区画挿入条件を満たす領域と判定する。
 さらに、駐車区画の配置や形状の規則性に基づいて、駐車区画挿入条件を満たすか否かを判定してもよい。
 また、過去の認識履歴データを記憶部に記録しておき、この記録データを参照して空白領域(駐車区画非検出領域)内に駐車区画を挿入すべきか否かを判定してもよい。
  (ステップS205)
 駐車区画補正部132は、ステップS205において、駐車区画挿入条件を満たす領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)が存在すると判定した場合は、ステップS206に進む。
 一方、存在しないと判定した場合はステップS207に進む。
  (ステップS206)
 ステップS205において、駐車区画挿入条件を満たす領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)が存在すると判定した場合は、ステップS206に進む。
 この場合、駐車区画補正部132は、ステップS206において、駐車区画挿入条件を満たす領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)に新たな駐車区画を挿入する。
 なお、挿入する駐車区画の形状、配置態様は予め規定したルールに従って決定する。例えば、形状は検出されている駐車区画の形状の平均値とし、配列は駐車区画挿入位置に隣接する駐車区画の中間位置とするといったルールに従って駐車区画挿入処理を実行する。
  (ステップS207)
 ステップS206において新たな駐車区画の挿入処理が完了した場合、またはステップS205において、駐車区画挿入条件を満たす領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)が存在しないと判定した場合は、ステップS207に進む。
 これらの場合、駐車区画補正部132は、ステップS207において、処理対象として選択したクラスタ内にある駐車区画各々の位置、形状を解析し、解析結果に基づいて、クラスタ内の駐車区画の形状、および配列の少なくともいずれか一方の平滑化処理を実行して、駐車区画補正結果を生成する。
 なお、ステップS206において新たな駐車区画の挿入処理が実行されている場合は、挿入された新たな駐車区画も含むクラスタ内の全ての駐車区画に対する補正処理を実行する。
 具体的には、例えば、駐車区画各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向を算出する。
 この処理は、先に図12の(ステップS23)を参照して説明した処理である。
 すなわち、駐車区画補正部132は、処理対象として選択した1つのクラスタ内の駐車区画各々の幅(W)を示すベクトル(VW)と、各駐車区画の奥行を示すベクトル(VL)と、各駐車区画の間隔を示すベクトル(VS)を算出する。
 次に、駐車区画補正部132は、クラスタに含まれる駐車区画P1~Pnの位置(配列)、形状、向きの平滑化処理を実行する。
 この処理は、先に図12の(ステップS24)を参照して説明した処理である。
 具体的には、処理対象として選択したクラスタに含まれる駐車区画P1~Pn各々の中心座標や頂点座標に基づいて、駐車区画P1~Pn各々の幅(W)、奥行(L)、区画の間隔(S)の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、処理対象として選択したクラスタに含まれる駐車区画P1~Pnの幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 このステップS207の処理によって、選択クラスタ内の駐車区画P1~Pnは、誤差が低減され、実際の駐車区画にほぼ一致した駐車区画に補正されることになる。
  (ステップS208)
 次に、駐車区画補正部132は、ステップS208において、駐車区画補正処理の完了していない未処理クラスタがあるか否かを判定する。
 未処理クラスタがある場合は、ステップS203に戻り、未処理クラスタについてステップS204以下の処理を実行する。
 ステップS208において、駐車区画補正処理の完了していない未処理クラスタがないと判定した場合は処理を完了する。
 この図28に示すフローに従った処理を実行することで、駐車区画検出部131が生成した駐車区画検出エラーや検出誤差を含む駐車区画検出結果に対して、駐車区画の挿入処理を含む駐車区画補正処理が実行されることになり、実際の駐車区画とほぼ一致する補正された駐車区画データが生成されることになる。
 この図28に示すフローに従った処理の具体的な処理例について、図29以下を参照して説明する。
 まず、図29を参照して、ステップS202のクラスタリング処理の具体例について説明する。
 駐車区画補正部132は、ステップS202において、駐車区画検出部131が生成した駐車区画検出結果に含まれる複数の駐車区画について、クラスタリング処理を実行する。
 すなわち、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(=クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 ただし、前述したように本実施例3においては、駐車区画検出部131が生成した駐車区画検出結果に検出できなかった駐車区画が存在することを前提としたクラスタリングを行う。
 駐車区画補正部132は、まず図29(S202a)に示すように、駐車区画検出部131から入力した駐車区画検出結果内の駐車区画各々の中心座標や頂点座標、大きさ、隣接区画との各頂点の座標差分などを算出する。
 図29(S202a)には、駐車区画P01,P03,P04各々の中心座標、頂点座標を示している。
 さらに、駐車区画補正部132は、算出した各駐車区画の座標情報に基づいて、駐車区画の区分分けとしてのクラスタリングを行う。
 具体的には、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(=クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 ただし、前述したように本実施例3においては、駐車区画検出部131が生成した駐車区画検出結果に検出できなかった駐車区画が存在することを前提としたクラスタリングを行う。
 具体的には、例えば隣接する駐車区画の間に1台以上2台未満の駐車可能な空白領域(駐車区画非検出領域)が存在する場合、その空白領域(駐車区画非検出領域)を挟む複数の駐車区画から構成される領域を1つのクラスタとするクラスタリングを実行する。
 図29に示す例では、(S202a)に示す駐車区画P01と駐車区画P03の間に1台以上2台未満の駐車可能な空白領域(駐車区画非検出領域)が存在する。従って、この空白領域(駐車区画非検出領域)を挟む複数の駐車区画から構成される領域を1つのクラスタとするクラスタリングを実行する。
 この結果、図29(S202b)に示す1つの空白領域と3つの駐車区画P01,P03,P04からなる領域が1つのクラスタ(駐車区画群)として設定される。
 次に、ステップS204~S206において実行される空白領域(駐車区画非検出領域)に対する新たな駐車区画の挿入処理の具体例について、図30を参照して説明する。
 駐車区画補正部132は、ステップS204において、処理対象として選択したクラスタ内に、駐車区画挿入条件を満たす空白領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)が存在するか否かを判定する。
 例えば、駐車区画補正部132は、図30(S204)に示す空白領域が駐車区画挿入条件を満たす空白領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)に該当するか否かを判定する。
 前述したように、空白領域に対する駐車区画挿入条件には、例えば、以下のような条件がある。
 (条件a)空白領域が、駐車区画の間に存在し、1台以上2台未満の駐車可能な空白領域である。
 (条件b)空白領域に駐車区画を示すと推定される白線等に該当すると推定される特徴点がある。
 例えば条件aを満たす場合、あるいは条件a,bの双方を満たす場合、駐車区画挿入条件を満たす領域と判定する。
 例えば、図30(S204)に示す空白領域が条件aを満たす場合、駐車区画挿入条件を満たす領域と判定(ステップS205=Yes)して、ステップS206に進む。
 この場合、駐車区画補正部132は、ステップS206において、駐車区画挿入条件を満たす領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)に新たな駐車区画を挿入する。
 図30(S206)に示す駐車区画P02が新たに挿入された駐車区画である。
 図31には、ステップS207において実行する処理を示している。すなわち、クラスタ単位の駐車区画平滑化処理である。
 図31(S207a)は、クラスタから、平滑化処理に適用するデータを取得する処理例を示している。
 駐車区画補正部132は、ステップS207において、処理対象として選択したクラスタにある駐車区画Pa1~Pa4各々の位置、形状を解析する。なお、解析対象には、追加挿入した駐車区画P02も含まれる。
 図31(S207a)は、この処理の具体例を示す図である。
 図に示すように、クラスタ内の駐車区画Pa1~Pa4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向を算出する。
 図には、駐車区画Pa1の幅(Wa1)、奥行(La1)と、駐車区画Pa1とPaa2の間隔(Sa12)のみ示しているが、その他のPa2~Pa4についても同様に駐車区画Pa1~Pa4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を算出する。
 図31(S207b)には、クラスタの平滑化処理の処理結果を示している。
 平滑化処理対象のクラスタに含まれる駐車区画Pa1~Pa4各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 この処理によって、クラスタ内の駐車区画Pa1~Pa4は、図31(S207b)すように、空白領域に挿入された駐車区画を含み、かつ駐車区画検出部131が生成した駐車区画検出結果に含まれる誤差も解消され、実際の駐車区画にほぼ一致した駐車区画に補正されることになる。
  [6.(実施例4)駐車区画検出部が生成した駐車区画検出結果の時系列データを適用して駐車区画補正処理を実行する実施例について]
 次に、実施例4として、駐車区画検出部が生成した駐車区画検出結果の時系列データを適用して駐車区画補正処理を実行する実施例について説明する。
 本実施例4は、例えば、先に実施例3として説明した駐車区画の検出エラーが発生した場合に特に有効な処理である。
 先に説明した実施例3では、駐車区画検出部131が生成する駐車区画検出結果に、実際には存在するはずの駐車区画が検出されず、検出エラーによって欠損してしまった場合に、駐車区画を挿入する処理について説明した。
 本実施例4は、駐車区画検出部が生成した駐車区画検出結果の時系列データを適用して、実際に存在する駐車区画を確認して高精度な駐車区画補正処理を実行する。
 なお、本実施例4の情報処理装置120も先に図6を参照して説明した実施例1の情報処理装置120の構成と同様の構成を有する。
 すなわち、図6を参照して説明したように、情報処理装置120は、駐車区画解析部121、自動運転制御部122、表示制御部123を有し、駐車区画解析部121は、駐車区画検出部131、駐車区画補正部132を有する。
 駐車区画解析部121の駐車区画検出部131は、センサ110の検出情報、例えばカメラの撮影画像に基づいて駐車区画の検出処理を実行する。
 しかし、前述したように、駐車区画検出部131が生成する駐車区画検出結果は、実際の駐車区画とは異なる誤差を含む駐車区画検出結果となることが多い。
 これは、前述したようにセンサ110から入力する撮影画像自身の問題、すなわち、駐車区画を示す白線が駐車車両の陰になって見えない部分があることや、駐車区画を示す白線が薄い、あるいは区画線が切れているといった問題の他、カメラ構造上の問題や、撮影画像に対する画像処理に起因する問題など、様々な要因によるものである。
 さらに、駐車区画検出部131が生成する駐車区画検出結果に、実際には存在するはずの駐車区画が検出されず、検出エラーによって欠損してしまう場合もある。
 本実施例4では、駐車区画検出部が生成した駐車区画検出結果の時系列データを適用して、実際に存在する駐車区画を確認して高精度な駐車区画補正処理を実行する。
 駐車区画検出部131は、センサ110から入力するセンサ検出情報、例えばカメラ撮影画像に基づいて、撮影画像中に含まれる駐車区画を検出する。
 駐車区画検出部131による駐車区画検出処理は、予め規定された時間間隔ごとに定期的に実行される。
 すなわち、駐車区画検出部131は、図32に示すように、時間t1においてセンサ110が撮影したカメラ撮影画像(F1:フレーム1)に基づく駐車区画検出結果を生成し、次の時間t2のカメラ撮影画像(F2:フレーム2)に基づく駐車区画検出結果を生成し、さらに時間t3のカメラ撮影画像(F3:フレーム3)に基づく駐車区画検出結果を生成する。
 駐車区画補正部132も、駐車区画検出部131が各タイミング(t1,t2,t3・・・)のカメラ撮影画像に基づいて生成した駐車区画検出結果の補正処理を、順次、実行する。
 この結果として、図32の最下段に示すような駐車区画補正結果が、順次、生成される。
 センサ110を装着した移動装置(車両)100は、走行しながら画像を撮影する。従って、駐車場の撮影方向も逐次異なり、あるタイミングでは駐車区画が識別できないといった場合も発生する。
 具体例を図33に示す。
 図33に示す例は、図32と同様、駐車区画検出部131が時間t1においてセンサ110が撮影したカメラ撮影画像(F1:フレーム1)に基づく駐車区画検出結果を生成し、次の時間t2のカメラ撮影画像(F2:フレーム2)に基づく駐車区画検出結果を生成し、さらに時間t3のカメラ撮影画像(F3:フレーム3)に基づく駐車区画検出結果を生成した例を示している。
 駐車区画検出部131が生成した3つの異なるタイミングの駐車区画検出結果は、いずれも同じ駐車場の領域の撮影画像に基づく駐車区画検出結果である。
 しかし、最後の時間t3のカメラ撮影画像(F3:フレーム3)に基づく駐車区画検出結果は、他の時間t1,t2のカメラ撮影画像(F1,F2)に基づく駐車区画検出結果に含まれている駐車区画P02が含まれていない。
 これは、駐車区画検出部131が実行した時間t3のカメラ撮影画像(F3:フレーム3)を利用した画像解析において駐車区画P02が検出されなかったことを意味する。
 すなわち、時間t3のカメラ撮影画像(F3:フレーム3)が、駐車区画P02の領域を明確に撮影できていなかったことを意味する。例えば駐車車両の陰になってしまったといった場合にこのような問題が発生する。
 本実施例4では、このような場合に、駐車区画補正部132が、駐車区画検出部131の生成した駐車区画検出結果の時系列データを参照するトラッキング処理を実行して、他の時間の駐車区画検出結果を比較参照する。さらに比較参照結果に基づいて駐車区画補正処理を実行して検出エラーによって欠損した駐車区画を挿入して補正する処理を実行する。
 図34を参照して、駐車区画補正部132が実行するトラッキング処理を伴う補正処理の具体例について説明する。
 図34には、以下の図を示している。
 (1)駐車区画検出部が生成した時系列の駐車区画検出結果(F1,F2,F3)
 (2)駐車区画補正部132が実行するトラッキング処理
 図34(1)に示す3つの駐車区画検出結果(F1,F2,F3)は、図33を参照して説明した駐車区画検出結果(F1,F2,F3)である。
 すなわち、駐車区画検出部131が時間t1においてセンサ110が撮影したカメラ撮影画像(F1:フレーム1)に基づいて生成した駐車区画検出結果、次の時間t2のカメラ撮影画像(F2:フレーム2)に基づいて生成した駐車区画検出結果、さらに時間t3のカメラ撮影画像(F3:フレーム3)に基づいて生成した駐車区画検出結果を示している。
 最後の時間t3のカメラ撮影画像(F3:フレーム3)に基づく駐車区画検出結果は、他の時間t1,t2のカメラ撮影画像(F1,F2)に基づく駐車区画検出結果に含まれている駐車区画P02が含まれていない。
 図34(2)には、駐車区画補正部132が実行するトラッキング処理の一例を示している。
 例えば、駐車区画補正部132は、駐車区画検出部131から駐車区画検出結果(F3)を入力して補正処理を行う際、駐車区画検出部131が過去に生成した駐車区画検出結果(F1,F2)の時系列データを参照するトラッキング処理を実行する。
 すなわち、駐車区画検出結果(F3)と、他の時間の駐車区画検出結果(F1,F2)を比較参照する。駐車区画補正部132は、このトラッキングによる比較参照処理の結果、駐車区画検出結果(F3)に検出エラーにより欠損した駐車区画(P02)が存在することを確認することができる。
 駐車区画補正部132は、この検出エラーが発生した駐車区画(P02)を駐車区画検出部131から駐車区画検出結果(F3)に挿入する処理を実行し、さらに、各駐車区画の形状、方向等を補正する処理を実行する。
 この補正処理は、先に説明した実施例3と同様の処理となる。
 このように本実施例4は、駐車区画検出部が生成した駐車区画検出結果の時系列データを適用して、実際に存在する駐車区画を確認することで高精度な駐車区画補正処理を実現することが可能となる。
 本実施例4の処理シーケンスについて図35に示すフローチャートを参照して説明する。
 図35は、駐車区画解析部121の駐車区画補正部132が実行する処理シーケンスを説明するフローチャートである。
 以下、図35に示すフローの各ステップの処理について、順次、説明する。
  (ステップS301~S303)
 ステップS301~S303は、先に実施例3の処理フローとして説明した図28に示すフローのステップS201~S203の処理と同様の処理である。
 すなわち、まず、ステップS301において、駐車区画解析部121内の駐車区画補正部132は、駐車区画検出部131が生成した駐車区画検出結果を入力する
 次に、駐車区画補正部132は、ステップS302において、駐車区画検出部131が生成した駐車区画検出結果に含まれる複数の駐車区画について、クラスタリング処理を実行する。
 すなわち、1つの配列規則に従って配列された駐車区画を1つの駐車区画群(=クラスタ)として設定するクラスタリング処理(駐車区画群区分処理)を実行する。
 ただし、本実施例4においては、実施例3と同様、駐車区画検出部131が生成した駐車区画検出結果に検出できなかった駐車区画が存在することを前提としたクラスタリングを行う。
 すなわち、駐車区画補正部132は、ステップS302において検出エラーとなった駐車区画が存在することを前提としたクラスタリングを実行する。
 具体的には、例えば隣接する駐車区画の間に1台以上2台未満の駐車可能な空白領域(駐車区画非検出領域)が存在する場合、その空白領域(駐車区画非検出領域)を挟む複数の駐車区画から構成される領域を1つのクラスタとするクラスタリングを実行する。
 次に、駐車区画補正部132は、ステップS303において、処理対象とするクラスタを選択する。
  (ステップS304)
 次に、駐車区画補正部132は、ステップS304において、処理対象として選択したクラスタ内に、駐車区画挿入条件を満たす空白領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)が存在するか否かを判定する。
 本実施例4では、ステップS304において、先に図34を参照して説明したように、処理対象クラスタのトラッキング処理を実行して、処理対象クラスタ内に駐車区画挿入条件を満たす領域(駐車区画検出に失敗したと推定される駐車区画検出エラー領域)が存在するか否かを判定する処理を実行する。
 すなわち、駐車区画補正部132は、駐車区画検出部131から駐車区画検出結果を入力して補正処理を行う際、駐車区画検出部131が過去に生成した駐車区画検出結果の時系列データを参照するトラッキング処理を実行する。
 補正対象としている駐車区画検出結果と、他の時間の駐車区画検出結果を比較参照を行い、比較参照処理の結果、補正対象の駐車区画検出結果に検出エラーによる欠損した駐車区画が存在するか否かを確認する。
  (ステップS305)
 駐車区画補正部132は、ステップS305において、処理対象クラスタのトラッキング処理の結果として駐車区画検出に失敗したと推定される駐車区画検出エラー領域が存在すると判定した場合は、ステップS306に進む。
 一方、存在しないと判定した場合はステップS307に進む。
  (ステップS306)
 ステップS305において、処理対象クラスタのトラッキング処理の結果、駐車区画検出に失敗したと推定される駐車区画検出エラー領域が存在すると判定した場合は、ステップS306に進む。
 この場合、駐車区画補正部132は、ステップS306において、処理対象クラスタのトラッキング処理の結果、駐車区画検出に失敗したと推定される駐車区画検出エラー領域に新たな駐車区画を挿入する。
  (ステップS307)
 ステップS306において新たな駐車区画の挿入処理が完了した場合、またはステップS305において、処理対象クラスタのトラッキング処理結果として駐車区画検出に失敗したと推定される駐車区画検出エラー領域が存在しないと判定した場合は、ステップS307に進む。
 これらの場合、駐車区画補正部132は、ステップS307において、処理対象として選択したクラスタ内にある駐車区画各々の位置、形状を解析し、解析結果に基づいて、クラスタ内の駐車区画の形状、および配列の少なくともいずれか一方の平滑化処理を実行して、駐車区画補正結果を生成する。
 なお、ステップS306において新たな駐車区画の挿入処理が実行されている場合は、挿入された新たな駐車区画も含むクラスタ内の全ての駐車区画に対する補正処理を実行する。
 具体的には、例えば、駐車区画各々の幅(W)、奥行(L)、隣接駐車区画の間隔(S)等の長さと方向を算出する。
 この処理は、先に図12の(ステップS23)を参照して説明した処理である。
 すなわち、駐車区画補正部132は、処理対象として選択した1つのクラスタ内の駐車区画各々の幅(W)を示すベクトル(VW)と、各駐車区画の奥行を示すベクトル(VL)と、各駐車区画の間隔を示すベクトル(VS)を算出する。
 次に、駐車区画補正部132は、クラスタに含まれる駐車区画P1~Pnの位置(配列)、形状、向きの平滑化処理を実行する。
 この処理は、先に図12の(ステップS24)を参照して説明した処理である。
 具体的には、処理対象として選択したクラスタに含まれる駐車区画P1~Pn各々の中心座標や頂点座標に基づいて、駐車区画P1~Pn各々の幅(W)、奥行(L)、区画の間隔(S)の長さと方向(ベクトル)を調整して、これらを均一な長さと方向を持つデータ(均一なベクトル)とする平滑化処理を実行する。
 すなわち、処理対象として選択したクラスタに含まれる駐車区画P1~Pnの幅(W)、奥行(L)、区画の間隔(S)の長さと方向を均一化したデータ(均一ベクトル)とする平滑化処理を実行する。
 このステップS307の処理によって、選択クラスタ内の駐車区画P1~Pnは、誤差が低減され、実際の駐車区画にほぼ一致した駐車区画に補正されることになる。
  (ステップS308)
 次に、駐車区画補正部132は、ステップS308において、駐車区画補正処理の完了していない未処理クラスタがあるか否かを判定する。
 未処理クラスタがある場合は、ステップS303に戻り、未処理クラスタについてステップS304以下の処理を実行する。
 ステップS308において、駐車区画補正処理の完了していない未処理クラスタがないと判定した場合は処理を完了する。
 この図35に示すフローに従った処理を実行することで、駐車区画検出部131が生成した駐車区画検出エラーや検出誤差を含む駐車区画検出結果に対して、駐車区画の挿入処理を含む駐車区画補正処理が実行されることになり、実際の駐車区画とほぼ一致する補正された駐車区画データが生成されることになる。
  [7.本開示の情報処理装置のハードウェア構成例について]
 次に、図36を参照して、本開示の情報処理装置のハードウェア構成例について説明する。
 なお、情報処理装置は車両内に装着される。図36に示すハードウェア構成は、車両内の情報処理装置のハードウェア構成例である。
 図36に示すハードウェア構成について説明する。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行するデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、各種スイッチ、タッチパネル、マイクロホン、さらに、ユーザ入力部やカメラ、LiDAR等各種センサ321の状況データ取得部などよりなる入力部306、ディスプレイ、スピーカなどよりなる出力部307が接続されている。
 また、出力部307は、車両の駆動部322に対する駆動情報も出力する。
 CPU301は、入力部306から入力される指令や状況データ等を入力し、各種の処理を実行し、処理結果を例えば出力部307に出力する。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の送受信部として機能し、外部の装置と通信する。
 また、CPUの他、カメラから入力される画像情報などの専用処理部としてGPU(Graphics Processing Unit)を備えてもよい。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
  [8.車両の構成例について]
 次に、本開示の情報処理装置を搭載した車両の構成例について説明する。
 図37は、本開示の情報処理装置を搭載した車両500の車両制御システム511の構成例を示すブロック図である。
 車両制御システム511は、車両500に設けられ、車両500の走行支援および自動運転に関わる処理を行う。
 車両制御システム511は、車両制御ECU(Electronic Control Unit)521、通信部522、地図情報蓄積部523、GNSS(Gloval Navigation Satellite System)受信部524、外部認識センサ525、車内センサ526、車両センサ527、記録部528、走行支援・自動運転制御部529、DMS(Driver Monitoring System)530、HMI(Human Machine Interface)531、および、車両制御部532を備える。
 車両制御ECU(Electronic Control Unit)521、通信部522、地図情報蓄積部523、GNSS受信部524、外部認識センサ525、車内センサ526、車両センサ527、記録部528、走行支援・自動運転制御部529、ドライバモニタリングシステム(DMS)530、ヒューマンマシーンインタフェース(HMI)531、および、車両制御部532は、通信ネットワーク541を介して相互に通信可能に接続されている。通信ネットワーク541は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)、FlexRay(登録商標)、イーサネット(登録商標)といったディジタル双方向通信の規格に準拠した車載通信ネットワークやバス等により構成される。通信ネットワーク541は、通信されるデータの種類によって使い分けられても良く、例えば、車両制御に関するデータであればCANが適用され、大容量データであればイーサネットが適用される。なお、車両制御システム511の各部は、通信ネットワーク541を介さずに、例えば近距離無線通信(NFC(Near Field Communication))やBluetooth(登録商標)といった比較的近距離での通信を想定した無線通信を用いて直接的に接続される場合もある。
 なお、以下、車両制御システム511の各部が、通信ネットワーク541を介して通信を行う場合、通信ネットワーク541の記載を省略するものとする。例えば、車両制御ECU(Electronic Control Unit)521と通信部522が通信ネットワーク541を介して通信を行う場合、単にプロセッサと通信部522とが通信を行うと記載する。
 車両制御ECU(Electronic Control Unit)521は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)といった各種プロセッサにより構成される。車両制御ECU(Electronic Control Unit)521は、車両制御システム511全体もしくは一部の機能の制御を行う。
 通信部522は、車内および車外の様々な機器、他の車両、サーバ、基地局等と通信を行い、各種のデータの送受信を行う。このとき、通信部522は、複数の通信方式を用いて通信を行うことができる。
 通信部522が実行可能な車外との通信について、概略的に説明する。通信部522は、例えば、5G(第5世代移動通信システム)、LTE(Long Term Evolution)、DSRC(Dedicated Short Range Communications)等の無線通信方式により、基地局又はアクセスポイントを介して、外部ネットワーク上に存在するサーバ(以下、外部のサーバと呼ぶ)等と通信を行う。通信部522が通信を行う外部ネットワークは、例えば、インターネット、クラウドネットワーク、又は、事業者固有のネットワーク等である。通信部522による外部ネットワークに対して通信を行う通信方式は、所定以上の通信速度、且つ、所定以上の距離間でディジタル双方向通信が可能な無線通信方式であれば、特に限定されない。
 また例えば、通信部522は、P2P(Peer To Peer)技術を用いて、自車の近傍に存在する端末と通信を行うことができる。自車の近傍に存在する端末は、例えば、歩行者や自転車など比較的低速で移動する移動体が装着する端末、店舗などに位置が固定されて設置される端末、あるいは、MTC(Machine Type Communication)端末である。さらに、通信部522は、V2X通信を行うこともできる。V2X通信とは、例えば、他の車両との間の車車間(Vehicle to Vehicle)通信、路側器等との間の路車間(Vehicle to Infrastructure)通信、家との間(Vehicle to Home)の通信、および、歩行者が所持する端末等との間の歩車間(Vehicle to Pedestrian)通信等の、自車と他との通信をいう。
 通信部522は、例えば、車両制御システム511の動作を制御するソフトウェアを更新するためのプログラムを外部から受信することができる(Over The Air)。通信部522は、さらに、地図情報、交通情報、車両500の周囲の情報等を外部から受信することができる。また例えば、通信部522は、車両500に関する情報や、車両500の周囲の情報等を外部に送信することができる。通信部522が外部に送信する車両500に関する情報としては、例えば、車両500の状態を示すデータ、認識部573による認識結果等がある。さらに例えば、通信部522は、eコール等の車両緊急通報システムに対応した通信を行う。
 通信部522が実行可能な車内との通信について、概略的に説明する。通信部522は、例えば無線通信を用いて、車内の各機器と通信を行うことができる。通信部522は、例えば、無線LAN、Bluetooth、NFC、WUSB(Wireless USB)といった、無線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の機器と無線通信を行うことができる。これに限らず、通信部522は、有線通信を用いて車内の各機器と通信を行うこともできる。例えば、通信部522は、図示しない接続端子に接続されるケーブルを介した有線通信により、車内の各機器と通信を行うことができる。通信部522は、例えば、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、MHL(Mobile High-definition Link)といった、有線通信により所定以上の通信速度でディジタル双方向通信が可能な通信方式により、車内の各機器と通信を行うことができる。
 ここで、車内の機器とは、例えば、車内において通信ネットワーク541に接続されていない機器を指す。車内の機器としては、例えば、運転者等の搭乗者が所持するモバイル機器やウェアラブル機器、車内に持ち込まれ一時的に設置される情報機器等が想定される。
 例えば、通信部522は、電波ビーコン、光ビーコン、FM多重放送等の道路交通情報通信システム(VICS(登録商標)(Vehicle Information and Communication System))により送信される電磁波を受信する。
 地図情報蓄積部523は、外部から取得した地図および車両500で作成した地図の一方または両方を蓄積する。例えば、地図情報蓄積部523は、3次元の高精度地図、高精度地図より精度が低く、広いエリアをカバーするグローバルマップ等を蓄積する。
 高精度地図は、例えば、ダイナミックマップ、ポイントクラウドマップ、ベクターマップなどである。ダイナミックマップは、例えば、動的情報、準動的情報、準静的情報、静的情報の4層からなる地図であり、外部のサーバ等から車両500に提供される。ポイントクラウドマップは、ポイントクラウド(点群データ)により構成される地図である。ここで、ベクターマップは、車線や信号の位置といった交通情報などをポイントクラウドマップに対応付けた、ADAS(Advanced Driver Assistance System)に適合させた地図を指すものとする。
 ポイントクラウドマップおよびベクターマップは、例えば、外部のサーバ等から提供されてもよいし、レーダ552、LiDAR553等によるセンシング結果に基づいて、後述するローカルマップとのマッチングを行うための地図として車両500で作成され、地図情報蓄積部523に蓄積されてもよい。また、外部のサーバ等から高精度地図が提供される場合、通信容量を削減するため、車両500がこれから走行する計画経路に関する、例えば数百メートル四方の地図データが外部のサーバ等から取得される。
 GNSS受信部524は、GNSS衛星からGNSS信号を受信し、車両500の位置情報を取得する。受信したGNSS信号は、走行支援・自動運転制御部529に供給される。なお、GNSS受信部524は、GNSS信号を用いた方式に限定されず、例えば、ビーコンを用いて位置情報を取得してもよい。
 外部認識センサ525は、車両500の外部の状況の認識に用いられる各種のセンサを備え、各センサからのセンサデータを車両制御システム511の各部に供給する。外部認識センサ525が備えるセンサの種類や数は任意である。
 例えば、外部認識センサ525は、カメラ551、レーダ552、LiDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)553、および、超音波センサ554を備える。これに限らず、外部認識センサ525は、カメラ551、レーダ552、LiDAR553、および、超音波センサ554のうち1種類以上のセンサを備える構成でもよい。カメラ551、レーダ552、LiDAR553、および、超音波センサ554の数は、現実的に車両500に設置可能な数であれば特に限定されない。また、外部認識センサ525が備えるセンサの種類は、この例に限定されず、外部認識センサ525は、他の種類のセンサを備えてもよい。外部認識センサ525が備える各センサのセンシング領域の例は、後述する。
 なお、カメラ551の撮影方式は、測距が可能な撮影方式であれば特に限定されない。例えば、カメラ551は、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった各種の撮影方式のカメラを、必要に応じて適用することができる。これに限らず、カメラ551は、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。
 また、例えば、外部認識センサ525は、車両500に対する環境を検出するための環境センサを備えることができる。環境センサは、天候、気象、明るさ等の環境を検出するためのセンサであって、例えば、雨滴センサ、霧センサ、日照センサ、雪センサ、照度センサ等の各種センサを含むことができる。
 さらに、例えば、外部認識センサ525は、車両500の周囲の音や音源の位置の検出等に用いられるマイクロホンを備える。
 車内センサ526は、車内の情報を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム511の各部に供給する。車内センサ526が備える各種センサの種類や数は、現実的に車両500に設置可能な数であれば特に限定されない。
 例えば、車内センサ526は、カメラ、レーダ、着座センサ、ステアリングホイールセンサ、マイクロホン、生体センサのうち1種類以上のセンサを備えることができる。車内センサ526が備えるカメラとしては、例えば、ToFカメラ、ステレオカメラ、単眼カメラ、赤外線カメラといった、測距可能な各種の撮影方式のカメラを用いることができる。これに限らず、車内センサ526が備えるカメラは、測距に関わらずに、単に撮影画像を取得するためのものであってもよい。車内センサ526が備える生体センサは、例えば、シートやステリングホイール等に設けられ、運転者等の搭乗者の各種の生体情報を検出する。
 車両センサ527は、車両500の状態を検出するための各種のセンサを備え、各センサからのセンサデータを車両制御システム511の各部に供給する。車両センサ527が備える各種センサの種類や数は、現実的に車両500に設置可能な数であれば特に限定されない。
 例えば、車両センサ527は、速度センサ、加速度センサ、角速度センサ(ジャイロセンサ)、および、それらを統合した慣性計測装置(IMU(Inertial Measurement Unit))を備える。例えば、車両センサ527は、ステアリングホイールの操舵角を検出する操舵角センサ、ヨーレートセンサ、アクセルペダルの操作量を検出するアクセルセンサ、および、ブレーキペダルの操作量を検出するブレーキセンサを備える。例えば、車両センサ527は、エンジンやモータの回転数を検出する回転センサ、タイヤの空気圧を検出する空気圧センサ、タイヤのスリップ率を検出するスリップ率センサ、および、車輪の回転速度を検出する車輪速センサを備える。例えば、車両センサ527は、バッテリの残量および温度を検出するバッテリセンサ、および、外部からの衝撃を検出する衝撃センサを備える。
 記録部528は、不揮発性の記憶媒体および揮発性の記憶媒体のうち少なくとも一方を含み、データやプログラムを記憶する。記録部528は、例えばEEPROM(Electrically Erasable Programmable Read Only Memory)およびRAM(Random Access Memory)として用いられ、記憶媒体としては、HDD(Hard Disc Drive)といった磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス、および、光磁気記憶デバイスを適用することができる。記録部528は、車両制御システム511の各部が用いる各種プログラムやデータを記録する。例えば、記録部528は、EDR(Event Data Recorder)やDSSAD(Data Storage System for Automated Driving)を備え、事故等のイベントの前後の車両500の情報や車内センサ526によって取得された生体情報を記録する。
 走行支援・自動運転制御部529は、車両500の走行支援および自動運転の制御を行う。例えば、走行支援・自動運転制御部529は、分析部561、行動計画部562、および、動作制御部563を備える。
 分析部561は、車両500および周囲の状況の分析処理を行う。分析部561は、自己位置推定部571、センサフュージョン部572、および、認識部573を備える。
 自己位置推定部571は、外部認識センサ525からのセンサデータ、および、地図情報蓄積部523に蓄積されている高精度地図に基づいて、車両500の自己位置を推定する。例えば、自己位置推定部571は、外部認識センサ525からのセンサデータに基づいてローカルマップを生成し、ローカルマップと高精度地図とのマッチングを行うことにより、車両500の自己位置を推定する。車両500の位置は、例えば、後輪対車軸の中心が基準とされる。
 ローカルマップは、例えば、SLAM(Simultaneous Localization and Mapping)等の技術を用いて作成される3次元の高精度地図、占有格子地図(Occupancy Grid Map)等である。3次元の高精度地図は、例えば、上述したポイントクラウドマップ等である。占有格子地図は、車両500の周囲の3次元又は2次元の空間を所定の大きさのグリッド(格子)に分割し、グリッド単位で物体の占有状態を示す地図である。物体の占有状態は、例えば、物体の有無や存在確率により示される。ローカルマップは、例えば、認識部573による車両500の外部の状況の検出処理および認識処理にも用いられる。
 なお、自己位置推定部571は、GNSS信号、および、車両センサ527からのセンサデータに基づいて、車両500の自己位置を推定してもよい。
 センサフュージョン部572は、複数の異なる種類のセンサデータ(例えば、カメラ551から供給される画像データ、および、レーダ552から供給されるセンサデータ)を組み合わせて、新たな情報を得るセンサフュージョン処理を行う。異なる種類のセンサデータを組合せる方法としては、統合、融合、連合等がある。
 認識部573は、車両500の外部の状況の検出を行う検出処理と、車両500の外部の状況の認識を行う認識処理と、を実行する。
 例えば、認識部573は、外部認識センサ525からの情報、自己位置推定部571からの情報、センサフュージョン部572からの情報等に基づいて、車両500の外部の状況の検出処理および認識処理を行う。
 具体的には、例えば、認識部573は、車両500の周囲の物体の検出処理および認識処理等を行う。物体の検出処理とは、例えば、物体の有無、大きさ、形、位置、動き等を検出する処理である。物体の認識処理とは、例えば、物体の種類等の属性を認識したり、特定の物体を識別したりする処理である。ただし、検出処理と認識処理とは、必ずしも明確に分かれるものではなく、重複する場合がある。
 例えば、認識部573は、LiDAR553又はレーダ552等によるセンサデータに基づくポイントクラウドを点群の塊毎に分類するクラスタリングを行うことにより、車両500の周囲の物体を検出する。これにより、車両500の周囲の物体の有無、大きさ、形状、位置が検出される。
 例えば、認識部573は、クラスタリングにより分類された点群の塊の動きを追従するトラッキングを行うことにより、車両500の周囲の物体の動きを検出する。これにより、車両500の周囲の物体の速度および進行方向(移動ベクトル)が検出される。
 例えば、認識部573は、カメラ551から供給される画像データに対して、車両、人、自転車、障害物、構造物、道路、信号機、交通標識、道路標示などを検出または認識する。また、セマンティックセグメンテーション等の認識処理を行うことにより、車両500の周囲の物体の種類を認識してもいい。
 例えば、認識部573は、地図情報蓄積部523に蓄積されている地図、自己位置推定部571による自己位置の推定結果、および、認識部573による車両500の周囲の物体の認識結果に基づいて、車両500の周囲の交通ルールの認識処理を行うことができる。認識部573は、この処理により、信号の位置および状態、交通標識および道路標示の内容、交通規制の内容、並びに、走行可能な車線などを認識することができる。
 例えば、認識部573は、車両500の周囲の環境の認識処理を行うことができる。認識部573が認識対象とする周囲の環境としては、天候、気温、湿度、明るさ、および、路面の状態等が想定される。
 行動計画部562は、車両500の行動計画を作成する。例えば、行動計画部562は、経路計画、経路追従の処理を行うことにより、行動計画を作成する。
 なお、経路計画(Global path planning)とは、スタートからゴールまでの大まかな経路を計画する処理である。この経路計画には、軌道計画と言われ、経路計画で計画された経路において、車両500の運動特性を考慮して、車両500の近傍で安全かつ滑らかに進行することが可能な軌道生成(Local path planning)の処理も含まれる。経路計画を長期経路計画、および起動生成を短期経路計画、または局所経路計画と区別してもよい。安全優先経路は、起動生成、短期経路計画、または局所経路計画と同様の概念を表す。
 経路追従とは、経路計画により計画した経路を計画された時間内で安全かつ正確に走行するための動作を計画する処理である。行動計画部562は、例えば、この経路追従の処理の結果に基づき、車両500の目標速度と目標角速度を計算することができる。
 動作制御部563は、行動計画部562により作成された行動計画を実現するために、車両500の動作を制御する。
 例えば、動作制御部563は、後述する車両制御部532に含まれる、ステアリング制御部581、ブレーキ制御部582、および、駆動制御部583を制御して、軌道計画により計算された軌道を車両500が進行するように、加減速制御および方向制御を行う。例えば、動作制御部563は、衝突回避あるいは衝撃緩和、追従走行、車速維持走行、自車の衝突警告、自車のレーン逸脱警告等のADASの機能実現を目的とした協調制御を行う。例えば、動作制御部563は、運転者の操作によらずに自律的に走行する自動運転等を目的とした協調制御を行う。
 DMS530は、車内センサ526からのセンサデータ、および、後述するHMI531に入力される入力データ等に基づいて、運転者の認証処理、および、運転者の状態の認識処理等を行う。この場合にDMS530の認識対象となる運転者の状態としては、例えば、体調、覚醒度、集中度、疲労度、視線方向、酩酊度、運転操作、姿勢等が想定される。
 なお、DMS530が、運転者以外の搭乗者の認証処理、および、当該搭乗者の状態の認識処理を行うようにしてもよい。また、例えば、DMS530が、車内センサ526からのセンサデータに基づいて、車内の状況の認識処理を行うようにしてもよい。認識対象となる車内の状況としては、例えば、気温、湿度、明るさ、臭い等が想定される。
 HMI531は、各種のデータや指示等の入力と、各種のデータの運転者などへの提示を行う。
 HMI531によるデータの入力について、概略的に説明する。HMI531は、人がデータを入力するための入力デバイスを備える。HMI531は、入力デバイスにより入力されたデータや指示等に基づいて入力信号を生成し、車両制御システム511の各部に供給する。HMI531は、入力デバイスとして、例えばタッチパネル、ボタン、スイッチ、および、レバーといった操作子を備える。これに限らず、HMI531は、音声やジェスチャ等により手動操作以外の方法で情報を入力可能な入力デバイスをさらに備えてもよい。さらに、HMI531は、例えば、赤外線あるいは電波を利用したリモートコントロール装置や、車両制御システム511の操作に対応したモバイル機器若しくはウェアラブル機器等の外部接続機器を入力デバイスとして用いてもよい。
 HMI531によるデータの提示について、概略的に説明する。HMI531は、搭乗者又は車外に対する視覚情報、聴覚情報、および、触覚情報の生成を行う。また、HMI531は、生成されたこれら各情報の出力、出力内容、出力タイミングおよび出力方法等を制御する出力制御を行う。HMI531は、視覚情報として、例えば、操作画面、車両500の状態表示、警告表示、車両500の周囲の状況を示すモニタ画像等の画像や光により示される情報を生成および出力する。また、HMI531は、聴覚情報として、例えば、音声ガイダンス、警告音、警告メッセージ等の音により示される情報を生成および出力する。さらに、HMI531は、触覚情報として、例えば、力、振動、動き等により搭乗者の触覚に与えられる情報を生成および出力する。
 HMI531が視覚情報を出力する出力デバイスとしては、例えば、自身が画像を表示することで視覚情報を提示する表示装置や、画像を投影することで視覚情報を提示するプロジェクタ装置を適用することができる。なお、表示装置は、通常のディスプレイを有する表示装置以外にも、例えば、ヘッドアップディスプレイ、透過型ディスプレイ、AR(Augmented Reality)機能を備えるウエアラブルデバイスといった、搭乗者の視界内に視覚情報を表示する装置であってもよい。また、HMI531は、車両500に設けられるナビゲーション装置、インストルメントパネル、CMS(Camera Monitoring System)、電子ミラー、ランプなどが有する表示デバイスを、視覚情報を出力する出力デバイスとして用いることも可能である。
 HMI531が聴覚情報を出力する出力デバイスとしては、例えば、オーディオスピーカ、ヘッドホン、イヤホンを適用することができる。
 HMI531が触覚情報を出力する出力デバイスとしては、例えば、ハプティクス技術を用いたハプティクス素子を適用することができる。ハプティクス素子は、例えば、ステアリングホイール、シートといった、車両500の搭乗者が接触する部分に設けられる。
 車両制御部532は、車両500の各部の制御を行う。車両制御部532は、ステアリング制御部581、ブレーキ制御部582、駆動制御部583、ボディ系制御部584、ライト制御部585、および、ホーン制御部586を備える。
 ステアリング制御部581は、車両500のステアリングシステムの状態の検出および制御等を行う。ステアリングシステムは、例えば、ステアリングホイール等を備えるステアリング機構、電動パワーステアリング等を備える。ステアリング制御部581は、例えば、ステアリングシステムの制御を行うECU等の制御ユニット、ステアリングシステムの駆動を行うアクチュエータ等を備える。
 ブレーキ制御部582は、車両500のブレーキシステムの状態の検出および制御等を行う。ブレーキシステムは、例えば、ブレーキペダル等を含むブレーキ機構、ABS(Antilock Brake System)、回生ブレーキ機構等を備える。ブレーキ制御部582は、例えば、ブレーキシステムの制御を行うECU等の制御ユニット等を備える。
 駆動制御部583は、車両500の駆動システムの状態の検出および制御等を行う。駆動システムは、例えば、アクセルペダル、内燃機関又は駆動用モータ等の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構等を備える。駆動制御部583は、例えば、駆動システムの制御を行うECU等の制御ユニット等を備える。
 ボディ系制御部584は、車両500のボディ系システムの状態の検出および制御等を行う。ボディ系システムは、例えば、キーレスエントリシステム、スマートキーシステム、パワーウインドウ装置、パワーシート、空調装置、エアバッグ、シートベルト、シフトレバー等を備える。ボディ系制御部584は、例えば、ボディ系システムの制御を行うECU等の制御ユニット等を備える。
 ライト制御部585は、車両500の各種のライトの状態の検出および制御等を行う。制御対象となるライトとしては、例えば、ヘッドライト、バックライト、フォグライト、ターンシグナル、ブレーキライト、プロジェクション、バンパーの表示等が想定される。ライト制御部585は、ライトの制御を行うECU等の制御ユニット等を備える。
 ホーン制御部586は、車両500のカーホーンの状態の検出および制御等を行う。ホーン制御部586は、例えば、カーホーンの制御を行うECU等の制御ユニット等を備える。
 図38は、図37の外部認識センサ525のカメラ551、レーダ552、LiDAR553、および、超音波センサ554等によるセンシング領域の例を示す図である。なお、図38において、車両500を上面から見た様子が模式的に示され、左端側が車両500の前端(フロント)側であり、右端側が車両500の後端(リア)側となっている。
 センシング領域591Fおよびセンシング領域591Bは、超音波センサ554のセンシング領域の例を示している。センシング領域591Fは、複数の超音波センサ554によって車両500の前端周辺をカバーしている。センシング領域591Bは、複数の超音波センサ554によって車両500の後端周辺をカバーしている。
 センシング領域591Fおよびセンシング領域591Bにおけるセンシング結果は、例えば、車両500の駐車支援等に用いられる。
 センシング領域592F乃至センシング領域592Bは、短距離又は中距離用のレーダ552のセンシング領域の例を示している。センシング領域592Fは、車両500の前方において、センシング領域591Fより遠い位置までカバーしている。センシング領域592Bは、車両500の後方において、センシング領域591Bより遠い位置までカバーしている。センシング領域592Lは、車両500の左側面の後方の周辺をカバーしている。センシング領域592Rは、車両500の右側面の後方の周辺をカバーしている。
 センシング領域592Fにおけるセンシング結果は、例えば、車両500の前方に存在する車両や歩行者等の検出等に用いられる。センシング領域592Bにおけるセンシング結果は、例えば、車両500の後方の衝突防止機能等に用いられる。センシング領域592Lおよびセンシング領域592Rにおけるセンシング結果は、例えば、車両500の側方の死角における物体の検出等に用いられる。
 センシング領域593F乃至センシング領域593Bは、カメラ551によるセンシング領域の例を示している。センシング領域593Fは、車両500の前方において、センシング領域592Fより遠い位置までカバーしている。センシング領域593Bは、車両500の後方において、センシング領域592Bより遠い位置までカバーしている。センシング領域593Lは、車両500の左側面の周辺をカバーしている。センシング領域593Rは、車両500の右側面の周辺をカバーしている。
 センシング領域593Fにおけるセンシング結果は、例えば、信号機や交通標識の認識、車線逸脱防止支援システム、自動ヘッドライト制御システムに用いることができる。センシング領域593Bにおけるセンシング結果は、例えば、駐車支援、および、サラウンドビューシステムに用いることができる。センシング領域593Lおよびセンシング領域593Rにおけるセンシング結果は、例えば、サラウンドビューシステムに用いることができる。
 センシング領域594は、LiDAR553のセンシング領域の例を示している。センシング領域594は、車両500の前方において、センシング領域593Fより遠い位置までカバーしている。一方、センシング領域594は、センシング領域593Fより左右方向の範囲が狭くなっている。
 センシング領域594におけるセンシング結果は、例えば、周辺車両等の物体検出に用いられる。
 センシング領域595は、長距離用のレーダ552のセンシング領域の例を示している。
センシング領域595は、車両500の前方において、センシング領域594より遠い位置までカバーしている。一方、センシング領域595は、センシング領域594より左右方向の範囲が狭くなっている。
 センシング領域595におけるセンシング結果は、例えば、ACC(Adaptive Cruise Control)、緊急ブレーキ、衝突回避等に用いられる。
 なお、外部認識センサ525が含むカメラ551、レーダ552、LiDAR553、および、超音波センサ554の各センサのセンシング領域は、図38以外に各種の構成をとってもよい。具体的には、超音波センサ554が車両500の側方もセンシングするようにしてもよいし、LiDAR553が車両500の後方をセンシングするようにしてもよい。また、各センサの設置位置は、上述した各例に限定されない。また、各センサの数は、1つでもよいし、複数であってもよい。
  [9.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成する駐車区画検出部と、
 前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行する駐車区画補正部を有し、
 前記駐車区画補正部は、
 前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
 1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
 を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行する情報処理装置。
 (2) 前記駐車区画検出部は、
 カメラ撮影画像から特徴点を検出して検出した特徴点に基づいて前記駐車区画検出結果を生成する(1)に記載の情報処理装置。
 (3) 前記駐車区画検出部は、
 カメラ撮影画像の俯瞰変換を実行し、俯瞰変換画像から特徴点を検出して検出した特徴点に基づいて前記駐車区画検出結果を生成する(1)または(2)に記載の情報処理装置。
 (4) 前記駐車区画補正部は、
 1つのクラスタ内に含まれる複数の駐車区画各々の頂点座標を解析し、解析した頂点座標に基づいて、前記1つのクラスタ内の複数の駐車区画各々の形状、および配置の少なくともいずれか一方を均一化する平滑化処理を実行する(1)~(3)いずれかに記載の情報処理装置。
 (5) 前記駐車区画補正部は、
 1つのクラスタ内に含まれる複数の駐車区画各々の幅(W)、奥行(L)の長さと方向を均一化する平滑化処理を実行する(1)~(4)いずれかに記載の情報処理装置。
 (6) 前記駐車区画補正部は、
 1つのクラスタ内の隣接する駐車区画の間隔(S)の長さと方向を均一化する平滑化処理を実行する(1)~(5)いずれかに記載の情報処理装置。
 (7) 前記駐車区画補正部は、
 1つのクラスタ内に含まれる複数の駐車区画各々の幅(W)、奥行(L)と、クラスタ内の隣接する駐車区画の間隔(S)の長さと方向を示すベクトルを算出し、算出したベクトルを均一化する平滑化処理を実行する(1)~(6)いずれかに記載の情報処理装置。
 (8) 前記駐車区画補正部は、
 前記駐車区画検出部が生成した駐車区画検出結果に含まれない駐車区画を、予め規定した駐車区画挿入条件を満たす場合、前記クラスタ内に新たな駐車区画を挿入する処理を実行する(1)~(7)いずれかに記載の情報処理装置。
 (9) 前記駐車区画補正部は、
 前記クラスタ内の駐車区画間の空白領域が、1台以上2台未満の駐車可能な空白領域である場合、前記クラスタ内に新たな駐車区画を挿入する処理を実行する(1)~(8)いずれかに記載の情報処理装置。
 (10) 前記駐車区画補正部は、
 前記駐車区画検出部が生成した駐車区画検出結果の時系列データを取得し、
 各時系列データのクラスタの駐車区画を比較参照して、補正対象の駐車区画検出結果のクラスタに含まれない駐車区画が前記時系列データのクラスタに含まれることが確認された場合、前記補正対象の駐車区画検出結果のクラスタに新たな駐車区画を挿入する処理を実行する(1)~(9)いずれかに記載の情報処理装置。
 (11) 前記情報処理装置は、さらに自動運転制御部を有し、
 前記自動運転制御部は、
 前記駐車区画補正部によって補正された駐車区画補正結果を入力し、入力した駐車区画補正結果を参照して自動駐車処理を実行する(1)~(10)いずれかに記載の情報処理装置。
 (12) 前記情報処理装置は、さらに表示制御部を有し、
 前記表示制御部は、
 前記駐車区画補正部によって補正された駐車区画補正結果を入力し、入力した駐車区画補正結果を表示部に表示する処理を実行する(1)~(11)いずれかに記載の情報処理装置。
 (13) 情報処理装置において実行する情報処理方法であり、
 駐車区画検出部が、センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成する駐車区画検出ステップと、
 駐車区画補正部が、前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行する駐車区画補正ステップを有し、
 前記駐車区画補正部は、前記駐車区画補正ステップにおいて、
 前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
 1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
 を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行する情報処理方法。
 (14) 情報処理装置において情報処理を実行させるプログラムであり、
 駐車区画検出部に、センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成させる駐車区画検出ステップと、
 駐車区画補正部に、前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行させる駐車区画補正ステップを実行させ、
 前記プログラムは、前記駐車区画補正ステップにおいて、
 前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
 1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
 を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にある場合もあるが、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、カメラ撮影画像に基づいて検出された駐車区画を補正し、誤差を低減した駐車区画補正データを生成する装置、方法が実現される。
 具体的には、例えば、カメラ撮影画像に基づく駐車区画検出処理を実行して生成された駐車区画検出結果の補正処理を実行する駐車区画補正部を有する。駐車区画補正部は、駐車区画検出結果から固有の配列規則に従って配列されていると推定される複数の駐車区画を1つのクラスタと判定し、1つのクラスタ内の複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理を実行して駐車区画補正処理を実行する。例えばクラスタ内の複数の駐車区画各々の幅(W)、奥行(L)、駐車区画間隔(S)の長さと方向を均一化する処理を実行する。
 本構成により、カメラ撮影画像に基づいて検出された駐車区画を補正し、誤差を低減した駐車区画補正データを生成する装置、方法が実現される。
  10 車両
  20 センサ
  30 駐車場
  51 駐車区画解析部
  52 自動運転制御部
 100 移動装置(自動運転車両)
 110 センサ
 120 情報処理装置120
 121 駐車区画解析部
 122 自動運転制御部
 123 表示制御部
 131 駐車区画検出部
 132 駐車区画補正部
 140 駆動部(自動運転実行部)
 150 表示部
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア
 321 センサ
 322 駆動部

Claims (14)

  1.  センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成する駐車区画検出部と、
     前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行する駐車区画補正部を有し、
     前記駐車区画補正部は、
     前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
     1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
     を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行する情報処理装置。
  2.  前記駐車区画検出部は、
     カメラ撮影画像から特徴点を検出して検出した特徴点に基づいて前記駐車区画検出結果を生成する請求項1に記載の情報処理装置。
  3.  前記駐車区画検出部は、
     カメラ撮影画像の俯瞰変換を実行し、俯瞰変換画像から特徴点を検出して検出した特徴点に基づいて前記駐車区画検出結果を生成する請求項1に記載の情報処理装置。
  4.  前記駐車区画補正部は、
     1つのクラスタ内に含まれる複数の駐車区画各々の頂点座標を解析し、解析した頂点座標に基づいて、前記1つのクラスタ内の複数の駐車区画各々の形状、および配置の少なくともいずれか一方を均一化する平滑化処理を実行する請求項1に記載の情報処理装置。
  5.  前記駐車区画補正部は、
     1つのクラスタ内に含まれる複数の駐車区画各々の幅(W)、奥行(L)の長さと方向を均一化する平滑化処理を実行する請求項1に記載の情報処理装置。
  6.  前記駐車区画補正部は、
     1つのクラスタ内の隣接する駐車区画の間隔(S)の長さと方向を均一化する平滑化処理を実行する請求項1に記載の情報処理装置。
  7.  前記駐車区画補正部は、
     1つのクラスタ内に含まれる複数の駐車区画各々の幅(W)、奥行(L)と、クラスタ内の隣接する駐車区画の間隔(S)の長さと方向を示すベクトルを算出し、算出したベクトルを均一化する平滑化処理を実行する請求項1に記載の情報処理装置。
  8.  前記駐車区画補正部は、
     前記駐車区画検出部が生成した駐車区画検出結果に含まれない駐車区画を、予め規定した駐車区画挿入条件を満たす場合、前記クラスタ内に新たな駐車区画を挿入する処理を実行する請求項1に記載の情報処理装置。
  9.  前記駐車区画補正部は、
     前記クラスタ内の駐車区画間の空白領域が、1台以上2台未満の駐車可能な空白領域である場合、前記クラスタ内に新たな駐車区画を挿入する処理を実行する請求項1に記載の情報処理装置。
  10.  前記駐車区画補正部は、
     前記駐車区画検出部が生成した駐車区画検出結果の時系列データを取得し、
     各時系列データのクラスタの駐車区画を比較参照して、補正対象の駐車区画検出結果のクラスタに含まれない駐車区画が前記時系列データのクラスタに含まれることが確認された場合、前記補正対象の駐車区画検出結果のクラスタに新たな駐車区画を挿入する処理を実行する請求項1に記載の情報処理装置。
  11.  前記情報処理装置は、さらに自動運転制御部を有し、
     前記自動運転制御部は、
     前記駐車区画補正部によって補正された駐車区画補正結果を入力し、入力した駐車区画補正結果を参照して自動駐車処理を実行する請求項1に記載の情報処理装置。
  12.  前記情報処理装置は、さらに表示制御部を有し、
     前記表示制御部は、
     前記駐車区画補正部によって補正された駐車区画補正結果を入力し、入力した駐車区画補正結果を表示部に表示する処理を実行する請求項1に記載の情報処理装置。
  13.  情報処理装置において実行する情報処理方法であり、
     駐車区画検出部が、センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成する駐車区画検出ステップと、
     駐車区画補正部が、前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行する駐車区画補正ステップを有し、
     前記駐車区画補正部は、前記駐車区画補正ステップにおいて、
     前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
     1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
     を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行する情報処理方法。
  14.  情報処理装置において情報処理を実行させるプログラムであり、
     駐車区画検出部に、センサの検出情報に基づく駐車区画検出を実行し駐車区画検出結果を生成させる駐車区画検出ステップと、
     駐車区画補正部に、前記駐車区画検出部が生成した駐車区画検出結果の補正処理を実行させる駐車区画補正ステップを実行させ、
     前記プログラムは、前記駐車区画補正ステップにおいて、
     前記駐車区画検出結果から、固有の配列規則に従って配列されていると推定される複数の駐車区画を1つの駐車区画群であるクラスタと判定するクラスタリング処理と、
     1つのクラスタ内に含まれる複数の駐車区画の形状、および配置の少なくともいずれか一方を均一化する平滑化処理と、
     を実行して前記駐車区画検出結果に含まれる駐車区画の補正処理を実行させるプログラム。
PCT/JP2022/014837 2021-09-21 2022-03-28 情報処理装置、および情報処理方法、並びにプログラム WO2023047666A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-152867 2021-09-21
JP2021152867 2021-09-21

Publications (1)

Publication Number Publication Date
WO2023047666A1 true WO2023047666A1 (ja) 2023-03-30

Family

ID=85720391

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2022/014837 WO2023047666A1 (ja) 2021-09-21 2022-03-28 情報処理装置、および情報処理方法、並びにプログラム

Country Status (1)

Country Link
WO (1) WO2023047666A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502818A (ja) * 2010-12-27 2014-02-03 スリーディーメディア コーポレイション 画像処理のための一次像および二次像画像取込装置およびその方法
JP2017052471A (ja) * 2015-09-11 2017-03-16 クラリオン株式会社 車両用駐車区画認識装置
JP2021094934A (ja) * 2019-12-13 2021-06-24 本田技研工業株式会社 駐車支援システム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014502818A (ja) * 2010-12-27 2014-02-03 スリーディーメディア コーポレイション 画像処理のための一次像および二次像画像取込装置およびその方法
JP2017052471A (ja) * 2015-09-11 2017-03-16 クラリオン株式会社 車両用駐車区画認識装置
JP2021094934A (ja) * 2019-12-13 2021-06-24 本田技研工業株式会社 駐車支援システム

Similar Documents

Publication Publication Date Title
WO2021241189A1 (ja) 情報処理装置、情報処理方法、およびプログラム
US20240054793A1 (en) Information processing device, information processing method, and program
WO2021060018A1 (ja) 信号処理装置、信号処理方法、プログラム、及び、移動装置
WO2022158185A1 (ja) 情報処理装置、情報処理方法、プログラムおよび移動装置
US20230370709A1 (en) Imaging device, information processing device, imaging system, and imaging method
WO2023153083A1 (ja) 情報処理装置、情報処理方法、情報処理プログラム及び移動装置
US20230289980A1 (en) Learning model generation method, information processing device, and information processing system
US20230245423A1 (en) Information processing apparatus, information processing method, and program
WO2023047666A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023058342A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023007785A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023090001A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
WO2023063145A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
WO2023074419A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023149089A1 (ja) 学習装置、学習方法及び学習プログラム
WO2024024471A1 (ja) 情報処理装置、情報処理方法、及び、情報処理システム
WO2023145529A1 (ja) 情報処理装置、情報処理方法および情報処理プログラム
US20230206596A1 (en) Information processing device, information processing method, and program
WO2023145460A1 (ja) 振動検出システムおよび振動検出方法
WO2022259621A1 (ja) 情報処理装置、情報処理方法、コンピュータプログラム
WO2023162497A1 (ja) 画像処理装置、画像処理方法及び画像処理プログラム
WO2023053718A1 (ja) 情報処理装置及び情報処理方法、学習装置及び学習方法、並びにコンピュータプログラム
WO2024062976A1 (ja) 情報処理装置及び情報処理方法
WO2023054090A1 (ja) 認識処理装置、認識処理方法、および認識処理システム
WO2023021755A1 (ja) 情報処理装置、情報処理システム、モデル及びモデルの生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 22872425

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE