WO2022163216A1 - 移動体、情報処理方法およびプログラム - Google Patents

移動体、情報処理方法およびプログラム Download PDF

Info

Publication number
WO2022163216A1
WO2022163216A1 PCT/JP2021/047184 JP2021047184W WO2022163216A1 WO 2022163216 A1 WO2022163216 A1 WO 2022163216A1 JP 2021047184 W JP2021047184 W JP 2021047184W WO 2022163216 A1 WO2022163216 A1 WO 2022163216A1
Authority
WO
WIPO (PCT)
Prior art keywords
parallax
image
histogram
unit
viewpoint image
Prior art date
Application number
PCT/JP2021/047184
Other languages
English (en)
French (fr)
Inventor
航平 漆戸
正樹 半田
琢人 元山
真一郎 阿部
政彦 豊吉
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2022163216A1 publication Critical patent/WO2022163216A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images

Definitions

  • the present invention relates to mobile objects, information processing methods, and programs.
  • a known technology is to attach a stereo camera to a moving object such as a car and detect an object from the images taken by the stereo camera.
  • a stereo camera has multiple imaging units for shooting from different viewpoints.
  • the distance (base line length) between imaging units is adjusted by calibration.
  • the relative positions of the imaging units may shift due to vibration during movement (hereinafter referred to as calibration shift). If movement is performed in a state in which calibration deviation has occurred, the surrounding environment cannot be correctly recognized. As a result, movement may become unstable.
  • the present disclosure proposes a moving object, an information processing method, and a program capable of detecting calibration deviation.
  • an image slide unit that generates a slide image obtained by sliding a first viewpoint image in a parallax direction
  • a parallax histogram aggregation unit that generates a histogram of parallax from the slide image and the second viewpoint image
  • a calibration deviation detection unit that determines that calibration deviation has occurred when the lower limit boundary value of the parallax in the histogram is smaller than the slide amount of the first viewpoint image.
  • FIG. 1 is a schematic diagram of a stereo camera; FIG. It is a figure explaining the estimation method of depth. It is a figure which shows the relationship between depth and parallax. It is a figure explaining the 1st influence by a calibration gap. It is a figure explaining the 1st influence by a calibration gap. It is a figure explaining the 1st influence by a calibration gap. It is a figure explaining the 2nd influence by calibration deviation. It is a figure explaining the 2nd influence by calibration deviation. It is a figure explaining the detection method of a calibration deviation. It is a figure explaining the detection method of a calibration deviation. It is a figure explaining the detection method of a calibration deviation. It is a figure explaining the detection method of a calibration deviation. It is a figure which shows the structure of the moving body of 1st Embodiment.
  • FIG. 4 is a flowchart illustrating an example of information processing performed by a processing device; It is a figure which shows the structure of the moving body of 2nd Embodiment.
  • FIG. 4 is a diagram showing an example of a subject area; It is a figure which shows the structure of the moving body of 3rd Embodiment.
  • FIG. 4 is a diagram showing an example of a subject area;
  • FIG. 10 is a diagram showing another example of a stereo camera selection method;
  • FIG. 10 is a diagram showing another example of a stereo camera selection method; It is a figure which shows an example of the information processing based on movement log
  • FIG. 10 is a diagram showing another example of notification;
  • FIG. 10 is a diagram showing another example of notification;
  • FIG. 10 is a diagram showing another example of notification;
  • FIG. 10 is a diagram showing the hardware structural example of a processing apparatus.
  • FIG. 10 is a diagram showing another example for avoiding the second effect due to calibration deviation;
  • FIG. 1 is a schematic diagram of a stereo camera 20. As shown in FIG. 1
  • the stereo camera 20 has a first imaging section 21 and a second imaging section 22 .
  • the stereo camera 20 is attached to the lower part of a moving object such as a drone via a support member 23, for example.
  • the first imaging unit 21 and the second imaging unit 22 are arranged at a position (viewpoint VP) separated by a predetermined distance (base line length).
  • a direction connecting the first imaging unit 21 and the second imaging unit 22 is a parallax direction in which parallax occurs.
  • the distance to an object (hereinafter referred to as “depth”) is estimated using a technique such as triangulation based on the parallax of the object seen from the first imaging section 21 and the second imaging section 22 .
  • FIG. 2 is a diagram explaining the depth estimation method.
  • the stereo camera 20 uses the first imaging section 21 and the second imaging section 22 to simultaneously photograph the subject SU from two viewpoints VP.
  • a stereo image STI including the first viewpoint image VPI1 and the second viewpoint image VPI2 is captured.
  • the first viewpoint image VPI1 is an image of the subject SU captured by the first imaging unit 21 from the first viewpoint VP1.
  • the second viewpoint image VPI2 is an image of the subject SU captured by the second imaging unit 22 from the second viewpoint VP2.
  • the stereo camera 20 associates the first viewpoint image VPI1 and the second viewpoint image VPI2 pixel by pixel, for example, by stereo matching.
  • the stereo camera 20 calculates the distance between the corresponding points CP when the first viewpoint image VPI1 is projected onto the second viewpoint image VPI2 as the parallax PR.
  • the stereo camera 20 generates a parallax map PM (see FIG. 10) in which information about the parallax PR is associated with each pixel of the second viewpoint image VPI2.
  • the stereo camera 20 uses the parallax map PM and information on the baseline length to calculate the depth DP for each pixel by triangulation.
  • FIG. 3 is a diagram showing the relationship between depth DP and parallax PR.
  • the upper part of FIG. 3 shows an example where the distance between the subject SU and the stereo camera 20 is small.
  • the subject SU is captured at a position closer to the edge than the center of the field of view of each imaging unit. Therefore, the parallax PR is large.
  • the lower part of FIG. 3 shows an example where the distance between the subject SU and the stereo camera 20 is large.
  • the subject SU is captured at a position near the center of the field of view of each imaging unit. Therefore, the parallax PR is small.
  • the depth DP and the parallax PR have a negative correlation. The smaller the depth DP, the larger the parallax PR, and the larger the depth DP, the smaller the parallax PR.
  • FIGS. 4 to 6 are diagrams for explaining the first influence due to the calibration deviation of the stereo camera 20.
  • the example on the left side of FIG. 4 shows a state in which the first imaging section 21 and the second imaging section 22 are fixed at normal positions.
  • the baseline length between the first imaging unit 21 and the second imaging unit 22 has not changed from the value set by calibration.
  • the example on the right side of FIG. 4 shows a state in which calibration deviation has occurred between the first imaging section 21 and the second imaging section 22 .
  • the position of the first imaging section 21 is shifted in the direction toward the second imaging section 22 . Since the world seen by the first imaging unit 21 shifts to the second imaging unit 22 side, the position of the subject SU in the first viewpoint image VPI1 shifts to the second imaging unit 22 side compared to normal.
  • the depth DP2 to the subject SU is greater than the depth DP1 calculated from the normal stereo image STI.
  • Calibration deviations occur due to various reasons such as heat and impact. If it cannot be detected that the calibration deviation has occurred, it cannot be distinguished whether the subject SU appears far away due to the calibration deviation or whether the subject SU really exists far away.
  • FIG. 6 when a moving body MB moving at high speed erroneously detects an obstacle (subject SU) farther in the traveling direction, the obstacle may collide with the obstacle even if the obstacle is recognized. It may get lost. For example, when the moving body MB approaches an obstacle, it tries to stop, but because the obstacle is closer than it recognizes, it may not be able to stop and collide with it.
  • FIG. 7 and 8 are diagrams for explaining the second effect of the calibration deviation of the stereo camera 20.
  • a matching process is performed to search for corresponding points CP.
  • the first imaging unit 21 is a right camera that captures the subject SU from the right side
  • the second imaging unit 22 is a left camera that captures the subject SU from the left side.
  • the search for the corresponding points CP is selectively performed in a search area SA having a predetermined width on the right side of the position of the subject SU captured in the first viewpoint image VPI1.
  • the area other than the search area SA is the non-search area NSA. Search for corresponding points CP is not performed in the non-search area NSA.
  • the width of the search area SA (the number of pixels in the parallax direction in which the search is performed) is set in consideration of the depth estimation accuracy and the computational load. In the following description, the width of the search area SA is set to 127 pixels, for example.
  • Detection method of calibration deviation 9 to 11 are diagrams for explaining a calibration deviation detection method. Detection of calibration deviation is achieved by enlarging the search area SA using the slide image SLI and verification processing using a parallax histogram.
  • FIG. 9 is a diagram illustrating a method of enlarging the search area SA.
  • the search for the corresponding point CP may fail. Therefore, in the present disclosure, the position of the subject SU captured in the first viewpoint image VPI1 is slid in the direction in which the parallax PR increases (to the left in the example of FIG. 9) by the preset slide amount SLA. Then, the slide image SLI in which the position of the subject SU is slid is projected onto the second viewpoint image VPI2. The search for the corresponding points CP is performed between the slide image SLI and the second viewpoint image VPI2. According to this configuration, the search area SA is enlarged by the slide amount SLA. Therefore, even if calibration deviation occurs, the search for the corresponding points CP is less likely to fail.
  • the slide amount SLA is represented, for example, by the number of pixels in the second viewpoint image VPI2.
  • the slide amount SLA is, for example, 2 pixels or more and 10 pixels or less. In the following description, the slide amount SLA is set to 6 pixels, for example.
  • Verification process using parallax histogram 10 and 11 are diagrams for explaining calibration deviation verification processing using a parallax histogram.
  • a parallax map PM is generated by calculating a parallax PR between the second viewpoint image VPI and the slide image SLI for each pixel.
  • the parallax map PM is generated by associating each pixel of the second viewpoint image VPI2 with a parallax PR value.
  • FIG. 10 shows a parallax map PM that expresses the magnitude of the parallax PR of each pixel in color.
  • a histogram HG of parallax PR is generated based on the parallax map PM.
  • the image area of the parallax map PM to be aggregated can be set by the user.
  • parallax PR data of all pixels in the parallax map PM are aggregated.
  • the distribution of the histogram HG changes depending on the slide amount SLA.
  • the upper part of FIG. 11 shows an example in which the slide amount SLA is 0 (reference example in which the slide process is not performed), and the lower part of FIG. 11 shows an example in which the slide amount SLA is X.
  • the distribution of the histogram HG slides in the parallax direction by the slide amount SLA.
  • the search area SA changes, the values of the lower limit boundary value Bmin, which is the lower limit value of the parallax PR, and the upper limit boundary value Bmax, which is the upper limit value of the parallax PR, also change.
  • the lower boundary value Bmin means the minimum parallax PR with significant frequency.
  • the upper boundary value Bmax means the maximum parallax PR with significant frequency. Whether or not it has a significant frequency is determined based on preset criteria. For example, if the frequency is so small that it can be considered noise (eg, the frequency is 5 or less), it is determined that it does not have a significant frequency.
  • the lower limit boundary value Bmin is 0 and the upper limit boundary value Bmax is 127 when calibration deviation does not occur (upper left side of FIG. 11).
  • the distribution of the histogram HG becomes such that the distribution in the case where no calibration shift occurs is shifted in the negative direction (see FIG. 4). 11, see the upper right side). Since the search for the corresponding point CP is not performed in the direction in which the parallax PR is negative (non-search area NSA), the parallax PR that appeared when no calibration deviation occurred is in the low parallax area LPA near zero. The distribution is not reflected in the histogram HG.
  • the histogram HG is generated using the slide image SLI. Therefore, the distribution of the histogram HG shifts in the positive direction by the slide amount SLA as a whole compared to the case where the calibration shift does not occur (see the lower left side of FIG. 11). As a result, the lower boundary value Bmin of the histogram HG becomes X. Since the search for the corresponding point CP is not performed in the direction in which the parallax PR is greater than 127 (non-search area NSA), the high parallax area near 127 where the parallax PR appeared when no calibration deviation occurred. The HPA distribution is not reflected in the histogram HG.
  • the distribution of the histogram HG becomes a distribution in which the distribution in the case where no calibration deviation occurs is shifted in the negative direction ( See bottom right of FIG. 11). Since the lower boundary value Bmin is shifted in the positive direction by the slide processing, the distribution of the low-parallax area LPA is likely to be reflected in the histogram HG.
  • the lower limit boundary value Bmin matches the slide amount SLA when calibration deviation does not occur.
  • the lower limit boundary value Bmin shifts to the negative side due to the calibration deviation. Therefore, the lower boundary value Bmin does not match the slide amount SLA. Therefore, by comparing the lower limit boundary value Bmin and the slide amount, it is possible to determine whether or not calibration deviation has occurred.
  • a configuration of a moving body that employs the calibration deviation detection method described above will be described.
  • FIG. 12 is a diagram showing the configuration of the moving body 1 of the first embodiment.
  • the moving object 1 has a processing device 10 and a stereo camera 20 .
  • the processing device 10 is an information processing device that processes various information based on the stereo image STI captured by the stereo camera 20 .
  • the stereo image STI includes a first viewpoint image VPI1 captured from the first viewpoint VP1 by the first imaging unit 21 and a second viewpoint image VPI2 captured from the second viewpoint VP2 by the second imaging unit 22.
  • the number of stereo cameras 20 is arbitrary. In this embodiment, for example, a plurality of stereo cameras 20 having different fields of view are mounted on the mobile object 1 .
  • the processing device 10 has an image slide unit 11 , a depth estimation unit 12 , a parallax histogram aggregation unit 13 , a calibration deviation detection unit 14 , and a post-stage module 15 .
  • the image slide unit 11 generates a slide image SLI by sliding the first viewpoint image VPI1 in the parallax direction.
  • the slide direction is the direction in which the parallax PR increases when the slide image SLI is projected onto the second viewpoint image VPI2 and the parallax PR is calculated.
  • the slide amount SLA is preset by the user. In this embodiment, for example, the slide amount SLA is set to 6 pixels.
  • the depth estimation unit 12 generates a parallax map PM using the slide image SLI and the second viewpoint image VPI2. For example, the depth estimation unit 12 projects the slide image SLI onto the second viewpoint image VPI2, and calculates the distance between the corresponding points CP as the parallax PR. The depth estimation unit 12 calculates parallax PR for all pixels of the second viewpoint image VPI2, and generates a parallax map PM in which each pixel of the second viewpoint image VPI2 is associated with information on the parallax PR.
  • the parallax map PM is used for generating a histogram HG for detecting calibration deviation.
  • the depth estimation unit 12 acquires both the first viewpoint image VPI1 and the second viewpoint image VPI2 from the stereo camera 20, and obtains the first viewpoint image VPI1 and the second viewpoint image VPI2. , the depth of the object SU is estimated for each pixel.
  • the depth estimation unit 12 may correct the parallax map PM based on the slide amount SLA, and estimate the depth of the subject SU for each pixel based on the corrected parallax map PM.
  • the parallax histogram collection unit 13 generates a histogram HG of parallax PR from the slide image SLI and the second viewpoint image VPI2. For example, the parallax histogram counting unit 13 calculates the frequency (the number of pixels) for each parallax PR based on the parallax map PM. As a result, a histogram HG representing the distribution of the frequency of parallax PR is generated.
  • the calibration deviation detection unit 14 determines that calibration deviation has occurred when the lower limit boundary value Bmin of the parallax PR in the histogram HG is smaller than the slide amount SLA of the first viewpoint image VPI1.
  • the calibration deviation detection unit 14 outputs detection information CDI indicating that calibration deviation has occurred to the subsequent module 15 .
  • the post-stage module 15 carries out anomaly handling processing based on the detection information CDI.
  • the post-stage module 15 includes various configurations, such as a notification unit 151, an operation control unit 152, and a calibration unit 153, depending on the type of abnormality handling process. These functions will be described with reference to FIG. 22 onwards.
  • FIG. 13 is a flow chart showing an example of information processing performed by the processing device 10 .
  • step S1 the processing device 10 acquires the stereo image STI including the first viewpoint image VPI1 and the second viewpoint image VPI2 from the stereo camera 20.
  • the first viewpoint image VPI 1 is supplied to the image slide section 11 .
  • the second viewpoint image VPI2 is supplied to the depth estimation unit 12 .
  • step S2 the image slide unit 11 generates a slide image SLI by sliding the first viewpoint image VPI1 in the parallax direction.
  • the image slide unit 11 supplies the generated slide image SLI to the depth estimation unit 12 .
  • step S3 the depth estimation unit 12 performs depth estimation processing using the second viewpoint image VPI2 and the slide image SLI.
  • the depth estimation unit 12 determines whether or not depth estimation is possible. For example, if the stereo image STI (second viewpoint image VPI2) has defects such as overexposure and occlusion, the depth estimation unit 12 determines that the depth cannot be estimated. If there is no defect in the stereo image STI, the depth estimation unit 12 determines that depth estimation is possible.
  • the stereo image STI second viewpoint image VPI2
  • the depth estimation unit 12 determines that the depth estimation is possible.
  • step S4 If it is determined in step S4 that the depth has been estimated (step S4: Yes), proceed to step S5.
  • step S5 the parallax histogram collection unit 13 generates a histogram HG of parallax PR based on the parallax map PM.
  • step S6 the parallax histogram totaling unit 13 determines whether or not the histogram HG has been totaled.
  • the parallax histogram aggregation unit 13 acquires information about the search result of the corresponding points CP from the depth estimation unit 12 .
  • the depth estimation unit 12 searches for the mutual corresponding points CP between the slide image SLI and the second viewpoint image VPI2 by stereo matching.
  • the depth estimation unit 12 determines that the parallax PR has been detected when the corresponding point CP exists within the search area SA, and cannot detect the parallax PR when the corresponding point CP does not exist within the search area SA. I judge.
  • the parallax histogram aggregation unit 13 acquires information from the depth estimation unit 12 indicating that the search for the corresponding points CP has succeeded, it determines that the histogram HG has been aggregated.
  • the parallax histogram aggregation unit 13 acquires information indicating that the search for the corresponding point CP has failed from the depth estimation unit 12, it determines that the histogram HG cannot be aggregated.
  • step S6 If it is determined in step S6 that the histogram HG has been aggregated (step S6: Yes), the process proceeds to step S7.
  • step S7 the calibration deviation detection unit 14 performs calibration deviation detection processing.
  • step S8 the calibration deviation detection unit 14 determines whether calibration deviation has been detected based on the lower boundary value Bmin of the histogram HG. For example, when the lower limit boundary value Bmin is smaller than the slide amount SLA of the first viewpoint image VPI1, the calibration deviation detection unit 14 determines that calibration deviation has been detected. When the lower limit boundary value Bmin is equal to or larger than the slide amount SLA of the first viewpoint image VPI1, the calibration deviation detection unit 14 determines that it is unknown whether calibration deviation has been detected.
  • step S8 If it is determined in step S8 that calibration deviation has been detected (step S8: Yes), the process proceeds to step S9. In step S ⁇ b>9 , the post-stage module 15 carries out an abnormality handling process.
  • step S10 the processing device 10 determines whether or not to end the processing. For example, the processing device 10 determines to end the processing when receiving an end signal from the user. If the process is not to end, the process returns to step S1 and the above process is repeated until the end signal is received.
  • the moving body 1 has an image sliding section 11 , a parallax histogram counting section 13 and a calibration deviation detecting section 14 .
  • the image slide unit 11 generates a slide image SLI by sliding the first viewpoint image VPI1 in the parallax direction.
  • the parallax histogram totaling unit 13 generates a histogram HG of the parallax PR from the slide image SLI and the second viewpoint image VPI2.
  • the calibration deviation detection unit 14 determines that calibration deviation has occurred when the lower limit boundary value Bmin of the parallax PR in the histogram HG is smaller than the slide amount SLA of the first viewpoint image VPI1.
  • the processing of the moving body 1 described above is executed by a computer.
  • the program of the present embodiment causes a computer to implement the above-described processing of the moving body.
  • the values of the parallax PR in the histogram HG are raised overall by the slide amount SLA. If there is no calibration deviation, the parallax PR will always be equal to or greater than the slide amount SLA. Therefore, by comparing the lower limit boundary value Bmin of the parallax PR and the slide amount SLA, it is easily detected whether or not calibration deviation has occurred.
  • FIG. 14 is a diagram showing the configuration of the moving body 2 of the second embodiment.
  • a histogram HG is selectively generated for an image region in which calibration deviation is expected to be easily detected.
  • the processing device 30 has a subject area extracting section 31 .
  • the subject area extracting unit 31 extracts the subject area SUA for which the parallax PR can be predicted from the second viewpoint image VPI2.
  • the parallax histogram counting unit 13 selectively generates a histogram HG for the subject area SUA.
  • FIG. 15 is a diagram showing an example of the subject area SUA.
  • the subject area SUA is, for example, an image area that captures the subject SU whose distance from the stereo camera 20 is sufficiently large and whose parallax PR can be regarded as zero.
  • the subject area extraction unit 31 extracts the sky area as the subject area SUA from the second viewpoint image VPI2.
  • the subject area SUA is extracted using, for example, a semantic segmentation technique, which is one of object recognition techniques.
  • the distance to the sky can be considered infinite. Therefore, the parallax PR of the sky region can be considered zero. If no calibration deviation occurs, the lower boundary value Bmin of the parallax PR in the histogram HG matches the slide amount SLA. If the lower limit boundary value Bmin of the parallax PR is smaller than the slide amount SLA, it can be determined that calibration deviation has occurred.
  • a histogram HG is selectively generated for a specific subject area SUA extracted from the stereo image STI. Therefore, the computation load is reduced when generating the histogram HG. Since histograms of areas other than the subject area SUA are not included as noise components, erroneous determinations are less likely to occur.
  • FIG. 16 is a diagram showing the configuration of the moving body 3 of the third embodiment.
  • the subject area extraction unit 41 detects the direction in which the field of view is open, and extracts the area in which the distant scenery seen in that direction is captured as the subject area SUA.
  • the subject area extraction unit 41 detects the visible direction of the horizon HZ (see FIG. 17), for example, based on the altitude of the mobile object 3 and geographic information.
  • the subject area extracting unit 41 selects one or more stereo cameras 20 having a field of view FV in the direction in which the horizon HZ is visible from the plurality of stereo cameras 20 mounted on the moving object 3 .
  • the subject area extraction unit 41 extracts an area including the horizon HZ from the images of the selected one or more stereo cameras 20 as the subject area SUA based on the altitude of the moving body 3 and geographic information.
  • the distance to the horizon HZ can be regarded as almost infinite. Therefore, the parallax PR of the image area in which the horizon HZ is captured can be regarded as zero.
  • the lower boundary value Bmin of the parallax PR in the histogram HG matches the slide amount SLA. If the lower limit boundary value Bmin of the parallax PR is smaller than the slide amount SLA, it can be determined that calibration deviation has occurred.
  • the processing device 40 has an altitude information sensing unit 51 and a terrain information database 52 .
  • the altitude information sensing unit 51 detects altitude information of the moving object 3 .
  • a barometric altimeter or a radio altimeter is used as the altitude information sensing unit 51.
  • the terrain information database 52 stores terrain information in which geographical positions are associated with the three-dimensional shapes of the ground surface or buildings.
  • the terrain information is generated using, for example, base map information of the Geospatial Information Authority of Japan.
  • the subject area extraction unit 41 extracts the subject area SUA based on the altitude information acquired from the altitude information sensing unit 51 and the terrain information acquired from the terrain information database 52 .
  • FIG. 17 is a diagram showing an example of the subject area SUA.
  • the moving object 3 selects the stereo camera 20 having the field of view FV in the direction of the horizon HZ based on the altitude information and the terrain information.
  • the subject area extracting unit 41 extracts an image area including the horizon HZ from the selected video (second viewpoint image VPI2) of the stereo camera 20 using a semantic segmentation method as a subject area SUA.
  • FIG. 18 is a diagram showing another example of the method of selecting the stereo camera 20.
  • FIG. 18 is a diagram showing another example of the method of selecting the stereo camera 20.
  • the stereo camera 20 is selected based on the movement history MH of the moving body 3.
  • the subject region extraction unit 41 detects the movement history MH using a known method such as SLAM (Simultaneous Localization and Mapping).
  • the subject area extracting unit 41 determines the direction in which the moving body 3 has moved based on the movement history MH.
  • the subject area extraction unit 41 selects the stereo camera 20 having a field of view FV in the direction in which the moving body 3 has moved.
  • the subject area extraction unit 41 extracts, from the images of the selected stereo camera 20, an area in which the image in the direction in which the moving object 3 has moved is captured as the subject area SUA.
  • the image of the stereo camera 20 includes a distant scene.
  • the distance to a distant view can be considered almost infinite. Therefore, the parallax PR of the area in which the distant scenery is captured can be regarded as zero.
  • the lower boundary value Bmin of the parallax PR in the histogram HG matches the slide amount SLA. If the lower limit boundary value Bmin of the parallax PR is smaller than the slide amount SLA, it can be determined that calibration deviation has occurred.
  • FIG. 19 is a diagram showing another example of the method of selecting the stereo camera 20.
  • FIG. 19 is a diagram showing another example of the method of selecting the stereo camera 20.
  • the subject area extracting unit 41 determines the direction in which there are few objects OT that block the view based on the environment map OGM and the position information of the mobile object 3 .
  • the subject area extraction unit 41 selects the stereo camera 20 having the field of view FV in the direction in which there are few objects OT blocking the field of view.
  • the subject area extracting unit 41 extracts, from the image of the selected stereo camera 20, an area in which an image in a direction in which there are few objects OT blocking the field of view is captured as a subject area SUA.
  • the environmental map OGM is a map that describes the information of the surrounding environment.
  • an occupation grid map for example, is used as the environmental map OGM.
  • An occupancy grid map is a kind of metric map that preserves distances and directions between points.
  • the occupancy grid map the environment is divided into multiple grids and the existence probability of the object OT is saved for each grid.
  • the subject area extraction unit 41 generates an environment map OGM using a known technique such as SLAM.
  • the mobile object 3 is equipped with four stereo cameras 20.
  • the front stereo camera 20A and the left stereo camera 20B are likely to have their fields of view blocked by the object OT.
  • the rear side is the direction in which the moving body 3 has moved, and is an open space with few objects OT that block the view.
  • the right direction is also an open space with few objects OT that block the view. Therefore, the rear stereo camera 20C and the right stereo camera 20D are less likely to have their fields of view blocked by the object OT.
  • the image of the stereo camera 20 which has the field of view FV in the direction in which there are few objects OT blocking the field of view, shows a distant scenery.
  • the distance to a distant view can be considered almost infinite. Therefore, the parallax PR of the area in which the distant scenery is captured can be regarded as zero.
  • the lower boundary value Bmin of the parallax PR in the histogram HG matches the slide amount SLA. If the lower limit boundary value Bmin of the parallax PR is smaller than the slide amount SLA, it can be determined that calibration deviation has occurred.
  • FIG. 20 is a diagram showing an example of information processing based on the movement history MH described in FIGS. 14 and 18.
  • Steps S21 to S24 and S29 to S32 are the same as steps S1 to S4 and S7 to S10 shown in FIG. Therefore, the difference from FIG. 13 will be mainly described.
  • step S24 If it is determined in step S24 that the depth has been estimated (step S24: Yes), the process proceeds to step S25.
  • step S25 the subject area extracting unit 31 refers to the movement history MH of the moving body 3 generated by SLAM.
  • step S26 the subject area extraction unit 31 determines whether or not the currently used or available stereo camera 20 has a field of view in the direction in which it has moved so far.
  • step S26 if the stereo camera 20 having the field of view FV exists in the direction in which the moving body 3 has moved (step S26: Yes), the process proceeds to step S27.
  • step S27 the subject area extraction unit 31 extracts an area in which the image of the stereo camera 20 having the field of view FV in the direction in which the moving body 3 has moved is captured as the subject area SUA.
  • the depth estimation unit 12 generates a parallax map PM of the subject area SUA.
  • the parallax histogram collection unit 13 generates a histogram HG of parallax PR based on the parallax map PM of the subject area SUA.
  • the parallax histogram tallying unit 13 determines whether or not the histogram HG has been tallied. For example, the parallax histogram aggregation unit 13 acquires information about the search result of the corresponding points CP in the subject area SUA from the depth estimation unit 12 . As described above, the depth estimation unit 12 searches for the mutual corresponding points CP between the slide image SLI and the second viewpoint image VPI2 by stereo matching. The depth estimation unit 12 determines that the parallax PR has been detected when the corresponding point CP exists within the search area SA, and cannot detect the parallax PR when the corresponding point CP does not exist within the search area SA. I judge.
  • the parallax histogram aggregation unit 13 acquires information from the depth estimation unit 12 indicating that the search for the corresponding points CP has succeeded, it determines that the histogram HG has been aggregated.
  • the parallax histogram aggregation unit 13 acquires information indicating that the search for the corresponding point CP has failed from the depth estimation unit 12, it determines that the histogram HG cannot be aggregated.
  • step S28 If it is determined in step S28 that the histogram HG has been tallied (step S28: Yes), the process proceeds to step S29.
  • step S29 the calibration deviation detection unit 14 performs calibration deviation detection processing. Subsequent processes (S29 to S32) are the same as the processes (S7 to S10) in FIG.
  • FIG. 21 is a diagram showing an example of information processing based on the environment map OGM described in FIGS. 16 and 19.
  • Steps S41 to S46 and S49 to S54 are the same as steps S21 to S32 shown in FIG. Therefore, the difference from FIG. 20 will be mainly described.
  • step S46 if there is a stereo camera 20 (rear camera) having a field of view FV in the direction in which the moving object 4 has moved (step S46: Yes), proceed to step S49.
  • the subject area extraction unit 41 extracts the area where the image of the rear camera is captured as the subject area SUA.
  • step S46 if there is a stereo camera 20 (non-backward camera) having a field of view FV in a direction other than the direction in which the moving body 4 has moved (step S46: No), proceed to step S47.
  • the subject area extraction unit 41 generates, for example, an occupation grid map as the environment map OGM.
  • step S ⁇ b>48 the subject region extracting unit 41 determines whether or not the field of view of the non-rear camera is blocked by the object OT based on the environment map OGM and the position information of the moving body 3 . Obstruction of the field of vision means a state in which a far distance cannot be seen by the object OT.
  • step S48 the subject area extraction unit 41 extracts the area where the image of the non-rear camera is captured as the subject area SUA.
  • the subject area extraction unit 41 extracts the area where the image of the non-rear camera is captured as the subject area SUA.
  • the image of the rear camera and the image of the non-rear camera having a field of view FV in the direction in which there are few objects OT that block the field of view are photographed. It is extracted as area SUA.
  • the depth estimation unit 12 generates a parallax map PM of the subject area SUA.
  • the parallax histogram collection unit 13 generates a histogram HG of parallax PR based on the parallax map PM of the subject area SUA.
  • the parallax histogram tallying unit 13 determines whether or not the histogram HG has been tallied. For example, the parallax histogram aggregation unit 13 acquires information about the search result of the corresponding points CP in the subject area SUA from the depth estimation unit 12 . As described above, the depth estimation unit 12 searches for the mutual corresponding points CP between the slide image SLI and the second viewpoint image VPI2 by stereo matching. The depth estimation unit 12 determines that the parallax PR has been detected when the corresponding point CP exists within the search area SA, and cannot detect the parallax PR when the corresponding point CP does not exist within the search area SA. I judge.
  • the parallax histogram aggregation unit 13 acquires information from the depth estimation unit 12 indicating that the search for the corresponding points CP has succeeded, it determines that the histogram HG has been aggregated.
  • the parallax histogram aggregation unit 13 acquires information indicating that the search for the corresponding point CP has failed from the depth estimation unit 12, it determines that the histogram HG cannot be aggregated.
  • step S50 If it is determined in step S50 that the histogram HG has been tallied (step S50: Yes), the process proceeds to step S551.
  • step S51 the calibration deviation detection unit 14 performs calibration deviation detection processing. Subsequent processes (S52-S54) are the same as the processes (S30-S32) of FIG.
  • a histogram HG is selectively generated for a specific subject area SUA extracted from the stereo image STI. Therefore, the computation load is reduced when generating the histogram HG. Since histograms of areas other than the subject area SUA are not included as noise components, erroneous determinations are less likely to occur.
  • the post-stage module 15 carries out an abnormality handling process based on the detection information CDI indicating that calibration deviation has occurred.
  • the post-stage module 15 includes various configurations, such as a notification unit 151, an operation control unit 152, and a calibration unit 153, depending on the type of abnormality handling process. These configurations will be described below.
  • FIG. 22 is a diagram showing an example in which the movement speed is limited as the abnormality handling process.
  • the horizontal axis of FIG. 22 indicates the actual distance between the moving object and the obstacle.
  • the vertical axis in FIG. 2 indicates the estimated distance between the moving object and the obstacle estimated by the depth estimation unit 12 . If the distance between the moving object and the obstacle is large, the distance cannot be measured accurately, so the depth cannot be estimated. Depth can be estimated when the moving body approaches the obstacle to a certain distance (32 m in the example of FIG. 22).
  • the distance to the obstacle will be deviated.
  • the actual distance is 32m, but the estimated distance is 58m.
  • the moving speed of the moving object is suppressed to a speed that allows the object to avoid obstacles with a margin even if an unforeseen situation occurs. If the distance to the obstacle is estimated to be shorter than the actual distance due to the calibration error, the movement speed will not decrease even if the robot approaches the obstacle, and it may not be possible to successfully avoid the obstacle. Therefore, when the detection information CDI is acquired, the operation control unit 152 makes the moving speed lower than the set speed that was set before the detection information CDI was acquired.
  • the moving speed set based on the estimated distance to the obstacle estimated without considering the calibration deviation is set as the first set speed.
  • the operation control unit 152 switches the movement speed immediately after acquiring the detection information CDI to a second set speed that is lower than the first set speed.
  • the detection information CDI is output when the obstacle approaches to a distance of 20 m.
  • the motion control unit 152 reduces the moving speed in response to acquisition of the detection information CDI. This will brake before you get too close to the obstacle. Since the movement speed to obstacles decreases, it becomes easier to avoid obstacles when approaching them.
  • FIG. 23 is a diagram showing an example of notifying the user as the abnormality handling process.
  • the notification unit 151 When the detection information CDI is acquired, the notification unit 151 notifies the user that calibration deviation has occurred.
  • a warning message NM is displayed in the message field MF of the proportional control system PCS.
  • a camera indicator CI corresponding to each stereo camera 20 is displayed in the proportional control system PCS.
  • the notification unit 151 lights the camera indicator CI corresponding to the stereo camera 20 in which calibration deviation has occurred. This notifies which stereo camera 20 has the calibration deviation. By providing such notification, it is possible to urge the user to take appropriate measures when calibration deviation occurs.
  • 24 and 25 are diagrams showing other examples of notification.
  • the moving body MB is equipped with a light LT for notifying the calibration deviation.
  • a light LT is installed for each stereo camera 20 .
  • the notification sound NS is output by the speaker built into the proportional control system PCS. The notification sound NS allows the user to recognize that calibration deviation has occurred.
  • the calibration unit 153 calibrates the stereo camera 20 in response to detection of calibration deviation. Calibration is automatically performed by the internal mechanism of the moving body (auto-calibration). According to this configuration, it is possible to move stably while automatically canceling the calibration deviation.
  • the depth estimation unit 12 compares the lower boundary value Bmin of the parallax PR of this far area with the slide amount SLA. If no calibration deviation occurs, the lower limit boundary value Bmin matches the slide amount SLA. If there is a difference between the lower boundary value Bmin and the slide amount SLA, it is considered that the difference is caused by calibration deviation. Therefore, the depth estimation unit 12 estimates the difference between the lower limit boundary value Bmin and the slide amount SLA as the shift amount caused by the calibration deviation.
  • the image sliding unit 11 When calibration deviation occurs, the image sliding unit 11 generates a corrected image by sliding the first viewpoint image VPI1 in the parallax direction by the above-described shift amount (the difference between the lower limit boundary value Bmin and the slide amount SLA). .
  • the depth estimation unit 12 estimates the depth based on the second viewpoint image VPI2 and the corrected image. According to this configuration, it is possible to move stably while resolving the calibration deviation by software.
  • FIG. 26 is a diagram showing a hardware configuration example of the processing devices 10, 30, and 40. As shown in FIG.
  • the processing devices 10, 30, and 40 are implemented by a computer 1000 configured as shown in FIG. 26, for example.
  • Computer 1000 has CPU 1100 , RAM 1200 , ROM (Read Only Memory) 1300 , HDD (Hard Disk Drive) 1400 , communication interface 1500 and input/output interface 1600 .
  • Each part of computer 1000 is connected by bus 1050 .
  • the CPU 1100 operates based on programs stored in the ROM 1300 or HDD 1400 and controls each section. For example, the CPU 1100 loads programs stored in the ROM 1300 or HDD 1400 into the RAM 1200 and executes processes corresponding to various programs.
  • the ROM 1300 stores a boot program such as BIOS (Basic Input Output System) executed by the CPU 1100 when the computer 1000 is started, and programs dependent on the hardware of the computer 1000.
  • BIOS Basic Input Output System
  • the HDD 1400 is a computer-readable non-temporary recording medium that non-temporarily records programs executed by the CPU 1100 and data used by the programs.
  • HDD 1400 is a recording medium that records an information processing program according to the present disclosure, which is an example of program data 1450 .
  • a communication interface 1500 is an interface for connecting the computer 1000 to an external network 1550 (for example, the Internet).
  • CPU 1100 receives data from another device via communication interface 1500, and transmits data generated by CPU 1100 to another device.
  • the input/output interface 1600 is an interface for connecting the input/output device 1650 and the computer 1000 .
  • CPU 1100 receives data from an input device such as a keyboard or mouse via input/output interface 1600 .
  • the CPU 1100 transmits data to an output device such as a display, a speaker, or a printer via the input/output interface 1600 .
  • the input/output interface 1600 may function as a media interface for reading a program or the like recorded on a predetermined recording medium.
  • Media include, for example, optical recording media such as DVD (Digital Versatile Disc) and PD (Phase change rewritable disk), magneto-optical recording media such as MO (Magneto-Optical disk), tape media, magnetic recording media, semiconductor memories, etc. is.
  • the CPU 1100 of the computer 1000 implements the functions of the processing devices 10, 30, and 40 by executing the information processing program loaded on the RAM 1200.
  • the HDD 1400 also stores an information processing program according to the present disclosure, topography information acquired from the topography information database 52, and the like.
  • CPU 1100 reads and executes program data 1450 from HDD 1400 , as another example, these programs may be obtained from another device via external network 1550 .
  • FIG. 27 is a diagram showing another example for avoiding the second effect due to the calibration deviation described above.
  • the search area SA is expanded in the parallax direction by the slide amount SLA using the slide image SLI.
  • the method of enlarging the search area SA is not limited to this.
  • the subject SU captured in the first viewpoint image VPI1 is projected as it is onto the second viewpoint image VPI2 without being slid.
  • the search for the corresponding point CP is performed from a position shifted to the left of the position of the subject SU captured in the first viewpoint image VPI1.
  • the search area SA expands leftward by the width ESA. If the subject SU captured in the second viewpoint image VPI2 is included in the enlarged area of the width ESA, the parallax PR becomes a negative value, but the corresponding point CP can be searched.
  • the present technology can also take the following configuration.
  • an image slide unit that generates a slide image by sliding the first viewpoint image in a parallax direction
  • a parallax histogram aggregation unit that generates a parallax histogram from the slide image and the second viewpoint image
  • a calibration deviation detection unit that determines that calibration deviation has occurred when the lower limit boundary value of the parallax in the histogram is smaller than the slide amount of the first viewpoint image
  • an operation control unit that sets a movement speed when the calibration deviation occurs to be smaller than a movement speed set based on an estimated distance to an obstacle estimated without considering the calibration deviation, The moving body according to (1) or (2) above.
  • (4) Having a calibration unit that performs calibration in response to detection of the calibration deviation, The moving body according to any one of (1) to (3) above.
  • (5) Based on the second viewpoint image and a corrected image obtained by sliding the first viewpoint image in the parallax direction by the difference between the lower limit boundary value and the slide amount when the calibration deviation occurs. Having a depth estimation unit that estimates depth, The moving body according to any one of (1) to (3) above.
  • a subject region extracting unit that extracts a subject region in which the parallax is predictable;
  • the parallax histogram aggregation unit selectively generates the histogram for the subject area,
  • the moving body according to any one of (1) to (5) above.
  • the subject region extracting unit extracts a sky region as the subject region using a semantic segmentation technique.
  • the subject area extracting unit extracts an area including a horizon as the subject area based on the altitude and geographic information of the moving object.
  • the subject area extracting unit determines the direction in which the moving body has moved based on the movement history of the moving body, and extracts an area in which an image in the direction in which the moving body has moved is captured as the subject area.
  • the subject area extracting unit determines a direction in which there are few objects blocking the view based on the environment map and the position information of the moving object, and extracts an area in which an image in the direction with few objects is captured as the subject area.
  • a computer-implemented information processing method comprising: (12) generating a slide image by sliding the first viewpoint image in the parallax direction; generating a disparity histogram from the slide image and the second viewpoint image; determining that a calibration deviation has occurred when the lower limit boundary value of the parallax in the histogram is smaller than the slide amount of the first viewpoint image;
  • a computer-implemented information processing method comprising: (12) generating a slide image by sliding the first viewpoint image in the parallax direction; generating a disparity histogram from the slide image and the second viewpoint image; determining that a calibration deviation has occurred when the lower limit boundary value of the parallax in the histogram is smaller than the slide amount of the first viewpoint image;
  • a program that makes a computer do something.

Abstract

移動体(1)は、画像スライド部(11)と視差ヒストグラム集計部(13)とキャリブレーションずれ検知部(14)とを有する。画像スライド部(11)は、第1視点画像(VPI1)を視差方向にスライドさせたスライド画像(SLI)を生成する。視差ヒストグラム集計部(13)は、スライド画像(SLI)と第2視点画像(VPI2)とから視差のヒストグラム(HG)を生成する。キャリブレーションずれ検知部(14)は、ヒストグラム(HG)における視差の下限境界値が第1視点画像(VPI1)のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定する。

Description

移動体、情報処理方法およびプログラム
 本発明は、移動体、情報処理方法およびプログラムに関する。
 車などの移動体にステレオカメラを取り付け、ステレオカメラで撮影した画像から物体を検出する技術が知られている。
特開2018-025906号公報
 ステレオカメラは、異なる視点で撮影を行うための複数の撮像部を有する。撮像部間の距離(基線長)はキャリブレーションによって調整される。しかし、移動時の振動によって撮像部間の相対位置にずれ(以下、キャリブレーションずれという)が生じることがある。キャリブレーションずれが生じた状態で移動を行うと、周囲の環境を正しく認識することができない。その結果、移動が不安定になることがある。
 そこで、本開示では、キャリブレーションずれを検知することが可能な移動体、情報処理方法およびプログラムを提案する。
 本開示によれば、第1視点画像を視差方向にスライドさせたスライド画像を生成する画像スライド部と、前記スライド画像と第2視点画像とから視差のヒストグラムを生成する視差ヒストグラム集計部と、前記ヒストグラムにおける前記視差の下限境界値が前記第1視点画像のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定するキャリブレーションずれ検知部と、を有する移動体が提供される。また、本開示によれば、前記移動体の情報処理がコンピュータにより実行される情報処理方法、ならびに、前記移動体の情報処理をコンピュータに実現させるプログラムが提供される。
ステレオカメラの概略図である。 デプスの推定方法を説明する図である。 デプスと視差との関係を示す図である。 キャリブレーションずれによる第1の影響を説明する図である。 キャリブレーションずれによる第1の影響を説明する図である。 キャリブレーションずれによる第1の影響を説明する図である。 キャリブレーションずれによる第2の影響を説明する図である。 キャリブレーションずれによる第2の影響を説明する図である。 キャリブレーションずれの検知手法を説明する図である。 キャリブレーションずれの検知手法を説明する図である。 キャリブレーションずれの検知手法を説明する図である。 第1実施形態の移動体の構成を示す図である。 処理装置が実施する情報処理の一例を示すフローチャートである。 第2実施形態の移動体の構成を示す図である。 被写体領域の一例を示す図である。 第3実施形態の移動体の構成を示す図である。 被写体領域の一例を示す図である。 ステレオカメラの選択方法の他の例を示す図である。 ステレオカメラの選択方法の他の例を示す図である。 移動履歴に基づく情報処理の一例を示す図である。 環境地図に基づく情報処理の一例を示す図である。 異常時対応処理として、移動速度の制限が行われる例を示す図である。 異常時対応処理として、ユーザへの通知が行われる例を示す図である。 通知の他の例を示す図である。 通知の他の例を示す図である。 処理装置のハードウェア構成例を示す図である。 キャリブレーションずれによる第2の影響を回避するための他の例を示す図である。
 以下に、本開示の実施形態について図面に基づいて詳細に説明する。以下の各実施形態において、同一の部位には同一の符号を付することにより重複する説明を省略する。
 なお、説明は以下の順序で行われる。
[1.概要]
 [1-1.ステレオカメラを用いた距離推定]
 [1-2.ステレオカメラのキャリブレーションずれによる影響1]
 [1-3.ステレオカメラのキャリブレーションずれによる影響2]
 [1-4.キャリブレーションずれの検知手法]
  [1-4-1.探索領域の拡大]
  [1-4-2.視差ヒストグラムを用いた検証処理]
[2.第1実施形態]
 [2-1.移動体の構成]
 [2-2.情報処理方法]
 [2-3.効果]
[3.第2実施形態]
 [3-1.移動体の構成]
 [3-2.効果]
[4.第3実施形態]
 [4-1.移動体の構成]
 [4-2.情報処理方法1]
 [4-3.情報処理方法2]
 [4-4.効果]
[5.異常時対応処理]
 [5-1.移動速度の制限]
 [5-2.ユーザへの通知]
 [5-3.オートキャリブレーション]
 [5-4.デプス補正]
[6.ハードウェア構成例]
[7.変形例]
[1.概要]
[1-1.ステレオカメラを用いた距離推定]
 図1は、ステレオカメラ20の概略図である。
 ステレオカメラ20は、第1撮像部21と第2撮像部22とを有する。ステレオカメラ20は、例えば、支持部材23を介してドローンなどの移動体の下部に取り付けられる。第1撮像部21と第2撮像部22とは所定の距離(基線長)だけ離れた位置(視点VP)に配置される。第1撮像部21と第2撮像部22とを結ぶ方向は、視差の生じる視差方向となる。物体までの距離(以下、「デプス」という)は、第1撮像部21および第2撮像部22から見える物体の視差に基づいて、三角測量等の手法を用いて推定される。
 図2は、デプスの推定方法を説明する図である。
 ステレオカメラ20は、第1撮像部21および第2撮像部22を用いて被写体SUを2つの視点VPから同時に撮影する。これにより、第1視点画像VPI1と第2視点画像VPI2とを含むステレオ画像STIが撮影される。第1視点画像VPI1は、第1撮像部21によって第1視点VP1から被写体SUを撮影した画像である。第2視点画像VPI2は、第2撮像部22によって第2視点VP2から被写体SUを撮影した画像である。
 ステレオカメラ20は、例えばステレオマッチングによって、第1視点画像VPI1と第2視点画像VPI2との対応付けを画素ごとに行う。ステレオカメラ20は、第1視点画像VPI1を第2視点画像VPI2に投影したときの対応点CPどうしの距離を視差PRとして算出する。ステレオカメラ20は、第2視点画像VPI2の各画素に視差PRの情報を対応付けた視差マップPM(図10参照)を生成する。ステレオカメラ20は、視差マップPMと基線長の情報とを用いて、三角測量法により、画素ごとにデプスDPを算出する。
 図3は、デプスDPと視差PRとの関係を示す図である。
 図3の上段は、被写体SUとステレオカメラ20との距離が小さい例を示す。被写体SUは、各撮像部の視野の中心よりも端部よりの位置で捉えられる。そのため、視差PRは大きい。図3の下段は、被写体SUとステレオカメラ20との距離が大きい例を示す。被写体SUは、各撮像部の視野の中心に近い位置で捉えられる。そのため、視差PRは小さい。このように、デプスDPと視差PRとは負の相関関係を有する。デプスDPが小さいほど視差PRは大きくなり、デプスDPが大きいほど視差PRは小さくなる。
[1-2.ステレオカメラのキャリブレーションずれによる影響1]
 図4ないし図6は、ステレオカメラ20のキャリブレーションずれによる第1の影響を説明する図である。
 図4の左側の例は、第1撮像部21および第2撮像部22が正常な位置に固定された状態を示している。第1撮像部21と第2撮像部22との間の基線長は、キャリブレーションによって設定された値から変化していない。
 図4の右側の例は、第1撮像部21と第2撮像部22との間にキャリブレーションずれが発生した状態を示している。第1撮像部21の位置は第2撮像部22に近づく方向にずれている。第1撮像部21が見る世界は第2撮像部22側にずれるため、第1視点画像VPI1内の被写体SUの位置は、正常時に比べて第2撮像部22側にずれる。
 図5に示すように、第1視点画像VPI1を第2視点画像VPI2に投影して対応点どうしの視差PRを計算すると、正常時よりも小さい値が算出される。さらに、基線長は、キャリブレーションによって設定された値よりも小さくなっている。そのため、被写体SUまでのデプスDP2は、正常時のステレオ画像STIから算出されるデプスDP1よりも大きくなる。
 キャリブレーションずれは、熱や衝撃などの様々な理由によって発生する。キャリブレーションずれが発生したことを検知できなければ、キャリブレーションずれによって被写体SUが遠くに見えてしまっているのか、本当に被写体SUが遠くに存在するのかが区別できない。図6に示すように、高速で移動する移動体MBが進行方向の障害物(被写体SU)の距離を遠くに誤って検出してしまった場合、障害物を認識していたとしても衝突してしまう可能性がある。例えば、障害物に接近したときに移動体MBは止まろうとするが、認識よりも近くに障害物があるため、止まり切れずにぶつかってしまう可能性がある。
[1-3.ステレオカメラのキャリブレーションずれによる影響2]
 図7および図8は、ステレオカメラ20のキャリブレーションずれによる第2の影響を説明する図である。
 図7に示すように、視差PRを演算するに際して、マッチング処理による対応点CPの探索が行われる。例えば、第1撮像部21が被写体SUを右側から撮影する右カメラであり、第2撮像部22が被写体SUを左側から撮影する左カメラであるとする。この場合、第1視点画像VPI1を第2視点画像VPI2に投影すると、第1視点画像VPI1に写る被写体SUは第2視点画像VPI2に写る被写体SUよりも必ず左側に配置される。マッチング処理における演算の負荷を軽減するために、対応点CPの探索は、第1視点画像VPI1に写る被写体SUの位置よりも右側の所定幅の探索領域SAにおいて選択的に実施される。
 探索領域SA以外の領域は、非探索領域NSAとなる。非探索領域NSAでは、対応点CPの探索は行われない。探索領域SAの幅(探索が行われる視差方向の画素数)は、デプスの推定精度と演算の負荷とを考慮して設定される。以下の説明では、探索領域SAの幅は、例えば、127画素に設定される。
 図4に示すように、第1撮像部21の位置が左側(第2撮像部22側)にずれると、第1視点画像VPI1に写る被写体SUの位置が右側にずれる。図8に示すように、第1視点画像VPI1に写る被写体SUの位置が第2視点画像VPI2に写る被写体SUの位置よりも右側に配置されると、第2視点画像VPI2の対応点CPが非探索領域NSAに配置され、対応点CPの探索に失敗する。
[1-4.キャリブレーションずれの検知手法]
 図9ないし図11は、キャリブレーションずれの検知手法を説明する図である。キャリブレーションずれの検知は、スライド画像SLIを用いた探索領域SAの拡大と、視差ヒストグラムを用いた検証処理と、により実現される。
[1-4-1.探索領域の拡大]
 図9は、探索領域SAの拡大手法を説明する図である。
 上述のように、キャリブレーションずれが発生すると、第1視点画像VPI1と第2視点画像VPI2の相対位置がずれ、対応点CPの探索に失敗する可能性がある。そのため、本開示では、第1視点画像VPI1に写る被写体SUの位置が、予め設定されたスライド量SLAだけ、視差PRが大きくなる方向(図9の例では左側)にスライドされる。そして、被写体SUの位置がスライドされたスライド画像SLIが第2視点画像VPI2に投影される。対応点CPの探索は、スライド画像SLIと第2視点画像VPI2との間で行われる。この構成によれば、探索領域SAはスライド量SLAだけ拡大される。そのため、キャリブレーションずれが発生しても、対応点CPの探索に失敗しにくくなる。
 スライド量SLAは、例えば、第2視点画像VPI2中の画素の数で表される。スライド量SLAは、例えば、2画素以上10画素以下である。以下の説明では、スライド量SLAは、例え6画素に設定される。
[1-4-2.視差ヒストグラムを用いた検証処理]
 図10および図11は、視差ヒストグラムを用いたキャリブレーションずれの検証処理を説明する図である。
 前述のように、第2視点画像VPI2には、第1視点画像VPIを視差方向にスライドさせたスライド画像SLIが投影される。図10に示すように、第2視点画像VPIとスライド画像SLIとの視差PRを画素ごとに算出して視差マップPMが生成される。視差マップPMは、第2視点画像VPI2の各画素に視差PRの値を関連付けて生成される。図10には、各画素の視差PRの大きさを色で表現した視差マップPMが示されている。
 視差マップPMに基づいて視差PRのヒストグラムHGが生成される。集計の対象となる視差マップPMの画像領域はユーザによって設定することができる。本実施形態では、例えば、視差マップPM内の全ての画素の視差PRのデータが集計される。
 図11に示すように、ヒストグラムHGの分布はスライド量SLAによって変化する。例えば、図11の上段は、スライド量SLAが0である例(スライド処理が実施されない参考例)を示しており、図11の下段は、スライド量SLAがXである例を示している。図11の下段の例では、ヒストグラムHGの分布はスライド量SLAだけ視差方向にスライドする。探索領域SAの変動に伴って、視差PRの下限値である下限境界値Bminと、視差PRの上限値である上限境界値Bmaxの値も変化する。
 なお、下限境界値Bminは、有意な頻度を有する最小の視差PRを意味する。上限境界値Bmaxは、有意な頻度を有する最大の視差PRを意味する。有意な頻度を有するか否かは、予め設定された基準に基づいて判定される。例えば、ノイズと考えられるほど頻度が小さい場合(例えば、頻度が5以下)には、有意な頻度を有しないと判定される。
 例えば、図11の上段の例では、キャリブレーションずれが発生していない場合(図11の上段左側)の下限境界値Bminは0であり、上限境界値Bmaxは127である。図4に示すように第1撮像部21の視野FVが左側にずれると、ヒストグラムHGの分布は、キャリブレーションずれが発生していない場合の分布をマイナス方向にずらしたような分布となる(図11の上段右側を参照)。視差PRがマイナスとなる方向には対応点CPの探索は行われないため(非探索領域NSA)、キャリブレーションずれが発生していない場合に現れていた視差PRがゼロ付近の低視差領域LPAの分布はヒストグラムHGに反映されない。
 図11の下段の例では、スライド画像SLIを用いてヒストグラムHGが生成される。そのため、ヒストグラムHGの分布は、キャリブレーションずれが発生していない場合に比べて全体的にスライド量SLAだけプラス方向にずれる(図11の下段左側を参照)。この結果、ヒストグラムHGの下限境界値BminはXとなる。視差PRが127よりも大きくなる方向には対応点CPの探索は行われないため(非探索領域NSA)、キャリブレーションずれが発生していない場合に現れていた視差PRが127付近の高視差領域HPAの分布はヒストグラムHGに反映されない。
 図11の下段の例において、図4に示すようなキャリブレーションずれが発生すると、ヒストグラムHGの分布は、キャリブレーションずれが発生していない場合の分布をマイナス方向にずらしたような分布となる(図11の下段右側を参照)。スライド処理によって下限境界値Bminがプラス方向にずれているため、低視差領域LPAの分布はヒストグラムHGに反映されやすい。
 図11の下段左側に示すように、キャリブレーションずれが発生していない場合には、下限境界値Bminはスライド量SLAと一致する。図11の下段右側に示すように、キャリブレーションずれが発生している場合には、キャリブレーションずれに起因して下限境界値Bminはマイナス側にずれる。そのため、下限境界値Bminはスライド量SLAと一致しない。そのため、下限境界値Bminとスライド量とを比較することにより、キャリブレーションずれが発生しているか否かを判定することができる。以下、上述したキャリブレーションずれの検知手法を採用した移動体の構成について説明する。
[2.第1実施形態]
[2-1.移動体の構成]
 図12は、第1実施形態の移動体1の構成を示す図である。
 移動体1は、処理装置10とステレオカメラ20とを有する。処理装置10は、ステレオカメラ20で撮影されたステレオ画像STIに基づいて各種情報を処理する情報処理装置である。ステレオ画像STIには、第1撮像部21によって第1視点VP1から撮影された第1視点画像VPI1と、第2撮像部22によって第2視点VP2から撮影された第2視点画像VPI2と、が含まれる。ステレオカメラ20の数は任意である。本実施形態では、例えば、異なる視野を有する複数のステレオカメラ20が移動体1に搭載される。
 処理装置10は、画像スライド部11と、デプス推定部12と、視差ヒストグラム集計部13と、キャリブレーションずれ検知部14と、後段モジュール15と、を有する。
 画像スライド部11は、第1視点画像VPI1を視差方向にスライドさせたスライド画像SLIを生成する。スライド方向は、スライド画像SLIを第2視点画像VPI2に投影して視差PRを算出する際に視差PRが大きくなる方向である。スライド量SLAは、ユーザによって予め設定される。本実施形態では、例えば、スライド量SLAは6画素に設定される。
 デプス推定部12は、スライド画像SLIと第2視点画像VPI2とを用いて視差マップPMを生成する。例えば、デプス推定部12は、スライド画像SLIを第2視点画像VPI2に投影し、対応点CPどうしの距離を視差PRとして算出する。デプス推定部12は、第2視点画像VPI2の全ての画素について視差PRを算出し、第2視点画像VPI2の各画素に視差PRの情報を対応付けた視差マップPMを生成する。
 視差マップPMは、キャリブレーションずれを検出するためのヒストグラムHGの生成処理に用いられる。キャリブレーションずれが発生していない場合には、デプス推定部12は、ステレオカメラ20から第1視点画像VPI1と第2視点画像VPI2の双方を取得し、第1視点画像VPI1および第2視点画像VPI2に基づいて、被写体SUのデプスを画素ごとに推定する。あるいは、デプス推定部12は、視差マップPMをスライド量SLAに基づいて補正し、補正された視差マップPMに基づいて被写体SUのデプスを画素ごとに推定してもよい。
 視差ヒストグラム集計部13は、スライド画像SLIと第2視点画像VPI2とから視差PRのヒストグラムHGを生成する。例えば、視差ヒストグラム集計部13は、視差マップPMに基づいて、視差PRごとの頻度(画素の数)を算出する。これにより、視差PRの頻度の分布を示すヒストグラムHGが生成される。
 キャリブレーションずれ検知部14は、ヒストグラムHGにおける視差PRの下限境界値Bminが第1視点画像VPI1のスライド量SLAよりも小さい場合にキャリブレーションずれが発生したと判定する。キャリブレーションずれ検知部14は、キャリブレーションずれが発生したことを示す検知情報CDIを後段モジュール15に出力する。
 後段モジュール15は、検知情報CDIに基づいて異常時対応処理を実施する。後段モジュール15は、通知部151、動作制御部152およびキャリブレーション部153など、異常時対応処理の種類に応じた種々の構成を含む。これらの機能については、図22以降で説明する。
[2-2.情報処理方法]
 図13は、処理装置10が実施する情報処理の一例を示すフローチャートである。
 ステップS1において、処理装置10は、ステレオカメラ20から、第1視点画像VPI1および第2視点画像VPI2を含むステレオ画像STIを取得する。第1視点画像VPI1は画像スライド部11に供給される。第2視点画像VPI2はデプス推定部12に供給される。
 ステップS2において、画像スライド部11は、第1視点画像VPI1を視差方向にスライドさせたスライド画像SLIを生成する。画像スライド部11は、生成されたスライド画像SLIをデプス推定部12に供給する。
 ステップS3において、デプス推定部12は、第2視点画像VPI2およびスライド画像SLIを用いてデプスの推定処理を行う。ステップS4において、デプス推定部12は、デプスの推定が可能か否かを判定する。例えば、デプス推定部12は、ステレオ画像STI(第2視点画像VPI2)に白飛びやオクルージョンなどの欠陥がある場合には、デプスの推定ができないと判定する。ステレオ画像STIに欠陥がなければ、デプス推定部12は、デプスの推定が可能であると判定する。
 ステップS4においてデプスが推定できたと判定された場合には(ステップS4:Yes)、ステップS5に進む。ステップS5において、視差ヒストグラム集計部13は、視差マップPMに基づいて視差PRのヒストグラムHGを生成する。ステップS6において、視差ヒストグラム集計部13は、ヒストグラムHGの集計ができたか否かを判定する。
 例えば、視差ヒストグラム集計部13は、デプス推定部12から、対応点CPの探索結果に関する情報を取得する。前述のように、デプス推定部12は、ステレオマッチングにより、スライド画像SLIと第2視点画像VPI2の相互の対応点CPを探索する。デプス推定部12は、探索領域SA内に対応点CPが存在する場合には、視差PRが検出できたと判定し、探索領域SA内に対応点CPが存在しない場合には、視差PRが検出できないと判定する。
 視差ヒストグラム集計部13は、デプス推定部12から、対応点CPの探索に成功した旨の情報を取得した場合には、ヒストグラムHGの集計ができたと判定する。視差ヒストグラム集計部13は、デプス推定部12から、対応点CPの探索に失敗した旨の情報を取得した場合には、ヒストグラムHGの集計ができないと判定する。
 ステップS6においてヒストグラムHGの集計ができたと判定された場合には(ステップS6:Yes)、ステップS7に進む。ステップS7において、キャリブレーションずれ検知部14は、キャリブレーションずれの検知処理を行う。
 ステップS8において、キャリブレーションずれ検知部14は、ヒストグラムHGの下限境界値Bminに基づいて、キャリブレーションずれが検知されたか否かを判定する。例えば、下限境界値Bminが第1視点画像VPI1のスライド量SLAよりも小さい場合には、キャリブレーションずれ検知部14は、キャリブレーションずれが検知されたと判定する。下限境界値Bminが第1視点画像VPI1のスライド量SLAと同じかそれよりも大きい場合には、キャリブレーションずれ検知部14は、キャリブレーションずれが検知されたか否かは不明であると判定する。
 ステップS8においてキャリブレーションずれが検知されたと判定された場合には(ステップS8:Yes)、ステップS9に進む。ステップS9において、後段モジュール15は、異常時対応処理を実施する。
 ステップS4においてデプスが推定できないと判定された場合(ステップS4:No)、ステップS6においてヒストグラムHGの集計ができないと判定された場合(ステップS6:No)、および、ステップS8においてキャリブレーションずれが検知されたか否かが不明であると判定された場合(ステップS8:No)には、ステップS10に進む。ステップS10において、処理装置10は、処理を終了するか否かを判定する。処理装置10は、例えば、ユーザから終了信号を受信し場合に処理を終了すると判定する。処理を終了しない場合には、ステップS1に戻り、終了信号を受信するまで上述の処理が繰り返される。
[2-3.効果]
 移動体1は、画像スライド部11と視差ヒストグラム集計部13とキャリブレーションずれ検知部14とを有する。画像スライド部11は、第1視点画像VPI1を視差方向にスライドさせたスライド画像SLIを生成する。視差ヒストグラム集計部13は、スライド画像SLIと第2視点画像VPI2とから視差PRのヒストグラムHGを生成する。キャリブレーションずれ検知部14は、ヒストグラムHGにおける視差PRの下限境界値Bminが第1視点画像VPI1のスライド量SLAよりも小さい場合にキャリブレーションずれが発生したと判定する。本実施形態の情報処理方法は、上述した移動体1の処理がコンピュータにより実行される。本実施形態のプログラムは、上述した移動体の処理をコンピュータに実現させる。
 この構成によれば、ヒストグラムHGにおける視差PRの値がスライド量SLAだけ全体的に底上げされる。キャリブレーションずれが発生していなければ、視差PRは必ずスライド量SLAと同じかそれよりも大きくなる。そのため、視差PRの下限境界値Bminとスライド量SLAとを比較することで、キャリブレーションずれが発生しているか否かが容易に検知される。
[3.第2実施形態]
[3-1.移動体の構成]
 図14は、第2実施形態の移動体2の構成を示す図である。
 本実施形態において第1実施形態と異なる点は、キャリブレーションずれを検知しやすいと予想される画像領域に対して選択的にヒストグラムHGが生成される点である。以下、第1実施形態との相違点を中心に説明を行う。
 処理装置30は、被写体領域抽出部31を有する。被写体領域抽出部31は、視差PRが予測可能な被写体領域SUAを第2視点画像VPI2から抽出する。視差ヒストグラム集計部13は、被写体領域SUAに対して選択的にヒストグラムHGを生成する。
 図15は、被写体領域SUAの一例を示す図である。
 被写体領域SUAは、例えば、ステレオカメラ20からの距離が十分に大きく、視差PRがゼロとみなせるような被写体SUが写る画像領域である。図15の例では、被写体領域抽出部31は、第2視点画像VPI2から、空の領域を被写体領域SUAとして抽出する。被写体領域SUAは、例えば、物体認識の手法の一つであるセマンティックセグメンテーションの手法を用いて抽出される。
 空までの距離は無限大とみなすことができる。そのため、空の領域の視差PRはゼロとみなすことができる。キャリブレーションずれが発生していなければ、ヒストグラムHGにおける視差PRの下限境界値Bminはスライド量SLAと一致する。視差PRの下限境界値Bminがスライド量SLAよりも小さい場合には、キャリブレーションずれが発生していると判定することができる。
[3-2.効果]
 本実施形態では、ステレオ画像STIから抽出された特定の被写体領域SUAに対して選択的にヒストグラムHGが生成される。そのため、ヒストグラムHGを生成する際の演算の負荷が軽減される。被写体領域SUA以外の領域のヒストグラムがノイズ成分として含まれないため、誤判定が生じにくい。
[4.第3実施形態]
[4-1.移動体の構成]
 図16は、第3実施形態の移動体3の構成を示す図である。
 本実施形態において第2実施形態と異なる点は、被写体領域抽出部41が、視界の開けた方向を検知し、その方向に見える遠くの景色が写る領域を被写体領域SUAとして抽出する点である。以下、第2実施形態との相違点を中心に説明を行う。
 被写体領域抽出部41は、例えば、移動体3の高度および地理情報に基づいて、地平線HZ(図17参照)の見える方向を検出する。被写体領域抽出部41は、移動体3に搭載された複数のステレオカメラ20から、地平線HZの見える方向に視野FVを有する1以上のステレオカメラ20を選択する。被写体領域抽出部41は、移動体3の高度および地理情報に基づいて、選択された1以上のステレオカメラ20の画像から、地平線HZを含む領域を被写体領域SUAとして抽出する。
 地平線HZまでの距離はほぼ無限大とみなすことができる。そのため、地平線HZが写る画像領域の視差PRはゼロとみなすことができる。キャリブレーションずれが発生していない場合には、ヒストグラムHGにおける視差PRの下限境界値Bminはスライド量SLAと一致する。視差PRの下限境界値Bminがスライド量SLAよりも小さい場合には、キャリブレーションずれが発生していると判定することができる。
 例えば、処理装置40は、高度情報センシング部51および地形情報データベース52を有する。高度情報センシング部51は、移動体3の高度の情報を検出する。高度情報センシング部51としては、例えば、気圧高度計または電波高度計が用いられる。地形情報データベース52は、地理的位置に地表または建物の3次元形状が関連づけられた地形情報を記憶する。地形情報は、例えば、国土地理院の基盤地図情報を用いて生成される。被写体領域抽出部41は、高度情報センシング部51から取得した高度情報、および、地形情報データベース52から取得した地形情報に基づいて被写体領域SUAを抽出する。
 図17は、被写体領域SUAの一例を示す図である。
 移動体3は、高度情報および地形情報に基づいて、地平線HZの方向に視野FVを有するステレオカメラ20を選択する。被写体領域抽出部41は、選択されたステレオカメラ20の映像(第2視点画像VPI2)から、セマンティックセグメンテーションの手法を用いて、地平線HZを含む画像領域を被写体領域SUAとして抽出する。
 図18は、ステレオカメラ20の選択方法の他の例を示す図である。
 図18の例では、移動体3の移動履歴MHに基づいてステレオカメラ20の選択が行われる。例えば、被写体領域抽出部41は、SLAM(Simultaneous Localization and Mapping)などの公知の手法を用いて移動履歴MHを検出する。被写体領域抽出部41は、移動履歴MHに基づいて、移動体3が移動してきた方向を判定する。被写体領域抽出部41は、移動体3が移動してきた方向に視野FVを有するステレオカメラ20を選択する。被写体領域抽出部41は、選択されたステレオカメラ20の画像から、移動体3が移動してきた方向の画像が写る領域を被写体領域SUAとして抽出する。
 移動体3が移動してきた方向には、視界を遮る物体が少ない開けた空間が広がっていると推測される。ステレオカメラ20の画像には遠くの景色が写っていると推測される。遠くの景色までの距離はほぼ無限大とみなすことができる。そのため、遠くの景色が写る領域の視差PRはゼロとみなすことができる。キャリブレーションずれが発生していない場合には、ヒストグラムHGにおける視差PRの下限境界値Bminはスライド量SLAと一致する。視差PRの下限境界値Bminがスライド量SLAよりも小さい場合には、キャリブレーションずれが発生していると判定することができる。
 図19は、ステレオカメラ20の選択方法の他の例を示す図である。
 図19の例では、被写体領域抽出部41は、環境地図OGMと移動体3の位置情報とに基づいて、視界を遮る物体OTが少ない方向を判定する。被写体領域抽出部41は、視界を遮る物体OTが少ない方向に視野FVを有するステレオカメラ20を選択する。被写体領域抽出部41は、選択されたステレオカメラ20の画像から、視界を遮る物体OTが少ない方向の画像が写る領域を被写体領域SUAとして抽出する。
 環境地図OGMは、周辺環境の情報を記述した地図である。本実施形態では、環境地図OGMとして、例えば、占有格子地図が用いられる。占有格子地図は、地点間の距離および方位を保存した計量地図の一種である。占有格子地図では、環境が複数のグリッドに分割され,グリッド毎に物体OTの存在確率が保存される。被写体領域抽出部41は、SLAMなどの公知の手法を用いて環境地図OGMを生成する。
 図19の例では、移動体3には4つのステレオカメラ20が搭載されている。移動方向を基準として、前方と左方向には界を遮る大きな物体OTが存在する。そのため、前方のステレオカメラ20Aと左側のステレオカメラ20Bは、物体OTによって視界が遮られる可能性が高い。一方、後方は移動体3が移動してきた方向であり、視界を遮る物体OTが少ない開けた空間となっている。環境地図OGMによれば、右方向も視界を遮る物体OTの少ない開けた空間となっている。よって、後方のステレオカメラ20Cと右側のステレオカメラ20Dは、物体OTによって視界が遮られる可能性は低い。
 視界を遮る物体OTが少ない方向に視野FVを有するステレオカメラ20の画像には、遠くの景色が写っていると推測される。遠くの景色までの距離はほぼ無限大とみなすことができる。そのため、遠くの景色が写る領域の視差PRはゼロとみなすことができる。キャリブレーションずれが発生していない場合には、ヒストグラムHGにおける視差PRの下限境界値Bminはスライド量SLAと一致する。視差PRの下限境界値Bminがスライド量SLAよりも小さい場合には、キャリブレーションずれが発生していると判定することができる。
[4-2.情報処理方法1]
 図20は、図14および図18で説明した移動履歴MHに基づく情報処理の一例を示す図である。ステップS21~S24,S29~S32は、図13に示したステップS1~S4,S7~S10と同様である。そのため、図13との相違点を中心に説明する。
 ステップS24においてデプスが推定できたと判定された場合には(ステップS24:Yes)、ステップS25に進む。ステップS25において、被写体領域抽出部31は、SLAMによって生成された移動体3の移動履歴MHを参照する。ステップS26において、被写体領域抽出部31は、利用中または利用可能なステレオカメラ20が今まで移動してきた方向に視野を有するか否かを判定する。
 ステップS26において、移動体3が移動してきた方向に視野FVを有するステレオカメラ20が存在する場合には(ステップS26:Yes)、ステップS27に進む。ステップS27において、被写体領域抽出部31は、移動体3が移動してきた方向に視野FVを有するステレオカメラ20の画像が写る領域を被写体領域SUAとして抽出する。デプス推定部12は、被写体領域SUAの視差マップPMを生成する。視差ヒストグラム集計部13は、被写体領域SUAの視差マップPMに基づいて視差PRのヒストグラムHGを生成する。
 ステップS28において、視差ヒストグラム集計部13は、ヒストグラムHGの集計ができたか否かを判定する。例えば、視差ヒストグラム集計部13は、デプス推定部12から、被写体領域SUAにおける対応点CPの探索結果に関する情報を取得する。前述のように、デプス推定部12は、ステレオマッチングにより、スライド画像SLIと第2視点画像VPI2の相互の対応点CPを探索する。デプス推定部12は、探索領域SA内に対応点CPが存在する場合には、視差PRが検出できたと判定し、探索領域SA内に対応点CPが存在しない場合には、視差PRが検出できないと判定する。
 視差ヒストグラム集計部13は、デプス推定部12から、対応点CPの探索に成功した旨の情報を取得した場合には、ヒストグラムHGの集計ができたと判定する。視差ヒストグラム集計部13は、デプス推定部12から、対応点CPの探索に失敗した旨の情報を取得した場合には、ヒストグラムHGの集計ができないと判定する。
 ステップS28においてヒストグラムHGの集計ができたと判定された場合には(ステップS28:Yes)、ステップS29に進む。ステップS29において、キャリブレーションずれ検知部14は、キャリブレーションずれの検知処理を行う。以降の処理(S29~S32)は、図13の処理(S7~S10)と同様である。
[4-3.情報処理方法2]
 図21は、図16および図19で説明した環境地図OGMに基づく情報処理の一例を示す図である。ステップS41~S46,S49~S54は、図20に示したステップS21~S32と同様である。そのため、図20との相違点を中心に説明する。
 ステップS46において、移動体4が移動してきた方向に視野FVを有するステレオカメラ20(後方カメラ)が存在する場合には(ステップS46:Yes)、ステップS49に進む。ステップS49において、被写体領域抽出部41は、後方カメラの画像が写る領域を被写体領域SUAとして抽出する。
 ステップS46において、移動体4が移動してきた方向以外の方向に視野FVを有するステレオカメラ20(非後方カメラ)が存在する場合には(ステップS46:No)、ステップS47に進む。ステップS47において、被写体領域抽出部41は、環境地図OGMとして例えば占有格子地図を生成する。ステップS48において、被写体領域抽出部41は、環境地図OGMと移動体3の位置情報とに基づいて、非後方カメラの視界が物体OTによって遮られないか判定する。視界が遮られるとは物体OTによって遠くが見通せない状態を意味する。
 ステップS48において非後方カメラの視界が物体OTによって遮られないと判定された場合には(ステップS48:Yes)、ステップS49に進む。ステップS49において、被写体領域抽出部41は、非後方カメラの画像が写る領域を被写体領域SUAとして抽出する。これにより、複数のステレオカメラ20によって撮影される全方向の画像のうち、後方カメラの画像と、視界を遮る物体OTが少ない方向に視野FVを有する非後方カメの画像と、が写る領域が被写体領域SUAとして抽出される。デプス推定部12は、被写体領域SUAの視差マップPMを生成する。視差ヒストグラム集計部13は、被写体領域SUAの視差マップPMに基づいて視差PRのヒストグラムHGを生成する。
 ステップS50において、視差ヒストグラム集計部13は、ヒストグラムHGの集計ができたか否かを判定する。例えば、視差ヒストグラム集計部13は、デプス推定部12から、被写体領域SUAにおける対応点CPの探索結果に関する情報を取得する。前述のように、デプス推定部12は、ステレオマッチングにより、スライド画像SLIと第2視点画像VPI2の相互の対応点CPを探索する。デプス推定部12は、探索領域SA内に対応点CPが存在する場合には、視差PRが検出できたと判定し、探索領域SA内に対応点CPが存在しない場合には、視差PRが検出できないと判定する。
 視差ヒストグラム集計部13は、デプス推定部12から、対応点CPの探索に成功した旨の情報を取得した場合には、ヒストグラムHGの集計ができたと判定する。視差ヒストグラム集計部13は、デプス推定部12から、対応点CPの探索に失敗した旨の情報を取得した場合には、ヒストグラムHGの集計ができないと判定する。
 ステップS50においてヒストグラムHGの集計ができたと判定された場合には(ステップS50:Yes)、ステップS551に進む。ステップS51において、キャリブレーションずれ検知部14は、キャリブレーションずれの検知処理を行う。以降の処理(S52~S54)は、図20の処理(S30~S32)と同様である。
[4-4.効果]
 本実施形態でも、ステレオ画像STIから抽出された特定の被写体領域SUAに対して選択的にヒストグラムHGが生成される。そのため、ヒストグラムHGを生成する際の演算の負荷が軽減される。被写体領域SUA以外の領域のヒストグラムがノイズ成分として含まれないため、誤判定が生じにくい。
[5.異常時対応処理]
 前述のように、後段モジュール15は、キャリブレーションずれが発生したことを示す検知情報CDIに基づいて異常時対応処理を実施する。後段モジュール15は、通知部151、動作制御部152およびキャリブレーション部153など、異常時対応処理の種類に応じた種々の構成を含む。以下、これらの構成について説明する。
[5-1.移動速度の制限]
 図22は、異常時対応処理として、移動速度の制限が行われる例を示す図である。
 図22の横軸は、移動体と障害物との実際の距離を示す。図2の縦軸は、デプス推定部12によって推定された移動体と障害物との推定距離を示す。移動体と障害物との距離が大きいと精度のよい距離測定ができないため、デプスの推定が行われない。移動体が障害物に対してある距離(図22の例では32m)まで近づくとデプスの推定が可能となる。
 キャリブレーションずれが発生すると、障害物までの距離にずれが生じる。図22の例では、実際の距離は32mであるが、推定距離は58mとなっている。移動体の移動速度は、不測の事態が発生しても余裕をもって障害物を避けられる程度の速度に抑えられている。障害物までの距離がキャリブレーションずれによって実際の距離よりも短く推定されると、障害物に近づいても移動速度が小さくならず、障害物をうまく回避することができなくなる可能性がある。そのため、動作制御部152は、検知情報CDIが取得されると、移動速度を、検知情報CDIが取得される前に設定された設定速度よりも小さくする。
 例えば、検知情報CDIが取得される前に、キャリブレーションずれを考慮せずに推定された障害物までの推定距離に基づいて設定された移動速度を第1設定速度とする。動作制御部152は、検知情報CDIによってキャリブレーションずれが発生したことを検知すると、検知情報CDIを取得した直後の移動速度を第1設定速度よりも小さい第2設定速度に切り替える。図22の例では、障害物まで20mの距離まで近づいたときに検知情報CDIが出力される。動作制御部152は、検知情報CDIを取得したことに応答して移動速度を下げる。これにより、障害物に近づきすぎる前にブレーキがかかる。障害物への移動速度が小さくなるため、障害物に接近した際に障害物を回避しやすくなる。
[5-2.ユーザへの通知]
 図23は、異常時対応処理として、ユーザへの通知が行われる例を示す図である。
 通知部151は、検知情報CDIが取得されると、キャリブレーションずれが発生したことをユーザに通知する。図23の例では、プロポーショナルコントロールシステムPCSのメッセージフィールドMFに警告メッセージNMが表示される。プロポーショナルコントロールシステムPCSには、各ステレオカメラ20に対応したカメラインジケータCIが表示されている。通知部151は、キャリブレーションずれが発生したステレオカメラ20に対応するカメラインジケータCIを点灯する。これにより、どのステレオカメラ20にキャリブレーションずれが発生したかが通知される。このような通知が行われることにより、キャリブレーションずれが発生した際にユーザに適切な対応を促すことができる。
 図24および図25は、通知の他の例を示す図である。
 図24の例では、移動体MBに、キャリブレーションずれを通知するためのライトLTが搭載されている。ライトLTは、ステレオカメラ20ごとに設置されている。キャリブレーションずれが発生したステレオカメラ20に対応するライトLTを点灯させることで、どのステレオカメラ20にキャリブレーションずれが発生したかが通知される。図25の例では、プロポーショナルコントロールシステムPCSに内蔵されたスピーカによって通知音NSが出力される。ユーザは通知音NSによって、キャリブレーションずれが発生したことを認識することができる。
[5-3.オートキャリブレーション]
 キャリブレーション部153は、キャリブレーションずれが検知されたことに応答してステレオカメラ20のキャリブレーションを実施する。キャリブレーションは、移動体の内部機構によって自動で行われる(オートキャリブレーション)。この構成によれば、キャリブレーションずれを自動で解消しながら安定的に移動を行うことができる。
[5-4.デプス補正]
 図11に示したように、キャリブレーションずれが発生すると、視差PRの分布が全体的にシフトする。このシフト量がわかればデプスを補正することができる。例えば、ステレオ画像STIに視差PRがゼロとみなせるような遠方の領域が含まれている場合、デプス推定部12は、この遠方の領域の視差PRの下限境界値Bminをスライド量SLAと比較する。キャリブレーションずれが発生していない場合には、下限境界値Bminはスライド量SLAと一致する。下限境界値Bminとスライド量SLAとの間に差がある場合には、その差はキャリブレーションずれに起因するものと考えられる。よって、デプス推定部12は、下限境界値Bminとスライド量SLAとの差をキャリブレーションずれに起因したシフト量と推定する。
 キャリブレーションずれが発生した場合に、画像スライド部11は、第1視点画像VPI1を上述のシフト量(下限境界値Bminとスライド量SLAとの差)だけ視差方向にスライドさせた補正画像を生成する。デプス推定部12は、第2視点画像VPI2と補正画像とに基づいてデプスを推定する。この構成によれば、キャリブレーションずれをソフトウェア的に解消しながら安定的に移動を行うことができる。
[6.ハードウェア構成例]
 図26は、処理装置10,30,40のハードウェア構成例を示す図である。
 処理装置10,30,40は、例えば図26に示すような構成のコンピュータ1000によって実現される。コンピュータ1000は、CPU1100、RAM1200、ROM(Read Only Memory)1300、HDD(Hard Disk Drive)1400、通信インターフェイス1500および入出力インターフェイス1600を有する。コンピュータ1000の各部は、バス1050によって接続される。
 CPU1100は、ROM1300またはHDD1400に格納されたプログラムに基づいて動作し、各部の制御を行う。例えば、CPU1100は、ROM1300またはHDD1400に格納されたプログラムをRAM1200に展開し、各種プログラムに対応した処理を実行する。
 ROM1300は、コンピュータ1000の起動時にCPU1100によって実行されるBIOS(Basic Input Output System)等のブートプログラムや、コンピュータ1000のハードウェアに依存するプログラム等を格納する。
 HDD1400は、CPU1100によって実行されるプログラム、および当該プログラムによって使用されるデータ等を非一時的に記録する、コンピュータが読み取り可能な非一時的記録媒体である。具体的には、HDD1400は、プログラムデータ1450の一例である本開示に係る情報処理プログラムを記録する記録媒体である。
 通信インターフェイス1500は、コンピュータ1000が外部ネットワーク1550(例えばインターネット)と接続するためのインターフェイスである。例えば、CPU1100は、通信インターフェイス1500を介して、他の機器からデータを受信したり、CPU1100が生成したデータを他の機器へ送信したりする。
 入出力インターフェイス1600は、入出力デバイス1650とコンピュータ1000とを接続するためのインターフェイスである。例えば、CPU1100は、入出力インターフェイス1600を介してキーボードやマウス等の入力デバイスからデータを受信する。また、CPU1100は、入出力インターフェイス1600を介して、ディスプレイやスピーカやプリンタ等の出力デバイスにデータを送信する。また、入出力インターフェイス1600は、所定の記録媒体(メディア)に記録されたプログラム等を読み取るメディアインターフェイスとして機能してもよい。メディアとは、例えばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。
 例えば、コンピュータ1000が処理装置10,30,40として機能する場合、コンピュータ1000のCPU1100は、RAM1200上にロードされた情報処理プログラムを実行することにより、処理装置10,30,40の機能を実現する。また、HDD1400には、本開示に係る情報処理プログラムや、地形情報データベース52から取得した地形情報などが格納される。なお、CPU1100は、プログラムデータ1450をHDD1400から読み取って実行するが、他の例として、外部ネットワーク1550を介して、他の装置からこれらのプログラムを取得してもよい。
[7.変形例]
 図27は、前述したキャリブレーションずれによる第2の影響を回避するための他の例を示す図である。
 図8に示したように、キャリブレーションずれが発生すると、第2視点画像VPI2の対応点CPが非探索領域NSAに配置され、対応点CPの探索に失敗する可能性がある。図9の方法では、スライド画像SLIを用いて探索領域SAがスライド量SLAだけ視差方向に拡大された。しかし、探索領域SAを拡大する手法はこれに限定されない。
 例えば、図27の例では、第1視点画像VPI1に写る被写体SUはスライドされずにそのまま第2視点画像VPI2に投影される。しかし、対応点CPの探索は、第1視点画像VPI1に写る被写体SUの位置よりも左側にずれた位置から実施される。これにより、探索領域SAが、幅ESAだけ左方向に広がる。第2視点画像VPI2に写る被写体SUが幅ESAの拡大領域に含まれれば、視差PRは負の値になるが、対応点CPの探索は可能である。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものでは無く、また他の効果があってもよい。
[付記]
 なお、本技術は以下のような構成も取ることができる。
(1)
 第1視点画像を視差方向にスライドさせたスライド画像を生成する画像スライド部と、
 前記スライド画像と第2視点画像とから視差のヒストグラムを生成する視差ヒストグラム集計部と、
 前記ヒストグラムにおける前記視差の下限境界値が前記第1視点画像のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定するキャリブレーションずれ検知部と、
 を有する移動体。
(2)
 前記キャリブレーションずれが発生したことをユーザに通知する通知部を有する、
 上記(1)に記載の移動体。
(3)
 前記キャリブレーションずれが発生した場合の移動速度を、前記キャリブレーションずれを考慮せずに推定された障害物までの推定距離に基づいて設定された移動速度よりも小さくする動作制御部を有する、
 上記(1)または(2)に記載の移動体。
(4)
 前記キャリブレーションずれが検知されたことに応答してキャリブレーションを実施するキャリブレーション部を有する、
 上記(1)ないし(3)のいずれか1つに記載の移動体。
(5)
 前記キャリブレーションずれが発生した場合に、前記第2視点画像と、前記第1視点画像を、前記下限境界値と前記スライド量との差だけ前記視差方向にスライドさせた補正画像と、に基づいてデプスを推定するデプス推定部を有する、
 上記(1)ないし(3)のいずれか1つに記載の移動体。
(6)
 前記視差が予測可能な被写体領域を抽出する被写体領域抽出部を有し、
 前記視差ヒストグラム集計部は、前記被写体領域に対して選択的に前記ヒストグラムを生成する、
 上記(1)ないし(5)のいずれか1つに記載の移動体。
(7)
 前記被写体領域抽出部は、セマンティックセグメンテーションの手法を用いて空の領域を前記被写体領域として抽出する、
 上記(6)に記載の移動体。
(8)
 前記被写体領域抽出部は、前記移動体の高度および地理情報に基づいて、地平線を含む領域を前記被写体領域として抽出する、
 上記(6)に記載の移動体。
(9)
 前記被写体領域抽出部は、前記移動体の移動履歴に基づいて、前記移動体が移動してきた方向を判定し、前記移動体が移動してきた方向の画像が写る領域を前記被写体領域として抽出する、
 上記(6)に記載の移動体。
(10)
 前記被写体領域抽出部は、環境地図と前記移動体の位置情報とに基づいて、視界を遮る物体が少ない方向を判定し、前記物体が少ない方向の画像が写る領域を前記被写体領域として抽出する、
 上記(6)に記載の移動体。
(11)
 第1視点画像を視差方向にスライドさせたスライド画像を生成し、
 前記スライド画像と第2視点画像とから視差のヒストグラムを生成し、
 前記ヒストグラムにおける前記視差の下限境界値が前記第1視点画像のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定する、
 ことを有する、コンピュータにより実行される情報処理方法。
(12)
 第1視点画像を視差方向にスライドさせたスライド画像を生成し、
 前記スライド画像と第2視点画像とから視差のヒストグラムを生成し、
 前記ヒストグラムにおける前記視差の下限境界値が前記第1視点画像のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定する、
 ことをコンピュータに実現させるプログラム。
1,2,3 移動体
11 画像スライド部
12 デプス推定部
13 視差ヒストグラム集計部
14 キャリブレーションずれ検知部
20 ステレオカメラ
31,41 被写体領域抽出部
151 通知部
152 動作制御部
153 キャリブレーション部
Bmin 下限境界値
FV 視野
HG ヒストグラム
HZ 地平線
MH 移動履歴
OGM 環境地図
OT 視界を遮る物体
PR 視差
SLA スライド量
SLI スライド画像
SUA 被写体領域
VPI1 第1視点画像
VPI2 第2視点画像

Claims (12)

  1.  第1視点画像を視差方向にスライドさせたスライド画像を生成する画像スライド部と、
     前記スライド画像と第2視点画像とから視差のヒストグラムを生成する視差ヒストグラム集計部と、
     前記ヒストグラムにおける前記視差の下限境界値が前記第1視点画像のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定するキャリブレーションずれ検知部と、
     を有する移動体。
  2.  前記キャリブレーションずれが発生したことをユーザに通知する通知部を有する、
     請求項1に記載の移動体。
  3.  前記キャリブレーションずれが発生した場合の移動速度を、前記キャリブレーションずれを考慮せずに推定された障害物までの推定距離に基づいて設定された移動速度よりも小さくする動作制御部を有する、
     請求項1に記載の移動体。
  4.  前記キャリブレーションずれが検知されたことに応答してキャリブレーションを実施するキャリブレーション部を有する、
     請求項1に記載の移動体。
  5.  前記キャリブレーションずれが発生した場合に、前記第2視点画像と、前記第1視点画像を、前記下限境界値と前記スライド量との差だけ前記視差方向にスライドさせた補正画像と、に基づいてデプスを推定するデプス推定部を有する、
     請求項1に記載の移動体。
  6.  前記視差が予測可能な被写体領域を抽出する被写体領域抽出部を有し、
     前記視差ヒストグラム集計部は、前記被写体領域に対して選択的に前記ヒストグラムを生成する、
     請求項1に記載の移動体。
  7.  前記被写体領域抽出部は、セマンティックセグメンテーションの手法を用いて空の領域を前記被写体領域として抽出する、
     請求項6に記載の移動体。
  8.  前記被写体領域抽出部は、前記移動体の高度および地理情報に基づいて、地平線を含む領域を前記被写体領域として抽出する、
     請求項6に記載の移動体。
  9.  前記被写体領域抽出部は、前記移動体の移動履歴に基づいて、前記移動体が移動してきた方向を判定し、前記移動体が移動してきた方向の画像が写る領域を前記被写体領域として抽出する、
     請求項6に記載の移動体。
  10.  前記被写体領域抽出部は、環境地図と前記移動体の位置情報とに基づいて、視界を遮る物体が少ない方向を判定し、前記物体が少ない方向の画像が写る領域を前記被写体領域として抽出する、
     請求項6に記載の移動体。
  11.  第1視点画像を視差方向にスライドさせたスライド画像を生成し、
     前記スライド画像と第2視点画像とから視差のヒストグラムを生成し、
     前記ヒストグラムにおける前記視差の下限境界値が前記第1視点画像のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定する、
     ことを有する、コンピュータにより実行される情報処理方法。
  12.  第1視点画像を視差方向にスライドさせたスライド画像を生成し、
     前記スライド画像と第2視点画像とから視差のヒストグラムを生成し、
     前記ヒストグラムにおける前記視差の下限境界値が前記第1視点画像のスライド量よりも小さい場合にキャリブレーションずれが発生したと判定する、
     ことをコンピュータに実現させるプログラム。
PCT/JP2021/047184 2021-01-27 2021-12-21 移動体、情報処理方法およびプログラム WO2022163216A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021-011219 2021-01-27
JP2021011219 2021-01-27

Publications (1)

Publication Number Publication Date
WO2022163216A1 true WO2022163216A1 (ja) 2022-08-04

Family

ID=82654468

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047184 WO2022163216A1 (ja) 2021-01-27 2021-12-21 移動体、情報処理方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2022163216A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09133525A (ja) * 1995-11-10 1997-05-20 Nippon Soken Inc 距離計測装置
JP2010002280A (ja) * 2008-06-19 2010-01-07 Panasonic Corp 撮像装置、測距装置及び視差算出方法
JP2015191548A (ja) * 2014-03-28 2015-11-02 富士重工業株式会社 車外監視装置
JP2018508853A (ja) * 2015-01-16 2018-03-29 イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ ステレオカメラの自己調整

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09133525A (ja) * 1995-11-10 1997-05-20 Nippon Soken Inc 距離計測装置
JP2010002280A (ja) * 2008-06-19 2010-01-07 Panasonic Corp 撮像装置、測距装置及び視差算出方法
JP2015191548A (ja) * 2014-03-28 2015-11-02 富士重工業株式会社 車外監視装置
JP2018508853A (ja) * 2015-01-16 2018-03-29 イムラ ウーロプ ソシエテ・パ・アクシオンス・シンプリフィエ ステレオカメラの自己調整

Similar Documents

Publication Publication Date Title
US10996062B2 (en) Information processing device, data management device, data management system, method, and program
EP3517997B1 (en) Method and system for detecting obstacles by autonomous vehicles in real-time
EP3420530B1 (en) A device and method for determining a pose of a camera
KR101725060B1 (ko) 그래디언트 기반 특징점을 이용한 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US10699441B2 (en) Calibration apparatus, calibration method and storage medium
KR101072876B1 (ko) 이동 로봇에서 자신의 위치를 추정하기 위한 방법 및 장치
KR101776621B1 (ko) 에지 기반 재조정을 이용하여 이동 로봇의 위치를 인식하기 위한 장치 및 그 방법
US8995714B2 (en) Information creation device for estimating object position and information creation method and program for estimating object position
JP2019114126A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
US10659762B2 (en) Stereo camera
JPWO2012086821A1 (ja) 測位装置、測位方法
JP6499047B2 (ja) 計測装置、方法及びプログラム
JP2017102824A (ja) 追跡装置
US11948312B2 (en) Object detection/tracking device, method, and program recording medium
WO2022147655A1 (zh) 定位方法、空间信息获取方法、装置、拍摄设备
WO2022163216A1 (ja) 移動体、情報処理方法およびプログラム
JP3760426B2 (ja) 走行車線検出方法及びその装置
US11704815B2 (en) Tracking device, tracking method, and tracking system
JP2009104366A (ja) ステレオ画像処理方法
JP7334632B2 (ja) 物体追跡装置及び物体追跡方法
KR101646580B1 (ko) 하체 검출/추적 장치 및 방법
JP2020027328A (ja) 信号機推定装置、信号機推定方法およびプログラム
JP2006078261A (ja) 物体検出装置
KR102479976B1 (ko) 서로 다른 항공사진에서 변화를 감지하는 변화 감지 장치 및 방법
KR102544972B1 (ko) 선수 추적 방법, 선수 추적 장치 및 선수 추적 시스템

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21923219

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18261850

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 21923219

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP