WO2024090390A1 - 情報処理装置、車両、情報処理方法、及び情報処理プログラム - Google Patents

情報処理装置、車両、情報処理方法、及び情報処理プログラム Download PDF

Info

Publication number
WO2024090390A1
WO2024090390A1 PCT/JP2023/038227 JP2023038227W WO2024090390A1 WO 2024090390 A1 WO2024090390 A1 WO 2024090390A1 JP 2023038227 W JP2023038227 W JP 2023038227W WO 2024090390 A1 WO2024090390 A1 WO 2024090390A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
camera
processor
processing device
information processing
Prior art date
Application number
PCT/JP2023/038227
Other languages
English (en)
French (fr)
Inventor
正義 孫
Original Assignee
ソフトバンクグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2022175698A external-priority patent/JP2024064911A/ja
Priority claimed from JP2022209070A external-priority patent/JP2024066379A/ja
Priority claimed from JP2023036969A external-priority patent/JP2024062332A/ja
Priority claimed from JP2023059411A external-priority patent/JP2024062342A/ja
Application filed by ソフトバンクグループ株式会社 filed Critical ソフトバンクグループ株式会社
Publication of WO2024090390A1 publication Critical patent/WO2024090390A1/ja

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60GVEHICLE SUSPENSION ARRANGEMENTS
    • B60G3/00Resilient suspensions for a single wheel
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60LPROPULSION OF ELECTRICALLY-PROPELLED VEHICLES; SUPPLYING ELECTRIC POWER FOR AUXILIARY EQUIPMENT OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRODYNAMIC BRAKE SYSTEMS FOR VEHICLES IN GENERAL; MAGNETIC SUSPENSION OR LEVITATION FOR VEHICLES; MONITORING OPERATING VARIABLES OF ELECTRICALLY-PROPELLED VEHICLES; ELECTRIC SAFETY DEVICES FOR ELECTRICALLY-PROPELLED VEHICLES
    • B60L15/00Methods, circuits, or devices for controlling the traction-motor speed of electrically-propelled vehicles
    • B60L15/20Methods, circuits, or devices for controlling the traction-motor speed of electrically-propelled vehicles for control of the vehicle or its driving motor to achieve a desired performance, e.g. speed, torque, programmed variation of speed
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • B60W10/08Conjoint control of vehicle sub-units of different type or different function including control of propulsion units including control of electric propulsion units, e.g. motors or generators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/22Conjoint control of vehicle sub-units of different type or different function including control of suspension systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/02Control of vehicle driving stability
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/04Traffic conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • B60W40/06Road conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D7/00Steering linkage; Stub axles or their mountings
    • B62D7/06Steering linkage; Stub axles or their mountings for individually-pivoted wheels, e.g. on king-pins
    • B62D7/14Steering linkage; Stub axles or their mountings for individually-pivoted wheels, e.g. on king-pins the pivotal axes being situated in more than one plane transverse to the longitudinal centre line of the vehicle, e.g. all-wheel steering
    • B62D7/15Steering linkage; Stub axles or their mountings for individually-pivoted wheels, e.g. on king-pins the pivotal axes being situated in more than one plane transverse to the longitudinal centre line of the vehicle, e.g. all-wheel steering characterised by means varying the ratio between the steering angles of the steered wheels
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01PMEASURING LINEAR OR ANGULAR SPEED, ACCELERATION, DECELERATION, OR SHOCK; INDICATING PRESENCE, ABSENCE, OR DIRECTION, OF MOVEMENT
    • G01P13/00Indicating or recording presence, absence, or direction, of movement
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/40Control within particular dimensions
    • G05D1/43Control of position or course in two dimensions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/174Segmentation; Edge detection involving the use of two or more images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/09Arrangements for giving variable traffic instructions
    • G08G1/0962Arrangements for giving variable traffic instructions having an indicator mounted inside the vehicle, e.g. giving voice messages
    • G08G1/0968Systems involving transmission of navigation instructions to the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L23/00Details of semiconductor or other solid state devices
    • H01L23/34Arrangements for cooling, heating, ventilating or temperature compensation ; Temperature sensing arrangements
    • H01L23/46Arrangements for cooling, heating, ventilating or temperature compensation ; Temperature sensing arrangements involving the transfer of heat by flowing fluids
    • H01L23/473Arrangements for cooling, heating, ventilating or temperature compensation ; Temperature sensing arrangements involving the transfer of heat by flowing fluids by flowing liquids
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H05ELECTRIC TECHNIQUES NOT OTHERWISE PROVIDED FOR
    • H05KPRINTED CIRCUITS; CASINGS OR CONSTRUCTIONAL DETAILS OF ELECTRIC APPARATUS; MANUFACTURE OF ASSEMBLAGES OF ELECTRICAL COMPONENTS
    • H05K7/00Constructional details common to different types of electric apparatus
    • H05K7/20Modifications to facilitate cooling, ventilating, or heating

Definitions

  • This disclosure relates to an information processing device, a vehicle, an information processing method, and an information processing program.
  • JP Patent Publication No. 2022-035198 describes a vehicle with an autonomous driving function.
  • the present disclosure therefore aims to provide an information processing device, vehicle, information processing method, and information processing program that can reduce the amount of data output to a specified output destination when outputting image information of an object captured by a camera to the output destination.
  • the information processing device of the first aspect includes a first processor that outputs point information that captures an object as a point from an image of the object captured by a first camera, and a second processor that outputs identification information that identifies the object captured from an image of the object captured by a second camera facing in a direction corresponding to the first camera.
  • the information processing device of the second aspect is the information processing device of the first aspect, and further includes a third processor that associates the point information output from the first processor with the identification information output from the second processor.
  • the third aspect of the information processing device is the information processing device of the first or second aspect, in which the frame rate of the first camera is variable, and the first processor changes the frame rate of the first camera in response to a predetermined factor.
  • the first processor calculates a score related to the external environment for a specified object.
  • the first processor changes the frame rate of the first camera according to the calculated score related to the external environment.
  • the information processing device of the sixth aspect is any one of the information processing devices of the first to fifth aspects, in which the first processor outputs coordinate values of at least two coordinate axes in a three-dimensional Cartesian coordinate system of a point indicating the location of the photographed object from an image of the object photographed by the first camera, and includes a third processor that associates the point information output from the first processor with the identification information output from the second processor.
  • the seventh aspect of the information processing device is the sixth aspect of the information processing device, in which the first processor outputs the coordinate values of at least two diagonal vertices of a polygon that encloses the contour of the object recognized from the image captured by the first camera.
  • An eighth aspect of the information processing device is the seventh aspect of the information processing device, in which the first processor outputs the coordinate values of multiple vertices of a polygon that surrounds the contour of the object recognized from the image captured by the first camera.
  • the information processing device of the ninth aspect is any one of the information processing devices of the first to eighth aspects, and further includes a third processor that associates the point information output from the first processor with the identification information output from the second processor, and controls automatic driving of a moving body based on the point information and the identification information.
  • the information processing device of the tenth aspect is the information processing device of the ninth aspect, in which the third processor calculates a control variable for controlling the autonomous driving of the moving body based on the detection information detected by the detection unit, and controls the autonomous driving of the moving body based on the calculated control variable, the point information, and the identification information.
  • An information processing device of an eleventh aspect is any one of the information processing devices of the first to tenth aspects, in which the first processor outputs the point information based on at least one of a visible light image and an infrared image of the object captured by the first camera, and includes a third processor that associates the point information output from the first processor with the identification information output from the second processor.
  • the 12th aspect of the information processing device is the 11th aspect of the information processing device, in which, when a predetermined factor causes the first processor to be unable to capture the object from a visible light image of the object captured by a visible light camera included in the first camera, the first processor outputs the point information based on an infrared image of the object captured by an infrared camera included in the first camera.
  • the information processing device of the 13th aspect is the information processing device of the 12th aspect, in which the first processor synchronizes the timing of capturing the visible light image by the visible light camera and the timing of capturing the infrared image by the infrared camera.
  • the information processing device of the 14th aspect is any one of the information processing devices of the 1st to 13th aspects, in which the first processor outputs the point information from an image of the object captured by the first camera and a radar signal based on electromagnetic waves irradiated to the object by a radar and reflected from the object, and includes a third processor that associates the point information output from the first processor with the identification information output from the second processor.
  • the information processing device of the 15th aspect is the information processing device of the 14th aspect, in which the first processor synchronizes the timing of capturing the image by the first camera with the timing of the radar acquiring three-dimensional point cloud data of the object based on the radar signal.
  • the information processing device of the 16th aspect is the information processing device of the 14th or 15th aspect, in which the number of images taken by the first camera per unit time and the number of three-dimensional point cloud data acquired by the radar per unit time are greater than the number of images taken by the second camera per unit time.
  • the information processing device of the 17th aspect is any one of the information processing devices of the 1st to 16th aspects, in which the second processor outputs label information indicating the type of the photographed object from the image of the object photographed by the second camera, and includes a third processor that associates the point information output from the first processor with the label information output from the second processor.
  • the third processor associates the position information of the object indicated by the point information with the label information about the object that exists at the position indicated by the position information.
  • the third processor associates the point information output from the first processor with the label information at the same timing as the second processor outputs the label information.
  • the third processor when new point information is output from the first processor after the point information and the label information are associated, the third processor also associates the new point information with the label information.
  • the information processing device of the 21st aspect is any one of the information processing devices of the 1st to 20th aspects, and includes a third processor that associates the point information output from the first processor with the identification information output from the second processor, and the first processor derives, from an image of the object captured by the first camera, a coordinate value in the depth direction of the object in a three-dimensional Cartesian coordinate system of a point indicating the location of the object as the point information.
  • the information processing device of the 22nd aspect is the information processing device of the 21st aspect, in which the first processor derives the coordinate values in the depth direction as the point information from images of the object captured by the multiple first cameras.
  • the information processing device of the 23rd aspect is the information processing device of the 21st or 22nd aspect, in which the first processor derives coordinate values of the object in the width direction, height direction, and depth direction as the point information from an image of the object captured by the first camera and a radar signal based on electromagnetic waves irradiated to the object by a radar and reflected from the object.
  • the information processing device of the 24th aspect is any one of the information processing devices of the 21st to 23rd aspects, in which the first processor derives coordinate values of the object in the width direction, height direction, and depth direction as the point information from the image of the object captured by the first camera and the result of capturing the structured light irradiated on the object by the irradiation device.
  • the information processing device of the 25th aspect is any one of the information processing devices of the 21st to 24th aspects, in which the first processor derives the coordinate value of the depth direction at the second time point as the point information from the coordinate values of the width direction, height direction, and depth direction of the object in the three-dimensional Cartesian coordinate system at the first time point and the coordinate values of the width direction and height direction at the second time point that is the next time point after the first time point.
  • the information processing device of the 26th aspect is the information processing device of the 1st aspect, further comprising a third processor that associates the point information output from the first processor with the identification information output from the second processor, and the third processor derives, from an image of the object captured by the first camera, a coordinate value in the depth direction of the object in a three-dimensional Cartesian coordinate system of a point indicating the position of the object as the point information.
  • the information processing device of the 27th aspect is any one of the information processing devices of the 1st to 26th aspects, in which the first processor outputs the point information from an image of the object captured by an event camera, the second processor outputs the identification information from an image of the object captured by the second camera facing in a direction corresponding to the event camera, and a third processor associates the point information output from the first processor with the identification information output from the second processor.
  • the information processing device of the 28th aspect is the information processing device of the 27th aspect, in which the first processor outputs the point information based on the image of the object captured by the event camera when the object cannot be captured from the visible light image of the object captured by the visible light camera due to a predetermined factor.
  • the information processing device of the 29th aspect is the information processing device of the 28th aspect, in which the predetermined factor includes at least one of the following: the moving speed of the object is equal to or greater than a predetermined value, and the change in the amount of ambient light per unit time is equal to or greater than a predetermined value.
  • the information processing device of the 30th aspect is any one of the information processing devices of the 27th to 29th aspects, in which the event camera is a camera that outputs an event image that shows the difference between an image captured at the current time and an image captured at the previous time.
  • the event camera is a camera that outputs an event image that shows the difference between an image captured at the current time and an image captured at the previous time.
  • the information processing device of the 31st aspect is any one of the information processing devices of the 1st to 30th aspects, in which the second processor outputs an image of the photographed object at a first frame rate, the first processor outputs motion information indicating the motion of the photographed object at a second frame rate higher than the first frame rate, and a third processor executes driving control of the vehicle based on the image and the motion information.
  • the information processing device of the 32nd aspect is the information processing device of the 31st aspect, in which the second frame rate is 10 times or more the first frame rate.
  • the information processing device of the 33rd aspect is the information processing device of the 31st or 32nd aspect, in which the second frame rate is 100 frames/second or more.
  • the information processing device of the 34th aspect is any one of the information processing devices of the 31st to 33rd aspects, in which the first processor outputs vector information of the movement of a point indicating the location of an object along a predetermined coordinate axis.
  • the information processing device of the 35th aspect is the information processing device of the 34th aspect, and uses the two first processors to output vector information of the movement of a point indicating the location of an object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
  • the information processing device of the 36th aspect is the information processing device of the 35th aspect, in which the third processor has the ability to process multiple pieces of information in units of one billionth of a second.
  • the information processing device of the 37th aspect is the information processing device of the 1st aspect, which extracts only points indicating the location of an object from an image of the object captured by a camera with a frame rate of 100 frames/second or more, and outputs vector information of the movement of the points indicating the location of the object along a predetermined coordinate axis from the processor.
  • the first processor outputs the vector information for at least two diagonal points of the vertices of a rectangle that encloses the contour of the object.
  • the information processing device of the 39th aspect is any one of the information processing devices of the 1st to 38th aspects, in which the first processor extracts a point indicating the location of the object from an image of the object, and outputs motion information indicating the movement of the point indicating the location of the object along a predetermined coordinate axis at a frame rate of 1000 frames/second or more.
  • the first processor outputs, as the movement information, vector information of the movement of the object along a predetermined coordinate axis of the center point or center of gravity of the object.
  • the first processor outputs, as the motion information, vector information of the motion along a predetermined coordinate axis for at least two diagonal vertices of a rectangle surrounding the contour of the object.
  • the information processing device of the 42nd aspect is any one of the information processing devices of the 39th to 41st aspects, in which the image includes an infrared image.
  • the information processing device of the 43rd aspect is any one of the information processing devices of the 39th to 42nd aspects, in which the images include a visible light image and an infrared image that are synchronized with each other.
  • the information processing device of the 44th aspect is any one of the information processing devices of the 39th to 43rd aspects, and uses two of the first processors to output, as the movement information, vector information of the movement of a point indicating the position of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
  • the information processing device of the 45th aspect is any one of the information processing devices of the 39th to 44th aspects, in which the first processor derives the distance to the object based on the electromagnetic waves irradiated to the object and reflected from the object, and outputs, as the movement information, vector information of the movement of a point indicating the location of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
  • the information processing device of the 46th aspect is any one of the information processing devices of the 39th to 45th aspects, further including the second processor that outputs images of the object at a frame rate of less than 1000 frames/second, and a third processor that performs response control for the object based on the movement information and the images output from the second processor.
  • the 47th aspect of the information processing device is any one of the 1st to 46th aspects, in which the first processor extracts a point indicating the location of the object from an image in which the object appears, and outputs the point indicating the location of the object.
  • the information processing device of the 48th aspect is the information processing device of the 47th aspect, which is equipped with a camera capable of changing the frame rate, and the first processor calculates a score related to the external environment, determines the frame rate of the camera according to the score, outputs a control signal to the camera instructing the camera to capture an image at the determined frame rate, extracts a point indicating the location of the object from the image captured by the camera, and outputs the point indicating the location of the object.
  • the information processing device of the 49th aspect is the information processing device of the 48th aspect, in which the information processing device is mounted on a vehicle, and the first processor calculates a degree of danger related to the traveling of the vehicle as a score related to the external environment, determines a frame rate of the camera according to the degree of danger, outputs a control signal to the camera instructing the camera to capture an image at the determined frame rate, extracts a point indicating the location of the object from the image captured by the camera, and outputs the point indicating the location of the object.
  • the information processing device of the 50th aspect is any one of the information processing devices of the 47th to 49th aspects, in which the first processor extracts an object from the image, and if the object is located in a predetermined area, extracts a point indicating the object's location, and outputs the point indicating the object's location.
  • the information processing device of the 51st aspect is any one of the information processing devices of the 47th aspect to the 50th aspect, in which the first processor extracts objects from the image, calculates a score for each of the objects, extracts a point indicating the location of the object where the score is equal to or greater than a predetermined threshold, and outputs the point indicating the location of the object.
  • the information processing device of the 52nd aspect is any one of the information processing devices of the 1st to 51st aspects, and includes a first camera with a first horizontal angle of view, a second camera with a second horizontal angle of view wider than the first horizontal angle of view, and an adjustment unit that adjusts the shooting direction of the first camera, and when the first processor detects the movement of an object in the blind spot of the first camera in an image acquired by the second camera, the adjustment unit controls the adjustment unit to orient the shooting direction of the first camera toward the detected object.
  • the information processing device of the 53rd aspect is the information processing device of the 52nd aspect, in which the horizontal angle of view of the second camera is 360°.
  • the information processing device of the 54th aspect is the information processing device of the 53rd aspect, in which the adjustment range of the shooting direction in the horizontal direction of the adjustment unit is within ⁇ 135° with respect to the reference direction.
  • the information processing device of the 55th aspect is any one of the information processing devices of the 52nd to 54th aspects, in which the first camera has a higher resolution per unit angle of view than the second camera.
  • the information processing device of the 56th aspect is any one of the information processing devices of the 52nd to 55th aspects, in which the first processor uses an image acquired by the first camera and an image acquired by the second camera to acquire information on the distance to an object in the image.
  • the information processing device of the 57th aspect is any one of the information processing devices of the 1st to 56th aspects, and includes the first processor that outputs motion information indicating the motion of an object extracted from an image, the second processor that outputs type information indicating the type of the object extracted from the image, a third processor that performs response control for the object based on the motion information and the type information, and an acquisition unit that acquires an image captured by an external camera installed outside a mobile body on which the device is mounted and position information of the external camera, and the second processor outputs the type information indicating the type of the object extracted from the image captured by the external camera in association with the position information of the external camera.
  • the second processor when an object extracted from an image acquired by an external camera is an object that may affect the progress of the moving body, the second processor outputs information on the type of the object by attaching identification information indicating that the object is an object that may affect the progress.
  • the information processing device of the 59th aspect is the information processing device of the 58th aspect, in which the object that may affect the progress of the moving body is a person or an animal.
  • the information processing device of the 60th aspect is any one of the information processing devices of the 57th to 59th aspects, in which the acquisition unit acquires images and position information from an external camera positioned ahead of the moving object's travel route.
  • the information processing device of the 61st aspect is the information processing device of the 60th aspect, in which the acquisition unit acquires images and position information only from an external camera that is closest to the device and ahead of the moving object's travel route.
  • the acquisition unit identifies an external camera located ahead of the traveling route of the moving body based on route information of a navigation system that provides guidance on the traveling route of the moving body.
  • the information processing device of the 63rd aspect is an information processing device of any one of the 1st to 62nd aspects, and includes an image capturing unit that sequentially moves a camera to a first position and a second position that is different from the first position in at least the horizontal direction, and causes the camera to capture images at the first position and the second position, respectively, and a processing unit that calculates the three-dimensional positions of objects captured in the first image and the second image, respectively, based on the first image captured at the first position and the second image captured at the second position.
  • the information processing device of the 64th aspect is the information processing device of the 63rd aspect, in which the photographing unit includes a moving unit that rotates a member to which the camera is attached so that the camera moves in a circular manner along a circular path that passes through each of the first position and the second position.
  • the information processing device of the 65th aspect is the information processing device of the 64th aspect, in which the processing unit calculates a score related to the external environment and determines the frame rate of the camera according to the calculated score, and the movement unit changes the rotation speed of the member according to the frame rate determined by the processing unit.
  • the information processing device of the 66th aspect is any one of the information processing devices of the 63rd to 65th aspects, in which the processing unit calculates the three-dimensional position of the object by correcting the deviation of the two-dimensional position of the object in the first image and the second image caused by the difference in the shooting time between the first image and the second image.
  • the processing unit matches a first image taken at the first position at a first time with a first image taken at the first position at a second time, and based on the matching result, estimates the two-dimensional position of the object in a virtual first image obtained when an image is taken at the first position at a third time, which is the time when the image is taken at the second position, thereby correcting the deviation in the two-dimensional position of the object.
  • the information processing device of the 68th aspect is any one of the information processing devices of the 1st to 67th aspects, and further includes a third processor that associates the point information output from the first processor with the identification information output from the second processor, and when the image captured by the first camera is not clear, the third processor uses the image captured by the second camera as a substitute for the image captured by the first camera.
  • the third processor executes a process to make the image captured by the first camera clear.
  • the information processing device of the 70th aspect is any one of the information processing devices of the 1st to 69th aspects, in which the second processor acquires the position information of the image captured by the second camera using an image of the object captured by another device located in the vicinity of the device and the position information of the object.
  • the second processor synchronizes the frame of the second camera with the frame of the image of the object from the other device, taking into account the transmission time of the image of the object and the position information of the object from the other device.
  • the information processing device of the 72nd aspect is any one of the information processing devices of the 1st to 71st aspects, in which the first processor outputs, at a predetermined timing, a first coordinate value indicating the location of the center point or center of gravity of the object, or a second coordinate value indicating the locations of at least two diagonal points of the vertices of a polygon surrounding the contour of the object, in at least two coordinate axes constituting a three-dimensional orthogonal coordinate system of points indicating the location of the photographed object from an image of the object photographed by the first camera.
  • the first processor switches the output coordinate values from the first coordinate values to the second coordinate values.
  • the first processor switches the output coordinate value from the second coordinate value to the first coordinate value when the moving speed of the object is equal to or lower than a predetermined threshold value, or when the moving direction of the object is a predetermined direction.
  • the information processing device of the 75th aspect is any one of the information processing devices of the 72nd to 74th aspects, and further includes a third processor that associates the first coordinate value or the second coordinate value output from the first processor with the identification information output from the second processor.
  • the information processing device of the 76th aspect is any one of the information processing devices of the 1st to 75th aspects, in which the first processor stops outputting the point information about the object when it is determined that the object present in a path along which the moving body is traveling is unlikely to come into contact with the moving body.
  • the first processor determines that the object is unlikely to come into contact with the moving object when the object is not present on the moving route of the moving object within the passageway and the object is moving away from the moving route.
  • the information processing device of the 78th aspect is any one of the information processing devices of the 1st aspect to the 77th aspect, wherein the first processor outputs the point information from the image of the object captured by the first camera, and calculates and outputs motion information indicating the motion of the points from the time series of the point information, and includes a third processor that associates the motion information output from the first processor with the identification information output from the second processor, and when motion information of multiple objects having corresponding motion directions is detected, the third processor removes the motion information of the multiple objects and associates the remaining motion information with the identification information.
  • the first processor calculates the direction of point movement from the time series of the point information using a Hough transform, and calculates the speed of movement from the change in the point information of the calculated direction of point movement.
  • the information processing device of the 80th aspect is the information processing device of the 78th or 79th aspect, in which the third processor associates the movement information output from the first processor with the identification information output from the second processor, and controls the automatic driving of the moving body based on the movement information and the identification information.
  • the information processing device of the 81st aspect is any one of the information processing devices of the 1st to 80th aspects, and includes at least one processor, and the processor outputs the point information from an image of the object captured by a camera, and when a certain number or more points are detected whose movement direction is either vertical or vertical and in the same direction and whose vertical movement amount is within a certain range based on the point information output, only points other than the certain number or more of points detected are output from among the points included in the point information.
  • the processor when the moving body on which the camera is provided is moving straight, the processor further outputs points whose left-right movement amount is equal to or greater than a threshold value from among the detected points that are equal to or greater than a certain number.
  • the information processing device of the 83rd aspect is an information processing device of any one of the first to 82 aspects, and includes a first mobile body processor used for a first moving body, the first mobile body processor recognizes a type of a first object included in the surroundings of the first moving body based on a first image obtained by photographing the surroundings of the first moving body, and the second mobile body processor used for a second moving body recognizes a type of a second object included in the surroundings of the second moving body based on a second image obtained by photographing the surroundings of the second moving body, and when the second moving body processor recognizes the second moving body as a type of the first object, the first mobile body processor sets an identifier indicating that the first moving body is recognized by the second mobile body processor.
  • the information processing device of the 84th aspect is the information processing device of the 83rd aspect, in which the second moving body is a moving body capable of autonomous driving, and the first moving body processor sets the identifier when the second moving body is recognized by the first moving body processor as a type of the first object, the first moving body is recognized by the second moving body processor as a type of the second object, and the second moving body is in autonomous driving.
  • the information processing device of the 85th aspect is the information processing device of the 83rd or 84th aspect, in which the first moving body and the second moving body are moving bodies capable of autonomous driving, and the first moving body processor controls the autonomous driving of the first moving body based on the behavior of the second moving body when the identifier is set and the second moving body is in autonomous driving.
  • the information processing device of the 86th aspect is the information processing device of the 85th aspect, in which the second mobile body processor controls the automatic driving of the second mobile body, and the first mobile body processor acquires control information for controlling the automatic driving of the second mobile body as information indicating the behavior, and controls the automatic driving of the first mobile body based on the control information.
  • the information processing device of the 87th aspect is the information processing device of the 86th aspect, in which a first priority is assigned to the first mobile body and a second priority is assigned to the second mobile body, and the first mobile body processor acquires the control information on the condition that the first priority is higher than the second priority.
  • the information processing device of the 88th aspect is any one of the information processing devices of the 85th to 87th aspects, in which the first mobile body processor outputs first point information capturing the first object as a point based on a third image obtained by photographing the surroundings of the first mobile body at a frame rate higher than the frame rate of the photographing performed to obtain the first image, associates the first point information with second mobile body information capable of identifying the second mobile body recognized by the first mobile body processor as the type of the first object, and controls automatic driving of the first mobile body based on the associated second mobile body information and first point information.
  • the information processing device of the 89th aspect is the information processing device of the 88th aspect, in which the first mobile body processor has a first processor, a second processor, and a third processor, the first processor outputs the first point information, the second processor recognizes the type of the first object based on the first image, and the third processor associates the second mobile body information with the first point information and controls the automatic driving of the first mobile body.
  • the information processing device of the 90th aspect is any one of the information processing devices of the 83rd to 89th aspects, in which the second moving body is a moving body capable of automatic driving, the second moving body processor outputs second point information capturing the second object as a point based on a fourth image obtained by photographing the surroundings of the second moving body at a frame rate higher than the frame rate of the photographing performed to obtain the second image, associates the first moving body information capable of identifying the first moving body recognized by the second moving body processor as the type of the second object with the second point information, and performs a control process to control the automatic driving of the second moving body based on the associated first moving body information and second point information, and the first moving body processor sets the identifier when the second moving body is recognized by the first moving body processor as the type of the first object, the first moving body is recognized by the second moving body processor as the type of the second object, and the control process is performed by the second moving body processor.
  • the information processing device of the 91st aspect is any one of the information processing devices of the 85th to 90th aspects, in which the first mobile body processor controls the automatic driving of the first mobile body with control content that can avoid contact between the first mobile body and the second mobile body.
  • the information processing device of the 92nd aspect is any one of the information processing devices of the 83rd to 91st aspects, in which the first mobile body processor notifies the notification device that the first mobile body has been recognized by the second mobile body processor when the identifier is set.
  • the information processing device of the 93rd aspect is an information processing device of any one of the information processing devices of the 1st to 92nd aspects, including at least one processor, wherein the processor outputs images of captured objects at a first frame rate, derives label information indicating the type of object contained in each image output at the first frame rate, outputs position information indicating the location of the object from the captured images of the object at a second frame rate higher than the first frame rate, and associates position information at each time point corresponding to the output timing of the images output at the first frame rate, among the position information output sequentially at the second frame rate, with the label information derived for the same object as the object corresponding to the position information.
  • the processor associates the previously associated label information with the position information that has not been associated with the label information among the position information output at the second frame rate.
  • the processor outputs at least one point indicating the location of the object as the position information.
  • the information processing device of the 96th aspect is any one of the information processing devices of the 93rd to 95th aspects, in which the processor derives the label information based on a first image having a relatively high resolution output at the first frame rate, and derives the position information based on a second image having a relatively low resolution.
  • the third processor determines that an object appearing in a first image captured by the first camera and an object appearing in a second image captured by the second camera that satisfy a predetermined condition are the same object, and for the objects determined to be the same, associates the point information with the identification information.
  • the predetermined conditions include, as a first condition, a consistency in the positional relationship between the object in the first image and the object in the second image, a consistency in the contours of the object in the first image and the object in the second image, and a consistency in the type of the object estimated for the object in the first image and the type of the object estimated for the object in the second image
  • the third processor determines that the object in the first image and the object in the second image are the same object when at least one of the first condition, the second condition, and the third condition is satisfied.
  • the 99th aspect of the information processing device is an information processing device according to any one of the first to 98th aspects, including an extraction unit, an integration unit, an estimation unit, and an update unit, in which the extraction unit extracts first plane coordinates indicating the location of the object in two-dimensional space at time t from an image showing the object, the integration unit combines first depth information detected in the depth direction of the object in three-dimensional space with the first plane coordinates and the first depth information to generate the three-dimensional coordinates of the object at time t, the extraction unit extracts second plane coordinates indicating the location of the object in two-dimensional space at the time next to time t, the estimation unit estimates second depth information corresponding to the next time based on shape information of the space in which the object exists and the change from the first plane coordinates to the second plane coordinates, and the update unit integrates the second plane coordinates and the estimated second depth information to update the three-dimensional coordinates of the object at the next time.
  • the extraction unit extracts first plane coordinates indicating the location of the object in two-dimensional
  • the information processing device of the 100th aspect is the information processing device of the 99th aspect, in which the integration unit detects the first depth information from point cloud data detected by a sensor.
  • the information processing device of the 101st aspect when the second plane coordinates at the next time after the object moves are extracted in the information processing device of the 100th aspect, if depth information obtained from the point cloud data corresponding to the next time cannot be obtained, the information processing device of the 100th aspect estimates the second depth information and executes the update.
  • the information processing device of the 102nd aspect is any one of the information processing devices of the 99th to 101st aspects, in which the shape information includes the shape of the road surface obtained from an image acquired by a high-resolution camera and point cloud data detected by a sensor, and the shape of the object that is set in advance, and the estimation unit estimates the second depth information by calculating the amount of movement in the depth direction when the shape of the object moving relative to the shape of the road surface changes from the first plane coordinates to the second plane coordinates.
  • a point corresponding to a coordinate indicating the location of the object is set as each of a plurality of points at the vertices of a box representing the contour of the object, and the extraction unit extracts the first plane coordinates and the second plane coordinates of each of the points, the integration unit generates three-dimensional coordinates of the object at each of the points, the estimation unit estimates the second depth information of each of the points, and the update unit updates the three-dimensional coordinates of the object at each of the points.
  • the information processing device of the 104th aspect is any one of the information processing devices of the 1st to 103rd aspects, and includes a third processor that associates the point information output from the first processor with the identification information output from the second processor, and when there are multiple pieces of point information, the first processor outputs the point information at the next point in time according to a predetermined priority for the identification information associated with the point information.
  • the first processor derives, from an image of the object captured by the first camera at a first time point, a coordinate value in the depth direction of the object in a three-dimensional Cartesian coordinate system of a point indicating the location of the object as the point information, and when there are multiple pieces of point information, the first processor derives the coordinate value in the depth direction at a second time point that is the next time point after the first time point, according to a predetermined priority of the identification information associated with the point information.
  • the first processor determines the priority according to the presence or absence of the behavior of the object indicated by the identification information, so that a high priority is set for an object that exhibits a behavior, and a priority lower than the high priority is set for an object that does not exhibit a behavior.
  • the first processor determines a higher priority for the object that causes the behavior in accordance with the risk factor of the object.
  • the first processor derives the point information for the next time point in the order of priority when the number of pieces of point information is equal to or greater than a predetermined number.
  • the first processor derives, from the image of the object captured by the first camera at each time point when a predetermined condition for the image is satisfied, a coordinate value in the depth direction of the object in a three-dimensional Cartesian coordinate system of a point indicating the position of the object as the point information.
  • the first processor defines each time point that satisfies the predetermined condition as a second time point, and derives the coordinate value of the depth direction at the second time point as the point information from the coordinate values of the width direction, height direction, and depth direction of the object in the three-dimensional orthogonal coordinate system at the first time point and the coordinate values of the width direction and height direction at the second time point that is the next time point after the first time point.
  • the first processor defines the predetermined condition as the amount of change in the coordinate values in the width direction and the height direction at the second time point relative to the coordinate values in the width direction and the height direction at the first time point, and derives the coordinate values in the depth direction at a frequency determined in advance for the amount of change.
  • the information processing device of the 112th aspect is any one of the information processing devices of the 1st to 111th aspects, in which the first processor derives, from an image of the object captured by the first camera, a depth coordinate value of the object in a three-dimensional orthogonal coordinate system of a point indicating the position of the object as the point information, and the first processor learns correction information for the depth coordinate value from predetermined sensor information.
  • the first processor collects the sensor information and learns the correction information for a specific driving situation in the collected sensor information when the difference between the derived depth coordinate value and the depth coordinate value detected by a specified sensor is equal to or greater than a threshold value.
  • the first processor derives the coordinate value of the depth direction at the second time point as the point information from the coordinate values of the width direction, height direction, and depth direction of the object in the three-dimensional Cartesian coordinate system at the first time point and the coordinate values of the width direction and height direction at the second time point which is the next time point after the first time point.
  • the information processing device of the 115th aspect is the information processing device of the 1st aspect, and includes an information acquisition unit capable of acquiring a plurality of pieces of information related to the vehicle, an inference unit that uses deep learning to infer a plurality of index values from the plurality of pieces of information acquired by the information acquisition unit, and a driving control unit that executes driving control of the vehicle based on the plurality of index values.
  • the inference unit infers the multiple index values from the multiple pieces of information by multivariate analysis using an integral method that employs the deep learning.
  • the information acquisition unit acquires the plurality of pieces of information in units of one billionth of a second
  • the inference unit and driving control unit use the plurality of pieces of information acquired in units of one billionth of a second to perform inference of the plurality of index values and driving control of the vehicle in units of one billionth of a second.
  • the information processing device of the 118th aspect is any one of the information processing devices of the 115th to 117th aspects, further comprising a strategy setting unit that sets a driving strategy until the vehicle reaches the destination, the driving strategy including at least one theoretical value of an optimal route to the destination, a driving speed, tilt, and braking, and the driving control unit comprises a strategy update unit that updates the driving strategy based on the difference between the multiple index values and the theoretical value.
  • the information processing device of the 119th aspect is any one of the information processing devices of the 115th aspect to the 118th aspect, in which the information acquisition unit includes a sensor provided under the vehicle and capable of detecting the temperature, material, and tilt of the ground on which the vehicle is traveling.
  • the information processing device of the 120th aspect is the information processing device of the 1st aspect, and includes an acquisition unit that acquires a detection result of detecting an object related to the operation of a control device mounted on the vehicle that controls the automatic driving of the vehicle, and an execution unit that executes cooling in the control device based on the detection result.
  • the acquisition unit extracts a point indicating the location of the object from one frame of an image of the object as the detection result, and acquires motion information indicating the movement of the point indicating the location of the object along a predetermined coordinate axis at a frame rate of 100 frames/second or more.
  • the information processing device of the 122nd aspect is the information processing device of the 121st aspect, further comprising a prediction unit that predicts the operation of the control device using the detection result, and the prediction unit predicts the operation of the control device using a learning model generated by machine learning using the detection result and the operating status of the control device at the time the detection result was obtained as learning data.
  • the prediction unit further predicts the temperature change of each of a plurality of parts in the control device, and the execution unit controls the cooling of the parts in the control device.
  • the information processing device of the 124th aspect is the information processing device of the 1st aspect, and includes a calculation unit that calculates index values for controlling the wheel speed, inclination, and suspension of each of the four wheels of the vehicle for each combination of a predetermined number of pieces of sensor information from among a plurality of pieces of sensor information provided in the vehicle, and for each suspension supporting the wheels, and aggregates the index values to calculate control variables for the wheel speed, inclination, and suspension, and a control unit that controls autonomous driving based on the control variables.
  • the calculation unit calculates the control variable from the index value by multivariate analysis using an integral method that uses deep learning.
  • control unit controls the automatic driving in units of one billionth of a second based on the control variable.
  • the information processing device of the 127th aspect is the information processing device of the 1st aspect, and includes an acquisition unit that acquires a plurality of pieces of information related to the vehicle from a detection unit including a sensor that detects the situation around the vehicle at a second period that is shorter than a first period for photographing the surroundings of the vehicle as a period for detecting the situation around the vehicle, a calculation unit that calculates an index value related to the situation around the vehicle from the acquired plurality of pieces of information and calculates a control variable for controlling the behavior of the vehicle from the calculated index value, and a control unit that controls the behavior of the vehicle based on the calculated control variable.
  • the calculation unit calculates the control variable from the index value by multivariate analysis using an integral method that uses deep learning.
  • the acquisition unit acquires the plurality of pieces of information in units of one billionth of a second
  • the calculation unit uses the plurality of pieces of information acquired in units of one billionth of a second to calculate the index value and the control variable in units of one billionth of a second.
  • the calculation unit predicts a collision of an object with the vehicle based on the acquired multiple pieces of information, and when the prediction result indicates an unavoidable collision, calculates as the control variable a control variable corresponding to damage to the vehicle in the unavoidable collision that is equal to or less than a predetermined threshold.
  • the information processing device of the 131st aspect is the information processing device of the 130th aspect, in which the damage caused to the vehicle is at least one of the deformation position and the deformation amount of the vehicle.
  • the control variable corresponding to the damage caused to the vehicle is at least one of the collision angle of the vehicle and the vehicle speed.
  • the first processor extracts a point indicating the location of an object from an image in which the object appears, and outputs the point indicating the location of the object.
  • the information processing device of the 134th aspect is the information processing device of the 133rd aspect, in which the information processing device is equipped with a camera capable of changing the frame rate, and the first processor calculates a score related to the external environment, determines the frame rate of the camera according to the score, outputs a control signal to the camera instructing the camera to capture an image at the determined frame rate, extracts a point indicating the location of the object from the image captured by the camera, and outputs the point indicating the location of the object.
  • the information processing device of the 135th aspect is the information processing device of the 134th aspect, in which the information processing device is mounted on a vehicle, and the first processor calculates a degree of danger related to the traveling of the vehicle as a score related to the external environment, determines a frame rate of the camera according to the degree of danger, outputs a control signal to the camera instructing the camera to capture an image at the determined frame rate, extracts a point indicating the location of the object from the image captured by the camera, and outputs the point indicating the location of the object.
  • the first processor extracts an object from the image, and if the object is located in a predetermined area, extracts a point indicating the object's location, and outputs the point indicating the object's location.
  • the first processor extracts objects from the image, calculates a score for each object, extracts a point indicating the location of the object where the score is equal to or greater than a predetermined threshold, and outputs the point indicating the location of the object.
  • the vehicle of the 138th aspect is a vehicle equipped with a pair of camera units including a camera and a processor, in which the first camera unit extracts a point indicating the location of an object from an image showing an object in front of the vehicle and outputs the point indicating the location of the object, the second camera unit extracts a point indicating the location of an object from an image showing an object behind the vehicle and outputs the point indicating the location of the object, and the processor controls the driving of the vehicle based on the location of the object output from the first camera unit and the second camera unit.
  • a vehicle of aspect 139 is a vehicle of aspect 138, in which the camera of each of the camera units is capable of changing the frame rate, and one of the first camera unit and the second camera unit sets the frame rate of the camera depending on the object detection situation of the other of the first camera unit and the second camera unit, extracts a point indicating the location of the object from an image captured by the camera at the set frame rate, and outputs the point indicating the location of the object.
  • a vehicle of aspect 140 is a vehicle of aspect 138 or aspect 139, further comprising a high-resolution camera having a higher resolution than the camera and other camera units connected to each of the camera units, each of the camera units being capable of acquiring information of an object identified based on information from the high-resolution camera, and one of the first camera unit and the second camera unit acquiring information of an object held by the other of the first camera unit and the second camera unit.
  • a computer executes a process to output point information that captures an object as a point from an image of the object captured by a first camera, and output identification information that identifies the object captured from an image of the object captured by a second camera facing in a direction corresponding to the first camera.
  • the information processing program of the 142nd aspect causes a computer to execute a process of outputting point information that captures an object as a point from an image of the object captured by a first camera, and outputting identification information that identifies the object captured from an image of the object captured by a second camera facing in a direction corresponding to the first camera.
  • FIG. 1 is a block diagram showing an example of a configuration of an information processing device according to a first embodiment.
  • FIG. 11 is a block diagram showing an example of a configuration of an information processing device according to a second embodiment.
  • FIG. 13 is an explanatory diagram showing an example of point information output by the MoPU according to the third embodiment;
  • FIG. 13 is a block diagram showing an example of a configuration of an information processing device according to a fifth embodiment.
  • FIG. 23 is a block diagram showing an example of a configuration of an information processing device according to a sixth embodiment.
  • FIG. 23 is an explanatory diagram showing an example of association between point information and label information according to the seventh embodiment; A flowchart showing an example of the flow of a process for matching feature points with label information performed by the Central Brain in the seventh embodiment.
  • FIG. 23 is an explanatory diagram showing a schematic configuration of a vehicle according to an eighth embodiment.
  • FIG. 23 is a block diagram showing an example of a functional configuration of a cooling execution device according to an eighth embodiment.
  • FIG. 13 is a first block diagram showing an example of the configuration of an information processing device according to a ninth embodiment.
  • FIG. 23 is a second block diagram showing an example of the configuration of the information processing device according to the ninth embodiment.
  • 23A to 23C are diagrams illustrating coordinate detection of an object in a time series in the ninth embodiment.
  • FIG. 23 is a flowchart in the case where the update frequency of the z coordinate value is determined according to the amount of change in the ninth embodiment.
  • 23 is a flowchart for learning correction information in the ninth embodiment.
  • FIG. 23 is a block diagram showing an example of the configuration of an information processing device according to a tenth embodiment.
  • FIG. 23 is a first explanatory diagram for explaining an image of an object captured by an event camera according to the tenth embodiment.
  • FIG. 23 is a second explanatory diagram for explaining an image of an object captured by an event camera according to the tenth embodiment.
  • FIG. 23 is a third explanatory diagram for explaining an image of an object captured by an event camera according to the tenth embodiment.
  • FIG. 23 is a first block diagram showing an example of the configuration of an information processing device according to an eleventh embodiment.
  • FIG. 23 is a second block diagram showing an example of the configuration of the information processing device according to the eleventh embodiment.
  • FIG. 23 is a first block diagram showing an example of the configuration of an information processing device according to a twelfth embodiment.
  • FIG. 23 is a second block diagram showing an example of the configuration of the information processing device according to the twelfth embodiment.
  • FIG. 23 is a first block diagram showing an example of the configuration of an information processing device according to a thirteenth embodiment.
  • FIG. 23 is a second block diagram showing an example of the configuration of the information processing device according to the thirteenth embodiment.
  • FIG. 23 is a first block diagram showing an example of the configuration of an information processing device according to a thirteenth embodiment.
  • FIG. 23 is a first diagram for explaining the process in the thirteenth embodiment when feature points are not extracted from objects existing on the sidewalk.
  • FIG. 23 is a second diagram for explaining the process in the thirteenth embodiment when feature points are not extracted from objects existing on the sidewalk.
  • FIG. 23 is a first diagram showing the shooting directions and shooting angle ranges of a high-resolution camera and an omnidirectional camera mounted on a vehicle according to a fourteenth embodiment.
  • FIG. 23 is a first diagram showing the relationship between the imaging ranges of an image acquired by an omnidirectional camera and an image acquired by a high-resolution camera 30L according to the fourteenth embodiment.
  • FIG. 23 is a second diagram showing the shooting directions and shooting angle ranges of the high-resolution camera and omnidirectional camera mounted on a vehicle according to the fourteenth embodiment.
  • FIG. 23 is a second diagram showing the relationship between the imaging ranges of an image captured by the omnidirectional camera and an image captured by the high-resolution camera 30L according to the fourteenth embodiment.
  • FIG. 23 is a block diagram of an information processing device according to a fifteenth embodiment.
  • FIG. 23 is a diagram showing an example of a camera management database according to the fifteenth embodiment.
  • FIG. 23 is a first diagram for explaining a vehicle according to a fifteenth embodiment. A figure showing an example of an image acquired from an external camera according to the fifteenth embodiment.
  • FIG. 23 is a diagram illustrating an example of an object management database according to the fifteenth embodiment.
  • FIG. 23 is a second diagram for explaining the vehicle according to the fifteenth embodiment.
  • FIG. 23 is a third diagram for explaining a vehicle according to the fifteenth embodiment.
  • FIG. 23 is a first explanatory diagram for explaining the process of correcting deviation in a two-dimensional position of an object according to the sixteenth embodiment;
  • FIG. 23 is a second explanatory diagram for explaining the process of correcting deviation in two-dimensional position of an object according to the sixteenth embodiment;
  • FIG. 22 is a first diagram for explaining a method for calculating the direction of movement of a point from a time series of point information in the seventeenth embodiment.
  • FIG. 23 is a second diagram for explaining a method for calculating the direction of movement of a point from a time series of point information in the seventeenth embodiment.
  • FIG. 23 is a diagram showing an example of movement information of a plurality of objects in the seventeenth embodiment.
  • FIG. 23 is a diagram showing an example of motion information after removal in the seventeenth embodiment.
  • a flowchart showing the flow of the matching process performed by the Central Brain in the 17th embodiment.
  • FIG. 23 is a diagram for explaining the output process of point information executed by the MoPU according to the eighteenth embodiment.
  • 23 is a conceptual diagram showing an example of a manner in which a head-on collision between a first vehicle and a second vehicle is avoided in the nineteenth embodiment.
  • 23 is a first flowchart showing an example of the flow of an autonomous driving control process according to the 19th embodiment;
  • 23 is a second flowchart showing an example of the flow of an autonomous driving control process according to the 19th embodiment.
  • 23 is a third flowchart showing an example of the flow of an automatic driving control process according to the nineteenth embodiment.
  • FIG. 23 is a diagram showing an example of a flowchart of MoPU processing according to the twentieth embodiment.
  • FIG. 23 is a diagram illustrating the configuration of a vehicle according to the twenty-first embodiment.
  • 23 is a flowchart showing an example of a rate change process according to the twenty-second embodiment.
  • 23A to 23C are diagrams illustrating the viewing angle of a camera in the twenty-second embodiment.
  • 23 is a flowchart showing an example of a takeover process according to the twenty-second embodiment;
  • a first block diagram showing an example of the configuration of an information processing device according to the twenty-third embodiment.
  • FIG. 24 is a first diagram illustrating an example of a SoCBox and a cooling unit according to a twenty-fourth embodiment
  • FIG. 23 is a second diagram illustrating an example of a SoCBox and a cooling unit according to the twenty-fourth embodiment
  • FIG. 23 is a third diagram illustrating an example of a SoCBox and a cooling unit according to the twenty-fourth embodiment.
  • 25 is a diagram illustrating the risk prediction capability of the AI for ultra-high performance autonomous driving according to the twenty-fifth embodiment.
  • This is the first explanatory diagram explaining an example of control of autonomous driving by the Central Brain in the 25th embodiment.
  • This is a third explanatory diagram illustrating an example of control of autonomous driving by the Central Brain in the 25th embodiment.
  • This is the fifth explanatory diagram explaining an example of control of autonomous driving by the Central Brain in the 25th embodiment.
  • FIG. 2 is an explanatory diagram illustrating an example of a hardware configuration of a computer that functions as an information processing device or a cooling execution device.
  • An information processing device may determine with high accuracy an index value required for driving control based on a large amount of information related to vehicle control. Therefore, at least a portion of the information processing device of the present disclosure may be mounted on a vehicle to realize vehicle control.
  • the information processing device can provide a driving system that can realize autonomous driving in real time based on data obtained by AI/multivariate analysis/goal seek/strategy planning/optimal probability solution/optimal speed solution/optimal course management/multiple sensor inputs at the edge by Level 6 and is adjusted based on the delta optimal solution.
  • the vehicle 100 is an example of an "object”.
  • Level 6 refers to a level of autonomous driving, and is equivalent to a level higher than Level 5, which represents fully autonomous driving.
  • Level 5 represents fully autonomous driving, it is at the same level as a human driving, and there is still a chance of accidents occurring.
  • Level 6 represents a level higher than Level 5, and is equivalent to a level where the chance of accidents occurring is lower than at Level 5.
  • the computing power at Level 6 is about 1000 times that of Level 5. Therefore, it is possible to achieve high-performance operation control that was not possible at Level 5.
  • FIG. 1 is a schematic diagram showing an example of a vehicle 100 equipped with a Central Brain 15.
  • a plurality of Gate Ways are communicatively connected to the Central Brain 15.
  • the Central Brain 15 is connected to an external cloud server via the Gate Ways.
  • the Central Brain 15 is configured to be able to access the external cloud server via the Gate Ways.
  • the Central Brain 15 is configured not to be directly accessible from the outside.
  • the Central Brain 15 outputs a request signal to the cloud server every time a predetermined time has elapsed. Specifically, the Central Brain 15 outputs a request signal representing an inquiry to the cloud server every billionth of a second. As an example, the Central Brain 15 controls the automatic operation of Level L6 based on multiple pieces of information acquired via the Gate Way.
  • FIG. 2 is a block diagram showing an example of the configuration of the information processing device 10 according to the first embodiment.
  • the information processing device 10 includes an IPU (Image Processing Unit) 11, a MoPU (Motion Processing Unit) 12, a Central Brain 15, and a memory 16.
  • the Central Brain 15 includes a GNPU (Graphics Neural network Processing Unit) 13 and a CPU (Central Processing Unit) 14.
  • the IPU 11 is built into an ultra-high resolution camera (not shown) installed in the vehicle 100.
  • the IPU 11 performs predetermined image processing such as Bayer transformation, demosaicing, noise removal, and sharpening on the image of the object existing around the vehicle 100 captured by the ultra-high resolution camera, and outputs the processed image of the object at a frame rate of 10 frames/second and a resolution of 12 million pixels, for example.
  • the IPU 11 also outputs identification information that identifies the captured object from the image of the object captured by the ultra-high resolution camera.
  • the identification information is information necessary to identify what the captured object is (for example, whether it is a person or an obstacle).
  • the IPU 11 outputs label information indicating the type (kind) of the captured object (for example, information indicating whether the captured object is a dog, a cat, or a bear) as the identification information. Furthermore, the IPU 11 outputs position information indicating the position of the captured object in the camera coordinate system of the ultra-high resolution camera.
  • the image, label information, and position information output from the IPU 11 are supplied to the Central Brain 15 and memory 16.
  • the IPU 11 is an example of a "second processor," and the ultra-high resolution camera is an example of a "second camera.”
  • MoPU12 is built into a separate camera (not shown) other than the ultra-high resolution camera installed in the vehicle 100.
  • MoPU12 outputs point information capturing the captured object as a point from an image of the object captured at a frame rate of 100 frames/second or more by a separate camera facing in a direction corresponding to the ultra-high resolution camera, for example at a frame rate of 100 frames/second or more.
  • the point information output from MoPU12 is supplied to the Central Brain15 and the memory 16.
  • the image used by MoPU12 to output the point information and the image used by IPU11 to output the identification information are images captured by the separate camera and the ultra-high resolution camera facing in corresponding directions (images obtained by taking pictures).
  • the "corresponding direction” is the direction in which the shooting range of the separate camera and the shooting range of the ultra-high resolution camera overlap.
  • the separate camera faces in a direction overlapping with the shooting range of the ultra-high resolution camera to capture the object.
  • photographing an object with the ultra-high resolution camera and another camera facing in corresponding directions can be achieved, for example, by determining in advance the correspondence between the camera coordinate systems of the ultra-high resolution camera and the other camera.
  • MoPU12 outputs, as point information, coordinate values of at least two coordinate axes in a three-dimensional orthogonal coordinate system of a point indicating the location of an object.
  • the coordinate values indicate the center point (or center of gravity) of the object.
  • MoPU12 outputs, as the coordinate values of the two coordinate axes, the coordinate value of the axis (x-axis) along the width direction in the three-dimensional orthogonal coordinate system (hereinafter referred to as the "x-coordinate value”) and the coordinate value of the axis (y-axis) along the height direction (hereinafter referred to as the "y-coordinate value").
  • the x-axis is an axis along the width direction of the vehicle 100
  • the y-axis is an axis along the height direction of the vehicle 100.
  • the point information for one second output by MoPU12 includes x and y coordinate values for more than 100 frames, so based on this point information it is possible to grasp the movement (direction and speed of movement) of an object on the x and y axes in the above three-dimensional orthogonal coordinate system.
  • the point information output by MoPU12 includes position information indicating the position of the object in the above three-dimensional orthogonal coordinate system and movement information indicating the movement of the object.
  • the point information output from MoPU12 does not include information necessary to identify what the photographed object is (for example, whether it is a person or an obstacle), but only includes information indicating the movement (direction and speed of movement) of the object's center point (or center of gravity) on the x and y axes. And because the point information output from MoPU12 does not include image information, it is possible to dramatically reduce the amount of data output to Central Brain15 and memory16.
  • MoPU12 is an example of a "first processor"
  • the separate camera is an example of a "first camera”.
  • the frame rate of the separate camera incorporating MoPU12 is greater than the frame rate of the ultra-high resolution camera incorporating IPU11.
  • the frame rate of the separate camera is 100 frames/second or more
  • the frame rate of the ultra-high resolution camera is 10 frames/second.
  • the frame rate of the separate camera is 10 times or more the frame rate of the ultra-high resolution camera.
  • the Central Brain 15 associates the point information output from the MoPU 12 with the label information output from the IPU 11. For example, due to the difference in frame rate between the separate camera and the ultra-high resolution camera, there are states in which the Central Brain 15 acquires point information about an object but does not acquire label information. In this state, the Central Brain 15 recognizes the x and y coordinate values of the object based on the point information, but does not recognize what the object is.
  • the Central Brain 15 derives the type of the label information (e.g., PERSON). The Central Brain 15 then associates the label information with the point information acquired above. As a result, the Central Brain 15 recognizes the x-coordinate value and y-coordinate value of the object based on the point information, and recognizes what the object is.
  • the Central Brain 15 is an example of a "third processor.”
  • the Central Brain 15 associates point information and label information for each object as follows. Due to the difference in frame rate between the other camera and the ultra-high resolution camera, the Central Brain 15 acquires point information for objects A and B (hereinafter referred to as "point information A” and "point information B"), but there are states in which it does not acquire label information. In this state, the Central Brain 15 recognizes the x and y coordinate values of object A based on point information A, and recognizes the x and y coordinate values of object B based on point information B, but does not recognize what those objects are.
  • the Central Brain 15 derives the type of the piece of label information (e.g., PERSON). Then, the Central Brain 15 identifies point information to be associated with the piece of label information based on the position information output from the IPU 11 together with the piece of label information and the position information included in the acquired point information A and point information B. For example, the Central Brain 15 identifies point information including position information indicating a position closest to the position of the object indicated by the position information output from the IPU 11, and associates the point information with the piece of label information. If the point information identified above is point information A, the Central Brain 15 associates the piece of label information with point information A, recognizes the x-coordinate value and y-coordinate value of object A based on point information A, and recognizes what object A is.
  • point information e.g., PERSON
  • the Central Brain 15 associates the point information with the label information based on the position information output from the IPU 11 and the position information included in the point information output from the MoPU 12.
  • the Central Brain 15 recognizes objects (people, animals, roads, traffic lights, signs, crosswalks, obstacles, buildings, etc.) around the vehicle 100 based on the image and label information output from the IPU 11. In addition, the Central Brain 15 recognizes the position and movement of recognized objects around the vehicle 100 based on the point information output from the MoPU 12. Based on the recognized information, the Central Brain 15 performs, for example, control of the motor that drives the wheels (speed control), brake control, and steering control, and controls the automatic driving of the vehicle 100 as a response control to the object. For example, the Central Brain 15 controls the automatic driving of the vehicle 100 to avoid collision with the object based on the position information and movement information included in the point information output from the MoPU 12. In the Central Brain 15, the GNPU 13 may be responsible for processing related to image recognition, and the CPU 14 may be responsible for processing related to vehicle control.
  • Ultra-high resolution cameras are generally used for image recognition in autonomous driving.
  • this alone is insufficient for autonomous driving in the Level 6 era.
  • the Level 6 era it is also necessary to recognize the movement of objects with higher accuracy.
  • the vehicle 100 traveling by autonomous driving can perform evasive actions to avoid obstacles with higher accuracy.
  • an ultra-high resolution camera can only capture images at about 10 frames per second, and the accuracy of analyzing the movement of objects is lower than that of a camera equipped with a MoPU 12.
  • a camera equipped with a MoPU 12 can output at a high frame rate of, for example, 100 frames per second.
  • the information processing device 10 has two independent processors, an IPU 11 and a MoPU 12.
  • the IPU 11 built into the ultra-high resolution camera is given the role of acquiring information necessary to identify what the photographed object is
  • the MoPU 12 built into another camera is given the role of detecting the position and movement of the object.
  • the MoPU 12 captures the photographed object as a point, and analyzes in which direction and at what speed the coordinates of that point move on at least the x-axis and y-axis in the above-mentioned three-dimensional orthogonal coordinate system. Since the entire contour of the object and what the object is can be detected from the image from the ultra-high resolution camera, for example, if it is known by the MoPU 12 how the center point of the object moves, it is possible to know how the entire object will behave.
  • a method of analyzing only the movement and speed of the center point of an object makes it possible to significantly reduce the amount of data output to the Central Brain 15 and the amount of calculations in the Central Brain 15, compared to determining how the entire image of the object moves. For example, when an image of 1000 pixels x 1000 pixels is output to the Central Brain 15 at a frame rate of 1000 frames per second, including color information, 4 billion bits per second of data will be output to the Central Brain 15.
  • the MoPU 12 output only point information indicating the movement of the center point of the object, the amount of data output to the Central Brain 15 can be compressed to 20,000 bits per second. In other words, the amount of data output to the Central Brain 15 is compressed to 1/200,000.
  • the Central Brain 15 associates the point information output from the MoPU 12 with the label information output from the IPU 11, thereby making it possible to grasp information regarding what objects are moving in what way.
  • FIG. 3 is a block diagram showing an example of the configuration of an information processing device 10 according to the second embodiment.
  • the information processing device 10 mounted on the vehicle 100 includes a MoPU 12L corresponding to the left eye, a MoPU 12R corresponding to the right eye, an IPU 11, and a Central Brain 15.
  • MoPU12L includes a camera 302L, a radar 32L, an infrared camera 34L, and a core 17L.
  • MoPU12R includes a camera 302R, a radar 32R, an infrared camera 34R, and a core 17R.
  • MoPU12L and MoPU12R when there is no distinction between MoPU12L and MoPU12R, it will be referred to as “MoPU12”, when there is no distinction between camera 302L and camera 302R, it will be referred to as “camera 302”, when there is no distinction between radar 32L and radar 32R, it will be referred to as “radar 32”, when there is no distinction between infrared camera 34L and infrared camera 34R, it will be referred to as “infrared camera 34”, and when there is no distinction between core 17L and core 17R, it will be referred to as “core 17”.
  • Camera 302 of MoPU12 captures images of objects at a frame rate (120, 240, 480, 960, or 1920 frames/sec) greater than the ultra-high resolution camera of IPU11 (e.g., 10 frames/sec).
  • the frame rate of camera 302 is variable.
  • Camera 302 is an example of a "first camera.”
  • the radar 32 provided in the MoPU 12 acquires a radar signal, which is a signal based on the electromagnetic waves irradiated onto an object and reflected from the object.
  • the infrared camera 34 provided in the MoPU 12 is a camera that captures infrared images (a camera that captures infrared rays from an object to obtain an infrared image showing the object).
  • the core 17 (e.g., composed of one or more CPUs) provided in the MoPU 12 extracts feature points for each frame of image captured by the camera 302 (one frame of image obtained by capturing an image by the camera 302), and outputs the x-coordinate value and the y-coordinate value of the object in the above-mentioned three-dimensional orthogonal coordinate system as point information.
  • the core 17 takes the center point (center of gravity) of the object extracted from the image as the feature point.
  • the point information output by the core 17 includes position information and movement information, as in the above embodiment.
  • the IPU11 is equipped with an ultra-high resolution camera (not shown) and outputs an image of an object captured by the ultra-high resolution camera (an image obtained by capturing an image of an object with the ultra-high resolution camera), label information indicating the type of the object, and position information indicating the position of the object in the camera coordinate system of the ultra-high resolution camera.
  • the Central Brain 15 acquires the point information output from the MoPU 12, and the image, label information, and position information output from the IPU 11. The Central Brain 15 then associates the point information with the label information about an object that exists at a position corresponding to the position information included in the point information output from the MoPU 12 and the position information output from the IPU 11. This makes it possible for the information processing device 10 to associate information about the object indicated by the label information with the position and movement of the object indicated by the point information.
  • MoPU 12 changes the frame rate of camera 302 in response to a predetermined factor.
  • MoPU 12 changes the frame rate of camera 302 in response to a score related to the external environment, which is an example of a predetermined factor.
  • MoPU 12 calculates a score related to the external environment for vehicle 100, and changes the frame rate of camera 302 in response to the calculated score.
  • MoPU 12 then outputs a control signal to camera 302 to cause it to capture images at the changed frame rate.
  • camera 302 captures images at the frame rate indicated by the control signal (camera 302 acquires images by capturing images at the frame rate indicated by the control signal).
  • the information processing device 10 can capture images of objects at a frame rate suitable for the external environment (objects can be captured at a frame rate suitable for the external environment).
  • the information processing device 10 mounted on the vehicle 100 is equipped with multiple types of sensors (not shown).
  • the MoPU 12 calculates the degree of danger related to the movement of the vehicle 100 as a score related to the external environment for the vehicle 100 based on the sensor information (e.g., weight center of gravity shift, detection of road material, detection of outside air temperature, detection of outside air humidity, detection of up, down, side, diagonal inclination angle of a slope, road freezing condition, detection of moisture content, material of each tire, wear condition, detection of air pressure, road width, presence or absence of overtaking prohibition, oncoming vehicles, vehicle type information of the front and rear vehicles, cruising state of those vehicles, or surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, housework, wind, typhoon, heavy rain, light rain, snowstorm, fog, etc.) etc.) acquired from the multiple types of sensors and point information.
  • the sensor information e.g., weight center of gravity shift, detection of road material, detection of outside air temperature, detection of outside air humidity,
  • the degree of danger indicates the degree of danger in which the vehicle 100 will be traveling in the future.
  • the MoPU 12 changes the frame rate of the camera 302 according to the calculated degree of danger.
  • the vehicle 100 is an example of a "moving body.”
  • the information processing device 10 can change the frame rate of the camera 302 depending on the degree of danger related to the movement of the vehicle 100.
  • the sensor is an example of a "detection unit,” and the sensor information is an example of "detection information.”
  • the MoPU 12 increases the frame rate of the camera 302 as the calculated risk level increases.
  • the MoPU 12 changes the frame rate of the camera 302 to 120 frames/second.
  • the MoPU 12 changes the frame rate of the camera 302 to one of 240, 480, or 960 frames/second.
  • the MoPU 12 changes the frame rate of the camera 302 to 1920 frames/second.
  • the MoPU 12 may output a control signal to the radar 32 and the infrared camera 34 so as to obtain a radar signal and capture an infrared image at a numerical value corresponding to the frame rate, in addition to causing the camera 302 to capture an image at the selected frame rate (causing the camera 302 to capture an image at the selected frame rate) when the risk level is one of the above.
  • the MoPU 12 changes the frame rate of the camera 302 to one of 240, 480, or 960 frames/sec.
  • the MoPU 12 changes the frame rate of the camera 302 to 120 frames/sec.
  • the MoPU 12 changes the frame rate of the camera 302 to 120 frames/sec.
  • a control signal may be output to the radar 32 and the infrared camera 34 so as to acquire a radar signal and capture an infrared image with a value corresponding to the changed frame rate of the camera 302 (acquiring a radar signal with a value corresponding to the changed frame rate of the camera 302 and capturing an infrared image).
  • MoPU12 may also calculate the risk level using big data related to driving that is known before the vehicle 100 starts driving, such as long-tail incident AI (Artificial Intelligence) DATA (e.g., trip data of a vehicle equipped with a level 5 autonomous driving control system) or map information, as information for predicting the risk level.
  • big data related to driving such as long-tail incident AI (Artificial Intelligence) DATA (e.g., trip data of a vehicle equipped with a level 5 autonomous driving control system) or map information, as information for predicting the risk level.
  • the degree of danger is calculated as a score related to the external environment, but the index that becomes the score related to the external environment is not limited to the degree of danger.
  • MoPU12 may calculate a score related to the external environment other than the degree of danger based on the moving direction or speed of an object captured by the camera 302, and change the frame rate of the camera 302 according to the score.
  • MoPU12 calculates a speed score that is a score related to the speed of an object captured by the camera 302, and changes the frame rate of the camera 302 according to the speed score.
  • the speed score is set to be higher as the speed of the object is faster and lower as the speed of the object is slower.
  • MoPU12 increases the frame rate of the camera 302 as the calculated speed score is higher, and decreases the frame rate of the camera 302 as the calculated speed score is lower. For this reason, when the calculated speed score is equal to or higher than a threshold value because the speed of the object is fast, MoPU12 changes the frame rate of the camera 302 to 1920 frames/second. Furthermore, if the speed score calculated is less than the threshold because the object is moving slowly, the MoPU 12 changes the frame rate of the camera 302 to 120 frames/second.
  • a control signal may be output to the radar 32 and the infrared camera 34 so that the radar signal is acquired and the infrared image is captured at a value corresponding to the changed frame rate of the camera 302 (the radar signal is acquired and the image is captured to obtain an infrared image at a value corresponding to the changed frame rate of the camera 302).
  • MoPU12 calculates a direction score, which is a score related to the moving direction of an object captured by camera 302, and changes the frame rate of camera 302 according to the direction score.
  • the direction score is set to be higher when the moving direction of the object is toward the road and lower when the moving direction is away from the road.
  • MoPU12 increases the frame rate of camera 302 as the calculated direction score increases, and decreases the frame rate of camera 302 as the calculated direction score decreases.
  • MoPU12 identifies the moving direction of the object by using AI or the like, and calculates the direction score based on the identified moving direction.
  • MoPU12 changes the frame rate of camera 302 to 1920 frames/second.
  • MoPU12 changes the frame rate of camera 302 to 120 frames/second.
  • a control signal may be output to the radar 32 and the infrared camera 34 so as to acquire a radar signal and capture an infrared image with a value corresponding to the changed frame rate of the camera 302 (acquiring a radar signal with a value corresponding to the changed frame rate of the camera 302 and capturing an infrared image).
  • MoPU12 may output point information only for objects whose calculated score related to the external environment is equal to or greater than a predetermined threshold. In this case, for example, MoPU12 may determine whether or not to output point information for an object captured by the camera 302 depending on the moving direction or the location of the object. For example, MoPU12 may not output point information for an object that has a low impact on the running of the vehicle 100. Specifically, MoPU12 calculates the moving direction of an object captured by the camera 302, and does not output point information for an object such as a pedestrian moving away from the road.
  • MoPU12 outputs point information for an object approaching the road (for example, an object such as a pedestrian that is about to run out onto the road) or an object that exists within the road (for example, an object such as a pedestrian or bicycle crossing a crosswalk provided on the road).
  • an object approaching the road for example, an object such as a pedestrian that is about to run out onto the road
  • an object that exists within the road for example, an object such as a pedestrian or bicycle crossing a crosswalk provided on the road.
  • the MoPU 12 when an object is present on the road on which the vehicle 100 is traveling, the MoPU 12 outputs point information about the object; however, the disclosed technology is not limited to this aspect. For example, even if an object is present on the road on which the vehicle 100 is traveling, the MoPU 12 may stop outputting point information about the object if it is determined that the object is unlikely to come into contact with the vehicle 100.
  • a road is an example of a "path.”
  • MoPU 12 determines that there is a low possibility that an object will come into contact with vehicle 100 if there is no object on the travel route of vehicle 100 on the road and the object is moving away from the travel route.
  • a situation in which there is no object on the travel route of vehicle 100 on a road is exemplified by a case in which an object is located in a lane different from the lane in which vehicle 100 is traveling on a multi-lane road.
  • an example of an object moving away from the travel route of vehicle 100 is a case in which an object is moving in a direction away from the lane in which vehicle 100 is traveling on a multi-lane road.
  • the above configuration reduces the processing load on the MoPU 12 and the amount of data output to the Central Brain 15, compared to when point information about an object is always output when an object is present on the road on which the vehicle 100 is traveling.
  • MoPU12 calculates the risk level
  • Central Brain15 may calculate the risk level.
  • Central Brain15 calculates the risk level for the movement of vehicle 100 as a score for the external environment for vehicle 100 based on sensor information collected from multiple types of sensors and point information output from MoPU12. Then, Central Brain15 outputs an instruction to MoPU12 to change the frame rate of camera 302 according to the calculated risk level.
  • the MoPU 12 outputs point information based on an image captured by the camera 302 (an image obtained by the camera 302 capturing images), but the disclosed technology is not limited to this embodiment.
  • the MoPU 12 may output point information based on a radar signal and an infrared image instead of an image captured by the camera 302 (an image obtained by the camera 302 capturing images).
  • the MoPU 12 can derive the x-coordinate value and the y-coordinate value of an object from the infrared image of the object captured by the infrared camera 34 in the same way as the image captured by the camera 302 (an image obtained by the camera 302 capturing images).
  • the radar 32 can acquire three-dimensional point cloud data of an object based on a radar signal.
  • the radar 32 can detect the coordinate of the z-axis in the above three-dimensional orthogonal coordinate system.
  • the z-axis is an axis along the depth direction of the object and the traveling direction of the vehicle 100, and the coordinate value of the z-axis will be referred to as the "z-coordinate value" below.
  • the MoPU 12 utilizes the principle of a stereo camera to combine the x- and y-coordinate values of the object photographed by the infrared camera 34 at the same timing as the radar 32 acquires the three-dimensional point cloud data of the object with the z-coordinate value of the object indicated by the three-dimensional point cloud data, and derives the coordinate values of the three coordinate axes (x-axis, y-axis, and z-axis) of the object as point information. The MoPU 12 then outputs the derived point information to the Central Brain 15.
  • the MoPU 12 derives the point information
  • the disclosed technology is not limited to this aspect.
  • the Central Brain 15 may derive the point information instead of the MoPU 12.
  • the Central Brain 15 derives the point information by combining information detected by, for example, the camera 302L, the camera 302R, the radar 32, and the infrared camera 34.
  • the Central Brain 15 derives the coordinate values of the three coordinate axes (x-axis, y-axis, and z-axis) of the object as point information by performing triangulation based on the x-coordinate value and the y-coordinate value of the object photographed by the camera 302L and the x-coordinate value and the y-coordinate value of the object photographed by the camera 302R.
  • the Central Brain 15 controls the automatic driving of the vehicle 100 based on the image and label information output from the IPU 11 and the point information output from the MoPU 12, but the disclosed technology is not limited to this aspect.
  • the Central Brain 15 may control the operation of a robot based on the above information output from the IPU 11 and the MoPU 12.
  • the robot may be a humanoid smart robot that performs work in place of a human.
  • the Central Brain 15 controls the operation of the robot's arms, palms, fingers, feet, etc. based on the above information output from the IPU 11 and the MoPU 12, causing the robot to perform operations such as grasping, grabbing, holding, carrying, moving, carrying, throwing, kicking, and avoiding an object.
  • the IPU 11 and MoPU 12 may be mounted at the positions of the robot's right and left eyes.
  • the right eye may be equipped with an IPU 11 and MoPU 12 for the right eye
  • the left eye may be equipped with an IPU 11 and MoPU 12 for the left eye.
  • the Central Brain 15 may use an image captured by the ultra-high resolution camera on the IPU 11 side as a substitute for the image captured by the camera 302.
  • the image captured by the camera 302 may be when a certain area of the image captured by the camera 302 appears extremely dark or has low contrast, even though the vehicle is traveling outdoors during the day.
  • the Central Brain 15 can continue to control the autonomous driving of the vehicle 100 by using images captured by the ultra-high resolution camera on the IPU 11 side as a substitute for images captured by the camera 302.
  • the Central Brain 15 may execute processing to make the image captured by the camera 302 clear. As such processing, for example, the Central Brain 15 may squirt cleaning fluid and operate the wipers to remove dirt from the windshield.
  • the Central Brain 15 may return to processing so that the image captured by the camera 302 is used to control the autonomous driving of the vehicle 100.
  • the information processing device 10 may acquire from another vehicle 100 an image captured by the camera 302 of that vehicle 100.
  • the information processing device 10 may also acquire from the other vehicle 100 position information contained in point information output from the MoPU 12 of that vehicle 100.
  • the other vehicle 100 from which the image and position information are acquired is, for example, located in the vicinity of the vehicle 100 and traveling in the same direction as the vehicle 100.
  • the MoPU 12 When the MoPU 12 acquires from another vehicle 100 an image captured by the camera 302 of that vehicle 100 (other device image) and location information included in the point information output from the MoPU 12 of that vehicle 100, the MoPU 12 compares the image captured by the camera 302 of the vehicle 100 (own device image) with the other device image, and extracts a range common to both images. The MoPU 12 may then use the image of the extracted range and the location information acquired from the other vehicle 100 to acquire location information included in the point information of the own device image.
  • MoPU12 extracts the area common to both images using any method. For example, MoPU12 may detect the presence of subjects (humans, objects, etc.) common to both images and use the detection results to extract the area common to both images.
  • MoPU12 may detect the presence of subjects (humans, objects, etc.) common to both images and use the detection results to extract the area common to both images.
  • MoPU 12 may also synchronize frames of its own device's image with frames of other device's image, taking into account the transmission times of images and location information from other vehicles 100. By MoPU 12 synchronizing frames of its own device's image with frames of other device's image, it becomes possible to extract a common area using two images captured at the same time. By becoming possible to extract a common area using two images captured at the same time, MoPU 12 can accurately acquire location information included in the point information of its own device's image.
  • the image and position information may be obtained not from another vehicle 100 but from a device having a configuration similar to that shown in FIG. 2, for example, from a robot located in the vicinity of the robot.
  • the information processing apparatus 10 according to the third embodiment has the same configuration as that of the first embodiment shown in FIG.
  • the MoPU12 outputs, as point information, multiple coordinate values that are coordinate values indicating the positions of at least two diagonal vertices of a polygon that encloses the contour of an object recognized from an image captured by a separate camera (an image obtained by capturing an image by a separate camera).
  • the coordinate values indicated by each of the multiple coordinate values are the x and y coordinate values of the object in the above-mentioned three-dimensional orthogonal coordinate system, as in the first embodiment.
  • the multiple coordinate values are an example of "second coordinate values".
  • FIG. 4 is an explanatory diagram showing an example of point information output by MoPU 12 according to the third embodiment.
  • bounding boxes 21, 22, 23, and 24 that surround the contours of four objects included in an image captured by a separate camera (an image obtained by capturing an image using a separate camera) are shown.
  • FIG. 4 also shows an example in which MoPU 12 outputs, as multiple coordinate values, the coordinate values of two diagonal points of the vertices of the rectangular bounding boxes 21, 22, 23, and 24 that surround the contours of the objects. In this way, MoPU 12 may capture objects not as points but as objects of a certain size.
  • MoPU12 may output, as multiple coordinate values, the coordinate values of multiple vertices of a polygon surrounding the contour of the object recognized from an image captured by a separate camera (an image obtained by capturing an image by a separate camera), rather than the coordinate values of two diagonal points of the vertices of the polygon surrounding the contour of the object.
  • MoPU12 may output, as multiple coordinate values, the coordinate values of all four vertices of bounding boxes 21, 22, 23, and 24 that surround the contour of the object in a rectangular shape.
  • MoPU12 may output, as point information, a single coordinate value indicating the location of the center point or center of gravity of the object on at least two coordinate axes (e.g., the x-axis and y-axis) constituting the above-mentioned three-dimensional orthogonal coordinate system, or the above-mentioned multiple coordinate values, by switching between them at a predetermined timing, from an image of the object captured by a separate camera.
  • the single coordinate value is an example of a "first coordinate value.”
  • MoPU12 switches the coordinate values to be output as point information from single coordinate values to multiple coordinate values.
  • IPU11 is unable to identify the type of photographed object and is unable to output label information to Central Brain15
  • MoPU12 outputs instruction information to MoPU12 to switch the coordinate values to be output as point information.
  • MoPU12 acquires the instruction information, it determines that IPU11 is unable to identify the photographed object and switches the coordinate values to be output as point information from single coordinate values to multiple coordinate values.
  • the coordinate values output as point information can be switched to multiple coordinate values, allowing MoPU12 to take on the role of determining the size of the object instead of IPU11.
  • the MoPU12 switches the coordinate values output as point information from multiple coordinate values to single coordinate values.
  • MoPU12 calculates a speed score, which is a score related to the speed of an object captured by another camera. As an example, the speed score is set to be higher the faster the object's moving speed is, and lower the slower it is. If the object's moving speed is equal to or lower than a predetermined threshold and the calculated speed score falls below the threshold, MoPU12 switches the coordinate values to be output as point information from multiple coordinate values to single coordinate values.
  • MoPU12 also calculates a direction score, which is a score related to the moving direction of an object captured by another camera.
  • the direction score is set to be high if the object is moving toward the road and low if the object is moving away from the road. If the direction score calculated is less than the threshold because the object is moving away from the road, which is a specified direction, MoPU12 switches the coordinate value output as point information from multiple coordinate values to single coordinate values.
  • the above configuration allows the amount of data output to the Central Brain 15 to be reduced while reducing the processing load on the MoPU 12 by switching the coordinate values output as point information to single coordinate values when the degree of danger, which indicates the degree to which the vehicle 100 will be traveling in a dangerous location in the future, is low.
  • the information processing apparatus 10 according to the fourth embodiment has the same configuration as that of the first embodiment shown in FIG.
  • the vehicle 100 on which the information processing device 10 according to the fourth embodiment is mounted is equipped with sensors consisting of at least one of radar, LiDAR, high-pixel, telephoto, ultra-wide-angle, 360-degree, high-performance cameras, vision sensors, sound sensors, ultrasonic sensors, vibration sensors, infrared sensors, ultraviolet sensors, radio wave sensors, temperature sensors, and humidity sensors.
  • sensors consisting of at least one of radar, LiDAR, high-pixel, telephoto, ultra-wide-angle, 360-degree, high-performance cameras, vision sensors, sound sensors, ultrasonic sensors, vibration sensors, infrared sensors, ultraviolet sensors, radio wave sensors, temperature sensors, and humidity sensors.
  • Examples of sensor information that the information processing device 10 receives from the sensors include shifts in the center of gravity of the body weight, detection of the road material, detection of the outside air temperature, detection of the outside air humidity, detection of the up, down, side, and diagonal inclination angle of a slope, how the road is frozen, detection of the amount of moisture, the material of each tire, wear status, detection of air pressure, road width, whether or not overtaking is prohibited, oncoming vehicles, vehicle type information of the front and rear vehicles, the cruising status of those vehicles, and surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, fires, wind, typhoons, heavy rain, light rain, blizzards, fog, etc.).
  • the sensors are an example of a "detection unit,” and the sensor information is an example of "detection information.”
  • the Central Brain 15 calculates control variables for controlling the autonomous driving of the vehicle 100 based on sensor information detected by the sensors.
  • the Central Brain 15 acquires sensor information every billionth of a second.
  • the Central Brain 15 calculates control variables for controlling the wheel speed, inclination, and suspension supporting the wheels of each of the four wheels of the vehicle 100.
  • the inclination of the wheels includes both the inclination of the wheels relative to an axis horizontal to the road and the inclination of the wheels relative to an axis perpendicular to the road.
  • the Central Brain 15 calculates a total of 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels relative to an axis horizontal to the road, the inclination of each of the four wheels relative to an axis perpendicular to the road, and the suspension supporting each of the four wheels.
  • the Central Brain 15 controls the automatic driving of the vehicle 100 based on the control variables calculated above, the point information output from the MoPU 12, and the label information output from the IPU 11. Specifically, the Central Brain 15 controls the in-wheel motors mounted on each of the four wheels based on the above 16 control variables, thereby controlling the wheel speed, inclination, and suspension supporting each of the four wheels of the vehicle 100 to perform automatic driving. In addition, the Central Brain 15 recognizes the position and movement of recognized objects existing around the vehicle 100 based on the point information and label information, and controls the automatic driving of the vehicle 100 based on this recognized information, for example, to avoid collision with the object.
  • the Central Brain 15 controls the automatic driving of the vehicle 100, so that, for example, when the vehicle 100 is traveling along a mountain road, it can perform optimal steering for that mountain road, and when the vehicle 100 is parked in a parking lot, it can drive at an optimal angle for that parking lot.
  • the Central Brain 15 may be capable of inferring control variables from the above sensor information and information obtainable via a network from a server (not shown) or the like, using machine learning, more specifically, deep learning.
  • the Central Brain 15 may be configured with AI.
  • the Central Brain 15 can obtain control variables by performing multivariate analysis using the integral method as shown in the following formula (1) (see, for example, formula (2)) using the computational power of the above sensor information and long-tail incident AI data every billionth of a second (hereinafter also referred to as "Level 6 computational power") used to realize Level 6. More specifically, while obtaining the integral value of the delta values of various Ultra High Resolutions using the Level 6 computational power, each control variable is obtained at the edge level and in real time, and the result (i.e., each control variable) occurring in the next billionth of a second can be obtained with the highest probability theory.
  • formula (1) see, for example, formula (2)
  • Level 6 computational power the computational power of the above sensor information and long-tail incident AI data every billionth of a second
  • an integral value obtained by time integrating delta values (e.g., small time change values) of a function that can identify each variable (e.g., the above sensor information and information obtainable via a network) such as air resistance, road resistance, road elements (e.g., debris), and slip coefficient is input to the deep learning model of Central Brain 15 (e.g., a trained model obtained by performing deep learning on a neural network).
  • the deep learning model of Central Brain 15 outputs a control variable (e.g., a control variable with the highest confidence (i.e., evaluation value)) corresponding to the input integral value.
  • the control variable is output in units of one billionth of a second.
  • f(A) is a formula in which a function indicating the behavior of each variable, such as air resistance, road resistance, road elements (e.g., garbage), and slip coefficient, is simplified and expressed.
  • formula (1) is a formula indicating the time integral v of "f(A)" from time a to time b.
  • DL indicates deep learning (e.g., a deep learning model optimized by performing deep learning on a neural network)
  • dA n /dt indicates the delta value of f(A, B, C, D, ..., N)
  • A, B, C, D, ..., N indicate each variable, such as air resistance, road resistance, road elements (e.g., garbage), and slip coefficient
  • f(A, B, C, D, ..., N) indicates a function indicating the behavior of A, B, C, D, ..., N
  • V n indicates a value (control variable) output from a deep learning model optimized by performing deep learning on a neural network.
  • an integral value obtained by time-integrating the delta value of a function is input to the deep learning model of Central Brain 15, this is merely one example.
  • an integral value e.g., a result occurring in the next billionth of a second
  • the delta value of a function indicating the behavior of each variable such as air resistance, road resistance, road elements, and slip coefficient
  • the integral value with the highest confidence i.e., evaluation value
  • an integral value is input to a deep learning model and an integral value is output from a deep learning model
  • values corresponding to A, B, C, D, ..., N are used as example data
  • a value corresponding to at least one control variable e.g., the result that will occur in the next billionth of a second
  • teacher data is performed on a neural network, so that at least one control variable is inferred by an optimized deep learning model.
  • the control variables obtained by the Central Brain 15 can be further refined by increasing the number of Deep Learning rounds. For example, more accurate control variables can be calculated using huge amounts of data such as tires, motor rotation, steering angle, road material, weather, garbage, effects of quadratic deceleration, slippage, loss of balance and how to control steering and speed to regain balance, as well as long-tail incident AI data.
  • Fig. 5 is a block diagram showing an example of the configuration of an information processing device 10 according to the fifth embodiment. Note that Fig. 5 shows only a part of the configuration of the information processing device 10.
  • the visible light image and infrared image of the object captured by the camera 30 are each input to the core 17 at a frame rate of 100 frames/second or more.
  • the camera 30 is configured to include a visible light camera 305A capable of capturing a visible light image of the object and an infrared camera 305B capable of capturing an infrared image of the object.
  • the core 17 then outputs point information to the Central Brain 15 based on at least one of the input visible light image and infrared image.
  • core 17 can identify an object from the visible light image of the object captured by visible light camera 305A, it outputs point information based on the visible light image.
  • core 17 cannot capture an object from the visible light image due to a specified factor, it outputs point information based on the infrared image of the object captured by infrared camera 305B.
  • core 17 detects the heat of the object using infrared camera 305B, and outputs point information of the object based on the infrared image that is the detection result. Note that this is not limited to the above, and core 17 may output point information based on a visible light image and an infrared image.
  • MoPU 12 also synchronizes the timing at which visible light images are captured by visible light camera 305A (the visible light camera 305A captures images to obtain visible light images) with the timing at which infrared images are captured by infrared camera 305B (the infrared camera 305B captures images to obtain infrared images). Specifically, MoPU 12 outputs a control signal to camera 30 so that visible light images and infrared images are captured at the same timing (MoPU 12 captures visible light images and infrared images).
  • FIG. 6 is a block diagram showing an example of the configuration of an information processing device 10 according to the sixth embodiment. Note that Fig. 6 shows only a part of the configuration of the information processing device 10.
  • the image of the object captured by the camera 30 and the radar signal based on the reflected wave from the object of the electromagnetic wave irradiated to the object by the radar 32 are input to the core 17 at a frame rate of 100 frames/second or more. Then, the core 17 outputs point information to the Central Brain 15 based on the input image of the object and the radar signal.
  • the core 17 can derive the x-coordinate value and the y-coordinate value of the object from the input image of the object.
  • the radar 32 can acquire three-dimensional point cloud data of the object based on the radar signal and detect the coordinate of the z-axis in the above-mentioned three-dimensional orthogonal coordinate system.
  • the core 17 utilizes the principle of a stereo camera to combine the x-coordinate value and the y-coordinate value of the object captured by the camera 30 at the same timing as the radar 32 acquires the three-dimensional point cloud data of the object, and the z-coordinate value of the object indicated by the three-dimensional point cloud data, to derive the coordinate values of the three coordinate axes (x-axis, y-axis, and z-axis) of the object as point information.
  • the image of the object input to the core 17 may include at least one of a visible light image and an infrared image.
  • MoPU 12 also synchronizes the timing at which the camera 30 captures images (the camera 30 captures images) with the timing at which the radar 32 acquires three-dimensional point cloud data of an object based on a radar signal. Specifically, MoPU 12 outputs control signals to the camera 30 and the radar 32 so that they capture images at the same time and acquire three-dimensional point cloud data of an object. As a result, the number of images captured per second by the camera 30 (the number of images per second obtained by the camera 30 capturing images) and the number of three-dimensional point cloud data per second acquired by the radar 32 are synchronized (e.g., 1920 frames/second).
  • the number of images captured per second by the camera 30 (the number of images per second obtained by the camera 30 capturing images) and the number of three-dimensional point cloud data per second acquired by the radar 32 are greater than the frame rate of the ultra-high resolution camera provided in IPU 11, i.e., the number of images captured per second by the ultra-high resolution camera (the number of images per second obtained by the ultra-high resolution camera capturing images).
  • the information processing apparatus 10 according to the seventh embodiment has the same configuration as that of the first embodiment shown in FIG.
  • the Central Brain 15 associates the point information output from the MoPU 12 with the label information at the same timing as when the IPU 11 outputs the label information. Furthermore, when new point information is output from the MoPU 12 after the point information and the label information are associated, the Central Brain 15 also associates the new point information with the label information.
  • the new point information is point information of the same object as the object indicated by the point information associated with the label information, and is one or more pieces of point information between the time the association is performed and the time the next label information is output.
  • the frame rate of the separate camera incorporating the MoPU 12 is 100 frames/second or more (e.g., 1920 frames/second), and the frame rate of the ultra-high resolution camera incorporating the IPU 11 is 10 frames/second.
  • FIG. 7A is an explanatory diagram showing an example of the correspondence between point information and label information according to the seventh embodiment.
  • the number of point information pieces output per second from the MoPU 12 is referred to as the "output rate of point information”
  • the number of label information pieces output per second from the IPU 11 is referred to as the "output rate of label information.”
  • FIG. 7A shows a time series of the output rate of point information P4 for object B14.
  • the output rate of point information P4 for object B14 is 1920 frames/second. Furthermore, point information P4 moves from right to left in the figure.
  • the output rate of label information for object B14 is 10 frames/second, which is lower than the output rate of point information P4.
  • the timing when the next label information for object B14 is output from IPU11 is time t2. Therefore, at time t2, the Central Brain 15 derives label information "PERSON" for object B14 based on the label information output from IPU11. The Central Brain 15 then associates the label information "PERSON" derived at time t2 with the coordinate values (position information) of point information P4 output from MoPU12 at time t2.
  • the Central Brain15 acquires point information P4 for object B14, but does not acquire label information.
  • the Central Brain15 associates the point information P4 acquired during the period from time t1 to time t2 with the label information "PERSON" associated with the previous time t1 for the point information P4.
  • the point information P4 acquired by the Central Brain15 during the period from time t1 to time t2 is an example of "new point information". In the example shown in FIG.
  • the Central Brain 15 continuously outputs point information for that object at a high frame rate, so there is a low risk of losing track of the coordinate values (position information) of the object. Therefore, once the Central Brain 15 has associated point information with label information, it is possible to presumptively assign the most recent label information to point information acquired before acquiring the next label information.
  • the Central Brain 15 derives the speed and acceleration of the object based on the time series of coordinate values of the point information.
  • the Central Brain 15 also predicts the movement of the object based on the time series of coordinate values of the point information.
  • the prediction of the object's movement may take into account the label information of the object.
  • the label information and coordinate values of the point information that are associated with each other must relate to the same object. In other words, it must be avoided to associate the label information of object A with the coordinate values of the point information of object B, which is different from object A.
  • the following conditions 1 to 3 are conditions for the target object of the label information and the target object of the coordinate values of the point information to be the same object.
  • the relative positional relationship between the high-resolution image output from the IPU 11 (hereinafter referred to as the IPU image) and the image captured by the camera equipped with the MoPU 12 (hereinafter referred to as the MoPU image) can be specified from the installation positions (difference in angle of view) of the camera equipped with the IPU 11 and the camera equipped with the MoPU 12.
  • the positional relationship between an object shown in the IPU image and an object shown in the MoPU image is consistent, there is a possibility that the two objects are the same. Therefore, the first condition for the two objects being the same is that the positional relationship between an object shown in the IPU image and an object shown in the MoPU image is consistent.
  • the positional relationship is consistent means that the objects shown in both images can be considered to be in the same position when the difference in angle of view between the IPU image and the MoPU image is taken into consideration.
  • the MoPU image has a low resolution
  • the contour of the object can be recognized. If the contour of the object in the IPU image matches the contour of the object in the MoPU image, the two objects may be the same. Therefore, the contour of the object in the IPU image matches the contour of the object in the MoPU image, which is condition 2 for the two objects to be the same.
  • Contours match means that the similarity between the contour of the object in the IPU image and the contour of the object in the MoPU image is equal to or higher than a certain level.
  • the contour of the object in the MoPU image and the contour of the object in the IPU image are superimposed while taking into account the positional deviation, if the rate at which the positions of the contours of the object in both images match is equal to or higher than a predetermined threshold, it may be determined that the similarity between the contours of the object in both images is equal to or higher than a certain level.
  • FIG. 7B is a flowchart showing an example of the flow of the process of associating point information with label information, which is performed by the Central Brain 15 according to the seventh embodiment.
  • step S1 the Central Brain 15 extracts objects that satisfy condition 1, i.e., objects whose positional relationship is consistent, from among the objects appearing in the IPU image and the MoPU image.
  • step S2 the Central Brain 15 further extracts objects that satisfy condition 2, i.e., objects whose contours are consistent, from among the objects appearing in the IPU image and the MoPU image that satisfy condition 1.
  • step S3 the Central Brain 15 further extracts objects that satisfy condition 3, i.e., objects whose object types are consistent, from among the objects appearing in the IPU image and the MoPU image that satisfy both conditions 1 and 2.
  • step S4 the Central Brain 15 associates the coordinate values of the point information with the label information for the objects extracted in step S3, i.e., objects that satisfy all of conditions 1 to 3.
  • condition 3 matching of label information
  • a reliability of the identity of the objects may be derived based on the number of satisfied conditions, and this reliability may be used for vehicle control. For example, when all of conditions 1 to 3 are satisfied, vehicle control may be performed according to the object.
  • an eighth embodiment according to the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
  • the eighth embodiment provides a vehicle 100 having a cooling function for the information processing device 10.
  • FIG. 8 is an explanatory diagram showing a schematic configuration of a vehicle 100 according to an eighth embodiment. As shown in FIG. 8, the vehicle 100 is equipped with an information processing device 10, a cooling execution device 110, and a cooling unit 120.
  • the information processing device 10 is a device that controls the automatic driving of the vehicle 100, and has, as an example, the same configuration as that of the first embodiment shown in FIG. 2.
  • the cooling execution device 110 acquires the object detection result by the information processing device 10, and causes the cooling unit 120 to cool the information processing device 10 based on the detection result.
  • the cooling unit 120 cools the information processing device 10 using at least one cooling means such as air cooling means, water cooling means, and liquid nitrogen cooling means.
  • the object to be cooled in the information processing device 10 is described as the Central Brain 15 (more specifically, the CPU 14 constituting the Central Brain 15) that controls the automatic driving of the vehicle 100, but is not limited thereto.
  • the information processing device 10 and the cooling execution device 110 are connected to each other so as to be able to communicate with each other via a network (not shown).
  • the network may be any of a vehicle network, the Internet, a LAN (Local Area Network), and a mobile communication network.
  • the mobile communication network may conform to any of the following communication methods: 5G (5th Generation) communication method, LTE (Long Term Evolution) communication method, 3G (3rd Generation) communication method, and 6G (6th Generation) communication method or later.
  • FIG. 9 is a block diagram showing an example of the functional configuration of a cooling execution device 110 according to the eighth embodiment.
  • the cooling execution device 110 has, as its functional configuration, an acquisition unit 112, an execution unit 114, and a prediction unit 116.
  • the acquisition unit 112 acquires the object detection result by the information processing device 10. For example, as the detection result, the acquisition unit 112 acquires point information of the object output from the MoPU 12.
  • the execution unit 114 executes cooling of the Central Brain 15 based on the object detection result acquired by the acquisition unit 112. For example, when the execution unit 114 recognizes that an object is moving based on the point information of the object output from the MoPU 12, it starts cooling of the Central Brain 15 by the cooling unit 120.
  • the execution unit 114 is not limited to executing cooling of the Central Brain 15 based on the result of object detection, but may also execute cooling of the Central Brain 15 based on the result of prediction of the operating status of the information processing device 10.
  • the prediction unit 116 predicts the operating status of the information processing device 10, specifically, the Central Brain 15, based on the object detection result acquired by the acquisition unit 112. For example, the prediction unit 116 acquires a learning model stored in a specified storage area. Then, the prediction unit 116 predicts the operating status of the Central Brain 15 by inputting the point information of the object output from the MoPU 12 acquired by the acquisition unit 112 into the learning model. Here, the learning model outputs the status and amount of change of the computing power of the Central Brain 15 as the operating status. In addition, the prediction unit 116 may predict and output the temperature change of the information processing device 10, specifically, the Central Brain 15, together with the operating status.
  • the prediction unit 116 predicts the temperature change of the Central Brain 15 based on the number of point information of the object output from the MoPU 12 acquired by the acquisition unit 112. In this case, the prediction unit 116 predicts that the temperature change will be greater as the number of point information pieces increases, and predicts that the temperature change will be smaller as the number of point information pieces decreases.
  • the execution unit 114 starts cooling the Central Brain 15 by the cooling unit 120 based on the prediction result of the operation status of the Central Brain 15 by the prediction unit 116. For example, the execution unit 114 starts cooling by the cooling unit 120 when the state and amount of change of the computing power of the Central Brain 15 predicted as the operation status exceeds a predetermined threshold. In addition, the execution unit 114 starts cooling by the cooling unit 120 when the temperature based on the temperature change of the Central Brain 15 predicted as the operation status exceeds a predetermined threshold.
  • the execution unit 114 may also cause the cooling unit 120 to perform cooling using a cooling means according to the prediction result of the temperature change of the Central Brain 15 by the prediction unit 116. For example, the higher the predicted temperature of the Central Brain 15, the more cooling means the execution unit 114 may cause the cooling unit 120 to perform cooling. As a specific example, when it is predicted that the temperature of the Central Brain 15 will exceed a first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using one cooling means. On the other hand, when it is predicted that the temperature of the Central Brain 15 will exceed a second threshold that is higher than the first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using multiple cooling means.
  • the execution unit 114 may use a more powerful cooling means to cool the Central Brain 15 as the predicted temperature of the Central Brain 15 increases. For example, when the execution unit 114 predicts that the temperature of the Central Brain 15 will exceed a first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using air cooling means. When the execution unit 114 predicts that the temperature of the Central Brain 15 will exceed a second threshold that is higher than the first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using water cooling means. When the execution unit 114 predicts that the temperature of the Central Brain 15 will exceed a third threshold that is higher than the second threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using liquid nitrogen cooling means.
  • the execution unit 114 may determine the cooling means to be used for cooling based on the number of point information of the object output from the MoPU 12 acquired by the acquisition unit 112. In this case, the execution unit 114 may use a more powerful cooling means to cool the Central Brain 15 as the number of point information increases. For example, when the number of point information exceeds a first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using an air cooling means. Also, when the number of point information exceeds a second threshold higher than the first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using a water cooling means. Furthermore, when the number of point information exceeds a third threshold higher than the second threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using a liquid nitrogen cooling means.
  • the Central Brain 15 may be activated when a moving object on the roadway is detected. For example, when a moving object on the roadway is detected while the vehicle 100 is driving autonomously, the Central Brain 15 may perform calculations to control the vehicle 100 with respect to the object. As described above, heat generation when the Central Brain 15, which controls the autonomous driving of the vehicle 100, performs advanced calculations is an issue. Therefore, the cooling execution device 110 according to the eighth embodiment predicts heat dissipation of the Central Brain 15 based on the object detection result by the information processing device 10, and performs cooling of the Central Brain 15 before or simultaneously with the start of heat dissipation. This prevents the Central Brain 15 from becoming too hot during the autonomous driving of the vehicle 100, enabling advanced calculations during the autonomous driving.
  • the MoPU 12 included in the information processing device 10 according to the ninth embodiment derives a z coordinate value of an object as point information from an image of the object captured by a camera.
  • Each aspect of the information processing device 10 according to the ninth embodiment will be described below in order.
  • the information processing device 10 according to the first aspect has the same configuration as that of the second embodiment, as shown in FIG. 3.
  • the MoPU 12 derives the z coordinate value of an object as point information from images of the object captured by multiple cameras 302, specifically, cameras 302L and 302R.
  • the MoPU 12 when one MoPU 12 is used, it is possible to derive the x and y coordinate values of an object as point information.
  • the z coordinate value of an object is derive as point information based on images of the object captured by the camera 302L of MoPU 12L and the camera 302R of MoPU 12R, utilizing the principle of a stereo camera.
  • the information processing device 10 according to the second aspect has the same configuration as that of the second embodiment, as shown in FIG. 3.
  • the MoPU 12 derives the x, y, and z coordinate values of an object as point information from an image of the object captured by the camera 302 and a radar signal based on the electromagnetic waves irradiated by the radar 32 to the object and reflected from the object.
  • the radar 32 is capable of acquiring three-dimensional point cloud data of the object based on the radar signal.
  • the radar 32 is capable of detecting the z-axis coordinate in the above-mentioned three-dimensional orthogonal coordinate system.
  • the MoPU 12 utilizes the principle of a stereo camera to combine the x and y coordinate values of the object captured by the camera 302 at the same timing as the radar 32 acquires the three-dimensional point cloud data of the object with the z-coordinate value of the object indicated by the three-dimensional point cloud data, and derives the coordinate values of the three coordinate axes of the object as point information.
  • FIG. 10 is a first block diagram showing an example of the configuration of the information processing device 10 according to the ninth embodiment. Note that FIG. 10 shows only a portion of the configuration of the information processing device 10.
  • the MoPU 12 derives the z-coordinate value of the object as point information from the image of the object captured by the camera 30 and the result of capturing the structured light irradiated onto the object by the irradiation device 130.
  • an image of an object captured by camera 30 and distortion information indicating distortion of the structured light pattern resulting from camera 140 capturing structured light irradiated onto an object by irradiation device 130 are each input to core 17 at a frame rate of 100 frames/second or more.
  • Core 17 then outputs point information to Central Brain 15 based on the input image of the object and distortion information.
  • one method for identifying the three-dimensional position or shape of an object is the structured light method.
  • the structured light method irradiates an object with structured light patterned in dots, and obtains depth information from the distortion of the pattern.
  • the structured light method is disclosed, for example, in the reference (http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf).
  • the illumination device 130 shown in FIG. 10 illuminates an object with structured light.
  • the camera 140 captures the structured light illuminated onto the object by the illumination device 130.
  • the camera 140 then outputs distortion information based on the distortion of the pattern of the captured structured light to the core 17.
  • MoPU 12 synchronizes the timing at which images are captured by camera 30 (camera 30 captures images) with the timing at which structured light is captured by camera 140. Specifically, MoPU 12 outputs control signals to camera 30 and camera 140 so that they capture images at the same time (capture an object at the same time). This synchronizes the number of images captured per second by camera 30 (the number of images per second obtained by camera 30 capturing images) with the number of images captured per second by camera 140 (the number of images per second obtained by camera 140 capturing images) (e.g., 1920 frames/second).
  • the number of images taken per second by camera 30 (the number of images per second obtained by camera 30 taking images) and the number of images taken per second by camera 140 (the number of images per second obtained by camera 140 taking images) are greater than the frame rate of the ultra-high resolution camera equipped in IPU 11, i.e., the number of images taken per second by the ultra-high resolution camera.
  • the core 17 combines the x- and y-coordinate values of the object photographed by the camera 30 at the same time that the structured light is photographed by the camera 140 with distortion information based on the distortion of the pattern of the structured light to derive the z-coordinate value of the object as point information.
  • FIG. 11 is a second block diagram showing an example of the configuration of the information processing device 10 according to the ninth embodiment. Note that FIG. 11 shows only a portion of the configuration of the information processing device 10.
  • the block diagram shown in FIG. 11 adds a Lidar sensor 18 to the configuration of the block diagram shown in FIG. 2.
  • the Lidar sensor 18 is a sensor that acquires point cloud data including objects existing in three-dimensional space and the road surface on which the vehicle 100 is traveling.
  • the information processing device 10 can derive position information in the depth direction of the object, i.e., the z coordinate value of the object. Note that it is assumed that the point cloud data acquired by the Lidar sensor 18 is acquired at intervals longer than the x coordinate value and y coordinate value of the object output from the MoPU 12.
  • the MoPU 12 also includes a camera 30, as in the third aspect of the ninth embodiment.
  • the MoPU 12 utilizes the principle of a stereo camera to combine the x and y coordinate values of an object photographed by the camera 30 at the same time that the Lidar sensor 18 acquires the point cloud data of the object with the z coordinate value of the object indicated by the point cloud data, and derives the coordinate values of the three coordinate axes of the object as point information.
  • the MoPU12 derives the z coordinate value of the object at time t+1 as point information from the x, y, and z coordinate values of the object at time t and the x and y coordinate values of the object at the next point in time after time t (e.g., time t+1).
  • Time t is an example of a "first point in time”
  • time t+1 is an example of a "second point in time.”
  • the z coordinate value of the object at time t+1 is derived using shape information, i.e., geometry. This will be described in detail below.
  • FIG. 12A is a diagram showing a schematic of coordinate detection of an object over time in the ninth embodiment.
  • J indicates the position of an object represented by a rectangle, and the object's position moves over time from J1 to J2.
  • the coordinate values of the object at time t when the object is located at J1 are (x1, y1, z1), and the coordinate values of the object at time t+1 when the object is located at J2 are (x2, y2, z2).
  • the MoPU 12 derives the x-coordinate value and the y-coordinate value of the object from the image of the object captured by the camera 30.
  • the MoPU 12 integrates the z-coordinate value of the object indicated by the point cloud data acquired from the Lidar sensor 18 with the above-mentioned x-coordinate value and y-coordinate value to derive the three-dimensional coordinate value (x1, y1, z1) of the object at time t.
  • the MoPU 12 derives the z-coordinate value of the object at time t+1 based on the spatial geometry and the changes in the x-coordinate value and the y-coordinate value of the object from time t to time t+1.
  • the spatial geometry includes the shape of the road surface obtained from the images captured by the ultra-high resolution camera provided in the IPU 11 (images obtained by capturing images by the ultra-high resolution camera) and the point cloud data of the Lidar sensor 18, and the shape of the vehicle 100.
  • the geometry that indicates the shape of the road surface is generated in advance at time t.
  • the MoPU 12 can simulate the vehicle 100 traveling on the road surface and estimate the amount of movement on each of the x-axis, y-axis, and z-axis.
  • MoPU 12 derives the x and y coordinate values of the object at time t+1 from the image of the object captured by camera 30.
  • MoPU 12 can derive the z coordinate value of the object at time t+1 by calculating, from a simulation, the amount of movement along the z axis when the object changes from its x and y coordinate values (x1, y1) at time t to its x and y coordinate values (x2, y2) at time t+1.
  • MoPU 12 then combines the x and y coordinate values with the z coordinate value to derive the three-dimensional coordinate value (x2, y2, z2) of the object at time t+1.
  • the MoPU 12 may not be able to obtain the z-coordinate value of the object, which can be derived from the point cloud data of the Lidar sensor 18, as quickly as the x-coordinate value and the y-coordinate value of the object.
  • the MoPU 12 derives the z-coordinate value of the object at time t+1 from the x-coordinate value, y-coordinate value, and z-coordinate value of the object at time t and the x-coordinate value and the y-coordinate value of the object at time t+1.
  • the MoPU 12 can realize two-dimensional motion detection and three-dimensional motion detection by high-speed frame shots with high performance and low data volume.
  • MoPU12 may also derive the z-coordinate value of the object at the next time point according to the priority determined for the label information associated with the point information when multiple pieces of point information are detected.
  • the Central Brain15 associates point information with label information, and a priority is determined for the object indicated by the label information when processing the z-coordinate value.
  • An example of the priority is described below.
  • a high priority (RANK: A) category is set.
  • a low priority (RANK: B) is set.
  • MoPU12 can set the priority according to the presence or absence of the behavior of the object in the label information.
  • the magnitude of the behavior of the object may be obtained from the Central Brain15, and the priority of the object may be updated by weighting the behavior of the object. For example, the priority is updated to increase the weight for objects with large behavior and decrease the weight for objects with small behavior.
  • the rank of priority is not limited to A and B, but may be set in stages according to the type of object, such as A to C or A to D. Further, within the above-mentioned high priority, more detailed priorities may be set. For example, people and vehicles ahead can be considered as objects with a high degree of danger that can lead to a serious accident. Therefore, the high priority rank: A is divided into ranks: A1 and A2, and people and vehicles ahead are set to rank: A1, and animals and obstacles are set to rank: A2. In this way, priorities may be set according to the risk factors of objects. Furthermore, among the vehicles ahead, large trucks and trucks loaded with cargo can be said to be more dangerous than normal vehicles. Therefore, these may be subdivided and identified using label information, and the MoPU 12 may set a higher priority than normal vehicles.
  • the number of objects i.e. the number of label information associated with point information
  • the priority may be applied not only to the case of deriving the z coordinate value of an object as point information in the ninth embodiment, but also to the cases of the first to eighth embodiments described above.
  • the MoPU 12 may derive point information for the next time point according to the priority determined for the label information described above.
  • MoPU12 may also determine the update frequency of the z coordinate value according to the amount of change in the x coordinate value and the y coordinate value, and derive the z coordinate value according to the frequency. For example, when the amount of change in the x coordinate value and the y coordinate value is small, it is assumed that the driving environment is a flat road or a road with good visibility, the speed of the autonomous driving is slow, and the behavior of the autonomous driving is in a state where there is little change. In such a case, it is considered that the object can be sufficiently captured by only acquiring the x coordinate value and the y coordinate value.
  • the frequency of derivation of the z coordinate value is set to a low frequency
  • the frequency of derivation of the z coordinate value is set to a high frequency
  • the update frequency is set for derivation of the z coordinate value.
  • the amount of change in the x coordinate value and the y coordinate value is an example of a "predetermined condition for the image”
  • the update frequency determined according to the amount of change is an example of "each time point that satisfies the predetermined condition”.
  • the point information is said to include x coordinate values and y coordinate values of 100 frames or more per second, but the average of these may be used for each time point. Additionally, the interval between time t and time t+1 can be designed as appropriate.
  • FIG. 12B is a flowchart when the update frequency of the z coordinate value is determined according to the amount of change. It is assumed that at least the three-dimensional coordinate value (x1, y1, z1) at time t, which is the first point in time, and the x coordinate value and y coordinate value at time t+1 have been derived.
  • step S300 MoPU12 obtains the x and y coordinate values at time t and the x and y coordinate values at time t+1.
  • step S302 the MoPU 12 determines whether the amount of change in the x-coordinate value and the y-coordinate value from time t to time t+1 is greater than or equal to a threshold value. If it is greater than or equal to the threshold value, the process proceeds to step S304. If it is less than the threshold value, the process proceeds to step S306.
  • step S304 MoPU12 sets the update frequency of the z coordinate value to a high frequency.
  • step S306 MoPU12 sets the update frequency of the z coordinate value to a low frequency.
  • step S308 the MoPU 12 derives the z coordinate value at that time when it is time to update according to the set frequency. Regardless of the execution of steps S300 to S306, when it is time to update the set frequency, the MoPU 12 executes the process of S308 and derives the z coordinate value.
  • the update frequency setting can be applied when deriving the z coordinate value from an image in the first to fourth aspects described above.
  • MoPU12 may also learn correction information when there is a difference between the estimated z-axis movement amount and the z-coordinate value detected by the Lidar sensor 18. For example, sensor information is collected when the difference between the estimated z-coordinate value and the detected z-coordinate value is equal to or greater than a threshold value, and correction information for estimating the depth of the object is learned from the data.
  • the driving conditions of the vehicle 100 to be corrected are identified from the sensor information, and correction information is learned for the identified driving conditions to be corrected.
  • a method for identifying the driving conditions to be corrected may, for example, involve converting the sensor information into features, and setting the feature items that have a difference from the average feature as learning conditions.
  • the learning method may be any method that can output correction information using sensor information of the driving conditions to be corrected, such as deep learning, as input.
  • the correction information can be learned as an estimation model that outputs a z-coordinate value of a correction candidate when the input driving conditions match the correction target.
  • the accuracy of the z-coordinate value after correction can be verified, and the correction information can be re-learned.
  • FIG. 12C is a flowchart for learning correction information. Note that at each point in time, the z coordinate value, x coordinate value, and y coordinate value at time t are integrated to derive the three-dimensional coordinate value of the object at time t.
  • step S400 the MoPU 12 acquires the estimated z coordinate value for each time and the z coordinate value detected by the Lidar sensor 18.
  • MoPU12 collects sensor information in which the difference between the estimated z coordinate value and the detected z coordinate value is equal to or greater than a threshold value.
  • step S404 the MoPU 12 identifies the driving conditions to be corrected from the collected sensor information.
  • step S406 the MoPU 12 learns the correction information using the sensor information related to the driving conditions to be corrected as learning data.
  • MoPU12 When estimating the z-coordinate value, MoPU12 applies the learned correction information, outputs the z-coordinate value of the correction candidate, and corrects the z-coordinate value.
  • the position of an object can be identified using the correction information.
  • learning the correction information can be applied when deriving the z coordinate value from an image in the first to fourth aspects described above.
  • MoPU12 derives the z coordinate value of an object as point information from an image of the object captured by camera 30, but the disclosed technology is not limited to this form.
  • MoPU12 may derive the z coordinate value of an object as point information.
  • Central Brain15 derives the z coordinate value of an object as point information by performing the processing performed by MoPU12 in the above description on the image of the object captured by camera 30.
  • Central Brain15 derives the z coordinate value of an object as point information from images of the object captured by multiple cameras 302, specifically, cameras 302L and 302R.
  • the Central Brain 15 uses the principle of a stereo camera to derive the z coordinate value of the object as point information based on the images of the object captured by the camera 302L of MoPU 12L and the camera 302R of MoPU 12R, respectively.
  • Fig. 13 is a block diagram showing an example of the configuration of an information processing device 10 according to the tenth embodiment. Note that Fig. 13 shows only a part of the configuration of the information processing device 10.
  • an image of an object captured by the event camera 30C (hereinafter, sometimes referred to as an "event image") is input to the core 17.
  • the core 17 then outputs point information to the Central Brain 15 based on the input event image.
  • the event camera is disclosed, for example, in the reference (https://dendenblog.xyz/event-based-camera/).
  • FIG. 14 is an explanatory diagram for explaining an image of an object (event image) captured by the event camera 30C.
  • FIG. 14A is a diagram showing an object to be captured by the event camera 30C.
  • FIG. 14B is a diagram showing an example of an event image.
  • FIG. 14C is a diagram showing an example of calculation of the center of gravity of the difference between an image captured at the current time (image obtained by capturing at the current time) and an image captured at the previous time (image obtained by capturing at the previous time) represented by the event image, as point information.
  • the difference between the image captured at the current time (image obtained by capturing at the current time) and the image captured at the previous time (image obtained by capturing at the previous time) is extracted as a point. For this reason, when the event camera 30C is used, for example, as shown in FIG. 14B, points of each moving part of the person area shown in FIG. 14A are extracted.
  • the core 17 extracts the person object, and then extracts the coordinates of the feature point (e.g., only one point) that represents the person area. This makes it possible to reduce the amount of data transferred to the Central Brain 15 and memory 16. Since the event image allows the person object to be extracted at any frame rate, in the case of the event camera 30C, extraction can be performed at a frame rate equal to or higher than the maximum frame rate (e.g., 1920 frames/sec) of the camera 30 mounted on the MoPU 12 in the above embodiment, and point information of the object can be captured with high accuracy.
  • the maximum frame rate e.g., 1920 frames/sec
  • the MoPU 12 may be provided with a visible light camera 305A in addition to the event camera 30C, as in the above embodiment.
  • the visible light image and event image of the object captured by the visible light camera 305A are input to the core 17.
  • the core 17 then outputs point information to the Central Brain 15 based on at least one of the input visible light image and event image.
  • the core 17 when the core 17 can identify an object from a visible light image of the object captured by the visible light camera 305A, the core 17 outputs point information based on the visible light image.
  • the core 17 when the core 17 cannot capture an object from the visible light image due to a predetermined factor, the core 17 outputs point information based on the event image.
  • the predetermined factor includes at least one of a case where the moving speed of the object is equal to or greater than a predetermined value and a case where the change in the amount of ambient light per unit time is equal to or greater than a predetermined value.
  • the core 17 identifies the object based on the event image and outputs the x-coordinate value and the y-coordinate value of the object as point information. Also, when the object cannot be captured from the visible light image due to a sudden change in the amount of ambient light such as backlighting, the core 17 identifies the object based on the event image and outputs the x-coordinate value and the y-coordinate value of the object as point information.
  • the information processing device 10 can use different cameras 30 to capture an object depending on the predetermined factor.
  • FIG. 15 is a first block diagram showing an example of the configuration of an information processing device 10 according to the 11th embodiment
  • FIG. 16 is a second block diagram showing an example of the configuration of an information processing device 10 according to the 11th embodiment.
  • an image from a camera mounted on the left side of the vehicle 100 and an image from a camera mounted on the right side of the vehicle 100 may be input to the core 12A of the MoPU 12.
  • Each of these images may be, for example, an image including color information of 1000 pixels by 1000 pixels, and may be input to the core 12A at a frame rate of 1000 frames/second.
  • the core 12A of the MoPU 12 may transfer vector information of the movement along each of the three coordinate axes (x-axis, y-axis, z-axis) in the three-dimensional orthogonal coordinate system to the Central Brain 15 at a frame rate of 1000 frames/second.
  • an image from a camera mounted on the left side of the vehicle 100 and an image from a camera mounted on the right side of the vehicle 100 may be processed using separate cores 12A 1 and 12A 2 , respectively.
  • FIG. 17 is a first block diagram showing an example of the configuration of an information processing device 10 according to the 12th embodiment
  • FIG. 18 is a second block diagram showing an example of the configuration of an information processing device 10 according to the 12th embodiment.
  • MoPU 12 may output motion information based on at least one of a visible light image and an infrared image.
  • the visible light image is an image captured by a visible light camera
  • the infrared image is an image captured by an infrared camera.
  • the visible light image and the infrared image are each input to core 12A at a frame rate of 1000 frames/second or more. It is preferable that the visible light image and the infrared image are synchronized with each other.
  • MoPU 12 may output motion information based only on the infrared image out of the visible light image and the infrared image, or may output motion information based on both the visible light image and the infrared image.
  • MoPU 12 may output motion information based on an image and a radar signal.
  • the radar signal is a signal based on electromagnetic waves irradiated to an object and reflected from the object.
  • MoPU 12 may derive the distance to the object based on the image and the radar signal, and output motion vector information of a point indicating the location of the object along each of three axes in a three-dimensional orthogonal coordinate system as motion information.
  • the image may include at least one of a visible light image and an infrared image.
  • the image and radar signal are input to core 12A at a frame rate of 1000 frames/second or more.
  • the Central Brain 15 performs driving control of the vehicle 100 based on the image output from the IPU 11 and the motion information output from the MoPU 12, but the disclosed technology is not limited to this aspect.
  • the Central Brain 15 may perform motion control of the robot as a response control to the object based on the image output from the IPU 11 and the motion information output from the MoPU 12.
  • the robot may be, for example, a humanoid smart robot that performs work in place of a human.
  • the Central Brain 15 may perform motion control of the robot's arms, palms, fingers, and feet based on the image output from the IPU 11 and the motion information output from the MoPU 12 to grasp, grab, hold, carry, move, carry, throw, kick, avoid, and the like of the object.
  • the IPU 11 and the MoPU 12 may be mounted, for example, at the positions of the right and left eyes of the robot.
  • the thirteenth embodiment is characterized in that the frame rate at which an image is captured is variable.
  • (Information processing device mounted on vehicle 100: Smart Car) 19 is a block diagram of an information processing device 213 according to the thirteenth embodiment, which is mounted on a vehicle 100. As shown in FIG. 19, the information processing device 213 mounted on the vehicle 100 includes a MoPU 12L corresponding to the left eye, a MoPU 12R corresponding to the right eye, an IPU 11, a core 12X, and a Central Brain 15.
  • MoPU12L includes a camera 313L, a radar 32L, an infrared camera 34L, and a dedicated core 12AL.
  • MoPU12R includes a camera 313R, a radar 32R, an infrared camera 34R, and a dedicated core 12AR. Radars 32L and 32R detect the above-mentioned radar signal. Infrared cameras 34L and 34R acquire the above-mentioned infrared images.
  • the IPU11 is equipped with a high-resolution camera (not shown) as described above, detects objects from high-resolution images captured by the high-resolution camera, and outputs information indicating the type of object (hereinafter simply referred to as "label information").
  • the camera 313L of the MoPU 12L captures images at a higher frame rate (120, 240, 480, 960, or 1920 frames/sec) than the high-resolution camera (for example, capturing images at 10 frames/sec) of the IPU 11.
  • the camera 313L is a camera that can change the frame rate.
  • the core 12AL of the MoPU 12L extracts feature points for each frame of image captured by the camera 313L and outputs the coordinate values (X, Y). For example, the MoPU 12L outputs the center point (center of gravity) of the object extracted from the image as the feature point.
  • the feature points may be two diagonal vertices of a rectangle that virtually surrounds the object.
  • MoPU12L outputs the coordinate values (X, Y) of a feature point extracted from one object. Note that, for example, when multiple objects (e.g., object A, object B, and object C) appear in one image, MoPU12L may output the coordinate values (Xn, Yn) of the feature points extracted from each of the multiple objects.
  • the series of feature points in the images captured at each time corresponds to object movement information.
  • MoPU 12L may be unable to identify an object.
  • MoPU 12L may use infrared camera 34L to detect the heat of the object, and output the coordinates (Xn, Yn) of the object based on an infrared image that is the detection result and an image captured by camera 313L.
  • the capture of images by camera 313L and the capture of infrared images by infrared camera 34L may be synchronized. In this case, for example, the number of images captured per second by camera 313L and the number of images captured per second by infrared camera 34L are synchronized (e.g., 1920 frames/second).
  • MoPU12L may also acquire the Z-axis coordinate value of the object based on the three-dimensional point cloud data acquired by radar 32L.
  • the capturing of images by camera 313L and the acquisition of three-dimensional point cloud data by radar 32L may be synchronized.
  • the number of three-dimensional point cloud data acquired per second by radar 32L and the number of images captured per second by camera 313L are synchronized (e.g., 1920 frames/second).
  • the number of images taken per second by the camera 313L, the number of images taken per second by the infrared camera 34L, and the number of 3D point cloud data acquired per second by the radar 32L may be set to be the same, and the timing of data acquisition may be synchronized.
  • Core 12X acquires the coordinates of the feature points output from MoPU 12L and the label information of the object (information indicating whether the object is a dog, a cat, or a bear) output from IPU 11. Core 12X then outputs the label information in association with the coordinates corresponding to the feature points. This makes it possible to associate information about what the object represented by the feature points represents with movement information of the object represented by the feature points.
  • MoPU 12L which corresponds to the left eye.
  • MoPU 12R which corresponds to the right eye, performs the same processing as MoPU 12L, which corresponds to the left eye.
  • the depth coordinate value Zn of the feature point may be further calculated using the principle of a stereo camera based on the image captured by the camera 313L of MoPU12L and the image captured by the camera 313R of MoPU12R.
  • FIG. 20 is a block diagram of an information processing device 310 according to the thirteenth embodiment, which is mounted on a robot.
  • the information processing device 310 mounted on the robot includes a MoPU 12L corresponding to a left eye, a MoPU 12R corresponding to a right eye, an infrared camera 34, a structured light 3613, a core 12X, and a central brain 15.
  • the information processing device 310 mounted on the robot has the same functions as the information processing device 213 mounted on the vehicle 100.
  • the MoPU 12L detects the heat of the object using the infrared camera 34, and outputs the coordinates (Xn, Yn) of the object based on the infrared image that is the detection result and the image captured by the camera 313L.
  • the capture of the image by the camera 313L and the capture of the infrared image by the infrared camera 34 may be synchronized. In this case, for example, the number of images captured per second by the camera 313L and the number of images captured per second by the infrared camera 34 are synchronized (for example, 1920 frames/second).
  • the core 12X may also use structured light 3613 to obtain the depth coordinate Zn of the object.
  • the structured light 3613 is disclosed, for example, in the reference document (http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf).
  • the capturing of images by the cameras 313L and 313R and the measurement of three-dimensional data by the structured light 3613 may be synchronized.
  • the number of images captured per second by the cameras 313L and 313R may be synchronized with the number of three-dimensional data measured per second by the structured light 3613 (for example, 1920 frames/second).
  • both the infrared image captured by the infrared camera 34 and the three-dimensional data measured by the structured light 3613 may be used in combination.
  • the information processing devices 213 and 310 may change the frame rate of the camera depending on the external environment. For example, the information processing devices 213 and 310 calculate a score related to the external environment, and determine the frame rate of the cameras 313L and 313R depending on the score. Then, the information processing devices 213 and 310 output a control signal to the cameras 313L and 313R to instruct them to capture an image at the determined frame rate. The cameras 313L and 313R capture images at the determined frame rate. Then, the information processing devices 213 and 310 extract points indicating the location of an object from the images captured by the cameras 313L and 313R, and output the points indicating the location of the object.
  • the information processing device 213 mounted on the vehicle 100 is equipped with multiple types of sensors (not shown).
  • One or more processors equipped in the information processing device 213 mounted on the vehicle 100 calculate the degree of danger of the vehicle 100 traveling in a dangerous place in the future as a score regarding the external environment based on sensor information (e.g., shift in center of gravity of body weight, detection of road material, detection of outside air temperature, detection of outside air humidity, detection of up, down, side, diagonal inclination angle of a slope, how the road is frozen, detection of moisture amount, material of each tire, wear condition, detection of air pressure, road width, presence or absence of overtaking prohibition, oncoming vehicles, vehicle type information of front and rear vehicles, cruising state of those vehicles, or surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, housework, wind, typhoon, heavy rain, light rain, blizzard, fog, etc.) etc.) acquired from multiple types of sensors (not shown).
  • sensor information e.g., shift in center of gravity of
  • one or more processors included in the information processing device 213 switch the number of images captured per second (frame rate) based on the calculated risk level and a threshold value.
  • one or more processors provided in the information processing device 213 select 120 frames per second, and output control signals to the cameras 313L, 313R, the radars 32L, 32R, and the infrared cameras 34L, 34R to capture images, acquire radar signals, or capture infrared images at that frame rate.
  • one or more processors provided in the information processing device 213 select either 240, 480, or 960 frames per second, and output a control signal to each device to acquire various types of data at that frame rate.
  • one or more processors provided in the information processing device 213 select 1920 frames per second and output a control signal to each device to acquire various types of data at that frame rate.
  • one or more processors included in the information processing device 213 may use big data related to driving that is known before the vehicle 100 starts driving, such as long-tail incident AI (Artificial Intelligence) DATA (e.g., trip data of a vehicle equipped with a level 5 autonomous driving control system) or map information, as information for predicting the level of danger, to predict the level of danger.
  • big data related to driving such as long-tail incident AI (Artificial Intelligence) DATA (e.g., trip data of a vehicle equipped with a level 5 autonomous driving control system) or map information, as information for predicting the level of danger, to predict the level of danger.
  • the one or more processors included in the information processing device 310 mounted on the robot may calculate a score related to the external environment based on, for example, the speed of an object captured by the cameras 313L, 313R, and change the frame rate according to the score. For example, the score related to the external environment is calculated to be higher as the speed of the object increases. For this reason, when the score related to the external environment is high, the one or more processors included in the information processing device 310 mounted on the robot select 1920 frames/second, and output control signals to each device to acquire various data at that frame rate.
  • the one or more processors included in the information processing device 310 mounted on the robot select 120 frames/second, and output control signals to each device to acquire various data at that frame rate.
  • Other controls are the same as those of the information processing device 213 mounted on the vehicle 100 described above.
  • the information processing device 213, 310 may output a point indicating the location of an object when the location of the object in the image is a predetermined area. In this case, the information processing device 213, 310 determines whether or not to output feature points of the object depending on the area in which the object is detected. For example, the core 12AL, 12AR of the information processing device 213 mounted on the vehicle 100 does not extract feature points from objects (e.g., objects existing on the sidewalk) different from the objects detected in the road area on which the vehicle 100 runs.
  • FIG. 21 shows a diagram for explaining a process in which feature points are not extracted from objects existing on the sidewalk, for example.
  • the cores 12AL, 12AR included in the information processing device 213 mounted on the vehicle 100 sequentially detect road boundaries L from images of the area ahead of the vehicle 100 using known technology.
  • the cores 12AL, 12AR included in the information processing device 213 then extract coordinates representing feature points only from objects B1 to B3 located on the road identified by the road boundaries L.
  • the cores 12AL, 12AR provided in the information processing device 213 may extract coordinates representing feature points only from objects B1, B3, and B4, without extracting the object area itself for object B2, which is different from objects B1, B3, and B4 located on the road.
  • the information processing device 213, 310 may calculate a score for each object appearing in the image, and extract a point indicating the location of the object whose score is equal to or greater than a predetermined threshold. In this case, for example, the information processing device 213, 310 may determine whether or not to output feature points of the object according to the movement of the object.
  • the core 12AL, 12AR of the information processing device 213 may not extract feature points from objects that do not affect the running of the vehicle 100.
  • the core 12AL, 12AR of the information processing device 213 calculates the moving direction or speed of the object appearing in the image by using AI, for example.
  • the core 12AL, 12AR of the information processing device 213 does not extract feature points from pedestrians moving away from the road.
  • the core 12AL, 12AR of the information processing device 213 extracts feature points from objects approaching the road (for example, a child about to run out onto the road).
  • the one or more processors included in the information processing device 213 can also extract feature points from images captured by, for example, an event camera (https://dendenblog.xyz/event-based-camera/).
  • Figure 14 shows a diagram for explaining an image captured by an event camera.
  • one or more processors included in the information processing device 213 extract the person object as shown in FIG. 14C, and then extract the coordinates of the feature points (for example, only one point) that represent the person area. This makes it possible to reduce the amount of information transferred to the Central Brain 15 and memory 16. Images captured by the event camera allow the person object to be extracted at any frame rate, so the cameras 313L, 313R mounted on the MoPUs 12L, 12R capture images at a maximum frame rate of 1920 frames/second, but in the case of the event camera, extraction is not limited to 1920 frames/second and can also be performed at a higher frame rate, making it possible to capture object movement information with greater accuracy.
  • the information processing devices 213, 310 of the thirteenth embodiment extract points indicating the location of an object from an image in which the object appears, and output the points indicating the location of the object. This makes it possible to reduce the amount of information transferred to the core 12X, the Central Brain 15, and the memory 16. Furthermore, by associating the points indicating the location of an object with the label information output from the IPU 11, information regarding what kind of object is moving is obtained.
  • the cameras 313L, 313R mounted on the MoPUs 12L, 12R are capable of capturing images at a maximum frame rate of 1920 frames per second, and therefore can capture object movement information with high accuracy.
  • the information processing devices 213, 310 are equipped with cameras 313L, 313R that can change the frame rate, calculate a score related to the external environment, and determine the frame rate of the camera according to the score.
  • the information processing devices 213, 310 then output a control signal to the cameras 313L, 313R to instruct them to capture an image at the determined frame rate, extract a point indicating the location of an object from the image captured by the cameras 313L, 313R, and output the point indicating the location of the object. This makes it possible to capture an image at a frame rate suitable for the external environment.
  • the information processing device 213 calculates the degree of danger regarding the traveling of the vehicle 100 as a score regarding the external environment, determines the frame rate of the cameras 313L, 313R according to the degree of danger, outputs a control signal to the cameras 313L, 313R to instruct them to capture images at the determined frame rate, and extracts points indicating the location of objects from the images captured by the cameras 313L, 313R. This makes it possible to change the frame rate according to the degree of danger regarding the traveling of the vehicle 100.
  • the information processing devices 213 and 310 extract an object from an image, and if the object is located in a specified area, extract a point indicating the object's location and output the point indicating the object's location. This allows the cores 12AL and 12AR of the information processing devices 213 and 310 to avoid acquiring points in areas that are less important for control processing.
  • the information processing devices 213 and 310 extract objects from the image, calculate a score for each object, extract points indicating the location of objects whose scores are equal to or greater than a predetermined threshold, and output the points indicating the location of the objects. This allows the cores 12AL and 12AR of the information processing devices 213 and 310 to avoid obtaining points for objects that are less important for control processing.
  • the fourteenth embodiment is characterized in that the MoPU 12 is provided with a plurality of cameras with different angles of view.
  • FIG. 22 is a block diagram of an information processing device 410 according to the fourteenth embodiment, which is mounted on a vehicle 50 (see Fig. 23).
  • Fig. 23 is a diagram showing the shooting directions and shooting angle ranges of the high-resolution camera 30L and the omnidirectional camera 30R mounted on the vehicle 50.
  • the direction along the arrow H shown in Fig. 23 is the up-down direction of the vehicle 50
  • the direction along the arrow W is the left-right direction of the vehicle 50
  • the direction along the arrow D is the front-rear direction of the vehicle 50.
  • the information processing device 410 mounted on the vehicle 50 includes an IPU 11, an MoPU 12, and a Central Brain 15.
  • the IPU 11 is equipped with a high-resolution camera 30A as described above and a core 11A (e.g., composed of one or more CPUs), detects objects from high-resolution images captured by the camera 30A, and outputs information indicating the type of object.
  • a core 11A e.g., composed of one or more CPUs
  • the MoPU 12 includes a high-resolution camera 30L, an omnidirectional camera 30R, an adjustment unit 40, and a core 12A (e.g., composed of one or more CPUs), and detects objects from images captured by the high-resolution camera 30L and the omnidirectional camera 30R, and outputs motion information indicating the motion of the object.
  • a core 12A e.g., composed of one or more CPUs
  • the high-resolution camera 30L is a camera with a predetermined horizontal angle of view, and has a higher resolution per unit angle of view than the omnidirectional camera 30R.
  • the horizontal angle of view of the high-resolution camera 30L is 45° as an example, but is not limited to this and may be any angle of view.
  • the horizontal angle of view of the high-resolution camera 30L may also be changeable, for example, by a zoom function.
  • the high-resolution camera 30L is an example of a "first camera" in the disclosed technology.
  • Omnidirectional camera 30R is a camera with a horizontal angle of view of 360°.
  • Omnidirectional camera 30R is an example of a "second camera” in the disclosed technology. Note that the "second camera” is not limited to omnidirectional camera 30R, and may be any camera with a horizontal angle of view wider than that of the "first camera", such as a camera with a horizontal angle of view of 270°.
  • the high-resolution camera 30L and the omnidirectional camera 30R are installed on the roof of the vehicle 50.
  • the high-resolution camera 30L is installed so that it can rotate freely around an axis of rotation parallel to the height direction H of the vehicle 50, and the shooting direction can be adjusted in the horizontal direction by an adjustment unit 40 described below.
  • the shooting direction of the high-resolution camera 30L is normally directed forward of the vehicle 50.
  • the high-resolution camera 30L and the omnidirectional camera 30R are installed at different positions in the left-right direction of the vehicle 50.
  • the high-resolution camera 30L is installed relatively to the left, and the omnidirectional camera 30R is installed relatively to the right.
  • the MoPU 12 of this embodiment is capable of calculating the depth coordinate value Z of the feature point using the stereo camera principle based on the image acquired by the high-resolution camera 30L and the image acquired by the omnidirectional camera 30R.
  • the image captured by the omnidirectional camera 30R with the wider angle of view can be trimmed to match the shooting direction and shooting range of the image captured by the high-resolution camera 30L with the narrower angle of view to create a corrected image.
  • the adjustment unit 40 is configured, for example, by a motor, and is configured to rotate the high-resolution camera 30L under the control of the core 12A, thereby adjusting the shooting direction in the horizontal direction.
  • the adjustment unit 40 is configured to adjust the shooting direction of the high-resolution camera 30L in the positive direction (right rotation direction) and negative direction (left rotation direction), with the front of the vehicle 50 being the reference direction (0°) for the shooting direction of the high-resolution camera 30L.
  • the core 12A When the core 12A detects the movement of an object in the blind spot of the high-resolution camera 30L in an image captured by the omnidirectional camera 30R, it controls the adjustment unit 40 to orient the shooting direction of the high-resolution camera 30L toward the detected object.
  • Figure 24 is a diagram showing the relationship between the shooting ranges of the images captured by the omnidirectional camera 30R and the images captured by the high-resolution camera 30L.
  • the image GR captured by the omnidirectional camera 30R has a horizontal angle of view of 360°.
  • the image GR is an image in the range of ⁇ 180°, with the front of the vehicle 50 being the reference direction (0°) of the shooting direction of the high-resolution camera 30L.
  • the image GL captured by the high-resolution camera 30L has a horizontal angle of view of 45°.
  • the shooting direction of the high-resolution camera 30L is normally set to the front of the vehicle 50. Therefore, the image GL under normal circumstances is an image in the range of ⁇ 22.5°, with the front of the vehicle 50 being the reference direction (0°) for the shooting direction of the high-resolution camera 30L.
  • moving object B is present in a direction of -100° with the reference direction (0°) being the direction ahead of the vehicle 50, as shown in Figure 23.
  • moving object B is captured in an image GR acquired by omnidirectional camera 30R at a position corresponding to -100° with the reference direction (0°) being the direction ahead of the vehicle 50, as shown in Figure 24.
  • the core 12A When the core 12A detects a moving object B in the image GR, it determines whether the moving object B is included in the shooting range of the high-resolution camera 30L.
  • the moving object B shown in Figures 23 and 24 is outside the shooting range of the high-resolution camera 30L and is an object in the blind spot of the high-resolution camera 30L.
  • the core 12A controls the adjustment unit 40 so that the horizontal shooting direction of the high-resolution camera 30L is directed toward the center position of the moving object B (-100° direction).
  • the shooting direction of the high-resolution camera 30L can be adjusted so that the moving object B is included in the image GL acquired after the shooting direction is adjusted, and is not limited to being adjusted to match the center position of the moving object B.
  • the shooting direction is adjusted so that the moving object B is captured at the end of the image GL in the direction of rotation, the amount of rotation of the high-resolution camera 30L can be reduced compared to when the moving object B is adjusted to be captured at the center of the image GL.
  • the movement direction of the moving object B in the image GR captured by the omnidirectional camera 30R may be predicted and reflected in the adjustment control of the shooting direction of the high-resolution camera 30L.
  • the adjustment target of the shooting direction of the high-resolution camera 30L may be corrected to an angle whose absolute value is smaller than -100°. This makes it possible to reduce the amount of rotation of the high-resolution camera 30L.
  • the adjustment target of the shooting direction of the high-resolution camera 30L may be corrected to an angle whose absolute value is greater than -100°. This makes it possible to prevent the moving object B from being out of the imaging range of the high-resolution camera 30L after the shooting direction of the high-resolution camera 30L is adjusted.
  • the amount of correction from the adjustment target may be changed according to the moving speed of the moving object B in the image GR acquired by the omnidirectional camera 30R.
  • the faster the moving speed of the moving object B the greater the amount of correction from the adjustment target, and the slower the moving speed of the moving object B, the smaller the amount of correction from the adjustment target. This allows the shooting direction of the high-resolution camera 30L to be adjusted more appropriately.
  • the MoPU 12 when the MoPU 12 detects the movement of an object in the blind spot of the first camera (in this example, the high-resolution camera 30L) in an image captured by the second camera (in this example, the omnidirectional camera 30R), it controls the adjustment unit 40 to orient the shooting direction of the first camera toward the detected object.
  • the first camera in this example, the high-resolution camera 30L
  • the second camera in this example, the omnidirectional camera 30R
  • a wide range of information can be obtained using images captured by the second camera, and when a moving object is detected, the moving object can be detected by combining the images captured by the first camera, improving the accuracy of detecting moving objects.
  • the second camera also has a horizontal angle of view of 360°. This allows information about the entire periphery of the moving object on which the information processing device 410 is mounted to be obtained.
  • the first camera also has a higher resolution per unit angle of view than the second camera. This can further improve the accuracy of detecting moving objects.
  • the adjustment range of the shooting direction in the horizontal direction of the adjustment unit 40 is within ⁇ 135° with respect to the reference direction, preferably within ⁇ 135° or within ⁇ 90°, and if a moving object is located outside the adjustment range, the shooting direction may not be adjusted.
  • the first camera can concentrate on detecting the vicinity of the front, which is of high importance in controlling the movement of the moving body equipped with the information processing device 410, thereby improving tracking of moving objects in the vicinity of the front.
  • MoPU12 may also use the image captured by the first camera and the image captured by the second camera to obtain information on the distance to an object in the image. As described above, even if the image is captured by two cameras with different angles of view, it is possible to obtain information on the distance to an object in the image by utilizing the principle of a stereo camera, and by adopting such an embodiment, the amount of information obtained by MoPU12 can be increased.
  • the fifteenth embodiment is characterized in that the IPU 11 outputs type information indicating the type of object extracted from an image captured by an external camera in association with the position information of the external camera.
  • FIG. 27 is a block diagram of an information processing device 410 according to the fifteenth embodiment, which is mounted on a vehicle 50 (see FIG. 29).
  • the information processing device 410 mounted on the vehicle 50 includes an IPU 11, an MoPU 12, a Central Brain 15, and a navigation system 45.
  • the IPU 11 includes a camera 30A, a core 11A (e.g., composed of one or more CPUs), and an acquisition unit 415, and detects objects (hereinafter referred to as "objects") from images captured by the camera 30A and images captured by an external camera 60 installed outside the vehicle 50, and outputs information indicating the type of object.
  • objects hereinafter referred to as "objects"
  • the acquisition unit 415 acquires images captured by an external camera 60 installed outside the vehicle 50 and location information of the external camera 60, and is composed of, for example, one or more CPUs and a wireless communication unit for wirelessly connecting to an external device.
  • the network may be any network, such as the Internet, a LAN (Local Area Network), or a WAN (Wide Area Network).
  • the MoPU 12 includes a camera 30B and a core 12A (e.g., composed of one or more CPUs), detects objects from images captured by the camera 30B, and outputs motion information indicating the motion of the objects.
  • a camera 30B e.g., composed of one or more CPUs
  • the navigation system 45 is a system for providing travel guidance for the vehicle 50, and may be, for example, a system equivalent to a known car navigation system.
  • the management server 70 that manages multiple external cameras 60A, 60B, and 60C installed outside the vehicle 50.
  • the management server 70 has a camera management database.
  • the camera management database stores a camera ID, an address, and an installation location in association with each other.
  • the camera ID is a unique ID given to each external camera 60.
  • the address is information indicating an address when connecting to each external camera 60 via a network, such as an IP (Internet Protocol) address.
  • IP Internet Protocol
  • the installation location is information indicating the location where each external camera 60 is installed, such as GPS (Global Positioning System) coordinates (e.g., latitude, longitude, etc.).
  • the external camera 60 is, for example, a camera installed on a building along a road, a traffic light, or a median strip.
  • the management server 70 can connect to any external camera 60 by referencing the camera management database.
  • the camera management database can also be referenced by an external device connected to the management server 70.
  • the acquisition unit 415 of the IPU 11 is configured to be able to connect to the management server 70 wirelessly.
  • the acquisition unit 415 connects to the management server 70, and based on the camera management database stored in the management server 70 and the position information and travel direction information of the vehicle 50 acquired from the navigation system 45, identifies the external camera 60 located ahead of the vehicle 50's travel route that is closest to the vehicle 50.
  • the external camera 60 located ahead of the travel route of the vehicle 50 is, as an example, an external camera 60 located in a range of a predetermined width with respect to the central axis of the vehicle body in the fore-and-aft direction at the front of the vehicle body.
  • the external camera 60 located ahead of the travel route of the vehicle 50 is not limited to the above-mentioned embodiment, and may be any external camera 60 located ahead of the travel route of the vehicle 50.
  • the external camera 60 may be located within a predetermined range of the route set by the navigation system 45.
  • the acquisition unit 415 acquires the current image captured by the identified external camera 60 and the position information of the external camera 60.
  • the acquisition unit 415 acquires images from the identified external camera 60 every second until the vehicle 50 passes near the identified external camera 60.
  • the time interval for acquiring images is not limited to every second, and may be any interval, such as every 10 seconds, every 5 seconds, or every 0.1 seconds.
  • the acquisition of images by the acquisition unit 415 is not limited to the above-mentioned manner, and any manner may be used, such as acquiring images every fixed distance traveled by the vehicle 50 until the vehicle 50 passes near the identified external camera 60, or acquiring images only once from the identified external camera 60.
  • the acquisition unit 415 identifies the external camera 60G that is closest to the vehicle 50 among the external cameras 60 located ahead on the travel route of the vehicle 50, and acquires the current image captured by the identified external camera 60G and the position information of the external camera 60G.
  • the current image captured by the identified external camera 60G may be acquired via the management server 70, or may be acquired by connecting directly to the external camera 60G.
  • the core 11A of the IPU 11 outputs type information indicating the type of object extracted from the image captured by the external camera 60 in association with the position information of the external camera 60.
  • FIG. 30 is a diagram showing an example of an image acquired from the external camera 60G. As shown in FIG. 30, two cars and a person are captured in the image GEx acquired from the external camera 60G.
  • the core 11A of the IPU 11 extracts two cars and a person from the image GEx as objects B1 to B3. Next, the core 11A determines the object type for each of the objects B1 to B3. The core 11A then outputs type information indicating the object type for each of the objects B1 to B3 in association with the position information of the external camera 60G, and registers it in the object management database DB.
  • the object management database DB is stored, for example, in the memory 16 (see Figure 2).
  • the core 11A outputs the type information of the object along with identification information (hereinafter referred to as a "caution flag") indicating that the object may affect progress.
  • objects that may affect the progress of the vehicle 50 include, for example, people or animals.
  • the core 11A attaches a caution flag and outputs type information of the object.
  • FIG. 31 is a diagram showing an example of an object management database DB managed in the information processing device 410.
  • the object management database DB stores an object ID, a registration date and time, an object position, an object type, and the presence or absence of a caution flag in association with each other.
  • the object ID is a unique ID assigned to each object detected by the core 11A.
  • the registration date and time is information on the date and time when the object was registered in the object management database DB.
  • the object position is information indicating the position of the external camera 60 that captured the image of the object, and is the position information of the external camera 60 acquired by the acquisition unit 415.
  • the object type is information indicating the type of the object, such as a person, animal, car, motorcycle, bicycle, traffic light, etc.
  • the presence or absence of a caution flag is information indicating whether or not the above-mentioned caution flag has been assigned to the object.
  • the Central Brain 15 performs driving control of the vehicle 50 based on the image and identification information output from the IPU 11 based on the image captured by the camera 30A equipped in the IPU 11, and the movement information output from the MoPU 12 based on the image captured by the camera 30B equipped in the MoPU 12.
  • the Central Brain 15 of this embodiment can refer to the object management database DB to identify in advance objects that are located in front of the vehicle 50 and that may affect the progress of the vehicle 50. This allows for more appropriate driving control of the vehicle 50.
  • the Central Brain 15 can take into consideration the possibility that a person may suddenly appear in the vicinity of the external camera 60G and perform advance control such as slowing down the vehicle 50 before it reaches the vicinity of the external camera 60G or preparing to immediately apply the brakes if a person suddenly appears in the vicinity.
  • the IPU 11 outputs type information indicating the type of object extracted from an image acquired by the external camera 60 in association with the position information of the external camera 60. This allows the Central Brain 15 to execute driving control of the vehicle 50, taking into account images acquired by the external camera 60 installed outside the vehicle 50 on which the information processing device 410 is mounted.
  • the IPU 11 when an object extracted from an image captured by the external camera 60 is an object such as a person or animal that may affect the progress of the vehicle 50, the IPU 11 outputs information on the type of object, along with identification information indicating that the object may affect progress. This allows the Central Brain 15 to execute driving control of the vehicle 50, taking into account objects that may affect progress.
  • the acquisition unit 415 also acquires images and position information from an external camera 60 located ahead of the vehicle 50's travel route. This allows the Central Brain 15 to perform advance control over objects that may affect the vehicle's travel before it reaches the location where the external camera 60 is installed.
  • the acquisition unit 415 also acquires images and position information only from the external camera closest to the vehicle 50 along the route ahead. This makes it possible to reduce the amount of communication data in the acquisition unit 415.
  • the method of identifying the external camera 60 from which the acquisition unit 415 acquires images and position information is not limited to the above, and may be any method.
  • the acquisition unit 415 may identify an external camera 60 located ahead of the travel route of the vehicle 50 based on route information from the navigation system 45 that provides guidance on the travel route of the vehicle 50, and acquire images and position information from the identified external camera 60.
  • the acquisition unit 415 may identify the external cameras 60A, 60B, 60C, 60E, 60F, and 60G installed along the travel route R as the external cameras 60 located ahead of the travel route of the vehicle 50, and acquire images and position information from the identified external cameras 60.
  • the acquisition unit 415 when acquiring images and location information, does not necessarily need to acquire images and location information from all external cameras 60 installed along the travel route R, but may acquire images and location information only from external cameras 60 located within a predetermined distance range from the vehicle 50, for example.
  • the acquisition unit 415 may identify, from among the external cameras 60 installed along the travel route R, those that can capture images of the vehicle 50 while the vehicle 50 is traveling along the travel route R, and acquire images and position information from the identified external cameras 60.
  • images and position information will not be acquired from external cameras 60 that cannot capture images of the vehicle 50, even if the external cameras 60 are installed along the travel route R, and data that cannot be used for travel control will not be acquired, which contributes to reducing the amount of communication data and the amount of processing in the acquisition unit 415.
  • FIG. 34 is a block diagram showing an example of the configuration of an information processing device 10 according to the sixteenth embodiment.
  • the information processing device 10 according to the sixteenth embodiment is provided with only one MoPU 12.
  • the MoPU 12 includes an image capturing unit 3616, which includes a single camera 30 and a moving unit 3816 for moving the camera 30.
  • the moving unit 3816 includes a disk-shaped rotating member 4016, which is disposed so that its axis is approximately parallel to the horizontal direction.
  • the moving unit 3816 also includes an actuator 42 such as a motor, and the rotating member 4016 is rotated around its axis by the actuator 42.
  • the camera 30 is attached to the periphery of the rotating member 4016 so that the imaging optical axis is parallel to the axis of the rotating member 4016.
  • the camera 30 is moved sequentially to a first position P1 and a second position P2 that is a different horizontal position from the first position P1. More specifically, the camera 30 is cyclically moved along a circular path that passes through each of the first position P1 and the second position P2.
  • the moving unit 3816 of the image capturing unit 3616 captures images when the camera 30 is located at the first position P1 and when it is located at the second position P2.
  • MoPU 12 also includes a core 17.
  • a deviation occurs in the two-dimensional position of the object in the first image and the second image compared to when the first image and the second image are taken at the same time.
  • core 17 corrects the deviation in the two-dimensional position of the object in the first image and the second image caused by the difference in shooting time between the first image and the second image.
  • the two-dimensional position (XlA(t1), YlA(t1)) of object A is calculated from a first image taken at a first position P1 at a first time t1
  • the two-dimensional position (XrA(t3), YrA(t3)) of object A is calculated from a second image taken at a second position P2 at a third time t3
  • the two-dimensional position (XlA(t2), YlA(t2)) of object A is calculated from the first image taken at the first position P1 at a second time t2 (t1 ⁇ t2 ⁇ t3).
  • the core 17 matches the first image captured at the first position P1 at the first time t1 with the first image captured at the first position P1 at the second time t2. Based on the matching result, the core 17 also estimates the two-dimensional position of the object A in the virtual first image obtained when an image is captured at the first position P1 at the third time t3, which is the image capture time at the second position P2 (see also the two-dimensional position (XlA(t3), YlA(t3)) shown in FIG. 36B as "estimated two-dimensional position of object A at time t3").
  • the MoPU 12 including the core 17 outputs the estimated two-dimensional position of object A (XlA(t3), YlA(t3)) and the two-dimensional position of object A (XrA(t3), YrA(t3)) to the Central Brain 15 at a period corresponding to the frame rate FR.
  • the Central Brain 15 calculates the three-dimensional position of object A at time t3 (XA(t3), YA(t3), ZA(t3)) from the estimated two-dimensional position of object A (XlA(t3), YlA(t3)) and the two-dimensional position of object A (XrA(t3), YrA(t3)).
  • the two-dimensional position (XlB(t1), YlB(t1)) of object B is calculated from a first image taken at a first position P1 at a first time t1
  • the two-dimensional position (XrB(t3), YrB(t3)) of object B is calculated from a second image taken at a second position P2 at a third time t3
  • the two-dimensional position (XlB(t2), YlB(t2)) of object A is calculated from a first image taken at a first position P1 at a second time t2 (t1 ⁇ t2 ⁇ t3).
  • the core 17 matches the first image captured at the first position P1 at the first time t1 with the first image captured at the first position P1 at the second time t2. Based on the matching result, the core 17 also estimates the two-dimensional position of the object B in the virtual first image obtained when an image is captured at the first position P1 at the third time t3, which is the image capture time at the second position P2 (see also the two-dimensional position (XlB(t3), YlB(t3)) shown in FIG. 36B as "estimated two-dimensional position of object B at time t3").
  • the MoPU 12 including the core 17 outputs the estimated two-dimensional position of object B (XlB(t3), YlB(t3)) and the two-dimensional position of object B (XrB(t3), YrB(t3)) to the Central Brain 15 at a period corresponding to the frame rate FR.
  • the Central Brain 15 calculates the three-dimensional position of object B at time t3 (XB(t3), YB(t3), ZB(t3)) from the estimated two-dimensional position of object B (XlB(t3), YlB(t3)) and the two-dimensional position (XrB(t3), YrB(t3)).
  • the MoPU 12 including the core 17, together with the Central Brain 15 that calculates the three-dimensional position of the object is an example of a processing unit according to the present disclosure.
  • the photographing unit 3616 sequentially moves the camera 30 to the second position P2, which is different from the first position P1 and the first position P2 in at least the horizontal direction, and causes the camera 30 to photograph images at the first position P1 and the second position P2.
  • the processing unit MoPU 12 and Central Brain 15 calculates the three-dimensional positions of the objects shown in the first image and the second image, respectively, based on the first image photographed at the first position P1 and the second image photographed at the second position P2. This eliminates the need to provide multiple cameras 30 when calculating the three-dimensional position of an object, and simplifies the configuration of the information processing device 10.
  • the photographing unit 3616 includes a moving unit 3816 that rotates the rotating member 4016 to which the camera 30 is attached so that the camera 30 moves in a circular manner along a circular path that passes through the first position P1 and the second position P2. This makes the embodiment easier to implement compared to, for example, a configuration in which the camera 30 moves back and forth linearly between the first position P1 and the second position P2.
  • the processing unit (MoPU12) calculates a score related to the external environment and determines the frame rate FR of the camera 30 according to the calculated score, and the movement unit 3816 changes the rotation speed of the rotating member 4016 according to the frame rate FR determined by the processing unit (MoPU12). This makes it possible to continuously change the frame rate FR of the camera 30.
  • the processing unit calculates the three-dimensional position of the object by correcting the deviation of the two-dimensional position of the object in the first image and the second image caused by the difference in the shooting time between the first image and the second image. This improves the accuracy of calculating the three-dimensional position of the object.
  • the processing unit matches a first image taken at the first position P1 at a first time with a first image taken at the first position P1 at a second time, and based on the matching result, estimates the two-dimensional position of the object in the virtual first image obtained when the image is taken at the first position P1 at a third time, which is the time when the image is taken at the second position, thereby correcting the deviation of the two-dimensional position of the object. This makes it possible to improve the calculation accuracy of the three-dimensional position of the object with relatively simple processing.
  • the sequential movement of the camera 30 to the first position P1 and the second position P2 is achieved by rotating the rotating member 4016 to which the camera 30 is attached so that the camera 30 moves circularly along a circular path that passes through the first position P1 and the second position P2.
  • the present disclosure is not limited to this, and the sequential movement of the camera 30 to the first position P1 and the second position P2 may also be achieved, for example, by moving the camera 30 back and forth linearly between the first position P1 and the second position P2.
  • the frame rate FR of the camera 30 is determined according to a score related to the external environment, and the rotation speed of the rotating member 4016 is changed according to the determined frame rate FR, but the present disclosure is not limited to this.
  • the rotation speed of the rotating member 4016 may be constant, and the frame rate FR of the camera 30 may be set to the reciprocal of an integer multiple of the time obtained by dividing the rotation period of the rotating member 4016 by 2.
  • the information processing device 10 according to the seventeenth embodiment has the same configuration as that of the first embodiment, as shown in FIG. 2.
  • the MoPU12 outputs point information in which an object is captured as a point from an image of the object captured by a separate camera, and calculates and outputs motion information indicating the motion of the point from the time series of the point information. Specifically, the MoPU12 calculates the direction of the point motion from the time series of the point information using a Hough transform, and calculates the speed of motion from the change in the point information in the calculated direction of the point motion.
  • the direction of point movement is calculated using a Hough transform as shown in FIG. 38B.
  • the IPU11 outputs identification information that identifies the object captured from an image of the object captured by the ultra-high resolution camera in a shooting direction corresponding to the other camera.
  • the Central Brain 15 associates the motion information output from the MoPU 12 with the identification information output from the IPU 11. As shown in FIG. 37, the Central Brain 15 functionally comprises an acquisition unit 170, a motion detection unit 172, a removal unit 174, and an association unit 176.
  • the acquisition unit 170 acquires the motion information output from the MoPU 12 and the identification information output from the IPU 11.
  • the motion detection unit 172 detects motion information of multiple objects whose motion directions correspond based on the motion information output from the MoPU 12. Specifically, if the angle between the motion directions between the motion information is equal to or less than a threshold value and the number of pieces of motion information of multiple objects whose motion directions correspond is equal to or greater than a threshold value, it determines that motion information of multiple objects whose motion directions correspond has been detected.
  • motion information M1 to M6 of multiple objects with corresponding motion directions is detected.
  • the removal unit 174 removes the movement information of the multiple objects.
  • motion information M7 and M8 are obtained.
  • the matching unit 176 matches the post-removal movement information with the identification information output from the IPU 11, and controls the automatic operation of the moving body based on the matched movement information and identification information.
  • step S100 the acquisition unit 170 acquires the motion information output from the MoPU 12 and the identification information output from the IPU 11.
  • step S102 the motion detection unit 172 detects motion information of multiple objects whose motion directions correspond based on the motion information output from the MoPU 12.
  • step S104 if motion information of multiple objects with corresponding motion directions is detected, the removal unit 174 removes the motion information of the multiple objects.
  • step S106 the association unit 176 associates the post-removal movement information with the identification information output from the IPU 11.
  • the Central Brain 15 when the Central Brain 15 detects motion information of multiple objects whose motion directions correspond to each other, it removes the motion information of the multiple objects and associates the remaining motion information with the identification information.
  • the Central Brain 15 detects motion information of multiple objects whose motion directions correspond to each other, it removes the motion information of the multiple objects and associates the remaining motion information with the identification information.
  • many small objects whose motion directions correspond to each other are detected from the motion information output from the MoPU 12, it is possible to remove the small objects and associate them with the identification information. For example, it is possible to remove noise during rainfall or snowfall from the motion information output from the MoPU 12.
  • the information processing device 10 according to the 18th embodiment has the same configuration as that of the first embodiment, as shown in FIG. 2.
  • the MoPU12 according to the 18th embodiment like the first embodiment, outputs point information that captures an object as a point from an image of the object captured by a separate camera.
  • the MoPU 12 when the MoPU 12 detects a certain number of points whose movement direction is either vertical or vertical and is the same direction, and whose vertical movement amount is within a certain range, based on the point information output from images of multiple frames, the MoPU 12 outputs only points other than the certain number of points detected from among the points included in the point information.
  • the vertical direction here refers to the vertical direction of the image, which is the direction corresponding to the height direction of the vehicle 100.
  • the left-right direction here refers to the left-right direction of the image, which is the direction corresponding to the width direction of the vehicle 100.
  • the certain range in this case may be set in advance as a fixed value, or may be set according to the condition of the road surface.
  • the certain number in this case may be set in advance as a fixed value, or may be set according to the number of points included in the point information, for example, a value of 10% of the number of points included in the point information.
  • Figure 42 shows an example where the point information includes three points Q1, Q2, and Q3 in each of three consecutive frame images.
  • Figure 42 also shows an example where points Q1 and Q2 move in the same vertical direction, and the amount of vertical movement is within a certain range.
  • Figure 42 also shows an example where point Q3 moves in the upper left direction and then in the lower left direction.
  • the MoPU 12 outputs only point Q3 from among the three points Q1, Q2, and Q3 contained in the point information based on the point information output from the images of three consecutive frames. This is because it is estimated that points Q1 and Q2 are actually stationary, but appear to be moving within the image due to the vehicle 100 bouncing due to the influence of the road surface condition, etc.
  • the point information representing the points output by the MoPU 12 is associated with the label information output by the IPU 11 by the Central Brain 15, as in the first embodiment.
  • the MoPU 12 may further output points whose left/right movement amount is equal to or greater than a threshold value from among a certain number or more of detected points.
  • the MoPU 12 can determine whether the vehicle 100 is moving straight or not using known techniques, such as a technique for determining using the steering angle of the vehicle 100, or a technique for determining using the left/right wheel speed ratios of the front and rear wheels.
  • the Central Brain 15 may execute a process executed by the MoPU 12 to output only points other than a certain number of points detected from among the points included in the point information.
  • FIG. 43 is a block diagram showing an example of the configuration of an information processing device 10 according to the 19th embodiment. Note that FIG. 43 shows only a portion of the configuration of the information processing device 10.
  • the information processing device 10 is an example of the "information processing device” and "computer” of the present disclosure.
  • the information processing device 10 is mounted on a plurality of vehicles 200.
  • a first vehicle 200A and a second vehicle 200B are shown as examples of the plurality of vehicles 200.
  • the first vehicle 200A is an example of a "first moving body” in the present disclosure
  • the second vehicle 200B is an example of a "second moving body” in the present disclosure.
  • vehicle 200 when there is no need to distinguish between the first vehicle 200A and the second vehicle 200B, they will be referred to as "vehicles 200".
  • the information processing device 10 includes a Central Brain 15, a communication I/F 202, a first memory 204, and a second memory 206.
  • I/F is an abbreviation for "Interface.”
  • the Central Brain 15 of the information processing device 10 mounted on the first vehicle 200A is used for the first vehicle 200A.
  • the Central Brain 15 of the information processing device 10 mounted on the second vehicle 200B is used for the second vehicle 200B.
  • the Central Brain 15 of the information processing device 10 mounted on the first vehicle 200A is an example of the "first mobile processor" of the present disclosure
  • the Central Brain 15 of the information processing device 10 mounted on the second vehicle 200B is an example of the "second mobile processor" of the present disclosure.
  • the information processing device 10 mounted on the first vehicle 200A will be referred to as the "information processing device 10 of the first vehicle 200A” and the information processing device 10 mounted on the second vehicle 200B will be referred to as the "information processing device 10 of the second vehicle 200B".
  • the Central Brain 15 of the information processing device 10 of the first vehicle 200A will be referred to as the "Central Brain 15 of the first vehicle 200A” and the Central Brain 15 of the information processing device 10 of the second vehicle 200B will be referred to as the "Central Brain 15 of the second vehicle 200B".
  • the communication I/F 202, the first memory 204, and the second memory 206 are connected to the Central Brain 15.
  • the communication I/F 202 is a communication interface including a communication processor and an antenna, etc., and is included in the Gateway shown in FIG. 1.
  • the communication I/F 202 is responsible for communication using the Central Brain 15 between different vehicles 200.
  • the Central Brain 15 of the first vehicle 200A and the Central Brain 15 of the second vehicle 200B transmit and receive various signals via the communication I/F 202 of the first vehicle 200A and the communication I/F 202 of the second vehicle 200B.
  • An example of a communication standard applied to the communication I/F 202 is a wireless communication standard such as Wi-Fi (registered trademark) or 5G (5th Generation Mobile Communication System).
  • First memory 204 is, for example, a non-volatile memory (e.g., a flash memory, etc.).
  • Various programs including program 208 and various parameters, etc. are stored in first memory 204.
  • Program 208 is an example of an "information processing program" of the present disclosure.
  • the second memory 206 is, for example, a volatile memory (such as a RAM (Random Access Memory)).
  • the second memory 206 is a memory in which information is temporarily stored, and is used as a working memory by a processor such as the Central Brain 15.
  • the first vehicle 200A and the second vehicle 200B are driven autonomously under the control of the information processing device 10.
  • the driving of the first vehicle 200A is controlled based on information (e.g., information on the current position and speed) of the second vehicle 200B, which is another vehicle in the vicinity.
  • the second vehicle 200B is also driven autonomously in the same manner, and in this case, the second vehicle 200B recognizes the first vehicle 200A and predicts the movement of the first vehicle 200A to drive autonomously.
  • both the first vehicle 200A and the second vehicle 200B recognize each other and predict each other's movements to perform automatic driving, for example, a case is conceivable in which both the first vehicle 200A and the second vehicle 200B change their course to avoid a head-on collision.
  • changing the course of both the first vehicle 200A and the second vehicle 200B may hinder the travel of surrounding vehicles other than the first vehicle 200A and the second vehicle 200B (for example, a vehicle following the first vehicle 200A and a vehicle following the second vehicle 200B, a vehicle running parallel to the first vehicle 200A and a vehicle running parallel to the second vehicle 200B, etc.).
  • the first vehicle 200A and the second vehicle 200B need only change course due to the automatic driving control of the first vehicle 200A and the second vehicle 200B, but in this case, for example, there is a risk that the sudden course change will cause discomfort to the occupants. Note that the same can be said not only in situations where a head-on collision is to be avoided, but also in situations where contact is to be avoided when changing lanes and/or when traveling in a convoy.
  • the automatic driving control process is performed by the Central Brain 15.
  • the Central Brain 15 performs automatic driving control processing by reading the program 208 from the first memory 204 and executing the read program 208 on the second memory 206.
  • the automatic driving control processing is realized by the Central Brain 15 operating as the first judgment unit 15A, the second judgment unit 15B, the third judgment unit 15C, the setting unit 15D, the inference unit 15E, the adjustment unit 15F, and the driving control unit 15G in accordance with the program 208 executed by the Central Brain 15 on the second memory 206.
  • the priority information 209 is information indicating the priority of the vehicle 200 that is to be given priority for processing by the setting unit 15D among the multiple vehicles 200.
  • the priority indicated by the priority information 209 assigned to the first vehicle 200A is an example of the "first priority” in this disclosure
  • the priority indicated by the priority information 209 assigned to the second vehicle 200B is an example of the "second priority” in this disclosure.
  • the priority information 209 is stored in the first memory 204 of the information processing device 10 of each vehicle 200.
  • FIG. 44 is a conceptual diagram showing an example of the processing contents of the first determination unit 15A, the second determination unit 15B, the third determination unit 15C, and the setting unit 15D of the first vehicle 200A.
  • Label information 210 is input from the IPU 11 to the Central Brain 15 of the first vehicle 200A.
  • the label information 210 is the same as the label information described in the first embodiment above.
  • the label information 210 input to the Central Brain 15 of the first vehicle 200A is an example of the "second moving body information capable of identifying the second moving body" of the present disclosure.
  • the label information 210 input to the Central Brain 15 of the second vehicle 200B is an example of the "first moving body information capable of identifying the first moving body” of the present disclosure.
  • the first determination unit 15A acquires the label information 210 and, by referring to the label information 210, recognizes the type of object (an example of the "first object” in this disclosure) that appears in the first image (hereinafter also simply referred to as the "first image"), which is an image obtained by capturing an image of the surroundings of the first vehicle 200A using the ultra-high resolution camera of the first vehicle 200A. The first determination unit 15A then determines whether the type recognized as the type of object appearing in the first image is the second vehicle 200B.
  • the information processing device 10 of the second vehicle 200B recognizes the type of object (an example of the "second object” in this disclosure) captured in a second image (hereinafter also simply referred to as the "second image"), which is an image obtained by capturing an image of the surroundings of the second vehicle 200B with the ultra-high resolution camera of the second vehicle 200B. Then, it is determined whether the recognized type is the first vehicle 200A.
  • the Central Brain 15 of the first vehicle 200A transmits a request signal 212 to the information processing device 10 of the second vehicle 200B via the communication I/F 202.
  • the request signal 212 is a signal that requests the information processing device 10 of the second vehicle 200B to transmit a response signal 214.
  • the communication I/F 202 of the second vehicle 200B receives the request signal 212 transmitted by the Central Brain 15 of the first vehicle 200A.
  • the Central Brain 15 of the second vehicle 200B transmits a response signal 214 in response to the request signal 212 to the information processing device 10 of the first vehicle 200A via the communication I/F 202 of the second vehicle 200B.
  • the communication I/F 202 of the first vehicle 200A receives the response signal 214.
  • the Central Brain 15 of the first vehicle 200A acquires the response signal 214 received by the communication I/F 202.
  • the response signal 214 includes driving information 214A, recognition information 214B, and control information 214C.
  • the response signal 214 also includes priority information 209 assigned to the second vehicle 200B.
  • the driving information 214A is information indicating whether the second vehicle 200B is in autonomous driving or not.
  • the recognition information 214B is information indicating whether the first vehicle 200A is recognized by the information processing device 10 of the second vehicle 200B.
  • the control information 214C is information that the Central Brain 15 of the second vehicle 200B controls the autonomous driving of the second vehicle 200B.
  • the first determination unit 15A refers to the label information 210 and the driving information 214A to determine whether the type of object recognized as the type of object appearing in the first image is the second vehicle 200B that is autonomously driving.
  • the second determination unit 15B refers to the recognition information 214B and determines whether the information processing device 10 of the second vehicle 200B recognizes the first vehicle 200A.
  • the third determination unit 15C determines whether the priority of the first vehicle 200A is higher than the priority of the second vehicle 200B.
  • the determination by the third determination unit 15C is performed using the priority information 209 included in the response signal 214 and the priority information 209 stored in the first memory 204.
  • the priority information 209 included in the response signal 214 is information assigned to the second vehicle 200B
  • the priority information 209 stored in the first memory 204 is information assigned to the first vehicle 200A.
  • the third determination unit 15C determines whether the rank indicated by the priority information 209 assigned to the first vehicle 200A is higher than the rank indicated by the priority information 209 assigned to the second vehicle 200B.
  • the setting unit 15D sets an identifier 216 indicating that the first vehicle 200A is recognized by the second vehicle 200B.
  • the setting of the identifier 216 is realized by the setting unit 15D storing the identifier 216 in the second memory 206.
  • One example of the identifier 216 is a flag.
  • FIG. 45 is a conceptual diagram showing an example of the processing performed by the inference unit 15E and the driving control unit 15G of the first vehicle 200A when the identifier 216 is not set by the setting unit 15D.
  • the Central Brain 15 controls the automatic driving of the first vehicle 200A based on the sensor information 218, the association information 219, and the unset information 222 in the same manner as described in the first embodiment and the like.
  • the sensor information 218 is the same information as the sensor information described in the first embodiment and the like.
  • the association information 219 is information in which the first point information and the label information 210 are associated in the same manner as described in the first embodiment and the like.
  • the first point information is the same information as the point information described in the first embodiment and the like.
  • the first point information is point information in which an object (an example of the "first object” in this disclosure) contained in the surroundings of the first vehicle 200A is captured as a point based on a third image (hereinafter also simply referred to as the "third image"), which is an image obtained by photographing the surroundings of the first vehicle 200A at a frame rate higher than the frame rate of the photographing performed to obtain the first image.
  • the unset information 222 is information indicating that the identifier 216 has not been set.
  • the Central Brain 15 of the second vehicle 200B also obtains second vehicle side correspondence information (not shown) as information similar to the correspondence information 219.
  • the second vehicle side correspondence information is information in which the second point information obtained in the same manner as the point information described in the first embodiment and the like is associated with information obtained in the same manner as the label information 210.
  • the second point information is point information in which an object (an example of the "second object” in this disclosure) contained in the surroundings of the second vehicle 200B is captured as a point based on a fourth image (hereinafter also simply referred to as the "fourth image"), which is an image obtained by photographing the surroundings of the second vehicle 200B at a frame rate higher than the frame rate of the photographing performed to obtain the second image.
  • the second vehicle side association information is used by the Central Brain 15 of the second vehicle 200B in the same process as the Central Brain 15 of the first vehicle 200A.
  • the Central Brain 15 calculates a first control variable 224 as a control variable for controlling the autonomous driving of the first vehicle 200A based on the sensor information 218 and the association information 219.
  • the first control variable 224 is a variable synonymous with the control variable described in the first embodiment and the like.
  • the first control variable 224 is calculated by the inference unit 15E.
  • the inference unit 15E has a deep learning model 226, and calculates the first control variable 224 using the deep learning model 226.
  • the deep learning model 226 is a trained model obtained by performing deep learning using training data on a neural network.
  • An example of the training data used here is a data set in which example data is associated with correct answer data assuming the first control variable 224.
  • Examples of example data include data obtained in advance by testing an actual machine and/or computer simulation as data assuming the sensor information 218, data obtained in advance by testing an actual machine and/or computer simulation as data assuming the association information 219, and data indicating whether the identifier 216 is set.
  • the inference unit 15E inputs the sensor information 218, the association information 219, and the unset information 222 to the deep learning model 226.
  • the deep learning model 226 outputs a first control variable 224 (e.g., a control variable with the highest degree of certainty) corresponding to the input sensor information 218, the association information 219, and the unset information 222.
  • the first control variable 224 may be calculated using various calculation methods (e.g., multivariate analysis using an integral method) described in the fourth embodiment above.
  • the driving control unit 15G controls the autonomous driving of the first vehicle 200A based on the first control variable 224 calculated by the inference unit 15E in a manner similar to that described in the first embodiment and the like above.
  • FIG. 46 is a conceptual diagram showing an example of the processing performed by the inference unit 15E and the driving control unit 15G of the first vehicle 200A when the identifier 216 is set by the setting unit 15D.
  • the Central Brain 15 controls the autonomous driving of the first vehicle 200A in the same manner as described in the first embodiment, etc., based on the sensor information 218, the association information 219, and the setting information 228.
  • the setting information 228 is information indicating that the identifier 216 has been set.
  • the inference unit 15E inputs the sensor information 218, the association information 219, and the setting information 228 to the deep learning model 226.
  • the deep learning model 226 outputs a first control variable 224 that corresponds to the input sensor information 218, the association information 219, and the setting information 228.
  • the Central Brain 15 controls the autonomous driving of the first vehicle 200A based on the control information 214C (see FIG. 44) acquired from the information processing device 10 of the second vehicle 200B.
  • the adjustment unit 15F acquires the first control variable 224 and the control information 214C.
  • the adjustment unit 15F acquires the control information 214C on the condition that the priority indicated by the priority information 209 assigned to the first vehicle 200A is higher than the priority indicated by the priority information 209 assigned to the second vehicle 200B (in the example shown in FIG. 44, the priority information 209 included in the response signal 214).
  • the adjustment unit 15F acquires the control information 214C from the response signal 214 (see FIG. 44).
  • the adjustment unit 15F generates the second control variable 230 by adjusting the first control variable 224 based on the control information 214C. Since the control information 214C is information that the Central Brain 15 of the second vehicle 200B uses to control the autonomous driving of the second vehicle 200B, the adjustment unit 15F is able to predict the autonomous driving of the second vehicle 200B from the control information 214C, and adjusts the first control variable 224 by reflecting the result of the prediction of the autonomous driving of the second vehicle 200B in the first control variable 224.
  • the second control variable 230 obtained by adjusting the first control variable 224 by the adjustment unit 15F is used by the driving control unit 15G. In other words, the driving control unit 15G controls the autonomous driving of the first vehicle 200A based on the second control variable 230.
  • the driving control unit 15G predicts the behavior of the second vehicle 200B during autonomous driving, and controls the autonomous driving of the first vehicle 200A based on the predicted behavior.
  • the automatic driving of the first vehicle 200A is controlled with control content that can avoid contact between the first vehicle 200A and the second vehicle 200B (here, as an example, a head-on collision). Furthermore, the driving control unit 15G of the first vehicle 200A predicts that the second vehicle 200B, which is automatically driving, will change its course based on the control information 214C. Therefore, the driving control unit 15G of the first vehicle 200A determines that contact between the first vehicle 200A and the second vehicle 200B can be avoided even if the first vehicle 200A is caused to travel straight without changing its course. Then, the driving control unit 15G of the first vehicle 200A controls the automatic driving of the first vehicle 200A so that the first vehicle 200A continues to travel straight.
  • FIGS. 48 to 50 are flowcharts showing an example of the flow of the autonomous driving control process executed by the Central Brain 15 of the first vehicle 200A.
  • the flow of the autonomous driving control process shown in the flowcharts of FIG. 48 to 50 is an example of the "information processing method" of the present disclosure.
  • step ST10 the first judgment unit 15A acquires the label information 210 from the IPU 11. After the process of step ST10 is executed, the automatic driving control process proceeds to step ST12.
  • step ST12 the first judgment unit 15A refers to the label information 210 to judge whether the type of object recognized as the type of object appearing in the first image is the second vehicle 200B. In step ST12, if the type recognized as the type of object appearing in the first image is not the second vehicle 200B, the judgment is negative, and the autonomous driving control process proceeds to step ST34 shown in FIG. 49. In step ST12, if the type recognized as the type of object appearing in the first image is the second vehicle 200B, the judgment is positive, and the autonomous driving control process proceeds to step ST14.
  • step ST14 the Central Brain 15 transmits a request signal 212 to the information processing device 10 of the second vehicle 200B. After the processing of step ST14 is executed, the autonomous driving control processing proceeds to step ST16.
  • step ST16 the Central Brain 15 determines whether or not the response signal 214 has been received by the communication I/F 202. If the response signal 214 has not been received by the communication I/F 202 in step ST16, the determination is negative, and the autonomous driving control process proceeds to step ST18. If the response signal 214 has been received by the communication I/F 202 in step ST16, the determination is positive, and the autonomous driving control process proceeds to step ST20.
  • step ST18 the Central Brain 15 determines whether a predetermined time (e.g., a time determined in advance within a range of several milliseconds to several hundred milliseconds) has elapsed since the processing of step ST16 was executed. If the predetermined time has not elapsed since the processing of step ST16 was executed in step ST18, the determination is negative, and the autonomous driving control processing proceeds to step ST16. If the predetermined time has elapsed since the processing of step ST16 was executed in step ST18, the determination is positive, and the autonomous driving control processing proceeds to step ST34 shown in FIG. 49.
  • a predetermined time e.g., a time determined in advance within a range of several milliseconds to several hundred milliseconds
  • step ST20 the first determination unit 15A acquires the driving information 214A from the response signal 214. After the processing of step ST20 is executed, the automatic driving control processing proceeds to step ST22.
  • step ST22 the first judgment unit 15A refers to the label information 210 and the driving information 214A to judge whether the type of the object recognized as the type of the object in the first image is the second vehicle 200B in autonomous driving.
  • step ST22 if the type of the object recognized as the type of the object in the first image is not the second vehicle 200B in autonomous driving, the judgment is negative, and the autonomous driving control process proceeds to step ST34 shown in FIG. 49.
  • step ST22 if the type of the object recognized as the type of the object in the first image is the second vehicle 200B in autonomous driving, the judgment is positive, and the autonomous driving control process proceeds to step ST24.
  • step ST24 the second determination unit 15B acquires the recognition information 214B from the response signal 214. After the processing of step ST24 is executed, the autonomous driving control processing proceeds to step ST26.
  • step ST26 the second judgment unit 15B refers to the recognition information 214B to judge whether or not the information processing device 10 of the second vehicle 200B recognizes the first vehicle 200A.
  • step ST26 if the information processing device 10 of the second vehicle 200B does not recognize the first vehicle 200A, the judgment is negative, and the autonomous driving control process proceeds to step ST34 shown in FIG. 49.
  • step ST26 if the information processing device 10 of the second vehicle 200B recognizes the first vehicle 200A, the judgment is positive, and the autonomous driving control process proceeds to step ST28.
  • step ST28 the third determination unit 15C acquires the priority information 209 included in the response signal 214 (i.e., the priority information 209 assigned to the second vehicle 200B) and the priority information 209 stored in the first memory 204 (i.e., the priority information 209 assigned to the first vehicle 200A).
  • the autonomous driving control processing proceeds to step ST30.
  • step ST30 the third determination unit 15C determines whether the rank indicated by the priority order information 209 assigned to the first vehicle 200A (hereinafter also referred to as the "priority order of the first vehicle 200A") is higher than the rank indicated by the priority order information 209 assigned to the second vehicle 200B (hereinafter also referred to as the "priority order of the second vehicle 200B").
  • step ST28 if the priority order of the first vehicle 200A is not higher than the priority order of the second vehicle 200B, the determination is negative, and the autonomous driving control process proceeds to step ST34 shown in FIG. 49.
  • step ST28 if the priority order of the first vehicle 200A is higher than the priority order of the second vehicle 200B, the determination is positive, and the autonomous driving control process proceeds to step ST32.
  • step ST32 the setting unit 15D sets the identifier 216 by storing the identifier 216 in the second memory 206.
  • step ST40 shown in FIG. 50.
  • step ST34 shown in FIG. 49 the inference unit 15E inputs the sensor information 218, the association information 219, and the unset information 222 to the deep learning model 226. After the processing of step ST34 is executed, the autonomous driving control processing proceeds to step ST36.
  • step ST36 the inference unit 15E acquires the first control variable 224 output from the deep learning model 226 in response to the sensor information 218, the association information 219, and the unset information 222 being input to the deep learning model 226.
  • step ST36 the autonomous driving control processing proceeds to step ST38.
  • step ST38 the driving control unit 15G controls the autonomous driving of the first vehicle 200A based on the first control variable 224. After the processing of step ST38 is executed, the autonomous driving control processing proceeds to step ST52 shown in FIG. 50.
  • step ST40 shown in FIG. 50 the inference unit 15E inputs the sensor information 218, the association information 219, and the setting information 228 to the deep learning model 226. After the processing of step ST40 is executed, the autonomous driving control processing proceeds to step ST42.
  • step ST42 the inference unit 15E acquires the first control variable 224 output from the deep learning model 226 in response to the sensor information 218, the association information 219, and the setting information 228 being input to the deep learning model 226.
  • step ST42 the autonomous driving control processing proceeds to step ST44.
  • step ST44 the adjustment unit 15F acquires the control information 214C from the response signal 214. After the processing of step ST44 is executed, the autonomous driving control processing proceeds to step ST46.
  • step ST46 the adjustment unit 15F generates the second control variable 230 by adjusting the first control variable 224 acquired in step ST42 based on the control information 214C acquired in step ST44. After the processing of step ST46 is executed, the autonomous driving control processing proceeds to step ST48.
  • step ST48 the driving control unit 15G controls the autonomous driving of the first vehicle 200A based on the second control variable 230. After the processing of step ST48 is executed, the autonomous driving control processing proceeds to step ST50.
  • step ST50 the setting unit 15D cancels the setting of the identifier 216 by deleting the identifier 216 from the second memory 206.
  • step ST50 the automatic driving control processing proceeds to step ST52.
  • step ST52 the Central Brain 15 determines whether or not the conditions for terminating the autonomous driving control processing are satisfied.
  • a condition for terminating the autonomous driving control processing is that an instruction to terminate the autonomous driving control processing is given to the information processing device 10 of the first vehicle 200A. If the conditions for terminating the autonomous driving control processing are not satisfied in step ST52, the determination is negative, and the autonomous driving control processing proceeds to step ST10 shown in FIG. 48. If the conditions for terminating the autonomous driving control processing are satisfied in step ST52, the determination is positive, and the autonomous driving control processing terminates.
  • the identifier 216 is set by the setting unit 15D. This can contribute to changing the behavior of the first vehicle 200A when the second vehicle 200B that is autonomously driving in the vicinity is recognized by the first vehicle 200B and when the second vehicle 200B that is autonomously driving does not recognize the first vehicle 200A.
  • the autonomous driving of the first vehicle 200A is controlled based on the behavior of the autonomously driving second vehicle 200B, provided that the identifier 216 has been set. Therefore, when the first vehicle 200A recognizes the surrounding autonomously driving second vehicle 200B, the behavior of the first vehicle 200A can be changed depending on whether the autonomously driving second vehicle 200B recognizes the first vehicle 200A or whether the autonomously driving second vehicle 200B does not recognize the first vehicle 200A.
  • the Central Brain 15 of the first vehicle 200A controls the autonomous driving of the first vehicle 200A based on the control information 214C.
  • the control information 214C is information that the Central Brain 15 of the second vehicle 200B uses to control the autonomous driving of the second vehicle 200B. Therefore, the Central Brain 15 of the first vehicle 200A can predict the behavior of the second vehicle 200B during autonomous driving with high accuracy and then control the autonomous driving of the first vehicle 200A, compared to when the autonomous driving of the first vehicle 200A is controlled without using the control information 214C.
  • the Central Brain 15 of the first vehicle 200A acquires the control information 214C, and the autonomous driving of the first vehicle 200A is controlled based on the control information 214C. This makes it possible to prevent the Central Brain 15 of the second vehicle 200B from adjusting the first control variable 224 and controlling the autonomous driving based on the second control variable 230 (see FIG. 46).
  • the second vehicle 200B changes its course because its automatic driving is controlled based on a control variable obtained in a similar manner to the first control variable 224.
  • the first vehicle 200A travels straight without changing its course due to the automatic driving control based on the second control variable 230. This allows the first vehicle 200A to avoid contact with the second vehicle 200B (head-on collision in the example shown in FIG. 47) without making unnecessary course changes. Also, because the first vehicle 200A travels straight without making unnecessary course changes, it is possible to avoid impeding the travel of the following vehicle and/or the vehicle traveling alongside the first vehicle 200A.
  • the Central Brain 15 operates as the first judgment unit 15A, the second judgment unit 15B, the third judgment unit 15C, the setting unit 15D, the inference unit 15E, the adjustment unit 15F, and the driving control unit 15G, but the present disclosure is not limited to this.
  • the Central Brain 15 may further operate as a notification control unit 15H.
  • the notification control unit 15H notifies the notification device 232 that the first vehicle 200A has been recognized by the Central Brain of the second vehicle 200B, on condition that the identifier 216 has been set by the setting unit 15D.
  • a first example of the notification device 232 is a display 232A.
  • the notification control unit 15H displays visible information such as a message 234 and/or a mark indicating that the first vehicle 200A has been recognized by the Central Brain 15 of the second vehicle 200B on the screen of the display 232A.
  • a second example of the notification device 232 is an audio reproduction device 232B including a speaker. In this case, the notification control unit 15H causes the audio reproduction device 232B to reproduce audio indicating that the first vehicle 200A has been recognized by the Central Brain 15 of the second vehicle 200B.
  • the display 232A and the audio reproduction device 232B are merely examples, and any device may be used as long as it is capable of making the driver of the first vehicle 200A perceive information indicating that the first vehicle 200A has been recognized by the Central Brain 15 of the second vehicle 200B.
  • the identifier 216 has been set by the setting unit 15D, the fact that the first vehicle 200A has been recognized by the Central Brain 15 of the second vehicle 200B is notified, and the driver of the first vehicle 200A or the like can become aware that the first vehicle 200A has been recognized by the Central Brain of the second vehicle 200B.
  • the driver of the first vehicle 200A can change the way he drives the first vehicle 200A or change his attitude toward the second vehicle 200B.
  • the conditions under which the identifier 216 is set by the setting unit 15D include the first condition that the second vehicle 200B in automatic driving is recognized by the Central Brain 15 of the first vehicle 200A, and the second condition that the first vehicle 200A is recognized by the Central Brain 15 of the second vehicle 200B, but the present disclosure is not limited to this.
  • the identifier 216 may be set by the setting unit 15D when the third condition shown below is satisfied in addition to the first and second conditions.
  • the third condition refers to a condition under which the Central Brain 15 of the second vehicle 200B is performing a control process to control the automatic driving of the second vehicle 200B based on the second vehicle side association information in a manner similar to the manner in which the automatic driving of the first vehicle 200A is controlled based on the association information 219 (for example, in a manner similar to the example shown in FIG. 45 and FIG. 46).
  • the identifier 216 is set when the first condition and the second condition are satisfied, but the present disclosure is not limited to this.
  • the identifier 216 may be set when the second vehicle 200B is recognized regardless of whether or not the vehicle is in autonomous driving, and when the first vehicle 200A is recognized by the Central Brain 15 of the second vehicle 200B. This can contribute to changing the behavior of the first vehicle 200A when the second vehicle 200B recognizes the surrounding second vehicle 200B depending on whether the second vehicle 200B recognizes the first vehicle 200A or not.
  • the second control variable 230 is generated by adjusting the first control variable 224 based on the control information 214C by the adjustment unit 15F, but the present disclosure is not limited to this.
  • the second control variable 224 may be obtained using a deep learning model obtained by optimizing a neural network by performing deep learning on the neural network so that the sensor information 218, the association information 219, the setting information 228, and the control information 214C are input and the second control variable 224 is output. In this way, the adjustment unit 15F is not necessary.
  • the IPU 11 recognizes the object and generates the label information 210, but the present disclosure is not limited to this, and the object may be recognized and the label information 210 may be generated by at least one processor other than the IPU 11 (e.g., the MoPU 12, the GNPU 13, and/or the CPU 14).
  • the automatic driving control processing is performed by the Central Brain 15, but the present disclosure is not limited to this, and the automatic driving control processing may be performed by at least one processor other than the Central Brain 15 (e.g., the IPU 11, the MoPU 12, and/or a processor located in a location other than the vehicle 200, etc.), or the automatic driving control processing may be distributed between the Central Brain 15 and at least one processor.
  • the Central Brain 15 e.g., the IPU 11, the MoPU 12, and/or a processor located in a location other than the vehicle 200, etc.
  • the information processing device 10 may be an external device (e.g., a server) provided in a location other than the vehicle 200, and the autonomous driving of the vehicle 200 may be controlled according to the results of autonomous driving control processing performed by the external device.
  • an external device e.g., a server
  • a vehicle 200 is exemplified, but the technology disclosed herein can also be applied to moving bodies other than a vehicle 200 (e.g., an aircraft or a ship, etc.).
  • FIG. 52A is a diagram showing an example of an aspect of object recognition performed based on a high-resolution image captured by a high-resolution camera (not shown) equipped with the IPU11.
  • the IPU11 performs a predetermined image processing on the high-resolution image captured by the high-resolution camera, and outputs the processed image of the object, for example, at a frame rate of 10 frames/second and a resolution of 12 million pixels.
  • the high-resolution images output from the IPU11 are sequentially supplied to the Central Brain15.
  • the Central Brain15 recognizes the object contained in each of the high-resolution images output from the IPU11 at 10 frames/second, and derives label information indicating the type of the object. When multiple objects are included in an image, label information is derived for each of the multiple objects. 52A shows how objects B11 to B14 located on a road are extracted from the high-resolution image 101A output from the IPU 11, and label information is assigned to each of the objects B11 to B14. The process of deriving the label information may be performed by the IPU 11.
  • FIG. 52B is a diagram showing an example of the extraction of feature points of an object based on an image captured by a camera (not shown) equipped with MoPU 12. Note that image 101B used to extract feature points shown in FIG. 52B was captured at the same time as high-resolution image 101A shown in FIG. 52A.
  • a camera equipped with MoPU12 is capable of capturing images at a frame rate (e.g., 1920 frames/sec) higher than the frame rate (e.g., 10 frames/sec) of the high-resolution image output from IPU11.
  • MoPU12 extracts feature points indicating the location of an object from the captured image of the object, and outputs the coordinate values (X, Y) of the extracted feature points at a frame rate of, for example, 1920 frames/sec.
  • the coordinate values of the feature points indicating the location of the object are an example of "location information" in the disclosed technology.
  • FIG. 52B shows how objects B11 to B14 located on the road are extracted from image 101B captured by a camera mounted on MoPU12, and the coordinate values (Xn, Yn) of feature points Q1 to Q4 for each of objects B11 to B14 are output.
  • Objects B11 to B14 shown in FIG. 52B are the same objects as objects B11 to B14 shown in FIG. 52A.
  • Image 101B to be processed by MoPU12 may have a lower resolution than high-resolution image 101A in IPU11.
  • the MoPU12 outputs the center point (center of gravity) of the object extracted from the image as a feature point.
  • the feature points may be two diagonal vertices of a rectangle that virtually surrounds the object. Furthermore, when an object is perceived as an object of a certain size, it is not necessary to extract only two diagonal coordinate points of the vertices of a rectangle that surrounds the contour of the object recognized from the image captured by the camera; multiple coordinate points including the contour may be extracted.
  • the time series of coordinate values of the feature points output at 1920 frames/second corresponds to the movement information of the object.
  • the coordinate values of the feature points output from the MoPU 12 are sequentially supplied to the Central Brain 15.
  • the Central Brain 15 associates the coordinate values of the feature points from the MoPU 12 with label information derived based on the high-resolution image from the IPU 11.
  • the information processing device includes at least one processor (IPU 11, MoPU 12, and Central Brain 15).
  • One of the processors outputs an image of a captured object at a first frame rate (e.g., 10 frames/second).
  • One of the processors derives label information indicating the type of object contained in each image output at the first frame rate.
  • One of the processors outputs position information (coordinate values of feature points) indicating the location of the object from the captured image of the object at a second frame rate (e.g., 1920 frames/second) higher than the first frame rate.
  • One of the processors associates position information at each time point (times t1, t2) corresponding to the output timing of the image output at the first frame rate, among the position information (coordinate values of feature points) output sequentially at the second frame rate, with label information derived for the same object as the object corresponding to the position information.
  • any of the processors associates the label information (label information based on the image at time t1) that was previously associated with the position information, for the position information (coordinate values of feature points) output at the second frame rate that does not correspond to the output timing (times t1 and t2) of the image output at the first frame rate (i.e., the period from time t1 to time t2).
  • High time resolution recognition of object movement is achieved by MoPU12 acquiring the coordinate values of the object's feature points at, for example, 1920 frames per second. Although it is not possible to determine what an object is from its feature points, for the purpose of avoiding collisions with the object, it is more important to recognize the object's movement with high time resolution than to recognize what the object is.
  • the object is recognized by deriving label information based on the high-resolution image from the IPU 11.
  • label information By associating the coordinate values of the object's feature points with the object's label information, it is possible to recognize the object's identity as well as its movement.
  • the label information is not acquired at the same timing as the coordinate values (position information) of the feature points. Therefore, the association between the feature points and the label information is performed only for the feature points at each time point corresponding to the output timing of the high-resolution image output at a frame rate of 10 frames/second, among the feature points output sequentially at a frame rate of 1920 frames/second. Specifically, the label information is associated with two of the feature points of the 576 frames. In this way, according to the information processing device of this embodiment, the association between the feature points and the label information is discrete. This results in a period in which the type of the object being tracked is uncertain.
  • the Central Brain 15 is used to associate feature points with label information, but another processor included in the information processing device may also associate feature points with label information. Also, although no particular reference is made to the z coordinate in the Z-axis direction, the z coordinate corresponding to the x and y coordinates of the feature points may of course be obtained in various ways.
  • an information processing device 10 has the same configuration as that of the ninth embodiment, as shown in FIG. 11.
  • the IPU 11 detects an object from a high-resolution image captured by a high-resolution camera, and outputs label information indicating the type of the object.
  • the feature points may be two diagonal vertices of a rectangle that virtually surrounds the object.
  • one MoPU 12 is used.
  • the MoPU 12 uses the principle of a stereo camera to output vector information of the movement of a point indicating the location of an object along each of the three coordinate axes (X-axis, Y-axis, Z-axis) in a three-dimensional orthogonal coordinate system.
  • the Z-axis is the axis along the depth direction (vehicle travel).
  • the Z-axis information at the time next to time t is updated using shape information, i.e., geometry. Details of the configuration of the MoPU 12 will be described later.
  • the Lidar sensor 18 acquires point cloud data including objects existing in three-dimensional space and the road surface on which the vehicle is traveling. By using the point cloud data acquired by the Lidar sensor 18, highly accurate Z-axis information of objects can be extracted, but acquisition takes longer than planar coordinates (X-axis, Y-axis). It is assumed that the Lidar sensor 18 acquires point cloud data at longer acquisition intervals than the planar coordinates acquired by the MoPU 12.
  • Fig. 53 is a block diagram including a functional configuration of the MoPU 12.
  • the MoPU 12 includes a camera 30, a radar 32, an infrared camera 34, an extraction unit 35, a integration unit 36, an estimation unit 37, and an update unit 38.
  • the radar 32 detects a radar signal.
  • the infrared camera 34 acquires an infrared image. Note that, although an example will be described in which the extraction unit 35, the integration unit 36, the estimation unit 37, and the update unit 38 are included in the MoPU 12, the present invention is not limited to this, and the configuration may be such that they are included in the core 12X in the information processing device 10 or in another device.
  • FIG. 12A is a diagram showing a schematic diagram of coordinate detection of an object in a time series.
  • J indicates the position of an object represented by a rectangle, and the position of the object moves from J1 to J2 in a time series. Since the object moves in the depth direction along with the movement of the planar coordinates, it is necessary to detect the movement in the Z axis direction as well.
  • the Z axis information detected from the point cloud data of the Lidar sensor 18 may not be acquired as quickly as the planar coordinates by the MoPU 12. Therefore, in this embodiment, the Z axis information at time t+1 is complemented by estimating the geometry of the road surface from the image of the high-resolution camera of the IPU 11 and the point cloud data of the Lidar sensor 18.
  • the z2 of the depth information at time t+1 can be estimated by using the geometry of the object on the road surface, i.e., the vehicle.
  • z2 is estimated by calculating the amount of movement of the Z axis from z1 to z2 from the change when the extracted planar coordinates (x1, y1) move to (x2, y2).
  • MoPU12 can achieve high performance and low data volume 3D motion detection, as well as 2D motion detection using high speed frame shots.
  • the extraction unit 35 extracts plane coordinates (Xn, Yn) indicating the location of the object in two-dimensional space from an image in which the object appears.
  • the plane coordinates (X1, Y1) at time t are an example of the first plane coordinates of the present disclosure
  • the plane coordinates (X2, Y2) at the next time t+1 (t+m) are an example of the second plane coordinates of the present disclosure.
  • the extraction unit 35 extracts feature points for each frame of image captured by the camera 30, and outputs the plane coordinates (Xn, Yn) of the center point (center of gravity) of the object extracted from the image as the feature point.
  • Xn and Yn are coordinate values at each time in the time series.
  • the feature points may be two diagonal vertices of a rectangle that virtually surrounds the object.
  • the integration unit 36 detects Z-axis information (Z1), which is depth information of the object at time t, from the point cloud data acquired from the Lidar sensor 18.
  • the integration unit 36 integrates the planar coordinates (X1, Y1) and the detected Z-axis information (Z1) to generate three-dimensional coordinates (X1, Y1, Z1) of the object at time t.
  • the detection of the Z-axis information may be performed by the Lidar sensor 18.
  • the Z-axis information (Z1) at time t is an example of the first depth information of the present disclosure.
  • the estimation unit 37 estimates Z-axis information (Z2) corresponding to time t+1 based on the geometry of the space in which the object exists and the change from the plane coordinates (X1, Y1) at time t to the plane coordinates (X2, Y2) at time t+1.
  • the geometry of the space includes the shape of the road surface obtained from the image acquired by the high-resolution camera of the IPU 11 and the point cloud data detected by the Lidar sensor 18, and the shape of a previously set object.
  • the object whose shape is to be set is a vehicle, which is an object on which the information processing device 10 is loaded.
  • the geometry indicating the shape of the road surface is generated in advance at time t.
  • the estimation unit 37 can estimate the Z-axis information (Z2) corresponding to time t+1 by calculating the amount of movement in the depth direction when the plane coordinates change from (X1, Y1) to (X2, Y2) from the simulation.
  • the Z-axis information (Z2) at time t+1 is an example of the second depth information of this disclosure.
  • the update unit 38 integrates the plane coordinates (X2, Y2) at time t+1 with the estimated Z-axis information (Z2) and updates the three-dimensional coordinates (X2, Y2, Z2) of the object at time t+1. Note that when extracting the plane coordinates (X2, Y2) at the next time t+1 after the object moves, if the Z-axis information (Z2) obtained from the point cloud data corresponding to time t+1 cannot be obtained, the Z-axis information (Z2) may be estimated and the three-dimensional coordinates may be updated.
  • MoPU12 outputs the three-dimensional coordinates (Xn, Yn, Zn) obtained in time series to core 12X as the coordinates of the feature points. Specifically, MoPU12 outputs the coordinate values (Xn, Yn, Zn) of the feature points extracted from one object. Note that, for example, when multiple objects (e.g., object A, object B, and object C, etc.) appear in one image, MoPU12L may output the coordinate values (Xn, Yn, Zn) of the feature points extracted from each of the multiple objects. The series of feature points in the images captured at each time corresponds to the movement information of the objects.
  • the MoPU 12 in the information processing device 10 executes the flowchart shown in Fig. 54.
  • the MoPU 12 executes a series of processes in the flowchart, for example, at a period in which an image is acquired by the camera 30 or at a predetermined time interval corresponding to the period.
  • step S500 the extraction unit 35 extracts the plane coordinates (X1, Y1) that indicate the location of the object in two-dimensional space from the image that shows the object at time t.
  • step S502 the integration unit 36 detects Z-axis information (Z1), which is depth information of the object at time t, from the point cloud data acquired from the Lidar sensor 18.
  • step S504 the integration unit 36 integrates the plane coordinates (X1, Y1) and the detected Z-axis information (Z1) to generate the three-dimensional coordinates (X1, Y1, Z1) of the object at time t.
  • step S506 the extraction unit 35 extracts the plane coordinates (X2, Y2) at the next time t+1.
  • step S508 the estimation unit 37 estimates Z-axis information (Z2) corresponding to time t+1 based on the geometry of the space in which the object exists and the change from the plane coordinates (X1, Y1) at time t to the plane coordinates (X2, Y2) at time t+1.
  • step S510 the update unit 38 integrates the plane coordinates (X2, Y2) at time t+1 with the estimated Z-axis information (Z2) and updates the three-dimensional coordinates (X2, Y2, Z2) of the object at time t+1.
  • the MoPU 12 outputs motion information indicating the motion of the center point of the object.
  • the MoPU 12 may output motion information for at least two diagonal coordinate points of the vertices of a rectangle (bounding box) surrounding the contour of the object recognized from the image captured by the camera 30. In this way, the points corresponding to the coordinates indicating the location of the object are each of the multiple points at the vertices of the bounding box representing the contour of the object.
  • the extraction unit 35 extracts the plane coordinates (X1, Y1) of the point at time t and the plane coordinates (X2, Y2) at time t+1 for each point.
  • the integration unit 36 generates the three-dimensional coordinates (X1, Y1, Z1) of the object at time t for each point.
  • the estimation unit 37 estimates the Z-axis information (Z2) of the point at time t+1 for each point.
  • the update unit 38 updates, for each point, the 3-dimensional coordinates (X2, Y2, Z2) of the object at that point at time t+1.
  • the 22nd embodiment differs from the Smart Car of the 13th embodiment in that an IPU 11 and an MoPU 12 are provided at the front and rear of the vehicle.
  • the differences from the 13th embodiment are explained below. Note that the same components are given the same reference numerals, and detailed explanations will be omitted.
  • the vehicle 1 is provided with a front IPU 11Fr and a front MoPU unit 12Fr that monitor the area in front of the vehicle, and a rear IPU 11Rr and a rear MoPU unit 12Rr that monitor the area behind the vehicle.
  • the front MoPU unit 12Fr is an example of a "first camera unit” in the disclosed technology
  • the rear MoPU unit 12Rr is an example of a "second camera unit” in the disclosed technology.
  • a high-resolution camera (not shown) is directed toward the front of the vehicle
  • a high-resolution camera (not shown) is directed toward the rear of the vehicle.
  • the camera 313L, the radar 32L, and the infrared camera 34L are directed toward the front of the vehicle
  • the camera 313L, the radar 32L, and the infrared camera 34L are directed toward the rear of the vehicle.
  • FIG. 56 is a block diagram of an information processing device 220 according to the 22nd embodiment, which is mounted on a vehicle 1.
  • the front MoPU unit 12Fr and the rear MoPU unit 12Rr each include a MoPU 12L corresponding to the left eye and a MoPU 12R corresponding to the right eye.
  • the core 12X of the front MoPU unit 12Fr and the core 12X of the rear MoPU unit 12Rr are connected to each other so that they can communicate with each other.
  • the core 12X of the front MoPU unit 12Fr and the core 12X of the rear MoPU unit 12Rr are each connected to a Central Brain 15.
  • the front IPU 11Fr and the front MoPU unit 12Fr acquire the coordinates of the feature points in front of the vehicle and the label information of the object
  • the rear IPU 11Rr and the rear MoPU unit 12Rr acquire the coordinates of the feature points in the rear of the vehicle and the label information of the object.
  • the Central Brain 15 controls the vehicle 1.
  • the front MoPU unit 12Fr and the rear MoPU unit 12Rr are configured to obtain the coordinate values (Xn, Yn, Zn) of the feature points based on common coordinate axes (x-axis, y-axis, z-axis).
  • the avoidance operation for objects approaching from the rear of the vehicle is improved compared to when only the front of the vehicle is monitored.
  • the information processing device 220 changes the frame rate of the camera of the other of the front MoPU unit 12Fr and the rear MoPU unit 12Rr based on the detection status of one of the front MoPU unit 12Fr and the rear MoPU unit 12Rr.
  • the frame rate of the cameras 313L, 313R which is normally 240 frames/second or less, is increased to 960 frames/second or more.
  • the front MoPU unit 12Fr and the rear MoPU unit 12Rr are configured to change the frame rate when the relative speed of an object in front of or behind the vehicle 1 exceeds a preset threshold value.
  • the rate change process for changing the frame rate in this embodiment will be described below with reference to FIG. 57. Note that FIG. 57 is an example of the process in the front MoPU unit 12Fr.
  • step S600 of FIG. 57 the core 12X of the front MoPU unit 12Fr acquires the coordinates of the feature points and the label information of the object in the front MoPU unit 12Fr.
  • step S602 the core 12X of the front MoPU unit 12Fr acquires vector information of feature points and label information of objects in the rear MoPU unit 12Rr.
  • step S604 the core 12X of the front MoPU unit 12Fr executes a determination process regarding the alert state based on the acquired information. For example, the alert state is initiated when the relative speed of an object behind the vehicle 1 exceeds a preset threshold. In addition, for example, the alert state is terminated when an object to be alerted that is in front or behind the vehicle 1 moves away from the vehicle 1 or disappears.
  • step S606 the core 12X of the front MoPU unit 12Fr determines whether or not the alert state has started. If the core 12X determines that the alert state has started (YES in step S606), the process proceeds to step S608. On the other hand, if the core 12X determines that the alert state has not started (NO in step S606), the process returns to step S600.
  • step S608 the core 12X of the front MoPU unit 12Fr sets the frame rate of the cameras 313L and 313R in the front MoPU unit 12Fr to a high state.
  • step S610 the core 12X of the front MoPU unit 12Fr determines whether the alert state has ended. If the core 12X determines that the alert state has ended (YES in step S610), the process proceeds to step S612. On the other hand, if the core 12X determines that the alert state has not ended (NO in step S610), the process returns to step S600.
  • step S612 the core 12X of the front MoPU unit 12Fr sets the frame rates of the cameras 313L and 313R in the front MoPU unit 12Fr to a low state. Then, the process returns to step S600.
  • the rate change process of this embodiment can handle the following situations. For example, suppose that there is no object approaching the vehicle 1 in front of the vehicle, but a motorcycle, animal, or the like appears from behind the vehicle and staggers past the vehicle 1. In this case, even if the frame rate has been lowered in the front MoPU unit 12Fr to reduce the processing load, the frame rate can be increased based on the detection of an approaching object by the rear MoPU unit 12Rr. As a result, after the object has passed the vehicle 1, the front MoPU unit 12Fr can perform monitoring with high accuracy.
  • the frame rate when the alert state is initiated, the frame rate is changed from a low state to a high state, but the frame rate may be configured to increase in stages rather than all at once. For example, if the frame rate is normally 240 frames/second, when the alert state is initiated, the frame rate may first be set to 960 frames/second, and when the alert state continues for a predetermined period of time (e.g., one second), the frame rate may be configured to be set to 1920 frames/second. Such a gradual increase in the frame rate is not limited to two stages, and can be set according to the number of frame rates possessed by cameras 313L and 313R. Furthermore, the frame rate is not limited to being increased, and may also be decreased in stages according to the alert state.
  • the information processing device 220 of this embodiment can provide label information of an object generated in one of the front MoPU unit 12Fr and the rear MoPU unit 12Rr to the other of the front MoPU unit 12Fr and the rear MoPU unit 12Rr.
  • the viewing angle M of the cameras 313L, 313R of the front MoPU unit 12Fr and the rear MoPU unit 12Rr is 180 degrees.
  • the viewing angle V of the high-resolution cameras of the front IPU 11Fr and the rear IPU 11Rr is narrower than the viewing angle M of the cameras 313L, 313R.
  • the label information of the object that has already been generated in one of the front MoPU unit 12Fr and the rear MoPU unit 12Rr can be provided to the other of the front MoPU unit 12Fr and the rear MoPU unit 12Rr. Note that FIG. 59 is an example of processing in the front MoPU unit 12Fr.
  • step S700 of FIG. 59 the core 12X of the front MoPU unit 12Fr acquires the coordinates of the feature points and the label information of the object in the front MoPU unit 12Fr.
  • step S702 the core 12X of the front MoPU unit 12Fr acquires vector information of feature points and label information of objects in the rear MoPU unit 12Rr.
  • step S704 the core 12X of the front MoPU unit 12Fr determines whether or not the label information was not acquired in step S700. If the core 12X determines that the label information was not acquired (YES in step S704), the process proceeds to step S706. On the other hand, if the core 12X determines that the label information was acquired (NO in step S704), the process returns to step S700.
  • step S706 the core 12X of the front MoPU unit 12Fr determines whether the predicted coordinates based on the vector information match the current coordinates. That is, it determines whether the coordinates of the feature point predicted based on the vector information acquired from the rear MoPU unit 12Rr match the current feature point acquired in the front MoPU unit 12Fr. If the core 12X determines that the predicted coordinates based on the vector information match the current coordinates (YES in step S706), it proceeds to step S708. On the other hand, if the core 12X determines that the predicted coordinates based on the vector information do not match the current coordinates (NO in step S706), it returns to step S700.
  • step S708 the core 12X of the front MoPU unit 12Fr assigns a label of the object in the rear MoPU unit 12Rr to the feature point detected in the front MoPU unit 12Fr. Then, the process returns to step S700.
  • the handover process of this embodiment has the following effects even if the viewing angle V of the high-resolution cameras of the front IPU 11Fr and rear IPU 11Rr is narrow and feature points are detected outside the viewing angle V. That is, a label of an object that has already been detected and assigned by either the front MoPU unit 12Fr or the rear MoPU unit 12Rr can be applied to the other of the front MoPU unit 12Fr and rear MoPU unit 12Rr. This allows, for example, in a situation where an object is overtaking the vehicle 1, the front MoPU unit 12Fr to identify the object immediately after the rear MoPU unit 12Rr extracts feature points.
  • FIG. 60 is a first block diagram showing an example of the configuration of an information processing device according to the 23rd embodiment.
  • the information processing device 10 includes at least an information acquisition unit 1023 capable of acquiring multiple pieces of information related to the vehicle, an inference unit 2023 that infers multiple index values from the multiple pieces of information acquired by the information acquisition unit 1023, and a driving control unit 3023 that executes driving control of the vehicle based on the multiple index values.
  • the information acquisition unit 1023 is capable of acquiring various information related to the vehicle.
  • This information acquisition unit 1023 may include, for example, sensors attached to various locations on the vehicle, and communication means for acquiring information that can be acquired via a network from a server (not shown), etc.
  • sensors included in the information acquisition unit 1023 include radar, LiDAR, high-pixel, telephoto, ultra-wide-angle, 360-degree, high-performance cameras, vision recognition, fine sound sensors, ultrasonic sensors, vibration sensors, infrared sensors, ultraviolet sensors, electromagnetic wave sensors, temperature sensors, humidity sensors, spot AI weather forecasts, high-precision multi-channel GPS, low-altitude satellite information, etc.
  • examples include long-tail incident AI data, etc. Long-tail incident AI data is trip data for a vehicle that has level 5 implemented.
  • Information that can be acquired by multiple types of sensors includes the temperature and material of the ground (e.g. road), outside air temperature, ground tilt, road icing and moisture content, material and wear of each tire, tire pressure, road width, whether or not overtaking is prohibited, whether or not there is an oncoming vehicle, vehicle type information for the vehicles in front and behind, the cruising state of those vehicles, and surrounding conditions (birds, animals, soccer balls, wrecked cars, earthquakes, housework, wind, typhoons, heavy rain, light rain, blizzards, fog, etc.), and in this embodiment, by utilizing the computing power of Level 6, these detections can be performed every billionth of a second (nanosecond).
  • the information acquisition unit 1023 includes an under-vehicle sensor that is installed under the vehicle and can detect the temperature, material, and tilt of the ground on which the vehicle is traveling. This under-vehicle sensor can be used to perform independent smart tilt.
  • the inference unit 2023 may be capable of inferring an indexed value related to vehicle control from multiple pieces of information acquired by the information acquisition unit 1023 using machine learning, more specifically, deep learning.
  • the inference unit 2023 may be configured with AI (Artificial Intelligence).
  • the inference unit 2023 can obtain an accurate index value by performing multivariate analysis (for example, see formula (2)) using the calculation power of Level 6 on the data collected every nanosecond by many sensor groups in the information acquisition unit 1023 and long-tail incident AI data using an integral method as shown in the following formula (1). More specifically, while calculating the integral value of the delta values of various Ultra High Resolutions using the calculation power of Level 6, it can obtain the indexed value of each variable at the edge level and in real time, and obtain the most probabilistic value of the result occurring in the next nanosecond.
  • DL indicates deep learning
  • A, B, C, D, ..., N indicate air resistance, road resistance, road elements (e.g., garbage), and slip coefficient, etc.
  • the indexed values of each variable obtained by the inference unit 2023 can be further refined by increasing the number of Deep Learning rounds. For example, more accurate index values can be calculated using a huge amount of data such as tires, motor rotation, steering angle, road material, weather, garbage, effects during quadratic deceleration, slipping, loss of balance and how to control steering and speed to regain balance, and long-tail incident AI data.
  • the driving control unit 3023 may execute driving control of the vehicle based on the multiple index values identified by the inference unit 2023.
  • This driving control unit 3023 may be capable of realizing automatic driving control of the vehicle. In detail, it is possible to obtain the most probabilistic value of the outcome that will occur in the next nanosecond from the multiple index values, and to implement driving control of the vehicle taking into account the probabilistic value.
  • information analysis and inference can be performed using Level 6 computing power, which is much greater than the computing power of Level 5, making it possible to perform a level of analysis that is incomparable to anything that has come before. This enables vehicle control for safe autonomous driving. Furthermore, the multivariate analysis using the above-mentioned AI can create a difference in value that is 1000 times greater than the Level 5 world.
  • FIG. 61 is a second block diagram showing an example of the configuration of an information processing device according to the twenty-third embodiment.
  • the information processing device 10A differs from the information processing device 10 in that, in addition to the information processing device 10 described above, the information processing device 10A includes a strategy setting unit 4023 that sets a driving strategy until the vehicle reaches the destination.
  • the strategy setting unit 4023 may set a driving strategy from the current location to reach the destination based on destination information input by the vehicle occupants, traffic information between the current location and the destination, etc. At that time, information at the time when the strategy setting is calculated, i.e., data currently acquired by the information acquisition unit 1023, may be taken into account. This is to calculate a theoretical value that is more in line with reality by taking into account the surrounding conditions at that moment, rather than simply calculating the route to the destination.
  • the driving strategy may be configured to include at least one theoretical value of the optimal route to the destination (strategic route), driving speed, tilt, and braking. Preferably, the driving strategy can be configured with all theoretical values of the optimal route, driving speed, tilt, and braking mentioned above.
  • the multiple theoretical values constituting the driving strategy set by the strategy setting unit 4023 can be used for automatic driving control in the driving control unit 3023.
  • the driving control unit 3023 includes a strategy update unit 3123 that can update the driving strategy based on the difference between the multiple index values inferred by the inference unit 2023 and each theoretical value set by the strategy setting unit 4023.
  • the index value inferred by the inference unit 2023 is detected from information acquired while the vehicle is traveling, specifically during actual traveling. For example, it is inferred based on the friction coefficient. Therefore, by taking this index value into consideration, the strategy update unit 3123 can respond to changes that occur from moment to moment when traveling along a strategic route. Specifically, the strategy update unit 3123 calculates the difference (delta value) between the theoretical value and the index value included in the traveling strategy, thereby deriving the optimal solution again and re-planning the strategic route. This makes it possible to achieve automatic driving control that does not cause slippage. In addition, since the computing power of the Level 6 described above can be used even during such updating processing, corrections and fine adjustments can be made in units of one billionth of a second, enabling more precise driving control to be achieved.
  • the information acquisition unit 1023 has the under-vehicle sensor described above, this under-vehicle sensor will detect the temperature and material of the ground, making it possible to respond to changes that change from moment to moment when traveling the strategic route.
  • this under-vehicle sensor will detect the temperature and material of the ground, making it possible to respond to changes that change from moment to moment when traveling the strategic route.
  • independent smart tilt can also be implemented.
  • a cooling execution device that detects the operation of the SoCBox processing and performs cooling of the SoCBox.
  • the cooling execution device is an example of an "information processing device" in this disclosure.
  • the SoCBox may be activated when a moving object on the road is detected. For example, if the SoCBox detects a moving object on the road while the vehicle is driving autonomously, it may perform calculations to control the object. However, the SoCBox heats up quickly, making it difficult to perform advanced calculations in the vehicle (a challenge to fully autonomous driving). Therefore, it is conceivable that by detecting moving objects on the road, the heat dissipation caused by the SoCBox's operation can be predicted and the SoCBox can be cooled. For example, by predicting heat dissipation from the SoCBox by detecting moving objects and cooling it at the same time as heat dissipation, the SoCBox can be prevented from becoming too hot and advanced calculations can be made possible in the vehicle.
  • the system can predict heat dissipation from the SoC Box and simultaneously cool it down as heat is dissipated, preventing the SoC Box from becoming too hot and enabling advanced calculations in the vehicle.
  • FIG. 62 shows an example of a system 2400.
  • the system 2400 includes a management server 2440, a SoCBox 2470, a cooling execution device 2480, and a cooling unit 2490.
  • SoCBox2470, cooling execution device 2480, and cooling unit 2490 are mounted on a vehicle.
  • SoCBox2470 controls the autonomous driving of the vehicle using sensor values from multiple sensors mounted on the vehicle. Because controlling the autonomous driving of the vehicle places a very high processing load on the vehicle, SoCBox2470 may become very hot. If SoCBox2470 becomes too hot, it may not operate normally and may have a negative effect on the vehicle.
  • the cooling execution device 2480 predicts the operation of SoCBox2470 and starts cooling SoCBox2470 based on the operation. For example, when the cooling execution device 2480 detects a moving object that is the cause of the operation of SoCBox2470, it immediately starts cooling SoCBox2470. By starting cooling before the start of heat generation caused by the operation of SoCBox2470 or at the same time as the start of heat generation, it is possible to reliably prevent SoCBox2470 from becoming too hot.
  • the cooling execution device 2480 may use AI to predict the operation of the SoCBox 2470. Learning of the operation of the SoCBox 2470 may be performed by using data collected by the vehicle 2450.
  • the management server 2440 collects data from the vehicle 2450 and performs the learning.
  • the entity that performs the learning is not limited to the management server 2440, and may be another device.
  • Vehicle 2450 is equipped with SoCBox 2470 and a MoPU (Motion Processing Unit) 2458 as a sensor.
  • SoCBox 2470 controls the autonomous driving of vehicle 2450 using sensor values from multiple sensors, including MoPU 2458, equipped in vehicle 2450, and external information received from multiple types of servers 2430.
  • MoPU2458 may be built into a low-resolution camera (not shown) installed in the vehicle. MoPU2458 outputs motion information indicating the motion of the photographed object at a frame rate of, for example, 100 frames per second. MoPU2458 outputs vector information of the motion of a point indicating the location of the object along a specified coordinate axis as motion information. In other words, the motion information output from MoPU2458 does not include information necessary to identify what the photographed object is (e.g., whether it is a person or an obstacle), but only includes information indicating the motion (direction and speed of movement) of the object's center point (or center of gravity) on the coordinate axes (x-axis, y-axis, z-axis).
  • Server 2430 may be an example of an external device. Examples of multiple types of servers 2430 include a server that provides traffic information, a server that provides weather information, etc. SoCBox 2470 transmits to management server 2440 sensor values and external information, including detection results by MoPU 2458, used to control autonomous driving, the operating status of SoCBox 2470 when controlled, and the temperature change of SoCBox 2470 when controlled.
  • the management server 2440 performs learning using information received from one or more SoCBox 2470 and multiple sensors.
  • the management server 2440 performs machine learning using the detection results of MoPU 2458 acquired by SoCBox 2470 and the operating status of SoCBox 2470 at the time SoCBox 2470 acquired this information as learning data, thereby generating a learning model in which the information acquired by SoCBox 2470 is used as input and the operating status of SoCBox 2470 is used as output.
  • Vehicle 2460 is a vehicle having a cooling function according to this embodiment.
  • Vehicle 2460 is equipped with MoPU 2458 as a sensor, SoCBox 2470, cooling execution device 2480, and cooling unit 2490.
  • Cooling execution device 2480 may receive from management server 2440 and store the learning model generated by management server 2440.
  • the cooling execution device 2480 may obtain sensor values of multiple sensors mounted on the vehicle 2460, including detection results by the MoPU 2458, from the multiple sensors or from the SoCBox 2470, and if it predicts that the SoCBox 2470 will operate, it may start cooling the SoCBox 2470 by the cooling unit 2490. Specifically, if the cooling execution device 2480 detects a moving object or the like as a result of detection by the MoPU 2458, it predicts that the SoCBox 2470 will operate, and starts cooling the SoCBox 2470 by the cooling unit 2490.
  • the cooling execution device 2480 may also obtain sensor values from multiple sensors mounted on the vehicle 2460, including detection results from the MoPU 2458, from the multiple sensors or from the SoCBox 2470, and input the obtained information into a learning model to predict the operation of the SoCBox 2470.
  • the SoCBox 2470, the cooling execution device 2480, the management server 2440, and the server 2430 may communicate via a network 2420.
  • the network 2420 may include a vehicle network.
  • the network 2420 may include the Internet.
  • the network 2420 may include a Local Area Network (LAN).
  • the network 2420 may include a mobile communication network.
  • the mobile communication network may conform to any of the following communication methods: 5G (5th Generation) communication method, LTE (Long Term Evolution) communication method, 3G (3rd Generation) communication method, and 6G (6th Generation) communication method or later.
  • Figure 63 is an explanatory diagram for explaining the learning phase in the system 2400.
  • sensors 2451 mounted on the vehicle 2450 include a camera 2452, a LiDAR (Light Detection and Ranging) 2453, a millimeter wave sensor 2454, an ultrasonic sensor 2455, an IMU sensor 2456, a GNSS (Global Navigation Satellite System) sensor 2457, an MoPU 2458, and a temperature sensor 2459.
  • the vehicle 2450 does not have to be equipped with all of these, and may be equipped with some or other sensors.
  • SoCBox2470 acquires sensor information from each sensor included in sensor 2451. SoCBox2470 may also perform communication via network 2420, and SoCBox2470 receives external information from each of multiple servers 2430 via network 2420. SoCBox2470 then uses the acquired information to perform autonomous driving control of vehicle 2450.
  • SoCBox2470 records the computing power as the operation of SoCBox2470. SoCBox2470 may record its computing power periodically or irregularly. SoCBox2470 may record the sensor information received from sensor2451, the external information received from server2430, and its computing power when it acquires this information and executes autonomous driving control, and transmit this to management server2440.
  • the management server 2440 includes an information acquisition unit 2442, a model generation unit 2444, and a model provision unit 2446.
  • the information acquisition unit 2442 acquires various information.
  • the management server 2440 may receive information transmitted by the SoCBox 2470.
  • the model generation unit 2444 performs machine learning using the information acquired by the information acquisition unit 2442 to generate a learning model.
  • the model generation unit 2444 may generate a learning model that uses the information acquired by SoCBox 2470 as input and the operating status of SoCBox 2470 as output by executing machine learning using the information acquired by SoCBox 2470 and the operating status of SoCBox 2470 at the time SoCBox 2470 acquired the information as learning data. Specifically, the model generation unit 2444 inputs the detection result by MoPU 2458 as the information acquired by SoCBox 2470, and generates a learning model that outputs the status and amount of change of power computing power as the operating status of SoCBox 2470.
  • the model providing unit 2446 provides the learning model generated by the model generating unit 2444.
  • the model providing unit 2446 may transmit the learning model to the cooling execution device 2480 mounted on the vehicle 2460.
  • System 2400 may be configured to predict temperature changes in each of multiple parts of SoCBox 2470.
  • vehicle 2450 may be equipped with multiple temperature sensors 2459 that each measure the temperature change in each of multiple parts of SoCBox 2470.
  • SoCBox 2470 may transmit to management server 2440 the sensor information received from sensor 2451, external information received from server 2430, and the temperature changes measured by multiple temperature sensors 2459 when acquiring this information and executing autonomous driving control.
  • the model generation unit 2444 performs machine learning using the information acquired by SoCBox2470, the temperature changes in each of the multiple parts of SoCBox2470 when SoCBox2470 acquired the information, and the operating status of SoCBox2470 as learning data, to generate a learning model that uses the information acquired by SoCBox2470 as input and outputs the temperature changes in each of the multiple parts of SoCBox2470 and the operating status of SoCBox2470.
  • FIG. 64 is an explanatory diagram for explaining the cooling execution phase in the system 2400.
  • the sensors 2461 mounted on the vehicle 2460 are exemplified by a camera 2462, a LiDAR 2463, a millimeter wave sensor 2464, an ultrasonic sensor 2465, an IMU sensor 2466, a GNSS sensor 2467, a MoPU 2468, and a temperature sensor 2469.
  • the vehicle 2460 does not have to be equipped with all of these, and may not have some of them, or may have sensors other than these.
  • the cooling execution device 2480 includes an information acquisition unit 2482, a cooling execution unit 2484, a model storage unit 2486, and a prediction unit 2488.
  • the information acquisition unit 2482 acquires information acquired by SoCBox 2470.
  • the information acquisition unit 2482 acquires the sensor information that SoCBox 2470 acquires from sensor 2461 from sensor 2461 or SoCBox 2470.
  • the information acquisition unit 2482 may receive from SoCBox 2470 the sensor information that SoCBox 2470 acquires from sensor 2461.
  • the information acquisition unit 2482 may receive from sensor 2461 the same sensor information that SoCBox 2470 acquires from sensor 2461. In this case, each sensor of sensor 2461 may transmit sensor information to SoCBox 2470 and cooling execution device 2480, respectively.
  • the cooling execution unit 2484 starts cooling the SoCBox 2470 based on the detection result by the MoPU 2458 contained in the sensor information. For example, the cooling execution unit 2484 starts cooling the SoCBox 2470 when the detection result by the MoPU 2458 indicates that a moving object has been detected.
  • the cooling execution unit 2484 uses the cooling unit 2490 to perform cooling of the SoCBox 2470.
  • the cooling unit 2490 cools the SoCBox 2470 by air cooling means, water cooling means, or liquid nitrogen cooling means.
  • SoCBox2470 is predicted when a moving object is detected.
  • the prediction unit 2488 may predict the operation of SoCBox2470 using AI.
  • the model storage unit 2486 stores the learning model received from the management server 2440.
  • the prediction unit 2488 predicts the operating status of the SoCBox 2470 by inputting the detection results by the MoPU 2458 acquired by the information acquisition unit 2482 into the learning model stored in the model storage unit 2486.
  • the learning model outputs the status and amount of change of the computing power of the SoCBox 2470 as the operating status.
  • the prediction unit 2488 may also predict and output the temperature changes of each of the multiple parts of the SoCBox 2470 along with the operating status.
  • the cooling execution unit 2484 may start cooling the SoCBox 2470 according to the operating status of the SoCBox 2470 predicted by the AI. For example, the cooling execution unit 2484 starts cooling the SoCBox 2470 when the power computing power status of the SoCBox 2470 predicted as the operating status and the amount of change exceed a predetermined threshold.
  • the cooling execution unit 2484 may also start cooling the SoCBox 2470 according to the operating status of the SoCBox 2470 predicted by the AI and the temperature change of the parts in the SoCBox 2470. For example, the cooling execution unit 2484 starts cooling the corresponding parts in the SoCBox 2470 when the power computing power status of the SoCBox 2470 predicted as the operating status and the amount of change exceed a predetermined threshold and when the temperature change exceeds a predetermined threshold.
  • the cooling unit 2490 may also include multiple types of cooling means.
  • the cooling unit 2490 may include multiple types of air cooling means.
  • the cooling unit 2490 may include multiple types of water cooling means.
  • the cooling unit 2490 may include multiple types of liquid nitrogen cooling means.
  • the cooling unit 2490 may include multiple of one or more types of air cooling means, one or more types of water cooling means, and one or more liquid nitrogen cooling means.
  • the multiple cooling means may be arranged so that each cooling means cools a different part of the SoCBox 2470.
  • the prediction unit 2488 may predict temperature changes in each of the multiple parts of the SoCBox 2470 using information acquired by the information acquisition unit 2482.
  • the cooling execution unit 2484 may start cooling the SoCBox 2470 using a cooling means selected from the multiple cooling means that cool each of the multiple parts of the SoCBox 2470 based on the prediction result by the prediction unit 2488.
  • the cooling execution unit 2484 may cool the SoCBox 2470 using a cooling means according to the temperature of the SoCBox 2470 predicted by the prediction unit 2488. For example, the higher the temperature of the SoCBox 2470, the more cooling means the cooling execution unit 2484 uses to cool the SoCBox 2470. As a specific example, when it is predicted that the temperature of the SoCBox 2470 will exceed a first threshold, the cooling execution unit 2484 starts cooling using one of the multiple cooling means, but when it is still predicted that the temperature of the SoCBox 2470 will rise and exceed a second threshold, the cooling execution unit 2484 increases the number of cooling means to be used.
  • the cooling execution unit 2484 may use a more powerful cooling means to cool the SoCBox 2470 as the temperature of the SoCBox 2470 increases. For example, the cooling execution unit 2484 may start cooling using air cooling means when it is predicted that the temperature of the SoCBox 2470 will exceed a first threshold, start cooling using water cooling means when it is predicted that the temperature of the SoCBox 2470 will still rise and exceed a second threshold, and start cooling using liquid nitrogen cooling means when it is predicted that the temperature of the SoCBox 2470 will still rise and exceed a third threshold.
  • SoCBox2470 may have multiple processing chips, each of which may be located at a different position on SoCBox2470. Each of the multiple cooling means may be located at a position corresponding to each of the multiple processing chips.
  • cooling will be performed by the cooling means corresponding to the processing chip being used, thereby achieving efficient cooling.
  • the SoCBox2470 is cooled when a moving object is detected by the MoPU2458.
  • the present invention is not limited to this.
  • power regeneration using heat generated by the SoCBox2470 may be started.
  • a Peltier element may be installed in the SoCBox2470, and when a moving object is detected by the MoPU2458, power generation by the Peltier element using the heat generated by the SoCBox2470 may be started.
  • power can be obtained immediately when the SoCBox2470 generates heat, improving energy efficiency.
  • FIG. 65 shows an example of a schematic diagram of a SoCBox 2470 and a cooling unit 2490.
  • FIG. 65 shows an example where the cooling unit 2490 is configured with a single cooling means.
  • the cooling execution device 2480 detects a moving object, the cooling unit 2490 starts cooling, thereby cooling the entire SoCBox 2470.
  • FIG. 66 shows an example of a schematic diagram of a SoCBox 2470 and a cooling unit 2490.
  • FIG. 66 shows an example where the cooling unit 2490 is configured with multiple cooling means for cooling each of the multiple parts of the SoCBox 2470.
  • the cooling execution device 2480 uses the temperature sensor 2469 to predict temperature changes in each of the multiple parts of the SoCBox 2470, and when it predicts that any part will start to generate heat or that the temperature of any part will exceed a predetermined threshold, performs cooling using only the cooling means corresponding to that part, thereby achieving efficient cooling.
  • FIG. 67 shows an example of the SoCBox 2470 and the cooling unit 2490.
  • FIG. 67 shows an example in which the cooling unit 2490 is configured with two types of cooling means.
  • the cooling execution device 2480 predicts the temperature change of each of the multiple parts of the SoCBox 2470, and when it predicts that any part will start to generate heat or that the temperature of any part will exceed a predetermined threshold, performs cooling using only the cooling means corresponding to that part, thereby realizing efficient cooling.
  • the cooling execution device 2480 increases the number of cooling means used as the temperature of the SoCBox 2470 increases; in other words, in this example, first, cooling using one of the two types of cooling means is started, and when the temperature of the SoCBox 2470 further increases, cooling using the other cooling means is started, thereby making it possible to efficiently use energy for cooling.
  • FIG. 68 shows an overview of the risk prediction capabilities of the ultra-high performance autonomous driving AI according to this embodiment.
  • multiple types of sensor information are converted into AI data and stored in the cloud.
  • the AI predicts and determines the best mix of situations every nanosecond (one billionth of a second), optimizing the operation of the vehicle 100.
  • sensors provided on the vehicle 100 used in this embodiment include radar, LiDAR, high pixel/telephoto/ultra-wide-angle/360-degree/high performance cameras, vision recognition, fine sound, ultrasound, vibration, infrared, ultraviolet, electromagnetic waves, temperature, humidity, spot AI weather forecast, high precision multi-channel GPS, low altitude satellite information, long tail incident AI data, etc.
  • Long tail incident AI data is trip data for vehicles with level 5 implementation.
  • the above sensors include a sensor that detects the situation around the vehicle.
  • the sensor that detects the situation around the vehicle detects the situation around the vehicle at a second period that is shorter than a first period in which the surroundings of the vehicle are photographed by a camera or the like.
  • Sensor information collected from multiple types of sensors includes the shift in the center of gravity of body weight, detection of road material, detection of outside air temperature, detection of outside air humidity, detection of the up, down, side, and diagonal inclination angle of a slope, detection of how frozen the road is, detection of the amount of moisture, detection of the material of each tire, wear condition, detection of air pressure, road width, whether or not overtaking is prohibited, oncoming vehicles, information on the types of vehicles in front and behind, the cruising status of those vehicles, and surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, fires, wind, typhoons, heavy rain, light rain, blizzards, fog, etc.), and in this embodiment, these detections are performed every billionth of a second.
  • the Central Brain 15 functions as a calculation unit that calculates control variables for controlling the wheel speed and inclination of each of the four wheels of the vehicle, and the wheel speed, inclination, and suspension for each suspension that supports the wheels, for each combination of a predetermined number of pieces of sensor information detected by the above sensors.
  • the inclination of the wheels includes both the inclination of the wheels relative to an axis horizontal to the road, and the inclination of the wheels relative to an axis perpendicular to the road.
  • the predetermined number is, for example, three.
  • index values for controlling the wheel speed, inclination, and suspension are calculated.
  • the number of index values calculated from the combination of three pieces of sensor information is, for example, three.
  • the index values for controlling the wheel speed, inclination, and suspension include, for example, an index value calculated from the information on air resistance among the sensor information, an index value calculated from the information on road resistance among the sensor information, and an index value calculated from the information on slip coefficient among the sensor information. Then, the index values calculated for each combination of multiple sensor information with different combinations of sensor information are aggregated to calculate the control variables for controlling the wheel speed, inclination, and suspension.
  • multiple index values are calculated for the combination of sensors 1, 2, and 3, multiple index values are calculated for the combination of sensors 4, 5, and 6, and multiple index values are calculated for the combination of sensors 1, 3, and 7, and these index values are aggregated to calculate the control variables.
  • a predetermined number for example, 300 index values are calculated while changing the combination of sensor information, and the control variables are calculated.
  • the calculation unit may be capable of calculating the control variables from the sensor information using machine learning, more specifically, deep learning.
  • the calculation unit may be configured with AI (Artificial Intelligence).
  • This calculation unit can obtain accurate control variables by performing multivariate analysis (e.g., see formula (2)) using the calculation power of Level 6 on data collected every nanosecond by many sensor groups, etc., using an integral method such as that shown in formula (1) below. More specifically, while obtaining integral values of delta values of various Ultra High Resolutions using the calculation power of Level 6, it can obtain indexed values of each variable at the edge level and in real time, and obtain the most probabilistic value of the result occurring in the next nanosecond.
  • multivariate analysis e.g., see formula (2)
  • the calculation power of Level 6 on data collected every nanosecond by many sensor groups, etc.
  • an integral method such as that shown in formula (1) below. More specifically, while obtaining integral values of delta values of various Ultra High Resolutions using the calculation power of Level 6, it can obtain indexed values of each variable at the edge level and in real time, and obtain the most probabilistic value of the result occurring in the next nanosecond.
  • DL stands for deep learning
  • A, B, C, D, ..., N are index values calculated from sensor information, such as an index value calculated from air resistance, an index value calculated from road resistance, an index value calculated from road elements, and an index value calculated from the slip coefficient. If there are 300 index values calculated while changing the combination of a predetermined number of pieces of sensor information, then the index values A through N in the formula will also be 300, and the 300 index values will be aggregated.
  • the Central Brain 15 calculates a total of 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels with respect to an axis horizontal to the road, the inclination of each of the four wheels with respect to an axis perpendicular to the road, and the suspension supporting each of the four wheels.
  • the calculation of the above 16 control variables is performed every 1 billionth of a second.
  • the wheel speed of each of the above four wheels can also be referred to as the "spin rate (revolutions) of the in-wheel motor mounted on each of the four wheels," and the inclination of each of the four wheels with respect to the axis horizontal to the road can also be referred to as the "horizontal angle of each of the four wheels.”
  • the above control variables are, for example, values for optimal steering suited to the mountain road when the vehicle is traveling on a mountain road, and values for driving at an optimal angle suited to the parking lot when the vehicle is parked in a parking lot.
  • the Central Brain 15 calculates a total of 16 control variables to control the wheel speed of each of the four wheels, the inclination of each of the four wheels relative to an axis horizontal to the road, the inclination of each of the four wheels relative to an axis perpendicular to the road, and the suspension supporting each of the four wheels, but this calculation does not have to be performed by the Central Brain 15, and a dedicated anchor chip for calculating the above control variables may be provided separately.
  • DL in formula (2) indicates deep learning
  • A, B, C, D, ..., N indicate value index values calculated from sensor information. If the number of indexes to be aggregated is 300 as described above, the number of indexes in this formula will also be 300.
  • the Central Brain 15 functions as a control unit that controls automatic driving in units of one billionth of a second based on the control variables calculated above. Specifically, the Central Brain 15 controls the in-wheel motors mounted on each of the four wheels based on the 16 control variables described above, thereby controlling the wheel speed and inclination of each of the four wheels of the vehicle 100, and the suspensions supporting each of the four wheels, thereby performing automatic driving.
  • the Central Brain 15 repeatedly executes the flowchart shown in FIG.
  • step S2510 the Central Brain 15 acquires sensor information including road information detected by the sensor. The Central Brain 15 then proceeds to step S2511.
  • step S2511 the Central Brain 15 calculates the 16 control variables based on the sensor information acquired in step S2510. Then, the Central Brain 15 proceeds to step S2512.
  • step S2512 the Central Brain 15 controls the autonomous driving based on the control variables calculated in step S2511. Then, the Central Brain 15 ends the processing of this flowchart.
  • FIGS. 70 to 74 are explanatory diagrams explaining an example of autonomous driving control by the Central Brain 15. Note that FIG. 70 to FIG. 72 are explanatory diagrams showing the vehicle 100 viewed from the front, and FIG. 73 and FIG. 74 are explanatory diagrams showing the vehicle 100 viewed from below.
  • Figure 70 shows the vehicle 100 traveling on a flat road R1.
  • the Central Brain 15 controls the in-wheel motors 3125 mounted on each of the four wheels 3025 based on the above 16 control variables calculated for the road R1, thereby controlling the wheel speed and inclination of each of the four wheels 3025, as well as the suspensions 3225 supporting each of the four wheels 3025, thereby performing automatic driving.
  • Figure 71 shows the vehicle 100 traveling on mountain road R2.
  • the Central Brain 15 controls the in-wheel motors 3125 mounted on each of the four wheels 3025 based on the above 16 control variables calculated for mountain road R2, thereby controlling the wheel speed and inclination of each of the four wheels 3025, as well as the suspensions 3225 supporting each of the four wheels 3025, to perform automatic driving.
  • Figure 72 shows the case where the vehicle 100 is driving through puddle R3.
  • the Central Brain 15 controls the in-wheel motors 3125 mounted on each of the four wheels 3025 based on the above 16 control variables calculated for puddle R3, thereby controlling the wheel speed and inclination of each of the four wheels 3025, as well as the suspensions 3225 supporting each of the four wheels 3025, to perform automatic driving.
  • Figure 73 shows a case where the vehicle 100 is curved in the direction indicated by the arrow A1.
  • the Central Brain 15 controls the in-wheel motors 3125 mounted on each of the four wheels 3025 based on the above 16 control variables calculated in accordance with the approaching curve, thereby controlling the wheel speed and inclination of each of the four wheels 3025, as well as the suspensions 3225 (not shown) supporting each of the four wheels 3025, thereby performing automatic driving.
  • Figure 74 shows the case where the vehicle 100 moves parallel in the direction indicated by the arrow A2.
  • the Central Brain 15 controls the in-wheel motors 3125 mounted on each of the four wheels 3025 based on the above 16 control variables calculated in accordance with the parallel movement in the direction indicated by the arrow A2, thereby controlling the wheel speed and inclination of each of the four wheels 3025, and the suspensions 3225 (not shown) supporting each of the four wheels 3025, thereby performing automatic driving.
  • the vehicle in question was not able to analyze road conditions and control the in-wheel motors.
  • the vehicle in question was unable to perform appropriate automatic driving based on road conditions, for example, when traveling on mountain roads or through puddles.
  • the vehicle 100 can perform automatic driving with speed, steering, etc. controlled to suit the environment, such as road conditions, based on the configuration described above.
  • the Central Brain 15 which functions as an example of an information processing device according to this embodiment, includes at least the functions of an acquisition unit capable of acquiring multiple pieces of vehicle-related information, a calculation unit that calculates control variables from the multiple pieces of information acquired by the acquisition unit, and a control unit that executes driving control of the vehicle based on the control variables.
  • the Central Brain 15 uses one or more pieces of sensor information detected by the above sensors to calculate control variables for controlling the wheel speed and inclination of each of the vehicle's four wheels, and the wheel speed, inclination, and suspension for each suspension that supports the wheels.
  • the inclination of the wheels includes both the inclination of the wheels relative to an axis horizontal to the road, and the inclination of the wheels relative to an axis perpendicular to the road.
  • the one or more pieces of sensor information can be sensor information from a sensor that detects the situation around the vehicle. Furthermore, when multiple pieces of sensor information are used as the one or more pieces of sensor information, a predetermined number of pieces of sensor information can be applied. The predetermined number is, for example, three. Based on the three pieces of sensor information, index values for controlling the wheel speed, inclination, and suspension are calculated. The number of index values calculated from the combination of the three pieces of sensor information is, for example, three.
  • the index values for controlling the wheel speed, inclination, and suspension include, for example, an index value calculated from information on air resistance from the sensor information, an index value calculated from information on road resistance from the sensor information, and an index value calculated from information on the slip coefficient from the sensor information.
  • an obstacle may approach the vehicle.
  • obstacles include other vehicles other than the host vehicle while traveling, walls, guardrails, curbs, and other installed objects.
  • another vehicle approaching the vehicle 100 is used as an example of an obstacle.
  • an obstacle is an example of a target object.
  • FIG. 75 is a schematic diagram showing a state in which vehicle 100 is traveling on a two-lane road with two opposite lanes, with other vehicles 100B, 100C, and 100D traveling around vehicle 100A.
  • vehicle 100B is traveling behind vehicle 100A
  • vehicle 100D is traveling ahead of vehicle 100D in the oncoming lane, followed by vehicle 100C.
  • the Central Brain 15 of the vehicle 100A controls the in-wheel motors 3125 mounted on each of the four wheels 3025 based on the above-mentioned control variables calculated in accordance with the constantly changing conditions of the vehicle traveling on the road, thereby controlling the wheel speed and inclination of each of the four wheels 3025, as well as the suspensions 3225 supporting each of the four wheels 3025, to perform automatic driving.
  • the Central Brain 15 also uses sensors to detect the behavior of the other vehicles 100B, 100C, and 100D around the vehicle 100A and acquires this information as sensor information.
  • the Central Brain 15 has a function of predicting a collision, including contact, with an obstacle as an object relative to the host vehicle from the acquired sensor information in order to at least avoid the obstacle while traveling. As shown in FIG. 75, when it is predicted from the sensor information that another vehicle 100D will enter in front of the host vehicle 100A, the Central Brain 15 calculates a control variable indicating the behavior of the host vehicle 100A that can at least avoid contact with the other vehicle 100D.
  • the vehicle 100A will collide with another vehicle 100D on route 100Ax1 in its current driving state.
  • the Central Brain 15 calculates routes 100Ax2, 100Ax3, etc. that avoid a collision with the other vehicle 100D, selects one of them, and calculates the control variable.
  • the route may be selected such that the load due to the control variable in the vehicle 100A is lower than a predetermined value (e.g., the minimum value).
  • the information processing device 10 according to the 26th embodiment has the same configuration as that of the first embodiment, as shown in FIG. 2.
  • the above-mentioned Central Brain 15 is both a processing device in the broad sense that functions as an information processing device including a gateway, and a processing device in the narrow sense when the functions are classified by processor.
  • the sensor information can detect the situation around the vehicle 100 at a second period that is shorter than the first period in which the surroundings of the vehicle are photographed by a camera or the like. That is, at the above-mentioned Level 5, the surrounding situation can be detected twice every 0.3 seconds by a camera or the like, but in this embodiment, the surrounding situation can be detected 576 times at Level 6. Then, the index value and control variable can be calculated for each of the 576 detections of the surrounding situation, and the vehicle behavior can be controlled to enable faster and safer driving than the automated driving performed at Level 5.
  • the Central Brain 15 may calculate a control variable that corresponds to damage caused to the vehicle in an unavoidable collision that is equal to or less than a predetermined threshold as the control variable.
  • the above-mentioned calculation unit includes predicting a collision of an object with the vehicle 100 based on the acquired multiple sensor information, and when the predicted prediction result indicates an unavoidable collision, calculating a control variable that corresponds to damage caused to the vehicle in an unavoidable collision that is equal to or less than a predetermined threshold as the control variable.
  • At least one of the deformation position and deformation amount of the vehicle can be applied as the damage caused to the vehicle.
  • at least one of the collision angle of the vehicle and the vehicle speed can be applied as the control variable corresponding to the damage caused to the vehicle.
  • Figure 76 is a flowchart showing an example of the processing flow in the Central Brain 15 that enables reduction of damage occurring to the vehicle 100 in the event of an unavoidable collision.
  • the Central Brain 15 is capable of repeatedly executing the processing shown in Figure 76 instead of the processing shown in Figure 69. Note that explanations of overlapping parts with the processing shown in Figure 69 will be omitted or simplified.
  • step S2610 the Central Brain 15 calculates the relationship between the vehicle and the other vehicle. Specifically, in step S2610, a collision of an object (e.g., another vehicle) with the vehicle 100 is predicted based on sensor information, and it is determined whether the prediction result indicates that the collision is unavoidable. Then, in step S2620, it is determined whether the result of the prediction indicates that the collision is unavoidable. If the determination in step S2620 is positive, the process proceeds to step S2640, and if the determination is negative, the control variables are calculated in step S2630. In step S2640, the control variables that reduce damage to the vehicle in the event of an unavoidable collision are calculated as described above, and the process proceeds to step S2650.
  • step S2610 the control variables that reduce damage to the vehicle in the event of an unavoidable collision are calculated as described above, and the process proceeds to step S2650.
  • steps S2610, S2620, S2630, and S2640 is not limited to the above-mentioned order.
  • the processing of steps S2620 and S2640 may be executed after the processing of step S2630.
  • a collision of another vehicle with the vehicle 100 is predicted, and a control variable indicating a relationship with a minimum risk for the relationship between the vehicle and the other vehicle is calculated.
  • the relationship with a minimum risk include a relationship including contact or collision, and a relationship that is unlikely to include contact or collision among relationships that avoid the relationship.
  • a control variable with the lowest collision risk is calculated.
  • step S2620 the behavior of the vehicle 100 based on the calculated control variable is predicted to be a collision of another vehicle with the vehicle 100, and it is determined whether or not a collision is unavoidable based on the prediction result. In this case, if a negative determination is made in step S2620, the process may proceed directly to step S2650. On the other hand, if the answer is positive, in step S2640, the control variables calculated in step S2630 are calculated to further reduce the collision risk. Specifically, at least one of the vehicle collision angle and vehicle speed is calculated to reduce damage to the vehicle caused by contact or collision between the host vehicle and another vehicle.
  • the control variables related to the speed of the vehicle 100 may be selected by setting 10 types each of large, medium, and small (L, M, S) on the acceleration side to apply a total of 30 types of patterns, and 10 types each of large, medium, and small (L, M, S) on the deceleration side to apply a total of 30 types of patterns.
  • the relationship between the vehicle and the other vehicle changes from moment to moment, and when the vehicle and the other vehicle are approaching each other, the distance tends to decrease, so the options for selecting a pattern become smaller from moment to moment, the processing time for selection can be reduced, and adjustment of the delta difference is also reduced.
  • control variables may be calculated to reduce the risk of collision with at least one or all of the other vehicles 100B, 100C, and 100D surrounding the host vehicle 100A described above.
  • the Central Brain 15 can control, for example, the in-wheel motors 3125 mounted on each of the four wheels 3025 based on control variables calculated in accordance with the prediction of a collision, including contact, thereby controlling the wheel speed and inclination of each of the four wheels 3025, as well as the suspensions 3225 supporting each of the four wheels 3025, thereby making it possible to avoid a collision or reduce damage to the vehicle in the event of a collision and enable automatic driving.
  • FIG. 77 shows an example of a hardware configuration of a computer 1200 functioning as an information processing device 10 or a cooling execution device 110.
  • a program installed on the computer 1200 can cause the computer 1200 to function as one or more "parts" of the device according to this embodiment, or to execute operations or one or more "parts” associated with the device according to this embodiment, and/or to execute a process or steps of the process according to this embodiment.
  • Such a program can be executed by the CPU 1212 to cause the computer 1200 to execute specific operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.
  • the computer 1200 includes a CPU 1212, a RAM 1214, and a graphics controller 1216, which are connected to each other by a host controller 1210.
  • the computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220.
  • the DVD drive may be a DVD-ROM drive, a DVD-RAM drive, etc.
  • the storage device 1224 may be a hard disk drive, a solid state drive, etc.
  • the computer 1200 also includes a ROM 1230 and a legacy input/output unit such as a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.
  • the CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit.
  • the graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.
  • the communication interface 1222 communicates with other electronic devices via a network.
  • the storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200.
  • the DVD drive reads programs or data from a DVD-ROM or the like and provides them to the storage device 1224.
  • the IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.
  • ROM 1230 stores therein a boot program or the like executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200.
  • I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.
  • the programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card.
  • the programs are read from the computer-readable storage medium, installed in storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by CPU 1212.
  • the information processing described in these programs is read by computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above.
  • An apparatus or method may be constructed by realizing the operation or processing of information according to the use of computer 1200.
  • CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program.
  • communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, a DVD-ROM, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.
  • the CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.
  • an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc.
  • CPU 1212 may perform various types of processing on data read from RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and write back the results to RAM 1214.
  • CPU 1212 may also search for information in a file, database, etc. in the recording medium.
  • CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.
  • the above-described programs or software modules may be stored in a computer-readable storage medium on the computer 1200 or in the vicinity of the computer 1200.
  • a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.
  • the blocks in the flowcharts and block diagrams in this embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and “parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium.
  • the dedicated circuitry may include digital and/or analog hardware circuitry and may include integrated circuits (ICs) and/or discrete circuits.
  • the programmable circuitry may include reconfigurable hardware circuitry including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs) and programmable logic arrays (PLAs).
  • FPGAs field programmable gate arrays
  • PDAs programmable logic arrays
  • a computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create a means for performing the operations specified in the flowchart or block diagram.
  • Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like.
  • Computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
  • RAMs random access memories
  • ROMs read-only memories
  • EPROMs or flash memories erasable programmable read-only memories
  • EEPROMs electrically erasable programmable read-only memories
  • SRAMs static random access memories
  • CD-ROMs compact disk read-only memories
  • DVDs digital versatile disks
  • Blu-ray disks memory sticks, integrated circuit cards, and the like.
  • the computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
  • ISA instruction set architecture
  • machine instructions machine-dependent instructions
  • microcode firmware instructions
  • state setting data or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
  • the computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or to a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN) such as the Internet, so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or to a programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams.
  • processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.
  • each processor e.g., IPU11, MoPU12, and Central Brain15
  • the processor that executes each process is not limited.
  • the processes executed by MoPU12 in the above embodiment may be executed by Central Brain15 instead of MoPU12, or may be executed by a processor other than IPU11, MoPU12, and Central Brain15.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Mathematical Physics (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Power Engineering (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Electromagnetism (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Computer Hardware Design (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Thermal Sciences (AREA)
  • Traffic Control Systems (AREA)

Abstract

情報処理装置は、第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、を備える。

Description

情報処理装置、車両、情報処理方法、及び情報処理プログラム
 本開示は、情報処理装置、車両、情報処理方法、及び情報処理プログラムに関する。
 特開2022-035198号公報には、自動運転機能を有する車両について記載されている。
 ところで、特開2022-035198号公報に記載のように車両を自動運転する場合は、カメラによって車両の周囲が撮影された複数の画像を用いて自動運転の制御が行われる。そのため、従来の自動運転においては、自動運転を制御するプロセッサが取得するデータ量が多くなってしまい、自動運転の制御に要する計算量が多くなるとの問題があった。
 そこで、本開示は、カメラにより撮影された物体の撮影情報を所定の出力先に出力する場合に、当該出力先に出力するデータ量を削減することができる情報処理装置、車両、情報処理方法、及び情報処理プログラムを提供することを目的とする。
 第1態様の情報処理装置は、第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、を備える。
 第2態様の情報処理装置は、第1態様の情報処理装置において、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える。
 第3態様の情報処理装置は、第1態様又は第2態様の情報処理装置において、前記第1カメラのフレームレートは可変であり、前記第1プロセッサは、所定要因に応じて前記第1カメラのフレームレートを変更する。
 第4態様の情報処理装置は、第3態様の情報処理装置において、前記第1プロセッサは、所定の対象物に対する外部環境に関するスコアを算出する。
 第5態様の情報処理装置は、第4態様の情報処理装置において、前記第1プロセッサは、算出した前記外部環境に関するスコアに応じて、前記第1カメラのフレームレートを変更する。
 第6態様の情報処理装置は、第1態様から第5態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える。
 第7態様の情報処理装置は、第6態様の情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の座標値を出力する。
 第8態様の情報処理装置は、第7態様の情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の複数の頂点の座標値を出力する。
 第9態様の情報処理装置は、第1態様から第8態様の何れか1つの情報処理装置において、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する第3プロセッサを備える。
 第10態様の情報処理装置は、第9態様の情報処理装置において、前記第3プロセッサは、検知部が検知した検知情報に基づいて、前記移動体の自動運転を制御するための制御変数を算出し、算出した前記制御変数と、前記点情報及び前記識別情報とに基づいて、前記移動体の自動運転を制御する。
 第11態様の情報処理装置は、第1態様から第10態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、前記点情報を出力し、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える。
 第12態様の情報処理装置は、第11態様の情報処理装置において、前記第1プロセッサは、所定要因により前記第1カメラに含まれる可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記第1カメラに含まれる赤外線カメラにより撮影された前記物体の赤外線画像に基づいて前記点情報を出力する。
 第13態様の情報処理装置は、第12態様の情報処理装置において、前記第1プロセッサは、前記可視光カメラにより前記可視光画像を撮影するタイミングと、前記赤外線カメラにより前記赤外線画像を撮影するタイミングとを同期させる。
 第14態様の情報処理装置は、第1態様から第13態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、前記点情報を出力し、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える。
 第15態様の情報処理装置は、第14態様の情報処理装置において、前記第1プロセッサは、前記第1カメラにより前記画像を撮影するタイミングと、前記レーダーが前記レーダー信号に基づく前記物体の3次元点群データを取得するタイミングとを同期させる。
 第16態様の情報処理装置は、第14態様又は第15態様の情報処理装置において、前記第1カメラによって撮影される単位時間あたりの画像数及び前記レーダーによって取得される単位時間あたりの3次元点群データの数は、前記第2カメラによって撮影される単位時間あたりの画像数より多い。
 第17態様の情報処理装置は、第1態様から第16態様の何れか1つの情報処理装置において、前記第2プロセッサは、前記第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記ラベル情報を対応付ける第3プロセッサを備える。
 第18態様の情報処理装置は、第17態様の情報処理装置において、前記第3プロセッサは、前記点情報が示す前記物体の位置情報と、前記位置情報が示す位置に存在する前記物体についての前記ラベル情報とを対応付ける。
 第19態様の情報処理装置は、第18態様の情報処理装置において、前記第3プロセッサは、前記第2プロセッサが前記ラベル情報を出力したタイミングと同じタイミングで前記第1プロセッサから出力された前記点情報を前記ラベル情報に対応付ける。
 第20態様の情報処理装置は、第18態様又は第19態様の情報処理装置において、前記第3プロセッサは、前記点情報及び前記ラベル情報を対応付けた後に前記第1プロセッサから新たな前記点情報が出力された場合、新たな前記点情報についても前記ラベル情報と対応付ける。
 第21態様の情報処理装置は、第1態様から第20態様の何れか1つの情報処理装置において、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する。
 第22態様の情報処理装置は、第21態様の情報処理装置において、前記第1プロセッサは、複数の前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記奥行き方向の座標値を導出する。
 第23態様の情報処理装置は、第21態様又は第22態様の情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する。
 第24態様の情報処理装置は、第21態様から第23態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及び照射装置により前記物体に照射されたストラクチャードライトを撮影した結果から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する。
 第25態様の情報処理装置は、第21態様から第24態様の何れか1つの情報処理装置において、前記第1プロセッサは、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する。
 第26態様の情報処理装置は、第1態様の情報処理装置において、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、前記第3プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する。
 第27態様の情報処理装置は、第1態様から第26態様の何れか1つの情報処理装置において、前記第1プロセッサは、イベントカメラにより撮影された前記物体の画像から、前記点情報を出力し、前記第2プロセッサは、前記イベントカメラと対応する方向を向いた前記第2カメラにより撮影された前記物体の画像から、前記識別情報を出力し、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える。
 第28態様の情報処理装置は、第27態様の情報処理装置において、前記第1プロセッサは、所定要因により可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記イベントカメラにより撮影された前記物体の画像に基づいて前記点情報を出力する。
 第29態様の情報処理装置は、第28態様の情報処理装置において、前記所定要因は、前記物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む。
 第30態様の情報処理装置は、第27態様から第29態様の何れか1つの情報処理装置において、前記イベントカメラは、現時刻に撮影された画像と前時刻に撮影された画像との差異部分を表すイベント画像を出力するカメラである。
 第31態様の情報処理装置は、第1態様から第30態様の何れか1つの情報処理装置において、前記第2プロセッサは、撮影された前記物体の画像を、第1のフレームレートで出力し、前記第1プロセッサは、撮影された前記物体の動きを示す動き情報を、前記第1のフレームレートよりも高い第2のフレームレートで出力し、前記画像及び前記動き情報に基づいて、車両の運転制御を実行する第3プロセッサを備える。
 第32態様の情報処理装置は、第31態様の情報処理装置において、前記第2のフレームレートは、前記第1のフレームレートの10倍以上である。
 第33態様の情報処理装置は、第31態様又は第32態様の情報処理装置において、前記第2のフレームレートは、100フレーム/秒以上である。
 第34態様の情報処理装置は、第31態様から第33態様の何れか1つの情報処理装置において、前記第1プロセッサは、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を出力する。
 第35態様の情報処理装置は、第34態様の情報処理装置において、2つの前記第1プロセッサを用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を出力する。
 第36態様の情報処理装置は、第35態様の情報処理装置において、前記第3プロセッサは、10億分の1秒単位で複数の情報を処理する能力を有する。
 第37態様の情報処理装置は、第1態様の情報処理装置において、フレームレートが100フレーム/秒以上のカメラで撮影された物体の画像から、物体の存在位置を示す点のみを抽出し、前記の物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報をプロセッサから出力する。
 第38態様の情報処理装置は、第35態様の情報処理装置において、前記第1プロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について前記ベクトル情報を出力する。
 第39態様の情報処理装置は、第1態様から第38態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する。
 第40態様の情報処理装置は、第39態様の情報処理装置において、前記第1プロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する。
 第41態様の情報処理装置は、第39態様又は第40態様の情報処理装置において、前記第1プロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する。
 第42態様の情報処理装置は、第39態様から第41態様の何れか1つの情報処理装置において、前記画像は、赤外線画像を含む。
 第43態様の情報処理装置は、第39態様から第42態様の何れか1つの情報処理装置において、前記画像は、互いに同期した可視光画像及び赤外線画像を含む。
 第44態様の情報処理装置は、第39態様から第43態様の何れか1つの情報処理装置において、2つの前記第1プロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する。
 第45態様の情報処理装置は、第39態様から第44態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する。
 第46態様の情報処理装置は、第39態様から第45態様の何れか1つの情報処理装置において、前記物体の画像を1000フレーム/秒未満のフレームレートで出力する前記第2プロセッサと、前記動き情報と、前記第2プロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3プロセッサと、を更に含む。
 第47態様の情報処理装置は、第1態様から第46態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第48態様の情報処理装置は、第47態様の情報処理装置において、前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、前記第1プロセッサは、外部環境に関するスコアを計算し、前記スコアに応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第49態様の情報処理装置は、第48態様の情報処理装置において、前記情報処理装置は車両に搭載され、前記第1プロセッサは、前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、前記危険度に応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第50態様の情報処理装置は、第47態様から第49態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記画像から物体を抽出し、前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第51態様の情報処理装置は、第47態様から第50態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記画像から物体を抽出し、前記物体毎にスコアを計算し、前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第52態様の情報処理装置は、第1態様から第51態様の何れか1つの情報処理装置において、第1の水平画角の第1のカメラと、前記第1の水平画角よりも広い第2の水平画角の第2のカメラと、前記第1のカメラの撮影方向を調整する調整部と、を備え、前記第1プロセッサは、前記第2のカメラにより取得された画像において前記第1のカメラの死角にある物体の動きを検知した場合、前記第1のカメラの撮影方向を検知した物体の方向に向けるように前記調整部を制御する。
 第53態様の情報処理装置は、第52態様の情報処理装置において、前記第2のカメラの水平画角は、360°である。
 第54態様の情報処理装置は、第53態様の情報処理装置において、前記調整部の水平方向における撮影方向の調整範囲は、基準方向に対して±135°以内の範囲である。
 第55態様の情報処理装置は、第52態様から第54態様の何れか1つの情報処理装置において、前記第1のカメラは、前記第2のカメラよりも単位画角当たりの解像度が高い。
 第56態様の情報処理装置は、第52態様から第55態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記第1のカメラにより取得された画像、及び、前記第2のカメラにより取得された画像を用いて、画像中の物体までの距離の情報を取得する。
 第57態様の情報処理装置は、第1態様から第56態様の何れか1つの情報処理装置において、画像から抽出した物体の動きを示す動き情報を出力する前記第1プロセッサと、画像から抽出した物体の種別を示す種別情報を出力する前記第2プロセッサと、前記動き情報及び前記種別情報に基づいて、前記物体に対する応答制御を行う第3プロセッサと、自装置が搭載された移動体の外部に設置された外部カメラにより取得された画像及び当該外部カメラの位置情報を取得する取得部と、を備え、前記第2プロセッサは、外部カメラにより取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラの位置情報と関連付けて出力する。
 第58態様の情報処理装置は、第57態様の情報処理装置において、前記第2プロセッサは、外部カメラにより取得された画像から抽出した物体が、前記移動体の進行に影響を及ぼす可能性がある物体である場合に、進行に影響を及ぼす可能性がある物体であることを示す識別情報を付して、当該物体の種別情報を出力する。
 第59態様の情報処理装置は、第58態様の情報処理装置において、前記移動体の進行に影響を及ぼす可能性がある物体は、人又は動物である。
 第60態様の情報処理装置は、第57態様から第59態様の何れか1つの情報処理装置において、前記取得部は、前記移動体の進行ルートの前方に位置する外部カメラから画像及び位置情報を取得する。
 第61態様の情報処理装置は、第60態様の情報処理装置において、前記取得部は、前記移動体の進行ルートの前方において、自装置から最も近い外部カメラのみから画像及び位置情報を取得する。
 第62態様の情報処理装置は、第60態様又は第61態様の情報処理装置において、前記取得部は、前記移動体の進行ルートを案内するナビゲーションシステムのルート情報に基づいて、前記移動体の進行ルートの前方に位置する外部カメラを特定する。
 第63態様の情報処理装置は、第1態様から第62態様の何れか1つの情報処理装置において、第1位置、および、前記第1位置とは少なくとも水平方向の位置が異なる第2位置へカメラを順次移動させると共に、前記カメラによって前記第1位置および前記第2位置で各々画像を撮影させる撮影部と、前記第1位置で撮影された第1画像および前記第2位置で撮影された第2画像に基づいて、前記第1画像および前記第2画像に各々映っている物体の3次元位置を算出する処理部と、を含む。
 第64態様の情報処理装置は、第63態様の情報処理装置において、前記撮影部は、前記カメラが前記第1位置および前記第2位置を各々通る環状の経路に沿って循環移動するように、前記カメラが取り付けられた部材を回転させる移動部を含む。
 第65態様の情報処理装置は、第64態様の情報処理装置において、前記処理部は、外部環境に関するスコアを計算し、計算した前記スコアに応じて前記カメラのフレームレートを決定し、前記移動部は、前記処理部によって決定されたフレームレートに応じて前記部材の回転速度を変更する。
 第66態様の情報処理装置は、第63態様から第65態様の何れか1つの情報処理装置において、前記処理部は、前記第1画像と前記第2画像との撮影時刻差に起因する、前記第1画像および前記第2画像における前記物体の2次元位置の偏差を補正して、前記物体の3次元位置を算出する。
 第67態様の情報処理装置は、第66態様の情報処理装置において、前記処理部は、前記第1位置で第1時刻に撮影された第1画像と前記第1位置で第2時刻に撮影された第1画像とのマッチングを行い、マッチング結果に基づいて、前記第2位置での撮影時刻である第3時刻に前記第1位置で撮影を行った場合に得られる仮想第1画像における前記物体の2次元位置を推定することで、前記物体の2次元位置の偏差を補正する。
 第68態様の情報処理装置は、第1態様から第67態様の何れか1つの情報処理装置において、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、前記第1カメラで撮像された画像が鮮明でない場合、前記第3プロセッサは、前記第2カメラで撮像された画像を前記第1カメラで撮像された画像の代替として使用する。
 第69態様の情報処理装置は、第68態様の情報処理装置において、前記第1カメラで撮像された画像が鮮明でない場合、前記第3プロセッサは、前記第1カメラで撮像される画像を鮮明にする処理を実行する。
 第70態様の情報処理装置は、第1態様から第69態様の何れか1つの情報処理装置において、前記第2プロセッサは、自装置の近隣に存在する他装置で撮影された前記物体の画像と、前記物体の位置情報とを用いて、前記第2カメラにより撮像された前記画像の位置情報を取得する。
 第71態様の情報処理装置は、第70態様の情報処理装置において、前記第2プロセッサは、前記他装置からの前記物体の画像及び前記物体の位置情報の送信時間を考慮して、前記第2カメラのフレームと前記他装置からの前記物体の画像のフレームとを同期させる。
 第72態様の情報処理装置は、第1態様から第71態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系を構成する少なくとも2つの座標軸において、前記物体の中心点若しくは重心点の存在位置を示した第1座標値又は前記物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の存在位置を示した第2座標値を、所定のタイミングで切り替えて出力する。
 第73態様の情報処理装置は、第72態様の情報処理装置において、前記第1プロセッサは、所定要因により前記第2カメラにより撮影された前記物体の画像から、撮影された前記物体を前記第2プロセッサが識別できない場合に、出力する座標値を前記第1座標値から前記第2座標値に切り替える。
 第74態様の情報処理装置は、第72態様又は第73態様の情報処理装置において、前記第1プロセッサは、前記物体の移動速度が所定閾値以下の場合、又は前記物体の移動方向が所定方向である場合に、出力する座標値を前記第2座標値から前記第1座標値に切り替える。
 第75態様の情報処理装置は、第72態様から第74態様の何れか1つの情報処理装置において、前記第1プロセッサから出力された前記第1座標値又は前記第2座標値及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える。
 第76態様の情報処理装置は、第1態様から第75態様の何れか1つの情報処理装置において、前記第1プロセッサは、移動体が通行する通行路内に存在する前記物体が前記移動体に接触する可能性が低いと判定できる場合、前記物体についての前記点情報の出力を停止する。
 第77態様の情報処理装置は、第76態様の情報処理装置において、前記第1プロセッサは、前記通行路内において前記移動体の移動ルート上に前記物体が存在せず、かつ前記移動ルートから前記物体が離れていく場合に、前記物体が前記移動体に接触する可能性が低いと判定する。
 第78態様の情報処理装置は、第1態様から第77態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報を出力すると共に、前記点情報の時系列から、点の動きを示す動き情報を算出して出力し、前記第1プロセッサから出力された前記動き情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、前記第3プロセッサは、動きの方向が対応する複数の物体の動き情報が検知された場合、前記複数の物体の動き情報を除去し、残りの前記動き情報と、前記識別情報を対応付ける。
 第79態様の情報処理装置は、第78態様の情報処理装置において、前記第1プロセッサは、前記点情報の時系列から、ハフ変換を用いて、点の動きの方向を算出し、前記算出された点の動きの方向の点情報の変化から、動きの速度を算出する。
 第80態様の情報処理装置は、第78態様又は第79態様の情報処理装置において、前記第3プロセッサは、前記第1プロセッサから出力された前記動き情報及び前記第2プロセッサから出力された前記識別情報を対応付け、前記動き情報及び前記識別情報に基づいて、移動体の自動運転を制御する。
 第81態様の情報処理装置は、第1態様から第80態様の何れか1つの情報処理装置において、少なくとも1つのプロセッサを備え、前記プロセッサは、カメラにより撮影された前記物体の画像から、前記点情報を出力し、複数フレームの画像から出力された前記点情報に基づいて、移動方向が上下方向の何れかの方向で、かつ同じ方向であり、上下方向の移動量が一定範囲内の点を一定数以上検出した場合、前記点情報に含まれる点の中から、検出した一定数以上の点以外の点のみを出力する。
 第82態様の情報処理装置は、第81態様の情報処理装置において、前記プロセッサは、前記カメラが設けられた移動体が直進中である場合、検出した一定数以上の点の中から、左右方向の移動量が閾値以上の点を更に出力する。
 第83態様の情報処理装置は、第1態様から第82態様の何れか1つの情報処理装置において、第1移動体に対して用いられる第1移動体プロセッサを備え、前記第1移動体プロセッサは、前記第1移動体の周囲が撮影されることによって得られた第1画像に基づいて、前記第1移動体の周囲に含まれる第1物体の種類を認識し、第2移動体に対して用いられる第2移動体プロセッサは、前記第2移動体の周囲が撮影されることによって得られた第2画像に基づいて、前記第2移動体の周囲に含まれる第2物体の種類を認識し、前記第1移動体プロセッサによって前記第1物体の種類として前記第2移動体が認識されており、かつ、前記第2移動体プロセッサによって前記第2物体の種類として前記第1移動体が認識されている場合に、前記第1移動体プロセッサは、前記第2移動体プロセッサによって前記第1移動体が認識されていることを示す識別子を設定する。
 第84態様の情報処理装置は、第83態様の情報処理装置において、前記第2移動体は、自動運転が可能な移動体であり、前記第1移動体プロセッサは、前記第1移動体プロセッサによって前記第1物体の種類として前記第2移動体が認識されており、前記第2移動体プロセッサによって前記第2物体の種類として前記第1移動体が認識されており、かつ、前記第2移動体が自動運転中である場合に、前記第1移動体プロセッサは、前記識別子を設定する。
 第85態様の情報処理装置は、第83態様又は第84態様の情報処理装置において、前記第1移動体及び前記第2移動体は、自動運転が可能な移動体であり、前記第1移動体プロセッサは、前記識別子が設定されており、かつ、前記第2移動体が自動運転中である場合に、前記第2移動体の挙動に基づいて前記第1移動体の自動運転を制御する。
 第86態様の情報処理装置は、第85態様の情報処理装置において、前記第2移動体プロセッサは、前記第2移動体の自動運転を制御し、前記第1移動体プロセッサは、前記挙動を示す情報として、前記第2移動体プロセッサが前記第2移動体の自動運転を制御する制御情報を取得し、前記制御情報に基づいて前記第1移動体の自動運転を制御する。
 第87態様の情報処理装置は、第86態様の情報処理装置において、前記第1移動体には、第1優先順位が付与されており、前記第2移動体には、第2優先順位が付与されており、前記第1移動体プロセッサは、前記第1優先順位が前記第2優先順位よりも高いことを条件に前記制御情報を取得する。
 第88態様の情報処理装置は、第85態様から第87態様の何れか1つの情報処理装置において、前記第1移動体プロセッサは、前記第1画像を得るために行われる撮影のフレームレートよりも高いフレームレートで前記第1移動体の周囲が撮影されることにより得られた第3画像に基づいて前記第1物体を点として捉えた第1点情報を出力し、前記第1移動体プロセッサによって前記第1物体の種類として認識された前記第2移動体を特定可能な第2移動体情報と前記第1点情報とを対応付け、対応付けた前記第2移動体情報及び前記第1点情報に基づいて前記第1移動体の自動運転を制御する。
 第89態様の情報処理装置は、第88態様の情報処理装置において、前記第1移動体プロセッサは、第1プロセッサ、第2プロセッサ、及び第3プロセッサを有し、前記第1プロセッサは、前記第1点情報を出力し、前記第2プロセッサは、前記第1画像に基づいて前記第1物体の種類を認識し、前記第3プロセッサは、前記第2移動体情報と前記第1点情報とを対応付け、かつ、前記第1移動体の自動運転を制御する。
 第90態様の情報処理装置は、第83態様から第89態様の何れか1つの情報処理装置において、前記第2移動体は、自動運転が可能な移動体であり、前記第2移動体プロセッサは、前記第2画像を得るために行われる撮影のフレームレートよりも高いフレームレートで前記第2移動体の周囲が撮影されることにより得られた第4画像に基づいて前記第2物体を点として捉えた第2点情報を出力し、前記第2移動体プロセッサによって前記第2物体の種類として認識された前記第1移動体を特定可能な第1移動体情報と前記第2点情報とを対応付け、対応付けた前記第1移動体情報及び前記第2点情報に基づいて前記第2移動体の自動運転を制御する制御処理を行い、前記第1移動体プロセッサは、前記第1移動体プロセッサによって前記第1物体の種類として前記第2移動体が認識されており、前記第2移動体プロセッサによって前記第2物体の種類として前記第1移動体が認識されており、かつ、前記第2移動体プロセッサによって前記制御処理が行われている場合に、前記識別子を設定する。
 第91態様の情報処理装置は、第85態様から第90態様の何れか1つの情報処理装置において、前記第1移動体プロセッサは、前記第1移動体と前記第2移動体との接触を回避可能な制御内容で前記第1移動体の自動運転を制御する。
 第92態様の情報処理装置は、第83態様から第91態様の何れか1つの情報処理装置において、前記第1移動体プロセッサは、前記識別子が設定された場合に、前記第2移動体プロセッサによって前記第1移動体が認識されていることを報知装置に対して報知させる。
 第93態様の情報処理装置は、第1態様から第92態様の何れか1つの情報処理装置において、少なくとも1つのプロセッサを含む情報処理装置であって、前記プロセッサは、撮像された物体の画像を、第1のフレームレートで出力し、前記第1のフレームレートで出力される画像の各々について、その画像に含まれる物体の種別を示すラベル情報を導出し、撮像された物体の画像からその物体の存在位置を示す位置情報を、前記第1のフレームレートよりも高い第2のフレームレートで出力し、前記第2のフレームレートで順次出力される位置情報のうち、前記第1のフレームレートで出力される画像の出力タイミングに対応する各時点における位置情報と、その位置情報に対応する物体と同一の物体について導出された前記ラベル情報とを対応付ける。
 第94態様の情報処理装置は、第93態様の情報処理装置において、前記プロセッサは、前記第2のフレームレートで出力される位置情報のうち、前記ラベル情報との対応付けが行われていない位置情報について、直前に対応付けられた前記ラベル情報を対応付ける。
 第95態様の情報処理装置は、第93態様又は第94態様の情報処理装置において、前記プロセッサは、前記物体の存在位置を示す少なくとも1つの点を前記位置情報として出力する。
 第96態様の情報処理装置は、第93態様から第95態様の何れか1つの情報処理装置において、前記プロセッサは、前記第1のフレームレートで出力される解像度が相対的に高い第1の画像に基づいて前記ラベル情報を導出し、解像度が相対的に低い第2の画像に基づいて前記位置情報を導出する。
 第97態様の情報処理装置は、第2態様から第96態様の何れか1つの情報処理装置において、前記第3プロセッサは、前記第1カメラにより撮影された第1画像に写る物体と前記第2カメラにより撮影された第2画像に写る物体のうち、所定の条件を満たす物体を、同一の物体であると判定し、同一であると判定された物体について、前記点情報と前記識別情報との対応付けを行う。
 第98態様の情報処理装置は、第97態様の情報処理装置において、前記所定の条件は、前記第1画像に写る物体と前記第2画像に写る物体の位置関係が整合することを第1の条件として含み、前記第1画像に写る物体と前記第2画像に写る輪郭が整合することを第2の条件として含み、前記第1画像に写る物体について推定される当該物体の種別と、前記第2画像に写る物体について推定される当該物体の種別が整合することを第3の条件として含み、前記第3プロセッサは、前記第1の条件、前記第2の条件及び前記第3の条件の少なくとも1つを満たす場合に、前記第1画像に写る物体と前記第2画像に写る物体が同一の物体であると判定する。
 第99態様の情報処理装置は、第1態様から第98態様の何れか1つの情報処理装置において、抽出部と、統合部と、推定部と、更新部とを含む情報処理装置であって、前記抽出部は、物体が写る画像から時刻tの前記物体の2次元空間上の存在位置を示す第1平面座標を抽出し、前記統合部は、前記物体の3次元空間上の奥行き方向について検知された第1奥行き情報と、前記第1平面座標と前記第1奥行き情報とを結合し、時刻tにおける前記物体の3次元座標を生成し、前記抽出部は、時刻tの次の時刻の前記物体の2次元空間上の存在位置を示す第2平面座標を抽出し、前記推定部は、前記物体が存在する空間の形状情報と、前記第1平面座標から前記第2平面座標への変化とに基づいて、前記次の時刻に対応する第2奥行き情報を推定し、前記更新部は、前記第2平面座標と、推定された前記第2奥行き情報とを統合し、前記次の時刻における前記物体の3次元座標を更新する。
 第100態様の情報処理装置は、第99態様の情報処理装置において、前記統合部は、センサで検出された点群データから前記第1奥行き情報を検知する。
 第101態様の情報処理装置は、第100態様の情報処理装置において、前記物体の移動後の前記次の時刻の前記第2平面座標を抽出した場合に、前記次の時刻に対応する前記点群データから得られる奥行き情報を取得できていない場合に、前記第2奥行き情報の推定、及び前記更新を実行する。
 第102態様の情報処理装置は、第99態様から第101態様の何れか1つの情報処理装置において、前記形状情報は、高解像度カメラにより取得した画像及びセンサが検出した点群データから得られる路面の形状と、予め設定された前記物体の形状を含み、前記推定部は、前記路面の形状に対して移動する前記物体の形状が、前記第1平面座標から前記第2平面座標に変化したときの奥行き方向の移動量を計算することにより、前記第2奥行き情報を推定する。
 第103態様の情報処理装置は、第99態様から第102態様の何れか1つの情報処理装置において、前記物体の存在位置を示す座標に対応する点を前記物体の輪郭を表すボックスの頂点における複数の点の各々として、前記抽出部は、前記点の各々について、当該点の前記第1平面座標及び前記第2平面座標を抽出し、前記統合部は、前記点の各々について、当該点の前記物体の3次元座標を生成し、前記推定部は、前記点の各々について、当該点の前記第2奥行き情報を推定し、前記更新部は、前記点の各々について、当該点の前記物体の3次元座標を更新する。
 第104態様の情報処理装置は、第1態様から第103態様の何れか1つの情報処理装置において、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する。
 第105態様の情報処理装置は、第104態様の情報処理装置において、前記第1プロセッサは、第1時点において、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出し、前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、第1時点の次の時点である第2時点における前記奥行き方向の座標値を導出する。
 第106態様の情報処理装置は、第104態様又は第105態様の情報処理装置において、前記第1プロセッサは、前記優先度について、前記識別情報が示す物体の挙動の有無に応じて、挙動を生じる物体には高い優先度を定め、挙動を生じない物体には前記高い優先度よりも低い優先度を定める。
 第107態様の情報処理装置は、第106態様の情報処理装置において、前記第1プロセッサは、前記優先度について、前記挙動を生じる物体について、当該物体の危険因子に応じたより高い優先度を定める。
 第108態様の情報処理装置は、第107態様の情報処理装置において、前記第1プロセッサは、前記点情報の数が所定数以上の場合に、前記優先度で次の時点の前記点情報を導出する。
 第109態様の情報処理装置は、第1態様から第108態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記点情報について、前記画像についての所定の条件を満たす各時点において、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する。
 第110態様の情報処理装置は、第109態様の情報処理装置において、前記第1プロセッサは、前記所定の条件を満たす各時点を第2時点として、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する。
 第111態様の情報処理装置は、第110態様の情報処理装置において、前記第1プロセッサは、前記所定の条件を、前記第1時点の前記幅方向及び前記高さ方向の座標値に対する、前記第2時点の前記幅方向及び前記高さ方向の座標値の変化量として、当該変化量に対して予め定めた頻度で、前記奥行き方向の座標値を導出する。
 第112態様の情報処理装置は、第1態様から第111態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記点情報について、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出し、前記第1プロセッサは、所定のセンサ情報から前記奥行き方向の座標値の補正情報を学習する。
 第113態様の情報処理装置は、第112態様の情報処理装置において、前記第1プロセッサは、導出した前記奥行き方向の座標値と、所定のセンサで検出した前記奥行き方向の座標値との差異が閾値以上の場合に、前記センサ情報を収集し、収集したセンサ情報における特定の走行状況に対して前記補正情報を学習する。
 第114態様の情報処理装置は、第113態様の情報処理装置において、前記第1プロセッサは、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する。
 第115態様の情報処理装置は、第1態様の情報処理装置において、車両に関連する複数の情報を取得可能な情報取得部と、深層学習を用い、前記情報取得部が取得した前記複数の情報から複数のインデックス値を推論する推論部と、前記複数のインデックス値に基づいて前記車両の運転制御を実行する運転制御部と、を備える。
 第116態様の情報処理装置は、第115態様の情報処理装置において、前記推論部は、前記深層学習を用いた積分法による多変量解析により、前記複数の情報から前記複数のインデックス値を推論する。
 第117態様の情報処理装置は、第115態様又は第116態様の情報処理装置において、前記情報取得部は、10億分の1秒単位で前記複数の情報を取得し、前記推論部及び運転制御部は、10億分の1秒単位で取得された前記複数の情報を用いて、前記複数のインデックス値の推論及び前記車両の運転制御を10億分の1秒単位で実行する。
 第118態様の情報処理装置は、第115態様から第117態様の何れか1つの情報処理装置において、前記車両が目的地に到達するまでの走行戦略を設定する戦略設定部を更に備え、前記走行戦略は、前記目的地までの最適ルート、走行速度、tilt、ブレーキングの少なくとも1つの理論値を含み、前記運転制御部は、前記複数のインデックス値と前記理論値との差分に基づいて前記走行戦略を更新する戦略更新部を備える。
 第119態様の情報処理装置は、第115態様から第118態様の何れか1つの情報処理装置において、前記情報取得部は、前記車両の下部に設けられて走行する地面の温度、材質及びtiltを検出可能なセンサを備える。
 第120態様の情報処理装置は、第1態様の情報処理装置において、車両の自動運転を制御する前記車両に搭載された制御装置の作動に関わる物体を検出した検出結果を取得する取得部と、前記検出結果に基づいて、前記制御装置における冷却を実行する実行部とを備える。
 第121態様の情報処理装置は、第120態様の情報処理装置において、前記取得部は、前記検出結果として、物体の1フレームの画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を100フレーム/秒以上のフレームレートで取得する。
 第122態様の情報処理装置は、第121態様の情報処理装置において、前記検出結果を用いて、前記制御装置の作動を予測する予測部をさらに備え、前記予測部は、前記検出結果と、前記検出結果が取得された際の前記制御装置の作動状況と、を学習データとした機械学習によって生成された学習モデルを用いて、前記制御装置の作動を予測する。
 第123態様の情報処理装置は、第122態様の情報処理装置において、前記予測部は、前記制御装置における複数の部位のそれぞれの温度変化をさらに予測し、前記実行部は、前記制御装置における前記部位の冷却を制御する。
 第124態様の情報処理装置は、第1態様の情報処理装置において、車両に備えた複数のセンサ情報のうち、予め定められた数のセンサ情報の複数の組み合わせ毎に、前記車両の4つの車輪それぞれの車輪速、傾き、及び前記車輪を支持するサスペンション毎の、当該車輪速、当該傾き、及び当該サスペンションを制御するためのインデックス値を算出し、前記インデックス値を集約して当該車輪速、当該傾き、及び当該サスペンション毎の制御変数を算出する算出部と、前記制御変数に基づいて、自動運転を制御する制御部と、を備える。
 第125態様の情報処理装置は、第124態様の情報処理装置において、前記算出部は、深層学習を用いた積分法による多変量解析により、前記インデックス値から前記制御変数を算出する。
 第126態様の情報処理装置は、第124態様又は第125態様の情報処理装置において、前記制御部は、前記制御変数に基づいて、10億分の1秒単位で前記自動運転を制御する。
 第127態様の情報処理装置は、第1態様の情報処理装置において、車両の周囲の状況を検出する周期として、前記車両の周囲を撮影する第1周期より短い第2周期で前記車両の周囲の状況を検出するセンサを含む検出部から前記車両に関連する複数の情報を取得する取得部と、前記取得された複数の情報から前記車両の周囲の状況に関するインデックス値を算出し、算出されたインデックス値から前記車両の挙動を制御するための制御変数を算出する算出部と、前記算出した前記制御変数に基づいて、前記車両の挙動を制御する制御部と、を備える。
 第128態様の情報処理装置は、第127態様の情報処理装置において、前記算出部は、深層学習を用いた積分法による多変量解析により、前記インデックス値から前記制御変数を算出する。
 第129態様の情報処理装置は、第127態様又は第128態様の情報処理装置において、前記取得部は、10億分の1秒単位で前記複数の情報を取得し、前記算出部は、10億分の1秒単位で取得された前記複数の情報を用いて、前記インデックス値の算出及び前記制御変数を10億分の1秒単位で実行する。
 第130態様の情報処理装置は、第127態様から第129態様の何れか1つの情報処理装置において、前記算出部は、前記取得された複数の情報に基づいて、前記車両に対する対象物の衝突を予測し、前記予測した予測結果が、不可避な衝突を示す場合、前記不可避な衝突における前記車両に発生する損害が予め定めた閾値以下の損害に対応する制御変数を前記制御変数として算出する。
 第131態様の情報処理装置は、第130態様の情報処理装置において、前記車両に発生する損害は、前記車両の変形位置及び変形量の少なくとも1つである。
 第132態様の情報処理装置は、第130態様又は第131態様の情報処理装置において、前記車両に発生する損害に対応する制御変数は、車両の衝突角度、及び車速の少なくとも1つである。
 第133態様の情報処理装置は、第1態様の情報処理装置において、前記第1プロセッサは、物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第134態様の情報処理装置は、第133態様の情報処理装置において、前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、前記第1プロセッサは、外部環境に関するスコアを計算し、前記スコアに応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第135態様の情報処理装置は、第134態様の情報処理装置において、前記情報処理装置は車両に搭載され、前記第1プロセッサは、前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、前記危険度に応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第136態様の情報処理装置では、第133態様から第135態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記画像から物体を抽出し、前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第137態様の情報処理装置では、第133態様から第136態様の何れか1つの情報処理装置において、前記第1プロセッサは、前記画像から物体を抽出し、前記物体毎にスコアを計算し、前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第138態様の車両は、カメラを含む一対のカメラユニットと、プロセッサとを備えた車両であって、第1のカメラユニットは、車両前方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、第2のカメラユニットは、車両後方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、前記プロセッサは、前記第1のカメラユニット及び前記第2のカメラユニットから出力された物体の存在位置に基づいて前記車両の走行を制御する。
 第139態様の車両は、第138態様の車両において、前記各カメラユニットが有する前記カメラは、フレームレートを変更することが可能であり、前記第1のカメラユニット及び前記第2のカメラユニットの一方は、前記第1のカメラユニット及び前記第2のカメラユニットの他方における物体の検知状況に応じて、前記カメラのフレームレートを設定し、設定された前記フレームレートにより撮像された前記カメラの画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。
 第140態様の車両は、第138態様又は第139態様の車両において、前記カメラよりも高解像度の高解像度カメラを備え、かつ前記各カメラユニットのそれぞれに接続される他のカメラユニットをさらに備え、前記各カメラユニットは、前記高解像度カメラの情報に基づいて特定された物体の情報を取得可能であって、前記第1のカメラユニット及び前記第2のカメラユニットの一方は、前記第1のカメラユニット及び前記第2のカメラユニットの他方が有する物体の情報を取得する。
 第141態様の情報処理方法は、第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、処理をコンピュータが実行する。
 第142態様の情報処理プログラムは、コンピュータに、第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、処理を実行させる。
 なお、上記の本開示の概要は、本開示の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、本開示となりうる。
第1の実施形態に係るCentral Brainを搭載した車両の一例を示す概略図である。 第1の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第2の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第3の実施形態に係るMoPUが出力する点情報の例を示す説明図である。 第5の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第6の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第7の実施形態に係る点情報とラベル情報との対応付けの一例を示す説明図である。 第7の実施形態に係るCentral Brainによって実施される、特徴点とラベル情報との対応付け処理の流れの一例を示すフローチャートである。 第8の実施形態に係る車両の概略構成を示す説明図である。 第8の実施形態に係る冷却実行装置の機能構成の例を示すブロック図である。 第9の実施形態に係る情報処理装置の構成の一例を示す第1のブロック図である。 第9の実施形態に係る情報処理装置の構成の一例を示す第2のブロック図である。 第9の実施形態において、物体の時系列における座標検出を模式的に示す図である。 第9の実施形態において、変化量に応じてz座標値の更新頻度を定めた場合のフローチャートである。 第9の実施形態において、補正情報を学習する場合のフローチャートである。 第10の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第10の実施形態に係るイベントカメラにより撮影された物体の画像を説明するための第1の説明図である。 第10の実施形態に係るイベントカメラにより撮影された物体の画像を説明するための第2の説明図である。 第10の実施形態に係るイベントカメラにより撮影された物体の画像を説明するための第3の説明図である。 第11の実施形態に係る情報処理装置の構成の一例を示す第1のブロック図である。 第11の実施形態に係る情報処理装置の構成の一例を示す第2のブロック図である。 第12の実施形態に係る情報処理装置の構成の一例を示す第1のブロック図である。 第12の実施形態に係る情報処理装置の構成の一例を示す第2のブロック図である。 第13の実施形態に係る情報処理装置の構成の一例を示す第1のブロック図である。 第13の実施形態に係る情報処理装置の構成の一例を示す第2のブロック図である。 第13の実施形態において、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための第1の図である。 第13の実施形態において、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための第2の図である。 第14の実施形態に係る情報処理装置のブロック図である。 第14の実施形態に係る車両に搭載される高解像度カメラ及び全方位カメラの撮影方向及び撮影画角範囲を示す第1の図である。 第14の実施形態に係る全方位カメラにより取得された画像と高解像度カメラ30Lにより取得された画像との撮影範囲の関係を示す第1の図である。 第14の実施形態に係る車両に搭載される高解像度カメラ及び全方位カメラの撮影方向及び撮影画角範囲を示す第2の図である。 第14の実施形態に係る全方位カメラにより取得された画像と高解像度カメラ30Lにより取得された画像との撮影範囲の関係を示す第2の図である。 第15の実施形態に係る情報処理装置のブロック図である。 第15の実施形態に係るカメラ管理データベースの一例を示す図である。 第15の実施形態に係る車両を説明するための第1の図である。 第15の実施形態に係る外部カメラから取得した画像の一例を示す図である。 第15の実施形態に係るオブジェクト管理データベースの一例を示す図である。 第15の実施形態に係る車両を説明するための第2の図である。 第15の実施形態に係る車両を説明するための第3の図である。 第16の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第16の実施形態に係るカメラおよび移動部を示す斜視図である。 第16の実施形態に係る物体の2次元位置の偏差を補正する処理を説明するための第1の説明図である。 第16の実施形態に係る物体の2次元位置の偏差を補正する処理を説明するための第2の説明図である。 第17の実施形態に係るCentral Brainの機能的な構成を示すブロック図である。 第17の実施形態において、点情報の時系列から、点の動きの方向を算出する方法を説明するための第1の図である。 第17の実施形態において、点情報の時系列から、点の動きの方向を算出する方法を説明するための第2の図である。 第17の実施形態において、複数の物体の動き情報の一例を示す図である。 第17の実施形態において、除去後の動き情報の一例を示す図である。 第17の実施形態に係るCentral Brainが実行する対応付け処理の流れを示すフローチャートである。 第18の実施形態に係るMoPUが実行する点情報の出力処理を説明するための図である。 第19の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第19の実施形態に係る第1車両の第1判定部、第2判定部、第3判定部、及び設定部の処理内容の一例を示す概念図である。 第19の実施形態に係る設定部によって識別子が設定されていない場合に第1車両の推論部及び運転制御部によって行われる処理の内容の一例を示す概念図である。 第19の実施形態に係る設定部によって識別子が設定されている場合に第1車両の推論部及び運転制御部によって行われる処理の内容の一例を示す概念図である。 第19の実施形態に係る第1車両と第2車両との正面衝突が回避される態様の一例を示す概念図である。 第19の実施形態に係る自動運転制御処理の流れの一例を示す第1のフローチャートである。 第19の実施形態に係る自動運転制御処理の流れの一例を示す第2のフローチャートである。 第19の実施形態に係る自動運転制御処理の流れの一例を示す第3のフローチャートである。 第19の実施形態に係る第1車両が第2車両によって認識されたことが報知される態様の一例を示す概念図である。 第20の実施形態に係る物体認識の態様の一例を示す図である。 第20の実施形態に係る物体の特徴点の抽出の態様の一例を示す図である。 第20の実施形態に係るMoPUの態様の一例を示す図である。 第20の実施形態に係るMoPUの処理のフローチャートの一例を示す図である。 第21の実施形態に係る車両の構成を説明する図である。 第22の実施形態に係る情報処理装置の構成の一例を示すブロック図である。 第22の実施形態に係るレート変更処理の一例を示すフローチャートである。 第22の実施形態におけるカメラの視野角を説明する図である。 第22の実施形態に係る引継ぎ処理の一例を示すフローチャートである。 第23の実施形態に係る情報処理装置の構成の一例を示す第1のブロック図である。 第23の実施形態に係る情報処理装置の構成の一例を示す第2のブロック図である。 第24の実施形態に係るシステムの一例を概略的に示す図である。 第24の実施形態に係るシステムにおける学習フェーズについて説明するための説明図である。 第24の実施形態に係るシステムにおける冷却実行フェーズについて説明するための説明図である。 第24の実施形態に係るSoCBox及び冷却部の一例を概略的に示す第1の図である。 第24の実施形態に係るSoCBox及び冷却部の一例を概略的に示す第2の図である。 第24の実施形態に係るSoCBox及び冷却部の一例を概略的に示す第3の図である。 第25の実施形態に係る超高性能自動運転のAIの危険予測能力について概略的に示す図である。 第25の実施形態に係るCentral Brainにより実行されるフローチャートである。 第25の実施形態に係るCentral Brainによる自動運転の制御例を説明する第1の説明図である。 第25の実施形態に係るCentral Brainによる自動運転の制御例を説明する第2の説明図である。 第25の実施形態に係るCentral Brainによる自動運転の制御例を説明する第3の説明図である。 第25の実施形態に係るCentral Brainによる自動運転の制御例を説明する第4の説明図である。 第25の実施形態に係るCentral Brainによる自動運転の制御例を説明する第5の説明図である。 第26の実施形態に係るCentral Brainによる自動運転の制御例を説明する説明図として、車両の周囲に他車両が走行している状態を示す模式図である。 第26の実施形態に係るCentral Brainにより実行されるフローチャートである。 情報処理装置又は冷却実行装置として機能するコンピュータのハードウェア構成の一例を概略的に示す説明図である。
 以下、本開示の実施形態を説明するが、以下の実施形態は本開示を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが本開示の解決手段に必須であるとは限らない。開示の技術の実施形態に係る情報処理装置は、車両の制御に関連する多くの情報に基づいて、運転制御に必要なインデックス値を高精度に求めるものであってよい。したがって、本開示の情報処理装置は、少なくとも一部が車両に搭載されて、車両の制御を実現するものであってよい。
 (第1の実施形態)
 まず、本実施形態に係る第1の実施形態について説明する。本開示に係る情報処理装置は、一例として、少なくとも一部が車両100に搭載されて、車両100の自動運転制御を行う。また、当該情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。車両100は「対象物」の一例である。
 ここで、「Level6」とは、自動運転を表すレベルであり、完全自動運転を表すLevel5よりも更に上のレベルに相当する。Level5は完全自動運転を表すものの、それは人が運転するのと同等のレベルであり、それでも未だ事故等が発生する確率はある。Level6とは、Level5よりも上のレベルを表すものであり、Level5よりも事故が発生する確率が低いレベルに相当する。
 Level6における計算力は、Level5の計算力の1000倍程度である。したがって、Level5では実現できなかった高性能な運転制御が実現可能である。
 図1は、Central Brain15を搭載した車両100の一例を示す概略図である。Central Brain15には、複数のGate Wayが通信可能に接続されている。Central Brain15は、Gate Wayを介して外部のクラウドサーバに接続されている。Central Brain15は、Gate Wayを介して外部のクラウドサーバへアクセスすることができるように構成されている。その一方で、Gate Wayの存在により、外部からCentral Brain15へ直接アクセスすることはできないように構成されている。
 Central Brain15は、所定時間が経過する毎に、要求信号をクラウドサーバへ出力する。具体的には、Central Brain15は、10億分の1秒毎に、問い合わせを表す要求信号をクラウドサーバへ出力する。一例として、Central Brain15は、Gate Wayを介して取得した複数の情報に基づいて、LeveL6の自動運転を制御する。
 図2は、第1の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。情報処理装置10は、IPU(Image Processing Unit)11、MoPU(Motion Processing Unit)12、Central Brain15及びメモリ16を備えている。Central Brain15は、GNPU(Graphics Neural network Processing Unit)13及びCPU(Central Processing Unit)14を含んで構成されている。
 IPU11は、車両100に設置された超高解像度カメラ(図示せず)に内蔵されている。IPU11は、超高解像度カメラにより撮影された車両100の周囲に存在する物体の画像について、ベイヤ変換、デモザイク、ノイズ除去、シャープ化等の所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレートかつ1200万画素の解像度で出力する。また、IPU11は、超高解像度カメラにより撮影された物体の画像から、撮影された物体を識別した識別情報を出力する。識別情報は、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報である。本実施形態では、IPU11は、識別情報として、撮影された物体の種別(種類)を示すラベル情報(例えば、撮影された物体が犬なのか、猫なのか、又はクマなのかを示す情報)を出力する。さらに、IPU11は、撮影された物体の超高解像度カメラのカメラ座標系における位置を示す位置情報を出力する。IPU11から出力された画像、ラベル情報、及び位置情報は、Central Brain15及びメモリ16に供給される。IPU11は「第2プロセッサ」の一例であり、超高解像度カメラは「第2カメラ」の一例である。
 MoPU12は、車両100に設置された超高解像度カメラとは別の別カメラ(図示せず)に内蔵されている。MoPU12は、超高解像度カメラと対応する方向を向いた別カメラにより100フレーム/秒以上のフレームレートで撮影された物体の画像から、撮影された物体を点として捉えた点情報を、例えば100フレーム/秒以上のフレームレートで出力する。MoPU12から出力された点情報は、Central Brain15及びメモリ16に供給される。このように、MoPU12が点情報を出力するために用いる画像と、IPU11が識別情報を出力するために用いる画像とは、別カメラ及び超高解像度カメラが対応する方向を向いて撮影した画像(撮影を行うことで得た画像)である。ここで、「対応する方向」とは、別カメラの撮影範囲と超高解像度カメラの撮影範囲とが重複する方向である。上記の場合だと、別カメラは、超高解像度カメラの撮影範囲と重複する方向を向いて物体を撮影する。なお、超高解像度カメラ及び別カメラが対応する方向を向いて物体を撮影することは、例えば、超高解像度カメラ及び別カメラ間のカメラ座標系の対応関係を予め求めておくことにより実現される。
 例えば、MoPU12は、点情報として、物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力する。当該座標値は、一例として、物体の中心点(又は重心点)を示している。また、MoPU12は、2つの座標軸の座標値として、当該3次元直交座標系における幅方向に沿った軸(x軸)の座標値(以下、「x座標値」とする)及び高さ方向に沿った軸(y軸)の座標値(以下、「y座標値」とする)を出力する。なお、x軸は、車両100の車幅方向に沿った軸であり、y軸は、車両100の高さ方向に沿った軸である。
 以上の構成により、MoPU12が出力する1秒間の点情報は100フレーム以上のx座標値及びy座標値を含むため、当該点情報に基づくと、上記3次元直交座標系におけるx軸及びy軸上の物体の動き(移動方向及び移動速度)を把握することができる。つまり、MoPU12が出力する点情報は、物体の上記3次元直交座標系における位置を示す位置情報及び物体の動きを示す動き情報を含んでいる。
 以上のように、MoPU12から出力される点情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)のx軸及びy軸上の動き(移動方向及び移動速度)を示す情報のみが含まれている。そして、MoPU12から出力される点情報は、画像情報を含まないため、Central Brain15及びメモリ16に出力するデータ量を画期的に削減することができる。MoPU12は「第1プロセッサ」の一例であり、別カメラは「第1カメラ」の一例である。
 上述の通り、本実施形態では、MoPU12が内蔵された別カメラのフレームレートは、IPU11が内蔵された超高解像度カメラのフレームレートより大きい。具体的には、別カメラのフレームレートは100フレーム/秒以上であり、超高解像度カメラのフレームレートは10フレーム/秒である。つまり、別カメラのフレームレートは、超高解像度カメラのフレームレートの10倍以上である。
 Central Brain15は、MoPU12から出力された点情報及びIPU11から出力されたラベル情報を対応付ける。例えば、上記別カメラと超高解像度カメラとのフレームレート差に起因して、Central Brain15は、物体についての点情報を取得しているが、ラベル情報を取得していない状態がある。この状態では、Central Brain15は、点情報に基づいて物体のx座標値及びy座標値を認識するが、その物体が何であるかは認識していない。
 その後、上記物体についてのラベル情報を取得した場合、Central Brain15は、当該ラベル情報の種別(例:PERSON)を導出する。そして、Central Brain15は、当該ラベル情報と上記で取得している点情報とを対応付ける。これにより、Central Brain15は、点情報に基づいて物体のx座標値及びy座標値を認識するとともに、その物体が何であるかを認識する。Central Brain15は「第3プロセッサ」の一例である。
 ここで、Central Brain15は、超高解像度カメラ及び別カメラにより撮影された物体が、例えば、物体A及び物体Bのように複数存在する場合、次のようにして各物体についての点情報及びラベル情報を対応付ける。上記の別カメラと超高解像度カメラとのフレームレート差に起因して、Central Brain15は、物体A及び物体Bについての点情報(以下、「点情報A」及び「点情報B」とする)を取得しているが、ラベル情報を取得していない状態がある。この状態では、Central Brain15は、点情報Aに基づいて物体Aのx座標値及びy座標値を認識し、点情報Bに基づいて物体Bのx座標値及びy座標値を認識するが、それらの物体が何であるかは認識していない。
 その後、一のラベル情報を取得した場合、Central Brain15は、当該一のラベル情報の種別(例:PERSON)を導出する。そして、Central Brain15は、当該一のラベル情報と共にIPU11から出力された位置情報と、取得している点情報A及び点情報Bに含まれる位置情報とに基づいて、当該一のラベル情報と対応付ける点情報を特定する。例えば、Central Brain15は、IPU11から出力された位置情報が示す物体の位置に最も近い位置を示す位置情報を含む点情報を特定し、当該点情報を当該一のラベル情報に対応付ける。上記で特定された点情報が点情報Aである場合、Central Brain15は、当該一のラベル情報と点情報Aとを対応付け、点情報Aに基づいて物体Aのx座標値及びy座標値を認識するとともに、物体Aが何であるかを認識する。
 以上説明したように、Central Brain15は、超高解像度カメラ及び別カメラにより撮影された物体が複数存在する場合、IPU11から出力された位置情報と、MoPU12から出力された点情報に含まれる位置情報とに基づいて、点情報及びラベル情報の対応付けを行う。
 また、Central Brain15は、IPU11から出力された画像及びラベル情報に基づいて、車両100の周囲に存在する物体(人、動物、道路、信号、標識、横断歩道、障害物、建物など)を認識する。また、Central Brain15は、MoPU12から出力された点情報に基づいて、車両100の周囲に存在する、何であるか認識された物体の位置及び動きを認識する。Central Brain15は認識した情報に基づいて、例えば、車輪を駆動するモータの制御(速度制御)、ブレーキ制御、ハンドル制御を行い、当該物体に対する応答制御として、車両100の自動運転を制御する。例えば、Central Brain15は、MoPU12から出力された点情報に含まれる位置情報及び動き情報から、物体との衝突を回避するように車両100の自動運転を制御する。Central Brain15において、GNPU13は画像認識に関する処理を担ってもよく、CPU14は、車両制御に関する処理を担ってもよい。
 一般的に自動運転における画像認識を行うために超高解像度カメラが使用されている。ここで、超高解像度カメラによって撮影された画像(超高解像度カメラによって撮影されることによって得られた画像)から、当該画像に含まれる物体が何であるかを認識することは可能である。しかしながら、Level6時代の自動運転ではこれだけでは不十分である。Level6時代では、物体の動きをより高精度に認識することも必要である。MoPU12によって物体の動きをより高精度に認識することで、例えば、自動運転によって走行する車両100が障害物を回避する回避動作を、より高精度で行うことが可能となる。しかしながら、超高解像度カメラでは、1秒間に10フレーム程度しか画像を取得することができず、物体の動きを解析する精度はMoPU12を搭載したカメラに比べると低い。一方、MoPU12を搭載したカメラでは、例えば100フレーム/秒の高フレームレートでの出力が可能である。
 そこで、第1の実施形態に係る情報処理装置10は、IPU11及びMoPU12の2つの独立したプロセッサを備える。情報処理装置10は、超高解像度カメラに内蔵されたIPU11には、撮影した物体が何であるかを識別するために必要な情報を取得する役割を与え、別カメラに内蔵されたMoPU12には、物体の位置及び動きを検出する役割を与えている。MoPU12は、撮影した物体を点として捉え、その点の座標が上記3次元直交座標系における少なくともx軸及びy軸上のどの方向に、どの程度の速度で動くかを解析する。物体の全体の輪郭と、その物体が何なのかの検知は、超高解像度カメラからの画像によって行うことが可能であることから、MoPU12によって、例えば、物体の中心点がどのように移動するかさえ分かれば、物体全体がどのような挙動をするかがわかる。
 物体の中心点の移動と速度のみを解析する手法によれば、物体の画像全体がどのように動くかを判断することに比べて、Central Brain15に出力するデータ量を大幅に抑制し、Central Brain15における計算量を大幅に低減することが可能である。例えば、1000ピクセル×1000ピクセルの画像を、1000フレーム/秒のフレームレートでCentral Brain15に出力する場合、色情報を含めると、40億ビット/秒のデータをCentral Brain15に出力することになる。MoPU12が、物体の中心点の動きを示す点情報のみを出力することで、Central Brain15に出力するデータ量を2万ビット/秒に圧縮することができる。すなわち、Central Brain15に出力するデータ量が20万分の1に圧縮される。
 このように、IPU11から出力される低フレームレートかつ高解像度の画像及びラベル情報と、MoPU12から出力される高フレームレートかつ軽量の点情報とを組み合わせて用いることで、物体の動きを含む物体認識を、少ないデータ量で実現することが可能となる。
 また、情報処理装置10では、Central Brain15がMoPU12から出力された点情報及びIPU11から出力されたラベル情報を対応付けることにより、どのような物体がどのような動きをしているのかに関する情報を把握することができる。
 (第2の実施形態)
 次に、本実施形態に係る第2の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図3は、第2の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。図3に示すように、車両100に搭載される情報処理装置10は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、IPU11と、Central Brain15とを備えている。
 MoPU12Lは、カメラ302Lと、レーダー32Lと、赤外線カメラ34Lと、コア17Lを備えている。また、MoPU12Rは、カメラ302Rと、レーダー32Rと、赤外線カメラ34Rと、コア17Rを備えている。なお、以下では、MoPU12LとMoPU12Rとを区別しない場合には「MoPU12」、カメラ302Lとカメラ302Rとを区別しない場合には「カメラ302」、レーダー32Lとレーダー32Rとを区別しない場合には「レーダー32」、赤外線カメラ34Lと赤外線カメラ34Rとを区別しない場合には「赤外線カメラ34」、コア17Lとコア17Rとを区別しない場合には「コア17」と記載する。
 MoPU12が備えるカメラ302は、IPU11が備える超高解像度カメラ(例えば、10フレーム/秒)よりも大きいフレーム数(120,240,480,960,又は1920フレーム/秒)で物体を撮影する。カメラ302のフレームレートは可変である。カメラ302は「第1カメラ」の一例である。
 MoPU12が備えるレーダー32は、物体に照射した電磁波の当該物体からの反射波に基づく信号であるレーダー信号を取得する。MoPU12が備える赤外線カメラ34は、赤外線画像を撮影するカメラ(物体からの赤外線を撮影することで、物体を示す赤外線画像を取得するカメラ)である。
 MoPU12が備えるコア17(例えば、1つ以上のCPUにより構成される)は、カメラ302が撮影した1フレームの画像(カメラ302によって撮影されることで得られた1フレームの画像)毎に特徴点を抽出し、点情報として、上記3次元直交座標系における物体のx座標値及びy座標値を出力する。コア17は、例えば、画像から抽出した物体の中心点(重心点)を特徴点とする。なお、コア17が出力する点情報は、上記実施形態と同様に、位置情報及び動き情報を含む。
 IPU11は、超高解像度カメラ(図示せず)を備えており、超高解像度カメラにより撮影された物体の画像(超高解像度カメラにより物体が撮影されることによって得られた画像)、当該物体の種別を示すラベル情報、及び当該物体の超高解像度カメラのカメラ座標系における位置を示す位置情報を出力する。
 Central Brain15は、MoPU12から出力された点情報と、IPU11から出力された画像、ラベル情報、及び位置情報とを取得する。そして、Central Brain15は、MoPU12から出力された点情報に含まれる位置情報とIPU11から出力された位置情報とが対応する位置に存在する物体についてのラベル情報を当該点情報に対応付ける。これにより、情報処理装置10では、ラベル情報が示す物体が何であるかという情報と、点情報が示す物体の位置及び動きとを対応付けることが可能になる。
 ここで、MoPU12は、所定要因に応じてカメラ302のフレームレートを変更する。第2の実施形態では、MoPU12は、所定要因の一例として外部環境に関するスコアに応じてカメラ302のフレームレートを変更する。この場合、MoPU12は、車両100に対する外部環境に関するスコアを算出し、算出したスコアに応じて、カメラ302のフレームレートを変更する。そして、MoPU12は、変更したフレームレートで画像を撮影させるための制御信号をカメラ302に対して出力する。これにより、カメラ302は、制御信号が示すフレームレートで画像を撮影する(カメラ302は、制御信号が示すフレームレートで撮影を行うことで画像を取得する)。この構成により、情報処理装置10によれば、外部環境に適したフレームレートで物体の画像を撮影することができる(外部環境に適したフレームレートで物体を撮影することができる)。
 なお、車両100に搭載される情報処理装置10は、図示しない複数種類のセンサを備えている。MoPU12は、複数種類のセンサから取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)及び点情報に基づいて、車両100に対する外部環境に関するスコアとして、車両100の移動に関する危険度を算出する。危険度は、車両100が今後どの程度の危険な場所を走行するかの度合を示している。この場合、MoPU12は、算出した危険度に応じてカメラ302のフレームレートを変更する。車両100は「移動体」の一例である。この構成により、情報処理装置10によれば、車両100の移動に関する危険度に応じてカメラ302のフレームレートを変更することができる。センサは「検知部」の一例であり、センサ情報は「検知情報」の一例である。
 例えば、MoPU12は、算出した危険度が高いほどカメラ302のフレームレートを高くする。MoPU12は、算出した危険度が第1閾値未満の場合、カメラ302のフレームレートを120フレーム/秒に変更する。また、MoPU12は、算出した危険度が第1閾値以上かつ第2閾値未満の場合、カメラ302のフレームレートを240,480,960フレーム/秒の何れかに変更する。また、MoPU12は、算出した危険度が第2閾値以上の場合、カメラ302のフレームレートを1920フレーム/秒に変更する。なお、MoPU12は、危険度が上記の何れかである場合において、選択したフレームレートでカメラ302に画像を撮影させること(選択したフレームレートでカメラ302に撮影させること)に加え、当該フレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
 例えば、MoPU12は、算出した危険度が低いほどカメラ302のフレームレートを低くする。MoPU12は、カメラ302のフレームレートを1920フレーム/秒に設定した状態で、算出した危険度が第1閾値以上かつ第2閾値未満の場合、カメラ302のフレームレートを240,480,960フレーム/秒の何れかに変更する。また、MoPU12は、カメラ302のフレームレートを1920フレーム/秒に設定した状態で、算出した危険度が第1閾値未満の場合、カメラ302のフレームレートを120フレーム/秒に変更する。さらに、MoPU12は、カメラ302のフレームレートを240,480,960フレーム/秒の何れかに設定した状態で、算出した危険度が第1閾値未満の場合、カメラ302のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ302のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影する(変更したカメラ302のフレームレートに応じた数値でのレーダー信号の取得及び赤外線画像を得るための撮影を行う)ように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
 また、MoPU12は、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両100が走行する前から既知である走行に関するビッグデータを利用して、危険度を算出してもよい。
 上記では、外部環境に関するスコアとして危険度を算出したが、外部環境に関するスコアとなる指標は危険度に限定されない。例えば、MoPU12は、カメラ302に写る物体の移動方向又は速さ等に基づいて、危険度とは別の外部環境に関するスコアを算出し、そのスコアに応じて、カメラ302のフレームレートを変更してもよい。以下、MoPU12がカメラ302に写る物体の速さに関するスコアである速さスコアを算出し、速さスコアに応じて、カメラ302のフレームレートを変更する場合について説明する。一例として、速さスコアは、物体の速度が速いほど高くなり、遅いほど低くなるよう設定されている。そして、MoPU12は、算出した速さスコアが高いほどカメラ302のフレームレートを高くし、低いほどカメラ302のフレームレートを低くする。このため、MoPU12は、物体の速度が速いために算出した速さスコアが閾値以上となった場合、カメラ302のフレームレートを1920フレーム/秒に変更する。また、MoPU12は、物体の速度が遅いために算出した速さスコアが閾値未満となった場合、カメラ302のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ302のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影する(変更したカメラ302のフレームレートに応じた数値でのレーダー信号の取得及び赤外線画像を得るための撮影を行う)ように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
 次に、MoPU12がカメラ302に写る物体の移動方向に関するスコアである方向スコアを算出し、方向スコアに応じて、カメラ302のフレームレートを変更する場合について説明する。一例として、方向スコアは、物体の移動方向が道路に近づく方向であると高くなり、道路から離れる方向であると低くなるよう設定されている。そして、MoPU12は、算出した方向スコアが高いほどカメラ302のフレームレートを高くし、低いほどカメラ302のフレームレートを低くする。具体的には、MoPU12は、AIを利用することなどにより物体の移動方向を特定し、特定した移動方向に基づいて方向スコアを算出する。そして、MoPU12は、物体の移動方向が道路に近づく方向であったために算出した方向スコアが閾値以上となった場合、カメラ302のフレームレートを1920フレーム/秒に変更する。また、MoPU12は、物体の移動方向が道路から離れる方向であったために算出した方向スコアが閾値未満となった場合、カメラ302のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ302のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影する(変更したカメラ302のフレームレートに応じた数値でのレーダー信号の取得及び赤外線画像を得るための撮影を行う)ように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。
 また、MoPU12は、算出した外部環境に関するスコアが所定の閾値以上の物体についてのみ点情報を出力してもよい。この場合、例えば、MoPU12は、カメラ302に写る物体の移動方向又は存在位置に応じてその物体についての点情報を出力するか否かを判定してもよい。例えば、MoPU12は、車両100の走行に対する影響が低い物体についての点情報は出力しなくてもよい。具体的には、MoPU12は、カメラ302に写る物体の移動方向を算出し、道路から遠ざかっていく歩行者等の物体についての点情報は出力しない。一方、MoPU12は、道路に近づく物体(例えば、道路に飛び出しそうな歩行者等の物体)又は道路内に存在する物体(例えば、道路に設けられた横断歩道を横断している歩行者又は自転車等の物体)についての点情報は出力する。この構成により、情報処理装置10によれば、車両100の走行に対する影響が低い物体についての点情報を出力せずに済む。
 なお、上記においてMoPU12は、車両100が走行する道路内に物体が存在する場合、当該物体についての点情報を出力することとしたが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12は、車両100が走行する道路内に物体が存在していても、当該物体が車両100に接触する可能性が低いと判定できる場合、当該物体についての点情報の出力を停止してもよい。道路は「通行路」の一例である。
 ここで、MoPU12は、道路内において車両100の移動ルート上に物体が存在せず、かつ当該移動ルートから物体が離れていく場合に、物体が車両100に接触する可能性が低いと判定する。一例として、道路内において車両100の移動ルート上に物体が存在しない状況は、複数車線の道路において車両100が走行している車線とは異なる車線に物体が位置している場合が例示される。また、車両100の移動ルートから物体が離れていく場合は、例えば、複数車線の道路において車両100が走行している車線から離れる方向に物体が移動している場合が例示される。
 上記構成により、車両100が走行する道路内に物体が存在する場合は常に当該物体についての点情報を出力する場合に比べて、MoPU12の処理負荷を軽減しつつ、Central Brain15に出力するデータ量を削減することができる。
 また、以上の説明では、MoPU12が危険度を算出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が危険度を算出してもよい。この場合、Central Brain15は、複数種類のセンサから取り入れられたセンサ情報及びMoPU12から出力された点情報に基づいて、車両100に対する外部環境に関するスコアとして、車両100の移動に関する危険度を算出する。そして、Central Brain15は、算出した危険度に応じてカメラ302のフレームレートを変更する指示をMoPU12に出力する。
 また、以上の説明では、MoPU12が、カメラ302が撮影した画像(カメラ302が撮影を行うことで得た画像)に基づいて点情報を出力する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12は、カメラ302が撮影した画像(カメラ302が撮影を行うことで得た画像)に代えて、レーダー信号及び赤外線画像に基づいて点情報を出力してもよい。MoPU12は、赤外線カメラ34が撮影した物体の赤外線画像からは、カメラ302が撮影した画像(カメラ302が撮影を行うことで得た画像)と同様に物体のx座標値及びy座標値を導出することが可能である。レーダー32は、レーダー信号に基づく物体の3次元点群データを取得することが可能である。つまり、レーダー32は、上記3次元直交座標系におけるz軸の座標を検出することが可能である。ここで、z軸は、物体の奥行き方向及び車両100の進行方向に沿った軸であり、以下では、z軸の座標値を「z座標値」と記載する。この場合、MoPU12は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングで赤外線カメラ34により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。そして、MoPU12は、導出した点情報をCentral Brain15に出力する。
 また、以上の説明では、MoPU12が点情報を導出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が点情報を導出してもよい。Central Brain15が点情報を導出することは、例えば、カメラ302L、カメラ302R、レーダー32、及び赤外線カメラ34が検出した情報を組み合わせることで実現される。具体例として、Central Brain15は、カメラ302Lにより撮影された物体のx座標値及びy座標値と、カメラ302Rにより撮影された物体のx座標値及びy座標値とに基づいて三点測量を行うことにより、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。
 また、以上の説明では、Central Brain15が、IPU11から出力された画像及びラベル情報と、MoPU12から出力された点情報とに基づいて車両100の自動運転を制御する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、Central Brain15は、IPU11及びMoPU12から出力された上記情報に基づいて、ロボットの動作制御を行ってもよい。ロボットは、人間の代わりに作業を行う人型のスマートロボットであってもよい。この場合、Central Brain15は、IPU11及びMoPU12から出力された上記情報に基づいて、ロボットの腕、手のひら、指、及び足等の動作制御を行って、物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、及び避ける等の動作を行わせる。Central Brain15がロボットの動作制御を行う場合、IPU11及びMoPU12は、ロボットの右目及び左目の位置に搭載されてもよい。つまり右目には右目用のIPU11及びMoPU12を搭載し、左目には左目用のIPU11及びMoPU12を搭載してもよい。
 また、カメラ302のレンズに汚れが付着している、又はフロントガラスに汚れが付着している等の理由で、カメラ302が撮像した画像が鮮明でない場合、車両100の自動運転の制御が困難になるおそれがある。
 そこで、Central Brain15は、カメラ302が撮像した画像が鮮明でない場合、IPU11側の超高解像度カメラで撮像された画像を、カメラ302が撮像した画像の代替として使用してもよい。カメラ302が撮像した画像が鮮明でない場合とは、日中で屋外を走行しているにもかかわらず、カメラ302が撮像した画像の所定の面積が極端に暗く写っている、又はコントラストが低くなっている、等である。
 Central Brain15は、IPU11側の超高解像度カメラで撮像された画像を、カメラ302が撮像した画像の代替として使用することで、車両100の自動運転の制御を継続することが出来る。
 カメラ302が撮像した画像が鮮明でない場合、Central Brain15は、カメラ302が撮像した画像を鮮明にするような処理を実行してもよい。そのような処理として、例えば、Central Brain15は、フロントガラスの汚れを落とすために、洗浄液を噴出させてワイパーを動作させてもよい。
 その後、Central Brain15は、カメラ302が撮像した画像が鮮明になった場合、カメラ302が撮像した画像を車両100の自動運転の制御に用いるよう処理を戻してもよい。
 情報処理装置10は、他の車両100から、当該車両100のカメラ302で撮像された画像を取得してもよい。また、情報処理装置10は、他の車両100から、当該車両100のMoPU12から出力された点情報に含まれる位置情報を取得してもよい。この場合、画像及び位置情報を取得する他の車両100は、例えば、車両100の近隣に存在しており、車両100と同じ方向を走行していることが望ましい。
 他の車両100から、当該車両100のカメラ302で撮像された画像(他装置画像)及び当該車両100のMoPU12から出力された点情報に含まれる位置情報を取得すると、MoPU12は、自車両100のカメラ302で撮像された画像(自装置画像)と、他装置画像とを比較して、両画像に共通する範囲を抽出する。そして、MoPU12は、抽出した範囲の画像、及び他の車両100から取得した位置情報を用いて、自装置画像の点情報に含まれる位置情報を取得してもよい。
 MoPU12は、任意の手法で両画像に共通する範囲を抽出する。例えば、MoPU12は、両画像に共通する被写体(人間、及び物体等)の存在を検出し、その検出結果を用いて両画像に共通する範囲を抽出してもよい。
 また、MoPU12は、他の車両100からの画像及び位置情報の送信時間を考慮して、自装置画像のフレームと他装置画像のフレームとを同期させてもよい。MoPU12が自装置画像のフレームと他装置画像のフレームとを同期させることで、同一のタイミングで撮像された2つの画像を用いた共通範囲の抽出が可能となる。同一のタイミングで撮像された2つの画像を用いた共通範囲の抽出が可能となることで、MoPU12は、精度良く自装置画像の点情報に含まれる位置情報を取得することができる。
 なお情報処理装置10がロボットに備わっている場合、画像及び位置情報を、他の車両100ではなく、図2に示した構成と同様の構成を有する装置、例えば当該ロボットの近隣に存在するロボットから取得してもよい。
 (第3の実施形態)
 次に、本実施形態に係る第3の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 一例として、第3の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
 第3の実施形態に係るMoPU12は、点情報として、別カメラにより撮影された画像(別カメラにより撮影が行われることで得られた画像)から認識した物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の存在位置を示した座標値である複数座標値を出力する。当該複数座標値の各々が示す座標値は、第1の実施形態と同様、上記3次元直交座標系における物体のx座標値及びy座標値である。複数座標値は「第2座標値」の一例である。
 図4は、第3の実施形態に係るMoPU12が出力する点情報の例を示す説明図である。図4では、MoPU12が、別カメラにより撮影された画像(別カメラにより撮影が行われることで得られた画像)に含まれる4つの物体のそれぞれについて、当該物体の輪郭を四角形で囲んだバウンディングボックス21、22、23、24が示されている。そして、図4は、MoPU12が、物体の輪郭を囲む四角形のバウンディングボックス21、22、23、24の頂点の対角となる2点の座標値を複数座標値として出力した態様を例示している。このように、MoPU12は物体を点としてではなく、一定の大きさを持つオブジェクトとして捉えてもよい。
 また、物体を一定の大きさを持つオブジェクトとして捉える場合、MoPU12は、別カメラにより撮影された画像(別カメラにより撮影が行われることで得られた画像)から認識した物体の輪郭を囲む多角形の頂点の対角となる2点の座標値ではなく、物体の輪郭を囲む多角形の複数の頂点の座標値を複数座標値として出力してもよい。例えば、図4を例にすると、MoPU12は、当該物体の輪郭を四角形で囲んだバウンディングボックス21、22、23、24の4つの頂点全ての座標値を複数座標値として出力してもよい。
 以上の説明では、MoPU12が、点情報として、別カメラにより撮影された物体の画像から複数座標値を出力する場合を例示したが、開示の技術は、この態様に限定されるものではない。MoPU12は、点情報として、別カメラにより撮影された物体の画像から、上記3次元直交座標系を構成する少なくとも2つの座標軸(例えば、x軸及びy軸)において、物体の中心点若しくは重心点の存在位置を示した単数座標値又は上記の複数座標値を所定のタイミングで切り替えて出力してもよい。単数座標値は「第1座標値」の一例である。
 例えば、所定のタイミングとして、所定要因により超高解像度カメラにより撮影された物体の画像から撮影された物体をIPU11が識別できない場合に、MoPU12は、点情報として出力する座標値を単数座標値から複数座標値に切り替える。ここで、IPU11は、撮影された物体の種別を識別できず、ラベル情報をCentral Brain15に出力できない場合、点情報として出力する座標値を切り替える指示情報をMoPU12に出力する。一例として、MoPU12は、指示情報を取得した場合に撮影された物体をIPU11が識別できないとして、点情報として出力する座標値を単数座標値から複数座標値に切り替える。
 上記構成により、例えば、所定要因として暗闇又は悪天候等の影響でIPU11が撮影された物体を識別できない場合に、点情報として出力する座標値を複数座標値に切り替えることで、IPU11の代わりにMoPU12が物体の大きさを把握する役割を担うことができる。
 また、所定のタイミングとして、物体の移動速度が所定閾値以下の場合、又は物体の移動方向が所定方向である場合に、MoPU12は、点情報として出力する座標値を複数座標値から単数座標値に切り替える。
 MoPU12は、別カメラに写る物体の速さに関するスコアである速さスコアを算出する。一例として、速さスコアは、物体の移動速度が速いほど高くなり、遅いほど低くなるよう設定されている。そして、MoPU12は、物体の移動速度が所定閾値以下のために算出した速さスコアが閾値未満となった場合、点情報として出力する座標値を複数座標値から単数座標値に切り替える。
 また、MoPU12は、別カメラに写る物体の移動方向に関するスコアである方向スコアを算出する。一例として、方向スコアは、物体の移動方向が道路に近づく方向であると高くなり、道路から離れる方向であると低くなるよう設定されている。そして、MoPU12は、物体の移動方向が所定方向となる道路から離れる方向であったために算出した方向スコアが閾値未満となった場合、点情報として出力する座標値を複数座標値から単数座標値に切り替える。
 上記構成により、車両100が今後どの程度の危険な場所を走行するかの度合を示す危険度が低い場合に点情報として出力する座標値を単数座標値に切り替えることで、MoPU12の処理負荷を軽減しつつ、Central Brain15に出力するデータ量を削減することができる。
 (第4の実施形態)
 次に、本実施形態に係る第4の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 一例として、第4の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
 第4の実施形態に係る情報処理装置10が搭載される車両100は、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョンセンサ、音センサ、超音波センサ、振動センサ、赤外線センサ、紫外線センサ、電波センサ、温度センサ、及び湿度センサの少なくとも1つから構成されるセンサを備えている。情報処理装置10がセンサから取り入れるセンサ情報として、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、周囲の状況(鳥、動物、サッカーボール、事故車、地震、火事、風、台風、大雨、小雨、吹雪、霧、など)等が挙げられる。センサは「検知部」の一例であり、センサ情報は「検知情報」の一例である。
 第4の実施形態に係るCentral Brain15は、センサが検知したセンサ情報に基づいて、車両100の自動運転を制御するための制御変数を算出する。Central Brain15は、10億分の1秒毎にセンサ情報を取得する。具体的には、Central Brain15は、車両100の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する。なお、車輪の傾きは、道路に対して水平な軸に対する車輪の傾き、及び道路に対して垂直な軸に対する車輪の傾きの双方を含む。この場合、Central Brain15は、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数を算出する。
 そして、Central Brain15は、上記で算出した制御変数と、MoPU12から出力された点情報及びIPU11から出力されたラベル情報とに基づいて、車両100の自動運転を制御する。具体的には、Central Brain15は、上記16の制御変数に基づいて、4つの車輪にそれぞれ搭載されたインホイールモータを制御することで、車両100の4つの車輪それぞれの車輪速、傾き、及び4つの車輪それぞれを支持するサスペンションを制御して自動運転を行う。また、Central Brain15は、点情報及びラベル情報に基づいて、車両100の周囲に存在する何であるか認識された物体の位置及び動きを認識し、この認識した情報に基づいて、例えば、物体との衝突を回避するように車両100の自動運転を制御する。このようにCentral Brain15が車両100の自動運転を制御することで、例えば、車両100が山道を走行する場合には当該山道に合わせた最適なステアリングを行うことができ、車両100を駐車場に駐車する場合には当該駐車場に合わせた最適なアングルで走行することができる。
 ここで、Central Brain15は、機械学習、より詳しくは深層学習(Deep Learning)を用いて、上記センサ情報及び図示しないサーバ等からネットワークを介して取得可能な情報から制御変数を推論することが可能なものであってよい。換言すると、Central Brain15はAIで構成することができる。
 Central Brain15は、10億分の1秒毎の上記センサ情報及びロングテールインシデントAI dataの計算力であって、Level6を実現する上で用いられる計算力(以下、「Level6の計算力」とも称する)を用い、下記式(1)に示すような積分法による多変量解析(例えば式(2)参照)を行うことで、制御変数を求め得る。より詳しくは、Level6の計算力で各種Ultra High Resolutionのデルタ値の積分値を求めながら、エッジレベルでかつリアルタイムで各制御変数を求め、次の10億分の1秒に発生する結果(すなわち、各制御変数)を最も高い確率論値で取得し得る。これを実現するためには、例えば、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数(例えば、上記センサ情報及びネットワークを介して取得可能な情報)を特定可能な関数(換言すると、各変数の挙動を示す関数)のデルタ値(例えば、微小時間の変化値)を時間積分することにより得られる積分値をCentral Brain15の深層学習モデル(例えば、ニューラルネットワークに対して深層学習が行われることによって得られた学習済みモデル)に入力する。Central Brain15の深層学習モデルは、入力された積分値に対応する制御変数(例えば、最も高い確信度(すなわち、評価値)の制御変数)を出力する。制御変数の出力は10億分の1秒単位で行われる。
 なお、一例として、式(1)において、“f(A)”は、例えば、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数の挙動を示す関数が簡略化されて表現された式である。また、一例として、式(1)は、“f(A)”の時刻aから時刻bまでの時間積分vを示す式である。式(2)中のDLは深層学習(例えば、ニューラルネットワークに対して深層学習が行われることによって最適化された深層学習モデル)を示し、dA/dtは、f(A,B,C,D,・・・,N)のデルタ値を示し、A,B,C,D,…,Nは、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数を示し、f(A,B,C,D,・・・,N)は、A,B,C,D,…,Nの挙動を示す関数を示し、Vは、ニューラルネットワークに対して深層学習が行われることによって最適化された深層学習モデルから出力される値(制御変数)を示す。
 なお、ここでは、関数のデルタ値を時間積分することにより得られる積分値をCentral Brain15の深層学習モデルに入力する形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、空気抵抗、道路抵抗、道路要素、及び滑り係数等の各変数の挙動を示す関数のデルタ値を時間積分することにより得られる積分値(例えば、次の10億分の1秒に発生する結果)がCentral Brain15の深層学習モデルによって推論され、推論結果として、最も高い確信度(すなわち、評価値)の積分値が10億分の1秒毎にCentral Brain15によって取得されるようにしてもよい。
 また、ここでは、深層学習モデルに積分値を入力したり、深層学習モデルから積分値を出力したりする形態例を挙げているが、これは、あくまでも一例に過ぎず、積分値を用いなくても本開示の技術は成立する。例えば、A,B,C,D,…,Nに相当する値を例題データとし、少なくとも1つの制御変数(例えば、次の10億分の1秒に発生する結果)に相当する値を正解データとした教師データを用いた深層学習がニューラルネットワークに対して行われることで最適化された深層学習モデルによって少なくとも1つの制御変数が推論されるようにしてもよい。
 Central Brain15にて得られた制御変数は、Deep Learningの回数を増加させることによりさらに精緻化させ得る。例えば、タイヤや、モータの回転、ステアリング角度や、道路の材質、天気、ごみや二次曲線的減速時における影響、スリップ、バランス崩壊や再獲得のためのステアリングやスピードコントロールの仕方等の膨大なデータやロングテールインシデントAI dataを用いてより正確な制御変数を算出することができる。
 (第5の実施形態)
 次に、本実施形態に係る第5の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図5は、第5の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。なお、図5は、情報処理装置10の一部の構成のみを示している。
 図5に示すように、MoPU12では、カメラ30により撮影された物体の可視光画像及び赤外線画像が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。当該カメラ30は、物体の可視光画像を撮影可能な可視光カメラ305A及び物体の赤外線画像を撮影可能な赤外線カメラ305Bを含んで構成されている。そして、コア17は、入力された可視光画像及び赤外線画像の少なくとも一方に基づいて、点情報をCentral Brain15に出力する。
 ここで、コア17は、可視光カメラ305Aにより撮影された物体の可視光画像から物体を識別できる場合には、当該可視光画像に基づいて点情報を出力する。一方、コア17は、所定要因により当該可視光画像から物体を捉えられない場合、赤外線カメラ305Bにより撮影された物体の赤外線画像に基づいて点情報を出力する。例えば、所定要因として暗闇の影響により、コア17が可視光画像から物体を捉えられない場合が想定される。この場合には、コア17は、赤外線カメラ305Bを用いて物体の熱を検知し、その検知結果である赤外線画像に基づいて、物体の点情報を出力する。なお、これに限らず、コア17は、可視光画像及び赤外線画像に基づいて点情報を出力してもよい。
 また、MoPU12は、可視光カメラ305Aにより可視光画像を撮影する(可視光画像を得るための撮影が可視光カメラ305Aによって行われる)タイミングと、赤外線カメラ305Bにより赤外線画像を撮影する(赤外線画像を得るための撮影が赤外線カメラ305Bによって行われる)タイミングとを同期させる。具体的には、MoPU12は、同じタイミングで可視光画像及び赤外線画像を撮影する(MoPU12は、可視光の撮影と赤外線の撮影を行う)ように、カメラ30へ制御信号を出力する。これにより、可視光カメラ305Aによって撮影される1秒あたりの画像数(可視光カメラ305Aが撮影を行うことによって得られる1秒あたりの画像数)と、赤外線カメラ305Bによって撮影される1秒あたりの画像数(赤外線カメラ305Bが撮影を行うことによって得られる1秒あたりの画像数)とが同期する(例えば、1920フレーム/秒)。
 (第6の実施形態)
 次に、本実施形態に係る第6の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図6は、第6の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。なお、図6は、情報処理装置10の一部の構成のみを示している。
 図6に示すように、MoPU12では、カメラ30により撮影された物体の画像及びレーダー32により物体に照射された電磁波の物体からの反射波に基づくレーダー信号が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。そして、コア17は、入力された物体の画像及びレーダー信号に基づいて、点情報をCentral Brain15に出力する。コア17は、入力された物体の画像からは、物体のx座標値及びy座標値を導出することが可能である。上述の通り、レーダー32は、レーダー信号に基づく物体の3次元点群データを取得し、上記3次元直交座標系におけるz軸の座標を検出することが可能である。この場合、コア17は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。なお、上記でコア17に入力された物体の画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。
 また、MoPU12は、カメラ30により画像を撮影する(カメラ30が撮影を行う)タイミングと、レーダー32がレーダー信号に基づく物体の3次元点群データを取得するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで画像を撮影し、物体の3次元点群データを取得するように、カメラ30及びレーダー32へ制御信号を出力する。これにより、カメラ30によって撮影される1秒あたりの画像数(カメラ30が撮影を行うことによって得られる1秒あたりの画像数)と、レーダー32によって取得される1秒あたりの3次元点群データの数とが同期する(例えば、1920フレーム/秒)。このように、カメラ30によって撮影される1秒あたりの画像数(カメラ30が撮影を行うことによって得られる1秒あたりの画像数)及びレーダー32によって取得される1秒あたりの3次元点群データの数は、IPU11が備える超高解像度カメラのフレームレート、すなわち、超高解像度カメラによって撮影される1秒あたりの画像数(超高解像度カメラが撮影を行うことによって得られる1秒あたりの画像数)より多い。
 (第7の実施形態)
 次に、本実施形態に係る第7の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 一例として、第7の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
 第7の実施形態に係るCentral Brain15は、IPU11がラベル情報を出力したタイミングと同じタイミングでMoPU12から出力された点情報を、当該ラベル情報に対応付ける。また、Central Brain15は、点情報及びラベル情報を対応付けた後にMoPU12から新たな点情報が出力された場合、新たな点情報についても当該ラベル情報と対応付ける。新たな点情報は、ラベル情報と対応付けた点情報が示す物体と同一の物体の点情報であって、当該対応付けが行われてから次のラベル情報が出力されるまでの間の一又は複数の点情報である。第7の実施形態では、上記実施形態と同様、MoPU12が内蔵された別カメラのフレームレートは100フレーム/秒以上(例えば、1920フレーム/秒)であり、IPU11が内蔵された超高解像度カメラのフレームレートは10フレーム/秒である。
 図7Aは、第7の実施形態に係る点情報とラベル情報との対応付けの一例を示す説明図である。以下の説明では、MoPU12から出力される1秒あたりの点情報の数を「点情報の出力レート」と称し、IPU11から出力される1秒あたりのラベル情報の数を「ラベル情報の出力レート」と称する。
 図7Aには、物体B14の点情報P4の出力レートの時系列が示されている。物体B14についての点情報P4の出力レートは1920フレーム/秒である。また、点情報P4は、図中右から左へ移動している。物体B14についてのラベル情報の出力レートは10フレーム/秒であり、点情報P4の出力レートよりも低い。
 まず、時刻t0の時点では、物体B14についてのラベル情報はIPU11から出力されていない。そのため、時刻t0の時点では、Central Brain15は、点情報P4に基づいて物体B14の座標値(位置情報)を認識するが、物体B14が何であるかは認識していない。
 次に、時刻t1の時点では、物体B14についてのラベル情報がIPU11から出力されている。そのため、Central Brain15は、当該ラベル情報に基づいて、物体B14についてラベル情報「PERSON」を導出する。そして、Central Brain15は、時刻t1において導出したラベル情報「PERSON」と、時刻t1においてMoPU12から出力された点情報P4の座標値(位置情報)とを対応付ける。これにより、時刻t1の時点では、Central Brain15は、点情報P4に基づいて物体B14の座標値(位置情報)を認識するとともに、その物体B14が何であるかを認識する。
 図7Aでは、物体B14についての次のラベル情報がIPU11から出力されるタイミングを時刻t2としている。そのため、時刻t2の時点では、Central Brain15は、IPU11から出力された当該ラベル情報に基づいて、物体B14についてラベル情報「PERSON」を導出する。そして、Central Brain15は、時刻t2において導出したラベル情報「PERSON」と、時刻t2においてMoPU12から出力された点情報P4の座標値(位置情報)とを対応付ける。
 ここで、MoPU12が内蔵された別カメラとIPU11が内蔵された超高解像度カメラとのフレームレート差に起因して、時刻t1から時刻t2までの期間は、Central Brain15により物体B14についての点情報P4は取得される一方、ラベル情報は取得されない。この場合、Central Brain15は、時刻t1から時刻t2までの期間に取得した点情報P4については、点情報P4について直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。ここで、Central Brain15が時刻t1から時刻t2までの期間に取得した点情報P4は「新たな点情報」の一例である。図7Aに示す例では、時刻t1から時刻t2までの期間にMoPU12から複数の点情報P4が出力されたため、Central Brain15は、複数の点情報P4を取得している。そのため、図7Aに示す例では、Central Brain15は、時刻t1から時刻t2までの期間に取得した複数の点情報P4の何れについても直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。なお、図7Aに示す例と異なり、時刻t1から時刻t2までの期間にMoPU12から1つの点情報P4が出力された場合には、Central Brain15は、当該1つの点情報P4について直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。
 ここで、Central Brain15は、動きを追跡している物体の種別が不確定な期間が生じても、その物体の点情報が高フレームレートで継続的に出力されるため、当該物体の座標値(位置情報)を見失うリスクは低い。このため、Central Brain15は、点情報とラベル情報との対応付けを1度行った場合、次のラベル情報を取得するまでの間に取得した点情報については、直前のラベル情報を推定的に付与することが可能となる。
 Central Brain15は、点情報の座標値の時系列に基づいて、当該物体の速度及び加速度を導出する。また、Central Brain15は、点情報の座標値の時系列に基づいて、当該物体の動きを予測する。物体の動きの予測には、当該物体のラベル情報を加味してもよい。
 ここで、互いに対応付けられるラベル情報と点情報の座標値は、同一の物体に関するものであることが必要である。すなわち、物体Aのラベル情報と、物体Aとは異なる物体Bの点情報の座標値とが対応付けられることを回避しなければならない。下記の条件1~3は、ラベル情報の対象物体と、点情報の座標値の対象物体とが同一物体であるための条件である。
<条件1>
 IPU11が搭載されたカメラと、MoPU12が搭載されたカメラの設置位置(画角差)から、IPU11から出力される高解像度画像(以下IPU画像と称する)と、MoPU12が搭載されたカメラによって撮像された画像(以下MoPU画像と称する)の相対的な位置関係は特定可能である。IPU画像に写る物体と、MoPU画像に写る物体の位置関係が整合する場合、両物体が同一である可能性がある。そこで、IPU画像に写る物体と、MoPU画像に写る物体の位置関係が整合することを両物体が同一であることの条件1とする。「位置関係が整合する」とは、IPU画像とMoPU画像の画角差を考慮した場合に、両画像に写る物体が、同じ位置にあるとみなせることを意味する。
<条件2>
 MoPU画像は解像度が低いが、物体の輪郭は認識可能である。IPU画像に写る物体の輪郭とMoPU画像に写る物体の輪郭が整合する場合、両物体は同一である可能性がある。そこで、IPU画像に写る物体の輪郭と、MoPU画像に写る物体の輪郭が整合することを両物体が同一であることの条件2とする。「輪郭が整合する」とは、IPU画像に写る物体の輪郭と、MoPU画像に写る物体の輪郭の類似度が一定以上であることを意味する。例えば、MoPU画像に写る物体の輪郭とIPU画像に写る物体の輪郭を、位置ずれを考慮した上で重ね合わせて、両画像における物体の輪郭の位置が一致する割合が所定の閾値以上である場合、両画像に写る物体の輪郭の類似度が一定以上であると判定してもよい。
<条件3>
 MoPU12が捉えた物体の点情報の動きから、その物体が何であるかをある程度推定することは可能である。例えば、人間の動きと自動車の動きは明らかに異なる。標識及び信号等の建造物は全く動かない。MoPU12が捉えた物体の点情報の動きから推定した物体の種別と、IPU画像から推定した物体の種別(ラベル情報)が整合する場合、両物体が同一である可能性がある。そこで、MoPUが捉えた物体の点情報の動きから推定した物体の種別と、IPU画像から推定した物体の種別(ラベル情報)が整合することを両物体が同一であることの条件3とする。「物体の種別が整合する」とは、MoPU12が捉えた物体の点情報の動きから推定した物体の種別と、IPU画像から推定した物体の種別(ラベル情報)が矛盾しないことを意味する。
 Central Brain15は、上記の条件1~3の全てを満たす場合に、ラベル情報の対象物体と、点情報の座標値の対象物体とが同一物体であると判定し、両物体について、点情報とラベル情報との対応付けを行う。図7Bは、第7の実施形態に係るCentral Brain15によって実施される、点情報とラベル情報との対応付け処理の流れの一例を示すフローチャートである。
 ステップS1においてCentral Brain15は、IPU画像に写る物体と、MoPU画像に写る物体について、条件1を満たす物体、すなわち位置関係が整合する物体を抽出する。ステップS2においてCentral Brain15は、IPU画像に写る物体と、MoPU画像に写る物体のうち、条件1を満たす物体について、更に条件2を満たす物体、すなわち輪郭が整合する物体を抽出する。ステップS3においてCentral Brain15は、IPU画像に写る物体と、MoPU画像に写る物体のうち、条件1及び条件2の双方を満たす物体について、更に条件3を満たす物体、すなわち物体の種別が整合する物体を抽出する。ステップS4においてCentral Brain15は、ステップS3において抽出された物体、すなわち条件1~3の全てを満たす物体について、点情報の座標値とラベル情報とを対応付ける。なお、以上の説明では、条件1~3の全てを満たす場合に、当該物体が同一であると判定する場合を例示したが、条件1~3のうちの1つ又は2つを満たす物体を同一の物体であると判定して、その物体について点情報の座標値とラベル情報とを対応付けてもよい。この場合、条件1~3の少なくとも1つを必須の条件としてもよい。例えば条件3(ラベル情報の整合)を必須条件とし、他の2つの条件を満たさない場合でも、当該物体が同一であると判定してもよい。また、満たした条件の数に基づいて、当該物体の同一性についての信頼度を導出し、この信頼度を車両制御に用いてもよい。例えば、条件1~3の全てを満たす場合に、その物体に応じた車両制御を行ってもよい。
 (第8の実施形態)
 次に、本実施形態に係る第8の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 車両100の自動運転を制御する情報処理装置10が高度な演算処理を行う際に、発熱が課題となる。そこで、第8の実施形態は、情報処理装置10に対する冷却機能を有する車両100を提供する。
 図8は、第8の実施形態に係る車両100の概略構成を示す説明図である。図8に示すように、車両100には、情報処理装置10、冷却実行装置110、及び冷却部120が搭載されている。
 第8の実施形態に係る情報処理装置10は、車両100の自動運転を制御する装置であって、一例として、第1の実施形態と同様の図2に示す構成を備えている。冷却実行装置110は、情報処理装置10による物体の検出結果を取得し、当該検出結果に基づいて、情報処理装置10に対する冷却を冷却部120に実行させる。冷却部120は、空冷手段、水冷手段、及び液体窒素冷却手段等の少なくとも1つの冷却手段を用いて情報処理装置10を冷却する。以下では、情報処理装置10における冷却対象を、車両100の自動運転を制御するCentral Brain15(詳しくは、Central Brain15を構成するCPU14)として説明するが、これに限定はされない。
 情報処理装置10及び冷却実行装置110は、図示しないネットワークを介して通信可能に接続されている。当該ネットワークは、車両ネットワーク、インターネット、LAN(Local Area Network)、及び移動体通信ネットワークの何れであってもよい。移動体通信ネットワークは、5G(5th Generation)通信方式、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、及び6G(6th Generation)通信方式以降の通信方式の何れに準拠していてもよい。
 図9は、第8の実施形態に係る冷却実行装置110の機能構成の例を示すブロック図である。図9に示すように、冷却実行装置110は、機能構成として、取得部112、実行部114、及び予測部116を有する。
 取得部112は、情報処理装置10による物体の検出結果を取得する。例えば、当該検出結果として、取得部112は、MoPU12から出力される物体の点情報を取得する。
 実行部114は、取得部112が取得した物体の検出結果に基づいて、Central Brain15に対する冷却を実行させる。例えば、実行部114は、MoPU12から出力された物体の点情報に基づいて、当該物体が移動していることを認識した場合、冷却部120によるCentral Brain15に対する冷却を開始させる。
 なお、実行部114は、物体の検出結果に基づいてCentral Brain15に対する冷却を実行させることに限らず、情報処理装置10の作動状況の予測結果に基づいてCentral Brain15に対する冷却を実行させてもよい。
 ここで、予測部116は、取得部112が取得した物体の検出結果に基づいて、情報処理装置10、具体的には、Central Brain15の作動状況を予測する。例えば、予測部116は、所定の記憶領域に記憶されている学習モデルを取得する。そして、予測部116は、取得部112が取得したMoPU12から出力された物体の点情報を学習モデルに入力することによって、Central Brain15の作動状況を予測する。ここで、学習モデルは、当該作動状況として、Central Brain15のコンピューティングパワーの状況及び変化量を出力する。また、予測部116は、当該作動状況と共に情報処理装置10、具体的には、Central Brain15の温度変化を予測して出力してもよい。例えば、予測部116は、取得部112が取得したMoPU12から出力された物体の点情報の数に基づいて、Central Brain15の温度変化を予測する。この場合、予測部116は、点情報の数が多いほど温度変化が大きくなると予測し、点情報の数が少ないほど温度変化が小さくなると予測する。
 上記の場合、実行部114は、予測部116によるCentral Brain15の作動状況の予測結果に基づいて、冷却部120によるCentral Brain15に対する冷却を開始させる。例えば、実行部114は、当該作動状況として予測されたCentral Brain15のコンピューティングパワーの状況及び変化量が所定の閾値を超えた場合、冷却部120による冷却を開始させる。また、実行部114は、当該作動状況として予測されたCentral Brain15の温度変化に基づく温度が所定の閾値を超えた場合、冷却部120による冷却を開始させる。
 また、実行部114は、予測部116によるCentral Brain15の温度変化の予測結果に応じた冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、予測されたCentral Brain15の温度が高いほど、多数の冷却手段を用いて冷却部120に冷却を実行させてもよい。具体例として、実行部114は、Central Brain15の温度が第1閾値を超えることが予測された場合、1つの冷却手段を用いて冷却部120に冷却を実行させる。一方、実行部114は、Central Brain15の温度が第1閾値よりも高い第2閾値を超えることが予測された場合、複数の冷却手段を用いて冷却部120に冷却を実行させる。
 また、実行部114は、予測されたCentral Brain15の温度が高いほど、強力な冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、Central Brain15の温度が第1閾値を超えることが予測された場合、空冷手段を用いて冷却部120に冷却を実行させる。また、実行部114は、Central Brain15の温度が第1閾値よりも高い第2閾値を超えることが予測された場合、水冷手段を用いて冷却部120に冷却を実行させる。さらに、実行部114は、Central Brain15の温度が第2閾値よりも高い第3閾値を超えることが予測された場合、液体窒素冷却手段を用いて冷却部120に冷却を実行させる。
 さらに、実行部114は、取得部112が取得したMoPU12から出力された物体の点情報の数に基づいて、冷却に用いる冷却手段を決定してもよい。この場合、実行部114は、点情報の数が多いほど強力な冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、点情報の数が第1閾値を超える場合、空冷手段を用いて冷却部120に冷却を実行させる。また、実行部114は、点情報の数が第1閾値よりも高い第2閾値を超える場合、水冷手段を用いて冷却部120に冷却を実行させる。さらに、実行部114は、点情報の数が第2閾値よりも高い第3閾値を超える場合、液体窒素冷却手段を用いて冷却部120に冷却を実行させる。
 ところで、Central Brain15が作動する契機として、車道に存在する動く物体を検出した場合がある。例えば、車両100が自動運転を行っている際に車道に存在する動く物体が検出された場合、Central Brain15は、当該物体に対して車両100を制御するための演算処理を行うことがある。上述のように、車両100の自動運転を制御するCentral Brain15が高度な演算処理を行う際の発熱が課題となる。そこで、第8の実施形態に係る冷却実行装置110は、情報処理装置10による物体の検出結果に基づいてCentral Brain15の放熱を予測し、放熱の開始前又は放熱の開始と同時にCentral Brain15に対する冷却を実行させる。これにより、Central Brain15は、車両100の自動運転中に高温となることが抑制され、当該自動運転中における高度な演算が可能となる。
 (第9の実施形態)
 次に、本実施形態に係る第9の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 第9の実施形態に係る情報処理装置10が備えるMoPU12は、カメラにより撮影された物体の画像から、点情報として物体のz座標値を導出する。以下、第9の実施形態に係る情報処理装置10の各態様について順に説明する。
 第1態様に係る情報処理装置10は、第2の実施形態と同様の図3に示す構成を備えている。
 上記第1態様において、MoPU12は、複数のカメラ302、具体的には、カメラ302L及びカメラ302Rにより撮影された物体の画像から、点情報として物体のz座標値を導出する。上述の通り、1つのMoPU12を用いた場合は、点情報として物体のx座標値及びy座標値を導出することが可能である。ここで、2つのMoPU12を用いた場合は、ステレオカメラの原理を利用して、2つのカメラ302により撮影された物体の画像に基づいて点情報として物体のz座標値を導出することが可能である。そのため、当該第1態様は、ステレオカメラの原理を利用して、MoPU12Lのカメラ302L及びMoPU12Rのカメラ302Rによりそれぞれ撮影された物体の画像に基づいて、点情報として物体のz座標値を導出する。
 第2態様に係る情報処理装置10は、第2の実施形態と同様の図3に示す構成を備えている。
 上記第2態様において、MoPU12は、カメラ302により撮影された物体の画像及びレーダー32により物体に照射された電磁波の物体からの反射波に基づくレーダー信号から、点情報として物体のx座標値、y座標値、及びz座標値を導出する。上述の通り、レーダー32は、レーダー信号に基づく物体の3次元点群データを取得することが可能である。つまり、レーダー32は、上記3次元直交座標系におけるz軸の座標を検出することが可能である。この場合、MoPU12は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングでカメラ302により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸の座標値を導出する。
 第3態様に係る情報処理装置10は、図10に示す構成を備えている。図10は、第9の実施形態に係る情報処理装置10の構成の一例を示す第1のブロック図である。なお、図10は、情報処理装置10の一部の構成のみを示している。
 上記第3態様において、MoPU12は、カメラ30により撮影された物体の画像及び照射装置130により物体に照射されたストラクチャードライトを撮影した結果から、点情報として物体のz座標値を導出する。
 図10に示すように、MoPU12では、カメラ30により撮影された物体の画像及び照射装置130により物体に照射されたストラクチャードライトをカメラ140が撮影した結果であるストラクチャードライトのパターンの歪みを示す歪み情報が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。そして、コア17は、入力された物体の画像及び歪み情報に基づいて、点情報をCentral Brain15に出力する。
 ここで、物体の3次元位置又は形状を識別する方式の1つとして、ストラクチャードライト方式がある。ストラクチャードライト方式は、ドット状にパターニングされたストラクチャードライトを物体に照射し、そのパターンの歪みから奥行き情報を取得するものである。ストラクチャードライト方式は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。
 図10に示す照射装置130は、物体にストラクチャードライトを照射する。また、カメラ140は、照射装置130により物体に照射されたストラクチャードライトを撮影する。そして、カメラ140は、撮影したストラクチャードライトのパターンの歪みに基づく歪み情報をコア17に出力する。
 ここで、MoPU12は、カメラ30により画像を撮影する(カメラ30が撮影を行う)タイミングと、カメラ140によりストラクチャードライトを撮影するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで画像を撮影する(同じタイミングで物体を撮影する)ように、カメラ30及びカメラ140へ制御信号を出力する。これにより、カメラ30によって撮影される1秒あたりの画像数(カメラ30が撮影を行うことによって得られる1秒あたりの画像数)と、カメラ140によって撮影される1秒あたりの画像数(カメラ140が撮影を行うことによって得られる1秒あたりの画像数)とが同期する(例えば、1920フレーム/秒)。このように、カメラ30によって撮影される1秒あたりの画像数(カメラ30が撮影を行うことによって得られる1秒あたりの画像数)及びカメラ140によって撮影される1秒あたりの画像数(カメラ140が撮影を行うことによって得られる1秒あたりの画像数)は、IPU11が備える超高解像度カメラのフレームレート、すなわち、超高解像度カメラによって撮影される1秒あたりの画像数より多い。
 そして、コア17は、カメラ140によりストラクチャードライトが撮影されたタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該ストラクチャードライトのパターンの歪みに基づく歪み情報とを組み合わせて、点情報として物体のz座標値を導出する。
 第4態様に係る情報処理装置10は、図11に示す構成を備えている。図11は、第9の実施形態に係る情報処理装置10の構成の一例を示す第2のブロック図である。なお、図11は、情報処理装置10の一部の構成のみを示している。
 図11に示すブロック図は、図2に示すブロック図の構成にLidarセンサ18を加えたものである。Lidarセンサ18は、3次元空間に存在する物体及び車両100が走行中の路面を含む点群データを取得するセンサである。情報処理装置10は、Lidarセンサ18により取得した点群データを用いることで、物体の奥行き方向における位置情報、すなわち、物体のz座標値を導出することができる。なお、Lidarセンサ18により取得される点群データは、MoPU12から出力される物体のx座標値及びy座標値より長い間隔で取得されることを想定する。また、MoPU12は、第9の実施形態の第3態様と同様にカメラ30を備えている。
 第4態様では、MoPU12は、ステレオカメラの原理を利用して、Lidarセンサ18が物体の点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸の座標値を導出する。
 ここで、上記第4態様において、MoPU12は、時刻tの物体のx座標値、y座標値、及びz座標値と、時刻tの次の時点である(例えば時刻t+1)における物体のx座標値及びy座標値とから、点情報として時刻t+1における物体のz座標値を導出する。時刻tは「第1時点」の一例であり、時刻t+1は「第2時点」の一例である。第4態様では、時刻t+1における物体のz座標値は、形状情報、すなわち、ジオメトリを用いて導出する。以下、この詳細について説明する。
 図12Aは、第9の実施形態において、物体の時系列における座標検出を模式的に示す図である。図12AにおいてJは矩形で表された物体の位置を示し、物体の位置はJ1からJ2に時系列に移動している。図12Aにおいて、物体がJ1に位置する時刻tにおける物体の座標値が(x1、y1、z1)であり、物体がJ2に位置する時刻t+1における物体の座標値が(x2、y2、z2)である。
 まず、時刻tについて説明する。
 MoPU12は、カメラ30により撮影された物体の画像から、当該物体のx座標値及びy座標値を導出する。続いて、MoPU12は、Lidarセンサ18から取得した点群データが示す当該物体のz座標値と上記x座標値及びy座標値とを統合して、時刻tにおける当該物体の3次元座標値(x1、y1、z1)を導出する。
 次に、時刻t+1について説明する。
 MoPU12は、空間のジオメトリと、時刻tから時刻t+1への物体のx座標値及びy座標値の変化とに基づいて、時刻t+1における当該物体のz座標値を導出する。空間のジオメトリには、IPU11が備える超高解像度カメラにより撮影された画像(超高解像度カメラにより撮影が行われることで得られた画像)及びLidarセンサ18の点群データから得られる路面の形状と、車両100の形状とが含まれる。
 路面の形状を示すジオメトリは、時刻tの時点であらかじめ生成しておく。MoPU12は、路面の形状を示すジオメトリと合わせて車両100の形状を示すジオメトリを利用することで、路面上を車両100が走行する場合をシミュレーションでき、x軸、y軸、及びz軸の各軸の移動量を推定できる。
 そのため、MoPU12は、カメラ30により撮影された物体の画像から、時刻t+1における当該物体のx座標値及びy座標値を導出する。MoPU12は、当該物体が時刻tのx座標値及びy座標値(x1、y1)から時刻t+1のx座標値及びy座標値(x2、y2)に変化したときのz軸の移動量をシミュレーションから算出することで、時刻t+1における当該物体のz座標値を導出することができる。そして、MoPU12は、上記x座標値及びy座標値とz座標値とを統合して、時刻t+1における当該物体の3次元座標値(x2、y2、z2)を導出する。
 図12Aに示すように、物体は、平面座標の移動(すなわち、x軸及びy軸)と共に奥行き方向に移動しているため、車両100の自動運転を高精度に制御するためにはz軸方向の移動も検知する必要がある。ここで、MoPU12は、Lidarセンサ18の点群データから導出可能な物体のz座標値を、当該物体のx座標値及びy座標値ほど高速に取得できない場合もある。そのため、上記第4態様では、MoPU12は、時刻tの物体のx座標値、y座標値、及びz座標値と時刻t+1における物体のx座標値及びy座標値とから、時刻t+1における物体のz座標値を導出することとしている。これにより、上記第4態様に係る情報処理装置10によれば、MoPU12により、高速フレームショットによる2次元の動き検知と共に3次元の動き検知が、高性能かつ低用量のデータで実現できる。
 また、MoPU12は、点情報が複数検出されている場合に、点情報に対応付けられたラベル情報について定めた優先度に応じて、次の時点の物体のz座標値を導出してもよい。例えば、Central Brain15では点情報及びラベル情報が対応付けられるが、当該ラベル情報が示す物体に、z座標値を処理する場合の優先度を定めておく。以下、優先度の一例を説明する。例えば、物体の種別を示すラベル情報が、人、前方の車両、動物、又は障害物など、挙動を生じる物体であり、当該物体の挙動が走行に影響する対象である場合は、高い優先度(RANK:A)のカテゴリを設定する。一方、ラベル情報が、標識、又は道路脇の設置物など、静的な物体であり、挙動を生じない物体である場合は、低い優先度(RANK:B)を設定する。このように、MoPU12では、ラベル情報における物体の挙動の有無に応じて、優先度を設定できる。また、Central Brain15から物体の挙動の大きさを取得し、物体の挙動に対して重みづけを行い、物体の優先度を更新するようにしてもよい。例えば、挙動が大きい物体については重みを大きくし、挙動が小さい物体については重みを小さくするように優先度を更新する。
 また、優先度のRANKはA、Bに限定されるものではなく、A~C、又はA~Dなど、適宜、物体の種別に応じて段階を設けて定めてよい。また、上述の高い優先度の中で、細分化した優先度を設定してもよい。例えば、人、及び前方の車両は、大きな事故に繋がり得る危険度の高い物体とも捉えることができる。そこで、高い優先度のRANK:Aについて、RANK:A1、RANK:A2に分け、人、前方の車両は、RANK:A1に設定し、動物、又は障害物などはRANK:A2に設定する。このように、物体の危険因子に応じた優先度を設定してもよい。また、前方車両の中でも、大型のトラック又は荷物を積載したトラックなどは、通常の車両よりも、より危険度が高いといえる。そのため、ラベル情報でこれらを細分化して識別するようにし、MoPU12で、通常の車両よりも高い優先度を設定するようにしてもよい。
 また、物体の数(すなわち点情報に対応付けられたラベル情報の数)に応じて、優先度を用いた処理順とするか否かを判定してもよい。例えば、物体が所定数(例えば3など)以上の場合は、優先度の順番に応じて各物体のz座標値を導出し、物体の所定数未満で少ない場合はとくに処理順を定めずに各物体のz座標値を処理する。また、物体間の距離、物体の密度に応じて、優先度を用いた処理順とするか否かを判定してもよい。
 また、優先度は、第9の実施形態の点情報として物体のz座標値を導出する場合に限らず、上述の第1~第8の実施形態の場合にも適用してもよい。MoPU12は、点情報が複数の場合に、上述のラベル情報について定めた優先度に応じて、次の時点の点情報を導出してもよい。
 また、MoPU12は、x座標値及びy座標値の変化量によって、z座標値の更新頻度を定め、当該頻度に応じてz座標値を導出するようにしてもよい。例えば、x座標値及びy座標値の変化量が小さい場合には、走行環境が、平坦な道路や見通しのよい道路であることや、自動運転の速度も緩やかであり、自動運転の挙動も変化が少ない状態であることが想定される。このような場合には、x座標値及びy座標値の取得だけでも十分に物体を捉えることができると考えられる。そのため、x座標値及びy座標値の変化量が閾値以下の場合には、z座標値の導出の頻度を低い頻度に設定し、x座標値及びy座標値が閾値以上の場合には、z座標値の導出の頻度を高い頻度に設定する。このように、z座標値の導出に更新頻度を設定する。x座標値及びy座標値の変化量が、「画像についての所定の条件」の一例であり、変化量に応じて定める更新頻度が「所定の条件を満たす各時点」の一例である。なお、1秒間に点情報は100フレーム以上のx座標値及びy座標値を含むとされるが、時点ごとに、これらの平均を用いればよい。また、時刻tと時刻t+1の間隔は適宜、設計し得る事項である。
 図12Bは、変化量に応じてz座標値の更新頻度を定めた場合のフローチャートである。なお、第1時点である時刻tの3次元座標値(x1、y1、z1)と、時刻t+1のx座標値及びy座標値とは少なくとも導出されているとする。
 ステップS300では、MoPU12は、時刻tのx座標値及びy座標値と、時刻t+1のx座標値及びy座標値とを取得する。
 ステップS302では、MoPU12は、時刻tから時刻t+1へのx座標値及びy座標値の変化量が閾値以上か否かを判定する。閾値以上である場合にはステップS304へ移行し、閾値未満であればステップS306へ移行する。
 ステップS304では、MoPU12は、z座標値の更新頻度を高い頻度に設定する。
 ステップS306では、MoPU12は、z座標値の更新頻度を低い頻度に設定する。
 ステップS308では、MoPU12は、設定された頻度に応じて、更新タイミングである場合に、当該時刻におけるz座標値を導出する。なお、上記ステップS300~S306の実行に関わらず、設定された頻度の更新タイミングとなった場合には、S308の処理を実行し、z座標値を導出する。
 このように、処理負荷を軽減しつつ、走行状況に応じてz座標値を導出することで、必要な場合に高精度に物体の位置を特定できる。なお、更新頻度の設定は、上述した第1~4態様において、画像からz座標値を導出する場合において適用可能である。
 また、MoPU12は、推定したz軸の移動量と、Lidarセンサ18で検出したz座標値とに差異があった場合、補正情報の学習を行うようにしてもよい。例えば、推定によるz座標値と、検出したz座標値とに差異が閾値以上の場合が生じた時のセンサ情報を収集し、データから物体の奥行き推定の補正情報を学習する。センサ情報から車両100の補正対象の走行状況を特定し、特定した補正対象の走行状況に対して補正情報を学習する。補正対象の走行状況を特定する手法は、例えば、センサ情報を特徴量化し、平均の特徴量に対して差が生じた特徴量の項目を学習条件とすればよい。学習手法には深層学習等の補正対象の走行状況のセンサ情報を入力として、補正情報を出力できる任意の手法を用いればよい。補正情報は、入力された走行状況が補正対象に適合する場合に、補正候補のz座標値を出力する推定モデルとして学習できる。また、補正後のz座標値の精度を検証し、補正情報を再学習するように構成することができる。
 図12Cは、補正情報を学習する場合のフローチャートである。なお、各時点で時刻tのz座標値とx座標値及びy座標値とを統合して、時刻tにおける当該物体の3次元座標値が導出されているとする。
 ステップS400では、MoPU12は、各時刻について推定したz座標値と、Lidarセンサ18で検出したz座標値とを取得する。
 ステップS402では、MoPU12は、推定したz座標値と、検出したz座標値との差異が閾値以上のセンサ情報を収集する。
 ステップS404では、MoPU12は、収集したセンサ情報から補正対象の走行状況を特定する。
 ステップS406では、MoPU12は、補正対象の走行状況に関するセンサ情報を学習データとして用いて、補正情報を学習する。
 MoPU12は、z座標値の推定時に、学習した補正情報を適用し、補正候補のz座標値を出力し、z座標値を補正する。
 このように、精度が不安定な走行状況においても、補正情報を用いて、物体の位置を特定できる。なお、補正情報の学習は、上述した第1~4態様において、画像からz座標値を導出する場合において適用可能である。
 また、以上の説明では、MoPU12がカメラ30により撮影された物体の画像から、点情報として物体のz座標値を導出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が点情報として物体のz座標値を導出してもよい。この場合、Central Brain15は、カメラ30により撮影された物体の画像に対して、以上の説明でMoPU12が実行していた処理を行うことにより、点情報として物体のz座標値を導出する。一例として、Central Brain15は、複数のカメラ302、具体的には、カメラ302L及びカメラ302Rにより撮影された物体の画像から、点情報として物体のz座標値を導出する。この場合、Central Brain15は、ステレオカメラの原理を利用して、MoPU12Lのカメラ302L及びMoPU12Rのカメラ302Rによりそれぞれ撮影された物体の画像に基づいて、点情報として物体のz座標値を導出する。
 (第10の実施形態)
 次に、本実施形態に係る第10の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図13は、第10の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。なお、図13は、情報処理装置10の一部の構成のみを示している。
 図13に示すように、MoPU12では、イベントカメラ30Cにより撮影された物体の画像(以下、「イベント画像」と記載することもある)がコア17に入力される。そして、コア17は、入力されたイベント画像に基づいて、点情報をCentral Brain15に出力する。なお、イベントカメラは、例えば、参考文献(https://dendenblog.xyz/event-based-camera/)に開示されている。
 図14は、イベントカメラ30Cにより撮影された物体の画像(イベント画像)を説明するための説明図である。図14Aは、イベントカメラ30Cによる撮影対象となる物体を示す図である。図14Bは、イベント画像の一例を示す図である。図14Cは、イベント画像が表す、現時刻に撮影された画像(現時刻に撮影が行われることによって得られた画像)と前時刻に撮影された画像(前時刻に撮影が行われることによって得られた画像)との差異部分の重心を点情報として算出した例を示す図である。イベント画像は、現時刻に撮影された画像(現時刻に撮影が行われることによって得られた画像)と前時刻に撮影された画像(前時刻に撮影が行われることによって得られた画像)との差異部分が点として抽出される。このため、イベントカメラ30Cを利用した場合には、例えば、図14Bに示されるように、図14Aに示される人物領域のうちの移動している各箇所の点が抽出されてしまう。
 これに対し、コア17は、図14Cに示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送されるデータ量を抑制させることできる。イベント画像は、物体である人物を任意のフレームレートで抽出できるため、イベントカメラ30Cの場合は、上記実施形態でMoPU12に搭載されたカメラ30の最大フレームレート(例:1920フレーム/秒)以上のフレームレートで抽出することもでき、物体の点情報を精度良く捉えることができる。
 なお、第10の実施形態に係る情報処理装置10は、上記実施形態と同様に、MoPU12がイベントカメラ30Cに加えて、可視光カメラ305Aを備えてもよい。この場合、MoPU12では、可視光カメラ305Aにより撮影された物体の可視光画像及びイベント画像が、それぞれコア17に入力される。そして、コア17は、入力された可視光画像及びイベント画像の少なくとも一方に基づいて、点情報をCentral Brain15に出力する。
 例えば、コア17は、可視光カメラ305Aにより撮影された物体の可視光画像から物体を識別できる場合には、当該可視光画像に基づいて点情報を出力する。一方、コア17は、所定要因により当該可視光画像から物体を捉えられない場合、イベント画像に基づいて点情報を出力する。所定要因は、物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む。例えば、物体の動作が高速で当該可視光画像から物体を捉えられない場合、コア17は、イベント画像に基づいて物体を識別して、点情報として当該物体のx座標値及びy座標値を出力する。また、逆光等の急激な環境光の光量変化により当該可視光画像から物体を捉えられない場合、コア17は、イベント画像に基づいて物体を識別して、点情報として当該物体のx座標値及びy座標値を出力する。この構成により、情報処理装置10によれば、所定要因に応じて、物体を撮影するカメラ30を使い分けることができる。
 (第11の実施形態)
 次に、本実施形態に係る第11の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図15は、第11の実施形態に係る情報処理装置10の構成の一例を示す第1のブロック図であり、図16は、第11の実施形態に係る情報処理装置10の構成の一例を示す第2のブロック図である。
 図15に示すように、車両100の左側に取り付けられたカメラからの画像及び車両100の右側に取り付けられたカメラからの画像を、MoPU12のコア12Aに入力してもよい。これらの画像は、それぞれ、例えば1000ピクセル×1000ピクセルの色情報を含む画像であり、1000フレーム/秒のフレームレートでコア12Aに入力されてもよい。MoPU12のコア12Aは、これらの画像に基づいて、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を1000フレーム/秒のフレームレートでCentral Brain15に転送してもよい。また、図16に示すように、車両100の左側に取り付けられたカメラからの画像及び車両100の右側に取り付けられたカメラからの画像を、それぞれ、別々のコア12A及び12Aを用いて処理してもよい。
 (第12の実施形態)
 次に、本実施形態に係る第12の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図17は、第12の実施形態に係る情報処理装置10の構成の一例を示す第1のブロック図であり、図18は、第12の実施形態に係る情報処理装置10の構成の一例を示す第2のブロック図である。
 図17に示すように、MoPU12は、可視光画像及び赤外線画像の少なくとも一方に基づいて動き情報を出力してもよい。可視光画像は可視光カメラによって撮影された画像であり、赤外線画像は赤外線カメラによって撮影された画像である。可視光画像及び赤外線画像は、それぞれ、1000フレーム/秒以上のフレームレートでコア12Aに入力される。可視光画像及び赤外線画像は、互いに同期していることが好ましい。MoPU12による物体検出において赤外線画像を用いることで、例えば夜間等の可視光画像による物体検出が困難である場合でも物体検出が可能となる。MoPU12は、可視光画像及び赤外線画像うち、赤外線画像のみに基づいて動き情報を出力してもよいし、可視光画像及び赤外線画像の双方に基づいて動き情報を出力してもよい。
 また、図18に示すように、MoPU12は、画像及びレーダー信号に基づいて動き情報を出力してもよい。レーダー信号は、物体に照射された電磁波の当該物体からの反射波に基づく信号である。MoPU12は、画像及びレーダー信号に基づいて、物体までの距離を導出し、当該物体の存在位置を示す点の、三次元直交座標系における3つの軸の各々に沿った動きのベクトル情報を動き情報として出力してもよい。画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。画像及びレーダー信号は、1000フレーム/秒以上のフレームレートでコア12Aに入力される。
 また、以上の説明では、Central Brain15が、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて車両100の運転制御を実行する場合を例示したが、開示の技術は、この態様に限定されるものではない。Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、ロボットの動作制御を行ってもよい。ロボットは例えば、人間の代わりに作業を行う人型のスマートロボットであってもよい。例えば、Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、ロボットの腕、手のひら、指、足の動作制御を行って、当該物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、避ける等の動作制御を行ってもよい。IPU11及びMoPU12は、例えば、ロボットの右目及び左目の位置に搭載されてもよい。
 (第13の実施形態)
 次に、本実施形態に係る第13の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。第13の実施形態は、画像を撮像する際のフレームレートが可変である点等を特徴とする。
(車両100に搭載される情報処理装置:Smart Car)
 図19は、車両100に搭載される、第13の実施形態に係る情報処理装置213のブロック図である。図19に示されているように、車両100に搭載される情報処理装置213は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、IPU11と、コア12Xと、Central Brain15とを備えている。
 MoPU12Lは、カメラ313Lと、レーダー32Lと、赤外線カメラ34Lと、専用のコア12ALと、を備えている。また、MoPU12Rは、カメラ313Rと、レーダー32Rと、赤外線カメラ34Rと、専用のコア12ARと、を備えている。レーダー32L,32Rは、上述したレーダー信号を検知する。赤外線カメラ34L,34Rは、上述した赤外線画像を取得する。
 IPU11は、上述したような高解像度カメラ(図示省略)を備えており、高解像度カメラによって撮像された高解像度画像から物体を検知し、物体の種別を表す情報(以下、単に「ラベル情報」と称する。)を出力する。
 なお、以下では、左側の目に相当するMoPU12Lの処理についてのみ説明する。
 MoPU12Lが備えるカメラ313Lは、IPU11が備える高解像度カメラ(例えば、10フレーム/秒で撮像)よりも高いフレーム数(120,240,480,960,又は1920フレーム/秒)で画像を撮像する。カメラ313Lは、フレームレートを変更することが可能なカメラである。
 MoPU12Lのコア12AL(例えば、1つ以上のCPUにより構成される)は、カメラ313Lが撮像した1フレームの画像毎に特徴点を抽出し、その座標値(X,Y)を出力する。MoPU12Lは、例えば、画像から抽出した物体の中心点(重心点)を特徴点として出力する。なお、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。また一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。
 具体的には、MoPU12Lは、1つの物体から抽出された特徴点の座標値(X,Y)を出力する。なお、例えば、複数の物体(例えば、物体A、物体B、及び物体C等)が1つの画像に写っている場合には、MoPU12Lは、それら複数の物体の各々から抽出された特徴点の座標値(Xn,Yn)を出力するようにしてもよい。各時刻に撮像された画像の特徴点の系列は、物体の動き情報に相当する。
 また、例えば、暗闇の影響によって、MoPU12Lが物体を識別できない場合が想定される。この場合には、MoPU12Lは、赤外線カメラ34Lを用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ313Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力するようにしてもよい。また、カメラ313Lによる画像の撮像と赤外線カメラ34Lによる赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ313Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
 また、MoPU12Lは、レーダー32Lによって取得された3次元点群データに基づいて、物体のZ軸の座標値を取得してもよい。なお、この場合には、カメラ313Lによる画像の撮像とレーダー32Lによる3次元点群データの取得とを同期させるようにしてもよい。例えば、レーダー32Lによって取得される1秒当たりの3次元点群データの数と、カメラ313Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
 また、カメラ313Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数と、レーダー32Lによって取得される1秒当たりの3次元点群データの数とを同一にし、データ取得のタイミングを同期させるようにしてもよい。
 コア12Xは、MoPU12Lから出力された特徴点の座標と、IPU11から出力された対象物のラベル情報(物体が犬なのか、猫なのか、又はクマなのかを表す情報)とを取得する。そして、コア12Xは、ラベル情報と特徴点に対応する座標とを対応付けて出力する。これにより、特徴点が表す物体が何を表しているのかという情報と、特徴点が表す物体の動き情報とを対応付けることが可能になる。
 以上が左側の目に相当するMoPU12Lの処理である。右側の目に相当するMoPU12Rは、左側の目に相当するMoPU12Lと同様の処理を実行する。
 なお、MoPU12Lのカメラ313Lによって撮像された画像と、MoPU12Rのカメラ313Rによって撮像された画像とに基づいて、ステレオカメラの原理を利用して、特徴点の奥行き方向の座標値Znを更に算出してもよい。
(ロボットに搭載される情報処理装置:Smart Robot)
 図20は、ロボットに搭載される、第13の実施形態に係る情報処理装置310のブロック図である。図20に示されているように、ロボットに搭載される情報処理装置310は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、赤外線カメラ34と、ストラクチャードライト3613と、コア12Xと、Central Brain15とを備えている。ロボットに搭載される情報処理装置310は、車両100に搭載される情報処理装置213と同様の機能を有している。
 例えば、暗闇の影響によって、MoPU12Lが物体を識別できない場合には、MoPU12Lは、赤外線カメラ34を用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ313Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力する。また、カメラ313Lによる画像の撮像と赤外線カメラ34による赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ313Lによって撮像される1秒当たりの画像数と、赤外線カメラ34によって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。
 また、コア12Xは、物体の奥行き方向の座標Znを取得するために、ストラクチャードライト3613を使用してもよい。ストラクチャードライト3613は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。この場合には、カメラ313L,313Rによる画像の撮像とストラクチャードライト3613による3次元データとの計測とを同期させるようにしてもよい。例えば、カメラ313L,313Rによって撮像される1秒当たりの画像数と、ストラクチャードライト3613によって計測される1秒当たりの3次元データとを同期させるようにしてもよい(例えば、1920フレーム/秒)。
 更に、赤外線カメラ34によって撮像された赤外線画像とストラクチャードライト3613によって計測された3次元データとの両方を併用してもよい。
(外部環境に応じたフレームレートの変更)
 情報処理装置213,310は、外部環境に応じてカメラのフレームレートを変更するようにしてもよい。例えば、情報処理装置213,310は、外部環境に関するスコアを計算し、スコアに応じて、カメラ313L,313Rのフレームレートを決定する。そして、情報処理装置213,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ313L,313Rに対して出力する。カメラ313L,313Rは、決定されたフレームレートで画像を撮像する。そして、情報処理装置213,310は、カメラ313L,313Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。
 なお、車両100に搭載される情報処理装置213は、図示しない複数種類のセンサを備えている。車両100に搭載される情報処理装置213が備える1つ以上のプロセッサは、複数種類のセンサ(図示省略)から取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)に基づいて、外部環境に関するスコアとして、自車両100が今後どの程度の危険な場所を走行するかの危険度を計算する。
 そして、情報処理装置213が備える1つ以上のプロセッサは、計算した危険度と閾値とに基づいて、1秒当たりに撮像される画像数(フレームレート)を切り替える。
 例えば、情報処理装置213が備える1つ以上のプロセッサは、危険度が第1閾値より低い場合は、120フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ313L,313R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。
 また、例えば、情報処理装置213が備える1つ以上のプロセッサは、危険度が第1閾値以上であり、かつ第4閾値より低い場合は、240,480,960フレーム/秒の何れかを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
 また、例えば、情報処理装置213が備える1つ以上のプロセッサは、危険度が第4閾値以上である場合は、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。
 また、情報処理装置213が備える1つ以上のプロセッサは、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両100が走行する前から既知である走行に関するビッグデータを利用し、危険度を予測するようにしてもよい。
 また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、例えば、カメラ313L,313Rに写る物体の速度等に基づいて、外部環境に関するスコアを計算し、そのスコアに応じてフレームレートを変更するようにしてもよい。例えば、外部環境に関するスコアは、物体の速度が速いほど大きくなるように計算される。このため、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが大きい場合には、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが小さい場合には、120フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。その他の制御は、上記の車両100に搭載される情報処理装置213と同様である。
(物体が検出された領域に応じた特徴点の出力)
 情報処理装置213,310は、画像に写る物体の存在位置が所定領域である場合に、物体の存在位置を示す点をするようにしてもよい。この場合、情報処理装置213,310は、物体が検出された領域に応じてその物体の特徴点を出力するか否かを判定する。例えば、車両100に搭載される情報処理装置213のコア12AL,12ARは、車両100が走行する道路領域において検出された物体とは異なる物体(例えば、歩道上に存在している物体)からは特徴点を抽出しないようにする。図21に、例えば、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための図を示す。
 図21Aでは、物体B1~B4が抽出されている。本来であれば、物体B1~B4の各々について特徴点を表す座標が抽出される。
 この場合、例えば、図21Bに示されているように、車両100に搭載される情報処理装置213が備えるコア12AL,12ARは、既知の技術を用いて、車両100前方の画像から道路境界Lを逐次検出する。そして、情報処理装置213が備えるコア12AL,12ARは、道路境界Lによって特定される道路上に位置する物体B1~B3からのみ特徴点を表す座標を抽出する。
 また、例えば、情報処理装置213が備えるコア12AL,12ARは、道路上に位置する物体B1、B3、及びB4とは異なる物体B2についてはその物体領域自体を抽出せずに、物体B1、B3、及びB4からのみ特徴点を表す座標を抽出するようにしてもよい。
(物体の動きに応じた特徴点の出力)
 情報処理装置213,310は、画像に写る物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出するようにしてもよい。この場合、例えば、情報処理装置213,310は、物体の動きに応じてその物体の特徴点を出力するか否かを判定するようにしてもよい。例えば、情報処理装置213のコア12AL,12ARは、車両100の走行に影響の無い物体からは特徴点を抽出しないようにしてもよい。具体的には、情報処理装置213のコア12AL,12ARは、AIを利用することなどにより、画像に写る物体の移動方向又は速さ等を計算する。そして、例えば、情報処理装置213のコア12AL,12ARは、道路から遠ざかっていく歩行者等からは特徴点を抽出しない。一方、情報処理装置213のコア12AL,12ARは、道路に近づく物体(例えば、道路に飛び出しそうな子供)からは特徴点を抽出する。
 また、情報処理装置213が備える1つ以上のプロセッサは、例えば、イベントカメラ(https://dendenblog.xyz/event-based-camera/)によって撮像された画像からも特徴点を抽出することが可能である。図14に、イベントカメラによって撮像された画像を説明するための図を示す。
 図14に示されているように、イベントカメラによって撮像された画像は、現時刻に撮像された画像と前時刻に撮像された画像との差異部分が点として抽出される。このため、イベントカメラを利用した場合には、例えば、図14Bに示されるように、図14Aに示される人物領域のうちの移動している各箇所の点が抽出されてしまう。
 これに対し、情報処理装置213が備える1つ以上のプロセッサは、図14Cに示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送される情報量を抑制させることできる。イベントカメラによって撮像された画像は、物体である人物を任意のフレームレートで抽出できるため、MoPU12L,12Rに搭載されるカメラ313L,313Rは、最大1920フレーム/秒のフレームレートで画像を撮像するが、イベントカメラの場合は1920フレーム/秒に限らず、それ以上のフレームレートで抽出することもでき、より物体の動き情報を精度良く捉えることができる。
 以上説明したように、第13の実施形態の情報処理装置213,310は、物体が写る画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、コア12X、Central Brain15、及びメモリ16に転送される情報量を抑制させることできる。また、物体の存在位置を示す点とIPU11から出力されたラベル情報とを対応付けることにより、どのような物体がどのような動きをしているのかに関する情報が把握される。特に、MoPU12L,12Rに搭載されるカメラ313L,313Rは、最大1920フレーム/秒のフレームレートで画像を撮像することが可能であるため、物体の動き情報を精度良く捉えることができる。
 また、情報処理装置213,310は、フレームレートを変更することが可能なカメラ313L,313Rを備え、外部環境に関するスコアを計算し、当該スコアに応じてカメラのフレームレートを決定する。そして、情報処理装置213,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ313L,313Rに対して出力し、カメラ313L,313Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、外部環境に適したフレームレートで画像を撮像することができる。
 また、情報処理装置213は、外部環境に関するスコアとして、車両100の走行に関する危険度を計算し、危険度に応じて、カメラ313L,313Rのフレームレートを決定し、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ313L,313R対して出力し、カメラ313L,313Rによって撮像された画像から物体の存在位置を示す点を抽出する。これにより、車両100の走行に関する危険度に応じてフレームレートを変更することができる。
 また、情報処理装置213,310は、画像から物体を抽出し、物体の存在位置が所定領域である場合に、物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置213,310のコア12AL,12ARは、制御処理にとって重要度が低い領域の点を取得せずに済む。
 また、情報処理装置213,310は、画像から物体を抽出し、物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置213,310のコア12AL,12ARは、制御処理にとって重要度が低い物体の点を取得せずに済む。
 (第14の実施形態)
 次に、本実施形態に係る第14の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。第14の実施形態は、MoPU12が画角の異なる複数のカメラを備えている点等を特徴とする。
(車両に搭載される情報処理装置:Smart Car)
 図22は、車両50(図23参照)に搭載される、第14の実施形態に係る情報処理装置410のブロック図である。図23は、車両50に搭載される高解像度カメラ30L及び全方位カメラ30Rの撮影方向及び撮影画角範囲を示す図である。なお、説明の便宜上、図23に示す矢印Hに沿った方向を車両50の上下方向とし、矢印Wに沿った方向を車両50の左右方向とし、矢印Dに沿った方向を車両50の前後方向とする。
 図22に示されているように、車両50(図23参照)に搭載される情報処理装置410は、IPU11と、MoPU12と、Central Brain15とを備えている。
 IPU11は、上述したような高解像度のカメラ30Aと、コア11A(例えば、1つ以上のCPUにより構成される)とを備えており、カメラ30Aによって撮像された高解像度画像から物体を検知し、物体の種別を表す情報を出力する。
 MoPU12は、高解像度カメラ30Lと、全方位カメラ30Rと、調整部40と、コア12A(例えば、1つ以上のCPUにより構成される)とを備えており、高解像度カメラ30L及び全方位カメラ30Rによって撮像された画像から物体を検知し、物体の動きを示す動き情報を出力する。
 高解像度カメラ30Lは、所定の水平画角のカメラであり、全方位カメラ30Rよりも単位画角当たりの解像度が高いカメラである。本実施形態において、高解像度カメラ30Lの水平画角は、一例として45°とするが、これに限らず、どのような画角としてもよい。また、高解像度カメラ30Lの水平画角は、例えばズーム機能等により、変更できるようにしてもよい。高解像度カメラ30Lは、開示の技術における「第1のカメラ」の一例である。
 また、全方位カメラ30Rは、水平画角が360°のカメラである。全方位カメラ30Rは、開示の技術における「第2のカメラ」の一例である。なお、「第2のカメラ」としては、「第1のカメラ」の水平画角よりも広い水平画角のカメラであれば、全方位カメラ30Rに限らず、例えば、水平画角が270°のカメラとする等、どのようなカメラでもよい。
 図23に示すように、高解像度カメラ30L及び全方位カメラ30Rは、車両50のルーフに設置されている。高解像度カメラ30Lは、車両50の高さ方向Hと平行な回転軸を中心に回転自在に設置されており、後述の調整部40により撮影方向が水平方向において調整可能に構成されている。高解像度カメラ30Lの撮影方向は、通常時では車両50の前方に向けられている。
 また、高解像度カメラ30L及び全方位カメラ30Rは、車両50の左右方向において異なる位置に設置されている。高解像度カメラ30Lは相対的に左側に設置されており、全方位カメラ30Rは相対的に右側に設置されている。本実施形態のMoPU12は、上記実施形態で説明した通り、高解像度カメラ30Lにより取得された画像と、全方位カメラ30Rにより取得された画像とに基づいて、ステレオカメラの原理を利用して、特徴点の奥行き方向の座標値Zを算出することが可能である。
 なお、画角が異なる2つのカメラにより取得された画像に基づいて、ステレオカメラの原理を利用して特徴点の奥行き方向の座標値Zを算出する場合には、例えば、画角が広い方の全方位カメラ30Rにおいて取得された画像を、画角が狭い方の高解像度カメラ30Lにおいて取得された画像の撮影方向及び撮影範囲と一致するようにトリミングした補正画像とすればよい。
 調整部40は、例えばモータ等により構成され、コア12Aの制御により、高解像度カメラ30Lを回転させて、水平方向における撮影方向を調整可能に構成されている。調整部40は、車両50の前方を高解像度カメラ30Lの撮影方向の基準方向(0°)として、プラス方向(右回転方向)及びマイナス方向(左回転方向)に高解像度カメラ30Lの撮影方向を調整可能に構成されている。
 コア12Aは、全方位カメラ30Rにより取得された画像において高解像度カメラ30Lの死角にある物体の動きを検知した場合、高解像度カメラ30Lの撮影方向を、検知した物体の方向に向けるように調整部40を制御する。
 ここで、コア12Aにおける高解像度カメラ30Lの撮影方向の制御について詳細に説明する。図24は全方位カメラ30Rにより取得された画像と高解像度カメラ30Lにより取得された画像との撮影範囲の関係を示す図である。
 図24に示すように、全方位カメラ30Rにより取得された画像GRは、水平画角が360°の画像である。すなわち、画像GRは、車両50の前方を高解像度カメラ30Lの撮影方向の基準方向(0°)として、±180°の範囲の画像である。
 高解像度カメラ30Lにより取得された画像GLは、水平画角が45°の画像である。高解像度カメラ30Lの撮影方向は、通常時では車両50の前方に設定されている。従って、通常時の画像GLは、車両50の前方を高解像度カメラ30Lの撮影方向の基準方向(0°)として、±22.5°の範囲の画像である。
 一例として、図23に示すように、車両50の前方を基準方向(0°)として-100°の方向に移動物体Bが存在する場合について説明する。この場合、図24に示すように、全方位カメラ30Rにより取得された画像GRにおいて、車両50の前方を基準方向(0°)として-100°に対応する位置に、移動物体Bが写る。
 コア12Aは、画像GRにおいて移動物体Bを検知すると、この移動物体Bが高解像度カメラ30Lの撮影範囲に含まれるか判定する。図23及び図24に示す移動物体Bは、高解像度カメラ30Lの撮影範囲から外れており、高解像度カメラ30Lの死角にある物体である。
 この場合、コア12Aは、図25及び図26に示すように、高解像度カメラ30Lの水平方向における撮影方向を、移動物体Bの中心位置の方向(-100°の方向)に向けるように調整部40を制御する。
 なお、高解像度カメラ30Lの撮影方向の調整については、撮影方向の調整後に取得される画像GL内に移動物体Bが含まれるように調整すればよく、移動物体Bの中心位置と合致するように撮影方向を調整する態様に限らない。例えば、画像GLにおける回転方向側の端部に移動物体Bが写るように調整すれば、画像GLの中心に移動物体Bが写るように調整する場合と比較して、高解像度カメラ30Lの回転量を少なくすることができる。
 また、全方位カメラ30Rにより取得された画像GRにおける移動物体Bの移動方向を予測して、高解像度カメラ30Lの撮影方向の調整制御に反映させてもよい。
 例えば、上記の例のように、高解像度カメラ30Lの撮影方向を基準方向(0°)から移動物体Bの中心位置の方向(-100°の方向)に調整する場合において、移動物体Bが基準方向側に移動している場合、高解像度カメラ30Lの撮影方向の調整目標を-100°よりも絶対値が小さい角度に修正してもよい。これにより、高解像度カメラ30Lの回転量を少なくすることができる。
 また、高解像度カメラ30Lの撮影方向を基準方向(0°)から移動物体Bの中心位置の方向(-100°の方向)に調整する場合において、移動物体Bが基準方向と反対側に移動している場合、高解像度カメラ30Lの撮影方向の調整目標を-100°よりも絶対値が大きい角度に修正してもよい。これにより、高解像度カメラ30Lの撮影方向の調整後に移動物体Bが高解像度カメラ30Lの撮像範囲に含まれなくなることを防ぐことができる。
 上記の場合においては、全方位カメラ30Rにより取得された画像GRにおける移動物体Bの移動速度に応じて、調整目標からの修正量を変更してもよい。例えば、移動物体Bの移動速度が速い程、調整目標からの修正量を大きくし、移動物体Bの移動速度が遅い程、調整目標からの修正量を小さくしてもよい。これにより、高解像度カメラ30Lの撮影方向の調整をより適切に行うことができる。
 以上説明したように、第14の実施形態の情報処理装置410において、MoPU12は、第2のカメラ(本例では、全方位カメラ30R)により取得された画像において第1のカメラ(本例では、高解像度カメラ30L)の死角にある物体の動きを検知した場合、第1のカメラの撮影方向を検知した物体の方向に向けるように調整部40を制御するようにしている。
 これにより、第2のカメラにより取得された画像を用いて広範囲の情報を取得しつつ、動きのある物体を検知した際には、第1のカメラにより取得された画像を組み合わせて移動物体の検知を行うことができるため、移動物体の検出精度を向上させることができる。
 また、第2のカメラの水平画角を、360°としている。これにより、情報処理装置410が搭載された移動体の全周囲の情報を取得できる。
 また、第1のカメラは、第2のカメラよりも単位画角当たりの解像度が高いものとしている。これにより、移動物体の検出精度をさらに向上させることができる。
 なお、第14の実施形態の情報処理装置410において、調整部40の水平方向における撮影方向の調整範囲は、基準方向に対して±135°以内、好ましく±135°以内は±90°以内の範囲とし、移動物体が当該調整範囲から外れた位置にある場合には、撮影方向の調整を行わないようにしてもよい。
 このように、撮影方向の調整範囲を前方付近に限定することにより、第1のカメラは情報処理装置410が搭載された移動体の移動制御において重要度が高い前方付近の検出に専念できるため、前方付近の移動物体に対する追従性を向上させることができる。
 また、MoPU12は、第1のカメラにより取得された画像、及び、第2のカメラにより取得された画像を用いて、画像中の物体までの距離の情報を取得してもよい。上記の通り、画角が異なる2つのカメラにより取得された画像であっても、ステレオカメラの原理を利用して画像中の物体までの距離の情報を取得することは可能であり、このような態様とすることにより、MoPU12において取得する情報量を多くすることができる。
 (第15の実施形態)
 次に、本実施形態に係る第15の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。第15の実施形態は、IPU11が外部カメラにより取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラの位置情報と関連付けて出力する点等を特徴とする。
(車両に搭載される情報処理装置:Smart Car)
 図27は、車両50(図29参照)に搭載される、第15の実施形態に係る情報処理装置410のブロック図である。
 図27に示されているように、車両50(図29参照)に搭載される情報処理装置410は、IPU11と、MoPU12と、Central Brain15と、ナビゲーションシステム45とを備えている。
 IPU11は、カメラ30Aと、コア11A(例えば、1つ以上のCPUにより構成される)と、取得部415とを備えており、カメラ30Aによって撮像された画像、及び、車両50の外部に設置された外部カメラ60によって撮像された画像から物体(以下、「オブジェクト」と称する。)を検知し、オブジェクトの種別を表す情報を出力する。
 取得部415は、車両50の外部に設置された外部カメラ60により取得された画像及び当該外部カメラ60の位置情報を取得するものであり、例えば、1つ以上のCPUと、外部の装置に無線で接続するための無線通信部とにより構成される。
 なお、車両50の外部には複数台の外部カメラ60A、60B、60C…が設置されている。これらの外部カメラ60A、60B、60Cは、ネットワークを介して管理サーバ70に接続されている。ここで、ネットワークは、例えば、インターネット、LAN(Local Area Network)、WAN(Wide Area Network)等、どのようなネットワークでもよい。
 MoPU12は、カメラ30Bと、コア12A(例えば、1つ以上のCPUにより構成される)とを備えており、カメラ30Bによって撮像された画像からオブジェクトを検知し、オブジェクトの動きを示す動き情報を出力する。
 ナビゲーションシステム45は、車両50の移動案内をおこなうためのシステムであり、例えば、公知のカーナビゲーションシステムと同等のシステムを用いることができる。
(IPU11の処理の詳細説明)
 次に、本実施形態におけるIPU11の処理について詳細に説明する。
 最初に、車両50の外部に設置されている複数台の外部カメラ60A、60B、60Cを管理する管理サーバ70について説明する。管理サーバ70は、カメラ管理データベースを備えている。
 図28は、管理サーバ70において管理されるカメラ管理データベースの一例を示す図である。図28に示すように、カメラ管理データベースは、カメラIDと、アドレスと、設置位置とを関連付けて記憶している。カメラIDは、外部カメラ60の各々に対して付与される固有のIDである。アドレスは、外部カメラ60の各々に対してネットワークを介して接続する際のアドレスを示す情報であり、例えば、IP(Internet Protocol)アドレス等の情報である。なお、IPアドレスのバージョンに制限はなく、例えば、IPv4(Internet Protocol version 4)又はIPv6(Internet Protocol version 6)等、種々のバージョンとすることができる。設置位置は、外部カメラ60の各々が設置されている位置を示す情報であり、例えば、GPS(Global Positionig System)座標(例えば、緯度、経度等)等の情報である。
 外部カメラ60は、例えば、道路沿いのビル、信号機、又は、中央分離帯等に設置されたカメラである。
 管理サーバ70は、カメラ管理データベースを参照することにより、任意の外部カメラ60に接続することができる。また、カメラ管理データベースは、管理サーバ70に接続された外部の装置からも参照することができる。IPU11の取得部415は、無線を介して管理サーバ70と接続可能に構成されている。
 車両50の移動時において、取得部415は、管理サーバ70に接続し、管理サーバ70に記憶されているカメラ管理データベースと、ナビゲーションシステム45から取得した車両50の位置情報及び進行方向の情報とに基づいて、車両50の進行ルートの前方に位置する外部カメラ60の中で、最も車両50に近い外部カメラ60を特定する。
 本実施形態では、車両50の進行ルートの前方に位置する外部カメラ60は、一例として、車両50の車体の前方において車体の前後方向の中心軸を基準として所定の幅の範囲に位置する外部カメラ60とする。
 なお、車両50の進行ルートの前方に位置する外部カメラ60は、上記の態様に限らず、車両50の進行ルートの前方に位置していればどのような外部カメラ60でもよい。例えば、車両50がナビゲーションシステム45によりルート案内されている状況下では、ナビゲーションシステム45により設定されたルートから所定の範囲に位置する外部カメラ60としてもよい。
 そして、取得部415は、特定した外部カメラ60において取得された現在の画像及び当該外部カメラ60の位置情報を取得する。
 本実施形態では、取得部415は、特定した外部カメラ60から、車両50が特定した外部カメラ60の付近を通過するまでの間、1秒毎に画像を取得する。ここで、画像を取得する時間の間隔は、1秒毎に限らず、例えば、10秒毎、5秒毎、又は、0.1秒毎等、どのような態様としてもよい。
 なお、取得部415における画像の取得は、上記の態様に限らず、車両50が特定した外部カメラ60の付近を通過するまでの間、車両50の走行距離が一定距離毎に画像を取得するようにしてもよいし、特定した外部カメラ60から1回のみ画像を取得する等、どのような態様としてもよい。
 例えば、図29に示すように、車両50の周囲に複数の外部カメラ60A~60Nが存在する場合、取得部415は、車両50の進行ルートの前方に位置する外部カメラ60の中で、最も車両50に近い外部カメラ60Gを特定し、特定した外部カメラ60Gにおいて取得された現在の画像及び当該外部カメラ60Gの位置情報を取得する。
 なお、特定した外部カメラ60Gにおいて取得された現在の画像の取得については、管理サーバ70を介して取得してもよいし、直接外部カメラ60Gに接続して取得してもよい。
 IPU11のコア11Aは、外部カメラ60により取得された画像から抽出したオブジェクトの種別を示す種別情報を、当該外部カメラ60の位置情報と関連付けて出力する。
 図29に示す例では、取得部415は、外部カメラ60Gから画像を取得している。図30は、外部カメラ60Gから取得した画像の一例を示す図である。図30に示すように、外部カメラ60Gから取得した画像GEx中には、2台の車と人が写っている。
 IPU11のコア11Aは、画像GEx中から、2台の車と人をオブジェクトB1~B3として抽出する。次に、コア11Aは、オブジェクトB1~B3の各々について、オブジェクトの種別を判別する。そして、コア11Aは、オブジェクトB1~B3の各々について、オブジェクトの種別を示す種別情報を、外部カメラ60Gの位置情報と関連付けて出力し、オブジェクト管理データベースDBに登録する。オブジェクト管理データベースDBは、例えば、メモリ16(図2参照)に記憶されている。
 このとき、コア11Aは、抽出したオブジェクトが、車両50の進行に影響を及ぼす可能性があるオブジェクトである場合に、進行に影響を及ぼす可能性があるオブジェクトであることを示す識別情報(以下、「要注意フラグ」と称する。)を付して、当該オブジェクトの種別情報を出力する。
 なお、車両50の進行に影響を及ぼす可能性があるオブジェクトは、例えば、人又は動物等が挙げられる。本実施形態では、一例として、コア11Aは、抽出したオブジェクトが、人又は動物である場合に、要注意フラグを付して、当該オブジェクトの種別情報を出力する。
 図31は、情報処理装置410において管理されるオブジェクト管理データベースDBの一例を示す図である。図31に示すように、オブジェクト管理データベースDBは、オブジェクトIDと、登録日時と、オブジェクト位置と、オブジェクト種別と、要注意フラグの有無とを関連付けて記憶している。
 オブジェクトIDは、コア11Aにより検出されたオブジェクトの各々に対して付与される固有のIDである。登録日時は、当該オブジェクトをオブジェクト管理データベースDBに登録した際の日時の情報である。オブジェクト位置は、当該オブジェクトを撮影した外部カメラ60の位置を示す情報であり、取得部415により取得された外部カメラ60の位置情報である。オブジェクト種別は、当該オブジェクトの種別を示す情報であり、例えば、人、動物、車、バイク、自転車、信号等の情報である。要注意フラグの有無は、当該オブジェクトに対して上記の要注意フラグが付与されているか否かを示す情報である。
 上記実施形態で説明したように、Central Brain15は、IPU11が備えるカメラ30Aにより取得された画像に基づきIPU11から出力された画像及び識別情報と、MoPU12が備えるカメラ30Bにより取得された画像に基づきMoPU12から出力された動き情報に基づいて、車両50の運転制御を実行する。
 それに加えて、本実施形態のCentral Brain15は、オブジェクト管理データベースDBを参照して、車両50の前方に位置し、車両50の進行に影響を及ぼす可能性があるオブジェクトを事前に把握することができる。そのため、車両50の運転制御をより適切に行うことができる。
 例えば、図29に示すように、車両50が外部カメラ60Gの手前に位置する段階で、外部カメラ60Gの周辺に位置し、車両50の進行に影響を及ぼす可能性があるオブジェクトを事前に把握することができる。本例では、図30に示すように、外部カメラ60Gの周辺に人(図中、オブジェクトB3)が存在することが把握できる。
 これにより、Central Brain15は、外部カメラ60Gの周辺において人が飛び出してくる可能性を考慮して、例えば、車両50が外部カメラ60Gの周辺に到達する前に減速したり、人が飛び出してきた場合に即座にブレーキを掛けることができるように準備したりする等の事前制御を行うことができる。
 その結果、図32に示すように、車両50が外部カメラ60Gの周辺に到達した際に、人が飛び出してきたとしても、事前制御を行っているため、余裕を持って対処することができる。
 以上説明したように、第15の実施形態の情報処理装置410において、IPU11は、外部カメラ60により取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラ60の位置情報と関連付けて出力するようにしている。これにより、Central Brain15は、情報処理装置410が搭載された車両50の外部に設置された外部カメラ60により取得された画像まで考慮して、車両50の運転制御を実行することができる。
 また、IPU11は、外部カメラ60により取得された画像から抽出した物体が、人又は動物等の、車両50の進行に影響を及ぼす可能性がある物体である場合に、進行に影響を及ぼす可能性がある物体であることを示す識別情報を付して、当該物体の種別情報を出力するようにしている。これにより、Central Brain15は、進行に影響を及ぼす可能性がある物体を考慮して、車両50の運転制御を実行することができる。
 また、取得部415は、車両50の進行ルートの前方に位置する外部カメラ60から画像及び位置情報を取得するようにしている。これにより、Central Brain15は、外部カメラ60の設置位置に到達する前に、進行に影響を及ぼす可能性がある物体に対する事前制御を行うことができる。
 また、取得部415は、車両50の進行ルートの前方において、自装置から最も近い外部カメラのみから画像及び位置情報を取得するようにしている。これにより、取得部415にける通信データ量を抑えることができる。
 なお、取得部415が画像及び位置情報を取得する外部カメラ60の特定方法については、上記の態様に限らず、どのような態様としてもよい。例えば、取得部415は、車両50の進行ルートを案内するナビゲーションシステム45のルート情報に基づいて、車両50の進行ルートの前方に位置する外部カメラ60を特定し、特定した外部カメラ60から画像及び位置情報を取得するようにしてもよい。
 例えば、図33に示すように、ナビゲーションシステム45により、車両50の進行ルートRが設定されていたとする。この場合、取得部415は、進行ルートR沿いに設置されている外部カメラ60A、60B、60C、60E、60F、60Gを、車両50の進行ルートの前方に位置する外部カメラ60として特定し、特定した外部カメラ60から画像及び位置情報を取得するようにしてもよい。
 この場合、画像及び位置情報の取得について、取得部415は、必ずしも、進行ルートR沿いに設置されている全ての外部カメラ60から画像及び位置情報を取得する必要はなく、例えば、車両50から所定の距離範囲内に位置する外部カメラ60のみから画像及び位置情報を取得してもよい。
 また、カメラ管理データベースが、カメラID、アドレス、及び、設置位置に加えて、カメラの撮像方向及び/又は撮像範囲の情報を管理している場合、取得部415は、進行ルートR沿いに設置されている外部カメラ60の中で、車両50が進行ルートRを走行中に車両50を撮影可能な外部カメラ60を特定し、特定した外部カメラ60から画像及び位置情報を取得するようにしてもよい。このような態様とすることにより、進行ルートR沿いに設置されている外部カメラ60であっても、車両50の撮像ができない外部カメラ60からの画像及び位置情報の取得は行われなくなり、走行制御に用いることができないデータの取得が行われなくなるため、通信データ量の低減及び取得部415における処理量の低減に寄与する。
 (第16の実施形態)
 次に、本実施形態に係る第16の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図34は、第16の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。
 図34に示すように、第16の実施形態に係る情報処理装置10は、MoPU12が1つのみ設けられている。MoPU12は撮影部3616を含んでおり、撮影部3616は、単一のカメラ30と、当該カメラ30を移動させる移動部3816と、を含んでいる。図35に示すように、移動部3816は円板状の回転部材4016を備えており、回転部材4016は軸線が水平方向におおよそ沿うように配置されている。また、移動部3816はモータなどから成るアクチュエータ42を備えており、回転部材4016はアクチュエータ42により回転部材4016の軸線回りに回転される。
 カメラ30は、回転部材4016の周縁部に、撮影光軸が回転部材4016の軸線と平行になるように取り付けられている。これにより、アクチュエータ42によって回転部材4016が回転されると、カメラ30は、第1位置P1、および、第1位置P1とは水平方向の位置が異なる第2位置P2へ順次移動される。より詳しくは、カメラ30は、第1位置P1および第2位置P2を各々通る円環状の経路に沿って循環移動される。
 ここで、MoPU12は、外部環境に関するスコアに応じてカメラ30のフレームレートFRを決定し、MoPU12の撮影部3616は、決定したフレームレートFRに応じた回転周期(=1/FR)でアクチュエータ42により回転部材4016を回転させる。また、撮影部3616の移動部3816は、カメラ30が第1位置P1に位置したタイミングおよび第2位置P2に位置したタイミングで各々画像を撮影させる。これにより、カメラ30による撮影周期はフレームレートの2倍の逆数(=1/(2×FR))となる。
 また、MoPU12はコア17を含んでいる。本実施形態では、第1位置P1で撮影された第1画像と、第2位置P2で撮影された第2画像と、の撮影時刻に差が生ずるので、第1画像と第2画像とを同時刻に撮影した場合と比較して、第1画像および第2画像における物体の2次元位置に偏差が生ずる。このため、コア17は、第1画像と第2画像との撮影時刻差に起因する、第1画像および第2画像における物体の2次元位置の偏差を補正する。
 具体的には、例えば、図36Aに示すように、第1時刻t1に第1位置P1で撮影された第1画像から物体Aの2次元位置(XlA(t1),YlA(t1))が算出され、第3時刻t3に第2位置P2で撮影された第2画像から物体Aの2次元位置(XrA(t3),YrA(t3))が算出され、第2時刻t2に第1位置P1で撮影された第1画像から物体Aの2次元位置(XlA(t2),YlA(t2))が算出された場合を考える(t1<t2<t3)。
 この場合、コア17は、第1位置P1で第1時刻t1に撮影された第1画像と第1位置P1で第2時刻t2に撮影された第1画像とのマッチングを行う。またコア17は、マッチングの結果に基づいて、第2位置P2での撮影時刻である第3時刻t3に第1位置P1で撮影を行った場合に得られる仮想第1画像における物体Aの2次元位置を推定する(図36Bに「時刻t3での物体Aの2次元位置推定」と表記して示す2次元位置(XlA(t3),YlA(t3))も参照。
 これにより、コア17を含むMoPU12からは、フレームレートFRに応じた周期で、物体Aの推定2次元位置(XlA(t3),YlA(t3))と、物体Aの2次元位置(XrA(t3),YrA(t3))と、がCentral Brain15へ出力される。そして、Central Brain15は、物体Aの推定2次元位置(XlA(t3),YlA(t3))および物体Aの2次元位置(XrA(t3),YrA(t3))から、時刻t3での物体Aの3次元位置(XA(t3),YA(t3),ZA(t3))を算出する。
 また、例えば、図36Aに示すように、第1時刻t1に第1位置P1で撮影された第1画像から物体Bの2次元位置(XlB(t1),YlB(t1))が算出され、第3時刻t3に第2位置P2で撮影された第2画像から物体Bの2次元位置(XrB(t3),YrB(t3))が算出され、第2時刻t2に第1位置P1で撮影された第1画像から物体Aの2次元位置(XlB(t2),YlB(t2))が算出された場合を考える(t1<t2<t3)。
 この場合、コア17は、第1位置P1で第1時刻t1に撮影された第1画像と第1位置P1で第2時刻t2に撮影された第1画像とのマッチングを行う。またコア17は、マッチングの結果に基づいて、第2位置P2での撮影時刻である第3時刻t3に第1位置P1で撮影を行った場合に得られる仮想第1画像における物体Bの2次元位置を推定する(図36Bに「時刻t3での物体Bの2次元位置推定」と表記して示す2次元位置(XlB(t3),YlB(t3))も参照。
 これにより、コア17を含むMoPU12からは、フレームレートFRに応じた周期で、物体Bの推定2次元位置(XlB(t3),YlB(t3))と、物体Bの2次元位置(XrB(t3),YrB(t3))と、がCentral Brain15へ出力される。そして、Central Brain15は、物体Bの推定2次元位置(XlB(t3),YlB(t3))および2次元位置(XrB(t3),YrB(t3))から、時刻t3での物体Bの3次元位置(XB(t3),YB(t3),ZB(t3))を算出する。このように、コア17を含むMoPU12は、物体の3次元位置を算出するCentral Brain15と共に、本開示に係る処理部の一例である。
 以上説明したように、第16の実施形態に係る情報処理装置10において、撮影部3616は、第1位置P1および第1位置P2とは少なくとも水平方向の位置が異なる第2位置P2へカメラ30を順次移動させると共に、カメラ30によって第1位置P1および第2位置P2で各々画像を撮影させる。そして,処理部(MoPU12およびCentral Brain15)は、第1位置P1で撮影された第1画像および第2位置P2で撮影された第2画像に基づいて、第1画像および第2画像に各々映っている物体の3次元位置を算出する。これにより、物体の3次元位置を算出するにあたり、カメラ30を複数設ける必要がなくなり、情報処理装置10の構成を簡単にすることができる。
 また、第16の実施形態において、撮影部3616は、カメラ30が第1位置P1および第2位置P2を各々通る環状の経路に沿って循環移動するように、カメラ30が取り付けられた回転部材4016を回転させる移動部3816を含んでいる。これにより、例えば、第1位置P1および第2位置P2との間でカメラ30を直線的に往復移動させるなどの態様と比較して、実施が容易になる。
 また、第16の実施形態において、処理部(MoPU12)は、外部環境に関するスコアを計算し、計算したスコアに応じてカメラ30のフレームレートFRを決定し、移動部3816は、処理部(MoPU12)によって決定されたフレームレートFRに応じて回転部材4016の回転速度を変更する。これにより、カメラ30のフレームレートFRを連続的に変更することが可能となる。
 また、第16の実施形態において、処理部(MoPU12およびCentral Brain15)は、第1画像と第2画像との撮影時刻差に起因する、第1画像および第2画像における物体の2次元位置の偏差を補正して、物体の3次元位置を算出する。これにより、物体の3次元位置の算出精度を向上させることができる、
 また、第16の実施形態において、処理部(MoPU12のコア17)は、第1位置P1で第1時刻に撮影された第1画像と第1位置P1で第2時刻に撮影された第1画像とのマッチングを行い、マッチング結果に基づいて、第2位置での撮影時刻である第3時刻に第1位置P1で撮影を行った場合に得られる仮想第1画像における物体の2次元位置を推定することで、物体の2次元位置の偏差を補正する。これにより、物体の3次元位置の算出精度を向上させることを、比較的簡易な処理で実現することができる。
 なお、第16の実施形態では、第1位置P1および第2位置P2へカメラ30を順次移動させることを、カメラ30が第1位置P1および第2位置P2を各々通る環状の経路に沿って循環移動するように、カメラ30が取り付けられた回転部材4016を回転させることで実現する態様を説明した。しかし、本開示はこれに限定されるものではなく、第1位置P1および第2位置P2へカメラ30を順次移動させることを、例えば、第1位置P1および第2位置P2との間でカメラ30を直線的に往復移動させるなどにより実現してもよい。
 また、第16の実施形態では、外部環境に関するスコアに応じてカメラ30のフレームレートFRを決定し、決定したフレームレートFRに応じて回転部材4016の回転速度を変更する態様を説明したが、本開示はこれに限定されるものではない。例えば、回転部材4016の回転速度を一定とし、カメラ30のフレームレートFRは、回転部材4016の回転周期を2で除した時間の整数倍の逆数に設定するようにしてもよい。
 (第17の実施形態)
 次に、本実施形態に係る第17の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 一例として、第17の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
 第17の実施形態に係るMoPU12は、別カメラにより撮影された物体の画像から、撮影された物体を点として捉えた点情報を出力すると共に、点情報の時系列から、点の動きを示す動き情報を算出して出力する。具体的には、MoPU12は、点情報の時系列から、ハフ変換を用いて、点の動きの方向を算出し、算出された点の動きの方向の点情報の変化から、動きの速度を算出する。
 例えば、図38Aに示すような、点情報の時系列から、図38Bに示すように、ハフ変換を用いて、点の動きの方向を算出する。
 IPU11は、別カメラと対応する撮影方向で超高解像度カメラにより撮影された物体の画像から、撮影された物体を識別した識別情報を出力する。
 Central Brain15は、MoPU12から出力された動き情報及びIPU11から出力された識別情報を対応付ける。Central Brain15は、機能的には、図37に示すように、取得部170と、動き検知部172と、除去部174と、対応付け部176とを備えている。
 取得部170は、MoPU12から出力された動き情報及びIPU11から出力された識別情報を取得する。
 動き検知部172は、MoPU12から出力された動き情報に基づいて、動きの方向が対応する複数の物体の動き情報を検知する。具体的には、動き情報間での動きの方向のなす角が、閾値以下であり、かつ、動きの方向が対応する複数の物体の動き情報の数が、閾値以上である場合に、動きの方向が対応する複数の物体の動き情報を検知したと判断する。
 例えば、図39に示すように、複数の物体の動き情報M1~M8から、動きの方向が対応する複数の物体の動き情報M1~M6を検知する。
 除去部174は、動きの方向が対応する複数の物体の動き情報が検知された場合、複数の物体の動き情報を除去する。
 例えば、図40に示すように、複数の物体の動き情報M1~M8から、動きの方向が対応する複数の物体の動き情報M1~M6を除去することにより、動き情報M7、M8が得られる。
 対応付け部176は、除去後の動き情報、及びIPU11から出力された識別情報を対応付け、対応付けられた動き情報及び識別情報に基づいて、移動体の自動運転を制御する。
 次に、Central Brain15が実行する対応付け処理を、図41を用いて説明する。このとき、Central Brain15には、MoPU12から動き情報が入力され、IPU11から識別情報が入力されているものとする。
 まず、ステップS100において、取得部170は、MoPU12から出力された動き情報及びIPU11から出力された識別情報を取得する。
 ステップS102において、動き検知部172は、MoPU12から出力された動き情報に基づいて、動きの方向が対応する複数の物体の動き情報を検知する。
 ステップS104において、除去部174は、動きの方向が対応する複数の物体の動き情報が検知された場合、複数の物体の動き情報を除去する。
 ステップS106において、対応付け部176は、除去後の動き情報、及びIPU11から出力された識別情報を対応付ける。
 以上説明したように、第17の実施形態に係る情報処理装置10によれば、Central Brain15は、動きの方向が対応する複数の物体の動き情報が検知された場合、複数の物体の動き情報を除去し、残りの動き情報と、識別情報を対応付ける。これにより、MoPU12から出力された動き情報から、動きの方向が対応する小物体を多く検知した場合、当該小物体を除去して、識別情報と対応付けることができる。例えば、MoPU12から出力された動き情報から、降雨、降雪時のノイズを除去することができる。
 (第18の実施形態)
 次に、本実施形態に係る第18の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 一例として、第18の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
 第18の実施形態に係るMoPU12は、第1実施形態と同様に、別カメラにより撮影された物体の画像から、撮影された物体を点として捉えた点情報を出力する。
 そして、図42に示すように、MoPU12は、複数フレームの画像から出力された点情報に基づいて、移動方向が上下方向の何れかの方向で、かつ同じ方向であり、上下方向の移動量が一定範囲内の点を一定数以上検出した場合、点情報に含まれる点の中から、検出した一定数以上の点以外の点のみを出力する。なお、ここでいう上下方向は、画像の上下方向であり、車両100の高さ方向に相当する方向である。また、ここでいう左右方向は、画像の左右方向であり、車両100の車幅方向に相当する方向である。この場合の一定範囲は、予め固定値として設定されてもよいし、路面の状態に応じて設定されてもよい。また、この場合の一定数は、予め固定値として設定されてもよいし、例えば、点情報に含まれる点の数のうちの1割の値等、点情報に含まれる点の数に応じて設定されてもよい。
 図42では、連続する3つのフレームの画像それぞれにおいて、点情報に3つの点Q1、Q2、Q3が含まれる例を示している。また、図42では、点Q1及び点Q2が上下方向の同じ方向に移動しており、かつその上下方向の移動量が一定範囲内である例を示している。また、図42では、点Q3が左上方向に移動した後に左下方向に移動している例を示している。
 図42の例では、MoPU12は、連続する3つのフレームの画像から出力された点情報に基づいて、点情報に含まれる3つの点Q1、Q2、Q3の中から、点Q3のみを出力する。これは、点Q1、Q2が実際は静止しているのに、車両100が路面の状態等の影響によりバウンドすることによって点Q1、Q2が画像内を移動しているように見えていると推定されるためである。
 MoPU12により出力された点を表す点情報は、第1の実施形態と同様に、Central Brain15によって、IPU11から出力されたラベル情報と対応付けられる。
 以上説明したように、本実施形態によれば、出力対象の点情報のうち、実際は静止しているのに画像内では動いて見えると推定される点を表す情報が出力対象外とされる。従って、本実施形態によれば、カメラにより撮影された物体の撮影情報である点情報を所定の出力先に出力する場合に、当該出力先に出力するデータ量を削減することができる。
 なお、本実施形態において、MoPU12は、車両100が直進中である場合、検出した一定数以上の点の中から、左右方向の移動量が閾値以上の点を更に出力してもよい。MoPU12は、車両100が直進中であるか否かを、車両100の操舵角を用いて判定する技術、又は前輪と後輪のそれぞれの左右車輪速比を用いて判定する技術等の公知の技術を用いて判定することができる。
 また、本実施形態において、MoPU12が実行した、点情報に含まれる点の中から、検出した一定数以上の点以外の点のみを出力する処理をCentral Brain15が実行してもよい。
 (第19の実施形態)
 次に、本実施形態に係る第19の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図43は、第19の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。なお、図43は、情報処理装置10の一部の構成のみを示している。情報処理装置10は、本開示の「情報処理装置」及び「コンピュータ」の一例である。
 情報処理装置10は、複数の車両200に搭載されている。図43に示す例では、複数の車両200の一例として、第1車両200A及び第2車両200Bが示されている。第1車両200Aは、本開示の「第1移動体」の一例であり、第2車両200Bは、本開示の「第2移動体」の一例である。以下では、説明の便宜上、第1車両200Aと第2車両200Bとを区別して説明する必要がない場合、「車両200」と称する。
 情報処理装置10は、Central Brain15、通信I/F202、第1メモリ204、及び第2メモリ206を備えている。ここで、I/Fとは、“Interface”の略称を指す。
 第1車両200Aに搭載されている情報処理装置10のCentral Brain15は、第1車両200Aに対して用いられる。また、第2車両200Bに搭載されている情報処理装置10のCentral Brain15は、第2車両200Bに対して用いられる。なお、第1車両200Aに搭載されている情報処理装置10のCentral Brain15は、本開示の「第1移動体プロセッサ」の一例であり、第2車両200Bに搭載されている情報処理装置10のCentral Brain15は、本開示の「第2移動体プロセッサ」の一例である。
 以下では、説明の便宜上、第1車両200Aに搭載されている情報処理装置10を「第1車両200Aの情報処理装置10」と称し、第2車両200Bに搭載されている情報処理装置10を「第2車両200Bの情報処理装置10」と称する。また、以下では、説明の便宜上、第1車両200Aの情報処理装置10のCentral Brain15を「第1車両200AのCentral Brain15」と称し、第2車両200Bの情報処理装置10のCentral Brain15を「第2車両200BのCentral Brain15」と称する。
 通信I/F202、第1メモリ204、及び第2メモリ206は、Central Brain15に接続されている。通信I/F202は、通信プロセッサ及びアンテナ等を含む通信用のインタフェースであり、図1に示すGatewayに含まれている。通信I/F202は、異なる車両200間でのCentral Brain15を用いた通信を司る。例えば、第1車両200AのCentral Brain15及び第2車両200BのCentral Brain15は、第1車両200Aの通信I/F202及び第2車両200Bの通信I/F202を介して各種信号の授受を行う。通信I/F202に対して適用される通信規格の一例としては、Wi-Fi(登録商標)又は5G(5th Generation Mobile Communication System)等の無線通信規格が挙げられる。
 第1メモリ204は、例えば、不揮発性メモリ(例えば、フラッシュメモリ等)である。第1メモリ204には、プログラム208を含む各種プログラム及び各種パラメータ等が格納されている。プログラム208は、本開示の「情報処理プログラム」の一例である。
 第2メモリ206は、例えば、揮発性メモリ(例えば、RAM(Random Access Memory)等)である。第2メモリ206は、一時的に情報が格納されるメモリであり、Central Brain15等のプロセッサによってワークメモリとして用いられる。
 ところで、第1車両200A及び第2車両200Bでは、上記第1の実施形態等でも説明したように、情報処理装置10の制御下で、自動運転が行われる。第1車両200Aの自動運転では、周辺の他車両である第2車両200Bの情報(例えば、現在位置及び速度の情報)に基づいて第1車両200Aの運転が制御される。一方、第2車両200Bでも、同じ要領で自動運転が行われており、この場合、第2車両200Bは、第1車両200Aを認識した上で、第1車両200Aの動きを予測して自動運転を行う。
 このように、第1車両200A及び第2車両200Bが、互いを認識した合った上で、互いの動きを予測して自動運転を行う場合、例えば、第1車両200Aと第2車両200Bとが正面衝突を避けるために、第1車両200Aと第2車両200Bとの双方が進路を変更するケースが考えられる。しかし、第1車両200A又は第2車両200Bが進路を変更すれば済むところ、第1車両200Aと第2車両200Bとの双方が進路を変更することにより、第1車両200A及び第2車両200B以外の周囲の車両(例えば、第1車両200Aに対する後続車両及び第2車両200Bに対する後続車両、並びに、第1車両200Aに対する並走車両及び第2車両200Bに対する並走車両等)の走行の妨げになる虞がある。
 また、正面衝突を避けるために、第1車両200A及び第2車両200Bの自動運転の制御により、第2車両200Bだけが進路を変更すれば済むところ、第1車両200Aも進路を変更することとなり、この場合、例えば、急な進路変更のために乗員に対して不快感を与えたりする虞もある。なお、正面衝突を避ける場面に限らず、車線変更時の接触及び/又は隊列走行時の接触を避ける場面等でも、同様のことが言える。
 また、従来既知の技術(例えば、特許文献1に記載の技術)では、第1車両200Aの運転手等が、第2車両200Bが第1車両200Aを認識しているか否かを把握することが困難である。そのため、第2車両200Bが第1車両200Aを認識しているか否かによって、第1車両200Aの運転方法を変えたり、第1車両200Aの運転手による第2車両200Bに対する意識の持ち方に変化を齎したりすることは困難である。
 そこで、このような事情に鑑み、本第19の実施形態では、Central Brain15によって自動運転制御処理が行われる。
 Central Brain15は、第1メモリ204からプログラム208を読み出し、読み出したプログラム208を第2メモリ206上で実行することにより自動運転制御処理を行う。自動運転制御処理は、Central Brain15が第2メモリ206上で実行するプログラム208に従って、第1判定部15A、第2判定部15B、第3判定部15C、設定部15D、推論部15E、調整部15F、及び運転制御部15Gとして動作することによって実現される。
 複数の車両200のそれぞれには、互いに異なる優先順位情報209が付与されている。優先順位情報209は、複数の車両200のうち、設定部15Dによる処理を優先して行う車両200の優先順位を示す情報である。第1車両200Aに付与されている優先順位情報209により示される優先順位は、本開示の「第1優先順位」の一例であり、第2車両200Bに付与されている優先順位情報209により示される優先順位は、本開示の「第2優先順位」の一例である。優先順位情報209は、各車両200の情報処理装置10の第1メモリ204に格納されている。
 図44は、第1車両200Aの第1判定部15A、第2判定部15B、第3判定部15C、及び設定部15Dの処理内容の一例を示す概念図である。
 第1車両200AのCentral Brain15には、IPU11からラベル情報210が入力される。ラベル情報210は、上記第1の実施形態で説明したラベル情報と同一の情報である。
 なお、第1車両200AのCentral Brain15に入力されるラベル情報210は、本開示の「第2移動体を特定可能な第2移動体情報」の一例である。また、第2車両200BのCentral Brain15に入力されるラベル情報210は、本開示の「第1移動体を特定可能な第1移動体情報」の一例である。
 第1判定部15Aは、ラベル情報210を取得し、ラベル情報210を参照して、第1車両200Aの超高解像度カメラにより第1車両200Aの周囲が撮影されることによって得られた画像である第1画像(以下、単に「第1画像」とも称する)に写っている物体(本開示の「第1物体」の一例)の種類を認識する。そして、第1判定部15Aは、第1画像に写っている物体の種類として認識した種類が第2車両200Bであるか否かを判定する。
 なお、第2車両200Bの情報処理装置10でも、同様の要領で、第2車両200Bの超高解像度カメラにより第2車両200Bの周囲が撮影されることによって得られた画像である第2画像(以下、単に「第2画像」とも称する)に写っている物体(本開示の「第2物体」の一例)の種類が認識される。そして、認識された種類が第1車両200Aであるか否かが判定される。
 第1画像に第2車両200Bが写っていると第1判定部15Aによって判定された場合、第1車両200AのCentral Brain15は、通信I/F202を介して要求信号212を第2車両200Bの情報処理装置10に送信する。要求信号212は、第2車両200Bの情報処理装置10に対して応答信号214の送信を要求する信号である。
 第2車両200Bの通信I/F202は、第1車両200AのCentral Brain15によって送信された要求信号212を受信する。第2車両200BのCentral Brain15は、要求信号212に応じた応答信号214を、第2車両200Bの通信I/F202を介して第1車両200Aの情報処理装置10に送信する。
 第2車両200BのCentral Brain15から応答信号214が送信されると、第1車両200Aの通信I/F202は、応答信号214を受信する。第1車両200AのCentral Brain15は、通信I/F202によって受信された応答信号214を取得する。
 応答信号214には、運転中情報214A、認識情報214B、及び制御情報214Cが含まれている。また、応答信号214には、第2車両200Bに付与されている優先順位情報209も含まれている。
 運転中情報214Aは、第2車両200Bが自動運転中であるか否かを示す情報である。認識情報214Bは、第2車両200Bの情報処理装置10によって第1車両200Aが認識されているか否かを示す情報である。制御情報214Cは、第2車両200BのCentral Brain15が第2車両200Bの自動運転を制御する情報である。
 第1判定部15Aは、ラベル情報210及び運転中情報214Aを参照して、第1画像に写っている物体の種類として認識した種類が自動運転中の第2車両200Bであるか否かを判定する。
 第1判定部15Aによって、第1画像に写っている物体の種類として認識された種類が自動運転中の第2車両200Bであると判定された場合、第2判定部15Bは、認識情報214Bを参照して、第2車両200Bの情報処理装置10が第1車両200Aを認識しているか否かを判定する。
 第2車両200Bの情報処理装置10が第1車両200Aを認識していると第2判定部15Bによって判定された場合、第3判定部15Cは、第1車両200Aの優先順位が第2車両200Bの優先順位よりも高いか否かを判定する。第3判定部15Cによる判定は、応答信号214に含まれる優先順位情報209と第1メモリ204に格納されている優先順位情報209とを用いて行われる。応答信号214に含まれる優先順位情報209は、第2車両200Bに対して付与されている情報であり、第1メモリ204に格納されている優先順位情報209は、第1車両200Aに対して付与されている情報である。第3判定部15Cは、第1車両200Aに付与されている優先順位情報209により示される順位が第2車両200Bに付与されている優先順位情報209により示される順位よりも高いか否かを判定する。
 ここで、第1車両200Aに付与されている優先順位情報209により示される順位が第2車両200Bに付与されている優先順位情報209により示される順位よりも高いと判定された場合、設定部15Dは、第2車両200Bによって第1車両200Aが認識されていることを示す識別子216を設定する。識別子216の設定は、設定部15Dによって第2メモリ206に識別子216が格納されることによって実現される。識別子216の一例としては、フラグが挙げられる。
 図45は、設定部15Dによって識別子216が設定されていない場合に第1車両200Aの推論部15E及び運転制御部15Gによって行われる処理の内容の一例を示す概念図である。
 設定部15Dによって識別子216が設定されていない場合、Central Brain15は、センサ情報218、対応付け情報219、及び未設定情報222に基づいて、上記第1の実施形態等で説明したのと同様の要領で、第1車両200Aの自動運転を制御する。センサ情報218は、上記第1の実施形態等で説明したセンサ情報と同一の情報である。対応付け情報219は、第1点情報とラベル情報210とを上記第1の実施形態等で説明したのと同様の要領で対応付けた情報である。第1点情報は、上記第1の実施形態等で説明した点情報と同一の情報である。すなわち、第1点情報は、第1画像を得るために行われる撮影のフレームレートよりも高いフレームレートで第1車両200Aの周囲が撮影されることにより得られた画像である第3画像(以下、単に「第3画像」とも称する)に基づいて、第1車両200Aの周囲に含まれる物体(本開示の「第1物体」の一例)を点として捉えた点情報である。未設定情報222は、識別子216が設定されていないことを示す情報である。
 なお、ここでは、第1車両200AのCentral Brain15によって対応付け情報219が得られる形態例を挙げているが、第2車両200BのCentral Brain15でも、対応付け情報219と同様の情報として、第2車両側対応付け情報(図示省略)が得られる。第2車両側対応付け情報は、上記第1の実施形態等で説明した点情報と同様の要領で得られた第2点情報とラベル情報210と同様の要領で得られた情報とが対応付けられた情報である。第2点情報は、第2画像を得るために行われる撮影のフレームレートよりも高いフレームレートで第2車両200Bの周囲が撮影されることにより得られた画像である第4画像(以下、単に「第4画像」とも称する)に基づいて、第2車両200Bの周囲に含まれる物体(本開示の「第2物体」の一例)を点として捉えた点情報である。第2車両側対応付け情報は、第2車両200BのCentral Brain15によって、第1車両200AのCentral Brain15と同様の処理で用いられる。
 第1車両200Aの自動運転の制御を実現するために、Central Brain15は、センサ情報218及び対応付け情報219に基づいて、第1車両200Aの自動運転を制御するための制御変数として第1制御変数224を算出する。第1制御変数224は、上記第1の実施形態等で説明した制御変数と同義の変数である。
 第1制御変数224は、推論部15Eによって算出される。推論部15Eは、深層学習モデル226を有しており、深層学習モデル226を用いて第1制御変数224を算出する。
 深層学習モデル226は、ニューラルネットワークに対して教師データを用いた深層学習が行われることによって得られた学習済みモデルである。ここで用いられる教師データの一例としては、例題データと第1制御変数224を想定した正解データとが対応付けられたデータセットが挙げられる。例題データの一例としては、センサ情報218を想定したデータとして実機による試験及び/又はコンピュータ・シミュレーション等によって事前に得られたデータ、対応付け情報219を想定したデータとして実機による試験及び/又はコンピュータ・シミュレーション等によって事前に得られたデータ、並びに、識別子216が設定されているか否かを示すデータが挙げられる。
 推論部15Eは、センサ情報218、対応付け情報219、及び未設定情報222を深層学習モデル226に入力する。深層学習モデル226は、入力されたセンサ情報218、対応付け情報219、及び未設定情報222に対応する第1制御変数224(例えば、最も高い確信度の制御変数)を出力する。
 なお、ここでは、深層学習モデル226を用いることによって第1制御変数224が算出される算出方法を例示しているが、これは、あくまでも一例に過ぎず、上記第4の実施形態で説明した各種の算出方法(例えば、積分法による多変量解析)を用いることによって第1制御変数224が算出されるようにしてもよい。
 運転制御部15Gは、上記第1の実施形態等で説明したのと同様の要領で、推論部15Eによって算出された第1制御変数224に基づいて第1車両200Aの自動運転を制御する。
 図46は、設定部15Dによって識別子216が設定されている場合に第1車両200Aの推論部15E及び運転制御部15Gによって行われる処理の内容の一例を示す概念図である。
 設定部15Dによって識別子216が設定されている場合、Central Brain15は、センサ情報218、対応付け情報219、及び設定情報228に基づいて、上記第1の実施形態等で説明したのと同様の要領で、第1車両200Aの自動運転を制御する。設定情報228は、識別子216が設定されていることを示す情報である。
 推論部15Eは、センサ情報218、対応付け情報219、及び設定情報228を深層学習モデル226に入力する。深層学習モデル226は、入力されたセンサ情報218、対応付け情報219、及び設定情報228に対応する第1制御変数224を出力する。
 Central Brain15は、第2車両200Bの情報処理装置10から取得した制御情報214C(図44参照)に基づいて第1車両200Aの自動運転を制御する。これを実現するために、図46に示す例では、調整部15Fが、第1制御変数224及び制御情報214Cを取得する。調整部15Fによる制御情報214Cの取得は、第1車両200Aに付与されている優先順位情報209により示される優先順位が第2車両200Bに付与されている優先順位情報209(図44に示す例では、応答信号214に含まれている優先順位情報209)により示される優先順位よりも高いことを条件に行われる。本第19の実施形態では、識別子216が設定されている場合に、調整部15Fによって応答信号214(図44参照)から制御情報214Cが取得される。
 調整部15Fは、制御情報214Cに基づいて第1制御変数224を調整することにより第2制御変数230を生成する。制御情報214Cは、第2車両200BのCentral Brain15が第2車両200Bの自動運転を制御する情報であるため、調整部15Fは、制御情報214Cから、第2車両200Bの自動運転を予測することが可能となり、第2車両200Bの自動運転を予測した結果を第1制御変数224に反映させることで第1制御変数224を調整する。第1制御変数224が調整部15Fによって調整されることによって得られた第2制御変数230は、運転制御部15Gによって用いられる。すなわち、運転制御部15Gは、第2制御変数230に基づいて第1車両200Aの自動運転を制御する。
 これにより、第2車両200Bが自動運転中である場合に、第2車両200Bの挙動に基づいて第1車両200Aの自動運転が制御される。つまり、運転制御部15Gは、自動運転中の第2車両200Bの挙動を予測し、予測した挙動に基づいて第1車両200Aの自動運転を制御する。
 例えば、図47に示すように、第1車両200Aと第2車両200Bとが対峙した状態で互いに直進している場合、第1車両200Aと第2車両200Bとの接触(ここでは、一例として正面衝突)を回避可能な制御内容で第1車両200Aの自動運転が制御される。また、第1車両200Aの運転制御部15Gは、制御情報214Cに基づいて、自動運転中の第2車両200Bが進路を変更することを予測する。そのため、第1車両200Aの運転制御部15Gは、第1車両200Aの進路を変更せずに第1車両200Aを直進させたとしても、第1車両200Aと第2車両200Bとの接触を回避可能であると判断する。そして、第1車両200Aの運転制御部15Gは、第1車両200Aをそのまま直進させるように第1車両200Aの自動運転を制御する。
 図48~図50は、第1車両200AのCentral Brain15によって実行される自動運転制御処理の流れの一例を示すフローチャートである。図48~図50のフローチャートに示す自動運転制御処理の流れは、本開示の「情報処理方法」の一例である。
 図48に示す自動運転制御処理では、先ず、ステップST10で、第1判定部15Aは、IPU11からラベル情報210を取得する。ステップST10の処理が実行された後、自動運転制御処理はステップST12へ移行する。
 ステップST12で、第1判定部15Aは、ラベル情報210を参照して、第1画像に写っている物体の種類として認識した種類が第2車両200Bであるか否かを判定する。ステップST12において、第1画像に写っている物体の種類として認識した種類が第2車両200Bでない場合は、判定が否定されて、自動運転制御処理は、図49に示すステップST34へ移行する。ステップST12において、第1画像に写っている物体の種類として認識した種類が第2車両200Bである場合は、判定が肯定されて、自動運転制御処理はステップST14へ移行する。
 ステップST14で、Central Brain15は、要求信号212を第2車両200Bの情報処理装置10に送信する。ステップST14の処理が実行された後、自動運転制御処理はステップST16へ移行する。
 ステップST16で、Central Brain15は、通信I/F202によって応答信号214が受信されたか否かを判定する。ステップST16において、通信I/F202によって応答信号214が受信されていない場合は、判定が否定されて、自動運転制御処理はステップST18へ移行する。ステップST16において、通信I/F202によって応答信号214が受信された場合は、判定が肯定されて、自動運転制御処理はステップST20へ移行する。
 ステップST18で、Central Brain15は、ステップST16の処理を実行してから所定時間(例えば、数ミリ秒~数百ミリ秒の範囲内で事前に定められた時間)が経過したか否かを判定する。ステップST18において、ステップST16の処理を実行してから所定時間が経過していない場合は、判定が否定されて、自動運転制御処理はステップST16へ移行する。ステップST18において、ステップST16の処理を実行してから所定時間が経過した場合は、判定が肯定されて、自動運転制御処理は、図49に示すステップST34へ移行する。
 ステップST20で、第1判定部15Aは、応答信号214から運転中情報214Aを取得する。ステップST20の処理が実行された後、自動運転制御処理はステップST22へ移行する。
 ステップST22で、第1判定部15Aは、ラベル情報210及び運転中情報214Aを参照して、第1画像に写っている物体の種類として認識した種類が自動運転中の第2車両200Bであるか否かを判定する。ステップST22において、第1画像に写っている物体の種類として認識した種類が自動運転中の第2車両200Bでない場合は、判定が否定されて、自動運転制御処理は、図49に示すステップST34へ移行する。ステップST22において、第1画像に写っている物体の種類として認識した種類が自動運転中の第2車両200Bである場合は、判定が肯定されて、自動運転制御処理はステップST24へ移行する。
 ステップST24で、第2判定部15Bは、応答信号214から認識情報214Bを取得する。ステップST24の処理が実行された後、自動運転制御処理はステップST26へ移行する。
 ステップST26で、第2判定部15Bは、認識情報214Bを参照して、第2車両200Bの情報処理装置10が第1車両200Aを認識しているか否かを判定する。ステップST26において、第2車両200Bの情報処理装置10が第1車両200Aを認識していない場合は、判定が否定されて、自動運転制御処理は、図49に示すステップST34へ移行する。ステップST26において、第2車両200Bの情報処理装置10が第1車両200Aを認識している場合は、判定が肯定されて、自動運転制御処理はステップST28へ移行する。
 ステップST28で、第3判定部15Cは、応答信号214に含まれる優先順位情報209(すなわち、第2車両200Bに付与されている優先順位情報209)と第1メモリ204に格納されている優先順位情報209(すなわち、第1車両200Aに付与されている優先順位情報209)とを取得する。ステップST28の処理が実行された後、自動運転制御処理はステップST30へ移行する。
 ステップST30で、第3判定部15Cは、第1車両200Aに付与されている優先順位情報209により示される順位(以下、「第1車両200Aの優先順位」とも称する)が第2車両200Bに付与されている優先順位情報209により示される順位(以下、「第2車両200Bの優先順位」とも称する)よりも高いか否かを判定する。ステップST28において、第1車両200Aの優先順位が第2車両200Bの優先順位よりも高くない場合は、判定が否定されて、自動運転制御処理は、図49に示すステップST34へ移行する。ステップST28において、第1車両200Aの優先順位が第2車両200Bの優先順位よりも高い場合は、判定が肯定されて、自動運転制御処理はステップST32へ移行する。
 ステップST32で、設定部15Dは、第2メモリ206に識別子216を格納することにより識別子216を設定する。ステップST32の処理が実行された後、自動運転制御処理は、図50に示すステップST40へ移行する。
 図49に示すステップST34で、推論部15Eは、センサ情報218、対応付け情報219、及び未設定情報222を深層学習モデル226に入力する。ステップST34の処理が実行された後、自動運転制御処理はステップST36へ移行する。
 ステップST36で、推論部15Eは、センサ情報218、対応付け情報219、及び未設定情報222が深層学習モデル226に入力されたことに応じて深層学習モデル226から出力された第1制御変数224を取得する。ステップST36の処理が実行された後、自動運転制御処理はステップST38へ移行する。
 ステップST38で、運転制御部15Gは、第1制御変数224に基づいて第1車両200Aの自動運転を制御する。ステップST38の処理が実行された後、自動運転制御処理は、図50に示すステップST52へ移行する。
 図50に示すステップST40で、推論部15Eは、センサ情報218、対応付け情報219、及び設定情報228を深層学習モデル226に入力する。ステップST40の処理が実行された後、自動運転制御処理はステップST42へ移行する。
 ステップST42で、推論部15Eは、推論部15Eは、センサ情報218、対応付け情報219、及び設定情報228が深層学習モデル226に入力されたことに応じて深層学習モデル226から出力された第1制御変数224を取得する。ステップST42の処理が実行された後、自動運転制御処理はステップST44へ移行する。
 ステップST44で、調整部15Fは、応答信号214から制御情報214Cを取得する。ステップST44の処理が実行された後、自動運転制御処理はステップST46へ移行する。
 ステップST46で、調整部15Fは、ステップST42で取得された第1制御変数224を、ステップST44で取得した制御情報214Cに基づいて調整することより第2制御変数230を生成する。ステップST46の処理が実行された後、自動運転制御処理はステップST48へ移行する。
 ステップST48で、運転制御部15Gは、第2制御変数230に基づいて第1車両200Aの自動運転を制御する。ステップST48の処理が実行された後、自動運転制御処理はステップST50へ移行する。
 ステップST50で、設定部15Dは、識別子216を第2メモリ206から消去することにより識別子216の設定を解除する。ステップST50の処理が実行された後、自動運転制御処理はステップST52へ移行する。
 ステップST52で、Central Brain15は、自動運転制御処理が終了する条件を満足したか否かを判定する。自動運転制御処理が終了する条件の一例としては、第1車両200Aの情報処理装置10に対して、自動運転制御処理を終了させる指示が与えられた、という条件が挙げられる。ステップST52において、自動運転制御処理が終了する条件を満足していない場合は、判定が否定されて、自動運転制御処理は、図48に示すステップST10へ移行する。ステップST52において、自動運転制御処理が終了する条件を満足した場合は、判定が肯定されて、自動運転制御処理が終了する。
 以上説明したように、本第19の実施形態では、第1車両200AのCentral Brain15によって自動運転中の第2車両200Bが認識され、かつ、第2車両200BのCentral Brain15によって第1車両200Aが認識された場合に、設定部15Dによって識別子216が設定される。これにより、第1車両200Aが周囲の自動運転中の第2車両200Bを認識した場合に、自動運転中の第2車両200Bが第1車両200Aを認識している場合と自動運転中の第2車両200Bが第1車両200Aを認識していない場合とで第1車両200Aの挙動を変えることに寄与することができる。
 また、本第19の実施形態では、識別子216が設定されていることを条件に、自動運転中の第2車両200Bの挙動に基づいて第1車両200Aの自動運転が制御される。従って、第1車両200Aが周囲の自動運転中の第2車両200Bを認識した場合に、自動運転中の第2車両200Bが第1車両200Aを認識している場合と自動運転中の第2車両200Bが第1車両200Aを認識していない場合とで第1車両200Aの挙動を変えることができる。
 また、本第19の実施形態では、第1車両200AのCentral Brain15によって制御情報214Cに基づいて第1車両200Aの自動運転が制御される。制御情報214Cは、第2車両200BのCentral Brain15が第2車両200Bの自動運転を制御する情報である。従って、第1車両200AのCentral Brain15は、制御情報214Cを用いずに第1車両200Aの自動運転が制御される場合に比べ、自動運転中の第2車両200Bの挙動を高精度に予測した上で第1車両200Aの自動運転を制御することができる。
 また、本第19の実施形態では、第1車両200Aの優先順位が第2車両200Bの優先順位よりも高いことを条件に、第1車両200AのCentral Brain15によって制御情報214Cが取得され、制御情報214Cに基づいて第1車両200Aの自動運転が制御される。これにより、第2車両200BのCentral Brain15によって、第1制御変数224の調整、及び、第2制御変数230(図46参照)に基づく自動運転の制御が行われないようにすることができる。
 このように、第2車両200BのCentral Brain15によって不要な処理(例えば、第1制御変数224の調整、及び、第2制御変数230(図46参照)に基づく自動運転の制御)は行われないので、第2車両200BのCentral Brain15の処理負荷を軽減することができる。
 また、図47に示すように、第1車両200Aと第2車両200Bとが対峙した状態で互いに直進している場合、第2車両200Bは、第1制御変数224と同様の要領で得られる制御変数に基づいて自動運転が制御されるので、進路が変更される。これに対して、第1車両200Aは、第2制御変数230に基づく自動運転の制御により、進路を変更せずに直進する。これにより、第1車両200Aは、無駄な進路変更をせずに第2車両200Bとの接触(図47に示す例では、正面衝突)を回避することができる。また、第1車両200Aが無駄な進路変更をせずに直進するため、第1車両200Aに対する後続車両及び/又は並走車両の走行を妨げないようにすることができる。
 なお、上記第19の実施形態では、Central Brain15が、第1判定部15A、第2判定部15B、第3判定部15C、設定部15D、推論部15E、調整部15F、及び運転制御部15Gとして動作する形態例を挙げたが、本開示はこれに限定されない。例えば、図51に示すように、Central Brain15は、更に報知制御部15Hとして動作するようにしてもよい。例えば、この場合、報知制御部15Hは、設定部15Dによって識別子216が設定されたことを条件に、第2車両200BのCentral Brainによって第1車両200Aが認識されていることを報知装置232に対して報知させる。
 報知装置232の第1例としては、ディスプレイ232Aが挙げられる。この場合、報知制御部15Hは、第2車両200BのCentral Brain15によって第1車両200Aが認識されていることを示すメッセージ234及び/又はマーク等の可視情報をディスプレイ232Aの画面に表示する。報知装置232の第2例としては、スピーカを含めた音声再生装置232Bが挙げられる。この場合、報知制御部15Hは、第2車両200BのCentral Brain15によって第1車両200Aが認識されていることを示す音声を音声再生装置232Bに対して再生させる。なお、ディスプレイ232A及び音声再生装置232Bは、あくまでも一例に過ぎず、第2車両200BのCentral Brain15によって第1車両200Aが認識されていることを示す情報を第1車両200Aの運転手等に対して知覚させることが可能な装置であれば如何なる装置であってもよい。
 このように、設定部15Dによって識別子216が設定されたことを条件に、第2車両200BのCentral Brain15によって第1車両200Aが認識されていることが報知されることにより、第1車両200Aの運転手等は、第2車両200BのCentral Brainによって第1車両200Aが認識されていることに気付くことができる。この結果、例えば、第2車両200Bが第1車両200Aを認識しているか否かによって、第1車両200Aの運転手は、第1車両200Aの運転方法を変えたり、第2車両200Bに対する意識の持ち方を変えたりすることができる。
 また、上記第19の実施形態では、設定部15Dによって識別子216が設定される条件として、第1車両200AのCentral Brain15によって自動運転中の第2車両200Bが認識されているという第1条件、及び、第2車両200BのCentral Brain15によって第1車両200Aが認識されているという第2条件を挙げたが、本開示はこれに限定されない。例えば、第1条件及び第2条件に加え、以下に示す第3条件を満たした場合に、設定部15Dによって識別子216が設定されるようにしてもよい。第3条件とは、対応付け情報219に基づいて第1車両200Aの自動運転が制御されるのと同様の要領(例えば、図45及び図46に示す例と同様の要領)で、第2車両200BのCentral Brain15が第2車両側対応付け情報に基づいて第2車両200Bの自動運転を制御する制御処理が行っているという条件を指す。
 このように、第1~第3条件を満たした場合に識別子216が設定されるようにすることで、第1条件及び第2条件のみを満たした場合に識別子216が設定される場合よりも識別子216が設定される頻度を抑えることができる。この結果、例えば、調整部15Fによる処理(図46参照)が行われる頻度が抑えられるので、第1車両200AのCentral Brain15にかかる演算負荷を軽減することができる。
 上記第19の実施形態では、第1条件及び第2条件を満たした場合に識別子216が設定される形態例を挙げたが、本開示はこれに限定されない。例えば、自動運転中であるか否かに関わらず第2車両200Bが認識され、かつ、第2車両200BのCentral Brain15によって第1車両200Aが認識された場合に、識別子216が設定されるようにしてもよい。これにより、第1車両200Aが周囲の第2車両200Bを認識した場合に、第2車両200Bが第1車両200Aを認識している場合と第2車両200Bが第1車両200Aを認識していない場合とで第1車両200Aの挙動を変えることに寄与することができる。
 上記第19の実施形態では、調整部15Fによって制御情報214Cに基づいて第1制御変数224が調整されることで第2制御変数230が生成される形態例を挙げたが、本開示はこれに限定されない。例えば、センサ情報218、対応付け情報219、設定情報228、及び制御情報214Cを入力とし、第2制御変数224を出力とするようにニューラルネットワークに対して深層学習が行われることによってニューラルネットワークが最適化されて得られた深層学習モデルを用いて第2制御変数224が得られるようにしてもよい。このようにすれば、調整部15Fは不要となる。
 上記第19の実施形態では、IPU11によって物体の認識が行われてラベル情報210が生成されることを前提として説明したが、本開示はこれに限定されず、IPU11以外の少なくとも1つのプロセッサ(例えば、MoPU12、GNPU13、及び/又はCPU14)によって物体の認識が行われてラベル情報210が生成されるようにしてもよい。
 上記第19の実施形態では、Central Brain15によって自動運転制御処理が行われる形態例を挙げたが、本開示はこれに限定されず、Central Brain15以外の少なくとも1つのプロセッサ(例えば、IPU11、MoPU12、及び/又は、車両200以外の場所に存在するプロセッサ等)が自動運転制御処理を行うようにしてもよいし、Central Brain15と少なくとも1つのプロセッサとが自動運転制御処理を分散して行うようにしてもよい。
 上記第19の実施形態では、車両200に情報処理装置10が搭載されている形態例を挙げて説明したが、本開示はこれに限定されない。情報処理装置10は、車両200以外の場所に設けられた外部装置(例えば、サーバ)であってもよく、外部装置によって自動運転制御処理が行われた結果に従って車両200の自動運転が制御されるようにしてもよい。
 上記第19の実施形態では、車両200を例示したが、本開示の技術は、車両200以外の移動体(例えば、航空機又は船舶等)に対しても適用可能である。
 (第20の実施形態)
 次に、本実施形態に係る第20の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
<第20の実施形態>
 上記したように、高解像度カメラ(IPU11)は、捉えた物体が何なのかを認識するために必要な画像情報を取得する役割を担い、MoPU12は、物体の動きを検出する役割を担う。図52Aは、IPU11が搭載された高解像度カメラ(図示せず)によって撮像された高解像度画像に基づいて行われる物体認識の態様の一例を示す図である。IPU11は、高解像度カメラによって撮像された高解像度画像について所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレート且つ1200万画素の解像度で出力する。IPU11から出力された高解像度画像は、Central Brain15に順次供給される。Central Brain15は、IPU11から10フレーム/秒で出力される高解像度画像の各々について、その画像に含まれる物体を認識し、その物体の種別を示すラベル情報を導出する。画像に複数の物体が含まれている場合、複数の物体の各々についてラベル情報が導出される。図52Aには、IPU11から出力される高解像度画像101Aから道路上に位置する物体B11~B14が抽出され、物体B11~B14の各々についてラベル情報が付与されている様子が示されている。なお、ラベル情報を導出する処理をIPU11が行ってもよい。
 図52Bは、MoPU12が搭載されたカメラ(図示せず)によって撮像された画像に基づいて行われる物体の特徴点の抽出の態様の一例を示す図である。なお、図52Bに示す特徴点の抽出に用いられる画像101Bは、図52Aに示す高解像度画像101Aと同じタイミングで撮像されたものである。
 MoPU12が搭載されたカメラは、IPU11から出力される高解像度画像のフレームレート(例えば10フレーム/秒)よりも高いフレームレート(例えば1920フレーム/秒)による撮影が可能である。MoPU12は、撮像された物体の画像からその物体の存在位置を示す特徴点を抽出し、抽出した特徴点の座標値(X,Y)を例えば1920フレーム/秒のフレームレートで出力する。物体の存在位置を示す特徴点の座標値は、開示の技術における「位置情報」の一例である。
 図52Bには、MoPU12が搭載されたカメラによって撮像された画像101Bから道路上に位置する物体B11~B14が抽出され、物体B11~B14の各々について特徴点Q1~Q4の座標値(Xn,Yn)が出力されている様子が示されている。図52Bに示す物体B11~B14は、それぞれ図52Aに示す物体B11~B14と同じ物体である。MoPU12による処理対象の画像101Bは、IPU11における高解像度画像101Aよりも解像度が低くてもよい。
 MoPU12は、画像から抽出した物体の中心点(重心点)を特徴点として出力する。なお、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。また物体を一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。1920フレーム/秒で出力される特徴点の座標値の時系列は、当該物体の動き情報に相当する。
 MoPU12から出力される特徴点の座標値は、Central Brain15に順次供給される。Central Brain15は、MoPU12からの特徴点の座標値と、IPU11からの高解像度画像に基づいて導出したラベル情報との対応付けを行う。
 以上説明したように、開示の技術の第20の実施形態に係る情報処理装置は、少なくとも1つのプロセッサ(IPU11、MoPU12及びCentral Brain15)を含む。いずれかのプロセッサは、撮像された物体の画像を、第1のフレームレート(例えば10フレーム/秒)で出力する。いずれかのプロセッサは、第1のフレームレートで出力される画像の各々について、その画像に含まれる物体の種別を示すラベル情報を導出する。いずれかのプロセッサは、撮像された物体の画像からその物体の存在位置を示す位置情報(特徴点の座標値)を、第1のフレームレートよりも高い第2のフレームレート(例えば1920フレーム/秒)で出力する。いずれかのプロセッサは、第2のフレームレートで順次出力される位置情報(特徴点の座標値)のうち、第1のフレームレートで出力される画像の出力タイミングに対応する各時点(時刻t1、t2)における位置情報と、その位置情報に対応する物体と同一の物体について導出されたラベル情報とを対応付ける。
 いずれかのプロセッサは、第2のフレームレートで出力される位置情報(特徴点の座標値)のうち、第1のフレームレートで出力される画像の出力タイミング(時刻t1、t2)に対応しない各時点(すなわち、時刻t1より後から時刻t2までの期間)における位置情報については、当該位置情報について直前に対応付けられたラベル情報(時刻t1の画像に基づくラベル情報)を対応付ける。
 車両の自動運転において、事故発生のリスクを抑制するためには、自車両の周囲に存在する物体の動きを、高い時間分解能で認識することが重要である。物体の動きの高時間分解能での認識は、MoPU12が、物体の特徴点の座標値を例えば1920フレーム/秒で取得することで実現される。物体の特徴点からは、その物体が何であるかを把握することはできないが、物体との衝突を回避する目的の下では、その物体の動きを高時間分可能で認識することの方が、その物体が何であるかを認識することよりも重要である。
 その物体が何であるかを認識は、IPU11からの高解像度画像に基づいてラベル情報を導出することにより実現される。物体の特徴点の座標値と、その物体のラベル情報とを対応付けることで、その物体が何であるかを認識するとともにその物体の動きを認識することが可能となる。
 IPU11とMoPU12の出力のフレームレート差に起因して、特徴点の座標値(位置情報)と同じタイミングでラベル情報は取得されない。このため特徴点とラベル情報との対応付けは、1920フレーム/秒のフレームレートで順次出力される特徴点のうち、10フレーム/秒のフレームレートで出力される高解像度画像の出力タイミングに対応する各時点における特徴点についてのみ行われる。具体的には、576フレームの特徴点のうちの2つについて、ラベル情報が対応付けられる。このように、本実施形態に係る情報処理装置によれば、特徴点とラベル情報との対応付けが離散的となる。これにより、動きを追跡している物体の種別が不確定な期間が生じることになる。種別が不確定な物体であっても、その物体の動きを高フレームレートで追跡することは、事故発生のリスクを抑制するためには重要である。また、特徴点は高フレームレートで継続的に抽出されるので、抽出された特徴点を見失うリスクは低い。このため、特徴点とラベル情報との対応付けが1度行われた場合には、その後のタイミングで抽出される特徴点については、同じラベル情報を推定的に付与することが可能である。なお、本実施形態では、特徴点とラベル情報との対応付けをCentral Brain15が行う場合を例示したが、情報処理装置が備える他のプロセッサが特徴点とラベル情報との対応付けを行ってもよい。またZ軸方向のz座標については特に言及はしていないが、特徴点のx座標、y座標に対応するz座標についても当然に種々の方法で取得されていてよい。
 (第21の実施形態)
 次に、本実施形態に係る第21の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 一例として、第21の実施形態に係る情報処理装置10は、第9の実施形態と同様の図11に示す構成を備えている。IPU11は、高解像度カメラによって撮像された高解像度画像から物体を検知し、物体の種別を表すラベル情報を出力する。また、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。
 本実施形態では、1つのMoPU12を用いる想定であり、1つのMoPU12を用いた場合には、物体の存在位置を示す点の、三次元直交座標系における2つの座標軸(X軸及びY軸)の各々に沿った動きのベクトル情報を取得することが可能である。そのため、3次元空間上の奥行き方向として検知されたZ軸は、Lidarセンサ18により取得した点群データから抽出し、X軸及びY軸と統合する。これにより、MoPU12は、ステレオカメラの原理を利用して、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸(X軸、Y軸、Z軸)の各々に沿った動きのベクトル情報を出力する。Z軸は、奥行き方法(車両の走行)に沿った軸である。なお、本実施形態では、時刻tの次の時刻(例えばt+1)におけるZ軸情報は形状情報、すなわちジオメトリを用いて更新する。MoPU12の構成の詳細については後述する。
 Lidarセンサ18は、3次元空間に存在する物体や走行中の路面を含む点群データを取得する。Lidarセンサ18により取得した点群データを用いることにより、物体の高精度なZ軸情報を抽出できるが、平面座標(X軸、Y軸)よりも取得に時間を要する。Lidarセンサ18において、点群データは、MoPU12で取得される平面座標より長い取得間隔で取得されることを想定する。
[MoPU12の機能的な構成]
 図53は、MoPU12の機能的な構成を含むブロック図である。図53に示されているように、MoPU12は、カメラ30と、レーダー32と、赤外線カメラ34と、抽出部35と、統合部36と、推定部37と、更新部38とを備えている。レーダー32は、レーダー信号を検知する。赤外線カメラ34は、赤外線画像を取得する。なお、抽出部35、統合部36、推定部37、及び更新部38がMoPU12に含まれる場合を例に説明するが、これに限定されるものではなく、情報処理装置10内のコア12Xや他の装置に含める構成としてもよい。
 図12Aは、物体の時系列における座標検出を模式的に示す図である。図12AにおいてJは矩形で表された物体の位置を示し、物体の位置はJ1からJ2に時系列に移動している。物体は、平面座標の移動と共に奥行き方向に移動しているため、Z軸方向の移動も検知する必要がある。もっとも、Lidarセンサ18の点群データから検知するZ軸情報は、MoPU12による平面座標ほど高速に取得できない場合がある。そのため本実施形態では、時刻t+1のZ軸情報を、IPU11の高解像度カメラの画像、及びLidarセンサ18の点群データから路面のジオメトリを推定し、補完する。時刻t+1の奥行き情報のz2は、路面に乗っている物体、すなわち車両のジオメトリを利用すること推定できる。z2は、抽出した平面座標(x1,y1)が(x2,y2)に移動した場合の変化から、z1からz2へのZ軸の移動量を計算することにより、推定される。このようにして、MoPU12により高速フレームショットによる2次元の動き検知と共に、3次元の動き検知が、高性能、かつ、低用量のデータで実現できる。
 抽出部35は、物体が写る画像から物体の2次元空間上の存在位置を示す平面座標(Xn,Yn)を抽出する。平面座標におけるnは各時刻の系列として表され、例えば、時刻t=1の場合を平面座標(X1,Y1)、次の時刻t+1の場合を平面座標(X2,Y2)と表す。時刻t又は次の時刻t+1で表される。なお、次の時刻t+1は一例であり、時刻tに任意の時間mだけ進んだ時刻t+mを、時刻tの次の時刻としてもよい。時刻tの平面座標(X1,Y1)が、本開示の第1平面座標の一例であり、次の時刻t+1(t+m)の平面座標(X2,Y2)が本開示の第2平面座標の一例である。抽出部35は、カメラ30が撮像した1フレームの画像ごとに特徴点を抽出し、画像から抽出した物体の中心点(重心点)について、平面座標(Xn,Yn)を、特徴点として出力する。Xn及びYnは、時系列の各時刻における座標値である。なお、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。また一定の大きさを持つオブジェとして捉える場合は、カメラ30によって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出してもよい。
 統合部36は、Lidarセンサ18から取得した点群データから、時刻tにおける物体の奥行き情報であるZ軸情報(Z1)を検知する。統合部36は、平面座標(X1,Y1)と検知したZ軸情報(Z1)とを統合し、時刻tにおける物体の3次元座標(X1,Y1,Z1)を生成する。なお、Z軸情報の検知は、Lidarセンサ18で行ってもよい。時刻tのZ軸情報(Z1)が本開示の第1奥行き情報の一例である。
 推定部37は、物体が存在する空間のジオメトリと、時刻tの平面座標(X1,Y1)から時刻t+1の平面座標(X2,Y2)への変化とに基づいて、時刻t+1に対応するZ軸情報(Z2)を推定する。空間のジオメトリには、IPU11の高解像度カメラにより取得した画像及びLidarセンサ18が検出した点群データから得られる路面の形状と、予め設定された物体の形状が含まれる。形状を設定する対象の物体は、情報処理装置10が積載された物体である車両である。路面の形状を示すジオメトリは、時刻tの時点であらかじめ生成しておく。路面のジオメトリと合わせて車両のジオメトリを利用することで、路面上を車両が走行する場合をシミュレーションでき、X軸、Y、及びZ軸の各軸の移動量が推定できる。そのため、推定部37は、平面座標(X1,Y1)から平面座標(X2,Y2)に変化したときの奥行き方向の移動量をシミュレーションから計算することで、時刻t+1に対応するZ軸情報(Z2)を推定できる。時刻t+1のZ軸情報(Z2)が本開示の第2奥行き情報の一例である。
 更新部38は、時刻t+1の平面座標(X2,Y2)と、推定されたZ軸情報(Z2)とを統合し、時刻t+1における物体の3次元座標(X2,Y2、Z2)を更新する。なお、物体の移動後の次の時刻t+1の平面座標(X2,Y2)を抽出した場合に、時刻t+1に対応する点群データから得られるZ軸情報(Z2)を取得できていない場合に、Z軸情報(Z2)の推定、及び3次元座標の更新を実行するようにしてもよい。
 以上のようにして、MoPU12は、時系列に得られる3次元座標(Xn,Yn,Zn)を特徴点の座標としてコア12Xに出力する。具体的には、MoPU12は、1つの物体から抽出された特徴点の座標値(Xn,Yn,Zn)を出力する。なお、例えば、複数の物体(例えば、物体A、物体B、及び物体C等)が1つの画像に写っている場合には、MoPU12Lは、それら複数の物体の各々から抽出された特徴点の座標値(Xn,Yn,Zn)を出力するようにしてもよい。各時刻に撮像された画像の特徴点の系列は、物体の動き情報に相当する。
(処理の流れ)
 情報処理装置10におけるMoPU12は、図54に示されているフローチャートを実行する。MoPU12は、例えば、カメラ30において画像を取得する周期又は当該周期に応じた所定の時間間隔において、フローチャートの一連の処理を実行する。
 ステップS500において、抽出部35は、時刻tにおける物体が写る画像から物体の2次元空間上の存在位置を示す平面座標(X1,Y1)を抽出する。
 ステップS502において、統合部36は、Lidarセンサ18から取得した点群データから、時刻tにおける物体の奥行き情報であるZ軸情報(Z1)を検知する。
 ステップS504において、統合部36は、平面座標(X1,Y1)と検知したZ軸情報(Z1)とを統合し、時刻tにおける物体の3次元座標(X1,Y1,Z1)を生成する。
 ステップS506において、抽出部35は、次の時刻t+1における平面座標(X2,Y2)を抽出する。
 ステップS508において、推定部37は、物体が存在する空間のジオメトリと、時刻tの平面座標(X1,Y1)から時刻t+1の平面座標(X2,Y2)への変化とに基づいて、時刻t+1に対応するZ軸情報(Z2)を推定する。
 ステップS510において、更新部38は、時刻t+1の平面座標(X2,Y2)と、推定されたZ軸情報(Z2)とを統合し、時刻t+1における物体の3次元座標(X2,Y2、Z2)を更新する。
 以上が、MoPU12が時系列における3次元座標(Xn,Yn,Zn)を出力するために実行する処理の流れである。
(他の変形例)
 また、以上の説明では、MoPU12が、物体の中心点の動きを示す動き情報を出力する形態を例示した。しかしながら、開示の技術はこの態様に限定されない。MoPU12は、カメラ30によって撮影された画像から認識した物体の輪郭を囲む四角形(バウンディングボックス)の頂点の少なくとも対角となる2つの座標点について動き情報を出力してもよい。このように、物体の存在位置を示す座標に対応する点を物体の輪郭を表すバウンディングボックスの頂点における複数の点の各々とする。この場合、抽出部35は、点の各々について、当該点の時刻tの平面座標(X1,Y1)及び時刻t+1の平面座標(X2,Y2)を抽出する。統合部36は、点の各々について、当該点の物体の時刻tの3次元座標(X1,Y1,Z1)を生成する。推定部37は、点の各々について、当該点の時刻t+1のZ軸情報(Z2)を推定する。更新部38は、点の各々について、当該点の物体の時刻t+13次元座標(X2,Y2,Z2)を更新する。
 (第22の実施形態)
 次に、本実施形態に係る第22の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 第22の実施形態は、車両の前後にIPU11及びMoPU12を設けた点で、第13の実施形態のSmart Carと異なる。以下、第13の実施形態との相違点について説明する。なお、同一の構成には同一の符号を付しており、詳細な説明については割愛する。
 図55に示されるように、車両1には、車両前方を監視する前方IPU11Fr及び前方MoPUユニット12Frと、車両後方を監視する後方IPU11Rr及び後方MoPUユニット12Rrと、が設けられている。前方MoPUユニット12Frは、開示の技術における「第1のカメラユニット」の一例であり、後方MoPUユニット12Rrは、開示の技術における「第2のカメラユニット」の一例である。
 前方IPU11Frでは高解像度カメラ(図示省略)が車両前方に向けられており、後方IPU11Rrでは高解像度カメラ(図示省略)が車両後方に向けられている。また、前方MoPUユニット12Frでは、カメラ313L、レーダー32L及び赤外線カメラ34Lが車両前方に向けられており、後方MoPUユニット12Rrでは、カメラ313L、レーダー32L及び赤外線カメラ34Lが車両後方に向けられている。
 図56は、車両1に搭載される、第22の実施形態に係る情報処理装置220のブロック図である。図56に示されるように、前方MoPUユニット12Fr及び後方MoPUユニット12Rrは、それぞれ左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、を備えている。また、前方MoPUユニット12Frのコア12Xと、後方MoPUユニット12Rrのコア12Xとは、互いに通信可能に接続されている。さらに、前方MoPUユニット12Frのコア12X、及び、後方MoPUユニット12Rrのコア12Xは、それぞれ、Central Brain15に対して接続されている。
 本実施形態の情報処理装置220では、前方IPU11Fr及び前方MoPUユニット12Frにより車両前方の特徴点の座標及び対象物のラベル情報を取得し、後方IPU11Rr及び後方MoPUユニット12Rrにより車両後方の特徴点の座標及び対象物のラベル情報を取得する。これにより、Central Brain15は車両1を制御する。なお、前方MoPUユニット12Fr及び後方MoPUユニット12Rrでは共通の座標軸(x軸、y軸、z軸)に基づいて特徴点の座標値(Xn,Yn,Zn)が得られるように構成されている。これにより、本実施形態のCentral Brain15は、車両1の停車中や走行中において、後方から接近する物体に対しても、精度よく車両制御を行うことができる。つまり、自動運転機能を有する車両において、車両前方のみを監視する場合に比べて、車両後方から接近する物体に対する回避動作が改善される。
(警戒状態に応じたフレームレートの変更)
 情報処理装置220は、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方の検知状況に基づいて、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方のカメラのフレームレートが変更される。
 具体的に、前方MoPUユニット12Fr及び後方MoPUユニット12Rrは、車両1に対して所定値以上の速度で接近する物体があり、警戒状態と判定した場合、通常は240フレーム/秒以下であるカメラ313L,313Rのフレームレートを、960フレーム/秒以上に上げる。つまり、前方MoPUユニット12Fr及び後方MoPUユニット12Rrは、車両1に対する前方又は後方の物体の相対的な速度が予め設定した閾値を超えた場合にフレームレートを変更するように構成されている。以下、本実施形態のフレームレートを変更するレート変更処理を、図57を用いて説明する。なお、図57は前方MoPUユニット12Frにおける処理の例である。
 図57のステップS600において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおける特徴点の座標及び対象物のラベル情報を取得する。
 ステップS602において、前方MoPUユニット12Frのコア12Xは、後方MoPUユニット12Rrにおける特徴点のベクトル情報及び対象物のラベル情報を取得する。
 ステップS604において、前方MoPUユニット12Frのコア12Xは、取得した情報に基づいて警戒状態についての判定処理を実行する。例えば、車両1に対する後方の物体の相対的な速度が予め設定した閾値を超えた場合に警戒状態が開始される。また例えば、前方や後方に存在している警戒対象の物体が車両1から遠ざかる、居なくなる等した場合に警戒状態が終了される。
 ステップS606において、前方MoPUユニット12Frのコア12Xは、警戒状態が開始したか否かを判定する。コア12Xは、警戒状態が開始したと判定した場合(ステップS606でYESの場合)、ステップS608に進む。一方、コア12Xは、警戒状態が開始していないと判定した場合(ステップS606でNOの場合)、ステップS600に戻る。
 ステップS608において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおけるカメラ313L,313Rのフレームレートを高い状態に設定する。
 ステップS610において、前方MoPUユニット12Frのコア12Xは、警戒状態が終了したか否かを判定する。コア12Xは、警戒状態が終了したと判定した場合(ステップS610でYESの場合)、ステップS612に進む。一方、コア12Xは、警戒状態が終了していないと判定した場合(ステップS610でNOの場合)、ステップS600に戻る。
 ステップS612において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおけるカメラ313L,313Rのフレームレートを低い状態に設定する。そして、ステップS600に戻る。
 以上、本実施形態のレート変更処理によれば、以下の態様に対応することができる。例えば、車両前方においては車両1に接近する物体が存在せず、車両後方から車両1をふらつきながら追い越すような二輪車や動物等が現れたとする。この場合、前方MoPUユニット12Frでは、処理負荷軽減のためにフレームレートを下げていたとしても、後方MoPUユニット12Rrにおける物体の接近検知に基づいて、フレームレートを上げることができる。これにより、物体が車両1を追い越してからは、前方MoPUユニット12Frにより、精度のよい監視が可能となる。
 なお、上記の実施形態では、警戒状態が開始されると、フレームレートが低い状態から高い状態に変更されるが、一気に変更されるのではなく、段階的にフレームレートが高くなるように構成してもよい。例えば、通常は240フレーム/秒の場合に、警戒状態が開始されると、まずは、フレームレートを960フレーム/秒にし、警戒状態が所定時間(例えば1秒間)継続するとフレームレートを1920フレーム/秒にするように構成してもよい。このような、フレームレートの段階的な上昇は2段階に限らず、カメラ313L,313Rが有するフレームレートの数に合わせて、設定することができる。また、フレームレートを上げる場合に限らず、下げる場合においても警戒状態に応じて段階的に下げてもよい。
(対象物ラベルの引継ぎ)
 本実施形態の情報処理装置220は、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方において、生成された対象物のラベル情報を前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方に提供することができる。
 例えば、図58に示されるように、前方MoPUユニット12Fr及び後方MoPUユニット12Rrのカメラ313L,313Rの視野角Mがそれぞれ180度であるとする。これに対して、前方IPU11Fr及び後方IPU11Rrの高解像度カメラの視野角Vがカメラ313L,313Rの視野角Mよりも狭いとする。この場合、IPU11の高解像度カメラが撮像できない視野外周部の物体については、MoPU12により座標値が取得できたとしても対象物のラベル情報が付与されない。そこで、図59の引継ぎ処理により、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの一方において、すでに生成されている対象物のラベル情報を前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方に提供することができる。なお、図59は前方MoPUユニット12Frにおける処理の例である。
 図59のステップS700において、前方MoPUユニット12Frのコア12Xは、前方MoPUユニット12Frにおける特徴点の座標及び対象物のラベル情報を取得する。
 ステップS702において、前方MoPUユニット12Frのコア12Xは、後方MoPUユニット12Rrにおける特徴点のベクトル情報及び対象物のラベル情報を取得する。
 ステップS704において、前方MoPUユニット12Frのコア12Xは、ステップS700においてラベル情報を取得できなかったか否かを判定する。コア12Xは、ラベル情報を取得できなかったと判定した場合(ステップS704でYESの場合)、ステップS706に進む。一方、コア12Xは、ラベル情報を取得できたと判定した場合(ステップS704でNOの場合)、ステップS700に戻る。
 ステップS706において、前方MoPUユニット12Frのコア12Xは、ベクトル情報に基づく予想座標と現在の座標が一致したか否かを判定する。すなわち、後方MoPUユニット12Rrから取得したベクトル情報に基づいて予想された特徴点の座標と、前方MoPUユニット12Frにおいて取得した現在の特徴点とが一致したか否かを判定する。コア12Xは、ベクトル情報に基づく予想座標と現在の座標が一致したと判定した場合(ステップS706でYESの場合)、ステップS708に進む。一方、コア12Xは、ベクトル情報に基づく予想座標と現在の座標が一致していないと判定した場合(ステップS706でNOの場合)、ステップS700に戻る。
 ステップS708において、前方MoPUユニット12Frのコア12Xは、後方MoPUユニット12Rrにおける対象物のラベルを、前方MoPUユニット12Frにおいて検知された特徴点に対して付与する。そして、ステップS700に戻る。
 以上、本実施形態の引継ぎ処理によれば、前方IPU11Fr及び後方IPU11Rrの高解像度カメラの視野角Vが狭く、視野角Vの外で特徴点が検出された場合であっても以下の効果を有する。すなわち、前方MoPUユニット12Fr及び後方MoPUユニット12Rrの何れか一方で既に検知され付与さている対象物のラベルを前方MoPUユニット12Fr及び後方MoPUユニット12Rrの他方に適用することができる。これにより、例えば、物体が車両1を追い越すようなシチュエーションにおいて、前方MoPUユニット12Frは後方MoPUユニット12Rrが特徴点を抽出した直後から対象物を特定することができる。
 (第23の実施形態)
 次に、本実施形態に係る第23の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図60は、第23の実施形態に係る情報処理装置の構成の一例を示す第1のブロック図である。本実施の形態に係る情報処理装置10は、車両に関連する複数の情報を取得可能な情報取得部1023と、情報取得部1023が取得した複数の情報から複数のインデックス値を推論する推論部2023と、複数のインデックス値に基づいて車両の運転制御を実行する運転制御部3023と、を少なくとも含む。
 情報取得部1023は、車両に関連する様々な情報を取得することが可能なものである。この情報取得部1023としては、例えば車両の各所に取り付けられたセンサや、図示しないサーバ等からネットワークを介して取得可能な情報を取得するための通信手段を含むことができる。情報取得部1023に含まれるセンサとしては、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音センサ、超音波センサ、振動センサ、赤外線センサ、紫外線センサ、電磁波センサ、温度センサ、湿度センサ、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報等が挙げられる。もしくは、ロングテールインシデントAI data等が挙げられる。ロングテールインシデントAI dataとは、レベル5の実装した自動車のTripデータである。
 複数種類のセンサが取得可能な情報には、地面(例えば道路)の温度や材質、外気温、地面の傾斜(tilt)、道路の凍結状態や水分量、それぞれのタイヤの材質や摩耗状況、あるいは空気圧、道路幅、追い越し禁止有無、対向車の有無、前後車両の車種情報、それらの車のクルージング状態、周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等が挙げられ、本実施の形態では、Level6の計算力を利用することで、これらの検知を10億分の1秒(ナノ秒)毎に実施することができる。
 上述した情報取得部1023に、車両の下部に設けられて走行する地面の温度、材質及びtiltを検出可能な車両下部センサを含んでいることは、特に留意すべき事項である。この車両下部センサを利用して、independent smart tiltを実行することができる。
 推論部2023は、機械学習、より詳しくは深層学習(Deep Learning)を用いて、情報取得部1023で取得した複数の情報から車両の制御に関連するインデックス化された値を推論することが可能なものであってよい。換言すると、推論部2023はAI(Artificial Intelligence)で構成することができる。
 この推論部2023は、情報取得部1023において多くのセンサ群等で収集したナノ秒毎のデータやロングテールインシデントAI dataを、Level6の計算力を用い、下記式(1)に示すような積分法による多変量解析(例えば式(2)参照)を行うことで、正確なインデックス(index)値を求め得る。より詳しくは、Level6の計算力で各種Ultra High Resolutionのデルタ値の積分値を求めながら、エッジレベルで且つリアルタイムで各変数のインデックス化された値を求め、次のナノ秒に発生する結果を最も高い確率論値を取得し得る。


 なお、式中のDLは深層学習を示し、A,B,C,D,…,Nは、空気抵抗、道路抵抗、道路要素(例えばゴミ)及び滑り係数等を示す。
 推論部2023にて得られた各変数のインデックス化された値は、Deep Learningの回数を増加させることによりさらに精緻化させ得る。例えば、タイヤや、モータの回転、ステアリング角度や、道路の材質、天気、ごみや二次曲線的減速時における影響、スリップ、バランス崩壊や再獲得のためのステアリングやスピードコントロールの仕方等の膨大なデータやロングテールインシデントAI dataを用いてより正確なインデックス値を算出することができる。
 運転制御部3023は、推論部2023にて特定された複数のインデックス値に基づいて車両の運転制御を実行するものであってよい。この運転制御部3023は、車両の自動運転制御を実現することが可能なものであってよい。詳しくは、複数のインデックス値から次のナノ秒に発生する結果を最も高い確率論値を取得し、当該確率論値を考慮した車両の運転制御を実施することができる。
 上述した構成を備える情報処理装置10によれば、Level5の計算力よりも極めて大きなLevel6の計算力を用いて情報の解析や推論を実施できるため、従前とは比較にならないレベルの精緻な解析が可能となる。これにより、安全な自動運転のための車両制御を可能にする。さらには、上記のAIによる多変量解析によりLevel5の世界と比べて1000倍の価値の差を生み出すことができる。
 図61は、第23の実施形態に係る情報処理装置の構成の一例を示す第2のブロック図である。情報処理装置10Aは、上述した情報処理装置10に加えて、車両が目的地に到達するまでの走行戦略を設定する戦略設定部4023を含む点で、情報処理装置10とは相違している。
 戦略設定部4023は、車両の乗員等が入力した目的地の情報や、現在地と目的地の間の交通情報等に基づいて、現在地から目的地に到達するまでの走行戦略を設定するものであってよい。その際に、戦略設定を計算するその時点の情報、つまり情報取得部1023が現在取得しているデータを加味して良い。目的地までの単なるルート計算だけでなく、その瞬間の周辺状況を加味することで、より現実に則した理論値を計算するためである。走行戦略は、目的地までの最適ルート(戦略ルート)、走行速度、tilt、ブレーキングの少なくとも1つの理論値を含んで構成されていてよい。好ましくは、走行戦略上述した最適ルート、走行速度、tilt、ブレーキングの全ての理論値で構成することができる。
 戦略設定部4023で設定された走行戦略を構成する複数の理論値は、運転制御部3023における自動運転制御に利用され得る。これに加えて、運転制御部3023は、推論部2023にて推論された複数のインデックス値と戦略設定部4023で設定された各理論値との差分に基づいて走行戦略を更新することが可能な戦略更新部3123を含んでいると好ましい。
 推論部2023にて推論されるインデックス値は、車両走行中に取得される情報、具体的には実際の走行時に検出される。例えば摩擦係数に基づいて推論されたものである。したがって、戦略更新部3123においては、このインデックス値を考慮することで、戦略ルート通行時における刻一刻と変わる変化へ対応することが可能となる。具体的には、戦略更新部3123において、走行戦略に含まれる理論値とインデックス値からその差分(デルタ値)を算出することで、再度最適解を導き出し、戦略ルートを再策定することができる。これにより、スリップをしないぎりぎりの自動運転制御をも実現できる。また、このような更新処理に際しても、上述Level6の計算力を用いることができるため、10億分の1秒単位で補正、微調整することが可能となり、より緻密な走行制御が実現できる。
 加えて、情報取得部1023が上述した車両下部センサを有している場合には、この車両下部センサが地面の温度や材質なども検知するため、戦略ルート通行時における刻一刻と変わる変化へ対応することが可能となる。走行戦略に含まれる走行コースを計算する際、independent smart tiltを実施することもできる。更に、別の情報を検知(飛んでくるタイヤ、破片、動物など)した場合においても、戦略ルート通行時における刻一刻と変わる変化へ対応することで、瞬間瞬間に最適な走行コースを再計算し、最適コースマネジメントを実施することができる。
 (第24の実施形態)
 次に、本実施形態に係る第24の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 自動運転向けのSoC(System on Chip)が高度な演算処理を行う際に、発熱が課題となる。そこで、本実施形態では、SoCBoxの処理の作動を検知して、SoCBoxの冷却を実行する冷却実行装置を提供する。冷却実行装置は、本開示における「情報処理装置」の一例である。
 ところで、SoCBoxが作動する契機として、車道に存在する動く物体を検出した場合がある。例えば、SoCBoxは、自動運転を行っている際に、車道に存在する動く物体を検出した場合、当該物体に対して車両を制御するための演算処理を行うことがある。しかしながら、SoCBoxはすぐ高温になるため、車両での高度な演算が難しい(完全自動運転への課題)。そこで、車道に存在する動く物体等を検出することによって、SoCBoxの作動に起因する放熱を予測し、SoCBoxの冷却を行うことが考えられる。例えば、動く物体等を検出することによってSoCBoxの放熱を予測し、放熱と同時に冷却することで、SoCBoxが高温になるのを防ぎ、車両での高度な演算を可能にする。
 動く物体等を検出することによってSoC Boxの放熱を予測し、放熱と同時に冷却することで、SoC Boxが高温になるのを防ぎ、車両での高度な演算を可能にする。
 図62は、システム2400の一例を概略的に示す。システム2400は、管理サーバ2440、SoCBox2470、冷却実行装置2480、及び冷却部2490を備える。
 SoCBox2470、冷却実行装置2480、及び冷却部2490は、車両に搭載されている。SoCBox2470は、車両に搭載された、複数のセンサのセンサ値を用いて、車両の自動運転を制御する。車両の自動運転制御には、非常に高い処理負荷がかかるため、SoCBox2470は、非常に高温になってしまう場合がある。SoCBox2470があまりに高温になると、SoCBox2470の動作が正常に行われなくなるおそれ、及び車両に悪影響を及ぼすおそれがある。
 本実施形態に係る冷却実行装置2480は、例えば、SoCBox2470の作動を予測して、作動に基づいて、SoCBox2470の冷却を開始する。例えば、冷却実行装置2480は、SoCBox2470の作動の要因である動く物体を検出した場合、即座にSoCBox2470の冷却を開始する。SoCBox2470の作動に起因する発熱の開始よりも早く、又は、発熱の開始と同時に冷却を開始することによって、SoCBox2470が高温になってしまうことを確実に防止することができる。
 なお、冷却実行装置2480は、AIによって、SoCBox2470の作動を予測してもよい。SoCBox2470の作動の学習は、車両2450によって収集されたデータを用いることによって行われてよい。例えば、管理サーバ2440が、車両2450からデータを収集して、学習を実行する。学習を実行する主体は、管理サーバ2440に限らず、他の装置であってもよい。
 車両2450には、SoCBox2470と、センサとしてのMoPU(Motion Processing Unit)2458と、が搭載されている。SoCBox2470は、車両2450に搭載されている、MoPU2458を含む複数のセンサのセンサ値や、複数種類のサーバ2430から受信する外部情報を用いて、車両2450の自動運転を制御する。
 ここで、MoPU2458は、車両に設置された図示しない低解像度カメラに内蔵され得る。MoPU2458は、撮影された物体の動きを示す動き情報を、例えば100フレーム/秒のフレームレートで出力する。MoPU2458は、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPU2458から出力される動き情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。
 サーバ2430は、外部装置の一例であってよい。複数種類のサーバ2430の例として、交通情報を提供するサーバ、天候情報を提供するサーバ、等が挙げられる。SoCBox2470は、自動運転の制御に用いた、MoPU2458による検出結果を含むセンサ値や外部情報等と、制御したときのSoCBox2470の作動状況と、制御したときのSoCBox2470の温度変化とを管理サーバ2440に送信する。
 管理サーバ2440は、1又は複数のSoCBox2470及び複数のセンサから受信した情報を用いた学習を実行する。管理サーバ2440は、SoCBox2470が取得したMoPU2458の検出結果と、SoCBox2470がこれらの情報を取得したときのSoCBox2470の作動状況とを学習データとした機械学習を実行することにより、SoCBox2470が取得する情報を入力とし、SoCBox2470の作動状況を出力とする学習モデルを生成する。
 車両2460は、本実施形態に係る冷却機能を有する車両である。車両2460には、センサとしてのMoPU2458、SoCBox2470、冷却実行装置2480、及び冷却部2490が搭載されている。冷却実行装置2480は、管理サーバ2440によって生成された学習モデルを管理サーバ2440から受信して記憶してよい。
 冷却実行装置2480は、車両2460に搭載されている、MoPU2458による検出結果を含む複数のセンサのセンサ値を、複数のセンサから、又は、SoCBox2470から取得して、SoCBox2470の作動を予測した場合に、冷却部2490によるSoCBox2470の冷却を開始してよい。具体的には、冷却実行装置2480は、MoPU2458による検出結果として、動く物体等を検出した場合、SoCBox2470が作動すると予測し、冷却部2490によるSoCBox2470の冷却を開始する。
 また、冷却実行装置2480は、車両2460に搭載されている、MoPU2458による検出結果を含む複数のセンサのセンサ値を、複数のセンサから、又は、SoCBox2470から取得して、取得した情報を学習モデルに入力することによって、SoCBox2470の作動を予測してよい。
 SoCBox2470、冷却実行装置2480、管理サーバ2440、サーバ2430は、ネットワーク2420を介して通信してよい。ネットワーク2420は、車両ネットワークを含んでよい。ネットワーク2420は、インターネットを含んでよい。ネットワーク2420は、LAN(Local Area Network)を含んでよい。ネットワーク2420は、移動体通信ネットワークを含んでよい。移動体通信ネットワークは、5G(5th Generation)通信方式、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、及び6G(6th Generation)通信方式以降の通信方式のいずれに準拠していてもよい。
 図63は、システム2400における学習フェーズについて説明するための説明図である。ここでは、車両2450に搭載されているセンサ2451として、カメラ2452、LiDAR(Light Detection And Ranging)2453、ミリ波センサ2454、超音波センサ2455、IMUセンサ2456、GNSS(Global Navigation Satellite System)センサ2457、MoPU2458、及び温度センサ2459を例示している。車両2450は、これらの全てを備えるのではなく、一部を備えなくてもよく、これら以外のセンサを備えてもよい。
 SoCBox2470は、センサ2451に含まれるそれぞれのセンサからセンサ情報を取得する。また、SoCBox2470は、ネットワーク2420を介した通信を実行してよく、SoCBox2470は、ネットワーク2420を介して、複数のサーバ2430のそれぞれから外部情報を受信する。そして、SoCBox2470は、取得した情報を用いて、車両2450の自動運転制御を実行する。
 SoCBox2470は、SoCBox2470の作動として、コンピューティングパワーを記録する。SoCBox2470は、SoCBox2470のコンピューティングパワーを定期的に記録してよく、不定期に記録してもよい。SoCBox2470は、センサ2451から受信したセンサ情報、サーバ2430から受信した外部情報と、これらの情報を取得して自動運転制御を実行したときの、SoCBox2470のコンピューティングパワーとを記録して、管理サーバ2440に送信してよい。
 管理サーバ2440は、情報取得部2442、モデル生成部2444、及びモデル提供部2446を備える。情報取得部2442は、各種情報を取得する。管理サーバ2440は、SoCBox2470によって送信された情報を受信してよい。
 モデル生成部2444は、情報取得部2442が取得した情報を用いた機械学習を実行して、学習モデルを生成する。
 モデル生成部2444は、SoCBox2470が取得した情報と、SoCBox2470が情報を取得したときのSoCBox2470の作動状況とを学習データとした機械学習を実行することによって、SoCBox2470が取得する情報を入力とし、SoCBox2470の作動状況を出力とする学習モデルを生成してよい。具体的には、モデル生成部2444は、SoCBox2470が取得する情報としてMoPU2458による検出結果を入力し、SoCBox2470の作動状況としてパワーコンピューティングパワーの状況、及び変化量を出力とする学習モデルを生成する。
 モデル提供部2446は、モデル生成部2444が生成した学習モデルを提供する。モデル提供部2446は、車両2460に搭載されている冷却実行装置2480に、学習モデルを送信してよい。
 システム2400は、SoCBox2470の複数の部位のそれぞれの温度変化を予測するように構成されてもよい。この場合、車両2450には、SoCBox2470の複数の部位のそれぞれの温度変化をそれぞれが測定する複数の温度センサ2459を備えてよい。SoCBox2470は、センサ2451から受信したセンサ情報、サーバ2430から受信した外部情報と、これらの情報を取得して自動運転制御を実行したときに、複数の温度センサ2459によって測定された温度変化とを、管理サーバ2440に送信してよい。モデル生成部2444は、SoCBox2470が取得した情報と、SoCBox2470が情報を取得したときのSoCBox2470の複数の部位のそれぞれの温度変化と、SoCBox2470の作動状況とを学習データとして機械学習を実行することによって、SoCBox2470が取得する情報を入力とし、SoCBox2470における複数の部位のそれぞれの温度変化と、SoCBox2470の作動状況とを出力とする学習モデルを生成する。
 図64は、システム2400における冷却実行フェーズについて説明するための説明図である。ここでは、車両2460に搭載されているセンサ2461として、カメラ2462、LiDAR2463、ミリ波センサ2464、超音波センサ2465、IMUセンサ2466、GNSSセンサ2467、MoPU2468、及び温度センサ2469を例示している。車両2460は、これらの全てを備えるのではなく、一部を備えなくてもよく、これら以外のセンサを備えてもよい。
 冷却実行装置2480は、情報取得部2482、冷却実行部2484、モデル記憶部2486、及び予測部2488を備える。
 情報取得部2482は、SoCBox2470が取得する情報を取得する。情報取得部2482は、SoCBox2470がセンサ2461から取得するセンサ情報を、センサ2461又はSoCBox2470から取得する。例えば、情報取得部2482は、SoCBox2470がセンサ2461から取得したセンサ情報を、SoCBox2470から受信してよい。情報取得部2482は、SoCBox2470がセンサ2461から取得するセンサ情報と同じセンサ情報を、センサ2461から受信してもよい。この場合、センサ2461のそれぞれのセンサは、センサ情報をSoCBox2470及び冷却実行装置2480のそれぞれに送信してよい。
 冷却実行部2484は、センサ情報に含まれるMoPU2458による検出結果に基づいて、SoCBox2470の冷却を開始する。例えば、冷却実行部2484は、MoPU2458による検出結果が、動く物体を検出したことを示す場合、SoCBox2470の冷却を開始する。
 冷却実行部2484は、冷却部2490を用いて、SoCBox2470の冷却を実行する。冷却部2490は、空冷手段、水冷手段、又は液体窒素冷却手段によってSoCBox2470を冷却する。
 なお、本実施形態では、動く物体を検出した場合、SoCBox2470の作動を予測する形態について説明した。しかし、これに限定されない。予測部2488は、AIによってSoCBox2470の作動を予測してよい。
 例えば、モデル記憶部2486は、管理サーバ2440から受信した学習モデルを記憶する。予測部2488は、情報取得部2482が取得したMoPU2458による検出結果を、モデル記憶部2486に記憶されている学習モデルに入力することによって、SoCBox2470の作動状況を予測する。ここで、学習モデルは、作動状況として、SoCBox2470のパワーコンピューティングパワーの状況、及び変化量を出力する。また、予測部2488は、作動状況と共に、SoCBox2470における複数の部位のそれぞれの温度変化を予測して出力してもよい。
 冷却実行部2484は、AIによって予測されたSoCBox2470の作動状況に応じて、SoCBox2470の冷却を開始してもよい。例えば、冷却実行部2484は、作動状況として予測されたSoCBox2470のパワーコンピューティングパワーの状況、及び変化量が予め定められた閾値を超えた場合、SoCBox2470の冷却を開始する。また、冷却実行部2484は、AIによって予測されたSoCBox2470の作動状況、及びSoCBox2470における部位の温度変化に応じて、SoCBox2470の冷却を開始してもよい。例えば、冷却実行部2484は、作動状況として予測されたSoCBox2470のパワーコンピューティングパワーの状況、及び変化量が予め定められた閾値を超えた場合、かつ温度変化が予め定められた閾値を超えた場合、SoCBox2470における該当する部位の冷却を開始する。
 また、冷却部2490は、複数種類の冷却手段を備えてもよい。例えば、冷却部2490は、複数種類の空冷手段を備える。例えば、冷却部2490は、複数種類の水冷手段を備える。例えば、冷却部2490は、複数種類の液体窒素冷却手段を備える。冷却部2490は、1又は複数種類の空冷手段、1又は複数種類の水冷手段、及び1又は複数の液体窒素冷却手段のうちの複数を含んでもよい。
 複数の冷却手段は、それぞれが、SoCBox2470の異なる部位を冷却するように配置されてよい。予測部2488は、情報取得部2482が取得する情報を用いて、SoCBox2470の複数の部位のそれぞれの温度変化を予測してよい。冷却実行部2484は、予測部2488による予測結果に基づいて、SoCBox2470の複数の部位のそれぞれを冷却する複数の冷却手段から選択した冷却手段を用いて、SoCBox2470の冷却を開始してよい。
 冷却実行部2484は、予測部2488によって予測されたSoCBox2470の温度の高さに応じた冷却手段を用いて、SoCBox2470の冷却を実行してもよい。例えば、冷却実行部2484は、SoCBox2470の温度が高いほど、より多くの冷却手段を用いて、SoCBox2470の冷却を実行する。具体例として、冷却実行部2484は、SoCBox2470の温度が第1の閾値を超えることが予測された場合に、複数の冷却手段のうちの1つを用いた冷却を開始し、それでも、SoCBox2470の温度が上昇して、第2の閾値を超えることが予測された場合に、用いる冷却手段の数を増やす。
 冷却実行部2484は、SoCBox2470の温度が高い程、より強力な冷却手段を用いて、SoCBox2470の冷却を実行してもよい。例えば、冷却実行部2484は、SoCBox2470の温度が第1の閾値を超えることが予測された場合に、空冷手段を用いた冷却を開始し、それでも、SoCBox2470の温度が上昇して、第2の閾値を超えることが予測された場合に、水冷手段を用いた冷却を開始し、それでも、SoCBox2470の温度が上昇して、第3の閾値を超えることが予測された場合に、液体窒素冷却手段を用いた冷却を開始する。
 SoCBox2470は、複数の処理チップを有してよく、複数の処理チップは、それぞれSoCBox2470の異なる位置に配置されてよい。複数の冷却手段のそれぞれは、複数の処理チップのそれぞれに対応する位置に配置されてよい。
 例えば、自動運転の制御状況に応じて、使用する処理チップの数が変化する場合に、使用している処理チップに対応する冷却手段による冷却が行われることになるので、効率的な冷却を実現することができる。
 なお、本実施形態では、MoPU2458によって動く物体を検出した場合、SoCBox2470を冷却する形態について説明した。しかし、これに限定されない。MoPU2458によって動く物体を検出した場合、SoCBox2470の発熱による電力の回生を開始してもよい。例えば、SoCBox2470にペルチェ素子を設置し、MoPU2458によって動く物体を検出した場合、SoCBox2470の発熱を用いたペルチェ素子による発電を開始してもよい。ペルチェ素子を用いることによって、SoCBox2470の発熱した際に即座に電力が得られるため、エネルギー効率が向上する。
 図65は、SoCBox2470及び冷却部2490の一例を概略的に示す。図65は、冷却部2490が、1つの冷却手段によって構成されている場合を例示している。冷却実行装置2480が、動く物体を検出した場合に、冷却部2490による冷却を開始することによって、SoCBox2470の全体を冷却することができる。
 図66は、SoCBox2470及び冷却部2490の一例を概略的に示す。図66は、冷却部2490が、SoCBox2470の複数の部位のそれぞれを冷却する複数の冷却手段によって構成されている場合を例示している。冷却実行装置2480が、温度センサ2469を用いて、SoCBox2470の複数の部位のそれぞれの温度変化を予測して、いずれかの部位が発熱を開始したり、いずれかの部位の温度が予め定められた閾値を超えたりすることを予測したことに応じて、当該部位に対応する冷却手段のみを用いた冷却を実行することにより、効率的な冷却を実現することができる。
 図67は、SoCBox2470及び冷却部2490の一例を概略的に示す。図67は、冷却部2490が、2種類の冷却手段によって構成されている場合を例示している。冷却実行装置2480が、SoCBox2470の複数の部位のそれぞれの温度変化を予測して、いずれかの部位が発熱を開始したり、いずれかの部位の温度が予め定められた閾値を超えたりすることを予測したことに応じて、当該部位に対応する冷却手段のみを用いた冷却を実行することにより、効率的な冷却を実現することができる。また、冷却実行装置2480が、SoCBox2470の温度が高まるにつれて、使用する冷却手段を増やす、すなわち、本例においては、まず、2種類の冷却手段のうちの1つを用いた冷却を開始し、更にSoCBox2470の温度が高まる場合に、もう1つの冷却手段を用いた冷却を開始することによって、冷却に用いるエネルギーを効率化することができる。
 (第25の実施形態)
 次に、本実施形態に係る第25の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 図68は、本実施形態に係る超高性能自動運転のAIの危険予測の能力について概略的に示す。本実施形態においては、複数種類のセンサ情報をAIデータ化してクラウドに蓄積する。AIがナノセカンド(10億分の1秒)ごとに状況のベストミックスを予測、判断し、車両100の運行を最適化する。
 本実施形態において使用する車両100に備えたセンサの例として、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョン認識、微細音、超音波、振動、赤外線、紫外線、電磁波、温度、湿度、スポットAI天気予報、高精度マルチチャネルGPS、低高度衛星情報、ロングテールインシデントAI data等が挙げられる。ロングテールインシデントAI dataとはレベル5の実装した自動車のTripデータである。
 上記センサは車両周辺の状況を検出するセンサを含む。車両周辺の状況を検出するセンサは、車両の周囲の状況を検出する周期として、車両の周囲をカメラ等で撮影する第1周期より短い第2周期で車両周辺の状況を検出する。
 複数種類のセンサから取り入れるセンサ情報として、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、周囲の状況(鳥、動物、サッカーボール、事故車、地震、火事、風、台風、大雨、小雨、吹雪、霧、など)等が挙げられ、本実施形態では、これらの検知を10億分の1秒毎に実施する。
 本実施形態においては、Central Brain15は、上記のセンサにより検知されたセンサ情報のうち、予め定められた数のセンサ情報の複数の組み合わせ毎に、車両の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンション毎の、車輪速、傾き、及びサスペンションを制御するための制御変数を算出する算出部として機能する。なお、車輪の傾きは、道路に対して水平な軸に対する車輪の傾き、及び道路に対して垂直な軸に対する車輪の傾きの双方を含む。
 ここで、予め定められた数は、例えば3個である。3個のセンサ情報に基づいて、車輪速、傾き、及びサスペンションを制御するためのインデックス値を算出する。3個のセンサ情報の組み合わせから算出するインデックス値の数は、例えば3個である。車輪速、傾き、及びサスペンションを制御するためのインデックス値には、例えば、センサ情報のうち空気抵抗に関する情報から算出したインデックス値、センサ情報のうち道路抵抗に関する情報から算出したインデックス値、センサ情報のうち滑り係数に関する情報から算出したインデックス値などが含まれる。そして、センサ情報の組み合わせが異なる複数のセンサ情報の組み合わせ毎に算出したインデックス値を集約して、車輪速、傾き、及びサスペンションを制御するための制御変数を算出する。例えば、センサ1、2及び3の組み合わせで複数のインデックス値を算出し、センサ4、5及び6の組み合わせで複数のインデックス値を算出し、センサ1、3及び7の組み合わせで複数のインデックス値を算出し、このインデックス値を集約して制御変数を算出する。このように、センサ情報の組み合わせを変えながら予め定められた数、例えば300個のインデックス値を算出し、制御変数を算出する。具体的には、算出部は、機械学習、より詳しくは深層学習(Deep Learning)を用いて、センサ情報から制御変数を算出することが可能なものであってよい。換言すると、算出部はAI(Artificial Intelligence)で構成することができる。
 この算出部は、多くのセンサ群等で収集したナノ秒毎のデータを、Level6の計算力を用い、下記式(1)に示すような積分法による多変量解析(例えば式(2)参照)を行うことで、正確な制御変数を求め得る。より詳しくは、Level6の計算力で各種Ultra High Resolutionのデルタ値の積分値を求めながら、エッジレベルで且つリアルタイムで各変数のインデックス化された値を求め、次のナノ秒に発生する結果を最も高い確率論値を取得し得る。

 なお、式中のDLは深層学習を示し、A,B,C,D,…,Nは、センサ情報から算出したインデックス値であり、例えば空気抵抗から算出したインデックス値、道路抵抗から算出したインデックス値、道路要素から算出したインデックス値及び滑り係数から算出したインデックス値等を示す。予め定められた数のセンサ情報の組み合わせを変えながら算出されたインデックス値が300個の場合は、式中のA~Nのインデックス値も300個となり、300個のインデックス値を集約する。
 また、上記の式(2)では、車輪速(V)について算出しているが、傾き、及びサスペンションを制御するための制御変数についても同様に算出する。
 具体的には、Central Brain15は、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数を算出する。本実施形態では、上記16の制御変数の算出を10億分の1秒毎に実施する。なお、上記の4つの車輪それぞれの車輪速は「4つの車輪にそれぞれ搭載されたインホイールモータのスピン数(回転数)」と言うこともでき、上記の道路に対して水平な軸に対する4つの車輪それぞれの傾きは「4つの車輪それぞれの水平アングル」と言うこともできる。そして、上記の制御変数は、例えば、車両が山道を走行する場合には当該山道に合わせた最適なステアリングを行うための数値となり、車両を駐車場に駐車する場合には当該駐車場に合わせた最適なアングルで走行するための数値となる。
 また、本実施形態においては、Central Brain15は、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数を算出するが、この算出はCentral Brain15である必要は無く、上記の制御変数を算出する専用のアンカーチップを別途設けても良い。この場合にも式中(2)のDLは深層学習を示し、A,B,C,D,…,Nは、センサ情報から算出した値インデックス値を示す。集約するインデックスの数が上述したように300個の場合は、かかる式中のインデックスの数も300個となる。
 また、本実施形態においては、Central Brain15は、上記で算出した制御変数に基づいて、10億分の1秒単位で自動運転を制御する制御部として機能する。具体的には、Central Brain15は、上記16の制御変数に基づいて、4つの車輪にそれぞれ搭載されたインホイールモータを制御することで、車両100の4つの車輪それぞれの車輪速、傾き、及び4つの車輪それぞれを支持するサスペンションを制御して自動運転を行う。
 Central Brain15は、図69に示されているフローチャートを繰り返し
実行する。
 ステップS2510において、Central Brain15は、センサにより検知された道路情報を含むセンサ情報を取得する。そして、Central Brain15は、ステップS2511に進む。
 ステップS2511において、Central Brain15は、ステップS2510で取得したセンサ情報に基づいて、上記16の制御変数を算出する。そして、Central Brain15は、ステップS2512に進む。
 ステップS2512において、Central Brain15は、ステップS2511で算出した制御変数に基づいて、自動運転を制御する。そして、Central Brain15は、当該フローチャートの処理を終了する。
 図70から図74は、Central Brain15による自動運転の制御例を説明する説明図である。なお、図70から図72は、車両100を前方から見た視点の説明図であり、図73及び図74は、車両100を下方から見た視点の説明図である。
 図70は、車両100が平坦な道路R1を走行中の場合を示している。Central Brain15は、道路R1に合わせて算出した上記16の制御変数に基づいて、4つの車輪3025にそれぞれ搭載されたインホイールモータ3125を制御することで、4つの車輪3025それぞれの車輪速、傾き、及び4つの車輪3025それぞれを支持するサスペンション3225を制御して自動運転を行う。
 図71は、車両100が山道R2を走行中の場合を示している。Central Brain15は、山道R2に合わせて算出した上記16の制御変数に基づいて、4つの車輪3025にそれぞれ搭載されたインホイールモータ3125を制御することで、4つの車輪3025それぞれの車輪速、傾き、及び4つの車輪3025それぞれを支持するサスペンション3225を制御して自動運転を行う。
 図72は、車両100が水たまりR3を走行中の場合を示している。Central Brain15は、水たまりR3に合わせて算出した上記16の制御変数に基づいて、4つの車輪3025にそれぞれ搭載されたインホイールモータ3125を制御することで、4つの車輪3025それぞれの車輪速、傾き、及び4つの車輪3025それぞれを支持するサスペンション3225を制御して自動運転を行う。
 図73は、車両100が矢印A1で示す方向にカーブする場合を示している。Central Brain15は、進入するカーブ路に合わせて算出した上記16の制御変数に基づいて、4つの車輪3025にそれぞれ搭載されたインホイールモータ3125を制御することで、4つの車輪3025それぞれの車輪速、傾き、及び4つの車輪3025それぞれを支持するサスペンション3225(図示せず)を制御して自動運転を行う。
 図74は、車両100が矢印A2で示す方向に平行移動する場合を示している。Central Brain15は、矢印A2で示す方向への平行移動に合わせて算出した上記16の制御変数に基づいて、4つの車輪3025にそれぞれ搭載されたインホイールモータ3125を制御することで、4つの車輪3025それぞれの車輪速、傾き、及び4つの車輪3025それぞれを支持するサスペンション3225(図示せず)を制御して自動運転を行う。
 なお、図70から図74で示す車輪3025及びサスペンション3225の状態(傾き)は、あくまで一例であり、各図で示す状態とは異なる車輪3025及びサスペンション3225の状態が生じうることは言うまでもない。
 ここで、従来の車両に搭載されたインホイールモータは、それぞれの駆動輪を独立して制御することができるが、当該車両では、道路状況等を分析してインホイールモータを制御することまではできなかった。そのため、当該車両では、例えば、山道又は水たまり等を走行する場合に道路状況等に基づく適切な自動運転が行えなかった。
 しかし、本実施形態に係る車両100によれば、上記で説明した構成に基づいて、道路状況等の環境に適してスピード及びステアリング等が制御された自動運転を行うことができる。
 (第26の実施形態)
 次に、本実施形態に係る第26の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
 本実施の形態に係る情報処理装置の一例として機能するCentral Brain15は、車両に関連する複数の情報を取得可能な取得部と、取得部が取得した複数の情報から制御変数を算出する算出部と、制御変数に基づいて車両の運転制御を実行する制御部と、のそれぞれの機能を少なくとも含む。
 例えば、Central Brain15は、上記のセンサにより検知された1つ以上のセンサ情報を用いて、車両の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンション毎の、車輪速、傾き、及びサスペンションを制御するための制御変数を算出する機能する。なお、車輪の傾きは、道路に対して水平な軸に対する車輪の傾き、及び道路に対して垂直な軸に対する車輪の傾きの双方を含む。
 ここで、1つ以上のセンサ情報は車両周辺の状況を検出するセンサからのセンサ情報を適用可能である。また、1つ以上のセンサ情報として複数のセンサ情報を用いる場合は、予め定められた数のセンサ情報を適用可能である。予め定められた数は、例えば3個である。3個のセンサ情報に基づいて、車輪速、傾き、及びサスペンションを制御するためのインデックス値を算出する。3個のセンサ情報の組み合わせから算出するインデックス値の数は、例えば3個である。車輪速、傾き、及びサスペンションを制御するためのインデックス値には、例えば、センサ情報のうち空気抵抗に関する情報から算出したインデックス値、センサ情報のうち道路抵抗に関する情報から算出したインデックス値、センサ情報のうち滑り係数に関する情報から算出したインデックス値などが含まれる。
 ところで、車両の走行中には、障害物が車両に接近する場合がある。この場合、車両は、障害物との接触または衝突を回避するために車両の挙動を変更して走行することが好ましい。障害物の一例には、走行中の自車両以外の他車両、壁面、ガードレール、縁石、及びその他の設置物が挙げられる。以降の説明では、障害物の一例として、車両100に接近する他車両を適用した場合を説明する。なお、障害物は対象物の一例である。
 図75は、対面2車線の道路を走行する車両100を自車両100Aとして、自車両100Aの周囲に他車両100B、100C、100Dが走行している状態を模式的に示す図である。図の例では、自車両100Aに後続して他車両100Bが走行し、対向車線を他車両100Dが先行して走行し、後続して他車両100Cが走行している状態である。
 自車両100AのCentral Brain15は、時々刻々と変化する、走行路を走行する状態に合わせて算出した上述した制御変数に基づいて、4つの車輪3025にそれぞれ搭載されたインホイールモータ3125を制御することで、4つの車輪3025それぞれの車輪速、傾き、及び4つの車輪3025それぞれを支持するサスペンション3225を制御して自動運転を行う。また、Central Brain15は、自車両100Aの周囲の他車両100B、100C、100Dの挙動をセンサにより検出しセンサ情報として取得している。
 Central Brain15は、少なくとも障害物を回避して走行するために、取得されたセンサ情報から自車両に対する対象物としての障害物について接触を含む衝突を予測する機能を有している。図75に示すように、Central Brain15は、センサ情報から、他車両100Dが自車両100Aの前方に進入することが予測される場合、少なくとも他車両100Dに接触することを回避することが可能な自車両100Aの挙動を示す制御変数を算出する。
 例えば、図75に示す例で、自車両100Aが現在の走行状態で走行している経路100Ax1では他車両100Dと衝突する。そこで、Central Brain15は、他車両100Dとの衝突を回避する経路100Ax2、及び100Ax3等の経路を算出し、何れかを選択し、制御変数を算出する。経路の選択は、自車両100Aにおける制御変数による負荷が予め定めた所定値より低い(例えば、最小値の)制御変数となる経路を選択すればよい。
 上述した自動運転を実現し得るCentral Brain15についてさらに説明する。第26の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。なお、上述したCentral Brain15は、ゲートウェイを含む情報処理装置として機能する広義の処理装置でもあり、プロセッサごとに機能を分類した場合の狭義の処理装置でもある。
 本実施形態では、センサ情報として、車両100の周囲の状況を検出する周期として、車両の周囲をカメラ等で撮影する第1周期より短い第2周期で車両周辺の状況を検出することが可能である。すなわち、上述したLevel5では、カメラ等によって0.3秒に2回の周囲の状況を検出できるが、本実施形態ではLevel6で576回の周囲の状況を検出できる。そして、576回の周囲の状況の検出毎にインデックス値及び制御変数を算出でき、Level5で実行される自動運転より、高速かつ安全な走行を実行可能に、車両の挙動を制御可能である。
 上記では、経路を選択することで衝突を回避する場合を説明したが、これに限定されない。例えば、自車両100Aが他車両への衝突を回避困難な場合、不可避な衝突における車両に発生する損害を低減する制御変数を算出することが可能である。すなわち、Central Brain15は、不可避な衝突における車両に発生する損害が予め定めた閾値以下の損害に対応する制御変数を制御変数として算出してもよい。よって、上述した算出部は、取得された複数のセンサ情報に基づいて、車両100に対する対象物の衝突を予測し、予測した予測結果が、不可避な衝突を示す場合、不可避な衝突における車両に発生する損害が予め定めた閾値以下の損害に対応する制御変数を制御変数として算出することを含む。車両に発生する損害は、前記車両の変形位置及び変形量の少なくとも1つを適用可能である。また、車両に発生する損害に対応する制御変数は、車両の衝突角度、及び車速の少なくとも1つを適用可能である。
 図76は、不可避な衝突における車両100に発生する損害を低減することを可能とするCentral Brain15における処理の流れの一例を示すフローチャートである。Central Brain15は、図69に示す処理に代えて図76に示す処理を繰り返し実行することが可能である。なお、図69に示す処理との重複部分は説明を省略又は簡略する。
 Central Brain15は、ステップS2610で、自車両と他車両との関係を算出する。具体的には、ステップS2610では、センサ情報に基づいて、車両100に対する対象物(例えば、他車両)の衝突を予測し、予測結果が衝突不可避であるかを判定する。そして、ステップS2620では当該予測による判定結果が衝突不可避か否かを判断する。ステップS2620で肯定判断の場合はステップS2640へ処理を移行し、否定判断の場合はステップS2630で制御変数を算出する。ステップS2640では、上述したように不可避な衝突における車両に発生する損害を低減する制御変数を算出し、ステップS2650へ進む。
 ステップS2610、S2620、S2630、及びS2640の処理は、上述した順序に限定されない。例えば、ステップS2630の処理後に、ステップS2620、及びS2640の処理を実行してもよい。具体的には、まず、ステップS2630で、車両100に対する他車両の衝突を予測し、自車両と他車両との間の相互関係についてリスクが最小となる関係を示す制御変数を算出する。当該リスクが最小となる関係は、例えば、接触や衝突を含む関係及び当該関係を回避する関係のなかにおける接触や衝突を含む関係となる可能性が低い関係が挙げられる。すなわち、衝突リスクが最低の制御変数を算出する。次に、ステップS2620で、算出された制御変数による車両100の挙動が、車両100に対する他車両の衝突を予測し、予測結果について衝突が不可避か否かを判断する。この場合、ステップS2620で否定判断の場合は、そのままステップS2650へ進めばよい。一方、肯定判断の場合にステップS2640で、ステップS2630で算出した制御変数を、衝突リスクをさらに低減可能な制御変数を算出する。具体的には自車両と他車両とが接触又は衝突によって生じる、車両に発生する損害を低減する、車両の衝突角度、及び車速の少なくとも1つを算出する。
 なお、車両100の速度に関する制御変数は、加速側を大中小(L、M、S)に各10種類を設定して合計30種類のパターンを適用し、減速側を大中小(L、M、S)に各10種類を設定して合計30種類のパターンを適用し、選択するようにしてもよい。この場合、自車両と他車両との間の関係は時々刻々と変化し、自車両と他車両とが接近する状態では距離が接近する方向に辺かするので、パターンを選択する選択肢が時々刻々と小さくなり、選択のための処理時間は低減でき、さらにデルタの差の調整が少なくなる。
 また、上記では自車両100Aに対する他車両として、他車両100Dを適用した場合を説明したが、上述した自車両100Aの周囲の他車両100B、100C、100Dの少なくとも1つ、そして全ての他車両を対象とし、当該対象の他車両に対する衝突リスクを低減する制御変数を算出してもよい。
 従って、Central Brain15は、接触を含む衝突の予測に合わせて算出した制御変数に基づいて、例えば4つの車輪3025にそれぞれ搭載されたインホイールモータ3125を制御することで、4つの車輪3025それぞれの車輪速、傾き、及び4つの車輪3025それぞれを支持するサスペンション3225を制御することで、衝突の回避、または衝突時に車両に発生する損害を低減して自動運転することが可能となる。
 図77は、情報処理装置10又は冷却実行装置110として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。
 本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。
 CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。
 通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。
 ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。
 プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。
 例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。
 また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。
 様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。
 上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。
 本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。
 コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。
 コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。
 コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
 以上、本開示を実施の形態を用いて説明したが、本開示の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本開示の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
 特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。
 上記実施形態において、各プロセッサ(例:IPU11、MoPU12、及びCentral Brain15)が実行するとした処理はあくまで例示であり、各処理を実行するプロセッサは限定されない。例えば、上記実施形態でMoPU12が実行するとした処理を、MoPU12に代えて、Central Brain15が実行してもよいし、IPU11、MoPU12、及びCentral Brain15以外の他のプロセッサが実行してもよい。
 2022年10月24日に出願された日本国特許出願2022-170165号の開示、2022年10月27日に出願された日本国特許出願2022-172777号の開示、2022年11月1日に出願された日本国特許出願2022-175679号の開示、2022年11月1日に出願された日本国特許出願2022-175698号の開示、2022年11月11日に出願された日本国特許出願2022-181362号の開示、2022年11月14日に出願された日本国特許出願2022-182131号の開示、2022年11月21日に出願された日本国特許出願2022-186040号の開示、2022年11月24日に出願された日本国特許出願2022-187648号の開示、2022年11月24日に出願された日本国特許出願2022-187649号の開示、2022年11月28日に出願された日本国特許出願2022-189546号の開示、2022年12月26日に出願された日本国特許出願2022-209070号の開示、2023年1月4日に出願された日本国特許出願2023-000321号の開示、2023年3月9日に出願された日本国特許出願2023-036967号の開示、2023年3月9日に出願された日本国特許出願2023-036968号の開示、2023年3月9日に出願された日本国特許出願2023-036969号の開示、2023年3月9日に出願された日本国特許出願2023-036972号の開示、2023年3月9日に出願された日本国特許出願2023-036973号の開示、2023年3月9日に出願された日本国特許出願2023-036974号の開示、2023年3月9日に出願された日本国特許出願2023-036976号の開示、2023年3月9日に出願された日本国特許出願2023-036977号の開示、2023年3月31日に出願された日本国特許出願2023-059411号の開示、2023年4月18日に出願された日本国特許出願2023-068062号の開示、2023年4月20日に出願された日本国特許出願2023-069618号の開示、2023年4月21日に出願された日本国特許出願2023-070394号の開示、2023年4月28日に出願された日本国特許出願2023-075259号の開示、2023年5月2日に出願された日本国特許出願2023-076253号の開示、2023年5月2日に出願された日本国特許出願2023-076261号の開示、2023年5月8日に出願された日本国特許出願2023-076943号の開示、2023年5月8日に出願された日本国特許出願2023-076944号の開示、2023年5月15日に出願された日本国特許出願2023-080353号の開示、2023年5月19日に出願された日本国特許出願2023-083452号の開示、2023年5月22日に出願された日本国特許出願2023-084121号の開示、2023年5月23日に出願された日本国特許出願2023-084860号の開示、2023年6月26日に出願された日本国特許出願2023-104424号の開示は、その全体が参照により本明細書に取り込まれる。
 本明細書に記載された全ての文献、特許出願、及び技術規格は、個々の文献、特許出願、及び技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (142)

  1.  第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
     前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
     を備える、
     情報処理装置。
  2.  前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  3.  前記第1カメラのフレームレートは可変であり、
     前記第1プロセッサは、所定要因に応じて前記第1カメラのフレームレートを変更する、
     請求項1に記載の情報処理装置。
  4.  前記第1プロセッサは、所定の対象物に対する外部環境に関するスコアを算出する、
     請求項3に記載の情報処理装置。
  5.  前記第1プロセッサは、算出した前記外部環境に関するスコアに応じて、前記第1カメラのフレームレートを変更する、
     請求項4に記載の情報処理装置。
  6.  前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、
     前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  7.  前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の座標値を出力する、
     請求項6に記載の情報処理装置。
  8.  前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の複数の頂点の座標値を出力する、
     請求項7に記載の情報処理装置。
  9.  前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  10.  前記第3プロセッサは、
     検知部が検知した検知情報に基づいて、前記移動体の自動運転を制御するための制御変数を算出し、
     算出した前記制御変数と、前記点情報及び前記識別情報とに基づいて、前記移動体の自動運転を制御する、
     請求項9に記載の情報処理装置。
  11.  前記第1プロセッサは、前記第1カメラにより撮影された前記物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、前記点情報を出力し、
     前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  12.  前記第1プロセッサは、所定要因により前記第1カメラに含まれる可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記第1カメラに含まれる赤外線カメラにより撮影された前記物体の赤外線画像に基づいて前記点情報を出力する、
     請求項11に記載の情報処理装置。
  13.  前記第1プロセッサは、前記可視光カメラにより前記可視光画像を撮影するタイミングと、前記赤外線カメラにより前記赤外線画像を撮影するタイミングとを同期させる、
     請求項12に記載の情報処理装置。
  14.  前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、前記点情報を出力し、
     前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  15.  前記第1プロセッサは、前記第1カメラにより前記画像を撮影するタイミングと、前記レーダーが前記レーダー信号に基づく前記物体の3次元点群データを取得するタイミングとを同期させる、
     請求項14に記載の情報処理装置。
  16.  前記第1カメラによって撮影される単位時間あたりの画像数及び前記レーダーによって取得される単位時間あたりの3次元点群データの数は、前記第2カメラによって撮影される単位時間あたりの画像数より多い、
     請求項14に記載の情報処理装置。
  17.  前記第2プロセッサは、前記第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、
     前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記ラベル情報を対応付ける第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  18.  前記第3プロセッサは、前記点情報が示す前記物体の位置情報と、前記位置情報が示す位置に存在する前記物体についての前記ラベル情報とを対応付ける、
     請求項17に記載の情報処理装置。
  19.  前記第3プロセッサは、前記第2プロセッサが前記ラベル情報を出力したタイミングと同じタイミングで前記第1プロセッサから出力された前記点情報を前記ラベル情報に対応付ける、
     請求項18に記載の情報処理装置。
  20.  前記第3プロセッサは、前記点情報及び前記ラベル情報を対応付けた後に前記第1プロセッサから新たな前記点情報が出力された場合、新たな前記点情報についても前記ラベル情報と対応付ける、
     請求項18に記載の情報処理装置。
  21.  前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、
     前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
     請求項1に記載の情報処理装置。
  22.  前記第1プロセッサは、複数の前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記奥行き方向の座標値を導出する、
     請求項21に記載の情報処理装置。
  23.  前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
     請求項21に記載の情報処理装置。
  24.  前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及び照射装置により前記物体に照射されたストラクチャードライトを撮影した結果から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
     請求項21に記載の情報処理装置。
  25.  前記第1プロセッサは、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する、
     請求項21に記載の情報処理装置。
  26.  前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、
     前記第3プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
     請求項1に記載の情報処理装置。
  27.  前記第1プロセッサは、イベントカメラにより撮影された前記物体の画像から、前記点情報を出力し、
     前記第2プロセッサは、前記イベントカメラと対応する方向を向いた前記第2カメラにより撮影された前記物体の画像から、前記識別情報を出力し、
     前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  28.  前記第1プロセッサは、所定要因により可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記イベントカメラにより撮影された前記物体の画像に基づいて前記点情報を出力する、
     請求項27に記載の情報処理装置。
  29.  前記所定要因は、前記物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む、
     請求項28に記載の情報処理装置。
  30.  前記イベントカメラは、現時刻に撮影された画像と前時刻に撮影された画像との差異部分を表すイベント画像を出力するカメラである、
     請求項27に記載の情報処理装置。
  31.  前記第2プロセッサは、撮影された前記物体の画像を、第1のフレームレートで出力し、
     前記第1プロセッサは、撮影された前記物体の動きを示す動き情報を、前記第1のフレームレートよりも高い第2のフレームレートで出力し、
     前記画像及び前記動き情報に基づいて、車両の運転制御を実行する第3プロセッサを備える、
     請求項1に記載の情報処理装置。
  32.  前記第2のフレームレートは、前記第1のフレームレートの10倍以上である、
     請求項31に記載の情報処理装置。
  33.  前記第2のフレームレートは、100フレーム/秒以上である、
     請求項31に記載の情報処理装置。
  34.  前記第1プロセッサは、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を出力する、
     請求項31に記載の情報処理装置。
  35.  2つの前記第1プロセッサを用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を出力する、
     請求項34に記載の情報処理装置。
  36.  前記第3プロセッサは、10億分の1秒単位で複数の情報を処理する能力を有する、
     請求項35に記載の情報処理装置。
  37.  フレームレートが100フレーム/秒以上のカメラで撮影された物体の画像から、物体の存在位置を示す点のみを抽出し、前記の物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報をプロセッサから出力する、
     請求項1に記載の情報処理装置。
  38.  前記第1プロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について前記ベクトル情報を出力する、
     請求項35に記載の情報処理装置。
  39.  前記第1プロセッサは、前記物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する、
     請求項1に記載の情報処理装置。
  40.  前記第1プロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する、
     請求項39に記載の情報処理装置。
  41.  前記第1プロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する、
     請求項39に記載の情報処理装置。
  42.  前記画像は、赤外線画像を含む、
     請求項39に記載の情報処理装置。
  43.  前記画像は、互いに同期した可視光画像及び赤外線画像を含む、
     請求項39に記載の情報処理装置。
  44.  2つの前記第1プロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する、
     請求項39に記載の情報処理装置。
  45.  前記第1プロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する、
     請求項39に記載の情報処理装置。
  46.  前記物体の画像を1000フレーム/秒未満のフレームレートで出力する前記第2プロセッサと、
     前記動き情報と、前記第2プロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3プロセッサと、
     を更に含む請求項39に記載の情報処理装置。
  47.  前記第1プロセッサは、前記物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項1に記載の情報処理装置。
  48.  前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、
     前記第1プロセッサは、
     外部環境に関するスコアを計算し、
     前記スコアに応じて、前記カメラのフレームレートを決定し、
     決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、
     前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項47に記載の情報処理装置。
  49.  前記情報処理装置は車両に搭載され、
     前記第1プロセッサは、
     前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、
     前記危険度に応じて、前記カメラのフレームレートを決定し、
     決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、
     前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項48に記載の情報処理装置。
  50.  前記第1プロセッサは、
     前記画像から物体を抽出し、
     前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項47に記載の情報処理装置。
  51.  前記第1プロセッサは、
     前記画像から物体を抽出し、
     前記物体毎にスコアを計算し、
     前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項47に記載の情報処理装置。
  52.  第1の水平画角の第1のカメラと、
     前記第1の水平画角よりも広い第2の水平画角の第2のカメラと、
     前記第1のカメラの撮影方向を調整する調整部と、
     を備え、
     前記第1プロセッサは、前記第2のカメラにより取得された画像において前記第1のカメラの死角にある物体の動きを検知した場合、前記第1のカメラの撮影方向を検知した物体の方向に向けるように前記調整部を制御する、
     請求項1に記載の情報処理装置。
  53.  前記第2のカメラの水平画角は、360°である、
     請求項52に記載の情報処理装置。
  54.  前記調整部の水平方向における撮影方向の調整範囲は、基準方向に対して±135°以内の範囲である、
     請求項53に記載の情報処理装置。
  55.  前記第1のカメラは、前記第2のカメラよりも単位画角当たりの解像度が高い、
     請求項52に記載の情報処理装置。
  56.  前記第1プロセッサは、前記第1のカメラにより取得された画像、及び、前記第2のカメラにより取得された画像を用いて、画像中の物体までの距離の情報を取得する、
     請求項52に記載の情報処理装置。
  57.  画像から抽出した物体の動きを示す動き情報を出力する前記第1プロセッサと、
     画像から抽出した物体の種別を示す種別情報を出力する前記第2プロセッサと、
     前記動き情報及び前記種別情報に基づいて、前記物体に対する応答制御を行う第3プロセッサと、
     自装置が搭載された移動体の外部に設置された外部カメラにより取得された画像及び当該外部カメラの位置情報を取得する取得部と、を備え、
     前記第2プロセッサは、外部カメラにより取得された画像から抽出した物体の種別を示す種別情報を、当該外部カメラの位置情報と関連付けて出力する、
     請求項1に記載の情報処理装置。
  58.  前記第2プロセッサは、外部カメラにより取得された画像から抽出した物体が、前記移動体の進行に影響を及ぼす可能性がある物体である場合に、進行に影響を及ぼす可能性がある物体であることを示す識別情報を付して、当該物体の種別情報を出力する、
     請求項57に記載の情報処理装置。
  59.  前記移動体の進行に影響を及ぼす可能性がある物体は、人又は動物である、
     請求項58に記載の情報処理装置。
  60.  前記取得部は、前記移動体の進行ルートの前方に位置する外部カメラから画像及び位置情報を取得する、
     請求項57に記載の情報処理装置。
  61.  前記取得部は、前記移動体の進行ルートの前方において、自装置から最も近い外部カメラのみから画像及び位置情報を取得する、
     請求項60に記載の情報処理装置。
  62.  前記取得部は、前記移動体の進行ルートを案内するナビゲーションシステムのルート情報に基づいて、前記移動体の進行ルートの前方に位置する外部カメラを特定する、
     請求項60に記載の情報処理装置。
  63.  第1位置、および、前記第1位置とは少なくとも水平方向の位置が異なる第2位置へカメラを順次移動させると共に、前記カメラによって前記第1位置および前記第2位置で各々画像を撮影させる撮影部と、
     前記第1位置で撮影された第1画像および前記第2位置で撮影された第2画像に基づいて、前記第1画像および前記第2画像に各々映っている物体の3次元位置を算出する処理部と、
     を含む、
     請求項1に記載の情報処理装置。
  64.  前記撮影部は、前記カメラが前記第1位置および前記第2位置を各々通る環状の経路に沿って循環移動するように、前記カメラが取り付けられた部材を回転させる移動部を含む、
     請求項63に記載の情報処理装置。
  65.  前記処理部は、外部環境に関するスコアを計算し、計算した前記スコアに応じて前記カメラのフレームレートを決定し、
     前記移動部は、前記処理部によって決定されたフレームレートに応じて前記部材の回転速度を変更する、
     請求項64に記載の情報処理装置。
  66.  前記処理部は、前記第1画像と前記第2画像との撮影時刻差に起因する、前記第1画像および前記第2画像における前記物体の2次元位置の偏差を補正して、前記物体の3次元位置を算出する、
     請求項63に記載の情報処理装置。
  67.  前記処理部は、前記第1位置で第1時刻に撮影された第1画像と前記第1位置で第2時刻に撮影された第1画像とのマッチングを行い、マッチング結果に基づいて、前記第2位置での撮影時刻である第3時刻に前記第1位置で撮影を行った場合に得られる仮想第1画像における前記物体の2次元位置を推定することで、前記物体の2次元位置の偏差を補正する、
     請求項66に記載の情報処理装置。
  68.  前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、
     前記第1カメラで撮像された画像が鮮明でない場合、前記第3プロセッサは、前記第2カメラで撮像された画像を前記第1カメラで撮像された画像の代替として使用する、
     請求項1に記載の情報処理装置。
  69.  前記第1カメラで撮像された画像が鮮明でない場合、前記第3プロセッサは、前記第1カメラで撮像される画像を鮮明にする処理を実行する、
     請求項68に記載の情報処理装置。
  70.  前記第2プロセッサは、自装置の近隣に存在する他装置で撮影された前記物体の画像と、前記物体の位置情報とを用いて、前記第2カメラにより撮像された前記画像の位置情報を取得する、
     請求項1に記載の情報処理装置。
  71.  前記第2プロセッサは、前記他装置からの前記物体の画像及び前記物体の位置情報の送信時間を考慮して、前記第2カメラのフレームと前記他装置からの前記物体の画像のフレームとを同期させる、
     請求項70に記載の情報処理装置。
  72.  前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系を構成する少なくとも2つの座標軸において、前記物体の中心点若しくは重心点の存在位置を示した第1座標値又は前記物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の存在位置を示した第2座標値を、所定のタイミングで切り替えて出力する、
     請求項1に記載の情報処理装置。
  73.  前記第1プロセッサは、所定要因により前記第2カメラにより撮影された前記物体の画像から、撮影された前記物体を前記第2プロセッサが識別できない場合に、出力する座標値を前記第1座標値から前記第2座標値に切り替える、
     請求項72に記載の情報処理装置。
  74.  前記第1プロセッサは、前記物体の移動速度が所定閾値以下の場合、又は前記物体の移動方向が所定方向である場合に、出力する座標値を前記第2座標値から前記第1座標値に切り替える、
     請求項72に記載の情報処理装置。
  75.  前記第1プロセッサから出力された前記第1座標値又は前記第2座標値及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
     請求項72に記載の情報処理装置。
  76.  前記第1プロセッサは、移動体が通行する通行路内に存在する前記物体が前記移動体に接触する可能性が低いと判定できる場合、前記物体についての前記点情報の出力を停止する、
     請求項1に記載の情報処理装置。
  77.  前記第1プロセッサは、前記通行路内において前記移動体の移動ルート上に前記物体が存在せず、かつ前記移動ルートから前記物体が離れていく場合に、前記物体が前記移動体に接触する可能性が低いと判定する、
     請求項76に記載の情報処理装置。
  78.  前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報を出力すると共に、前記点情報の時系列から、点の動きを示す動き情報を算出して出力し、
     前記第1プロセッサから出力された前記動き情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、
     前記第3プロセッサは、動きの方向が対応する複数の物体の動き情報が検知された場合、前記複数の物体の動き情報を除去し、残りの前記動き情報と、前記識別情報を対応付ける、
     請求項1に記載の情報処理装置。
  79.  前記第1プロセッサは、前記点情報の時系列から、ハフ変換を用いて、点の動きの方向を算出し、
     前記算出された点の動きの方向の点情報の変化から、動きの速度を算出する、
     請求項78に記載の情報処理装置。
  80.  前記第3プロセッサは、前記第1プロセッサから出力された前記動き情報及び前記第2プロセッサから出力された前記識別情報を対応付け、前記動き情報及び前記識別情報に基づいて、移動体の自動運転を制御する、
     請求項78に記載の情報処理装置。
  81.  少なくとも1つのプロセッサを備え、
     前記プロセッサは、
     カメラにより撮影された前記物体の画像から、前記点情報を出力し、
     複数フレームの画像から出力された前記点情報に基づいて、移動方向が上下方向の何れかの方向で、かつ同じ方向であり、上下方向の移動量が一定範囲内の点を一定数以上検出した場合、前記点情報に含まれる点の中から、検出した一定数以上の点以外の点のみを出力する、
     請求項1に記載の情報処理装置。
  82.  前記プロセッサは、前記カメラが設けられた移動体が直進中である場合、検出した一定数以上の点の中から、左右方向の移動量が閾値以上の点を更に出力する、
     請求項81に記載の情報処理装置。
  83.  第1移動体に対して用いられる第1移動体プロセッサを備え、
     前記第1移動体プロセッサは、
     前記第1移動体の周囲が撮影されることによって得られた第1画像に基づいて、前記第1移動体の周囲に含まれる第1物体の種類を認識し、
     第2移動体に対して用いられる第2移動体プロセッサは、前記第2移動体の周囲が撮影されることによって得られた第2画像に基づいて、前記第2移動体の周囲に含まれる第2物体の種類を認識し、
     前記第1移動体プロセッサによって前記第1物体の種類として前記第2移動体が認識されており、かつ、前記第2移動体プロセッサによって前記第2物体の種類として前記第1移動体が認識されている場合に、前記第1移動体プロセッサは、前記第2移動体プロセッサによって前記第1移動体が認識されていることを示す識別子を設定する、
     請求項1に記載の情報処理装置。
  84.  前記第2移動体は、自動運転が可能な移動体であり、
     前記第1移動体プロセッサは、
     前記第1移動体プロセッサによって前記第1物体の種類として前記第2移動体が認識されており、前記第2移動体プロセッサによって前記第2物体の種類として前記第1移動体が認識されており、かつ、前記第2移動体が自動運転中である場合に、前記第1移動体プロセッサは、前記識別子を設定する、
     請求項83に記載の情報処理装置。
  85.  前記第1移動体及び前記第2移動体は、自動運転が可能な移動体であり、
     前記第1移動体プロセッサは、
     前記識別子が設定されており、かつ、前記第2移動体が自動運転中である場合に、前記第2移動体の挙動に基づいて前記第1移動体の自動運転を制御する、
     請求項83に記載の情報処理装置。
  86.  前記第2移動体プロセッサは、前記第2移動体の自動運転を制御し、
     前記第1移動体プロセッサは、
     前記挙動を示す情報として、前記第2移動体プロセッサが前記第2移動体の自動運転を制御する制御情報を取得し、
     前記制御情報に基づいて前記第1移動体の自動運転を制御する、
     請求項85に記載の情報処理装置。
  87.  前記第1移動体には、第1優先順位が付与されており、
     前記第2移動体には、第2優先順位が付与されており、
     前記第1移動体プロセッサは、前記第1優先順位が前記第2優先順位よりも高いことを条件に前記制御情報を取得する、
     請求項86に記載の情報処理装置。
  88.  前記第1移動体プロセッサは、
     前記第1画像を得るために行われる撮影のフレームレートよりも高いフレームレートで前記第1移動体の周囲が撮影されることにより得られた第3画像に基づいて前記第1物体を点として捉えた第1点情報を出力し、
     前記第1移動体プロセッサによって前記第1物体の種類として認識された前記第2移動体を特定可能な第2移動体情報と前記第1点情報とを対応付け、
     対応付けた前記第2移動体情報及び前記第1点情報に基づいて前記第1移動体の自動運転を制御する、
     請求項85に記載の情報処理装置。
  89.  前記第1移動体プロセッサは、第1プロセッサ、第2プロセッサ、及び第3プロセッサを有し、
     前記第1プロセッサは、前記第1点情報を出力し、
     前記第2プロセッサは、前記第1画像に基づいて前記第1物体の種類を認識し、
     前記第3プロセッサは、前記第2移動体情報と前記第1点情報とを対応付け、かつ、前記第1移動体の自動運転を制御する、
     請求項88に記載の情報処理装置。
  90.  前記第2移動体は、自動運転が可能な移動体であり、
     前記第2移動体プロセッサは、
     前記第2画像を得るために行われる撮影のフレームレートよりも高いフレームレートで前記第2移動体の周囲が撮影されることにより得られた第4画像に基づいて前記第2物体を点として捉えた第2点情報を出力し、
     前記第2移動体プロセッサによって前記第2物体の種類として認識された前記第1移動体を特定可能な第1移動体情報と前記第2点情報とを対応付け、
     対応付けた前記第1移動体情報及び前記第2点情報に基づいて前記第2移動体の自動運転を制御する制御処理を行い、
     前記第1移動体プロセッサは、前記第1移動体プロセッサによって前記第1物体の種類として前記第2移動体が認識されており、前記第2移動体プロセッサによって前記第2物体の種類として前記第1移動体が認識されており、かつ、前記第2移動体プロセッサによって前記制御処理が行われている場合に、前記識別子を設定する、
     請求項83に記載の情報処理装置。
  91.  前記第1移動体プロセッサは、前記第1移動体と前記第2移動体との接触を回避可能な制御内容で前記第1移動体の自動運転を制御する、
     請求項85に記載の情報処理装置。
  92.  前記第1移動体プロセッサは、前記識別子が設定された場合に、前記第2移動体プロセッサによって前記第1移動体が認識されていることを報知装置に対して報知させる、
     請求項83に記載の情報処理装置。
  93.  少なくとも1つのプロセッサを含む情報処理装置であって、
     前記プロセッサは、
     撮像された物体の画像を、第1のフレームレートで出力し、
     前記第1のフレームレートで出力される画像の各々について、その画像に含まれる物体の種別を示すラベル情報を導出し、
     撮像された物体の画像からその物体の存在位置を示す位置情報を、前記第1のフレームレートよりも高い第2のフレームレートで出力し、
     前記第2のフレームレートで順次出力される位置情報のうち、前記第1のフレームレートで出力される画像の出力タイミングに対応する各時点における位置情報と、その位置情報に対応する物体と同一の物体について導出された前記ラベル情報とを対応付ける、
     請求項1に記載の情報処理装置。
  94.  前記プロセッサは、前記第2のフレームレートで出力される位置情報のうち、前記ラベル情報との対応付けが行われていない位置情報について、直前に対応付けられた前記ラベル情報を対応付ける、
     請求項93に記載の情報処理装置。
  95.  前記プロセッサは、前記物体の存在位置を示す少なくとも1つの点を前記位置情報として出力する、
     請求項93に記載の情報処理装置。
  96.  前記プロセッサは、
     前記第1のフレームレートで出力される解像度が相対的に高い第1の画像に基づいて前記ラベル情報を導出し、
     解像度が相対的に低い第2の画像に基づいて前記位置情報を導出する、
     請求項93に記載の情報処理装置。
  97.  前記第3プロセッサは、前記第1カメラにより撮影された第1画像に写る物体と前記第2カメラにより撮影された第2画像に写る物体のうち、所定の条件を満たす物体を、同一の物体であると判定し、同一であると判定された物体について、前記点情報と前記識別情報との対応付けを行う、
     請求項2に記載の情報処理装置。
  98.  前記所定の条件は、前記第1画像に写る物体と前記第2画像に写る物体の位置関係が整合することを第1の条件として含み、前記第1画像に写る物体と前記第2画像に写る輪郭が整合することを第2の条件として含み、前記第1画像に写る物体について推定される当該物体の種別と、前記第2画像に写る物体について推定される当該物体の種別が整合することを第3の条件として含み、
     前記第3プロセッサは、前記第1の条件、前記第2の条件及び前記第3の条件の少なくとも1つを満たす場合に、前記第1画像に写る物体と前記第2画像に写る物体が同一の物体であると判定する、
     請求項97に記載の情報処理装置。
  99.  抽出部と、統合部と、推定部と、更新部とを含む情報処理装置であって、
     前記抽出部は、物体が写る画像から時刻tの前記物体の2次元空間上の存在位置を示す第1平面座標を抽出し、
     前記統合部は、前記物体の3次元空間上の奥行き方向について検知された第1奥行き情報と、前記第1平面座標と前記第1奥行き情報とを結合し、時刻tにおける前記物体の3次元座標を生成し、
     前記抽出部は、時刻tの次の時刻の前記物体の2次元空間上の存在位置を示す第2平面座標を抽出し、
     前記推定部は、前記物体が存在する空間の形状情報と、前記第1平面座標から前記第2平面座標への変化とに基づいて、前記次の時刻に対応する第2奥行き情報を推定し、
     前記更新部は、前記第2平面座標と、推定された前記第2奥行き情報とを統合し、前記次の時刻における前記物体の3次元座標を更新する、
     請求項1に記載の情報処理装置。
  100.  前記統合部は、センサで検出された点群データから前記第1奥行き情報を検知する、
     請求項99に記載の情報処理装置。
  101.  前記物体の移動後の前記次の時刻の前記第2平面座標を抽出した場合に、前記次の時刻に対応する前記点群データから得られる奥行き情報を取得できていない場合に、前記第2奥行き情報の推定、及び前記更新を実行する、
     請求項100に記載の情報処理装置。
  102.  前記形状情報は、高解像度カメラにより取得した画像及びセンサが検出した点群データから得られる路面の形状と、予め設定された前記物体の形状を含み、
     前記推定部は、前記路面の形状に対して移動する前記物体の形状が、前記第1平面座標から前記第2平面座標に変化したときの奥行き方向の移動量を計算することにより、前記第2奥行き情報を推定する、
     請求項99に記載の情報処理装置。
  103.  前記物体の存在位置を示す座標に対応する点を前記物体の輪郭を表すボックスの頂点における複数の点の各々として、
     前記抽出部は、前記点の各々について、当該点の前記第1平面座標及び前記第2平面座標を抽出し、
     前記統合部は、前記点の各々について、当該点の前記物体の3次元座標を生成し、
     前記推定部は、前記点の各々について、当該点の前記第2奥行き情報を推定し、
     前記更新部は、前記点の各々について、当該点の前記物体の3次元座標を更新する、
     請求項99に記載の情報処理装置。
  104.  前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、
     前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する、
     請求項1に記載の情報処理装置。
  105.  前記第1プロセッサは、第1時点において、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出し、
     前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、第1時点の次の時点である第2時点における前記奥行き方向の座標値を導出する、
     請求項104に記載の情報処理装置。
  106.  前記第1プロセッサは、前記優先度について、前記識別情報が示す物体の挙動の有無に応じて、挙動を生じる物体には高い優先度を定め、挙動を生じない物体には前記高い優先度よりも低い優先度を定める、
     請求項104に記載の情報処理装置。
  107.  前記第1プロセッサは、前記優先度について、前記挙動を生じる物体について、当該物体の危険因子に応じたより高い優先度を定める、
     請求項106に記載の情報処理装置。
  108.  前記第1プロセッサは、前記点情報の数が所定数以上の場合に、前記優先度で次の時点の前記点情報を導出する、
     請求項107に記載の情報処理装置。
  109.  前記第1プロセッサは、前記点情報について、前記画像についての所定の条件を満たす各時点において、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
     請求項1に記載の情報処理装置。
  110.  前記第1プロセッサは、前記所定の条件を満たす各時点を第2時点として、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する、
     請求項109に記載の情報処理装置。
  111.  前記第1プロセッサは、前記所定の条件を、前記第1時点の前記幅方向及び前記高さ方向の座標値に対する、前記第2時点の前記幅方向及び前記高さ方向の座標値の変化量として、当該変化量に対して予め定めた頻度で、前記奥行き方向の座標値を導出する、
     請求項110に記載の情報処理装置。
  112.  前記第1プロセッサは、前記点情報について、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出し、
     前記第1プロセッサは、所定のセンサ情報から前記奥行き方向の座標値の補正情報を学習する、
     請求項1に記載の情報処理装置。
  113.  前記第1プロセッサは、導出した前記奥行き方向の座標値と、所定のセンサで検出した前記奥行き方向の座標値との差異が閾値以上の場合に、前記センサ情報を収集し、収集したセンサ情報における特定の走行状況に対して前記補正情報を学習する、
     請求項112に記載の情報処理装置。
  114.  前記第1プロセッサは、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する、
     請求項113に記載の情報処理装置。
  115.  車両に関連する複数の情報を取得可能な情報取得部と、
     深層学習を用い、前記情報取得部が取得した前記複数の情報から複数のインデックス値を推論する推論部と、
     前記複数のインデックス値に基づいて前記車両の運転制御を実行する運転制御部と、を備える、
     請求項1に記載の情報処理装置。
  116.  前記推論部は、前記深層学習を用いた積分法による多変量解析により、前記複数の情報から前記複数のインデックス値を推論する、
     請求項115に記載の情報処理装置。
  117.  前記情報取得部は、10億分の1秒単位で前記複数の情報を取得し、前記推論部及び運転制御部は、10億分の1秒単位で取得された前記複数の情報を用いて、前記複数のインデックス値の推論及び前記車両の運転制御を10億分の1秒単位で実行する、
     請求項115に記載の情報処理装置。
  118.  前記車両が目的地に到達するまでの走行戦略を設定する戦略設定部を更に備え、
     前記走行戦略は、前記目的地までの最適ルート、走行速度、tilt、ブレーキングの少なくとも1つの理論値を含み、
     前記運転制御部は、前記複数のインデックス値と前記理論値との差分に基づいて前記走行戦略を更新する戦略更新部を備える、
     請求項115に記載の情報処理装置。
  119.  前記情報取得部は、前記車両の下部に設けられて走行する地面の温度、材質及びtiltを検出可能なセンサを備える、
     請求項115に記載の情報処理装置。
  120.  車両の自動運転を制御する前記車両に搭載された制御装置の作動に関わる物体を検出した検出結果を取得する取得部と、
     前記検出結果に基づいて、前記制御装置における冷却を実行する実行部と
     を備える、
     請求項1に記載の情報処理装置。
  121.  前記取得部は、前記検出結果として、物体の1フレームの画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を100フレーム/秒以上のフレームレートで取得する、
     請求項120に記載の情報処理装置。
  122.  前記検出結果を用いて、前記制御装置の作動を予測する予測部をさらに備え、
     前記予測部は、前記検出結果と、前記検出結果が取得された際の前記制御装置の作動状況と、を学習データとした機械学習によって生成された学習モデルを用いて、前記制御装置の作動を予測する、
     請求項121に記載の情報処理装置。
  123.  前記予測部は、前記制御装置における複数の部位のそれぞれの温度変化をさらに予測し、
     前記実行部は、前記制御装置における前記部位の冷却を制御する、
     請求項122に記載の情報処理装置。
  124.  車両に備えた複数のセンサ情報のうち、予め定められた数のセンサ情報の複数の組み合わせ毎に、前記車両の4つの車輪それぞれの車輪速、傾き、及び前記車輪を支持するサスペンション毎の、当該車輪速、当該傾き、及び当該サスペンションを制御するためのインデックス値を算出し、前記インデックス値を集約して当該車輪速、当該傾き、及び当該サスペンション毎の制御変数を算出する算出部と、
     前記制御変数に基づいて、自動運転を制御する制御部と、を備える、
     請求項1に記載の情報処理装置。
  125.  前記算出部は、深層学習を用いた積分法による多変量解析により、前記インデックス値から前記制御変数を算出する、
     請求項124に記載の情報処理装置。
  126.  前記制御部は、前記制御変数に基づいて、10億分の1秒単位で前記自動運転を制御する、
     請求項124に記載の情報処理装置。
  127.  車両の周囲の状況を検出する周期として、前記車両の周囲を撮影する第1周期より短い第2周期で前記車両の周囲の状況を検出するセンサを含む検出部から前記車両に関連する複数の情報を取得する取得部と、
     前記取得された複数の情報から前記車両の周囲の状況に関するインデックス値を算出し、算出されたインデックス値から前記車両の挙動を制御するための制御変数を算出する算出部と、
     前記算出した前記制御変数に基づいて、前記車両の挙動を制御する制御部と、を備える、
     請求項1に記載の情報処理装置。
  128.  前記算出部は、深層学習を用いた積分法による多変量解析により、前記インデックス値から前記制御変数を算出する、
     請求項127に記載の情報処理装置。
  129.  前記取得部は、10億分の1秒単位で前記複数の情報を取得し、前記算出部は、10億分の1秒単位で取得された前記複数の情報を用いて、前記インデックス値の算出及び前記制御変数を10億分の1秒単位で実行する、
     請求項127に記載の情報処理装置。
  130.  前記算出部は、前記取得された複数の情報に基づいて、前記車両に対する対象物の衝突を予測し、前記予測した予測結果が、不可避な衝突を示す場合、前記不可避な衝突における前記車両に発生する損害が予め定めた閾値以下の損害に対応する制御変数を前記制御変数として算出する、
     請求項127に記載の情報処理装置。
  131.  前記車両に発生する損害は、前記車両の変形位置及び変形量の少なくとも1つである、
     請求項130に記載の情報処理装置。
  132.  前記車両に発生する損害に対応する制御変数は、車両の衝突角度、及び車速の少なくとも1つである、
     請求項130に記載の情報処理装置。
  133.  前記第1プロセッサは、物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項1に記載の情報処理装置。
  134.  前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、
     前記第1プロセッサは、
     外部環境に関するスコアを計算し、
     前記スコアに応じて、前記カメラのフレームレートを決定し、
     決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、
     前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項133に記載の情報処理装置。
  135.  前記情報処理装置は車両に搭載され、
     前記第1プロセッサは、
     前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、
     前記危険度に応じて、前記カメラのフレームレートを決定し、
     決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、
     前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項134に記載の情報処理装置。
  136.  前記第1プロセッサは、
     前記画像から物体を抽出し、
     前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項133に記載の情報処理装置。
  137.  前記第1プロセッサは、
     前記画像から物体を抽出し、
     前記物体毎にスコアを計算し、
     前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項133に記載の情報処理装置。
  138.  カメラを含む一対のカメラユニットと、プロセッサとを備えた車両であって、
     第1のカメラユニットは、車両前方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、
     第2のカメラユニットは、車両後方の物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力し、
     前記プロセッサは、前記第1のカメラユニット及び前記第2のカメラユニットから出力された物体の存在位置に基づいて前記車両の走行を制御する、
     車両。
  139.  前記各カメラユニットが有する前記カメラは、フレームレートを変更することが可能であり、
     前記第1のカメラユニット及び前記第2のカメラユニットの一方は、
     前記第1のカメラユニット及び前記第2のカメラユニットの他方における物体の検知状況に応じて、前記カメラのフレームレートを設定し、
     設定された前記フレームレートにより撮像された前記カメラの画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
     請求項138に記載の車両。
  140.  前記カメラよりも高解像度の高解像度カメラを備え、かつ前記各カメラユニットのそれぞれに接続される他のカメラユニットをさらに備え、
     前記各カメラユニットは、前記高解像度カメラの情報に基づいて特定された物体の情報を取得可能であって、
     前記第1のカメラユニット及び前記第2のカメラユニットの一方は、
     前記第1のカメラユニット及び前記第2のカメラユニットの他方が有する物体の情報を取得する、
     請求項138又は139に記載の車両。
  141.  第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
     前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
     処理をコンピュータが実行する情報処理方法。
  142.  コンピュータに、
     第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
     前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
     処理を実行させるための情報処理プログラム。
PCT/JP2023/038227 2022-10-24 2023-10-23 情報処理装置、車両、情報処理方法、及び情報処理プログラム WO2024090390A1 (ja)

Applications Claiming Priority (68)

Application Number Priority Date Filing Date Title
JP2022170165 2022-10-24
JP2022-170165 2022-10-24
JP2022172777 2022-10-27
JP2022-172777 2022-10-27
JP2022-175679 2022-11-01
JP2022175679 2022-11-01
JP2022175698A JP2024064911A (ja) 2022-10-27 2022-11-01 情報処理装置
JP2022-175698 2022-11-01
JP2022-181362 2022-11-11
JP2022181362 2022-11-11
JP2022-182131 2022-11-14
JP2022182131 2022-11-14
JP2022186040 2022-11-21
JP2022-186040 2022-11-21
JP2022187648 2022-11-24
JP2022-187649 2022-11-24
JP2022-187648 2022-11-24
JP2022187649 2022-11-24
JP2022-189546 2022-11-28
JP2022189546 2022-11-28
JP2022-209070 2022-12-26
JP2022209070A JP2024066379A (ja) 2022-11-01 2022-12-26 車両
JP2023000321A JP2024066383A (ja) 2022-11-01 2023-01-04 情報処理装置
JP2023-000321 2023-01-04
JP2023036969A JP2024062332A (ja) 2022-10-24 2023-03-09 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-036967 2023-03-09
JP2023036977A JP2024062340A (ja) 2022-10-24 2023-03-09 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023036972A JP2024062335A (ja) 2022-10-24 2023-03-09 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-036974 2023-03-09
JP2023-036968 2023-03-09
JP2023036976A JP2024062339A (ja) 2022-10-24 2023-03-09 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023036968A JP2024062331A (ja) 2022-10-24 2023-03-09 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023036967 2023-03-09
JP2023036973A JP2024062336A (ja) 2022-10-24 2023-03-09 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-036969 2023-03-09
JP2023-036973 2023-03-09
JP2023036974A JP2024062337A (ja) 2022-10-24 2023-03-09 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-036977 2023-03-09
JP2023-036976 2023-03-09
JP2023-036972 2023-03-09
JP2023059411A JP2024062342A (ja) 2022-10-24 2023-03-31 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-059411 2023-03-31
JP2023-068062 2023-04-18
JP2023068062A JP2024062347A (ja) 2022-10-24 2023-04-18 情報処理装置、情報処理方法及び情報処理プログラム
JP2023069618A JP2024062348A (ja) 2022-10-24 2023-04-20 情報処理装置
JP2023-069618 2023-04-20
JP2023-070394 2023-04-21
JP2023070394A JP2024062349A (ja) 2022-10-24 2023-04-21 情報処理装置
JP2023075259A JP2024062351A (ja) 2022-10-24 2023-04-28 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-075259 2023-04-28
JP2023076253A JP2024062352A (ja) 2022-10-24 2023-05-02 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023076261A JP2024062353A (ja) 2022-10-24 2023-05-02 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-076253 2023-05-02
JP2023-076261 2023-05-02
JP2023076943A JP2024062354A (ja) 2022-10-24 2023-05-08 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-076943 2023-05-08
JP2023-076944 2023-05-08
JP2023076944A JP2024062355A (ja) 2022-10-24 2023-05-08 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023080353A JP2024062358A (ja) 2022-10-24 2023-05-15 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-080353 2023-05-15
JP2023083452 2023-05-19
JP2023-083452 2023-05-19
JP2023-084121 2023-05-22
JP2023084121A JP2024062362A (ja) 2022-10-24 2023-05-22 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-084860 2023-05-23
JP2023084860A JP2024062363A (ja) 2022-10-24 2023-05-23 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023104424A JP2024062374A (ja) 2022-10-24 2023-06-26 情報処理装置、情報処理方法、及び情報処理プログラム
JP2023-104424 2023-06-26

Publications (1)

Publication Number Publication Date
WO2024090390A1 true WO2024090390A1 (ja) 2024-05-02

Family

ID=90830752

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/038227 WO2024090390A1 (ja) 2022-10-24 2023-10-23 情報処理装置、車両、情報処理方法、及び情報処理プログラム

Country Status (1)

Country Link
WO (1) WO2024090390A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20200374470A1 (en) * 2017-11-15 2020-11-26 Samsung Electronics Co., Ltd. Image photographing method of electronic device and same electronic device
WO2021198775A1 (en) * 2020-04-01 2021-10-07 Mobileye Vision Technologies Ltd. Control loop for navigating a vehicle
JP2021165914A (ja) * 2020-04-06 2021-10-14 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP2022023887A (ja) * 2016-12-05 2022-02-08 アビジロン コーポレイション 外観検索のシステムおよび方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022023887A (ja) * 2016-12-05 2022-02-08 アビジロン コーポレイション 外観検索のシステムおよび方法
US20200374470A1 (en) * 2017-11-15 2020-11-26 Samsung Electronics Co., Ltd. Image photographing method of electronic device and same electronic device
WO2021198775A1 (en) * 2020-04-01 2021-10-07 Mobileye Vision Technologies Ltd. Control loop for navigating a vehicle
JP2021165914A (ja) * 2020-04-06 2021-10-14 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置

Similar Documents

Publication Publication Date Title
JP7341864B2 (ja) 3dデータを2d画像データに登録するためのシステム及び方法
US10489686B2 (en) Object detection for an autonomous vehicle
US20240142607A1 (en) Information processing device, information processing method, computer program, and mobile device
JP7374098B2 (ja) 情報処理装置及び情報処理方法、コンピュータプログラム、情報処理システム、並びに移動体装置
CN115375770A (zh) 计算机实现的方法、运载工具、照相机和存储介质
US11880203B2 (en) Methods and system for predicting trajectories of uncertain road users by semantic segmentation of drivable area boundaries
CN115705061A (zh) 用于运载工具的装置和方法
CN115951326A (zh) 对象检测方法、系统和存储介质
US11430218B2 (en) Using a bird's eye view feature map, augmented with semantic information, to detect an object in an environment
CN115713687A (zh) 用于确定对象动态参数的方法、系统和介质
CN110794821B (zh) 车载控制装置、场端定位装置、车辆控制系统及车辆
WO2024090390A1 (ja) 情報処理装置、車両、情報処理方法、及び情報処理プログラム
US20220212694A1 (en) Methods and systems for generating a longitudinal plan for an autonomous vehicle based on behavior of uncertain road users
US11320272B2 (en) Localization adaptation based on weather estimation
CN110775054B (zh) 车载控制装置、场端定位装置、车辆控制系统及车辆
CN110794822A (zh) 车载控制装置、场端定位装置、车辆控制系统及车辆
CN110775055B (zh) 车载控制装置、场端定位装置、车辆控制系统及车辆
US12033338B2 (en) Point cloud alignment systems for generating high definition maps for vehicle navigation
US20230403471A1 (en) Multiple position rolling shutter imaging device
US20240126268A1 (en) Track refinement networks
US20230399026A1 (en) State Identification For Road Actors With Uncertain Measurements Based On Compliant Priors
US20230373529A1 (en) Safety filter for machine learning planners
US20240054661A1 (en) Point cloud alignment systems for generating high definition maps for vehicle navigation
JP2024062321A (ja) 情報処理装置及びプログラム
JP2024062353A (ja) 情報処理装置、情報処理方法、及び情報処理プログラム