WO2020203240A1 - 情報処理装置および情報処理方法 - Google Patents

情報処理装置および情報処理方法 Download PDF

Info

Publication number
WO2020203240A1
WO2020203240A1 PCT/JP2020/011600 JP2020011600W WO2020203240A1 WO 2020203240 A1 WO2020203240 A1 WO 2020203240A1 JP 2020011600 W JP2020011600 W JP 2020011600W WO 2020203240 A1 WO2020203240 A1 WO 2020203240A1
Authority
WO
WIPO (PCT)
Prior art keywords
recognition
unit
predetermined number
image
information processing
Prior art date
Application number
PCT/JP2020/011600
Other languages
English (en)
French (fr)
Inventor
山本 祐輝
竜太 佐藤
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2021511391A priority Critical patent/JPWO2020203240A1/ja
Priority to KR1020217026864A priority patent/KR20210146891A/ko
Priority to EP20783497.9A priority patent/EP3951709A4/en
Priority to US17/440,194 priority patent/US20220012552A1/en
Priority to CN202080023017.2A priority patent/CN113614732A/zh
Publication of WO2020203240A1 publication Critical patent/WO2020203240A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/80Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
    • G06V10/809Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of classification results, e.g. where the classifiers operate on the same input data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures

Definitions

  • the present disclosure relates to an information processing device and an information processing method, and more particularly to an information processing device and an information processing method capable of further improving recognition performance.
  • Patent Document 1 discloses, for example, a neural network system in which a management device receives weight parameters obtained by learning in a plurality of terminal devices and an optimum weight parameter is selected.
  • This disclosure was made in view of such a situation, and is intended to make it possible to further improve the recognition performance.
  • a model to be updated by performing image recognition on a predetermined number of terminals and executing unsupervised learning is set, and image recognition is performed on the predetermined number of terminals. It includes a predetermined number of recognition units that perform image recognition on the performed image, and an evaluation value calculation unit that evaluates the recognition results of the predetermined number of the recognition units and calculates the evaluation value for each recognition unit.
  • the information processing apparatus performs image recognition on a predetermined number of terminals, and the model updated by executing unsupervised learning recognizes a predetermined number of models.
  • image recognition is performed on a predetermined number of images that have been image-recognized by the terminal, and the recognition results of the predetermined number of the recognition units are evaluated, and the evaluation value for each recognition unit is calculated. And include.
  • a model updated by performing image recognition on a predetermined number of terminals and executing unsupervised learning is performed on a predetermined number of terminals in a predetermined number of recognition units set respectively.
  • Image recognition is performed on the image for which image recognition has been performed, the recognition results in a predetermined number of recognition units are evaluated, and the evaluation value for each recognition unit is calculated.
  • the information processing device of the second aspect of the present disclosure is different for the execution unit that executes unsupervised learning for the model of the recognizer that performs image recognition for the image and the model that is updated by the learning in the execution unit.
  • a determination unit for determining whether or not learning has been performed correctly based on an evaluation value obtained by using recognition results obtained by performing image recognition in a predetermined number of models is provided, and the execution unit is included in the determination unit. If it is determined that the training is not performed correctly, the model is returned to the model before the training was performed.
  • the information processing method of the second aspect of the present disclosure is different for the information processing apparatus performing unsupervised learning for the model of the recognizer that performs image recognition for the image and the model updated by the learning. It is determined that the learning is not performed correctly, including determining whether or not the learning is performed correctly based on the evaluation value obtained by using the recognition result of the image recognition performed in the predetermined number of models. If so, return to the model before the training was performed.
  • unsupervised learning is performed on a model of a recognizer that recognizes an image on an image, and image recognition is performed on a predetermined number of different models for the model updated by the learning. Based on the evaluation value obtained by using the recognition result, it is determined whether or not the learning is performed correctly. Then, if it is determined that the training is not performed correctly, the model is returned to the model before the training is performed.
  • FIG. 1 is a diagram schematically showing a processing flow in a conventional learning process.
  • a recognizer CNN that performs image recognition using deep learning is used, and the recognizer CNN has a label for classifying a plurality of subjects shown in the image. An image with a label created in advance is input.
  • the recognizer CNN performs image recognition on a labeled image, recognizes a plurality of subjects shown in the labeled image, and outputs a recognition result in which each subject is classified. Then, the recognition result output from the recognizer CNN is compared with the correct label for the labeled image, and feedback is given to the recognizer CNN so that the recognition result approaches the correct label.
  • FIGS. 2 and 3 are diagrams schematically showing the flow of processing in the learning process to which the present technology is applied.
  • an image in which a correct label is prepared hereinafter referred to as an image with a label
  • an image in which a correct label is not necessarily prepared hereinafter referred to as an unlabeled image.
  • the correct label is not required in the learning process to which the present technology is applied. That is, no correct label is prepared for the two types of input images used in the learning process to which the present technology is applied, and the learning process is performed using such an image.
  • the recognizer CNN1 performs image recognition on an unlabeled image and outputs a recognition result (unlabeled) that classifies a plurality of subjects shown in the unlabeled image. Furthermore, learning that this recognition result is input to the recognizer CNN2 so that the recognizer CNN2 can distinguish between the recognition result (with label) and the recognition result (without label) is the correct answer value (labeled / labeled). None) is used.
  • the recognition result of the recognizer CNN1 for the unlabeled image can be brought closer to the recognition result with the label.
  • the recognizer CNN1 accurately classifies the part of the unlabeled image where the subject could not be classified accurately, and in the example shown in FIG. 2, the boundary between the roadway and the sidewalk on the right side of the recognition result. Will be able to.
  • two images an image of the first environment and an image of the second environment captured in different environments are used.
  • the recognizer CNN1 performs image recognition on the image of the second environment, and outputs a recognition result (second environment) that classifies a plurality of subjects shown in the image of the second environment. Furthermore, the learning that the recognition result is input to the recognizer CNN2 and the recognizer CNN2 can distinguish between the recognition result (first environment) and the recognition result (second environment) is the correct answer value (the correct answer value (2nd environment). It is performed using the first environment / second environment).
  • the recognition result of the recognizer CNN1 for the image of the second environment can be brought closer to the recognition result of the first environment.
  • the recognizer CNN1 can accurately classify the parts of the image in the second environment where the subjects could not be correctly classified, as in the example shown in FIG. Therefore, the learning process is performed so that the image recognition can be performed accurately by using the image of the first environment and the image of the second environment in which the correct label does not exist.
  • the recognizer CNN1 it is possible for the recognizer CNN1 to perform accurate image recognition without preparing a correct label, and to perform accurate image recognition for an unlabeled image. That is, the recognition performance can be improved.
  • the learning process performed without a teacher using an image for which a correct label is not always prepared is hereinafter referred to as a domain adaptation process.
  • FIG. 4 is a block diagram showing a configuration example of an embodiment of a learning system to which the present technology is applied.
  • the learning system 11 shown in FIG. 4 is configured by connecting N vehicles 13-1 to 13-N and a server 14 via a network 12, and each of the vehicles 13-1 to 13-N is a recognizer. have.
  • the vehicles 13-1 to 13-N are configured in the same manner, and hereinafter, when it is not necessary to distinguish between them, they are also simply referred to as a vehicle 13.
  • domain adaptation processing is learned in real time (for example, frame rate level) inside each of the vehicles 13-1 to 13-N with respect to the images captured by the vehicles 13-1 to 13-N. .. Then, in the learning system 11, N images captured in the vehicles 13-1 to 13-N and models of N recognizers are uploaded to the server 14 via the network 12.
  • the server 14 has N recognizers in which N images collected from the vehicles 13-1 to 13-N are composed of models of the vehicles 13-1 to 13-N. It is entered in all of. Then, in the server 14, the integrated recognition result in which the recognition results by the N recognizers are integrated is calculated, and the integrated recognition result and the recognition result of each of the N recognizers are used to obtain individual recognition results. Be evaluated. For example, the calculation of the evaluation value for evaluating the recognition result is performed at regular intervals longer than the frame rate at which the image is captured in the vehicle 13.
  • the server 14 when the evaluation value representing the evaluation for those recognition results is equal to or less than a certain value, the server 14 provides feedback to the vehicle 13 having the recognizer of the model from which the recognition result is obtained. It is said. In response to this, the vehicle 13 rolls back from the model at that time to the state before learning, and discards the input data used for the learning.
  • the recognizers of the vehicles 13-1 to 13-N are configured in the same manner, and the images captured by the respective vehicles 13 are input to the recognizers. The recognition result of image recognition for the image is output.
  • the evaluation and the feedback do not always operate, but only when the verification for the domain adaptation process in the vehicles 13-1 to 13-N is performed, for example, about once every few hours. That is, in the learning system 11, the learning processes are performed at a high frequency on the vehicles 13-1 to 13-N, and the evaluation and feedback are performed at a low frequency on the server 14.
  • FIG. 5 is a block diagram showing a configuration example of the information processing device 21 included in the vehicle 13.
  • the information processing device 21 includes an image acquisition unit 31, a storage unit 32, a domain adaptation processing execution unit 33, a transmission unit 34, a reception unit 35, a determination unit 36, and a recognition processing unit 37. Will be done.
  • the image acquisition unit 31 acquires an image captured by an image pickup device (not shown) mounted on the vehicle 13 and supplies it to the domain adaptation processing execution unit 33 and the recognition processing unit 37.
  • the storage unit 32 stores a model of a recognizer that performs image recognition in the information processing device 21.
  • the storage unit 32 stores an initial model which is a model set as an initial state, the latest model updated by the domain adaptation processing execution unit 33, a model immediately before the update, and the like.
  • the domain adaptation processing execution unit 33 sets the model loaded from the storage unit 32 in the recognizer, and executes the domain adaptation processing for the image supplied from the image acquisition unit 31. Then, the domain adaptation processing execution unit 33 supplies the model set in the recognizer and the image used for image recognition to the transmission unit 34 at the timing when the evaluation and feedback are performed in the server 14, for example. Further, when the model of the recognizer is correctly learned, the domain adaptation processing execution unit 33 can supply the model to the storage unit 32 and update the model. The detailed configuration of the domain adaptation processing execution unit 33 will be described later with reference to FIG.
  • the transmission unit 34 together with the image and the model supplied from the domain adaptation processing execution unit 33, includes additional information (for example, position information of the vehicle 13, vehicle type information, imaging equipment information, imaging condition information, etc.) from a higher-level control device (not shown). ) Is acquired and transmitted to the server 14 via the network 12 of FIG.
  • the receiving unit 35 receives the evaluation value transmitted from the server 14 via the network 12 and supplies it to the determination unit 36.
  • the determination unit 36 compares the evaluation value obtained in the server 14 with a predetermined evaluation value threshold value, determines whether or not the learning has been performed correctly in the domain adaptation processing execution unit 33, and determines the determination result in the domain adaptation processing. Notify the execution unit 33.
  • the recognition processing unit 37 reads the latest model from the storage unit 32, performs recognition processing on the image supplied from the image acquisition unit 31 using the recognizer in which the model is set, and recognizes the image obtained by the recognition processing. Output the result.
  • the recognition result by the recognition processing unit 37 is input to the automatic driving system of the vehicle 13, and the automatic driving of the vehicle 13 is controlled using the recognition result. Therefore, when the recognition processing unit 37 uses the model correctly learned by the domain adaptation processing execution unit 33, the recognition performance of the recognition processing unit 37 can be improved and safer automatic operation can be realized.
  • FIG. 6 is a block diagram showing a configuration example of the domain adaptation processing execution unit 33 of FIG.
  • the domain adaptation processing execution unit 33 is configured to include an environment feature amount calculation unit 41, a domain determination unit 42, and an update value calculation unit 43.
  • the environment feature amount calculation unit 41 and the domain determination unit 33 are included.
  • the recognizer is composed of the unit 42.
  • the environmental feature amount calculation unit 41 calculates the environmental feature amount representing the characteristics of each pixel of the image from the image supplied from the image acquisition unit 31 of FIG. 5 using a predetermined coefficient, and the domain determination unit 42. Supply to.
  • the domain discrimination unit 42 classifies the environmental feature amount supplied from the environmental feature amount calculation unit 41 according to a predetermined threshold value, and discriminates a region consisting of pixels indicating the environmental feature amount classified by the threshold value as one domain. Make a judgment. Then, the domain discrimination unit 42 classifies the domain discrimination result obtained as a result of the domain discrimination for each subject shown in the image, for example, as shown in FIGS. 2 and 3. It is supplied to the updated value calculation unit 43.
  • the update value calculation unit 43 updates the coefficient used for the calculation of the environment feature amount in the environment feature amount calculation unit 41 according to the domain determination result supplied from the domain determination unit 42, and the environment feature amount calculation update value and the domain determination.
  • the domain discrimination update value for updating the threshold used for the domain discrimination in the part 42 is calculated. Then, the update value calculation unit 43 feeds back the environmental feature amount calculation update value to the environment feature amount calculation unit 41, and feeds back the domain discrimination update value to the domain discrimination unit 42.
  • the update value calculation unit 43 uses the coefficient used for calculating the environmental feature amount in the environmental feature amount calculation unit 41 and the threshold value used for domain discrimination in the domain discrimination unit 42 as a model of the recognizer in FIG. It supplies to the transmission unit 34.
  • FIG. 7 is a block diagram showing a configuration example of the information processing device 22 included in the server 14.
  • the information processing device 22 includes a receiving unit 51, N recognition units 52-1 to 52-N, an integrated unit 53, an evaluation calculation unit 54, and a transmitting unit 55.
  • the receiving unit 51 receives images, models, and additional information transmitted from N vehicles 13-1 to 13-N. Then, the receiving unit 51 supplies the models of the recognizers in the N vehicles 13-1 to 13-N to the corresponding recognition units 52-1 to 52-N, respectively. After that, the receiving unit 51 supplies N images and N additional information to all of the recognition units 52-1 to 52-N.
  • the recognition units 52-1 to 52-N set models of N vehicles 13-1 to 13-N, respectively. Then, the recognition units 52-1 to 52-N input the image weighted by the additional information to the model, and supply the recognition result of the image recognition to the integration unit 53 and the evaluation calculation unit 54.
  • the integration unit 53 aggregates the N recognition results supplied from the recognition units 52-1 to 52-N, obtains the integrated recognition results by calculating a weighted average of them, and supplies them to the evaluation calculation unit 54. To do.
  • the evaluation calculation unit 54 sets each of the recognition units 52-1 to 52-N by using the integrated recognition result supplied from the integration unit 53 and the recognition result supplied from the recognition units 52-1 to 52-N. An evaluation value for individually evaluating the model is calculated and supplied to the transmission unit 55.
  • the transmission unit 55 transmits the evaluation values for the models of the individual recognizers supplied from the evaluation calculation unit 54 to the corresponding vehicles 13 among the N vehicles 13-1 to 13-N.
  • threshold processing is performed using the load mean value using the distance.
  • the integrated recognition result R ij and the evaluation value D n are obtained by calculating the following equation (1) using W, the index set H of the image height, and the interdomain distance d n calculated using the additional information. Can be calculated.
  • the inter-domain distance d n it is possible to obtain it based on a rule base, or to use the distance to the center after clustering with additional information.
  • the inter-domain distance d n based on the rule base uses the constant a (> 0), the straight line distance d from the starting point, and the difference b car defined in advance for each vehicle type, and uses the following equation ( It can be obtained by calculating 2).
  • the difference b car can be comprehensively set from the height of the vehicle body, the mounting position and posture of the image pickup device, the type of the image pickup device (resolution and angle of view), and the like.
  • the inter-domain distance d n based on the rule base uses the constant a (> 0), the number k of the boundaries, and the difference b car defined in advance for each vehicle type, and uses the following equation (3). It can be obtained by calculating.
  • the boundary in the number k of the boundary can be classified into a unique classification such as a straddling city, prefecture, or state.
  • the distance from the center after clustering with the additional information is obtained by clustering the additional information in various vehicles 13 and the environment acquired in the past by, for example, the k-means method, and the center of the cluster (centroid). ) Is calculated. Then, the additional information a i corresponding to the input image, and using the center c n of the cluster which the additional information belongs for each recognizer is obtained by calculating the following equation (4).
  • evaluation value D n is transmitted from the server 14 to each of the vehicles 13-1 to 13-N, and as described above, the evaluation value D n is compared with the evaluation value threshold values D threshold , n in the determination unit 36. .. Then, evaluation value D n evaluation value threshold D thresh, if more than n, it is determined correctly learning it has been performed with.
  • FIG. 8 is a flowchart illustrating information processing on the vehicle 13 side executed by the information processing device 21.
  • the processing is started, and in step S11, the domain adaptation processing execution unit 33 stores the initial model from the storage unit 32. Load and set in the recognizer.
  • step S12 the image acquisition unit 31 acquires the image captured by the imaging device and supplies it to the domain adaptation processing execution unit 33.
  • step S13 the domain adaptation processing execution unit 33 executes the domain adaptation processing (see the flowchart of FIG. 9) for the image supplied from the image acquisition unit 31 in step S12, and sets the model in the recognizer. Update.
  • step S14 when it is time for the server 14 to perform evaluation and feedback, the domain adaptation processing execution unit 33 supplies the image and model to the transmission unit 34, and the transmission unit 34 supplies the image, model, and additional information to the server. Send to 14.
  • step S15 the receiving unit 35 receives an evaluation value D n transmitted as a result of information processing (see the flowchart of FIG. 10) is performed in the server 14, and supplies the determining unit 36.
  • step S16 the determination unit 36 compares the evaluation value D n supplied from the reception unit 35 in step S15 with the evaluation value thresholds D threshold , n, and whether or not the domain adaptation processing execution unit 33 correctly learns. To judge. For example, the determination unit 36 determines that learning has been performed correctly if the evaluation value D n is the evaluation value threshold D threshold , n or more (D n ⁇ D threshold , n ), and the evaluation value D n is the evaluation value threshold D. If it is less than threshold, n (D n ⁇ D threshold, n ), it is determined that learning has not been performed correctly.
  • step S16 If the determination unit 36 determines in step S16 that the domain adaptation processing execution unit 33 has not correctly learned, the process proceeds to step S17.
  • step S17 the determination unit 36 notifies the domain adaptation processing execution unit 33 of the determination result, and the domain adaptation processing execution unit 33 changes the model set in the recognizer to the original model before the update. return. After that, the process returns to step S12, and the same process is repeated thereafter.
  • step S16 determines in step S16 that the domain adaptation processing execution unit 33 has correctly learned.
  • step S18 the domain adaptation processing execution unit 33 determines whether or not to continue the information processing for updating the model of the recognizer.
  • step S18 If the domain adaptation processing execution unit 33 determines in step S18 that the information processing for updating the model of the recognizer is to be continued, the processing returns to step S12, and the same processing is repeated thereafter. On the other hand, in step S18, when the domain adaptation processing execution unit 33 determines that the information processing for updating the model of the recognizer is not continued, the processing is terminated.
  • the information processing apparatus 21 can determine whether or not the updated recognizer model is correctly learned by performing the domain adaptation process based on the evaluation value from the server 14. .. As a result, it is possible to make a more accurate determination than to determine whether or not the information processing device 21 is performing learning correctly by itself, and it is possible to improve the recognition performance.
  • FIG. 9 is a flowchart illustrating the domain adaptation process performed in step S13 of FIG.
  • step S21 the domain adaptation processing execution unit 33 determines whether or not the image from the image acquisition unit 31 could be acquired, and if it is determined that the image cannot be acquired, the processing is performed. finish. Then, if it is determined in step S21 that the image could be acquired, the process proceeds to step S22.
  • step S22 the environmental feature amount calculation unit 41 calculates the environmental feature amount representing the feature for each pixel from the acquired image using a predetermined coefficient, and supplies it to the domain determination unit 42.
  • step S23 the domain discrimination unit 42 classifies the environmental feature amount supplied from the environmental feature amount calculation unit 41 in step S22 according to a predetermined threshold value, and sets a region consisting of pixels indicating the environmental feature amount classified by the threshold value. Domain discrimination for discriminating as one domain is performed, and the domain discrimination result obtained as a result is supplied to the update value calculation unit 43.
  • step S24 the update value calculation unit 43 updates the coefficient used for the calculation of the environmental feature amount in the environmental feature amount calculation unit 41 according to the domain discrimination result supplied from the domain discrimination unit 42 in step S23.
  • the update value and the domain discrimination update value for updating the threshold used for domain discrimination in the domain discrimination unit 42 are calculated.
  • step S25 the update value calculation unit 43 feeds back the environmental feature amount calculation update value to the environment feature amount calculation unit 41 and feeds back the domain discrimination update value to the domain discrimination unit 42.
  • the process is terminated after the model of the recognizer including the environmental feature amount calculation unit 41 and the domain discrimination unit 42 is updated.
  • FIG. 10 is a flowchart illustrating information processing on the server 14 side executed by the information processing device 22.
  • step S31 the receiving unit 51 receives the image, model, and additional information transmitted in step S14 of FIG. 8 in the N vehicles 13-1 to 13-N. Then, the receiving unit 51 supplies the models of the recognizers in the N vehicles 13-1 to 13-N to the corresponding recognition units 52-1 to 52-N, respectively, and N images and N additions. Each piece of information is supplied to all of the recognition units 52-1 to 52-N.
  • step S32 the recognition units 52-1 to 52-N set models of N vehicles 13-1 to 13-N, respectively, and perform image recognition on the image weighted by the additional information. Then, the recognition units 52-1 to 52-N supply the recognition result of image recognition to the integration unit 53 and the evaluation calculation unit 54.
  • step S33 the integration unit 53 obtains the integrated recognition result Rij from the N recognition results supplied from the recognition units 52-1 to 52-N in step S32, and supplies the integrated recognition result R ij to the evaluation calculation unit 54.
  • step S34 the evaluation calculation unit 54 uses the integrated recognition result Rij supplied from the integration unit 53 in step S33 and the recognition result supplied from the recognition units 52-1 to 52-N in step S32.
  • the model set in the recognition unit 52-1 to 52-n respectively calculates an evaluation value D n be assessed separately.
  • the evaluation calculation unit 54 supplies the transmitting section 55 an evaluation value D n.
  • step S35 the transmitting unit 55, an evaluation value D n supplied from the evaluation calculation unit 54 in step S34, and transmits to the corresponding vehicle 13-n among the N of vehicles 13-1 to 13-N.
  • the transmitter 55 is, after transmitting the evaluation value D n to the respective N of vehicles 13-1 to 13-N, the processing is terminated.
  • the model set in each of the recognition units 52-1 to 52-N is set by using the integrated recognition result in which the recognition results in the recognition units 52-1 to 52-N are integrated. Can be evaluated comprehensively.
  • FIG. 11 is a block diagram showing a configuration example of an embodiment of a computer in which a program for executing the above-mentioned series of processes is installed.
  • the program can be recorded in advance on the hard disk 105 or ROM 103 as a recording medium built in the computer.
  • the program can be stored (recorded) in the removable recording medium 111 driven by the drive 109.
  • a removable recording medium 111 can be provided as so-called package software.
  • examples of the removable recording medium 111 include a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto Optical) disk, a DVD (Digital Versatile Disc), a magnetic disk, and a semiconductor memory.
  • the program can be downloaded to the computer via a communication network or a broadcasting network and installed on the built-in hard disk 105. That is, for example, the program transfers wirelessly from a download site to a computer via an artificial satellite for digital satellite broadcasting, or transfers to a computer by wire via a network such as LAN (Local Area Network) or the Internet. be able to.
  • LAN Local Area Network
  • the computer has a built-in CPU (Central Processing Unit) 102, and the input / output interface 110 is connected to the CPU 102 via the bus 101.
  • CPU Central Processing Unit
  • the CPU 102 executes a program stored in the ROM (Read Only Memory) 103 accordingly. .. Alternatively, the CPU 102 loads the program stored in the hard disk 105 into the RAM (Random Access Memory) 104 and executes it.
  • ROM Read Only Memory
  • the CPU 102 performs processing according to the above-mentioned flowchart or processing performed according to the above-mentioned block diagram configuration. Then, the CPU 102 outputs the processing result from the output unit 106, transmits it from the communication unit 108, or records it on the hard disk 105, if necessary, via, for example, the input / output interface 110.
  • the input unit 107 is composed of a keyboard, a mouse, a microphone, and the like. Further, the output unit 106 is composed of an LCD (Liquid Crystal Display), a speaker, or the like.
  • LCD Liquid Crystal Display
  • the processing performed by the computer according to the program does not necessarily have to be performed in chronological order in the order described as the flowchart. That is, the processing performed by the computer according to the program also includes processing executed in parallel or individually (for example, parallel processing or processing by an object).
  • the program may be processed by one computer (processor) or may be distributed processed by a plurality of computers. Further, the program may be transferred to a distant computer and executed.
  • the system means a set of a plurality of components (devices, modules (parts), etc.), and it does not matter whether all the components are in the same housing. Therefore, a plurality of devices housed in separate housings and connected via a network, and a device in which a plurality of modules are housed in one housing are both systems. ..
  • the configuration described as one device (or processing unit) may be divided and configured as a plurality of devices (or processing units).
  • the configurations described above as a plurality of devices (or processing units) may be collectively configured as one device (or processing unit).
  • a configuration other than the above may be added to the configuration of each device (or each processing unit).
  • a part of the configuration of one device (or processing unit) may be included in the configuration of another device (or other processing unit). ..
  • this technology can have a cloud computing configuration in which one function is shared by a plurality of devices via a network and jointly processed.
  • the above-mentioned program can be executed in any device.
  • the device may have necessary functions (functional blocks, etc.) so that necessary information can be obtained.
  • each step described in the above flowchart can be executed by one device or can be shared and executed by a plurality of devices.
  • the plurality of processes included in the one step can be executed by one device or shared by a plurality of devices.
  • a plurality of processes included in one step can be executed as processes of a plurality of steps.
  • the processes described as a plurality of steps can be collectively executed as one step.
  • the processing of the steps for describing the program may be executed in chronological order according to the order described in this specification, or may be called in parallel or called. It may be executed individually at a necessary timing such as time. That is, as long as there is no contradiction, the processing of each step may be executed in an order different from the above-mentioned order. Further, the processing of the step for writing this program may be executed in parallel with the processing of another program, or may be executed in combination with the processing of another program.
  • the technology according to the present disclosure can be applied to various products.
  • the technology according to the present disclosure includes any type of movement such as automobiles, electric vehicles, hybrid electric vehicles, motorcycles, bicycles, personal mobility, airplanes, drones, ships, robots, construction machines, agricultural machines (tractors), and the like. It may be realized as a device mounted on the body.
  • FIG. 12 is a block diagram showing a schematic configuration example of a vehicle control system 7000, which is an example of a mobile control system to which the technique according to the present disclosure can be applied.
  • the vehicle control system 7000 includes a plurality of electronic control units connected via the communication network 7010.
  • the vehicle control system 7000 includes a drive system control unit 7100, a body system control unit 7200, a battery control unit 7300, an external information detection unit 7400, an in-vehicle information detection unit 7500, and an integrated control unit 7600. ..
  • the communication network 7010 connecting these plurality of control units conforms to any standard such as CAN (Controller Area Network), LIN (Local Interconnect Network), LAN (Local Area Network) or FlexRay (registered trademark). It may be an in-vehicle communication network.
  • CAN Controller Area Network
  • LIN Local Interconnect Network
  • LAN Local Area Network
  • FlexRay registered trademark
  • Each control unit includes a microcomputer that performs arithmetic processing according to various programs, a storage unit that stores a program executed by the microcomputer or parameters used for various arithmetics, and a drive circuit that drives various control target devices. To be equipped.
  • Each control unit is provided with a network I / F for communicating with other control units via the communication network 7010, and is connected to devices or sensors inside or outside the vehicle by wired communication or wireless communication.
  • a communication I / F for performing communication is provided. In FIG.
  • the microcomputer 7610 As the functional configuration of the integrated control unit 7600, the microcomputer 7610, general-purpose communication I / F 7620, dedicated communication I / F 7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F 7660, audio image output unit 7670, The vehicle-mounted network I / F 7680 and the storage unit 7690 are shown.
  • Other control units also include a microcomputer, a communication I / F, a storage unit, and the like.
  • the drive system control unit 7100 controls the operation of the device related to the drive system of the vehicle according to various programs.
  • the drive system control unit 7100 provides a driving force generator for generating the driving force of the vehicle such as an internal combustion engine or a driving motor, a driving force transmission mechanism for transmitting the driving force to the wheels, and a steering angle of the vehicle. It functions as a control device such as a steering mechanism for adjusting and a braking device for generating a braking force of a vehicle.
  • the drive system control unit 7100 may have a function as a control device such as ABS (Antilock Brake System) or ESC (Electronic Stability Control).
  • the vehicle condition detection unit 7110 is connected to the drive system control unit 7100.
  • the vehicle state detection unit 7110 may include, for example, a gyro sensor that detects the angular velocity of the rotational movement of the vehicle body, an acceleration sensor that detects the acceleration of the vehicle, an accelerator pedal operation amount, a brake pedal operation amount, or steering wheel steering. It includes at least one of sensors for detecting an angle, engine speed, wheel speed, and the like.
  • the drive system control unit 7100 performs arithmetic processing using a signal input from the vehicle state detection unit 7110 to control an internal combustion engine, a drive motor, an electric power steering device, a brake device, and the like.
  • the body system control unit 7200 controls the operation of various devices mounted on the vehicle body according to various programs.
  • the body system control unit 7200 functions as a keyless entry system, a smart key system, a power window device, or a control device for various lamps such as headlamps, back lamps, brake lamps, blinkers or fog lamps.
  • the body system control unit 7200 may be input with radio waves transmitted from a portable device that substitutes for the key or signals of various switches.
  • the body system control unit 7200 receives inputs of these radio waves or signals and controls a vehicle door lock device, a power window device, a lamp, and the like.
  • the battery control unit 7300 controls the secondary battery 7310, which is the power supply source of the drive motor, according to various programs. For example, information such as the battery temperature, the battery output voltage, or the remaining capacity of the battery is input to the battery control unit 7300 from the battery device including the secondary battery 7310. The battery control unit 7300 performs arithmetic processing using these signals, and controls the temperature control of the secondary battery 7310 or the cooling device provided in the battery device.
  • the vehicle exterior information detection unit 7400 detects information outside the vehicle equipped with the vehicle control system 7000.
  • the image pickup unit 7410 and the vehicle exterior information detection unit 7420 is connected to the vehicle exterior information detection unit 7400.
  • the imaging unit 7410 includes at least one of a ToF (Time Of Flight) camera, a stereo camera, a monocular camera, an infrared camera, and other cameras.
  • the vehicle exterior information detection unit 7420 is used to detect, for example, the current weather or an environmental sensor for detecting the weather, or other vehicles, obstacles, pedestrians, etc. around the vehicle equipped with the vehicle control system 7000. At least one of the ambient information detection sensors is included.
  • the environmental sensor may be, for example, at least one of a raindrop sensor that detects rainy weather, a fog sensor that detects fog, a sunshine sensor that detects the degree of sunshine, and a snow sensor that detects snowfall.
  • the ambient information detection sensor may be at least one of an ultrasonic sensor, a radar device, and a LIDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) device.
  • the imaging unit 7410 and the vehicle exterior information detection unit 7420 may be provided as independent sensors or devices, or may be provided as a device in which a plurality of sensors or devices are integrated.
  • FIG. 13 shows an example of the installation positions of the imaging unit 7410 and the vehicle exterior information detection unit 7420.
  • the imaging units 7910, 7912, 7914, 7916, 7918 are provided, for example, at at least one of the front nose, side mirrors, rear bumpers, back door, and upper part of the windshield of the vehicle interior of the vehicle 7900.
  • the image pickup unit 7910 provided on the front nose and the image pickup section 7918 provided on the upper part of the windshield in the vehicle interior mainly acquire an image in front of the vehicle 7900.
  • the imaging units 7912 and 7914 provided in the side mirrors mainly acquire images of the side of the vehicle 7900.
  • the image pickup unit 7916 provided on the rear bumper or the back door mainly acquires an image of the rear of the vehicle 7900.
  • the imaging unit 7918 provided on the upper part of the windshield in the vehicle interior is mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, a traffic light, a traffic sign, a lane, or the like.
  • FIG. 13 shows an example of the photographing range of each of the imaging units 7910, 7912, 7914, 7916.
  • the imaging range a indicates the imaging range of the imaging unit 7910 provided on the front nose
  • the imaging ranges b and c indicate the imaging ranges of the imaging units 7912 and 7914 provided on the side mirrors, respectively
  • the imaging range d is The imaging range of the imaging unit 7916 provided on the rear bumper or the back door is shown.
  • a bird's-eye view image of the vehicle 7900 as viewed from above can be obtained.
  • the vehicle exterior information detection units 7920, 7922, 7924, 7926, 7928, 7930 provided on the front, rear, side, corners of the vehicle 7900 and above the windshield in the vehicle interior may be, for example, an ultrasonic sensor or a radar device.
  • the vehicle exterior information detection units 7920, 7926, 7930 provided on the front nose, rear bumper, back door, and upper part of the windshield in the vehicle interior of the vehicle 7900 may be, for example, a lidar device.
  • These out-of-vehicle information detection units 7920 to 7930 are mainly used for detecting a preceding vehicle, a pedestrian, an obstacle, or the like.
  • the vehicle exterior information detection unit 7400 causes the image pickup unit 7410 to capture an image of the vehicle exterior and receives the captured image data. Further, the vehicle exterior information detection unit 7400 receives detection information from the connected vehicle exterior information detection unit 7420. When the vehicle exterior information detection unit 7420 is an ultrasonic sensor, a radar device, or a LIDAR device, the vehicle exterior information detection unit 7400 transmits ultrasonic waves, electromagnetic waves, or the like, and receives the received reflected wave information.
  • the vehicle exterior information detection unit 7400 may perform object detection processing or distance detection processing such as a person, a vehicle, an obstacle, a sign, or a character on a road surface based on the received information.
  • the vehicle exterior information detection unit 7400 may perform an environment recognition process for recognizing rainfall, fog, road surface conditions, etc., based on the received information.
  • the vehicle exterior information detection unit 7400 may calculate the distance to an object outside the vehicle based on the received information.
  • the vehicle exterior information detection unit 7400 may perform image recognition processing or distance detection processing for recognizing a person, a vehicle, an obstacle, a sign, a character on the road surface, or the like based on the received image data.
  • the vehicle exterior information detection unit 7400 performs processing such as distortion correction or alignment on the received image data, and synthesizes the image data captured by different imaging units 7410 to generate a bird's-eye view image or a panoramic image. May be good.
  • the vehicle exterior information detection unit 7400 may perform the viewpoint conversion process using the image data captured by different imaging units 7410.
  • the in-vehicle information detection unit 7500 detects the in-vehicle information.
  • a driver state detection unit 7510 that detects the driver's state is connected to the in-vehicle information detection unit 7500.
  • the driver state detection unit 7510 may include a camera that captures the driver, a biosensor that detects the driver's biological information, a microphone that collects sound in the vehicle interior, and the like.
  • the biosensor is provided on, for example, the seat surface or the steering wheel, and detects the biometric information of the passenger sitting on the seat or the driver holding the steering wheel.
  • the in-vehicle information detection unit 7500 may calculate the degree of fatigue or concentration of the driver based on the detection information input from the driver state detection unit 7510, and may determine whether the driver is dozing or not. You may.
  • the in-vehicle information detection unit 7500 may perform processing such as noise canceling processing on the collected audio signal.
  • the integrated control unit 7600 controls the overall operation in the vehicle control system 7000 according to various programs.
  • An input unit 7800 is connected to the integrated control unit 7600.
  • the input unit 7800 is realized by a device such as a touch panel, a button, a microphone, a switch or a lever, which can be input-operated by a passenger. Data obtained by recognizing the voice input by the microphone may be input to the integrated control unit 7600.
  • the input unit 7800 may be, for example, a remote control device using infrared rays or other radio waves, or an externally connected device such as a mobile phone or a PDA (Personal Digital Assistant) that supports the operation of the vehicle control system 7000. You may.
  • the input unit 7800 may be, for example, a camera, in which case the passenger can input information by gesture. Alternatively, data obtained by detecting the movement of the wearable device worn by the passenger may be input. Further, the input unit 7800 may include, for example, an input control circuit that generates an input signal based on the information input by the passenger or the like using the input unit 7800 and outputs the input signal to the integrated control unit 7600. By operating the input unit 7800, the passenger or the like inputs various data to the vehicle control system 7000 and instructs the processing operation.
  • the storage unit 7690 may include a ROM (Read Only Memory) for storing various programs executed by the microcomputer, and a RAM (Random Access Memory) for storing various parameters, calculation results, sensor values, and the like. Further, the storage unit 7690 may be realized by a magnetic storage device such as an HDD (Hard Disc Drive), a semiconductor storage device, an optical storage device, an optical magnetic storage device, or the like.
  • ROM Read Only Memory
  • RAM Random Access Memory
  • the general-purpose communication I / F 7620 is a general-purpose communication I / F that mediates communication with various devices existing in the external environment 7750.
  • General-purpose communication I / F7620 is a cellular communication protocol such as GSM (registered trademark) (Global System of Mobile communications), WiMAX (registered trademark), LTE (registered trademark) (Long Term Evolution) or LTE-A (LTE-Advanced).
  • GSM Global System of Mobile communications
  • WiMAX registered trademark
  • LTE registered trademark
  • LTE-A Long Term Evolution-Advanced
  • Bluetooth® may be implemented.
  • the general-purpose communication I / F7620 connects to a device (for example, an application server or a control server) existing on an external network (for example, the Internet, a cloud network, or a business-specific network) via a base station or an access point, for example. You may. Further, the general-purpose communication I / F7620 uses, for example, P2P (Peer To Peer) technology, and is a terminal existing in the vicinity of the vehicle (for example, a terminal of a driver, a pedestrian or a store, or an MTC (Machine Type Communication) terminal). You may connect with.
  • P2P Peer To Peer
  • MTC Machine Type Communication
  • the dedicated communication I / F 7630 is a communication I / F that supports a communication protocol formulated for use in a vehicle.
  • the dedicated communication I / F7630 uses a standard protocol such as WAVE (Wireless Access in Vehicle Environment), DSRC (Dedicated Short Range Communications), or cellular communication protocol, which is a combination of IEEE802.11p in the lower layer and IEEE1609 in the upper layer. May be implemented.
  • the dedicated communication I / F7630 typically includes vehicle-to-vehicle (Vehicle to Vehicle) communication, road-to-vehicle (Vehicle to Infrastructure) communication, vehicle-to-home (Vehicle to Home) communication, and pedestrian-to-pedestrian (Vehicle to Pedertian) communication. ) Carry out V2X communication, a concept that includes one or more of the communications.
  • the positioning unit 7640 receives, for example, a GNSS signal from a GNSS (Global Navigation Satellite System) satellite (for example, a GPS signal from a GPS (Global Positioning System) satellite), executes positioning, and executes positioning, and the latitude, longitude, and altitude of the vehicle. Generate location information including.
  • the positioning unit 7640 may specify the current position by exchanging signals with the wireless access point, or may acquire position information from a terminal such as a mobile phone, PHS, or smartphone having a positioning function.
  • the beacon receiving unit 7650 receives radio waves or electromagnetic waves transmitted from a radio station or the like installed on the road, and acquires information such as the current position, traffic jam, road closure, or required time.
  • the function of the beacon receiving unit 7650 may be included in the above-mentioned dedicated communication I / F 7630.
  • the in-vehicle device I / F 7660 is a communication interface that mediates the connection between the microcomputer 7610 and various in-vehicle devices 7760 existing in the vehicle.
  • the in-vehicle device I / F7660 may establish a wireless connection using a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • a wireless communication protocol such as wireless LAN, Bluetooth (registered trademark), NFC (Near Field Communication) or WUSB (Wireless USB).
  • the in-vehicle device I / F7660 is connected via a connection terminal (and a cable if necessary) (not shown), USB (Universal Serial Bus), HDMI (registered trademark) (High-Definition Multimedia Interface), or MHL (Mobile).
  • a wired connection such as High-definition Link may be established.
  • the in-vehicle device 7760 may include, for example, at least one of a passenger's mobile device or wearable device, or an information device carried or attached to the vehicle. In-vehicle device 7760 may also include a navigation device that searches for a route to an arbitrary destination.
  • the in-vehicle device I / F 7660 exchanges control signals or data signals with these in-vehicle devices 7760.
  • the in-vehicle network I / F7680 is an interface that mediates communication between the microcomputer 7610 and the communication network 7010.
  • the vehicle-mounted network I / F7680 transmits / receives signals and the like according to a predetermined protocol supported by the communication network 7010.
  • the microcomputer 7610 of the integrated control unit 7600 is via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680.
  • the vehicle control system 7000 is controlled according to various programs based on the information acquired. For example, the microcomputer 7610 calculates the control target value of the driving force generator, the steering mechanism, or the braking device based on the acquired information inside and outside the vehicle, and outputs a control command to the drive system control unit 7100. May be good.
  • the microcomputer 7610 realizes ADAS (Advanced Driver Assistance System) functions including vehicle collision avoidance or impact mitigation, follow-up driving based on inter-vehicle distance, vehicle speed maintenance driving, vehicle collision warning, vehicle lane deviation warning, and the like. Cooperative control may be performed for the purpose of. Further, the microcomputer 7610 automatically travels autonomously without relying on the driver's operation by controlling the driving force generator, the steering mechanism, the braking device, etc. based on the acquired information on the surroundings of the vehicle. Coordinated control for the purpose of driving or the like may be performed.
  • ADAS Advanced Driver Assistance System
  • the microcomputer 7610 has information acquired via at least one of general-purpose communication I / F7620, dedicated communication I / F7630, positioning unit 7640, beacon receiving unit 7650, in-vehicle device I / F7660, and in-vehicle network I / F7680. Based on the above, three-dimensional distance information between the vehicle and an object such as a surrounding structure or a person may be generated, and local map information including the peripheral information of the current position of the vehicle may be created. Further, the microcomputer 7610 may predict the danger of a vehicle collision, a pedestrian or the like approaching or entering a closed road based on the acquired information, and generate a warning signal.
  • the warning signal may be, for example, a signal for generating a warning sound or turning on a warning lamp.
  • the audio / image output unit 7670 transmits an output signal of at least one of audio and an image to an output device capable of visually or audibly notifying the passenger of the vehicle or the outside of the vehicle.
  • an audio speaker 7710, a display unit 7720, and an instrument panel 7730 are exemplified as output devices.
  • the display unit 7720 may include, for example, at least one of an onboard display and a head-up display.
  • the display unit 7720 may have an AR (Augmented Reality) display function.
  • the output device may be other devices such as headphones, wearable devices such as eyeglass-type displays worn by passengers, projectors or lamps other than these devices.
  • the display device displays the results obtained by various processes performed by the microcomputer 7610 or the information received from other control units in various formats such as texts, images, tables, and graphs. Display visually.
  • the audio output device converts an audio signal composed of reproduced audio data or acoustic data into an analog signal and outputs the audio signal audibly.
  • At least two control units connected via the communication network 7010 may be integrated as one control unit.
  • each control unit may be composed of a plurality of control units.
  • the vehicle control system 7000 may include another control unit (not shown).
  • the other control unit may have a part or all of the functions carried out by any of the control units. That is, as long as information is transmitted and received via the communication network 7010, predetermined arithmetic processing may be performed by any control unit.
  • a sensor or device connected to any control unit may be connected to another control unit, and a plurality of control units may send and receive detection information to and from each other via the communication network 7010. .
  • a computer program for realizing each function of the information processing device 21 according to the present embodiment described with reference to FIG. 5 can be implemented in any control unit or the like. It is also possible to provide a computer-readable recording medium in which such a computer program is stored.
  • the recording medium is, for example, a magnetic disk, an optical disk, a magneto-optical disk, a flash memory, or the like. Further, the above computer program may be distributed via, for example, a network without using a recording medium.
  • the information processing device 21 can be applied to the integrated control unit 7600 of the application example shown in FIG.
  • the image acquisition unit 31, the domain adaptation processing execution unit 33, the determination unit 36, and the recognition processing unit 37 of the information processing device 21 correspond to the microcomputer 7610 of the integrated control unit 7600.
  • the storage unit 32 of the information processing device 21 corresponds to the storage unit 7690 of the integrated control unit 7600
  • the transmission unit 34 and the reception unit 35 of the information processing device 21 are the in-vehicle network I / F7680 of the integrated control unit 7600.
  • the integrated control unit 7600 can update the model of the recognizer by executing the domain adaptation process.
  • the components of the information processing apparatus 21 described with reference to FIG. 5 is included in the module for the integrated control unit 7600 shown in FIG. 12 (for example, an integrated circuit module composed of one die). It may be realized. Alternatively, it may be realized by a plurality of control units of the information processing device 21 described with reference to FIG. 5 and the vehicle control system 7000 shown with reference to FIG.
  • the present technology can also have the following configurations.
  • a predetermined number of models that are updated by performing image recognition on a predetermined number of terminals and executing unsupervised learning are set, and image recognition is performed on a predetermined number of images that have been image-recognized on the terminals.
  • Recognition part and An information processing device including an evaluation value calculation unit that evaluates a predetermined number of recognition results in the recognition unit and calculates an evaluation value for each recognition unit.
  • the learning is performed at predetermined intervals at which the images are acquired on a predetermined number of terminals.
  • the information processing device according to (1) above, wherein the evaluation value calculation unit calculates the evaluation value at regular intervals longer than the predetermined interval.
  • An integrated unit for obtaining an integrated recognition result in which a predetermined number of recognition results in the recognition unit are integrated is further provided.
  • the information processing apparatus further include a transmission unit that transmits the evaluation values for the model set in the recognition unit to the predetermined number of the terminals calculated by the evaluation value calculation unit.
  • Information processing device The model updated by performing image recognition on a predetermined number of terminals and executing unsupervised learning targets the images for which image recognition has been performed on the predetermined number of terminals in the predetermined number of recognition units set respectively.
  • image recognition An information processing method including evaluating a predetermined number of recognition results in the recognition unit and calculating an evaluation value for each recognition unit.
  • An executive unit that performs unsupervised learning on a model of a recognizer that performs image recognition on an image, It is determined whether or not the learning has been performed correctly based on the evaluation values obtained by using the recognition results obtained by performing image recognition in a predetermined number of different models for the model updated by the learning in the execution unit.
  • the execution unit is an information processing device that returns to a model before the learning is performed when it is determined that the learning is not performed correctly in the determination unit.
  • the execution unit executes the learning at predetermined intervals at which the images are acquired.
  • the information processing apparatus according to (9) above wherein the evaluation value is obtained at regular intervals longer than the predetermined interval.
  • the information processing apparatus according to (9) or (10) above further comprising a transmission unit that transmits predetermined additional information together with the model and the image at a timing when the evaluation value is obtained.
  • a recognition processing unit that sets the latest model updated by the execution unit in the recognizer, performs recognition processing on the image, and outputs the recognition result to the processing unit that performs predetermined processing using the recognition result.
  • Recognition part and A first information processing device having an evaluation value calculation unit that evaluates a predetermined number of recognition results in the recognition unit and calculates an evaluation value for each recognition unit.
  • An executive unit that performs unsupervised learning on a model of a recognizer that performs image recognition on an image, It is determined whether or not the learning has been performed correctly based on the evaluation values obtained by using the recognition results obtained by performing image recognition in a predetermined number of different models for the model updated by the learning in the execution unit.
  • Has a judgment unit to The execution unit is a system including a second information processing device that returns to a model before the learning is performed when the determination unit determines that the learning is not performed correctly.
  • 11 learning system 12 network, 13 vehicle, 14 server, 21 and 22 information processing device, 31 image acquisition unit, 32 storage unit, 33 domain adaptation processing execution unit, 34 transmission unit, 35 reception unit, 36 judgment unit, 37 recognition Processing unit, 41 environmental feature amount calculation unit, 42 domain discrimination unit, 43 update value calculation unit, 51 reception unit, 52 recognition unit, 53 integration unit, 54 evaluation calculation unit, 55 transmission unit

Abstract

本開示は、より認識性能の向上を図ることができるようにする情報処理装置および情報処理方法に関する。 サーバ側の情報処理装置は、所定個数の車両において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定され、所定個数の車両において画像認識が行われた画像を対象として画像認識を行う所定個数の認識部と、所定個数の認識部における認識結果を評価し、認識部ごとの評価値を算出する評価値算出部とを備える。車両側の情報処理装置は、教師なし学習を実行する実行部と、実行部において更新されたモデルについて、サーバ側で求められる評価値に基づいて、正しく学習が行われたか否かを判定する判定部とを備える。本技術は、例えば、自動運転を行う車両に適用できる。

Description

情報処理装置および情報処理方法
 本開示は、情報処理装置および情報処理方法に関し、特に、より認識性能の向上を図ることができるようにした情報処理装置および情報処理方法に関する。
 従来、例えば、Deep Learning(深層学習)におけるCNN(Convolutional Neural Network:畳み込みニューラルネットワーク)による画像認識では、一般的に、教師データを用いた学習が行われる。
 また、特許文献1には、例えば、複数の端末装置において学習することによって得られた重みパラメータを管理装置が受信し、最適な重みパラメータが選択されるニューラルネットワークシステムが開示されている。
特開2017-174298号公報
 ところで、従来の画像認識を行う学習では、教師データを用意するのにコストを要するだけでなく、教師データと分布の異なるデータが入力された場合には、そのデータに対する認識性能が低下してしまっていた。
 本開示は、このような状況に鑑みてなされたものであり、より認識性能の向上を図ることができるようにするものである。
 本開示の第1の側面の情報処理装置は、所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定され、所定個数の前記端末において画像認識が行われた画像を対象として画像認識を行う所定個数の認識部と、所定個数の前記認識部における認識結果を評価し、前記認識部ごとの評価値を算出する評価値算出部とを備える。
 本開示の第1の側面の情報処理方法は、情報処理装置が、所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定される所定個数の認識部において、所定個数の前記端末において画像認識が行われた画像を対象として画像認識を行うことと、所定個数の前記認識部における認識結果を評価し、前記認識部ごとの評価値を算出することとを含む。
 本開示の第1の側面においては、所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定される所定個数の認識部において、所定個数の端末において画像認識が行われた画像を対象として画像認識が行われ、所定個数の認識部における認識結果を評価し、認識部ごとの評価値が算出される。
 本開示の第2の側面の情報処理装置は、画像に対する画像認識を行う認識器のモデルに対する教師なし学習を実行する実行部と、前記実行部での学習により更新された前記モデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かを判定する判定部とを備え、前記実行部は、前記判定部において正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻す。
 本開示の第2の側面の情報処理方法は、情報処理装置が、画像に対する画像認識を行う認識器のモデルに対する教師なし学習を実行することと、その学習により更新された前記モデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かを判定することとを含み、正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻す。
 本開示の第2の側面においては、画像に対する画像認識を行う認識器のモデルに対する教師なし学習が実行され、その学習により更新されたモデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かが判定される。そして、正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻される。
従来の学習処理について説明する図である。 本技術を適用した学習処理について説明する図である。 本技術を適用した学習処理について説明する図である。 本技術を適用した学習システムの一実施の形態の構成例を示すブロック図である。 車両側の情報処理装置の構成例を示すブロック図である。 ドメイン適応処理実行部の構成例を示すブロック図である。 サーバ側の情報処理装置の構成例を示すブロック図である。 車両側で実行される情報処理を説明するフローチャートである。 ドメイン適応処理を説明するフローチャートである。 サーバ側で実行される情報処理を説明するフローチャートである。 本技術を適用したコンピュータの一実施の形態の構成例を示すブロック図である。 車両制御システムの概略的な構成の一例を示すブロック図である。 車外情報検出部及び撮像部の設置位置の一例を示す説明図である。
 以下、本技術を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。
 <学習処理について>
 まず、図1乃至図3を参照して、学習処理について説明する。
 図1は、従来の学習処理における処理の流れを模式的に示す図である。
 図1に示すように、従来の学習処理では、深層学習を利用して画像認識を行う認識器CNNが用いられ、認識器CNNには、画像に写されている複数の被写体を分類するラベルが予め作成されているラベルあり画像が入力される。
 例えば、認識器CNNは、ラベルあり画像に対する画像認識を行って、そのラベルあり画像に写されている複数の被写体を認識し、それぞれの被写体を分類した認識結果を出力する。そして、認識器CNNから出力される認識結果と、ラベルあり画像についての正解ラベルとの比較が行われ、認識結果を正解ラベルに近づけるように認識器CNNに対するフィードバックが行われる。
 このように、従来の学習処理では、正解ラベルを用いて、認識器CNNが、より正確な画像認識を行うことができるようにする学習が行われる。
 そこで、図2および図3を参照して説明するように、正解ラベルを用いずに正確な画像認識を行うことができるようにする。
 図2および図3は、本技術を適用した学習処理における処理の流れを模式的に示す図である。以下では、説明を理解しやすくするために、まず、正解ラベルが用意されている画像(以下、ラベルあり画像と称する)と、正解ラベルが必ずしも用意されていない画像(以下、ラベルなし画像と称する)との2種類の画像を例示するが、図2および図3に示すように、本技術を適用した学習処理では、正解ラベルは不要である。即ち、本技術を適用した学習処理で用いられる2種類の入力画像には、一切、正解ラベルが用意されておらず、そのような画像を用いて学習処理が行われる。
 図2および図3に示すように、本技術を適用した学習処理では、2台の認識器CNN1およびCNN2が用いられ、認識器CNN1へ入力される画像に対応する正解ラベルは存在しなくてもよい。
 例えば、図2に示す学習処理では、認識器CNN1は、ラベルなし画像に対する画像認識を行って、そのラベルなし画像に写されている複数の被写体を分類した認識結果(ラベルなし)を出力する。さらに、この認識結果が認識器CNN2に入力され、認識器CNN2が、認識結果(ラベルあり)と認識結果(ラベルなし)とを見分けることができるようにする学習が、正解値(ラベルあり/ラベルなし)を用いて行われる。
 そして、認識器CNN2における学習の結果を認識器CNN1にフィードバックすることで、ラベルなし画像に対する認識器CNN1の認識結果を、ラベルありの認識結果に近づけることができるようになる。これにより、認識器CNN1は、ラベルなし画像の被写体を正確に分類できていなかった個所について、図2に示す例では、認識結果の右側の車道と歩道との境界について、正確に分類を行うことができるようになる。
 また、図3に示す学習処理では、それぞれ異なる環境で撮像された2枚の画像(第1の環境の画像および第2の環境の画像)が用いられる。
 即ち、認識器CNN1は、第2の環境の画像に対する画像認識を行って、その第2の環境の画像に写されている複数の被写体を分類した認識結果(第2の環境)を出力する。さらに、この認識結果が認識器CNN2に入力され、認識器CNN2が、認識結果(第1の環境)と認識結果(第2の環境)とを見分けることができるようにする学習が、正解値(第1の環境/第2の環境)を用いて行われる。
 そして、認識器CNN2における学習の結果を認識器CNN1にフィードバックすることで、第2の環境の画像に対する認識器CNN1の認識結果を、第1の環境の認識結果に近づけることができるようになる。これにより、認識器CNN1は、第2の環境の画像の被写体を正確に分類できていなかった個所について、図2に示す例と同様に、正確に分類を行うことができるようなる。従って、正解ラベルが存在しない第1の環境の画像および第2の環境の画像を用いて、画像認識を正確に行えるような学習処理が行われる。
 このように、本技術を適用した学習処理では、正解ラベルを用意しなくても、認識器CNN1が正確に画像認識を行うことを可能とし、ラベルなし画像に対して正確な画像認識を行うこと、即ち、認識性能の向上を図ることができる。
 なお、図2および図3を参照して説明したように、正解ラベルが必ずしも用意されていない画像を用いて、教師なしで行われる学習処理を、以下、ドメイン適応処理と称する。
 <学習システムの構成例>
 図4は、本技術を適用した学習システムの一実施の形態の構成例を示すブロック図である。
 図4に示す学習システム11は、ネットワーク12を介して、N台の車両13-1乃至13-Nとサーバ14とが接続されて構成され、車両13-1乃至13-Nそれぞれが、認識器を有している。なお、車両13-1乃至13-Nは、同様に構成されており、以下、それぞれを区別する必要がない場合、単に、車両13とも称する。
 学習システム11では、車両13-1乃至13-Nにおいて撮像された画像に対し、車両13-1乃至13-Nそれぞれの内部においてリアルタイム(例えば、フレームレートレベル)でドメイン適応処理の学習が行われる。そして、学習システム11では、ネットワーク12を介して、車両13-1乃至13-Nにおいて撮像されたN枚の画像と、N個の認識器のモデルとがサーバ14にアップロードされる。
 これにより、学習システム11では、サーバ14において、車両13-1乃至13-Nから集積されたN枚の画像が、車両13-1乃至13-Nそれぞれのモデルによって構成されるN個の認識器の全てに入力される。そして、サーバ14において、N個の認識器による認識結果が統合された統合認識結果を算出し、その統合認識結果と、N個の認識器それぞれの認識結果とを用いて、個々の認識結果が評価される。例えば、この認識結果を評価する評価値の算出は、車両13において画像が撮像されるフレームレートよりも長い一定期間ごとに行われる。
 その後、学習システム11では、それらの認識結果に対する評価を表す評価値が一定値以下であった場合、その認識結果が得られたモデルの認識器を有する車両13に対してサーバ14からフィードバックが行われる。これに応じ、その車両13では、その時点でのモデルから学習前の状態にロールバックするとともに、その学習に使用していた入力データの破棄が行われる。
 ここで、学習システム11では、車両13-1乃至13-Nが有する認識器は、それぞれ同様に構成されており、その認識器には、それぞれの車両13で撮像された画像が入力され、その画像に対する画像認識を行った認識結果が出力される。また、サーバ14において、評価およびフィードバックが常に動作するのではなく、例えば、数時間に1回程度、車両13-1乃至13-Nにおけるドメイン適応処理に対する検証を行うときのみ動作する。即ち、学習システム11において、車両13-1乃至13-Nでは、高い頻度で学習処理が行われ、サーバ14では、低い頻度で評価およびフィードバックが行われる。
 図5は、車両13が備える情報処理装置21の構成例を示すブロック図である。
 図5に示すように、情報処理装置21は、画像取得部31、記憶部32、ドメイン適応処理実行部33、送信部34、受信部35、判定部36、および認識処理部37を備えて構成される。
 画像取得部31は、車両13に搭載されている撮像装置(図示せず)において撮像された画像を取得して、ドメイン適応処理実行部33および認識処理部37に供給する。
 記憶部32は、情報処理装置21において画像認識を行う認識器のモデルを記憶する。例えば、記憶部32は、初期状態として設定されているモデルである初期モデルや、ドメイン適応処理実行部33においいて更新された最新のモデル、その更新される直前のモデルなどを記憶する。
 ドメイン適応処理実行部33は、記憶部32からロードしたモデルを認識器に設定し、画像取得部31から供給される画像を対象としてドメイン適応処理を実行する。そして、ドメイン適応処理実行部33は、例えば、サーバ14において評価およびフィードバックが行われるタイミングで、認識器に設定されているモデルと、画像認識に用いた画像とを送信部34に供給する。また、ドメイン適応処理実行部33は、認識器のモデルが正しく学習されている場合、そのモデルを記憶部32に供給してモデルの更新を行うことができる。なお、ドメイン適応処理実行部33の詳細な構成については、図6を参照して後述する。
 送信部34は、ドメイン適応処理実行部33から供給される画像およびモデルとともに、図示しない上位の制御装置から付加情報(例えば、車両13の位置情報や、車種情報、撮像機材情報、撮像条件情報など)を取得して、図1のネットワーク12を介してサーバ14に送信する。
 受信部35は、サーバ14からネットワーク12を介して送信されてくる評価値を受信して、判定部36に供給する。
 判定部36は、サーバ14において求められた評価値を所定の評価値閾値と比較し、ドメイン適応処理実行部33において正しく学習が行われたか否かを判定して、その判定結果をドメイン適応処理実行部33に通知する。
 認識処理部37は、記憶部32から最新のモデルを読み出して、そのモデルを設定した認識器を用いて、画像取得部31から供給される画像に対する認識処理を行い、その認識処理により得られる認識結果を出力する。例えば、認識処理部37による認識結果は、車両13の自動運転システムに入力され、認識結果を用いて車両13の自動運転が制御される。従って、認識処理部37が、ドメイン適応処理実行部33において正しく学習されたモデルを用いることで、認識処理部37の認識性能が向上し、より安全な自動運転を実現することができる。
 図6は、図5のドメイン適応処理実行部33の構成例を示すブロック図である。
 図6に示すように、ドメイン適応処理実行部33は、環境特徴量計算部41、ドメイン判別部42、および更新値計算部43を備えて構成され、例えば、環境特徴量計算部41およびドメイン判別部42により認識器が構成される。
 環境特徴量計算部41は、図5の画像取得部31から供給される画像から、その画像の1画素ごとの特徴を表す環境特徴量を所定の係数を用いて計算して、ドメイン判別部42に供給する。
 ドメイン判別部42は、環境特徴量計算部41から供給される環境特徴量を所定の閾値に従って分類し、その閾値で分類される環境特徴量を示す画素からなる領域を1つのドメインとして判別するドメイン判別を行う。そして、ドメイン判別部42は、ドメイン判別を行った結果得られるドメイン判別結果を、例えば、図2および図3に示したように画像に写されている被写体ごとに分類を行った認識結果を、更新値計算部43に供給する。
 更新値計算部43は、ドメイン判別部42から供給されるドメイン判別結果に従って、環境特徴量計算部41における環境特徴量の計算に用いられる係数を更新する環境特徴量計算更新値、および、ドメイン判別部42におけるドメイン判別に用いられる閾値を更新するドメイン判別更新値を計算する。そして、更新値計算部43は、環境特徴量計算更新値を環境特徴量計算部41にフィードバックするとともに、ドメイン判別更新値をドメイン判別部42にフィードバックする。
 さらに、更新値計算部43は、環境特徴量計算部41における環境特徴量の計算に用いられる係数、および、ドメイン判別部42におけるドメイン判別に用いられる閾値を、認識器のモデルとして、図5の送信部34に供給する。
 図7は、サーバ14が備える情報処理装置22の構成例を示すブロック図である。
 図7に示すように、情報処理装置22は、受信部51、N個の認識部52-1乃至52-N、統合部53、評価算出部54、および送信部55を備えて構成される。
 受信部51は、N台の車両13-1乃至13-Nから送信されてくる画像、モデル、および付加情報を受信する。そして、受信部51は、N台の車両13-1乃至13-Nにおける認識器のモデルを、それぞれ対応する認識部52-1乃至52-Nに供給する。その後、受信部51は、N枚の画像およびN個の付加情報それぞれを、認識部52-1乃至52-Nの全てに供給する。
 認識部52-1乃至52-Nは、それぞれN台の車両13-1乃至13-Nのモデルを設定する。そして、認識部52-1乃至52-Nは、モデルに対して付加情報によって重み付けされた画像を入力し、画像認識を行った認識結果を統合部53および評価算出部54に供給する。
 統合部53は、認識部52-1乃至52-Nから供給されるN個の認識結果を集計し、例えば、それらの加重平均を算出することで統合認識結果を求め、評価算出部54に供給する。
 評価算出部54は、統合部53から供給される統合認識結果と、認識部52-1乃至52-Nから供給される認識結果とを用いて、認識部52-1乃至52-Nそれぞれに設定されているモデルを個別に評価する評価値を算出し、送信部55に供給する。
 送信部55は、評価算出部54から供給される個々の認識器のモデルに対する評価値を、N台の車両13-1乃至13-Nのうちの、それぞれ対応する車両13へ送信する。
 ここで、統合部53および評価算出部54によるモデルの評価について説明する。例えば、距離を用いた荷重平均値を使用して閾値処理が行われる。
 即ち、統合部53および評価算出部54は、評価対象の画像認識結果の画素値In,ij、参照する画像認識結果の画素値Rij、車両13のインデックス集合N、画像の幅のインデックス集合W、画像の高さのインデックス集合H、付加情報を用いて算出したドメイン間距離dを用いて、次の式(1)を演算することによって、統合認識結果Rijおよび評価値Dを算出することができる。
Figure JPOXMLDOC01-appb-M000001
 また、ドメイン間距離dの計算には、ルールベースに基づいて求めたり、付加情報でクラスタリングした後における中心との距離などを用いたりすることができる。
 例えば、ルールベースに基づいたドメイン間距離dは、定数a(>0)、開始地点からの直線距離d、および、予め車種ごとに定義されている差分bcarを用いて、次の式(2)を演算することによって求めることができる。ここで、差分bcarとしては、車体の高さや、撮像装置の取り付け位置および姿勢、撮像装置の種類(解像度および画角)などから総合的に設定することができる。
Figure JPOXMLDOC01-appb-M000002
 その他、ルールベースに基づいたドメイン間距離dは、定数a(>0)、境界の数k、および、予め車種ごとに定義されている差分bcarを用いて、次の式(3)を演算することによって求めることができる。ここで、境界の数kにおける境界とは、例えば、跨いだ市や県、州などのように独自の分類を設けることができる。
Figure JPOXMLDOC01-appb-M000003
 なお、式(2)および式(3)の右辺は、すべてnに依存するが、説明を簡略化するために省略した。
 また、付加情報でクラスタリングした後における中心との距離は、例えば、k-means法などにより、過去に取得した様々な車両13や環境などでの付加情報をクラスタリングし、そのクラスタの中心(セントロイド)を計算しておく。そして、入力画像に対応する付加情報a、および、各認識器に対応する付加情報が属するクラスタの中心cを用いて、次の式(4)を演算することによって求められる。
Figure JPOXMLDOC01-appb-M000004
 そして、このように求められたドメイン間距離dが、上述の式(1)に用いられ、統合認識結果Rijおよび評価値Dが算出される。
 また、評価値Dが、サーバ14から車両13-1乃至13-Nそれぞれへ送信され、上述したように判定部36において、評価値Dと評価値閾値Dthresh,nとが比較される。そして、評価値Dが評価値閾値Dthresh,n以上であれば、正しく学習が行われたと判定される。
 <情報処理>
 図8は、情報処理装置21が実行する車両13側の情報処理を説明するフローチャートである。
 例えば、車両13の運転が開始され、車両13が備える撮像装置(図示せず)による撮像が始まると処理が開始され、ステップS11において、ドメイン適応処理実行部33は、記憶部32から初期モデルをロードして、認識器に設定する。
 ステップS12において、画像取得部31は、撮像装置により撮像された画像を取得して、ドメイン適応処理実行部33に供給する。
 ステップS13において、ドメイン適応処理実行部33は、ステップS12で画像取得部31から供給される画像を対象としてドメイン適応処理(図9のフローチャート参照)を実行し、認識器に設定されているモデルを更新する。
 ステップS14において、サーバ14で評価およびフィードバックが行われるタイミングになると、ドメイン適応処理実行部33は、画像およびモデルを送信部34に供給し、送信部34は、画像、モデル、および付加情報をサーバ14へ送信する。
 ステップS15において、受信部35は、サーバ14において情報処理(図10のフローチャート参照)が行われた結果として送信されてくる評価値Dを受信し、判定部36に供給する。
 ステップS16において、判定部36は、ステップS15で受信部35から供給された評価値Dを評価値閾値Dthresh,nと比較し、ドメイン適応処理実行部33において正しく学習が行われたか否かを判定する。例えば、判定部36は、評価値Dが評価値閾値Dthresh,n以上(D≧Dthresh,n)であれば正しく学習が行われたと判定し、評価値Dが評価値閾値Dthresh,n未満(D<Dthresh,n)であれば正しく学習が行われなかったと判定する。
 ステップS16において、判定部36が、ドメイン適応処理実行部33において正しく学習が行われなかったと判定した場合、処理はステップS17に進む。
 ステップS17において、判定部36は、その判定結果をドメイン適応処理実行部33に通知し、ドメイン適応処理実行部33は、認識器に設定されているモデルを、更新される前の元のモデルに戻す。その後、処理はステップS12に戻り、以下、同様の処理が繰り返して行われる。
 一方、ステップS16において、判定部36が、ドメイン適応処理実行部33において正しく学習が行われたと判定した場合、処理はステップS18に進む。
 ステップS18において、ドメイン適応処理実行部33は、認識器のモデルを更新する情報処理を継続するか否かを判定する。
 ステップS18において、ドメイン適応処理実行部33が、認識器のモデルを更新する情報処理を継続すると判定した場合、処理はステップS12に戻り、以下、同様の処理が繰り返して行われる。一方、ステップS18において、ドメイン適応処理実行部33が、認識器のモデルを更新する情報処理を継続しないと判定した場合、処理は終了される。
 以上のように、情報処理装置21では、ドメイン適応処理が行われることで更新された認識器のモデルが正しく学習されているか否かを、サーバ14からの評価値に基づいて判定することができる。これにより、情報処理装置21が単独で正しく学習が行われているか否かを判定するよりも、より正確な判定を行うことができ、認識性能を向上させることができる。
 図9は、図8のステップS13で行われるドメイン適応処理を説明するフローチャートである。
 ステップS21において、ドメイン適応処理実行部33は、画像取得部31からの画像を取得することができたか否かを判定し、画像が取得することができていないと判定した場合には、処理を終了する。そして、ステップS21において、画像が取得することができたと判定された場合、処理はステップS22に進む。
 ステップS22において、環境特徴量計算部41は、その取得した画像から、1画素ごとの特徴を表す環境特徴量を所定の係数を用いて計算して、ドメイン判別部42に供給する。
 ステップS23において、ドメイン判別部42は、ステップS22で環境特徴量計算部41から供給される環境特徴量を所定の閾値に従って分類し、その閾値で分類される環境特徴量を示す画素からなる領域を1つのドメインとして判別するドメイン判別を行い、その結果得られるドメイン判別結果を、更新値計算部43に供給する。
 ステップS24において、更新値計算部43は、ステップS23でドメイン判別部42から供給されるドメイン判別結果に従って、環境特徴量計算部41における環境特徴量の計算に用いられる係数を更新する環境特徴量計算更新値、および、ドメイン判別部42におけるドメイン判別に用いられる閾値を更新するドメイン判別更新値を計算する。
 ステップS25において、更新値計算部43は、環境特徴量計算更新値を環境特徴量計算部41にフィードバックするとともに、ドメイン判別更新値をドメイン判別部42にフィードバックする。これにより、環境特徴量計算部41およびドメイン判別部42により構成される認識器のモデルが更新された後、処理は終了される。
 図10は、情報処理装置22が実行するサーバ14側の情報処理を説明するフローチャートである。
 ステップS31において、受信部51は、N台の車両13-1乃至13-Nにおいて図8のステップS14で送信してくる画像、モデル、および付加情報を受信する。そして、受信部51は、N台の車両13-1乃至13-Nにおける認識器のモデルを、それぞれ対応する認識部52-1乃至52-Nに供給し、N枚の画像およびN個の付加情報それぞれを、認識部52-1乃至52-Nの全てに供給する。
 ステップS32において、認識部52-1乃至52-Nは、それぞれN台の車両13-1乃至13-Nのモデルを設定し、付加情報によって重み付けされた画像を対象として画像認識を行う。そして、認識部52-1乃至52-Nは、画像認識を行った認識結果を、統合部53および評価算出部54に供給する。
 ステップS33において、統合部53は、ステップS32で認識部52-1乃至52-Nから供給されるN個の認識結果から統合認識結果Rijを求め、評価算出部54に供給する。
 ステップS34において、評価算出部54は、ステップS33で統合部53から供給される統合認識結果Rijと、ステップS32で認識部52-1乃至52-Nから供給される認識結果とを用いて、認識部52-1乃至52-Nそれぞれに設定されているモデルを個別に評価する評価値Dを算出する。そして、評価算出部54は、評価値Dを送信部55に供給する。
 ステップS35において、送信部55は、ステップS34で評価算出部54から供給される評価値Dを、N台の車両13-1乃至13-Nのうちの対応する車両13-nへ送信する。そして、送信部55が、N台の車両13-1乃至13-Nそれぞれに評価値Dを送信した後、処理は終了される。
 以上のように、情報処理装置22では、認識部52-1乃至52-Nにおける認識結果を統合した統合認識結果を用いることで、認識部52-1乃至52-Nそれぞれに設定されているモデルを総合的に評価することができる。
 <コンピュータの構成例>
 次に、上述した一連の処理(情報処理方法)は、ハードウェアにより行うこともできるし、ソフトウェアにより行うこともできる。一連の処理をソフトウェアによって行う場合には、そのソフトウェアを構成するプログラムが、汎用のコンピュータ等にインストールされる。
 図11は、上述した一連の処理を実行するプログラムがインストールされるコンピュータの一実施の形態の構成例を示すブロック図である。
 プログラムは、コンピュータに内蔵されている記録媒体としてのハードディスク105やROM103に予め記録しておくことができる。
 あるいはまた、プログラムは、ドライブ109によって駆動されるリムーバブル記録媒体111に格納(記録)しておくことができる。このようなリムーバブル記録媒体111は、いわゆるパッケージソフトウェアとして提供することができる。ここで、リムーバブル記録媒体111としては、例えば、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto Optical)ディスク,DVD(Digital Versatile Disc)、磁気ディスク、半導体メモリ等がある。
 なお、プログラムは、上述したようなリムーバブル記録媒体111からコンピュータにインストールする他、通信網や放送網を介して、コンピュータにダウンロードし、内蔵するハードディスク105にインストールすることができる。すなわち、プログラムは、例えば、ダウンロードサイトから、ディジタル衛星放送用の人工衛星を介して、コンピュータに無線で転送したり、LAN(Local Area Network)、インターネットといったネットワークを介して、コンピュータに有線で転送することができる。
 コンピュータは、CPU(Central Processing Unit)102を内蔵しており、CPU102には、バス101を介して、入出力インタフェース110が接続されている。
 CPU102は、入出力インタフェース110を介して、ユーザによって、入力部107が操作等されることにより指令が入力されると、それに従って、ROM(Read Only Memory)103に格納されているプログラムを実行する。あるいは、CPU102は、ハードディスク105に格納されたプログラムを、RAM(Random Access Memory)104にロードして実行する。
 これにより、CPU102は、上述したフローチャートにしたがった処理、あるいは上述したブロック図の構成により行われる処理を行う。そして、CPU102は、その処理結果を、必要に応じて、例えば、入出力インタフェース110を介して、出力部106から出力、あるいは、通信部108から送信、さらには、ハードディスク105に記録等させる。
 なお、入力部107は、キーボードや、マウス、マイク等で構成される。また、出力部106は、LCD(Liquid Crystal Display)やスピーカ等で構成される。
 ここで、本明細書において、コンピュータがプログラムに従って行う処理は、必ずしもフローチャートとして記載された順序に沿って時系列に行われる必要はない。すなわち、コンピュータがプログラムに従って行う処理は、並列的あるいは個別に実行される処理(例えば、並列処理あるいはオブジェクトによる処理)も含む。
 また、プログラムは、1のコンピュータ(プロセッサ)により処理されるものであっても良いし、複数のコンピュータによって分散処理されるものであっても良い。さらに、プログラムは、遠方のコンピュータに転送されて実行されるものであっても良い。
 さらに、本明細書において、システムとは、複数の構成要素(装置、モジュール(部品)等)の集合を意味し、すべての構成要素が同一筐体中にあるか否かは問わない。したがって、別個の筐体に収納され、ネットワークを介して接続されている複数の装置、及び、1つの筐体の中に複数のモジュールが収納されている1つの装置は、いずれも、システムである。
 また、例えば、1つの装置(または処理部)として説明した構成を分割し、複数の装置(または処理部)として構成するようにしてもよい。逆に、以上において複数の装置(または処理部)として説明した構成をまとめて1つの装置(または処理部)として構成されるようにしてもよい。また、各装置(または各処理部)の構成に上述した以外の構成を付加するようにしてももちろんよい。さらに、システム全体としての構成や動作が実質的に同じであれば、ある装置(または処理部)の構成の一部を他の装置(または他の処理部)の構成に含めるようにしてもよい。
 また、例えば、本技術は、1つの機能を、ネットワークを介して複数の装置で分担、共同して処理するクラウドコンピューティングの構成をとることができる。
 また、例えば、上述したプログラムは、任意の装置において実行することができる。その場合、その装置が、必要な機能(機能ブロック等)を有し、必要な情報を得ることができるようにすればよい。
 また、例えば、上述のフローチャートで説明した各ステップは、1つの装置で実行する他、複数の装置で分担して実行することができる。さらに、1つのステップに複数の処理が含まれる場合には、その1つのステップに含まれる複数の処理は、1つの装置で実行する他、複数の装置で分担して実行することができる。換言するに、1つのステップに含まれる複数の処理を、複数のステップの処理として実行することもできる。逆に、複数のステップとして説明した処理を1つのステップとしてまとめて実行することもできる。
 なお、コンピュータが実行するプログラムは、プログラムを記述するステップの処理が、本明細書で説明する順序に沿って時系列に実行されるようにしても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで個別に実行されるようにしても良い。つまり、矛盾が生じない限り、各ステップの処理が上述した順序と異なる順序で実行されるようにしてもよい。さらに、このプログラムを記述するステップの処理が、他のプログラムの処理と並列に実行されるようにしても良いし、他のプログラムの処理と組み合わせて実行されるようにしても良い。
 なお、本明細書において複数説明した本技術は、矛盾が生じない限り、それぞれ独立に単体で実施することができる。もちろん、任意の複数の本技術を併用して実施することもできる。例えば、いずれかの実施の形態において説明した本技術の一部または全部を、他の実施の形態において説明した本技術の一部または全部と組み合わせて実施することもできる。また、上述した任意の本技術の一部または全部を、上述していない他の技術と併用して実施することもできる。
 <応用例>
 本開示に係る技術は、様々な製品へ応用することができる。例えば、本開示に係る技術は、自動車、電気自動車、ハイブリッド電気自動車、自動二輪車、自転車、パーソナルモビリティ、飛行機、ドローン、船舶、ロボット、建設機械、農業機械(トラクター)などのいずれかの種類の移動体に搭載される装置として実現されてもよい。
 図12は、本開示に係る技術が適用され得る移動体制御システムの一例である車両制御システム7000の概略的な構成例を示すブロック図である。車両制御システム7000は、通信ネットワーク7010を介して接続された複数の電子制御ユニットを備える。図12に示した例では、車両制御システム7000は、駆動系制御ユニット7100、ボディ系制御ユニット7200、バッテリ制御ユニット7300、車外情報検出ユニット7400、車内情報検出ユニット7500、及び統合制御ユニット7600を備える。これらの複数の制御ユニットを接続する通信ネットワーク7010は、例えば、CAN(Controller Area Network)、LIN(Local Interconnect Network)、LAN(Local Area Network)又はFlexRay(登録商標)等の任意の規格に準拠した車載通信ネットワークであってよい。
 各制御ユニットは、各種プログラムにしたがって演算処理を行うマイクロコンピュータと、マイクロコンピュータにより実行されるプログラム又は各種演算に用いられるパラメータ等を記憶する記憶部と、各種制御対象の装置を駆動する駆動回路とを備える。各制御ユニットは、通信ネットワーク7010を介して他の制御ユニットとの間で通信を行うためのネットワークI/Fを備えるとともに、車内外の装置又はセンサ等との間で、有線通信又は無線通信により通信を行うための通信I/Fを備える。図12では、統合制御ユニット7600の機能構成として、マイクロコンピュータ7610、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660、音声画像出力部7670、車載ネットワークI/F7680及び記憶部7690が図示されている。他の制御ユニットも同様に、マイクロコンピュータ、通信I/F及び記憶部等を備える。
 駆動系制御ユニット7100は、各種プログラムにしたがって車両の駆動系に関連する装置の動作を制御する。例えば、駆動系制御ユニット7100は、内燃機関又は駆動用モータ等の車両の駆動力を発生させるための駆動力発生装置、駆動力を車輪に伝達するための駆動力伝達機構、車両の舵角を調節するステアリング機構、及び、車両の制動力を発生させる制動装置等の制御装置として機能する。駆動系制御ユニット7100は、ABS(Antilock Brake System)又はESC(Electronic Stability Control)等の制御装置としての機能を有してもよい。
 駆動系制御ユニット7100には、車両状態検出部7110が接続される。車両状態検出部7110には、例えば、車体の軸回転運動の角速度を検出するジャイロセンサ、車両の加速度を検出する加速度センサ、あるいは、アクセルペダルの操作量、ブレーキペダルの操作量、ステアリングホイールの操舵角、エンジン回転数又は車輪の回転速度等を検出するためのセンサのうちの少なくとも一つが含まれる。駆動系制御ユニット7100は、車両状態検出部7110から入力される信号を用いて演算処理を行い、内燃機関、駆動用モータ、電動パワーステアリング装置又はブレーキ装置等を制御する。
 ボディ系制御ユニット7200は、各種プログラムにしたがって車体に装備された各種装置の動作を制御する。例えば、ボディ系制御ユニット7200は、キーレスエントリシステム、スマートキーシステム、パワーウィンドウ装置、あるいは、ヘッドランプ、バックランプ、ブレーキランプ、ウィンカー又はフォグランプ等の各種ランプの制御装置として機能する。この場合、ボディ系制御ユニット7200には、鍵を代替する携帯機から発信される電波又は各種スイッチの信号が入力され得る。ボディ系制御ユニット7200は、これらの電波又は信号の入力を受け付け、車両のドアロック装置、パワーウィンドウ装置、ランプ等を制御する。
 バッテリ制御ユニット7300は、各種プログラムにしたがって駆動用モータの電力供給源である二次電池7310を制御する。例えば、バッテリ制御ユニット7300には、二次電池7310を備えたバッテリ装置から、バッテリ温度、バッテリ出力電圧又はバッテリの残存容量等の情報が入力される。バッテリ制御ユニット7300は、これらの信号を用いて演算処理を行い、二次電池7310の温度調節制御又はバッテリ装置に備えられた冷却装置等の制御を行う。
 車外情報検出ユニット7400は、車両制御システム7000を搭載した車両の外部の情報を検出する。例えば、車外情報検出ユニット7400には、撮像部7410及び車外情報検出部7420のうちの少なくとも一方が接続される。撮像部7410には、ToF(Time Of Flight)カメラ、ステレオカメラ、単眼カメラ、赤外線カメラ及びその他のカメラのうちの少なくとも一つが含まれる。車外情報検出部7420には、例えば、現在の天候又は気象を検出するための環境センサ、あるいは、車両制御システム7000を搭載した車両の周囲の他の車両、障害物又は歩行者等を検出するための周囲情報検出センサのうちの少なくとも一つが含まれる。
 環境センサは、例えば、雨天を検出する雨滴センサ、霧を検出する霧センサ、日照度合いを検出する日照センサ、及び降雪を検出する雪センサのうちの少なくとも一つであってよい。周囲情報検出センサは、超音波センサ、レーダ装置及びLIDAR(Light Detection and Ranging、Laser Imaging Detection and Ranging)装置のうちの少なくとも一つであってよい。これらの撮像部7410及び車外情報検出部7420は、それぞれ独立したセンサないし装置として備えられてもよいし、複数のセンサないし装置が統合された装置として備えられてもよい。
 ここで、図13は、撮像部7410及び車外情報検出部7420の設置位置の例を示す。撮像部7910,7912,7914,7916,7918は、例えば、車両7900のフロントノーズ、サイドミラー、リアバンパ、バックドア及び車室内のフロントガラスの上部のうちの少なくとも一つの位置に設けられる。フロントノーズに備えられる撮像部7910及び車室内のフロントガラスの上部に備えられる撮像部7918は、主として車両7900の前方の画像を取得する。サイドミラーに備えられる撮像部7912,7914は、主として車両7900の側方の画像を取得する。リアバンパ又はバックドアに備えられる撮像部7916は、主として車両7900の後方の画像を取得する。車室内のフロントガラスの上部に備えられる撮像部7918は、主として先行車両又は、歩行者、障害物、信号機、交通標識又は車線等の検出に用いられる。
 なお、図13には、それぞれの撮像部7910,7912,7914,7916の撮影範囲の一例が示されている。撮像範囲aは、フロントノーズに設けられた撮像部7910の撮像範囲を示し、撮像範囲b,cは、それぞれサイドミラーに設けられた撮像部7912,7914の撮像範囲を示し、撮像範囲dは、リアバンパ又はバックドアに設けられた撮像部7916の撮像範囲を示す。例えば、撮像部7910,7912,7914,7916で撮像された画像データが重ね合わせられることにより、車両7900を上方から見た俯瞰画像が得られる。
 車両7900のフロント、リア、サイド、コーナ及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7922,7924,7926,7928,7930は、例えば超音波センサ又はレーダ装置であってよい。車両7900のフロントノーズ、リアバンパ、バックドア及び車室内のフロントガラスの上部に設けられる車外情報検出部7920,7926,7930は、例えばLIDAR装置であってよい。これらの車外情報検出部7920~7930は、主として先行車両、歩行者又は障害物等の検出に用いられる。
 図12に戻って説明を続ける。車外情報検出ユニット7400は、撮像部7410に車外の画像を撮像させるとともに、撮像された画像データを受信する。また、車外情報検出ユニット7400は、接続されている車外情報検出部7420から検出情報を受信する。車外情報検出部7420が超音波センサ、レーダ装置又はLIDAR装置である場合には、車外情報検出ユニット7400は、超音波又は電磁波等を発信させるとともに、受信された反射波の情報を受信する。車外情報検出ユニット7400は、受信した情報に基づいて、人、車、障害物、標識又は路面上の文字等の物体検出処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、降雨、霧又は路面状況等を認識する環境認識処理を行ってもよい。車外情報検出ユニット7400は、受信した情報に基づいて、車外の物体までの距離を算出してもよい。
 また、車外情報検出ユニット7400は、受信した画像データに基づいて、人、車、障害物、標識又は路面上の文字等を認識する画像認識処理又は距離検出処理を行ってもよい。車外情報検出ユニット7400は、受信した画像データに対して歪補正又は位置合わせ等の処理を行うとともに、異なる撮像部7410により撮像された画像データを合成して、俯瞰画像又はパノラマ画像を生成してもよい。車外情報検出ユニット7400は、異なる撮像部7410により撮像された画像データを用いて、視点変換処理を行ってもよい。
 車内情報検出ユニット7500は、車内の情報を検出する。車内情報検出ユニット7500には、例えば、運転者の状態を検出する運転者状態検出部7510が接続される。運転者状態検出部7510は、運転者を撮像するカメラ、運転者の生体情報を検出する生体センサ又は車室内の音声を集音するマイク等を含んでもよい。生体センサは、例えば、座面又はステアリングホイール等に設けられ、座席に座った搭乗者又はステアリングホイールを握る運転者の生体情報を検出する。車内情報検出ユニット7500は、運転者状態検出部7510から入力される検出情報に基づいて、運転者の疲労度合い又は集中度合いを算出してもよいし、運転者が居眠りをしていないかを判別してもよい。車内情報検出ユニット7500は、集音された音声信号に対してノイズキャンセリング処理等の処理を行ってもよい。
 統合制御ユニット7600は、各種プログラムにしたがって車両制御システム7000内の動作全般を制御する。統合制御ユニット7600には、入力部7800が接続されている。入力部7800は、例えば、タッチパネル、ボタン、マイクロフォン、スイッチ又はレバー等、搭乗者によって入力操作され得る装置によって実現される。統合制御ユニット7600には、マイクロフォンにより入力される音声を音声認識することにより得たデータが入力されてもよい。入力部7800は、例えば、赤外線又はその他の電波を利用したリモートコントロール装置であってもよいし、車両制御システム7000の操作に対応した携帯電話又はPDA(Personal Digital Assistant)等の外部接続機器であってもよい。入力部7800は、例えばカメラであってもよく、その場合搭乗者はジェスチャにより情報を入力することができる。あるいは、搭乗者が装着したウェアラブル装置の動きを検出することで得られたデータが入力されてもよい。さらに、入力部7800は、例えば、上記の入力部7800を用いて搭乗者等により入力された情報に基づいて入力信号を生成し、統合制御ユニット7600に出力する入力制御回路などを含んでもよい。搭乗者等は、この入力部7800を操作することにより、車両制御システム7000に対して各種のデータを入力したり処理動作を指示したりする。
 記憶部7690は、マイクロコンピュータにより実行される各種プログラムを記憶するROM(Read Only Memory)、及び各種パラメータ、演算結果又はセンサ値等を記憶するRAM(Random Access Memory)を含んでいてもよい。また、記憶部7690は、HDD(Hard Disc Drive)等の磁気記憶デバイス、半導体記憶デバイス、光記憶デバイス又は光磁気記憶デバイス等によって実現してもよい。
 汎用通信I/F7620は、外部環境7750に存在する様々な機器との間の通信を仲介する汎用的な通信I/Fである。汎用通信I/F7620は、GSM(登録商標)(Global System of Mobile communications)、WiMAX(登録商標)、LTE(登録商標)(Long Term Evolution)若しくはLTE-A(LTE-Advanced)などのセルラー通信プロトコル、又は無線LAN(Wi-Fi(登録商標)ともいう)、Bluetooth(登録商標)などのその他の無線通信プロトコルを実装してよい。汎用通信I/F7620は、例えば、基地局又はアクセスポイントを介して、外部ネットワーク(例えば、インターネット、クラウドネットワーク又は事業者固有のネットワーク)上に存在する機器(例えば、アプリケーションサーバ又は制御サーバ)へ接続してもよい。また、汎用通信I/F7620は、例えばP2P(Peer To Peer)技術を用いて、車両の近傍に存在する端末(例えば、運転者、歩行者若しくは店舗の端末、又はMTC(Machine Type Communication)端末)と接続してもよい。
 専用通信I/F7630は、車両における使用を目的として策定された通信プロトコルをサポートする通信I/Fである。専用通信I/F7630は、例えば、下位レイヤのIEEE802.11pと上位レイヤのIEEE1609との組合せであるWAVE(Wireless Access in Vehicle Environment)、DSRC(Dedicated Short Range Communications)、又はセルラー通信プロトコルといった標準プロトコルを実装してよい。専用通信I/F7630は、典型的には、車車間(Vehicle to Vehicle)通信、路車間(Vehicle to Infrastructure)通信、車両と家との間(Vehicle to Home)の通信及び歩車間(Vehicle to Pedestrian)通信のうちの1つ以上を含む概念であるV2X通信を遂行する。
 測位部7640は、例えば、GNSS(Global Navigation Satellite System)衛星からのGNSS信号(例えば、GPS(Global Positioning System)衛星からのGPS信号)を受信して測位を実行し、車両の緯度、経度及び高度を含む位置情報を生成する。なお、測位部7640は、無線アクセスポイントとの信号の交換により現在位置を特定してもよく、又は測位機能を有する携帯電話、PHS若しくはスマートフォンといった端末から位置情報を取得してもよい。
 ビーコン受信部7650は、例えば、道路上に設置された無線局等から発信される電波あるいは電磁波を受信し、現在位置、渋滞、通行止め又は所要時間等の情報を取得する。なお、ビーコン受信部7650の機能は、上述した専用通信I/F7630に含まれてもよい。
 車内機器I/F7660は、マイクロコンピュータ7610と車内に存在する様々な車内機器7760との間の接続を仲介する通信インタフェースである。車内機器I/F7660は、無線LAN、Bluetooth(登録商標)、NFC(Near Field Communication)又はWUSB(Wireless USB)といった無線通信プロトコルを用いて無線接続を確立してもよい。また、車内機器I/F7660は、図示しない接続端子(及び、必要であればケーブル)を介して、USB(Universal Serial Bus)、HDMI(登録商標)(High-Definition Multimedia Interface)、又はMHL(Mobile High-definition Link)等の有線接続を確立してもよい。車内機器7760は、例えば、搭乗者が有するモバイル機器若しくはウェアラブル機器、又は車両に搬入され若しくは取り付けられる情報機器のうちの少なくとも1つを含んでいてもよい。また、車内機器7760は、任意の目的地までの経路探索を行うナビゲーション装置を含んでいてもよい。車内機器I/F7660は、これらの車内機器7760との間で、制御信号又はデータ信号を交換する。
 車載ネットワークI/F7680は、マイクロコンピュータ7610と通信ネットワーク7010との間の通信を仲介するインタフェースである。車載ネットワークI/F7680は、通信ネットワーク7010によりサポートされる所定のプロトコルに則して、信号等を送受信する。
 統合制御ユニット7600のマイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、各種プログラムにしたがって、車両制御システム7000を制御する。例えば、マイクロコンピュータ7610は、取得される車内外の情報に基づいて、駆動力発生装置、ステアリング機構又は制動装置の制御目標値を演算し、駆動系制御ユニット7100に対して制御指令を出力してもよい。例えば、マイクロコンピュータ7610は、車両の衝突回避あるいは衝撃緩和、車間距離に基づく追従走行、車速維持走行、車両の衝突警告、又は車両のレーン逸脱警告等を含むADAS(Advanced Driver Assistance System)の機能実現を目的とした協調制御を行ってもよい。また、マイクロコンピュータ7610は、取得される車両の周囲の情報に基づいて駆動力発生装置、ステアリング機構又は制動装置等を制御することにより、運転者の操作に拠らずに自律的に走行する自動運転等を目的とした協調制御を行ってもよい。
 マイクロコンピュータ7610は、汎用通信I/F7620、専用通信I/F7630、測位部7640、ビーコン受信部7650、車内機器I/F7660及び車載ネットワークI/F7680のうちの少なくとも一つを介して取得される情報に基づき、車両と周辺の構造物や人物等の物体との間の3次元距離情報を生成し、車両の現在位置の周辺情報を含むローカル地図情報を作成してもよい。また、マイクロコンピュータ7610は、取得される情報に基づき、車両の衝突、歩行者等の近接又は通行止めの道路への進入等の危険を予測し、警告用信号を生成してもよい。警告用信号は、例えば、警告音を発生させたり、警告ランプを点灯させたりするための信号であってよい。
 音声画像出力部7670は、車両の搭乗者又は車外に対して、視覚的又は聴覚的に情報を通知することが可能な出力装置へ音声及び画像のうちの少なくとも一方の出力信号を送信する。図12の例では、出力装置として、オーディオスピーカ7710、表示部7720及びインストルメントパネル7730が例示されている。表示部7720は、例えば、オンボードディスプレイ及びヘッドアップディスプレイの少なくとも一つを含んでいてもよい。表示部7720は、AR(Augmented Reality)表示機能を有していてもよい。出力装置は、これらの装置以外の、ヘッドホン、搭乗者が装着する眼鏡型ディスプレイ等のウェアラブルデバイス、プロジェクタ又はランプ等の他の装置であってもよい。出力装置が表示装置の場合、表示装置は、マイクロコンピュータ7610が行った各種処理により得られた結果又は他の制御ユニットから受信された情報を、テキスト、イメージ、表、グラフ等、様々な形式で視覚的に表示する。また、出力装置が音声出力装置の場合、音声出力装置は、再生された音声データ又は音響データ等からなるオーディオ信号をアナログ信号に変換して聴覚的に出力する。
 なお、図12に示した例において、通信ネットワーク7010を介して接続された少なくとも二つの制御ユニットが一つの制御ユニットとして一体化されてもよい。あるいは、個々の制御ユニットが、複数の制御ユニットにより構成されてもよい。さらに、車両制御システム7000が、図示されていない別の制御ユニットを備えてもよい。また、上記の説明において、いずれかの制御ユニットが担う機能の一部又は全部を、他の制御ユニットに持たせてもよい。つまり、通信ネットワーク7010を介して情報の送受信がされるようになっていれば、所定の演算処理が、いずれかの制御ユニットで行われるようになってもよい。同様に、いずれかの制御ユニットに接続されているセンサ又は装置が、他の制御ユニットに接続されるとともに、複数の制御ユニットが、通信ネットワーク7010を介して相互に検出情報を送受信してもよい。
 なお、図5を用いて説明した本実施形態に係る情報処理装置21の各機能を実現するためのコンピュータプログラムを、いずれかの制御ユニット等に実装することができる。また、このようなコンピュータプログラムが格納された、コンピュータで読み取り可能な記録媒体を提供することもできる。記録媒体は、例えば、磁気ディスク、光ディスク、光磁気ディスク、フラッシュメモリ等である。また、上記のコンピュータプログラムは、記録媒体を用いずに、例えばネットワークを介して配信されてもよい。
 以上説明した車両制御システム7000において、図5を用いて説明した本実施形態に係る情報処理装置21は、図12に示した応用例の統合制御ユニット7600に適用することができる。例えば、情報処理装置21の画像取得部31、ドメイン適応処理実行部33、判定部36、および認識処理部37は、統合制御ユニット7600のマイクロコンピュータ7610に相当する。また、例えば、情報処理装置21の記憶部32は、統合制御ユニット7600の記憶部7690に相当し、情報処理装置21の送信部34および受信部35は、統合制御ユニット7600の車載ネットワークI/F7680に相当する。例えば、統合制御ユニット7600がドメイン適応処理を実行することにより、認識器のモデルを更新することができる。
 また、図5を用いて説明した情報処理装置21の少なくとも一部の構成要素は、図12に示した統合制御ユニット7600のためのモジュール(例えば、一つのダイで構成される集積回路モジュール)において実現されてもよい。あるいは、図5を用いて説明した情報処理装置21、図12に示した車両制御システム7000の複数の制御ユニットによって実現されてもよい。
 <構成の組み合わせ例>
 なお、本技術は以下のような構成も取ることができる。
(1)
 所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定され、所定個数の前記端末において画像認識が行われた画像を対象として画像認識を行う所定個数の認識部と、
 所定個数の前記認識部における認識結果を評価し、前記認識部ごとの評価値を算出する評価値算出部と
 を備える情報処理装置。
(2)
 前記学習は、所定個数の端末において前記画像が取得される所定間隔のタイミングごとに行われ、
 前記評価値算出部は、前記所定間隔よりも長い一定期間ごとに前記評価値を算出する
 上記(1)に記載の情報処理装置。
(3)
 所定個数の前記認識部における認識結果が統合された統合認識結果を求める統合部をさらに備え、
 前記評価値算出部は、所定個数の前記認識部における認識結果と、前記統合認識結果とを用いて、個々の前記認識部の評価値を算出する
 上記(1)または(2)に記載の情報処理装置。
(4)
 所定個数の前記認識部は、所定個数の前記端末において画像認識が行われた全ての画像を対象として画像認識を行う
 上記(1)から(3)までのいずれかに記載の情報処理装置。
(5)
 所定個数の前記認識部は、所定の前記端末の前記画像を、その端末から送信されてくる付加情報によって重み付けした画像に対する画像認識を行う
 上記(4)に記載の情報処理装置。
(6)
 所定個数の前記端末から送信されてくる前記画像、前記モデル、および前記付加情報を受信する受信部をさらに備え、
 前記受信部は、所定個数の前記端末の前記モデルを、それぞれ対応する所定個数の前記認識部に設定し、所定枚数の前記画像および所定個数の前記付加情報を所定個数の前記認識部の全てに供給する
 上記(5)に記載の情報処理装置。
(7)
 前記評価値算出部により算出された所定個数の前記認識部に設定された前記モデルに対する評価値を、それぞれ対応する所定個数の前記端末に送信する送信部
 をさらに備える上記(1)から(6)までのいずれかに記載の情報処理装置。
(8)
 情報処理装置が、
 所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定される所定個数の認識部において、所定個数の前記端末において画像認識が行われた画像を対象として画像認識を行うことと、
 所定個数の前記認識部における認識結果を評価し、前記認識部ごとの評価値を算出することと
 を含む情報処理方法。
(9)
 画像に対する画像認識を行う認識器のモデルに対する教師なし学習を実行する実行部と、
 前記実行部での学習により更新された前記モデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かを判定する判定部と
 を備え、
 前記実行部は、前記判定部において正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻す
 情報処理装置。
(10)
 前記実行部は、前記画像が取得される所定間隔のタイミングごとに前記学習を実行し、
 前記評価値は、前記所定間隔よりも長い一定期間ごとに求められる
 上記(9)に記載の情報処理装置。
(11)
 前記評価値が求められるタイミングで、前記モデルおよび前記画像とともに、所定の付加情報を送信する送信部
 をさらに備える上記(9)または(10)に記載の情報処理装置。
(12)
 前記実行部により更新された最新の前記モデルを認識器に設定して、前記画像に対する認識処理を行い、その認識結果を用いた所定の処理を行う処理部に認識結果を出力する認識処理部
 をさらに備える上記(9)から(11)までのいずれかに記載の情報処理装置。
(13)
 情報処理装置が、
 画像に対する画像認識を行う認識器のモデルに対する教師なし学習を実行することと、
 その学習により更新された前記モデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かを判定することと
 を含み、
 正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻す
 情報処理方法。
(14)
  所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定され、所定個数の前記端末において画像認識が行われた画像を対象として画像認識を行う所定個数の認識部と、
  所定個数の前記認識部における認識結果を評価し、前記認識部ごとの評価値を算出する評価値算出部と
 を有する第1の情報処理装置と、
  画像に対する画像認識を行う認識器のモデルに対する教師なし学習を実行する実行部と、
  前記実行部での学習により更新された前記モデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かを判定する判定部と
 を有し、
  前記実行部は、前記判定部において正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻す
 第2の情報処理装置と
 を備えるシステム。
 なお、本実施の形態は、上述した実施の形態に限定されるものではなく、本開示の要旨を逸脱しない範囲において種々の変更が可能である。また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
 11 学習システム, 12 ネットワーク, 13 車両, 14 サーバ, 21および22 情報処理装置, 31 画像取得部, 32 記憶部, 33 ドメイン適応処理実行部, 34 送信部, 35 受信部, 36 判定部, 37 認識処理部, 41 環境特徴量計算部, 42 ドメイン判別部, 43 更新値計算部, 51 受信部, 52 認識部, 53 統合部, 54 評価算出部, 55 送信部

Claims (13)

  1.  所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定され、所定個数の前記端末において画像認識が行われた画像を対象として画像認識を行う所定個数の認識部と、
     所定個数の前記認識部における認識結果を評価し、前記認識部ごとの評価値を算出する評価値算出部と
     を備える情報処理装置。
  2.  前記学習は、所定個数の端末において前記画像が取得される所定間隔のタイミングごとに行われ、
     前記評価値算出部は、前記所定間隔よりも長い一定期間ごとに前記評価値を算出する
     請求項1に記載の情報処理装置。
  3.  所定個数の前記認識部における認識結果が統合された統合認識結果を求める統合部をさらに備え、
     前記評価値算出部は、所定個数の前記認識部における認識結果と、前記統合認識結果とを用いて、個々の前記認識部の評価値を算出する
     請求項1に記載の情報処理装置。
  4.  所定個数の前記認識部は、所定個数の前記端末において画像認識が行われた全ての画像を対象として画像認識を行う
     請求項1に記載の情報処理装置。
  5.  所定個数の前記認識部は、所定の前記端末の前記画像を、その端末から送信されてくる付加情報によって重み付けした画像に対する画像認識を行う
     請求項4に記載の情報処理装置。
  6.  所定個数の前記端末から送信されてくる前記画像、前記モデル、および前記付加情報を受信する受信部をさらに備え、
     前記受信部は、所定個数の前記端末の前記モデルを、それぞれ対応する所定個数の前記認識部に設定し、所定枚数の前記画像および所定個数の前記付加情報を所定個数の前記認識部の全てに供給する
     請求項5に記載の情報処理装置。
  7.  前記評価値算出部により算出された所定個数の前記認識部に設定された前記モデルに対する評価値を、それぞれ対応する所定個数の前記端末に送信する送信部
     をさらに備える請求項1に記載の情報処理装置。
  8.  情報処理装置が、
     所定個数の端末において画像認識を行い、教師なし学習を実行することにより更新されるモデルが、それぞれ設定される所定個数の認識部において、所定個数の前記端末において画像認識が行われた画像を対象として画像認識を行うことと、
     所定個数の前記認識部における認識結果を評価し、前記認識部ごとの評価値を算出することと
     を含む情報処理方法。
  9.  画像に対する画像認識を行う認識器のモデルに対する教師なし学習を実行する実行部と、
     前記実行部での学習により更新された前記モデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かを判定する判定部と
     を備え、
     前記実行部は、前記判定部において正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻す
     情報処理装置。
  10.  前記実行部は、前記画像が取得される所定間隔のタイミングごとに前記学習を実行し、
     前記評価値は、前記所定間隔よりも長い一定期間ごとに求められる
     請求項9に記載の情報処理装置。
  11.  前記評価値が求められるタイミングで、前記モデルおよび前記画像とともに、所定の付加情報を送信する送信部
     をさらに備える請求項9に記載の情報処理装置。
  12.  前記実行部により更新された最新の前記モデルを認識器に設定して、前記画像に対する認識処理を行い、その認識結果を用いた所定の処理を行う処理部に認識結果を出力する認識処理部
     をさらに備える請求項9に記載の情報処理装置。
  13.  情報処理装置が、
     画像に対する画像認識を行う認識器のモデルに対する教師なし学習を実行することと、
     その学習により更新された前記モデルについて、それぞれ異なる所定個数のモデルにおいて画像認識が行われた認識結果を用いて求められる評価値に基づいて、正しく学習が行われたか否かを判定することと
     を含み、
     正しく学習が行われていないと判定された場合、その学習が行われる前のモデルに戻す
     情報処理方法。
PCT/JP2020/011600 2019-03-29 2020-03-17 情報処理装置および情報処理方法 WO2020203240A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021511391A JPWO2020203240A1 (ja) 2019-03-29 2020-03-17
KR1020217026864A KR20210146891A (ko) 2019-03-29 2020-03-17 정보 처리 장치 및 정보 처리 방법
EP20783497.9A EP3951709A4 (en) 2019-03-29 2020-03-17 INFORMATION PROCESSING DEVICE AND INFORMATION PROCESSING METHOD
US17/440,194 US20220012552A1 (en) 2019-03-29 2020-03-17 Information processing device and information processing method
CN202080023017.2A CN113614732A (zh) 2019-03-29 2020-03-17 信息处理设备及信息处理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019068492 2019-03-29
JP2019-068492 2019-03-29

Publications (1)

Publication Number Publication Date
WO2020203240A1 true WO2020203240A1 (ja) 2020-10-08

Family

ID=72668655

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/011600 WO2020203240A1 (ja) 2019-03-29 2020-03-17 情報処理装置および情報処理方法

Country Status (6)

Country Link
US (1) US20220012552A1 (ja)
EP (1) EP3951709A4 (ja)
JP (1) JPWO2020203240A1 (ja)
KR (1) KR20210146891A (ja)
CN (1) CN113614732A (ja)
WO (1) WO2020203240A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020182139A (ja) * 2019-04-26 2020-11-05 ソニー株式会社 撮像システム及び撮像素子

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057701A (ja) * 2014-09-05 2016-04-21 オムロン株式会社 識別装置および識別装置の制御方法
JP2016173682A (ja) * 2015-03-16 2016-09-29 シャープ株式会社 異常判定装置および異常判定方法
JP2017174298A (ja) 2016-03-25 2017-09-28 株式会社デンソーアイティーラボラトリ ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法
JP2018207222A (ja) * 2017-05-31 2018-12-27 パナソニックIpマネジメント株式会社 カメラ及びパラメータ登録方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016057701A (ja) * 2014-09-05 2016-04-21 オムロン株式会社 識別装置および識別装置の制御方法
JP2016173682A (ja) * 2015-03-16 2016-09-29 シャープ株式会社 異常判定装置および異常判定方法
JP2017174298A (ja) 2016-03-25 2017-09-28 株式会社デンソーアイティーラボラトリ ニューラルネットワークシステム、端末装置、管理装置およびニューラルネットワークにおける重みパラメータの学習方法
JP2018207222A (ja) * 2017-05-31 2018-12-27 パナソニックIpマネジメント株式会社 カメラ及びパラメータ登録方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3951709A4

Also Published As

Publication number Publication date
EP3951709A1 (en) 2022-02-09
CN113614732A (zh) 2021-11-05
JPWO2020203240A1 (ja) 2020-10-08
EP3951709A4 (en) 2022-09-07
KR20210146891A (ko) 2021-12-06
US20220012552A1 (en) 2022-01-13

Similar Documents

Publication Publication Date Title
JP6834964B2 (ja) 画像処理装置、画像処理方法、およびプログラム
WO2017057044A1 (ja) 情報処理装置及び情報処理方法
JP6764573B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7294148B2 (ja) キャリブレーション装置とキャリブレーション方法およびプログラム
US11585898B2 (en) Signal processing device, signal processing method, and program
CN111587572A (zh) 图像处理装置、图像处理方法和程序
US20220306130A1 (en) System, method and computer program to suppress vibrations in a vehicle
JPWO2018180121A1 (ja) 情報処理装置と情報処理方法
EP3669358B1 (en) Server, method, non-transitory computer-readable medium, and system
WO2020203240A1 (ja) 情報処理装置および情報処理方法
WO2020195965A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7160085B2 (ja) 画像処理装置、画像処理方法及びプログラム
WO2022059489A1 (ja) 情報処理装置、情報処理方法及びプログラム
WO2020195969A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP7173056B2 (ja) 認識装置と認識方法およびプログラム
US20230410486A1 (en) Information processing apparatus, information processing method, and program
WO2022190801A1 (ja) 情報処理装置、情報処理システム、情報処理方法及び記録媒体
JP2022037373A (ja) 情報処理装置、および情報処理方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20783497

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021511391

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020783497

Country of ref document: EP

Effective date: 20211029