JP2023142113A - Information processing apparatus and program - Google Patents

Information processing apparatus and program Download PDF

Info

Publication number
JP2023142113A
JP2023142113A JP2022048811A JP2022048811A JP2023142113A JP 2023142113 A JP2023142113 A JP 2023142113A JP 2022048811 A JP2022048811 A JP 2022048811A JP 2022048811 A JP2022048811 A JP 2022048811A JP 2023142113 A JP2023142113 A JP 2023142113A
Authority
JP
Japan
Prior art keywords
data
trained model
output
model
acquired
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022048811A
Other languages
Japanese (ja)
Inventor
光瑠 福島
Mitsuru Fukushima
勇 高井
Isamu Takai
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Central R&D Labs Inc
Original Assignee
Toyota Central R&D Labs Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Central R&D Labs Inc filed Critical Toyota Central R&D Labs Inc
Priority to JP2022048811A priority Critical patent/JP2023142113A/en
Publication of JP2023142113A publication Critical patent/JP2023142113A/en
Pending legal-status Critical Current

Links

Landscapes

  • Exposure Control For Cameras (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

To provide an information processing apparatus and a program that can support a learned model in which data acquired under a variety of environments is processed.SOLUTION: An information processing apparatus 14 acquires image data which is input data. The information processing apparatus 14 acquires a first learned model and a second learned model. The information processing apparatus 14 acquires first output data output from the first learned model by inputting the image data into the first learned model. The information processing apparatus 14 acquires second output data output from the second learned model by inputting the image data into the second learned model. The information processing apparatus 14 generates change data for changing the first output data on the basis of the second output data. The information processing apparatus 14 controls a camera 12 which is a control object, on the basis of the generated change data.SELECTED DRAWING: Figure 1

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing device and a program.

従来、物体を識別する後段の信号処理に至適なデータを提供し、物体を識別する精度を向上させる技術が知られている(例えば、特許文献1を参照)。特許文献1の技術は、センサから出力された画像データの識別結果を出力した際に、当該画像データの取得時にセンサに適用したパラメータを変更し、変更したパラメータに基づいてセンサが画像データを取得するようにパラメータを設定する。 2. Description of the Related Art Conventionally, a technique is known that improves the accuracy of object identification by providing optimal data for subsequent signal processing for object identification (see, for example, Patent Document 1). The technology disclosed in Patent Document 1 changes the parameters applied to the sensor when acquiring the image data when outputting the identification result of the image data output from the sensor, and the sensor acquires the image data based on the changed parameters. Set the parameters so that

特開2021-144689号公報JP 2021-144689 Publication

ところで、例えば、入力データが入力されると当該入力データに対する出力データを出力する学習済みモデルが信号処理装置に搭載されている場合を考える。この場合、その信号処理装置に搭載されている学習済みモデルは所与のものであり、当該学習済みモデルを変更することは許されない場合がある。 For example, consider a case where a signal processing device is equipped with a trained model that outputs output data corresponding to input data when input data is input. In this case, the trained model installed in the signal processing device is a given model, and it may not be allowed to change the trained model.

例えば、車両に搭載されたカメラによって撮像された画像データが入力データである場合を考える。この場合、カメラによって撮像される車両前方の画像は、その環境に応じて様々に変化し得る。このため、例えば、夜間に撮像された画像データと、昼間に撮像された画像データの両方を1つの物体識別処理又は学習済みモデルによって処理するのは難しい。 For example, consider a case where the input data is image data captured by a camera mounted on a vehicle. In this case, the image of the front of the vehicle captured by the camera may vary depending on the environment. Therefore, for example, it is difficult to process both image data captured at night and image data captured during the day using one object identification process or learned model.

本発明は、上記課題に鑑みてなされたものであり、様々な環境下において取得されたデータを処理する学習済みモデルを支援することができる情報処理装置及びプログラムを提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide an information processing device and a program that can support a trained model that processes data acquired under various environments.

上記目的を達成するために、本発明に係る情報処理装置は、入力データを取得するデータ取得部と、第1学習済みモデルと第2学習済みモデルとを記憶部から取得するモデル取得部と、前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第1学習済みモデルへ入力することにより、前記第1学習済みモデルから出力された第1出力データを取得する第1制御部と、前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第2学習済みモデルへ入力することにより、前記第2学習済みモデルから出力された第2出力データを取得する第2制御部と、前記第2制御部により取得された前記第2出力データに基づいて、前記第1制御部により取得された前記第1出力データを変更するための変更データを生成する変更部と、前記変更部により生成された前記変更データに基づいて、制御対象物を制御する第3制御部と、を備え、前記第1学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データの第1正解データとの組み合わせである第1学習用データに基づいて予め学習されている学習済みモデルであり、前記第2学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データに関連する関連データの第2正解データとの組み合わせである第2学習用データに基づいて、前記第1学習済みモデルが出力する前記第1出力データが前記第1正解データへ近づくように予め学習されている学習済みモデルである、情報処理装置である。 In order to achieve the above object, an information processing device according to the present invention includes: a data acquisition unit that acquires input data; a model acquisition unit that acquires a first trained model and a second trained model from a storage unit; By inputting the input data acquired by the data acquisition unit to the first trained model acquired by the model acquisition unit, first output data output from the first trained model is acquired. By inputting the input data acquired by the first control unit and the data acquisition unit to the second trained model acquired by the model acquisition unit, the second trained model output from the second trained model a second control unit that acquires two output data; and a change for changing the first output data acquired by the first control unit based on the second output data acquired by the second control unit. The first learned model includes a change unit that generates data, and a third control unit that controls a controlled object based on the change data generated by the change unit, and the first learned model The model is trained in advance based on first learning data that is a combination of the input data input to the model and the first correct answer data of the first output data output from the first trained model. The second trained model is a trained model, and the second trained model has a relationship between the input data input to the first trained model and the first output data output from the first trained model. Learning that has been trained in advance so that the first output data output by the first trained model approaches the first correct data based on second learning data that is a combination of data and second correct data. This is an information processing device that is a complete model.

本発明に係る前記制御対象物はカメラであり、前記入力データは前記カメラによって撮像された画像データであり、前記第2学習済みモデルから出力される前記第2出力データは、カメラパラメータ又はカメラパラメータの計算手法の識別データを表す前記関連データであり、前記第3制御部は、前記関連データに応じた前記カメラパラメータを前記制御対象物である前記カメラに対して設定し、前記カメラによって撮像される画像データの特性を変更するように制御することにより、前記第1学習済みモデルから出力される出力データを変更するように制御する、ようにすることができる。 The controlled object according to the present invention is a camera, the input data is image data captured by the camera, and the second output data output from the second learned model is a camera parameter or a camera parameter. The related data represents identification data of a calculation method, and the third control unit sets the camera parameters corresponding to the related data for the camera that is the controlled object, and the third control unit sets the camera parameters corresponding to the related data, and By controlling to change the characteristics of the image data, it is possible to control to change the output data output from the first trained model.

本発明に係る前記第2学習済みモデルから出力される前記第2出力データは、前記第1学習済みモデルから出力される前記第1出力データと同一種類のデータであり、前記第3制御部は、前記第2学習済みモデルから出力される前記第2出力データに基づいて、前記制御対象物である前記第1学習済みモデルから出力される前記第1出力データを修正するように制御するようにすることができる。 The second output data output from the second trained model according to the present invention is the same type of data as the first output data output from the first trained model, and the third control unit , based on the second output data output from the second trained model, control is performed to modify the first output data output from the first trained model, which is the controlled object. can do.

本発明に係る前記データ取得部は、第1センサによって取得された第1入力データと、第2センサによって取得された第2入力データとを、前記入力データとして取得し、前記第1制御部は、前記データ取得部により取得された前記第1入力データを、前記モデル取得部により取得された前記第1学習済みモデルへ入力することにより、前記第1学習済みモデルから出力された前記第1出力データを取得し、前記第2制御部は、前記データ取得部により取得された前記第2入力データを、前記モデル取得部により取得された前記第2学習済みモデルへ入力することにより、前記第2学習済みモデルから出力された前記第2出力データを取得し、前記第3制御部は、前記第2学習済みモデルから出力される前記第2出力データに基づいて、前記制御対象物である前記第1学習済みモデルから出力される前記第1出力データを修正するように制御するようにすることができる。 The data acquisition unit according to the present invention acquires first input data acquired by a first sensor and second input data acquired by a second sensor as the input data, and the first control unit , the first output output from the first trained model by inputting the first input data acquired by the data acquisition unit to the first trained model acquired by the model acquisition unit. data, and the second control unit inputs the second input data acquired by the data acquisition unit to the second learned model acquired by the model acquisition unit. The third control unit acquires the second output data output from the trained model, and the third control unit controls the second output data that is the controlled object based on the second output data output from the second trained model. Control may be performed to modify the first output data output from the first trained model.

本発明のプログラムは、コンピュータを、入力データを取得するデータ取得部、第1学習済みモデルと第2学習済みモデルとを記憶部から取得するモデル取得部、前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第1学習済みモデルへ入力することにより、前記第1学習済みモデルから出力された第1出力データを取得する第1制御部、前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第2学習済みモデルへ入力することにより、前記第2学習済みモデルから出力された第2出力データを取得する第2制御部、前記第2制御部により取得された前記第2出力データに基づいて、前記第1制御部により取得された前記第1出力データを変更するための変更データを生成する変更部、及び前記変更部により生成された前記変更データに基づいて、制御対象物を制御する第3制御部として機能させるためのプログラムであって、前記第1学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データの第1正解データとの組み合わせである第1学習用データに基づいて予め学習されている学習済みモデルであり、前記第2学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データに関連する関連データの第2正解データとの組み合わせである第2学習用データに基づいて、前記第1学習済みモデルが出力する前記第1出力データが前記第1正解データへ近づくように予め学習されている学習済みモデルである、プログラムである。 The program of the present invention includes a data acquisition unit that acquires input data, a model acquisition unit that acquires a first trained model and a second trained model from a storage unit, and the input data acquired by the data acquisition unit. a first control unit that acquires first output data output from the first trained model by inputting data to the first trained model acquired by the model acquisition unit; a second control unit that acquires second output data output from the second trained model by inputting the acquired input data to the second trained model acquired by the model acquisition unit; a changing unit that generates change data for changing the first output data acquired by the first control unit based on the second output data acquired by the second control unit; A program for functioning as a third control unit that controls a controlled object based on the generated change data, wherein the first trained model is input to the first trained model. The trained model is trained in advance based on first learning data that is a combination of the input data and first correct data of the first output data output from the first trained model, and The second trained model includes the input data input to the first trained model and second correct data of related data related to the first output data output from the first trained model. The program is a trained model that has been trained in advance so that the first output data outputted by the first trained model approaches the first correct data based on second learning data that is a combination of be.

本発明によれば、様々な環境下において取得されたデータを処理する学習済みモデルを支援することができる、という効果が得られる。 According to the present invention, it is possible to support trained models that process data acquired under various environments.

第1実施形態に係る情報処理装置の構成の一例を示す概略図である。FIG. 1 is a schematic diagram showing an example of the configuration of an information processing device according to a first embodiment. 情報処理装置のコンピュータの構成例を示す図である。FIG. 2 is a diagram illustrating a configuration example of a computer of an information processing device. 情報処理システムの概要を説明するための図である。FIG. 1 is a diagram for explaining an overview of an information processing system. 画像データとカメラパラメータとを説明するための図である。FIG. 3 is a diagram for explaining image data and camera parameters. 第1実施形態の情報処理ルーチンの一例を示す図である。FIG. 3 is a diagram illustrating an example of an information processing routine according to the first embodiment. 第2実施形態に係る情報処理装置の構成の一例を示す概略図である。FIG. 2 is a schematic diagram showing an example of the configuration of an information processing device according to a second embodiment. 第1実施形態の概要を説明するための図である。FIG. 2 is a diagram for explaining an overview of the first embodiment. 第1実施形態の概要を説明するための図である。FIG. 2 is a diagram for explaining an overview of the first embodiment. 第2実施形態の概要を説明するための図である。FIG. 7 is a diagram for explaining an overview of a second embodiment. 第2実施形態の概要を説明するための図である。FIG. 7 is a diagram for explaining an overview of a second embodiment. 第2実施形態の情報処理ルーチンの一例を示す図である。FIG. 7 is a diagram showing an example of an information processing routine according to the second embodiment.

以下、図面を参照して本発明の実施形態について詳細に説明する。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

本実施形態では、車両にカメラが取り付けられ、車両に搭載されたカメラが車両の前方を逐次撮像する場合を例に説明する。 The present embodiment will be described using an example in which a camera is attached to a vehicle and the camera mounted on the vehicle sequentially captures images in front of the vehicle.

<第1実施形態>
図1を参照して、第1実施形態に係る情報処理システムについて説明する。図1は、第1実施形態に係る情報処理システム10の概略図を示している。
<First embodiment>
With reference to FIG. 1, an information processing system according to a first embodiment will be described. FIG. 1 shows a schematic diagram of an information processing system 10 according to the first embodiment.

図1に示されるように、情報処理システム10は、カメラ12と、情報処理装置14とを含んで構成されている。 As shown in FIG. 1, the information processing system 10 includes a camera 12 and an information processing device 14.

カメラ12は、移動体の一例である車両に設置される。カメラ12は、車両の前方の画像を撮像する。カメラ12は、レンズ等の光学系と受光の強度に応じた信号を出力する撮像素子とを含むセンサデバイス12Aと、センサデバイス12Aが出力した信号を画像ファイルへ変換する、いわゆる画像エンジンである前処理器12Bとを備えている。 The camera 12 is installed in a vehicle, which is an example of a moving object. The camera 12 captures an image in front of the vehicle. The camera 12 includes a sensor device 12A that includes an optical system such as a lens and an image sensor that outputs a signal according to the intensity of received light, and a so-called image engine that converts the signal output by the sensor device 12A into an image file. It is equipped with a processor 12B.

情報処理装置14は、図2に示されるように、CPU51、一時記憶領域としてのメモリ52、及び不揮発性の記憶部53を備えるコンピュータにより実現される。また、情報処理装置14のコンピュータは、外部装置及び出力装置等が接続される入出力interface(I/F)54、及び記録媒体59に対するデータの読み込み及び書き込みを制御するread/write(R/W)部55を備える。また、コンピュータは、インターネット等のネットワークに接続されるネットワークI/F56を備える。CPU51、メモリ52、記憶部53、入出力I/F54、R/W部55、及びネットワークI/F56は、バス57を介して互いに接続される。 The information processing device 14 is realized by a computer including a CPU 51, a memory 52 as a temporary storage area, and a nonvolatile storage section 53, as shown in FIG. The computer of the information processing device 14 also has an input/output interface (I/F) 54 to which external devices and output devices are connected, and a read/write (R/W) that controls reading and writing of data to and from a recording medium 59. ) section 55. The computer also includes a network I/F 56 connected to a network such as the Internet. The CPU 51, memory 52, storage section 53, input/output I/F 54, R/W section 55, and network I/F 56 are connected to each other via a bus 57.

記憶部53は、Hard Disk Drive(HDD)、solid state drive(SSD)、フラッシュメモリ等によって実現できる。記憶媒体としての記憶部53には、コンピュータを機能させるためのプログラムが記憶されている。CPU51は、プログラムを記憶部53から読み出してメモリ52に展開し、プログラムが有するプロセスを順次実行する。 The storage unit 53 can be realized by a hard disk drive (HDD), solid state drive (SSD), flash memory, or the like. The storage unit 53 as a storage medium stores a program for making the computer function. The CPU 51 reads the program from the storage unit 53, expands it into the memory 52, and sequentially executes the processes included in the program.

この情報処理装置14をハードウェアとソフトウェアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図1に示されるように、データ取得部140と、学習済みモデル記憶部141と、データ記憶部142と、モデル取得部143と、第1制御部144と、第2制御部145と、変更部146と、第3制御部147と、を備えている。 This information processing device 14 will be explained in terms of functional blocks divided into functional implementation means determined based on hardware and software. As shown in FIG. It includes a data storage section 142, a model acquisition section 143, a first control section 144, a second control section 145, a change section 146, and a third control section 147.

データ取得部140は、カメラ12によって撮像された各時刻の画像データを取得する。画像データは、本発明の入力データの一例である。 The data acquisition unit 140 acquires image data captured by the camera 12 at each time. Image data is an example of input data of the present invention.

学習済みモデル記憶部141には、第1学習済みモデルと第2学習済みモデルとが格納されている。 The trained model storage unit 141 stores a first trained model and a second trained model.

図3に、第1実施形態の情報処理システム10の概要を説明するための図を示す。図3に示されるように、本実施形態の情報処理システム10では、カメラ12のカメラパラメータが設定される。具体的には、本実施形態の情報処理システム10では、カメラ12によって撮像された画像データが第1学習済みモデルM1へ入力されると、第1学習済みモデルM1は第1出力データの一例として物体識別結果を出力する。物体識別結果は、画像データに写る物体の識別結果である。例えば、第1学習済みモデルM1からは、図4に示されるような物体識別結果が出力される。 FIG. 3 shows a diagram for explaining an overview of the information processing system 10 of the first embodiment. As shown in FIG. 3, in the information processing system 10 of this embodiment, camera parameters of the camera 12 are set. Specifically, in the information processing system 10 of the present embodiment, when image data captured by the camera 12 is input to the first trained model M1, the first trained model M1 receives the data as an example of the first output data. Output object identification results. The object identification result is the identification result of an object appearing in the image data. For example, the first trained model M1 outputs an object identification result as shown in FIG.

図4に、画像データとカメラパラメータとを説明するための図を示す。図4に示されるように、図4(A)では物体が認識されておらず、検出数:0,信頼度計:0となっている。なお、図4(A)でのカメラ12の露光時間は所定の露光時間を表す「露光時間1」である。また、図4(B)では物体が認識されており、検出数:2,信頼度計:168となっている。なお、図4(B)でのカメラ12の露光時間は「露光時間2」である。また、図4(C)では物体が認識されており、検出数:2,信頼度計:193となっている。なお、図4(C)でのカメラ12の露光時間は「露光時間3」である。また、図4(D)では物体が認識されており、検出数:1,信頼度計:93となっている。なお、図4(D)でのカメラ12の露光時間は「露光時間4」である。 FIG. 4 shows a diagram for explaining image data and camera parameters. As shown in FIG. 4, no object is recognized in FIG. 4A, the number of detections is 0, and the reliability meter is 0. Note that the exposure time of the camera 12 in FIG. 4(A) is "exposure time 1" representing a predetermined exposure time. Further, in FIG. 4(B), the object is recognized, the number of detections: 2, and the reliability meter: 168. Note that the exposure time of the camera 12 in FIG. 4(B) is "exposure time 2". Further, in FIG. 4C, the object is recognized, the number of detections: 2, and the reliability meter: 193. Note that the exposure time of the camera 12 in FIG. 4(C) is "exposure time 3". Further, in FIG. 4(D), the object is recognized, the number of detections: 1, and the reliability meter: 93. Note that the exposure time of the camera 12 in FIG. 4(D) is "exposure time 4".

図4に示されるように、カメラ12のカメラパラメータである露光時間が異なる場合、そのカメラ12によって撮像された画像データは異なるものとなり、第1学習済みモデルM1によって得られる物体識別結果も異なるものとなる。図4(A)~(D)のうち、最も好ましい識別結果は図4(C)であり、図4(C)の露光時間3が適切なカメラパラメータであるといえる。 As shown in FIG. 4, if the exposure time, which is a camera parameter of the camera 12, is different, the image data captured by the camera 12 will be different, and the object identification results obtained by the first trained model M1 will also be different. becomes. Among FIGS. 4(A) to 4(D), the most preferable identification result is FIG. 4(C), and it can be said that the exposure time 3 in FIG. 4(C) is an appropriate camera parameter.

そこで、本実施形態の情報処理システム10は、第1学習済みモデルM1から出力される物体識別結果が正解に近づくように、第2学習済みモデルM2を用いてカメラ12のカメラパラメータを設定する。これにより、様々な環境下において取得された画像データを処理する第1学習済みモデルM1を適切に支援することができる。以下、具体的に説明する。 Therefore, the information processing system 10 of this embodiment sets the camera parameters of the camera 12 using the second trained model M2 so that the object identification result output from the first trained model M1 approaches the correct answer. Thereby, it is possible to appropriately support the first trained model M1 that processes image data acquired under various environments. This will be explained in detail below.

第1学習済みモデルM1は、第1学習済みモデルM1に対して入力される画像データと、第1学習済みモデルM1から出力される第1出力データである物体識別結果の正解データ(以下、単に「第1正解データ」とも称する。)との組み合わせである第1学習用データに基づいて予め機械学習されている。 The first trained model M1 includes image data input to the first trained model M1 and correct data of object identification results (hereinafter simply referred to as first output data outputted from the first trained model M1). Machine learning has been performed in advance based on the first learning data, which is a combination of the "first correct data" (also referred to as "first correct data").

第2学習済みモデルM2は、第1学習済みモデルM1に対して入力される画像データと、第1学習済みモデルM1から出力される物体識別結果に関連する関連データの正解データ(以下、単に「第2正解データ」とも称する。)との組み合わせである第2学習用データに基づいて、第1学習済みモデルM1が出力する物体識別結果が第1正解データへ近づくように予め機械学習されている。物体識別結果に関連する関連データは、カメラパラメータ自体又はカメラパラメータの計算手法の識別データである。本実施形態では、関連データがカメラパラメータの計算手法の識別データである場合を例に説明する。 The second trained model M2 includes image data input to the first trained model M1 and correct answer data (hereinafter simply " Machine learning is performed in advance so that the object identification result output by the first trained model M1 approaches the first correct data based on the second learning data, which is a combination of the second correct data and the second correct data. . The related data related to the object identification result is identification data of the camera parameters themselves or the calculation method of the camera parameters. In this embodiment, an example will be described in which the related data is identification data of a camera parameter calculation method.

なお、本実施形態の第2学習用データに含まれる関連データの第2正解データは、第1学習済みモデルM1から出力される物体識別結果に関する関連データの正解データである。 Note that the second correct answer data of the related data included in the second learning data of this embodiment is the correct answer data of the related data regarding the object identification result output from the first learned model M1.

例えば、図4(A)~(D)のうち、(A)は信頼度計が0であり、(B)は信頼度計が168であり、(C)は信頼度計が193であり、(D)は信頼度計が93である。(B)及び(C)の画像データが第1学習済みモデルM1へ入力された場合には前方車両が検知されている一方で、(A)及び(D)の画像データが第1学習済みモデルM1へ入力された場合には前方車両の検知に失敗していることがわかる。本実施形態では、図4(A)~(D)の画像データが撮像された際のカメラパラメータ自体又はカメラパラメータの計算手法の識別データを、関連データとして第2学習用データに含ませる。第2学習用データには、(A)及び(D)の画像データが撮像された際のカメラパラメータ自体又はカメラパラメータの計算手法の識別データが含まれているため、第2学習済みモデルM2は、第1学習済みモデルM1が苦手とする画像データが撮像された際のカメラパラメータを改善するような、カメラパラメータ自体又はカメラパラメータの計算手法の識別データを出力するようになる。 For example, among FIGS. 4(A) to (D), (A) has a reliability meter of 0, (B) has a reliability meter of 168, and (C) has a reliability meter of 193. In (D), the reliability meter is 93. When the image data of (B) and (C) are input to the first trained model M1, the vehicle ahead is detected, while the image data of (A) and (D) are input to the first trained model M1. If it is input to M1, it can be seen that detection of the vehicle ahead has failed. In the present embodiment, the camera parameters themselves when the image data of FIGS. 4A to 4D were captured or identification data of the camera parameter calculation method are included in the second learning data as related data. Since the second learning data includes the camera parameters themselves when the image data of (A) and (D) were captured or the identification data of the camera parameter calculation method, the second learned model M2 is , the first trained model M1 outputs identification data of camera parameters themselves or camera parameter calculation methods that improve camera parameters when image data is captured, which is difficult for the first trained model M1.

データ記憶部142には、各種データが格納される。具体的には、データ記憶部142には、カメラ12によって撮像された画像データ、第1学習済みモデルM1から出力された物体識別結果、第2学習済みモデルM2から出力されたカメラパラメータ自体又はカメラパラメータの計算手法の識別データ、及び選択されたカメラパラメータの計算手法によるカメラパラメータ等が格納される。これらの各種データは、後述する各部において利用される。 The data storage unit 142 stores various data. Specifically, the data storage unit 142 stores image data captured by the camera 12, object identification results output from the first trained model M1, camera parameters themselves output from the second trained model M2, or the camera Identification data of the parameter calculation method and camera parameters based on the selected camera parameter calculation method are stored. These various data are used in each section described later.

モデル取得部143は、学習済みモデル記憶部141に格納されている第1学習済みモデルM1と第2学習済みモデルM2とを読み出す。 The model acquisition unit 143 reads out the first trained model M1 and the second trained model M2 stored in the trained model storage unit 141.

第1制御部144は、データ取得部140により取得された画像データを、モデル取得部143により取得された第1学習済みモデルM1へ入力することにより、第1学習済みモデルM1から出力された物体識別結果を取得する。第1制御部144により取得された物体識別結果は、各種の車両制御に利用される。 The first control unit 144 inputs the image data acquired by the data acquisition unit 140 to the first trained model M1 acquired by the model acquisition unit 143, thereby generating an object output from the first trained model M1. Obtain identification results. The object identification results obtained by the first control unit 144 are used for various vehicle controls.

第2制御部145は、データ取得部140により取得された画像データを、モデル取得部143により取得された第2学習済みモデルM2へ入力することにより、第2学習済みモデルM2から出力されたカメラパラメータの計算手法の識別データを取得する。 The second control unit 145 inputs the image data acquired by the data acquisition unit 140 to the second trained model M2 acquired by the model acquisition unit 143, thereby controlling the camera output from the second trained model M2. Obtain the identification data of the parameter calculation method.

変更部146は、第2制御部145により取得されたカメラパラメータの計算手法の識別データに基づいて、第1制御部144により取得された物体識別結果を変更するための変更データであるカメラパラメータを生成する。 The changing unit 146 changes camera parameters, which are change data for changing the object identification result acquired by the first control unit 144, based on the identification data of the camera parameter calculation method acquired by the second control unit 145. generate.

具体的には、変更部146は、カメラパラメータの計算手法としてA,B,Cが存在していた場合に、第2学習済みモデルM2から出力されたカメラパラメータの計算手法の識別データが何れのカメラパラメータの計算手法を示しているのかに基づいて、カメラパラメータの計算手法を選定する。例えば、変更部146は、第2学習済みモデルM2から出力されたカメラパラメータの計算手法の識別データが、A:0.8,B:0.1,C:0.1を表していた場合には、最も確率が高いカメラパラメータの計算手法Aを選択する。そして、変更部146は、カメラパラメータの計算手法Aを用いてカメラパラメータPを計算する。 Specifically, when A, B, and C exist as camera parameter calculation methods, the changing unit 146 determines which camera parameter calculation method identification data output from the second trained model M2 is used. The camera parameter calculation method is selected based on whether the camera parameter calculation method is indicated. For example, if the identification data of the camera parameter calculation method output from the second learned model M2 represents A: 0.8, B: 0.1, C: 0.1, the changing unit 146 selects camera parameter calculation method A with the highest probability. Then, the changing unit 146 calculates the camera parameter PA using the camera parameter calculation method A.

第3制御部147は、変更部146により生成されたカメラパラメータに基づいて、制御対象物であるカメラ12を制御する。 The third control unit 147 controls the camera 12, which is the object to be controlled, based on the camera parameters generated by the change unit 146.

具体的には、変更部146により生成されたカメラパラメータPをカメラ12に対して設定する。なお、カメラパラメータPは、カメラ12のセンサデバイス12A及び前処理器12Bの何れのパラメータであってもよい。これにより、カメラ12によって撮像される画像データの特性が変更されるため、第1学習済みモデルM1から出力される識別結果を変更するように制御することが可能となる。 Specifically, the camera parameter PA generated by the changing unit 146 is set for the camera 12. Note that the camera parameter PA may be a parameter of either the sensor device 12A of the camera 12 or the preprocessor 12B. As a result, the characteristics of the image data captured by the camera 12 are changed, so that control can be performed to change the identification result output from the first trained model M1.

<情報処理システム10の作用> <Action of the information processing system 10>

次に、本実施形態に係る情報処理システム10の作用について説明する。車両に搭載された情報処理システム10が起動し、カメラ12によって車両前方の画像の撮像が開始されると、情報処理装置14は、図5に示す情報処理ルーチンを実行する。なお、新たな画像データが撮像される毎に図5に示す情報処理ルーチンが実行される。 Next, the operation of the information processing system 10 according to this embodiment will be explained. When the information processing system 10 mounted on the vehicle is activated and the camera 12 starts capturing an image in front of the vehicle, the information processing device 14 executes the information processing routine shown in FIG. 5. Note that the information processing routine shown in FIG. 5 is executed every time new image data is captured.

ステップS100において、データ取得部140は、カメラ12によって撮像された画像データを取得する。 In step S100, the data acquisition unit 140 acquires image data captured by the camera 12.

ステップS102において、モデル取得部143は、学習済みモデル記憶部141に格納されている第1学習済みモデルM1と第2学習済みモデルM2とを取得する。 In step S102, the model acquisition unit 143 acquires the first trained model M1 and the second trained model M2 stored in the trained model storage unit 141.

ステップS104において、第1制御部144は、ステップS100で取得された画像データを、ステップS102で取得された第1学習済みモデルM1へ入力することにより、第1学習済みモデルM1から出力された物体識別結果を取得する。 In step S104, the first control unit 144 inputs the image data obtained in step S100 to the first trained model M1 obtained in step S102, thereby generating an object that is output from the first trained model M1. Obtain identification results.

ステップS106において、第2制御部145は、ステップS100で取得された画像データを、ステップS102で取得された第2学習済みモデルM2へ入力することにより、第2学習済みモデルM2から出力されたカメラパラメータの計算手法の識別データを取得する。 In step S106, the second control unit 145 inputs the image data obtained in step S100 to the second trained model M2 obtained in step S102, thereby controlling the camera output from the second trained model M2. Obtain the identification data of the parameter calculation method.

ステップS108において、変更部146は、ステップS106で取得されたカメラパラメータの計算手法の識別データに基づいて、識別データが示すカメラパラメータの計算手法を特定する。そして、変更部146は、特定されたカメラパラメータの計算手法を用いて、カメラパラメータを生成する。 In step S108, the changing unit 146 specifies the camera parameter calculation method indicated by the identification data, based on the identification data of the camera parameter calculation method acquired in step S106. The changing unit 146 then generates camera parameters using the specified camera parameter calculation method.

ステップS110において、第3制御部147は、ステップS108で生成されたカメラパラメータをカメラ12に設定して、情報処理ルーチンを終了する。 In step S110, the third control unit 147 sets the camera parameters generated in step S108 to the camera 12, and ends the information processing routine.

以上の説明で明らかなように、本実施形態の情報処理装置14は、入力データの一例である画像データを取得する。また、情報処理装置14は、第1学習済みモデルM1と第2学習済みモデルM2とを学習済みモデル記憶部141から取得する。情報処理装置14は、画像データを第1学習済みモデルM1へ入力することにより、第1学習済みモデルM1から出力された物体識別結果を取得する。情報処理装置14は、画像データを第2学習済みモデルM2へ入力することにより、第2学習済みモデルM2から出力されたカメラパラメータの計算手法の識別データを取得する。情報処理装置14は、カメラパラメータの計算手法の識別データに基づいて、物体識別結果を変更するための変更データであるカメラパラメータを生成する。そして、情報処理装置14は、生成されたカメラパラメータに基づいて、カメラパラメータをカメラに設定するように制御する。なお、第1学習済みモデルM1は、第1学習済みモデルM1に対して入力される画像データと、第1学習済みモデルM1から出力される物体識別結果の正解である第1正解データとの組み合わせである第1学習用データに基づいて予め学習されている学習済みモデルである。また、第2学習済みモデルM2は、第1学習済みモデルM1に対して入力される画像データと、第1学習済みモデルM1から出力される物体識別結果に関連する関連データであるカメラパラメータ計算手法の正解である第2正解データとの組み合わせである第2学習用データに基づいて、第1学習済みモデルM1が出力する物体識別結果が第1正解データへ近づくように予め学習されている学習済みモデルである。これにより、様々な環境下において取得されたデータを処理する学習済みモデルを支援することができる。具体的には、第1学習済みモデルM1が物体検出器である場合、第1学習済みモデルM1の物体識別結果における物体検出数が最大となるようなカメラパラメータをカメラ12に対して設定することにより、物体検出器から出力される物体識別結果の精度を向上させることができる。 As is clear from the above description, the information processing device 14 of this embodiment acquires image data that is an example of input data. Further, the information processing device 14 acquires the first trained model M1 and the second trained model M2 from the trained model storage unit 141. The information processing device 14 acquires the object identification result output from the first trained model M1 by inputting the image data to the first trained model M1. The information processing device 14 acquires identification data of the camera parameter calculation method output from the second trained model M2 by inputting the image data to the second trained model M2. The information processing device 14 generates camera parameters, which are change data for changing the object identification result, based on the identification data of the camera parameter calculation method. The information processing device 14 then controls the camera to set camera parameters based on the generated camera parameters. Note that the first trained model M1 is a combination of image data input to the first trained model M1 and first correct data that is the correct answer of the object identification result output from the first trained model M1. This is a learned model that has been trained in advance based on the first learning data. Further, the second trained model M2 is a camera parameter calculation method that is image data input to the first trained model M1 and related data related to the object identification result output from the first trained model M1. Based on the second learning data that is a combination with the second correct data that is the correct answer, the trained model M1 is trained in advance so that the object identification result output by the first trained model M1 approaches the first correct data. It's a model. This makes it possible to support trained models that process data acquired under various environments. Specifically, when the first trained model M1 is an object detector, camera parameters are set for the camera 12 such that the number of detected objects in the object identification results of the first trained model M1 is maximized. Accordingly, the accuracy of the object identification result output from the object detector can be improved.

なお、画像データの物体識別結果を出力するシステムを車載化するためには、そのシステムが高速である必要がある。この点、上記特許文献1に開示されている技術(例えば、特許文献1の図11)は、物体識別器332によって検出結果が得られる際に単純パラメータ制御器340がセンサパラメータを設定する。上記特許文献1に開示されている技術は、この単純パラメータ制御器340からの出力によってセンサを制御する構成であるため、ありとあらゆるシーンを機械学習モデルである単純パラメータ制御器340に学習させなければならない。このため、上記特許文献1に開示されている技術は、機械学習モデルである単純パラメータ制御器340を軽量化し、推論時間を短縮させ処理を高速にすることは難しい。さらに、ありとあらゆるシーンにおけるセンサパラメータが異なる学習用データを収集することは現実的に難しい。 Note that in order to install a system that outputs object identification results of image data on a vehicle, the system needs to be high-speed. In this regard, in the technique disclosed in Patent Document 1 (for example, FIG. 11 of Patent Document 1), the simple parameter controller 340 sets sensor parameters when the object identifier 332 obtains a detection result. Since the technology disclosed in Patent Document 1 has a configuration in which the sensor is controlled by the output from the simple parameter controller 340, it is necessary to make the simple parameter controller 340, which is a machine learning model, learn all kinds of scenes. . Therefore, with the technology disclosed in Patent Document 1, it is difficult to reduce the weight of the simple parameter controller 340, which is a machine learning model, to shorten the inference time and to speed up the processing. Furthermore, it is practically difficult to collect learning data with different sensor parameters in every possible scene.

このため、第1学習済みモデルM1が苦手とする画像データが撮像された際のカメラパラメータを改善するような学習用データのみに基づいて第2学習済みモデルM2を機械学習させるようにしてもよい。この場合には、例えば、物体識別結果における物体検出数が既に多く、そのようなデータを学習用データに含ませたとしても第1学習済みモデルM1の物体識別結果が改善されないようなデータは学習用データには含ませない。これによれば、第2学習済みモデルM2を軽量化することが可能となる。さらに、そのようなデータのみを学習用データに含ませるため、学習用データの収集コストを下げることが可能となる。 For this reason, the second trained model M2 may be subjected to machine learning based only on learning data that improves camera parameters when image data, which the first trained model M1 is weak at, is captured. . In this case, for example, the number of detected objects in the object identification results is already large, and even if such data is included in the training data, the object identification results of the first trained model M1 will not be improved. It is not included in the data for use. According to this, it becomes possible to reduce the weight of the second learned model M2. Furthermore, since only such data is included in the learning data, it is possible to reduce the cost of collecting the learning data.

また、第1学習済みモデルM1が所与のものであり、それ自体を変更することができない場合であっても、カメラ12に対するカメラパラメータを変更することにより、第1学習済みモデルM1から出力される物体識別結果の精度を向上させることができる。特に、物体検出器としての学習済みモデルは各所で個別に開発が進められており、第三者による修正、改善が難しい場合が多い。また、物体検出器としての学習済みモデルに変更を加えると信号処理装置自体の評価のやり直しが発生するため、そのような変更は極力避けたいといった事情が存在する場合もあり得る。これに対し、本実施形態の情報処理システム10によれば、第1学習済みモデルM1が所与のものであり、それ自体を変更することができない場合であっても、カメラ12に対するカメラパラメータを変更することにより、第1学習済みモデルM1から出力される物体識別結果の精度を向上させることができる。 Furthermore, even if the first trained model M1 is a given one and cannot be changed, by changing the camera parameters for the camera 12, the output from the first trained model M1 can be changed. The accuracy of object identification results can be improved. In particular, trained models used as object detectors are being developed individually at various locations, and it is often difficult for third parties to modify or improve them. Furthermore, since any changes made to the trained model as an object detector will require re-evaluation of the signal processing device itself, there may be circumstances in which such changes are desired to be avoided as much as possible. In contrast, according to the information processing system 10 of the present embodiment, even if the first trained model M1 is a given model and cannot be changed, camera parameters for the camera 12 can be changed. By changing, the accuracy of the object identification result output from the first learned model M1 can be improved.

<第2実施形態>
次に、第2実施形態について説明する。なお、第2実施形態の構成のうち、第1実施形態と同様の部分は、同一符号を付して説明を省略する。第2実施形態の情報処理システム10においては、第2学習済みモデルM2から出力される第2出力データは、第1学習済みモデルM1から出力される第1出力データと同一種類のデータである。また、第2実施形態の情報処理システム10は、第2学習済みモデルM2から出力される第2出力データに基づいて、第1学習済みモデルM1から出力される第1出力データを修正するように制御する点が、第1実施形態と異なる。
<Second embodiment>
Next, a second embodiment will be described. Note that, among the configurations of the second embodiment, parts similar to those of the first embodiment are designated by the same reference numerals, and description thereof will be omitted. In the information processing system 10 of the second embodiment, the second output data output from the second trained model M2 is the same type of data as the first output data output from the first trained model M1. Furthermore, the information processing system 10 of the second embodiment corrects the first output data output from the first trained model M1 based on the second output data output from the second trained model M2. This embodiment differs from the first embodiment in the point of control.

図6を参照して、第2実施形態に係る情報処理システムについて説明する。図6は、第2実施形態に係る情報処理システム210の概略図を示している。 An information processing system according to a second embodiment will be described with reference to FIG. 6. FIG. 6 shows a schematic diagram of an information processing system 210 according to the second embodiment.

図6に示されるように、情報処理システム210は、第1センサの一例である可視光カメラ212と、第2センサの一例である遠赤外線カメラ13と、情報処理装置214とを含んで構成されている。 As shown in FIG. 6, the information processing system 210 includes a visible light camera 212 that is an example of a first sensor, a far-infrared camera 13 that is an example of a second sensor, and an information processing device 214. ing.

可視光カメラ212は、第1実施形態のカメラ12と同様の構成であり、可視光の波長帯の反射強度を画像化した画像データである可視画像データを取得する。可視画像データは、第1入力データの一例である。 The visible light camera 212 has the same configuration as the camera 12 of the first embodiment, and acquires visible image data that is image data of the reflection intensity of the visible light wavelength band. The visible image data is an example of first input data.

遠赤外線カメラ13は、被写体が発する遠赤外領域の放射光を検出するセンサであり、遠赤外線画像データを取得する。遠赤外線画像データは、第2入力データの一例である。遠赤外線カメラ13は、撮像素子を含むセンサデバイス13Aと、センサデバイス13Aが出力した信号を画像ファイルへ変換する、いわゆる画像エンジンである前処理器13Bとを備えている。 The far-infrared camera 13 is a sensor that detects radiation in the far-infrared region emitted by a subject, and acquires far-infrared image data. Far-infrared image data is an example of second input data. The far-infrared camera 13 includes a sensor device 13A that includes an image sensor, and a preprocessor 13B that is a so-called image engine that converts a signal output by the sensor device 13A into an image file.

第2実施形態の情報処理装置214をハードウェアとソフトウェアとに基づいて定まる機能実現手段毎に分割した機能ブロックで説明すると、図6に示されるように、データ取得部240と、学習済みモデル記憶部241と、データ記憶部142と、モデル取得部243と、第1制御部144と、第2制御部245と、変更部246と、第3制御部247と、を備えている。 If the information processing device 214 of the second embodiment is explained in terms of functional blocks divided into function implementation means determined based on hardware and software, as shown in FIG. section 241 , data storage section 142 , model acquisition section 243 , first control section 144 , second control section 245 , change section 246 , and third control section 247 .

データ取得部240は、可視光カメラ212によって取得された可視画像データと、遠赤外線カメラ13によって取得された遠赤外線画像データとを、入力データとして取得する。 The data acquisition unit 240 acquires visible image data acquired by the visible light camera 212 and far-infrared image data acquired by the far-infrared camera 13 as input data.

学習済みモデル記憶部241には、第1実施形態と同様の第1学習済みモデルM1と、第2学習済みモデルM22とが格納されている。 The trained model storage unit 241 stores a first trained model M1 and a second trained model M22 similar to those in the first embodiment.

図7~図10に、第2実施形態の情報処理システム10の概要を説明するための図を示す。図7及び図8は、上述した第1実施形態の情報処理システム10の概要を説明するための図を示す。図7は第1実施形態の情報処理システム10における学習フェーズを説明する図であり、図8は第1実施形態の情報処理システム10における運用フェーズを説明する図である。 7 to 10 are diagrams for explaining an overview of the information processing system 10 of the second embodiment. 7 and 8 are diagrams for explaining an overview of the information processing system 10 of the first embodiment described above. FIG. 7 is a diagram illustrating a learning phase in the information processing system 10 of the first embodiment, and FIG. 8 is a diagram illustrating an operation phase in the information processing system 10 of the first embodiment.

図7に示されるように、第1実施形態における学習フェーズでは、機械学習中の第2学習済みモデルM2からはカメラパラメータの計算手法の識別データが出力される。そして、学習中の第2学習済みモデルM2から出力される識別データと、物体識別結果の信頼度(例えば、物体検出数)が最も高くなるようなカメラパラメータの計算手法の識別データとの間の誤差が小さくなるように、第2学習済みモデルM2に対して機械学習が実行される。 As shown in FIG. 7, in the learning phase in the first embodiment, identification data of the camera parameter calculation method is output from the second trained model M2 that is undergoing machine learning. Then, the difference between the identification data output from the second learned model M2 that is currently being trained and the identification data of the camera parameter calculation method that maximizes the reliability of the object identification result (for example, the number of detected objects) is determined. Machine learning is performed on the second trained model M2 so that the error is small.

なお、この際には、カメラパラメータの計算手法Aによって計算されたカメラパラメータがカメラ12に対して設定された際に撮像された画像データImA、カメラパラメータの計算手法Bによって計算されたカメラパラメータがカメラ12に対して設定された際に撮像された画像データImB、及びカメラパラメータの計算手法Cによって計算されたカメラパラメータがカメラ12に対して設定された際に撮像された画像データImCが第1学習済みモデルM1へ入力される。そして第1学習済みモデルM1から出力される各々の物体識別結果から、物体識別結果の信頼度(例えば、物体検出数)が最も高くなるようなカメラパラメータの計算手法の識別データが第2正解データとして設定される。 In this case, the image data ImA captured when the camera parameters calculated by camera parameter calculation method A were set for the camera 12, and the camera parameters calculated by camera parameter calculation method B are The image data ImB captured when the settings were made for the camera 12 and the image data ImC captured when the camera parameters calculated by the camera parameter calculation method C were set for the camera 12 are the first It is input to the learned model M1. Then, from each object identification result output from the first learned model M1, the identification data of the camera parameter calculation method that maximizes the reliability of the object identification result (for example, the number of detected objects) is used as second correct data. is set as

そして、図8に示されるように、第1実施形態における運用フェーズでは、第2学習済みモデルM2からはカメラパラメータの計算手法の識別データが出力される。例えば、図8に示されるように、計算手法Bが選定された場合には、計算手法Bによって計算されたカメラパラメータがカメラ12へ設定される。これにより、そのパラメータで撮像された画像データImBが第1学習済みモデルM1へ入力される。 As shown in FIG. 8, in the operation phase in the first embodiment, identification data of the camera parameter calculation method is output from the second trained model M2. For example, as shown in FIG. 8, when calculation method B is selected, camera parameters calculated by calculation method B are set to the camera 12. Thereby, the image data ImB captured using the parameters is input to the first learned model M1.

一方、図9に示されるように、第2実施形態における学習フェーズでは、可視画像データが第1学習済みモデルM1へ入力され、その物体識別結果として第1の物体識別結果が出力される。この際、図9に示されるように、その第1の物体識別結果と、その正解である第1正解データとしての物体存在位置とが比較され、第1学習済みモデルM1によって検出されなかった物体に対して重みが付加された重みデータが出力される。また、遠赤外線画像データが第2学習済みモデルM22へ入力され、その物体識別結果として第2の物体識別結果が出力される。次に、図9に示されるように、その第2の物体識別結果と、その正解である第2正解データとしての物体存在位置とが比較され誤差が計算される。そして、その誤差に対して更に重みデータが付加される。これにより、第1学習済みモデルM1によって検出されなかった物体を検出するように第2学習済みモデルM22が学習される。 On the other hand, as shown in FIG. 9, in the learning phase in the second embodiment, visible image data is input to the first learned model M1, and a first object identification result is output as the object identification result. At this time, as shown in FIG. 9, the first object identification result and the object existing position as the first correct answer data are compared, and the object that was not detected by the first learned model M1 is detected. Weight data with weights added to them is output. Further, the far-infrared image data is input to the second trained model M22, and a second object identification result is output as the object identification result. Next, as shown in FIG. 9, the second object identification result is compared with the object existing position as the second correct answer data, and an error is calculated. Then, weight data is further added to the error. Thereby, the second trained model M22 is trained to detect objects that were not detected by the first trained model M1.

そして、図10に示されるように、第2実施形態における運用フェーズでは、可視画像データが第1学習済みモデルM1へ入力され、第1学習済みモデルM1からは第1の物体識別結果が出力される。また、遠赤外線画像データが第2学習済みモデルM22へ入力され、第2学習済みモデルM22からは第2の物体識別結果が出力される。そして、第1学習済みモデルM1から出力された第1の物体識別結果と、第2学習済みモデルM22から出力された第2の物体識別結果とが統合され、最終的な物体識別結果となる。この点、第2学習済みモデルM22は、第1学習済みモデルM1が苦手な物体を優先的に検知するように構成されているため、最終的な物体識別結果は、第1学習済みモデルM1の苦手な物体の検知が克服された結果となり得る。以下、具体的に説明する。 As shown in FIG. 10, in the operation phase in the second embodiment, visible image data is input to the first trained model M1, and the first object identification result is output from the first trained model M1. Ru. Furthermore, the far-infrared image data is input to the second trained model M22, and the second learned model M22 outputs a second object identification result. Then, the first object identification result output from the first trained model M1 and the second object identification result output from the second trained model M22 are integrated to form a final object identification result. In this regard, since the second trained model M22 is configured to preferentially detect objects that the first trained model M1 is not good at, the final object identification result is different from that of the first trained model M1. This may result in overcoming the difficulty in detecting objects. This will be explained in detail below.

モデル取得部243は、学習済みモデル記憶部241から、第1学習済みモデルM1と第2学習済みモデルM22と、を取得する。 The model acquisition unit 243 acquires the first trained model M1 and the second trained model M22 from the trained model storage unit 241.

第1制御部144は、第1実施形態と同様に、データ取得部240により取得された可視画像データを、モデル取得部243により取得された第1学習済みモデルM1へ入力することにより、第1学習済みモデルM1から出力された第1の物体識別結果を取得する。第1の物体識別結果は、第1出力データの一例である。 Similarly to the first embodiment, the first control unit 144 inputs the visible image data acquired by the data acquisition unit 240 to the first trained model M1 acquired by the model acquisition unit 243, thereby controlling the first learned model M1. A first object identification result output from the learned model M1 is obtained. The first object identification result is an example of first output data.

第2制御部245は、データ取得部240により取得された遠赤外線画像データを、モデル取得部243により取得された第2学習済みモデルM22へ入力することにより、第2学習済みモデルM22から出力された第2の物体識別結果を取得する。第2の物体識別結果は、第2出力データの一例である。 The second control unit 245 inputs the far-infrared image data acquired by the data acquisition unit 240 to the second trained model M22 acquired by the model acquisition unit 243, thereby causing the far-infrared image data to be output from the second trained model M22. A second object identification result is obtained. The second object identification result is an example of second output data.

変更部246は、第2制御部245により取得された第2の物体識別結果に基づいて、第1制御部144により取得された第1の物体識別結果を変更するための変更データを生成する。なお、ここでの変更データは、第1の物体識別結果と統合可能なように第2の物体識別結果を変更したデータである。例えば、第1の物体識別結果の形式と、第2の物体識別結果の形式とが異なっている場合には統合が困難であるため、統合を容易にするように第2の物体識別結果の形式を変更することにより変更データを生成する。 The changing unit 246 generates change data for changing the first object identification result obtained by the first control unit 144 based on the second object identification result obtained by the second control unit 245. Note that the changed data here is data obtained by changing the second object identification result so that it can be integrated with the first object identification result. For example, if the format of the first object identification result and the format of the second object identification result are different, it is difficult to integrate them, so the format of the second object identification result is changed to facilitate the integration. Generate changed data by changing .

第3制御部247は、第2学習済みモデルM22から出力される第2の物体識別結果に基づいて、制御対象物である第1学習済みモデルM1から出力される第1の物体識別結果を修正するように制御する。例えば、第3制御部247は、第1の物体識別結果と第2の物体識別結果とを統合する。具体的には、第3制御部247は、第1の物体識別結果である画像に写る物体領域の各確率と、第2の物体識別結果である画像に写る物体領域の各確率とを合算することにより、最終的な物体識別結果を生成する。 The third control unit 247 corrects the first object identification result output from the first trained model M1, which is the controlled object, based on the second object identification result output from the second trained model M22. control to do so. For example, the third control unit 247 integrates the first object identification result and the second object identification result. Specifically, the third control unit 247 adds up each probability of the object region appearing in the image that is the first object identification result and each probability of the object region appearing in the image that is the second object identification result. By doing so, the final object identification result is generated.

<情報処理システム210の作用> <Operation of information processing system 210>

次に、第2実施形態に係る情報処理システム210の作用について説明する。車両に搭載された情報処理システム210が起動し、可視光カメラ212と遠赤外線カメラ13によって車両前方の画像の撮像が開始されると、情報処理装置214は、図11に示す情報処理ルーチンを実行する。なお、新たな画像データが撮像される毎に図11に示す情報処理ルーチンが実行される。 Next, the operation of the information processing system 210 according to the second embodiment will be explained. When the information processing system 210 mounted on the vehicle is activated and the visible light camera 212 and the far-infrared camera 13 start capturing images in front of the vehicle, the information processing device 214 executes the information processing routine shown in FIG. do. Note that the information processing routine shown in FIG. 11 is executed every time new image data is captured.

ステップS200において、データ取得部240は、可視光カメラ212によって撮像された可視画像データと、遠赤外線カメラ13によって撮像された遠赤外線画像データとを取得する。 In step S200, the data acquisition unit 240 acquires visible image data captured by the visible light camera 212 and far-infrared image data captured by the far-infrared camera 13.

ステップS202において、モデル取得部243は、学習済みモデル記憶部241に格納されている第1学習済みモデルM1と第2学習済みモデルM22とを取得する。 In step S202, the model acquisition unit 243 acquires the first trained model M1 and the second trained model M22 stored in the trained model storage unit 241.

ステップS204において、第1制御部144は、ステップS200で取得された可視画像データを、ステップS202で取得された第1学習済みモデルM1へ入力することにより、第1学習済みモデルM1から出力された第1の物体識別結果を取得する。 In step S204, the first control unit 144 inputs the visible image data obtained in step S200 to the first trained model M1 obtained in step S202, thereby controlling the visible image data output from the first trained model M1. Obtaining a first object identification result.

ステップS206において、第2制御部245は、ステップS200で取得された遠赤外線画像データを、ステップS202で取得された第2学習済みモデルM22へ入力することにより、第2学習済みモデルM22から出力された第2の物体識別結果を取得する。 In step S206, the second control unit 245 inputs the far-infrared image data obtained in step S200 to the second trained model M22 obtained in step S202, thereby causing the far-infrared image data to be output from the second trained model M22. A second object identification result is obtained.

ステップS208において、変更部246は、ステップS206で取得された第2の物体識別結果に基づいて、ステップS204で取得された第1の物体識別結果を変更するための変更データを生成する。 In step S208, the changing unit 246 generates change data for changing the first object identification result obtained in step S204, based on the second object identification result obtained in step S206.

ステップS210において、第3制御部247は、ステップS206で得られた第2学習済みモデルから出力される第2の物体識別結果に基づいて、第1学習済みモデルM1から出力される第1の物体識別結果を修正する。具体的には、第3制御部247は、第1の物体識別結果である画像に写る物体領域の各確率と、第2の物体識別結果である画像に写る物体領域の各確率から生成された変更データを統合することにより、最終的な物体識別結果を生成する。 In step S210, the third control unit 247 selects the first object output from the first trained model M1 based on the second object identification result output from the second trained model obtained in step S206. Correct the identification results. Specifically, the third control unit 247 generates probabilities of object regions appearing in the image that are the first object identification results and probabilities of the object regions appearing in the images that are the second object identification results. By integrating the modified data, a final object identification result is generated.

ステップS210において、第3制御部247は、ステップS210で生成された最終的な物体識別結果を結果として出力して、情報処理ルーチンを終了する。 In step S210, the third control unit 247 outputs the final object identification result generated in step S210 as a result, and ends the information processing routine.

なお、第2実施形態に係る情報処理システム210の他の構成及び作用については、第1実施形態と同様であるため、説明を省略する。 Note that other configurations and operations of the information processing system 210 according to the second embodiment are the same as those in the first embodiment, and therefore, description thereof will be omitted.

以上の説明で明らかなように、第2実施形態の情報処理装置214においては、第2学習済みモデルM22から出力されるデータは、第1学習済みモデルM1から出力されるデータと同一種類のデータである。情報処理装置214は、可視光カメラ212によって取得された可視画像データと、遠赤外線カメラ13によって取得された遠赤外線画像データとを、入力データとして取得する。情報処理装置214は、可視画像データを、第1学習済みモデルM1へ入力することにより、第1学習済みモデルM1から出力された第1の物体識別結果を取得する。情報処理装置214は、遠赤外線画像データを、第2学習済みモデルM22へ入力することにより、第2学習済みモデルM22から出力された第2の物体識別結果を取得する。そして、情報処理装置214は、第2学習済みモデルM22から出力される第2の物体識別結果に基づいて、制御対象物である第1学習済みモデルM1から出力される第1の物体識別結果を修正するように制御する。これにより、様々な環境下において取得されたデータを処理する学習済みモデルを支援することができ、学習済みモデルを用いた物体識別結果の精度を向上させることができる。 As is clear from the above description, in the information processing device 214 of the second embodiment, the data output from the second trained model M22 is the same type of data as the data output from the first trained model M1. It is. The information processing device 214 obtains visible image data obtained by the visible light camera 212 and far-infrared image data obtained by the far-infrared camera 13 as input data. The information processing device 214 acquires the first object identification result output from the first trained model M1 by inputting the visible image data to the first trained model M1. The information processing device 214 acquires the second object identification result output from the second trained model M22 by inputting the far-infrared image data to the second trained model M22. Based on the second object identification result output from the second trained model M22, the information processing device 214 determines the first object identification result output from the first trained model M1, which is the controlled object. Control to fix. Thereby, it is possible to support a trained model that processes data acquired under various environments, and it is possible to improve the accuracy of object identification results using the trained model.

また、第2実施形態によれば、第1学習済みモデルM1が誤検知をするような物体を精度よく検知する第2学習済みモデルM22が生成されるため、第1学習済みモデルM1による第1の物体識別結果と第2学習済みモデルM22による第2の物体識別結果とを統合することにより、物体識別結果の精度を向上させることができる。 Further, according to the second embodiment, since the second trained model M22 that accurately detects objects that the first trained model M1 would falsely detect is generated, the By integrating the object identification results obtained by the second learned model M22 and the second object identification results obtained by the second trained model M22, the accuracy of the object identification results can be improved.

また、第1学習済みモデルM1が所与のものであり、それ自体を変更することができない場合であっても、第1学習済みモデルM1が誤検知をするような物体を精度よく検知する第2学習済みモデルM22を生成することにより、第1学習済みモデルM1から出力される物体識別結果の精度を向上させることができる。 Furthermore, even if the first trained model M1 is a given one and cannot be changed, the first trained model M1 can accurately detect an object that the first trained model M1 would falsely detect. By generating the second trained model M22, it is possible to improve the accuracy of the object identification result output from the first trained model M1.

また、第2学習済みモデルM22は、第1学習済みモデルM1が誤検知をするような物体に関連する学習用データを用いて機械学習されるため、第1学習済みモデルM1に比べて軽量(すなわち、ネットワーク構造が比較的単純)なモデルとなる。 In addition, the second trained model M22 is machine learned using learning data related to objects that the first trained model M1 falsely detects, so it is lighter than the first trained model M1 ( In other words, it is a model with a relatively simple network structure.

なお、本発明は、上述した実施の形態に限定されるものではなく、この発明の要旨を逸脱しない範囲内で様々な変形や応用が可能である。 Note that the present invention is not limited to the embodiments described above, and various modifications and applications can be made without departing from the gist of the present invention.

上記第1実施形態では、センサがカメラ12である場合を例に説明したがこれに限定されるものではない。また、上記第2実施形態では、第1センサが可視光カメラ212であり、第2センサが遠赤外線カメラ13である場合を例に説明したがこれに限定されるものではない。センサはどのようなものであってもよく、例えば、センサはレーザレーダであってもよい。 In the first embodiment, the sensor is the camera 12, but the sensor is not limited to this. Further, in the second embodiment, the first sensor is the visible light camera 212 and the second sensor is the far-infrared camera 13, but the present invention is not limited to this. The sensor may be of any kind; for example, the sensor may be a laser radar.

また、上記第2実施形態では、第1センサが可視光カメラ212であり、第2センサが遠赤外線カメラ13である場合を例に説明したがこれに限定されるものではない。例えば、第1センサ及び第2センサは同種のセンサであってもよい。 Further, in the second embodiment, the first sensor is the visible light camera 212 and the second sensor is the far-infrared camera 13, but the present invention is not limited to this. For example, the first sensor and the second sensor may be of the same type.

また、本実施形態では、第1学習済みモデルM1が物体検出器である場合を例に説明したがこれに限定されるものではない。第1学習済みモデルM1は、センサの出力であるセンサデータに対し、何かしらの処理をするものであればどのようなものであってもよい。例えば、第1学習済みモデルM1が物体検出器である場合には、入力データを画像データとし、出力データを物体識別結果(例えば、物体検出数、物体検出の確率(又は尤度)、物体の位置、及び物体の種別の少なくとも1つ)とすることができる。この場合には、上述したように、任意の指標である信頼度としては物体検出数を利用することができる。 Further, in this embodiment, the case where the first trained model M1 is an object detector has been described as an example, but the present invention is not limited to this. The first trained model M1 may be any model as long as it performs some processing on sensor data that is the output of a sensor. For example, if the first trained model M1 is an object detector, the input data is image data, and the output data is the object identification result (for example, the number of detected objects, the probability (or likelihood) of object detection, (at least one of the location and the type of object). In this case, as described above, the number of detected objects can be used as the reliability, which is an arbitrary index.

また、第1学習済みモデルM1が物体評価器である場合には、人の画像データが入力された場合、美しくない~美しい、の5段階評価結果を出力データとしてもよい。この場合には、任意の指標である信頼度として5段階評価の数値を利用することができる。例えば、5段階評価の数値が最大であるものに対応するデータを正解データとして用いるようにしてもよい。 Further, in the case where the first trained model M1 is an object evaluator, when human image data is input, a five-level evaluation result from not beautiful to beautiful may be output data. In this case, a five-level evaluation value can be used as an arbitrary index of reliability. For example, data corresponding to the one with the highest numerical value in the five-level evaluation may be used as the correct answer data.

また、第1学習済みモデルM1が音声認識器である場合には、音声信号データが入力された場合、音声の文字起こし結果を出力データとしてもよい。この場合には、任意の指標である信頼度として文字起こしの誤り率を利用することができる。例えば、文字起こしの誤り率が最小であるものに対応するデータを正解データとして用いるようにしてもよい。 Furthermore, in the case where the first trained model M1 is a speech recognizer, when speech signal data is input, the transcription result of the speech may be used as output data. In this case, the transcription error rate can be used as an arbitrary index of reliability. For example, data corresponding to transcription with the lowest error rate may be used as correct data.

なお、本発明のプログラムは、記録媒体に格納して提供することができる。 Note that the program of the present invention can be provided by being stored in a recording medium.

10,210 情報処理システム
12 カメラ
13 遠赤外線カメラ
14,214 情報処理装置
140,240 データ取得部
141,241 学習済みモデル記憶部
142 データ記憶部
143,243 モデル取得部
144 第1制御部
145,245 第2制御部
146,246 変更部
147,247 第3制御部
212 可視光カメラ
10,210 Information processing system 12 Camera 13 Far-infrared camera 14,214 Information processing device 140,240 Data acquisition section 141,241 Learned model storage section 142 Data storage section 143,243 Model acquisition section 144 First control section 145,245 Second control unit 146, 246 Changing unit 147, 247 Third control unit 212 Visible light camera

Claims (5)

入力データを取得するデータ取得部と、
第1学習済みモデルと第2学習済みモデルとを記憶部から取得するモデル取得部と、
前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第1学習済みモデルへ入力することにより、前記第1学習済みモデルから出力された第1出力データを取得する第1制御部と、
前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第2学習済みモデルへ入力することにより、前記第2学習済みモデルから出力された第2出力データを取得する第2制御部と、
前記第2制御部により取得された前記第2出力データに基づいて、前記第1制御部により取得された前記第1出力データを変更するための変更データを生成する変更部と、
前記変更部により生成された前記変更データに基づいて、制御対象物を制御する第3制御部と、を備え、
前記第1学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データの第1正解データとの組み合わせである第1学習用データに基づいて予め学習されている学習済みモデルであり、
前記第2学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データに関連する関連データの第2正解データとの組み合わせである第2学習用データに基づいて、前記第1学習済みモデルが出力する前記第1出力データが前記第1正解データへ近づくように予め学習されている学習済みモデルである、
情報処理装置。
a data acquisition unit that acquires input data;
a model acquisition unit that acquires the first trained model and the second trained model from the storage unit;
By inputting the input data acquired by the data acquisition unit to the first trained model acquired by the model acquisition unit, first output data output from the first trained model is acquired. a first control section;
By inputting the input data acquired by the data acquisition unit to the second trained model acquired by the model acquisition unit, second output data output from the second trained model is acquired. a second control section;
a changing unit that generates change data for changing the first output data acquired by the first control unit based on the second output data acquired by the second control unit;
a third control unit that controls a controlled object based on the change data generated by the change unit,
The first trained model is a combination of the input data input to the first trained model and first correct data of the first output data output from the first trained model. It is a learned model that has been trained in advance based on the first learning data,
The second trained model includes second correct data of related data related to the input data input to the first trained model and the first output data output from the first trained model. is a trained model that has been trained in advance so that the first output data output by the first trained model approaches the first correct data based on second learning data that is a combination of
Information processing device.
前記制御対象物はカメラであり、
前記入力データは前記カメラによって撮像された画像データであり、
前記第2学習済みモデルから出力される前記第2出力データは、カメラパラメータ又はカメラパラメータの計算手法の識別データを表す前記関連データであり、
前記第3制御部は、前記関連データに応じた前記カメラパラメータを前記制御対象物である前記カメラに対して設定し、前記カメラによって撮像される画像データの特性を変更するように制御することにより、前記第1学習済みモデルから出力される出力データを変更するように制御する、
請求項1に記載の情報処理装置。
The controlled object is a camera,
The input data is image data captured by the camera,
The second output data output from the second trained model is the related data representing identification data of a camera parameter or a camera parameter calculation method,
The third control unit sets the camera parameters according to the related data to the camera, which is the object to be controlled, and controls the camera to change characteristics of image data captured by the camera. , controlling to change output data output from the first trained model;
The information processing device according to claim 1.
前記第2学習済みモデルから出力される前記第2出力データは、前記第1学習済みモデルから出力される前記第1出力データと同一種類のデータであり、
前記第3制御部は、前記第2学習済みモデルから出力される前記第2出力データに基づいて、前記制御対象物である前記第1学習済みモデルから出力される前記第1出力データを修正するように制御する、
請求項1に記載の情報処理装置。
The second output data output from the second trained model is the same type of data as the first output data output from the first trained model,
The third control unit corrects the first output data output from the first trained model, which is the control target, based on the second output data output from the second trained model. to control,
The information processing device according to claim 1.
前記データ取得部は、第1センサによって取得された第1入力データと、第2センサによって取得された第2入力データとを、前記入力データとして取得し、
前記第1制御部は、前記データ取得部により取得された前記第1入力データを、前記モデル取得部により取得された前記第1学習済みモデルへ入力することにより、前記第1学習済みモデルから出力された前記第1出力データを取得し、
前記第2制御部は、前記データ取得部により取得された前記第2入力データを、前記モデル取得部により取得された前記第2学習済みモデルへ入力することにより、前記第2学習済みモデルから出力された前記第2出力データを取得し、
前記第3制御部は、前記第2学習済みモデルから出力される前記第2出力データに基づいて、前記制御対象物である前記第1学習済みモデルから出力される前記第1出力データを修正するように制御する、
請求項3に記載の情報処理装置。
The data acquisition unit acquires first input data acquired by a first sensor and second input data acquired by a second sensor as the input data,
The first control unit inputs the first input data acquired by the data acquisition unit to the first trained model acquired by the model acquisition unit, thereby causing output from the first trained model. obtaining the first output data,
The second control unit inputs the second input data acquired by the data acquisition unit to the second trained model acquired by the model acquisition unit, thereby controlling output from the second trained model. obtain the second output data,
The third control unit corrects the first output data output from the first trained model, which is the control target, based on the second output data output from the second trained model. to control,
The information processing device according to claim 3.
コンピュータを、
入力データを取得するデータ取得部、
第1学習済みモデルと第2学習済みモデルとを記憶部から取得するモデル取得部、
前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第1学習済みモデルへ入力することにより、前記第1学習済みモデルから出力された第1出力データを取得する第1制御部、
前記データ取得部により取得された前記入力データを、前記モデル取得部により取得された前記第2学習済みモデルへ入力することにより、前記第2学習済みモデルから出力された第2出力データを取得する第2制御部、
前記第2制御部により取得された前記第2出力データに基づいて、前記第1制御部により取得された前記第1出力データを変更するための変更データを生成する変更部、及び
前記変更部により生成された前記変更データに基づいて、制御対象物を制御する第3制御部
として機能させるためのプログラムであって、
前記第1学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データの第1正解データとの組み合わせである第1学習用データに基づいて予め学習されている学習済みモデルであり、
前記第2学習済みモデルは、前記第1学習済みモデルに対して入力される前記入力データと、前記第1学習済みモデルから出力される前記第1出力データに関連する関連データの第2正解データとの組み合わせである第2学習用データに基づいて、前記第1学習済みモデルが出力する前記第1出力データが前記第1正解データへ近づくように予め学習されている学習済みモデルである、
プログラム。
computer,
a data acquisition unit that acquires input data;
a model acquisition unit that acquires the first trained model and the second trained model from the storage unit;
By inputting the input data acquired by the data acquisition unit to the first trained model acquired by the model acquisition unit, first output data output from the first trained model is acquired. a first control unit;
By inputting the input data acquired by the data acquisition unit to the second trained model acquired by the model acquisition unit, second output data output from the second trained model is acquired. a second control unit;
a changing unit that generates change data for changing the first output data acquired by the first control unit based on the second output data acquired by the second control unit; A program for functioning as a third control unit that controls a controlled object based on the generated change data, the program comprising:
The first trained model is a combination of the input data input to the first trained model and first correct data of the first output data output from the first trained model. It is a learned model that has been trained in advance based on the first learning data,
The second trained model includes second correct data of related data related to the input data input to the first trained model and the first output data output from the first trained model. is a trained model that has been trained in advance so that the first output data output by the first trained model approaches the first correct data based on second learning data that is a combination of
program.
JP2022048811A 2022-03-24 2022-03-24 Information processing apparatus and program Pending JP2023142113A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022048811A JP2023142113A (en) 2022-03-24 2022-03-24 Information processing apparatus and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022048811A JP2023142113A (en) 2022-03-24 2022-03-24 Information processing apparatus and program

Publications (1)

Publication Number Publication Date
JP2023142113A true JP2023142113A (en) 2023-10-05

Family

ID=88206566

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022048811A Pending JP2023142113A (en) 2022-03-24 2022-03-24 Information processing apparatus and program

Country Status (1)

Country Link
JP (1) JP2023142113A (en)

Similar Documents

Publication Publication Date Title
JP6581068B2 (en) Image processing apparatus, image processing method, program, operation control system, and vehicle
CN103729120B (en) For producing the method and its electronic equipment of thumbnail
JP2018152037A (en) Driver monitoring device, driver monitoring method, learning device, and learning method
US11715190B2 (en) Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device
US20180137643A1 (en) Object detection method and system based on machine learning
JP2010257140A (en) Apparatus and method for processing information
US20180060687A1 (en) Image recognition method and system based on deep learning
WO2016200734A1 (en) Optimizing capture of focus stacks
CN111368944B (en) Method and device for recognizing copied image and certificate photo and training model and electronic equipment
CN113012054A (en) Sample enhancement method and training method based on sectional drawing, system and electronic equipment thereof
CN112633182A (en) Vehicle state detection method, device, equipment and storage medium
JP7311310B2 (en) Information processing device, information processing method and program
US9781331B2 (en) Imaging apparatus, and control method thereof
US11397874B2 (en) Image capturing apparatus, generating apparatus, control method, and storage medium
JP2023142113A (en) Information processing apparatus and program
JP2020017807A5 (en)
KR102072491B1 (en) Device for measuring hologram reconstruction image by varying vergence of incident wave, method for measuring hologram reconstruction image using the device, computer readable medium for performing the method
JP2020135432A (en) Learning data generation method, learning data generation device, and program
JP2019086473A (en) Learning program, detection program, learning method, detection method, learning device, and detection device
JP6448457B2 (en) Imaging direction variation detection apparatus and imaging direction variation detection method
CN113052294A (en) Method for simulating objective lens of second camera, configuration method and film camera
JP4719605B2 (en) Object detection data generation device, method and program, and object detection device, method and program
CN112561836A (en) Method and device for acquiring point cloud set of target object
CN111936942B (en) Method for controlling an actuator, computer system and computer program
CN115641856B (en) Method, device and storage medium for detecting repeated voice frequency of voice