JP2024062352A - Information processing device, information processing method, and information processing program - Google Patents

Information processing device, information processing method, and information processing program Download PDF

Info

Publication number
JP2024062352A
JP2024062352A JP2023076253A JP2023076253A JP2024062352A JP 2024062352 A JP2024062352 A JP 2024062352A JP 2023076253 A JP2023076253 A JP 2023076253A JP 2023076253 A JP2023076253 A JP 2023076253A JP 2024062352 A JP2024062352 A JP 2024062352A
Authority
JP
Japan
Prior art keywords
information
camera
point
point information
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2023076253A
Other languages
Japanese (ja)
Inventor
正義 孫
Masayoshi Son
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Group Corp
Original Assignee
SoftBank Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Group Corp filed Critical SoftBank Group Corp
Priority to PCT/JP2023/038227 priority Critical patent/WO2024090390A1/en
Publication of JP2024062352A publication Critical patent/JP2024062352A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Studio Devices (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

To provide a an information processing device, an information processing method and an information processing program, which enable reduction in an amount of data to be output to an output destination when outputting image information of an object imaged by cameras.SOLUTION: An information processing device 10 disclosed herein comprises an MoPU configured to output point information capturing an imaged object as points from an image of the object captured by a first camera, an IPU configured to output identification information identifying the imaged object from an image of the object captured by a second camera (ultra-high resolution camera) facing a direction corresponding to the first camera, and a Central Brain configured to associate the point information output from the MoPU with the identification information output from the IPU. In the presence of multiple pieces of the point information, the MoPU outputs point information of a next point in time according to a priority predetermined for the identification information associated with the pint information.SELECTED DRAWING: Figure 2

Description

本開示は、情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The present disclosure relates to an information processing device, an information processing method, and an information processing program.

特許文献1には、自動運転機能を有する車両について記載されている。 Patent document 1 describes a vehicle with an autonomous driving function.

特開2022-035198号公報JP 2022-035198 A

ところで、特許文献1のように車両を自動運転する場合は、カメラによって車両の周囲が撮影された複数の画像を用いて自動運転の制御が行われる。そのため、従来の自動運転においては、自動運転を制御するプロセッサが取得するデータ量が多くなってしまい、自動運転の制御に要する計算量が多くなるとの問題があった。 When a vehicle is driven autonomously as in Patent Document 1, the autonomous driving is controlled using multiple images of the vehicle's surroundings captured by a camera. Therefore, in conventional autonomous driving, the processor that controls the autonomous driving acquires a large amount of data, which causes a problem of a large amount of calculations being required to control the autonomous driving.

そこで、本開示は、カメラにより撮影された物体の撮影情報を所定の出力先に出力する場合に、当該出力先に出力するデータ量を削減することができる情報処理装置、情報処理方法、及び情報処理プログラムを提供することを目的とする。 The present disclosure therefore aims to provide an information processing device, an information processing method, and an information processing program that can reduce the amount of data output to a specified output destination when outputting shooting information of an object photographed by a camera to the output destination.

本開示の情報処理装置は、第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する。 The information processing device disclosed herein includes a first processor that outputs point information that captures an object as a point from an image of the object captured by a first camera, a second processor that outputs identification information that identifies the object captured from an image of the object captured by a second camera facing in a direction corresponding to the first camera, and a third processor that associates the point information output from the first processor with the identification information output from the second processor, and when there are multiple pieces of point information, the first processor outputs the point information at the next point in accordance with a predetermined priority for the identification information associated with the point information.

また、本開示の情報処理装置は、前記第1プロセッサは、第1時点において、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出し、前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、第1時点の次の時点である第2時点における前記奥行き方向の座標値を導出する。 In addition, in the information processing device disclosed herein, the first processor derives, from an image of the object captured by the first camera at a first time point, a depth coordinate value of the object in a three-dimensional orthogonal coordinate system of a point indicating the location of the object as the point information, and when there are multiple pieces of point information, the first processor derives the depth coordinate value at a second time point that is the next time point after the first time point, according to a predetermined priority for the identification information associated with the point information.

また、本開示の情報処理装置は、前記第1プロセッサは、前記優先度について、前記識別情報が示す物体の挙動の有無に応じて、挙動を生じる物体には高い優先度を定め、挙動を生じない物体には前記高い優先度よりも低い優先度を定める。 In addition, in the information processing device disclosed herein, the first processor determines the priority according to the presence or absence of the behavior of the object indicated by the identification information, so as to set a high priority for an object that exhibits a behavior, and a priority lower than the high priority for an object that does not exhibit a behavior.

また、本開示の情報処理装置は、前記第1プロセッサは、前記優先度について、前記挙動を生じる物体について、当該物体の危険因子に応じたより高い優先度を定める。 In addition, in the information processing device disclosed herein, the first processor determines a higher priority for the object that causes the behavior in accordance with the risk factor of the object.

本開示の情報処理方法は、第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、出力された前記点情報及び前記識別情報を対応付け、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する、処理をコンピュータが実行する。 In the information processing method disclosed herein, a computer executes a process in which it outputs point information that captures the photographed object as a point from an image of the object photographed by a first camera, outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera, associates the output point information with the identification information, and, in the case of a plurality of pieces of point information, outputs the point information at the next point in time according to a predetermined priority for the identification information associated with the point information.

本開示の情報処理プログラムは、コンピュータに、第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、出力された前記点情報及び前記識別情報を対応付け、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する、処理を実行させる。 The information processing program disclosed herein causes a computer to execute the following process: output point information capturing the photographed object as a point from an image of the object photographed by a first camera; output identification information identifying the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera; associate the output point information with the identification information; and, if there are multiple pieces of point information, output the point information at the next point in time according to a predetermined priority for the identification information associated with the point information.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.

Central Brainを搭載した車両の一例を示す概略図である。FIG. 1 is a schematic diagram showing an example of a vehicle equipped with a Central Brain. 情報処理装置の構成の一例を示す第1のブロック図である。1 is a first block diagram illustrating an example of a configuration of an information processing device. 情報処理装置の構成の一例を示す第2のブロック図である。FIG. 2 is a second block diagram showing an example of the configuration of the information processing device. MoPUが出力する点情報の例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of point information output by a MoPU; 情報処理装置の構成の一例を示す第3のブロック図である。FIG. 13 is a third block diagram showing an example of the configuration of an information processing device. 情報処理装置の構成の一例を示す第4のブロック図である。FIG. 4 is a fourth block diagram showing an example of the configuration of an information processing device. 点情報とラベル情報との対応付けの一例を示す説明図である。FIG. 11 is an explanatory diagram showing an example of association between point information and label information. 車両の概略構成を示す説明図であるFIG. 1 is an explanatory diagram showing a schematic configuration of a vehicle; 冷却実行装置の機能構成の例を示すブロック図である。2 is a block diagram showing an example of a functional configuration of a cooling execution device. FIG. 情報処理装置の構成の一例を示す第5のブロック図である。FIG. 5 is a fifth block diagram showing an example of the configuration of an information processing device. 情報処理装置の構成の一例を示す第6のブロック図である。FIG. 6 is a sixth block diagram showing an example of the configuration of an information processing device. 物体の時系列における座標検出を模式的に示す図である。FIG. 1 is a diagram illustrating detection of coordinates of an object in a time series; 情報処理装置の構成の一例を示す第7のブロック図である。FIG. 7 is a seventh block diagram showing an example of the configuration of an information processing device. イベントカメラにより撮影された物体の画像を説明するための説明図である。FIG. 2 is an explanatory diagram for explaining an image of an object captured by an event camera. 情報処理装置又は冷却実行装置として機能するコンピュータのハードウェア構成の一例を概略的に示す説明図である。FIG. 2 is an explanatory diagram illustrating an example of a hardware configuration of a computer that functions as an information processing device or a cooling execution device.

以下、本開示の実施形態を説明するが、以下の実施形態は特許請求の範囲に係る発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 Below, we will explain the embodiments of the present disclosure, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.

(第1の実施形態)
まず、本実施形態に係る第1の実施形態について説明する。本開示に係る情報処理装置は、一例として、少なくとも一部が車両100に搭載されて、車両100の自動運転制御を行う。また、当該情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。車両100は「対象物」の一例である。
First Embodiment
First, a first embodiment according to the present disclosure will be described. As an example, at least a part of the information processing device according to the present disclosure is mounted on a vehicle 100 to perform automatic driving control of the vehicle 100. In addition, the information processing device can provide a driving system that can realize autonomous driving in real time based on data obtained by AI/multivariate analysis/goal seek/strategy planning/optimal probability solution/optimal speed solution/optimal course management/multiple sensor inputs at the edge by Level 6 and is adjusted based on the delta optimal solution. The vehicle 100 is an example of an "object".

ここで、「Level6」とは、自動運転を表すレベルであり、完全自動運転を表すLevel5よりも更に上のレベルに相当する。Level5は完全自動運転を表すものの、それは人が運転するのと同等のレベルであり、それでも未だ事故等が発生する確率はある。Level6とは、Level5よりも上のレベルを表すものであり、Level5よりも事故が発生する確率が低いレベルに相当する。 Here, "Level 6" refers to a level of autonomous driving, and is equivalent to a level higher than Level 5, which represents fully autonomous driving. Although Level 5 represents fully autonomous driving, it is at the same level as a human driving, and there is still a chance of accidents occurring. Level 6 represents a level higher than Level 5, and is equivalent to a level where the chance of accidents occurring is lower than at Level 5.

Level6における計算力は、Level5の計算力の1000倍程度である。したがって、Level5では実現できなかった高性能な運転制御が実現可能である。 The computing power at Level 6 is about 1000 times that of Level 5. Therefore, it is possible to achieve high-performance operation control that was not possible at Level 5.

図1は、Central Brain15を搭載した車両100の一例を示す概略図である。Central Brain15には、複数のGate Wayが通信可能に接続されている。Central Brain15は、Gate Wayを介して外部のクラウドサーバに接続されている。Central Brain15は、Gate Wayを介して外部のクラウドサーバへアクセスすることができるように構成されている。その一方で、Gate Wayの存在により、外部からCentral Brain15へ直接アクセスすることはできないように構成されている。 Figure 1 is a schematic diagram showing an example of a vehicle 100 equipped with a Central Brain 15. A plurality of Gate Ways are communicatively connected to the Central Brain 15. The Central Brain 15 is connected to an external cloud server via the Gate Ways. The Central Brain 15 is configured to be able to access the external cloud server via the Gate Ways. On the other hand, due to the presence of the Gate Ways, the Central Brain 15 is configured not to be directly accessible from the outside.

Central Brain15は、所定時間が経過する毎に、要求信号をクラウドサーバへ出力する。具体的には、Central Brain15は、10億分の1秒毎に、問い合わせを表す要求信号をクラウドサーバへ出力する。一例として、Central Brain15は、Gate Wayを介して取得した複数の情報に基づいて、LeveL6の自動運転を制御する。 The Central Brain 15 outputs a request signal to the cloud server every time a predetermined time has elapsed. Specifically, the Central Brain 15 outputs a request signal representing an inquiry to the cloud server every billionth of a second. As an example, the Central Brain 15 controls the automatic driving of Level L6 based on multiple pieces of information acquired via the Gate Way.

図2は、情報処理装置10の構成の一例を示す第1のブロック図である。情報処理装置10は、IPU(Image Processing Unit)11、MoPU(Motion Processing Unit)12、Central Brain15及びメモリ16を備えている。Central Brain15は、GNPU(Graphics Neural network Processing Unit)13及びCPU(Central Processing Unit)14を含んで構成されている。 Figure 2 is a first block diagram showing an example of the configuration of the information processing device 10. The information processing device 10 includes an IPU (Image Processing Unit) 11, a MoPU (Motion Processing Unit) 12, a Central Brain 15, and a memory 16. The Central Brain 15 includes a GNPU (Graphics Neural network Processing Unit) 13 and a CPU (Central Processing Unit) 14.

IPU11は、車両100に設置された超高解像度カメラ(図示せず)に内蔵されている。IPU11は、超高解像度カメラにより撮影された車両100の周囲に存在する物体の画像について、ベイヤ変換、デモザイク、ノイズ除去、シャープ化等の所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレートかつ1200万画素の解像度で出力する。また、IPU11は、超高解像度カメラにより撮影された物体の画像から、撮影された物体を識別した識別情報を出力する。識別情報は、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報である。本実施形態では、IPU11は、識別情報として、撮影された物体の種別を示すラベル情報(例えば、撮影された物体が犬なのか、猫なのか、又はクマなのかを示す情報)を出力する。さらに、IPU11は、撮影された物体の超高解像度カメラのカメラ座標系における位置を示す位置情報を出力する。IPU11から出力された画像、ラベル情報、及び位置情報は、Central Brain15及びメモリ16に供給される。IPU11は「第2プロセッサ」の一例であり、超高解像度カメラは「第2カメラ」の一例である。 The IPU 11 is built into an ultra-high resolution camera (not shown) installed in the vehicle 100. The IPU 11 performs predetermined image processing such as Bayer transformation, demosaic, noise removal, and sharpening on the image of the object existing around the vehicle 100 captured by the ultra-high resolution camera, and outputs the processed image of the object at a frame rate of 10 frames/second and a resolution of 12 million pixels, for example. The IPU 11 also outputs identification information that identifies the captured object from the image of the object captured by the ultra-high resolution camera. The identification information is information necessary to identify what the captured object is (for example, whether it is a person or an obstacle). In this embodiment, the IPU 11 outputs label information indicating the type of the captured object (for example, information indicating whether the captured object is a dog, a cat, or a bear) as the identification information. Furthermore, the IPU 11 outputs position information indicating the position of the captured object in the camera coordinate system of the ultra-high resolution camera. The image, label information, and position information output from the IPU 11 are supplied to the Central Brain 15 and the memory 16. The IPU 11 is an example of a "second processor," and the ultra-high resolution camera is an example of a "second camera."

MoPU12は、車両100に設置された超高解像度カメラとは別の別カメラ(図示せず)に内蔵されている。MoPU12は、超高解像度カメラと対応する方向を向いた別カメラにより100フレーム/秒以上のフレームレートで撮影された物体の画像から、撮影された物体を点として捉えた点情報を、例えば100フレーム/秒以上のフレームレートで出力する。MoPU12から出力された点情報は、Central Brain15及びメモリ16に供給される。このように、MoPU12が点情報を出力するために用いる画像と、IPU11が識別情報を出力するために用いる画像とは、別カメラ及び超高解像度カメラが対応する方向を向いて撮影した画像である。ここで、「対応する方向」とは、別カメラの撮影範囲と超高解像度カメラの撮影範囲とが重複する方向である。上記の場合だと、別カメラは、超高解像度カメラの撮影範囲と重複する方向を向いて物体を撮影する。なお、超高解像度カメラ及び別カメラが対応する方向を向いて物体を撮影することは、例えば、超高解像度カメラ及び別カメラ間のカメラ座標系の対応関係を予め求めておくことにより実現される。 The MoPU 12 is built into a separate camera (not shown) other than the ultra-high resolution camera installed in the vehicle 100. The MoPU 12 outputs point information capturing the captured object as a point from an image of the object captured at a frame rate of 100 frames/second or more by a separate camera facing in a direction corresponding to the ultra-high resolution camera, for example at a frame rate of 100 frames/second or more. The point information output from the MoPU 12 is supplied to the Central Brain 15 and the memory 16. In this way, the image used by the MoPU 12 to output the point information and the image used by the IPU 11 to output the identification information are images captured by the separate camera and the ultra-high resolution camera facing in corresponding directions. Here, the "corresponding direction" is the direction in which the shooting range of the separate camera and the shooting range of the ultra-high resolution camera overlap. In the above case, the separate camera faces in a direction overlapping with the shooting range of the ultra-high resolution camera to capture the object. Note that photographing an object with the ultra-high resolution camera and another camera facing in corresponding directions can be achieved, for example, by determining in advance the correspondence relationship between the camera coordinate systems of the ultra-high resolution camera and the other camera.

例えば、MoPU12は、点情報として、物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力する。当該座標値は、一例として、物体の中心点(又は重心点)を示している。また、MoPU12は、2つの座標軸の座標値として、当該3次元直交座標系における幅方向に沿った軸(x軸)の座標値(以下、「x座標値」とする)及び高さ方向に沿った軸(y軸)の座標値(以下、「y座標値」とする)を出力する。なお、x軸は、車両100の車幅方向に沿った軸であり、y軸は、車両100の高さ方向に沿った軸である。 For example, MoPU12 outputs, as point information, coordinate values of at least two coordinate axes in a three-dimensional orthogonal coordinate system of a point indicating the location of an object. As an example, the coordinate values indicate the center point (or center of gravity) of the object. Furthermore, MoPU12 outputs, as the coordinate values of the two coordinate axes, the coordinate value of the axis (x-axis) along the width direction in the three-dimensional orthogonal coordinate system (hereinafter referred to as the "x-coordinate value") and the coordinate value of the axis (y-axis) along the height direction (hereinafter referred to as the "y-coordinate value"). Note that the x-axis is an axis along the width direction of the vehicle 100, and the y-axis is an axis along the height direction of the vehicle 100.

以上の構成により、MoPU12が出力する1秒間の点情報は100フレーム以上のx座標値及びy座標値を含むため、当該点情報に基づくと、上記3次元直交座標系におけるx軸及びy軸上の物体の動き(移動方向及び移動速度)を把握することができる。つまり、MoPU12が出力する点情報は、物体の上記3次元直交座標系における位置を示す位置情報及び物体の動きを示す動き情報を含んでいる。 With the above configuration, the point information for one second output by MoPU12 includes x-coordinate values and y-coordinate values for more than 100 frames, so that based on the point information, it is possible to grasp the movement (movement direction and movement speed) of an object on the x-axis and y-axis in the above-mentioned three-dimensional orthogonal coordinate system. In other words, the point information output by MoPU12 includes position information indicating the position of the object in the above-mentioned three-dimensional orthogonal coordinate system and movement information indicating the movement of the object.

以上のように、MoPU12から出力される点情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)のx軸及びy軸上の動き(移動方向及び移動速度)を示す情報のみが含まれている。そして、MoPU12から出力される点情報は、画像情報を含まないため、Central Brain15及びメモリ16に出力するデータ量を画期的に削減することができる。MoPU12は「第1プロセッサ」の一例であり、別カメラは「第1カメラ」の一例である。 As described above, the point information output from MoPU12 does not include information necessary to identify what the photographed object is (e.g., whether it is a person or an obstacle), but only includes information indicating the movement (direction and speed of movement) of the object's center point (or center of gravity) on the x-axis and y-axis. Furthermore, because the point information output from MoPU12 does not include image information, it is possible to dramatically reduce the amount of data output to Central Brain15 and memory16. MoPU12 is an example of a "first processor", and the separate camera is an example of a "first camera".

上述の通り、本実施形態では、MoPU12が内蔵された別カメラのフレームレートは、IPU11が内蔵された超高解像度カメラのフレームレートより大きい。具体的には、別カメラのフレームレートは100フレーム/秒以上であり、超高解像度カメラのフレームレートは10フレーム/秒である。つまり、別カメラのフレームレートは、超高解像度カメラのフレームレートの10倍以上である。 As described above, in this embodiment, the frame rate of the separate camera incorporating MoPU12 is greater than the frame rate of the ultra-high resolution camera incorporating IPU11. Specifically, the frame rate of the separate camera is 100 frames/second or more, and the frame rate of the ultra-high resolution camera is 10 frames/second. In other words, the frame rate of the separate camera is 10 times or more the frame rate of the ultra-high resolution camera.

Central Brain15は、MoPU12から出力された点情報及びIPU11から出力されたラベル情報を対応付ける。例えば、上記別カメラと超高解像度カメラとのフレームレート差に起因して、Central Brain15は、物体についての点情報を取得しているが、ラベル情報を取得していない状態がある。この状態では、Central Brain15は、点情報に基づいて物体のx座標値及びy座標値を認識するが、その物体が何であるかは認識していない。 The Central Brain 15 associates the point information output from the MoPU 12 with the label information output from the IPU 11. For example, due to the difference in frame rate between the separate camera and the ultra-high resolution camera, there may be a state in which the Central Brain 15 acquires point information about an object but does not acquire label information. In this state, the Central Brain 15 recognizes the x and y coordinate values of the object based on the point information, but does not recognize what the object is.

その後、上記物体についてのラベル情報を取得した場合、Central Brain15は、当該ラベル情報の種別(例:PERSON)を導出する。そして、Central Brain15は、当該ラベル情報と上記で取得している点情報とを対応付ける。これにより、Central Brain15は、点情報に基づいて物体のx座標値及びy座標値を認識するとともに、その物体が何であるかを認識する。Central Brain15は「第3プロセッサ」の一例である。 After that, when label information about the object is acquired, the Central Brain 15 derives the type of the label information (e.g., PERSON). The Central Brain 15 then associates the label information with the point information acquired above. As a result, the Central Brain 15 recognizes the x-coordinate value and y-coordinate value of the object based on the point information, and recognizes what the object is. The Central Brain 15 is an example of a "third processor."

ここで、Central Brain15は、超高解像度カメラ及び別カメラにより撮影された物体が、例えば、物体A及び物体Bのように複数存在する場合、次のようにして各物体についての点情報及びラベル情報を対応付ける。上記の別カメラと超高解像度カメラとのフレームレート差に起因して、Central Brain15は、物体A及び物体Bについての点情報(以下、「点情報A」及び「点情報B」とする)を取得しているが、ラベル情報を取得していない状態がある。この状態では、Central Brain15は、点情報Aに基づいて物体Aのx座標値及びy座標値を認識し、点情報Bに基づいて物体Bのx座標値及びy座標値を認識するが、それらの物体が何であるかは認識していない。 Here, when there are multiple objects, such as object A and object B, photographed by the super-high resolution camera and another camera, the Central Brain 15 associates point information and label information for each object as follows. Due to the difference in frame rate between the other camera and the super-high resolution camera, the Central Brain 15 acquires point information for objects A and B (hereinafter referred to as "point information A" and "point information B"), but there are states in which it does not acquire label information. In this state, the Central Brain 15 recognizes the x and y coordinate values of object A based on point information A, and recognizes the x and y coordinate values of object B based on point information B, but does not recognize what those objects are.

その後、一のラベル情報を取得した場合、Central Brain15は、当該一のラベル情報の種別(例:PERSON)を導出する。そして、Central Brain15は、当該一のラベル情報と共にIPU11から出力された位置情報と、取得している点情報A及び点情報Bに含まれる位置情報とに基づいて、当該一のラベル情報と対応付ける点情報を特定する。例えば、Central Brain15は、IPU11から出力された位置情報が示す物体の位置に最も近い位置を示す位置情報を含む点情報を特定し、当該点情報を当該一のラベル情報に対応付ける。上記で特定された点情報が点情報Aである場合、Central Brain15は、当該一のラベル情報と点情報Aとを対応付け、点情報Aに基づいて物体Aのx座標値及びy座標値を認識するとともに、物体Aが何であるかを認識する。 After that, when a piece of label information is acquired, the Central Brain 15 derives the type of the piece of label information (e.g., PERSON). Then, the Central Brain 15 identifies point information to be associated with the piece of label information based on the position information output from the IPU 11 together with the piece of label information and the position information included in the acquired point information A and point information B. For example, the Central Brain 15 identifies point information including position information indicating a position closest to the position of the object indicated by the position information output from the IPU 11, and associates the point information with the piece of label information. When the point information identified above is point information A, the Central Brain 15 associates the piece of label information with point information A, recognizes the x-coordinate value and y-coordinate value of object A based on point information A, and recognizes what object A is.

以上説明したように、Central Brain15は、超高解像度カメラ及び別カメラにより撮影された物体が複数存在する場合、IPU11から出力された位置情報と、MoPU12から出力された点情報に含まれる位置情報とに基づいて、点情報及びラベル情報の対応付けを行う。 As described above, when there are multiple objects photographed by the ultra-high resolution camera and another camera, the Central Brain 15 associates the point information with the label information based on the position information output from the IPU 11 and the position information included in the point information output from the MoPU 12.

また、Central Brain15は、IPU11から出力された画像及びラベル情報に基づいて、車両100の周囲に存在する物体(人、動物、道路、信号、標識、横断歩道、障害物、建物など)を認識する。また、Central Brain15は、MoPU12から出力された点情報に基づいて、車両100の周囲に存在する、何であるか認識された物体の位置及び動きを認識する。Central Brain15は認識した情報に基づいて、例えば、車輪を駆動するモータの制御(速度制御)、ブレーキ制御、ハンドル制御を行い、車両100の自動運転を制御する。例えば、Central Brain15は、MoPU12から出力された点情報に含まれる位置情報及び動き情報から、物体との衝突を回避するように車両100の自動運転を制御する。Central Brain15において、GNPU13は画像認識に関する処理を担ってもよく、CPU14は、車両制御に関する処理を担ってもよい。 The Central Brain 15 also recognizes objects (people, animals, roads, traffic lights, signs, crosswalks, obstacles, buildings, etc.) around the vehicle 100 based on the image and label information output from the IPU 11. The Central Brain 15 also recognizes the position and movement of recognized objects around the vehicle 100 based on the point information output from the MoPU 12. Based on the recognized information, the Central Brain 15 controls the automatic driving of the vehicle 100, for example, by controlling the motor that drives the wheels (speed control), brake control, and steering control. For example, the Central Brain 15 controls the automatic driving of the vehicle 100 so as to avoid collisions with objects based on the position information and movement information included in the point information output from the MoPU 12. In the Central Brain 15, the GNPU 13 may be responsible for processing related to image recognition, and the CPU 14 may be responsible for processing related to vehicle control.

一般的に自動運転における画像認識を行うために超高解像度カメラが使用されている。ここで、超高解像度カメラによって撮影された画像から、当該画像に含まれる物体が何であるかを認識することは可能である。しかしながら、Level6時代の自動運転ではこれだけでは不十分である。Level6時代では、物体の動きをより高精度に認識することも必要である。MoPU12によって物体の動きをより高精度に認識することで、例えば、自動運転によって走行する車両100が障害物を回避する回避動作を、より高精度で行うことが可能となる。しかしながら、超高解像度カメラでは、1秒間に10フレーム程度しか画像を取得することができず、物体の動きを解析する精度はMoPU12を搭載したカメラに比べると低い。一方、MoPU12を搭載したカメラでは、例えば100フレーム/秒の高フレームレートでの出力が可能である。 Ultra-high resolution cameras are generally used for image recognition in autonomous driving. Here, it is possible to recognize what objects are included in an image captured by an ultra-high resolution camera. However, this alone is insufficient for autonomous driving in the Level 6 era. In the Level 6 era, it is also necessary to recognize the movement of objects with higher accuracy. By recognizing the movement of objects with higher accuracy using the MoPU 12, for example, the vehicle 100 traveling by autonomous driving can perform an avoidance operation to avoid an obstacle with higher accuracy. However, an ultra-high resolution camera can only capture images at about 10 frames per second, and the accuracy of analyzing the movement of an object is lower than that of a camera equipped with a MoPU 12. On the other hand, a camera equipped with a MoPU 12 can output at a high frame rate of, for example, 100 frames per second.

そこで、第1の実施形態に係る情報処理装置10は、IPU11及びMoPU12の2つの独立したプロセッサを備える。情報処理装置10は、超高解像度カメラに内蔵されたIPU11には、撮影した物体が何であるかを識別するために必要な情報を取得する役割を与え、別カメラに内蔵されたMoPU12には、物体の位置及び動きを検出する役割を与えている。MoPU12は、撮影した物体を点として捉え、その点の座標が上記3次元直交座標系における少なくともx軸及びy軸上のどの方向に、どの程度の速度で動くかを解析する。物体の全体の輪郭と、その物体が何なのかの検知は、超高解像度カメラからの画像によって行うことが可能であることから、MoPU12によって、例えば、物体の中心点がどのように移動するかさえ分かれば、物体全体がどのような挙動をするかがわかる。 Therefore, the information processing device 10 according to the first embodiment has two independent processors, an IPU 11 and a MoPU 12. In the information processing device 10, the IPU 11 built into the ultra-high resolution camera is given the role of acquiring information necessary to identify what the photographed object is, and the MoPU 12 built into another camera is given the role of detecting the position and movement of the object. The MoPU 12 captures the photographed object as a point, and analyzes in which direction and at what speed the coordinates of the point move on at least the x-axis and y-axis in the above-mentioned three-dimensional orthogonal coordinate system. Since it is possible to detect the entire contour of the object and what the object is by using the image from the ultra-high resolution camera, it is possible to know how the entire object will behave if it is known, for example, how the center point of the object moves by the MoPU 12.

物体の中心点の移動と速度のみを解析する手法によれば、物体の画像全体がどのように動くかを判断することに比べて、Central Brain15に出力するデータ量を大幅に抑制し、Central Brain15における計算量を大幅に低減することが可能である。例えば、1000ピクセル×1000ピクセルの画像を、1000フレーム/秒のフレームレートでCentral Brain15に出力する場合、色情報を含めると、40億ビット/秒のデータをCentral Brain15に出力することになる。MoPU12が、物体の中心点の動きを示す点情報のみを出力することで、Central Brain15に出力するデータ量を2万ビット/秒に圧縮することができる。すなわち、Central Brain15に出力するデータ量が20万分の1に圧縮される。 A method of analyzing only the movement and speed of the object's center point makes it possible to significantly reduce the amount of data output to Central Brain 15 and the amount of calculations in Central Brain 15, compared to determining how the entire image of the object moves. For example, when an image of 1000 pixels x 1000 pixels is output to Central Brain 15 at a frame rate of 1000 frames/second, including color information, 4 billion bits/second of data will be output to Central Brain 15. By having MoPU 12 output only point information indicating the movement of the object's center point, the amount of data output to Central Brain 15 can be compressed to 20,000 bits/second. In other words, the amount of data output to Central Brain 15 is compressed to 1/200,000.

このように、IPU11から出力される低フレームレートかつ高解像度の画像及びラベル情報と、MoPU12から出力される高フレームレートかつ軽量の点情報とを組み合わせて用いることで、物体の動きを含む物体認識を、少ないデータ量で実現することが可能となる。 In this way, by combining the low frame rate, high resolution image and label information output from the IPU 11 with the high frame rate, lightweight point information output from the MoPU 12, it is possible to realize object recognition, including object movement, with a small amount of data.

また、情報処理装置10では、Central Brain15がMoPU12から出力された点情報及びIPU11から出力されたラベル情報を対応付けることにより、どのような物体がどのような動きをしているのかに関する情報を把握することができる。 In addition, in the information processing device 10, the Central Brain 15 associates the point information output from the MoPU 12 with the label information output from the IPU 11, thereby making it possible to grasp information regarding what kind of object is moving in what way.

(第2の実施形態)
次に、本実施形態に係る第2の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
Second Embodiment
Next, a second embodiment of the present invention will be described while omitting or simplifying parts that overlap with the above embodiment.

図3は、情報処理装置10の構成の一例を示す第2のブロック図である。図3に示すように、車両100に搭載される情報処理装置10は、左側の目に相当するMoPU12Lと、右側の目に相当するMoPU12Rと、IPU11と、Central Brain15とを備えている。 Figure 3 is a second block diagram showing an example of the configuration of the information processing device 10. As shown in Figure 3, the information processing device 10 mounted on the vehicle 100 includes a MoPU 12L corresponding to the left eye, a MoPU 12R corresponding to the right eye, an IPU 11, and a Central Brain 15.

MoPU12Lは、カメラ30Lと、レーダー32Lと、赤外線カメラ34Lと、コア17Lを備えている。また、MoPU12Rは、カメラ30Rと、レーダー32Rと、赤外線カメラ34Rと、コア17Rを備えている。なお、以下では、MoPU12LとMoPU12Rとを区別しない場合には「MoPU12」、カメラ30Lとカメラ30Rとを区別しない場合には「カメラ30」、レーダー32Lとレーダー32Rとを区別しない場合には「レーダー32」、赤外線カメラ34Lと赤外線カメラ34Rとを区別しない場合には「赤外線カメラ34」、コア17Lとコア17Rとを区別しない場合には「コア17」と記載する。 MoPU12L includes a camera 30L, a radar 32L, an infrared camera 34L, and a core 17L. MoPU12R includes a camera 30R, a radar 32R, an infrared camera 34R, and a core 17R. In the following, when MoPU12L and MoPU12R are not distinguished from each other, it is referred to as "MoPU12", when camera 30L and camera 30R are not distinguished from each other, it is referred to as "camera 30", when radar 32L and radar 32R are not distinguished from each other, it is referred to as "radar 32", when infrared camera 34L and infrared camera 34R are not distinguished from each other, it is referred to as "infrared camera 34", and when core 17L and core 17R are not distinguished from each other, it is referred to as "core 17".

MoPU12が備えるカメラ30は、IPU11が備える超高解像度カメラ(例えば、10フレーム/秒)よりも大きいフレーム数(120,240,480,960,又は1920フレーム/秒)で物体を撮影する。カメラ30のフレームレートは可変である。カメラ30は「第1カメラ」の一例である。 The camera 30 of the MoPU 12 captures images of objects at a frame rate (120, 240, 480, 960, or 1920 frames/sec) greater than the ultra-high resolution camera of the IPU 11 (e.g., 10 frames/sec). The frame rate of the camera 30 is variable. The camera 30 is an example of a "first camera."

MoPU12が備えるレーダー32は、物体に照射した電磁波の当該物体からの反射波に基づく信号であるレーダー信号を取得する。MoPU12が備える赤外線カメラ34は、赤外線画像を撮影するカメラである。 The radar 32 included in the MoPU 12 acquires a radar signal that is a signal based on electromagnetic waves irradiated onto an object and reflected from the object. The infrared camera 34 included in the MoPU 12 is a camera that captures infrared images.

MoPU12が備えるコア17(例えば、1つ以上のCPUにより構成される)は、カメラ30が撮影した1フレームの画像毎に特徴点を抽出し、点情報として、上記3次元直交座標系における物体のx座標値及びy座標値を出力する。コア17は、例えば、画像から抽出した物体の中心点(重心点)を特徴点とする。なお、コア17が出力する点情報は、上記実施形態と同様に、位置情報及び動き情報を含む。 The core 17 (e.g., composed of one or more CPUs) provided in the MoPU 12 extracts feature points for each frame of image captured by the camera 30, and outputs the x-coordinate value and the y-coordinate value of the object in the above-mentioned three-dimensional orthogonal coordinate system as point information. For example, the core 17 takes the center point (center of gravity point) of the object extracted from the image as the feature point. Note that the point information output by the core 17 includes position information and movement information, as in the above embodiment.

IPU11は、超高解像度カメラ(図示せず)を備えており、超高解像度カメラにより撮影された物体の画像、当該物体の種別を示すラベル情報、及び当該物体の超高解像度カメラのカメラ座標系における位置を示す位置情報を出力する。 The IPU 11 is equipped with an ultra-high resolution camera (not shown) and outputs an image of an object captured by the ultra-high resolution camera, label information indicating the type of the object, and position information indicating the position of the object in the camera coordinate system of the ultra-high resolution camera.

Central Brain15は、MoPU12から出力された点情報と、IPU11から出力された画像、ラベル情報、及び位置情報とを取得する。そして、Central Brain15は、MoPU12から出力された点情報に含まれる位置情報とIPU11から出力された位置情報とが対応する位置に存在する物体についてのラベル情報を当該点情報に対応付ける。これにより、情報処理装置10では、ラベル情報が示す物体が何であるかという情報と、点情報が示す物体の位置及び動きとを対応付けることが可能になる。 The Central Brain 15 acquires the point information output from the MoPU 12, and the image, label information, and position information output from the IPU 11. The Central Brain 15 then associates the label information of an object that exists at a position corresponding to the position information included in the point information output from the MoPU 12 and the position information output from the IPU 11 with the point information. This makes it possible for the information processing device 10 to associate information about the object indicated by the label information with the position and movement of the object indicated by the point information.

ここで、MoPU12は、所定要因に応じてカメラ30のフレームレートを変更する。本実施形態では、MoPU12は、所定要因の一例として外部環境に関するスコアに応じてカメラ30のフレームレートを変更する。この場合、MoPU12は、車両100に対する外部環境に関するスコアを算出し、算出したスコアに応じて、カメラ30のフレームレートを変更する。そして、MoPU12は、変更したフレームレートで画像を撮影させるための制御信号をカメラ30に対して出力する。これにより、カメラ30は、制御信号が示すフレームレートで画像を撮影する。この構成により、情報処理装置10によれば、外部環境に適したフレームレートで物体の画像を撮影することができる。 Here, MoPU 12 changes the frame rate of camera 30 in response to a predetermined factor. In this embodiment, MoPU 12 changes the frame rate of camera 30 in response to a score related to the external environment, which is an example of a predetermined factor. In this case, MoPU 12 calculates a score related to the external environment for vehicle 100, and changes the frame rate of camera 30 in response to the calculated score. MoPU 12 then outputs a control signal to camera 30 to cause it to capture images at the changed frame rate. As a result, camera 30 captures images at the frame rate indicated by the control signal. With this configuration, the information processing device 10 can capture images of an object at a frame rate suitable for the external environment.

なお、車両100に搭載される情報処理装置10は、図示しない複数種類のセンサを備えている。MoPU12は、複数種類のセンサから取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)及び点情報に基づいて、車両100に対する外部環境に関するスコアとして、車両100の移動に関する危険度を算出する。危険度は、車両100が今後どの程度の危険な場所を走行するかの度合を示している。この場合、MoPU12は、算出した危険度に応じてカメラ30のフレームレートを変更する。車両100は「移動体」の一例である。この構成により、情報処理装置10によれば、車両100の移動に関する危険度に応じてカメラ30のフレームレートを変更することができる。センサは「検知部」の一例であり、センサ情報は「検知情報」の一例である。 The information processing device 10 mounted on the vehicle 100 is equipped with multiple types of sensors (not shown). The MoPU 12 calculates the degree of danger regarding the movement of the vehicle 100 as a score regarding the external environment for the vehicle 100 based on the sensor information (e.g., weight center of gravity shift, detection of road material, detection of outside air temperature, detection of outside air humidity, detection of up, down, side, diagonal inclination angle of a slope, road freezing condition, detection of moisture content, material of each tire, wear condition, detection of air pressure, road width, presence or absence of overtaking prohibition, oncoming vehicles, vehicle type information of front and rear vehicles, cruising state of those vehicles, or surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, housework, wind, typhoon, heavy rain, light rain, snowstorm, fog, etc.) etc.) acquired from the multiple types of sensors and point information. The degree of danger indicates the degree of danger in the place where the vehicle 100 will be traveling in the future. In this case, the MoPU 12 changes the frame rate of the camera 30 according to the calculated degree of danger. The vehicle 100 is an example of a "moving body". With this configuration, the information processing device 10 can change the frame rate of the camera 30 depending on the degree of danger associated with the movement of the vehicle 100. The sensor is an example of a "detection unit," and the sensor information is an example of "detection information."

例えば、MoPU12は、算出した危険度が高いほどカメラ30のフレームレートを高くする。MoPU12は、算出した危険度が第1閾値未満の場合、カメラ30のフレームレートを120フレーム/秒に変更する。また、MoPU12は、算出した危険度が第1閾値以上かつ第2閾値未満の場合、カメラ30のフレームレートを240,480,960フレーム/秒の何れかに変更する。また、MoPU12は、算出した危険度が第2閾値以上の場合、カメラ30のフレームレートを1920フレーム/秒に変更する。なお、MoPU12は、危険度が上記の何れかである場合において、選択したフレームレートでカメラ30に画像を撮影させることに加え、当該フレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。 For example, the MoPU 12 increases the frame rate of the camera 30 as the calculated risk level increases. When the calculated risk level is less than the first threshold, the MoPU 12 changes the frame rate of the camera 30 to 120 frames/second. When the calculated risk level is equal to or greater than the first threshold and less than the second threshold, the MoPU 12 changes the frame rate of the camera 30 to one of 240, 480, or 960 frames/second. When the calculated risk level is equal to or greater than the second threshold, the MoPU 12 changes the frame rate of the camera 30 to 1920 frames/second. When the risk level is one of the above levels, the MoPU 12 may output a control signal to the radar 32 and the infrared camera 34 to acquire a radar signal and capture an infrared image at a numerical value corresponding to the frame rate, in addition to causing the camera 30 to capture an image at the selected frame rate.

例えば、MoPU12は、算出した危険度が低いほどカメラ30のフレームレートを低くする。MoPU12は、カメラ30のフレームレートを1920フレーム/秒に設定した状態で、算出した危険度が第1閾値以上かつ第2閾値未満の場合、カメラ30のフレームレートを240,480,960フレーム/秒の何れかに変更する。また、MoPU12は、カメラ30のフレームレートを1920フレーム/秒に設定した状態で、算出した危険度が第1閾値未満の場合、カメラ30のフレームレートを120フレーム/秒に変更する。さらに、MoPU12は、カメラ30のフレームレートを240,480,960フレーム/秒の何れかに設定した状態で、算出した危険度が第1閾値未満の場合、カメラ30のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ30のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。 For example, the lower the calculated risk level, the lower the frame rate of the camera 30. When the frame rate of the camera 30 is set to 1920 frames/second and the calculated risk level is equal to or greater than the first threshold and less than the second threshold level, the MoPU 12 changes the frame rate of the camera 30 to one of 240, 480, and 960 frames/second. When the frame rate of the camera 30 is set to 1920 frames/second and the calculated risk level is less than the first threshold level, the MoPU 12 changes the frame rate of the camera 30 to 120 frames/second. When the frame rate of the camera 30 is set to 240, 480, and 960 frames/second and the calculated risk level is less than the first threshold level, the MoPU 12 changes the frame rate of the camera 30 to 120 frames/second. When the frame rate of the camera 30 is set to 240, 480, and 960 frames/second and the calculated risk level is less than the first threshold level, the MoPU 12 changes the frame rate of the camera 30 to 120 frames/second. In this case, as in the above case, a control signal may be output to the radar 32 and the infrared camera 34 so that the radar signal is acquired and the infrared image is captured at a value corresponding to the changed frame rate of the camera 30.

また、MoPU12は、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両100が走行する前から既知である走行に関するビッグデータを利用して、危険度を算出してもよい。 In addition, MoPU12 may calculate the risk level using big data related to driving that is known before the vehicle 100 starts driving, such as long-tail incident AI (Artificial Intelligence) DATA (e.g., trip data of a vehicle equipped with a level 5 autonomous driving control system) or map information, as information for predicting the risk level.

上記では、外部環境に関するスコアとして危険度を算出したが、外部環境に関するスコアとなる指標は危険度に限定されない。例えば、MoPU12は、カメラ30に写る物体の移動方向又は速さ等に基づいて、危険度とは別の外部環境に関するスコアを算出し、そのスコアに応じて、カメラ30のフレームレートを変更してもよい。以下、MoPU12がカメラ30に写る物体の速さに関するスコアである速さスコアを算出し、速さスコアに応じて、カメラ30のフレームレートを変更する場合について説明する。一例として、速さスコアは、物体の速度が速いほど高くなり、遅いほど低くなるよう設定されている。そして、MoPU12は、算出した速さスコアが高いほどカメラ30のフレームレートを高くし、低いほどカメラ30のフレームレートを低くする。このため、MoPU12は、物体の速度が速いために算出した速さスコアが閾値以上となった場合、カメラ30のフレームレートを1920フレーム/秒に変更する。また、MoPU12は、物体の速度が遅いために算出した速さスコアが閾値未満となった場合、カメラ30のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ30のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。 In the above, the degree of danger is calculated as a score related to the external environment, but the index that becomes the score related to the external environment is not limited to the degree of danger. For example, MoPU12 may calculate a score related to the external environment other than the degree of danger based on the moving direction or speed of an object captured by the camera 30, and change the frame rate of the camera 30 according to the score. Hereinafter, a case will be described in which MoPU12 calculates a speed score, which is a score related to the speed of an object captured by the camera 30, and changes the frame rate of the camera 30 according to the speed score. As an example, the speed score is set to be higher as the speed of the object is faster and lower as the speed of the object is slower. Then, MoPU12 increases the frame rate of the camera 30 as the calculated speed score is higher and decreases the frame rate of the camera 30 as the calculated speed score is lower. For this reason, when the calculated speed score is equal to or higher than the threshold value because the speed of the object is fast, MoPU12 changes the frame rate of the camera 30 to 1920 frames/second. Furthermore, if the speed score calculated is less than the threshold because the object's speed is slow, the MoPU 12 changes the frame rate of the camera 30 to 120 frames/second. In this case, similar to the above, a control signal may be output to the radar 32 and the infrared camera 34 so that the radar signal is acquired and the infrared image is captured at a value corresponding to the changed frame rate of the camera 30.

次に、MoPU12がカメラ30に写る物体の移動方向に関するスコアである方向スコアを算出し、方向スコアに応じて、カメラ30のフレームレートを変更する場合について説明する。一例として、方向スコアは、物体の移動方向が道路に近づく方向であると高くなり、道路から離れる方向であると低くなるよう設定されている。そして、MoPU12は、算出した方向スコアが高いほどカメラ30のフレームレートを高くし、低いほどカメラ30のフレームレートを低くする。具体的には、MoPU12は、AIを利用することなどにより物体の移動方向を特定し、特定した移動方向に基づいて方向スコアを算出する。そして、MoPU12は、物体の移動方向が道路に近づく方向であったために算出した方向スコアが閾値以上となった場合、カメラ30のフレームレートを1920フレーム/秒に変更する。また、MoPU12は、物体の移動方向が道路から離れる方向であったために算出した方向スコアが閾値未満となった場合、カメラ30のフレームレートを120フレーム/秒に変更する。なお、この場合も上記と同様に、変更したカメラ30のフレームレートに応じた数値でレーダー信号を取得及び赤外線画像を撮影するように、レーダー32及び赤外線カメラ34へ制御信号を出力してもよい。 Next, a case will be described in which MoPU12 calculates a direction score, which is a score related to the moving direction of an object captured by camera 30, and changes the frame rate of camera 30 according to the direction score. As an example, the direction score is set to be higher when the moving direction of the object is toward the road and lower when the moving direction is away from the road. MoPU12 increases the frame rate of camera 30 as the calculated direction score increases, and decreases the frame rate of camera 30 as the calculated direction score decreases. Specifically, MoPU12 identifies the moving direction of the object by using AI or the like, and calculates the direction score based on the identified moving direction. Then, when the moving direction of the object is toward the road and the calculated direction score is equal to or greater than a threshold value, MoPU12 changes the frame rate of camera 30 to 1920 frames/second. When the moving direction of the object is away from the road and the calculated direction score is less than the threshold value, MoPU12 changes the frame rate of camera 30 to 120 frames/second. In this case, as in the above case, a control signal may be output to the radar 32 and the infrared camera 34 so that the radar signal is acquired and the infrared image is captured at a value corresponding to the changed frame rate of the camera 30.

また、MoPU12は、算出した外部環境に関するスコアが所定の閾値以上の物体についてのみ点情報を出力してもよい。この場合、例えば、MoPU12は、カメラ30に写る物体の移動方向に応じてその物体についての点情報を出力するか否かを判定してもよい。例えば、MoPU12は、車両100の走行に対する影響が低い物体についての点情報は出力しなくてもよい。具体的には、MoPU12は、カメラ30に写る物体の移動方向を算出し、道路から遠ざかっていく歩行者等の物体についての点情報は出力しない。一方、MoPU12は、道路に近づく物体(例えば、道路に飛び出しそうな歩行者等の物体)についての点情報は出力する。この構成により、情報処理装置10によれば、車両100の走行に対する影響が低い物体についての点情報を出力せずに済む。 MoPU12 may output point information only for objects whose calculated score for the external environment is equal to or greater than a predetermined threshold. In this case, for example, MoPU12 may determine whether or not to output point information for an object according to the moving direction of the object captured by the camera 30. For example, MoPU12 may not output point information for an object that has a low impact on the running of the vehicle 100. Specifically, MoPU12 calculates the moving direction of an object captured by the camera 30, and does not output point information for an object such as a pedestrian moving away from the road. On the other hand, MoPU12 outputs point information for an object approaching the road (for example, an object such as a pedestrian that is about to jump out onto the road). With this configuration, the information processing device 10 does not need to output point information for an object that has a low impact on the running of the vehicle 100.

また、以上の説明では、MoPU12が危険度を算出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が危険度を算出してもよい。この場合、Central Brain15は、複数種類のセンサから取り入れられたセンサ情報及びMoPU12から出力された点情報に基づいて、車両100に対する外部環境に関するスコアとして、車両100の移動に関する危険度を算出する。そして、Central Brain15は、算出した危険度に応じてカメラ30のフレームレートを変更する指示をMoPU12に出力する。 In the above description, the case where MoPU12 calculates the risk level has been exemplified, but the disclosed technology is not limited to this aspect. For example, instead of MoPU12, Central Brain15 may calculate the risk level. In this case, Central Brain15 calculates the risk level for the movement of vehicle 100 as a score for the external environment for vehicle 100 based on sensor information acquired from multiple types of sensors and point information output from MoPU12. Then, Central Brain15 outputs an instruction to MoPU12 to change the frame rate of camera 30 according to the calculated risk level.

また、以上の説明では、MoPU12が、カメラ30が撮影した画像に基づいて点情報を出力する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12は、カメラ30が撮影した画像に代えて、レーダー信号及び赤外線画像に基づいて点情報を出力してもよい。MoPU12は、赤外線カメラ34が撮影した物体の赤外線画像からは、カメラ30が撮影した画像と同様に物体のx座標値及びy座標値を導出することが可能である。レーダー32は、レーダー信号に基づく物体の3次元点群データを取得することが可能である。つまり、レーダー32は、上記3次元直交座標系におけるz軸の座標を検出することが可能である。ここで、z軸は、物体の奥行き方向及び車両100の進行方向に沿った軸であり、以下では、z軸の座標値を「z座標値」と記載する。この場合、MoPU12は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングで赤外線カメラ34により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。そして、MoPU12は、導出した点情報をCentral Brain15に出力する。 In addition, in the above description, the case where MoPU 12 outputs point information based on an image captured by camera 30 has been exemplified, but the disclosed technology is not limited to this aspect. For example, MoPU 12 may output point information based on a radar signal and an infrared image instead of an image captured by camera 30. MoPU 12 can derive the x-coordinate value and the y-coordinate value of an object from the infrared image of the object captured by infrared camera 34 in the same manner as the image captured by camera 30. Radar 32 can acquire three-dimensional point cloud data of an object based on a radar signal. That is, radar 32 can detect the coordinate of the z-axis in the above three-dimensional orthogonal coordinate system. Here, the z-axis is an axis along the depth direction of the object and the traveling direction of vehicle 100, and hereinafter, the coordinate value of the z-axis is described as the "z-coordinate value". In this case, the MoPU 12 utilizes the principle of a stereo camera to combine the x- and y-coordinate values of the object photographed by the infrared camera 34 at the same timing as the radar 32 acquires the three-dimensional point cloud data of the object with the z-coordinate value of the object indicated by the three-dimensional point cloud data, and derives the coordinate values of the three coordinate axes (x-axis, y-axis, and z-axis) of the object as point information. The MoPU 12 then outputs the derived point information to the Central Brain 15.

また、以上の説明では、MoPU12が点情報を導出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が点情報を導出してもよい。Central Brain15が点情報を導出することは、例えば、カメラ30L、カメラ30R、レーダー32、及び赤外線カメラ34が検出した情報を組み合わせることで実現される。具体例として、Central Brain15は、カメラ30Lにより撮影された物体のx座標値及びy座標値と、カメラ30Rにより撮影された物体のx座標値及びy座標値とに基づいて三点測量を行うことにより、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。 In the above description, the case where MoPU12 derives point information has been exemplified, but the disclosed technology is not limited to this aspect. For example, instead of MoPU12, Central Brain15 may derive point information. The Central Brain15 derives point information by combining information detected by, for example, camera 30L, camera 30R, radar 32, and infrared camera 34. As a specific example, Central Brain15 derives coordinate values of three coordinate axes (x-axis, y-axis, and z-axis) of an object as point information by performing triangulation based on the x-coordinate value and y-coordinate value of an object photographed by camera 30L and the x-coordinate value and y-coordinate value of an object photographed by camera 30R.

また、以上の説明では、Central Brain15が、IPU11から出力された画像及びラベル情報と、MoPU12から出力された点情報とに基づいて車両100の自動運転を制御する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、Central Brain15は、IPU11及びMoPU12から出力された上記情報に基づいて、ロボットの動作制御を行ってもよい。ロボットは、人間の代わりに作業を行う人型のスマートロボットであってもよい。この場合、Central Brain15は、IPU11及びMoPU12から出力された上記情報に基づいて、ロボットの腕、手のひら、指、及び足等の動作制御を行って、物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、及び避ける等の動作を行わせる。Central Brain15がロボットの動作制御を行う場合、IPU11及びMoPU12は、ロボットの右目及び左目の位置に搭載されてもよい。つまり右目には右目用のIPU11及びMoPU12を搭載し、左目には左目用のIPU11及びMoPU12を搭載してもよい。 In the above description, the Central Brain 15 controls the automatic driving of the vehicle 100 based on the image and label information output from the IPU 11 and the point information output from the MoPU 12, but the disclosed technology is not limited to this aspect. For example, the Central Brain 15 may control the operation of a robot based on the above information output from the IPU 11 and the MoPU 12. The robot may be a humanoid smart robot that performs work in place of a human. In this case, the Central Brain 15 controls the operation of the robot's arms, palms, fingers, feet, etc. based on the above information output from the IPU 11 and the MoPU 12 to perform operations such as grasping, grabbing, holding, carrying, moving, carrying, throwing, kicking, and avoiding an object. When the Central Brain 15 controls the robot's movements, the IPU 11 and MoPU 12 may be mounted at the positions of the robot's right and left eyes. In other words, the right eye may be equipped with an IPU 11 and MoPU 12 for the right eye, and the left eye may be equipped with an IPU 11 and MoPU 12 for the left eye.

(第3の実施形態)
次に、本実施形態に係る第3の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第3の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
Third Embodiment
Next, a third embodiment of the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
As an example, the information processing apparatus 10 according to the third embodiment has the same configuration as that of the first embodiment shown in FIG.

第3の実施形態に係るMoPU12は、点情報として、別カメラにより撮影された画像から認識した物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の座標値を出力する。当該座標値は、第1の実施形態と同様、上記3次元直交座標系における物体のx座標値及びy座標値である。 The MoPU12 according to the third embodiment outputs, as point information, the coordinate values of at least two diagonal vertices of a polygon that encloses the contour of an object recognized from an image captured by a separate camera. As in the first embodiment, the coordinate values are the x and y coordinate values of the object in the above-mentioned three-dimensional orthogonal coordinate system.

図4は、MoPU12が出力する点情報の例を示す説明図である。図4では、MoPU12が、別カメラにより撮影された画像に含まれる4つの物体のそれぞれについて、当該物体の輪郭を四角形で囲んだバウンディングボックス21、22、23、24が示されている。そして、図4は、MoPU12が、物体の輪郭を囲む四角形のバウンディングボックス21、22、23、24の頂点の対角となる2点の座標値を点情報として出力した態様を例示している。このように、MoPU12は物体を点としてではなく、一定の大きさを持つオブジェクトとして捉えてもよい。 Figure 4 is an explanatory diagram showing an example of point information output by MoPU12. In Figure 4, bounding boxes 21, 22, 23, and 24 that surround the contours of four objects included in an image captured by a separate camera are shown. Figure 4 also shows an example in which MoPU12 outputs, as point information, the coordinate values of two diagonal points of the vertices of the rectangular bounding boxes 21, 22, 23, and 24 that surround the contours of the objects. In this way, MoPU12 may capture objects not as points but as objects of a certain size.

また、物体を一定の大きさを持つオブジェクトとして捉える場合、MoPU12は、別カメラにより撮影された画像から認識した物体の輪郭を囲む多角形の頂点の対角となる2点の座標値ではなく、物体の輪郭を囲む多角形の複数の頂点の座標値を点情報として出力してもよい。例えば、図4を例にすると、MoPU12は、当該物体の輪郭を四角形で囲んだバウンディングボックス21、22、23、24の4つの頂点全ての座標値を点情報として出力してもよい。 In addition, when an object is regarded as an object having a certain size, MoPU12 may output, as point information, the coordinate values of multiple vertices of a polygon surrounding the contour of the object, rather than the coordinate values of two diagonal points of the vertices of the polygon surrounding the contour of the object recognized from an image captured by a separate camera. For example, in the example of FIG. 4, MoPU12 may output, as point information, the coordinate values of all four vertices of bounding boxes 21, 22, 23, and 24 that surround the contour of the object in a rectangular shape.

(第4の実施形態)
次に、本実施形態に係る第4の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第4の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
Fourth Embodiment
Next, a fourth embodiment of the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
As an example, the information processing apparatus 10 according to the fourth embodiment has the same configuration as that of the first embodiment shown in FIG.

第4の実施形態に係る情報処理装置10が搭載される車両100は、レーダー、LiDAR、高画素・望遠・超広角・360度・高性能カメラ、ビジョンセンサ、音センサ、超音波センサ、振動センサ、赤外線センサ、紫外線センサ、電波センサ、温度センサ、及び湿度センサの少なくとも1つから構成されるセンサを備えている。情報処理装置10がセンサから取り入れるセンサ情報として、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、周囲の状況(鳥、動物、サッカーボール、事故車、地震、火事、風、台風、大雨、小雨、吹雪、霧、など)等が挙げられる。センサは「検知部」の一例であり、センサ情報は「検知情報」の一例である。 The vehicle 100 on which the information processing device 10 according to the fourth embodiment is mounted is equipped with sensors consisting of at least one of radar, LiDAR, high-pixel, telephoto, ultra-wide-angle, 360-degree, high-performance cameras, vision sensors, sound sensors, ultrasonic sensors, vibration sensors, infrared sensors, ultraviolet sensors, radio wave sensors, temperature sensors, and humidity sensors. Examples of sensor information that the information processing device 10 receives from the sensors include shifting of the center of gravity of body weight, detection of road material, detection of outside air temperature, detection of outside air humidity, detection of up, down, side, and diagonal inclination angles of a slope, how the road is frozen, detection of moisture content, material of each tire, wear condition, detection of air pressure, road width, presence or absence of overtaking prohibition, oncoming vehicles, vehicle type information of the front and rear vehicles, cruising state of those vehicles, surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, fires, wind, typhoons, heavy rain, light rain, blizzards, fog, etc.), etc. The sensors are an example of a "detection unit," and the sensor information is an example of "detection information."

第4の実施形態に係るCentral Brain15は、センサが検知したセンサ情報に基づいて、車両100の自動運転を制御するための制御変数を算出する。Central Brain15は、10億分の1秒毎にセンサ情報を取得する。具体的には、Central Brain15は、車両100の4つの車輪それぞれの車輪速、傾き、及び車輪を支持するサスペンションを制御するための制御変数を算出する。なお、車輪の傾きは、道路に対して水平な軸に対する車輪の傾き、及び道路に対して垂直な軸に対する車輪の傾きの双方を含む。この場合、Central Brain15は、4つの車輪それぞれの車輪速、道路に対して水平な軸に対する4つの車輪それぞれの傾き、道路に対して垂直な軸に対する4つの車輪それぞれの傾き、及び4つの車輪それぞれを支持するサスペンションを制御するための計16の制御変数を算出する。 The Central Brain 15 according to the fourth embodiment calculates control variables for controlling the autonomous driving of the vehicle 100 based on sensor information detected by the sensors. The Central Brain 15 acquires sensor information every billionth of a second. Specifically, the Central Brain 15 calculates control variables for controlling the wheel speed, inclination, and suspension supporting the wheels of each of the four wheels of the vehicle 100. The inclination of the wheels includes both the inclination of the wheels with respect to an axis horizontal to the road and the inclination of the wheels with respect to an axis perpendicular to the road. In this case, the Central Brain 15 calculates a total of 16 control variables for controlling the wheel speed of each of the four wheels, the inclination of each of the four wheels with respect to an axis horizontal to the road, the inclination of each of the four wheels with respect to an axis perpendicular to the road, and the suspension supporting each of the four wheels.

そして、Central Brain15は、上記で算出した制御変数と、MoPU12から出力された点情報及びIPU11から出力されたラベル情報とに基づいて、車両100の自動運転を制御する。具体的には、Central Brain15は、上記16の制御変数に基づいて、4つの車輪にそれぞれ搭載されたインホイールモータを制御することで、車両100の4つの車輪それぞれの車輪速、傾き、及び4つの車輪それぞれを支持するサスペンションを制御して自動運転を行う。また、Central Brain15は、点情報及びラベル情報に基づいて、車両100の周囲に存在する何であるか認識された物体の位置及び動きを認識し、この認識した情報に基づいて、例えば、物体との衝突を回避するように車両100の自動運転を制御する。このようにCentral Brain15が車両100の自動運転を制御することで、例えば、車両100が山道を走行する場合には当該山道に合わせた最適なステアリングを行うことができ、車両100を駐車場に駐車する場合には当該駐車場に合わせた最適なアングルで走行することができる。 Then, the Central Brain 15 controls the automatic driving of the vehicle 100 based on the control variables calculated above, the point information output from the MoPU 12, and the label information output from the IPU 11. Specifically, the Central Brain 15 controls the in-wheel motors mounted on each of the four wheels based on the above 16 control variables to control the wheel speed, inclination, and suspension supporting each of the four wheels of the vehicle 100 to perform automatic driving. In addition, the Central Brain 15 recognizes the position and movement of an object that is recognized as being present around the vehicle 100 based on the point information and label information, and controls the automatic driving of the vehicle 100 based on the recognized information, for example, to avoid a collision with the object. In this way, the Central Brain 15 controls the automatic driving of the vehicle 100, so that, for example, when the vehicle 100 is traveling along a mountain road, it can perform optimal steering for that mountain road, and when the vehicle 100 is parked in a parking lot, it can drive at an optimal angle for that parking lot.

ここで、Central Brain15は、機械学習、より詳しくは深層学習(Deep Learning)を用いて、上記センサ情報及び図示しないサーバ等からネットワークを介して取得可能な情報から制御変数を推論することが可能なものであってよい。換言すると、Central Brain15はAIで構成することができる。 Here, the Central Brain 15 may be capable of inferring control variables from the above sensor information and information obtainable via a network from a server (not shown) or the like, using machine learning, more specifically, deep learning. In other words, the Central Brain 15 may be configured with AI.

Central Brain15は、10億分の1秒毎の上記センサ情報及びロングテールインシデントAI dataの計算力であって、Level6を実現する上で用いられる計算力(以下、「Level6の計算力」とも称する)を用い、下記式(1)に示すような積分法による多変量解析(例えば式(2)参照)を行うことで、制御変数を求め得る。より詳しくは、Level6の計算力で各種Ultra High Resolutionのデルタ値の積分値を求めながら、エッジレベルでかつリアルタイムで各制御変数を求め、次の10億分の1秒に発生する結果(すなわち、各制御変数)を最も高い確率論値で取得し得る。これを実現するためには、例えば、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数(例えば、上記センサ情報及びネットワークを介して取得可能な情報)を特定可能な関数(換言すると、各変数の挙動を示す関数)のデルタ値(例えば、微小時間の変化値)を時間積分することにより得られる積分値をCentral Brain15の深層学習モデル(例えば、ニューラルネットワークに対して深層学習が行われることによって得られた学習済みモデル)に入力する。Central Brain15の深層学習モデルは、入力された積分値に対応する制御変数(例えば、最も高い確信度(すなわち、評価値)の制御変数)を出力する。制御変数の出力は10億分の1秒単位で行われる。 The Central Brain 15 can obtain control variables by performing multivariate analysis using the integral method as shown in the following formula (1) (see, for example, formula (2)) using the computational power of the sensor information and long-tail incident AI data every billionth of a second (hereinafter also referred to as "Level 6 computational power") used to realize Level 6. More specifically, while obtaining the integral value of the delta values of various Ultra High Resolutions using the Level 6 computational power, each control variable is obtained at the edge level and in real time, and the result (i.e., each control variable) occurring in the next billionth of a second can be obtained with the highest probability theory value. To achieve this, for example, an integral value obtained by time integrating delta values (e.g., small time change values) of a function that can identify each variable (e.g., the above sensor information and information obtainable via a network) such as air resistance, road resistance, road elements (e.g., debris), and slip coefficient is input to the deep learning model of Central Brain 15 (e.g., a trained model obtained by performing deep learning on a neural network). The deep learning model of Central Brain 15 outputs a control variable (e.g., a control variable with the highest confidence (i.e., evaluation value)) corresponding to the input integral value. The control variable is output in units of one billionth of a second.

なお、一例として、式(1)において、“f(A)”は、例えば、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数の挙動を示す関数が簡略化されて表現された式である。また、一例として、式(1)は、“f(A)”の時刻aから時刻bまでの時間積分vを示す式である。式(2)中のDLは深層学習(例えば、ニューラルネットワークに対して深層学習が行われることによって最適化された深層学習モデル)を示し、dA/dtは、f(A,B,C,D,・・・,N)のデルタ値を示し、A,B,C,D,…,Nは、空気抵抗、道路抵抗、道路要素(例えばゴミ)、及び滑り係数等の各変数を示し、f(A,B,C,D,・・・,N)は、A,B,C,D,…,Nの挙動を示す関数を示し、Vは、ニューラルネットワークに対して深層学習が行われることによって最適化された深層学習モデルから出力される値(制御変数)を示す。 As an example, in formula (1), "f(A)" is a formula in which a function indicating the behavior of each variable, such as air resistance, road resistance, road elements (e.g., garbage), and slip coefficient, is simplified and expressed. Also, as an example, formula (1) is a formula indicating the time integral v of "f(A)" from time a to time b. In formula (2), DL indicates deep learning (e.g., a deep learning model optimized by performing deep learning on a neural network), dA n /dt indicates the delta value of f(A, B, C, D, ..., N), A, B, C, D, ..., N indicate each variable, such as air resistance, road resistance, road elements (e.g., garbage), and slip coefficient, f(A, B, C, D, ..., N) indicates a function indicating the behavior of A, B, C, D, ..., N, and V n indicates a value (control variable) output from a deep learning model optimized by performing deep learning on a neural network.

なお、ここでは、関数のデルタ値を時間積分することにより得られる積分値をCentral Brain15の深層学習モデルに入力する形態例を挙げているが、これは、あくまでも一例に過ぎない。例えば、空気抵抗、道路抵抗、道路要素、及び滑り係数等の各変数の挙動を示す関数のデルタ値を時間積分することにより得られる積分値(例えば、次の10億分の1秒に発生する結果)がCentral Brain15の深層学習モデルによって推論され、推論結果として、最も高い確信度(すなわち、評価値)の積分値が10億分の1秒毎にCentral Brain15によって取得されるようにしてもよい。 Note that, although an example is given here in which an integral value obtained by time-integrating the delta value of a function is input to the deep learning model of Central Brain 15, this is merely one example. For example, an integral value (e.g., a result occurring in the next billionth of a second) obtained by time-integrating the delta value of a function indicating the behavior of each variable such as air resistance, road resistance, road elements, and slip coefficient may be inferred by the deep learning model of Central Brain 15, and the integral value with the highest confidence (i.e., evaluation value) may be obtained by Central Brain 15 every billionth of a second as the inference result.

また、ここでは、深層学習モデルに積分値を入力したり、深層学習モデルから積分値を出力したりする形態例を挙げているが、これは、あくまでも一例に過ぎず、積分値を用いなくても本開示の技術は成立する。例えば、A,B,C,D,…,Nに相当する値を例題データとし、少なくとも1つの制御変数(例えば、次の10億分の1秒に発生する結果)に相当する値を正解データとした教師データを用いた深層学習がニューラルネットワークに対して行われることで最適化された深層学習モデルによって少なくとも1つの制御変数が推論されるようにしてもよい。 In addition, although an example is given here of inputting an integral value to a deep learning model and outputting an integral value from a deep learning model, this is merely one example, and the technology of the present disclosure can be realized even without using an integral value. For example, values corresponding to A, B, C, D, ..., N are used as example data, and a value corresponding to at least one control variable (e.g., the result that will occur in the next billionth of a second) is used as correct answer data, and deep learning using teacher data is performed on a neural network, so that at least one control variable is inferred by an optimized deep learning model.

Central Brain15にて得られた制御変数は、Deep Learningの回数を増加させることによりさらに精緻化させ得る。例えば、タイヤや、モータの回転、ステアリング角度や、道路の材質、天気、ごみや二次曲線的減速時における影響、スリップ、バランス崩壊や再獲得のためのステアリングやスピードコントロールの仕方等の膨大なデータやロングテールインシデントAI dataを用いてより正確な制御変数を算出することができる。 The control variables obtained by the Central Brain 15 can be further refined by increasing the number of Deep Learning rounds. For example, more accurate control variables can be calculated using huge amounts of data such as tires, motor rotation, steering angle, road material, weather, garbage, effects of quadratic deceleration, slippage, loss of balance and how to control steering and speed to regain balance, and long-tail incident AI data.

(第5の実施形態)
次に、本実施形態に係る第5の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図5は、情報処理装置10の構成の一例を示す第3のブロック図である。なお、図5は、情報処理装置10の一部の構成のみを示している。
Fifth Embodiment
Next, a fifth embodiment according to the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
Fig. 5 is a third block diagram showing an example of the configuration of the information processing device 10. Note that Fig. 5 shows only a portion of the configuration of the information processing device 10.

図5に示すように、MoPU12では、カメラ30により撮影された物体の可視光画像及び赤外線画像が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。当該カメラ30は、物体の可視光画像を撮影可能な可視光カメラ30A及び物体の赤外線画像を撮影可能な赤外線カメラ30Bを含んで構成されている。そして、コア17は、入力された可視光画像及び赤外線画像の少なくとも一方に基づいて、点情報をCentral Brain15に出力する。 As shown in FIG. 5, in MoPU 12, visible light images and infrared images of an object captured by camera 30 are each input to core 17 at a frame rate of 100 frames/second or more. The camera 30 includes a visible light camera 30A capable of capturing visible light images of the object and an infrared camera 30B capable of capturing infrared images of the object. Core 17 then outputs point information to Central Brain 15 based on at least one of the input visible light images and infrared images.

ここで、コア17は、可視光カメラ30Aにより撮影された物体の可視光画像から物体を識別できる場合には、当該可視光画像に基づいて点情報を出力する。一方、コア17は、所定要因により当該可視光画像から物体を捉えられない場合、赤外線カメラ30Bにより撮影された物体の赤外線画像に基づいて点情報を出力する。例えば、所定要因として暗闇の影響により、コア17が可視光画像から物体を捉えられない場合が想定される。この場合には、コア17は、赤外線カメラ30Bを用いて物体の熱を検知し、その検知結果である赤外線画像に基づいて、物体の点情報を出力する。なお、これに限らず、コア17は、可視光画像及び赤外線画像に基づいて点情報を出力してもよい。 Here, when core 17 can identify an object from a visible light image of the object captured by visible light camera 30A, it outputs point information based on the visible light image. On the other hand, when core 17 cannot capture an object from the visible light image due to a predetermined factor, it outputs point information based on an infrared image of the object captured by infrared camera 30B. For example, it is assumed that core 17 cannot capture an object from a visible light image due to the influence of darkness as a predetermined factor. In this case, core 17 detects the heat of the object using infrared camera 30B, and outputs point information of the object based on the infrared image that is the detection result. However, without being limited to this, core 17 may output point information based on a visible light image and an infrared image.

また、MoPU12は、可視光カメラ30Aにより可視光画像を撮影するタイミングと、赤外線カメラ30Bにより赤外線画像を撮影するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで可視光画像及び赤外線画像を撮影するように、カメラ30へ制御信号を出力する。これにより、可視光カメラ30Aによって撮影される1秒あたりの画像数と、赤外線カメラ30Bによって撮影される1秒あたりの画像数とが同期する(例えば、1920フレーム/秒)。 MoPU12 also synchronizes the timing of capturing visible light images by visible light camera 30A with the timing of capturing infrared images by infrared camera 30B. Specifically, MoPU12 outputs a control signal to camera 30 so that visible light images and infrared images are captured at the same timing. This synchronizes the number of images captured per second by visible light camera 30A and the number of images captured per second by infrared camera 30B (e.g., 1920 frames/second).

(第6の実施形態)
次に、本実施形態に係る第6の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図6は、情報処理装置10の構成の一例を示す第4のブロック図である。なお、図6は、情報処理装置10の一部の構成のみを示している。
Sixth Embodiment
Next, a sixth embodiment according to the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
Fig. 6 is a fourth block diagram showing an example of the configuration of the information processing device 10. Note that Fig. 6 shows only a part of the configuration of the information processing device 10.

図6に示すように、MoPU12では、カメラ30により撮影された物体の画像及びレーダー32により物体に照射された電磁波の物体からの反射波に基づくレーダー信号が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。そして、コア17は、入力された物体の画像及びレーダー信号に基づいて、点情報をCentral Brain15に出力する。コア17は、入力された物体の画像からは、物体のx座標値及びy座標値を導出することが可能である。上述の通り、レーダー32は、レーダー信号に基づく物体の3次元点群データを取得し、上記3次元直交座標系におけるz軸の座標を検出することが可能である。この場合、コア17は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸(x軸、y軸、及びz軸)の座標値を導出する。なお、上記でコア17に入力された物体の画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。 6, in the MoPU 12, the image of the object captured by the camera 30 and the radar signal based on the reflected wave from the object of the electromagnetic wave irradiated to the object by the radar 32 are input to the core 17 at a frame rate of 100 frames/second or more. Then, the core 17 outputs point information to the Central Brain 15 based on the input image of the object and the radar signal. The core 17 can derive the x-coordinate value and the y-coordinate value of the object from the input image of the object. As described above, the radar 32 can acquire three-dimensional point cloud data of the object based on the radar signal and detect the coordinate of the z-axis in the above-mentioned three-dimensional orthogonal coordinate system. In this case, the core 17 utilizes the principle of a stereo camera to combine the x-coordinate value and the y-coordinate value of the object captured by the camera 30 at the same timing as the timing when the radar 32 acquires the three-dimensional point cloud data of the object and the z-coordinate value of the object indicated by the three-dimensional point cloud data, and derive the coordinate values of the three coordinate axes (x-axis, y-axis, and z-axis) of the object as point information. The image of the object input to the core 17 may include at least one of a visible light image and an infrared image.

また、MoPU12は、カメラ30により画像を撮影するタイミングと、レーダー32がレーダー信号に基づく物体の3次元点群データを取得するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで画像を撮影し、物体の3次元点群データを取得するように、カメラ30及びレーダー32へ制御信号を出力する。これにより、カメラ30によって撮影される1秒あたりの画像数と、レーダー32によって取得される1秒あたりの3次元点群データの数とが同期する(例えば、1920フレーム/秒)。このように、カメラ30によって撮影される1秒あたりの画像数及びレーダー32によって取得される1秒あたりの3次元点群データの数は、IPU11が備える超高解像度カメラのフレームレート、すなわち、超高解像度カメラによって撮影される1秒あたりの画像数より多い。 MoPU12 also synchronizes the timing at which the camera 30 captures images with the timing at which the radar 32 acquires three-dimensional point cloud data of the object based on the radar signal. Specifically, MoPU12 outputs control signals to the camera 30 and the radar 32 so that they capture images at the same time and acquire three-dimensional point cloud data of the object. This synchronizes the number of images captured per second by the camera 30 with the number of pieces of three-dimensional point cloud data acquired per second by the radar 32 (e.g., 1920 frames/second). In this way, the number of images captured per second by the camera 30 and the number of pieces of three-dimensional point cloud data acquired per second by the radar 32 are greater than the frame rate of the ultra-high resolution camera equipped in the IPU11, i.e., the number of images captured per second by the ultra-high resolution camera.

(第7の実施形態)
次に、本実施形態に係る第7の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
一例として、第7の実施形態に係る情報処理装置10は、第1の実施形態と同様の図2に示す構成を備えている。
Seventh Embodiment
Next, a seventh embodiment according to the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
As an example, the information processing apparatus 10 according to the seventh embodiment has the same configuration as that of the first embodiment shown in FIG.

第7の実施形態に係るCentral Brain15は、IPU11がラベル情報を出力したタイミングと同じタイミングでMoPU12から出力された点情報を、当該ラベル情報に対応付ける。また、Central Brain15は、点情報及びラベル情報を対応付けた後にMoPU12から新たな点情報が出力された場合、新たな点情報についても当該ラベル情報と対応付ける。新たな点情報は、ラベル情報と対応付けた点情報が示す物体と同一の物体の点情報であって、当該対応付けが行われてから次のラベル情報が出力されるまでの間の一又は複数の点情報である。第7の実施形態では、上記実施形態と同様、MoPU12が内蔵された別カメラのフレームレートは100フレーム/秒以上(例えば、1920フレーム/秒)であり、IPU11が内蔵された超高解像度カメラのフレームレートは10フレーム/秒である。 The Central Brain 15 according to the seventh embodiment associates the point information output from the MoPU 12 with the label information at the same timing as when the IPU 11 outputs the label information. Furthermore, when new point information is output from the MoPU 12 after the point information and the label information are associated, the Central Brain 15 also associates the new point information with the label information. The new point information is point information of the same object as the object indicated by the point information associated with the label information, and is one or more pieces of point information between the time the association is performed and the time the next label information is output. In the seventh embodiment, as in the above embodiment, the frame rate of the separate camera incorporating the MoPU 12 is 100 frames/second or more (e.g., 1920 frames/second), and the frame rate of the ultra-high resolution camera incorporating the IPU 11 is 10 frames/second.

図7は、点情報とラベル情報との対応付けの一例を示す説明図である。以下の説明では、MoPU12から出力される1秒あたりの点情報の数を「点情報の出力レート」と称し、IPU11から出力される1秒あたりのラベル情報の数を「ラベル情報の出力レート」と称する。 Figure 7 is an explanatory diagram showing an example of the correspondence between point information and label information. In the following explanation, the number of point information pieces output per second from MoPU12 is referred to as the "output rate of point information," and the number of label information pieces output per second from IPU11 is referred to as the "output rate of label information."

図7には、物体B14の点情報P4の出力レートの時系列が示されている。物体B14についての点情報P4の出力レートは1920フレーム/秒である。また、点情報P4は、図中右から左へ移動している。物体B14についてのラベル情報の出力レートは10フレーム/秒であり、点情報P4の出力レートよりも低い。 Figure 7 shows a time series of the output rate of point information P4 for object B14. The output rate of point information P4 for object B14 is 1920 frames/second. Furthermore, point information P4 moves from right to left in the figure. The output rate of label information for object B14 is 10 frames/second, which is lower than the output rate of point information P4.

まず、時刻t0の時点では、物体B14についてのラベル情報はIPU11から出力されていない。そのため、時刻t0の時点では、Central Brain15は、点情報P4に基づいて物体B14の座標値(位置情報)を認識するが、物体B14が何であるかは認識していない。 First, at time t0, label information about object B14 has not been output from IPU 11. Therefore, at time t0, Central Brain 15 recognizes the coordinate values (position information) of object B14 based on point information P4, but does not recognize what object B14 is.

次に、時刻t1の時点では、物体B14についてのラベル情報がIPU11から出力されている。そのため、Central Brain15は、当該ラベル情報に基づいて、物体B14についてラベル情報「PERSON」を導出する。そして、Central Brain15は、時刻t1において導出したラベル情報「PERSON」と、時刻t1においてMoPU12から出力された点情報P4の座標値(位置情報)とを対応付ける。これにより、時刻t1の時点では、Central Brain15は、点情報P4に基づいて物体B14の座標値(位置情報)を認識するとともに、その物体B14が何であるかを認識する。 Next, at time t1, label information for object B14 is output from IPU11. Therefore, Central Brain15 derives label information "PERSON" for object B14 based on the label information. Then, Central Brain15 associates the label information "PERSON" derived at time t1 with the coordinate values (position information) of point information P4 output from MoPU12 at time t1. As a result, at time t1, Central Brain15 recognizes the coordinate values (position information) of object B14 based on point information P4 and recognizes what object B14 is.

図7では、物体B14についての次のラベル情報がIPU11から出力されるタイミングを時刻t2としている。そのため、時刻t2の時点では、Central Brain15は、IPU11から出力された当該ラベル情報に基づいて、物体B14についてラベル情報「PERSON」を導出する。そして、Central Brain15は、時刻t2において導出したラベル情報「PERSON」と、時刻t2においてMoPU12から出力された点情報P4の座標値(位置情報)とを対応付ける。 In FIG. 7, the timing when the next label information for object B14 is output from IPU11 is time t2. Therefore, at time t2, Central Brain15 derives label information "PERSON" for object B14 based on the label information output from IPU11. Then, Central Brain15 associates the label information "PERSON" derived at time t2 with the coordinate values (position information) of point information P4 output from MoPU12 at time t2.

ここで、MoPU12が内蔵された別カメラとIPU11が内蔵された超高解像度カメラとのフレームレート差に起因して、時刻t1から時刻t2までの期間は、Central Brain15により物体B14についての点情報P4は取得される一方、ラベル情報は取得されない。この場合、Central Brain15は、時刻t1から時刻t2までの期間に取得した点情報P4については、点情報P4について直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。ここで、Central Brain15が時刻t1から時刻t2までの期間に取得した点情報P4は「新たな点情報」の一例である。図7に示す例では、時刻t1から時刻t2までの期間にMoPU12から複数の点情報P4が出力されたため、Central Brain15は、複数の点情報P4を取得している。そのため、図7に示す例では、Central Brain15は、時刻t1から時刻t2までの期間に取得した複数の点情報P4の何れについても直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。なお、図7に示す例と異なり、時刻t1から時刻t2までの期間にMoPU12から1つの点情報P4が出力された場合には、Central Brain15は、当該1つの点情報P4について直前の時刻t1に対応付けたラベル情報「PERSON」と対応付ける。 Here, due to the difference in frame rate between the separate camera with MoPU12 built in and the ultra-high resolution camera with IPU11 built in, during the period from time t1 to time t2, the Central Brain15 acquires point information P4 for object B14, but does not acquire label information. In this case, the Central Brain15 associates the point information P4 acquired during the period from time t1 to time t2 with the label information "PERSON" associated with the previous time t1 for the point information P4. Here, the point information P4 acquired by the Central Brain15 during the period from time t1 to time t2 is an example of "new point information". In the example shown in FIG. 7, multiple pieces of point information P4 are output from the MoPU12 during the period from time t1 to time t2, so the Central Brain15 acquires multiple pieces of point information P4. Therefore, in the example shown in FIG. 7, the Central Brain 15 associates each of the multiple pieces of point information P4 acquired during the period from time t1 to time t2 with the label information "PERSON" associated with the immediately preceding time t1. Note that, unlike the example shown in FIG. 7, when one piece of point information P4 is output from the MoPU 12 during the period from time t1 to time t2, the Central Brain 15 associates the one piece of point information P4 with the label information "PERSON" associated with the immediately preceding time t1.

ここで、Central Brain15は、動きを追跡している物体の種別が不確定な期間が生じても、その物体の点情報が高フレームレートで継続的に出力されるため、当該物体の座標値(位置情報)を見失うリスクは低い。このため、Central Brain15は、点情報とラベル情報との対応付けを1度行った場合、次のラベル情報を取得するまでの間に取得した点情報については、直前のラベル情報を推定的に付与することが可能となる。 Here, even if there is a period in which the type of object being tracked is uncertain, the Central Brain 15 continuously outputs point information of the object at a high frame rate, so there is a low risk of losing track of the coordinate values (position information) of the object. Therefore, once the Central Brain 15 has associated point information with label information, it is possible to presumptively assign the previous label information to point information acquired before acquiring the next label information.

(第8の実施形態)
次に、本実施形態に係る第8の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
車両100の自動運転を制御する情報処理装置10が高度な演算処理を行う際に、発熱が課題となる。そこで、第8の実施形態は、情報処理装置10に対する冷却機能を有する車両100を提供する。
Eighth embodiment
Next, an eighth embodiment according to the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
When the information processing device 10 that controls the autonomous driving of the vehicle 100 performs advanced arithmetic processing, heat generation becomes an issue. Therefore, the eighth embodiment provides a vehicle 100 having a cooling function for the information processing device 10.

図8は、車両100の概略構成を示す説明図である。図8に示すように、車両100には、情報処理装置10、冷却実行装置110、及び冷却部120が搭載されている。 Figure 8 is an explanatory diagram showing the general configuration of the vehicle 100. As shown in Figure 8, the vehicle 100 is equipped with an information processing device 10, a cooling execution device 110, and a cooling unit 120.

第8の実施形態に係る情報処理装置10は、車両100の自動運転を制御する装置であって、一例として、第1の実施形態と同様の図2に示す構成を備えている。冷却実行装置110は、情報処理装置10による物体の検出結果を取得し、当該検出結果に基づいて、情報処理装置10に対する冷却を冷却部120に実行させる。冷却部120は、空冷手段、水冷手段、及び液体窒素冷却手段等の少なくとも1つの冷却手段を用いて情報処理装置10を冷却する。以下では、情報処理装置10における冷却対象を、車両100の自動運転を制御するCentral Brain15(詳しくは、Central Brain15を構成するCPU14)として説明するが、これに限定はされない。 The information processing device 10 according to the eighth embodiment is a device that controls the automatic driving of the vehicle 100, and has, as an example, the same configuration as that of the first embodiment shown in FIG. 2. The cooling execution device 110 acquires the object detection result by the information processing device 10, and causes the cooling unit 120 to execute cooling of the information processing device 10 based on the detection result. The cooling unit 120 cools the information processing device 10 using at least one cooling means such as air cooling means, water cooling means, and liquid nitrogen cooling means. In the following, the object to be cooled in the information processing device 10 is described as the Central Brain 15 (more specifically, the CPU 14 constituting the Central Brain 15) that controls the automatic driving of the vehicle 100, but is not limited thereto.

情報処理装置10及び冷却実行装置110は、図示しないネットワークを介して通信可能に接続されている。当該ネットワークは、車両ネットワーク、インターネット、LAN(Local Area Network)、及び移動体通信ネットワークの何れであってもよい。移動体通信ネットワークは、5G(5th Generation)通信方式、LTE(Long Term Evolution)通信方式、3G(3rd Generation)通信方式、及び6G(6th Generation)通信方式以降の通信方式の何れに準拠していてもよい。 The information processing device 10 and the cooling execution device 110 are communicatively connected via a network (not shown). The network may be any of a vehicle network, the Internet, a LAN (Local Area Network), and a mobile communication network. The mobile communication network may conform to any of the following communication methods: 5G (5th Generation) communication method, LTE (Long Term Evolution) communication method, 3G (3rd Generation) communication method, and 6G (6th Generation) communication method or later.

図9は、冷却実行装置110の機能構成の例を示すブロック図である。図9に示すように、冷却実行装置110は、機能構成として、取得部112、実行部114、及び予測部116を有する。 Figure 9 is a block diagram showing an example of the functional configuration of the cooling execution device 110. As shown in Figure 9, the cooling execution device 110 has, as its functional configuration, an acquisition unit 112, an execution unit 114, and a prediction unit 116.

取得部112は、情報処理装置10による物体の検出結果を取得する。例えば、当該検出結果として、取得部112は、MoPU12から出力される物体の点情報を取得する。 The acquisition unit 112 acquires the object detection result by the information processing device 10. For example, as the detection result, the acquisition unit 112 acquires point information of the object output from the MoPU 12.

実行部114は、取得部112が取得した物体の検出結果に基づいて、Central Brain15に対する冷却を実行させる。例えば、実行部114は、MoPU12から出力された物体の点情報に基づいて、当該物体が移動していることを認識した場合、冷却部120によるCentral Brain15に対する冷却を開始させる。 The execution unit 114 executes cooling of the Central Brain 15 based on the object detection result acquired by the acquisition unit 112. For example, when the execution unit 114 recognizes that an object is moving based on the point information of the object output from the MoPU 12, it starts cooling of the Central Brain 15 by the cooling unit 120.

なお、実行部114は、物体の検出結果に基づいてCentral Brain15に対する冷却を実行させることに限らず、情報処理装置10の作動状況の予測結果に基づいてCentral Brain15に対する冷却を実行させてもよい。 The execution unit 114 is not limited to executing cooling of the Central Brain 15 based on the result of object detection, but may also execute cooling of the Central Brain 15 based on the result of prediction of the operating status of the information processing device 10.

ここで、予測部116は、取得部112が取得した物体の検出結果に基づいて、情報処理装置10、具体的には、Central Brain15の作動状況を予測する。例えば、予測部116は、所定の記憶領域に記憶されている学習モデルを取得する。そして、予測部116は、取得部112が取得したMoPU12から出力された物体の点情報を学習モデルに入力することによって、Central Brain15の作動状況を予測する。ここで、学習モデルは、当該作動状況として、Central Brain15のコンピューティングパワーの状況及び変化量を出力する。また、予測部116は、当該作動状況と共に情報処理装置10、具体的には、Central Brain15の温度変化を予測して出力してもよい。例えば、予測部116は、取得部112が取得したMoPU12から出力された物体の点情報の数に基づいて、Central Brain15の温度変化を予測する。この場合、予測部116は、点情報の数が多いほど温度変化が大きくなると予測し、点情報の数が少ないほど温度変化が小さくなると予測する。 Here, the prediction unit 116 predicts the operating status of the information processing device 10, specifically, the Central Brain 15, based on the object detection result acquired by the acquisition unit 112. For example, the prediction unit 116 acquires a learning model stored in a predetermined storage area. Then, the prediction unit 116 predicts the operating status of the Central Brain 15 by inputting the point information of the object output from the MoPU 12 acquired by the acquisition unit 112 into the learning model. Here, the learning model outputs the status and change amount of the computing power of the Central Brain 15 as the operating status. In addition, the prediction unit 116 may predict and output the temperature change of the information processing device 10, specifically, the Central Brain 15, together with the operating status. For example, the prediction unit 116 predicts the temperature change of the Central Brain 15 based on the number of point information of the object output from the MoPU 12 acquired by the acquisition unit 112. In this case, the prediction unit 116 predicts that the temperature change will be greater as the number of point information pieces increases, and predicts that the temperature change will be smaller as the number of point information pieces decreases.

上記の場合、実行部114は、予測部116によるCentral Brain15の作動状況の予測結果に基づいて、冷却部120によるCentral Brain15に対する冷却を開始させる。例えば、実行部114は、当該作動状況として予測されたCentral Brain15のコンピューティングパワーの状況及び変化量が所定の閾値を超えた場合、冷却部120による冷却を開始させる。また、実行部114は、当該作動状況として予測されたCentral Brain15の温度変化に基づく温度が所定の閾値を超えた場合、冷却部120による冷却を開始させる。 In the above case, the execution unit 114 starts cooling the Central Brain 15 by the cooling unit 120 based on the prediction result of the operation status of the Central Brain 15 by the prediction unit 116. For example, the execution unit 114 starts cooling by the cooling unit 120 when the state and change amount of the computing power of the Central Brain 15 predicted as the operation status exceeds a predetermined threshold. In addition, the execution unit 114 starts cooling by the cooling unit 120 when the temperature based on the temperature change of the Central Brain 15 predicted as the operation status exceeds a predetermined threshold.

また、実行部114は、予測部116によるCentral Brain15の温度変化の予測結果に応じた冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、予測されたCentral Brain15の温度が高いほど、多数の冷却手段を用いて冷却部120に冷却を実行させてもよい。具体例として、実行部114は、Central Brain15の温度が第1閾値を超えることが予測された場合、1つの冷却手段を用いて冷却部120に冷却を実行させる。一方、実行部114は、Central Brain15の温度が第1閾値よりも高い第2閾値を超えることが予測された場合、複数の冷却手段を用いて冷却部120に冷却を実行させる。 The execution unit 114 may also cause the cooling unit 120 to perform cooling using a cooling means according to the prediction result of the temperature change of the Central Brain 15 by the prediction unit 116. For example, the higher the predicted temperature of the Central Brain 15, the more cooling means the execution unit 114 may cause the cooling unit 120 to perform cooling. As a specific example, when it is predicted that the temperature of the Central Brain 15 will exceed a first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using one cooling means. On the other hand, when it is predicted that the temperature of the Central Brain 15 will exceed a second threshold that is higher than the first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using multiple cooling means.

また、実行部114は、予測されたCentral Brain15の温度が高いほど、強力な冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、Central Brain15の温度が第1閾値を超えることが予測された場合、空冷手段を用いて冷却部120に冷却を実行させる。また、実行部114は、Central Brain15の温度が第1閾値よりも高い第2閾値を超えることが予測された場合、水冷手段を用いて冷却部120に冷却を実行させる。さらに、実行部114は、Central Brain15の温度が第2閾値よりも高い第3閾値を超えることが予測された場合、液体窒素冷却手段を用いて冷却部120に冷却を実行させる。 The execution unit 114 may use a more powerful cooling means to cool the Central Brain 15 as the predicted temperature of the Central Brain 15 increases. For example, when the execution unit 114 predicts that the temperature of the Central Brain 15 will exceed a first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using air cooling means. When the execution unit 114 predicts that the temperature of the Central Brain 15 will exceed a second threshold that is higher than the first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using water cooling means. When the execution unit 114 predicts that the temperature of the Central Brain 15 will exceed a third threshold that is higher than the second threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using liquid nitrogen cooling means.

さらに、実行部114は、取得部112が取得したMoPU12から出力された物体の点情報の数に基づいて、冷却に用いる冷却手段を決定してもよい。この場合、実行部114は、点情報の数が多いほど強力な冷却手段を用いて、Central Brain15に対する冷却を実行させてもよい。例えば、実行部114は、点情報の数が第1閾値を超える場合、空冷手段を用いて冷却部120に冷却を実行させる。また、実行部114は、点情報の数が第1閾値よりも高い第2閾値を超える場合、水冷手段を用いて冷却部120に冷却を実行させる。さらに、実行部114は、点情報の数が第2閾値よりも高い第3閾値を超える場合、液体窒素冷却手段を用いて冷却部120に冷却を実行させる。 Furthermore, the execution unit 114 may determine the cooling means to be used for cooling based on the number of point information of the object output from the MoPU 12 acquired by the acquisition unit 112. In this case, the execution unit 114 may use a more powerful cooling means to cool the Central Brain 15 as the number of point information increases. For example, when the number of point information exceeds a first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using an air cooling means. Also, when the number of point information exceeds a second threshold higher than the first threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using a water cooling means. Furthermore, when the number of point information exceeds a third threshold higher than the second threshold, the execution unit 114 causes the cooling unit 120 to perform cooling using a liquid nitrogen cooling means.

ところで、Central Brain15が作動する契機として、車道に存在する動く物体を検出した場合がある。例えば、車両100が自動運転を行っている際に車道に存在する動く物体が検出された場合、Central Brain15は、当該物体に対して車両100を制御するための演算処理を行うことがある。上述のように、車両100の自動運転を制御するCentral Brain15が高度な演算処理を行う際の発熱が課題となる。そこで、第8の実施形態に係る冷却実行装置110は、情報処理装置10による物体の検出結果に基づいてCentral Brain15の放熱を予測し、放熱の開始前又は放熱の開始と同時にCentral Brain15に対する冷却を実行させる。これにより、Central Brain15は、車両100の自動運転中に高温となることが抑制され、当該自動運転中における高度な演算が可能となる。 The Central Brain 15 may be activated when a moving object on the roadway is detected. For example, when a moving object on the roadway is detected while the vehicle 100 is driving autonomously, the Central Brain 15 may perform a calculation process to control the vehicle 100 with respect to the object. As described above, heat generated when the Central Brain 15, which controls the autonomous driving of the vehicle 100, performs advanced calculations is an issue. Therefore, the cooling execution device 110 according to the eighth embodiment predicts heat dissipation of the Central Brain 15 based on the object detection result by the information processing device 10, and performs cooling of the Central Brain 15 before or simultaneously with the start of heat dissipation. This prevents the Central Brain 15 from becoming too hot during the autonomous driving of the vehicle 100, and enables advanced calculations during the autonomous driving.

(第9の実施形態)
次に、本実施形態に係る第9の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
第9の実施形態に係る情報処理装置10が備えるMoPU12は、カメラ30により撮影された物体の画像から、点情報として物体のz座標値を導出する。以下、第9の実施形態に係る情報処理装置10の各態様について順に説明する。
Ninth embodiment
Next, a ninth embodiment according to the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
The MoPU 12 included in the information processing device 10 according to the ninth embodiment derives a z coordinate value of an object as point information from an image of the object captured by the camera 30. Hereinafter, each aspect of the information processing device 10 according to the ninth embodiment will be described in order.

第1態様に係る情報処理装置10は、第2の実施形態と同様の図3に示す構成を備えている。 The information processing device 10 according to the first aspect has the same configuration as that of the second embodiment, as shown in FIG. 3.

上記第1態様において、MoPU12は、複数のカメラ30、具体的には、カメラ30L及びカメラ30Rにより撮影された物体の画像から、点情報として物体のz座標値を導出する。上述の通り、1つのMoPU12を用いた場合は、点情報として物体のx座標値及びy座標値を導出することが可能である。ここで、2つのMoPU12を用いた場合は、ステレオカメラの原理を利用して、2つのカメラ30により撮影された物体の画像に基づいて点情報として物体のz座標値を導出することが可能である。そのため、当該第1態様は、ステレオカメラの原理を利用して、MoPU12Lのカメラ30L及びMoPU12Rのカメラ30Rによりそれぞれ撮影された物体の画像に基づいて、点情報として物体のz座標値を導出する。 In the first aspect, the MoPU 12 derives the z coordinate value of an object as point information from images of the object captured by multiple cameras 30, specifically, cameras 30L and 30R. As described above, when one MoPU 12 is used, it is possible to derive the x and y coordinate values of an object as point information. Here, when two MoPUs 12 are used, it is possible to derive the z coordinate value of an object as point information based on images of the object captured by the two cameras 30, utilizing the principle of a stereo camera. Therefore, in the first aspect, the z coordinate value of an object is derived as point information based on images of the object captured by the camera 30L of MoPU 12L and the camera 30R of MoPU 12R, utilizing the principle of a stereo camera.

第2態様に係る情報処理装置10は、第2の実施形態と同様の図3に示す構成を備えている。 The information processing device 10 according to the second aspect has the same configuration as that of the second embodiment, as shown in FIG. 3.

上記第2態様において、MoPU12は、カメラ30により撮影された物体の画像及びレーダー32により物体に照射された電磁波の物体からの反射波に基づくレーダー信号から、点情報として物体のx座標値、y座標値、及びz座標値を導出する。上述の通り、レーダー32は、レーダー信号に基づく物体の3次元点群データを取得することが可能である。つまり、レーダー32は、上記3次元直交座標系におけるz軸の座標を検出することが可能である。この場合、MoPU12は、ステレオカメラの原理を利用して、レーダー32が物体の3次元点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該3次元点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸の座標値を導出する。 In the second aspect, the MoPU 12 derives the x, y, and z coordinate values of an object as point information from an image of the object captured by the camera 30 and a radar signal based on the electromagnetic waves irradiated by the radar 32 to the object and reflected from the object. As described above, the radar 32 is capable of acquiring three-dimensional point cloud data of the object based on the radar signal. In other words, the radar 32 is capable of detecting the z-axis coordinate in the above-mentioned three-dimensional orthogonal coordinate system. In this case, the MoPU 12 utilizes the principle of a stereo camera to combine the x and y coordinate values of the object captured by the camera 30 at the same timing as the radar 32 acquires the three-dimensional point cloud data of the object with the z-coordinate value of the object indicated by the three-dimensional point cloud data, and derives the coordinate values of the three coordinate axes of the object as point information.

第3態様に係る情報処理装置10は、図10に示す構成を備えている。図10は、情報処理装置10の構成の一例を示す第5のブロック図である。なお、図10は、情報処理装置10の一部の構成のみを示している。 The information processing device 10 according to the third aspect has the configuration shown in FIG. 10. FIG. 10 is a fifth block diagram showing an example of the configuration of the information processing device 10. Note that FIG. 10 shows only a portion of the configuration of the information processing device 10.

上記第3態様において、MoPU12は、カメラ30により撮影された物体の画像及び照射装置130により物体に照射されたストラクチャードライトを撮影した結果から、点情報として物体のz座標値を導出する。 In the third aspect, the MoPU 12 derives the z-coordinate value of the object as point information from the image of the object captured by the camera 30 and the result of capturing the structured light irradiated onto the object by the illumination device 130.

図10に示すように、MoPU12では、カメラ30により撮影された物体の画像及び照射装置130により物体に照射されたストラクチャードライトをカメラ140が撮影した結果であるストラクチャードライトのパターンの歪みを示す歪み情報が、それぞれ、100フレーム/秒以上のフレームレートでコア17に入力される。そして、コア17は、入力された物体の画像及び歪み情報に基づいて、点情報をCentral Brain15に出力する。 As shown in FIG. 10, in MoPU12, an image of an object captured by camera 30 and distortion information indicating distortion of the structured light pattern resulting from capturing by camera 140 the structured light irradiated onto the object by irradiation device 130 are each input to core 17 at a frame rate of 100 frames/second or more. Then, core 17 outputs point information to Central Brain 15 based on the input image of the object and distortion information.

ここで、物体の3次元位置又は形状を識別する方式の1つとして、ストラクチャードライト方式がある。ストラクチャードライト方式は、ドット状にパターニングされたストラクチャードライトを物体に照射し、そのパターンの歪みから奥行き情報を取得するものである。ストラクチャードライト方式は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。 One method for identifying the three-dimensional position or shape of an object is the structured light method. The structured light method irradiates an object with structured light patterned in dots, and obtains depth information from the distortion of the pattern. The structured light method is disclosed, for example, in the reference (http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf).

図10に示す照射装置130は、物体にストラクチャードライトを照射する。また、カメラ140は、照射装置130により物体に照射されたストラクチャードライトを撮影する。そして、カメラ140は、撮影したストラクチャードライトのパターンの歪みに基づく歪み情報をコア17に出力する。 The illumination device 130 shown in FIG. 10 illuminates an object with structured light. The camera 140 captures the structured light illuminated onto the object by the illumination device 130. The camera 140 then outputs distortion information based on the distortion of the pattern of the captured structured light to the core 17.

ここで、MoPU12は、カメラ30により画像を撮影するタイミングと、カメラ140によりストラクチャードライトを撮影するタイミングとを同期させる。具体的には、MoPU12は、同じタイミングで画像を撮影するように、カメラ30及びカメラ140へ制御信号を出力する。これにより、カメラ30によって撮影される1秒あたりの画像数と、カメラ140によって撮影される1秒あたりの画像数とが同期する(例えば、1920フレーム/秒)。このように、カメラ30によって撮影される1秒あたりの画像数及びカメラ140によって撮影される1秒あたりの画像数は、IPU11が備える超高解像度カメラのフレームレート、すなわち、超高解像度カメラによって撮影される1秒あたりの画像数より多い。 Here, MoPU12 synchronizes the timing of capturing images by camera 30 with the timing of capturing images of structured light by camera 140. Specifically, MoPU12 outputs control signals to camera 30 and camera 140 so that they capture images at the same timing. This synchronizes the number of images captured per second by camera 30 and the number of images captured per second by camera 140 (e.g., 1920 frames/second). In this way, the number of images captured per second by camera 30 and the number of images captured per second by camera 140 are greater than the frame rate of the ultra-high resolution camera equipped in IPU11, i.e., the number of images captured per second by the ultra-high resolution camera.

そして、コア17は、カメラ140によりストラクチャードライトが撮影されたタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該ストラクチャードライトのパターンの歪みに基づく歪み情報とを組み合わせて、点情報として物体のz座標値を導出する。 Then, the core 17 combines the x- and y-coordinate values of the object photographed by the camera 30 at the same time that the structured light is photographed by the camera 140 with distortion information based on the distortion of the pattern of the structured light to derive the z-coordinate value of the object as point information.

第4態様に係る情報処理装置10は、図11に示す構成を備えている。図11は、情報処理装置10の構成の一例を示す第6のブロック図である。なお、図11は、情報処理装置10の一部の構成のみを示している。 The information processing device 10 according to the fourth aspect has the configuration shown in FIG. 11. FIG. 11 is a sixth block diagram showing an example of the configuration of the information processing device 10. Note that FIG. 11 shows only a portion of the configuration of the information processing device 10.

図11に示すブロック図は、図2に示すブロック図の構成にLidarセンサ18を加えたものである。Lidarセンサ18は、3次元空間に存在する物体及び車両100が走行中の路面を含む点群データを取得するセンサである。情報処理装置10は、Lidarセンサ18により取得した点群データを用いることで、物体の奥行き方向における位置情報、すなわち、物体のz座標値を導出することができる。なお、Lidarセンサ18により取得される点群データは、MoPU12から出力される物体のx座標値及びy座標値より長い間隔で取得されることを想定する。また、MoPU12は、第9の実施形態の上記態様と同様にカメラ30を備えている。 The block diagram shown in FIG. 11 adds a Lidar sensor 18 to the configuration of the block diagram shown in FIG. 2. The Lidar sensor 18 is a sensor that acquires point cloud data including objects existing in three-dimensional space and the road surface on which the vehicle 100 is traveling. The information processing device 10 can derive position information of an object in the depth direction, i.e., the z coordinate value of the object, by using the point cloud data acquired by the Lidar sensor 18. Note that it is assumed that the point cloud data acquired by the Lidar sensor 18 is acquired at intervals longer than the x coordinate value and y coordinate value of the object output from the MoPU 12. The MoPU 12 also includes a camera 30, similar to the above aspect of the ninth embodiment.

第4態様では、MoPU12は、ステレオカメラの原理を利用して、Lidarセンサ18が物体の点群データを取得したタイミングと同じタイミングでカメラ30により撮影された当該物体のx座標値及びy座標値と、当該点群データが示す当該物体のz座標値とを組み合わせて、点情報として物体の3つの座標軸の座標値を導出する。 In the fourth aspect, the MoPU 12 utilizes the principle of a stereo camera to combine the x and y coordinate values of the object photographed by the camera 30 at the same time that the Lidar sensor 18 acquires the point cloud data of the object with the z coordinate value of the object indicated by the point cloud data, and derives the coordinate values of the three coordinate axes of the object as point information.

ここで、上記第4態様において、MoPU12は、時刻tの物体のx座標値、y座標値、及びz座標値と、時刻tの次の時点である(例えば時刻t+1)における物体のx座標値及びy座標値とから、点情報として時刻t+1における物体のz座標値を導出する。時刻tは「第1時点」の一例であり、時刻t+1は「第2時点」の一例である。第4態様では、時刻t+1における物体のz座標値は、形状情報、すなわち、ジオメトリを用いて導出する。以下、この詳細について説明する。 In the fourth aspect, the MoPU12 derives the z coordinate value of the object at time t+1 as point information from the x, y, and z coordinate values of the object at time t and the x and y coordinate values of the object at the next time point after time t (e.g., time t+1). Time t is an example of a "first time point," and time t+1 is an example of a "second time point." In the fourth aspect, the z coordinate value of the object at time t+1 is derived using shape information, i.e., geometry. This will be described in detail below.

図12は、物体の時系列における座標検出を模式的に示す図である。図12においてJは矩形で表された物体の位置を示し、物体の位置はJ1からJ2に時系列に移動している。図12において、物体がJ1に位置する時刻tにおける物体の座標値が(x1、y1、z1)であり、物体がJ2に位置する時刻t+1における物体の座標値が(x2、y2、z2)である。 Figure 12 is a diagram that shows a schematic of coordinate detection of an object over time. In Figure 12, J indicates the position of an object represented by a rectangle, and the object's position moves over time from J1 to J2. In Figure 12, the coordinate values of the object at time t when the object is located at J1 are (x1, y1, z1), and the coordinate values of the object at time t+1 when the object is located at J2 are (x2, y2, z2).

まず、時刻tについて説明する。
MoPU12は、カメラ30により撮影された物体の画像から、当該物体のx座標値及びy座標値を導出する。続いて、MoPU12は、Lidarセンサ18から取得した点群データが示す当該物体のz座標値と上記x座標値及びy座標値とを統合して、時刻tにおける当該物体の3次元座標値(x1、y1、z1)を導出する。
First, the time t will be described.
The MoPU 12 derives the x-coordinate value and the y-coordinate value of the object from the image of the object captured by the camera 30. Next, the MoPU 12 integrates the z-coordinate value of the object indicated by the point cloud data acquired from the Lidar sensor 18 with the above-mentioned x-coordinate value and y-coordinate value to derive the three-dimensional coordinate value (x1, y1, z1) of the object at time t.

次に、時刻t+1について説明する。
MoPU12は、空間のジオメトリと、時刻tから時刻t+1への物体のx座標値及びy座標値の変化とに基づいて、時刻t+1における当該物体のz座標値を導出する。空間のジオメトリには、IPU11が備える超高解像度カメラにより撮影された画像及びLidarセンサ18の点群データから得られる路面の形状と、車両100の形状とが含まれる。
Next, time t+1 will be described.
The MoPU 12 derives the z-coordinate value of the object at time t+1 based on the spatial geometry and the changes in the x-coordinate value and the y-coordinate value of the object from time t to time t+1. The spatial geometry includes the shape of the road surface obtained from the images captured by the super-high resolution camera equipped in the IPU 11 and the point cloud data of the Lidar sensor 18, and the shape of the vehicle 100.

路面の形状を示すジオメトリは、時刻tの時点であらかじめ生成しておく。MoPU12は、路面の形状を示すジオメトリと合わせて車両100の形状を示すジオメトリを利用することで、路面上を車両100が走行する場合をシミュレーションでき、x軸、y軸、及びz軸の各軸の移動量を推定できる。 The geometry representing the shape of the road surface is generated in advance at time t. By using the geometry representing the shape of the vehicle 100 together with the geometry representing the shape of the road surface, the MoPU 12 can simulate the vehicle 100 traveling on the road surface and estimate the amount of movement on each of the x-axis, y-axis, and z-axis.

そのため、MoPU12は、カメラ30により撮影された物体の画像から、時刻t+1における当該物体のx座標値及びy座標値を導出する。MoPU12は、当該物体が時刻tのx座標値及びy座標値(x1、y1)から時刻t+1のx座標値及びy座標値(x2、y2)に変化したときのz軸の移動量をシミュレーションから算出することで、時刻t+1における当該物体のz座標値を導出することができる。そして、MoPU12は、上記x座標値及びy座標値とz座標値とを統合して、時刻t+1における当該物体の3次元座標値(x2、y2、z2)を導出する。 Therefore, MoPU12 derives the x and y coordinate values of the object at time t+1 from the image of the object captured by camera 30. MoPU12 can derive the z coordinate value of the object at time t+1 by calculating, from a simulation, the amount of movement along the z axis when the object changes from the x and y coordinate values (x1, y1) at time t to the x and y coordinate values (x2, y2) at time t+1. MoPU12 then combines the x and y coordinate values with the z coordinate value to derive the three-dimensional coordinate value (x2, y2, z2) of the object at time t+1.

図12に示すように、物体は、平面座標の移動(すなわち、x軸及びy軸)と共に奥行き方向に移動しているため、車両100の自動運転を高精度に制御するためにはz軸方向の移動も検知する必要がある。ここで、MoPU12は、Lidarセンサ18の点群データから導出可能な物体のz座標値を、当該物体のx座標値及びy座標値ほど高速に取得できない場合もある。そのため、上記第4態様では、MoPU12は、時刻tの物体のx座標値、y座標値、及びz座標値と時刻t+1における物体のx座標値及びy座標値とから、時刻t+1における物体のz座標値を導出することとしている。これにより、上記第4態様に係る情報処理装置10によれば、MoPU12により、高速フレームショットによる2次元の動き検知と共に3次元の動き検知が、高性能かつ低用量のデータで実現できる。 As shown in FIG. 12, since the object moves in the depth direction along with the movement of the planar coordinates (i.e., the x-axis and y-axis), it is necessary to detect the movement in the z-axis direction as well in order to control the autonomous driving of the vehicle 100 with high accuracy. Here, the MoPU 12 may not be able to obtain the z-coordinate value of the object that can be derived from the point cloud data of the Lidar sensor 18 as quickly as the x-coordinate value and the y-coordinate value of the object. Therefore, in the above-mentioned fourth aspect, the MoPU 12 derives the z-coordinate value of the object at time t+1 from the x-coordinate value, y-coordinate value, and z-coordinate value of the object at time t and the x-coordinate value and the y-coordinate value of the object at time t+1. As a result, according to the information processing device 10 according to the above-mentioned fourth aspect, the MoPU 12 can realize two-dimensional motion detection and three-dimensional motion detection by high-speed frame shots with high performance and low data volume.

また、MoPU12は、点情報が複数検出されている場合に、点情報に対応付けられたラベル情報について定めた優先度に応じて、次の時点の物体のz座標値を導出してもよい。例えば、Central Brain15では点情報及びラベル情報が対応付けられるが、当該ラベル情報が示す物体に、z座標値を処理する場合の優先度を定めておく。以下、優先度の一例を説明する。例えば、物体の種別を示すラベル情報が、人、前方の車両、動物、障害物など、挙動を生じる物体であり、当該物体の挙動が走行に影響する対象である場合は、高い優先度(RANK:A)のカテゴリを設定する。一方、ラベル情報が、標識、道路脇の設置物など、静的な物体であり、挙動を生じない物体である場合は、低い優先度(RANK:B)を設定する。このように、MoPU12では、ラベル情報における物体の挙動の有無に応じて、優先度を設定できる。また、Central Brain15から物体の挙動の大きさを取得し、物体の挙動に対して重みづけを行い、物体の優先度を更新するようにしてもよい。例えば、挙動が大きい物体については重みを大きくし、挙動が小さい物体については重みを小さくするように優先度を更新する。 In addition, when multiple pieces of point information are detected, MoPU12 may derive the z-coordinate value of the object at the next time point according to the priority determined for the label information associated with the point information. For example, in Central Brain15, point information and label information are associated, and a priority for processing the z-coordinate value is determined for the object indicated by the label information. An example of the priority is described below. For example, when the label information indicating the type of object is an object that generates a behavior, such as a person, a vehicle in front, an animal, or an obstacle, and the behavior of the object affects the driving, a high priority (RANK: A) category is set. On the other hand, when the label information is a static object such as a sign or a roadside installation, and the object does not generate a behavior, a low priority (RANK: B) is set. In this way, MoPU12 can set the priority according to the presence or absence of the behavior of the object in the label information. In addition, the magnitude of the behavior of the object may be obtained from Central Brain15, and the priority of the object may be updated by weighting the behavior of the object. For example, the priority is updated to increase the weight for objects with large behavior and decrease the weight for objects with small behavior.

また、優先度のRANKはA、Bに限定されるものではなく、A~C、A~Dなど、適宜、物体の種別に応じて段階を設けて定めてよい。また、上述の高い優先度の中で、細分化した優先度を設定してもよい。例えば、人、前方の車両は、大きな事故に繋がり得る危険度の高い物体とも捉えることができる。そこで、高い優先度のRANK:Aについて、RANK:A1、RANK:A2に分け、人、前方の車両は、RANK:A1に設定し、動物、障害物などはRANK:A2に設定する。このように、物体の危険因子に応じた優先度を設定してもよい。また、前方車両の中でも、大型のトラックや荷物を積載したトラックなどは、通常の車両よりも、より危険度が高いといえる。そのため、ラベル情報でこれらを細分化して識別するようにし、MoPU12で、通常の車両よりも高い優先度を設定するようにしてもよい。 The rank of priority is not limited to A and B, but may be set in stages according to the type of object, such as A to C, A to D, etc. As appropriate. Within the high priority mentioned above, more detailed priorities may be set. For example, people and vehicles ahead can be considered as objects with a high degree of danger that can lead to a serious accident. Therefore, the high priority rank: A may be divided into ranks: A1 and A2, and people and vehicles ahead are set to rank: A1, and animals, obstacles, etc. are set to rank: A2. In this way, priorities may be set according to the risk factors of objects. Furthermore, among the vehicles ahead, large trucks and trucks loaded with cargo can be said to be more dangerous than normal vehicles. Therefore, these may be subdivided and identified using label information, and the MoPU 12 may set a higher priority than normal vehicles.

また、物体の数(すなわち点情報に対応付けられたラベル情報の数)に応じて、優先度を用いた処理順とするか否かを判定してもよい。例えば、物体が所定数(例えば3など)以上の場合は、優先度の順番に応じて各物体のz座標値を導出し、物体の所定数未満で少ない場合はとくに処理順を定めずに各物体のz座標値を処理する。また、物体間の距離、物体の密度に応じて、優先度を用いた処理順とするか否かを判定してもよい。 It may also be possible to determine whether or not to use a processing order based on priority depending on the number of objects (i.e., the number of label information items associated with point information). For example, if there is a predetermined number of objects (e.g., three or more), the z coordinate value of each object is derived according to the order of priority, and if there are fewer than the predetermined number of objects, the z coordinate value of each object is processed without any particular processing order being determined. It may also be possible to determine whether or not to use a processing order based on priority depending on the distance between objects and the density of objects.

また、優先度は、本実施形態の点情報として物体のz座標値を導出する場合に限らず、上述の第1~第8実施形態の場合にも適用してもよい。MoPU12は、点情報が複数の場合に、上述のラベル情報について定めた優先度に応じて、次の時点の点情報を導出してもよい。 The priority may be applied not only to the case of deriving the z coordinate value of an object as point information in this embodiment, but also to the cases of the first to eighth embodiments described above. When there are multiple pieces of point information, MoPU12 may derive point information for the next time point according to the priority determined for the above-mentioned label information.

また、以上の説明では、MoPU12がカメラ30により撮影された物体の画像から、点情報として物体のz座標値を導出する場合を例示したが、開示の技術は、この態様に限定されるものではない。例えば、MoPU12に代えてCentral Brain15が点情報として物体のz座標値を導出してもよい。この場合、Central Brain15は、カメラ30により撮影された物体の画像に対して、以上の説明でMoPU12が実行していた処理を行うことにより、点情報として物体のz座標値を導出する。一例として、Central Brain15は、複数のカメラ30、具体的には、カメラ30L及びカメラ30Rにより撮影された物体の画像から、点情報として物体のz座標値を導出する。この場合、Central Brain15は、ステレオカメラの原理を利用して、MoPU12Lのカメラ30L及びMoPU12Rのカメラ30Rによりそれぞれ撮影された物体の画像に基づいて、点情報として物体のz座標値を導出する。 In addition, in the above description, the case where MoPU12 derives the z coordinate value of an object as point information from an image of the object captured by camera 30 has been exemplified, but the disclosed technology is not limited to this aspect. For example, instead of MoPU12, Central Brain15 may derive the z coordinate value of an object as point information. In this case, Central Brain15 derives the z coordinate value of an object as point information by performing the processing performed by MoPU12 in the above description on the image of the object captured by camera 30. As an example, Central Brain15 derives the z coordinate value of an object as point information from images of the object captured by multiple cameras 30, specifically, cameras 30L and 30R. In this case, the Central Brain 15 uses the principle of a stereo camera to derive the z coordinate value of the object as point information based on the images of the object captured by the camera 30L of the MoPU 12L and the camera 30R of the MoPU 12R.

(第10の実施形態)
次に、本実施形態に係る第10の実施形態について、上記実施形態との重複部分を省略又は簡略しつつ説明する。
図13は、情報処理装置10の構成の一例を示す第7のブロック図である。なお、図13は、情報処理装置10の一部の構成のみを示している。
Tenth Embodiment
Next, a tenth embodiment according to the present invention will be described while omitting or simplifying parts that overlap with the above-described embodiments.
Fig. 13 is a seventh block diagram showing an example of the configuration of the information processing device 10. Note that Fig. 13 shows only a part of the configuration of the information processing device 10.

図13に示すように、MoPU12では、イベントカメラ30Cにより撮影された物体の画像(以下、「イベント画像」と記載することもある)がコア17に入力される。そして、コア17は、入力されたイベント画像に基づいて、点情報をCentral Brain15に出力する。なお、イベントカメラは、例えば、参考文献(https://dendenblog.xyz/event-based-camera/)に開示されている。 As shown in FIG. 13, in MoPU12, an image of an object captured by event camera 30C (hereinafter, sometimes referred to as "event image") is input to core 17. Then, core 17 outputs point information to central brain 15 based on the input event image. Note that the event camera is disclosed, for example, in reference literature (https://dendenblog.xyz/event-based-camera/).

図14は、イベントカメラ30Cにより撮影された物体の画像(イベント画像)を説明するための説明図である。図14(A)は、イベントカメラ30Cによる撮影対象となる物体を示す図である。図14(B)は、イベント画像の一例を示す図である。図14(C)は、イベント画像が表す、現時刻に撮影された画像と前時刻に撮影された画像との差異部分の重心を点情報として算出した例を示す図である。イベント画像は、現時刻に撮影された画像と前時刻に撮影された画像との差異部分が点として抽出される。このため、イベントカメラ30Cを利用した場合には、例えば、図14(B)に示されるように、図14(A)に示される人物領域のうちの移動している各箇所の点が抽出されてしまう。 Figure 14 is an explanatory diagram for explaining an image of an object (event image) captured by event camera 30C. Figure 14 (A) is a diagram showing an object to be captured by event camera 30C. Figure 14 (B) is a diagram showing an example of an event image. Figure 14 (C) is a diagram showing an example of the center of gravity of the difference between an image captured at the current time and an image captured at the previous time, which is represented by the event image, calculated as point information. In the event image, the difference between the image captured at the current time and the image captured at the previous time is extracted as a point. For this reason, when event camera 30C is used, for example, as shown in Figure 14 (B), points of each moving part of the person area shown in Figure 14 (A) are extracted.

これに対し、コア17は、図14(C)に示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送されるデータ量を抑制させることできる。イベント画像は、物体である人物を任意のフレームレートで抽出できるため、イベントカメラ30Cの場合は、上記実施形態でMoPU12に搭載されたカメラ30の最大フレームレート(例:1920フレーム/秒)以上のフレームレートで抽出することもでき、物体の点情報を精度良く捉えることができる。 In response to this, as shown in FIG. 14(C), the core 17 extracts the person object, and then extracts the coordinates of the feature point (e.g., only one point) that represents the person area. This makes it possible to reduce the amount of data transferred to the Central Brain 15 and memory 16. Since the event image allows the person object to be extracted at any frame rate, in the case of the event camera 30C, it is possible to extract the person object at a frame rate equal to or higher than the maximum frame rate (e.g., 1920 frames/sec) of the camera 30 mounted on the MoPU 12 in the above embodiment, and the point information of the object can be captured with high accuracy.

なお、第10の実施形態に係る情報処理装置10は、上記実施形態と同様に、MoPU12がイベントカメラ30Cに加えて、可視光カメラ30Aを備えてもよい。この場合、MoPU12では、可視光カメラ30Aにより撮影された物体の可視光画像及びイベント画像が、それぞれコア17に入力される。そして、コア17は、入力された可視光画像及びイベント画像の少なくとも一方に基づいて、点情報をCentral Brain15に出力する。 In the information processing device 10 according to the tenth embodiment, the MoPU 12 may include a visible light camera 30A in addition to the event camera 30C, as in the above embodiment. In this case, in the MoPU 12, the visible light image and the event image of the object captured by the visible light camera 30A are input to the core 17. The core 17 then outputs point information to the Central Brain 15 based on at least one of the input visible light image and the event image.

例えば、コア17は、可視光カメラ30Aにより撮影された物体の可視光画像から物体を識別できる場合には、当該可視光画像に基づいて点情報を出力する。一方、コア17は、所定要因により当該可視光画像から物体を捉えられない場合、イベント画像に基づいて点情報を出力する。所定要因は、物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む。例えば、物体の動作が高速で当該可視光画像から物体を捉えられない場合、コア17は、イベント画像に基づいて物体を識別して、点情報として当該物体のx座標値及びy座標値を出力する。また、逆光等の急激な環境光の光量変化により当該可視光画像から物体を捉えられない場合、コア17は、イベント画像に基づいて物体を識別して、点情報として当該物体のx座標値及びy座標値を出力する。この構成により、情報処理装置10によれば、所定要因に応じて、物体を撮影するカメラ30を使い分けることができる。 For example, when the core 17 can identify an object from a visible light image of the object captured by the visible light camera 30A, the core 17 outputs point information based on the visible light image. On the other hand, when the core 17 cannot capture an object from the visible light image due to a predetermined factor, the core 17 outputs point information based on the event image. The predetermined factor includes at least one of a case where the moving speed of the object is equal to or greater than a predetermined value and a case where the change in the amount of ambient light per unit time is equal to or greater than a predetermined value. For example, when the object moves at a high speed and the object cannot be captured from the visible light image, the core 17 identifies the object based on the event image and outputs the x-coordinate value and the y-coordinate value of the object as point information. Also, when the object cannot be captured from the visible light image due to a sudden change in the amount of ambient light such as backlighting, the core 17 identifies the object based on the event image and outputs the x-coordinate value and the y-coordinate value of the object as point information. With this configuration, the information processing device 10 can use the camera 30 for capturing an object depending on the predetermined factor.

図15は、情報処理装置10又は冷却実行装置110として機能するコンピュータ1200のハードウェア構成の一例を概略的に示す。コンピュータ1200にインストールされたプログラムは、コンピュータ1200を、本実施形態に係る装置の1又は複数の「部」として機能させ、又はコンピュータ1200に、本実施形態に係る装置に関連付けられるオペレーション又は当該1又は複数の「部」を実行させることができ、及び/又はコンピュータ1200に、本実施形態に係るプロセス又は当該プロセスの段階を実行させることができる。そのようなプログラムは、コンピュータ1200に、本明細書に記載のフローチャート及びブロック図のブロックのうちのいくつか又はすべてに関連付けられた特定のオペレーションを実行させるべく、CPU1212によって実行されてよい。 15 shows an example of a hardware configuration of a computer 1200 functioning as an information processing device 10 or a cooling execution device 110. A program installed on the computer 1200 can cause the computer 1200 to function as one or more "parts" of the device according to the present embodiment, or to execute operations or one or more "parts" associated with the device according to the present embodiment, and/or to execute a process or a step of the process according to the present embodiment. Such a program can be executed by the CPU 1212 to cause the computer 1200 to execute specific operations associated with some or all of the blocks of the flowcharts and block diagrams described herein.

本実施形態によるコンピュータ1200は、CPU1212、RAM1214、及びグラフィックコントローラ1216を含み、それらはホストコントローラ1210によって相互に接続されている。コンピュータ1200はまた、通信インタフェース1222、記憶装置1224、DVDドライブ、及びICカードドライブのような入出力ユニットを含み、それらは入出力コントローラ1220を介してホストコントローラ1210に接続されている。DVDドライブは、DVD-ROMドライブ及びDVD-RAMドライブ等であってよい。記憶装置1224は、ハードディスクドライブ及びソリッドステートドライブ等であってよい。コンピュータ1200はまた、ROM1230及びキーボードのようなレガシの入出力ユニットを含み、それらは入出力チップ1240を介して入出力コントローラ1220に接続されている。 The computer 1200 according to this embodiment includes a CPU 1212, a RAM 1214, and a graphics controller 1216, which are connected to each other by a host controller 1210. The computer 1200 also includes input/output units such as a communication interface 1222, a storage device 1224, a DVD drive, and an IC card drive, which are connected to the host controller 1210 via an input/output controller 1220. The DVD drive may be a DVD-ROM drive, a DVD-RAM drive, etc. The storage device 1224 may be a hard disk drive, a solid state drive, etc. The computer 1200 also includes a ROM 1230 and a legacy input/output unit such as a keyboard, which are connected to the input/output controller 1220 via an input/output chip 1240.

CPU1212は、ROM1230及びRAM1214内に格納されたプログラムに従い動作し、それにより各ユニットを制御する。グラフィックコントローラ1216は、RAM1214内に提供されるフレームバッファ等又はそれ自体の中に、CPU1212によって生成されるイメージデータを取得し、イメージデータがディスプレイデバイス1218上に表示されるようにする。 The CPU 1212 operates according to the programs stored in the ROM 1230 and the RAM 1214, thereby controlling each unit. The graphics controller 1216 acquires image data generated by the CPU 1212 into a frame buffer or the like provided in the RAM 1214 or into itself, and causes the image data to be displayed on the display device 1218.

通信インタフェース1222は、ネットワークを介して他の電子デバイスと通信する。記憶装置1224は、コンピュータ1200内のCPU1212によって使用されるプログラム及びデータを格納する。DVDドライブは、プログラム又はデータをDVD-ROM等から読み取り、記憶装置1224に提供する。ICカードドライブは、プログラム及びデータをICカードから読み取り、及び/又はプログラム及びデータをICカードに書き込む。 The communication interface 1222 communicates with other electronic devices via a network. The storage device 1224 stores programs and data used by the CPU 1212 in the computer 1200. The DVD drive reads programs or data from a DVD-ROM or the like and provides them to the storage device 1224. The IC card drive reads programs and data from an IC card and/or writes programs and data to an IC card.

ROM1230はその中に、アクティブ化時にコンピュータ1200によって実行されるブートプログラム等、及び/又はコンピュータ1200のハードウェアに依存するプログラムを格納する。入出力チップ1240はまた、様々な入出力ユニットをUSBポート、パラレルポート、シリアルポート、キーボードポート、マウスポート等を介して、入出力コントローラ1220に接続してよい。 ROM 1230 stores therein a boot program or the like executed by computer 1200 upon activation, and/or a program that depends on the hardware of computer 1200. I/O chip 1240 may also connect various I/O units to I/O controller 1220 via USB ports, parallel ports, serial ports, keyboard ports, mouse ports, etc.

プログラムは、DVD-ROM又はICカードのようなコンピュータ可読記憶媒体によって提供される。プログラムは、コンピュータ可読記憶媒体から読み取られ、コンピュータ可読記憶媒体の例でもある記憶装置1224、RAM1214、又はROM1230にインストールされ、CPU1212によって実行される。これらのプログラム内に記述される情報処理は、コンピュータ1200に読み取られ、プログラムと、上記様々なタイプのハードウェアリソースとの間の連携をもたらす。装置又は方法が、コンピュータ1200の使用に従い情報のオペレーション又は処理を実現することによって構成されてよい。 The programs are provided by a computer-readable storage medium such as a DVD-ROM or an IC card. The programs are read from the computer-readable storage medium, installed in storage device 1224, RAM 1214, or ROM 1230, which are also examples of computer-readable storage media, and executed by CPU 1212. The information processing described in these programs is read by computer 1200, and brings about cooperation between the programs and the various types of hardware resources described above. An apparatus or method may be constructed by realizing the operation or processing of information according to the use of computer 1200.

例えば、通信がコンピュータ1200及び外部デバイス間で実行される場合、CPU1212は、RAM1214にロードされた通信プログラムを実行し、通信プログラムに記述された処理に基づいて、通信インタフェース1222に対し、通信処理を命令してよい。通信インタフェース1222は、CPU1212の制御の下、RAM1214、記憶装置1224、DVD-ROM、又はICカードのような記録媒体内に提供される送信バッファ領域に格納された送信データを読み取り、読み取られた送信データをネットワークに送信し、又はネットワークから受信した受信データを記録媒体上に提供される受信バッファ領域等に書き込む。 For example, when communication is performed between computer 1200 and an external device, CPU 1212 may execute a communication program loaded into RAM 1214 and instruct communication interface 1222 to perform communication processing based on the processing described in the communication program. Under the control of CPU 1212, communication interface 1222 reads transmission data stored in a transmission buffer area provided in RAM 1214, storage device 1224, a DVD-ROM, or a recording medium such as an IC card, and transmits the read transmission data to the network, or writes received data received from the network to a reception buffer area or the like provided on the recording medium.

また、CPU1212は、記憶装置1224、DVDドライブ(DVD-ROM)、ICカード等のような外部記録媒体に格納されたファイル又はデータベースの全部又は必要な部分がRAM1214に読み取られるようにし、RAM1214上のデータに対し様々なタイプの処理を実行してよい。CPU1212は次に、処理されたデータを外部記録媒体にライトバックしてよい。 The CPU 1212 may also cause all or a necessary portion of a file or database stored in an external recording medium such as the storage device 1224, a DVD drive (DVD-ROM), an IC card, etc. to be read into the RAM 1214, and perform various types of processing on the data on the RAM 1214. The CPU 1212 may then write back the processed data to the external recording medium.

様々なタイプのプログラム、データ、テーブル、及びデータベースのような様々なタイプの情報が記録媒体に格納され、情報処理を受けてよい。CPU1212は、RAM1214から読み取られたデータに対し、本開示の随所に記載され、プログラムの命令シーケンスによって指定される様々なタイプのオペレーション、情報処理、条件判断、条件分岐、無条件分岐、情報の検索/置換等を含む、様々なタイプの処理を実行してよく、結果をRAM1214に対しライトバックする。また、CPU1212は、記録媒体内のファイル、データベース等における情報を検索してよい。例えば、各々が第2の属性の属性値に関連付けられた第1の属性の属性値を有する複数のエントリが記録媒体内に格納される場合、CPU1212は、当該複数のエントリの中から、第1の属性の属性値が指定されている条件に一致するエントリを検索し、当該エントリ内に格納された第2の属性の属性値を読み取り、それにより予め定められた条件を満たす第1の属性に関連付けられた第2の属性の属性値を取得してよい。 Various types of information, such as various types of programs, data, tables, and databases, may be stored in the recording medium and may undergo information processing. The CPU 1212 may perform various types of processing on the data read from the RAM 1214, including various types of operations, information processing, conditional judgment, conditional branching, unconditional branching, information search/replacement, etc., as described throughout this disclosure and specified by the instruction sequence of the program, and writes back the results to the RAM 1214. The CPU 1212 may also search for information in a file, database, etc. in the recording medium. For example, when multiple entries each having an attribute value of a first attribute associated with an attribute value of a second attribute are stored in the recording medium, the CPU 1212 may search for an entry whose attribute value of the first attribute matches a specified condition from among the multiple entries, read the attribute value of the second attribute stored in the entry, and thereby obtain the attribute value of the second attribute associated with the first attribute that satisfies a predetermined condition.

上で説明したプログラム又はソフトウエアモジュールは、コンピュータ1200上又はコンピュータ1200近傍のコンピュータ可読記憶媒体に格納されてよい。また、専用通信ネットワーク又はインターネットに接続されたサーバシステム内に提供されるハードディスク又はRAMのような記録媒体が、コンピュータ可読記憶媒体として使用可能であり、それによりプログラムを、ネットワークを介してコンピュータ1200に提供する。 The above-described programs or software modules may be stored in a computer-readable storage medium on or near the computer 1200. In addition, a recording medium such as a hard disk or RAM provided in a server system connected to a dedicated communication network or the Internet can be used as a computer-readable storage medium, thereby providing the programs to the computer 1200 via the network.

本実施形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams in this embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. The dedicated circuitry may include digital and/or analog hardware circuits and may include integrated circuits (ICs) and/or discrete circuits. The programmable circuitry may include reconfigurable hardware circuits including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs) and programmable logic arrays (PLAs).

コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.

コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.

コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装
置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。
Computer readable instructions may be provided to a processor of a general purpose computer, special purpose computer, or other programmable data processing apparatus, or to a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN) such as the Internet, etc., so that the processor or programmable circuit executes the computer readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms incorporating such modifications or improvements can also be included in the technical scope of the present invention.

特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is necessary to perform the processes in that order.

上記実施形態において、各プロセッサ(例:IPU11、MoPU12、及びCentral Brain15)が実行するとした処理はあくまで例示であり、各処理を実行するプロセッサは限定されない。例えば、上記実施形態でMoPU12が実行するとした処理を、MoPU12に代えて、Central Brain15が実行してもよいし、IPU11、MoPU12、及びCentral Brain15以外の他のプロセッサが実行してもよい。 In the above embodiment, the processes executed by each processor (e.g., IPU11, MoPU12, and Central Brain15) are merely examples, and the processor that executes each process is not limited. For example, the processes executed by MoPU12 in the above embodiment may be executed by Central Brain15 instead of MoPU12, or may be executed by a processor other than IPU11, MoPU12, and Central Brain15.

<付記1>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
を備える、
情報処理装置。
<Appendix 1>
(1)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
Equipped with
Information processing device.

(2)
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備える、
(1)に記載の情報処理装置。
(2)
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
An information processing device as described in (1).

(3)
前記第1カメラのフレームレートは可変であり、
前記第1プロセッサは、所定要因に応じて前記第1カメラのフレームレートを変更する、
(1)又は(2)に記載の情報処理装置。
(3)
The frame rate of the first camera is variable;
The first processor changes the frame rate of the first camera in response to a predetermined factor.
An information processing device according to (1) or (2).

(4)
前記第1プロセッサは、所定の対象物に対する外部環境に関するスコアを算出する、
(3)に記載の情報処理装置。
(4)
The first processor calculates a score related to an external environment for a predetermined object.
An information processing device according to (3).

(5)
前記第1プロセッサは、算出した前記外部環境に関するスコアに応じて、前記第1カメラのフレームレートを変更する、
(4)に記載の情報処理装置。
(5)
The first processor changes a frame rate of the first camera in response to the calculated score regarding the external environment.
An information processing device according to (4).

(6)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
処理をコンピュータが実行する情報処理方法。
(6)
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
An information processing method in which processing is performed by a computer.

(7)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する、
処理を実行させるための情報処理プログラム。
(7)
On the computer,
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
An information processing program for executing processing.

<付記2>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記座標値及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
<Appendix 2>
(1)
a first processor that outputs, from an image of an object photographed by a first camera, coordinate values of at least two coordinate axes in a three-dimensional orthogonal coordinate system of a point indicating a position of the photographed object;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the coordinate values output from the first processor with the identification information output from the second processor;
Equipped with
Information processing device.

(2)
前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の頂点の少なくとも対角となる2点の前記座標値を出力する、
(1)に記載の情報処理装置。
(2)
the first processor outputs the coordinate values of at least two diagonal vertices of a polygon surrounding the contour of the object recognized from the image captured by the first camera;
An information processing device as described in (1).

(3)
前記第1プロセッサは、前記第1カメラにより撮影された画像から認識した前記物体の輪郭を囲む多角形の複数の頂点の前記座標値を出力する、
(2)に記載の情報処理装置。
(3)
The first processor outputs the coordinate values of a plurality of vertices of a polygon surrounding a contour of the object recognized from the image captured by the first camera.
An information processing device as described in (2).

(4)
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記座標値及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(4)
outputting, from an image of an object photographed by a first camera, coordinate values of at least two coordinate axes in a three-dimensional orthogonal coordinate system of a point indicating a position of the photographed object;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the coordinate values with the identification information;
An information processing method in which processing is performed by a computer.

(5)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体の存在位置を示す点の3次元直交座標系における少なくとも2つの座標軸の座標値を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記座標値及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
(5)
On the computer,
outputting, from an image of an object photographed by a first camera, coordinate values of at least two coordinate axes in a three-dimensional orthogonal coordinate system of a point indicating a position of the photographed object;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the coordinate values with the identification information;
An information processing program for executing processing.

<付記3>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する第3プロセッサと、
を備える、
情報処理装置。
<Appendix 3>
(1)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor and controls automatic driving of a moving body based on the point information and the identification information;
Equipped with
Information processing device.

(2)
前記第3プロセッサは、
検知部が検知した検知情報に基づいて、前記移動体の自動運転を制御するための制御変数を算出し、
算出した前記制御変数と、前記点情報及び前記識別情報とに基づいて、前記移動体の自動運転を制御する、
(1)に記載の情報処理装置。
(2)
The third processor,
Calculating a control variable for controlling the autonomous driving of the moving object based on the detection information detected by the detection unit;
controlling the automatic driving of the moving body based on the calculated control variable, the point information, and the identification information;
An information processing device as described in (1).

(3)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する、
処理をコンピュータが実行する情報処理方法。
(3)
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information, and controlling automatic driving of the moving body based on the point information and the identification information.
An information processing method in which processing is performed by a computer.

(4)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、前記点情報及び前記識別情報に基づいて、移動体の自動運転を制御する、
処理を実行させるための情報処理プログラム。
(4)
On the computer,
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information, and controlling automatic driving of the moving body based on the point information and the identification information.
An information processing program for executing processing.

<付記4>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1カメラのフレームレートは、前記第2カメラのフレームレートより大きい、
情報処理装置。
<Appendix 4>
(1)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
The frame rate of the first camera is greater than the frame rate of the second camera.
Information processing device.

(2)
前記第1カメラのフレームレートは、前記第2カメラのフレームレートの10倍以上である、
(1)に記載の情報処理装置。
(2)
The frame rate of the first camera is 10 times or more the frame rate of the second camera.
An information processing device as described in (1).

(3)
前記第1カメラのフレームレートは100フレーム/秒以上であり、前記第2カメラのフレームレートは10フレーム/秒である、
(2)に記載の情報処理装置。
(3)
The frame rate of the first camera is 100 frames/second or more, and the frame rate of the second camera is 10 frames/second.
An information processing device as described in (2).

(4)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラよりフレームレートが小さく、かつ前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(4)
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera having a frame rate lower than that of the first camera and facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information;
An information processing method in which processing is performed by a computer.

(5)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラよりフレームレートが小さく、かつ前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
(5)
On the computer,
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera having a frame rate lower than that of the first camera and facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information;
An information processing program for executing processing.

<付記5>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1プロセッサは、検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
情報処理装置。
<Appendix 5>
(1)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
The first processor calculates a degree of danger related to movement of a predetermined moving object as a score related to an external environment for the moving object based on the detection information detected by the detection unit and the point information.
Information processing device.

(2)
前記第1カメラのフレームレートは可変であり、
前記第1プロセッサは、算出した前記危険度に応じて前記第1カメラのフレームレートを変更する、
(1)に記載の情報処理装置。
(2)
The frame rate of the first camera is variable;
The first processor changes a frame rate of the first camera in accordance with the calculated degree of risk.
An information processing device as described in (1).

(3)
前記危険度は、前記移動体が今後どの程度の危険な場所を走行するかの度合を示す、
(1)又は(2)に記載の情報処理装置。
(3)
The degree of danger indicates the degree of danger through which the moving object will travel in the future.
An information processing device according to (1) or (2).

(4)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第3プロセッサは、検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
情報処理装置。
(4)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
The third processor calculates a degree of danger related to movement of a predetermined moving object as a score related to an external environment for the moving object based on the detection information detected by the detection unit and the point information.
Information processing device.

(5)
前記第1カメラのフレームレートは可変であり、
前記第3プロセッサは、算出した前記危険度に応じて前記第1カメラのフレームレートを変更する指示を前記第1プロセッサに出力する、
(4)に記載の情報処理装置。
(5)
The frame rate of the first camera is variable;
The third processor outputs to the first processor an instruction to change a frame rate of the first camera in accordance with the calculated degree of risk.
An information processing device according to (4).

(6)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
処理をコンピュータが実行する情報処理方法。
(6)
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Corresponding the point information and the identification information;
Calculating a degree of danger related to the movement of a predetermined moving object as a score related to an external environment for the moving object based on the detection information detected by the detection unit and the point information.
An information processing method in which processing is performed by a computer.

(7)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
検知部が検知した検知情報及び前記点情報に基づいて、所定の移動体に対する外部環境に関するスコアとして、前記移動体の移動に関する危険度を算出する、
処理を実行させるための情報処理プログラム。
(7)
On the computer,
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Corresponding the point information and the identification information;
Calculating a degree of danger related to the movement of a predetermined moving object as a score related to an external environment for the moving object based on the detection information detected by the detection unit and the point information.
An information processing program for executing processing.

<付記6>
(1)
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
<Appendix 6>
(1)
a first processor that outputs point information that captures the photographed object as a point based on at least one of a visible light image and an infrared image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
Information processing device.

(2)
前記第1プロセッサは、所定要因により前記第1カメラに含まれる可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記第1カメラに含まれる赤外線カメラにより撮影された前記物体の赤外線画像に基づいて前記点情報を出力する、
(1)に記載の情報処理装置。
(2)
when the first processor cannot capture the object from a visible light image of the object captured by a visible light camera included in the first camera due to a predetermined factor, the first processor outputs the point information based on an infrared image of the object captured by an infrared camera included in the first camera.
An information processing device as described in (1).

(3)
前記第1プロセッサは、前記可視光カメラにより前記可視光画像を撮影するタイミングと、前記赤外線カメラにより前記赤外線画像を撮影するタイミングとを同期させる、
(2)に記載の情報処理装置。
(3)
The first processor synchronizes a timing of capturing the visible light image by the visible light camera and a timing of capturing the infrared image by the infrared camera.
An information processing device as described in (2).

(4)
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(4)
outputting point information representing the photographed object as a point based on at least one of a visible light image and an infrared image of the object photographed by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information;
An information processing method in which processing is performed by a computer.

(5)
コンピュータに、
第1カメラにより撮影された物体の可視光画像及び赤外線画像の少なくとも一方に基づいて、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
(5)
On the computer,
outputting point information representing the photographed object as a point based on at least one of a visible light image and an infrared image of the object photographed by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information;
An information processing program for executing processing.

<付記7>
(1)
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
<Appendix 7>
(1)
a first processor that outputs point information that captures the photographed object as a point based on an image of the object photographed by the first camera and a radar signal based on a reflected wave from the object of an electromagnetic wave irradiated to the object by a radar;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
Information processing device.

(2)
前記第1プロセッサは、前記第1カメラにより前記画像を撮影するタイミングと、前記レーダーが前記レーダー信号に基づく前記物体の3次元点群データを取得するタイミングとを同期させる、
(1)に記載の情報処理装置。
(2)
The first processor synchronizes a timing of capturing the image by the first camera with a timing of acquiring three-dimensional point cloud data of the object based on the radar signal by the radar.
An information processing device as described in (1).

(3)
前記第1カメラによって撮影される単位時間あたりの画像数及び前記レーダーによって取得される単位時間あたりの3次元点群データの数は、前記第2カメラによって撮影される単位時間あたりの画像数より多い、
(1)又は(2)に記載の情報処理装置。
(3)
The number of images taken by the first camera per unit time and the number of three-dimensional point cloud data acquired by the radar per unit time are greater than the number of images taken by the second camera per unit time.
An information processing device according to (1) or (2).

(4)
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(4)
outputting point information in which the photographed object is captured as a point from an image of the object photographed by the first camera and a radar signal based on a reflected wave from the object of an electromagnetic wave irradiated to the object by a radar;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information;
An information processing method in which processing is performed by a computer.

(5)
コンピュータに、
第1カメラにより撮影された物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
(5)
On the computer,
outputting point information in which the photographed object is captured as a point from an image of the object photographed by the first camera and a radar signal based on a reflected wave from the object of an electromagnetic wave irradiated to the object by a radar;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the identification information;
An information processing program for executing processing.

<付記8>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記ラベル情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
<Appendix 8>
(1)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs label information indicating a type of the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the label information output from the second processor;
Equipped with
Information processing device.

(2)
前記第3プロセッサは、前記点情報が示す前記物体の位置情報と、前記位置情報が示す位置に存在する前記物体についての前記ラベル情報とを対応付ける、
(1)に記載の情報処理装置。
(2)
The third processor associates position information of the object indicated by the point information with the label information about the object that exists at the position indicated by the position information.
An information processing device as described in (1).

(3)
前記第3プロセッサは、前記第2プロセッサが前記ラベル情報を出力したタイミングと同じタイミングで前記第1プロセッサから出力された前記点情報を前記ラベル情報に対応付ける、
(2)に記載の情報処理装置。
(3)
the third processor associates the point information output from the first processor with the label information at the same timing as the timing at which the second processor outputs the label information;
An information processing device as described in (2).

(4)
前記第3プロセッサは、前記点情報及び前記ラベル情報を対応付けた後に前記第1プロセッサから新たな前記点情報が出力された場合、新たな前記点情報についても前記ラベル情報と対応付ける、
(2)又は(3)に記載の情報処理装置。
(4)
when new point information is output from the first processor after the third processor has associated the point information with the label information, the third processor also associates the new point information with the label information.
An information processing device according to (2) or (3).

(5)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、
前記点情報及び前記ラベル情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(5)
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting label information indicating a type of the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the label information;
An information processing method in which processing is performed by a computer.

(6)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体の種別を示すラベル情報を出力し、
前記点情報及び前記ラベル情報を対応付ける、
処理を実行させるための情報処理プログラム。
(6)
On the computer,
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting label information indicating a type of the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlating the point information with the label information;
An information processing program for executing processing.

<付記9>
(1)
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得する取得部と、
前記取得部が取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる実行部と、
を備える、
冷却実行装置。
<Appendix 9>
(1)
an acquisition unit that outputs point information in which an object is captured as a point and identification information in which the object is identified from images of the object captured by a plurality of cameras facing corresponding directions, and acquires a detection result of the object by an information processing device that associates the point information with the identification information;
an execution unit that executes cooling of the information processing device based on the detection result acquired by the acquisition unit;
Equipped with
Cooling execution device.

(2)
前記取得部が取得した前記検出結果に基づいて、前記情報処理装置の作動状況を予測する予測部を備え、
前記実行部は、前記予測部による前記情報処理装置の作動状況の予測結果に基づいて、前記情報処理装置に対する冷却を実行させる、
(1)に記載の冷却実行装置。
(2)
a prediction unit that predicts an operating status of the information processing device based on the detection result acquired by the acquisition unit;
the execution unit executes cooling of the information processing device based on a result of the prediction by the prediction unit of the operating status of the information processing device.
A cooling execution device as described in (1).

(3)
前記予測部は、前記情報処理装置の温度変化を予測し、
前記実行部は、前記予測部による前記情報処理装置の温度変化の予測結果に応じた冷却手段を用いて、前記情報処理装置に対する冷却を実行させる、
(2)に記載の冷却実行装置。
(3)
The prediction unit predicts a temperature change of the information processing device,
the execution unit causes cooling of the information processing device to be performed using a cooling unit corresponding to a result of the prediction of the temperature change of the information processing device by the prediction unit;
A cooling execution device as described in (2).

(4)
前記取得部が取得する前記検出結果は、前記点情報である、
(1)から(3)の何れか1つに記載の冷却実行装置。
(4)
The detection result acquired by the acquisition unit is the point information.
A cooling device according to any one of (1) to (3).

(5)
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得し、
取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる、
処理をコンピュータが実行する冷却実行方法。
(5)
outputting point information in which the object is captured as a point from images of the object captured by a plurality of cameras facing in corresponding directions and identification information in which the object is identified, and acquiring a detection result of the object by an information processing device that associates the point information with the identification information;
executing cooling of the information processing device based on the acquired detection result;
A cooling execution method in which processing is performed by a computer.

(6)
コンピュータに、
対応する方向を向いた複数のカメラで撮影された物体の画像から前記物体を点として捉えた点情報及び前記物体を識別した識別情報を出力するとともに、前記点情報及び前記識別情報を対応付ける情報処理装置による前記物体の検出結果を取得し、
取得した前記検出結果に基づいて、前記情報処理装置に対する冷却を実行させる、
処理を実行させるための冷却実行プログラム。
(6)
On the computer,
outputting point information in which the object is captured as a point from images of the object captured by a plurality of cameras facing in corresponding directions and identification information in which the object is identified, and acquiring a detection result of the object by an information processing device that associates the point information with the identification information;
executing cooling of the information processing device based on the acquired detection result;
A cooling execution program for executing the process.

<付記10>
(1)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
情報処理装置。
<Appendix 10>
(1)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
the first processor derives, from the image of the object captured by the first camera, a coordinate value in a depth direction of the object in a three-dimensional orthogonal coordinate system of a point indicating a position of the object as the point information;
Information processing device.

(2)
前記第1プロセッサは、複数の前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記奥行き方向の座標値を導出する、
(1)に記載の情報処理装置。
(2)
The first processor derives coordinate values in the depth direction as the point information from images of the object captured by a plurality of the first cameras.
An information processing device as described in (1).

(3)
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及びレーダーにより前記物体に照射された電磁波の前記物体からの反射波に基づくレーダー信号から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
(1)又は(2)に記載の情報処理装置。
(3)
The first processor derives coordinate values of the object in a width direction, a height direction, and a depth direction as the point information from an image of the object captured by the first camera and a radar signal based on a reflected wave from the object of an electromagnetic wave irradiated to the object by a radar.
An information processing device according to (1) or (2).

(4)
前記第1プロセッサは、前記第1カメラにより撮影された前記物体の画像及び照射装置により前記物体に照射されたストラクチャードライトを撮影した結果から、前記点情報として前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値を導出する、
(1)から(3)の何れか1つに記載の情報処理装置。
(4)
The first processor derives coordinate values in a width direction, a height direction, and a depth direction of the object as the point information from a result of photographing an image of the object photographed by the first camera and structured light irradiated on the object by an irradiation device.
An information processing device according to any one of (1) to (3).

(5)
前記第1プロセッサは、第1時点の前記3次元直交座標系における前記物体の幅方向、高さ方向、及び前記奥行き方向の座標値と、前記第1時点の次の時点である第2時点における前記幅方向及び前記高さ方向の座標値とから、前記点情報として前記第2時点における前記奥行き方向の座標値を導出する、
(1)から(4)の何れか1つに記載の情報処理装置。
(5)
the first processor derives, as the point information, a coordinate value in the depth direction at a second time point from coordinate values in a width direction, a height direction, and the depth direction of the object in the three-dimensional orthogonal coordinate system at a first time point and coordinate values in the width direction and the height direction at a second time point that is a time point subsequent to the first time point;
An information processing device according to any one of (1) to (4).

(6)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備え、
前記第3プロセッサは、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
情報処理装置。
(6)
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
the third processor derives, from the image of the object captured by the first camera, a coordinate value in a depth direction of the object in a three-dimensional orthogonal coordinate system of a point indicating a position of the object as the point information;
Information processing device.

(7)
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
処理をコンピュータが実行する情報処理方法。
(7)
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Corresponding the point information and the identification information;
deriving, from the image of the object captured by the first camera, a coordinate value in a depth direction of the object in a three-dimensional orthogonal coordinate system of a point indicating a position of the object as the point information;
An information processing method in which processing is performed by a computer.

(8)
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付け、
前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出する、
処理を実行させるための情報処理プログラム。
(8)
On the computer,
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Corresponding the point information and the identification information;
deriving, from the image of the object captured by the first camera, a coordinate value in a depth direction of the object in a three-dimensional orthogonal coordinate system of a point indicating a position of the object as the point information;
An information processing program for executing processing.

<付記11>
(1)
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサと、
を備える、
情報処理装置。
<Appendix 11>
(1)
a first processor that outputs point information that captures an object as a point from an image of the object captured by an event camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the event camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
Equipped with
Information processing device.

(2)
前記第1プロセッサは、所定要因により可視光カメラにより撮影された前記物体の可視光画像から前記物体を捉えられない場合、前記イベントカメラにより撮影された前記物体の画像に基づいて前記点情報を出力する、
(1)に記載の情報処理装置。
(2)
when the first processor cannot capture the object from the visible light image of the object captured by the visible light camera due to a predetermined factor, the first processor outputs the point information based on the image of the object captured by the event camera.
An information processing device as described in (1).

(3)
前記所定要因は、前記物体の移動速度が所定値以上の場合及び単位時間あたりにおける環境光の光量変化が所定値以上の場合の少なくとも1つを含む、
(2)に記載の情報処理装置。
(3)
The predetermined factor includes at least one of a case where a moving speed of the object is equal to or greater than a predetermined value and a case where a change in the amount of ambient light per unit time is equal to or greater than a predetermined value.
An information processing device as described in (2).

(4)
前記イベントカメラは、現時刻に撮影された画像と前時刻に撮影された画像との差異部分を表すイベント画像を出力するカメラである、
(1)から(3)の何れか1つに記載の情報処理装置。
(4)
The event camera is a camera that outputs an event image that represents a difference between an image captured at a current time and an image captured at a previous time.
An information processing device according to any one of (1) to (3).

(5)
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理をコンピュータが実行する情報処理方法。
(5)
outputting point information representing an object captured as a point from an image of the object captured by the event camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the event camera;
Correlating the point information with the identification information;
An information processing method in which processing is performed by a computer.

(6)
コンピュータに、
イベントカメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記イベントカメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
前記点情報及び前記識別情報を対応付ける、
処理を実行させるための情報処理プログラム。
(6)
On the computer,
outputting point information representing an object captured as a point from an image of the object captured by the event camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the event camera;
Correlating the point information with the identification information;
An information processing program for executing processing.

10 情報処理装置
11 IPU(第2プロセッサ)
12 MoPU(第1プロセッサ)
15 Central Brain(第3プロセッサ)
110 冷却実行装置
10 Information processing device 11 IPU (second processor)
12 MoPU (first processor)
15 Central Brain (third processor)
110 Cooling execution device

Claims (7)

第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力する第1プロセッサと、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力する第2プロセッサと、
前記第1プロセッサから出力された前記点情報及び前記第2プロセッサから出力された前記識別情報を対応付ける第3プロセッサを備え、
前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する、
情報処理装置。
a first processor that outputs point information that captures an object as a point from an image of the object photographed by a first camera;
a second processor that outputs identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to the first camera;
a third processor that associates the point information output from the first processor with the identification information output from the second processor;
When there are a plurality of pieces of point information, the first processor outputs the piece of point information at a next time point in accordance with a predetermined priority of the identification information associated with the piece of point information.
Information processing device.
前記第1プロセッサは、第1時点において、前記第1カメラにより撮影された前記物体の画像から、前記点情報として前記物体の存在位置を示す点の3次元直交座標系における前記物体の奥行き方向の座標値を導出し、
前記第1プロセッサは、前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、第1時点の次の時点である第2時点における前記奥行き方向の座標値を導出する、
請求項1に記載の情報処理装置。
the first processor derives, from an image of the object captured by the first camera at a first time point, a coordinate value in a depth direction of the object in a three-dimensional orthogonal coordinate system of a point indicating a position of the object as the point information;
When there are a plurality of pieces of point information, the first processor derives a coordinate value in the depth direction at a second time point that is a time point subsequent to the first time point, in accordance with a predetermined priority of the identification information associated with the piece of point information.
The information processing device according to claim 1 .
前記第1プロセッサは、前記優先度について、前記識別情報が示す物体の挙動の有無に応じて、挙動を生じる物体には高い優先度を定め、挙動を生じない物体には前記高い優先度よりも低い優先度を定める、
請求項1に記載の情報処理装置。
the first processor determines, with respect to the priority, a high priority for an object that generates a behavior, and a lower priority for an object that does not generate a behavior, depending on whether or not the object indicates a behavior indicated by the identification information.
The information processing device according to claim 1 .
前記第1プロセッサは、前記優先度について、前記挙動を生じる物体について、当該物体の危険因子に応じたより高い優先度を定める、
請求項3に記載の情報処理装置。
The first processor determines, with respect to the priority, a higher priority for an object that generates the behavior in accordance with a risk factor of the object.
The information processing device according to claim 3 .
前記第1プロセッサは、前記点情報の数が所定数以上の場合に、前記優先度で次の時点の前記点情報を導出する、
請求項1に記載の情報処理装置。
When the number of pieces of point information is equal to or greater than a predetermined number, the first processor derives the piece of point information at a next time point in accordance with the priority.
The information processing device according to claim 1 .
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
出力された前記点情報及び前記識別情報を対応付け、
前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する、
処理をコンピュータが実行する情報処理方法。
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlate the output point information with the identification information;
When the point information is plural, the point information at the next time point is output according to a predetermined priority of the identification information associated with the point information.
An information processing method in which processing is performed by a computer.
コンピュータに、
第1カメラにより撮影された物体の画像から、撮影された前記物体を点として捉えた点情報を出力し、
前記第1カメラと対応する方向を向いた第2カメラにより撮影された前記物体の画像から、撮影された前記物体を識別した識別情報を出力し、
出力された前記点情報及び前記識別情報を対応付け、
前記点情報が複数の場合に、前記点情報に対応付けられた前記識別情報について予め定めた優先度に応じて、次の時点の前記点情報を出力する、
処理を実行させるための情報処理プログラム。
On the computer,
outputting point information representing the object captured as a point from an image of the object captured by the first camera;
outputting identification information that identifies the photographed object from an image of the object photographed by a second camera facing in a direction corresponding to that of the first camera;
Correlate the output point information with the identification information;
When the point information is plural, the point information at the next time point is output according to a predetermined priority of the identification information associated with the point information.
An information processing program for executing processing.
JP2023076253A 2022-10-24 2023-05-02 Information processing device, information processing method, and information processing program Pending JP2024062352A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2023/038227 WO2024090390A1 (en) 2022-10-24 2023-10-23 Information processing device, vehicle, information processing method, and information processing program

Applications Claiming Priority (20)

Application Number Priority Date Filing Date Title
JP2022170165 2022-10-24
JP2022170165 2022-10-24
JP2022172777 2022-10-27
JP2022172777 2022-10-27
JP2022175679 2022-11-01
JP2022175679 2022-11-01
JP2022181362 2022-11-11
JP2022181362 2022-11-11
JP2022182131 2022-11-14
JP2022182131 2022-11-14
JP2022186040 2022-11-21
JP2022186040 2022-11-21
JP2022187648 2022-11-24
JP2022187649 2022-11-24
JP2022187648 2022-11-24
JP2022187649 2022-11-24
JP2022189546 2022-11-28
JP2022189546 2022-11-28
JP2023036967 2023-03-09
JP2023036967 2023-03-09

Publications (1)

Publication Number Publication Date
JP2024062352A true JP2024062352A (en) 2024-05-09

Family

ID=90970450

Family Applications (26)

Application Number Title Priority Date Filing Date
JP2023059411A Pending JP2024062342A (en) 2022-10-24 2023-03-31 Information processing device, information processing method, and information processing program
JP2023066685A Pending JP2024062345A (en) 2022-10-24 2023-04-14 Information processing device, information processing method, and information processing program
JP2023066684A Pending JP2024062344A (en) 2022-10-24 2023-04-14 Information processing device, information processing method, and information processing program
JP2023066683A Pending JP2024062343A (en) 2022-10-24 2023-04-14 Information processing device, information processing method, and information processing program
JP2023068062A Pending JP2024062347A (en) 2022-10-24 2023-04-18 Information processor, method for processing information, and information processing program
JP2023069618A Pending JP2024062348A (en) 2022-10-24 2023-04-20 Information processor
JP2023070394A Pending JP2024062349A (en) 2022-10-24 2023-04-21 Information processor
JP2023075259A Pending JP2024062351A (en) 2022-10-24 2023-04-28 Information processing device, information processing method, and information processing program
JP2023076261A Pending JP2024062353A (en) 2022-10-24 2023-05-02 Information processing device, information processing method, and information processing program
JP2023076253A Pending JP2024062352A (en) 2022-10-24 2023-05-02 Information processing device, information processing method, and information processing program
JP2023076943A Pending JP2024062354A (en) 2022-10-24 2023-05-08 Information processing device, information processing method, and information processing program
JP2023076944A Pending JP2024062355A (en) 2022-10-24 2023-05-08 Information processing device, information processing method, and information processing program
JP2023078139A Pending JP2024062357A (en) 2022-10-24 2023-05-10 Information processing device, information processing method, and information processing program
JP2023078024A Pending JP2024062356A (en) 2022-10-24 2023-05-10 Cooling execution device, cooling execution method, and cooling execution program
JP2023080353A Pending JP2024062358A (en) 2022-10-24 2023-05-15 Information processing device, information processing method, and information processing program
JP2023080410A Pending JP2024062360A (en) 2022-10-24 2023-05-15 Information processing device, information processing method, and information processing program
JP2023080388A Pending JP2024062359A (en) 2022-10-24 2023-05-15 Cooling execution device, cooling execution method, and cooling execution program
JP2023082445A Pending JP2024062361A (en) 2022-10-24 2023-05-18 Information processing device, information processing method, and information processing program
JP2023084121A Pending JP2024062362A (en) 2022-10-24 2023-05-22 Information processing device, information processing method, and information processing program
JP2023084860A Pending JP2024062363A (en) 2022-10-24 2023-05-23 Information processing device, information processing method, and information processing program
JP2023087263A Pending JP2024062365A (en) 2022-10-24 2023-05-26 Information processor, information processing method, and information processing program
JP2023088201A Pending JP2024062366A (en) 2022-10-24 2023-05-29 Information processing device, information processing method, and information processing program
JP2023088202A Pending JP2024062367A (en) 2022-10-24 2023-05-29 Information processing device, information processing method, and information processing program
JP2023090418A Pending JP2024062369A (en) 2022-10-24 2023-05-31 Information processor, information processing method, and information processing program
JP2023093420A Pending JP2024062372A (en) 2022-10-24 2023-06-06 Information processing device, information processing method, and information processing program
JP2023104424A Pending JP2024062374A (en) 2022-10-24 2023-06-26 Information processing device, information processing method, and information processing program

Family Applications Before (9)

Application Number Title Priority Date Filing Date
JP2023059411A Pending JP2024062342A (en) 2022-10-24 2023-03-31 Information processing device, information processing method, and information processing program
JP2023066685A Pending JP2024062345A (en) 2022-10-24 2023-04-14 Information processing device, information processing method, and information processing program
JP2023066684A Pending JP2024062344A (en) 2022-10-24 2023-04-14 Information processing device, information processing method, and information processing program
JP2023066683A Pending JP2024062343A (en) 2022-10-24 2023-04-14 Information processing device, information processing method, and information processing program
JP2023068062A Pending JP2024062347A (en) 2022-10-24 2023-04-18 Information processor, method for processing information, and information processing program
JP2023069618A Pending JP2024062348A (en) 2022-10-24 2023-04-20 Information processor
JP2023070394A Pending JP2024062349A (en) 2022-10-24 2023-04-21 Information processor
JP2023075259A Pending JP2024062351A (en) 2022-10-24 2023-04-28 Information processing device, information processing method, and information processing program
JP2023076261A Pending JP2024062353A (en) 2022-10-24 2023-05-02 Information processing device, information processing method, and information processing program

Family Applications After (16)

Application Number Title Priority Date Filing Date
JP2023076943A Pending JP2024062354A (en) 2022-10-24 2023-05-08 Information processing device, information processing method, and information processing program
JP2023076944A Pending JP2024062355A (en) 2022-10-24 2023-05-08 Information processing device, information processing method, and information processing program
JP2023078139A Pending JP2024062357A (en) 2022-10-24 2023-05-10 Information processing device, information processing method, and information processing program
JP2023078024A Pending JP2024062356A (en) 2022-10-24 2023-05-10 Cooling execution device, cooling execution method, and cooling execution program
JP2023080353A Pending JP2024062358A (en) 2022-10-24 2023-05-15 Information processing device, information processing method, and information processing program
JP2023080410A Pending JP2024062360A (en) 2022-10-24 2023-05-15 Information processing device, information processing method, and information processing program
JP2023080388A Pending JP2024062359A (en) 2022-10-24 2023-05-15 Cooling execution device, cooling execution method, and cooling execution program
JP2023082445A Pending JP2024062361A (en) 2022-10-24 2023-05-18 Information processing device, information processing method, and information processing program
JP2023084121A Pending JP2024062362A (en) 2022-10-24 2023-05-22 Information processing device, information processing method, and information processing program
JP2023084860A Pending JP2024062363A (en) 2022-10-24 2023-05-23 Information processing device, information processing method, and information processing program
JP2023087263A Pending JP2024062365A (en) 2022-10-24 2023-05-26 Information processor, information processing method, and information processing program
JP2023088201A Pending JP2024062366A (en) 2022-10-24 2023-05-29 Information processing device, information processing method, and information processing program
JP2023088202A Pending JP2024062367A (en) 2022-10-24 2023-05-29 Information processing device, information processing method, and information processing program
JP2023090418A Pending JP2024062369A (en) 2022-10-24 2023-05-31 Information processor, information processing method, and information processing program
JP2023093420A Pending JP2024062372A (en) 2022-10-24 2023-06-06 Information processing device, information processing method, and information processing program
JP2023104424A Pending JP2024062374A (en) 2022-10-24 2023-06-26 Information processing device, information processing method, and information processing program

Country Status (1)

Country Link
JP (26) JP2024062342A (en)

Also Published As

Publication number Publication date
JP2024062359A (en) 2024-05-09
JP2024062362A (en) 2024-05-09
JP2024062372A (en) 2024-05-09
JP2024062357A (en) 2024-05-09
JP2024062356A (en) 2024-05-09
JP2024062367A (en) 2024-05-09
JP2024062358A (en) 2024-05-09
JP2024062361A (en) 2024-05-09
JP2024062344A (en) 2024-05-09
JP2024062349A (en) 2024-05-09
JP2024062369A (en) 2024-05-09
JP2024062345A (en) 2024-05-09
JP2024062365A (en) 2024-05-09
JP2024062360A (en) 2024-05-09
JP2024062347A (en) 2024-05-09
JP2024062374A (en) 2024-05-09
JP2024062353A (en) 2024-05-09
JP2024062355A (en) 2024-05-09
JP2024062363A (en) 2024-05-09
JP2024062366A (en) 2024-05-09
JP2024062342A (en) 2024-05-09
JP2024062348A (en) 2024-05-09
JP2024062354A (en) 2024-05-09
JP2024062351A (en) 2024-05-09
JP2024062343A (en) 2024-05-09

Similar Documents

Publication Publication Date Title
JP2024062336A (en) Information processing device, information processing method, and information processing program
WO2024090389A1 (en) Cooling execution device, cooling execution method, cooling execution program, and vehicle
JP2024062352A (en) Information processing device, information processing method, and information processing program
WO2024090328A1 (en) Information processing device, information processing method, and information processing program
WO2024090444A1 (en) Information processing device, vehicle, information processing method, and program
JP2024066382A (en) Information processing device, information processing method, and information processing program
JP2024062325A (en) Information processor, and program
JP2024062318A (en) Information processor and vehicle