JP2024066386A - Information processing device, information processing method, and information processing program - Google Patents
Information processing device, information processing method, and information processing program Download PDFInfo
- Publication number
- JP2024066386A JP2024066386A JP2023004742A JP2023004742A JP2024066386A JP 2024066386 A JP2024066386 A JP 2024066386A JP 2023004742 A JP2023004742 A JP 2023004742A JP 2023004742 A JP2023004742 A JP 2023004742A JP 2024066386 A JP2024066386 A JP 2024066386A
- Authority
- JP
- Japan
- Prior art keywords
- information processing
- image
- frame rate
- objects
- processing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 168
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 230000001133 acceleration Effects 0.000 claims description 53
- 230000008859 change Effects 0.000 claims description 41
- 230000004044 response Effects 0.000 claims description 17
- 239000000284 extract Substances 0.000 abstract description 31
- 238000012545 processing Methods 0.000 abstract description 17
- 210000004556 brain Anatomy 0.000 description 31
- 238000005516 engineering process Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 20
- 230000015654 memory Effects 0.000 description 15
- 238000001514 detection method Methods 0.000 description 12
- 238000000034 method Methods 0.000 description 12
- 230000001360 synchronised effect Effects 0.000 description 12
- 230000007423 decrease Effects 0.000 description 11
- 230000008569 process Effects 0.000 description 8
- 230000005484 gravity Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 241001465754 Metazoa Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- VJFLMYRRJUWADI-UHFFFAOYSA-N (3alpha,16beta)-12-Ursene-3,16-diol Natural products C1CC(O)C(C)(C)C2CCC3(C)C4(C)CC(O)C5(C)CCC(C)C(C)C5C4=CCC3C21C VJFLMYRRJUWADI-UHFFFAOYSA-N 0.000 description 1
- VJFLMYRRJUWADI-DBHRHCOISA-N (3s,4ar,6ar,6bs,8r,8as,11r,12s,12as,14ar,14br)-4,4,6a,6b,8a,11,12,14b-octamethyl-2,3,4a,5,6,7,8,9,10,11,12,12a,14,14a-tetradecahydro-1h-picene-3,8-diol Chemical compound C1C[C@H](O)C(C)(C)[C@@H]2CC[C@@]3(C)[C@]4(C)C[C@@H](O)[C@@]5(C)CC[C@@H](C)[C@H](C)[C@H]5C4=CC[C@@H]3[C@]21C VJFLMYRRJUWADI-DBHRHCOISA-N 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 244000022203 blackseeded proso millet Species 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- ZPUCINDJVBIVPJ-LJISPDSOSA-N cocaine Chemical compound O([C@H]1C[C@@H]2CC[C@@H](N2C)[C@H]1C(=O)OC)C(=O)C1=CC=CC=C1 ZPUCINDJVBIVPJ-LJISPDSOSA-N 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000008014 freezing Effects 0.000 description 1
- 238000007710 freezing Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000491 multivariate analysis Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Studio Devices (AREA)
- Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
- Television Systems (AREA)
Abstract
Description
開示の技術は、移動する物体を検出する情報処理装置、情報処理方法、及び情報処理プログラムに関する。 The disclosed technology relates to an information processing device, an information processing method, and an information processing program that detect moving objects.
特許文献1には、自動運転機能を有する車両について記載されている。 Patent document 1 describes a vehicle with an autonomous driving function.
開示示の技術に係る情報処理装置は、第1のプロセッサを備える。前記第1のプロセッサは、物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する。 The information processing device according to the disclosed technology includes a first processor. The first processor extracts a point indicating the location of an object from an image of the object, and outputs motion information indicating the motion of the point indicating the location of the object along a predetermined coordinate axis at a frame rate of 1000 frames/second or more.
前記第1のプロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力してもよい。前記第1のプロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について前記ベクトル情報を出力してもよい。 The first processor may output, as the motion information, vector information of the motion of the center point or center of gravity of the object along a predetermined coordinate axis. The first processor may output the vector information for at least two diagonal vertices of a rectangle that encloses the contour of the object.
前記画像は、赤外線画像を含んでいてもよい。前記画像は、互いに同期した可視光画像及び赤外線画像を含んでいてもよい。 The images may include infrared images. The images may include visible light images and infrared images that are synchronized with each other.
2つの前記第1のプロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力してもよい。 The two first processors may be used to output, as the motion information, vector information of the movement of a point indicating the location of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
前記第1のプロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力してもよい。 The first processor may derive the distance to the object based on the electromagnetic waves irradiated to the object and reflected from the object, and output, as the movement information, vector information of the movement of a point indicating the location of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
情報処理装置は、前記物体の画像を1000フレーム/秒未満のフレームレートで出力する第2のプロセッサと、前記動き情報と、前記第2のプロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3のプロセッサと、を更に含んでいてもよい。 The information processing device may further include a second processor that outputs images of the object at a frame rate of less than 1000 frames per second, and a third processor that performs response control for the object based on the movement information and the images output from the second processor.
開示の技術に係る情報処理装置は、第1のプロセッサを備える。前記第1のプロセッサは、物体が写る画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。 The information processing device according to the disclosed technology includes a first processor. The first processor extracts a point indicating the location of an object from an image in which the object appears, and outputs the point indicating the location of the object.
前記情報処理装置は、フレームレートを変更することが可能なカメラを備え、前記第1プロセッサは、外部環境に関するスコアを計算し、前記スコアに応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラに対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。 The information processing device includes a camera capable of changing the frame rate, and the first processor calculates a score related to the external environment, determines the frame rate of the camera according to the score, outputs a control signal to the camera instructing the camera to capture an image at the determined frame rate, extracts a point indicating the location of the object from the image captured by the camera, and outputs the point indicating the location of the object.
前記情報処理装置は車両に搭載され、前記第1プロセッサは、前記外部環境に関するスコアとして、前記車両の走行に関する危険度を計算し、前記危険度に応じて、前記カメラのフレームレートを決定し、決定した前記フレームレートにより画像の撮像を指示する制御信号を前記カメラ対して出力し、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。 The information processing device is mounted on a vehicle, and the first processor calculates a degree of danger regarding the traveling of the vehicle as a score regarding the external environment, determines a frame rate of the camera according to the degree of danger, outputs a control signal to the camera instructing the camera to capture an image at the determined frame rate, extracts a point indicating the location of the object from the image captured by the camera, and outputs the point indicating the location of the object.
前記第1プロセッサは、前記画像から物体を抽出し、前記物体の存在位置が所定領域である場合に、前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。 The first processor extracts an object from the image, and if the object is located in a predetermined area, extracts a point indicating the object's location, and outputs the point indicating the object's location.
前記第1プロセッサは、前記画像から物体を抽出し、前記物体毎にスコアを計算し、前記スコアが所定閾値以上の前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する。 The first processor extracts objects from the image, calculates a score for each object, extracts points indicating the location of the object where the score is equal to or greater than a predetermined threshold, and outputs the points indicating the location of the object.
また、開示の技術に係る情報処理装置は、フレームレートを変更することが可能なカメラと、プロセッサと、を備えた情報処理装置であって、前記プロセッサは、前記カメラによって各時刻に撮像された画像に写る物体を検出し、検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、情報処理装置である。 The information processing device according to the disclosed technology is an information processing device that includes a camera capable of changing the frame rate and a processor, and the processor detects objects appearing in images captured by the camera at each time, and controls the camera to change the frame rate according to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects.
前記プロセッサは、前記物体の数の時系列に応じて前記フレームレートを変更する際に、現時刻の画像に写る前記物体の数が、前時刻の画像に写る前記物体の数よりも多い場合に、前記フレームレートを高くするように制御し、現時刻の画像に写る前記物体の数が、前時刻の画像に写る前記物体の数よりも少ない場合に、前記フレームレートを低くするように制御するようにしてもよい。 When changing the frame rate according to the time series of the number of objects, the processor may control the frame rate to be higher when the number of objects in the image at the current time is greater than the number of objects in the image at the previous time, and control the frame rate to be lower when the number of objects in the image at the current time is less than the number of objects in the image at the previous time.
前記プロセッサは、前記物体の加速度の時系列に応じて前記フレームレートを変更する際に、現時刻の画像に写る前記物体の加速度が、前時刻の画像に写る前記物体の加速度よりも大きい場合に、前記フレームレートを高くするように制御し、現時刻の画像に写る前記物体の加速度が、前時刻の画像に写る前記物体の加速度よりも小さい場合に、前記フレームレートを低くするように制御するようにしてもよい。 When changing the frame rate according to the time series of the acceleration of the object, the processor may control the frame rate to be higher if the acceleration of the object in the image at the current time is greater than the acceleration of the object in the image at the previous time, and control the frame rate to be lower if the acceleration of the object in the image at the current time is less than the acceleration of the object in the image at the previous time.
前記プロセッサは、前記物体の大きさの時系列に応じて前記フレームレートを変更する際に、現時刻の画像に写る前記物体の大きさが、前時刻の画像に写る前記物体の大きさよりも大きい場合に、前記フレームレートを高くするように制御し、現時刻の画像に写る前記物体の大きさが、前時刻の画像に写る前記物体の大きさよりも小さい場合に、前記フレームレートを低くするように制御するようにしてもよい。 When changing the frame rate in accordance with the time series of the size of the object, the processor may control the frame rate to be higher when the size of the object in the image at the current time is larger than the size of the object in the image at the previous time, and control the frame rate to be lower when the size of the object in the image at the current time is smaller than the size of the object in the image at the previous time.
前記プロセッサは、前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、外部環境に関するスコアを計算し、前記外部環境に関するスコアに応じて、前記フレームレートを変更するように制御するようにしてもよい。 The processor may calculate a score related to the external environment according to at least one of a time series of the number of the objects, a time series of the acceleration of the objects, and a time series of the size of the objects, and may control the frame rate to be changed according to the score related to the external environment.
前記プロセッサは、前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力するようにしてもよい。 The processor may extract a point indicating the location of the object from an image captured by the camera, and output the point indicating the location of the object.
前記情報処理装置は、2つの前記プロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力するようにしてもよい。 The information processing device may use the two processors to output, as the motion information, vector information of the motion of a point indicating the location of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
開示の技術に係る情報処理方法は、フレームレートを変更することが可能なカメラと、プロセッサと、を備えた情報処理装置が実行する情報処理方法であって、前記プロセッサが、前記カメラによって各時刻に撮像された画像に写る物体を検出し、検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、情報処理方法である。 The information processing method according to the disclosed technology is an information processing method executed by an information processing device including a camera capable of changing the frame rate and a processor, in which the processor detects objects appearing in images captured by the camera at each time, and controls the camera to change the frame rate according to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects.
開示の技術に係る情報処理プログラムは、フレームレートを変更することが可能なカメラと、プロセッサと、を備えた情報処理装置の前記プロセッサに実行させるための情報処理プログラムであって、前記プロセッサが、前記カメラによって各時刻に撮像された画像に写る物体を検出し、検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、情報処理プログラムである。 The information processing program related to the disclosed technology is an information processing program to be executed by a processor of an information processing device including a camera capable of changing the frame rate and a processor, in which the processor detects objects appearing in images captured by the camera at each time, and controls the camera to change the frame rate according to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects.
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。 Note that the above summary of the invention does not list all of the necessary features of the present invention. Also, subcombinations of these features may also be inventions.
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。 The present invention will be described below through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. Furthermore, not all of the combinations of features described in the embodiments are necessarily essential to the solution of the invention.
<第1実施形態>
開示の技術の実施形態に係る情報処理装置は、車両の制御に関連する多くの情報に基づいて、運転制御に必要なインデックス値を高精度に求めるものであってよい。したがって、本開示の情報処理装置は、少なくとも一部が車両に搭載されて、車両の制御を実現するものであってよい。
First Embodiment
The information processing device according to the embodiment of the disclosed technology may be configured to accurately determine an index value required for driving control based on a large amount of information related to vehicle control. Therefore, the information processing device according to the present disclosure may be at least partially mounted on a vehicle to realize vehicle control.
また、開示の技術の実施形態に係る情報処理装置は、Autonomous DrivingをLevel6によるAI/多変量解析/ゴールシーク/戦略立案/最適確率解/最適スピード解/最適コースマネジメント/エッジにおける多種センサ入力により得られたデータを基にリアルタイムで実現でき、デルタ最適解に基づいて調整される走行システムを提供し得る。 In addition, an information processing device according to an embodiment of the disclosed technology can realize Autonomous Driving in real time based on data obtained from Level 6 AI/multivariate analysis/goal seek/strategy planning/optimal probability solution/optimal speed solution/optimal course management/multiple sensor inputs at the edge, and can provide a driving system that is adjusted based on the delta optimal solution.
図1は、Central Brainを搭載した車両の一例を示す概略図である。Central Brainは、図1に示すように、複数のGate Wayが通信可能に接続されていてよい。本実施の形態に係るCentral Brainは、Gate Wayを介して取得した複数の情報に基づいて、LeveL6の自動運転を実現し得るものである。 Figure 1 is a schematic diagram showing an example of a vehicle equipped with a Central Brain. As shown in Figure 1, the Central Brain may be connected to multiple Gate Ways so that they can communicate with each other. The Central Brain of this embodiment can achieve Level L6 autonomous driving based on multiple pieces of information acquired via the Gate Ways.
「Level6」とは、自動運転を表すレベルであり、完全自動運転を表すLevel5よりも更に上のレベルに相当する。Level5は完全自動運転を表すものの、それは人が運転するのと同等のレベルであり、それでも未だ事故等が発生する確率はある。Level6とは、Level5よりも上のレベルを表すものであり、Level5よりも事故が発生する確率が低いレベルに相当する。 "Level 6" is a level that represents autonomous driving, and is equivalent to a level higher than Level 5, which represents fully autonomous driving. Although Level 5 represents fully autonomous driving, it is at the same level as a human driving, and there is still a chance of accidents occurring. Level 6 represents a level higher than Level 5, and is equivalent to a level where the chance of accidents occurring is lower than at Level 5.
Level6における計算力は、Level5の計算力の1000倍程度である。したがって、Level5では実現できなかった高性能な運転制御が実現可能である。 The computing power at Level 6 is about 1000 times that of Level 5. Therefore, it is possible to achieve high-performance operation control that was not possible at Level 5.
図2は、開示の技術の実施形態に係る情報処理装置10の構成の一例を示すブロック図である。情報処理装置10は、IPU(Image Processing Unit)11、MoPU(Motion Processing Unit)12、Central Brain15及びメモリ16を備えている。Central Brain15は、GNPU(Graphics Neural network Processing Unit)13及びCPU(Central Processing Unit)14を含んで構成されている。 FIG. 2 is a block diagram showing an example of the configuration of an information processing device 10 according to an embodiment of the disclosed technology. The information processing device 10 includes an IPU (Image Processing Unit) 11, an MoPU (Motion Processing Unit) 12, a Central Brain 15, and a memory 16. The Central Brain 15 includes a GNPU (Graphics Neural network Processing Unit) 13 and a CPU (Central Processing Unit) 14.
IPU11は、車両に設置された超高解像度カメラ(図示せず)に内蔵され得る。IPU11は、車両の周囲に存在する物体の画像について、ベイヤ―変換、デモザイク、ノイズ除去、シャープ化等の所定の画像処理を行い、処理された物体の画像を、例えば10フレーム/秒のフレームレート且つ1200万画素の解像度で出力する。IPU11から出力された画像は、Central Brain15及びメモリ16に供給される。IPU11は、開示の技術における「第2のプロセッサ」の一例である。 IPU 11 may be built into an ultra-high resolution camera (not shown) installed in the vehicle. IPU 11 performs predetermined image processing such as Bayer transformation, demosaicing, noise removal, and sharpening on images of objects present around the vehicle, and outputs the processed images of the objects at a frame rate of, for example, 10 frames per second and a resolution of 12 million pixels. The images output from IPU 11 are supplied to Central Brain 15 and memory 16. IPU 11 is an example of a "second processor" in the disclosed technology.
MoPU12は、車両に設置された超高解像度カメラとは別のカメラに内蔵され得る。MoPU12は、1000フレーム/秒以上のフレームレートで撮影された物体の画像から、撮影された物体の動きを示す動き情報を、例えば1000フレーム/秒以上のフレームレートで出力する。すなわち、MoPU12の出力のフレームレートは、IPU11の出力のフレームレートの100倍である。MoPU12は、物体の存在位置を示す点の、所定の座標軸に沿った動きのベクトル情報を動き情報として出力する。すなわち、MoPU12から出力される動き情報には、撮影された物体が何であるか(例えば、人なのか、障害物なのか)を識別するために必要な情報は含まれておらず、当該物体の中心点(又は重心点)の座標軸(x軸、y軸、z軸)上の動き(移動方向と移動速度)を示す情報のみが含まれている。MoPU12から出力された情報は、Central Brain15及びメモリ16に供給される。動き情報が画像情報を含まないことで、Central Brain15及びメモリ16に転送される情報量を画期的に抑制することできる。MoPU12は、開示の技術における「第1のプロセッサ」の一例である。 The MoPU 12 may be built into a camera other than the ultra-high resolution camera installed in the vehicle. The MoPU 12 outputs motion information indicating the motion of the captured object from an image of the object captured at a frame rate of 1000 frames/second or more, for example, at a frame rate of 1000 frames/second or more. That is, the frame rate of the output of the MoPU 12 is 100 times the frame rate of the output of the IPU 11. The MoPU 12 outputs motion information, which is vector information of the motion of a point indicating the location of the object along a predetermined coordinate axis. That is, the motion information output from the MoPU 12 does not include information necessary to identify what the captured object is (e.g., whether it is a person or an obstacle), but only includes information indicating the motion (movement direction and movement speed) on the coordinate axes (x-axis, y-axis, z-axis) of the center point (or center of gravity) of the object. The information output from the MoPU 12 is supplied to the Central Brain 15 and the memory 16. Because the motion information does not include image information, the amount of information transferred to the Central Brain 15 and memory 16 can be dramatically reduced. The MoPU 12 is an example of a "first processor" in the disclosed technology.
Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、車両の運転制御を実行する。例えば、Central Brain15は、IPU11から出力された画像に基づいて、車両の周囲に存在する物体(人、動物、道路、信号、標識、横断歩道、障害物、建物など)を認識する。また、Central Brain15は、MoPU12から出力された動き情報に基づいて、車両の周囲に存在する、何であるか認識された物体の動きを認識する。Central Brain15は認識した情報に基づいて、例えば、車輪を駆動するモータの制御(速度制御)、ブレーキ制御、ハンドル制御を行う。Central Brain15において、GNPU13は画像認識に関する処理を担ってもよく、CPU14は、車両制御に関する処理を担ってもよい。Central Brain15は、開示の技術における「第3のプロセッサ」の一例である。 Based on the image output from IPU 11 and the motion information output from MoPU 12, Central Brain 15 executes driving control of the vehicle as a response control to the object. For example, Central Brain 15 recognizes objects (people, animals, roads, traffic lights, signs, crosswalks, obstacles, buildings, etc.) around the vehicle based on the image output from IPU 11. Also, Central Brain 15 recognizes the motion of recognized objects around the vehicle based on the motion information output from MoPU 12. Based on the recognized information, Central Brain 15 performs, for example, control of the motor that drives the wheels (speed control), brake control, and steering control. In Central Brain 15, GNPU 13 may be responsible for processing related to image recognition, and CPU 14 may be responsible for processing related to vehicle control. Central Brain 15 is an example of a "third processor" in the disclosed technology.
一般的に自動運転における画像認識を行うために超高解像度カメラが使用されている。高解像度カメラによって撮影された画像から、当該画像に含まれる物体が何であるかを認識することは可能である。しかしながら、Level6時代の自動運転ではこれだけでは不十分である。Level6時代では、物体の動きをより高精度に認識することも必要である。MoPU12によって物体の動きをより高精度に認識することで、例えば、自動運転によって走行する車両が障害物を回避する回避動作を、より高精度で行うことが可能となる。しかしながら、高解像度カメラでは、1秒間に10フレーム程度しか画像を取得することができず、物体の動きを解析する精度はMoPU12を搭載したカメラに比べると低い。一方、MoPU12を搭載したカメラでは、例えば1000フレーム/秒の高フレームレートでの出力が可能である。 Ultra-high resolution cameras are generally used for image recognition in autonomous driving. It is possible to recognize what objects are included in an image captured by a high resolution camera. However, this alone is insufficient for autonomous driving in the Level 6 era. In the Level 6 era, it is also necessary to recognize the movement of objects with higher accuracy. By recognizing the movement of objects with higher accuracy using the MoPU 12, for example, a vehicle traveling by autonomous driving can perform evasive actions to avoid obstacles with higher accuracy. However, a high resolution camera can only capture images at about 10 frames per second, and the accuracy of analyzing the movement of objects is lower than that of a camera equipped with a MoPU 12. On the other hand, a camera equipped with a MoPU 12 can output at a high frame rate of, for example, 1000 frames per second.
そこで、本開示の技術では、IPU11及びMoPU12の2つの独立したプロセッサを用いる。高解像度カメラ(IPU11)には、捉えた物体が何なのかを認識するために必要な画像情報を取得する役割を与え、MoPU12には、物体の動きを検出する役割を与えている。MoPU12は、物体を点としてとらえ、その点の座標がx軸、y軸、z軸上のどの方向に、どの程度の速度で動くかを解析する。物体の全体の輪郭と、その物体が何なのかの検知は、高解像度カメラからの画像によって行うことが可能であることから、MoPU12によって、例えば、物体の中心点がどのように移動するかさえ分かれば、物体全体がどのような挙動をするかがわかる。 Therefore, the technology disclosed herein uses two independent processors, IPU11 and MoPU12. The high-resolution camera (IPU11) is given the role of acquiring the image information necessary to recognize what the captured object is, and MoPU12 is given the role of detecting the movement of the object. MoPU12 captures the object as a point, and analyzes in which direction the coordinates of that point move on the x-axis, y-axis, and z-axis, and at what speed. Since it is possible to detect the overall contour of an object and what the object is using images from the high-resolution camera, it is possible to determine how the entire object will behave by simply knowing, for example, how the center point of the object moves using MoPU12.
物体の中心点の移動と速度のみを解析する手法によれば、物体の画像全体がどのように動くかを判断することに比べて、Central Brain15に転送する情報量を大幅に抑制し、Central Brain15における計算量を大幅に低減することが可能である。例えば、1000ピクセル×1000ピクセルの画像を、1000フレーム/秒のフレームレートでCentral Brain15に送信する場合、色情報を含めると、40億ビット/秒のデータをCentral Brain15に送信することになる。MoPU12が、物体の中心点の動きを示す動き情報のみを送信することで、Central Brain15に転送されるデータの量を2万ビット/秒に圧縮することができる。すなわち、Central Brain15に転送されるデータの量が20万分の1に圧縮される。 A method of analyzing only the movement and speed of the center point of an object makes it possible to significantly reduce the amount of information transferred to the Central Brain 15 and the amount of calculations in the Central Brain 15, compared to determining how the entire image of the object moves. For example, when an image of 1000 pixels x 1000 pixels is transmitted to the Central Brain 15 at a frame rate of 1000 frames per second, including color information, 4 billion bits per second of data will be transmitted to the Central Brain 15. By having the MoPU 12 transmit only the motion information indicating the movement of the center point of the object, the amount of data transmitted to the Central Brain 15 can be compressed to 20,000 bits per second. In other words, the amount of data transmitted to the Central Brain 15 is compressed to 1/200,000.
このように、IPU11から出力される低フレームレート且つ高解像度の画像と、MoPU12から出力される高フレームレート且つ軽量の動き情報を組み合わせて用いることで、物体の動きを含む物体認識を、少ないデータ量で実現することが可能となる。 In this way, by combining the low frame rate, high resolution images output from IPU11 with the high frame rate, lightweight motion information output from MoPU12, it is possible to realize object recognition, including object motion, with a small amount of data.
なお、1つのMoPU12を用いた場合には、物体の存在位置を示す点の、三次元直交座標系における2つの座標軸(x軸及びy軸)の各々に沿った動きのベクトル情報を取得することが可能である。ステレオカメラの原理を利用して、2つのMoPU12を用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を出力してもよい。z軸は、奥行方法(車両の走行)に沿った軸である。 When one MoPU 12 is used, it is possible to obtain vector information of the movement of a point indicating the location of an object along each of two coordinate axes (x-axis and y-axis) in a three-dimensional orthogonal coordinate system. Using the principle of a stereo camera, two MoPUs 12 may be used to output vector information of the movement of a point indicating the location of an object along each of three coordinate axes (x-axis, y-axis, z-axis) in a three-dimensional orthogonal coordinate system. The z-axis is the axis along the depth direction (vehicle travel).
また、図3に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、MoPU12のコア12Aに入力してもよい。これらの画像は、それぞれ、例えば1000ピクセル×1000ピクセルの色情報を含む画像であり、1000フレーム/秒のフレームレートでコア12Aに入力されてもよい。MoPU12のコア12Aは、これらの画像に基づいて、三次元直交座標系における3つの座標軸(x軸、y軸、z軸)の各々に沿った動きのベクトル情報を1000フレーム/秒のフレームレートでCentral Brain15に転送してもよい。また、図4に示すように、車両の左側に取り付けられたカメラからの画像及び車両の右側に取り付けられたカメラからの画像を、それぞれ、別々のコア12A1及び12A2を用いて処理してもよい。 Also, as shown in FIG. 3, an image from a camera mounted on the left side of the vehicle and an image from a camera mounted on the right side of the vehicle may be input to the core 12A of the MoPU 12. Each of these images may be, for example, an image including color information of 1000 pixels by 1000 pixels, and may be input to the core 12A at a frame rate of 1000 frames/second. Based on these images, the core 12A of the MoPU 12 may transfer motion vector information along each of the three coordinate axes (x-axis, y-axis, z-axis) in a three-dimensional orthogonal coordinate system to the Central Brain 15 at a frame rate of 1000 frames/second. Also, as shown in FIG. 4, an image from a camera mounted on the left side of the vehicle and an image from a camera mounted on the right side of the vehicle may be processed using separate cores 12A 1 and 12A 2 , respectively.
また、以上の説明では、MoPU12が、物体の中心点の動きを示す動き情報を出力する形態を例示した。しかしながら、開示の技術はこの態様に限定されない。MoPU12は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点について動き情報を出力してもよい。図5には、MoPU12が、画像に含まれる4つの物体のそれぞれについて、当該物体の輪郭を囲むバウンディングボックス21、22、23、24を設定し、バウンディングボックス21、22、23、24の頂点の対角となる2つの座標点について動き情報を出力する態様が例示されている。このように、MoPU12は物体を点としてではなく、一定の大きさを持つオブジェクトとして捉えてもよい。一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。
In the above description, the MoPU 12 outputs motion information indicating the motion of the center point of the object. However, the disclosed technology is not limited to this mode. The MoPU 12 may output motion information for at least two coordinate points that are diagonal to the vertices of a rectangle that surrounds the contour of the object recognized from the image captured by the camera. FIG. 5 illustrates a mode in which the MoPU 12
また、図6に示すように、MoPU12は、可視光画像及び赤外線画像の少なくとも一方に基づいて動き情報を出力してもよい。可視光画像は可視光カメラによって撮影された画像であり、赤外線画像は赤外線カメラによって撮影された画像である。可視光画像及び赤外線画像は、それぞれ、1000フレーム/秒以上のフレームレートでコア12Aに入力される。可視光画像及び赤外線画像は、互いに同期していることが好ましい。MoPU12による物体検出において赤外線画像を用いることで、例えば夜間等の可視光画像による物体検出が困難である場合でも物体検出が可能となる。MoPU12は、可視光画像及び赤外線画像うち、赤外線画像のみに基づいて動き情報を出力してもよいし、可視光画像及び赤外線画像の双方に基づいて動き情報を出力してもよい。 As shown in FIG. 6, MoPU 12 may output motion information based on at least one of a visible light image and an infrared image. The visible light image is an image captured by a visible light camera, and the infrared image is an image captured by an infrared camera. The visible light image and the infrared image are each input to core 12A at a frame rate of 1000 frames/second or more. It is preferable that the visible light image and the infrared image are synchronized with each other. By using an infrared image in object detection by MoPU 12, object detection becomes possible even when object detection using a visible light image is difficult, such as at night. MoPU 12 may output motion information based only on the infrared image out of the visible light image and the infrared image, or may output motion information based on both the visible light image and the infrared image.
また、図7に示すように、MoPU12は、画像及びレーダー信号に基づいて動き情報を出力してもよい。レーダー信号は、物体に照射された電磁波の当該物体からの反射波に基づく信号である。MoPU12は、画像及びレーダー信号に基づいて、物体までの距離を導出し、当該物体の存在位置を示す点の、三次元直交座標系における3つの軸の各々に沿った動きのベクトル情報を動き情報として出力してもよい。画像は、可視光画像及び赤外線画像の少なくとも1つを含むものであってもよい。画像及びレーダー信号は、1000フレーム/秒以上のフレームレートでコア12Aに入力される。 As shown in FIG. 7, MoPU 12 may output motion information based on an image and a radar signal. The radar signal is a signal based on electromagnetic waves irradiated to an object and reflected from the object. MoPU 12 may derive the distance to the object based on the image and the radar signal, and output motion vector information of a point indicating the location of the object along each of three axes in a three-dimensional orthogonal coordinate system as motion information. The image may include at least one of a visible light image and an infrared image. The image and radar signal are input to core 12A at a frame rate of 1000 frames/second or more.
また、以上の説明では、Central Brain15が、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて車両の運転制御を実行する場合を例示したが、開示の技術は、この態様に限定されるものではない。Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、当該物体に対する応答制御として、ロボットの動作制御を行ってもよい。ロボットは例えば、人間の代わりに作業を行う人型のスマートロボットであってもよい。例えば、Central Brain15は、IPU11から出力された画像及びMoPU12から出力された動き情報に基づいて、ロボットの腕、手のひら、指、足の動作制御を行って、当該物体を握る、掴む、抱える、背負う、移動させる、運ぶ、投げる、蹴る、避ける等の動作制御を行ってもよい。IPU11及びMoPU12は、例えば、ロボットの右目及び左目の位置に搭載されてもよい。つまり右目には右目用のIPU11及びMoPU12を搭載し、左目には左目用のIPU11及びMoPU12を搭載してもよい。 In the above description, the Central Brain 15 performs vehicle driving control based on the image output from the IPU 11 and the motion information output from the MoPU 12, but the disclosed technology is not limited to this aspect. The Central Brain 15 may perform motion control of the robot as response control to the object based on the image output from the IPU 11 and the motion information output from the MoPU 12. The robot may be, for example, a humanoid smart robot that performs work in place of a human. For example, the Central Brain 15 may perform motion control of the robot's arms, palms, fingers, and feet based on the image output from the IPU 11 and the motion information output from the MoPU 12 to grasp, grab, hold, carry, move, carry, throw, kick, avoid, and the like of the object. The IPU 11 and the MoPU 12 may be mounted, for example, at the positions of the right and left eyes of the robot. In other words, the right eye may be equipped with an IPU11 and MoPU12 for the right eye, and the left eye may be equipped with an IPU11 and MoPU12 for the left eye.
<第2実施形態>
次に、第2実施形態について説明する。第2実施形態は、画像を撮像する際のフレームレートが可変である点等が第1実施形態と異なる。
Second Embodiment
Next, a second embodiment will be described. The second embodiment differs from the first embodiment in that the frame rate at which an image is captured is variable.
(車両に搭載される情報処理装置:Smart Car)
図8は、車両に搭載される、第2実施形態に係る情報処理装置210のブロック図である。図8に示されているように、車両に搭載される情報処理装置210は、左側の目に相当するMoPU12MLと、右側の目に相当するMoPU12MRと、IPU11と、コア12Xと、Central Brain15とを備えている。
(Information processing device installed in vehicle: Smart Car)
8 is a block diagram of an information processing device 210 according to the second embodiment, which is mounted on a vehicle. As shown in FIG. 8, the information processing device 210 mounted on the vehicle includes a MoPU 12ML corresponding to the left eye, a MoPU 12MR corresponding to the right eye, an IPU 11, a core 12X, and a Central Brain 15.
MoPU12MLは、カメラ30Lと、レーダー32Lと、赤外線カメラ34Lとを備えている。また、MoPU12MRは、カメラ30Rと、レーダー32Rと、赤外線カメラ34Rとを備えている。レーダー32L,32Rは、上述したレーダー信号を検知する。赤外線カメラ34L,34Rは、上述した赤外線画像を取得する。 The MoPU 12ML is equipped with a camera 30L, a radar 32L, and an infrared camera 34L. The MoPU 12MR is equipped with a camera 30R, a radar 32R, and an infrared camera 34R. The radars 32L and 32R detect the above-mentioned radar signal. The infrared cameras 34L and 34R acquire the above-mentioned infrared images.
IPU11は、上述したような高解像度カメラ(図示省略)を備えており、高解像度カメラによって撮像された高解像度画像から物体を検知し、物体の種別を表す情報(以下、単に「ラベル情報」と称する。)を出力する。 The IPU 11 is equipped with a high-resolution camera (not shown) as described above, detects objects from high-resolution images captured by the high-resolution camera, and outputs information indicating the type of object (hereinafter simply referred to as "label information").
なお、以下では、左側の目に相当するMoPU12MLの処理についてのみ説明する。 Note that below, we will only explain the processing of MoPU12ML, which corresponds to the left eye.
MoPU12MLが備えるカメラ30Lは、IPU11が備える高解像度カメラ(例えば、10フレーム/秒で撮像)よりも高いフレーム数(120,240,480,960,又は1920フレーム/秒)で画像を撮像する。カメラ30Lは、フレームレートを変更することが可能なカメラである。 The camera 30L of the MoPU12ML captures images at a higher frame rate (120, 240, 480, 960, or 1920 frames/sec) than the high-resolution camera of the IPU11 (for example, capturing images at 10 frames/sec). The camera 30L is a camera that can change the frame rate.
MoPU12MLのコア12L(例えば、1つ以上のCPUにより構成される)は、30Lが撮像した1フレームの画像毎に特徴点を抽出し、その座標値(X,Y)を出力する。MoPU12MLは、例えば、画像から抽出した物体の中心点(重心点)を特徴点として出力する。なお、特徴点は、物体を疑似的に囲む矩形の対角頂点2点であってもよい。また一定の大きさを持つオブジェとして捉える場合は、カメラによって撮影された画像から認識した物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つの座標点だけである必要はなく、輪郭を含む複数の座標点を抽出しても良い。 Core 12L of MoPU12ML (e.g., composed of one or more CPUs) extracts feature points for each frame of image captured by 30L and outputs their coordinate values (X, Y). MoPU12ML outputs, for example, the center point (center of gravity) of the object extracted from the image as the feature point. Note that the feature points may be two diagonal vertices of a rectangle that virtually surrounds the object. Furthermore, when capturing an object as an object of a certain size, it is not necessary to extract only at least two diagonal coordinate points of the vertices of a rectangle that surrounds the contour of the object recognized from the image captured by the camera, and multiple coordinate points including the contour may be extracted.
具体的には、MoPU12MLは、1つの物体から抽出された特徴点の座標値(X,Y)を出力する。なお、例えば、複数の物体(例えば、物体A、物体B、及び物体C等)が1つの画像に写っている場合には、MoPU12MLは、それら複数の物体の各々から抽出された特徴点の座標値(Xn,Yn)を出力するようにしてもよい。各時刻に撮像された画像の特徴点の系列は、物体の動き情報に相当する。 Specifically, MoPU12ML outputs the coordinate values (X, Y) of a feature point extracted from one object. Note that, for example, when multiple objects (e.g., object A, object B, and object C, etc.) appear in one image, MoPU12ML may output the coordinate values (Xn, Yn) of the feature points extracted from each of the multiple objects. The series of feature points in the images captured at each time corresponds to object movement information.
また、例えば、暗闇の影響によって、MoPU12MLが物体を識別できない場合が想定される。この場合には、MoPU12MLは、赤外線カメラ34Lを用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力するようにしてもよい。また、カメラ30Lによる画像の撮像と赤外線カメラ34Lによる赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。 It is also possible that, for example, darkness may prevent MoPU 12ML from identifying an object. In this case, MoPU 12ML may use infrared camera 34L to detect the heat of the object, and output the coordinates (Xn, Yn) of the object based on the infrared image resulting from the detection and the image captured by camera 30L. Also, the capture of the image by camera 30L may be synchronized with the capture of the infrared image by infrared camera 34L. In this case, for example, the number of images captured per second by camera 30L is synchronized with the number of images captured per second by infrared camera 34L (e.g., 1920 frames/second).
また、MoPU12MLは、レーダー32Lによって取得された3次元点群データに基づいて、物体のZ軸の座標値を取得してもよい。なお、この場合には、カメラ30Lによる画像の撮像とレーダー32Lによる3次元点群データの取得とを同期させるようにしてもよい。例えば、レーダー32Lによって取得される1秒当たりの3次元点群データの数と、カメラ30Lによって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。 MoPU12ML may also acquire the Z-axis coordinate value of the object based on the three-dimensional point cloud data acquired by radar 32L. In this case, the capturing of images by camera 30L and the acquisition of three-dimensional point cloud data by radar 32L may be synchronized. For example, the number of three-dimensional point cloud data acquired per second by radar 32L is synchronized with the number of images captured per second by camera 30L (e.g., 1920 frames/second).
また、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34Lによって撮像される1秒当たりの画像数と、レーダー32Lによって取得される1秒当たりの3次元点群データの数とを同一にし、データ取得のタイミングを同期させるようにしてもよい。 In addition, the number of images taken per second by the camera 30L, the number of images taken per second by the infrared camera 34L, and the number of 3D point cloud data acquired per second by the radar 32L may be set to be the same, and the timing of data acquisition may be synchronized.
コア12Xは、MoPU12MLから出力された特徴点の座標と、IPU11から出力された対象物のラベル情報(物体が犬なのか、猫なのか、又はクマなのかを表す情報)とを取得する。そして、コア12Xは、ラベル情報と特徴点に対応する座標とを対応付けて出力する。これにより、特徴点が表す物体が何を表しているのかという情報と、特徴点が表す物体の動き情報とを対応付けることが可能になる。 Core 12X acquires the coordinates of the feature points output from MoPU 12ML and the label information of the object (information indicating whether the object is a dog, a cat, or a bear) output from IPU 11. Core 12X then outputs the label information in association with the coordinates corresponding to the feature points. This makes it possible to associate information about what the object represented by the feature points represents with movement information of the object represented by the feature points.
以上が左側の目に相当するMoPU12MLの処理である。右側の目に相当するMoPU12MRは、左側の目に相当するMoPU12MLと同様の処理を実行する。 The above is the processing of MoPU12ML, which corresponds to the left eye. MoPU12MR, which corresponds to the right eye, performs the same processing as MoPU12ML, which corresponds to the left eye.
なお、MoPU12MLのカメラ30Lによって撮像された画像と、MoPU12MRの30Rによって撮像された画像とに基づいて、ステレオカメラの原理を利用して、特徴点の奥行き方向の座標値Znを更に算出してもよい。 In addition, the depth coordinate value Zn of the feature point may be further calculated using the principle of a stereo camera based on the image captured by the camera 30L of the MoPU12ML and the image captured by the camera 30R of the MoPU12MR.
(ロボットに搭載される情報処理装置:Smart Robot)
図9は、ロボットに搭載される、第2実施形態に係る情報処理装置310のブロック図である。図9に示されているように、ロボットに搭載される情報処理装置310は、左側の目に相当するMoPU12MLと、右側の目に相当するMoPU12MRと、赤外線カメラ34と、ストラクチャードライト36と、コア12Xと、Central Brain15とを備えている。ロボットに搭載される情報処理装置310は、車両に搭載される情報処理装置210と同様の機能を有している。
(Information processing device installed in a robot: Smart Robot)
Fig. 9 is a block diagram of an information processing device 310 according to the second embodiment, which is mounted on a robot. As shown in Fig. 9, the information processing device 310 mounted on the robot includes a MoPU 12ML corresponding to a left eye, a MoPU 12MR corresponding to a right eye, an infrared camera 34, a structured light 36, a core 12X, and a central brain 15. The information processing device 310 mounted on the robot has the same functions as the information processing device 210 mounted on the vehicle.
例えば、暗闇の影響によって、MoPU12MLが物体を識別できない場合には、MoPU12MLは、赤外線カメラ34を用いて物体の熱を検知し、その検知結果である赤外線画像と、カメラ30Lによって撮像された画像とに基づいて、物体の座標(Xn,Yn)を出力する。また、カメラ30Lによる画像の撮像と赤外線カメラ34による赤外線画像の撮像とを同期させるようにしてもよい。この場合には、例えば、カメラ30Lによって撮像される1秒当たりの画像数と、赤外線カメラ34によって撮像される1秒当たりの画像数とを同期させる(例えば、1920フレーム/秒)。 For example, if the MoPU 12ML cannot identify an object due to the effects of darkness, the MoPU 12ML detects the heat of the object using the infrared camera 34, and outputs the coordinates (Xn, Yn) of the object based on the infrared image that is the detection result and the image captured by the camera 30L. Also, the capture of the image by the camera 30L and the capture of the infrared image by the infrared camera 34 may be synchronized. In this case, for example, the number of images captured per second by the camera 30L and the number of images captured per second by the infrared camera 34 are synchronized (e.g., 1920 frames/second).
また、コア12Xは、物体の奥行き方向の座標Znを取得するために、ストラクチャードライト36を使用してもよい。ストラクチャードライト36は、例えば、参考文献(http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf)に開示されている。この場合には、カメラ30L,30Rによる画像の撮像とストラクチャードライト36による3次元データとの計測とを同期させるようにしてもよい。例えば、カメラ30L,30Rによって撮像される1秒当たりの画像数と、ストラクチャードライト36によって計測される1秒当たりの3次元データとを同期させるようにしてもよい(例えば、1920フレーム/秒)。 The core 12X may also use structured light 36 to obtain the depth coordinate Zn of the object. The structured light 36 is disclosed, for example, in the reference document (http://ex-press.jp/wp-content/uploads/2018/10/018_teledyne_3rd.pdf). In this case, the capturing of images by the cameras 30L and 30R and the measurement of three-dimensional data by the structured light 36 may be synchronized. For example, the number of images captured per second by the cameras 30L and 30R may be synchronized with the number of three-dimensional data measured per second by the structured light 36 (for example, 1920 frames/second).
更に、赤外線カメラ34によって撮像された赤外線画像とストラクチャードライト36によって計測された3次元データとの両方を併用してもよい。 Furthermore, both the infrared images captured by the infrared camera 34 and the three-dimensional data measured by the structured light 36 may be used in combination.
(外部環境に応じたフレームレートの変更)
情報処理装置210,310は、外部環境に応じてカメラのフレームレートを変更するようにしてもよい。例えば、情報処理装置210,310は、外部環境に関するスコアを計算し、スコアに応じて、カメラ30L,30Rのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力する。カメラ30L,30Rは、決定されたフレームレートで画像を撮像する。そして、情報処理装置210,310は、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。
(Change frame rate according to external environment)
The information processing devices 210 and 310 may change the frame rate of the camera depending on the external environment. For example, the information processing devices 210 and 310 calculate a score related to the external environment, and determine the frame rate of the cameras 30L and 30R depending on the score. Then, the information processing devices 210 and 310 output a control signal to the cameras 30L and 30R to instruct them to capture an image at the determined frame rate. The cameras 30L and 30R capture images at the determined frame rate. Then, the information processing devices 210 and 310 extract points indicating the location of an object from the images captured by the cameras 30L and 30R, and output the points indicating the location of the object.
なお、車両に搭載される情報処理装置210は、図示しない複数種類のセンサを備えている。車両に搭載される情報処理装置210が備える1つ以上のプロセッサは、複数種類のセンサ(図示省略)から取り入れられたセンサ情報(例えば、体重の重心移動、道路の材質の検知、外気温度の検知、外気湿度の検知、坂道の上下横斜め傾き角度の検知、道路の凍り方、水分量の検知、それぞれのタイヤの材質、摩耗状況、空気圧の検知、道路幅、追い越し禁止有無、対向車、前後車両の車種情報、それらの車のクルージング状態、又は周囲の状況(鳥、動物、サッカーボール、事故車、地震、家事、風、台風、大雨、小雨、吹雪、霧、など)等)に基づいて、外部環境に関するスコアとして、自車両が今後どの程度の危険な場所を走行するかの危険度を計算する。 The information processing device 210 mounted on the vehicle is equipped with multiple types of sensors (not shown). One or more processors equipped in the information processing device 210 mounted on the vehicle calculate the degree of danger of the vehicle traveling in a dangerous place in the future as a score regarding the external environment based on sensor information (e.g., weight center of gravity shift, detection of road material, detection of outside air temperature, detection of outside air humidity, detection of up, down, side, diagonal inclination angle of a slope, road freezing condition, detection of moisture content, material of each tire, wear condition, detection of air pressure, road width, presence or absence of overtaking prohibition, oncoming vehicles, vehicle type information of front and rear vehicles, cruising state of those vehicles, or surrounding conditions (birds, animals, soccer balls, wrecked vehicles, earthquakes, housework, wind, typhoon, heavy rain, light rain, blizzard, fog, etc.) etc.) acquired from multiple types of sensors (not shown).
そして、情報処理装置210が備える1つ以上のプロセッサは、計算した危険度と閾値とに基づいて、1秒当たりに撮像される画像数(フレームレート)を切り替える。危険度は、例えば、0~1.0の間の値である。この場合、例えば、閾値として、第1閾値、第2閾値、第3閾値、及び第4閾値が予め設定される。例えば、第1閾値=0.2、第2閾値=0.4、第3閾値=0.6、及び第4閾値=0.8と設定され得る。 Then, one or more processors included in the information processing device 210 switch the number of images captured per second (frame rate) based on the calculated risk level and a threshold value. The risk level is, for example, a value between 0 and 1.0. In this case, for example, a first threshold, a second threshold, a third threshold, and a fourth threshold are set in advance as threshold values. For example, the first threshold value may be set to 0.2, the second threshold value to 0.4, the third threshold value to 0.6, and the fourth threshold value to 0.8.
例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値より低い場合は、120フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。 For example, when the risk level is lower than the first threshold, one or more processors provided in the information processing device 210 select 120 frames per second and output control signals to the cameras 30L, 30R, the radars 32L, 32R, and the infrared cameras 34L, 34R to capture images, acquire radar signals, or capture infrared images at that frame rate.
また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値以上であり、かつ第4閾値より低い場合は、240,480,960フレーム/秒の何れかを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第1閾値以上であり、かつ第2閾値より低い場合は、240フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置210が備える1つ以上のプロセッサは、危険度が第2閾値以上であり、かつ第3閾値より低い場合は、480フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置210が備える1つ以上のプロセッサは、危険度が第3閾値以上であり、かつ第4閾値より低い場合は、960フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、例えば、情報処理装置210が備える1つ以上のプロセッサは、危険度が第4閾値以上である場合は、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。 Also, for example, when the risk level is equal to or higher than the first threshold and lower than the fourth threshold, one or more processors included in the information processing device 210 select one of 240, 480, or 960 frames/second, and output a control signal to each device to acquire various data at that frame rate. For example, when the risk level is equal to or higher than the first threshold and lower than the second threshold, one or more processors included in the information processing device 210 select a frame rate of 240 frames/second, and output a control signal to each device to acquire various data at that frame rate. Also, when the risk level is equal to or higher than the second threshold and lower than the third threshold, one or more processors included in the information processing device 210 select a frame rate of 480 frames/second, and output a control signal to each device to acquire various data at that frame rate. Also, when the risk level is equal to or higher than the third threshold and lower than the fourth threshold, one or more processors included in the information processing device 210 select a frame rate of 960 frames/second, and output a control signal to each device to acquire various data at that frame rate. Also, for example, when the risk level is equal to or higher than the fourth threshold, one or more processors included in the information processing device 210 select 1920 frames/second and output a control signal to each device to acquire various types of data at that frame rate.
また、情報処理装置210が備える1つ以上のプロセッサは、危険度を予測する情報としてロングテールインシデントAI(Artificial Intelligence) DATA(例えば、レベル5の自動運転制御方式が実装された車両のTripデータ)又は地図情報等、車両が走行する前から既知である走行に関するビッグデータを利用し、危険度を予測するようにしてもよい。 In addition, one or more processors included in the information processing device 210 may use big data related to driving that is known before the vehicle starts driving, such as long-tail incident AI (Artificial Intelligence) DATA (e.g., trip data of a vehicle equipped with a level 5 autonomous driving control system) or map information, as information for predicting the level of danger, to predict the level of danger.
また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、例えば、カメラ30L,30Rに写る物体の速度等に基づいて、外部環境に関するスコアを計算し、そのスコアに応じてフレームレートを変更するようにしてもよい。例えば、外部環境に関するスコアは、物体の速度が速いほど大きくなるように計算される。このため、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが大きい場合には、1920フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、ロボットに搭載される情報処理装置310が備える1つ以上のプロセッサは、外部環境に関するスコアが小さい場合には、120フレーム/秒を選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。その他の制御は、上記の車両に搭載される情報処理装置210と同様である。 The one or more processors of the information processing device 310 mounted on the robot may calculate a score related to the external environment based on, for example, the speed of an object captured by the cameras 30L and 30R, and change the frame rate according to the score. For example, the score related to the external environment is calculated to be larger as the speed of the object increases. For this reason, when the score related to the external environment is large, the one or more processors of the information processing device 310 mounted on the robot select 1920 frames/second, and output control signals to each device to acquire various data at that frame rate. When the score related to the external environment is small, the one or more processors of the information processing device 310 mounted on the robot select 120 frames/second, and output control signals to each device to acquire various data at that frame rate. Other controls are the same as those of the information processing device 210 mounted on the vehicle described above.
(物体が検出された領域に応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体の存在位置が所定領域である場合に、物体の存在位置を示す点をするようにしてもよい。この場合、情報処理装置210,310は、物体が検出された領域に応じてその物体の特徴点を出力するか否かを判定する。例えば、車両に搭載される情報処理装置210のコア12L,12Rは、車両が走行する道路領域において検出された物体とは異なる物体(例えば、歩道上に存在している物体)からは特徴点を抽出しないようにする。図10に、例えば、歩道上に存在している物体からは特徴点を抽出しない場合の処理を説明するための図を示す。
(Output of feature points according to the area where the object is detected)
The information processing device 210, 310 may output a point indicating the location of an object when the location of the object in the image is a predetermined area. In this case, the information processing device 210, 310 determines whether or not to output feature points of the object depending on the area in which the object is detected. For example, the core 12L, 12R of the information processing device 210 mounted on the vehicle does not extract feature points from objects (e.g., objects existing on the sidewalk) different from the object detected in the road area on which the vehicle runs. FIG. 10 shows a diagram for explaining the process in the case where feature points are not extracted from objects existing on the sidewalk, for example.
図10(A)では、物体B1~B4が抽出されている。本来であれば、物体B1~B4の各々について特徴点を表す座標が抽出される。 In FIG. 10(A), objects B1 to B4 are extracted. Normally, coordinates representing feature points for each of objects B1 to B4 would be extracted.
この場合、例えば、図10(B)に示されているように、車両に搭載される情報処理装置210が備えるコア12L,12Rは、既知の技術を用いて、車両前方の画像から道路境界Lを逐次検出する。そして、情報処理装置210が備えるコア12L,12Rは、道路境界Lによって特定される道路上に位置する物体B1~B3からのみ特徴点を表す座標を抽出する。 In this case, for example, as shown in FIG. 10(B), the cores 12L, 12R included in the information processing device 210 mounted on the vehicle sequentially detect road boundaries L from an image in front of the vehicle using known technology. Then, the cores 12L, 12R included in the information processing device 210 extract coordinates representing feature points only from objects B1 to B3 located on the road identified by the road boundaries L.
また、例えば、情報処理装置210が備えるコア12L,12Rは、道路上に位置する物体B1~B3とは異なる物体B4についてはその物体領域自体を抽出せずに、物体B1~B3からのみ特徴点を表す座標を抽出するようにしてもよい。 In addition, for example, the cores 12L and 12R provided in the information processing device 210 may extract coordinates representing feature points only from the objects B1 to B3, without extracting the object area itself for the object B4 that is different from the objects B1 to B3 located on the road.
(物体の動きに応じた特徴点の出力)
情報処理装置210,310は、画像に写る物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出するようにしてもよい。この場合、例えば、情報処理装置210,310は、物体の動きに応じてその物体の特徴点を出力するか否かを判定するようにしてもよい。例えば、情報処理装置210のコア12L,12Rは、車両の走行に影響の無い物体からは特徴点を抽出しないようにしてもよい。具体的には、情報処理装置210のコア12L,12Rは、AIを利用することなどにより、画像に写る物体の移動方向又は速さ等を計算する。そして、例えば、情報処理装置210のコア12L,12Rは、道路から遠ざかっていく歩行者等からは特徴点を抽出しない。一方、情報処理装置210のコア12L,12Rは、道路に近づく物体(例えば、道路に飛び出しそうな子供)からは特徴点を抽出する。
(Output of feature points according to object movement)
The information processing device 210, 310 may calculate a score for each object appearing in the image, and extract a point indicating the location of the object whose score is equal to or greater than a predetermined threshold. In this case, for example, the information processing device 210, 310 may determine whether or not to output feature points of the object according to the movement of the object. For example, the cores 12L, 12R of the information processing device 210 may not extract feature points from objects that do not affect the running of the vehicle. Specifically, the cores 12L, 12R of the information processing device 210 calculate the moving direction or speed of the object appearing in the image by using AI, for example. And, for example, the cores 12L, 12R of the information processing device 210 do not extract feature points from pedestrians moving away from the road. On the other hand, the cores 12L, 12R of the information processing device 210 extract feature points from objects approaching the road (for example, a child about to run out onto the road).
また、情報処理装置210が備える1つ以上のプロセッサは、例えば、イベントカメラ(https://dendenblog.xyz/event-based-camera/)によって撮像された画像からも特徴点を抽出することが可能である。図11に、イベントカメラによって撮像された画像を説明するための図を示す。 The one or more processors included in the information processing device 210 can also extract feature points from images captured by, for example, an event camera (https://dendenblog.xyz/event-based-camera/). Figure 11 shows a diagram for explaining an image captured by an event camera.
図11に示されているように、イベントカメラによって撮像された画像は、現時刻に撮像された画像と前時刻に撮像された画像との差異部分が点として抽出される。このため、イベントカメラを利用した場合には、例えば、図11(B)に示されるように、図11(A)に示される人物領域のうちの移動している各箇所の点が抽出されてしまう。 As shown in FIG. 11, in an image captured by an event camera, the difference between the image captured at the current time and the image captured at the previous time is extracted as points. For this reason, when an event camera is used, for example, points of each moving part of the person area shown in FIG. 11(A) are extracted, as shown in FIG. 11(B).
これに対し、情報処理装置210が備える1つ以上のプロセッサは、図11(C)に示されるように、物体である人物を抽出した後に、人物領域を表す特徴点の座標(例えば、1点のみ)を抽出する。これにより、Central Brain15及びメモリ16に転送される情報量を抑制させることできる。イベントカメラによって撮像された画像は、物体である人物を任意のフレームレートで抽出できるため、MoPU12ML,12MRに搭載されるカメラ30L,30Rは、最大1920フレーム/秒のフレームレートで画像を撮像するが、イベントカメラの場合は1920フレーム/秒に限らず、それ以上のフレームレートで抽出することもでき、より物体の動き情報を精度良く捉えることができる。 In response to this, one or more processors included in the information processing device 210 extract the person as an object, as shown in FIG. 11(C), and then extract the coordinates of the feature points (for example, only one point) that represent the person area. This makes it possible to reduce the amount of information transferred to the Central Brain 15 and the memory 16. Images captured by the event camera allow the person as an object to be extracted at any frame rate, so the cameras 30L and 30R mounted on the MoPUs 12ML and 12MR capture images at a maximum frame rate of 1920 frames/second, but in the case of the event camera, extraction is not limited to 1920 frames/second and can also be performed at a higher frame rate, making it possible to capture object movement information with greater accuracy.
以上説明したように、第2実施形態の情報処理装置210,310は、物体が写る画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、コア12X、Central Brain15、及びメモリ16に転送される情報量を抑制させることできる。また、物体の存在位置を示す点とIPU11から出力されたラベル情報とを対応付けることにより、どのような物体がどのような動きをしているのかに関する情報が把握される。特に、MoPU12ML,12MRに搭載されるカメラ30L,30Rは、最大1920フレーム/秒のフレームレートで画像を撮像することが可能であるため、物体の動き情報を精度良く捉えることができる。 As described above, the information processing devices 210 and 310 of the second embodiment extract points indicating the location of an object from an image in which the object appears, and output the points indicating the location of the object. This makes it possible to reduce the amount of information transferred to the core 12X, the Central Brain 15, and the memory 16. In addition, by associating the points indicating the location of the object with the label information output from the IPU 11, information regarding what kind of object is moving is obtained. In particular, the cameras 30L and 30R mounted on the MoPUs 12ML and 12MR are capable of capturing images at a maximum frame rate of 1920 frames/second, and therefore can capture object movement information with high accuracy.
また、情報処理装置210,310は、フレームレートを変更することが可能なカメラ30L,30Rを備え、外部環境に関するスコアを計算し、当該スコアに応じてカメラのフレームレートを決定する。そして、情報処理装置210,310は、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30Rに対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、外部環境に適したフレームレートで画像を撮像することができる。 In addition, the information processing devices 210, 310 are equipped with cameras 30L, 30R that can change the frame rate, calculate a score related to the external environment, and determine the frame rate of the camera according to the score. The information processing devices 210, 310 then output a control signal to the cameras 30L, 30R to instruct them to capture an image at the determined frame rate, extract a point indicating the location of an object from the image captured by the cameras 30L, 30R, and output the point indicating the location of the object. This allows images to be captured at a frame rate suitable for the external environment.
また、情報処理装置210は、外部環境に関するスコアとして、車両の走行に関する危険度を計算し、危険度に応じて、カメラ30L,30Rのフレームレートを決定し、決定したフレームレートにより画像の撮像を指示する制御信号をカメラ30L,30R対して出力し、カメラ30L,30Rによって撮像された画像から物体の存在位置を示す点を抽出する。これにより、車両の走行に関する危険度に応じてフレームレートを変更することができる。 In addition, the information processing device 210 calculates the degree of danger regarding the vehicle's traveling as a score regarding the external environment, determines the frame rate of the cameras 30L and 30R according to the degree of danger, outputs a control signal to the cameras 30L and 30R to instruct them to capture images at the determined frame rate, and extracts points indicating the location of objects from the images captured by the cameras 30L and 30R. This makes it possible to change the frame rate according to the degree of danger regarding the vehicle's traveling.
また、情報処理装置210,310は、画像から物体を抽出し、物体の存在位置が所定領域である場合に、物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12L,12Rは、制御処理にとって重要度が低い領域の点を取得せずに済む。 In addition, the information processing device 210, 310 extracts an object from an image, and if the object is located in a specified area, extracts a point indicating the object's location and outputs the point indicating the object's location. This allows the cores 12L, 12R of the information processing device 210, 310 to avoid acquiring points in areas that are less important for control processing.
また、情報処理装置210,310は、画像から物体を抽出し、物体毎にスコアを計算し、スコアが所定閾値以上の物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、情報処理装置210,310のコア12L,12Rは、制御処理にとって重要度が低い物体の点を取得せずに済む。 In addition, the information processing device 210, 310 extracts objects from the image, calculates a score for each object, extracts points indicating the location of objects whose scores are equal to or greater than a predetermined threshold, and outputs the points indicating the location of the objects. This allows the cores 12L, 12R of the information processing device 210, 310 to avoid acquiring points for objects that are less important for the control process.
<第3実施形態>
次に、第3実施形態について説明する。なお、第3実施形態の情報処理装置の構成は、第1実施形態又は第2実施形態と同様の構成となるため、同一符号を付して説明を省略する。第3実施形態の情報処理装置は、画像に写る物体の数の時系列、画像に写る物体の加速度の時系列、及び画像に写る物体の大きさの時系列の少なくとも1つに応じて、カメラ(例えば、カメラ30L、レーダー32L、赤外線カメラ34L、カメラ30R、レーダー32R、及び赤外線カメラ34Rの少なくとも1つ)のフレームレートを変更するように制御する点等が、第1実施形態及び第2実施形態と異なる。
Third Embodiment
Next, the third embodiment will be described. The configuration of the information processing device of the third embodiment is the same as that of the first or second embodiment, so the same reference numerals are used and the description is omitted. The information processing device of the third embodiment is different from the first and second embodiments in that the frame rate of the camera (for example, at least one of the camera 30L, the radar 32L, the infrared camera 34L, the camera 30R, the radar 32R, and the infrared camera 34R) is controlled to change depending on at least one of the time series of the number of objects appearing in the image, the time series of the acceleration of the objects appearing in the image, and the time series of the size of the objects appearing in the image.
第1実施形態又は第2実施形態と同様に、車両又はロボットに搭載されているカメラによって画像が撮像され、その画像に写る物体の動き等に応じて車両又はロボットの駆動が制御される場合を考える。この場合、現時刻に撮像された画像に写る物体の数が、前時刻に撮像された画像に写る物体の数よりも多い場合には、画像に写る物体の数が増加しているため、車両又はロボットに搭載されるカメラのフレームレートを高くしてより多くの画像を取得した方が好ましい。また、現時刻の画像に写る物体の加速度が、前時刻の画像に写る物体の加速度よりも大きい場合も、同様に、カメラのフレームレートを高くしてより多くの画像を取得した方が好ましい。この場合には、物体が加速している状態であり、より短い時間間隔で画像を取得した方が好ましいためである。また、現時刻の画像に写る物体の大きさが、前時刻の画像に写る物体の大きさよりも大きい場合は、その物体が車両又はロボットに近づいていることを表しているため、同様に、カメラのフレームレートを高くしてより多くの画像を取得した方が好ましい。 As in the first or second embodiment, consider a case where an image is captured by a camera mounted on a vehicle or robot, and the driving of the vehicle or robot is controlled according to the movement of an object in the image. In this case, if the number of objects in the image captured at the current time is greater than the number of objects in the image captured at the previous time, the number of objects in the image has increased, so it is preferable to increase the frame rate of the camera mounted on the vehicle or robot to acquire more images. Similarly, if the acceleration of an object in the image captured at the current time is greater than the acceleration of an object in the image captured at the previous time, it is also preferable to increase the frame rate of the camera to acquire more images. This is because in this case, the object is accelerating, and it is preferable to acquire images at shorter time intervals. Also, if the size of an object in the image captured at the current time is greater than the size of the object in the image captured at the previous time, it represents that the object is approaching the vehicle or robot, so it is also preferable to increase the frame rate of the camera to acquire more images.
そこで、第3実施形態の情報処理装置の少なくとも1つのプロセッサ(例えば、コア12L,コア12R,及びコア12Xの少なくとも1つ)は、カメラによって撮像された各時刻の画像に写る物体を検出する。そして、情報処理装置の少なくとも1つのプロセッサは、検出された物体の数の時系列、物体の加速度の時系列、及び物体の大きさの時系列の少なくとも1つに応じて、カメラのフレームレートを変更するように制御する。 Therefore, at least one processor (e.g., at least one of core 12L, core 12R, and core 12X) of the information processing device of the third embodiment detects objects appearing in images captured by the camera at each time. Then, at least one processor of the information processing device controls the camera to change its frame rate according to at least one of the time series of the number of detected objects, the time series of the acceleration of the objects, and the time series of the size of the objects.
例えば、情報処理装置の少なくとも1つのプロセッサは、現時刻の画像に写る物体の数が前時刻に写る物体の数より多い場合には、カメラのフレームレートを高くするように制御する。また、情報処理装置の少なくとも1つのプロセッサは、現時刻の画像に写る物体の数が前時刻に写る物体の数よりも少ない場合には、カメラのフレームレートを低くするように制御する。 For example, at least one processor of the information processing device controls the camera to increase the frame rate when the number of objects captured in the image at the current time is greater than the number of objects captured at the previous time. Also, at least one processor of the information processing device controls the camera to decrease the frame rate when the number of objects captured in the image at the current time is less than the number of objects captured at the previous time.
具体的には、情報処理装置の少なくとも1つのプロセッサは、第2実施形態と同様に、外部環境に関するスコアの一例として危険度を計算する。 Specifically, at least one processor of the information processing device calculates the degree of danger as an example of a score related to the external environment, similar to the second embodiment.
この場合、情報処理装置の少なくとも1つのプロセッサは、前時刻から現時刻の間において画像に写る物体の数が増加した場合には、危険度の値が大きくなるように危険度を計算する。また、情報処理装置の少なくとも1つのプロセッサは、前時刻から現時刻の間において画像に写る物体の数が減少した場合には、危険度の値が小さくなるように危険度を計算する。なお、第2実施形態と同様に、閾値として、第1閾値、第2閾値、第3閾値、及び第4閾値が予め設定され、例えば、第1閾値=0.2、第2閾値=0.4、第3閾値=0.6、及び第4閾値=0.8と設定され得る。 In this case, at least one processor of the information processing device calculates the risk level so that the risk level value increases if the number of objects appearing in the image increases between the previous time and the current time. Also, at least one processor of the information processing device calculates the risk level so that the risk level value decreases if the number of objects appearing in the image decreases between the previous time and the current time. Note that, as in the second embodiment, a first threshold, a second threshold, a third threshold, and a fourth threshold are set in advance as thresholds, and may be set, for example, as the first threshold = 0.2, the second threshold = 0.4, the third threshold = 0.6, and the fourth threshold = 0.8.
例えば、情報処理装置の少なくとも1つのプロセッサは、画像に写る物体の数は1つであり、前時刻から現時刻の間において物体の数が変化していない場合、外部環境に関するスコアの一例である危険度を0.1と計算する。この場合に計算された危険度は、第1閾値よりも低い。このため、情報処理装置の少なくとも1つのプロセッサは、120フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。 For example, when the number of objects captured in an image is one and the number of objects has not changed between the previous time and the current time, at least one processor of the information processing device calculates the danger level, which is an example of a score related to the external environment, to be 0.1. The danger level calculated in this case is lower than the first threshold value. Therefore, at least one processor of the information processing device selects 120 frames per second, and outputs control signals to the cameras 30L, 30R, the radars 32L, 32R, and the infrared cameras 34L, 34R so as to capture images, acquire radar signals, or capture infrared images at that frame rate.
また、例えば、情報処理装置の少なくとも1つのプロセッサは、前時刻から現時刻の間において画像に写る物体の数が1個から10個に増加した場合、外部環境に関するスコアの一例である危険度を0.9と計算する。この場合に計算された危険度は、第4閾値よりも高い。このため、情報処理装置の少なくとも1つのプロセッサは、1920フレーム/秒を選択し、そのフレームレートで画像の撮像、レーダー信号の取得、又は赤外線画像の撮像をするように、カメラ30L,30R、レーダー32L,32R、及び赤外線カメラ34L,34Rへ制御信号を出力する。 For example, when the number of objects in the image increases from 1 to 10 between the previous time and the current time, at least one processor of the information processing device calculates the risk level, which is an example of a score related to the external environment, to be 0.9. In this case, the calculated risk level is higher than the fourth threshold value. Therefore, at least one processor of the information processing device selects 1920 frames/second, and outputs control signals to the cameras 30L, 30R, the radars 32L, 32R, and the infrared cameras 34L, 34R so as to capture images, acquire radar signals, or capture infrared images at that frame rate.
また、例えば、情報処理装置の少なくとも1つのプロセッサは、危険度が第1閾値以上であり、かつ第2閾値より低い場合は、240フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置の少なくとも1つのプロセッサは、危険度が第2閾値以上であり、かつ第3閾値より低い場合は、480フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。また、情報処理装置の少なくとも1つのプロセッサは、危険度が第3閾値以上であり、かつ第4閾値より低い場合は、960フレーム/秒のフレームレートを選択し、そのフレームレートで各種のデータを取得するように各機器へ制御信号を出力する。 Also, for example, when the risk level is equal to or greater than the first threshold and lower than the second threshold, at least one processor of the information processing device selects a frame rate of 240 frames/second and outputs a control signal to each device to acquire various data at that frame rate. When the risk level is equal to or greater than the second threshold and lower than the third threshold, at least one processor of the information processing device selects a frame rate of 480 frames/second and outputs a control signal to each device to acquire various data at that frame rate. When the risk level is equal to or greater than the third threshold and lower than the fourth threshold, at least one processor of the information processing device selects a frame rate of 960 frames/second and outputs a control signal to each device to acquire various data at that frame rate.
そして、第3実施形態の情報処理装置は、2つのプロセッサであるコア12L,12Rを用いて、物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を動き情報として出力する。 The information processing device of the third embodiment uses two processors, cores 12L and 12R, to output, as motion information, vector information of the movement of a point indicating the location of an object along each of the three coordinate axes in a three-dimensional orthogonal coordinate system.
このように、情報処理装置の少なくとも1つのプロセッサは、現時刻と前時刻との間の時間帯において、画像に写る物体の数が増加した場合には、カメラのフレームレートを高くするように制御する。また、情報処理装置の少なくとも1つのプロセッサは、現時刻と前時刻との間の時間帯において、画像に写る物体の数が減少した場合には、カメラのフレームレートを低くするように制御する。これにより、画像に写る物体の数が増加した場合には、それら物体の各々の動きを精度良く捉えることが可能となり、物体の動きに応じて車両又はロボットを適切に制御することができる。また、物体の数が減少した場合には、フレームレートを低くすることにより、多くの画像は撮像されないようにするため、例えば、カメラの駆動に要する電気量を節減することができる。 In this way, at least one processor of the information processing device controls the camera to increase the frame rate if the number of objects captured in the image increases during the time period between the current time and the previous time. Also, at least one processor of the information processing device controls the camera to decrease the frame rate if the number of objects captured in the image decreases during the time period between the current time and the previous time. As a result, when the number of objects captured in the image increases, it becomes possible to accurately capture the movement of each of the objects, and the vehicle or robot can be appropriately controlled according to the object movement. Also, when the number of objects decreases, the frame rate is lowered so that not many images are captured, thereby, for example, saving the amount of electricity required to drive the camera.
例えば、情報処理装置の少なくとも1つのプロセッサは、前時刻の画像に写る物体の数と現時刻の画像に写る物体の数との差分を表す変化量が、物体の数の変化量に関する閾値未満である場合には、カメラのフレームレートは変更しない。一方、情報処理装置の少なくとも1つのプロセッサは、前時刻の画像に写る物体の数と現時刻の画像に写る物体の数との差分を表す変化量が、物体の数の変化量に関する閾値以上である場合には、カメラのフレームレートを変更するように制御する。例えば、物体の数の変化量が物体の数の減少を表している場合には、情報処理装置の少なくとも1つのプロセッサは、カメラのフレームレートを低くするように制御する。一方、物体の数の変化量が物体の数の増加を表している場合には、情報処理装置の少なくとも1つのプロセッサは、カメラのフレームレートを高くするように制御する。 For example, at least one processor of the information processing device does not change the camera frame rate when the amount of change representing the difference between the number of objects in the image at the previous time and the number of objects in the image at the current time is less than a threshold value related to the amount of change in the number of objects. On the other hand, at least one processor of the information processing device controls the camera frame rate to be changed when the amount of change representing the difference between the number of objects in the image at the previous time and the number of objects in the image at the current time is equal to or greater than the threshold value related to the amount of change in the number of objects. For example, when the amount of change in the number of objects represents a decrease in the number of objects, at least one processor of the information processing device controls the camera frame rate to be lowered. On the other hand, when the amount of change in the number of objects represents an increase in the number of objects, at least one processor of the information processing device controls the camera frame rate to be higher.
また、情報処理装置の少なくとも1つのプロセッサは、上記と同様に、画像に写る物体の加速度の時系列に応じて、カメラのフレームレートを変更するように制御してもよい。この場合には、情報処理装置の少なくとも1つのプロセッサは、カメラによって撮像された各時刻の画像に基づいて、既知の技術を用いて、各時刻の画像に写る物体の加速度を計算する。そして、情報処理装置の少なくとも1つのプロセッサは、現時刻の画像に写る物体の加速度が前時刻の画像に写る加速度よりも大きい場合、カメラのフレームレートを高くするように制御する。一方、情報処理装置の少なくとも1つのプロセッサは、現時刻の画像に写る物体の加速度が前時刻の画像に写る物体の加速度よりも小さい場合、フレームレートを低くするように制御する。なお、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の加速度うち最大又は最小の加速度に応じて、フレームレートを変更するように制御してもよい。又は、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の加速度の平均値に応じて、フレームレートを変更するように制御してもよい。 In addition, at least one processor of the information processing device may control the camera to change the frame rate according to the time series of the acceleration of an object captured in an image, as described above. In this case, at least one processor of the information processing device calculates the acceleration of an object captured in an image at each time using a known technique based on an image captured by the camera at each time. Then, at least one processor of the information processing device controls the camera to increase the frame rate when the acceleration of an object captured in an image at the current time is greater than the acceleration of an object captured in an image at the previous time. On the other hand, at least one processor of the information processing device controls the frame rate to decrease when the acceleration of an object captured in an image at the current time is smaller than the acceleration of an object captured in an image at the previous time. Note that, when multiple objects are captured in an image, at least one processor of the information processing device may control the frame rate to change according to the maximum or minimum acceleration of the multiple objects. Alternatively, when multiple objects are captured in an image, at least one processor of the information processing device may control the frame rate to change according to the average value of the accelerations of the multiple objects.
例えば、情報処理装置の少なくとも1つのプロセッサは、前時刻の画像に写る物体の加速度と現時刻の画像に写る物体の加速度との差分を表す変化量が、物体の加速度の変化量に関する閾値未満である場合には、カメラのフレームレートは変更しない。一方、情報処理装置の少なくとも1つのプロセッサは、前時刻の画像に写る物体の加速度と現時刻の画像に写る物体の加速度との差分を表す変化量が、物体の加速度の変化量に関する閾値以上である場合には、カメラのフレームレートを変更するように制御する。例えば、物体の加速度の変化量が物体の加速度の減少を表している場合には、情報処理装置の少なくとも1つのプロセッサは、カメラのフレームレートを低くするように制御する。一方、物体の加速度の変化量が物体の加速度の増加を表している場合には、情報処理装置の少なくとも1つのプロセッサは、カメラのフレームレートを高くするように制御する。 For example, at least one processor of the information processing device does not change the camera frame rate when the amount of change representing the difference between the acceleration of an object captured in an image at a previous time and the acceleration of an object captured in an image at a current time is less than a threshold value related to the amount of change in the acceleration of the object. On the other hand, at least one processor of the information processing device controls the camera frame rate to be changed when the amount of change representing the difference between the acceleration of an object captured in an image at a previous time and the acceleration of an object captured in an image at a current time is equal to or greater than the threshold value related to the amount of change in the acceleration of the object. For example, when the amount of change in the acceleration of the object represents a decrease in the acceleration of the object, at least one processor of the information processing device controls the camera frame rate to be lowered. On the other hand, when the amount of change in the acceleration of the object represents an increase in the acceleration of the object, at least one processor of the information processing device controls the camera frame rate to be higher.
また、情報処理装置の少なくとも1つのプロセッサは、上記と同様に、画像に写る物体の大きさの時系列に応じて、カメラのフレームレートを変更するように制御してもよい。この場合には、情報処理装置の少なくとも1つのプロセッサは、現時刻の画像に写る物体の大きさが前時刻の画像に写る物体の大きさよりも大きい場合、カメラのフレームレートを高くするように制御する。一方、情報処理装置の少なくとも1つのプロセッサは、現時刻の画像に写る物体の大きさが前時刻の画像に写る物体の大きさよりも小さい場合、フレームレートを低くするように制御する。なお、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の各々の大きさのうち最大又は最小の大きさに応じて、フレームレートを変更するように制御してもよい。又は、複数の物体が画像に写っている場合には、情報処理装置の少なくとも1つのプロセッサは、複数の物体の各々の大きさの平均値に応じて、フレームレートを変更するように制御してもよい。 Also, at least one processor of the information processing device may control the camera to change the frame rate according to the time series of the size of an object captured in an image, as described above. In this case, at least one processor of the information processing device controls the camera to increase the frame rate when the size of an object captured in an image at the current time is larger than the size of an object captured in an image at the previous time. On the other hand, at least one processor of the information processing device controls the frame rate to decrease when the size of an object captured in an image at the current time is smaller than the size of an object captured in an image at the previous time. Note that, when multiple objects are captured in an image, at least one processor of the information processing device may control the frame rate to change according to the maximum or minimum size of each of the multiple objects. Alternatively, when multiple objects are captured in an image, at least one processor of the information processing device may control the frame rate to change according to the average value of the sizes of each of the multiple objects.
例えば、情報処理装置の少なくとも1つのプロセッサは、前時刻の画像に写る物体の大きさと現時刻の画像に写る物体の大きさとの差分を表す変化量が、物体の大きさの変化量に関する閾値未満である場合には、カメラのフレームレートは変更しない。一方、情報処理装置の少なくとも1つのプロセッサは、前時刻の画像に写る物体の大きさと現時刻の画像に写る物体の大きさとの差分を表す変化量が、物体の大きさの変化量に関する閾値以上である場合には、カメラのフレームレートを変更するように制御する。例えば、物体の大きさの変化量が物体の大きさの減少を表している場合には、情報処理装置の少なくとも1つのプロセッサは、カメラのフレームレートを低くするように制御する。一方、物体の加速度の変化量が物体の大きさの増加を表している場合には、情報処理装置の少なくとも1つのプロセッサは、カメラのフレームレートを高くするように制御する。 For example, at least one processor of the information processing device does not change the camera frame rate when the amount of change representing the difference between the size of an object in an image at a previous time and the size of the object in an image at a current time is less than a threshold value related to the amount of change in the size of the object. On the other hand, at least one processor of the information processing device controls the camera frame rate to be changed when the amount of change representing the difference between the size of an object in an image at a previous time and the size of the object in an image at a current time is equal to or greater than the threshold value related to the amount of change in the size of the object. For example, when the amount of change in the size of the object represents a decrease in the size of the object, at least one processor of the information processing device controls the camera frame rate to be lowered. On the other hand, when the amount of change in the acceleration of the object represents an increase in the size of the object, at least one processor of the information processing device controls the camera frame rate to be higher.
以上説明したように、第3実施形態の情報処理装置は、画像に写る物体の数の時系列、画像に写る物体の加速度の時系列、及び画像に写る物体の大きさの時系列の少なくとも1つに応じて、カメラ(例えば、カメラ30L、レーダー32L、赤外線カメラ34L、カメラ30R、レーダー32R、及び赤外線カメラ34Rの少なくとも1つ)のフレームレートを変更するように制御する。そして、第3実施形態の情報処理装置は、物体が写る画像から物体の存在位置を示す点を抽出し、物体の存在位置を示す点を出力する。これにより、画像に写る物体の数の時系列、画像に写る物体の加速度の時系列、及び画像に写る物体の大きさの時系列に応じて、適切な数の各時刻の画像を取得することが可能となり、車両又はロボットを適切に制御することができる。より具体的には、第3実施形態の情報処理装置は、画像に写る物体の数が増加した場合、カメラのフレームレートを高くするように制御することにより、より短い時間間隔において画像を取得することが可能となり、車両又はロボットを適切に制御することができる。また、第3実施形態の情報処理装置は、画像に写る物体の加速度が増加した場合、カメラのフレームレートを高くするように制御することにより、より短い時間間隔において画像を取得することが可能となり、車両又はロボットを適切に制御することができる。また、第3実施形態の情報処理装置は、画像に写る物体の大きさが大きくなった場合、カメラのフレームレートを高くするように制御することにより、より短い時間間隔において画像を取得することが可能となり、車両又はロボットを適切に制御することができる。 As described above, the information processing device of the third embodiment controls to change the frame rate of the camera (for example, at least one of the camera 30L, the radar 32L, the infrared camera 34L, the camera 30R, the radar 32R, and the infrared camera 34R) according to at least one of the time series of the number of objects captured in the image, the time series of the acceleration of the object captured in the image, and the time series of the size of the object captured in the image. Then, the information processing device of the third embodiment extracts a point indicating the location of the object from the image in which the object is captured, and outputs a point indicating the location of the object. This makes it possible to obtain an appropriate number of images at each time according to the time series of the number of objects captured in the image, the time series of the acceleration of the object captured in the image, and the time series of the size of the object captured in the image, and to appropriately control the vehicle or robot. More specifically, when the number of objects captured in the image increases, the information processing device of the third embodiment controls to increase the frame rate of the camera, making it possible to obtain images at shorter time intervals, and to appropriately control the vehicle or robot. Furthermore, when the acceleration of an object in an image increases, the information processing device of the third embodiment controls the camera to increase its frame rate, making it possible to capture images at shorter time intervals and appropriately control the vehicle or robot. Furthermore, when the size of an object in an image increases, the information processing device of the third embodiment controls the camera to increase its frame rate, making it possible to capture images at shorter time intervals and appropriately control the vehicle or robot.
本実施の形態におけるフローチャート及びブロック図におけるブロックは、オペレーションが実行されるプロセスの段階又はオペレーションを実行する役割を持つ装置の「部」を表わしてよい。特定の段階及び「部」が、専用回路、コンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプログラマブル回路、及び/又はコンピュータ可読記憶媒体上に格納されるコンピュータ可読命令と共に供給されるプロセッサによって実装されてよい。専用回路は、デジタル及び/又はアナログハードウェア回路を含んでよく、集積回路(IC)及び/又はディスクリート回路を含んでよい。プログラマブル回路は、例えば、フィールドプログラマブルゲートアレイ(FPGA)、及びプログラマブルロジックアレイ(PLA)等のような、論理積、論理和、排他的論理和、否定論理積、否定論理和、及び他の論理演算、フリップフロップ、レジスタ、並びにメモリエレメントを含む、再構成可能なハードウェア回路を含んでよい。 The blocks in the flowcharts and block diagrams of the present embodiment may represent stages of a process in which an operation is performed or "parts" of a device responsible for performing the operation. Particular stages and "parts" may be implemented by dedicated circuitry, programmable circuitry provided with computer-readable instructions stored on a computer-readable storage medium, and/or a processor provided with computer-readable instructions stored on a computer-readable storage medium. Dedicated circuitry may include digital and/or analog hardware circuitry, and may include integrated circuits (ICs) and/or discrete circuits. Programmable circuitry may include reconfigurable hardware circuitry including AND, OR, XOR, NAND, NOR, and other logical operations, flip-flops, registers, and memory elements, such as, for example, field programmable gate arrays (FPGAs), programmable logic arrays (PLAs), and the like.
コンピュータ可読記憶媒体は、適切なデバイスによって実行される命令を格納可能な任意の有形なデバイスを含んでよく、その結果、そこに格納される命令を有するコンピュータ可読記憶媒体は、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を作成すべく実行され得る命令を含む、製品を備えることになる。コンピュータ可読記憶媒体の例としては、電子記憶媒体、磁気記憶媒体、光記憶媒体、電磁記憶媒体、半導体記憶媒体等が含まれてよい。コンピュータ可読記憶媒体のより具体的な例としては、フロッピー(登録商標)ディスク、ディスケット、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリメモリ(ROM)、消去可能プログラマブルリードオンリメモリ(EPROM又はフラッシュメモリ)、電気的消去可能プログラマブルリードオンリメモリ(EEPROM)、静的ランダムアクセスメモリ(SRAM)、コンパクトディスクリードオンリメモリ(CD-ROM)、デジタル多用途ディスク(DVD)、ブルーレイ(登録商標)ディスク、メモリスティック、集積回路カード等が含まれてよい。 A computer-readable storage medium may include any tangible device capable of storing instructions that are executed by a suitable device, such that a computer-readable storage medium having instructions stored thereon comprises an article of manufacture that includes instructions that can be executed to create means for performing the operations specified in the flowchart or block diagram. Examples of computer-readable storage media may include electronic storage media, magnetic storage media, optical storage media, electromagnetic storage media, semiconductor storage media, and the like. More specific examples of computer-readable storage media may include floppy disks, diskettes, hard disks, random access memories (RAMs), read-only memories (ROMs), erasable programmable read-only memories (EPROMs or flash memories), electrically erasable programmable read-only memories (EEPROMs), static random access memories (SRAMs), compact disk read-only memories (CD-ROMs), digital versatile disks (DVDs), Blu-ray disks, memory sticks, integrated circuit cards, and the like.
コンピュータ可読命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又はSmalltalk(登録商標)、JAVA(登録商標)、C++等のようなオブジェクト指向プログラミング言語、及び「C」プログラミング言語又は同様のプログラミング言語のような従来の手続型プログラミング言語を含む、1又は複数のプログラミング言語の任意の組み合わせで記述されたソースコード又はオブジェクトコードのいずれかを含んでよい。 The computer readable instructions may include either assembler instructions, instruction set architecture (ISA) instructions, machine instructions, machine-dependent instructions, microcode, firmware instructions, state setting data, or source or object code written in any combination of one or more programming languages, including object-oriented programming languages such as Smalltalk (registered trademark), JAVA (registered trademark), C++, etc., and conventional procedural programming languages such as the "C" programming language or similar programming languages.
コンピュータ可読命令は、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路が、フローチャート又はブロック図で指定されたオペレーションを実行するための手段を生成するために当該コンピュータ可読命令を実行すべく、ローカルに又はローカルエリアネットワーク(LAN)、インターネット等のようなワイドエリアネットワーク(WAN)を介して、汎用コンピュータ、特殊目的のコンピュータ、若しくは他のプログラム可能なデータ処理装置のプロセッサ、又はプログラマブル回路に提供されてよい。プロセッサの例としては、コンピュータプロセッサ、処理ユニット、マイクロプロセッサ、デジタル信号プロセッサ、コントローラ、マイクロコントローラ等を含む。 The computer-readable instructions may be provided to a processor of a general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or a programmable circuit, either locally or over a local area network (LAN), a wide area network (WAN), such as the Internet, etc., so that the processor of the general-purpose computer, special-purpose computer, or other programmable data processing apparatus, or the programmable circuit, executes the computer-readable instructions to generate means for performing the operations specified in the flowcharts or block diagrams. Examples of processors include computer processors, processing units, microprocessors, digital signal processors, controllers, microcontrollers, etc.
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 The present invention has been described above using an embodiment, but the technical scope of the present invention is not limited to the scope described in the above embodiment. It is clear to those skilled in the art that various modifications and improvements can be made to the above embodiment. It is clear from the claims that forms incorporating such modifications or improvements can also be included in the technical scope of the present invention.
特許請求の範囲、明細書、及び図面中において示した装置、システム、プログラム、及び方法における動作、手順、ステップ、及び段階などの各処理の実行順序は、特段「より前に」、「先立って」などと明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、及び図面中の動作フローに関して、便宜上「まず、」、「次に、」などを用いて説明したとしても、この順で実施することが必須であることを意味するものではない。 The order of execution of each process, such as operations, procedures, steps, and stages, in the devices, systems, programs, and methods shown in the claims, specifications, and drawings is not specifically stated as "before" or "prior to," and it should be noted that the processes may be performed in any order, unless the output of a previous process is used in a later process. Even if the operational flow in the claims, specifications, and drawings is explained using "first," "next," etc. for convenience, it does not mean that it is essential to perform the processes in that order.
(付記1)
第1のプロセッサを備えた情報処理装置であって、
前記第1のプロセッサは、物体の画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点の、所定の座標軸に沿った動きを示す動き情報を1000フレーム/秒以上のフレームレートで出力する
情報処理装置。
(Appendix 1)
An information processing device including a first processor,
The first processor extracts points indicating a location of an object from an image of the object, and outputs motion information indicating a movement of the points indicating the location of the object along a predetermined coordinate axis at a frame rate of 1000 frames/second or more.
(付記2)
前記第1のプロセッサは、前記物体の中心点又は重心点の所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
(Appendix 2)
The information processing device according to claim 1, wherein the first processor outputs, as the motion information, vector information of a motion of a center point or a center of gravity of the object along a predetermined coordinate axis.
(付記3)
前記第1のプロセッサは、前記物体の輪郭を囲む四角形の頂点の少なくとも対角となる2つ点について所定の座標軸に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
(Appendix 3)
The information processing device according to claim 1, wherein the first processor outputs, as the motion information, vector information of motion along a predetermined coordinate axis for at least two diagonal vertices of a rectangle surrounding a contour of the object.
(付記4)
前記画像は、赤外線画像を含む
付記1に記載の情報処理装置。
(Appendix 4)
The information processing device according to claim 1, wherein the image includes an infrared image.
(付記5)
前記画像は、互いに同期した可視光画像及び赤外線画像を含む
付記1に記載の情報処理装置。
(Appendix 5)
The information processing device of claim 1, wherein the images include a visible light image and an infrared image that are synchronized with each other.
(付記6)
2つの前記第1のプロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する
付記1に記載の情報処理装置。
(Appendix 6)
The information processing device according to claim 1, wherein the two first processors are used to output, as the motion information, vector information of a motion of a point indicating a position of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
(付記7)
前記第1のプロセッサは、前記物体に照射された電磁波の前記物体からの反射波に基づいて、前記物体までの距離を導出し、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する
付記7に記載の情報処理装置。
(Appendix 7)
The information processing device described in Appendix 7, wherein the first processor derives a distance to the object based on a wave reflected from the object of an electromagnetic wave irradiated to the object, and outputs, as the movement information, vector information of a movement of a point indicating the position of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system.
(付記8)
前記物体の画像を1000フレーム/秒未満のフレームレートで出力する第2のプロセッサと、
前記動き情報と、前記第2のプロセッサから出力された画像とに基づいて、前記物体に対する応答制御を行う第3のプロセッサと、
を更に含む付記1に記載の情報処理装置。
(Appendix 8)
a second processor for outputting images of the object at a frame rate of less than 1000 frames per second;
a third processor that performs response control for the object based on the movement information and the image output from the second processor;
2. The information processing device according to claim 1, further comprising:
(付記9)
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置であって、
前記プロセッサは、
前記カメラによって各時刻に撮像された画像に写る物体を検出し、
検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理装置。
(Appendix 9)
A camera capable of changing the frame rate;
A processor;
An information processing device comprising:
The processor,
Detecting an object appearing in an image captured by the camera at each time;
controlling the frame rate of the camera to be changed in response to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects;
Information processing device.
(付記10)
前記プロセッサは、
前記物体の数の時系列に応じて前記フレームレートを変更する際に、
現時刻の画像に写る前記物体の数が、前時刻の画像に写る前記物体の数よりも多い場合に、前記フレームレートを高くするように制御し、
現時刻の画像に写る前記物体の数が、前時刻の画像に写る前記物体の数よりも少ない場合に、前記フレームレートを低くするように制御する、
付記9に記載の情報処理装置。
(Appendix 10)
The processor,
When changing the frame rate in response to the time series of the number of objects,
When the number of the objects captured in the image at the current time is greater than the number of the objects captured in the image at the previous time, the frame rate is controlled to be increased;
When the number of the objects appearing in the image at the current time is smaller than the number of the objects appearing in the image at the previous time, the frame rate is controlled to be lowered.
10. The information processing device according to claim 9.
(付記11)
前記プロセッサは、
前記物体の加速度の時系列に応じて前記フレームレートを変更する際に、
現時刻の画像に写る前記物体の加速度が、前時刻の画像に写る前記物体の加速度よりも大きい場合に、前記フレームレートを高くするように制御し、
現時刻の画像に写る前記物体の加速度が、前時刻の画像に写る前記物体の加速度よりも小さい場合に、前記フレームレートを低くするように制御する、
付記9又は付記10に記載の情報処理装置。
(Appendix 11)
The processor,
When changing the frame rate in response to a time series of the acceleration of the object,
When the acceleration of the object captured in the image at the current time is greater than the acceleration of the object captured in the image at the previous time, the frame rate is controlled to be increased;
When the acceleration of the object captured in the image at the current time is smaller than the acceleration of the object captured in the image at the previous time, the frame rate is controlled to be lowered.
11. The information processing device according to claim 9 or 10.
(付記12)
前記プロセッサは、
前記物体の大きさの時系列に応じて前記フレームレートを変更する際に、
現時刻の画像に写る前記物体の大きさが、前時刻の画像に写る前記物体の大きさよりも大きい場合に、前記フレームレートを高くするように制御し、
現時刻の画像に写る前記物体の大きさが、前時刻の画像に写る前記物体の大きさよりも小さい場合に、前記フレームレートを低くするように制御する、
付記9~付記11の何れか1項に記載の情報処理装置。
(Appendix 12)
The processor,
When changing the frame rate in accordance with the time series of the size of the object,
When a size of the object captured in an image at a current time is larger than a size of the object captured in an image at a previous time, the frame rate is controlled to be increased;
When a size of the object shown in an image at a current time is smaller than a size of the object shown in an image at a previous time, the frame rate is controlled to be lowered.
12. The information processing device according to claim 9.
(付記13)
前記プロセッサは、
前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、外部環境に関するスコアを計算し、
前記外部環境に関するスコアに応じて、前記フレームレートを変更するように制御する、
付記9~付記12の何れか1項に記載の情報処理装置。
(Appendix 13)
The processor,
calculating a score related to an external environment in response to at least one of the time series of the number of objects, the time series of the acceleration of the objects, and the time series of the size of the objects;
Controlling the frame rate so as to change the frame rate in accordance with the score regarding the external environment.
13. The information processing device according to claim 9.
(付記14)
前記プロセッサは、
前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
付記9~付記13の何れか1項に記載の情報処理装置。
(Appendix 14)
The processor,
extracting a point indicating a position of the object from the image captured by the camera, and outputting the point indicating the position of the object;
14. The information processing device according to claim 9.
(付記15)
前記情報処理装置は、2つの前記プロセッサを用いて、前記物体の存在位置を示す点の、三次元直交座標系における3つの座標軸の各々に沿った動きのベクトル情報を前記動き情報として出力する、
付記9~付記14の何れか1項に記載の情報処理装置。
(Appendix 15)
the information processing device outputs, using the two processors, motion vector information of a point indicating a position of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system as the motion information;
15. The information processing device according to claim 9.
(付記16)
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置が実行する情報処理方法であって、
前記プロセッサが、
前記カメラによって各時刻に撮像された画像に写る物体を検出し、
検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理方法。
(Appendix 16)
A camera capable of changing the frame rate;
A processor;
An information processing method executed by an information processing device comprising:
The processor,
Detecting an object appearing in an image captured by the camera at each time;
controlling the frame rate of the camera to be changed in response to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects;
Information processing methods.
(付記17)
フレームレートを変更することが可能なカメラと、
プロセッサと、
を備えた情報処理装置の前記プロセッサに実行させるための情報処理プログラムであって、
前記プロセッサが、
前記カメラによって各時刻に撮像された画像に写る物体を検出し、
検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理プログラム。
(Appendix 17)
A camera capable of changing the frame rate;
A processor;
An information processing program for causing the processor of an information processing device to execute the information processing program,
The processor,
Detecting an object appearing in an image captured by the camera at each time;
controlling the frame rate of the camera to be changed in response to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects;
Information processing program.
10 情報処理装置
11 IPU
12 MoPU
13 GNPU
14 CPU
15 Central Brein
10 Information processing device 11 IPU
12 MoPU
13. GNPU
14 CPU
15 Central Brein
Claims (9)
プロセッサと、
を備えた情報処理装置であって、
前記プロセッサは、
前記カメラによって各時刻に撮像された画像に写る物体を検出し、
検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理装置。 A camera capable of changing the frame rate;
A processor;
An information processing device comprising:
The processor,
Detecting an object appearing in an image captured by the camera at each time;
controlling the frame rate of the camera to be changed in response to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects;
Information processing device.
前記物体の数の時系列に応じて前記フレームレートを変更する際に、
現時刻の画像に写る前記物体の数が、前時刻の画像に写る前記物体の数よりも多い場合に、前記フレームレートを高くするように制御し、
現時刻の画像に写る前記物体の数が、前時刻の画像に写る前記物体の数よりも少ない場合に、前記フレームレートを低くするように制御する、
請求項1に記載の情報処理装置。 The processor,
When changing the frame rate in response to the time series of the number of objects,
When the number of the objects captured in the image at the current time is greater than the number of the objects captured in the image at the previous time, the frame rate is controlled to be increased;
When the number of the objects appearing in the image at the current time is smaller than the number of the objects appearing in the image at the previous time, the frame rate is controlled to be lowered.
The information processing device according to claim 1 .
前記物体の加速度の時系列に応じて前記フレームレートを変更する際に、
現時刻の画像に写る前記物体の加速度が、前時刻の画像に写る前記物体の加速度よりも大きい場合に、前記フレームレートを高くするように制御し、
現時刻の画像に写る前記物体の加速度が、前時刻の画像に写る前記物体の加速度よりも小さい場合に、前記フレームレートを低くするように制御する、
請求項1に記載の情報処理装置。 The processor,
When changing the frame rate in response to a time series of the acceleration of the object,
When the acceleration of the object captured in the image at the current time is greater than the acceleration of the object captured in the image at the previous time, the frame rate is controlled to be increased;
When the acceleration of the object captured in the image at the current time is smaller than the acceleration of the object captured in the image at the previous time, the frame rate is controlled to be lowered.
The information processing device according to claim 1 .
前記物体の大きさの時系列に応じて前記フレームレートを変更する際に、
現時刻の画像に写る前記物体の大きさが、前時刻の画像に写る前記物体の大きさよりも大きい場合に、前記フレームレートを高くするように制御し、
現時刻の画像に写る前記物体の大きさが、前時刻の画像に写る前記物体の大きさよりも小さい場合に、前記フレームレートを低くするように制御する、
請求項1に記載の情報処理装置。 The processor,
When changing the frame rate in accordance with the time series of the size of the object,
When a size of the object captured in an image at a current time is larger than a size of the object captured in an image at a previous time, the frame rate is controlled to be increased;
When a size of the object shown in an image at a current time is smaller than a size of the object shown in an image at a previous time, the frame rate is controlled to be lowered.
The information processing device according to claim 1 .
前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、外部環境に関するスコアを計算し、
前記外部環境に関するスコアに応じて、前記フレームレートを変更するように制御する、
請求項1に記載の情報処理装置。 The processor,
calculating a score related to an external environment in response to at least one of the time series of the number of objects, the time series of the acceleration of the objects, and the time series of the size of the objects;
Controlling the frame rate so as to change the frame rate in accordance with the score regarding the external environment.
The information processing device according to claim 1 .
前記カメラによって撮像された画像から前記物体の存在位置を示す点を抽出し、前記物体の存在位置を示す点を出力する、
請求項1に記載の情報処理装置。 The processor,
extracting a point indicating a position of the object from the image captured by the camera, and outputting the point indicating the position of the object;
The information processing device according to claim 1 .
請求項1に記載の情報処理装置。 the information processing device outputs, using the two processors, motion vector information of a point indicating a position of the object along each of three coordinate axes in a three-dimensional orthogonal coordinate system as the motion information;
The information processing device according to claim 1 .
プロセッサと、
を備えた情報処理装置が実行する情報処理方法であって、
前記プロセッサが、
前記カメラによって各時刻に撮像された画像に写る物体を検出し、
検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理方法。 A camera capable of changing the frame rate;
A processor;
An information processing method executed by an information processing device comprising:
The processor,
Detecting an object appearing in an image captured by the camera at each time;
controlling the frame rate of the camera to be changed in response to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects;
Information processing methods.
プロセッサと、
を備えた情報処理装置の前記プロセッサに実行させるための情報処理プログラムであって、
前記プロセッサが、
前記カメラによって各時刻に撮像された画像に写る物体を検出し、
検出された前記物体の数の時系列、前記物体の加速度の時系列、及び前記物体の大きさの時系列の少なくとも1つに応じて、前記カメラの前記フレームレートを変更するように制御する、
情報処理プログラム。
A camera capable of changing the frame rate;
A processor;
An information processing program for causing the processor of an information processing device to execute the information processing program,
The processor,
Detecting an object appearing in an image captured by the camera at each time;
controlling the frame rate of the camera to be changed in response to at least one of a time series of the number of the detected objects, a time series of the acceleration of the objects, and a time series of the size of the objects;
Information processing program.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2023/037929 WO2024090328A1 (en) | 2022-10-24 | 2023-10-19 | Information processing device, information processing method, and information processing program |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022175679 | 2022-11-01 | ||
JP2022175679 | 2022-11-01 | ||
JP2022187648 | 2022-11-24 | ||
JP2022187648 | 2022-11-24 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2024066386A true JP2024066386A (en) | 2024-05-15 |
Family
ID=91064391
Family Applications (4)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022209070A Pending JP2024066379A (en) | 2022-10-24 | 2022-12-26 | vehicle |
JP2023000321A Pending JP2024066383A (en) | 2022-10-24 | 2023-01-04 | Information processing device |
JP2023000320A Pending JP2024066382A (en) | 2022-10-24 | 2023-01-04 | Information processing device, information processing method, and information processing program |
JP2023004742A Pending JP2024066386A (en) | 2022-10-24 | 2023-01-16 | Information processing device, information processing method, and information processing program |
Family Applications Before (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022209070A Pending JP2024066379A (en) | 2022-10-24 | 2022-12-26 | vehicle |
JP2023000321A Pending JP2024066383A (en) | 2022-10-24 | 2023-01-04 | Information processing device |
JP2023000320A Pending JP2024066382A (en) | 2022-10-24 | 2023-01-04 | Information processing device, information processing method, and information processing program |
Country Status (1)
Country | Link |
---|---|
JP (4) | JP2024066379A (en) |
-
2022
- 2022-12-26 JP JP2022209070A patent/JP2024066379A/en active Pending
-
2023
- 2023-01-04 JP JP2023000321A patent/JP2024066383A/en active Pending
- 2023-01-04 JP JP2023000320A patent/JP2024066382A/en active Pending
- 2023-01-16 JP JP2023004742A patent/JP2024066386A/en active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2024066383A (en) | 2024-05-15 |
JP2024066382A (en) | 2024-05-15 |
JP2024066379A (en) | 2024-05-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2024062332A (en) | Information processor, information processing method, and information processing program | |
JP2024066386A (en) | Information processing device, information processing method, and information processing program | |
JP2024062348A (en) | Information processor | |
WO2024090389A1 (en) | Cooling execution device, cooling execution method, cooling execution program, and vehicle | |
WO2024090328A1 (en) | Information processing device, information processing method, and information processing program | |
JP2024062325A (en) | Information processor, and program | |
JP2024064911A (en) | Information processing device | |
CN116153056A (en) | Path prediction method based on object interaction relationship and electronic device |