JP7177609B2 - Image recognition device, image recognition method, machine learning model providing device, machine learning model providing method, machine learning model generating method, and machine learning model device - Google Patents

Image recognition device, image recognition method, machine learning model providing device, machine learning model providing method, machine learning model generating method, and machine learning model device Download PDF

Info

Publication number
JP7177609B2
JP7177609B2 JP2018113129A JP2018113129A JP7177609B2 JP 7177609 B2 JP7177609 B2 JP 7177609B2 JP 2018113129 A JP2018113129 A JP 2018113129A JP 2018113129 A JP2018113129 A JP 2018113129A JP 7177609 B2 JP7177609 B2 JP 7177609B2
Authority
JP
Japan
Prior art keywords
machine learning
image
learning model
recognition
image recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018113129A
Other languages
Japanese (ja)
Other versions
JP2019215755A (en
Inventor
ともえ 大築
尚哉 杉本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2018113129A priority Critical patent/JP7177609B2/en
Publication of JP2019215755A publication Critical patent/JP2019215755A/en
Application granted granted Critical
Publication of JP7177609B2 publication Critical patent/JP7177609B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

開示の実施形態は、画像認識装置、画像認識方法、機械学習モデル提供装置、機械学習モデル提供方法、機械学習モデル生成方法、および機械学習モデル装置に関する。 The disclosed embodiments relate to an image recognition device, an image recognition method, a machine learning model providing device, a machine learning model providing method, a machine learning model generating method, and a machine learning model device.

従来、複数の画像認識装置から画像認識処理に用いられた画像データを収集し、蓄積した画像データを学習データとして使用して画像認識処理についての機械学習を行い、画像認識処理に用いるパラメータを更新して画像認識装置へ提供するシステムがある。 Conventionally, image data used for image recognition processing is collected from multiple image recognition devices, and machine learning for image recognition processing is performed using the accumulated image data as learning data, and the parameters used for image recognition processing are updated. There is a system that provides the image recognition device with the image recognition device.

特開2015-135552号公報JP 2015-135552 A

しかしながら、従来の画像認識装置は、認識対象物を撮像する撮像装置と認識対象物との相対速度によっては、認識対象物を正確に画像認識することができないことがある。 However, the conventional image recognition device may not be able to perform image recognition of the recognition target accurately depending on the relative speed between the imaging device that captures the recognition target and the recognition target.

実施形態の一態様は、上記に鑑みてなされたものであって、認識対象物を撮像する撮像装置と認識対象物との相対速度によらず、正確に認識対象物を画像認識することができる画像認識装置、画像認識方法、機械学習モデル提供装置、機械学習モデル提供方法、機械学習モデル生成方法、および機械学習モデル装置を提供することを目的とする。 One aspect of the embodiments has been made in view of the above, and enables accurate image recognition of a recognition target regardless of the relative speed between an imaging device that captures an image of the recognition target and the recognition target. An object of the present invention is to provide an image recognition device, an image recognition method, a machine learning model providing device, a machine learning model providing method, a machine learning model generating method, and a machine learning model device.

実施形態の一態様に係る画像認識装置は、取得部と、判別部と、記憶部と、判定部とを備える。取得部は、撮像装置から認識対象物が撮像された画像を取得する。判別部は、前記撮像装置および前記認識対象物間の相対速度を判別する。記憶部は、前記認識対象物が撮像された画像から当該画像内の被写体が前記認識対象物であるという認識結果を導出する機械学習モデルを速度範囲毎に記憶する。判定部は、複数の前記機械学習モデルから前記判別部によって判別される前記相対速度に応じた前記速度範囲の前記機械学習モデルを採用して前記画像内の被写体を判定する。 An image recognition device according to an aspect of an embodiment includes an acquisition unit, a determination unit, a storage unit, and a determination unit. The acquisition unit acquires an image in which a recognition target is captured from the imaging device. A determination unit determines a relative speed between the imaging device and the recognition object. The storage unit stores, for each speed range, a machine learning model for deriving a recognition result that a subject in the image is the recognition target object from an image of the recognition target object. The determination unit determines the subject in the image by employing the machine learning model in the speed range corresponding to the relative speed determined by the determination unit from among the plurality of machine learning models.

実施形態の一態様に係る画像認識装置、画像認識方法、機械学習モデル提供装置、機械学習モデル提供方法、機械学習モデル生成方法、および機械学習モデル装置は、認識対象物を撮像する撮像装置と認識対象物との相対速度によらず、正確に認識対象物を画像認識することができる。 An image recognition device, an image recognition method, a machine learning model providing device, a machine learning model providing method, a machine learning model generating method, and a machine learning model device according to one aspect of an embodiment are an imaging device that captures an image of a recognition target and a recognition target. It is possible to accurately perform image recognition of a recognition object regardless of the relative speed with respect to the object.

図1は、実施形態に係る画像認識方法の概要を示す説明図である。FIG. 1 is an explanatory diagram showing an outline of an image recognition method according to an embodiment. 図2は、実施形態に係る画像認識装置の構成の一例を示すブロック図である。FIG. 2 is a block diagram showing an example of the configuration of the image recognition device according to the embodiment. 図3Aは、実施形態に係る機械学習モデルの生成手順を示す説明図である。FIG. 3A is an explanatory diagram illustrating a procedure for generating a machine learning model according to the embodiment; 図3Bは、実施形態に係る機械学習モデルの生成手順を示す説明図である。FIG. 3B is an explanatory diagram illustrating a procedure for generating a machine learning model according to the embodiment; 図3Cは、実施形態に係る機械学習モデルの生成手順を示す説明図である。FIG. 3C is an explanatory diagram illustrating a procedure for generating a machine learning model according to the embodiment; 図4は、実施形態に係る画像認識処理の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of image recognition processing according to the embodiment. 図5は、実施形態に係る画像認識装置の制御部が実行する処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of processing executed by a control unit of the image recognition device according to the embodiment; FIG.

以下、添付図面を参照して、画像認識装置、画像認識方法、機械学習モデル提供装置、機械学習モデル提供方法、機械学習モデル生成方法、および機械学習モデル装置の実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。以下では、車両に搭載される撮像装置から取得する車両の周囲が撮像された画像に写る被写体を画像認識する画像認識装置および画像認識方法を例に挙げて説明する。 Hereinafter, embodiments of an image recognition device, an image recognition method, a machine learning model providing device, a machine learning model providing method, a machine learning model generating method, and a machine learning model device will be described in detail with reference to the accompanying drawings. In addition, this invention is not limited by embodiment shown below. In the following, an image recognition apparatus and an image recognition method for recognizing an object appearing in an image of the surroundings of a vehicle obtained from an imaging device mounted on the vehicle will be described as an example.

図1は、実施形態に係る画像認識方法の概要を示す説明図である。実施形態に係る画像認識装置1は、車両に搭載される撮像装置から車両の周囲が撮像された画像を取得する。ここでは、例えば、図1(a)に示すように、画像認識装置1が、撮像装置および画像認識装置1を搭載した車両(以下、「自車両」と記載する)の周囲を走行する他の車両100が写った画像101を取得した場合を例に挙げて説明する。 FIG. 1 is an explanatory diagram showing an outline of an image recognition method according to an embodiment. The image recognition device 1 according to the embodiment acquires an image of the surroundings of the vehicle from an imaging device mounted on the vehicle. Here, for example, as shown in FIG. 1A, the image recognition device 1 is a vehicle (hereinafter referred to as "own vehicle") in which the imaging device and the image recognition device 1 are mounted. A case where an image 101 showing a vehicle 100 is acquired will be described as an example.

他の車両100のように移動する認識対象物が撮像される場合、画像101には、人間が目視した他の車両100の形状とは若干異なる形状の他の車両100が写る場合がある。例えば、シャッタースピードが比較的遅い撮像装置によって高速で移動する他の車両100を撮像した場合、図1(a)に示すように、画像101中の他の車両100の像にブレが発生することがある。 When a moving recognition object such as another vehicle 100 is captured, the image 101 may include another vehicle 100 having a shape slightly different from the shape of the other vehicle 100 seen by humans. For example, when another vehicle 100 moving at high speed is imaged by an imaging device with a relatively slow shutter speed, blurring occurs in the image of the other vehicle 100 in the image 101 as shown in FIG. There is

また、シャッタースピードが比較的遅い撮像装置によって横方向に高速で移動する被写体を撮像した場合、被写体が実際の形状よりも横方向に伸びた形状となって画像に写ることがある。 In addition, when an image capturing apparatus with a relatively slow shutter speed captures an image of a subject moving in the lateral direction at high speed, the subject may be captured in an image with a shape that extends in the lateral direction more than the actual shape of the subject.

具体的には、撮像装置は、複数の撮像素子が行列状に配置される撮像領域の上の行に配置される撮像素子から順に駆動(露光)して1フレームの画像を撮像する。このため、撮像領域における上部分で撮像された被写体は、撮像領域における下部分で撮像されるときには既に横方向へ移動している。 Specifically, the imaging device sequentially drives (exposes) the imaging elements arranged in the upper row of an imaging region in which a plurality of imaging elements are arranged in a matrix to capture an image of one frame. Therefore, the subject imaged in the upper part of the imaging area has already moved in the horizontal direction when it is imaged in the lower part of the imaging area.

その結果、画像には、実際の形状よりも横方向に伸びた形状の被写体が写る所謂ローリングシャッター現象(以下、ローリング現象と記載する)が発生する。かかるローリング現象の程度やブレの大きさは、撮像装置と被写体との相対速度の違いによって変動する。 As a result, a so-called rolling shutter phenomenon (hereinafter referred to as a rolling phenomenon) occurs in an image, in which an object that is longer in the horizontal direction than its actual shape is captured. The degree of such rolling phenomenon and the magnitude of blurring vary depending on the difference in relative speed between the imaging device and the subject.

このため、例えば、他の車両100が写った画像101から被写体は他の車両100であるという画像認識結果を導出する機械学習モデルを生成するためには、ローリング現象の程度やブレの大きさが異なる膨大な枚数の画像を教材として使用した機械学習が必要となる。 For this reason, for example, in order to generate a machine learning model for deriving an image recognition result that the subject is another vehicle 100 from an image 101 in which another vehicle 100 is captured, the degree of rolling phenomenon and the magnitude of blurring must be determined. Machine learning using a huge number of different images as teaching materials is required.

また、仮に膨大な枚数の画像を教材として使用した機械学習によって機械学習モデルを生成したとしても、他の車両100が写った画像101から被写体が他の車両100であるという正確な画像認識結果を導出できない場合もある。 Further, even if a machine learning model is generated by machine learning using a huge number of images as teaching materials, an accurate image recognition result that the subject is another vehicle 100 from the image 101 showing another vehicle 100 can be obtained. In some cases, it cannot be derived.

例えば、ローリング現象やブレが発生した画像中の車両を機械学習モデルによって画像認識する場合、その画像と類似した画像が機械学習の教材に含まれていたとしても、教材の中にはローリング現象やブレの程度が異なる画像も多く含まれている。 For example, when recognizing a vehicle in an image with a rolling phenomenon or blurring using a machine learning model, even if an image similar to that image is included in the machine learning teaching material, the rolling phenomenon or blurring phenomenon may not Many images with different degrees of blurring are included.

このため、機械学習モデルによる判定では、画像中の被写体が車両であるという判定結果の尤度が低くなり、画像中の被写体が車両と判定されず、正確な画像認識結果を導出することができない場合がある。 Therefore, in the determination by the machine learning model, the likelihood of the determination result that the subject in the image is a vehicle is low, the subject in the image is not determined to be a vehicle, and an accurate image recognition result cannot be derived. Sometimes.

そこで、実施形態に係る画像認識装置1は、画像101を取得すると、まず、撮像装置と認識対象物(ここでは、他の車両100)との相対速度を判別する。そして、画像認識装置1は、例えば、相対速度が第1速度範囲、第2速度範囲、および第3速度範囲のどの範囲に含まれるかを判定する。 Therefore, when the image recognition device 1 according to the embodiment acquires the image 101, first, the relative speed between the imaging device and the recognition target (here, another vehicle 100) is determined. Then, the image recognition device 1 determines, for example, in which range the relative speed is included among the first speed range, the second speed range, and the third speed range.

ここでは、第1速度範囲が最も遅い速度範囲であり、第2速度範囲が第1速度範囲よりも速く、第3速度範囲よりも遅い速度範囲であるものとする。画像認識装置1は、例えば、画像中における被写体の移動速度を相対速度として判別する。なお、移動速度の判別方法は、これに限定されるものではない。 Here, the first speed range is the slowest speed range, and the second speed range is faster than the first speed range and slower than the third speed range. The image recognition device 1 determines, for example, the moving speed of the subject in the image as the relative speed. Note that the moving speed determination method is not limited to this.

このとき、画像認識装置1は、例えば、図1(b)に示すように、相対速度が第2速度範囲に含まれると判別した場合、図1(c)に示す画像認識処理を行う。具体的には、画像認識装置1は、一例として第1速度範囲用機械学習モデル1-1、第2速度範囲用機械学習モデル1-2、および第3速度範囲用機械学習モデル1-3という3つの機械学習モデルを備える。 At this time, for example, when the image recognition device 1 determines that the relative speed is included in the second speed range as shown in FIG. 1(b), the image recognition processing shown in FIG. 1(c) is performed. Specifically, the image recognition device 1 has, for example, a first speed range machine learning model 1-1, a second speed range machine learning model 1-2, and a third speed range machine learning model 1-3. It has three machine learning models.

第1速度範囲用機械学習モデル1-1は、例えば、被写体との相対速度が第1速度範囲に含まれる車両の画像認識に特化された機械学習モデルである。第2速度範囲用機械学習モデル1-2は、例えば、被写体との相対速度が第2速度範囲に含まれる車両の画像認識に特化された機械学習モデルである。 The first speed range machine learning model 1-1 is, for example, a machine learning model specialized for image recognition of a vehicle whose relative speed to the subject is within the first speed range. The second speed range machine learning model 1-2 is, for example, a machine learning model specialized for image recognition of a vehicle whose relative speed to the subject is within the second speed range.

第3速度範囲用機械学習モデル1-3は、例えば、被写体との相対速度が第3速度範囲に含まれる車両の画像認識に特化された機械学習モデルである。なお、画像認識装置1が備える機械学習モデルの数は、複数であれば3つに限定されるものではない。 The third speed range machine learning model 1-3 is, for example, a machine learning model specialized for image recognition of a vehicle whose relative speed to the subject is within the third speed range. Note that the number of machine learning models provided in the image recognition device 1 is not limited to three as long as it is plural.

また、以下では、3つの機械学習モデルのうち、不特定の機械学習モデルを指す場合には、単に機械学習モデルと記載する。これら3つの機械学習モデルの生成手順の一例については、図3A,図3B,図3Cを参照して後述する。 Moreover, below, when referring to an unspecified machine learning model among the three machine learning models, it is simply described as a machine learning model. An example of the procedure for generating these three machine learning models will be described later with reference to FIGS. 3A, 3B, and 3C.

画像認識装置1は、上記のように、被写体との相対速度が第2速度範囲に含まれると判別した場合、3つの機械学習モデルのうち、第2速度範囲用機械学習モデル1-2へ画像101を入力する。これにより、画像認識装置1は、被写体が他の車両100であるという正確な画像認識結果102を導出することができる。 As described above, when the image recognition apparatus 1 determines that the relative velocity with respect to the subject is included in the second velocity range, the image recognition apparatus 1 transfers the image to the machine learning model 1-2 for the second velocity range among the three machine learning models. Enter 101. As a result, the image recognition device 1 can derive the correct image recognition result 102 that the subject is another vehicle 100 .

次に、図2を参照し、実施形態に係る画像認識装置1の構成の一例について説明する。図2は、実施形態に係る画像認識装置1の構成の一例を示すブロック図である。図2に示すように、画像認識装置1は、撮像装置41、レーダ42、舵角センサ43、および車両制御装置44と接続される。 Next, an example of the configuration of the image recognition device 1 according to the embodiment will be described with reference to FIG. FIG. 2 is a block diagram showing an example of the configuration of the image recognition device 1 according to the embodiment. As shown in FIG. 2 , the image recognition device 1 is connected to an imaging device 41 , radar 42 , steering angle sensor 43 and vehicle control device 44 .

なお、相対速度別画像集110は、認識対象物が写った複数枚の画像を含む画像集である。相対速度別画像集110に含まれる各画像は、画像に写っている被写体の種類、撮像時における被写体と撮像装置との相対速度を示す情報が付与されている。 Note that the image collection classified by relative speed 110 is an image collection including a plurality of images in which the object to be recognized is shown. Each image included in the image collection classified by relative speed 110 is provided with information indicating the type of subject in the image and the relative speed between the subject and the imaging device at the time of imaging.

かかる相対速度別画像集110は、画像認識処理の教師あり機械学習の教材として画像認識装置1によって使用される。相対速度別画像集110の一例については、図3A、図3Bおよび図3Cを参照し、機械学習モデルの生成手順の説明と合わせて後述する。 The image collection classified by relative speed 110 is used by the image recognition apparatus 1 as teaching materials for supervised machine learning of image recognition processing. An example of the image collection classified by relative speed 110 will be described later with reference to FIGS. 3A, 3B, and 3C together with the description of the procedure for generating the machine learning model.

撮像装置41は、例えば、画像認識装置1が搭載される車両の前部に設置されて車両の前方を撮像する車載カメラである。なお、撮像装置41は、車両の側部や後部に設けられ、車両の周囲を撮像する車載カメラであってもよい。撮像装置41は、撮像した画像を画像認識装置1へ出力する。 The imaging device 41 is, for example, an in-vehicle camera that is installed at the front of the vehicle on which the image recognition device 1 is mounted and captures an image of the front of the vehicle. Note that the imaging device 41 may be an in-vehicle camera that is provided at the side or rear of the vehicle and captures an image of the surroundings of the vehicle. The imaging device 41 outputs the captured image to the image recognition device 1 .

レーダ42は、例えば、ミリ波の送信波を車両の周囲へ放射して物標に反射した送信波の反射波を受信し、送信波と受信波とに基づいて車両から物標までの距離、物標が存在する角度、車両に対する物標の相対速度を検知するミリ波レーダである。レーダ42は、検知した相対速度を画像認識装置1へ出力する。舵角センサ43は、車両の操舵角度を検知するセンサである。舵角センサ43は、検知した操舵角度を画像認識装置1へ出力する。 The radar 42, for example, radiates millimeter-wave transmission waves to the surroundings of the vehicle, receives the reflected waves of the transmission waves reflected by the target, and calculates the distance from the vehicle to the target based on the transmission waves and the reception waves. It is a millimeter-wave radar that detects the angle at which a target exists and the relative speed of the target to the vehicle. The radar 42 outputs the detected relative velocity to the image recognition device 1 . The steering angle sensor 43 is a sensor that detects the steering angle of the vehicle. The steering angle sensor 43 outputs the detected steering angle to the image recognition device 1 .

車両制御装置44は、例えば、車両全体を統括制御するECU(Electronic Control Unit)である。車両制御装置44は、例えば、画像認識装置1によって自車両の走行に支障をきたすような被写体が画像認識された場合に、車両の速度制御、操舵制御、および制動制御を行うことによって車両に障害物を回避させる。 The vehicle control device 44 is, for example, an ECU (Electronic Control Unit) that controls the entire vehicle. For example, when the image recognition device 1 recognizes an object that may hinder the running of the own vehicle, the vehicle control device 44 controls the speed, steering, and braking of the vehicle to prevent the vehicle from being disturbed. avoid things.

また、画像認識装置1は、制御部2と記憶部3とを備える。記憶部3は、例えば、データフラッシュ等の情報記憶デバイスである。記憶部3は、第1速度範囲用機械学習モデル1-1、第2速度範囲用機械学習モデル1-2・・・第n速度範囲用機械学習モデル1-n(nは、3以上の自然数)というn個の機械学習モデルを記憶する。 The image recognition device 1 also includes a control unit 2 and a storage unit 3 . The storage unit 3 is, for example, an information storage device such as data flash. The storage unit 3 stores a first speed range machine learning model 1-1, a second speed range machine learning model 1-2, ... an n-th speed range machine learning model 1-n (n is a natural number of 3 or more ) are stored as n machine learning models.

制御部2は、CPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)などを有するマイクロコンピュータや各種の回路を含む。 The control unit 2 includes a microcomputer having a CPU (Central Processing Unit), a ROM (Read Only Memory), a RAM (Random Access Memory), and various circuits.

制御部2は、CPUがROMに記憶されたプログラムを、RAMを作業領域として使用して実行することにより機能する学習部21、取得部22、判別部23、および判定部24を備える。なお、制御部2は、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等のハードウェアで構成されてもよい。 The control unit 2 includes a learning unit 21, an acquisition unit 22, a determination unit 23, and a determination unit 24 that function when the CPU executes a program stored in the ROM using the RAM as a work area. Note that the control unit 2 may be configured by hardware such as an ASIC (Application Specific Integrated Circuit) or an FPGA (Field Programmable Gate Array).

制御部2が備える学習部21、取得部22、判別部23、および判定部24は、それぞれ以下に説明する情報処理の作用を実現または実行する。なお、制御部2の内部構成は、図2に示した構成に限られず、後述する情報処理を行う構成であれば他の構成であってもよい。 The learning unit 21, the acquisition unit 22, the determination unit 23, and the determination unit 24 included in the control unit 2 implement or execute the information processing operation described below. Note that the internal configuration of the control unit 2 is not limited to the configuration shown in FIG. 2, and may be another configuration as long as it performs the information processing described later.

学習部21は、相対速度別画像集110から各相対速度範囲および被写体の種類別に複数枚(例えば、数千枚)の画像を取得する。そして、学習部21は、取得した画像を教師あり機械学習の教材として使用して各相対速度範囲および被写体の種類別に、それぞれ機械学習モデル(例えば、車両を画像認識するための第1速度範囲用機械学習モデル1-1等)を生成して記憶部3に記憶させる。 The learning unit 21 acquires a plurality of images (for example, thousands of images) for each relative velocity range and object type from the collection of images classified by relative velocity 110 . Then, the learning unit 21 uses the acquired images as teaching materials for supervised machine learning to create a machine learning model (for example, a first speed range for image recognition of a vehicle) for each relative speed range and object type. Machine learning model 1-1, etc.) is generated and stored in the storage unit 3.

ここで、図3A、図3B、および図3Cを参照し、実施形態に係る機械学習モデルの生成手順の一例について説明する。図3A、図3B、および図3Cは、実施形態に係る機械学習モデルの生成手順を示す説明図である。 Here, an example of the machine learning model generation procedure according to the embodiment will be described with reference to FIGS. 3A, 3B, and 3C. 3A, 3B, and 3C are explanatory diagrams showing the procedure for generating a machine learning model according to the embodiment.

ここでは、画像に含まれる車両を画像認識するための機械学習モデルを生成する場合について説明する。なお、学習部21は、車両以外にも、オートバイ、自転車、歩行者等を画像認識するための機械学習モデルも生成することができる。 Here, a case of generating a machine learning model for image recognition of a vehicle included in an image will be described. The learning unit 21 can also generate machine learning models for image recognition of motorcycles, bicycles, pedestrians, etc., in addition to vehicles.

図3Aに示すように、学習部21は、被写体と撮像装置41との相対速度が最も遅い第1速度範囲用機械学習モデル1-1を生成する場合、相対速度別画像集110から第1速度範囲画像集10-1の画像11-1,11-2等を取得する。 As shown in FIG. 3A, when the learning unit 21 generates the machine learning model 1-1 for the first speed range in which the relative speed between the subject and the imaging device 41 is the slowest, the learning unit 21 selects the first speed range from the image collection 110 classified by relative speed. Images 11-1, 11-2, etc. of the range image collection 10-1 are obtained.

第1速度範囲画像集10-1に含まれる画像は、被写体と撮像装置41との相対速度が最も遅いので、画像11-1,11-2等のように、ローリング現象やブレが発生していない。 The images included in the first speed range image collection 10-1 have the slowest relative speed between the subject and the imaging device 41, so rolling phenomena and blurring occur as in images 11-1 and 11-2. do not have.

学習部21は、これらの画像の特徴を機械学習することにより、撮像装置に対する相対速度が第1速度範囲に含まれる車両が撮像された画像が入力された場合に、被写体は車両であるという画像認識結果を出力する第1速度範囲用機械学習モデル1-1を生成する。 The learning unit 21 machine-learns the features of these images, so that when an image of a vehicle whose relative speed to the imaging device is within the first speed range is input, an image indicating that the subject is the vehicle is input. A first speed range machine learning model 1-1 for outputting recognition results is generated.

また、図3Bに示すように、学習部21は、被写体と撮像装置41との相対速度が第1区度範囲の次に速い第2速度範囲用機械学習モデル1-2を生成する場合、相対速度別画像集110から第2速度範囲画像集10-2の画像12-1,12-2等を取得する。 Further, as shown in FIG. 3B, when the learning unit 21 generates the machine learning model 1-2 for the second speed range in which the relative speed between the subject and the imaging device 41 is the second fastest after the first speed range, the relative The images 12-1, 12-2, etc. of the second speed range image collection 10-2 are acquired from the speed-specific image collection 110. FIG.

第2速度範囲画像集10-2に含まれる画像は、被写体と撮像装置41との相対速度が第1速度範囲よりも速いので、画像12-1,12-2等のように、若干ではあるがローリング現象やブレが発生している。 The images included in the second speed range image collection 10-2 are slightly different, such as images 12-1 and 12-2, because the relative speed between the subject and the imaging device 41 is faster than that in the first speed range. is rolling or blurring.

学習部21は、これらの画像の特徴を機械学習することにより、撮像装置に対する相対速度が第2速度範囲に含まれる車両が撮像された画像が入力された場合に、被写体は車両であるという画像認識結果を出力する第2速度範囲用機械学習モデル1-2を生成する。 The learning unit 21 machine-learns the features of these images, so that when an image of a vehicle whose relative speed with respect to the imaging device is within the second speed range is input, an image indicating that the subject is a vehicle is input. A second speed range machine learning model 1-2 for outputting recognition results is generated.

また、図3Cに示すように、学習部21は、被写体と撮像装置41との相対速度が最も速い第n速度範囲用機械学習モデル1-nを生成する場合、相対速度別画像集110から第n速度範囲画像集10-nの画像13-1,13-2等を取得する。 Further, as shown in FIG. 3C, when the learning unit 21 generates the n-th speed range machine learning model 1-n in which the relative speed between the object and the imaging device 41 is the fastest, Images 13-1, 13-2, etc. of n speed range image collection 10-n are obtained.

第n速度範囲画像集10-nに含まれる画像は、被写体と撮像装置41との相対速度が最も速いので、画像13-1,13-2等のように、大きなブレや顕著なローリング現象が発生している。 Since the images included in the n-th speed range image collection 10-n have the fastest relative speed between the subject and the imaging device 41, large shakes and remarkable rolling phenomena occur as in images 13-1 and 13-2. It has occurred.

学習部21は、これらの画像の特徴を機械学習することにより、撮像装置に対する相対速度が第n速度範囲に含まれる車両が撮像された画像が入力された場合に、被写体は車両であるという画像認識結果を出力する第n速度範囲用機械学習モデル1-nを生成する。 The learning unit 21 machine-learns the features of these images, so that when an image of a vehicle whose relative speed to the imaging device is within the n-th speed range is input, an image indicating that the subject is a vehicle is input. A machine learning model 1-n for the n-th speed range that outputs recognition results is generated.

このように、学習部21は、相対速度の速度範囲毎に入力される各速度範囲内の相対速度で移動する種類が既知の認証対象が撮像された複数の画像に基づいて、速度範囲毎の機械学習モデルを生成する。これにより、各速度範囲用機械学習モデルは、各速度範囲に含まれない相対速度で移動する認証対象が撮像された画像の影響が反映されることがない。 In this way, the learning unit 21 obtains information for each speed range based on a plurality of images in which the type of authentication object moving at a relative speed within each speed range input for each speed range of the relative speed is captured. Generate machine learning models. As a result, the machine learning model for each speed range does not reflect the influence of the captured image of the authentication target moving at a relative speed that is not included in each speed range.

また、学習部21は、速度範囲毎に画像を機械学習することにより、教材となる画像から被写体の速度を識別学習する必要がなくため、教材として使用する画像の枚数を大幅に低減することができる。 In addition, since the learning unit 21 does not need to identify and learn the speed of the subject from images used as teaching materials by performing machine learning on images for each speed range, the number of images used as teaching materials can be greatly reduced. can.

なお、上記した機械学習モデルの生成手順は、フレームレート(シャッタースピード)が固定であるものとして説明したが、シャッタースピードが可変の撮像装置41の場合、速度範囲毎に機械学習する場合の各速度範囲をシャッタースピードに応じて正規化する。 The above-described machine learning model generation procedure has been described assuming that the frame rate (shutter speed) is fixed. Normalize the range according to the shutter speed.

例えば、あるフレームレートを基準フレームレートとして設定しておき、撮像装置41のフレームレートが基準フレームレートの場合には、基準フレームレートに対応する基準速度範囲に係数として1を乗算した速度範囲とする。 For example, if a certain frame rate is set as the reference frame rate and the frame rate of the imaging device 41 is the reference frame rate, the reference speed range corresponding to the reference frame rate is multiplied by 1 as a coefficient to set the speed range. .

フレームレートが基準フレームレート以外の場合には、基準速度範囲に係数(基準フレームレート/撮像フレームレート)を乗算した速度範囲とする。これにより、学習部21は、撮像装置41に設定されるフレームレートに応じた適切な速度範囲毎に画像の機械学習モデルを生成することができる。 If the frame rate is other than the reference frame rate, the speed range is obtained by multiplying the reference speed range by a coefficient (reference frame rate/imaging frame rate). Thereby, the learning unit 21 can generate a machine learning model of an image for each appropriate speed range according to the frame rate set in the imaging device 41 .

また、機械学習の教材として使用される画像は、ズームの倍率によって画像内を移動する認識対象の移動速度が変動する。このため、教材に使用される画像は、ズームの倍率を自車両から画像中の認識対象までの距離が基準距離となるように正規化しておくことが望ましい。 Also, in images used as teaching materials for machine learning, the movement speed of a recognition target moving within the image varies depending on the zoom ratio. For this reason, it is desirable to normalize the zoom magnification of images used as teaching materials so that the distance from the own vehicle to the recognition target in the image is the reference distance.

また、画像認識装置1(後述の判定部24)が実際に画像認識する画像についても、同様にズームの倍率を自車両から画像中の認識対象までの距離が基準距離となるように正規化しておくことが望ましい。なお、画像のズームを正規化する場合に使用する認識対象までの距離は、レーダ42から取得することが可能である。 Similarly, for the image that the image recognition device 1 (determining unit 24, which will be described later) actually recognizes, the zoom magnification is normalized so that the distance from the own vehicle to the recognition target in the image becomes the reference distance. It is desirable to keep Note that the distance to the recognition target used when normalizing the image zoom can be obtained from the radar 42 .

図2へ戻り、制御部2が備える学習部21以外の処理部の説明を進める。取得部22は、撮像装置41から車両周辺が撮像された画像を順次取得して判別部23へ出力する。判別部23は、取得部22から入力される画像の被写体と撮像装置41との相対速度を判別する。 Returning to FIG. 2, the description of the processing units other than the learning unit 21 included in the control unit 2 will proceed. The acquisition unit 22 sequentially acquires images of the vehicle periphery from the imaging device 41 and outputs the images to the determination unit 23 . The determination unit 23 determines the relative speed between the subject of the image input from the acquisition unit 22 and the imaging device 41 .

判別部23は、画像中における被写体の移動速度を被写体と撮像装置41との相対速度として判別する。これにより、判別部23は、被写体と撮像装置41との物理的な位置関係による相対速度よりも、被写体のブレやローリング現象に直接的に影響する相対速度を判別することができる。 The determination unit 23 determines the moving speed of the subject in the image as the relative speed between the subject and the imaging device 41 . Thereby, the determination unit 23 can determine relative velocity that directly affects blurring and rolling phenomenon of the subject rather than relative velocity based on the physical positional relationship between the subject and the imaging device 41 .

判別部23は、例えば、撮像装置41によって連続して撮像される複数フレームの画像間における被写体の位置の移動速度を被写体と撮像装置41との相対速度として判別する。これにより、判別部23は、画像中における被写体と撮像装置41との正確な相対速度を判別することができる。 The determining unit 23 determines, for example, the moving speed of the position of the subject between the images of a plurality of frames continuously captured by the imaging device 41 as the relative speed between the subject and the imaging device 41 . Thereby, the determination unit 23 can accurately determine the relative speed between the subject and the imaging device 41 in the image.

このとき、撮像装置41から入力される画像は、ズームの倍率によって画像内を移動する認識対象の移動速度が変動する。このため、判別部23は、撮像装置41から入力される画像のズームの倍率を自車両から画像中の認識対象までの距離が基準距離となるように正規化しておくことが望ましい。判別部23は、画像のズームを正規化する場合に使用する認識対象までの距離をレーダ42から取得することが可能である。 At this time, in the image input from the imaging device 41, the moving speed of the recognition target moving within the image varies depending on the zoom magnification. Therefore, it is desirable that the determination unit 23 normalizes the zoom magnification of the image input from the imaging device 41 so that the distance from the own vehicle to the recognition target in the image becomes the reference distance. The determination unit 23 can acquire from the radar 42 the distance to the recognition target used when normalizing the zoom of the image.

また、連続するフレーム間で認識対象が写る位置は、撮像装置41のフレームレート(シャッタースピード)によっても変わる。このため、判別部23は、撮像装置41のフレームレートが可変の場合には、撮像装置41に設定されているフレームレートに応じて認証対象の移動速度を正規化することが望ましい。 In addition, the position where the recognition target is captured between consecutive frames also changes depending on the frame rate (shutter speed) of the imaging device 41 . Therefore, when the frame rate of the imaging device 41 is variable, it is desirable that the determination unit 23 normalizes the moving speed of the authentication object according to the frame rate set in the imaging device 41 .

また、判別部23は、例えば、レーダ42から入力される車両と被写体との相対速度を被写体と撮像装置41との相対速度として判別することもできる。これにより、判別部23は、相対速度を判別する処理を行うことなく、被写体と撮像装置41との相対速度を判別することができる。 The determination unit 23 can also determine the relative speed between the vehicle and the subject input from the radar 42 as the relative speed between the subject and the imaging device 41, for example. Accordingly, the determination unit 23 can determine the relative speed between the subject and the imaging device 41 without performing processing for determining the relative speed.

ただし、判別部23は、レーダ42から入力される相対速度を被写体と撮像装置41との相対速度として判別すると、画像中における被写体の正確な移動速度を判別できない場合がある。例えば、車両が交差点を右左折する場合、撮像装置41の撮像方向が急に変わるので、被写体と撮像装置41との相対速度よりも速い移動速度で被写体が画像中を移動することがある。 However, if the determination unit 23 determines the relative speed input from the radar 42 as the relative speed between the subject and the imaging device 41, it may not be possible to accurately determine the moving speed of the subject in the image. For example, when a vehicle makes a right or left turn at an intersection, the imaging direction of the imaging device 41 changes suddenly, so the subject may move in the image at a faster moving speed than the relative speed between the subject and the imaging device 41 .

このため、判別部23は、レーダ42から入力される相対速度を被写体と撮像装置41との相対速度として判別する場合、撮像装置41による撮像方向の変化速度に基づいて、レーダ42から入力される相対速度を補正する。 Therefore, when determining the relative velocity input from the radar 42 as the relative velocity between the subject and the imaging device 41 , the determination unit 23 determines the relative velocity input from the radar 42 based on the change speed of the imaging direction of the imaging device 41 . Compensate for relative velocity.

例えば、判別部23は、舵角センサ43から入力される車両の操舵角に基づいて、車両の進行方向の変化速度、つまり、撮像方向の変化速度を推定し、推定した撮像方向の変化速度に基づいて、レーダ42から入力される相対速度を補正する。 For example, based on the steering angle of the vehicle input from the steering angle sensor 43, the determination unit 23 estimates the change speed of the traveling direction of the vehicle, that is, the change speed of the imaging direction. Based on this, the relative velocity input from the radar 42 is corrected.

これにより、判別部23は、画像中における被写体の正確な移動速度に近い移動速度を被写体と撮像装置41との相対速度として判別することができる。そして、判別部23は、判別した被写体と撮像装置41との相対速度と、撮像装置41から入力された画像とを判定部24へ出力する。 Thereby, the determination unit 23 can determine a moving speed close to the accurate moving speed of the subject in the image as the relative speed between the subject and the imaging device 41 . The determination unit 23 then outputs the determined relative velocity between the subject and the imaging device 41 and the image input from the imaging device 41 to the determination unit 24 .

判定部24は、判別部23から入力される画像中の被写体を画像認識する場合、記憶部3に記憶された複数の機械学習モデルのうち、判別部23から入力される相対速度を含む速度範囲用の機械学習モデルを採用して被写体を判定する。 When recognizing an object in an image input from the determination unit 23, the determination unit 24 selects a speed range including the relative speed input from the determination unit 23 from among the plurality of machine learning models stored in the storage unit 3. A machine learning model for is adopted to determine the subject.

ここで、図4を合わせて参照しながら、判定部24による画像認識処理の一例について説明する。図4は、実施形態に係る画像認識処理の一例を示す説明図である。図4(a)に示すように、判定部24は、例えば、ブレが発生した車両の像103が写った画像104が判別部23から入力される場合、画像104を複数の分割領域に分割する。 Here, an example of image recognition processing by the determination unit 24 will be described with reference to FIG. 4 as well. FIG. 4 is an explanatory diagram illustrating an example of image recognition processing according to the embodiment. As shown in FIG. 4A, for example, when an image 104 including an image 103 of a vehicle in which blur occurs is input from the determination unit 23, the determination unit 24 divides the image 104 into a plurality of divided regions. .

そして、判定部24は、判別部23から入力される相対速度が第2速度範囲に含まれていた場合、図4(b)に示すように、第2速度範囲用機械学習モデル1-2を採用する。第2速度範囲用機械学習モデル1-2は、概念的には、図4(b)に示すように、入力層2a、中間層2b、および出力層2cという3層構造の処理層を備える。なお、図4(a)では、中間層2bが1層である場合を示しているが、中間層2bは複数層設けられてもよい。 Then, when the relative speed input from the determination unit 23 is included in the second speed range, the determination unit 24 selects the second speed range machine learning model 1-2 as shown in FIG. adopt. The second speed range machine learning model 1-2 conceptually comprises processing layers having a three-layer structure, an input layer 2a, an intermediate layer 2b, and an output layer 2c, as shown in FIG. 4(b). In addition, although FIG. 4A shows the case where the intermediate layer 2b is one layer, the intermediate layer 2b may be provided in plural layers.

入力層2a、中間層2b、および出力層2cは、各分割領域の画像が車両の一部か否かの判定を並行して行う複数のノード2zを備える。入力層2aの各ノード2zは、それぞれ中間層2bの全ノード2zと接続される。中間層2bの各ノード2zは、それぞれ出力層2cの全ノード2zと接続される。このように、第2速度範囲用機械学習モデル1-2は、ノード2z同士が接続されたニューラルネットワーク構造となっている。 The input layer 2a, the intermediate layer 2b, and the output layer 2c are provided with a plurality of nodes 2z that concurrently determine whether or not the image of each divided area is part of the vehicle. Each node 2z of the input layer 2a is connected to all nodes 2z of the intermediate layer 2b. Each node 2z of the intermediate layer 2b is connected to all nodes 2z of the output layer 2c. Thus, the second speed range machine learning model 1-2 has a neural network structure in which the nodes 2z are connected to each other.

判定部24は、画像104の各分割領域の画像を入力層2aの各ノード2zへ入力する。入力層2aの各ノード2zは、順次入力される各分割領域の画像が車両の一部か否かの判定を行い、車両の一部である可能性が高い程高い重み付けをした判定結果を中間層2bのノード2zへ出力する。 The determination unit 24 inputs the image of each divided area of the image 104 to each node 2z of the input layer 2a. Each node 2z of the input layer 2a determines whether or not the image of each divided region sequentially input is a part of the vehicle. Output to node 2z of layer 2b.

中間層2bの各ノード2zも同様に、各分割領域の画像が車両の一部か否かの判定を行い、車両の一部である可能性が高い程高い重み付けをした判定結果を出力層2cのノード2zへ出力する。 Similarly, each node 2z of the intermediate layer 2b determines whether or not the image of each divided area is a part of the vehicle. to node 2z of .

出力層2cの各ノード2zは、各分割領域の画像が車両の一部か否かの判定を行い、分割領域毎の判定結果2dを出力する。なお、図4(b)には、画像104における下から4行目の分割領域の判定結果2dを示している。 Each node 2z of the output layer 2c determines whether the image of each divided area is a part of the vehicle or not, and outputs a determination result 2d for each divided area. In addition, FIG. 4B shows the determination result 2d of the divided area in the fourth row from the bottom in the image 104 .

図4(b)に示す例では、第2速度範囲用機械学習モデル1-2は、画像104における下から4行目の分割領域について、左右両端の分割領域の画像以外を車両(車両の一部)と判定している。 In the example shown in FIG. 4(b), the second speed range machine learning model 1-2, for the fourth row from the bottom of the image 104, divides the area other than the images of the left and right ends of the vehicle (one part of the vehicle). part).

第2速度範囲用機械学習モデル1-2は、画像104における全分割領域の画像について車両の一部か否かの判定を行う。判定部24は、かかる分割領域毎の判定結果2dに基づいて、図4(c)に示すように、被写体は車両であるという画像認識結果102を導出する。 The second speed range machine learning model 1-2 determines whether or not the images of all divided areas in the image 104 are part of the vehicle. Based on the determination result 2d for each divided area, the determining unit 24 derives an image recognition result 102 indicating that the subject is a vehicle, as shown in FIG. 4(c).

このとき、第2速度範囲用機械学習モデル1-2は、撮像装置41に対する相対速度が第2速度範囲内の被写体が撮像された画像だけを教材とした機械学習によって生成されているため、被写体は車両であるという正確な画像認識結果を導出することができる。 At this time, the machine learning model 1-2 for the second speed range is generated by machine learning using only the image of the subject whose relative speed with respect to the imaging device 41 is within the second speed range as teaching materials. It is possible to derive an accurate image recognition result that is a vehicle.

その後、判定部24は、画像認識した車両が自車両の走行に支障をきたすか否かを判定する。判定部24は、画像認識した車両の自車両に対する位置に基づいて自車両の走行に支障をきたすか否かを判定する。 After that, the determination unit 24 determines whether or not the image-recognized vehicle hinders the running of the own vehicle. The determination unit 24 determines whether or not there is an obstacle to running of the own vehicle based on the image-recognized position of the vehicle relative to the own vehicle.

なお、判定部24は、車両以外にも、歩行者や路面上の落下物等の被写体を画像認識した場合にも、被写体が自車両の走行に支障をきたすか否かを判定する。そして、判定部24は、画像認識したものが自車両の走行に支障をきたすと判定した場合には、画像認識したものの位置を示す情報を車両制御装置44へ出力する。 In addition to the vehicle, the determination unit 24 also determines whether or not the subject, such as a pedestrian or a falling object on the road surface, interferes with the running of the vehicle. When determining that the image-recognized object interferes with the running of the vehicle, the determination unit 24 outputs information indicating the position of the image-recognized object to the vehicle control device 44 .

車両制御装置44は、判定部24から画像認識されたものの位置を示す情報が入力される場合に、車両の速度制御、操舵制御、および制動制御を行うことによって自車両に危険を回避させる。 When the information indicating the position of the image-recognized object is input from the determination unit 24, the vehicle control device 44 performs speed control, steering control, and braking control of the vehicle to avoid danger to the own vehicle.

次に、図5を参照し、実施形態に係る画像認識装置1の制御部2が実行する処理の一例について説明する。図5は、実施形態に係る画像認識装置1の制御部2が実行する処理の一例を示すフローチャートである。 Next, an example of processing executed by the control unit 2 of the image recognition device 1 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart showing an example of processing executed by the control unit 2 of the image recognition device 1 according to the embodiment.

制御部2は、撮像装置41によって車両の周囲の画像が撮像される毎に、図5に示す処理を実行する。具体的には、制御部2は、撮像装置41によって車両の周囲の画像が撮像されると、まず、撮像装置41から画像を取得する(ステップS101)。 The control unit 2 executes the process shown in FIG. 5 each time the imaging device 41 captures an image of the surroundings of the vehicle. Specifically, when an image around the vehicle is captured by the imaging device 41, the control unit 2 first acquires the image from the imaging device 41 (step S101).

続いて、制御部2は、撮像装置41と認識対象物との相対速度を判定する(ステップS102)。その後、制御部2は、判別した相対速度を含む速度範囲の機械学習モデルを選択する(ステップS103)。 Subsequently, the control unit 2 determines the relative speed between the imaging device 41 and the recognition object (step S102). After that, the control unit 2 selects a machine learning model of the speed range including the determined relative speed (step S103).

そして、制御部2は、選択した機械学習モデルへ画像を入力し(ステップS104)、機械学習モデルの出力に基づいて被写体を判定する(ステップS105)。続いて、制御部2は、車両制御装置44への通知が必要か否かを判定する(ステップS106)。 Then, the control unit 2 inputs the image to the selected machine learning model (step S104), and determines the subject based on the output of the machine learning model (step S105). Subsequently, the control unit 2 determines whether or not notification to the vehicle control device 44 is necessary (step S106).

このとき、制御部2は、被写体の車両に対する位置および被写体の種類等に基づいて、被写体が自車両の走行に支障をきたすと判定する場合には通知が必要と判定し、支障をきたさないと判定する場合には、通知が必要でないと判定する。 At this time, based on the position of the subject with respect to the vehicle, the type of the subject, and the like, the control unit 2 determines that the notification is necessary when determining that the subject interferes with the running of the own vehicle, and determines that the subject does not interfere. If so, it is determined that notification is unnecessary.

そして、制御部2は、通知が必要でないと判定した場合(ステップS106,No)、処理を終了する。また、制御部2は、通知が必要と判定した場合には(ステップS106,Yes)、被写体の車両に対する位置を車両制御装置44へ通知して(ステップS107)、処理を終了する。 Then, when the control unit 2 determines that the notification is not necessary (step S106, No), the process ends. If the control unit 2 determines that notification is necessary (step S106, Yes), the control unit 2 notifies the vehicle control device 44 of the position of the subject relative to the vehicle (step S107), and terminates the process.

なお、上述した実施形態では、車両に搭載される撮像装置から取得する車両の周囲が撮像された画像に写る被写体を画像認識する画像認識装置および画像認識方法を例に挙げて説明したが、これは一例である。 In the above-described embodiment, an image recognition apparatus and an image recognition method for recognizing an object appearing in an image obtained by imaging the surroundings of a vehicle obtained from an imaging device mounted on the vehicle have been described as an example. is an example.

例えば、上述した画像認識装置1が備える制御部2および記憶部3の機能を複数の車両と無線通信可能なセンタに設けられる情報提供装置に持たせてもよい。かかる場合、情報提供装置は、複数の車両から相対速度別の画像を取得して機械学習し、第1~第n速度範囲用機械学習モデル1-1~1―nを作成して記憶する。 For example, the functions of the control unit 2 and the storage unit 3 included in the image recognition apparatus 1 may be provided in an information providing apparatus provided in a center capable of wireless communication with a plurality of vehicles. In such a case, the information providing device acquires images for each relative speed from a plurality of vehicles, performs machine learning, and creates and stores machine learning models 1-1 to 1-n for the first to n-th speed ranges.

尚、第1~第n速度範囲用機械学習モデル1-1~1―nには、例えばデータヘッダ部に付加する等の方法により各速度範囲用機械学習モデルの識別データが付加され、画像認識処理装置等による画像認識処理における各速度範囲用機械学習モデルの選択処理に用いられることになる。 In addition, identification data for each speed range machine learning model is added to the first to n-th speed range machine learning models 1-1 to 1-n by, for example, adding them to the data header, and image recognition is performed. It will be used for selection processing of machine learning models for each speed range in image recognition processing by a processing device or the like.

情報提供装置は、各車両から撮像された判定用の画像を受信する場合に、上述した画像認識装置1と同様の手法によって、第1~第n速度範囲用機械学習モデル1-1~1―nから選択した機械学習モデルを採用して認識対象を判定する。そして、情報提供装置は、認識対象の判定結果を画像の送信元となる車両へ返信する。 When the information providing device receives images for determination captured from each vehicle, the information providing device uses the same method as the image recognition device 1 described above to generate the first to n-th speed range machine learning models 1-1 to 1- A machine learning model selected from n is adopted to determine a recognition target. Then, the information providing device returns the determination result of the recognition target to the vehicle that is the transmission source of the image.

また、情報提供装置は、上述した画像認識装置1が備える学習部21および記憶部3の機能を備える構成であってもよい。かかる構成の場合、情報提供装置は、複数の車両から相対速度別の画像を取得して機械学習し、第1~第n速度範囲用機械学習モデル1-1~1-nを作成して記憶する。 Further, the information providing device may be configured to have the functions of the learning unit 21 and the storage unit 3 included in the image recognition device 1 described above. In such a configuration, the information providing device acquires images for each relative speed from a plurality of vehicles, performs machine learning, and creates and stores machine learning models 1-1 to 1-n for the first to n-th speed ranges. do.

そして、情報提供装置は、車両に設けられて画像内の被写体を判定する画像認識装置から指定された速度情報に応じた速度範囲の機械学習モデルを第1~第n速度範囲用機械学習モデル1-1~1-nから選択して車両の画像認識装置へ提供する。かかる情報提供装置によれば、車両側の処理負荷を大幅に低減することができる。 Then, the information providing device creates a machine learning model 1 for the first to n-th speed ranges according to the speed information specified by the image recognition device provided in the vehicle for determining the subject in the image. -1 to 1-n are selected and provided to the image recognition device of the vehicle. According to such an information providing device, the processing load on the vehicle side can be greatly reduced.

また、実施形態に係る画像認識装置および画像認識方法は、例えば、ベルトコンベアによって搬送される製品の画像を撮像するカメラや防犯カメラ等、任意の撮像装置によって任意の場所で撮像される画像に写る被写体の画像認識に適用することができる。 In addition, the image recognition device and image recognition method according to the embodiments can be used in an image captured at any place by any image capturing device, such as a camera or a security camera that captures an image of a product conveyed by a belt conveyor. It can be applied to object image recognition.

また、上述した実施形態では、画像認識装置1が学習部21を備える場合について説明したが、実施形態に係る画像認識装置は、必ずしも学習部21を備えていなくてもよい。画像認識装置は、他の機械学習装置によって生成された第1速度範囲用機械学習モデル1-1、第2速度範囲用機械学習モデル1-2・・・第n速度範囲用機械学習モデル1-nを記憶しておくことで上述した画像認識処理を行うことができる。 Further, in the above-described embodiment, the case where the image recognition device 1 includes the learning unit 21 has been described, but the image recognition device according to the embodiment does not necessarily include the learning unit 21 . The image recognition device includes a first speed range machine learning model 1-1, a second speed range machine learning model 1-2, . . . an n-th speed range machine learning model 1- By storing n, the image recognition processing described above can be performed.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。 Further effects and modifications can be easily derived by those skilled in the art. Therefore, the broader aspects of the invention are not limited to the specific details and representative embodiments so shown and described. Accordingly, various changes may be made without departing from the spirit or scope of the general inventive concept defined by the appended claims and equivalents thereof.

1 画像認識装置
2 制御部
21 学習部
22 取得部
23 判別部
24 判定部
3 記憶部
1-1 第1速度範囲用機械学習モデル
1-2 第2速度範囲用機械学習モデル
1-3 第3速度範囲用機械学習モデル
41 撮像装置
42 レーダ
43 舵角センサ
44 車両制御装置
110 相対速度別画像集
1 image recognition device 2 control unit 21 learning unit 22 acquisition unit 23 determination unit 24 determination unit 3 storage unit 1-1 machine learning model for first speed range 1-2 machine learning model for second speed range 1-3 third speed Machine learning model for range 41 Imaging device 42 Radar 43 Rudder angle sensor 44 Vehicle control device 110 Image collection by relative speed

Claims (11)

撮像装置から認識対象物が撮像された画像を取得する取得部と、
前記撮像装置および前記認識対象物間の相対速度を判別する判別部と、
前記認識対象物が撮像された画像から当該画像内の被写体が前記認識対象物であるという認識結果を導出する機械学習モデルを相対速度範囲毎に記憶する記憶部と、
複数の前記機械学習モデルから前記判別部によって判別される前記相対速度に応じた前記相対速度範囲の前記機械学習モデルを採用して前記画像内の被写体を判定する判定部と
を備えることを特徴とする画像認識装置。
an acquisition unit that acquires an image in which a recognition target is captured from an imaging device;
a determination unit that determines the relative speed between the imaging device and the recognition object;
a storage unit that stores, for each relative velocity range, a machine learning model for deriving a recognition result that the subject in the image is the recognition target object from an image in which the recognition target object is captured;
a determining unit that determines the subject in the image by adopting the machine learning model of the relative velocity range according to the relative velocity determined by the determining unit from among the plurality of machine learning models. image recognition device.
前記各機械学習モデルは、 Each machine learning model is
前記各相対速度範囲の相対速度状態にある認識対象物の画像認識に特化された機械学習モデルであることを特徴とする請求項1に記載の画像認識装置。 2. The image recognition device according to claim 1, wherein the machine learning model is specialized for image recognition of a recognition object in a state of relative velocity in each of the relative velocity ranges.
前記判別部は、
前記画像中における前記被写体の移動速度に基づき前記相対速度を判別する
ことを特徴とする請求項1または請求項2に記載の画像認識装置。
The determination unit is
3. The image recognition device according to claim 1, wherein the relative speed is determined based on the moving speed of the subject in the image.
前記判別部は、
前記撮像装置によって連続して撮像される複数フレームの画像間における前記被写体の位置の移動速度に基づき前記相対速度を判別する
ことを特徴とする請求項に記載の画像認識装置。
The determination unit is
4. The image recognition device according to claim 3 , wherein the relative speed is determined based on a moving speed of the position of the subject between images of a plurality of frames successively captured by the imaging device.
前記判別部は、
前記撮像装置による撮像方向の変化速度に基づいて前記相対速度を補正する
ことを特徴とする請求項1または請求項2に記載の画像認識装置。
The determination unit is
3. The image recognition device according to claim 1, wherein the relative speed is corrected based on a change speed of an imaging direction of the imaging device.
前記相対速度範囲毎に入力される各相対速度範囲内の前記相対速度で移動する種類が既知の前記認識対象物が撮像された複数の画像に基づいて前記相対速度範囲毎の前記機械学習モデルを生成する学習部
をさらに備えることを特徴とする請求項1~のいずれか一つに記載の画像認識装置。
The machine learning model for each relative speed range is generated based on a plurality of images in which the recognition target object whose type is known to move at the relative speed within each relative speed range input for each relative speed range is captured. The image recognition device according to any one of claims 1 to 5 , further comprising a learning unit for generating.
撮像装置から認識対象物が撮像された画像を取得する取得工程と、
前記撮像装置および前記認識対象物間の相対速度を判別する判別工程と、
前記認識対象物が撮像された画像から当該画像内の被写体が前記認識対象物であるという認識結果を導出する機械学習モデルを相対速度範囲毎に記憶する記憶工程と、
複数の前記機械学習モデルから前記判別工程によって判別される前記相対速度に応じた前記相対速度範囲の前記機械学習モデルを採用して前記画像内の被写体を判定する判定工程と
を含むことを特徴とする画像認識方法。
an acquisition step of acquiring an image in which a recognition target is captured from an imaging device;
a determination step of determining the relative speed between the imaging device and the recognition object;
a storage step of storing, for each relative velocity range, a machine learning model for deriving a recognition result that the subject in the image is the recognition target from an image in which the recognition target is captured;
and determining a subject in the image by employing the machine learning model of the relative velocity range according to the relative velocity determined by the determining step from among the plurality of machine learning models. image recognition method.
撮像装置によって認識対象物が撮像された画像から当該画像内の被写体が前記認識対象物であるという認識結果を導出する機械学習モデルを相対速度範囲毎に記憶する記憶部と、
画像内の被写体を判定する画像認識装置から指定された速度情報に応じた前記相対速度範囲の前記機械学習モデルを複数の前記機械学習モデルから選択して前記画像認識装置へ提供する提供部と
を備えることを特徴とする機械学習モデル提供装置。
a storage unit that stores, for each relative velocity range, a machine learning model for deriving a recognition result that the subject in the image is the recognition target from an image of the recognition target captured by an imaging device;
a providing unit that selects from a plurality of the machine learning models the machine learning model of the relative speed range according to speed information specified by an image recognition device that determines a subject in an image, and provides the machine learning model to the image recognition device; A machine learning model providing device comprising:
撮像装置によって認識対象物が撮像された画像から当該画像内の被写体が前記認識対象物であるという認識結果を導出する機械学習モデルを相対速度範囲毎に記憶する記憶工程と、
画像内の被写体を判定する画像認識装置から指定された速度情報に応じた前記相対速度範囲の前記機械学習モデルを複数の前記機械学習モデルから選択して前記画像認識装置へ提供する提供工程と
を含むことを特徴とする機械学習モデル提供方法。
a storage step of storing, for each relative velocity range, a machine learning model for deriving a recognition result that the subject in the image is the recognition target from an image of the recognition target captured by an imaging device;
a providing step of selecting from a plurality of the machine learning models the machine learning model of the relative speed range according to speed information specified by an image recognition device for determining a subject in an image and providing the machine learning model to the image recognition device; A method for providing a machine learning model, comprising:
画像認識装置が画像認識処理に用いる機械学習モデルの生成方法であって、
複数の相対速度範囲における各相対速度範囲の速度で移動する移動体の画像の学習により各相対速度範囲用機械学習モデルを生成するモデル生成工程と、
前記各相対速度範囲用機械学習モデルを選択使用するための識別データを付加する識別データ付加工程と、
を含むことを特徴とする機械学習モデル生成方法。
A method for generating a machine learning model used for image recognition processing by an image recognition device,
a model generation step of generating a machine learning model for each relative speed range by learning images of a moving object moving at a speed in each relative speed range in a plurality of relative speed ranges;
an identification data addition step of adding identification data for selectively using the machine learning model for each relative speed range;
A machine learning model generation method, comprising:
画像認識装置が画像認識処理に用いる機械学習モデル装置であって、
複数の相対速度範囲における各相対速度範囲の速度で移動する移動体の画像の学習により生成された複数の各相対速度範囲用機械学習モデル部と、
前記各相対速度範囲用機械学習モデル部を選択使用するために前記各相対速度範囲用機械学習モデル部に付加された識別データ部と、
を含むことを特徴とする機械学習モデル装置。
The image recognition device is a machine learning model device used for image recognition processing,
a plurality of machine learning model units for each relative speed range generated by learning images of a moving object moving at a speed in each relative speed range in a plurality of relative speed ranges;
an identification data section added to each relative velocity range machine learning model section for selectively using the respective relative velocity range machine learning model section;
A machine learning model device comprising:
JP2018113129A 2018-06-13 2018-06-13 Image recognition device, image recognition method, machine learning model providing device, machine learning model providing method, machine learning model generating method, and machine learning model device Active JP7177609B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018113129A JP7177609B2 (en) 2018-06-13 2018-06-13 Image recognition device, image recognition method, machine learning model providing device, machine learning model providing method, machine learning model generating method, and machine learning model device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018113129A JP7177609B2 (en) 2018-06-13 2018-06-13 Image recognition device, image recognition method, machine learning model providing device, machine learning model providing method, machine learning model generating method, and machine learning model device

Publications (2)

Publication Number Publication Date
JP2019215755A JP2019215755A (en) 2019-12-19
JP7177609B2 true JP7177609B2 (en) 2022-11-24

Family

ID=68919575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018113129A Active JP7177609B2 (en) 2018-06-13 2018-06-13 Image recognition device, image recognition method, machine learning model providing device, machine learning model providing method, machine learning model generating method, and machine learning model device

Country Status (1)

Country Link
JP (1) JP7177609B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7298776B2 (en) * 2020-03-26 2023-06-27 日本電気株式会社 OBJECT RECOGNITION DEVICE, OBJECT RECOGNITION METHOD, AND PROGRAM
WO2022064610A1 (en) * 2020-09-24 2022-03-31 日本電気株式会社 Object detection device, trained model generation method, and recording medium
KR102574744B1 (en) * 2020-12-04 2023-09-06 한국전자기술연구원 Large stream data processing method for On-device Artificial Intelligence implementation
KR20220125719A (en) * 2021-04-28 2022-09-14 베이징 바이두 넷컴 사이언스 테크놀로지 컴퍼니 리미티드 Method and equipment for training target detection model, method and equipment for detection of target object, electronic equipment, storage medium and computer program
WO2022259363A1 (en) * 2021-06-08 2022-12-15 Nec Corporation Training data generation apparatus, training data generation method, and program
WO2024013933A1 (en) * 2022-07-14 2024-01-18 日本電気株式会社 Video processing system, video processing device, and video processing method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271861A (en) 2009-05-20 2010-12-02 Canon Inc Object identification device and object identification method
JP2018190045A (en) 2017-04-28 2018-11-29 日立オートモティブシステムズ株式会社 Vehicle electronic control apparatus

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3239521B2 (en) * 1993-03-30 2001-12-17 トヨタ自動車株式会社 Mobile object recognition device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010271861A (en) 2009-05-20 2010-12-02 Canon Inc Object identification device and object identification method
JP2018190045A (en) 2017-04-28 2018-11-29 日立オートモティブシステムズ株式会社 Vehicle electronic control apparatus

Also Published As

Publication number Publication date
JP2019215755A (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JP7177609B2 (en) Image recognition device, image recognition method, machine learning model providing device, machine learning model providing method, machine learning model generating method, and machine learning model device
US20210295065A1 (en) Object identification system
JP6682833B2 (en) Database construction system for machine learning of object recognition algorithm
US7974442B2 (en) Vehicular vision system
Pfeuffer et al. Optimal sensor data fusion architecture for object detection in adverse weather conditions
KR102630320B1 (en) Fast CNN classification of multi-frame semantic signals
WO2018162933A1 (en) Improved object recognition system
JP6574611B2 (en) Sensor system for obtaining distance information based on stereoscopic images
IT201600094858A1 (en) PROCEDURE FOR A LOW COST ADVANCED CROSS TRAFFIC ALERT, CORRESPONDING PROCESSING SYSTEM, CROSS TRAFFIC ALERT AND VEHICLE SYSTEM
CN109327660B (en) Image acquisition method and device
JP6306735B2 (en) Stereo camera device and vehicle equipped with stereo camera device
JP2009265883A (en) Vehicle periphery monitoring device
US10776649B2 (en) Method and apparatus for monitoring region around vehicle
JP2017181476A (en) Vehicle location detection device, vehicle location detection method and vehicle location detection-purpose computer program
US20070223785A1 (en) Image processor and method
CN113361312A (en) Electronic device and method for detecting object
JP2019015606A (en) Information processing method and information processing device
CN108541371A (en) Method and apparatus for camera calibrated
CN110610130A (en) Multi-sensor information fusion power transmission line robot navigation method and system
JP7193464B2 (en) Recognition sensors, automobiles, vehicle lamps
JPWO2021153198A5 (en)
JP7003972B2 (en) Distance estimation device, distance estimation method and computer program for distance estimation
CN108875498B (en) Method, apparatus and computer storage medium for pedestrian re-identification
WO2016181519A1 (en) Arrow traffic-signal detection device and arrow traffic-signal detection method
US20220306088A1 (en) Enhanced vehicle operation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210429

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220502

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220524

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221018

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221111

R150 Certificate of patent or registration of utility model

Ref document number: 7177609

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150