JP2021012043A - Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning - Google Patents
Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning Download PDFInfo
- Publication number
- JP2021012043A JP2021012043A JP2019124856A JP2019124856A JP2021012043A JP 2021012043 A JP2021012043 A JP 2021012043A JP 2019124856 A JP2019124856 A JP 2019124856A JP 2019124856 A JP2019124856 A JP 2019124856A JP 2021012043 A JP2021012043 A JP 2021012043A
- Authority
- JP
- Japan
- Prior art keywords
- machine learning
- information
- measurement
- image
- information processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 72
- 230000010365 information processing Effects 0.000 title claims abstract description 52
- 238000003672 processing method Methods 0.000 title claims description 4
- 238000005259 measurement Methods 0.000 claims abstract description 76
- 238000012937 correction Methods 0.000 claims abstract description 23
- 238000000034 method Methods 0.000 claims description 10
- 238000010586 diagram Methods 0.000 description 10
- 238000012545 processing Methods 0.000 description 9
- 238000002372 labelling Methods 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000003708 edge detection Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000011179 visual inspection Methods 0.000 description 1
Images
Abstract
Description
本発明は、機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラムに関する。 The present invention relates to an information processing device for machine learning, an information processing method for machine learning, and an information processing program for machine learning.
例えば特許文献1には、機械学習に用いる学習用データのラベル情報を高精度に補正する技術として、次の開示がある。すなわち特許文献1には、「自律可能車両であって、前記自律可能車両の前方方向の画像フレームを捕捉するためのカメラを含む、複数のセンサーと、前記自律可能車両を制御するための車両制御システムであって、(i)前記複数のセンサーからセンサー入力を受信し、(ii)前記センサー入力に基づいて、車両制御信号を生成するように構成されたシステムと、前記車両制御システムと独立して動作する衝突回避システムであって、前記カメラから画像フレームを受信するステップ、前記受信画像フレームに対して画像分析を行って、走行可能空間又は非走行可能空間を表しているとして、前記画像フレームの領域にラベル付けするステップ、車両データの少なくとも一部に基づいて、前記自律可能車両が、前記受信画像フレームに表されている、非走行可能空間領域に衝突する可能性があるか否かを判定するステップ、及び前記自律可能車両が、前記受信画像に表されている非走行可能空間領域に衝突する可能性があると判定した場合、衝突回避信号を生成するステップであって、前記衝突回避信号によって、前記自律可能車両が、前記非走行可能空間領域に衝突するのを回避させる、ステップを実行するように構成されたシステムと、を備えたことを特徴とする車両」が開示されている。特許文献1に開示されている技術によれば、撮影画像から画像認識により対象を検出し、位置ズレが最小になるように画像の形状を補正できる。
For example,
例えば水中ソナーを用いた物体の自動判定として、ラベル付けしたソナーデータを用いた機械学習により判定精度を向上させる方法がある。この場合、一般的なカメラ画像と同様に、計測データにおける特徴量は時間軸で一定の連続性を持ち、この連続性を機械学習に適用することにより学習精度を向上させることができる。一方で、ソナーで広範囲を計測することを目的としてソナーセンサの方位角もしくは俯角を変える方法があるが、この場合計測方向が変化することによりデータの連続性が失われる。 For example, as an automatic determination of an object using underwater sonar, there is a method of improving the determination accuracy by machine learning using labeled sonar data. In this case, as with a general camera image, the feature amount in the measurement data has a constant continuity on the time axis, and the learning accuracy can be improved by applying this continuity to machine learning. On the other hand, there is a method of changing the azimuth or depression angle of the sonar sensor for the purpose of measuring a wide range with the sonar, but in this case, the continuity of the data is lost due to the change of the measurement direction.
しかしながら、上述の特許文献1には、センサの計測方向が変化する時に、計測データの連続性を考慮してラベルを補正する手法については開示されていない。このため上述の特許文献1では、計測データの連続性を推定してラベル情報を補正することができず、ラベル付けした計測データを用いた機械学習の精度が低下するという問題がある。
However,
本発明は、上述の問題に鑑みてなされたものであり、センサによる計測データの連続性を推定してラベル情報を補正し、ラベル付けした計測データを用いた機械学習の精度を向上させることを1つの目的とする。 The present invention has been made in view of the above-mentioned problems, and it is intended to estimate the continuity of measurement data by a sensor, correct label information, and improve the accuracy of machine learning using the labeled measurement data. It has one purpose.
かかる課題を解決するため本発明においては、1つの目的を達成する一手段として、機械学習用情報処理装置は、奥行き情報を計測する計測手段によって計測された計測データを入力し、該計測データに基づき計測画像を生成するデータ入力部と、前記計測画像に含まれる目標物に係る特徴量に付与するラベル情報を入力するラベル情報入力部と、前記計測データごとの前記計測手段の計測方向を示す角度情報を入力する角度情報入力部と、前記角度情報に基づいて前記計測画像に含まれる目標物に係る特徴量の時系列の相関を判定する判定部と、前記相関の判定結果に基づいて前記目標物に係る特徴量に付与されたラベル情報を補正するラベル補正部とを備えたことを特徴とする。 In order to solve such a problem, in the present invention, as one means for achieving one object, the machine learning information processing device inputs the measurement data measured by the measurement means for measuring the depth information, and inputs the measurement data into the measurement data. A data input unit that generates a measurement image based on the measurement image, a label information input unit that inputs label information to be given to a feature amount related to a target object included in the measurement image, and a measurement direction of the measurement means for each measurement data are shown. The angle information input unit for inputting angle information, the determination unit for determining the time-series correlation of the feature amount related to the target object included in the measurement image based on the angle information, and the determination unit based on the correlation determination result. It is characterized in that it is provided with a label correction unit that corrects the label information given to the feature amount related to the target object.
本発明によれば、例えば、センサによる計測データの連続性を推定してラベル情報を補正し、ラベル付けした計測データを用いた機械学習の精度を向上させることができる。 According to the present invention, for example, it is possible to estimate the continuity of measurement data by a sensor, correct the label information, and improve the accuracy of machine learning using the labeled measurement data.
以下、図面に基づき、本発明の実施形態を詳述する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素およびその組み合わせの全てが発明の解決手段に必須であるとは限らない。また実施形態の中で説明されている諸要素を適宜組み合わせた形態も、本願が開示する実施形態に含まれる。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the embodiments described below do not limit the invention according to the claims, and all of the elements and combinations thereof described in the embodiments are essential for the means for solving the invention. Not necessarily. In addition, an embodiment in which various elements described in the embodiment are appropriately combined is also included in the embodiment disclosed in the present application.
(機械学習用情報処理装置100の構成)
図1は、実施形態に係る機械学習用情報処理装置100の構成例を示すブロック図である。機械学習用情報処理装置100は、ソナーデータ入力部101、ラベル情報入力部102、ソナー角度情報入力部103、判定部104、ラベル補正部105および機械学習用データ出力部106を備える。ソナーデータ入力部101、ラベル情報入力部102、ソナー角度情報入力部103、判定部104、ラベル補正部105および機械学習用データ出力部106は、バス107を介して接続されている。バス107は、バス107に接続されている各処理部で扱われるデータ、制御情報および解析情報の伝送を仲介する。
(Configuration of
FIG. 1 is a block diagram showing a configuration example of the machine learning
機械学習用情報処理装置100は、バス107を介してソナー110に接続されている。機械学習用情報処理装置100は、ソナー110と有線接続されてもよいし、無線接続されてもよい。なお、図1では、ソナー110は、機械学習用情報処理装置100の外部に設けた例で示したが、機械学習用情報処理装置100に内蔵されていてもよい。
The machine learning
ソナーデータ入力部101は、ソナー110によって計測されたソナーデータの処理を行う。例えばソナーデータ入力部101は、ソナー110より入力されたソナーデータから、計測方向と深度に対する信号強度の分布として、配列データを生成する。
The sonar
ソナーデータ入力部101が生成する配列データは、ソナー110が単一のセンサから構成されている場合には深度に対する信号強度の1次元の配列データであり、ソナー110が複数のセンサを1次元方向に配置して構成されている場合には1次元の計測方向および深度に対する信号強度の2次元の配列データであり、ソナー110が複数のセンサを2次元方向に配置して構成されている場合には2次元の計測方向および深度に対する信号強度の3次元の配列データである。以降の説明では、特別な言及が無い限り2次元の配列データを例にして説明する。また、以降の説明では、ソナーデータに基づき生成した配列データをソナー画像と呼ぶ。ソナー画像は、計測手段によって計測された計測データに基づき生成した計測画像の一例である。
The array data generated by the sonar
ラベル情報入力部102は、ソナーデータ入力部101から入力されたソナー画像に含まれる目標物に関するラベル情報を入力する。ラベル情報は、例えば人の視認により目標物が存在すると判断されるソナー画像内の位置もしくは範囲を座標値として記録した情報である。この座標値は、例えば目標物とソナー110のそれぞれの位置をGPSもしくは航空写真から取得し、それぞれの相対的な位置から求められる。
The label
ソナー角度情報入力部103は、ソナー110の計測方向を示す方位角もしくは俯角の角度情報を入力する。ソナー110は、計測時に、その方位角もしくは俯角が、外部から制御されたり、自律的に制御されたりする。ソナー角度情報入力部103は、ソナー110の制御で用いられる方位角もしくは俯角の情報を入力する。あるいは、ソナー角度情報入力部103は、例えばカメラもしくはその他の計測手段により計測もしくは推定されたソナー110の方位角もしくは俯角の情報を入力する。以降、ソナー110が計測する方向を示す方位角もしくは俯角の情報を、ソナー110の計測方向と呼ぶ。
The sonar angle
判定部104は、ソナー110の計測方向の変化量に基づきソナー画像に含まれる目標物に係る画像特徴の時系列の相関を判定する。すなわち、判定部104は、ソナー110の計測方向の変化量に基づき目標物に係る画像特徴が時系列で連続しているか否かを判定する。ソナー110の計測方向を2つ以上の時刻で比較し、計測方向の変化量が一定値a未満であるときには各時刻の目標物が連続していると判定し、計測方向の変化量が一定値bより大であるときには連続していないと判定する。
The
なお、連続性の判定においては、ソナー110の計測方向の変化量に加えて、ソナー画像およびラベル情報を用いてもよい。例えば、ソナー画像のうち目標物に該当する領域の画像特徴量を、エッジ検出、ヒストグラム解析のような既知の画像処理により検出し、2つ以上の時刻のソナー画像に含まれる目標物の時系列の画像特徴量にさらに基づいて相関を判定してもよい。
In determining the continuity, the sonar image and label information may be used in addition to the amount of change in the measurement direction of the
例えば、ソナー画像に含まれる目標物の画像特徴量に基づく画像相関値が大きいほど比較画像間の画像相関が高いことを示すので、画像相関値の逆数が小さいほど比較画像間の相関が高いことを示すことになる。よって、ソナー110の計測方向の正規化した変化量Vと、画像相関値Rの正規化した逆数1/Rの和(V+1/R)が一定値A未満であるときには、目標物が時系列で連続していると判定し、和(V+1/R)が一定値Bより大であるときには連続していないと判定することもできる。なお、和(V+1/R)に代えて加重和(αV+β/R)(ただしα、β>0)を採用してもよい。このようにすることで、ソナー画像に含まれる目標物の時系列の相関の判定精度を高めることができる。
For example, the larger the image correlation value based on the image feature amount of the target included in the sonar image, the higher the image correlation between the comparison images. Therefore, the smaller the inverse of the image correlation value, the higher the correlation between the comparison images. Will be shown. Therefore, when the sum (V + 1 / R) of the normalized amount of change V in the measurement direction of the
ラベル補正部105は、判定部104で判定したソナー画像に含まれる目標物に係る画像特徴の時系列の連続性に基づき、ラベル情報を追加もしくは削除する。ラベル補正部105は、判定部104によりソナー画像に含まれる目標物が時系列で連続していると判定された場合でこの目標物にラベル情報が付与されていないときラベル情報を追加する。またラベル補正部105は、判定部104によりソナー画像に含まれる目標物が時系列で連続していないと判定された場合でこの目標物にラベル情報が付与されているときラベル情報を削除する。
The
機械学習用データ出力部106は、ソナーデータ入力部101により生成されたソナー画像とラベル補正部105により補正された補正後ラベルデータに基づき、学習用データを機械学習で用いるデータの形式に変換して出力する。ラベル情報が補正された学習用データを機械学習に用いることで、学習精度を向上させることができる。
The machine learning
(ソナー110の構成)
図2は、実施形態におけるソナー110を構成する複数のソナーセンサ201の配列の一例を示す平面図である。各ソナーセンサ201は、図2中の破線で示すそれぞれの測定範囲202の範囲内に発射した超音波が目標物211で反射した反射波の信号強度に基づいて、目標物211までの距離を計測する。ソナー110は、少なくとも1つのソナーセンサ201から発射された超音波がその発射方向に位置する目標物211で反射した反射波を捉えることができる。図2に示すように、ソナーセンサ201の配列方向をx軸方向とする。
(Structure of sonar 110)
FIG. 2 is a plan view showing an example of an arrangement of a plurality of
図3は、実施形態におけるソナー110およびソナーセンサ201の一例を示す側面図である。図3は、図2の平面視方向に対する直交方向から見た側面図である。図3に示すように、複数のソナーセンサ201は同一の高さに位置しており、それぞれの計測方向203には基準からの俯角θが設定されている。複数のソナーセンサ201は、俯角θを中心とした測定範囲202の範囲内に超音波を発射しその反射波を捉えて、ソナーセンサ201からの距離に対する信号強度を計測する。図3に示すように、ソナーセンサ201が計測する深度の方向をy軸方向とする。
FIG. 3 is a side view showing an example of the
図4は、実施形態においてソナー110により計測されたソナーデータに基づき生成されたソナー画像401およびラベル情報の一例を示す図である。ソナー画像401において、x軸の分解能は複数のソナーセンサ201の個数により決まり、y軸の分解能は各ソナーセンサ201のサンプリング時間により決まる。
FIG. 4 is a diagram showing an example of
ソナー画像401において、画像特徴402は、目標物211からの反射波を示している。ソナー画像401は、例えばソナー画像401中のPs(xs,ys)およびPe(xe,ye)で規定される矩形領域403の範囲内に目標物211が含まれると人または装置により認識されることで画像特徴402がラベル付けされる。このとき、Ps(xs,ys)およびPe(xe,ye)がラベル情報である。機械学習時には、矩形領域403の範囲内の画像特徴量が解析されて学習される。
In the
(ラベル付けの失敗例)
図5は、ラベル付けに失敗したときのソナー画像401aおよびラベル情報の一例を示す図である。図5(a)のソナー画像401aは、目標物211の画像特徴402aがラベル付けされていない例を示す。画像特徴402aは、図4における画像特徴402と比較して人が視認しづらいことからラベル付けされていないが、ソナー画像401からの俯角変化量Δθが一定値a未満であることから、目標物211がソナー110の測定範囲202の範囲内に存在すると判断される。このような場合に、画像特徴402aにラベル情報を追加することで、機械学習の精度が向上する。
(Example of labeling failure)
FIG. 5 is a diagram showing an example of
また、図5(b)のソナー画像401bは、目標物211の画像特徴が存在しないがラベル付けされている例を示す。図5(b)に示すように、図4のソナー画像401からの俯角変化量Δθが一定値bを超過し、目標物211がソナー110の測定範囲202の範囲から外れてしまった場合でも、GPSもしくは航空写真などの情報によりラベル情報403bがラベル付けされていると、目標物211を含まない画像特徴を学習させることになるので、機械学習の精度が低下してしまう。このような場合に、ラベル情報403bを削除することで、機械学習の精度が向上する。
Further, the
(ラベル情報の補正)
図6は、実施形態によるラベル情報の補正を説明するための図である。図6では、ラベル情報は、目標物の有無と、ROI(Region of Interest)として上述のPs(xs,ys)およびPe(xe,ye)を示している。図6では、俯角の変化量を用いる場合を示すが、方位角や画像特徴量の変化量、あるいは俯角、方位角、画像特徴量の適宜の組み合わせであってもよい。
(Correction of label information)
FIG. 6 is a diagram for explaining the correction of label information according to the embodiment. In FIG. 6, the label information indicates the presence or absence of the target object and the above-mentioned Ps (xs, ys) and Pe (xe, ye) as ROI (Region of Interest). Although FIG. 6 shows a case where the amount of change in the depression angle is used, the amount of change in the azimuth angle and the image feature amount, or an appropriate combination of the depression angle, the azimuth angle, and the image feature amount may be used.
表601aは、図5(a)の目標物211の画像特徴402aがラベル付けされていない例について示す。図5(a)では、t=nのフレームにおいてラベル情報が無かったのに対し、1つ前のt=n−1のフレームからの俯角の変化量Δθが一定値a未満であったことから、t=nとt=n−1の各フレームのソナー画像は連続性があると判断され、ラベル情報が追加されている。このように、ラベル情報を追加することで、機械学習の精度が向上する。
Table 601a shows an example in which the
表601bは、図5(b)のソナー画像401bにおいて目標物の画像特徴が存在しないにもかかわらずラベル付けされている例について示す。図5(b)では、t=nのフレームにおいてラベル付けされているのに対し、1つ前のt=n−1のフレームからの俯角の変化量Δθが一定値bを超過したことからt=n−1のフレームのソナー画像と連続性がないと判断され、ラベル情報が削除されている。このように、ラベル情報を削除することで、機械学習の精度が向上する。
Table 601b shows an example in which the
図7は、実施形態に係る機械学習用情報処理を示すフローチャートである。機械学習用情報処理は、リアルタイム処理であってもバッチ処理であっても何れでもよい。 FIG. 7 is a flowchart showing information processing for machine learning according to the embodiment. The information processing for machine learning may be real-time processing or batch processing.
先ず、ステップS701では、機械学習用情報処理装置100は、必要フレーム数分のソナーデータのラベル補正処理が完了したか否かを判定する。機械学習用情報処理装置100は、必要フレーム数分のソナーデータのラベル補正処理が完了した場合(ステップS710Yes)、本機械学習用情報処理を終了する。一方、機械学習用情報処理装置100は、必要フレーム数分のソナーデータのラベル補正処理が完了していない場合(ステップS710No)、ステップ702へ処理を移す。
First, in step S701, the machine learning
次にステップS702では、機械学習用情報処理装置100は、ソナーデータ入力部101、ラベル情報入力部102およびソナー角度情報入力部103によりソナーデータ、ラベル情報およびソナー角度情報を入力する。
Next, in step S702, the machine learning
次にステップS703では、機械学習用情報処理装置100は、判定部104で、各フレームにおけるソナー俯角の変化量を判定する。変化量は、1フレーム前のソナー俯角から求めてもよいし、複数フレーム分の平均値から求めてもよい。
Next, in step S703, the machine learning
機械学習用情報処理装置100は、ソナー俯角の変化量が一定値aより小さい場合、ラベル補正部105によりラベル情報を追加する(ステップS704)。追加するラベル情報は、1フレーム前の情報のコピーでもよいし、前後の2つ以上のフレームの情報から平均化して求めてもよい。また機械学習用情報処理装置100は、ソナー俯角の変化量が一定値bより大きい場合、機械学習用情報処理装置100は、ラベル補正部105によりラベル情報を削除する(ステップS705)。ステップS704またはS705が終了すると、機械学習用情報処理装置100は、ステップS701へ処理を戻す。また機械学習用情報処理装置100は、ソナー俯角の変化量が一定値a以上かつ一定値b以下の場合には、ステップS701へ処理を戻す。
When the amount of change in the sonar depression angle is smaller than the constant value a, the machine learning
上述の実施形態によれば、ソナーの方位角や俯角等の計測方向が変化する時に、ソナーデータの連続性を推定してラベルを補正することで、ラベル付けしたソナーデータを用いた機械学習の精度低下を防止し、精度をより向上させることができる。 According to the above-described embodiment, when the measurement direction such as the azimuth angle and the depression angle of the sonar changes, the continuity of the sonar data is estimated and the label is corrected to perform machine learning using the labeled sonar data. It is possible to prevent a decrease in accuracy and further improve the accuracy.
(他の実施形態)
(1)上述の実施形態では、ラベル情報は、ROIを座標表示するClassificationに基づく情報であるとした。しかしこれに限らず、例えばセグメンテーション化された画像の位置や形状をラベル情報とし、推定または補完によって追加ラベル情報を生成することで、上述の実施形態同様に、ラベル情報の追加および削除を行うことができる。
(Other embodiments)
(1) In the above-described embodiment, the label information is information based on Classification that displays the coordinates of the ROI. However, the present invention is not limited to this, and for example, the position and shape of the segmented image are used as label information, and additional label information is generated by estimation or complementation, thereby adding and deleting the label information as in the above-described embodiment. Can be done.
(2)上述の実施形態では、ソナーで計測されたソナーデータのラベル情報を補正する例を示した。しかしソナーに限らず、奥行き情報を計測するセンサもしくは計測手段で計測されたデータについて、そのラベル情報の補正を行うこともできる。奥行き情報を計測するセンサもしくは計測手段には、レーザーレーダー、レーザーライダー、ミリ波レーダーなどがある。 (2) In the above-described embodiment, an example of correcting the label information of the sonar data measured by the sonar is shown. However, not limited to sonar, it is also possible to correct the label information of the data measured by the sensor or the measuring means for measuring the depth information. Sensors or measuring means for measuring depth information include laser radar, laser lidar, and millimeter wave radar.
(3)上述の実施形態では、ソナーの方位角もしくは俯角の変化量に基づいてラベル情報の追加および削除を行うとした。しかし追加および削除に限らず、補完や推定に基づいた値の修正などによりラベル情報の補正を行ってもよい。 (3) In the above-described embodiment, the label information is added or deleted based on the amount of change in the azimuth or depression angle of the sonar. However, the label information may be corrected not only by addition and deletion but also by complementation or correction of a value based on estimation.
(4)上述の実施形態では、ソナーの方位角もしくは俯角の1次元の変化量に応じてラベル情報の追加および削除を行うとした。しかしこれに限らず、方位角および俯角の2次元の変化量に応じてラベル情報の追加および削除を行ってもよい。すなわちセンサもしくは計測手段の第1の軸方向および第2の軸方向の2軸方向の変化量の二乗和もしくはその平方根を閾値判定した結果に基づいてラベル情報を補正してもよい。 (4) In the above-described embodiment, the label information is added or deleted according to the one-dimensional change amount of the azimuth or depression angle of the sonar. However, the present invention is not limited to this, and label information may be added or deleted according to the amount of two-dimensional change in the azimuth angle and the depression angle. That is, the label information may be corrected based on the sum of squares of the amount of change in the first axial direction and the second axial direction of the sensor or the measuring means or the result of determining the square root thereof as a threshold value.
(機械学習用情報処理装置を実現するコンピュータのハードウェア)
図8は、実施形態に係る機械学習用情報処理装置100を実現するコンピュータのハードウェアの一例を示す図である。機械学習用情報処理装置100を実現するコンピュータ500では、CPUに代表される演算装置530、RAM等のメモリ540、入力装置560および出力装置570が、メモリコントローラ550を通して相互接続されている。コンピュータ500において、所定のプログラムがI/Oコントローラ520を介してSSDやHDD等の外部記憶装置580から読み出されて、演算装置530およびメモリ540の協働により実行されることにより、機械学習用情報処理装置100が実現される。機械学習用情報処理装置100を実現するためのプログラムは、頒布媒体から読み出されて取得されても、ネットワークインターフェース510を介した通信により外部のコンピュータから取得されてもよい。
(Computer hardware that realizes information processing equipment for machine learning)
FIG. 8 is a diagram showing an example of computer hardware that realizes the machine learning
以上、本発明の実施形態について説明したが、本発明は上記した実施形態に限定されるものではなく、様々な変形例を含む。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、構成の追加、削除、置換、統合、または分散を行うことが可能である。また、実施形態で示した各構成および各処理は、処理効率または実装効率に基づいて適宜分散または統合されてもよい。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. In addition, it is possible to add, delete, replace, integrate, or distribute a part of the configuration of each embodiment. Further, each configuration and each process shown in the embodiment may be appropriately distributed or integrated based on the processing efficiency or the mounting efficiency.
100:機械学習用情報処理装置、101:ソナーデータ入力部、102:ラベル情報入力部、103:ソナー角度情報入力部、104:判定部、105:ラベル補正部、106:機械学習用データ出力部、110:ソナー、201:ソナーセンサ、211:目標物、401,401a,401b:ソナー画像、500:コンピュータ 100: Machine learning information processing device, 101: Sonar data input unit, 102: Label information input unit, 103: Sonar angle information input unit, 104: Judgment unit, 105: Label correction unit, 106: Machine learning data output unit , 110: sonar, 201: sonar sensor, 211: target, 401, 401a, 401b: sonar image, 500: computer
Claims (10)
前記計測画像に含まれる目標物に係る画像特徴に付与するラベル情報を入力するラベル情報入力部と、
前記計測データごとの前記計測手段の計測方向を示す角度情報を入力する角度情報入力部と、
前記角度情報に基づいて前記画像特徴の時系列の相関を判定する判定部と、
前記相関の判定結果に基づいて前記画像特徴に付与されたラベル情報を補正するラベル補正部と
を備えたことを特徴とする機械学習用情報処理装置。 A data input unit that inputs measurement data measured by a measurement means that measures depth information and generates a measurement image based on the measurement data.
A label information input unit for inputting label information to be given to an image feature related to a target object included in the measurement image, and a label information input unit.
An angle information input unit for inputting angle information indicating the measurement direction of the measurement means for each measurement data,
A determination unit that determines the time-series correlation of the image features based on the angle information,
A machine learning information processing apparatus including a label correction unit that corrects label information given to the image feature based on the correlation determination result.
ことを特徴とする請求項1に記載の機械学習用情報処理装置。 Claim 1 is characterized in that the determination unit determines the time-series correlation of the image features based on the amount of change of the angle information in the first axial direction of the measuring means between two or more times. Information processing device for machine learning described in.
前記判定部は、前記第1の軸方向とは異なる前記計測手段の第2の軸方向の角度情報の2つ以上の時刻間の変化量に基づいて、前記画像特徴の時系列の相関を判定する
ことを特徴とする請求項2に記載の機械学習用情報処理装置。 further,
The determination unit determines the time-series correlation of the image features based on the amount of change in the angle information in the second axial direction of the measuring means different from the first axial direction between two or more times. The information processing apparatus for machine learning according to claim 2, wherein the information processing apparatus is to be used.
前記ラベル補正部は、前記判定部によって前記画像特徴が時系列で連続していると判定された場合であって該画像特徴にラベル情報が付与されていないとき、該画像特徴に該ラベル情報を付与する
ことを特徴とする請求項2に記載の機械学習用情報処理装置。 When the amount of change is less than the threshold value, the determination unit determines that the image features are continuous in time series.
When the determination unit determines that the image features are continuous in time series and the label information is not added to the image features, the label correction unit applies the label information to the image features. The information processing apparatus for machine learning according to claim 2, wherein the information processing device is provided.
前記ラベル補正部は、前記判定部によって前記画像特徴が時系列で連続していないと判定された場合であって該画像特徴にラベル情報が付与されているとき、該ラベル情報を削除する
ことを特徴とする請求項4に記載の機械学習用情報処理装置。 When the amount of change is larger than the threshold value, the determination unit determines that the image features are not continuous in time series.
The label correction unit deletes the label information when the determination unit determines that the image features are not continuous in time series and the label information is added to the image features. The information processing apparatus for machine learning according to claim 4, which is characterized.
前記判定部は、ソナーの方位角もしくはソナーの俯角の2つ以上の時刻間の前記変化量に基づいて、前記画像特徴の時系列の相関を判定する
ことを特徴とする請求項5に記載の機械学習用情報処理装置。 The measuring means is sonar.
The fifth aspect of claim 5, wherein the determination unit determines the time-series correlation of the image features based on the amount of change between the azimuth angle of the sonar or the depression angle of the sonar between two or more times. Information processing device for machine learning.
前記判定部は、2つ以上の時刻の前記計測画像に含まれる目標物の時系列の画像特徴量に基づいて前記画像特徴の時系列の相関を判定する
ことを特徴とする請求項1に記載の機械学習用情報処理装置。 further,
The first aspect of claim 1, wherein the determination unit determines the time-series correlation of the image features based on the time-series image feature amount of the target object included in the measurement image at two or more times. Information processing device for machine learning.
を備えたことを特徴とする請求項1に記載の機械学習用情報処理装置。 The information processing apparatus for machine learning according to claim 1, further comprising a data output unit for machine learning that generates and outputs data used for machine learning based on the label information corrected by the label correction unit.
前記機械学習用情報処理装置が、
奥行き情報を計測する計測手段によって計測された計測データを入力し、
前記計測データに基づき計測画像を生成し、
前記計測画像に含まれる目標物に係る画像特徴に付与するラベル情報を入力し、
前記計測データごとの前記計測手段の計測方向を示す角度情報を入力し、
前記角度情報に基づいて前記画像特徴の時系列の相関を判定し、
前記相関の判定結果に基づいて前記画像特徴に付与されたラベル情報を補正する
各処理を含んだことを特徴とする機械学習用情報処理方法。 A machine learning information processing method executed by a machine learning information processing device.
The machine learning information processing device
Enter the measurement data measured by the measuring means that measures the depth information,
A measurement image is generated based on the measurement data,
Input the label information to be given to the image feature related to the target object included in the measurement image, and enter the label information.
Input the angle information indicating the measurement direction of the measurement means for each measurement data,
Based on the angle information, the time-series correlation of the image features is determined.
An information processing method for machine learning, comprising each process of correcting label information given to the image feature based on the correlation determination result.
奥行き情報を計測する計測手段によって計測された計測データを入力し、該計測データに基づき計測画像を生成するデータ入力部、
前記計測画像に含まれる目標物に係る画像特徴に付与するラベル情報を入力するラベル情報入力部、
前記計測データごとの前記計測手段の計測方向を示す角度情報を入力する角度情報入力部、
前記角度情報に基づいて前記画像特徴の時系列の相関を判定する判定部、
前記相関の判定結果に基づいて前記画像特徴に付与されたラベル情報を補正するラベル補正部
として機能させるための機械学習用情報処理プログラム。 Computer,
A data input unit that inputs measurement data measured by a measurement means that measures depth information and generates a measurement image based on the measurement data.
A label information input unit for inputting label information to be given to an image feature related to a target object included in the measurement image.
An angle information input unit for inputting angle information indicating the measurement direction of the measurement means for each measurement data.
A determination unit that determines the time-series correlation of the image features based on the angle information.
A machine learning information processing program for functioning as a label correction unit that corrects label information given to the image feature based on the correlation determination result.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124856A JP7300331B2 (en) | 2019-07-03 | 2019-07-03 | Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019124856A JP7300331B2 (en) | 2019-07-03 | 2019-07-03 | Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021012043A true JP2021012043A (en) | 2021-02-04 |
JP7300331B2 JP7300331B2 (en) | 2023-06-29 |
Family
ID=74227534
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019124856A Active JP7300331B2 (en) | 2019-07-03 | 2019-07-03 | Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7300331B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023028298A (en) * | 2021-08-19 | 2023-03-03 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Learning device, learning method and learning program |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0295293A (en) * | 1988-09-30 | 1990-04-06 | Nec Corp | Monitor sonar |
JPH03251713A (en) * | 1989-09-07 | 1991-11-11 | Ricoh Co Ltd | Ultrasonic imaging system for three-dimensional object |
JPH08122433A (en) * | 1994-10-20 | 1996-05-17 | Tokyo Electric Power Co Inc:The | Thundercloud observation system |
JPH09259273A (en) * | 1996-03-19 | 1997-10-03 | Kawasaki Steel Corp | Image similarity decision device |
JP2003279650A (en) * | 2002-03-22 | 2003-10-02 | Koden Electronics Co Ltd | Ultrasonic survey apparatus |
JP2018146354A (en) * | 2017-03-03 | 2018-09-20 | 日本電気株式会社 | Sonar image processor, sonar image processing method, and sonar image processing program |
JP2019008796A (en) * | 2017-06-23 | 2019-01-17 | ウーバー テクノロジーズ,インコーポレイテッド | Collision avoidance system for autonomous vehicle |
JP2019015598A (en) * | 2017-07-06 | 2019-01-31 | 株式会社東芝 | Measurement device and method for measurement |
-
2019
- 2019-07-03 JP JP2019124856A patent/JP7300331B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0295293A (en) * | 1988-09-30 | 1990-04-06 | Nec Corp | Monitor sonar |
JPH03251713A (en) * | 1989-09-07 | 1991-11-11 | Ricoh Co Ltd | Ultrasonic imaging system for three-dimensional object |
JPH08122433A (en) * | 1994-10-20 | 1996-05-17 | Tokyo Electric Power Co Inc:The | Thundercloud observation system |
JPH09259273A (en) * | 1996-03-19 | 1997-10-03 | Kawasaki Steel Corp | Image similarity decision device |
JP2003279650A (en) * | 2002-03-22 | 2003-10-02 | Koden Electronics Co Ltd | Ultrasonic survey apparatus |
JP2018146354A (en) * | 2017-03-03 | 2018-09-20 | 日本電気株式会社 | Sonar image processor, sonar image processing method, and sonar image processing program |
JP2019008796A (en) * | 2017-06-23 | 2019-01-17 | ウーバー テクノロジーズ,インコーポレイテッド | Collision avoidance system for autonomous vehicle |
JP2019015598A (en) * | 2017-07-06 | 2019-01-31 | 株式会社東芝 | Measurement device and method for measurement |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2023028298A (en) * | 2021-08-19 | 2023-03-03 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | Learning device, learning method and learning program |
Also Published As
Publication number | Publication date |
---|---|
JP7300331B2 (en) | 2023-06-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111060101B (en) | Vision-assisted distance SLAM method and device and robot | |
TWI624170B (en) | Image scanning system and method thereof | |
JP5567908B2 (en) | Three-dimensional measuring apparatus, measuring method and program | |
US9576375B1 (en) | Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels | |
KR101672732B1 (en) | Apparatus and method for tracking object | |
CN105335955A (en) | Object detection method and object detection apparatus | |
US20210023718A1 (en) | Three-dimensional data generation device and robot control system | |
US20190266425A1 (en) | Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program | |
WO2022135594A1 (en) | Method and apparatus for detecting target object, fusion processing unit, and medium | |
JP6172432B2 (en) | Subject identification device, subject identification method, and subject identification program | |
CN113156407B (en) | Vehicle-mounted laser radar external parameter joint calibration method, system, medium and device | |
WO2021016854A1 (en) | Calibration method and device, movable platform, and storage medium | |
CN112146848B (en) | Method and device for determining distortion parameter of camera | |
Kang et al. | Accurate fruit localisation using high resolution LiDAR-camera fusion and instance segmentation | |
US20230267593A1 (en) | Workpiece measurement method, workpiece measurement system, and program | |
JP2021056017A (en) | Synthetic processing apparatus, synthetic processing system and synthetic processing method | |
CN111175761A (en) | Registration method of underwater robot positioning sonar data | |
JP7300331B2 (en) | Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning | |
US10796186B2 (en) | Part recognition method, information processing apparatus, and imaging control system | |
US10572753B2 (en) | Outside recognition device for vehicle | |
CN111742349B (en) | Information processing apparatus, information processing method, and information processing storage medium | |
JP7375806B2 (en) | Image processing device and image processing method | |
EP3961556A1 (en) | Object recognition device and object recognition method | |
CN113219486B (en) | Positioning method and device | |
CN112513572B (en) | Image processing apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20221208 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221227 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230220 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230606 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230619 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7300331 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |