JP2021012043A - Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning - Google Patents

Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning Download PDF

Info

Publication number
JP2021012043A
JP2021012043A JP2019124856A JP2019124856A JP2021012043A JP 2021012043 A JP2021012043 A JP 2021012043A JP 2019124856 A JP2019124856 A JP 2019124856A JP 2019124856 A JP2019124856 A JP 2019124856A JP 2021012043 A JP2021012043 A JP 2021012043A
Authority
JP
Japan
Prior art keywords
machine learning
information
measurement
image
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019124856A
Other languages
Japanese (ja)
Other versions
JP7300331B2 (en
Inventor
樋口 晴彦
Haruhiko Higuchi
樋口  晴彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019124856A priority Critical patent/JP7300331B2/en
Publication of JP2021012043A publication Critical patent/JP2021012043A/en
Application granted granted Critical
Publication of JP7300331B2 publication Critical patent/JP7300331B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To improve the accuracy of machine learning using labeled measurement data.SOLUTION: An information processing device 100 for machine learning includes: a data input unit that inputs measurement data measured by measuring means that measures depth information and generates a measurement image based on the measurement data; a label information input unit that inputs label information that is added to a feature quantity related to a target included in the measurement image; an angular information input unit that inputs angular information indicating a measurement direction of the measurement means for each piece of the measurement data; a determination unit that determines the correlation of time series of the feature quantity related to the target included in the measurement image based on the angular information; and a label correction unit that corrects the label information added to the feature quantity related to the target based on a determination result of the correlation.SELECTED DRAWING: Figure 1

Description

本発明は、機械学習用情報処理装置、機械学習用情報処理方法、および機械学習用情報処理プログラムに関する。 The present invention relates to an information processing device for machine learning, an information processing method for machine learning, and an information processing program for machine learning.

例えば特許文献1には、機械学習に用いる学習用データのラベル情報を高精度に補正する技術として、次の開示がある。すなわち特許文献1には、「自律可能車両であって、前記自律可能車両の前方方向の画像フレームを捕捉するためのカメラを含む、複数のセンサーと、前記自律可能車両を制御するための車両制御システムであって、(i)前記複数のセンサーからセンサー入力を受信し、(ii)前記センサー入力に基づいて、車両制御信号を生成するように構成されたシステムと、前記車両制御システムと独立して動作する衝突回避システムであって、前記カメラから画像フレームを受信するステップ、前記受信画像フレームに対して画像分析を行って、走行可能空間又は非走行可能空間を表しているとして、前記画像フレームの領域にラベル付けするステップ、車両データの少なくとも一部に基づいて、前記自律可能車両が、前記受信画像フレームに表されている、非走行可能空間領域に衝突する可能性があるか否かを判定するステップ、及び前記自律可能車両が、前記受信画像に表されている非走行可能空間領域に衝突する可能性があると判定した場合、衝突回避信号を生成するステップであって、前記衝突回避信号によって、前記自律可能車両が、前記非走行可能空間領域に衝突するのを回避させる、ステップを実行するように構成されたシステムと、を備えたことを特徴とする車両」が開示されている。特許文献1に開示されている技術によれば、撮影画像から画像認識により対象を検出し、位置ズレが最小になるように画像の形状を補正できる。 For example, Patent Document 1 discloses the following as a technique for correcting label information of learning data used for machine learning with high accuracy. That is, Patent Document 1 states that "a plurality of sensors including a camera for capturing an image frame in the front direction of the autonomous vehicle, and vehicle control for controlling the autonomous vehicle". A system configured to (i) receive sensor inputs from the plurality of sensors and (ii) generate a vehicle control signal based on the sensor inputs, and independently of the vehicle control system. The image frame is assumed to represent a travelable space or a non-travelable space by performing image analysis on the received image frame in a step of receiving an image frame from the camera. Based on the step of labeling the region, at least a portion of the vehicle data, whether the autonomous vehicle may collide with the non-travelable space region represented in the received image frame. The step of determining, and the step of generating a collision avoidance signal when it is determined that the autonomous vehicle may collide with the non-travelable space region shown in the received image, the collision avoidance. A vehicle comprising a system configured to perform a step that prevents the autonomous vehicle from colliding with the non-travelable space region by a signal. " .. According to the technique disclosed in Patent Document 1, an object can be detected from a captured image by image recognition, and the shape of the image can be corrected so that the positional deviation is minimized.

特開2019−8796号公報Japanese Unexamined Patent Publication No. 2019-8996

例えば水中ソナーを用いた物体の自動判定として、ラベル付けしたソナーデータを用いた機械学習により判定精度を向上させる方法がある。この場合、一般的なカメラ画像と同様に、計測データにおける特徴量は時間軸で一定の連続性を持ち、この連続性を機械学習に適用することにより学習精度を向上させることができる。一方で、ソナーで広範囲を計測することを目的としてソナーセンサの方位角もしくは俯角を変える方法があるが、この場合計測方向が変化することによりデータの連続性が失われる。 For example, as an automatic determination of an object using underwater sonar, there is a method of improving the determination accuracy by machine learning using labeled sonar data. In this case, as with a general camera image, the feature amount in the measurement data has a constant continuity on the time axis, and the learning accuracy can be improved by applying this continuity to machine learning. On the other hand, there is a method of changing the azimuth or depression angle of the sonar sensor for the purpose of measuring a wide range with the sonar, but in this case, the continuity of the data is lost due to the change of the measurement direction.

しかしながら、上述の特許文献1には、センサの計測方向が変化する時に、計測データの連続性を考慮してラベルを補正する手法については開示されていない。このため上述の特許文献1では、計測データの連続性を推定してラベル情報を補正することができず、ラベル付けした計測データを用いた機械学習の精度が低下するという問題がある。 However, Patent Document 1 described above does not disclose a method of correcting a label in consideration of continuity of measurement data when the measurement direction of the sensor changes. Therefore, in the above-mentioned Patent Document 1, there is a problem that the continuity of the measurement data cannot be estimated and the label information cannot be corrected, and the accuracy of machine learning using the labeled measurement data is lowered.

本発明は、上述の問題に鑑みてなされたものであり、センサによる計測データの連続性を推定してラベル情報を補正し、ラベル付けした計測データを用いた機械学習の精度を向上させることを1つの目的とする。 The present invention has been made in view of the above-mentioned problems, and it is intended to estimate the continuity of measurement data by a sensor, correct label information, and improve the accuracy of machine learning using the labeled measurement data. It has one purpose.

かかる課題を解決するため本発明においては、1つの目的を達成する一手段として、機械学習用情報処理装置は、奥行き情報を計測する計測手段によって計測された計測データを入力し、該計測データに基づき計測画像を生成するデータ入力部と、前記計測画像に含まれる目標物に係る特徴量に付与するラベル情報を入力するラベル情報入力部と、前記計測データごとの前記計測手段の計測方向を示す角度情報を入力する角度情報入力部と、前記角度情報に基づいて前記計測画像に含まれる目標物に係る特徴量の時系列の相関を判定する判定部と、前記相関の判定結果に基づいて前記目標物に係る特徴量に付与されたラベル情報を補正するラベル補正部とを備えたことを特徴とする。 In order to solve such a problem, in the present invention, as one means for achieving one object, the machine learning information processing device inputs the measurement data measured by the measurement means for measuring the depth information, and inputs the measurement data into the measurement data. A data input unit that generates a measurement image based on the measurement image, a label information input unit that inputs label information to be given to a feature amount related to a target object included in the measurement image, and a measurement direction of the measurement means for each measurement data are shown. The angle information input unit for inputting angle information, the determination unit for determining the time-series correlation of the feature amount related to the target object included in the measurement image based on the angle information, and the determination unit based on the correlation determination result. It is characterized in that it is provided with a label correction unit that corrects the label information given to the feature amount related to the target object.

本発明によれば、例えば、センサによる計測データの連続性を推定してラベル情報を補正し、ラベル付けした計測データを用いた機械学習の精度を向上させることができる。 According to the present invention, for example, it is possible to estimate the continuity of measurement data by a sensor, correct the label information, and improve the accuracy of machine learning using the labeled measurement data.

図1は、実施形態に係る機械学習用情報処理装置の構成例を示すブロック図である。FIG. 1 is a block diagram showing a configuration example of a machine learning information processing device according to an embodiment. 図2は、実施形態におけるソナーを構成する複数のソナーセンサの配列の一例を示す平面図である。FIG. 2 is a plan view showing an example of an arrangement of a plurality of sonar sensors constituting the sonar in the embodiment. 図3は、実施形態におけるソナーおよびソナーセンサの一例を示す側面図である。FIG. 3 is a side view showing an example of the sonar and the sonar sensor in the embodiment. 図4は、実施形態においてソナーデータに基づき生成されたソナー画像およびラベル情報の一例を示す図である。FIG. 4 is a diagram showing an example of sonar image and label information generated based on sonar data in the embodiment. 図5は、ラベル付けに失敗したときのソナー画像およびラベル情報の一例を示す図である。FIG. 5 is a diagram showing an example of sonar image and label information when labeling fails. 図6は、実施形態によるラベル情報の補正を説明するための図である。FIG. 6 is a diagram for explaining the correction of label information according to the embodiment. 図7は、実施形態に係る機械学習用情報処理を示すフローチャートである。FIG. 7 is a flowchart showing information processing for machine learning according to the embodiment. 図8は、実施形態に係る機械学習用情報処理装置を実現するコンピュータのハードウェアの一例を示す図である。FIG. 8 is a diagram showing an example of computer hardware that realizes the machine learning information processing device according to the embodiment.

以下、図面に基づき、本発明の実施形態を詳述する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素およびその組み合わせの全てが発明の解決手段に必須であるとは限らない。また実施形態の中で説明されている諸要素を適宜組み合わせた形態も、本願が開示する実施形態に含まれる。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the embodiments described below do not limit the invention according to the claims, and all of the elements and combinations thereof described in the embodiments are essential for the means for solving the invention. Not necessarily. In addition, an embodiment in which various elements described in the embodiment are appropriately combined is also included in the embodiment disclosed in the present application.

(機械学習用情報処理装置100の構成)
図1は、実施形態に係る機械学習用情報処理装置100の構成例を示すブロック図である。機械学習用情報処理装置100は、ソナーデータ入力部101、ラベル情報入力部102、ソナー角度情報入力部103、判定部104、ラベル補正部105および機械学習用データ出力部106を備える。ソナーデータ入力部101、ラベル情報入力部102、ソナー角度情報入力部103、判定部104、ラベル補正部105および機械学習用データ出力部106は、バス107を介して接続されている。バス107は、バス107に接続されている各処理部で扱われるデータ、制御情報および解析情報の伝送を仲介する。
(Configuration of Information Processing Device 100 for Machine Learning)
FIG. 1 is a block diagram showing a configuration example of the machine learning information processing apparatus 100 according to the embodiment. The machine learning information processing device 100 includes a sonar data input unit 101, a label information input unit 102, a sonar angle information input unit 103, a determination unit 104, a label correction unit 105, and a machine learning data output unit 106. The sonar data input unit 101, the label information input unit 102, the sonar angle information input unit 103, the determination unit 104, the label correction unit 105, and the machine learning data output unit 106 are connected via the bus 107. The bus 107 mediates the transmission of data, control information, and analysis information handled by each processing unit connected to the bus 107.

機械学習用情報処理装置100は、バス107を介してソナー110に接続されている。機械学習用情報処理装置100は、ソナー110と有線接続されてもよいし、無線接続されてもよい。なお、図1では、ソナー110は、機械学習用情報処理装置100の外部に設けた例で示したが、機械学習用情報処理装置100に内蔵されていてもよい。 The machine learning information processing device 100 is connected to the sonar 110 via a bus 107. The machine learning information processing device 100 may be connected to the sonar 110 by wire or wirelessly. Although the sonar 110 is shown in FIG. 1 as an example provided outside the machine learning information processing device 100, it may be built in the machine learning information processing device 100.

ソナーデータ入力部101は、ソナー110によって計測されたソナーデータの処理を行う。例えばソナーデータ入力部101は、ソナー110より入力されたソナーデータから、計測方向と深度に対する信号強度の分布として、配列データを生成する。 The sonar data input unit 101 processes the sonar data measured by the sonar 110. For example, the sonar data input unit 101 generates array data from the sonar data input from the sonar 110 as a distribution of signal strength with respect to the measurement direction and depth.

ソナーデータ入力部101が生成する配列データは、ソナー110が単一のセンサから構成されている場合には深度に対する信号強度の1次元の配列データであり、ソナー110が複数のセンサを1次元方向に配置して構成されている場合には1次元の計測方向および深度に対する信号強度の2次元の配列データであり、ソナー110が複数のセンサを2次元方向に配置して構成されている場合には2次元の計測方向および深度に対する信号強度の3次元の配列データである。以降の説明では、特別な言及が無い限り2次元の配列データを例にして説明する。また、以降の説明では、ソナーデータに基づき生成した配列データをソナー画像と呼ぶ。ソナー画像は、計測手段によって計測された計測データに基づき生成した計測画像の一例である。 The array data generated by the sonar data input unit 101 is one-dimensional array data of the signal strength with respect to the depth when the sonar 110 is composed of a single sensor, and the sonar 110 makes a plurality of sensors in the one-dimensional direction. When the sonar 110 is configured by arranging a plurality of sensors in the two-dimensional direction, it is a two-dimensional array data of the signal strength with respect to the one-dimensional measurement direction and the depth. Is a three-dimensional array data of the signal strength with respect to the two-dimensional measurement direction and depth. In the following description, unless otherwise specified, two-dimensional array data will be described as an example. Further, in the following description, the array data generated based on the sonar data will be referred to as a sonar image. The sonar image is an example of a measurement image generated based on the measurement data measured by the measurement means.

ラベル情報入力部102は、ソナーデータ入力部101から入力されたソナー画像に含まれる目標物に関するラベル情報を入力する。ラベル情報は、例えば人の視認により目標物が存在すると判断されるソナー画像内の位置もしくは範囲を座標値として記録した情報である。この座標値は、例えば目標物とソナー110のそれぞれの位置をGPSもしくは航空写真から取得し、それぞれの相対的な位置から求められる。 The label information input unit 102 inputs label information related to the target object included in the sonar image input from the sonar data input unit 101. The label information is information recorded as coordinate values of a position or range in a sonar image in which it is determined that a target object exists by human visual inspection, for example. This coordinate value is obtained from, for example, the respective positions of the target and the sonar 110 obtained from GPS or an aerial photograph and the relative positions of the respective positions.

ソナー角度情報入力部103は、ソナー110の計測方向を示す方位角もしくは俯角の角度情報を入力する。ソナー110は、計測時に、その方位角もしくは俯角が、外部から制御されたり、自律的に制御されたりする。ソナー角度情報入力部103は、ソナー110の制御で用いられる方位角もしくは俯角の情報を入力する。あるいは、ソナー角度情報入力部103は、例えばカメラもしくはその他の計測手段により計測もしくは推定されたソナー110の方位角もしくは俯角の情報を入力する。以降、ソナー110が計測する方向を示す方位角もしくは俯角の情報を、ソナー110の計測方向と呼ぶ。 The sonar angle information input unit 103 inputs angle information of an azimuth or depression angle indicating the measurement direction of the sonar 110. At the time of measurement, the sonar 110 has its azimuth or depression angle controlled from the outside or autonomously controlled. The sonar angle information input unit 103 inputs information on the azimuth or depression angle used in controlling the sonar 110. Alternatively, the sonar angle information input unit 103 inputs information on the azimuth or depression angle of the sonar 110 measured or estimated by, for example, a camera or other measuring means. Hereinafter, the information of the azimuth angle or the depression angle indicating the direction measured by the sonar 110 is referred to as the measurement direction of the sonar 110.

判定部104は、ソナー110の計測方向の変化量に基づきソナー画像に含まれる目標物に係る画像特徴の時系列の相関を判定する。すなわち、判定部104は、ソナー110の計測方向の変化量に基づき目標物に係る画像特徴が時系列で連続しているか否かを判定する。ソナー110の計測方向を2つ以上の時刻で比較し、計測方向の変化量が一定値a未満であるときには各時刻の目標物が連続していると判定し、計測方向の変化量が一定値bより大であるときには連続していないと判定する。 The determination unit 104 determines the time-series correlation of the image features related to the target object included in the sonar image based on the amount of change in the measurement direction of the sonar 110. That is, the determination unit 104 determines whether or not the image features related to the target object are continuous in time series based on the amount of change in the measurement direction of the sonar 110. The measurement directions of the sonar 110 are compared at two or more times, and when the amount of change in the measurement direction is less than a certain value a, it is determined that the target at each time is continuous, and the amount of change in the measurement direction is a constant value. When it is larger than b, it is determined that it is not continuous.

なお、連続性の判定においては、ソナー110の計測方向の変化量に加えて、ソナー画像およびラベル情報を用いてもよい。例えば、ソナー画像のうち目標物に該当する領域の画像特徴量を、エッジ検出、ヒストグラム解析のような既知の画像処理により検出し、2つ以上の時刻のソナー画像に含まれる目標物の時系列の画像特徴量にさらに基づいて相関を判定してもよい。 In determining the continuity, the sonar image and label information may be used in addition to the amount of change in the measurement direction of the sonar 110. For example, the image feature amount of the region corresponding to the target in the sonar image is detected by known image processing such as edge detection and histogram analysis, and the time series of the target included in the sonar image at two or more times. The correlation may be determined based on the image feature amount of.

例えば、ソナー画像に含まれる目標物の画像特徴量に基づく画像相関値が大きいほど比較画像間の画像相関が高いことを示すので、画像相関値の逆数が小さいほど比較画像間の相関が高いことを示すことになる。よって、ソナー110の計測方向の正規化した変化量Vと、画像相関値Rの正規化した逆数1/Rの和(V+1/R)が一定値A未満であるときには、目標物が時系列で連続していると判定し、和(V+1/R)が一定値Bより大であるときには連続していないと判定することもできる。なお、和(V+1/R)に代えて加重和(αV+β/R)(ただしα、β>0)を採用してもよい。このようにすることで、ソナー画像に含まれる目標物の時系列の相関の判定精度を高めることができる。 For example, the larger the image correlation value based on the image feature amount of the target included in the sonar image, the higher the image correlation between the comparison images. Therefore, the smaller the inverse of the image correlation value, the higher the correlation between the comparison images. Will be shown. Therefore, when the sum (V + 1 / R) of the normalized amount of change V in the measurement direction of the sonar 110 and the normalized reciprocal 1 / R of the image correlation value R is less than a certain value A, the target object is in chronological order. It can also be determined that they are continuous, and when the sum (V + 1 / R) is larger than the constant value B, it is determined that they are not continuous. A weighted sum (αV + β / R) (where α, β> 0) may be adopted instead of the sum (V + 1 / R). By doing so, it is possible to improve the determination accuracy of the time-series correlation of the target object included in the sonar image.

ラベル補正部105は、判定部104で判定したソナー画像に含まれる目標物に係る画像特徴の時系列の連続性に基づき、ラベル情報を追加もしくは削除する。ラベル補正部105は、判定部104によりソナー画像に含まれる目標物が時系列で連続していると判定された場合でこの目標物にラベル情報が付与されていないときラベル情報を追加する。またラベル補正部105は、判定部104によりソナー画像に含まれる目標物が時系列で連続していないと判定された場合でこの目標物にラベル情報が付与されているときラベル情報を削除する。 The label correction unit 105 adds or deletes label information based on the time-series continuity of the image features related to the target object included in the sonar image determined by the determination unit 104. The label correction unit 105 adds label information when it is determined by the determination unit 104 that the targets included in the sonar image are continuous in time series and no label information is given to the targets. Further, the label correction unit 105 deletes the label information when the determination unit 104 determines that the target objects included in the sonar image are not continuous in time series and the label information is given to the target objects.

機械学習用データ出力部106は、ソナーデータ入力部101により生成されたソナー画像とラベル補正部105により補正された補正後ラベルデータに基づき、学習用データを機械学習で用いるデータの形式に変換して出力する。ラベル情報が補正された学習用データを機械学習に用いることで、学習精度を向上させることができる。 The machine learning data output unit 106 converts the learning data into a data format used in machine learning based on the sonar image generated by the sonar data input unit 101 and the corrected label data corrected by the label correction unit 105. And output. By using the learning data with the label information corrected for machine learning, the learning accuracy can be improved.

(ソナー110の構成)
図2は、実施形態におけるソナー110を構成する複数のソナーセンサ201の配列の一例を示す平面図である。各ソナーセンサ201は、図2中の破線で示すそれぞれの測定範囲202の範囲内に発射した超音波が目標物211で反射した反射波の信号強度に基づいて、目標物211までの距離を計測する。ソナー110は、少なくとも1つのソナーセンサ201から発射された超音波がその発射方向に位置する目標物211で反射した反射波を捉えることができる。図2に示すように、ソナーセンサ201の配列方向をx軸方向とする。
(Structure of sonar 110)
FIG. 2 is a plan view showing an example of an arrangement of a plurality of sonar sensors 201 constituting the sonar 110 in the embodiment. Each sonar sensor 201 measures the distance to the target object 211 based on the signal intensity of the reflected wave reflected by the target object 211 by the ultrasonic waves emitted within the range of each measurement range 202 shown by the broken line in FIG. .. The sonar 110 can capture the reflected wave reflected by the target 211 located in the emission direction of the ultrasonic waves emitted from at least one sonar sensor 201. As shown in FIG. 2, the arrangement direction of the sonar sensors 201 is the x-axis direction.

図3は、実施形態におけるソナー110およびソナーセンサ201の一例を示す側面図である。図3は、図2の平面視方向に対する直交方向から見た側面図である。図3に示すように、複数のソナーセンサ201は同一の高さに位置しており、それぞれの計測方向203には基準からの俯角θが設定されている。複数のソナーセンサ201は、俯角θを中心とした測定範囲202の範囲内に超音波を発射しその反射波を捉えて、ソナーセンサ201からの距離に対する信号強度を計測する。図3に示すように、ソナーセンサ201が計測する深度の方向をy軸方向とする。 FIG. 3 is a side view showing an example of the sonar 110 and the sonar sensor 201 in the embodiment. FIG. 3 is a side view seen from a direction orthogonal to the plan view direction of FIG. As shown in FIG. 3, the plurality of sonar sensors 201 are located at the same height, and the depression angle θ from the reference is set in each measurement direction 203. The plurality of sonar sensors 201 emit ultrasonic waves within the measurement range 202 centered on the depression angle θ, capture the reflected waves, and measure the signal strength with respect to the distance from the sonar sensor 201. As shown in FIG. 3, the direction of the depth measured by the sonar sensor 201 is the y-axis direction.

図4は、実施形態においてソナー110により計測されたソナーデータに基づき生成されたソナー画像401およびラベル情報の一例を示す図である。ソナー画像401において、x軸の分解能は複数のソナーセンサ201の個数により決まり、y軸の分解能は各ソナーセンサ201のサンプリング時間により決まる。 FIG. 4 is a diagram showing an example of sonar image 401 and label information generated based on the sonar data measured by the sonar 110 in the embodiment. In the sonar image 401, the x-axis resolution is determined by the number of a plurality of sonar sensors 201, and the y-axis resolution is determined by the sampling time of each sonar sensor 201.

ソナー画像401において、画像特徴402は、目標物211からの反射波を示している。ソナー画像401は、例えばソナー画像401中のPs(xs,ys)およびPe(xe,ye)で規定される矩形領域403の範囲内に目標物211が含まれると人または装置により認識されることで画像特徴402がラベル付けされる。このとき、Ps(xs,ys)およびPe(xe,ye)がラベル情報である。機械学習時には、矩形領域403の範囲内の画像特徴量が解析されて学習される。 In the sonar image 401, the image feature 402 shows the reflected wave from the target 211. The sonar image 401 is recognized by a person or device as including, for example, the target 211 within the range of the rectangular region 403 defined by Ps (xs, ys) and Pe (xe, ye) in the sonar image 401. The image feature 402 is labeled with. At this time, Ps (xs, ys) and Pe (xe, ye) are label information. At the time of machine learning, the image feature amount within the range of the rectangular area 403 is analyzed and learned.

(ラベル付けの失敗例)
図5は、ラベル付けに失敗したときのソナー画像401aおよびラベル情報の一例を示す図である。図5(a)のソナー画像401aは、目標物211の画像特徴402aがラベル付けされていない例を示す。画像特徴402aは、図4における画像特徴402と比較して人が視認しづらいことからラベル付けされていないが、ソナー画像401からの俯角変化量Δθが一定値a未満であることから、目標物211がソナー110の測定範囲202の範囲内に存在すると判断される。このような場合に、画像特徴402aにラベル情報を追加することで、機械学習の精度が向上する。
(Example of labeling failure)
FIG. 5 is a diagram showing an example of sonar image 401a and label information when labeling fails. The sonar image 401a of FIG. 5A shows an example in which the image feature 402a of the target object 211 is not labeled. The image feature 402a is not labeled because it is harder for a person to see than the image feature 402 in FIG. 4, but since the amount of change in depression angle Δθ from the sonar image 401 is less than a constant value a, it is a target object. It is determined that 211 is within the measurement range 202 of the sonar 110. In such a case, adding label information to the image feature 402a improves the accuracy of machine learning.

また、図5(b)のソナー画像401bは、目標物211の画像特徴が存在しないがラベル付けされている例を示す。図5(b)に示すように、図4のソナー画像401からの俯角変化量Δθが一定値bを超過し、目標物211がソナー110の測定範囲202の範囲から外れてしまった場合でも、GPSもしくは航空写真などの情報によりラベル情報403bがラベル付けされていると、目標物211を含まない画像特徴を学習させることになるので、機械学習の精度が低下してしまう。このような場合に、ラベル情報403bを削除することで、機械学習の精度が向上する。 Further, the sonar image 401b of FIG. 5B shows an example in which the image feature of the target object 211 is not present but is labeled. As shown in FIG. 5B, even when the amount of change in depression angle Δθ from the sonar image 401 in FIG. 4 exceeds a certain value b and the target object 211 deviates from the measurement range 202 of the sonar 110. If the label information 403b is labeled with information such as GPS or aerial photograph, the image features that do not include the target object 211 are learned, so that the accuracy of machine learning is lowered. In such a case, the accuracy of machine learning is improved by deleting the label information 403b.

(ラベル情報の補正)
図6は、実施形態によるラベル情報の補正を説明するための図である。図6では、ラベル情報は、目標物の有無と、ROI(Region of Interest)として上述のPs(xs,ys)およびPe(xe,ye)を示している。図6では、俯角の変化量を用いる場合を示すが、方位角や画像特徴量の変化量、あるいは俯角、方位角、画像特徴量の適宜の組み合わせであってもよい。
(Correction of label information)
FIG. 6 is a diagram for explaining the correction of label information according to the embodiment. In FIG. 6, the label information indicates the presence or absence of the target object and the above-mentioned Ps (xs, ys) and Pe (xe, ye) as ROI (Region of Interest). Although FIG. 6 shows a case where the amount of change in the depression angle is used, the amount of change in the azimuth angle and the image feature amount, or an appropriate combination of the depression angle, the azimuth angle, and the image feature amount may be used.

表601aは、図5(a)の目標物211の画像特徴402aがラベル付けされていない例について示す。図5(a)では、t=nのフレームにおいてラベル情報が無かったのに対し、1つ前のt=n−1のフレームからの俯角の変化量Δθが一定値a未満であったことから、t=nとt=n−1の各フレームのソナー画像は連続性があると判断され、ラベル情報が追加されている。このように、ラベル情報を追加することで、機械学習の精度が向上する。 Table 601a shows an example in which the image feature 402a of the target object 211 of FIG. 5 (a) is not labeled. In FIG. 5A, there was no label information in the frame of t = n, but the amount of change Δθ of the depression angle from the previous frame of t = n-1 was less than a constant value a. , T = n and t = n-1 are determined to have continuity in the sonar images of each frame, and label information is added. By adding the label information in this way, the accuracy of machine learning is improved.

表601bは、図5(b)のソナー画像401bにおいて目標物の画像特徴が存在しないにもかかわらずラベル付けされている例について示す。図5(b)では、t=nのフレームにおいてラベル付けされているのに対し、1つ前のt=n−1のフレームからの俯角の変化量Δθが一定値bを超過したことからt=n−1のフレームのソナー画像と連続性がないと判断され、ラベル情報が削除されている。このように、ラベル情報を削除することで、機械学習の精度が向上する。 Table 601b shows an example in which the sonar image 401b of FIG. 5B is labeled despite the absence of image features of the target. In FIG. 5B, while the labels are given in the frame of t = n, the amount of change Δθ of the depression angle from the previous frame of t = n-1 exceeds a certain value b, so t = It is determined that there is no continuity with the sonar image of the frame of n-1, and the label information is deleted. By deleting the label information in this way, the accuracy of machine learning is improved.

図7は、実施形態に係る機械学習用情報処理を示すフローチャートである。機械学習用情報処理は、リアルタイム処理であってもバッチ処理であっても何れでもよい。 FIG. 7 is a flowchart showing information processing for machine learning according to the embodiment. The information processing for machine learning may be real-time processing or batch processing.

先ず、ステップS701では、機械学習用情報処理装置100は、必要フレーム数分のソナーデータのラベル補正処理が完了したか否かを判定する。機械学習用情報処理装置100は、必要フレーム数分のソナーデータのラベル補正処理が完了した場合(ステップS710Yes)、本機械学習用情報処理を終了する。一方、機械学習用情報処理装置100は、必要フレーム数分のソナーデータのラベル補正処理が完了していない場合(ステップS710No)、ステップ702へ処理を移す。 First, in step S701, the machine learning information processing apparatus 100 determines whether or not the label correction processing of the sonar data for the required number of frames is completed. When the label correction processing of the sonar data for the required number of frames is completed (step S710Yes), the machine learning information processing apparatus 100 ends the machine learning information processing. On the other hand, when the label correction processing of the sonar data for the required number of frames is not completed (step S710No), the machine learning information processing apparatus 100 shifts the processing to step 702.

次にステップS702では、機械学習用情報処理装置100は、ソナーデータ入力部101、ラベル情報入力部102およびソナー角度情報入力部103によりソナーデータ、ラベル情報およびソナー角度情報を入力する。 Next, in step S702, the machine learning information processing apparatus 100 inputs sonar data, label information, and sonar angle information by the sonar data input unit 101, the label information input unit 102, and the sonar angle information input unit 103.

次にステップS703では、機械学習用情報処理装置100は、判定部104で、各フレームにおけるソナー俯角の変化量を判定する。変化量は、1フレーム前のソナー俯角から求めてもよいし、複数フレーム分の平均値から求めてもよい。 Next, in step S703, the machine learning information processing apparatus 100 determines the amount of change in the sonar depression angle in each frame by the determination unit 104. The amount of change may be obtained from the sonar depression angle one frame before, or may be obtained from the average value of a plurality of frames.

機械学習用情報処理装置100は、ソナー俯角の変化量が一定値aより小さい場合、ラベル補正部105によりラベル情報を追加する(ステップS704)。追加するラベル情報は、1フレーム前の情報のコピーでもよいし、前後の2つ以上のフレームの情報から平均化して求めてもよい。また機械学習用情報処理装置100は、ソナー俯角の変化量が一定値bより大きい場合、機械学習用情報処理装置100は、ラベル補正部105によりラベル情報を削除する(ステップS705)。ステップS704またはS705が終了すると、機械学習用情報処理装置100は、ステップS701へ処理を戻す。また機械学習用情報処理装置100は、ソナー俯角の変化量が一定値a以上かつ一定値b以下の場合には、ステップS701へ処理を戻す。 When the amount of change in the sonar depression angle is smaller than the constant value a, the machine learning information processing apparatus 100 adds label information by the label correction unit 105 (step S704). The label information to be added may be a copy of the information one frame before, or may be obtained by averaging the information of two or more frames before and after. Further, when the change amount of the sonar depression angle of the machine learning information processing apparatus 100 is larger than a constant value b, the machine learning information processing apparatus 100 deletes the label information by the label correction unit 105 (step S705). When the step S704 or S705 is completed, the machine learning information processing apparatus 100 returns the process to step S701. Further, when the amount of change in the sonar depression angle is equal to or greater than a certain value a and equal to or less than a certain value b, the machine learning information processing apparatus 100 returns the process to step S701.

上述の実施形態によれば、ソナーの方位角や俯角等の計測方向が変化する時に、ソナーデータの連続性を推定してラベルを補正することで、ラベル付けしたソナーデータを用いた機械学習の精度低下を防止し、精度をより向上させることができる。 According to the above-described embodiment, when the measurement direction such as the azimuth angle and the depression angle of the sonar changes, the continuity of the sonar data is estimated and the label is corrected to perform machine learning using the labeled sonar data. It is possible to prevent a decrease in accuracy and further improve the accuracy.

(他の実施形態)
(1)上述の実施形態では、ラベル情報は、ROIを座標表示するClassificationに基づく情報であるとした。しかしこれに限らず、例えばセグメンテーション化された画像の位置や形状をラベル情報とし、推定または補完によって追加ラベル情報を生成することで、上述の実施形態同様に、ラベル情報の追加および削除を行うことができる。
(Other embodiments)
(1) In the above-described embodiment, the label information is information based on Classification that displays the coordinates of the ROI. However, the present invention is not limited to this, and for example, the position and shape of the segmented image are used as label information, and additional label information is generated by estimation or complementation, thereby adding and deleting the label information as in the above-described embodiment. Can be done.

(2)上述の実施形態では、ソナーで計測されたソナーデータのラベル情報を補正する例を示した。しかしソナーに限らず、奥行き情報を計測するセンサもしくは計測手段で計測されたデータについて、そのラベル情報の補正を行うこともできる。奥行き情報を計測するセンサもしくは計測手段には、レーザーレーダー、レーザーライダー、ミリ波レーダーなどがある。 (2) In the above-described embodiment, an example of correcting the label information of the sonar data measured by the sonar is shown. However, not limited to sonar, it is also possible to correct the label information of the data measured by the sensor or the measuring means for measuring the depth information. Sensors or measuring means for measuring depth information include laser radar, laser lidar, and millimeter wave radar.

(3)上述の実施形態では、ソナーの方位角もしくは俯角の変化量に基づいてラベル情報の追加および削除を行うとした。しかし追加および削除に限らず、補完や推定に基づいた値の修正などによりラベル情報の補正を行ってもよい。 (3) In the above-described embodiment, the label information is added or deleted based on the amount of change in the azimuth or depression angle of the sonar. However, the label information may be corrected not only by addition and deletion but also by complementation or correction of a value based on estimation.

(4)上述の実施形態では、ソナーの方位角もしくは俯角の1次元の変化量に応じてラベル情報の追加および削除を行うとした。しかしこれに限らず、方位角および俯角の2次元の変化量に応じてラベル情報の追加および削除を行ってもよい。すなわちセンサもしくは計測手段の第1の軸方向および第2の軸方向の2軸方向の変化量の二乗和もしくはその平方根を閾値判定した結果に基づいてラベル情報を補正してもよい。 (4) In the above-described embodiment, the label information is added or deleted according to the one-dimensional change amount of the azimuth or depression angle of the sonar. However, the present invention is not limited to this, and label information may be added or deleted according to the amount of two-dimensional change in the azimuth angle and the depression angle. That is, the label information may be corrected based on the sum of squares of the amount of change in the first axial direction and the second axial direction of the sensor or the measuring means or the result of determining the square root thereof as a threshold value.

(機械学習用情報処理装置を実現するコンピュータのハードウェア)
図8は、実施形態に係る機械学習用情報処理装置100を実現するコンピュータのハードウェアの一例を示す図である。機械学習用情報処理装置100を実現するコンピュータ500では、CPUに代表される演算装置530、RAM等のメモリ540、入力装置560および出力装置570が、メモリコントローラ550を通して相互接続されている。コンピュータ500において、所定のプログラムがI/Oコントローラ520を介してSSDやHDD等の外部記憶装置580から読み出されて、演算装置530およびメモリ540の協働により実行されることにより、機械学習用情報処理装置100が実現される。機械学習用情報処理装置100を実現するためのプログラムは、頒布媒体から読み出されて取得されても、ネットワークインターフェース510を介した通信により外部のコンピュータから取得されてもよい。
(Computer hardware that realizes information processing equipment for machine learning)
FIG. 8 is a diagram showing an example of computer hardware that realizes the machine learning information processing apparatus 100 according to the embodiment. In the computer 500 that realizes the machine learning information processing device 100, an arithmetic unit 530 represented by a CPU, a memory 540 such as a RAM, an input device 560, and an output device 570 are interconnected through a memory controller 550. In the computer 500, a predetermined program is read from an external storage device 580 such as an SSD or HDD via the I / O controller 520 and executed in cooperation with the arithmetic unit 530 and the memory 540 for machine learning. The information processing device 100 is realized. The program for realizing the machine learning information processing apparatus 100 may be read from the distribution medium and acquired, or may be acquired from an external computer by communication via the network interface 510.

以上、本発明の実施形態について説明したが、本発明は上記した実施形態に限定されるものではなく、様々な変形例を含む。例えば、上記した実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、構成の追加、削除、置換、統合、または分散を行うことが可能である。また、実施形態で示した各構成および各処理は、処理効率または実装効率に基づいて適宜分散または統合されてもよい。 Although the embodiments of the present invention have been described above, the present invention is not limited to the above-described embodiments, and includes various modifications. For example, the above-described embodiment has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to the one including all the described configurations. Further, it is possible to replace a part of the configuration of one embodiment with the configuration of another embodiment, and it is also possible to add the configuration of another embodiment to the configuration of one embodiment. In addition, it is possible to add, delete, replace, integrate, or distribute a part of the configuration of each embodiment. Further, each configuration and each process shown in the embodiment may be appropriately distributed or integrated based on the processing efficiency or the mounting efficiency.

100:機械学習用情報処理装置、101:ソナーデータ入力部、102:ラベル情報入力部、103:ソナー角度情報入力部、104:判定部、105:ラベル補正部、106:機械学習用データ出力部、110:ソナー、201:ソナーセンサ、211:目標物、401,401a,401b:ソナー画像、500:コンピュータ 100: Machine learning information processing device, 101: Sonar data input unit, 102: Label information input unit, 103: Sonar angle information input unit, 104: Judgment unit, 105: Label correction unit, 106: Machine learning data output unit , 110: sonar, 201: sonar sensor, 211: target, 401, 401a, 401b: sonar image, 500: computer

Claims (10)

奥行き情報を計測する計測手段によって計測された計測データを入力し、該計測データに基づき計測画像を生成するデータ入力部と、
前記計測画像に含まれる目標物に係る画像特徴に付与するラベル情報を入力するラベル情報入力部と、
前記計測データごとの前記計測手段の計測方向を示す角度情報を入力する角度情報入力部と、
前記角度情報に基づいて前記画像特徴の時系列の相関を判定する判定部と、
前記相関の判定結果に基づいて前記画像特徴に付与されたラベル情報を補正するラベル補正部と
を備えたことを特徴とする機械学習用情報処理装置。
A data input unit that inputs measurement data measured by a measurement means that measures depth information and generates a measurement image based on the measurement data.
A label information input unit for inputting label information to be given to an image feature related to a target object included in the measurement image, and a label information input unit.
An angle information input unit for inputting angle information indicating the measurement direction of the measurement means for each measurement data,
A determination unit that determines the time-series correlation of the image features based on the angle information,
A machine learning information processing apparatus including a label correction unit that corrects label information given to the image feature based on the correlation determination result.
前記判定部は、前記計測手段の第1の軸方向の角度情報の2つ以上の時刻間の変化量に基づいて、前記画像特徴の時系列の相関を判定する
ことを特徴とする請求項1に記載の機械学習用情報処理装置。
Claim 1 is characterized in that the determination unit determines the time-series correlation of the image features based on the amount of change of the angle information in the first axial direction of the measuring means between two or more times. Information processing device for machine learning described in.
さらに、
前記判定部は、前記第1の軸方向とは異なる前記計測手段の第2の軸方向の角度情報の2つ以上の時刻間の変化量に基づいて、前記画像特徴の時系列の相関を判定する
ことを特徴とする請求項2に記載の機械学習用情報処理装置。
further,
The determination unit determines the time-series correlation of the image features based on the amount of change in the angle information in the second axial direction of the measuring means different from the first axial direction between two or more times. The information processing apparatus for machine learning according to claim 2, wherein the information processing apparatus is to be used.
前記判定部は、前記変化量が閾値未満である場合に、前記画像特徴が時系列で連続していると判定し、
前記ラベル補正部は、前記判定部によって前記画像特徴が時系列で連続していると判定された場合であって該画像特徴にラベル情報が付与されていないとき、該画像特徴に該ラベル情報を付与する
ことを特徴とする請求項2に記載の機械学習用情報処理装置。
When the amount of change is less than the threshold value, the determination unit determines that the image features are continuous in time series.
When the determination unit determines that the image features are continuous in time series and the label information is not added to the image features, the label correction unit applies the label information to the image features. The information processing apparatus for machine learning according to claim 2, wherein the information processing device is provided.
前記判定部は、前記変化量が閾値より大である場合に、前記画像特徴が時系列で連続していないと判定し、
前記ラベル補正部は、前記判定部によって前記画像特徴が時系列で連続していないと判定された場合であって該画像特徴にラベル情報が付与されているとき、該ラベル情報を削除する
ことを特徴とする請求項4に記載の機械学習用情報処理装置。
When the amount of change is larger than the threshold value, the determination unit determines that the image features are not continuous in time series.
The label correction unit deletes the label information when the determination unit determines that the image features are not continuous in time series and the label information is added to the image features. The information processing apparatus for machine learning according to claim 4, which is characterized.
前記計測手段はソナーであり、
前記判定部は、ソナーの方位角もしくはソナーの俯角の2つ以上の時刻間の前記変化量に基づいて、前記画像特徴の時系列の相関を判定する
ことを特徴とする請求項5に記載の機械学習用情報処理装置。
The measuring means is sonar.
The fifth aspect of claim 5, wherein the determination unit determines the time-series correlation of the image features based on the amount of change between the azimuth angle of the sonar or the depression angle of the sonar between two or more times. Information processing device for machine learning.
さらに、
前記判定部は、2つ以上の時刻の前記計測画像に含まれる目標物の時系列の画像特徴量に基づいて前記画像特徴の時系列の相関を判定する
ことを特徴とする請求項1に記載の機械学習用情報処理装置。
further,
The first aspect of claim 1, wherein the determination unit determines the time-series correlation of the image features based on the time-series image feature amount of the target object included in the measurement image at two or more times. Information processing device for machine learning.
前記ラベル補正部により補正されたラベル情報に基づき機械学習に用いるデータを生成し出力する機械学習用データ出力部
を備えたことを特徴とする請求項1に記載の機械学習用情報処理装置。
The information processing apparatus for machine learning according to claim 1, further comprising a data output unit for machine learning that generates and outputs data used for machine learning based on the label information corrected by the label correction unit.
機械学習用情報処理装置が実行する機械学習用情報処理方法であって、
前記機械学習用情報処理装置が、
奥行き情報を計測する計測手段によって計測された計測データを入力し、
前記計測データに基づき計測画像を生成し、
前記計測画像に含まれる目標物に係る画像特徴に付与するラベル情報を入力し、
前記計測データごとの前記計測手段の計測方向を示す角度情報を入力し、
前記角度情報に基づいて前記画像特徴の時系列の相関を判定し、
前記相関の判定結果に基づいて前記画像特徴に付与されたラベル情報を補正する
各処理を含んだことを特徴とする機械学習用情報処理方法。
A machine learning information processing method executed by a machine learning information processing device.
The machine learning information processing device
Enter the measurement data measured by the measuring means that measures the depth information,
A measurement image is generated based on the measurement data,
Input the label information to be given to the image feature related to the target object included in the measurement image, and enter the label information.
Input the angle information indicating the measurement direction of the measurement means for each measurement data,
Based on the angle information, the time-series correlation of the image features is determined.
An information processing method for machine learning, comprising each process of correcting label information given to the image feature based on the correlation determination result.
コンピュータを、
奥行き情報を計測する計測手段によって計測された計測データを入力し、該計測データに基づき計測画像を生成するデータ入力部、
前記計測画像に含まれる目標物に係る画像特徴に付与するラベル情報を入力するラベル情報入力部、
前記計測データごとの前記計測手段の計測方向を示す角度情報を入力する角度情報入力部、
前記角度情報に基づいて前記画像特徴の時系列の相関を判定する判定部、
前記相関の判定結果に基づいて前記画像特徴に付与されたラベル情報を補正するラベル補正部
として機能させるための機械学習用情報処理プログラム。
Computer,
A data input unit that inputs measurement data measured by a measurement means that measures depth information and generates a measurement image based on the measurement data.
A label information input unit for inputting label information to be given to an image feature related to a target object included in the measurement image.
An angle information input unit for inputting angle information indicating the measurement direction of the measurement means for each measurement data.
A determination unit that determines the time-series correlation of the image features based on the angle information.
A machine learning information processing program for functioning as a label correction unit that corrects label information given to the image feature based on the correlation determination result.
JP2019124856A 2019-07-03 2019-07-03 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning Active JP7300331B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019124856A JP7300331B2 (en) 2019-07-03 2019-07-03 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019124856A JP7300331B2 (en) 2019-07-03 2019-07-03 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning

Publications (2)

Publication Number Publication Date
JP2021012043A true JP2021012043A (en) 2021-02-04
JP7300331B2 JP7300331B2 (en) 2023-06-29

Family

ID=74227534

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019124856A Active JP7300331B2 (en) 2019-07-03 2019-07-03 Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning

Country Status (1)

Country Link
JP (1) JP7300331B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023028298A (en) * 2021-08-19 2023-03-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 Learning device, learning method and learning program

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0295293A (en) * 1988-09-30 1990-04-06 Nec Corp Monitor sonar
JPH03251713A (en) * 1989-09-07 1991-11-11 Ricoh Co Ltd Ultrasonic imaging system for three-dimensional object
JPH08122433A (en) * 1994-10-20 1996-05-17 Tokyo Electric Power Co Inc:The Thundercloud observation system
JPH09259273A (en) * 1996-03-19 1997-10-03 Kawasaki Steel Corp Image similarity decision device
JP2003279650A (en) * 2002-03-22 2003-10-02 Koden Electronics Co Ltd Ultrasonic survey apparatus
JP2018146354A (en) * 2017-03-03 2018-09-20 日本電気株式会社 Sonar image processor, sonar image processing method, and sonar image processing program
JP2019008796A (en) * 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド Collision avoidance system for autonomous vehicle
JP2019015598A (en) * 2017-07-06 2019-01-31 株式会社東芝 Measurement device and method for measurement

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0295293A (en) * 1988-09-30 1990-04-06 Nec Corp Monitor sonar
JPH03251713A (en) * 1989-09-07 1991-11-11 Ricoh Co Ltd Ultrasonic imaging system for three-dimensional object
JPH08122433A (en) * 1994-10-20 1996-05-17 Tokyo Electric Power Co Inc:The Thundercloud observation system
JPH09259273A (en) * 1996-03-19 1997-10-03 Kawasaki Steel Corp Image similarity decision device
JP2003279650A (en) * 2002-03-22 2003-10-02 Koden Electronics Co Ltd Ultrasonic survey apparatus
JP2018146354A (en) * 2017-03-03 2018-09-20 日本電気株式会社 Sonar image processor, sonar image processing method, and sonar image processing program
JP2019008796A (en) * 2017-06-23 2019-01-17 ウーバー テクノロジーズ,インコーポレイテッド Collision avoidance system for autonomous vehicle
JP2019015598A (en) * 2017-07-06 2019-01-31 株式会社東芝 Measurement device and method for measurement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2023028298A (en) * 2021-08-19 2023-03-03 エヌ・ティ・ティ・コミュニケーションズ株式会社 Learning device, learning method and learning program

Also Published As

Publication number Publication date
JP7300331B2 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
CN111060101B (en) Vision-assisted distance SLAM method and device and robot
TWI624170B (en) Image scanning system and method thereof
JP5567908B2 (en) Three-dimensional measuring apparatus, measuring method and program
US9576375B1 (en) Methods and systems for detecting moving objects in a sequence of image frames produced by sensors with inconsistent gain, offset, and dead pixels
KR101672732B1 (en) Apparatus and method for tracking object
CN105335955A (en) Object detection method and object detection apparatus
US20210023718A1 (en) Three-dimensional data generation device and robot control system
US20190266425A1 (en) Identification apparatus, identification method, and non-transitory tangible recording medium storing identification program
WO2022135594A1 (en) Method and apparatus for detecting target object, fusion processing unit, and medium
JP6172432B2 (en) Subject identification device, subject identification method, and subject identification program
CN113156407B (en) Vehicle-mounted laser radar external parameter joint calibration method, system, medium and device
WO2021016854A1 (en) Calibration method and device, movable platform, and storage medium
CN112146848B (en) Method and device for determining distortion parameter of camera
Kang et al. Accurate fruit localisation using high resolution LiDAR-camera fusion and instance segmentation
US20230267593A1 (en) Workpiece measurement method, workpiece measurement system, and program
JP2021056017A (en) Synthetic processing apparatus, synthetic processing system and synthetic processing method
CN111175761A (en) Registration method of underwater robot positioning sonar data
JP7300331B2 (en) Information processing device for machine learning, information processing method for machine learning, and information processing program for machine learning
US10796186B2 (en) Part recognition method, information processing apparatus, and imaging control system
US10572753B2 (en) Outside recognition device for vehicle
CN111742349B (en) Information processing apparatus, information processing method, and information processing storage medium
JP7375806B2 (en) Image processing device and image processing method
EP3961556A1 (en) Object recognition device and object recognition method
CN113219486B (en) Positioning method and device
CN112513572B (en) Image processing apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220131

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221227

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230619

R150 Certificate of patent or registration of utility model

Ref document number: 7300331

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150