WO2023047531A1 - データ収集プログラム,データ収集装置及びデータ収集方法 - Google Patents

データ収集プログラム,データ収集装置及びデータ収集方法 Download PDF

Info

Publication number
WO2023047531A1
WO2023047531A1 PCT/JP2021/035084 JP2021035084W WO2023047531A1 WO 2023047531 A1 WO2023047531 A1 WO 2023047531A1 JP 2021035084 W JP2021035084 W JP 2021035084W WO 2023047531 A1 WO2023047531 A1 WO 2023047531A1
Authority
WO
WIPO (PCT)
Prior art keywords
data
data collection
confidence
learning
training
Prior art date
Application number
PCT/JP2021/035084
Other languages
English (en)
French (fr)
Inventor
孝 河東
彼方 鈴木
太郎 砂川
智丈 佐々木
Original Assignee
富士通株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士通株式会社 filed Critical 富士通株式会社
Priority to PCT/JP2021/035084 priority Critical patent/WO2023047531A1/ja
Priority to CN202180102150.1A priority patent/CN117916746A/zh
Publication of WO2023047531A1 publication Critical patent/WO2023047531A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Definitions

  • FIG. 10 is a diagram explaining data addition processing and re-learning processing by the data collection system 100 shown in FIG.
  • the storage device 14 is a storage device with high IO performance, and may be, for example, Dynamic Random Access Memory (DRAM), SSD, Storage Class Memory (SCM), or HDD.
  • DRAM Dynamic Random Access Memory
  • SCM Storage Class Memory
  • the communication IF 17 is an interface for enabling communication with external devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)

Abstract

機械学習モデルの訓練に用いる訓練データを収集するコンピュータ(11)に、収集するデータを機械学習モデルに入力した際の出力に対する確信度が閾値よりも低い対象データ(141)を選択し、選択した対象データ(141)に関する対象物(3)について、確信度が高くなるように訓練データ(142)を収集する、処理を実行させる。

Description

データ収集プログラム,データ収集装置及びデータ収集方法
 本発明は、データ収集プログラム,データ収集装置及びデータ収集方法に関する。
 機械学習において、学習にラベル付きデータを用いる教師有り学習が製品の分類問題等に応用されることがある。
 ラベル付きデータはラベル無しデータに比べて収集コストが大きいため、ストリーム型能動学習によってラベル付きデータを生成することがある。ストリーム型能動学習は、順次入力される、ラベル無しデータを既知の(別言すれば、学習中のモデルが高確信度でラベル推定可能な)データと未知の(別言すれば、学習中のモデルが分類できない)データとに分類し、未知のデータに対してラベル付けを要求する。
特開2020-119283号公報
 図1は、データの入力による学習時間と学習済みモデルの性能との関係を例示するグラフである。
 学習済みモデルの適用先で想定されるデータがすべて入力されるまでに時間がかかり、学習後期では入力データ数に対して性能改善が見込めなくなるおそれがある。図1に示す例では、学習時間の初期では、符号A1に示すように性能改善に効果のあるデータ(斜線丸印を参照)が集まりやすい。一方、符号A2に示すよう、データ収集が進むと性能改善に効果の無いデータ(白色丸印を参照)が集まりやすい。
 1つの側面では、短い学習時間で機械学習モデルを高精度化することを目的とする。
 1つの側面では、データ収集プログラムは、機械学習モデルの訓練に用いる訓練データを収集するコンピュータに、収集するデータを前記機械学習モデルに入力した際の出力に対する確信度が閾値よりも低い対象データを選択し、選択した前記対象データに関する対象物について、前記確信度が高くなるように前記訓練データを収集する、処理を実行させる。
 1つの側面では、短い学習時間で機械学習モデルを高精度化することができる。
データの入力による学習時間と学習済みモデルの性能との関係を例示するグラフである。 実施形態におけるデータ収集システムによるデータ収集処理を簡単に説明する図である。 図2に示したデータ収集システムによるラベル付きデータとラベル無しデータとの収集処理を説明する図である。 実施形態において使用するDomain adversarial neural networks(DANN)の構成例を説明する図である。 図4に示したDANNによる有用性スコアの算出処理の第1の例を説明する図である。 図4に示したDANNによる有用性スコアの算出処理の第2の例を説明する図である。 図2に示したデータ収集システムによる対象物のデータ取得環境への移動処理を説明する図である。 図2に示したデータ収集システムによるデータ取得処理の第1の例を説明する図である。 図2に示したデータ収集システムによるデータ取得処理の第2の例を説明する図である。 図2に示したデータ収集システムによるデータ追加処理及び再学習処理を説明する図である。 図2に示したデータ収集システムによる対象物のスコアの閾値の算出処理を説明する図である。 実施形態におけるデータ収集装置のハードウェア構成例を模式的に示すブロック図である。 図12に示したデータ収集装置のソフトウェア構成例を模式的に示すブロック図である。 実施形態におけるデータ収集処理を説明するフローチャートである。 関連例におけるデータの入力による学習時間と学習済みモデルの性能との関係を例示するグラフである。 実施形態におけるデータの入力による学習時間と学習済みモデルの性能との関係を例示するグラフである。 第1変形例におけるデータ収集システムによるデータ収集処理を説明する図である。 第2変形例におけるデータ収集システムによるデータ収集処理を説明する図である。
 〔A〕実施形態
 以下、図面を参照して一実施の形態を説明する。ただし、以下に示す実施形態はあくまでも例示に過ぎず、実施形態で明示しない種々の変形例や技術の適用を排除する意図はない。すなわち、本実施形態を、その趣旨を逸脱しない範囲で種々変形して実施することができる。また、各図は、図中に示す構成要素のみを備えるという趣旨ではなく、他の機能等を含むことができる。
 以下、図中において、同一の各符号は同様の部分を示しているので、その説明は省略する。
 〔A-1〕構成例
 図2は、実施形態におけるデータ収集システム100によるデータ収集処理を簡単に説明する図である。
 データ収集システム100は、対象物3の撮影画像を取得して、対象物3を分類するための機械学習モデル(別言すれば、分類モデル)を生成する。データ収集システム100は、カメラ161,162等のデータ取得器を制御することで、未知データを積極的に取得する。
 単純に既知データと類似度の大きいデータを取得した場合には、背景だけのデータや2つ以上の物体が写ったデータ等の原理的に分類不可能なデータを取得してしまうおそれがある。
 そこで、データ収集システム100は、ロボットアーム2で対象物3を単体で取り出し、撮影範囲が固定された空間内(別言すれば、データ取得環境4)で対象物3の撮影を行う。
 データ収集システム100において、カメラ161は、ベルトコンベア等の上を移動して来る対象物3を撮影して画像データを適用データ141として保存する。ロボットアーム2は、撮影された画像データに基づいて対象物3を把持してデータ取得環境4に移動させる。カメラ162は、データ取得環境4において、撮影範囲を移動させて撮影することにより、学習データ142を取得する。適用データ141と学習データ142との間では、アダプテーションが実施される。
 図3は、図2に示したデータ収集システム100によるラベル付きデータ143とラベル無しデータ144との収集処理を説明する図である。
 機械学習の初期段階では、学習用のラベル付きデータ143と、適用先のラベル無しデータ144とが、一定数収集される。
 カメラ161は、対象物3を撮影してラベル付きデータ143として保存する。カメラ162は、ロボットアーム2によってデータ取得環境4に移動させられた対象物3を、撮影範囲を移動させて撮影する。カメラ161及びカメラ162とは別のカメラ163は、ラベル無しデータ144を取得する。
 図4は、実施形態において使用するDANN10の構成例を説明する図である。
 データ収集システム100は、DANN10を使用して分類モデルを学習する。DANN10は、特徴抽出器101,分類器102及びドメイン識別器103を備える。
 分類器102は、特徴抽出器101の出力からラベル付きデータ143のラベルを推定できるように学習する。ドメイン識別器103は、特徴抽出器101の出力からデータ源(0:ラベル付きデータ/1:ラベル無しデータ)を推定できるように学習する。特徴抽出器101は、分類器102が成功し、ドメイン識別器103が失敗するように学習する。
 特徴抽出器101は、ラベル付きデータ143からの出力xsとラベル無しデータ144の出力xtとから、出力zs及び出力ztをそれぞれ生成する。分類器102は、出力zs及び出力ztから出力ys’及び出力yt’をそれぞれ生成して、出力ys’をラベル付きデータ143の出力ysと比較する。ドメイン識別器103は、出力zs及び出力ztから出力d’を生成し、出力d’をデータ源(0:ラベル付きデータ/1:ラベル無しデータ)と比較する。
 図5は、図4に示したDANN10による有用性スコアの算出処理の第1の例を説明する図である。図6は、図4に示したDANN10による有用性スコアの算出処理の第2の例を説明する図である。
 適用データ141に性質が近く、現在の分類器102が分類できないデータを学習に使用すると、適用先での性能改善が期待できる。そこで、どれくらい未知のデータが含まれるかを示す指標として、有用性スコア(1 - yt’_max) + αを算出する。yt’_maxは文流記の出力yt’の最大値で有り、αはドメイン識別器103の出力d’である。
 図5に示す例では、yt’_max=0.5であり、α=0.7であるので、有用性スコアは(1 - 0.5) + 0.7 = 1.2となる。図5に示す例では、yt’_max=0.9であり、α=1.0であるので、有用性スコアは(1 - 0.9) + 1.0 = 1.1となる。
 図7は、図2に示したデータ収集システム100による対象物3のデータ取得環境4への移動処理を説明する図である。
 DANN10は、カメラ161で撮影された画像のスコアが計算する。ロボットアーム2は、スコアが閾値(例えば初期値は0)を超えた場合に、対象物3をデータ取得環境4へ移動させる。
 図7に示す例では、スコアが0.4で閾値の0以上であるため、対象物3がデータ取得環境4へ移動させられる。
 別言すれば、データ収集プログラムは、収集するデータを機械学習モデルに入力した際の出力に対する確信度が閾値よりも低い対象データ(別言すれば、適用データ)を選択し、選択した対象データに関する対象物3について、確信度が高くなるように訓練データ(別言すれば、学習データ142)を収集する。
 図8は、図2に示したデータ収集システム100によるデータ取得処理の第1の例を説明する図である。図9は、図2に示したデータ収集システム100によるデータ取得処理の第2の例を説明する図である。
 データ収集システム100は、カメラ162の2つのパラメータ x, yを動かして対象物3を撮影させ、スコアが極大となるパラメータを1つ以上探索する。本実施形態では、データ収集システム100は、初期パラメータp=(0.0,0.0)から、貪欲法によって1つのパラメータを探索する。
 図8に示す例では、パラメータxについて、スコアが極大となるパラメータp=(-0.7,0.0)が探索される。また、図9に示す例では、パラメータyについて、スコアが1.4で極大となるパラメータp=(-0.7,0.3)が探索される。
 別言すれば、データ収集プログラムは、対象物3を撮影するカメラ162の位置及び姿勢を制御することにより、確信度が高くなるように訓練データ(別言すれば、学習データ142)を収集する。
 また、データ収集プログラムは、確信度が高くなるように収集された訓練データ(別言すれば、学習データ142)について、オペレータに対象物3に関するラベル付けを依頼する。
 図10は、図2に示したデータ収集システム100によるデータ追加処理及び再学習処理を説明する図である。
 データ収集システム100は、極大スコア1.4の対象物3の画像にラベル付けをオペレータに依頼し、ラベル付きデータ143を学習データ142に追加する。また、データ収集システム100は、一定のデータが集まれば学習データ142をラベル無しデータ144に追加して再学習を実施する。
 図11は、図2に示したデータ収集システム100による対象物3のスコアの閾値の算出処理を説明する図である。
 データ収集システム100は、カメラ162での対象物3の探索完了後、対象物3をデータ取得環境4からベルトコンベア等の元の位置に戻す。データ収集システム100は、撮影環境使用中にカメラ161の前を通過した対象物3のスコアと所要時間tとを記録し、その中の最大スコアを閾値とする。以降、データ収集システム100は、次の対象物3が選択されるまで、直近のt 時間にカメラ161を通過した商品の最大スコアを閾値とする。
 図11に示す例では、データ取得にかかった時間tの間にカメラ161の前を通過した対象物3のスコアの最大値である1.3が閾値として選択される。
 図12は、実施形態におけるデータ収集装置1のハードウェア構成例を模式的に示すブロック図である。
 図12に示すように、データ収集装置1は、CPU11,メモリ部12,表示制御部13,記憶装置14,入力Interface(IF)15,外部記録媒体処理部16及び通信IF17を備える。
 メモリ部12は、記憶部の一例であり、例示的に、Read Only Memory(ROM)及びRandom Access Memory(RAM)などである。メモリ部12のROMには、Basic Input/Output System(BIOS)等のプログラムが書き込まれてよい。メモリ部12のソフトウェアプログラムは、CPU11に適宜に読み込まれて実行されてよい。また、メモリ部12のRAMは、一時記録メモリあるいはワーキングメモリとして利用されてよい。
 表示制御部13は、表示装置131と接続され、表示装置131を制御する。表示装置131は、液晶ディスプレイやOrganic Light-Emitting Diode(OLED)ディスプレイ,Cathode Ray Tube(CRT),電子ペーパーディスプレイ等であり、オペレータ等に対する各種情報を表示する。表示装置131は、入力装置と組み合わされたものでもよく、例えば、タッチパネルでもよい。
 記憶装置14は、高IO性能の記憶装置であり、例えば、Dynamic Random Access Memory(DRAM)やSSD,Storage Class Memory(SCM),HDDが用いられてよい。
 入力IF15は、マウス151やキーボード152等の入力装置と接続され、マウス151やキーボード152等の入力装置を制御してよい。マウス151やキーボード152は、入力装置の一例であり、これらの入力装置を介して、オペレータが各種の入力操作を行う。
 外部記録媒体処理部16は、記録媒体160が装着可能に構成される。外部記録媒体処理部16は、記録媒体160が装着された状態において、記録媒体160に記録されている情報を読み取り可能に構成される。本例では、記録媒体160は、可搬性を有する。例えば、記録媒体160は、フレキシブルディスク、光ディスク、磁気ディスク、光磁気ディスク、又は、半導体メモリ等である。また、外部記録媒体処理部16には、カメラ161,162,163が接続され、カメラ161,162,163によって撮像された映像を取得すると共に、カメラ162の位置や姿勢を制御してよい。
 通信IF17は、外部装置との通信を可能にするためのインタフェースである。
 CPU11は、プロセッサの一例であり、種々の制御や演算を行う処理装置である。CPU11は、メモリ部12に読み込まれたOperating System(OS)やプログラムを実行することにより、種々の機能を実現する。
 データ収集装置1全体の動作を制御するための装置は、CPU11に限定されず、例えば、MPUやDSP,ASIC,PLD,FPGAのいずれか1つであってもよい。また、データ収集装置1全体の動作を制御するための装置は、CPU,MPU,DSP,ASIC,PLD及びFPGAのうちの2種類以上の組み合わせであってもよい。なお、MPUはMicro Processing Unitの略称であり、DSPはDigital Signal Processorの略称であり、ASICはApplication Specific Integrated Circuitの略称である。また、PLDはProgrammable Logic Deviceの略称であり、FPGAはField Programmable Gate Arrayの略称である。
 図13は、図12に示したデータ収集装置1のソフトウェア構成例を模式的に示すブロック図である。
 データ収集装置1のCPU11は、適用データ取得部111,学習データ取得部112,学習データ作成部113,学習部114,差分計算部115,データ評価選択部116,制御部117及び対象移動部118として機能する。
 適用データ取得部111は、カメラ161が撮影した対象物3の画像を取得して適用データ141として格納する。
 学習データ取得部112は、カメラ162がデータ取得環境4で撮影した対象物3の画像を取得して取得データ140として格納する。
 学習データ作成部113は、取得データ140に基づきオペレータが付与したラベルを取得して学習データ142として格納する。
 学習部114は、図4等に示したDANN10の特徴抽出器101及び分類器102に対応し、学習データ142を使用して分類モデルを学習させる。
 差分計算部115は、図4等に示したDANN10のドメイン識別器103に対応し、適用データ141と学習データ142との差分を計算する。
 データ評価選択部116は、取得データ140に基づき、カメラ162によって撮影された対象物3の画像のスコアが極大となるカメラ162の姿勢のパラメータを算出する。また、データ評価選択部116は、学習部114によって有用性スコアが閾値以上と判定されたデータ取得環境4への移動対象の対象物3を特定する。
 制御部117は、データ評価選択部116による姿勢のパラメータの算出結果に基づき、学習データ取得部112にカメラ162の姿勢を制御させる。また、制御部117は、データ評価選択部116によって特定された対象物3について、対象移動部118にロボットアーム2でデータ取得環境4へ移動させる制御を行う。
 対象移動部118は、制御部117による制御に基づき、ロボットアーム2によって対象物3をデータ取得環境4へ移動させる。
 〔A-2〕動作
 実施形態におけるデータ収集処理を、図14に示すフローチャート(ステップS1~S6)に従って説明する。
 適用データ取得部111は、ベルトコンベア等のストリームを撮影するカメラ161から対象物3のデータを取得する(ステップS1)。
 制御部117は、対象物3のデータが十分に学習されたデータであるかを判定する(ステップS2)。
 対象物3のデータが十分に学習されたデータである場合には(ステップS2のYESルート参照)、処理はステップS1へ戻る。
 一方、対象物3のデータが十分に学習されたデータでない場合には(ステップS2のNOルート参照)、対象移動部118は、ロボットアーム2によってデータ取得の対象物3を移動させてデータ取得環境4を構築する(ステップS3)。
 学習データ作成部113は、データ取得環境4でカメラ162からデータを取得する(ステップS4)。
 学習部114は、学習モデルを学習する(ステップS5)。
 適用データ取得部111は、ストリームにまだデータが存在するかを判定する(ステップS6)。
 ストリームにまだデータが存在する場合には(ステップS6のYESルート参照)、処理はステップS1へ戻る。
 一方、ストリームにもうデータがない場合には(ステップS6のNOルート参照)、データ収集処理は終了する。
 〔A-3〕効果
 図15は、関連例におけるデータの入力による学習時間と学習済みモデルの性能との関係を例示するグラフである。図16は、実施形態におけるデータの入力による学習時間と学習済みモデルの性能との関係を例示するグラフである。
 図15に示す関連例におけるデータ収集処理では、符号B1に示すような性能改善に効果のあるデータの中に、符号B2に示すような性能改善に効果の無いデータが多く含まれる。これにより、学習時間(別言すれば、学習データ数)が増加しても、学習済みモデルの性能が向上しない。
 一方、実施形態におけるデータ収集処理では、図16の符号C1に示すように、カメラ162等のデータ取得器を制御して追加で得られたデータを取得することで、学習時間(別言すれば、学習データ数)が増加すると共に、学習済みモデルの性能が向上する。
 上述した実施形態におけるデータ収集プログラム,データ収集装置1及びデータ収集方法によれば、例えば、以下の作用効果を奏することができる。
 データ収集プログラムは、収集するデータを機械学習モデルに入力した際の出力に対する確信度が閾値よりも低い対象データを選択し、選択した対象データに関する対象物3について、確信度が高くなるように訓練データを収集する。
 これにより、短い学習時間で機械学習モデルを高精度化することができる。
 〔B〕第1変形例
 図17は、第1変形例におけるデータ収集システム100aによるデータ収集処理を説明する図である。
 第1変形例においては、データ収集システム100aは、荷物中の物体検出を行う。
 X線検査装置164は、データ取得器の一例であり、ベルトコンベアによって一方向に対象物3としての荷物を通過させる。
 X線検査装置165は、データ取得環境4aに配置されるデータ取得器の一例であり、ベルトコンベアによって双方向に対象物3及び非対象物3aの荷物を出し入れさせる。
 ロボットアーム2は、検査対象をデータ取得環境4aに移動させる。また、ロボットアーム2は、検査の非対象物3aのストックの少なくとも一部を対象物3と共にデータ取得環境4aに移動させる。
 データ取得環境4aにおける荷物の配置のさせ方が、図8及び図9等で上述したデータ取得器のパラメータとなり、検出が困難な荷物の配置を探索することができる。
 第1変形例におけるデータ収集システム100aによれば、上述した実施形態において奏することができる作用効果の他に、危険物探知等のX線検査のための機械学習モデルにおいても、短い学習時間で機械学習モデルを高精度化することができる。
 〔C〕第2変形例
 図18は、第2変形例におけるデータ収集システム100bによるデータ収集処理を説明する図である。
 第2変形例においては、データ収集システム100bは、音波による水中の物体検出を行う。
 スピーカ166は、データ取得器の一例であり、音波源と称されてもよい。マイク167は、データ取得器の一例であり、測定器と称されてもよい。スピーカ166及びマイク167は、それぞれ別の潜水艦や無人潜水機に取り付けられてデータ取得環境4bの中の水中を移動可能であり、超音波レーダによって対象物3を検出する。
 データ取得環境4bは、網5で囲われた領域であり、魚類等のデータ取得の対象物3を網5の中に出し入れする出入口5aを備える。
 データ取得環境4bにおけるスピーカ166及びマイク167の配置のさせ方が、図8及び図9等で上述したデータ取得器のパラメータとなり、対象物3の検出がスピーカ166及びマイク167を探索することができる。
 第2変形例におけるデータ収集システム100bによれば、上述した実施形態において奏することができる作用効果の他に、超音波レーダによる水中の魚類等の探索のための機械学習モデルにおいても、短い学習時間で機械学習モデルを高精度化することができる。
 〔D〕その他
 開示の技術は上述した実施形態に限定されるものではなく、本実施形態の趣旨を逸脱しない範囲で種々変形して実施することができる。本実施形態の各構成及び各処理は、必要に応じて取捨選択することができ、あるいは適宜組み合わせてもよい。
1    :データ収集装置
2    :ロボットアーム
3    :対象物
3a   :非対象物
4,4a,4b:データ取得環境
5    :網
5a   :出入口
10   :特徴抽出器
11   :CPU
12   :メモリ部
13   :表示制御部
14   :記憶装置
15   :入力IF
16   :外部記録媒体処理部
17   :通信IF
100,100a,100b:データ収集システム
101  :特徴抽出器
102  :分類器
103  :ドメイン識別器
111  :適用データ取得部
112  :学習データ取得部
113  :学習データ作成部
114  :学習部
115  :差分計算部
116  :データ評価選択部
117  :制御部
118  :対象移動部
131  :表示装置
140  :取得データ
141  :適用データ
142  :学習データ
143  :ラベル付きデータ
144  :ラベル無しデータ
151  :マウス
152  :キーボード
160  :記録媒体
161,162,163:カメラ
164,165:X線検査装置
166  :スピーカ
167  :マイク

Claims (9)

  1.  機械学習モデルの訓練に用いる訓練データを収集するコンピュータに、
     収集するデータを前記機械学習モデルに入力した際の出力に対する確信度が閾値よりも低い対象データを選択し、
     選択した前記対象データに関する対象物について、前記確信度が高くなるように前記訓練データを収集する、
    処理を実行させる、データ収集プログラム。
  2.  前記対象物を撮影するカメラの位置及び姿勢を制御することにより、前記確信度が高くなるように前記訓練データを収集する、
    処理を前記コンピュータに実行させる、請求項1に記載のデータ収集プログラム。
  3.  前記確信度が高くなるように収集された前記訓練データについて、オペレータに前記対象物に関するラベル付けを依頼する、
    処理を前記コンピュータに実行させる、請求項1又は2に記載のデータ収集プログラム。
  4.  機械学習モデルの訓練に用いる訓練データを収集するデータ収集装置であって、
     収集するデータを前記機械学習モデルに入力した際の出力に対する確信度が閾値よりも低い対象データを選択し、
     選択した前記対象データに関する対象物について、前記確信度が高くなるように前記訓練データを収集する、
    プロセッサを備える、データ収集装置。
  5.  前記プロセッサは、前記対象物を撮影するカメラの位置及び姿勢を制御することにより、前記確信度が高くなるように前記訓練データを収集する、
    請求項4に記載のデータ収集装置。
  6.  前記プロセッサは、前記確信度が高くなるように収集された前記訓練データについて、オペレータに前記対象物に関するラベル付けを依頼する、
    請求項4又は5に記載のデータ収集装置。
  7.  機械学習モデルの訓練に用いる訓練データを収集するコンピュータが、
     収集するデータを前記機械学習モデルに入力した際の出力に対する確信度が閾値よりも低い対象データを選択し、
     選択した前記対象データに関する対象物について、前記確信度が高くなるように前記訓練データを収集する、
    処理を実行する、データ収集方法。
  8.  前記対象物を撮影するカメラの位置及び姿勢を制御することにより、前記確信度が高くなるように前記訓練データを収集する、
    処理を前記コンピュータが実行する、請求項7に記載のデータ収集方法。
  9.  前記確信度が高くなるように収集された前記訓練データについて、オペレータに前記対象物に関するラベル付けを依頼する、
    処理を前記コンピュータが実行する、請求項7又は8に記載のデータ収集方法。
PCT/JP2021/035084 2021-09-24 2021-09-24 データ収集プログラム,データ収集装置及びデータ収集方法 WO2023047531A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
PCT/JP2021/035084 WO2023047531A1 (ja) 2021-09-24 2021-09-24 データ収集プログラム,データ収集装置及びデータ収集方法
CN202180102150.1A CN117916746A (zh) 2021-09-24 2021-09-24 数据收集程序、数据收集装置以及数据收集方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/035084 WO2023047531A1 (ja) 2021-09-24 2021-09-24 データ収集プログラム,データ収集装置及びデータ収集方法

Publications (1)

Publication Number Publication Date
WO2023047531A1 true WO2023047531A1 (ja) 2023-03-30

Family

ID=85719354

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/035084 WO2023047531A1 (ja) 2021-09-24 2021-09-24 データ収集プログラム,データ収集装置及びデータ収集方法

Country Status (2)

Country Link
CN (1) CN117916746A (ja)
WO (1) WO2023047531A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211294A (ja) * 2008-03-03 2009-09-17 Nippon Hoso Kyokai <Nhk> ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム
JP2020119283A (ja) 2019-01-24 2020-08-06 株式会社リクルート 学習モデル生成装置、プログラム、及び端末装置を製造する方法
JP6854995B1 (ja) * 2020-08-11 2021-04-07 三菱電機株式会社 学習システム、学習方法及びプログラム
WO2021084623A1 (ja) * 2019-10-29 2021-05-06 富士通株式会社 劣化抑制プログラム、劣化抑制方法および情報処理装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009211294A (ja) * 2008-03-03 2009-09-17 Nippon Hoso Kyokai <Nhk> ニューラルネットワーク装置及びそれを用いたロボットカメラ制御装置並びにニューラルネットワークプログラム
JP2020119283A (ja) 2019-01-24 2020-08-06 株式会社リクルート 学習モデル生成装置、プログラム、及び端末装置を製造する方法
WO2021084623A1 (ja) * 2019-10-29 2021-05-06 富士通株式会社 劣化抑制プログラム、劣化抑制方法および情報処理装置
JP6854995B1 (ja) * 2020-08-11 2021-04-07 三菱電機株式会社 学習システム、学習方法及びプログラム

Also Published As

Publication number Publication date
CN117916746A (zh) 2024-04-19

Similar Documents

Publication Publication Date Title
US20200226751A1 (en) Surgical workflow and activity detection based on surgical videos
Su et al. Deep multi-state object pose estimation for augmented reality assembly
CN111259779B (zh) 一种基于中心点轨迹预测的视频动作检测方法
JPWO2011080900A1 (ja) 移動体検出装置および移動体検出方法
JP7031685B2 (ja) モデル学習装置、モデル学習方法及びコンピュータプログラム
Modasshir et al. Autonomous 3d semantic mapping of coral reefs
Venkatachalam et al. Optimizing Region Detection in Enhanced Infrared Images Using Deep Learning.
CN112288809B (zh) 一种用于多物体复杂场景的机器人抓取检测方法
US20210357763A1 (en) Method and device for performing behavior prediction by using explainable self-focused attention
WO2023047531A1 (ja) データ収集プログラム,データ収集装置及びデータ収集方法
JP2020077231A (ja) 位置検出プログラム、位置検出方法及び位置検出装置
US20230260259A1 (en) Method and device for training a neural network
Maiettini et al. Weakly-supervised object detection learning through human-robot interaction
CN113658222A (zh) 一种车辆检测跟踪方法及装置
Meena et al. Hybrid Neural Network Architecture for Multi-Label Object Recognition using Feature Fusion
KR20220143119A (ko) 인지 시스템용 훈련 데이터 후보의 자동 식별
Daramouskas et al. A design and simulation of a target detection, tracking and localisation system for UAVs
Dong et al. Experimental evaluation of GAN-based one-class anomaly detection on office monitoring
WO2023047530A1 (ja) データ収集プログラム,データ収集装置及びデータ収集方法
Tasnim et al. Progress in Object Detection: An In-Depth Analysis of Methods and Use Cases
JP6899986B1 (ja) オブジェクト領域特定装置、オブジェクト領域特定方法、及びオブジェクト領域特定プログラム
Selvam A deep learning framework for surgery action detection
US20240131717A1 (en) Robot operation system, robot operation method, and program
Tabia et al. Deep Learning For Pose Estimation From Event Camera
US20230196752A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21958407

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023549255

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202180102150.1

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2021958407

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021958407

Country of ref document: EP

Effective date: 20240424