JP2020166526A - 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。 - Google Patents

作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。 Download PDF

Info

Publication number
JP2020166526A
JP2020166526A JP2019066075A JP2019066075A JP2020166526A JP 2020166526 A JP2020166526 A JP 2020166526A JP 2019066075 A JP2019066075 A JP 2019066075A JP 2019066075 A JP2019066075 A JP 2019066075A JP 2020166526 A JP2020166526 A JP 2020166526A
Authority
JP
Japan
Prior art keywords
image
work support
support device
probability
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019066075A
Other languages
English (en)
Other versions
JP6756961B1 (ja
Inventor
清水秀樹
Hideki Shimizu
田嶋亮介
Ryosuke Tajima
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Arithmer Inc
Original Assignee
Arithmer Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Arithmer Inc filed Critical Arithmer Inc
Priority to JP2019066075A priority Critical patent/JP6756961B1/ja
Priority to PCT/JP2020/000731 priority patent/WO2020149242A1/ja
Application granted granted Critical
Publication of JP6756961B1 publication Critical patent/JP6756961B1/ja
Publication of JP2020166526A publication Critical patent/JP2020166526A/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】対象物が写されている画像であるか否かを効率的に設定ための作業を支援するする作業支援装置、作業支援方法、プログラム及び対象物検知モデルを提供する。【解決手段】作業支援装置20は、抽出部24A及び出力部23を備える。抽出部24Aは、対象物が写された教師画像を用いて構築された対象物検知モデル21Mを用いて、任意の動画像から、対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像として抽出する。出力部23は、当該候補画像に、対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックスが合成された画像を出力する。【選択図】図1

Description

本開示は、作業支援装置、作業支援方法、プログラム、及び対象物検知モデルに関する。
従来、機械学習のための教師画像を生成する方法が検討されている。例えば、特許文献1(特開2018−169672号公報)には、教師画像の個数が少ない不足パターンを特定し、ある教師画像を空間的に反転したり色調を変更したりすることにより、不足パターンに属する新たな教師画像を生成する技術が開示されている。
特許文献1に記載されているように、効果的な学習を行なうには、多数の教師画像を集めることが望ましい。
第1観点の作業支援装置は、抽出部と、出力部と、を備える。抽出部は、対象物が写された教師画像を用いて構築された対象物検知モデルを用いて、任意の動画像から、対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像として抽出する。また、出力部は、当該候補画像に、対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックスが合成された画像を出力する。このような構成により、バウンディングボックスの表示を維持するか、又は削除することで、対象物が写されている対象物画像であるか否かを効率的に設定できる。結果として、多数の教師画像を効率的に集めることができる。
第2観点の作業支援装置は第1観点の作業支援装置であって、バウンディングボックス内に対象物が写されていること、又は、バウンディングボックス内に対象物が写されていないことの設定を受け付ける設定部をさらに備える。この設定部を介して、対象物が写されている対象物画像であるか否かを効率的に設定できる。
第3観点の作業支援装置は、第1観点又は第2観点の作業支援装置であって、対象物検知モデルが、複数の対象物を検知するものである。また、作業支援装置は、第1対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックスが合成された画像に対し、当該第1対象物に代えて第2対象物が写されていることの設定を受け付ける設定部をさらに備える。このような構成により、対象物を誤検知した場合の修正を容易に行うことができる。
第4観点の作業支援装置は、第1観点から第3観点の作業支援装置であって、対象物検知モデルが、複数の対象物を検知するものである。また、作業支援装置は、対象物検知モデルを用いて、任意の動画像から、対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像として、対象物毎に区分けされたフォルダに格納する。これにより、各フォルダに蓄積された画像を連続的に表示することで、当該対象物が写されているか否かだけを確認すればよいので、作業者の負担が軽減される。
第5観点の作業支援装置は、第1観点から第4観点の作業支援装置であって、対象物が写されている確率の値を候補画像に合成して出力する。これにより、作業者が、候補画像に写された対象物が何であるかを容易に認識することができる。
第6観点の作業支援装置は、第1観点から第5観点の作業支援装置であって、抽出部が、対象物が写されている確率が第2閾値以下である領域を含む画像を候補画像として抽出する。このような構成により、対象物検知モデルの検知精度の向上に寄与する候補画像を効率的に収集できる。
第7観点の作業支援装置は、第1観点から第6観点の作業支援装置であって、抽出部が、前回抽出された候補画像からの変化量が所定量以下である場合、候補画像の抽出を停止する。結果として、対象物検知モデルの検知精度の向上に寄与する候補画像を効率的に収集することができる。
第8観点の作業支援装置は、第1観点から第7観点の作業支援装置であって、対象物が写されているか否かが設定された画像を教師画像に加えて、対象物検知モデルを更新する更新部をさらに備える。このような構成により、使用に応じて、対象物の検知精度の向上に寄与する候補画像を効率的に収集できる。
第9観点のプログラムは、コンピュータを、抽出部及び出力部として機能させるものである。抽出部は、対象物が写された教師画像を用いて構築された対象物検知モデルを用いて、任意の動画像から、対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像として抽出する。出力部は、当該候補画像に、対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックスが合成された画像を出力する。このような構成により、バウンディングボックスの表示を維持するか、又は削除することで、対象物が写されている対象物画像であるか否かを効率的に設定できる。結果として、多数の教師画像を効率的に集めることができる。
第10観点の作業支援方法は、コンピュータを用いて、画像内の領域に対象物(O)が写されているか否かを設定するための作業を支援する方法である。この作業支援方法では、対象物が写された教師画像を用いて構築された対象物検知モデルを用いて、任意の動画像から、前記対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像として抽出する。また、この作業支援方法では、当該候補画像に、対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックスが合成された画像を出力する。したがって、この作業支援方法によれば、バウンディングボックスの表示を維持するか、又は削除することで、対象物が写されている対象物画像であるか否かを効率的に設定できる。結果として、多数の教師画像を効率的に集めることができる。
作業支援装置20の構成を示す模式図である。 候補画像Gkの一例を示す図である。 図2の一部拡大図である。 処理部24による情報処理の概念を説明するための模式図である。 作業支援装置20の動作を説明するためのフローチャートである。 変形例Aに係る作業支援装置20の動作を説明するためのフローチャートである。 変形例Bに係るエンドツーエンドの学習を説明するための模式図である。 変形例C,Dに係る作業支援装置20の表示画面の一例を示す模式図である。
(1)作業支援装置の構成
以下、本開示の一実施形態に係る作業支援装置の構成について図面を用いて説明する。
図1は本実施形態に係る作業支援装置20の構成を示す模式図である。図2は作業支援装置20により出力される候補画像Gkの一例を示す図である。図3は図2の破線部分の一部拡大図である。図4は後述する処理部24による情報処理の概念を説明するための模式図である。
作業支援装置20は、対象物検知モデル21Mに用いる教師画像Gtを生成する作業を支援する装置である。なお、以下の説明において、複数の教師画像をまとめて説明する場合はGtと表記し、個々の教師画像を区別して説明する場合は添え字を付してGt1のように表記する。
「対象物検知モデル21M」は、対象物Oが写された教師画像Gtに基づいて重みが調整されたニューラルネットワークにより構築されており、画像内における対象物Oの領域抽出及び当該対象物Oの物体認識を行なう。具体的には、対象物検知モデル21Mは、画像が入力されると、当該画像に対象物Oが出現している確率を算出し、算出した確率が所定値以上であれば、その対象物Oの出現している領域を出力する。
なお、対象物検知モデル21Mは、予め設定された複数の対象物を検知できるものである。
対象物Oの領域は、図2,3に示すように、画像Gk内に合成されるバウンディングボックスBの4つの頂点に対応する座標情報b1〜b4で定義される。したがって、対象物検知モデル21Mの教師画像Gtは、バウンディングボックスBの座標情報b1〜b4に対応する領域に、対象物Oが写されているものとなる。
なお、図2,3における例では、対象物Oとして「信号機」が示されているが、対象物Oはこれに限定されるものではない。対象物Oは任意の物体を採用できる。また、対象物Oは物体の種類だけでなく、状態等を区別して設定することもできる。例えば、対象物Oとして、単に信号機とするのではなく、赤信号を表示する信号機と、青信号を表示する信号機とを区別して設定することもできる。
作業支援装置20は、任意のコンピュータにより実現することができ、記憶部21、入力部22、出力部23、及び処理部24を備える。なお、作業支援装置20は、LSI(Large Scale Integration),ASIC(Application Specific Integrated Circuit),FPGA(Field-Programmable Gate Array)などを用いてハードウェアとして実現されるものでもよい。
記憶部21は、各種情報を記憶するものであり、メモリ及びハードディスク等の任意の記憶装置により実現される。ここでは、記憶部21は、対象物検知モデル21Mを構築するニューラルネットワークの重み等の情報を記憶する。また、記憶部21は、複数の教師画像Gtを記憶するものであり、初期状態では複数の教師画像Gt1〜Gtp(pは1以外の自然数)を記憶する。また、記憶部21は、新たな教師画像Gtq(qは1〜p以外の値)を生成するための動画像GDを記憶する。なお、動画像GDは、任意の撮像装置により撮像される。また、動画像GDは、複数のフレームの静止画像Gdi(i=1〜j,jは自然数)から構成される。
入力部22は、キーボード、マウス、タッチパネル等の任意の入力装置により実現され、コンピュータに各種情報を入力する。
出力部23は、ディスプレイ、タッチパネル、スピーカー等の任意の出力装置により実現され、コンピュータから各種情報を出力する。
処理部24は、各種情報処理を実行するものであり、CPU又はGPU等のプロセッサ、及びメモリにより実現される。ここでは、コンピュータのCPU,GPU等に、記憶部21に記憶された一又は複数のプログラムが読み込まれることにより、処理部24が、抽出部24A、生成部24B、合成部24C、設定部24D、及び更新部24Eとして機能する。以下、処理部24の各機能について、図4を参照しながら説明する。
抽出部24Aは、対象物検知モデル21Mを用いて、任意の動画像GDの各フレームの画像Gd1〜Gdjから、対象物Oが写されている確率が第1閾値P1以上、かつ、第2閾値P2以下である領域を含む画像を候補画像Gk(図4では、Gk1〜Gk3と表記する)として抽出する。ここでは、第1閾値P1を10%程度と設定し、第2閾値P2を60%程度と設定する。
生成部24Bは、候補画像Gkにおいて、対象物Oが写されている確率が第1閾値P1以上である領域の座標情報を生成する。また、生成部24Bは、対象物Oが写されている領域に対応するバウンディングボックスB(図4では、B1〜B3と表記する)の頂点の座標情報b1〜b4が記述されたファイルを生成する。
なお、座標情報b1〜b4は、各頂点の二次元座標で定義することができる。ただし、これに限らず、座標情報b1〜b4は、バウンディングボックスBが正方形又は長方形であることを前提に、1つの頂点の二次元座標と、その頂点からの幅及び高さとで定義することもできる。前者の場合は、二次元座標上での4つの頂点に対応する8つの値が記述されたファイルが生成される。後者の場合は、二次元座標上の1つの頂点に対応する2つの値と、そこからの幅及び高さを示す2つの値との合計4つの値が記述されたファイルが生成される。
合成部24Cは、候補画像GkにバウンディングボックスBを合成し、出力部23のディスプレイに表示する。
設定部24Dは、入力部22を介して、候補画像Gkに合成されたバウンディングボックスB内に対象物Oが写されているか否かを設定する。図4に示す例では、候補画像Gk1,Gk3のバウンディングボックスB1,B3には対象物Oが写されているが、候補画像Gk2のバウンディングボックスB2には対象物O以外の物体Pが写されている。このような場合、設定部24Dは、入力部22を介して、「候補画像Gk1,Gk3は対象物Oが写されている対象物画像である」との設定を行なう(U1,U3)。また、設定部24Dは、入力部22を介して、「候補画像Gk2は対象物Oが写されている対象物画像ではない」との設定を行なう(U2)。
なお、設定部24Dは、座標を指定することで任意のバウンディングボックスBを画像内に生成し、そのバウンディングボックスBを用いて対象物Oが写されている対象物画像であることを設定することも可能である。
更新部24Eは、対象物Oが写されているか否かが設定された画像を、現在の教師画像Gtに加えて、ニューラルネットワークの重みを再調整し、対象物検知モデル21Mを更新する。
(1−2)作業支援装置の動作
図5は本実施形態に係る作業支援装置20の動作を説明するためのフローチャートである。
まず、任意の撮像装置により、当該撮像装置の周辺環境の動画像GDが撮像される。そして、これらの動画像GDが適時、作業支援装置20の記憶部21に記憶される(S1)。
次に、作業支援装置20は、初期の教師画像群Gt1〜Gtpを用いて構築された対象物検知モデル21Mを用いて、記憶部21に記憶された動画像GDを構成する一フレームの画像Gdi(i=1〜j,jは自然数)に、対象物Oが写されている確率が第1閾値P1以上、第2閾値P2以下である領域が含まれているか否かを判定する(S2〜S4)。
作業支援装置20は、対象物Oが写されている確率が上記範囲内である場合、そのフレームの画像を「候補画像Gk」として出力する(S4−Yes,S5)。具体的には、図2,3に示すように、対象物Oが写されている領域にバウンディングボックスBが合成された画像が出力部23を構成するディスプレイに表示される。
続いて、作業者が、候補画像Gkが対象物Oが写されている対象物画像であるか否かを判定する(S6)。この際、作業支援装置20は、入力部22及び設定部24Dを介して、候補画像Gkが対象物画像であるか否かの設定を受け付ける。例えば、図2,3に示すような画像が候補画像Gkとして表示された場合、バウンディングボックスBに対象物Oである「信号機」が写されているので、作業者に追加作業をさせることなく対象物画像であることの設定を受け付けることができる(S6−Yes,S7)。一方、候補画像Gkに、対象物Oが写されていない場合には、対象物O以外の物体を「信号機」と誤認識して抽出していることになるので、その誤認識した物体のバウンディングボックスBを削除する処理を作業者に行なわせてから、対象物画像ではないことの設定を受け付ける(S6−No,S8)。
この後、順次、動画像GDの最後のフレームの画像Gdjに達するまで、上記処理が順次実行される(S9,S10)。
(3)作業支援装置の特徴
(3−1)
以上説明したように、本実施形態に係る作業支援装置20では、抽出部24Aが、対象物検知モデル21Mを用いて、任意の動画像GDから、対象物Oが写されている確率が第1閾値P1以上、第2閾値P2以下である領域を含む画像を候補画像Gkとして抽出する。また、生成部24Bが、候補画像Gkにおける、対象物Oが写されている確率が第1閾値P1以上、第2閾値P2以下である領域の座標情報b1〜b4を生成する。また、合成部24Cが、座標情報b1〜b4に対応するバウンディングボックスBを生成して候補画像Gkに合成する。そして、バウンディングボックスBが表示された候補画像Gkが出力部23を構成するディスプレイに表示される。
また、作業支援装置20は、設定部24Dを備えている。設定部24Dは、作業者による入力部22の操作を介して、バウンディングボックスB内に対象物Oが写されていること、又は、バウンディングボックスB内に対象物Oが写されていないことの設定を受け付ける。
したがって、このような作業支援装置20を用いることで、作業者は、動画像GDの各フレームの画像Gdi内に、対象物Oが写されているか否かを設定する作業を効率的に実行できるようになる。具体的に、作業者は、ある程度の出現確率で対象物Oが表示される候補画像Gk内のバウンディングボックスBに対応する領域に、対象物Oが写されているか否かを確認するだけで済むようになる。そして、対象物Oが写されている画像は、新たな教師画像Gtqとして用いることができる(図4参照)。要するに、作業支援装置20を用いることで多数の教師画像Gtを効率的に集めることができるようになる。
(3−2)
特に、抽出部24Aは、対象物Oが写されている確率が第1閾値P1以上である領域を含む画像を候補画像Gkとして抽出するので、対象物Oが写されていない画像が除外されることになる。換言すると、抽出部24Aは、ノイズとなる画像を候補画像Gkとして抽出しないようにしている。これにより、対象物Oが写されている画像であるか否かの設定が効率化される。
(3−3)
また、抽出部24Aは、対象物Oが写されている確率が第2閾値P2以下である画像を候補画像Gkとして抽出する。これにより、対象物検知モデル21Mの検知精度の向上に寄与する新たな教師画像を効率的に収集することを実現している。
補足すると、現在の教師画像群Gt1〜Gtpを用いて高確率で検知可能な対象物画像を新たな教師画像として現在の教師画像群Gt1〜Gtpに加えて対象物検知モデル21Mの重みを更新しても、現在の教師画像群Gt1〜Gtpから抽出される対象物Oの特徴量に対して有意な変化が生じないことが多い。すなわち、そのような教師画像は、対象物検知モデル21Mの検知精度の向上に寄与しないことが多い。これに対し、現在の教師画像群Gt1〜Gtpを用いて高確率で検知可能ではない対象物画像を新たな教師画像Gtqとして現在の教師画像群Gt1〜Gtpに加えて、対象物検知モデル21Mの重みを更新すると、現在の教師画像群Gt1〜Gtpから抽出される対象物Oの特徴量に対して有意な変化が生じ、対象物検知モデル21Mの検知精度が向上することになる。
このように、本実施形態に係る作業支援装置20は、現在の教師画像群Gt1〜Gtpでは、検知精度が上がらない画像を候補画像Gkとして抽出することで、対象物検知モデル21Mの検知精度の向上に寄与する新たな教師画像を効率的に収集することを実現している。
(3−4)
また、本実施形態に係る作業支援装置20では、更新部24Eをさらに備える。更新部24Eは、対象物Oが写されているか否かが設定された画像を現在の教師画像Gtに加えて、ニューラルネットワークの重みを調整し、対象物検知モデル21Mを更新する。このような構成により、作業支援装置20の使用に応じて、対象物検知モデル21Mにおける対象物Oを検知する精度が向上する。結果として、検知精度の高い対象物検知モデルを提供できるようになる。
(3−5)
また、本実施形態に係る対象物検知モデル21Mは、複数の対象物を検知することができる。さらに、設定部24Dは、バウンディングボックスBに対応する対象物の設定の変更を受け付けることもできる。具体的には、第1対象物が写されている確率が第1閾値以上であるとして出力された候補画像に対し、第1対象物ではなく第2対象物が写されていることを設定することができる。
例えば、青信号を表示する信号機が写されている確率が第1閾値以上第2閾値以下であることを示すバウンディングボックスBが表示されているときに、実際の候補画像Gkに赤信号が写されている場合、ユーザは入力部22及び設定部24Dを介して、当該候補画像Gkには、赤信号を表示する信号機が写されていると設定することができる。
(4)変形例
(4−1)変形例A
本実施形態に係る作業支援装置20は、抽出部24Aが、前回抽出された画像の変化量が所定量以下である場合、候補画像Gkの抽出を停止するものでもよい。具体的には、変形例Aに係る抽出部24Aは、前回抽出された画像を基準画像Gcとして記憶する。そして、抽出部24Aは、当該基準画像Gcからの変化量が所定量以下である場合、対象物Oが写されている確率が第1閾値P1以上、第2閾値P2以下である領域を含む画像の抽出を停止する。換言すると、抽出部24Aにより候補画像Gkが抽出された場合、当該候補画像が基準画像Gcとして設定される。また、抽出部24Aは、動画像GDを構成する一フレームの画像Gdiの、基準画像Gcからの変化量が所定量以下である場合、当該画像を候補画像Gkとして抽出することを停止する。
この変形例Aに係る作業支援装置20は、図6のフローチャートに示すような動作を実行する。変形例Aに係る作業支援装置20では、ステップT1〜T4,T6〜T8,T10〜T12が、それぞれ上述したステップS1〜S9と同様の処理を実行する。一方、変形例Aに係る作業支援装置20では、ステップT5,T9の処理が追加される。ステップT5では、基準画像Gcからの変化量が所定量より大きい場合にのみ候補画像Gkが抽出される。また、ステップT9では、新たに対象物画像であると設定された場合に、当該対象物画像が新たな基準画像Gcとして設定される。
このような構成により、変形例Aに係る作業支援装置20では、対象物検知モデル21Mの検知精度の向上に寄与しない候補画像Gkが収集されないことになる。補足すると、基準画像Gcからの変化量が所定量以下である画像は、基準画像Gcと類似した画像であるので、このような画像を新たな教師画像として現在の教師画像群Gt1〜Gtpに加えて、対象物検知モデル21Mの重みを更新しても、現在の教師画像群Gt1〜Gtpから抽出される対象物Oの特徴量に対して有意な変化が生じないことが多い。すなわち、そのような教師画像は、対象物検知モデル21Mの検知精度の向上に寄与しないことが多い。そこで、そのような画像を無視することで、演算負荷を低減しつつ対象物検知モデル21Mを迅速に構築できるようになる。
換言すると、変形例Aに係る作業支援装置20は、対象物検知モデル21Mの検知精度の向上に寄与する候補画像Gkを効率的に収集できるものとなっている。
(4−2)変形例B
また、本実施形態に係る作業支援装置20は、対象物検知モデル21Mが、対象物Oの領域抽出及び対象物Oの物体認識をエンドツーエンド(End to End)で行なうニューラルネットワークにより構築されたものでもよい。このような構成により、対象物Oの検知を高速化することができ、リアルタイムで対象物Oを検知することができる。
なお、ここでいう、エンドツーエンドとは、図7(a)に概念を示すように、対象物Oの領域抽出及び対象物Oの物体認識という処理に対して適切な構造を持つ一つのニューラルネットワークにより入出力関係を直接学習することをいう。例えば、このような対象物検知モデル21Mは、YOLO(You Only Look Once)又はSSD(Single Shot MultiBox Detector)などのアルゴリズムを用いて実現することができる。
ただし、対象物検知モデル21Mはこれに限らず、図7(b)に概念を示すように、対象物Oの領域抽出及び対象物Oの物体認識を個別に行うアルゴリズム及びニューラルネットワークの組み合わせにより構築されるものでもよい。
(4−3)変形例C
また、本実施形態に係る作業支援装置20は、図8に示すように、対象物の種類と対象物Oが写されている確率の値とを示す画像を候補画像Gkに合成して出力するものでもよい。これにより、作業者は候補画像Gkに写された対象物Oが何であるかを容易に認識することができる。例えば図8では、記号Mで示される領域に、バウンディングボックスBに対応する画像が、赤信号を表示する信号機(図8ではRed_lightと表記)である旨と、赤信号を表示する信号機である確率が43.21%であることとが示されている。なお、記号Mで示される領域は対応するバウンディングボックスBの近傍に表示される。
(4−4)変形例D
また、本実施形態に係る作業支援装置20は、対象物検知モデル21Mを用いて、任意の動画像GDから、対象物Oが写されている確率が第1閾値以上であり第2閾値以下である領域を含む画像を候補画像Gkとして、対象物毎に区分けされたフォルダに格納するものでもよい。さらに、作業支援装置20は、フォルダ毎に格納された候補画像Gkを、バウンディングボックスBとともに出力するものでもよい。
これにより、候補画像Gkに対象物が写されているか否かを効率的に判断することが可能となる。補足すると、各フォルダに蓄積された画像は所定の対象物に関連付けられているので、作業者は、各フォルダに蓄積された画像を連続的に表示したときに、当該対象物が写されているか否かだけを確認すればよいことになる。
例えば、作業者は、青信号を表示する信号機が写された候補画像が複数蓄積されたフォルダを開き、当該フォルダ内の画像を連続的に出力することで、それらの候補画像に青信号を表示する信号機が写されているか否かを効率的に判断することができる。また、作業者は、当該フォルダ内の画像を連続的に確認する場合、図8の記号I2で示されるような、次に進むことを意味するアイコンをポインタPでクリックすることで、次の画像を表示することができる。ここで、アイコンI2をクリックした場合には、次の画像を表示すると同時に、表示中の候補画像Gkに、青信号を表示する信号機が写されていることの設定も行われる。要するに、作業者は画像を連続的に確認しながら、アイコンI2をクリックするだけで、対象物検知モデル21Mに用いられる教師画像Gtを生成するためのアノテーション作業を実行できるようになる。なお、図8の記号I1は前に戻ることを意味するアイコンであり、このアイコンI1がクリックされた場合には、前回表示された候補画像が表示されることになる。
なお、候補画像Gkに同一種類の複数の対象物が写されている場合は、当該対象物に対応するフォルダにそのまま格納される。一方、候補画像Gkに異なる種類の複数の対象物が写されている場合は、例外であることを示すフォルダに格納される。
<他の実施形態>
本開示は、上記各実施形態そのままに限定されるものではない。本開示は、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できるものである。また、本開示は、上記各実施形態に開示されている複数の構成要素の適宜な組み合わせにより種々の開示を形成できるものである。例えば、実施形態に示される全構成要素から幾つかの構成要素は削除してもよいものである。さらに、異なる実施形態に構成要素を適宜組み合わせてもよいものである。
20 作業支援装置
21 記憶部
21M 対象物検知モデル
22 入力部
23 出力部
24 処理部
24A 抽出部
24B 生成部
24C 合成部
24D 設定部
24E 更新部
GD 動画像
Gd フレームの画像
Gk 候補画像
Gt 教師画像
Gc 基準画像
M 対象物が写されている確率の値が表示される領域
I1 アイコン(前に戻る)
I2 アイコン(次に進む)
特開2018−169672号公報

Claims (10)

  1. 対象物(O)が写された教師画像(Gt)を用いて構築された対象物検知モデル(21M)を用いて、任意の動画像(GD)から、前記対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像(Gk)として抽出する抽出部(24A)と、
    当該候補画像に、前記対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックス(B)が合成された画像を出力する出力部(23)と、
    を備える、作業支援装置(20)。
  2. 前記バウンディングボックス内に前記対象物が写されていること、又は、前記バウンディングボックス内に前記対象物が写されていないことの設定を受け付ける設定部(22,24D)、
    をさらに備える。請求項1に記載の作業支援装置。
  3. 前記対象物検知モデルは、複数の対象物を検知するものであり、
    第1対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックスが合成された画像に対し、当該第1対象物に代えて第2対象物が写されていることの設定を受け付ける設定部(22,24D)、
    をさらに備える。請求項1又は2に記載の作業支援装置。
  4. 前記対象物検知モデルは、複数の対象物を検知するものであり、
    前記対象物検知モデル(21M)を用いて、任意の動画像(GD)から、対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像(Gk)として、対象物毎に区分けされたフォルダに格納する、
    請求項1から3のいずれか1項に記載の作業支援装置。
  5. 前記対象物が写されている確率の値を前記候補画像に合成して出力する、
    請求項1から4のいずれか1項に記載の作業支援装置。
  6. 前記抽出部は、前記対象物が写されている確率が第2閾値以下である領域を含む画像を前記候補画像として抽出する、
    請求項1から5のいずれか1項に記載の作業支援装置。
  7. 前記抽出部は、前回抽出された候補画像からの変化量が所定量以下である場合、前記候補画像の抽出を停止する、
    請求項1から6のいずれか1項に記載の作業支援装置。
  8. 前記対象物が
    写されているか否かが設定された画像を前記教師画像に加えて、前記対象物検知モデルを更新する更新部(24E)をさらに備える、
    請求項1から7のいずれか1項に記載の作業支援装置。
  9. コンピュータを、
    対象物(O)が写された教師画像(Gt)を用いて構築された対象物検知モデル(21M)を用いて、任意の動画像(GD)から、前記対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像(Gk)として抽出する抽出部(24A)、
    当該候補画像に、前記対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックス(B)が合成された画像を出力する出力部(23)、
    として機能させるプログラム。
  10. コンピュータを用いて、画像内の領域に対象物(O)が写されているか否かを設定するための作業を支援する作業支援方法であって、
    対象物(O)が写された教師画像(Gt)を用いて構築された対象物検知モデル(21M)を用いて、任意の動画像(GD)から、前記対象物が写されている確率が第1閾値以上である領域を含む画像を候補画像(Gk)として抽出し、
    当該候補画像に、前記対象物が写されている確率が第1閾値以上である領域に対応するバウンディングボックス(B)が合成された画像を出力する、
    作業支援方法。

JP2019066075A 2019-01-17 2019-03-29 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。 Expired - Fee Related JP6756961B1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019066075A JP6756961B1 (ja) 2019-03-29 2019-03-29 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
PCT/JP2020/000731 WO2020149242A1 (ja) 2019-01-17 2020-01-10 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019066075A JP6756961B1 (ja) 2019-03-29 2019-03-29 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。

Publications (2)

Publication Number Publication Date
JP6756961B1 JP6756961B1 (ja) 2020-09-16
JP2020166526A true JP2020166526A (ja) 2020-10-08

Family

ID=72432439

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019066075A Expired - Fee Related JP6756961B1 (ja) 2019-01-17 2019-03-29 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。

Country Status (1)

Country Link
JP (1) JP6756961B1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232181A (ja) * 2012-04-06 2013-11-14 Canon Inc 画像処理装置、画像処理方法
JP2015191334A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 情報処理装置、情報処理方法
JP2017118341A (ja) * 2015-12-24 2017-06-29 株式会社ニコン 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2017162025A (ja) * 2016-03-07 2017-09-14 株式会社東芝 分類ラベル付与装置、分類ラベル付与方法、およびプログラム
JP2018151843A (ja) * 2017-03-13 2018-09-27 ファナック株式会社 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
US20180348346A1 (en) * 2017-05-31 2018-12-06 Uber Technologies, Inc. Hybrid-View Lidar-Based Object Detection

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013232181A (ja) * 2012-04-06 2013-11-14 Canon Inc 画像処理装置、画像処理方法
JP2015191334A (ja) * 2014-03-27 2015-11-02 キヤノン株式会社 情報処理装置、情報処理方法
JP2017118341A (ja) * 2015-12-24 2017-06-29 株式会社ニコン 画像処理装置、撮像装置、電子機器及び画像処理プログラム
JP2017162025A (ja) * 2016-03-07 2017-09-14 株式会社東芝 分類ラベル付与装置、分類ラベル付与方法、およびプログラム
JP2018151843A (ja) * 2017-03-13 2018-09-27 ファナック株式会社 入力画像から検出した対象物の像の尤度を計算する画像処理装置および画像処理方法
US20180348346A1 (en) * 2017-05-31 2018-12-06 Uber Technologies, Inc. Hybrid-View Lidar-Based Object Detection

Also Published As

Publication number Publication date
JP6756961B1 (ja) 2020-09-16

Similar Documents

Publication Publication Date Title
US20110242130A1 (en) Image processing apparatus, image processing method, and computer-readable medium
CN113744394B (zh) 鞋楦三维建模方法、装置、设备及存储介质
US11908183B2 (en) Image analysis and processing pipeline with real-time feedback and autocapture capabilities, and visualization and configuration system
CN106648571B (zh) 一种用于校对应用界面的方法和装置
WO2020149242A1 (ja) 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP6623851B2 (ja) 学習方法、情報処理装置および学習プログラム
JP6756961B1 (ja) 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
US20140310248A1 (en) Verification support program, verification support apparatus, and verification support method
CN112667212A (zh) 埋点数据可视化方法、装置、终端和存储介质
US11295489B2 (en) Information presentation device, information presentation method and storage medium
EP3086247A1 (en) Method and device for generating analysis mesh data
CN112365944A (zh) 一种树状数据节点处理系统、方法、电子设备及存储介质
CN108156504B (zh) 一种视频显示方法及装置
JP6508797B1 (ja) 作業支援装置、作業支援方法、プログラム、及び対象物検知モデル。
JP2021111299A (ja) 学習装置、学習方法、学習プログラム、識別装置、識別方法および識別プログラム
CN113312125B (zh) 多窗口调整方法、系统、可读存储介质和电子设备
JP2011141664A (ja) 文書比較装置、文書比較方法、及びプログラム
JP2017138713A (ja) 画面差異抽出装置、画面差異抽出方法、及びプログラム
JPWO2015093231A1 (ja) 画像処理装置
US20230196566A1 (en) Image annotation system and method
US20230196725A1 (en) Image annotation system and method
WO2021176877A1 (ja) 画像処理装置、画像処理方法、及び画像処理プログラム
JP2009086851A (ja) 画面遷移図の表示方法およびシステム
JP6021648B2 (ja) 試験結果判定支援装置
JP6467879B2 (ja) 引出線配置位置決定プログラム、引出線配置位置決定方法および引出線配置位置決定装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191225

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20191225

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20200127

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200319

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200515

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200807

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200807

R150 Certificate of patent or registration of utility model

Ref document number: 6756961

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees