JP2014178957A - 学習データ生成装置、学習データ作成システム、方法およびプログラム - Google Patents

学習データ生成装置、学習データ作成システム、方法およびプログラム Download PDF

Info

Publication number
JP2014178957A
JP2014178957A JP2013053340A JP2013053340A JP2014178957A JP 2014178957 A JP2014178957 A JP 2014178957A JP 2013053340 A JP2013053340 A JP 2013053340A JP 2013053340 A JP2013053340 A JP 2013053340A JP 2014178957 A JP2014178957 A JP 2014178957A
Authority
JP
Japan
Prior art keywords
image
region
shooting
information
photographing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013053340A
Other languages
English (en)
Inventor
Yasufumi Hirakawa
康史 平川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2013053340A priority Critical patent/JP2014178957A/ja
Publication of JP2014178957A publication Critical patent/JP2014178957A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】物体検出器や物体識別器の精度向上に寄与する学習データを低コストで大量に生成する。
【解決手段】学習データ生成システムは、被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける撮影処理手段と、各物体撮影画像から、物体が写っている領域である物体領域を抽出する物体領域抽出手段とを備え、物体領域抽出手段は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、第1の物体撮影画像から物体領域を抽出する。
【選択図】図1

Description

本発明は、画像から対象物体を識別したり対象物体を検出する装置の学習に用いられるデータである学習データを生成する学習データ生成装置、学習データ生成システム、学習データ生成方法および学習データ生成用プログラムに関する。
動画や静止画像から物体検出や物体識別を実施するには、その動画や静止画像に写っているものが対象物体かどうかを判定するための学習データが必要である。一般に、学習データとして、対象物体が写っている画像とその対象物体の位置情報とが用意される。また、学習データとして、上記に加えて検出対象外の領域(例えば、背景領域等)を写した画像が用意される場合がある。
学習データの収集には、対象物体が写っている画像を多く集め、それらに対して物体が写っている領域である物体領域を正解付けるという方法が一般的である。ここで、正解付けるとは、具体的には、対象とする画像が有する特定の情報(上記の例では物体領域)を正確に抽出して、それらを付加情報として当該画像と対応づけることをいう。
また、背景の変化による見え方の違いに対応するためには、その変化に対応した大量の学習データが必要になる。
ところで、学習データに、対象物体が写っている画像の付加情報として、当該画像における対象物体の向きの情報が含まれていると、物体を識別する精度が向上することが知られている。例えば、非特許文献1には、人物の頭部の方向ごとに画像識別器を作ることで頭部の見え方の変動に頑健な頭部追跡処理を実現できると記載されている。
しかし、背景や対象物体の向き変化に対応する画像を、それらの画像における物体領域の情報や対象物体の向きの情報等を正解付けながら、大量かつ均等に収集することは非常に大変であり、コストがかかる。
学習データの収集に関連する技術として、例えば、特許文献1には、映像から識別する物体を、人手もしくは画像処理による識別により選択し、それをトラッキングすることで、対象物体のサンプル画像を収集する方法が記載されている。
また、例えば、非特許文献2には、対象物体をCG(Computer Graphics )を使ってモデリングし、そのモデリングされたCG物体を背景画像に合成することで、背景変化と対象物体の向きの変化に対応した大量の学習画像を得る方法が記載されている。
特開2012−88787号公報
小林貴釧、他,"パーティクルフィルタとカスケード型識別器の統合による人物三次元追跡",電子情報通信学会,電子情報通信学会論文誌.D,情報・システム J90−D(8),2007年8月,p.1−11. 土屋成光、他,"人検出のための生成型学習とNegative-Bag MILBoost による学習の効率化",画像の認識・理解シンポジウム(MIRU2012),2012年.
特許文献1に記載されている方法によれば、物体領域の正解付け作業の時間を削減しつつ、物体が様々な位置にいる画像を収集することが可能である。しかし、物体領域の形状や姿勢に変化が起きる物体に対応しようとすると、次のような問題があった。例えば、背景や光源などの撮影環境について制御されない場合では、画像処理による物体抽出精度が低下するという問題があった。また、例えば人手によって正解付けを行う場合では、大量の物体画像を集める必要がある場合などには特に、工数が大きくなるという問題があった。さらに、画像処理による場合、対象物体の向き情報までを精度良く正解付けることは難しいという問題があった。
なお、非特許文献2に記載されている方法のように、CGを利用すれば様々な向きの物体を写した学習画像を、その画像における物体領域の情報と物体の向きの情報とともに用意することは可能である。しかし、この場合、実物に類似するCGの物体をモデリングする必要があり、モデリングの時間が必要となるため、新規物体にはすぐに対応できないという問題がある。また、CGを利用した学習画像の質は、実画像を収集した場合と比べると劣る場合も多い。
そこで、本発明は、物体検出器や物体識別器の精度向上に寄与する学習データを低コストで大量に生成することができる学習データ生成装置、学習データ生成システム、学習データ生成方法および学習データ生成用プログラムを提供することを目的とする。
本発明において、学習データは、対象物体が写っている画像から該対象物体が写っている領域である物体領域を切り出してその画像データを得ることができる情報であればよく、具体的な形式は問わない。例えば、対象物体が写っている画像とその対象物体の位置情報とを含む情報であってもよい。また、これらに加えて、検出対象外の領域を写した画像を含んでいてもよい。または、そのような情報を基に対象物体が写っている画像から物体領域を切り出した部分画像の画像データを、学習データとしてもよい。
本発明による学習データ生成システムは、被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける撮影処理手段と、各物体撮影画像から、物体が写っている領域である物体領域を抽出する物体領域抽出手段とを備え、物体領域抽出手段は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、第1の物体撮影画像から物体領域を抽出することを特徴とする。
また、本発明による学習データ生成装置は、被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける撮影処理手段と、各物体撮影画像から、物体が写っている領域である物体領域を抽出する物体領域抽出手段とを備え、物体領域抽出手段は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、第1の物体撮影画像から物体領域を抽出することを特徴とする。
また、本発明による学習データ生成方法は、被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づけ、各物体撮影画像から、物体が写っている領域である物体領域を抽出する際に、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、第1の物体撮影画像から物体領域を抽出することを特徴とする。
また、本発明による学習データ生成用プログラムは、コンピュータに、被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける処理と、各物体撮影画像から、物体が写っている領域である物体領域を抽出する処理とを実行させ、物体領域を抽出する際に、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、第1の物体撮影画像から物体領域を抽出させることを特徴とする。
本発明によれば、物体検出器や物体識別器の精度向上に寄与する学習データを低コストで大量に生成することができる。より具体的には、背景変化と対象物体の向き変化に対応した学習画像であって、少なくとも当該画像における物体領域および対象物体の向きの情報が対応づけられている学習画像を含む学習データを、低コストで大量に、かつ高精度に生成することができる。
本発明の概要を示すブロック図である。 学習データ生成システムの動作の一例を示す説明図である。 学習データ生成システムの他の例を示すブロック図である。 第1の実施形態の学習データ生成システムの構成例を示すブロック図である。 撮影環境の例を示す説明図である。 撮影環境の例を示す説明図である。 「仰角」について説明する説明図である。 合成用物体撮影処理部の構成例を示すブロック図である。 物体領域抽出部の構成例を示すブロック図である。 物体領域の抽出例を示す説明図である。 物体領域の抽出例を示す説明図である。 画像間の差分の例を示す説明図である。 画像間の差分の例を示す説明図である。 画像間の差分の例を示す説明図である。 物体領域の抽出例を示す説明図である。 合成画像生成部の構成例を示すブロック図である。 合成処理の例を示す説明図である。 第1の実施形態の学習データ生成システムの動作の一例を示すフローチャートである。 合成用物体撮影処理部の動作の一例を示すフローチャートである。 物体領域抽出部の動作の一例を示すフローチャートである。 合成画像生成部の動作の一例を示すフローチャートである。 合成用物体撮影処理部の他の構成例を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。まず、本発明の概要を説明する。図1は、本発明の概要を示すブロック図である。図1に示す学習データ生成システムは、撮影処理手段1と、物体領域抽出手段2とを備える。
撮影処理手段1は、被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける。ここで、撮影処理手段1は、少なくとも2つ以上の異なる撮影条件に対応する物体撮影画像であって、各々撮影時の撮影条件を示す情報を含む撮影環境情報が対応づけられている物体撮影画像を得る。
撮影条件の変更は連続的である方が好ましい。ここで、「連続的」とは、1つのパラメータの値に着目したときにその値が段階的に変化しているという意味と、複数のパラメータがある場合にそのうちの1つのパラメータのみ値が変化しているという意味とがあり、撮影条件を連続的に変更するといった場合には、少なくともどちらか一方の意味を満足していればよい。
また、撮影条件としては、被写体に対するカメラ位置を示す情報(例えば、世界座標における被写体の正面を基準とするカメラが位置する方位、後述するカメラの仰角、物体までの距離など)を含むことが好ましい。なお、さらに、レンズの向きや照明設定(照明の種類、方向、明るさなど)等を含んでいてもよい。なお、カメラ位置を示す情報は上記例示の限りではない。例えば、カメラを支える台との距離が既知である回転台を利用して撮影を行う場合には、カメラの高さと、回転台の回転角度とであってもよい。どのようなパラメータを用いるかは、当該システムがどのような撮影環境設定用機器を備えているかによって決めてもよい。
撮影処理手段1は、例えば、回転台による物体の向き変動、照明変動またはカメラの高さ変動のいずれか1つ以上を組み合わせて、撮影条件を変更してもよい。これらを組み合わせることで、様々な方向および様々な照明設定で物体を撮影した物体撮影画像を得ることができる。
また、撮影処理手段1は、例えば、外部より受け付けた、撮影条件をどのように変更しながら撮影するかを指示する情報である撮影パターン情報に従って、撮影条件を変更してもよい。また、撮影処理手段1は、画像を撮影するカメラ等の撮影装置や、撮影環境を変化させるために備え付けられている回転台等の可動式の撮影環境設定用機器に対して所定の命令を出力するためのインタフェースを含む。
物体領域抽出手段2は、撮影処理手段1によって得られる各物体撮影画像から、物体が写っている領域である物体領域を抽出する。その際、物体領域抽出手段2は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、物体領域を抽出する。
物体領域抽出手段2は、第1の物体撮影画像の撮影条件に対して連続的な変化となっている撮影条件で撮影された第2の物体撮影画像を利用して、第1の物体撮影画像から物体領域を抽出してもよい。
連続的に変化された撮影条件の変化の前後の画像間には、画像内における物体の見え方の変化に一定の規則が見いだせ、それを利用することで物体領域や背景領域を補間することができるからである。
また、物体領域抽出手段2は、例えば、第2の物体撮影画像の利用例として、第1の物体撮影画像と第2の物体撮影画像間の差分に関する情報に基づいて、第1の物体撮影画像から物体領域を抽出してもよい。また、物体領域抽出手段2は、第1の物体撮影画像と第2の物体撮影画像間の差分に関する情報に基づき、第1のアルゴリズムを用いて第1の物体撮影画像から抽出された物体領域、背景領域またはそれらの候補領域を補間してもよい。ここで、第1のアルゴリズムは、抽出対象とされる第1の物体撮影画像およびその画像に関する各種情報(撮影条件や背景画像等を含む)のみを用いて物体領域を抽出する所定のアルゴリズム、換言すると、抽出元とされる画像の他に物体が撮影された画像を用いずに物体領域を抽出する所定のアルゴリズムであれば、特に問わない。一例としては、物体撮影画像と背景画像との間の画素値の差を基に領域を抽出する背景差分法や、領域の連続性をエネルギーとして算出し領域分割を行うグラフカット、特定色を抽出するクロマキーなどのキーイングが挙げられる。
このようにすることで、第1のアルゴリズムのみを用いた場合よりも高精度な物体領域の抽出が可能になる。
図2は、図1に示す学習データ生成システムの動作の一例を示す説明図である。図2に示す例では、まず、撮影処理手段1が、撮影条件を変更しながら、撮影装置に撮影を行わせ、各々の撮影条件に対応する物体撮影画像を得る(ステップS1)。撮影処理手段1は、例えば、各撮影条件下で撮影した物体撮影画像に、撮影時の撮影条件を含む撮影環境情報を対応づけて、所定の記憶装置に記憶させてもよい。撮影環境情報は、撮影条件だけでなく、カメラの内部パラメタなど撮影時に取得できる他の情報を含めてもよい。ここで、カメラの内部パラメタとは、カメラの機種に依存するパラメタであって、例えば、焦点距離やCCDの画素の縦横比の情報である。
なお、撮影条件に対応する物体撮影画像の取得方法は、撮影条件を連続的に変化させながら物体を動画で撮影したものを保存しておき、あとから保存しておいた動画から大量の静止画像を抽出する方法であってもよい。この場合、特定の2時刻の撮影条件さえ既知であれば、2時刻間の画像に対する撮影条件をその2時刻の撮影条件から補間処理によって推定し記録してもよい。このようにすれば、効率よく物体撮影画像と撮影条件のセットを取得できる。
次いで、物体領域抽出手段2が、撮影処理手段1によって得られた各物体撮影画像から、物体領域を抽出する(ステップS2)。その際、物体領域抽出手段2は、撮影条件が異なる他の物体撮影画像を利用して、物体領域を抽出する。なお、抽出した物体領域を示す情報は、付加情報の1つとして抽出元の物体撮影画像に対応づければよい。
以上のような構成によれば、少なくとも物体の向き変化に対応した物体撮影画像と、それを撮影したときの撮影条件を含む撮影環境情報と、その画像内における物体領域を示す情報とが各々高い質で得られるので、これらを利用して物体撮影画像から物体領域を切り出し、様々な背景画像と合成させれば、低コストで大量に質の高い学習データを得ることができる。すなわち、背景変化と対象物体の向き変化に対応した学習画像であって、少なくとも当該画像における物体領域および対象物体の向きの情報が対応づけられている学習画像を含む学習データを、低コストで大量に、かつ高精度に生成することができる。
また、図3は、本発明による学習データ生成システムの他の例を示すブロック図である。図3に示すように、学習データ生成システムは、さらに、画像合成手段3を備えていてもよい。
画像合成手段3は、指定された背景画像に、物体撮影画像から物体領域抽出手段によって抽出された物体領域を切り出した画像である物体領域画像を合成する。すなわち、画像合成手段3は、撮影処理手段1によって得られる各物体撮影画像と、それらの撮影環境情報および物体領域を示す情報とに基づいて、指定された背景画像に、物体撮影画像の物体領域を切り出した画像である物体領域画像を合成して、学習画像を生成する。
画像合成手段3は、例えば、背景画像への物体領域の張り付け先とされた位置に対して、背景画像での当該位置にいる物体の見え方と相関の高い物体領域画像を選別した上で、当該位置に物体領域画像を合成してもよい。また、その際に、物体の見え方の相関の高さを求めるパラメータとして、カメラの仰角を用いてもよい。
このようにすると、背景画像に実際に写される実物体と姿勢(見え方)が近い物体撮影画像の物体領域を張り付けることができるので、より質の高い学習画像を提供できる。
また、学習データ生成システムは、様々な背景画像を記憶する背景画像記憶手段4を備えていてもよい。なお、背景画像記憶手段4には、背景画像だけでなく、該背景画像の撮影環境情報も併せて記憶されていてもよい。
様々な背景画像を背景画像記憶手段4に記憶させることによって、様々な背景の学習画像を生成することができる。また、背景画像の撮影環境情報を利用すれば、より高精度に物体の見え方の相関を求めることができるので、より質の高い学習画像を容易に生成できる。
実施形態1.
以下、より具体的に本発明の実施形態を説明する。図4は、本発明の第1の実施形態の学習データ生成システムの構成例を示すブロック図である。図4に示す学習データ生成システムは、合成用物体撮影処理部11と、物体領域抽出部12と、合成画像生成部13と、合成用背景画像蓄積部14とを備える。
図4に示すように、合成用物体撮影処理部11は、物体領域抽出部12および合成画像生成部13と接続されている。また、物体領域抽出部12は、合成画像生成部13と接続されている。また、合成画像生成部13は、合成用背景画像蓄積部14と接続されている。
合成用物体撮影処理部11は、外部から受け付けた撮影パターン情報に従って撮影条件を変化させながら、単純背景(背景色が一定。例えば青、白など)下で物体を撮影する処理を実行する。なお、合成用物体撮影処理部11は、上述した撮影処理手段1に相当する処理部である。
本実施形態における撮影条件は、カメラ配置(カメラの位置および姿勢)、照明設定、回転台の回転角度を組み合わせた情報とする。そして、撮影パターン情報は、これらカメラ配置、照明設定、回転台の回転角度の少なくとも1つに関する変動範囲を示す情報とする。
図5および図6は、学習データ生成システムが有する撮影環境の例を示す説明図である。なお、図5は撮影環境の例を示す側面図であり、図6は撮影環境の例を示す上面図である。図5および図6に示すように、本実施形態では、回転台501を用いることで、検出させたい物体を多様な方向から撮影可能にしている。この他、複数の照明504と複数の撮影装置(カメラ)505を備えている。これら1つ以上の照明504とカメラ505とは、回転台501上の対象物体503に向けられている。回転台501の回転角度や、各カメラ505の配置、各照明504の設定は、例えば、回転台501に付随するコントロール用の機器(図示せず)や、カメラ504や照明505を固定している機器502(以下、カメラ配置/照明制御機器502という。)に対して所定の命令を発行することにより行う。
回転台変動として、例えば、物体を様々な方向から撮影するために、回転台の回転角度を10度刻みに進めてもよい。また、照明変動として、例えば、物体へ光を照射する照明の種類を、正午の太陽の色温度である6500Kの照明にしたり、蛍光灯にしたり、白熱灯にするなどしてもよい。また、照明の種類だけでなく、明るさを段階的に変えたり、物体へ様々な方向から光を照らすために、照明を固定している台の高さを段階的に変えたり、台の位置を移動させるなどしてもよい。また、カメラ配置変動として、例えば、物体を様々な高さから撮影するために、カメラを固定している台の高さを段階的に変えてもよい。なお、カメラを複数備えている場合は、撮影に用いるカメラを選択することでもカメラ配置を変更できる。また、これらの変動制御を1つ以上組み合わせて行ってもよい。
本実施形態では、カメラ配置を示す情報として、カメラの世界座標上での位置と、カメラの姿勢(向き)とを示すカメラの外部パラメタを用いる。カメラの外部パラメタは、機種に依存しないカメラのパラメタであって、例えば、空間中において原点とX,Y,Z軸の方向を決めたときに、カメラの位置および向きを当該座標系により表す情報であってもよい。カメラの外部・内部パラメタから投影行列を求めることで、三次元空間上の点と二次元画像上の点の対応関係を求めることができる。
なお、カメラの内部パラメタや、カメラ配置/照明制御機器502が初期状態のときの各カメラの外部パラメタを合成用物体撮影処理部11によって撮影処理が行われる前にあらかじめ算出しておき、後述するカメラパラメタ記憶部108に保存しておいてもよい。
また、合成用物体撮影処理部11は、物体領域抽出部12で物体領域を抽出するために用いる画像として、同じ撮影条件下で対象物体が回転台501に乗っていない画像(以下、背景撮影画像という。)を併せて撮影してもよい。
なお、本実施形態では、カメラ配置/照明制御機器502が、カメラと照明とを各々複数固定しており、それらの高さをまとめて変更するための台として機能する例を説明するが、撮影環境設定用機器は上記の例に限定されない。例えば、カメラと照明とを別々に固定し、独立してそれらの高さを制御する2以上の台を備えていてもよい。
また、可動式でない撮影環境設定用機器を含んでいる場合には、当該機器に対する制御を人手を介して行ってもよい。そのような場合には、人に操作内容を指示する情報を出力するモニタや、人から操作結果を受け付ける入力手段を備えていればよい。本発明では、少なくとも合成用物体撮影処理部11からの指示に従って、撮影環境が変更され、撮影され、撮影された画像が入力される仕組みが備わっていればよい。
また、図7は、本実施形態で、物体を撮影する垂直方向の角度を表す「仰角」について説明する説明図である。本実施形態では、「仰角」を次のように定義する。すなわち、図7に示すように、物体の基準位置Aに対して、カメラの設置位置Bと、カメラの鉛直方向と物体の基準位置の水平方向を結ぶ点Cがなす角度とする。なお、図7では、物体が人物であるとして、その足元位置を物体の基準位置とした場合の例を示している。本例では、物体の足元位置Aに対して、カメラの設置位置Bと、カメラの垂直方向と床面を結ぶ点Cがなす角度が仰角となる。
合成用物体撮影処理部11は、各機器に対する制御の結果得られる指定の撮影条件で実際の物体を撮影した画像である物体撮影画像を、そのときの撮影環境を示す撮影環境情報とともに、物体領域抽出部12に出力する。本実施形態では、撮影環境情報として、カメラの内部パラメタと、外部パラメタと、照明の設定内容を示す照明設定情報と、回転台の回転角度と、同じ条件下で撮影された背景撮影画像とを含む情報を出力する。なお、照明設定情報は、例えば、照明の種類や方向情報(物体に対してどの向きから光を当てたかという情報)や明るさを示す情報である。ここで、合成用物体撮影処理部11は、それらの情報を物体領域抽出部12に出力する代わりに、一連の撮影処理により得られた各物体撮影画像と、その撮影環境情報とを対応づけて保持する記憶部を備えていてもよい。そのような場合、後段の処理部には処理完了の旨と今回の処理において記憶部に記憶させた情報を特定できる情報とを出力すればよい。
物体領域抽出部12は、合成用物体撮影処理部11が得た各物体撮影画像から、物体領域の抽出を行う。なお、物体領域抽出部12は、上述した物体領域抽出手段2に相当する処理部である。
物体領域抽出部12は、例えば、物体が回転台に置かれた画像と置かれていない画像の2つの画像を用いた差分法や、特定色を除いた領域を抽出するクロマキーなどのキーイングによる色抽出、前景・背景シードの一部指定することで前景・背景領域を抽出することができるグラフカットなどの手法を用いて、物体領域を抽出する。
物体領域抽出部12は、その際に、画像間の物体の見え方の変化の連続性により得られる特徴に基づいて、物体領域を抽出する。換言すると、物体領域抽出部12は、撮影条件が連続的な変化となっている画像間における物体の見え方の違いをフレーム間の特徴量として検出し、その特徴量に基づいて物体領域を抽出する。物体領域抽出部12は、例えば、撮影条件が異なる画像間の差分を抽出し、抽出された差分を示す情報に基づいて、抽出した物体領域または背景領域を補間する処理や、その範囲の正否を判定する処理を行ってもよい。本実施形態では、上述のアルゴリズムと、差分に基づく補間または判定処理とを組み合わせて用いることにより、高精度な物体領域の抽出を行う。なお、物体領域の抽出処理については後述する。
物体領域抽出部12は、このような手法を用いて物体領域を抽出すると、抽出した物体領域を示す情報である物体領域情報を合成画像生成部13に出力する。物体領域情報は、例えば、切り出された物体領域の画素値とその位置情報とを含む情報であってもよい。なお、抽出元の物体撮影画像が合成画像生成部13にも出力される場合には、物体領域情報から物体領域の画素値を省略してもよい。そのような場合には、物体領域情報として、抽出元の物体撮影画像を識別可能な識別子と、切り出した物体領域の位置情報とを含む情報を合成画像生成部13に出力すればよい。また、物体領域抽出部12は、それらの情報を合成画像生成部13に出力する代わりに、抽出元の物体撮影画像と対応づけて、得られた物体領域情報を保持する記憶部を備えていてもよい。そのような場合、後段の処理部には処理完了の旨と今回の処理において記憶部に記憶させた情報を特定できる情報とを出力すればよい。
合成画像生成部13は、得られた各物体撮影画像の撮影環境情報と、物体領域情報と、あれば背景画像の撮影環境情報とに基づいて、指定された合成用背景画像に、物体撮影画像から切り出した物体領域画像を合成することにより、合成用背景画像上に実際に物体が置いてあるような学習画像を生成する。なお、合成画像生成部13は、上述した画像合成手段3に相当する処理部である。
合成画像生成部13は、物体領域画像を合成する際に、背景画像の撮影環境を推定し、または記憶されている撮影環境情報を読み出し、背景画像上での物体の見え方に近い見え方で物体が撮影されている物体領域画像を選別した上で、背景画像に物体領域画像を合成する。
例えば、合成画像生成部13は、背景画像の各画素位置または一定の間隔(画素または実距離での一定の間隔)ごとに、当該位置で対象物体が撮影されたと仮定したときのカメラの仰角、すなわち当該位置の世界座標位置に対してカメラの設置位置とカメラの鉛直方向と床面を結ぶ点とがなす角度を算出(推定)し、推定されたカメラの仰角と、各物体撮影画像を撮影したときのカメラの仰角とを照合し、値が最も近いまたは許容範囲内となるカメラの仰角で撮影された物体領域画像を、当該位置に合成させる物体領域画像として選別してもよい。背景画像の各位置のカメラの仰角は、例えば、背景画像の内部パラメタおよび外部パラメタから算出できる。なお、合成画像生成部13は、背景画像に対して物体の配置可能領域が与えられている場合には、その領域内に限定して上記処理を省略してもよい。
なお、カメラの仰角以外に、例えば、カメラの高さを用いてもよい。カメラの高さ、仰角の照合方法については各値の差分を利用するなど、実際に物体が置かれた時に近い姿勢の物体領域が選ばれるアルゴリズムであればよい。また、その他の尺度を用いることも可能である。例えば、背景画像を撮影した際の照明状態や物体の進行方向などが与えられている場合には、さらにそれらの情報を用いてもよい。いずれの場合も、背景画像上の位置での物体の見え方に近似する見え方で撮影されている物体領域画像を選別すればよい。単純には、背景画像の撮影環境情報を撮影条件に含まれるパラメータの値に変換した上で各パラメータ間の差分を求め、それらを総合判断して両者の相関を求めればよい。
また、合成画像生成部13は、このようにして生成した学習画像と、合成に用いた物体領域の物体領域情報とを対応づけて、学習データとして出力する。
合成用背景画像蓄積部14は、物体領域の合成先となる背景画像を記憶する。合成用背景画像蓄積部14には、合成用の背景画像とともに、該背景画像の撮影環境情報が記憶されていてもよい。例えば、撮影時の内部パラメタおよび外部パラメタが既知の画像を合成用の背景画像として記憶してもよい。なお、背景画像は複数種類保存されていることが好ましい。なお、合成用背景画像蓄積部14は、上述した背景画像蓄積手段4に相当する記憶部である。
以下、各処理部についてより詳細に説明する。図8は、本実施形態の合成用物体撮影処理部11の構成例を示すブロック図である。図8に示すように、合成用物体撮影処理部11は、物体撮影管理部101と、カメラ配置変動部102と、照明変動部103と、回転台変動部104と、撮影処理部105と、撮影環境情報記憶部106と、物体撮影画像記憶部107と、カメラパラメタ情報記憶部108とを含んでいてもよい。
本例において、物体撮影管理部101は、カメラ配置変動部102と、照明変動部103と、回転台変動部104と、撮影処理部105とに接続されている。また、カメラ配置変動部102と、照明変動部103と、回転台変動部104と、カメラパラメタ情報記憶部108は各々、撮影環境情報記憶部106に接続されている。また、撮影処理部105は、物体撮影画像記憶部107に接続されている。なお、撮影処理部105は、撮影環境情報記憶部106にも接続されていてもよい。
物体撮影管理部101は、撮影パターン情報を基に、指定された各撮影条件にて撮影を実行するために、指定された各撮影条件に撮影環境を設定するための各種指示を、他の機能ブロックに対して行う。他の機能ブロックに対する指示には、例えば、各変動部(本例では、カメラ配置変動部102、照明変動部103、回転台変動部104等)への各機器に対する変動の指示や、撮影処理部105への撮影の指示が含まれる。
本実施形態における撮影条件には、少なくともカメラの外部パラメタまたは回転台の回転角度を指示する情報を含むものとする。なお、さらに照明設定を示す情報を含んでいてもよい。また、カメラの外部パラメタと、回転台の回転角度と、照明設定を組み合わせた情報であってもよい。なお、撮影条件によっては、照明変動部103を省略することも可能である。
物体撮影管理部101は、例えば、撮影を行う毎に、撮影パターン情報に含まれる撮影条件が示すカメラ配置に合致するように、備え付けられているカメラの配置(高さ位置、姿勢など)を制御するための情報を記したカメラ配置操作情報をカメラ配置変動部102に出力してもよい。なお、カメラが複数備え付けられている場合には、最も撮影条件に近い配置となっているカメラを指定した上で、カメラ配置操作情報を出力してもよい。カメラ配置操作情報は、例えば、各カメラの現在の設定内容に対する変更量を示す情報であってもよい。また、例えば今回の撮影における撮影条件に合致する外部パラメタであってもよい。また、例えば、制御対象とされる機器に応じた情報、本例でいえば、カメラ配置/照明制御機器502に対する高さ設定に関する情報などであってもよい。このとき、物体撮影管理部101は、どの撮影条件下での撮影かを識別するために、1つの撮影装置に撮影を行わせるごとに固有のIDを割り当てる。各変動部に対して指示を出す場合には、ID情報を付加して出力する。また、各変動部も情報を出力する場合には、物体撮影管理部101より通知されるID情報を付加して出力する。このように、ID情報によって各種情報の紐付を行う。
カメラ配置変動部102は、物体撮影管理部101からの指示に従い、例えば各カメラの高さ位置や姿勢を制御するために設けられた機器(本例では、カメラ配置/照明制御機器502)を操作して、カメラの配置を変更する。また、カメラ配置変動部102は、変動後のカメラ配置を示す情報を撮影環境情報の1つとして、通知されたID情報とともに撮影環境情報記憶部106に記憶する。
なお、予め対象物体に併せて各カメラの高さやその向きが整えられている場合などには、カメラの配置変動に関する処理は省略してもよい。そのような場合には、物体撮影管理部101は、撮影を行う毎に、撮影パターン情報に含まれる撮影条件が示すカメラ配置に合致する外部パラメタを、カメラパラメタ情報記憶部108より選び出せばよい。そして、その外部パラメタを現在の撮影環境情報を示す情報として撮影環境情報記憶部106にID情報と対応づけて記憶させればよい。
また、物体撮影管理部101は、例えば、撮影を行う毎に、撮影パターン情報が示す照明設定に合致するように、備えられている照明の各種設定(種類、明るさ、方向など)を制御するための情報を記した照明操作情報を照明変動部103に出力してもよい。照明操作情報は、例えば、各照明の現在の設定内容に対する変更量を示す情報であってもよい。また、例えば今回の撮影における撮影条件に合致する各照明の種類、明るさ、方向を示す情報であってもよい。また、例えば、制御対象とされる機器に応じた情報、本例でいえば、カメラ配置/照明制御機器502に対する高さ設定に関する情報や、各照明のオン/オフ設定に関する情報などであってもよい。なお、本実施形態では、照明には予め色温度が既知の照明を用いるものとする。
照明変動部103は、物体撮影管理部101からの指示に従い、例えば各照明の設定を制御するために設けられた機器(本例では、カメラ配置/照明制御機器502)を操作して、照明の種類や明るさ、方向を変更する。また、照明変動部103は、変更後の照明設定を示す情報を撮影環境情報の1つとして、通知されたID情報とともに撮影環境情報記憶部106に記憶する。
また、物体撮影管理部101は、例えば、撮影を行う度に、撮影パターン情報が示す回転台の回転角度に合致するように、回転台の回転角度を制御するための情報を記した回転台操作情報を、回転台変動部104に出力してもよい。回転台操作情報は、例えば、回転台の現在の設定内容に対する変更量を示す情報であってもよい。また、例えば今回の撮影における撮影条件に合致する回転台の回転角度を示す情報であってもよい。また、例えば、制御対象とされる機器に応じた情報、本例でいえば、回転台501に対する回転角度設定に関する情報であってもよい。
回転台変動部104は、物体撮影管理部101からの指示に従い、回転台または回転台の回転角度を制御する機器を操作して、回転台を回転させる。また、回転台変動部104は、変動後の回転台の角度を示す情報を撮影環境情報の1つとして、通知されたID情報とともに撮影環境情報記憶部106に記憶する。
撮影環境情報記憶部106には、撮影ごとに固有に割り当てられたID情報で紐付けられた撮影環境情報が蓄積されることになる。
また、物体撮影管理部101は、撮影ごとに、このようにして撮影ごとに各変動部に操作情報を出力して撮影環境の設定を行い、その処理が完了すると、設定した撮影環境下で物体を撮影するために、撮影の実施を指示する旨の信号である撮影指示情報を撮影処理部105に出力する。
撮影処理部105は、物体撮影管理部101からの指示に従い、カメラを操作して撮影を実施する。そして、生成された画像(物体撮影画像)を通知されたID情報とともに物体撮影画像記憶部107に記憶する。また、撮影処理部105は、撮影が完了したことを示す信号である撮影終了情報を、物体撮影管理部101に出力する。
物体撮影管理部101は、この撮影終了情報を受け取ると、撮影パターン情報に基づき操作情報を変更して再度撮影を行うための処理を実行する。このようにして、撮影パターン情報に含まれる撮影条件を網羅した撮影が終わるまで、1つの対象物体に対する撮影は続けられる。すなわち、物体撮影管理部101が、これら3つの操作情報(カメラ配置操作情報、照明操作情報、回転台操作情報)を撮影パターン情報に基づき変更しながら、該当する変動部に送信することによって、カメラ配置、照明設定、回転台の角度を順次連続的に変更させ、その後、撮影処理部105に撮影指示を出力する処理を行うこで、様々な物体の向き、仰角、照明設定で物体を撮影することができる。
なお、撮影条件を変更する度に撮影指示を出す以外の方法として、例えば、撮影条件の変更の前後を区切らずに一連の動画像として撮影するようにしてもよい。そのような場合には、撮影条件を変更したときに変更後の撮影条件を示す情報を画像に重畳させるなどして、各フレームでそのときの撮影条件を示す情報を取得できるようにしておけばよい。
また、本実施形態では、物体撮影管理部101は、現在の撮影モードが、物体を撮影するモードである物体撮影モードか、物体が回転台に乗っておらず背景を撮影するモードである背景撮影モードのどちらであるかを判別する機能を有していてもよい。このモードの違いにより、撮影した画像を物体領域そのものを抽出する画像、すなわち物体撮影画像として利用するか、または物体領域を求める処理に用いるパラメタとして利用するかが決まる。現在の撮影モードがどちらのモードであるかは、例えば、外部からの信号を用いて判断してもよい。また、撮影パターン情報に予め持たせてもよいし、背景撮影モード→物体撮影モードの順に処理を行うよう予め決めておいてもよい。
撮影処理部105では、物体撮影管理部101の指示があったときに、当該撮影が物体撮影モードか背景撮影モードかを判定する。物体撮影モードである場合、画像合成に用いる物体領域の画像として撮影し、その画像をID情報とともに物体撮影画像記憶部107に保存すればよい。一方、背景撮影モードである場合には、撮影された画像を、物体領域を求める処理に用いるパラメタの1つとして、撮影した画像をID情報とともに撮影環境情報記憶部106に保存すればよい。
なお、背景撮影モードでは、回転台と背景のみが写った背景撮影画像を、物体撮影モードと同様のカメラ姿勢、照明、回転台の回転角度を組み合わせて撮影する。得られた背景撮影画像は、同じ撮影条件下で撮影される物体撮影画像の撮影環境情報の1つとして、その物体撮影画像に割り当てられるID情報と対応づけて、撮影環境情報記憶部106に記憶する。
また、図9は、本実施形態の物体領域抽出部12の構成例を示すブロック図である。図9に示すように、物体領域抽出部12は、領域抽出パラメタ設定部121と、領域抽出処理部122と、物体姿勢抽出処理部123と、物体領域情報記憶部124とを含んでいてもよい。
本例において、領域抽出パラメタ設定部121は、領域抽出処理部122に接続されている。また、領域抽出処理部122は、物体姿勢抽出処理部123に接続されている。また、物体姿勢抽出処理部123は、物体領域情報記憶部124に接続されている。
領域抽出パラメタ設定部121は、物体領域の抽出元となる物体撮影画像と対応づけられている撮影環境情報を基に、領域抽出処理部122で物体領域を抽出するために用いられるアルゴリズムに必要なパラメタである領域抽出パラメタを算出する。算出された領域抽出パラメタの情報は、領域抽出パラメタ情報として領域抽出部114に出力される。
ここで、算出するパラメタの内容は、領域抽出処理部122で物体領域の抽出に用いるアルゴリズムに依存する。代表的な物体領域の抽出用のアルゴリズムとしては、2枚の画像の画素値の差を基に領域を抽出する背景差分法、領域の連続性をエネルギーとして算出し領域分割を行うグラフカット、特定色を抽出するクロマキーなどのキーイングがある。なお、本実施形態では、上記のようなアルゴリズムと、撮影条件が異なる画像間の差分を利用した物体領域、背景領域またはそれらの候補領域の補間処理またはそれら領域の正誤の判定処理とを組み合わせて用いるため、そのためのパラメタを含む。
パラメタの内容としては、物体撮影画像と撮影環境情報の1つである背景撮影画像とで回転台の位置を合わせるオフセットや、物体領域の抽出方法が背景差分法であれば、物体撮影画像と背景撮影画像間の差分が一定以上となる領域を背景とするための閾値(背景差分の閾値)、キーイング手法ならば、背景として抽出する色を示す値の範囲(例えばRGB値がとり得る値など)、グラフカットであればグラフカットのパラメタを求めるための前処理に用いる背景差分法の閾値、回転台の側面領域位置の情報を出力する。また、撮影条件が異なる画像間の差分を利用した補間処理または判定処理を行うためのパラメタとして、撮影環境情報を出力する。
物体撮影画像と背景撮影画像の位置合わせによるオフセット算出は、カメラ姿勢を同一にしても撮影機器への振動などの数ピクセルのズレが生じる可能性を考慮したものであり、その位置合わせは、両画像に写る回転台の形状によるテンプレートマッチングによる画像処理技術などで行えばよい。
また、背景差分の閾値は、物体撮影画像の背景領域が背景撮影画像とどの程度違った見え方をするかによって定めればよい。
また、背景として抽出する色を示す値の範囲は、背景撮影画像のRGB値がとり得る範囲を用いる。これにより照明の設定によって背景撮影画像における背景領域の色味が変化しても背景領域を算出できるようにする。
また、回転台を用いる場合、物体は回転台の上に位置するため、回転台の側面は一般に物体領域と重ならない。このような特性を利用して、回転台の側面部分については背景領域としてあらかじめ抽出しておき、パラメタとして出力してもよい。回転台の側面は、回転台が一般に剛体かつ円柱形であることを考慮し、円柱形または回転台上面部分の楕円形のフィッティングを行うことで推定することができる。
領域抽出処理部122は、領域抽出パラメタ設定部121から得られる領域抽出パラメタを基に、物体撮影画像から物体領域を抽出する。なお、領域抽出処理部122は、一般的な物体領域の抽出用のアルゴリズムと組み合わせて、撮影条件が異なる他の物体撮影画像と間の差分を利用した補間処理や判定処理を行うことにより、より高精度な物体領域抽出手法を実施する。
領域抽出処理部122は、例えば物体領域の抽出アルゴリズムとして背景差分を用いる場合、まず、領域抽出パラメタ情報の画像間のオフセット値を用いて物体撮影画像と背景撮影画像とで回転台の位置が合うよう位置合わせを行う。次いで、領域抽出パラメタ情報として受け取った背景差分の閾値を用いて背景差分法により物体領域を抽出する。
図10は、背景差分を用いて領域抽出を行う場合の抽出例を示す説明図である。なお、図10(a)は、物体領域の抽出元とされる物体撮影画像の例を示す説明図である。また、図10(b)は、背景撮影画像の例を示す説明図である。また、図10(c)は、図10(a)に示す物体撮影画像と図10(b)に示す背景撮影画像との差分を基に領域抽出を行った結果の例を示す説明図である。図10(c)に示すように、位置合わせ後の物体撮影画像と背景撮影画像との間で各画素の画素値の差分を取ることで、物体領域を抽出することができる。
また、キーイングによる色抽出を用いる場合、まず背景差分を用いる場合と同様に、領域抽出パラメタ情報の画像間のオフセット値を用いて物体撮影画像と背景撮影画像とで回転台の位置が合うよう位置合わせを行う。次いで、領域抽出パラメタ情報内にある背景として抽出する色の値の範囲を用いて、物体撮影画像から色の値の範囲に含まれる画素値を持つ領域を背景領域として抽出する。なお、物体領域は、抽出した背景領域を除いた領域とすればよい。
また、グラフカットにより物体領域を抽出することができる。一般的に物体領域(前景領域)の抽出は、画像中の各画素に前景か背景かのラベルを付ける問題としてみなすことができ、画像全ての画素に前景・背景ラベルを付けたものをラベル画像Xとして表現した場合、最も適切な前景領域の抽出は、以下の式(1)に示すエネルギー関数の最小化によって求められる。
Figure 2014178957
以下、このエネルギー最小化を行い、前景/背景領域を切り出すアルゴリズムをグラフカットと呼ぶ。ここで、v,uは各画素を表し、Xv,Xu=0なら背景、Xv,Xu=1なら前景(物体)のラベルを表すとする。また、Vはピクセルを表す集合である。ここで、Dv(Xv)は画素vに対する前景らしさをあらわす項で、Huv(Xu,Xv)は隣接している画素間のラベルXuとXvが同一ラベルらしいか否かを表す項である。
本明細書の手法において、特定条件下で撮影した物体領域は背景と差分が大きく、かつ異なる撮影条件で、特に撮影条件を連続的に変えて撮影した画像の差分も大きいほど前景らしいと仮定した場合、上述のエネルギー関数においてDv(Xv)の項を、以下の式(2)のように設定してもよい。
Dv(Xv)=p1+p2 ・・・式(2)
ここで、p1は背景モデルで計算される尤度であって、より具体的には、背景画素との差分が大きいほどエネルギー(値)が小さくなるような尤度である。また、p2は異なる条件下で撮影した2枚の画像間の差分から計算される尤度であって、より具体的には、2枚の画像間の差分が大きいほどエネルギー(値)が小さくなるような尤度である。これにより現状の背景の特性と画像間の変化の特性を考慮した物体領域抽出が可能である。
例えばp1は、入力画素値をa、背景画素値をc(例えば背景領域の画素値を基に構成したGaussianModel)、特定のパラメタ値σとすると、差分値が大きいほど前景領域である確率が高いとして、以下の式(3)として計算してもよい。
Figure 2014178957
また、背景モデルの構築方法として、より複雑なGaussian Mixture Model(GMM)や他のアプローチを採用してもよい。なお、GMMを用いた背景モデルの構築方法の一例が、例えば、文献1「田中和之、”確率モデルによる画像処理技術入門”、森北出版、2006年9月、p.29」に記載されている。
また、p2についても、入力画素値をaとし、それとは異なる条件下で撮影した画像の画素値をbとすると、差分値が大きいほど前景領域である確率が高いとして、以下の式(4)として計算してもよい。
Figure 2014178957
また、単純にp1+p2にするのではなく、何らかの非線形変換fを用いて、以下の式(5)として計算してもよい。
Dv(Xv)=f(p1)+f(p2) ・・・式(5)
非線形変換fの例として、値域が[0,1]になるように、以下の式(6)に示すような正規化計算をしてもよい。
Figure 2014178957
また、他の例として、p2の効果が大きくなるようにp2に定数倍を乗じるなどの処理を行ってもよい。
以上のように、エネルギー最小化計算により、領域分割を行うことが可能となる。そして、物体領域または背景領域の正解シードを与えることで物体領域を抽出することができる。
なお、グラフカットを用いる場合、まず背景差分を用いる場合と同様に、領域抽出パラメタ情報の画像間のオフセット値を用いて物体撮影画像と背景撮影画像の回転台の位置が合うよう位置合わせを行う。次いで、領域抽出パラメタ情報として受け取った背景差分の閾値を用いた背景差分法、またはキーイングを用いて物体候補領域を抽出してもよい。
そして、その一方で背景差分法により差分が閾値より小さい領域を背景候補領域として抽出する。また、領域抽出パラメタ情報に回転台の側面部分のパラメタがある場合、その側面領域も背景候補領域として抽出する。次いで、グラフカットのパラメタとして物体候補領域の例である前景シードと、背景領域の例である背景シードを作成する。
グラフカットでは、エネルギーを求める初期値として前景領域(前景シード)、背景領域(背景シード)を与えるが、これら2つのシードが物体/背景領域として正確に与えられるほど一般に領域分割精度が高くなる。前景シードには、前景領域の内側部分を設定し、背景シードには、背景領域の内側部分を設定する。前景シードと背景シードを用いたグラフカットにより、最終的に物体撮影画像から物体領域の抽出が行われる。
図11は、グラフカットを用いて領域抽出を行う場合の抽出例を示す説明図である。なお、図11(a)は、物体領域の抽出元とされる物体撮影画像の例を示す説明図である。図11(b)は、図11(a)の画像に対して、物体領域大分類と背景差分とを行った場合の領域抽出例を示す説明図である。図11(c)は、図11(b)の領域抽出例を基に、前景シードと背景シードを設定した例を示す説明図である。図11(d)は、図11(c)の前景シードと背景シードの設定例を基に、物体領域を抽出した場合の領域抽出例を示す説明図である。
図11(b)に示すように、物体撮影画像に対して、回転台の側面領域を明確な背景領域として抽出し、さらに背景差分により背景候補領域の抽出と、物体候補領域の抽出を行ってもよい。そして、図11(c)に示すように、前景候補領域の内側を前景シードとし、背景領域および背景候補領域の境界近くを背景シードとして指定してグラフカットを行うことで物体領域を抽出してもよい。
なお、すでに説明したように、領域抽出処理部122は、上記のようなアルゴリズムに加えて、画像間の物体の見え方の変化の連続性を考慮することでより高精度な物体領域の切り出しを行う。
図12〜図14は、画像間の差分の例を示す説明図である。図12は、物体が乗った回転台を少しずつ回転させて撮影したときのその回転の前後にわたり撮影された画像間の差分の例を示す説明図である。なお、図12(a)は、回転台の回転角度がαのときに撮影された物体撮影画像の例を示す説明図である。図12(b)は、回転台の回転角度がα+Δのときに撮影された物体撮影画像の例を示す説明図である。図12(c)は、図12(a)に示す物体撮影画像と図12(b)に示す物体撮影画像との間で差分をとった場合の差分画像の例である。ここで、差分画像は、フレーム間で画素値の差が大きいほどその画素の輝度が明るくなるような画像としている。図12(c)に示すように、十分小さい角度Δ(例えば、10度)で回転台を回転させた場合、そのフレーム間差分には、主に縦方向に物体の見え方の僅かな変化を示すエッジのような差分を抽出することができる。このエッジのような差分は、物体領域の差分であって、このエッジ領域と背景領域との境界は、物体の輪郭を表すエッジとして利用できる。
また、図13は、物体が乗った回転台に対し、カメラの仰角を少しずつ変えて撮影したときのその角度変化の前後にわたり撮影された画像間の差分の例を示す説明図である。なお、図13(a)は、カメラの仰角がαのときに撮影された物体撮影画像の例を示す説明図である。図13(b)は、カメラの仰角がα+Δのときに撮影された物体撮影画像の例を示す説明図である。図13(c)は、図13(a)に示す物体撮影画像と図13(b)に示す物体撮影画像との間で差分をとった場合の差分画像の例である。図13(b)に示すように、十分小さい角度Δ(例えば、10度)でカメラの仰角を変更した場合、主に横方向に物体の見え方の僅かな変化を示すエッジの様な差分を抽出することができる。このエッジのような差分は、物体領域の差分であって、このエッジ領域と背景領域との境界は、物体領域の輪郭を表すエッジとして利用できる。
また、図14は、ある強度の光が照射される方向を少しずつ変えて撮影したときの画像間の差分の例を示す説明図である。なお、図14(a)は、右側から強い光が照射されるような照明設定のときに撮影された物体撮影画像の例を示す説明図である。図14(b)は、左側から強い光が照射されるような照明設定のときに撮影された物体撮影画像の例を示す説明図である。図14(c)は、上側から強い光が照射されるような照明設定のときに撮影された物体撮影画像の例を示す説明図である。図14(d)は、図14(a)に示す物体撮影画像と図14(b)に示す物体撮影画像との間で差分をとった場合の差分画像の例である。図14(d)に示すように、ある方向の照明の強度を強くすると、物体が反射する光の強さが変化するので、照射された側における物体領域の輪郭と物体の内部領域とを抽出することができる。なお、この場合、物体領域のずれが小さくなるよう、回転台の角度とカメラ姿勢を固定した上で、照明制御を連続して調整するのが好ましい。
このように、回転台の回転角度やカメラの仰角、照明設定(本例では光の照射方向)が異なる画像間の差分を抽出することにより、物体領域の差分、物体領域の輪郭、物体の内部領域を抽出できるので、抽出された物体領域の差分、物体領域の輪郭、物体の内部領域の少なくとも1つ以上を利用して、例えば、グラフカットの前景シードを追加する処理を行ってもよい。
グラフカットの前景シートの追加方法は、例えば、抽出された物体領域の差分、物体領域の輪郭、物体の内部領域をそのままグラフカットの前景シードとして追加してもよい。
図15は、撮影条件が異なる画像間の差分を基に前景シードを追加した例を示す説明図である。なお、図15(a)は差分を利用しなかった場合の前景シード・背景シードの例を示す説明図であり、ここでは図11(c)と同じ例を示している。図15(b)は、撮影条件が異なる画像間の差分の例を示す説明図であり、ここでは図14(d)と同じ例を示している。図15(c)は、図15(a)に示す前景シード・背景シード例にさらに図15(b)の差分画像を利用して前景シードを追加した場合の例を示す説明図である。なお、図15(c)に示す例では、図15(b)の例に対して、さらに照明方向が異なる画像間の差分として抽出される物体領域の輪郭と内部領域とが前景シードとして加えられている。このようにして、より詳細な前景シード領域を与えることで、より高精度に物体領域の抽出を行うことができる。
なお、グラフカット以外のアルゴリズムを用いる場合も同様に、画像間の差分として抽出された物体領域の差分、物体領域の輪郭、物体の内部領域を、物体領域の内部領域やその境界を示す情報に基づいて、既に抽出した物体領域や背景領域やそれらの候補領域に対して補間等を行えばよい。例えば、画像間の差分により物体の内部領域として抽出された領域が、所定のアルゴリズムによる抽出処理の結果、物体領域として抽出されていなかった場合には、その領域を物体領域として抽出されるよう修正してもよい。また、例えば、所定のアルゴリズムによる抽出処理の結果、物体領域として抽出された領域が、画像間の差分により物体領域の差分として抽出された場合には、物体領域の差分とされた領域を、物体領域から除外する処理を行ってもよい。また、例えば、所定のアルゴリズムによる抽出処理の結果、物体領域として抽出された領域の境界が、画像間の差分により抽出された物体領域の輪郭と一致していなかった場合には、画像間の差分により抽出された物体領域の輪郭の方を物体領域の境界とするなどの補間処理を行ってもよい。
領域抽出処理部122は、このようにして最終的に抽出した物体領域を示す物体領域情報を、物体姿勢抽出処理部123に出力する。物体領域情報は、例えば、物体領域の物体撮影画像上の画素位置を示す情報であってもよい。また、物体領域をなす各画素の画素値の情報を含んでいてもよい。本実施形態では、物体領域情報として、物体領域の物体撮影画像上の画素位置を示す情報と、物体領域をなす各画素の画素値の情報とを含む物体領域画素情報を出力する。
物体姿勢抽出処理部123は、物体領域が抽出された物体撮影画像に付されている撮影環境情報の外部パラメタと、該画像上の物体領域の位置から、該物体領域がカメラ位置に対しどのようなアングルおよび距離で撮影されているかを算出する。例えば、物体が人物である場合、足元位置に対して、カメラ位置と、該足元位置の水平方向とカメラ位置の鉛直方向とが交わる地点とがなす角度や、頭位置に対して、カメラ位置と、該頭位置の水平方向とカメラ位置の鉛直方向とが交わる地点とがなす角度、また、カメラの高さなどを算出する。そして、算出したこれらの値を物体の姿勢を示す情報とし、物体領域情報の1つとして当該物体撮影画像のID情報と対応付けて物体領域情報記憶部124に記憶する。このとき、物体領域情報に、当該物体領域を撮影したときの撮影環境情報を含ませてもよい。撮影環境情報は、一部の情報のみを抜粋してもよい。例えば、照明設定のみを抜粋して記憶させてもよい。なお、最終的には、合成画像生成部13が当該物体領域の物体撮影画像上での位置と、当該物体領域に移っている物体の姿勢(見え方)とを特定できればよく、ここではそのための情報が出力されればよい。
物体領域情報記憶部124は、物体撮影画像に含まれる物体領域に関する情報を記憶する。本実施形態では、物体撮影画像に付されたID情報と対応付けて、物体の姿勢を示す情報と、物体領域画素情報と、撮影環境情報とを記憶する。
また、図16は、合成画像生成部13の構成例を示すブロック図である。図16に示すように、合成画像生成部13は、物体領域選択部131と、領域合成部132とを含んでいてもよい。
本例において、物体領域選択部131は、領域合成部132に接続されている。
物体領域選択部131は、内部パラメタおよび外部パラメタが既知の画像であって物体領域を張り付ける先の画像となる背景画像内の位置において、当該位置に特定の物体が存在すると仮定した場合のカメラの仰角を推定する。ここで、カメラの仰角の推定対象とする位置は、各画素であってもよいし、所定の間隔ごとの画素であってもよい。なお、ここで所定の間隔とは、画素間隔であってもよいし、実空間上の距離間隔であってもよい。実際に物体が置かれた時に近い姿勢で物体領域を張り付けるためには、画像全体に渡り、かつ多くの位置でカメラの仰角を推定することが好ましい。
また、背景画像上での特定物体の配置可能領域や進行方向、照明状態等が既知である場合、それらを背景画像と一緒に読み込む。
また、物体領域選択部131は、物体領域について与えられる情報と、背景画像の情報を基に、当該位置における物体の見え方として、カメラの仰角や回転台の角度、照明方向、照明の種類、明るさなどから1つ以上を組み合わせてなる判定パラメータが類似する物体領域情報を選んでもよい。そのような場合には、物体領域選択部131は、選んだ物体領域情報を識別するためのID情報と、張り付け先となる背景画像上の位置を示す情報とを対応づけた情報を、位置別物体領域選択情報として領域合成部132に出力する。なお、1つの位置に対して複数の物体領域情報が選ばれてもよい。例えば、複数の物体が撮影される場合などには、物体ごとに各々見え方の類似性の判定処理を行い、その処理で物体の見え方が類似していると判定された物体領域情報があれば、各々張り付ける対象として選んでもよい。
例えば、物体が人物である場合、物体領域選択部131は背景画像内のある画素において、世界座標系での当該画素が対応している位置(座標位置)および当該背景画像を撮影したときのカメラ位置とを基に、座標位置に対してカメラ位置が地平面との間でなす角度を求め、求めた角度と、物体領域情報に含まれるカメラの仰角とを比較し、同じ物体を写した物体領域の中で両者の角度が類似しているものを選んでもよい。角度を比較しているのは、実際にその座標位置に人物がいたと仮定した場合に、その人物の見え方に近い物体領域を抽出するためである。角度の類似度算出は角度の差分でもよいし、その他の手法でもよい。なお、カメラの仰角と他の要素とを組み合わせて判定パラメータとしてもよい。そのような場合には、各要素の類似度を総合して最も類似しているものを選ぶようにしてもよい。
領域合成部132は、物体領域選択部131から出力される位置別物体領域選択情報に基づいて、指定された物体領域画像を、背景画像上の指定された位置へ合成して、合成画像を生成する。また、領域合成部132は、生成された合成画像を学習画像とし、各学習画像に、当該画像における物体領域を示す情報と、前記物体領域の撮影環境を示す情報とを対応づけて、学習データとして出力する。
図17は、合成処理の例を示す説明図である。なお、図17(a)は、張り付け対象とされた物体領域画像の例を示す説明図である。また、図17(b)は、張り付け先とされた背景画像の例を示す説明図である。また、図17(c)は、合成画像の例を示す説明図である。例えば、図17(a)の物体領域画像に写っている物体を写したときのカメラ姿勢と、図17(b)の背景画像の×印の位置にその物体がいると仮定して当該物体を写す場合のカメラ姿勢とが類似するとして、図17(a)の物体領域画像が選ばれた場合、その×印部分に、選択された物体領域画像を合成する。
画像合成を行う際、上述したように物体の見え方を合わせるだけでなく、物体がとり得る画像上のサイズ(画像上でのピクセルの幅および高さ)も調整する。例えば、物体領域の実空間上での高さが不明である場合、物体領域の高さをその物体がとりえる適当な値に設定し、その高さの物体が背景画像にある場合の高さ方向のピクセル数を求めてもよい。そして、物体領域画像の高さが、求めたピクセル数の高さになるよう物体領域画像を幾何変換した上で、背景画像に張り付けてもよい。幾何変換の例としてはアフィン変換が挙げられる。
なお、物体領域情報として、物体の高さを示す情報が与えられる場合には、その高さ情報を基に、その高さの物体が背景画像にある場合の高さ方向のピクセル数を推定してもよい。物体の高さ情報は、例えば、撮影パターン情報の一部として物体を撮影する際に外部より与えてもよい。
本実施形態において、合成用物体撮影処理部11は、例えば、指定された撮影条件に合致するよう撮影環境を変更するための各種機器に対して制御信号を出力するためのインタフェースと、プログラムに従って動作するCPU等の情報処理装置と、記憶装置とによって実現される。また、物体領域抽出部12,合成画像生成部13は、プログラムに従って動作するCPU等の情報処理装置と、記憶装置とによって実現される。また、合成用背景画像蓄積部14は、記憶装置によって実現される。なお、学習データ生成システムは、1つの装置により実現されてもよいし、複数の装置を用いて実現されていてもよい。
次に、本実施形態の動作について説明する。図18は、本実施形態の学習データ生成システムの動作の一例を示すフローチャートである。図18に示す例では、まず、合成用物体撮影処理部11が、外部から受け付けた撮影パターン情報に従って備え付けられた機器を制御するなどして、撮影条件を連続的に変化させ、各々の撮影条件に対応する物体撮影画像を生成する(ステップS101)。
次いで、物体領域抽出部12が、生成された各物体撮影画像から、物体領域を抽出する(ステップS102)。このとき、物体領域抽出部12は、同一物体を撮影した画像群の中で物体領域の抽出元とする物体撮影画像に対して、撮影条件が連続的な変化となっている他の物体撮影画像との差分に関する情報に基づいて、物体領域の抽出を行う。
同一物体について撮影された全ての物体撮影画像から物体領域が抽出されると、合成画像生成部13が、合成用背景画像蓄積部14に記憶されている背景画像に、物体領域画像を選別しつつ合成する(ステップS103)。そして、得られた合成画像を、その画像内における物体領域に関する情報とともに出力する(ステップS104)。ここでは、物体領域に関する情報として、少なくとも物体領域の位置を示す情報と、物体の姿勢を示す情報とを出力する。
また、図19は、合成用物体撮影処理部11の動作の一例を示すフローチャートである。図19に示す例では、まず物体撮影管理手段101が、物体の撮影に用いるカメラの内部パラメタおよび外部パラメタの推定を行う(ステップS201)。各パラメタの推定は、一般的なカメラキャリブレーションの手法を用いて良い。ただし、外部パラメタは、あらかじめ撮影パターンとして与えられるカメラの角度・高さをカメラに設定した後に推定する。
次いで、物体撮影管理手段101は、外部から与えられた撮影パターン情報に基づき、撮影計画を作成する(ステップS202)。ここでは、撮影を行う順番に従って、各撮影時のカメラの角度と高さ、照明の設定、回転台の角度の組み合わせを作成する。
次に、物体撮影管理手段101は、撮影モードの判定処理を行い、撮影される画像の出力先を設定する(ステップS203)。ここでは、撮影モードが物体撮影モードであれば、撮影される画像は物体撮影画像であるとして、出力先を撮影画像蓄積手段107に設定する。一方、撮影モードが背景撮影モードであれば、撮影される画像は背景撮影画像であるとして、出力先を撮影環境情報蓄積手段106に設定する。
次に、物体撮影管理手段101は、撮影パターンを網羅したか否かを判定し(ステップS204)、網羅していない場合には、ステップS202で作成した撮影時のカメラの角度と高さ、照明の設定、回転台の角度の組み合わせの1つを撮影環境として設定するための各機器への操作情報を生成し、操作内容に応じてカメラ配置変動、照明変動、回転台変動をそれぞれ管理している変動部102〜104に出力する(ステップS205)。
次に、各変動部102〜104は、物体撮影管理手段101からの操作情報を基に、照明設定処理(ステップS206)や、カメラ配置設定処理(ステップS207)や、回転台角度設定処理(ステップS208)を行う。例えば、照明設定処理では、照明変動部103が、備え付けられた照明の方向とON/OFFを指示された内容に設定するために、照明制御機器502に制御信号を出力する。また、例えばカメラ配置設定処理では、カメラ配置変動部102が、備え付けられたカメラの高さや方向を指示された内容に設定するために、カメラ配置制御機器502に制御信号を出力する。また、例えば回転台角度設定処理では、回転台角度変動部104が、備え付けられた回転台の角度を指示された内容に設定するために、回転台501に付随するコントロール用の機器に制御信号を出力する。
次に、設定された撮影環境で撮影処理を行い(ステップS209)、撮影された画像と撮影環境情報とを紐付けて蓄積手段106,107に記憶させる。撮影処理では、物体撮影管理手段101が撮影手段105に撮影の指示を出力し、それを受けた撮影手段105がカメラに制御信号を出力することで、そのカメラから撮影画像を得る。
1つの撮影条件につき撮影処理が完了すると、ステップS204に戻り、撮影パターンが網羅されたか否かを判定し、撮影パターンが網羅された場合には(ステップS204のYes)、一連の処理を終了する。撮影パターンが網羅されていない場合は(ステップS204のNo)、次の撮影時のカメラの角度と高さ、照明の設定、回転台の角度の組み合わせを基に、撮影環境の設定から撮影まで行い、全ての組み合わせが終わるまで撮影を行う。
また、図20は、物体領域抽出部12の動作の一例を示すフローチャートである。図20に示す例では、まず領域抽出パラメタ設定部121が、領域抽出に必要なパラメタを算出し、領域抽出パラメタとして設定する(ステップS301)。
次に、領域抽出処理部122は、領域抽出パラメタ設定部121から得られる領域抽出パラメタを基に、第1の物体領域抽出処理を行う(ステップS302)。ここでは、領域抽出パラメタと、物体撮影画像と、その撮影環境情報とに基づいて、当該物体領域画像から物体領域や背景領域またはそれらの候補領域を抽出する。
次に、領域抽出処理部122は、抽出元の画像を含む、撮影条件の異なる画像間で差分を抽出する(ステップS303)。ここでは、抽出元となる画像に対して、該画像の撮影条件から連続的に変化された撮影条件下で撮影された画像を用い、両画像間の差分を抽出する。
次に、撮影抽出処理部122は、抽出した画像間の差分を示す情報を基に、ステップS302で抽出された物体領域や背景領域またはそれらの候補領域を補間し、最終的な物体領域を決定する(ステップS304)。
次に、物体姿勢抽出処理部123は、物体の姿勢を算出し、算出した物体の姿勢を示す情報を物体領域情報に含めて記憶する(ステップS305)。
また、図21は、合成画像生成部13の動作の一例を示すフローチャートである。図21に示す例では、まず、物体領域選択部131が、合成用の背景画像上で、物体領域を張り付ける先の位置を決定する(ステップS401)。例えば、各画素であってもよいし、一定の間隔毎の位置であってもよい。
次に、物体領域選択部131は、当該位置に物体がいるとしたときの当該物体が背景画像に写る場合のカメラの仰角を推定する(ステップS402)。
次に、物体領域選択部131は、推定したカメラの仰角を基に、背景画像における当該位置での物体の見え方と相関の高い物体領域画像を選択する(ステップS403)。ここでは、例えば、いずれもカメラの仰角が推定されたカメラの仰角と類似する物体領域画像が選択されればよい。なお、同一の物体であっても様々な回転台の角度で撮影された画像があれば複数選択される。また、複数の物体が登録されている場合は、各物体についてカメラの仰角が類似する物体領域画像が選択される。
次に、領域合成部132は、選択された物体領域画像を、背景画像上の指定された位置へ合成し、得られた画像を学習画像として、物体領域情報とともに出力する(ステップS404)。
以上のように、本実施形態によれば、様々な角度でまた様々な照明設定で実際の物体を、そのときの撮影条件と対応づけながら撮影するとともに、そのようにして得られた物体撮影画像から、人手を介さずにかつ高精度に物体領域を抽出した上で、さらに物体の見え方の相関が高い物体領域画像を選んで背景画像と合成するので、物体検出器や物体識別器の精度向上に寄与する学習データを低コストで大量に生成することができる。
また、図22は、合成用物体撮影処理部11の他の構成例を示すブロック図である。図22に示すように、合成用物体撮影処理部11は、さらに物体属性蓄積部110を含んでいてもよい。
物体属性蓄積部110には、撮影される物体の属性情報、物体の色、テクスチャ、物体名、その他の物体の特徴などがあらかじめ物体属性情報として保存されている。物体属性情報の例として、物体が人間である場合、人間の身長、髪の色、服装種類、服装の色、所持品、メガネ、マスクの有無などの情報が含まれる。この物体属性情報は、作成する合成画像の種類を絞り込む際に用いられる。
そのような場合には、物体撮影管理部109は、撮影時に、ID情報と、物体属性情報を指定するためのキーからなる物体指定情報とを物体属性蓄積部110に送ってもよい。物体属性蓄積部110は、物体指定情報により特定される物体属性情報を、撮影環境情報の1つとして撮影環境情報記憶部106にID情報と対応づけて記憶させる。または、同一の物体を撮影する物体撮影画像間に共通する情報であるので、まとめて物体領域情報として物体領域情報記憶部124に出力してもよい。物体領域情報記憶部124では、物体属性情報を含む物体領域情報を蓄積する。
また、領域合成部132は、選択された物体領域画像の物体領域情報に物体属性情報が含まれており、さらにその中に物体の高さ情報がある場合には、その高さ情報を基に×印での物体領域の高さ方向のピクセル数を推定し、物体領域画像の高さをそのピクセル数に幾何変換してもよい。
なお、図22では、物体属性情報があらかじめ蓄積されているものとして図示したが、物体撮影管理部109に撮影パターン情報の一部として直接入力される形態をとってもよい。
物体属性情報が付加されれば、学習データがより質の高いものとなるだけでなく、背景画像に実際に写される実物体の見え方により近い合成画像を生成することができるので、これによっても学習データの質の向上が見込める。
以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
また、上記の実施形態の一部または全部は、以下の付記のようにも記載されうるが、以下には限られない。
(付記1)被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける撮影処理手段と、前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する物体領域抽出手段とを備え、前記物体領域抽出手段は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、前記第1の物体撮影画像から物体領域を抽出することを特徴とする学習データ生成システム。
(付記2)前記物体領域抽出手段は、前記第1の物体撮影画像の撮影条件に対して連続的な変化となっている撮影条件で撮影された第2の物体撮影画像を利用して、前記第1の物体撮影画像から物体領域を抽出する付記1に記載の学習データ生成システム。
(付記3)前記物体領域抽出手段は、前記第1の物体撮影画像と前記第2の物体撮影画像間の差分に関する情報に基づいて、前記第1の物体撮影画像から物体領域を抽出する付記1または付記2に記載の学習データ生成システム。
(付記4)前記物体領域抽出手段は、前記第1の物体撮影画像と前記第2の物体撮影画像間の差分に関する情報に基づき、第1のアルゴリズムを用いて前記第1の物体撮影画像から抽出された物体領域、背景領域またはそれらの候補領域を補間する付記1から付記3のうちのいずれかに記載の学習データ生成システム。
(付記5)前記撮影処理手段は、回転台による物体の向き変動、照明変動またはカメラの高さ変動のいずれか1つ以上を組み合わせて、撮影条件を変更する付記1から付記4のうちのいずれかに記載の学習データ生成システム。
(付記6)指定された背景画像に、物体撮影画像から前記物体領域抽出手段によって抽出された物体領域を切り出した画像である物体領域画像を合成する画像合成手段を備え、
前記画像合成手段は、背景画像への物体領域の張り付け先とされた位置に対して、前記背景画像での当該位置にいる前記物体の見え方と相関の高い物体領域画像を選別した上で、前記位置に物体領域画像を合成する付記1から付記5のうちのいずれかに記載の学習データ生成システム。
(付記7)前記画像合成手段は、物体の見え方の相関の高さを求めるパラメータとして、カメラの仰角を用いる付記6に記載の学習データ生成システム。
(付記8)被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける撮影処理手段と、前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する物体領域抽出手段とを備え、前記物体領域抽出手段は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を利用して、前記第1の物体撮影画像から物体領域を抽出することを特徴とする学習データ装置。
(付記9)被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された物体撮影画像と、撮影時の撮影条件を示す情報を含む撮影環境情報とを対応づけ、前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する際に、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、前記第1の物体撮影画像から物体領域を抽出することを特徴とする学習データ生成方法。
(付記10)コンピュータに、被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける処理と、前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する処理とを実行させ、前記物体領域を抽出する処理で、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、前記第1の物体撮影画像から物体領域を抽出させるための学習データ生成用プログラム。
本発明は、画像を用いて物体に関する学習を行うものがあれば、その学習に用いる学習用データを生成する用途に好適に適用可能である。
1 撮影処理手段
2 物体領域抽出手段
3 画像合成手段
4 背景画像記憶手段
11 合成用物体撮影処理部
12 物体領域抽出部
13 合成画像生成部
14 合成用背景画像蓄積部
101 物体撮影管理部
102 カメラ配置変動部
103 照明変動部
104 回転台変動部
105 撮影処理部
106 撮影環境情報記憶部
107 物体撮影画像記憶部
108 カメラパラメタ情報記憶部
110 物体属性記憶部
121 領域抽出パラメタ設定部
122 領域抽出処理部
123 物体姿勢抽出処理部
124 物体領域情報記憶部
131 物体領域選択部
132 領域合成部
501 回転台
502 カメラ配置/照明制御機器
503 対象物体
504 照明
505 撮影装置(カメラ)

Claims (10)

  1. 被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける撮影処理手段と、
    前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する物体領域抽出手段とを備え、
    前記物体領域抽出手段は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、前記第1の物体撮影画像から物体領域を抽出する
    ことを特徴とする学習データ生成システム。
  2. 前記物体領域抽出手段は、前記第1の物体撮影画像の撮影条件に対して連続的な変化となっている撮影条件で撮影された第2の物体撮影画像を利用して、前記第1の物体撮影画像から物体領域を抽出する
    請求項1に記載の学習データ生成システム。
  3. 前記物体領域抽出手段は、前記第1の物体撮影画像と前記第2の物体撮影画像間の差分に関する情報に基づいて、前記第1の物体撮影画像から物体領域を抽出する
    請求項1または請求項2に記載の学習データ生成システム。
  4. 前記物体領域抽出手段は、前記第1の物体撮影画像と前記第2の物体撮影画像間の差分に関する情報に基づき、第1のアルゴリズムを用いて前記第1の物体撮影画像から抽出された物体領域、背景領域またはそれらの候補領域を補間する
    請求項1から請求項3のうちのいずれか1項に記載の学習データ生成システム。
  5. 前記撮影処理手段は、回転台による物体の向き変動、照明変動またはカメラの高さ変動のいずれか1つ以上を組み合わせて、撮影条件を変更する
    請求項1から請求項4のうちのいずれか1項に記載の学習データ生成システム。
  6. 指定された背景画像に、物体撮影画像から前記物体領域抽出手段によって抽出された物体領域を切り出した画像である物体領域画像を合成する画像合成手段を備え、
    前記画像合成手段は、背景画像への物体領域の張り付け先とされた位置に対して、前記背景画像での当該位置にいる前記物体の見え方と相関の高い物体領域画像を選別した上で、前記位置に物体領域画像を合成する
    請求項1から請求項5のうちのいずれか1項に記載の学習データ生成システム。
  7. 前記画像合成手段は、物体の見え方の相関の高さを求めるパラメータとして、カメラの仰角を用いる
    請求項6に記載の学習データ生成システム。
  8. 被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける撮影処理手段と、
    前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する物体領域抽出手段とを備え、
    前記物体領域抽出手段は、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を利用して、前記第1の物体撮影画像から物体領域を抽出する
    ことを特徴とする学習データ装置。
  9. 被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された物体撮影画像と、撮影時の撮影条件を示す情報を含む撮影環境情報とを対応づけ、
    前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する際に、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、前記第1の物体撮影画像から物体領域を抽出する
    ことを特徴とする学習データ生成方法。
  10. コンピュータに、
    被写体とされる物体に対するカメラの位置に関する情報を少なくとも含む撮影条件を変更しながら、各々の撮影条件下で撮影装置に撮影を指示する信号を出力し、前記信号に応じて生成された各物体撮影画像に、撮影時の撮影条件を示す情報を含む撮影環境情報を対応づける処理と、
    前記各物体撮影画像から、前記物体が写っている領域である物体領域を抽出する処理とを実行させ、
    前記物体領域を抽出する処理で、物体領域の抽出元とされた第1の物体撮影画像とは撮影条件が異なる第2の物体撮影画像を用いて、前記第1の物体撮影画像から物体領域を抽出させる
    ための学習データ生成用プログラム。
JP2013053340A 2013-03-15 2013-03-15 学習データ生成装置、学習データ作成システム、方法およびプログラム Pending JP2014178957A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013053340A JP2014178957A (ja) 2013-03-15 2013-03-15 学習データ生成装置、学習データ作成システム、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013053340A JP2014178957A (ja) 2013-03-15 2013-03-15 学習データ生成装置、学習データ作成システム、方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2014178957A true JP2014178957A (ja) 2014-09-25

Family

ID=51698821

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013053340A Pending JP2014178957A (ja) 2013-03-15 2013-03-15 学習データ生成装置、学習データ作成システム、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2014178957A (ja)

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181068A (ja) * 2015-03-24 2016-10-13 株式会社明電舎 学習サンプル撮影装置
JP2017045441A (ja) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像生成方法及び画像生成システム
WO2017154630A1 (ja) * 2016-03-09 2017-09-14 日本電気株式会社 画像処理装置、画像処理方法および記録媒体
JP2018045608A (ja) * 2016-09-16 2018-03-22 キヤノン株式会社 情報処理装置、物体認識装置、情報処理装置の制御方法及びプログラム
US9965881B2 (en) 2015-08-28 2018-05-08 Panasonic Intellectual Property Corporation Of America Method for generating image and image generation system
JP2019083001A (ja) * 2017-10-30 2019-05-30 パロ アルト リサーチ センター インコーポレイテッド 機械学習用の訓練データの効率的な収集のための拡張現実を使用したシステム及び方法
KR20190060673A (ko) * 2017-11-24 2019-06-03 건국대학교 산학협력단 데이터 처리 방법, 장치, 처리된 데이터를 이용한 객체 검출 방법
WO2019117068A1 (ja) * 2017-12-15 2019-06-20 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
JP2019114116A (ja) * 2017-12-25 2019-07-11 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
WO2019167277A1 (ja) * 2018-03-02 2019-09-06 日本電気株式会社 画像収集装置、画像収集システム、画像収集方法、画像生成装置、画像生成システム、画像生成方法、およびプログラム
JP2019159630A (ja) * 2018-03-12 2019-09-19 株式会社 日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム
WO2019198200A1 (ja) * 2018-04-12 2019-10-17 日本電気株式会社 学習用画像生成装置、学習用画像生成方法及びプログラム
JP2019197401A (ja) * 2018-05-10 2019-11-14 アズビル株式会社 教師データ作成装置および方法
WO2019235192A1 (ja) * 2018-06-06 2019-12-12 日本電信電話株式会社 領域抽出モデル学習装置、領域抽出モデル学習方法、プログラム
WO2020008710A1 (ja) 2018-07-02 2020-01-09 パナソニックIpマネジメント株式会社 学習データ収集装置、学習データ収集システム、及び学習データ収集方法
WO2020008711A1 (ja) 2018-07-02 2020-01-09 パナソニックIpマネジメント株式会社 学習装置、学習システム、及び学習方法
WO2020017546A1 (ja) * 2018-07-17 2020-01-23 合同会社Synapse Gear 撮像装置と撮像方法
WO2020071233A1 (ja) * 2018-10-04 2020-04-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020060927A (ja) * 2018-10-10 2020-04-16 三菱電機株式会社 画像処理装置
JP2020071757A (ja) * 2018-11-01 2020-05-07 株式会社Nttドコモ 学習データ生成装置および学習データ生成方法
WO2020152763A1 (ja) * 2019-01-22 2020-07-30 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
US10740653B2 (en) 2017-04-07 2020-08-11 Nec Corporation Learning data generation device, learning data generation method, and recording medium
JP2020190950A (ja) * 2019-05-22 2020-11-26 東芝テック株式会社 情報処理装置、物品識別装置、及び物品識別システム
US10997465B2 (en) 2017-01-20 2021-05-04 Canon Kabushiki Kaisha Information processing device, information processing method, and storage medium
JP2021196755A (ja) * 2020-06-11 2021-12-27 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
KR20220087886A (ko) * 2020-12-18 2022-06-27 네이버랩스 주식회사 학습 데이터 수집 장치 및 방법, 이를 이용한 포즈 추정 모델의 학습 방법
KR20220124322A (ko) * 2021-03-02 2022-09-14 한국자동차연구원 학습 데이터 생성 장치
US11627385B2 (en) 2018-02-05 2023-04-11 Eizo Corporation Image capturing apparatus
JP7262689B1 (ja) * 2022-07-06 2023-04-21 三菱電機株式会社 情報処理装置、生成方法、及び生成プログラム
JP7284331B1 (ja) 2022-09-02 2023-05-30 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理システムの制御方法及びプログラム

Cited By (64)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016181068A (ja) * 2015-03-24 2016-10-13 株式会社明電舎 学習サンプル撮影装置
JP2017045441A (ja) * 2015-08-28 2017-03-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 画像生成方法及び画像生成システム
US9965881B2 (en) 2015-08-28 2018-05-08 Panasonic Intellectual Property Corporation Of America Method for generating image and image generation system
JP7180710B2 (ja) 2016-03-09 2022-11-30 日本電気株式会社 画像処理装置、画像処理方法およびプログラム
WO2017154630A1 (ja) * 2016-03-09 2017-09-14 日本電気株式会社 画像処理装置、画像処理方法および記録媒体
JPWO2017154630A1 (ja) * 2016-03-09 2019-01-10 日本電気株式会社 画像処理装置、画像処理方法および記録媒体
US10984538B2 (en) 2016-03-09 2021-04-20 Nec Corporation Image-processing device, image-processing method, and recording medium
JP2021106044A (ja) * 2016-03-09 2021-07-26 日本電気株式会社 画像処理装置、画像処理方法およびプログラム
JP2018045608A (ja) * 2016-09-16 2018-03-22 キヤノン株式会社 情報処理装置、物体認識装置、情報処理装置の制御方法及びプログラム
US10997465B2 (en) 2017-01-20 2021-05-04 Canon Kabushiki Kaisha Information processing device, information processing method, and storage medium
US11386297B2 (en) 2017-04-07 2022-07-12 Nec Corporation Learning data generation device, learning data generation method, and recording medium
US10740653B2 (en) 2017-04-07 2020-08-11 Nec Corporation Learning data generation device, learning data generation method, and recording medium
JP7128708B2 (ja) 2017-10-30 2022-08-31 パロ アルト リサーチ センター インコーポレイテッド 機械学習用の訓練データの効率的な収集のための拡張現実を使用したシステム及び方法
JP2019083001A (ja) * 2017-10-30 2019-05-30 パロ アルト リサーチ センター インコーポレイテッド 機械学習用の訓練データの効率的な収集のための拡張現実を使用したシステム及び方法
KR102134640B1 (ko) * 2017-11-24 2020-07-16 주식회사 드로너 데이터 처리 방법, 장치, 처리된 데이터를 이용한 객체 검출 방법
KR20190060673A (ko) * 2017-11-24 2019-06-03 건국대학교 산학협력단 데이터 처리 방법, 장치, 처리된 데이터를 이용한 객체 검출 방법
JP2019109577A (ja) * 2017-12-15 2019-07-04 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
WO2019117068A1 (ja) * 2017-12-15 2019-06-20 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
JP2019114116A (ja) * 2017-12-25 2019-07-11 オムロン株式会社 データ生成装置、データ生成方法及びデータ生成プログラム
US11627385B2 (en) 2018-02-05 2023-04-11 Eizo Corporation Image capturing apparatus
US11461585B2 (en) 2018-03-02 2022-10-04 Nec Corporation Image collection apparatus, image collection system, image collection method, image generation apparatus, image generation system, image generation method, and program
WO2019167277A1 (ja) * 2018-03-02 2019-09-06 日本電気株式会社 画像収集装置、画像収集システム、画像収集方法、画像生成装置、画像生成システム、画像生成方法、およびプログラム
JP7501907B2 (ja) 2018-03-02 2024-06-18 日本電気株式会社 画像収集装置、画像収集システム、画像収集方法、およびプログラム
JPWO2019167277A1 (ja) * 2018-03-02 2021-02-12 日本電気株式会社 画像収集装置、画像収集システム、画像収集方法、画像生成装置、画像生成システム、画像生成方法、およびプログラム
CN111742342A (zh) * 2018-03-12 2020-10-02 日立产业控制解决方案有限公司 图像生成方法、图像生成装置以及图像生成系统
JP2019159630A (ja) * 2018-03-12 2019-09-19 株式会社 日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム
WO2019176235A1 (ja) * 2018-03-12 2019-09-19 株式会社日立産業制御ソリューションズ 画像生成方法、画像生成装置及び画像生成システム
WO2019198200A1 (ja) * 2018-04-12 2019-10-17 日本電気株式会社 学習用画像生成装置、学習用画像生成方法及びプログラム
US11429814B2 (en) * 2018-04-12 2022-08-30 Nec Corporation Learning image generation apparatus, learning image generation method, and non-transitory storage medium
JPWO2019198200A1 (ja) * 2018-04-12 2021-04-08 日本電気株式会社 学習用画像生成装置、学習用画像生成方法及びプログラム
JP2019197401A (ja) * 2018-05-10 2019-11-14 アズビル株式会社 教師データ作成装置および方法
JP7051571B2 (ja) 2018-05-10 2022-04-11 アズビル株式会社 教師データ作成装置および方法
WO2019235192A1 (ja) * 2018-06-06 2019-12-12 日本電信電話株式会社 領域抽出モデル学習装置、領域抽出モデル学習方法、プログラム
US11816839B2 (en) 2018-06-06 2023-11-14 Nippon Telegraph And Telephone Corporation Region extraction model learning apparatus, region extraction model learning method, and program
JP2019212106A (ja) * 2018-06-06 2019-12-12 日本電信電話株式会社 領域抽出モデル学習装置、領域抽出モデル学習方法、プログラム
US11579904B2 (en) 2018-07-02 2023-02-14 Panasonic Intellectual Property Management Co., Ltd. Learning data collection device, learning data collection system, and learning data collection method
US11436439B2 (en) 2018-07-02 2022-09-06 Panasonic Intellectual Property Management Co., Ltd. System and method for generating label candidates related to recognition target for selection and learning
WO2020008710A1 (ja) 2018-07-02 2020-01-09 パナソニックIpマネジメント株式会社 学習データ収集装置、学習データ収集システム、及び学習データ収集方法
WO2020008711A1 (ja) 2018-07-02 2020-01-09 パナソニックIpマネジメント株式会社 学習装置、学習システム、及び学習方法
JP7403834B2 (ja) 2018-07-17 2023-12-25 株式会社Synapse Gear 撮像装置と撮像方法
JPWO2020017546A1 (ja) * 2018-07-17 2021-08-12 合同会社Synapse Gear 撮像装置と撮像方法
WO2020017546A1 (ja) * 2018-07-17 2020-01-23 合同会社Synapse Gear 撮像装置と撮像方法
WO2020071233A1 (ja) * 2018-10-04 2020-04-09 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP2020060927A (ja) * 2018-10-10 2020-04-16 三菱電機株式会社 画像処理装置
JP2020071757A (ja) * 2018-11-01 2020-05-07 株式会社Nttドコモ 学習データ生成装置および学習データ生成方法
JP7122943B2 (ja) 2018-11-01 2022-08-22 株式会社Nttドコモ 学習データ生成装置および学習データ生成方法
TWI768231B (zh) * 2019-01-22 2022-06-21 日商三菱電機股份有限公司 資訊處理裝置、記錄媒體、程式產品以及資訊處理方法
WO2020152763A1 (ja) * 2019-01-22 2020-07-30 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
US11967081B2 (en) 2019-01-22 2024-04-23 Mitsubishi Electric Corporation Information processing apparatus, non-transitory computer-readable storage medium, and information processing method
KR102355578B1 (ko) 2019-01-22 2022-01-25 미쓰비시덴키 가부시키가이샤 정보 처리 장치, 프로그램을 기록한 기록 매체 및 정보 처리 방법
KR20210092842A (ko) * 2019-01-22 2021-07-26 미쓰비시덴키 가부시키가이샤 정보 처리 장치, 프로그램을 기록한 기록 매체 및 정보 처리 방법
JPWO2020152763A1 (ja) * 2019-01-22 2021-03-18 三菱電機株式会社 情報処理装置、プログラム及び情報処理方法
JP7340353B2 (ja) 2019-05-22 2023-09-07 東芝テック株式会社 情報処理装置、物品識別装置、及び物品識別システム
JP2020190950A (ja) * 2019-05-22 2020-11-26 東芝テック株式会社 情報処理装置、物品識別装置、及び物品識別システム
JP7481171B2 (ja) 2020-06-11 2024-05-10 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
JP2021196755A (ja) * 2020-06-11 2021-12-27 日本電信電話株式会社 画像処理装置、画像処理方法及び画像処理プログラム
KR20220087886A (ko) * 2020-12-18 2022-06-27 네이버랩스 주식회사 학습 데이터 수집 장치 및 방법, 이를 이용한 포즈 추정 모델의 학습 방법
KR102484771B1 (ko) * 2020-12-18 2023-01-05 네이버랩스 주식회사 학습 데이터 수집 장치 및 방법, 이를 이용한 포즈 추정 모델의 학습 방법
KR102505670B1 (ko) 2021-03-02 2023-03-06 한국자동차연구원 학습 데이터 생성 장치
KR20220124322A (ko) * 2021-03-02 2022-09-14 한국자동차연구원 학습 데이터 생성 장치
WO2024009427A1 (ja) * 2022-07-06 2024-01-11 三菱電機株式会社 情報処理装置、生成方法、及び生成プログラム
JP7262689B1 (ja) * 2022-07-06 2023-04-21 三菱電機株式会社 情報処理装置、生成方法、及び生成プログラム
JP2024035263A (ja) * 2022-09-02 2024-03-14 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理システムの制御方法及びプログラム
JP7284331B1 (ja) 2022-09-02 2023-05-30 キヤノンマーケティングジャパン株式会社 情報処理システム、情報処理システムの制御方法及びプログラム

Similar Documents

Publication Publication Date Title
JP2014178957A (ja) 学習データ生成装置、学習データ作成システム、方法およびプログラム
CN106548455B (zh) 用于调整图像的亮度的设备和方法
EP3242275B1 (en) Using photo collections for three dimensional modeling
JP6428266B2 (ja) 色補正装置、色補正方法および色補正用プログラム
CN101542538B (zh) 用来对光进行建模的方法与系统
JP4642757B2 (ja) 画像処理装置および画像処理方法
CN103578116B (zh) 用于跟踪对象的设备和方法
JP7205613B2 (ja) 画像処理装置、画像処理方法及びプログラム
US20030202120A1 (en) Virtual lighting system
CN107852533A (zh) 三维内容生成装置及其三维内容生成方法
JP2017005389A (ja) 画像認識装置、画像認識方法及びプログラム
KR100834157B1 (ko) 영상 합성을 위한 조명환경 재구성 방법 및 프로그램이기록된 기록매체
KR101983586B1 (ko) 스테레오 이미지들에 관한 깊이 맵 스티칭 방법
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
KR101853269B1 (ko) 스테레오 이미지들에 관한 깊이 맵 스티칭 장치
US9204130B2 (en) Method and system for creating a three dimensional representation of an object
US20230062973A1 (en) Image processing apparatus, image processing method, and storage medium
EP3035242B1 (en) Method and electronic device for object tracking in a light-field capture
US20130287293A1 (en) Active Lighting For Stereo Reconstruction Of Edges
JP6272071B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP5503510B2 (ja) 姿勢推定装置および姿勢推定プログラム
JP7144678B2 (ja) 画像処理装置、画像処理方法、および画像処理プログラム
JP2021044710A (ja) 画像処理装置、画像処理方法、およびプログラム
WO2020153264A1 (ja) 校正方法および校正装置
JP2009123150A (ja) 対象物検出装置及び方法、対象物検出システム、プログラム