JP2018132962A - 画像出力装置及び画像出力方法 - Google Patents

画像出力装置及び画像出力方法 Download PDF

Info

Publication number
JP2018132962A
JP2018132962A JP2017026397A JP2017026397A JP2018132962A JP 2018132962 A JP2018132962 A JP 2018132962A JP 2017026397 A JP2017026397 A JP 2017026397A JP 2017026397 A JP2017026397 A JP 2017026397A JP 2018132962 A JP2018132962 A JP 2018132962A
Authority
JP
Japan
Prior art keywords
image
learning
images
data
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017026397A
Other languages
English (en)
Other versions
JP6874410B2 (ja
Inventor
安藤 丹一
Tanichi Ando
丹一 安藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2017026397A priority Critical patent/JP6874410B2/ja
Publication of JP2018132962A publication Critical patent/JP2018132962A/ja
Application granted granted Critical
Publication of JP6874410B2 publication Critical patent/JP6874410B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】対象物を複数の方向から撮影して得られる画像を用いて、対象物について学習や評価をする技術を提供する。【解決手段】画像出力装置は、対象物を第1の方向から撮影した第1の画像と、対象物を第2の方向から撮影した第2の画像とを少なくとも取得する取得部と、機械学習可能な又は学習結果として得られた学習モジュールへの入力として、第1の画像と第2の画像とを少なくとも出力する出力部であって、第1の画像を学習モジュールの備える入力手段のうち第1の部分から入力させ、第2の画像を入力手段のうち第2の部分から入力させる出力部と、を備える。【選択図】図1

Description

本発明は、画像出力装置及び画像出力方法に関する。また、合成画像を利用する装置、システム及び方法等に関する。
従来から、ニューラルネットワークなどの人工知能技術に関する研究が行われている。例えば、特許文献1には、被検査物を異なる光学条件で撮像し複数の検査画像を取得し、フーリエ変換によって検査周波数画像を2つ作成して、ニューラルネットワークで処理することによって被検査物の良否を判定することが記載されている。
特開2004−191112号公報
製品や農産物などの立体物を立体形状の外観で評価するとき、対象の種類と評価項目によって、機械で評価するプログラムを作成することが困難な場合がある。立体形状を評価する例として、例えば、野球ボールの縫い目を所定の条件でチェックする作業を考える。このとき、1台のカメラで撮影した画像1枚のみでは縫い目全体が良品に適合するか判定することはできない。また、直交した異なる6方向から撮影した画像を得ることができても、6枚の画像を解析して、そのボールの縫い目全体の立体形状を再構築して良品か否かを判断することは簡単ではない。
機械学習により、野球ボール等の対象物の立体形状を検査する能力を獲得できれば、それぞれの面の画像処理を行うプログラムを開発する手間が省ける可能性がある。また、このような技術は製品の外観検査以外にも、対象物の立体形状を評価する多くの場面で活用できる。
そこで、本発明は、対象物を複数の方向から撮影して得られる画像を用いて、対象物について所定の学習及び評価を行う技術を提供することを目的とする。
本発明の一側面に係る画像出力装置は、対象物を第1の方向から撮影した第1の画像と、対象物を第2の方向から撮影した第2の画像とを少なくとも取得する取得部と、機械学習可能な又は学習結果として得られた学習モジュールへの入力として、第1の画像と第2の画像とを少なくとも出力する出力部であって、第1の画像を学習モジュールの備える入力手段のうち第1の部分から入力させ、第2の画像を入力手段のうち第2の部分から入力させる、出力部とを備える。この態様によれば、対象物を複数の方向から撮影して得られる複数の画像を所定の関係性を保持して学習モジュールに入力させることによって、対象物について所定の学習や評価を行うことができる。複数の画像を学習モジュールでまとめて処理できるため、学習や評価を高速に実行することができる。
出力部は、第1の画像と第2の画像とを所定の位置関係で一の画像内に含む合成画像を出力してもよい。この態様によれば、関連する複数の画像を一つの画像にまとめて処理するため、学習や評価に用いられるデータの信頼性を高め、処理速度の向上を図ることができる。
合成画像は少なくとも第1の部分に入力される第1の領域と第2の部分に入力される第2の領域を備え、出力部は、前記第1の領域に前記第1の画像を配置し、前記第2の領域に前記第2の画像を配置した画像を、前記合成画像として出力してもよい。この態様によると、所定の方向から撮影された画像は、合成画像内において、常に所定の領域に配置されるため、対象物についての学習や評価を行うことができる。画像を撮影した方向に応じて所定の位置に配置すればよいので、処理能力の低い装置であっても、合成画像を高速に作成することができる。
第1の方向と第2の方向の位置関係が保存されるように、第1の領域と第2の領域の位置が決定されるものとしてもよい。この態様によると、複数の画像の位置関係が合成画像に保存されるため、対象物についての学習に必要なデータ量を削減することができ、また、評価の精度を高めることができる。
第1の画像と第2の画像は、異なるカメラで略同時に取得されたものであってもよく、一のカメラで異なる時間に取得されたものであってもよい。この態様によると、対象物を複数の方向から撮影するためのカメラは一つでも複数でもよく、柔軟な装置構成を採用することができる。
本発明の一態様に係る機械学習装置は、機械学習可能な学習モジュールを備え、画像出力装置から出力された画像に基づいて生成された学習データによって学習モジュールの学習を行う。また、本発明の一態様に係る画像評価装置は、学習結果として得られた学習モジュールを備え、画像出力装置から出力された画像に基づいて生成された評価データを学習モジュールに入力して、対象物の評価を行う。これらの態様によれば、対象物を複数の方向から撮影して得られる画像を用いて、対象物について所定の学習や評価を行うことができる。複数の画像を学習モジュールでまとめて処理できるため、学習を高速に実行することができ、また、評価の精度を高めることができる。
本発明の一態様に係る画像出力方法は、対象物を第1の方向から撮影した第1の画像と、対象物を第2の方向から撮影した第2の画像とを少なくとも取得する工程と、機械学習可能な又は学習結果として得られた学習モジュールへの入力として、第1の画像と前記第2の画像とを少なくとも出力する工程であって、第1の画像を学習モジュールの備える入力手段のうち第1の部分から入力させ、第2の画像を入力手段のうち第2の部分から入力させる工程とを備える。
本発明の一態様に係る合成画像データのデータ構造は、機械学習可能な学習モジュール又は学習結果として得られた学習モジュールに入力される合成画像データのデータ構造であって、合成画像データは、少なくとも、対象物を第1の方向から撮影した画像であって、合成画像内の第1の領域に配置される第1の画像データと、対象物を第2の方向から撮影した画像であって、合成画像内において第1の領域と所定の位置関係を有する第2の領域に配置される第2の画像データと、を含む。
本発明によれば、対象物を複数の方向から撮影して得られる画像を用いて、対象物について所定の学習及び評価を行う技術を提供することができる。
本発明の一実施形態に係る画像出力装置10を含む対象物評価システム1の全体概念を示す図である。 対象物評価システム1の全体構成の一例を示す図である。 画像出力装置10の機能構成の一例を示すブロック図である。 複数画像取得装置20の機能構成の一例を示すブロック図である。 機械学習装置30の機能構成の一例を示すブロック図である。 画像評価装置40の機能構成を示すブロック図である。 学習依頼受付装置60の機能構成を示すブロック図である。 画像出力装置10が生成する合成画像10Xのデータ構造を示す概念図である。 1つの合成画像に2つの画像を含む場合の一例である。 1つの合成画像に6つの画像を含む場合の一例である。 1つの合成画像に4つの画像を含む場合の一例である。 1つの合成画像に4つの画像を含む場合の他の例である。 1つの合成画像に5つの画像を含む場合の一例である。 複数の画像を正八面体の展開図状に配置して合成画像を構成する場合の例である。 複数の画像を正十二面体の展開図状に配置して合成画像を構成する場合の例である。 複数の画像を正二十面体の展開図状に配置して合成画像を構成する場合の例である。 対象物評価システム1を構成する各装置のハードウェア構成の一例を示すブロック図である。 対象物評価システム1における学習処理のフローチャートである。 複数画像取得装置20における、複数の画像を取得して出力する処理のフローチャートである。 画像出力装置10及び学習データ作成装置70における、学習データ生成処理のフローチャートである。 機械学習装置30における学習処理のフローチャートである。 画像評価装置40における画像評価処理のフローチャートである。
以下、図面を参照して本発明の実施形態について詳細に説明する。なお、同一の要素には同一の符号を付し、重複する説明を省略する。また、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。さらに、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。
<1.システム概要>
図1は、本発明の一実施形態に係る画像出力装置10を含む対象物評価システム1の全体概念を示す図である。同図に示すとおり、対象物評価システム1は、画像出力装置10と、複数画像取得装置20と、機械学習装置30と、画像評価装置40とを含んで構成され、各装置はインターネットなどのネットワークNを介して互いに接続可能である。なお、本システムの構成は図示のものに限定されず、例えば、各装置のうち任意の複数の装置を物理的ないし論理的に一体のものとして構成してもよいし、各装置を物理的ないし論理的に2以上の要素に分けて構成してもよい。
複数画像取得装置20は、一又は複数のカメラを用いて、一の対象物を複数の方向から撮影して得られる複数の画像を出力する機能を備える。図1においては、3台のカメラ21,22,23を用いて、砲弾形状の対象物Zを撮影する例が示されている。カメラ21,22,23はそれぞれ異なる方向から同一の対象物を撮影する。例えば、カメラ21とカメラ23の光軸が直交するように各カメラの向きが配置され、カメラ21は斜め左上から、カメラ22は正面から、カメラ23は斜め右上から対象物Zを撮影する。各カメラ21,22,23によって撮影された画像21X,22X,23Xは、複数画像取得装置20から出力される。複数画像取得装置20は、カメラ21,22,23の位置や撮影方向、撮影方法を変更する手段を含むことができる。また、複数画像取得装置20は、各カメラ21,22,23の撮影条件情報を取得するように構成してもよい。
画像出力装置10は、立体形状を有する対象物Zを撮影して得られた複数の画像を取得して、学習モジュールに出力する機能を備える。図1においては、複数画像取得装置20から出力された3つの画像21X,22X,23Xをそれぞれ、学習モジュールの入力手段のうち第1の部分、第2の部分、第3の部分に入力させる。また、カメラ21,22,23の撮影方向と対象物Zの外観の属性に応じた所定の関係で配置して、1つの合成画像10Xを生成してもよい。生成された合成画像は、後述する機械学習装置30に入力できる形式に変換され、学習データベース装置80に記録される。なお、外部で合成可能な複数画像に変換ないし分割して、複数の画像を出力するようにしてもよい。
機械学習装置30は、機械学習可能な学習モジュールを備え、画像出力装置10によって生成された合成画像を学習データとして機械学習を行う機能を備える。学習モジュールは、学習能力を備えた専用若しくは汎用のハードウェア又はソフトウェアの一単位、ないしこれらを任意に組み合わせた一単位を含む。学習モジュールの一例は、ニューラルネットワークであるが、これに限定されない。図1においては、対象物を撮影して得られた合成画像を多数準備して学習データとする。学習データは、教師あり又は教師なしのいずれでもよい。例えば、図1においては、学習データとして、画像出力装置10によって生成された合成画像に、「砲弾形状の物体」という教師データを含むことができる。学習データとして、合成画像と教師データを含む場合、機械学習装置30は教師あり学習を行うことができる。また、学習データに教師データを含まない場合、機械学習装置30は教師なし学習を行うことができる。学習データベース装置80に記録された多数の学習データを機械学習装置30に入力して学習させることにより、学習結果として、学習モジュールは対象物を評価する能力を獲得することができる。
画像評価装置40は、機械学習装置30における学習の結果として獲得された能力、すなわち学習済みの学習モジュールを用いて、対象物Zから生成した合成画像をもとに、当該対象物Zの外観等に対して所定の評価を行う機能を備える。画像評価装置40は、機械学習装置30にて学習された学習済みの学習モジュール又はその複製物を利用して、入力された画像を評価する。画像評価装置40に、評価したい対象物の合成画像を入力すると、例えば、「対象は、砲弾形状の物体です。」などの評価結果を出力する。なお、本明細書において学習済みとは、少なくとも1回の学習を終えたことを含むものであり、必ずしも学習の結果最適化されたことを意味するものではないし、更なる学習が不要であることを意味するものでもない。
このように、対象物評価システム1は、1つの対象物を撮影して得られた複数の画像を所定のルールで組み合わせることによって、各カメラで撮影された個々の画像からは評価することが困難な特性(例えば、形状、外観など)を評価できるようになる。
<2.システムの全体構成>
図2は、本実施形態に係る対象物評価システム1の全体構成の一例を示す図である。同図に示すとおり、対象物評価システム1は、画像出力装置10、カメラ群25を含む複数画像取得装置20、機械学習装置30及び画像評価装置40の他に、学習依頼装置50、学習依頼受付装置60、学習データ作成装置70及び学習データベース装置80を備え、これらがネットワークNを介して相互に接続される。なお、本システムの構成は図示のものに限定されず、任意の複数の装置を物理的ないし論理的に一体のものとして構成してもよいし、各装置を物理的ないし論理的に2以上の要素に分けて構成してもよい。また、各装置を、IoT端末装置やサーバ装置として実施してもよい。
画像出力装置10、複数画像取得装置20、機械学習装置30及び画像評価装置40は、すでに述べたとおりである。
カメラ群25は、一又は複数のカメラ21(一又は複数のカメラを区別する必要のないとき、一又は複数のカメラを総称して、単に「カメラ21」という。)により構成される。カメラ群25は、例えば図1のカメラ21,22,23に対応するものであり、各カメラ21は撮像装置として機能する。本実施形態では、カメラとしてデジタルカメラやネットワークカメラを採用し得るがこれらに限られない。例えば、赤外線やX線カメラを使用してもよい。本システムでは、用いるカメラの特性に応じた学習及び評価を行うことができる。
各カメラ21は、対象物Zを所定の方向から撮影した画像を出力する。例えば、カメラ群25は、複数のカメラ21により構成され、対象物Zを複数の方向から撮影して複数の画像を取得する。カメラの台数は図1のように3台に限定されず、任意の台数により構成することができる。また、カメラ群25は、1台のカメラ21により構成してもよい。この場合、1台のカメラを用いて、移動ないし回転する対象物Zを例えば所定の時間間隔で複数回撮影することにより、対象物Zを複数の方向から撮影した複数の画像を取得することができる。すなわち1台のカメラで複数の画像を撮影するため、便宜上カメラ群と呼んでいる。各カメラ21からは、撮影した画像に加えて、カメラ名や撮影対象名などのメタデータを出力してもよい。また、メタデータとして、撮影したときの温度、湿度、気圧、明るさなどの情報を付加してもよい。
学習依頼装置50は、依頼者が対象物に関する学習や評価の内容を指定して学習依頼をするための装置である。例えば、依頼者は、対象物としてサイコロを指定し、学習や評価の内容として、表面に傷がないかの判定を行わせる、などの学習依頼を行う。
学習依頼装置50としては、一般的なPCやノート型PCを用いることができる。依頼者が依頼画面から入力した依頼内容にもとづいて、一連の処理が実行される。例えば、学習依頼受付プログラムのユーザインタフェース画面に表示されるメニューと画面遷移に応じて、メニュー選択、対象の種類や形状などの対象に関する情報の入力、獲得する能力の選択、評価結果の出力方法の選択などを行うことで、学習を依頼することができる。また、選択されるメニューごとに、所定の能力を獲得するための一連の動作が行われる。依頼者がメニューの一部を変更できるようにすれば、特殊なケースにも対応できる。
学習依頼受付装置60は、学習依頼装置50から学習依頼を受け付けて、依頼された学習が行われるよう各装置を制御ないし管理する機能を備える。すなわち、学習依頼受付装置60は、依頼者からの学習依頼に応じた学習データを作成して学習を実施し、学習結果を画像評価装置40で利用できるようにするための一連の処理を実行する。
学習データ作成装置70は、対象を評価するための学習データを作成する機能を備える。本実施形態では、画像出力装置10が出力した合成画像に、必要に応じて教師データや学習データ等の情報を付与して、機械学習装置30又は画像評価装置40に入力される学習データ又は評価データを作成する。
学習データ作成装置70に実装される学習データ生成プログラムにより、学習データを自動生成することができる。例えばディープラーニングによる学習には多くのデータを必要とするため、複数画像の撮影から学習データベース装置80への登録までの一連の作業を自動化することで、作業工数を大きく削減することができる。例えば、対象の位置や姿勢を変更する動作をロボットに指令して、さまざまな位置や姿勢と方向の画像を順次撮影して合成するようにすることで、人が作業を行わずに学習データを自動的に生成することができる。学習データ作成装置70は、マニュアル操作により学習データを生成してもよい。また、学習データや評価データとして、学習や評価に関連し得る任意の情報を組み合わせてもよい。
なお、学習データ作成装置70の有する機能を画像出力装置10が備えるものとしてもよい。この場合、画像出力装置10から出力されるデータを機械学習装置30に入力して学習データとして用いること、又は画像評価装置40に入力して評価データとして用いることができる。
学習データベース装置80は、学習データ作成装置70が作成した学習データや学習プログラムなど学習に関連するデータやプログラム、その設定等を記録する機能を備える。学習データ作成装置70が作成した学習データは、学習データベース装置80に渡され、学習データに関する情報と関連づけて記録される。
学習データに関する情報としては、例えば、学習データの識別情報、学習データの名称、書誌事項、学習データの種類、リリース日時等を含む。データの取得条件としては、例えば、カメラに関する情報として、レンズ特性、解像度、撮像素子の情報等を含む。また、個々の画像に関する情報としては、例えば、撮影条件、対象に関する情報、対象の環境に関する情報を含む。撮影条件としては、例えば、カメラの位置、レンズのスペック、ズームレンズの場合のズーム比、撮影方向、焦点距離、ISO感度、照明条件等を含む。対象に関する情報としては、対象の種類、対象の識別情報、対象の姿勢や対象の動作モードなど、対象の状態に関する情報、対象の位置、対象の移動速度、対象の変形状態などを含む。対象の環境に関する情報としては、背景の外観、明るさ、影の発生する状況などを含む。なお、これらは一例であり、任意の学習データに関する情報を記録できる。
教師なし学習の場合、複数の合成画像を含む学習データがあれば、学習を行うことができる。例えば、対象を所定数に分類する学習は、教師なしの学習データを用いて行うことができる。
教師データを含む学習データの場合、あらかじめ、学習データに関する多様な情報を記録しておくことで、いずれかの情報を教師データとして用いることができる。例えば、対象の種別や個体の識別情報を、合成画像に関連づけて記録することによって、教師データとして用いることができる。これによって、対象の種別や個体を識別する能力を獲得することができる。学習依頼時のメニューから選択される学習管理プログラムから、所定の教師データを生成するプログラムを起動することで、教師データが学習データに含まれるようにできる。教師データは、獲得する能力に応じて設定できる。
学習データベース装置80は、例えば、学習データを扱うデータベースプログラムを備えたコンピュータで実施できる。機械学習装置30のプログラムを学習データベース装置80で管理するようにしてもよい。学習で用いられるプログラムを関連づけて記録することで、一連の学習処理全体を管理できる。学習データは学習の種類ごとに異なる形式で作成してもよい。
本実施形態において、学習データベース装置80には、学習管理プログラムの指令にもとづいて、当該能力を獲得するための学習データが準備されている。学習データに含まれる合成画像は、対象物Zを複数の方向から撮影した複数の画像から得られる情報が、1つの画像に含まれている。したがって、1つの画像により、対象物Zを複数方向から撮影した画像の情報を用いた学習を行うことができる。
<3.各装置の構成>
図3は、本実施形態に係る画像出力装置10の機能構成の一例を示すブロック図である。同図に示すとおり、画像出力装置10は、取得部(複数画像取得部)110、画像関連情報取得部120、画像配置決定部130、画像合成部140、出力部(合成画像出力部)150及び通信部160を含み、これらがネットワーク(内部バスを含む)を介して相互に接続され得る。
画像出力装置10は、取得部110において、対象物を複数の方向から撮影した複数の画像を取得する。また、出力部150において、学習モジュールへの入力として、取得した複数の画像をそれぞれ、学習モジュールの備える入力手段のうち所定の部分に入力させる。学習モジュールへの入力は、複数の画像が関係性情報を持ちつつ学習モジュールに入力されればよいが、ここでは、画像出力装置10が複数の画像から合成画像を作成し、合成画像を出力する処理について説明する。
取得部110(以下「複数画像取得部110」と称して説明する。)は、一の対象物Zを複数の方向から撮影した複数の画像を取得する。一の対象物Zとは、1つの物からなる対象物でもよいし、複数の物をまとめたひとまとまりの対象物でもよい。複数画像取得部110は、少なくとも、対象物を第1の方向から撮影した画像と、同じ対象物を第2の方向から撮影した画像を取得する。ここで、第1の方向と第2の方向は異なるものであることが好ましい。また、複数画像取得部110が取得する複数の画像は、一の対象物Zを複数のカメラでほぼ同時に撮影したもの、又は、一の対象物Zを1つのカメラで異なる時間に撮影したもの、すなわち、一の対象物Zを1つのカメラで複数の方向から撮影したものとすることができる。複数画像取得部110は、各画像を取得する際に、それぞれの画像に関する情報や対象物Zに関する情報を取得してもよい。
画像関連情報取得部120は、各画像に関連する情報として、各画像が対象物Zをどの方向から撮影したものであるかを示す方向情報を取得する。方向情報は、合成画像内のどの位置に画像を配置するかを決定するために用いられる。例えば、正面から対象物Zを撮影する方向を基準として、各画像の撮影方向角を定義することができる。複数の画像を並べた合成画像を生成する際に、撮影方向角等の方向情報をもとに、所定の方向から対象物Zを撮影した画像を選択することができる。また、予め、各カメラ21のID情報と方向情報を対応付けて記憶しておき、各画像を撮影したカメラのID情報を使って、方向情報を抽出してもよい。なお、各画像の方向情報が、モデルで定義された方向と一致又は略一致していることを確認した上で、合成画像を生成するとよい。本実施形態において「モデル」とは、学習又は評価の対象物及び目的ごとに定義される情報であり、例えば、後述する撮影モデルや配置モデルを含む。
画像配置決定部130は、複数画像取得部110で取得された複数の画像を、合成画像内のどの位置に配置するかを決定する。画像の配置は、方向の組み合わせごとにモデル化することができる。例えば、一の対象物Zを右側から撮影した画像を、合成画像内の右側に配置し、当該対象物を左側から撮影した画像を、合成画像内の左側に配置するものと定めたものが、モデル化の一例である。
画像を配置するためのプログラムは、個々のモデルごとに作成できる。画像の配置は、例えば両面モデル、正四面体モデル、立方体モデルのように配置モデルを定義することができる。定義したモデルを、学習依頼装置50の学習依頼のメニューから選択できるようにすることで、学習依頼者が学習又は評価の目的に応じて撮影方向や特性を容易に把握して選択できる。配置モデルは、カメラの配置及び各カメラで撮影された画像の配置に関する情報であり、例えば、対象物に対してカメラをどの位置及び方向に配置し、各カメラから撮影された複数の画像をどのように配置して合成画像を作成するかを定めたひな型を含む。
配置モデルは、上述の両面モデル、正四面体モデル、立方体モデルの他にも、任意のモデルを設定可能である。例えば、例えば、以下のようにして配置モデルを実装できる。まず、あらかじめ、オブジェクト指向プログラミング言語で、配置モデルクラスを定義する。配置モデルクラスは、任意の数の画像、すなわち、任意数の方向から撮影された画像を扱うことができるように定義する。方向ごとに、撮影モデルの情報を含むようにすることで、撮影した画像に関する情報を含むように構成できる。さらに、個々の撮像手段であるカメラ21の特性をモデル化した撮影モデルクラスを定義する。撮影モデルは、撮影された画像に関する情報であり、例えば、画素数、画角、焦点距離、ズーム比、ISO感度、シャッター速度、圧縮方法など、画像を撮影するときの情報を含むことができる。
また、カメラ21ごとに、撮影モデルクラスを親クラスとした撮影モデルクラスを作成できる。上述の両面モデル、正四面体モデル、立方体モデルは、配置モデルクラスを親クラスとして作成できる。例えば、両面モデルの場合、両面の2画像が入力されると、2つを並べて合成した画像を出力する。また、立方体モデルの場合、6面の画像が入力されると、展開図状に並べて合成した画像を出力する。配置モデルクラスの情報をもとに、画像のメタデータを生成することができる。画像配置のモデルは、上記に限定されず、任意のモデルを採用できる。
配置モデルクラスと撮影モデルクラスの仕様を公開することで、プログラマが独自のモデルに対応するプログラムを作成できる。特定用途向けにカスタマイズした配置モデルを作成することで、任意の方向から撮影した画像をもとに、配置を行うことができる。
画像合成部140は、複数画像取得部110で取得された複数の画像を所定の位置関係で配置した1つの合成画像を生成する。本実施例では、画像配置決定部130によって決定された各画像の配置に基づいて、複数の画像を合成して、合成画像を生成する。合成画像内に配置した複数の画像以外の部分(背景部分)は、対象物Zの評価にできる限り影響を与えないような画像を設定することが好ましい。例えば、単純に白または黒で背景部分を塗りつぶしてもよいし、中間的な明るさのグレーにしてもよい。背景部分を、対象の特徴とは異なるパターンで埋めてもよい。背景部分のレイヤーを設けて、背景部分であることを学習に反映させることにより、背景部分を学習モジュールが識別できるようにしてもよい。
画像を合成するとき、特定の配置モデルに対応する配置モデルクラスは、当該モデルで規定される配置を行う。メモリ上に合成画像編集用記憶領域を設定して、背景色、または背景パターンを画像全体に反映する。それぞれのモデルで複数の画像を配置した結果を、それぞれ合成画像編集用記憶領域に上書きする。
出力部150は、複数画像取得部110で取得された複数の画像を出力する。本実施形態において、出力部150は、画像合成部140によって合成画像編集用記憶領域に作成された合成画像を、通信部160を介して出力する。そこで、本実施形態では、出力部150を合成画像出力部150と称して説明する。合成画像出力部150が合成画像を出力するとき、画像関連情報取得部120が取得した情報を含んで出力するようにしてもよい。出力された合成画像は、機械学習装置30において学習モジュール310に機械学習させるための学習データとして、又は、画像評価装置40において学習結果として得られた学習モジュール450に対象物を評価させるための評価データとして用いられる。
なお、画像出力装置10は、1つの静止画像を出力するだけでなく、動画像を出力することも可能である。例えば、一の対象物を複数の方向から撮影した複数の画像を、複数時点にわたり取得することで、各時点で撮影された複数の画像をそれぞれ所定の位置に配置した画像によって各フレームが構成される動画像を出力することができる。撮影方向が変わらない場合には、それぞれの時点で複数画像を同じように並べればよい。撮影方向が変化する場合には、方向の変化に応じて、並べ方を変えるようにすればよい。それによって、撮影時刻ごとの関係に応じて評価を行うことが可能となる。
また、合成画像と同等な情報を生成できれば、画像を並べるという合成手段には限定されない。すなわち、対象物評価システム1は、複数画像の関係性に関する情報を含むように、複数画像の情報を合成して、学習モジュールに入力することができる任意の手段を採用することができる。例えば、学習モジュールの入力部で、複数画像取得部110が出力した複数画像とその関係情報を用いて、画像を並べる動作に相当する処理を行うようにしてもよい。
生成された合成画像には、後の利用に備えて属性データを付与することができる。例えば、撮影日時、撮影対象、撮影場所、撮影したカメラの情報、使用したレンズの情報などを属性データとして付与することができる。また、合成画像に、教師データを付与してもよい。例えば、不良品を識別する学習の場合、撮影したサンプルが良品であるか不良品であるかを示す識別情報を付与する。
合成画像は、学習データベース装置80に記録され、機械学習装置30から学習データ名などで検索してアクセスできるように公開される。また、機械学習装置30において、画像を入力として学習を行う。機械学習装置30によって学習された学習結果は、画像評価装置40で使うことができる。 例えば、学習モジュール310としてニューラルネットワークが用いられているとき、機械学習装置30における学習後のニューラルネットワークの複製を作製すればよい。より具体的には、同じ階層構成のニューラルネットワークの、ハイパーパラメータを同じ設定として、各ニューロンのパラメータを同等の値に設定すればよい。なお、学習と評価を同じ装置が行うように実施する場合、すなわち、機械学習装置30が備える機能と画像評価装置40が備える機能を1つの装置で実装する場合、学習結果を移す処理は不要である。画像評価装置40において、学習時と同じ条件で撮影した複数画像から合成された合成画像を入力すると、学習モジュールで評価が行われて、評価結果が出力される。
図4は、本実施形態に係る複数画像取得装置20の機能構成の一例を示すブロック図である。同図に示すとおり、複数画像取得装置20は、画像入力部210、カメラ制御部220、対象情報取得部230、対象環境制御部240、対象制御部250、画像記憶部260、取得条件情報記憶部270、画像データ出力部280及び通信部290を含み、これらがネットワーク(内部バスを含む)を介して相互に接続され得る。
画像入力部210は、撮像手段により対象物Zを撮影した画像が入力される。画像入力部210が、撮像手段として一又は複数のカメラを備え、当該カメラにより対象物を撮影してもよい。また、撮像手段として外部装置である一又は複数のネットワークカメラを利用して、ネットワークカメラによって撮影された画像が、画像入力部210に入力されるものとしてもよい。いずれにせよ、画像入力部210は、撮像手段から対象物を撮影した画像を取得する。本実施形態では、撮像手段としてカメラ21が用いられ、画像入力部210は、カメラ21から画像を取得する。画像は輝度情報を含む。色情報含んでもよく、距離や温度など輝度以外の情報を含んでもよい。入力画像は静止画に限定されず、複数時点の画像を含む動画像としてもよい。
また、画像入力部210は、カメラ21の撮影した画像に加え、画像を撮影した方向を把握するための情報を取得する。例えば、使用したカメラを識別可能な一連番号をもとに方向を把握できる。例えば、カメラ22が対象物を正面から撮影することが予め分かっている場合は、カメラ22を識別可能な情報を取得することにより、方向情報を得ることができる。他にも、正多面体の各面、例えば、立方体(正六面体)の正面、背面、上下左右の面に垂直な方向で方向を把握してもよい。あるいは、任意の角度を所定のモデルで定義してもよい。例えば、三角形で構成される四面体の辺の長さで定義してもよい。
カメラ制御部220は、カメラ21を制御する。カメラ制御部220が制御する対象は、使用するカメラの切り換え、撮影のトリガー、パン、ティルト、ズーム、光軸方向を軸にした回転、ISO感度の変更、 シャッター速度、絞り、カメラの位置の移動を含むが、これらに限定されない。これらの制御を行うことによって、対象を撮影する方向や撮影条件を変更することができる。また、カメラ21を適切に制御することで、N台(Nは整数)よりも少ないカメラで、N枚の画像を取得することができる。カメラ21の制御情報を、画像の取得条件に関する情報として用いることができる。
対象情報取得部230は、対象物Zに関する情報を取得する。対象に関する情報の例としては、対象の種類、位置、状態などが挙げられるが、これらに限定されない。対象の種類は、例えば、リンゴ、ミカン、トマトなどである。対象の種類は教師データとして用いることができる。対象の位置は、対象が移動するときに、複数の位置で対象を撮影することで、所定の位置付近に設置したカメラ群で、異なる方向から撮影した画像を取得することができる。この場合、対象の位置情報が撮影方向に関する情報を含むことになる。対象の状態は、例えば、棒が正立状態又は倒立状態であるとか、手で所定のジェスチャーを行っているといったものを含む。対象の状態は教師データとして用いることができる。
対象環境制御部240は、対象物Zの環境を制御する。例えば、 照明を制御する、検査装置の製品保持部を制御する、ロボットを制御して対象の環境にある物体を動かす、などの制御が含まれる。
対象制御部250は対象物Zを直接制御する。例えば、ロボットや車両を制御して動かす、ロボットアームなど可動部を動かして対象を変形させる、ロボットなど対象の姿勢を変化させる、などの制御が含まれる。
画像記憶部260は、画像入力部210によって取得された複数の画像のデータを記憶する。
取得条件情報記憶部270は、対象物Zに関する画像を含む情報を取得した取得条件に関する情報を記憶する。 取得条件は、対象物Zを撮影した方向を特定し得る情報を含む。取得条件は、学習依頼時にメニューを選択することによって特定してもよい。任意の方向で撮影する場合、依頼時に入力方向を依頼者が設定することができる。方向は角度情報や、方向名などの識別情報を用いることができる。多面体モデルを用いる場合は、展開図に付与した番号など、各面の識別情報を用いることができる。カメラ制御部220、対象環境制御部240、対象制御部250の情報を、取得条件に反映してもよい。また、取得条件として、画像を取得した時刻を含むことができる。例えば、1台のカメラ21で異なる方向の画像を取得するときに、時刻情報を用いることができる。取得条件として、対象物の部分の名称などの識別情報を含むことができる。例えば、正面画像、上面画像など、あるいは、方向を特定できれば画像1、画像2、画像3などでもよい。
画像データ出力部280は、対象物を撮影した複数の画像を出力する。出力するデータは複数の画像を含むことができるデータ構造を有する。例えば、個々の画像をJPEG形式で記録したファイルをZIP形式で統合したファイルとして、画像データを出力してもよい。例えば、JAVA(登録商標)のようなオブジェクト指向言語で、画像クラスを含むクラスとして定義して、シリアライズしたデータをファイルにしたものでもよい。出力するデータに関連づけて画像以外の対象に関する情報を出力するようにしてもよい。例えば、ZIP形式のファイルに追加情報のファイルを含めてもよい。例えば、対象クラスに画像クラスと対象情報クラスへの参照を含むように定義してもよい。
複数画像取得装置20は通信部290を介して、画像データや取得条件情報記憶部のデータを出力して、画像出力装置10に渡す。
図5は、本実施形態に係る機械学習装置30の機能構成の一例を示すブロック図である。同図に示すとおり、機械学習装置30は、学習モジュール310、学習制御部320、学習結果抽出部330、学習結果出力部340及び通信部350を含み、これらがネットワーク(内部バスを含む)を介して相互に接続され得る。
学習モジュール310は、学習により所定の能力を獲得可能であり、例えば、ニューラルネットワークにより構成される。機械学習装置30は学習データベース装置80に記録された学習データを用いて学習モジュール310を学習させることによって、依頼者から依頼された所定の能力を獲得する。
学習制御部320は、学習プログラムを実行して機械学習装置30における機械学習を制御する。学習制御部320は、学習プログラムが実行されることにより、依頼者から受け付けた所定の学習依頼に応じて学習を実行し、学習モジュール310に所定の能力を獲得させる。例えばディープラーニング技術を用いた学習プログラムを使用して学習を実行することで、学習モジュール310に所定の能力を獲得させることができる。
学習結果抽出部330は、学習モジュール310が学習した結果を抽出する。学習結果出力部340は、通信部350を介して、学習結果を外部に出力する。例えば、学習の結果、機械学習装置30は、以下のような能力を獲得できる。対象を、良品と不良品に分類する。対象を、複数の等級に分類する。対象の種類を識別する。
機械学習装置30は、一般的なコンピュータ上で所定のプログラムを実行させることによって実装してもよい。このとき、学習処理の処理量が多いので、高速で動作するCPUを備えたコンピュータを用いるとよい。GPUを用いると、繰り返し演算処理を高速化できる。ブレードコンピュータをラックマウントしたサーバ装置を用いることで、処理を並列化してスループットを上げることができる。複数の依頼者からの依頼を受け付ける場合、サーバ装置を多重化して並列度を上げることができる。
図6は、本実施形態に係る画像評価装置40の機能構成を示すブロック図である。同図に示すとおり、画像評価装置40は、学習結果入力部410、制御部420、学習モジュール設定部430、評価データ取得部440、学習モジュール450、評価結果出力部460及び通信部470を含み、これらがネットワーク(内部バスを含む)を介して相互に接続され得る。
画像評価装置40では、機械学習装置30で学習された学習済みの学習モジュール310と同等の学習モジュール450が用いられる。すなわち、学習モジュール450は、機械学習装置30によって学習された学習済みの学習モジュール310を転用するか、或いは、その複製物であってもよい。制御部420の制御により、学習済みの学習モジュール、その複製物、又は、複製物を構成可能なパラメータ等の情報が、学習結果入力部410から取得され、学習モジュール設定部430の設定により、学習モジュール450が構築される。
画像評価装置40が画像を評価するとき、一の対象物Zから得られた複数の画像を1つの画像に合成した合成画像を評価データ取得部440が取得し、取得された合成画像を評価用データとして学習モジュール450に入力される結果、評価結果出力部460は評価結果を出力する。なお、画像評価装置40は、例えば、コンピュータ装置のプログラムとして実装することができる。また、評価結果の出力は、複数画像評価装置の外部に設置した評価結果を出力するサーバ装置から行うようにしてもよい。
図7は、本実施形態に係る学習依頼受付装置60の機能構成を示すブロック図である。同図に示すとおり、学習依頼受付装置60は、メニュー表示/選択部610、学習依頼情報取得部620、学習プログラム起動部630及び通信部640を含み、これらがネットワーク(内部バスを含む)を介して相互に接続され得る。
メニュー表示/選択部610は、学習依頼装置50の画面にメニューを表示して、メニューの選択によって、学習依頼を受け付ける。学習依頼情報取得部620は、依頼された学習に関する情報を取得する。学習プログラム起動部630は、依頼された学習に関する情報をもとに、対応する学習プログラムを選択して起動する。学習管理プログラムは通信部640を介して、学習データ作成装置70、学習データベース装置80、画像評価装置40のプログラムを動作させる。
学習依頼受付装置60は、例えばサーバ型コンピュータにより構成される。学習依頼を受け付けるプログラムは、例えば学習依頼受付装置60が備えたサーバプログラムの、Webアプリケーションとして作成できる。学習依頼受付装置60が受け付けた依頼内容ごとに、それぞれ依頼された学習が行われるように、以降の処理を行うプログラムをあらかじめ準備しておくことができる。
学習依頼受付装置60は、依頼者から受け付けた学習依頼に基づいて、依頼者によって選択されたメニューに対応する学習管理プログラムを起動する。学習管理プログラムが実行されることによって、学習データの生成から、学習による所定の能力の獲得、複数画像評価装置への学習結果の設定までの動作を自動的に行うことができる。例えば、学習依頼受付プログラムで所定の学習メニューが選択されると、対応する学習管理プログラムが起動され、当該学習管理プログラムが、学習データ作成プログラム、学習プログラム及び複数画像評価プログラムを順次起動し、それぞれの処理が実行される。必要に応じて、一部に人の作業を含むようにしてもよい。
<4.合成画像>
次に、画像出力装置10において生成される合成画像10Xについて説明する。
図8は、画像出力装置10が生成する合成画像10Xのデータ構造を示す概念図である。ここでは、対象物Zをn個(nは2以上の整数)の方向から撮影したn個の画像21X1,21X2,・・・,21Xnを組み合わせて、1つの合成画像10Xを生成する場合のモデルの一例について説明する。
図8に示すように、合成画像10Xは、少なくともn個の領域R1,R2,・・・,Rnを含んでいる。そして、第1の領域R1に、対象物Zを第1の方向から撮影した第1の画像21X1が配置される。第2の領域R2に、対象物Zを第2の方向から撮影した第2の画像21X2が配置される。第k(kは1からnまでの整数)の領域Rkに、対象物Zを第kの方向から撮影した第kの画像21Xkが配置される。このように、1つの画像内の複数の領域Rのそれぞれに、対象物Zを所定の方向から撮影した画像21Xがそれぞれ配置された形で、合成画像10Xが構成される。すなわち、対象物Zを撮影した方向に基づいて、合成画像10X内において、画像データが配置される領域Rが決定される。画像21Xを領域Rに配置するとき、画像21Xを拡大又は縮小してもよく、さらに、対象物Zが写っている画像のうち必要な部分を切り出してもよい。
なお、合成画像10Xのデータ構造は、図示したものに限定されない。図8においては便宜的に左上の領域から順番に第1,第2,・・・と順番を振っているが、このような順番に限定されない。各領域はそれぞれ一部が接していてもよいが、接していなくてもよい。各領域に配置された各画像も、近傍に配置された画像と一部が接していてもよいが、接していなくてもよい。また、複数の領域Rの大きさ及び形状は同じである必要はなく、個々の領域ごとに任意の大きさ及び形状を設定できる。
これまで説明したように、画像出力装置10によって複数の画像から生成された合成画像10Xは、学習データ又は評価データとして、学習モジュール310,450に入力され、これにより、学習モジュールは、対象の外観等の学習や評価を行うことができるようになる。学習及び評価の内容や対象物Zの形状等に応じて、1つの合成画像を生成するために何枚の画像が必要であり、各画像が対象物をどの方向から撮影する必要があるかを調整することが好ましい。以下、合成画像の具体例をいくつか説明する。
<4−1.2つ画像を含む合成画像>
図9は、1つの合成画像に2つの画像を含む場合の一例である。ここでは、2枚の画像を並べて1つの画像として外観を評価する学習として、例えば、魚の表面の状態を検査することを想定する。同図に示すように、魚を右側から撮影した画像21X1を合成画像の右側の領域R1に配置し、左側から撮影した画像21X2を左側の領域R2に配置することによって、合成画像10Xが形成される。図9においては、説明のため領域の境界に破線を表示しているが、実際の合成画像10Xでは、各領域の境界を明示する必要はない。後述する事例についても同様である。
このような合成画像をもとに学習モジュールを学習させることによって、魚の皮の損傷や傷の有無を検査したり、或いは、形状や模様によってアジとサンマを分類したり、といった能力を獲得し得る。
ここでは、背びれの部分が接するように2つの画像を並べた合成画像を生成したが、これは一例に過ぎず、必要な空間的配置に関する情報が失われない限り、すなわち、位置関係が同じであれば、2つの画像を任意の位置関係で配置し得る。例えば、腹、口又は尾が接するように並べてもよい。また、合成画像10X内において、2つの画像を左右に配置してもよいし、上下に配置してもよい。ただし、合成画像に含まれる複数の各画像間の位置関係は、学習時と評価時で同じ位置関係を保つ必要がある。また、表から裏につながる模様などの特徴的な外観がある場合、つながる部分が接するように画像を配置して合成画像を生成することが好ましいときもある。なお、各画像の一部が必ずしも接している必要はなく、互いに離れた画像として合成してもよい。
2枚の画像で評価可能な場合の例としては、対象物Zの表面と裏面の画像を用いる場合や、対象物Zを2つの所定の方向から撮影した画像を用いる場合などがある。例えば、名刺、はがき、トランプのような平面形状や魚のような薄い形状の対象物は、表側の面と裏側の面の画像を用いることで、対象物Zの外観の大半の領域を評価できる。また、対象物に窪みがある場合など、1方向から撮影した画像で隠れる部分があれは、隠れた部分を撮影できる別の方向から撮影した画像を用いることで、対象物の学習や評価が可能になる。
<4−2.2以上の画像を含む合成画像>
図10は、1つの合成画像に6つの画像を含む場合の一例である。対象物Zが立方体または直方体形状の場合、各面と直交する6方向からの画像があれば、全ての面を撮影できる。合成画像を生成する際に、立体の外観における、各画像の位置関係の情報が保存されるように各画像を並べて合成してもよい。このように、合成画像を生成する際に、複数の画像を撮影した方向の位置関係が保存されるように各画像を配置すれば、画像間の位置関係を反映した評価を行うことができる。例えば、対象物Zが立方体又は直方体である場合、各面は正方形か長方形となる。画像から製品部分を切り出して、隣り合う面の間の辺が接するようにして画像を連結し、立方体や直方体の展開図のような合成画像とすることができる。
ここでは、サイコロの外観を検査して、良品と不良品に分類することを想定する。例えば、複数画像取得装置20において、サイコロの1の面を前面にし、特定の目(例えば4)を上面にして撮影位置に置き、各面に直交する方向から、各面の画像を撮影する。対象物Zが直方体や立方体の場合、各面と垂直の方向から辺が画像の辺と平行になるように撮影することが好ましい。撮影した各方向の画像から、サイコロ部分の画像を切り出して、6つの画像が作成される。これらを面の関係を維持して、展開図状に組み合わせて合成する。具体的には、図10に示すように、対象物Zを左側から撮影した左面の画像を領域R1に配置し、上側から撮影した上面の画像を領域R2に配置し、前側から撮影した前面の画像を領域R3に配置し、下側から撮影した下面の画像を領域R4に配置し、右側から撮影した右面の画像を領域R5に配置し、後ろ側から撮影した後ろ面の画像を領域R6に配置する。
合成した教師データつき画像を用いて、良品と不良品を識別する能力を獲得するように学習を行う。この方法は直方体形状の対象の評価に応用できる。例えば立方体形状のプリンタ装置の、フロントパネル、天板、左右の側板、底板、背面パネルの評価に応用できる。直方体形状以外の対象の評価にも応用できる。互いに直交する6面体の各面の垂直方向から撮影可能な外見の特徴を用いた評価を行うことができる。椅子の外観検査、駐車車両の監視、隣り合う面が離れて配置されるために、図柄の連続部分が離れる場合、同じ画像を2回あるいは3回以上用いるようにしてもよい。
検査が不要な面は画像を省略してもよい。この場合、その面に対応する領域には画像を配置しなくてもよい。各面が回転非対称の場合、各面の誤った回転が検出できる。展開図上に組み合わせることで、面の入れ替わりを検出可能になる。
図11は、1つの合成画像に4つの画像を含む場合の一例である。野球のボールの縫い目を検査することを想定する。球の場合、6方向よりも少ない方向から撮影した画像で全球面をカバーできる。しかし2枚の画像では円周付近の図柄に関する情報量が減少する。また、常に同じ姿勢で撮影するようにすれば、学習量を減らすことができる。そこで、所定の軸で回転させた学習データを増やすことで、異なる姿勢について学習するようにしてもよい。
例えば、野球ボールにメーカ名が1カ所に印字されているとする。複数画像取得装置20において、野球ボールのメーカ名が前面にあり、文字が水平になるようにボールを置いて、画像を撮影する。このとき、画像の同じ位置に文字が来るようにボールの置き方を調整することが好ましい。なお、毎回同じ姿勢でボールを撮影できればよく、他の方法でボールの置き方を規定してもよい。ボールに接する正六面体の上下を除く各面に直交する方向から野球ボールの4つの画像を撮影し、4つの画像を立方体の上下を省略した展開図上に配置して1つの画像10Xに合成する。このとき、縫い目ができるだけ多くつながるような配置で画像を並べるとよい。
合成画像に含まれる画像の数を6つよりも減らす手法は、対象物Zが丸みを帯びている場合などに応用できる。すなわち、対象物Zを構成する面が平面でなければ、より少ないカメラで、全周を撮影することができる。例えば、薬の錠剤、円盤状の菓子、機械部品のナット、ヘルメット、食器などの検査に応用できる。
図12は、1つの合成画像に4つの画像を含む場合の他の例である。図11に示す例では、立方体の上面と下面を省略して、4方向から撮影した画像を用いたが、図12に示す例では、正四面体の各面に垂直の方向から対象物Zを撮影することで、全周をカバーする場合の一例である。ここでは、マウスを下面、正面上方、右奥上方、左奥上方の4方向から撮影した画像を、正四面体を展開した位置に配置して、合成画像10Xが構成されている。
図13は、1つの合成画像に5つの画像を含む場合の一例である。ここでは、シリンダなど、円柱状の部品を検査することを想定する。円柱は上面、下面と、柱状の側面で構成され、側面の見かけは中心軸に対して円対象となっている。すなわち、回しても見え方は変わらないため、例えば切削で作成された円柱部品の場合、水平面のどの方向から見てもほぼ同じ外観となる。
このような円柱状の対象物を検査する場合、上面と下面と側面の全周をカバーする画像が必要となるが、例えば、水平面で相互に120度の方向から撮影することにより、水平方向のカメラを減らした構成で検査を行うことができる。図13では、対象物Zを上側から撮影した上面の画像を領域R1に配置し、側面を撮影した3つの画像を領域R2,R3,R4に配置し、下側から撮影した下面の画像を領域R5に配置して、合成画像10Xが構成されている。このような合成画像は、円柱のみでなく、ビール瓶のような断面が回転対称の形状を有する対象物についても同様に適用できる。また、検査対象が側面のみである場合、上面と下面の画像は不要となる。
外観の図柄などに連続性がある場合は、上面と下面と側面を撮影した3つの画像を合成して1つの画像とする。例えば、側面を撮影した3画像を左右が入れ替わらないように水平に並べ、並べた3画像の上と下に、上面と下面の円形の画像を並べる。上面や下面が側面に対して軸方向で回転する場合は、回転したそれぞれの状態について学習データが必要となる。例えば、上面や下面に文字やロゴがある場合、回転したときの学習データが必要である。ただし、上面と下面が円対称である場合は、回転を考慮する必要がない。
また、対象物Zの対称性を用いることで、学習データの取得量を減らすことができる。例えば図13に示す例の場合、シリンダの側面を撮影する3台のカメラが撮影する画像は見かけが同じであるので、不良品の学習データを相互に流用することができる。すなわち、1組の画像データを用いて、左右に120度回転させたときの画像を生成して学習データとすることができる。この手法を適用できるのは、必ずしも正確な回転対称の物体に限られない。例えば、リンゴ、ナシ、ミカンのような、ほぼ回転対称の対象に適用できる。また、例えば、三角柱や六角柱に近い形状の菓子の缶に適用できる。
図14A乃至Cは、複数の画像を正多面体の展開図状に配置して、合成画像を構成する場合の例である。図14Aは、正八面体の展開図状に複数の領域を構成する例である。図14Bは、正十二面体の展開図状に複数の領域を構成する例である。図14Cは、正二十面体の展開図状に複数の領域を構成する例である。
凹凸や切り取られた角がある立方体を検査する場合、立方体に近い形状であっても、立方体すなわち正六面体の各面に垂直な方向からの画像のみでは、外観を評価できないことがある。このとき、立方体の1つの面を複数の方向から撮影すれば、垂直方向からのみの画像では取得できない情報を含む画像が取得できる。また、対象の形状に対称性がある場合、撮影する角度にも対称性があることが望ましい。対称性に応じて対称性があるように撮影することで、特徴量に関連する空間情報のゆがみを防ぐことができる。対象物Zを所定の大きさの正八面体や正十に面体、正二十面体で囲ったときの、各面に垂直な方向から画像を撮影すると、凹凸や切り取られた角の状態に関する特徴量を抽出できるような情報を含むように画像データを取得できる。
<5.各装置のハードウェア構成>
図15は、対象物評価システム1を構成する各装置のハードウェア構成の一例を示すブロック図である。画像出力装置10などの各装置は、同図に示すように、CPU1510、ROM1520やRAM1530等のメモリ、各種の情報を記憶する記憶装置1540、入力出力部1550、通信部1560及びこれらを結ぶネットワークないしバスを備える汎用又は専用のコンピュータを適用することができる。各装置は、CPUが、メモリ又は記憶装置に記憶された所定のプログラムを実行することにより、上述した機能が実現される。プログラムは、CD−ROM等の光学ディスク、磁気ディスク、半導体メモリなどの各種の記録媒体を通じて、又は通信ネットワークなどを介してダウンロードすることにより、コンピュータにインストール又はロードすることができる。
<6.処理フロー>
次に、図16乃至図20を参照して本実施形態に係るシステムの処理フローについて説明する。
図16は、本実施形態に係る対象物評価システム1における学習処理のフローチャートである。まず、利用者が学習依頼装置50から学習を依頼する(S1600)。学習依頼受付装置60が学習依頼を受け付けて、学習管理プログラムが起動される(S1610)。学習管理プログラムが、以下の処理が行われるように指令する(S1620)。すなわち、まず学習データ作成装置70が学習データを作成する(S1630)。作成された学習データを、学習データ作成装置が学習データベース装置80に記録する(S1640)。機械学習装置30が、学習データベース装置80に記録された学習データに基づいて、依頼された能力を獲得するための学習を行う(S1650)。多数の学習データによる学習を経て、機械学習装置30が学習結果、すなわち学習済みの学習モジュールを構成する情報を出力する(S1660)。画像評価装置40が、学習結果を受け取り(S1670)、学習結果を用いて画像評価能力を獲得する(S1680)。他の学習依頼がある場合はステップ1600に戻り、他の学習依頼が無ければ処理を終える(S1690)。
図17は、複数画像取得装置20における、複数の画像を取得して出力する処理のフローチャートである。まず、学習データ作成装置70又は画像出力装置10から、複数の画像を取得する指令を受ける(S1700)。指令に応答して、複数画像取得装置20は、対象物Zの位置や姿勢を所定の状態にして(S1710)、カメラ群25のなかから、撮影に用いる一又は複数のカメラ21を指定する(S1720)。当該一又は複数のカメラ21を制御して撮影方法を指定し(S1730)、対象物Zの情報と撮影方向を含む撮影条件に関する情報とを取得して(S1740,S1750)、対象物Zを複数の方向から撮影する(S1760)。撮影された画像を、対象物Zと撮影条件の情報を関連付けて記録する(S1770)。対象物Zに対して、さらに別の状態の画像を取得する場合はステップS1710に戻り、そうでなければ処理を終了する。
図18は、画像出力装置10及び学習データ作成装置70における、学習データ生成処理のフローチャートである。まず、複数画像取得装置20が、対象を撮影した複数の画像を取得する(S1800)。複数画像取得装置20が取得した複数の画像の関係に関する情報を含む情報を、画像出力装置10が取得し(S1810)、複数の画像を合成して1つの合成画像を出力する(S1820)。学習データ作成装置70は、合成画像に関連して登録する情報を作成し(S1830)、合成画像に関連情報を関連付けて、学習データベース装置80に記録する(S1840)。対象物Zに対して、さらに別の学習データを作成する場合はステップS1800に戻り、そうでなければ処理を終了する(S1850)。
図19は、機械学習装置30における学習処理のフローチャートである。まず、学習管理プログラムからメニューで選択された学習を行うように起動され(S1900)、メニューで選択された学習に対応する学習データを選択する(S1910)。学習データベース装置80に記録された合成画像を含む学習データを取得し(S1920)、機械学習により、学習モジュール310を所定の条件でパラメータ調整する(S1930)。さらに別の学習データがある場合はステップ1920に戻り学習を続け、そうでなければ学習を終了し(S1940)、学習結果を抽出して(S1950)、抽出された学習結果を出力する(S1960)。
図20は、画像評価装置40における画像評価処理のフローチャートである。ます、画像評価装置40が、機械学習装置30から所定の学習結果を取得し(S2000)、取得した学習結果を用いることで所定の評価能力を獲得する(S2010)。複数画像取得装置20が評価したい対象物Zを撮影した複数の画像を取得し(S2020)、画像出力装置10が、複数画像の関係に関する情報を含む情報を取得して(S2030)、複数の画像を合成した合成画像を生成し、出力する(S2040)。画像評価装置40が受け取った合成画像を学習モジュール450に入力すると(S2050)学習モジュール450が評価結果を出力する(S2060)。出力された評価結果は、学習データベース装置80に記録される(S2070)。さらに別の評価データを作成して、別の対象物を評価する場合はステップS2020に戻り評価を続け、そうでなければ評価を終了する(S2080)。
このように、本実施形態に係る対象物評価システム1によれば、対象物を複数の方向から撮影して得られる画像を用いて、対象物について所定の学習及び評価を行うことができる。複数の画像を組み合わせた1つの画像を生成することで、各カメラが撮影した個別の画像のみには含まれない外観等の特徴を用いて対象物を評価することができるようになる。なお、評価に必要な外観の特徴に関する情報が保存されるように、複数の画像を合成することがでる。また、対象の外観のうち評価の対象となる範囲を複数の画像で撮影したときに、評価に影響する情報が失われないように画像を撮影するとよい。
以上、本発明の一実施形態について説明した。なお、本実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するためのものではない。また、本発明は、その趣旨を逸脱することなく、変更ないし改良され得るものである。例えば、画像出力装置10、複数画像取得装置20、機械学習装置30、画像評価装置40を含む各装置の構成は、上記実施形態で説明したものに限定されず、必要に応じて、他の装置が備える機能を備えるように改変可能である。また、上述の処理フローにおける各ステップは処理内容に矛盾を生じない範囲で各ステップの一部を省略したり、各処理ステップの順番を任意に変更して又は並列に実行することができる。
なお、本明細書において、「部」ないし「手段」とは、単に物理的構成を意味するものではなく、その「部」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」ないし「手段」や装置が有する機能が2つ以上の物理的構成や装置により実現されても、2つ以上の「部」ないし「手段」や装置の機能が1つの物理的手段や装置により実現されてもよい。
上述の実施形態では、カメラが特定の対象物を撮影する例を示したが、部屋や車室内、敷地内など所定の空間の内部を撮影した画像を評価する場合に、本評価システムを用いることができる。この場合、1つの面、例えば北側の壁に東から西に並べて複数のカメラを設置し、複数のカメラが撮影した画像を、順に並べることで、合成画像を構成することができる。例えば、劇場やコンサートホールなどでは、上下左右に配置してもよい。カメラの設置順に上下左右に画像を並べて、合成画像を構成することができる。通路のような長さがある空間の場合には、部分に区切って画像を合成してもよい。このとき、部分の端の一部が隣の部分と重なるように設定してもよい。
また、上述の実施形態では、カメラは1つの対象物Zを周囲で囲んで設置され、撮影方向は対象物Zの方向を向いていた。しかし、カメラは、必ずしも対象を囲むような位置及び方向に設置する必要はない。例えば、相互に背中合わせにして、周囲を見渡すように配置されてもよい。この手法は、例えば、走行中の車両の周辺監視、施設の敷地内や交差点などの監視、ドローンなどの飛行体による監視などに応用できる。このようにして取得された複数の画像を画像内の所定の位置に配置した合成画像を生成すればよい。例えば、オフィスの天井から複数の方向を同時に監視できるようにカメラを設置したり、所定の位置から周囲を監視するカメラを複数の位置に設置してもよい。
(付記1)
少なくとも1つのハードウェアプロセッサを備え、
前記ハードウェアプロセッサは、
対象物を第1の方向から撮影した第1の画像と、前記対象物を第2の方向から撮影した第2の画像とを少なくとも取得し、
機械学習可能な又は学習結果として得られた学習モジュールへの入力として、前記第1の画像と前記第2の画像とを少なくとも出力して、前記第1の画像を前記学習モジュールの備える入力手段のうち第1の部分から入力させ、前記第2の画像を前記入力手段のうち第2の部分から入力させる、
ことを特徴とする画像出力装置。
(付記2)
少なくとも1つ以上のハードウェアプロセッサによって、
対象物を第1の方向から撮影した第1の画像と、前記対象物を第2の方向から撮影した第2の画像とを少なくとも取得する工程と、
機械学習可能な又は学習結果として得られた学習モジュールへの入力として、前記第1の画像と前記第2の画像とを少なくとも出力する工程であって、前記第1の画像を前記学習モジュールの備える入力手段のうち第1の部分から入力させ、前記第2の画像を前記入力手段のうち第2の部分から入力させる、工程と、
を実行する画像出力方法。
1 対象物評価システム、10 画像出力装置、110 取得部(複数画像取得部)、120 画像関連情報取得部、130 画像配置決定部、140 画像合成部、150 出力部(合成画像出力部)、160 通信部、20 複数画像取得装置、21,22,23 カメラ、210 画像入力部、220 カメラ制御部、230 対象情報取得部、240 対象環境制御部、250 対象制御部、260 画像記憶部、270 取得条件情報記憶部、280 画像データ出力部、290 通信部、30 機械学習装置、310 学習モジュール、320 学習制御部、330 学習結果抽出部、340 学習結果出力部、350 通信部、40 画像評価装置、410 学習結果入力部、420 制御部、430 学習モジュール設定部、440 評価データ取得部、450 学習モジュール、460 評価結果出力部、470 通信部、50 学習依頼装置、60 学習依頼受付装置、610 メニュー表示/選択部、620 学習依頼情報取得部、630 学習プログラム起動部、640 通信部、70 学習データ作成装置、80 学習データベース装置、10X 合成画像、21X,22X,23X 画像、Rk 領域、N ネットワーク。

Claims (10)

  1. 対象物を第1の方向から撮影した第1の画像と、前記対象物を第2の方向から撮影した第2の画像とを少なくとも取得する取得部と、
    機械学習可能な又は学習結果として得られた学習モジュールへの入力として、前記第1の画像と前記第2の画像とを少なくとも出力する出力部であって、前記第1の画像を前記学習モジュールの備える入力手段のうち第1の部分から入力させ、前記第2の画像を前記入力手段のうち第2の部分から入力させる、出力部と、
    を備える画像出力装置。
  2. 前記出力部は、前記第1の画像と前記第2の画像とを所定の位置関係で一の画像内に含む合成画像を出力し、
    前記合成画像に含まれる前記第1の画像は前記第1の部分に入力され、前記合成画像に含まれる前記第2の画像は前記第2の部分に入力される、
    請求項1記載の画像出力装置。
  3. 前記合成画像は少なくとも前記第1の部分に入力される第1の領域と前記第2の部分に入力される第2の領域を備え、
    前記出力部は、前記第1の領域に前記第1の画像を配置し、前記第2の領域に前記第2の画像を配置した画像を、前記合成画像として出力する、
    請求項2記載の画像出力装置。
  4. 前記第1の方向と前記第2の方向の位置関係が保存されるように、前記第1の領域と前記第2の領域の位置が決定される、
    請求項3記載の画像出力装置。
  5. 前記第1の画像と前記第2の画像は、異なるカメラで略同時に取得されたものである、
    請求項1乃至4のいずれかに記載の画像出力装置。
  6. 前記第1の画像と前記第2の画像は、一のカメラで異なる時間に取得されたものである、
    請求項1乃至4のいずれかに記載の画像出力装置。
  7. 機械学習可能な学習モジュールを備える機械学習装置であって、
    請求項1乃至6のいずれかに記載の画像出力装置から出力された画像に基づいて生成された学習データによって前記学習モジュールの学習を行う、機械学習装置。
  8. 学習結果として得られた学習モジュールを備える画像評価装置であって、
    請求項1乃至6のいずれかに記載の画像出力装置から出力された画像に基づいて生成された評価データを前記学習モジュールに入力して、前記対象物の評価を行う、画像評価装置。
  9. 対象物を第1の方向から撮影した第1の画像と、前記対象物を第2の方向から撮影した第2の画像とを少なくとも取得する工程と、
    機械学習可能な又は学習結果として得られた学習モジュールへの入力として、前記第1の画像と前記第2の画像とを少なくとも出力する工程であって、前記第1の画像を前記学習モジュールの備える入力手段のうち第1の部分から入力させ、前記第2の画像を前記入力手段のうち第2の部分から入力させる、工程と、
    を備える画像出力方法。
  10. 機械学習可能な又は学習結果として得られた学習モジュールに入力される合成画像データのデータ構造であって、
    前記合成画像データは、少なくとも、
    対象物を第1の方向から撮影した画像であって、前記合成画像内の第1の領域に配置される第1の画像データと、
    前記対象物を第2の方向から撮影した画像であって、前記合成画像内において前記第1の領域と所定の位置関係を有する第2の領域に配置される第2の画像データと、
    を含む、合成画像データのデータ構造。
JP2017026397A 2017-02-15 2017-02-15 画像出力装置及び画像出力方法 Active JP6874410B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017026397A JP6874410B2 (ja) 2017-02-15 2017-02-15 画像出力装置及び画像出力方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017026397A JP6874410B2 (ja) 2017-02-15 2017-02-15 画像出力装置及び画像出力方法

Publications (2)

Publication Number Publication Date
JP2018132962A true JP2018132962A (ja) 2018-08-23
JP6874410B2 JP6874410B2 (ja) 2021-05-19

Family

ID=63248438

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017026397A Active JP6874410B2 (ja) 2017-02-15 2017-02-15 画像出力装置及び画像出力方法

Country Status (1)

Country Link
JP (1) JP6874410B2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020112483A (ja) * 2019-01-15 2020-07-27 春江 姚 外観検査システム、計算モデル構築方法及び計算モデル構築プログラム
JP2020128227A (ja) * 2019-02-08 2020-08-27 株式会社ナベル パック詰め製品の検査システム
WO2020202331A1 (ja) * 2019-03-29 2020-10-08 武蔵精密工業株式会社 検査システム及び検査方法
WO2021075072A1 (ja) * 2019-10-16 2021-04-22 新明和工業株式会社 対象検出装置、飛行体、対象検出方法、コンピュータプログラム及び学習モデルの生成方法
US11093779B2 (en) * 2018-06-26 2021-08-17 Yokogawa Electric Corporation Apparatus, method and recording medium
JP2021156653A (ja) * 2020-03-26 2021-10-07 株式会社奥村組 管渠損傷特定装置、管渠損傷特定方法および管渠損傷特定プログラム
WO2021235311A1 (ja) * 2020-05-18 2021-11-25 ファナック株式会社 機械学習装置及び機械学習システム
CN114170622A (zh) * 2021-10-05 2022-03-11 三信贸易株式会社 锦鲤评价装置、方法、程序以及存储介质
WO2022114190A1 (en) * 2020-11-30 2022-06-02 Brother Kogyo Kabushiki Kaisha Information processing system and information processing method
WO2023120306A1 (ja) * 2021-12-23 2023-06-29 日清紡ホールディングス株式会社 分類装置、分類方法、及び分類システム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093779B2 (en) * 2018-06-26 2021-08-17 Yokogawa Electric Corporation Apparatus, method and recording medium
JP2020112483A (ja) * 2019-01-15 2020-07-27 春江 姚 外観検査システム、計算モデル構築方法及び計算モデル構築プログラム
JP2020128227A (ja) * 2019-02-08 2020-08-27 株式会社ナベル パック詰め製品の検査システム
JP7233521B2 (ja) 2019-03-29 2023-03-06 Musashi AI株式会社 検査システム及び検査方法
WO2020202331A1 (ja) * 2019-03-29 2020-10-08 武蔵精密工業株式会社 検査システム及び検査方法
JPWO2020202331A1 (ja) * 2019-03-29 2020-10-08
WO2021075072A1 (ja) * 2019-10-16 2021-04-22 新明和工業株式会社 対象検出装置、飛行体、対象検出方法、コンピュータプログラム及び学習モデルの生成方法
JP2021156653A (ja) * 2020-03-26 2021-10-07 株式会社奥村組 管渠損傷特定装置、管渠損傷特定方法および管渠損傷特定プログラム
JP7356941B2 (ja) 2020-03-26 2023-10-05 株式会社奥村組 管渠損傷特定装置、管渠損傷特定方法および管渠損傷特定プログラム
WO2021235311A1 (ja) * 2020-05-18 2021-11-25 ファナック株式会社 機械学習装置及び機械学習システム
WO2022114190A1 (en) * 2020-11-30 2022-06-02 Brother Kogyo Kabushiki Kaisha Information processing system and information processing method
CN114170622A (zh) * 2021-10-05 2022-03-11 三信贸易株式会社 锦鲤评价装置、方法、程序以及存储介质
CN114170622B (zh) * 2021-10-05 2022-08-19 三信贸易株式会社 锦鲤评价装置、方法、程序以及存储介质
WO2023120306A1 (ja) * 2021-12-23 2023-06-29 日清紡ホールディングス株式会社 分類装置、分類方法、及び分類システム

Also Published As

Publication number Publication date
JP6874410B2 (ja) 2021-05-19

Similar Documents

Publication Publication Date Title
JP6874410B2 (ja) 画像出力装置及び画像出力方法
US20200394751A1 (en) Image feature combination for image-based object recognition
CN104463975B (zh) 设置方法以及信息处理装置
CN104346834B (zh) 信息处理设备和位置指定方法
US6954212B2 (en) Three-dimensional computer modelling
AU2006282762B2 (en) Reconstruction render farm used in motion capture
US20030218607A1 (en) Three-dimensional computer modelling
CN107507274A (zh) 一种基于云计算的公安案件现场三维实景快速还原方法
CN106797458A (zh) 真实对象的虚拟改变
CN107563978A (zh) 人脸去模糊方法及装置
Plum et al. scAnt—an open-source platform for the creation of 3D models of arthropods (and other small objects)
CN104284084B (zh) 图像处理设备、图像处理方法以及计算机存储介质
CN112686084A (zh) 图像标注系统
EP3309750B1 (en) Image processing apparatus and image processing method
CN110516751A (zh) 三维数据的处理方法、系统及设备
WO2023097773A1 (zh) 步态分析方法、装置、设备及存储介质
KR101865112B1 (ko) 외관 재질 모델링을 포함하는 3차원 복원 장치 및 그 방법
CN106462774A (zh) 通过规范形状的对象摄取、系统和方法
CN108876891A (zh) 人脸图像数据采集方法及人脸图像数据采集装置
Fong-on et al. Embedded photographic tomography
JP2022024189A (ja) 学習用データ作成方法、学習用データ作成装置及びプログラム
JP7258117B1 (ja) 画像処理装置、画像処理方法及びプログラム
US20210365730A1 (en) Method for generating training data and an electronic device
Zhao Automated phenotyping of seeds using traditional and convolutional neural network-based methods
US10504251B1 (en) Determining a visual hull of an object

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190306

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200409

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200828

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210323

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210405

R150 Certificate of patent or registration of utility model

Ref document number: 6874410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250