JP2020057299A - 収集装置、収集方法及び収集プログラム - Google Patents

収集装置、収集方法及び収集プログラム Download PDF

Info

Publication number
JP2020057299A
JP2020057299A JP2018188870A JP2018188870A JP2020057299A JP 2020057299 A JP2020057299 A JP 2020057299A JP 2018188870 A JP2018188870 A JP 2018188870A JP 2018188870 A JP2018188870 A JP 2018188870A JP 2020057299 A JP2020057299 A JP 2020057299A
Authority
JP
Japan
Prior art keywords
image
collection device
captured image
camera
captured
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018188870A
Other languages
English (en)
Other versions
JP6814775B2 (ja
Inventor
秉哲 ▲裴▼
秉哲 ▲裴▼
Byung-Chull Bae
翔太 斎藤
Shota Saito
翔太 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP2018188870A priority Critical patent/JP6814775B2/ja
Publication of JP2020057299A publication Critical patent/JP2020057299A/ja
Application granted granted Critical
Publication of JP6814775B2 publication Critical patent/JP6814775B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】機器等の操作が正しく行われたか否かを、自動的かつ正確に確認すること。【解決手段】収集装置10は、カメラ11を用いて画像を撮像する。また、収集装置10は、撮像した画像である撮像画像内のマーカ30を基準にしたARを実行し、カメラ11の位置及び姿勢を特定する。また、収集装置10は、撮像画像と、特定した位置及び姿勢を示す外部パラメータと、を対応付けて取得する。【選択図】図2

Description

本発明は、収集装置、収集方法及び収集プログラムに関する。
画像認識のための機械学習を行う場合、認識対象のオブジェクトが画角いっぱいに映った画像が用いられる。このような画像を収集するためには、認識対象のオブジェクトを様々な角度から撮影し、さらにそれぞれの画像に対しトリミング加工を行う必要がある。
また、AR(Augmented Reality)技術によれば、撮像した画像の傾きや、画像に映っているオブジェクトの位置を把握することができる(例えば、特許文献1又は特許文献2を参照)。
特開2008−249407号公報 国際公開第2014/061372号
しかしながら、従来の技術には、特定のオブジェクトの画像を効率的に収集することが困難な場合があるという問題がある。例えば、画像のトリミングは手動で行われるため、必要な画像の数が多くなると、膨大な時間がかかるようになる。
実施形態の収集装置は、撮像部と、特定部と、取得部とを有する。撮像部は、画像を撮像する。特定部は、撮像部によって撮像された画像である撮像画像内のマーカを基に、撮像部の位置及び姿勢を特定する。取得部は、撮像画像と、特定部によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する。
図1は、第1の実施形態に係る収集装置の利用シーンを説明するための図である。 図2は、第1の実施形態に係る収集装置の構成の一例を示す図である。 図3は、第1の実施形態に係る収集データについて説明するための図である。 図4は、第1の実施形態に係る仮想カメラについて説明するための図である。 図5は、第1の実施形態に係る正投影図について説明するための図である。 図6は、第1の実施形態に係る収集画像の一例を示す図である。 図7は、第1の実施形態に係る収集装置の処理の流れを示すフローチャートである。
以下に、本願に係る収集装置、収集方法及び収集プログラムの実施形態を図面に基づいて詳細に説明する。なお、本発明は、以下に説明する実施形態により限定されるものではない。
(第1の実施形態)
まず、図1を用いて、第1の実施形態に係る収集装置の利用シーンを説明する。図1は、第1の実施形態に係る収集装置の利用シーンを説明するための図である。収集装置10は画像を撮像する撮像機能を有しているものとする。収集装置10は、例えば、カメラ付きのスマートフォンである。
図1に示すように、ユーザは、収集装置10を用いて、撮像対象のオブジェクト20の撮像を行う。また、オブジェクト20の付近には、マーカ30が備えられている。マーカ30は、収集装置10がARを実行するためのマーカである。例えば、マーカ30は、QR(Quick Response)コード(登録商標)である。また、収集装置10は、マーカレスARを実行してもよい。
収集装置10は、撮像した画像と、画像の内部パラメータと、ARを実行することで得られる外部パラメータとを対応付けたデータを収集する。例えば、内部パラメータは、焦点距離、画像中心、解像度、歪み係数等である。また、外部パラメータは、ARを実行することによって特定されるカメラの位置及び姿勢である。そのほかにも、収集装置10は、撮像日時、場所、絞り、露光時間、センサの感度といったメタデータをパラメータとして取得してもよい。
また、収集装置10は、撮像した画像を加工した画像を収集してもよい。例えば、収集装置10は、撮像した画像をトリミングした画像を収集する。このとき、収集装置10は、外部パラメータを基にトリミングを行うことができる。
このように、収集装置10は、画像を、内部パラメータ及び外部パラメータとともに収集する。これにより、内部パラメータ又は外部パラメータを用いてトリミング等の加工を行うことで、収集した画像から対象オブジェクトが映った領域を抽出することができる。このため、収集装置10によれば、特定のオブジェクトの画像を効率的に収集することができる。
(第1の実施形態の収集装置の構成)
図2を用いて、収集装置10の構成について説明する。図2は、第1の実施形態に係る収集装置の構成の一例を示す図である。図2に示すように、収集装置10は、カメラ11、記憶部12及び制御部13を有する。カメラ11は、撮像部の一例である。
記憶部12は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、光ディスク、RAM(Random Access Memory)、フラッシュメモリ、NVSRAM(Non Volatile Static Random Access Memory)等の記憶装置である。記憶部12は、収集装置10で実行されるOS(Operating System)やプログラムを記憶する。さらに、記憶部12は、プログラムの実行で用いられる各種情報を記憶する。また、記憶部12は、AR情報121及び収集データ122を記憶する。
AR情報121は、ARを実行するための情報である。AR情報121には、マーカ30の画像が含まれる。また、AR情報121には、撮像対象のオブジェクトを配置する位置である撮像空間の、マーカ30に対する相対的な位置を示す情報が含まれる。例えば、撮像空間は、マーカ30に対する所定の位置に仮想的に配置された球等の立体の内部空間である。なお、マーカ30は、撮像空間が撮像対象のオブジェクトを内包するように設置されているものとする。
収集データ122は、収集装置10によって収集されたデータである。図3は、第1の実施形態に係る収集データについて説明するための図である。図3に示すように、収集データ122には、撮像画像122a及びパラメータ122bが含まれる。撮像画像122aは、カメラ11によって撮像された画像である。また、パラメータ122bには、日時、緯度経度、外部パラメータ及び内部パラメータが含まれる。図3の例における日時及び緯度経度は、それぞれ「2018/8/28 11:58:00」及び「35°N139°E」である。
図3に示すように、外部パラメータには、位置及び角度が含まれる。位置は、撮像時のカメラ11の位置を示す座標である。また、角度は、撮像時のカメラ11のx軸、y軸、z軸に対する回転角度である。図3の例における外部パラメータは、撮像画像122aを撮像した際のカメラ11の位置が(1.5,2,2)であり、x軸、y軸、z軸に対する回転角度が(0°,30°,30°)であったことを示している。
図3に示すように、内部パラメータには、焦点距離、解像度、画像中心及び歪み係数が含まれる。図3の例における内部パラメータは、撮像画像122aが、焦点距離50mmで撮像されたことを示している。また内部パラメータは、撮像画像122aの解像度が1920×1080であり、画像中心が(950,550)であり、歪み係数が0.01であることを示している。
制御部13は、収集装置10を制御する。制御部13は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等である。例えば、制御部13は、特定部131、取得部132及び抽出部133として機能する。
特定部131は、カメラ11によって撮像された画像内のマーカ30を基に、カメラ11の位置及び姿勢を特定する。特定部131は、既知のAR技術を用いて位置及び姿勢を特定することができる。また、特定部131は、特定した位置及び姿勢を表す外部パラメータ行列を計算することができる。
取得部132は、カメラ11によって撮像された画像と、特定部131によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する。例えば、取得部132は、撮像画像122a、パラメータ122bを取得し、収集データ122として記憶部12に格納する。
抽出部133は、パラメータを基に、カメラ11によって撮像された画像から、マーカ30に対してあらかじめ定められた位置にある所定の領域の画像を抽出する。ここでいう所定の領域は、例えば、前述のAR情報121に含まれる撮像空間である。
さらに、撮像空間は、仮想的な立体の内部空間とみなせる。このため、撮像空間を内包する仮想的な立体をフレームに収めた正投影画像には、撮像対象のオブジェクトが映っていることになる。そこで、抽出部133は、マーカ30に対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出する。なお、抽出部133は、撮像対象のオブジェクトの大きさ及び形状に応じて、抽出する領域の立体の大きさ及び形状を変化させてもよい。また、抽出部133は、抽出した正投影図を収集データ122として記憶部12に格納する。
図4を用いて、撮像空間を球の内部空間とした場合の抽出部133の処理の例について説明する。図4は、第1の実施形態に係る仮想カメラについて説明するための図である。図4に示すように、仮想球30aは、マーカ30に対してあらかじめ定められた位置に仮想的に配置されている。また、仮想球30aはオブジェクト20を内包している。
仮想カメラ11aは、仮想球30aが中心になるような正投影図を撮像する仮想的な正投影(Orthographic)カメラである。抽出部133は、仮想カメラ11aによって撮像された画像を抽出する。つまり、抽出部133は、カメラ11の位置及び姿勢が仮想カメラ11aの位置及び姿勢と同じであったと仮定した場合に、カメラ11が撮像したと考えられる撮像画像を抽出する。
なお、正投影図に対象のオブジェクトを最も大きく映すことができるのは、仮想球30aがオブジェクト20に外接している場合である。また、オブジェクト20の立体的な形状を事前に特定できている場合は、仮想球30aを形状に合わせて変形させてもよい。例えば、仮想球30aは、オブジェクト20に外接し、オブジェクト20との接点がなるべく多くなるような多面体に置き換えられる。
図5は、第1の実施形態に係る正投影図について説明するための図である。図5に示すように、抽出部133は、撮像画像201aから正投影図201bを抽出する。また、抽出部133は、撮像画像202aから正投影図202bを抽出する。また、抽出部133は、撮像画像203aから正投影図203bを抽出する。
図5の例では、撮像画像201a、撮像画像202a、撮像画像203aに映ったオブジェクト20の大きさはそれぞれ異なる。これに対し、正投影図201b、正投影図202b、正投影図203bに映ったオブジェクト20の大きさは同一である。一方で、正投影図201b、正投影図202b、正投影図203bに映ったオブジェクト20の角度はそれぞれ異なっている。このため、収集装置10は、異なる角度から撮像したオブジェクト20の画像を、大きさを揃えたうえで収集することができる。
また、収集装置10は、図6に示すように、少しずつ角度を変えたオブジェクト20の画像を収集することができる。図6は、第1の実施形態に係る収集画像の一例を示す図である。
収集画像が多様な角度から撮像されているほど、より有効な学習データになることが考えられる。逆に、同じ角度から撮像した多数の画像があったとしても、画像の数に対する学習データとしての有効性は低いと考えられる。
そこで、収集装置10は、なるべく多くの異なる角度から撮像が行われるように、音声や画面表示により、収集装置10を持ったユーザを所定の位置に誘導するようにしてもよい。
ここで、例えば、図4のように、オブジェクト20の周囲の空間を、仮想球30aの中心を原点とする互いに垂直な3軸を用いた空間座標を(x,y,z)のように表すとする。このとき、収集装置10は、収集画像の中から、x=0、y=0、z=0の平面で分割された8個の空間それぞれからの正投影図の数をカウントする。そして、収集装置10は、カウントした正投影図の数が所定値以下である空間からの正投影図が抽出可能な撮像画像が得られる位置にユーザを誘導する。
例えば、収集画像が、図1のオブジェクト20からユーザの方向(z軸のマイナス方向)を見て右側から見た画像に偏っている場合、収集装置10は、左側にユーザを誘導する。
また、収集データ122を用いることで、オブジェクト20をマーカとするARを容易に行うことができるようになる。例えば、ARを実行する際に撮像されたAR用の画像内に収集画像のいずれかが映っている場合、収集画像及び収集したパラメータから、オブジェクト20の正面の位置を基準としたときの、当該AR用の画像を撮像しているカメラの位置及び姿勢を特定することができる。
(第1の実施形態の処理)
図7を用いて、収集装置10の処理について説明する。図7は、第1の実施形態に係る収集装置の処理の流れを示すフローチャートである。まず、収集装置10は、オブジェクト20の画像を撮像する(ステップS101)。このとき、マーカ30がオブジェクト20の付近の所定の位置に備えられているものとする。
次に、収集装置10は、撮像した画像内のマーカ30を基に、カメラ11の位置と姿勢を特定する(ステップS102)。ここで、収集装置10は、撮像した画像及びパラメータを取得する(ステップS103)。パラメータは、外部パラメータ及び内部パラメータを含む。
さらに、収集装置10は、撮像した画像から、オブジェクト20が映った領域の画像を抽出する(ステップS104)。例えば、収集装置10は、前述の仮想カメラ11aを用いた手法により正投影図を抽出する。収集装置10は、抽出した画像及びパラメータを記憶部12に格納する(ステップS105)。
ここで、ユーザの操作等により撮像が終了した場合(ステップS106、Yes)、収集装置10は処理を終了する。また、引き続き撮像が行われる場合(ステップS106、No)、収集装置10はステップS101に戻り、処理を繰り返す。
(第1の実施形態の効果)
これまで説明してきたように、収集装置10はカメラ11を用いて画像を撮像する。また、収集装置10は、撮像した画像である撮像画像内のマーカ30を基に、カメラ11の位置及び姿勢を特定する。また、収集装置10は、撮像画像と、特定した位置及び姿勢を示すパラメータと、を対応付けて取得する。このため、本実施形態によれば、特定のオブジェクトの画像を効率的に収集することができる。例えば、本実施形態によれば、従来手動で行われていた画像のトリミングを自動で行うことができる。また、画像とともに収集されたパラメータは、機械学習の教師データに含めることができるため、収集したデータの活用の幅を広げることができる。
また、収集装置10は、パラメータを基に、撮像画像から、マーカ30に対してあらかじめ定められた位置にある所定の領域の画像を抽出する。これにより、ARを用いて撮像対象オブジェクトの位置を特定することができるようになる。
また、収集装置10は、マーカ30に対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出する。これにより、抽出する画像にオブジェクトを大きく映すことができるようになる。
なお、本実施形態の収集装置10で実行されるプログラムは、ROM等にあらかじめ組み込まれて提供される。本実施形態の収集装置10で実行されるプログラムは、インストール可能な形式又は実行可能な形式のファイルでコンピュータで読み取り可能な記録媒体に記録して提供するように構成してもよい。
さらに、本実施形態の収集装置10で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施形態の収集装置10で実行されるプログラムをインターネット等のネットワーク経由で提供又は配布するように構成してもよい。
本実施形態の収集装置10で実行されるプログラムは、上述した各部(特定部131、取得部132及び抽出部133)を含むモジュール構成となっており、実際のハードウェアとしてはCPUが上記ROMからプログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、特定部131、取得部132及び抽出部133が主記憶装置上に生成されるようになっている。
本発明の実施形態を説明したが、実施形態は、例として提示したものであり、発明の範囲を限定することは意図していない。実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。実施形態やその変形は、発明の範囲や要旨に含まれると同様に、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
10 収集装置
11 カメラ
12 記憶部
13 制御部
20 オブジェクト
30 マーカ
121 AR情報
122 収集データ
131 特定部
132 取得部
133 抽出部

Claims (5)

  1. 画像を撮像する撮像部と、
    前記撮像部によって撮像された画像である撮像画像内のマーカを基に、前記撮像部の位置及び姿勢を特定する特定部と、
    前記撮像画像と、前記特定部によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得部と、
    を有することを特徴とする収集装置。
  2. 前記パラメータを基に、前記撮像画像から、前記マーカに対してあらかじめ定められた位置にある所定の領域の画像を抽出する抽出部をさらに有することを特徴とする請求項1に記載の収集装置。
  3. 前記抽出部は、前記マーカに対してあらかじめ定められた位置に仮想的に配置された立体が中心になるような正投影図を抽出することを特徴とする請求項2に記載の収集装置。
  4. コンピュータによって実行される収集方法であって、
    カメラによって撮像された画像である撮像画像内のマーカを基に、前記撮像画像を撮像した時の前記カメラの位置及び姿勢を特定する特定工程と、
    前記撮像画像と、前記特定工程によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得工程と、
    を含むことを特徴とする収集方法。
  5. コンピュータを、
    カメラによって撮像された画像である撮像画像内のマーカを基に、前記撮像画像を撮像した時の前記カメラの位置及び姿勢を特定する特定手段と、
    前記撮像画像と、前記特定手段によって特定された位置及び姿勢を示すパラメータと、を対応付けて取得する取得手段と、
    として機能させることを特徴とする収集プログラム。
JP2018188870A 2018-10-04 2018-10-04 収集装置、収集方法及び収集プログラム Active JP6814775B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018188870A JP6814775B2 (ja) 2018-10-04 2018-10-04 収集装置、収集方法及び収集プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018188870A JP6814775B2 (ja) 2018-10-04 2018-10-04 収集装置、収集方法及び収集プログラム

Publications (2)

Publication Number Publication Date
JP2020057299A true JP2020057299A (ja) 2020-04-09
JP6814775B2 JP6814775B2 (ja) 2021-01-20

Family

ID=70107381

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018188870A Active JP6814775B2 (ja) 2018-10-04 2018-10-04 収集装置、収集方法及び収集プログラム

Country Status (1)

Country Link
JP (1) JP6814775B2 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299714A (ja) * 2007-06-01 2008-12-11 Japan Atomic Energy Agency 現場作業支援システム
WO2018078857A1 (ja) * 2016-10-31 2018-05-03 日本電気株式会社 視線推定装置、視線推定方法及びプログラム記録媒体
JP2018116599A (ja) * 2017-01-20 2018-07-26 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008299714A (ja) * 2007-06-01 2008-12-11 Japan Atomic Energy Agency 現場作業支援システム
WO2018078857A1 (ja) * 2016-10-31 2018-05-03 日本電気株式会社 視線推定装置、視線推定方法及びプログラム記録媒体
JP2018116599A (ja) * 2017-01-20 2018-07-26 キヤノン株式会社 情報処理装置、情報処理方法およびプログラム

Also Published As

Publication number Publication date
JP6814775B2 (ja) 2021-01-20

Similar Documents

Publication Publication Date Title
CN109416744A (zh) 改进的相机校准系统、目标和过程
JP2019212275A (ja) 画像処理方法、画像処理装置および電子機器
JP6320075B2 (ja) 画像処理装置およびその制御方法
TWI434567B (zh) An image processing apparatus, an image processing method, an image processing program, and a recording medium
TW200947356A (en) Composition determination device, composition determination method, and program
CN111815781A (zh) 增强现实数据呈现方法、装置、设备和计算机存储介质
CN107005655A (zh) 图像处理方法
JP2016212784A (ja) 画像処理装置、画像処理方法
JP5857712B2 (ja) ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
WO2016184152A1 (zh) 一种测量方法、装置、移动终端及存储介质
EP3309750A1 (en) Image processing apparatus and image processing method
JP6409769B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP2019201397A (ja) 撮影装置及びプログラム
JP6814775B2 (ja) 収集装置、収集方法及び収集プログラム
JP7183020B2 (ja) 画像処理装置、画像処理方法、及びプログラム
CN112073640A (zh) 全景信息采集位姿获取方法及装置、系统
US9721371B2 (en) Systems and methods for stitching metallographic and stereoscopic images
JP2005031044A (ja) 三次元誤差測定装置
JP2019113959A (ja) 鼻紋照合システム、鼻紋照合方法及び鼻紋照合プログラム
JP6694907B2 (ja) 判定装置、判定方法及び判定プログラム
JP6861592B2 (ja) データ間引き装置、測量装置、測量システム及びデータ間引き方法
JP2022546880A (ja) オブジェクト関連付け方法及び装置、システム、電子機器、記憶媒体及びコンピュータプログラム
JP2005309717A (ja) マーカ処理方法、マーカ処理装置、プログラム、および、記録媒体
CN113095347A (zh) 基于深度学习的标记识别方法和训练方法及其系统和电子设备
JP2006238362A (ja) 画像天地判定装置および方法並びにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201221

R150 Certificate of patent or registration of utility model

Ref document number: 6814775

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250