JP6734940B2 - 三次元計測装置 - Google Patents

三次元計測装置 Download PDF

Info

Publication number
JP6734940B2
JP6734940B2 JP2018565132A JP2018565132A JP6734940B2 JP 6734940 B2 JP6734940 B2 JP 6734940B2 JP 2018565132 A JP2018565132 A JP 2018565132A JP 2018565132 A JP2018565132 A JP 2018565132A JP 6734940 B2 JP6734940 B2 JP 6734940B2
Authority
JP
Japan
Prior art keywords
image
unit
camera
dimensional
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018565132A
Other languages
English (en)
Other versions
JPWO2018142496A1 (ja
Inventor
秀行 粂
秀行 粂
媛 李
媛 李
誠也 伊藤
誠也 伊藤
三好 雅則
雅則 三好
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Publication of JPWO2018142496A1 publication Critical patent/JPWO2018142496A1/ja
Application granted granted Critical
Publication of JP6734940B2 publication Critical patent/JP6734940B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/245Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures using a plurality of fixed, simultaneously operating transducers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、対象物の空間位置やサイズを、その対象物を撮影した複数の画像から推測する三次元計測装置に関する。
近年、監視分野において、撮影装置が撮影した画像から、対象物の位置やサイズを検出する画像認識技術のニーズが高まっている。この画像認識技術を、複数の撮影装置を用いるシステムへ適用する場合、複数の撮影装置が撮影した全画像を対象物の位置等の推定に使用すると、画像伝送にかかるネットワーク負荷や、画像処理にかかる演算負荷が過大となるため、使用画像を絞り込み、伝送・演算の負荷を軽減する必要がある。
これに関連する技術として、例えば、特許文献1の段落0066には「選択部118は、第1視点以外の複数の視点の中から、空間位置の推定誤差が他よりも小さい、前記基準画像との撮像時刻の差が他よりも小さい、及び画質が他よりも高い、の少なくともいずれかの条件を満たす視点を、第2視点に選択する。」との記載がある。
すなわち、複数の視点のうち、諸条件の何れかを満たす一つの視点を第2視点として選択し、この絞り込んだ第2視点から得られる画像を用いて、演算負荷を軽減しつつ、物体空間位置の推定精度を高める技術が開示されている(同文献の段落0063〜0090参照)。
特開2014−186004号公報
しかしながら、特許文献1の画像認識技術は、同文献の段落0026〜0028等で説明されるように、異なる撮像装置が撮像した画像にNTPサーバやGPS等から得た共通の撮像時刻情報を付すシステムを前提としており、共通の撮影時刻情報が付された撮影画像を複数用いて、物体の空間位置を推定するものであるため、各撮像装置が撮影画像に独自の撮像時刻情報を付すシステムには適用することができない。
また、特許文献1に記載されている発明は、推定に用いる画像の選択時に、カメラ配置などの空間的尺度とカメラ間の同期ずれ量などの時間的尺度のいずれか一方しか考慮しておらず、推定に用いるには不適切な画像を選択してしまう可能性もあり、計測精度が低くなってしまう可能性もある。
上記の問題を解決するため、本発明にかかる三次元計測装置は、複数のカメラと演算装置をネットワークを介して接続するとともに、複数の撮影部と、該撮影部から画像を取得する画像取得部と、前記画像が撮影されたローカル時刻を取得するローカル時刻取得部と、前記画像から動物体を検出する動物体検出部と、前記動物体が検出された画像を、それが撮影された前記ローカル時刻と関連付けて保持する画像保持部と、前記画像保持部に保持されている画像を選択する画像選択部と、該画像選択部が選択した画像とそれに関連付けられたローカル時刻から前記動物体の三次元位置とカメラ間の同期ずれを推定する三次元位置・同期ずれ推定部と、前記同期ずれを保持する同期ずれ保持部と、前記三次元位置・同期ずれ推定部の推定結果を出力する出力部と、を備え、前記画像選択部は、前記カメラ間の距離から計算される空間評価値と、前記画像保持部に保持されているローカル撮影時刻と前記同期ずれ保持部に保持されている同期ずれから計算される時間評価値と、に基づき画像を選択して取得するものとした。
本発明によれば、各撮影装置の撮影画像に独自の撮影時刻情報が付されている場合であっても、それらの撮影画像を用いて物体の位置やサイズを高精度に推定することができる。
また、複数条件を組み合わせて空間位置推定等に用いる複数画像を選択するので、ネットワーク負荷や演算負荷を更に軽減つつ、高精度に三次元位置が計測することができる。
実施例1の三次元計測装置の構成を示すブロック図 カメラの設置環境の一例を示す概略図 特定のカメラにおける、ローカル撮影時刻の一例を示す図 複数のカメラ間の、同期ずれの一例を示す図 特徴点の検出位置に対する再投影誤差の一例を示す図 特徴点の三次元位置の運動の一例を示す図 オプティカルフローに対する再投影誤差の一例を示す図 共通視野グラフの一例を示す図 共通視野グラフを作成する処理のフローチャート 画像選択部の処理を示すフローチャート 図10のステップS640で実行される処理の詳細を示すフローチャート 出力部が出力する二次元地図の一例を示す図 実施例2の三次元計測装置のブロック構成を示す図 実施例2の動カメラ処理部の処理を示すフローチャート 実施例2の共通視野グラフの一例を示す図
以下、図面を用いて、本発明の実施例を説明する。
以下、図1〜図12を参照して、実施例1の三次元計測装置を説明する。
(ブロック構成)
図1は、実施例1の三次元計測装置100のブロック構成を示す図である。三次元計測装置100は、複数の画像に基づいて計測対象の三次元位置やサイズを推定するものであり、図1に示すように、主に、複数のカメラ100Aと、それらとネットワークを介して接続される演算装置100Bから構成される。
カメラ100Aは、撮影部101と、画像取得部102と、ローカル撮影時刻取得部103と、動物体検出部104と、画像保持部105と、を備える。ここでは、カメラ100A(1)を例に詳細構造を示しており、同等構造のカメラ100A(2)、100A(3)については、詳細構造を省略している。
また、演算装置100Bは、画像選択部106と、三次元位置・同期ずれ推定部107と、同期ずれ保持部108と、出力部109と、を備える。
カメラ100Aは、たとえば、天井に固定され、ネットワークに接続された監視カメラであり、撮影部101によって予め定められた周期で画像を撮影する。画像取得部102は撮影部101が撮影した画像を取得する。ローカル撮影時刻取得部103は、画像取得部102によって取得された画像の撮影時刻を、当該カメラ100Aのローカル時刻で取得する。ここで、ローカル時刻とは、たとえば、各カメラの起動時間など、カメラ毎に定める任意時間を0とした時刻である。動物体検出部104は、画像取得部102が取得した画像から動物体を検出する。画像保持部105は、動物体が検出された画像を、それが撮影されたローカル撮影時刻と関連付けて保持する。
一方、演算装置100Bは、ネットワークに接続されたPCやサーバ等である。画像選択部106は画像保持部105に保持されている画像から所定の条件を満たすものを選択して取得する。なお、この条件の詳細は後述する。三次元位置・同期ずれ推定部107は、画像選択部106が選択した画像と対応するローカル撮影時刻から、動物体の三次元位置とカメラ間の同期ずれを推定する。同期ずれ保持部108は、三次元位置・同期ずれ推定部107が推定した複数のカメラ間の同期ずれを保持する。出力部109は、三次元位置・同期ずれ推定部107の推定結果を出力する。
以下の説明では、複数のカメラ100Aの識別子をkとし、Nをカメラ100Aの総数とする。すなわち、三次元計測装置100は、N台のカメラ100Aを備える。
図2はカメラ100Aの設置環境の一例を示す図である。各カメラ100Aは、他のカメラ100Aと視野が共通する領域を持っているため、三次元計測装置100は、複数のカメラ100Aの視野共通領域に存在する動物体150の三次元位置やサイズを計測することができる。なお、動物体150は、たとえば、観測対象となる歩行者や自動車、ロボットなどである。
次に、任意のk番目のカメラ100A(k)を例に、カメラ内部の詳細を説明する。画像取得部102は、撮影部101から画像を取得する。以下の説明では、撮影部101から取得した画像の識別子をiとする。また、ローカル撮影時刻取得部103は、画像取得部102が取得した各画像の撮影時刻である、ローカル撮影時刻lkiを取得する。
図3は、カメラ100A(k)におけるローカル撮影時刻の一例を示す図である。この例では、カメラ100A(k)の最初の画像の撮影時刻が120T、i番目の画像の撮影時刻が121T、i+1番目の画像の撮影時刻が122Tである。そして、最初の撮影時刻120Tをローカル時刻の基準である0と定めると、撮影時刻121Tに対応するローカル撮影時刻は121Tと120Tの差であるlkiとなり、撮影時刻122Tに対応するローカル撮影時刻は122Tと120Tの差であるlki+1となる。なお、各撮影時刻は、カメラ100Aが露光を開始した時刻、もしくは、露光を終了した時刻である。
ローカル撮影時刻取得部103は、カメラ100A(k)が備えるタイマーからローカル撮影時刻を直接取得できる場合は、タイマーからローカル撮影時刻lkiやlki+1を取得する。一方、タイマーを備えないが、撮影部101のフレームレートが一定かつ既知である場合は、カメラ100A(k)のフレームレートμから、式1を用いてローカル撮影時刻lkiやlki+1を計算する。
Figure 0006734940
動物体検出部104は、画像取得部102が取得した画像に動物体150が含まれているか判定する。判定には、たとえば、背景差分法やフレーム間差分法といった公知の動物体検出技術を用いることができる。画像保持部105は、動物体150が検出された画像を、それが撮影されたローカル撮影時刻と関連付けて保持する。
一方、演算装置100Bの画像選択部106は、カメラ100A(k)内の画像保持部105に保持されている、動物体150が検出された画像から所定の条件を満たす画像を選択して取得する。三次元位置・同期ずれ推定部107は、画像選択部106が取得した画像と、それに対応するローカル撮影時刻から、動物体150の三次元位置とカメラ100A同士の同期ずれを推定する。同期ずれ保持部108は、三次元位置・同期ずれ推定部107が推定した複数のカメラ100A間の同期ずれを保持する。出力部109は、三次元位置・同期ずれ推定部107の推定結果を出力する。ここで概説した演算装置100B内部の処理の詳細は後述する。
図4は、複数のカメラ100A間の同期ずれの一例を示す図である。ここに示す例では、図3と同じく、カメラ100A(k)の最初の画像の撮影時刻を120T、i番目の撮影画像の撮影時刻を121Tとしている。また、k+1番目のカメラ100A(k+1)の最初の画像の撮影時刻を123Tとしている。
任意の時刻130Tを基準とするグローバル時刻と、カメラ100Aのローカル時刻の間の差を同期ずれδとしたとき、図4に示す例では、各カメラ100Aの最初の撮影画像の撮影時刻120T、123Tを、各ローカル時刻の基準としているため、カメラ100A(k)の同期ずれδkは、撮影時刻120Tと時刻130Tの差として算出でき、カメラ100A(k+1)の同期ずれδk+1は、撮影時刻123Tと時刻130Tの差として算出できる。
また、カメラ100A(k)がi番目に撮影した画像の、グローバル時刻での撮影時刻であるグローバル撮影時刻τkiは、同期ずれδkとローカル撮影時刻lkiから式2により計算される。
Figure 0006734940
なお、図1では、カメラ100A内に、撮影部101、画像取得部102、ローカル撮影時刻取得部103、動物体検出部104、画像保持部105を設け、演算装置100B内に、画像選択部106、三次元位置・同期ずれ推定部107、同期ずれ保持部108、出力部109を設ける構成を示したが、各部をどちらに設けるかはこの構成に制限されず、例えば、カメラ100A内には撮影部101のみを設け、他を演算装置100B内に設ける構成としても良い。この場合、複数のカメラ100Aが撮影した全ての画像を演算装置100Bに送信する必要があるため、ネットワークの負荷は前者の構成に比べて大きくなるが、後述のように、三次元位置・同期ずれ推定部107を用いて、撮影時刻情報を共通しない各カメラ間の同期ずれを推定したうえで、対象物の空間位置やサイズを推測することができる。
(三次元位置・同期ずれ推定部107の動作)
次に、図5〜図7を用いて、三次元位置・同期ずれ推定部107における処理の内容について説明する。三次元位置・同期ずれ推定部107で行われる処理は、特徴点の対応付け、モーションセグメンテーション、最適化、の3つである。
最初の処理である、特徴点の対応付け処理では、画像選択部106が選択して取得した複数の画像間で計測対象上の同一点を対応付ける。同一点の対応付けには、公知の対応付け手法を用いることができる。たとえば、画像から対応付けが容易な点である特徴点を抽出し、対応付けに用いる。画像間の視点変化が小さい場合には、視点変化が小さい場合に高速・高精度に対応付けを得ることができるLK法(Bruce D. Lucas and Takeo Kanade, An Iterative Image Registration Technique with an Application to Stereo Vision, Int. Joint Conf. on Artificial Intelligence, pp. 674-679, 1981)を用いることができる。また、画像間の視点変化が大きい場合には、SIFT(D.G. Lowe, Distinctive Image Features from Scale-Invariant Keypoints, Int. J. of Computer Vision, vol. 60, no. 2, pp. 91-110, 2004)を用いることができる。
次の処理である、モーションセグメンテーション処理では、特徴点の対応付けによって得られた複数の特徴点対応を、画像中での特徴点の位置から、三次元空間における移動に応じたグループに分割する。三次元空間における移動に応じたグループへの分割には、公知のモーションセグメンテーション手法を用いることができる。たとえば、文献(R. Tron and R. Vidal, A Benchmark for the Comparison of 3-D Motion Segmentation Algorithms, Proc. IEEE Conf. on Computer Vision and Pattern Recognition, 8 pages, 2007)で紹介されている手法を用いることができる。
最後の処理である、最適化処理では、特徴点の対応付け結果と、モーションセグメンテーション結果から、特徴点の三次元位置とカメラ100A間の同期ずれを推定する。具体的には、目的関数として再投影誤差の二乗和Eを用い、再投影誤差の二乗和EをLevenberg-Marquardt法やガウスニュートン法などの公知の非線形最小二乗法を用いて最小化することにより、特徴点の三次元位置とカメラ100A間の同期ずれを推定する。再投影誤差の二乗和Eは式3により計算される。
Figure 0006734940
ここで、Epは特徴点の検出位置に対する再投影誤差の二乗和、Elは特徴点の検出位置から計算されるオプティカルフローに対する再投影誤差の二乗和を表わす。以下では、まず、特徴点の検出位置に対する再投影誤差の二乗和Epについて説明する。
図5は特徴点の検出位置に対する再投影誤差の一例を示す図である。特徴点の検出位置に対する再投影誤差200は、予測した特徴点の三次元位置201を、カメラ100Aの位置・姿勢を表わすカメラ外部パラメータと、焦点距離や光学中心位置、レンズ歪などのカメラ内部パラメータと、を用いて画像202へ投影した投影位置203と、同じ画像202中での実際の特徴点の検出位置204の距離である。カメラ100Aの位置・姿勢は、世界座標系205からカメラ座標系206への回転行列と平行移動ベクトルで表現される。ここで、世界座標系205は、三次元空間の任意の位置を原点とする直交座標系、カメラ座標系206はカメラ100Aの光学中心を原点とし、x軸を画像202のx軸方向、y軸を画像202のy軸方向、z軸をカメラ100Aの光軸方向に取った直交座標系である。
特徴点の検出位置に対する再投影誤差200の二乗和Epは式4により計算される。
Figure 0006734940
ここで、Kは画像選択部106が1つ以上の画像を選択したカメラ100Aの集合、Ikは画像選択部106が選択したカメラ100A(k)が撮影した画像202の集合、Pkiはカメラ100A(k)がi番目に撮影した画像202に対応付けられた特徴点の集合である。(xkij、ykijは正規化画像座標系におけるカメラ100A(k)でi番目に撮影された画像202におけるj番目の特徴点の検出位置204である。(x’kij、y’kijは世界座標系205におけるカメラ100A(k)でi番目に撮影された画像202におけるj番目の特徴点の三次元位置201をカメラ100A(k)でi番目に撮影された画像202へ投影した投影位置203である。
正規化画像座標系におけるカメラ100A(k)でi番目に撮影された画像202におけるj番目の特徴点の検出位置204(xkij、ykijは、たとえば、カメラモデルとして透視投影モデルを用いた場合、式5により計算される。ただし、カメラモデルは透視投影モデルに限定されるものではなく、全方位カメラ用のカメラモデルなど、他のカメラモデルを用いても良い。
Figure 0006734940
ここで、(ckx、ckyはカメラ100A(k)の光学中心の位置、(fkx、fkyTはカメラ100A(k)の焦点距離である。(ukjj、vkijはレンズ歪を取り除いた画像座標におけるカメラ100A(k)でi番目に撮影された画像202におけるj番目の特徴点の検出位置204であり、たとえば、レンズ歪モデルとして、レンズの半径方向の歪曲収差を用いた場合、式6.1、式6.2により計算される。ただし、レンズ歪モデルは、レンズの半径方向の歪曲収差に限定されるものではなく、レンズの半径方向に直交する接線方向の歪曲収差など、他のレンズモデルを用いても良い。
Figure 0006734940
ここで、(u’kjj、v’kijTは特徴点の検出処理で求まったカメラ100A(k)でi番目に撮影された画像202におけるj番目の特徴点の検出位置204である。κ、κはレンズ歪パラメータである。各カメラ100Aの光学中心の位置(ckx、ckyT、焦点距離(fkx、fkyT、レンズ歪パラメータκ1、κ2といったカメラ内部パラメータは、事前のカメラ校正により既知とする。
世界座標系205におけるカメラ100A(k)でi番目に撮影された画像202におけるj番目の特徴点の三次元位置201をカメラ100A(k)でi番目に撮影された画像202へ投影した投影座標203(x’kij、y’kijTは式7.1、式7.2により計算される。
Figure 0006734940
ここで、Rki WCki、tki WCkiは世界座標系205からカメラ100A(k)でi番目に撮影された画像202のカメラ座標系206への回転行列と平行移動ベクトルである。回転行列と平行移動ベクトルRki WCki、tki WCkiといったカメラ外部パラメータは、事前のカメラ校正により既知とする。pkij Wは世界座標系205におけるカメラ100A(k)でi番目に撮影された画像202のグローバル撮影時刻τkiにおけるj番目の特徴点の三次元位置201である。
ここで、グローバル撮影時刻τkiにおける特徴点の三次元位置201 pkij Wに制約を与えない場合、式4に示す特徴点の検出位置に対する再投影誤差200の二乗和Epを0にするpkij Wが無数に存在する。すなわち、グローバル撮影時刻τkiにおける特徴点の三次元位置201 pkij Wを一意に決定することができない。そこで、特徴点の三次元位置201 pkij Wの運動は、たとえば、等速直線運動や等加速度運動などの運動モデルにしたがうという制約を与える。また、モーションセグメンテーション処理の結果、同じグループに属する特徴点は、同じ運動モデルのパラメータで運動するという制約を追加で与えてもよい。
図6は特徴点の三次元位置201の運動の一例を示す図である。図6に示す例では、特徴点の三次元位置201が等速直線運動207により運動している。運動モデルとして等速直線運動を用いた場合、グローバル撮影時刻τkiにおける特徴点の三次元位置201 pkij Wは式8により計算される。
Figure 0006734940
ここで、pj Wは世界座標系205におけるグローバル時刻0におけるj番目の特徴点の三次元位置201、mg(j) Wはj番目の特徴点が属するグループの世界座標系205における速度である。
次に、特徴点の検出位置から計算されるオプティカルフローに対する再投影誤差の二乗和Elについて説明する。図7は、オプティカルフローに対する再投影誤差の一例を示す図である。オプティカルフローに対する再投影誤差210は、特徴点の三次元位置201を画像202へ投影した投影位置203と、特徴点の検出位置204から計算されるオプティカルフローに対応する直線211との間の距離である。
特徴点の検出位置から計算されるオプティカルフローに対する再投影誤差210の二乗和Elは式9により計算される。
Figure 0006734940
ここで、Pはすべての特徴点の集合、K2は画像選択部106により画像が2枚以上選択されている、位置・姿勢が変化しないカメラ100Aの集合である。qklは特徴点の検出位置204から計算されるオプティカルフローに対応する直線211である。qklはカメラ100A毎に、すべての選択された画像の特徴点の検出位置204に対して直線を当てはめることにより算出する。proj(pkij W、Rkl WCkl、tkl WCkl)は、式7と同様の計算により、カメラ100A(k)でi番目の画像が撮影された時刻におけるj番目の特徴点の三次元位置pkij Wを、k番目のカメラ100A(k)の位置・姿勢Rkl WCkl、tkl WCklを用いて、カメラ100A(k)で撮影された画像へ投影した投影位置を返す関数である。eは、直線と点の距離を返す関数である。
三次元位置・同期ずれ推定部107は、式10のように、再投影誤差の二乗和Eを最小化することで、特徴点の三次元位置201 pj W、特徴点の運動mg(j) W、カメラ間の同期ずれδkを推定する。
Figure 0006734940
ここで、Gはモーションセグメンテーション処理で得られたすべてのグループの集合である。k’は画像選択部106で1つ以上の画像202が選択されたカメラ100Aの中から任意に決定した時刻の基準となる1個のカメラ100Aである。
(共通視野グラフの作成)
三次元計測装置100では、実際の運用に先立ち、各カメラ100Aの位置・姿勢と内部パラメータから、カメラ100A間の共通視野の関係を表わす共通視野グラフ250を作成しておき、実際の運用時に、画像選択部106でこれを利用できるようにしている。図8は共通視野グラフ250の一例である。
ここに示すように、共通視野グラフ250は、ノード251と、エッジ252から構成される。ノード251は対応するカメラ番号のカメラ100Aを表わし、エッジ252は両端のノード251に対応するカメラ100A同士が共通視野を持つことを示す。従って、カメラ0を例にすると、カメラ1およびカメラ2と共通視野を持ち、他のカメラとは共通視野を持たないことが示されている。
図9は共通視野グラフ250を作成する処理のフローチャートである。
最初のステップS500では、共通視野グラフ250を初期化する。具体的には、各カメラ100Aに対応するノード251のみからなり、エッジ252を持たないグラフを作成する。
ステップS510では、Nk個のノード251から2つのノード251を選択するNk2個の組み合わせに対するループ処理を開始する。以降では、2つのノードに対応するカメラのうち、任意の1つのカメラを基準カメラ、他方のカメラを判定カメラとする。また、基準カメラのカメラ番号をka、判定カメラのカメラ番号をkbとする。
ステップS520では、2つのカメラが共通視野を持つかどうかを判定するために利用する三次元空間中のサンプル点に対するループ処理を開始する。サンプル点は基準カメラに基づいて作成する。たとえば、基準カメラの正規化画像座標系における画像x座標の最小値xkamin、最大値xkamax、基準カメラの正規化画像座標系における画像y座標の最小値ykamin、最大値ykamax、基準カメラのカメラ座標系206における奥行きの最小値Zkamin、最大値Zkamaxにより規定される三次元空間を、それぞれステップ幅xstep、ystep、Zstepでサンプリングし、サンプル点とする。xkamin、xkamax、ykamin、ykamaxは基準カメラの画像サイズから決定される。Zkamin、Zkamax、step、ystep、Zstepは、事前に任意に設定する。以降では、サンプル点の基準カメラの正規化画像座標系における画像x座標をxkas、基準カメラの正規化画像座標系における画像y座標をykas、基準カメラのカメラ座標系における奥行きをZkasとする。
ステップS530では、サンプル点が判定カメラに映るかどうかを判定する。まず、判定カメラのカメラ座標系206におけるサンプル点の三次元位置ps Ckbを式11.1〜式11.3により計算する。
Figure 0006734940
ここで、Rka CkaW、tka CkaWは基準カメラのカメラ座標系206から世界座標系205への回転行列と平行移動ベクトル、Rkb WCkb、tkb WCkbは世界座標系205から判定カメラのカメラ座標系206への回転行列と平行移動ベクトルである。次に、判定カメラのカメラ座標系206におけるサンプル点の三次元位置ps Ckbの判定カメラの正規化画像座標系における投影位置(x’kbs、y’kbsTを式12.1、式12.2により計算する。
Figure 0006734940
最後に、式13の判定式を計算する。
Figure 0006734940
ここで、xkbmin、xkbmaxは判定カメラの正規化画像座標系における画像x座標の最小値と最大値、ykbmin、ykbmaxは判定カメラの正規化画像座標系における画像y座標の最小値と最大値、Zkbmin、Zkbmaxは判定カメラのカメラ座標系206における奥行きの最小値と最大値である。xkbmin、xkbmax、ykbmin、ykbmaxは判定カメラの画像サイズから決定される。Zkbmin、Zkbmaxは、事前に任意に設定する。式13.1〜式13.3のすべての判定式を満たす場合に、判定カメラにサンプル点が映る、すなわち、2つのカメラが共通視野を持つと判定し、ステップS540に進む。ひとつでも判定式が満たされなかった場合は、次のサンプル点のループ処理に進む。
ステップS540では、基準カメラと判定カメラに対応する共通視野グラフ250のノード251間をつなぐエッジ252を追加する。ここまでの一連の処理により、共通視野グラフ250を完成させることができる。
(画像選択部106の動作)
次に図10〜図11を用いて、画像選択部106おける処理の内容について説明する。図10は画像選択部106において実行される処理を示すフローチャートである。ステップS600では、共通視野グラフ250を必要に応じて更新する。ステップS610では、現在、動物体150を検出しているかどうかを判定する。動物体150を検出している場合には、ステップS620に進み、動物体150を検出していない場合には、ステップS630に進む。ステップS620では、動物体150を計測するための選択対象画像を抽出する。ステップS630では、カメラ100Aの同期ずれを更新するための選択対象画像を抽出する。ステップS640では、評価値に基づいて選択対象画像から画像を選択する。以下、各ステップについて詳細に説明する。
最初のステップS600では、前の処理周期までの三次元位置・同期ずれ推定部107の処理結果に基づいて、共通視野グラフ250を更新する。具体的には、まず、事前に設定された回数以上、三次元位置・同期ずれ推定部107において、特徴点の対応付けを計算したカメラ100Aの組み合わせを抽出する。次に、抽出した組み合わせについて、各特徴点の対応付け処理によって対応付いた特徴点の数の平均を計算する。最後に、特徴点の数の平均が事前に設定した閾値以下の場合には、特徴点の対応が得られない組み合わせであると判定し、共通視野グラフ250から、該当するカメラ100Aに対応するノード251間をつなぐエッジ252を取り除く。
ステップS610では、各カメラ100Aが、現在、動物体150を検出しているかどうかを判定する。具体的には、画像保持部105が事前に設定された時間以内に更新されている場合、動物体150が検出されていると判定し、ステップS620に進む。画像保持部105が事前に設定された時間以上更新されていない場合、動物体150が検出されていないと判定し、ステップS630に進む。
ステップS620では、動物体150を計測するための選択対象の画像202を選択対象画像として抽出する。具体的には、まず、事前に設定された時間以内に画像保持部105に新しく追加された画像202を選択対象画像として抽出する。次に、画像保持部105に保持されているローカル撮影時刻と、同期ずれ保持部108に保持されている同期ずれから、抽出された画像に対応する最も古いグローバル撮影時刻を計算する。最後に、画像保持部105から、最も古いグローバル撮影時刻からτth以内に撮影された画像202を選択対象画像として追加で抽出する。τthは事前に設定された閾値である。
ステップS630では、同期ずれを更新するための選択対象の画像202を選択対象画像として抽出する。具体的には、画像保持部105に保持されているローカル撮影時刻と、同期ずれ保持部108に保持されている同期ずれから、画像保持部105に保持されている画像のグローバル撮影時刻を計算し、最も新しいグローバル撮影時刻からτ’th以内に撮影された画像202を選択対象画像として抽出する。τ’thは事前に設定された閾値である。ここで、ステップS630では、τ’thをτthより大きく設定することにより、動物体計測用の選択対象画像を抽出するステップS620より多くの画像を選択対象画像として抽出する。
ステップS640では、評価値に基づき、選択対象画像から画像を選択する。図11はステップS640で実行される処理の詳細を示すフローチャートである。
まず、ステップS641では、選択対象画像に基づいて、共通視野グラフ250を更新する。具体的には、撮影した画像が1枚も選択対象画像に含まれていないカメラ100Aに対応するノード251と、そのノード251につながるエッジ252を、共通視野グラフ250から除外する。
ステップS642では、共通視野グラフ250を連結成分分解し、各連結成分に対するループ処理(ステップS643〜S647)を開始する。共通視野グラフ250の連結成分分解には、幅優先探索や深さ優先探索などによる公知の技術を用いることができる。たとえば、図8に示した共通視野グラフ250は、2つの連結成分に分解される。1つは、0、1、2、3番目のカメラに対応するノード251とそれらをつなぐエッジ252からなる連結成分であり、もう1つは、4、5、6番目のカメラに対応するノード251とそれらをつなぐエッジ252からなる連結成分である。
ステップS643では、処理対象の連結成分に含まれるカメラ100Aで撮影された選択対象画像から画像の組み合わせを選択候補画像として選択し、各組み合わせに対するループ処理(ステップS644〜S646)を開始する。以下では、処理対象の連結成分に含まれるカメラ100Aで撮影された選択候補画像の枚数をNcimgとする。また、処理対象の連結成分に含まれるカメラ100Aの数をNccamとする。具体的には、ステップS643では、Ncimg枚の画像からNs枚の画像を選択する。まず、各カメラ100Aによって撮影された画像の内、最もローカル撮影時刻が新しい画像202を選択する。すなわちNccam枚の画像202を選択する。次に残りのNcimg − Nccam枚の画像からNs − Nccam枚の画像を選択する(Ncimg - Nccam)(Ns - Nccam)通りの画像202の組み合わせを生成し、各組み合わせに対するループ処理を開始する。各組み合わせに含まれる画像を選択候補画像とする。
ステップS644では、選択候補画像に対する、空間評価値Vを式14.1〜式14.3により算出する。
Figure 0006734940
ここで、C2は選択候補画像から2枚の画像を選ぶすべての組み合わせの集合である。Gは前の処理周期において三次元位置・同期ずれ推定部107のモーションセグメンテーション処理で得られたすべてのグループの集合である。pg Wは前の処理周期において三次元位置・同期ずれ推定部107により推定されたグループ内の特徴点の三次元位置の平均であり、グループに対応する動物体の三次元位置を表わす。C2gは式12、式13と同様の処理により判定された、選択候補画像の内、pg Wの投影位置が画像の範囲内であり、かつ、カメラからpg Wまでの奥行きが事前に設定した値以内の画像を、2枚選ぶすべての組み合わせの集合である。(kα、iα)、(kβ、iβ)は集合から選択された2枚の画像202のカメラ番号と、画像番号である。tkαiα CkαiαW、tkβiβ CkβiβWは、それぞれkα番目のカメラ100A(kα)でiα番目に撮影された画像202の世界座標系205における位置、kβ番目のカメラ100A(kβ)でiβ番目に撮影された画像202の世界座標系205における位置である。∠(tkαiα CkαiαW、pg W、tkβiβ CkβiβW)は、pg Wを中心として、tkαiα CkαiαW、pg W、tkβiβ CkβiβWの3点がなす角度である。λd、λaは事前に設定された重みである。
ステップS645では、選択候補画像に対する、時間評価値Vtを式15により算出する。
Figure 0006734940
ここで、στは、選択候補画像のグローバル撮影時刻の標準偏差である。
ステップS646では、選択候補画像に対する空間評価値Vsと時間評価値Vtから式16により評価値Vを計算する。
Figure 0006734940
ここで、λs、λtは事前に設定された重みである。
ステップS647では、すべての選択候補画像の組み合わせから、評価値Vが最も大きい組み合わせを、三次元位置・同期ずれ推定部107の入力として選択する。
以上で説明した、各連結成分、各画像の組み合わせに対する、ステップS641〜S647の処理により、ステップS640の評価値に基づく画像選択を実現することができる。
(出力部109の動作)
次に、図12を用いて、出力部109の動作について説明する。出力部109は、三次元位置・同期ずれ推定部107により推定された特徴点の三次元位置201を管理サーバ等の外部装置に出力する。また、出力部109は、三次元位置・同期ずれ推定部107により推定された特徴点の三次元位置201を三次元もしくは二次元の地図を用いて表示しても良い。
図12は、出力部109が外部装置に出力する二次元地図の一例を示す図である。図12では、カメラ100Aの位置・姿勢をカメラのアイコン301により表示している。また、三次元位置・同期ずれ推定部107により推定された三次元位置201をアイコン302で表示している。ここで、モーションセグメンテーションの結果を用いて、グループ毎に違うアイコン(○または△)を用いている。また、三次元位置・同期ずれ推定部により推定された各グループの進行方向である運動パラメータを矢印アイコン303により表示している。加えて、画像選択部106が選択した、アイコン302や矢印アイコン303の抽出、推定の根拠となる画像を、対応する各カメラ100Aを表わすアイコン301の近くに吹き出し304として表示している。
(作用効果)
上述した実施例1によれば、次の作用効果が得られる。
(1) 本実施例の三次元計測装置100では、画像選択部106が、三次元位置・同期ずれ推定部107の推定結果と、同期ずれ保持部108に保持されている同期ずれと、に応じて三次元位置・同期ずれ推定部107が推定に用いる画像を、画像保持部105から選択するようにした。そのため、三次元位置・同期ずれ推定部108が処理する画像202の枚数が少なくなり、計算量が軽減される。
(2) 画像選択部106は、カメラ100Aの位置・姿勢と、共通視野グラフ250から、カメラ100A間の距離に基づいて空間評価値を計算し(図11、ステップS644)、画像保持部105に保持されているローカル撮影時刻と、同期ずれ保持部108に保持されている同期ずれから、時間評価値を計算する(図11、ステップS645)。また、画像保持部106は、空間評価値と時間評価値から、評価値を計算し、評価値が高い画像202の組み合わせを選択する(図11、ステップS646)。そのため、カメラ100A間の距離が大きく、かつ、撮影時刻の差が小さい画像202が選択されることにより、三次元位置・同期ずれ推定部107による三次元位置の推定精度が高くなる。
(3) 画像選択部106は、カメラ100Aの位置・姿勢と、共通視野グラフ250と、前の処理周期における三次元位置・同期ずれ推定部107の推定結果と、から空間評価値を計算する(図11、ステップS644)。そのため、前の処理周期における計測対象の三次元位置を計測するのに適した画像202が選択されることにより、三次元位置・同期ずれ推定部107による三次元位置の推定精度が高くなる。
(4) 画像選択部106は、カメラ100Aの内部・外部パラメータから、カメラ100A間の共通視野の関係を表わす共通視野グラフ250を作成し、共通視野グラフ250に基づいて三次元位置・同期ずれ推定部107が推定に用いる画像202を、画像保持部105から選択する(図8、図9、ステップS500〜ステップS540、図11、ステップS641、ステップS642、ステップS644)。そのため、共通視野が存在するカメラ100Aにより撮影された画像202の組み合わせのみを伝送・処理することで、伝送・処理される画像202の枚数が少なくなり、ネットワーク・サーバの負荷が軽減される。
(5) 画像選択部106は、前の処理周期までにおける三次元位置・同期ずれ推定部107における特徴点の対応付け結果から、共通視野グラフ250を更新する(図10、ステップS600)。そのため、特徴点の対応が得られるカメラ100Aにより撮影された画像202の組み合わせのみを伝送・処理することで、伝送・処理される画像202の枚数が少なくなり、ネットワーク・サーバの負荷が軽減される。
(6) 画像選択部106は、現在、動物体150が検出されているかどうかを判定し、動物体が検出されていない場合には、動物体が検出されている場合より多くの画像を選択対象画像として抽出する(図10、ステップS610〜ステップS630)。そのため、動物体150が検出されていない時間を利用して、多くの画像を入力として三次元位置・同期ずれ推定部107の処理を実行することにより、高精度に同期ずれを求め、同期ずれ保持部108を更新することができる。これにより、次に動物体が検出された際には、高精度な同期ずれに基づき画像を選択することにより、三次元位置・同期ずれ推定部107による三次元位置の推定精度が高くなる。
(7) 三次元計測装置100は、画像取得部102とローカル撮影時刻取得部103と、動物体検出部104と、画像保持部105と、を各カメラ100A内に設け、画像選択部106と、三次元位置・同期ずれ推定部107と、同期ずれ保持部108と、出力部109と、を各カメラ100Aとネットワークを介して接続されたPCやサーバに設けても良い。これにより、画像選択部105により選択された画像202のみを、ネットワークを通して各カメラ100Aからサーバに伝送すれば良いため、伝送される画像202の枚数が少なくなり、ネットワークの負荷を軽減できる。
(8) 三次元位置・同期ずれ推定部107は、複数のカメラ100Aによって撮影された複数の画像202とローカル撮影時刻から、カメラ幾何と計測対象の運動モデルに基づいた、特徴点の検出位置に対する再投影誤差と、特徴点の検出位置から計算されるオプティカルフローに対する再投影誤差と、からなる目的関数を最小化することで、計測対象の三次元位置と、運動モデルのパラメータと、カメラ100A間の同期ずれを推定する(図5、図6、図7)。そのため、カメラ100A間の同期ずれと計測対象の運動モデルが考慮されることにより、カメラ100A間に同期ずれが存在する場合においても、高精度に計測対象の三次元位置を推定することができる。
(9) 出力部109はカメラ100Aの位置・姿勢と、画像選択部106により選択された画像と、三次元位置・同期ずれ推定部107が推定した計測対象の三次元位置と運動モデルのパラメータを、二次元もしくは三次元の地図に表示するようにした(図12)。そのため、三次元計測装置100の利用者は容易に計測結果を確認することができる。
(変形例1)
上述の実施例1では、画像選択部106は、前の処理周期において三次元位置・同期ずれ推定部107により推定されたグループ内の特徴点の三次元位置の平均pg Wを用いて、空間評価値Vsを算出する(図11、ステップS644)。しかし、空間評価値Vsの算出方法はこれに限定されない。
変形例1の画像選択部106では、前の処理周期において三次元位置・同期ずれ推定部107により推定されたグループの運動モデルのパラメータを用いて空間評価値Vsを算出する。たとえば、運動モデルのパラメータから計算されるグループの移動方向を表わす三次元ベクトルと、2つのカメラ100Aの組み合わせの一方のカメラ100Aの位置からもう一方のカメラ100Aの位置への三次元ベクトルと、のなす角を空間評価値Vの算出に用いても良い。
この変形例1によれば、画像選択部106は、前の処理周期における計測対象の運動モデルのパラメータにより運動している物体を計測するのに適した画像202を選択する。そのため、三次元位置・同期ずれ推定部107による三次元位置の推定精度が高くなるという作用効果が得られる。
(変形例2)
上述の実施例1では、画像選択部106は、前の処理周期において三次元位置・同期ずれ推定部107により推定されたグループ内の特徴点の三次元位置の平均pg Wを用いて、空間評価値Vsを算出する(図11、ステップS644)。しかし、空間評価値Vsの算出方法はこれに限定されない。
変形例2の画像選択部106では、共通視野グラフ250の連結成分毎に、すべての処理周期において三次元位置・同期ずれ推定部107により推定された特徴点の三次元位置201の平均を、pg Wの代わりに用いて空間評価値Vsを算出する。
この変形例2によれば、画像選択部106は、カメラ100Aが設置されている環境において、計測対象が存在する可能性が高い三次元位置を計測するのに適した画像202を選択する。そのため、三次元位置・同期ずれ推定部107による三次元位置の推定精度が高くなるという作用効果が得られる。
(変形例3)
上述の実施例1では、画像選択部106は、選択候補画像のグローバル撮影時刻から、選択候補画像に対する、時間評価値Vtを式15により算出する(図11、ステップS645)。しかし、時間評価値Vtの算出方法はこれに限定されない。
変形例3の画像選択部106では、選択候補画像のグローバル撮影時刻から、選択候補画像に対する、時間評価値Vtを式17により算出する。
Figure 0006734940
この変形例3によれば、画像選択部106は、撮影時刻の差が大きい画像202を選択する。そのため、様々な撮影時刻の画像202が選択されることにより、三次元位置・同期ずれ推定部107による計測対象の運動モデルのパラメータの推定精度が高くなるという作用効果が得られる。
(変形例4)
上述の実施例1では、三次元計測装置100は、各カメラ100Aから画像取得部102によって取得された各画像に対して処理を実施した。しかし、三次元計測装置100の処理はこれに限定されない。
変形例4では、三次元計測装置100は、各カメラ100Aを、部分画像を撮影する部分カメラとみなし、各部分カメラによって取得された各部分画像を、1つの画像202とみなして処理する。たとえば、各画像202をx軸方向、y軸方向ともに半分に分割し、4つの部分画像とする。動物体検出部104は各部分画像に動物体が含まれているかどうかを判定する。画像保持部105は動物体が含まれていると判定された部分画像を保持する。画像選択部106は、画像保持部105に保持されている部分画像を選択する。ここで、共通視野グラフ250は、各部分カメラをノード251として作成する。三次元位置・同期ずれ推定部107は、画像選択部106により選択された部分画像を入力として特徴点の三次元位置とカメラの同期ずれを推定する。ここで、カメラ100A(k)を分割した各部分カメラは、1つの同期ずれδkを共有して用いる。
この変形例4によれば、画像選択部106は、部分カメラ間の共通視野の関係を表わす共通視野グラフ250を作成し、共通視野グラフ250に基づいて三次元位置・同期ずれ推定部107が推定に用いる部分画像を、画像保持部105から選択する。そのため、共通視野が存在する部分カメラにより撮影された部分画像の組み合わせのみを伝送・処理することで、伝送・処理される画像のサイズが小さくなり、ネットワーク・サーバの負荷が軽減されるという作用効果が得られる。
以下、図13〜15を参照して、実施例2の三次元計測装置を説明する。以下の説明では、実施例1と同じ構成要素には同じ符号を付して相違点を主に説明する。特に説明しない点については、実施例1と同じである。本実施例では、カメラ100Aに、位置・姿勢が変化するカメラが含まれている場合を対象とする。以下では、位置・姿勢が変化するカメラを動カメラ400Aとする。動カメラ400Aは、たとえば、移動ロボットに搭載されたカメラやパン・チルト・ズームカメラである。
(ブロック構成)
図13は三次元計測装置400のブロック構成を示す図である。本実施例の三次元計測装置400は、実施例1の三次元計測装置100の構成に、動カメラ400Aを追加したものであり、その動カメラ400Aは他のカメラ100Aの構成に加えて、動カメラ処理部410をさらに備える。動カメラ処理部410は、位置・姿勢が変化する動カメラ400Aが撮影した画像を処理するものであり、その詳細を次に説明する。
(動カメラ処理部410の動作)
次に、図14、図15を用いて、動カメラ処理部410での処理の詳細を説明する。図14は、動カメラ処理部410が実行する処理を示すフローチャートであり、ステップS700は、動カメラ400Aの位置・姿勢を推定するステップ、ステップS710は、動カメラ400Aで撮影された画像に動物体が含まれているか判定するステップである。ステップS720では、ステップS710で動物体が含まれていると判定された場合にはステップS730に進み、動物体が含まれていないと判定された場合には、動カメラ処理部410の処理を終了する。ステップS730では、動カメラ400Aで撮影された画像に対する共通視野グラフを更新する。以下、各ステップを詳細に説明する。
まず、ステップS700では、画像取得部102により取得された画像から、画像が撮影された時刻における動カメラ400Aの位置・姿勢を推定する。動カメラ400Aの位置・姿勢の推定には、Structure from Motion法やVisual Simultaneous Localization and Mapping(vSLAM)法などの公知の手法を用いることができる。たとえば、vSLAM法としては、G. Klein and D. Murray, Parallel Tracking and Mapping for Small AR Workspaces, Proc. IEEE and ACM Int. Symp. on Mixed and Augmented Reality, pp.225-234, 2007.を用いることができる。また、動カメラ400Aに、位置・姿勢を計測するためのセンサを追加しても良い。たとえば、センサとしてIMU(Inertial Measurement Unit)を用いる場合には、IMUにより計測された加速度と角速度を積分することで、位置・姿勢を推定することができる。
次のステップS710では、画像取得部102によって取得された画像に動物体が含まれているか判定する。判定には、たとえば、時間的に連続する画像間のオプティカルフローから、動カメラ400Aの動きによるオプティカルフローを取り除いた結果、残ったオプティカルフローを動物体と判定する公知の技術を用いることができる。また、vSLAM法で用いる時間的に連続する画像間の特徴点対応に、外れ値が多く含まれている場合に、動物体が存在すると判定しても良い。
ステップS730では、動カメラ400Aで撮影された画像に対する共通視野グラフを更新する。図15は、三次元計測装置400における共通視野グラフ450の一例を示す図である。この共通視野グラフ450は、固定カメラに対応するノード251に加え、動カメラ400Aが撮影した画像毎に用意されたノード451を備える。画像毎に別のノード451として扱うのは、動カメラ400Aで撮影された画像は、画像毎に位置・姿勢が異なる可能性が高いからである。
このステップS730では、まず、画像取得部102により取得された画像に対応するノード451を共通視野グラフ450に追加する。次に、追加したノード451から、共通視野グラフ450に既に存在するノード251、451に対して、共通視野が存在する場合にはエッジ252を追加する。具体的には、組み合わせの一方を追加したノード451として、三次元計測装置100における共通視野グラフ250を作成するためのステップS510からステップS540の処理を実行する。
ここで、ステップS730の処理の計算コストは、共通視野グラフ450に存在するノード251、451の数に比例する。そこで、処理時間を制限するために、共通視野グラフ450内のノード251、451の数を制限する。具体的には、ローカル撮影時刻が、各カメラ100A、動カメラ400Aの最も新しいローカル撮影時刻から一定以上前の画像に対応するノード451と、ノード451につながるエッジ252を共通視野グラフ450から削除する。
(作用効果)
上述した実施例2によれば、三次元計測装置400では、動カメラ処理部410が、画像取得部102によって取得された動カメラ400Aの画像から、画像撮影時の位置・姿勢の推定、動物体の検出、共通視野グラフの更新をする。そのため、カメラ100Aとして、位置・姿勢が変化する動カメラ400Aを用いる場合でも、ネットワーク・サーバの負荷を軽減しながら、高精度に三次元位置を計測できるという作用効果が得られる。
本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。本発明の技術的思想の範囲内で考えられるその他の態様も本発明の範囲内に含まれる。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
100…三次元計測装置、100A…カメラ、100B…演算装置、101…撮影部、102…画像取得部、103…ローカル撮影時刻取得部、104…動物体検出部、105…画像保持部、106…画像選択部、107…三次元位置・同期ずれ推定部、108…同期ずれ保持部、109…出力部、150…動物体、200…特徴点の検出位置に対する再投影誤差、210…オプティカルフローに対する再投影誤差、250、450…共通視野グラフ、251、451…ノード、252…エッジ、400…三次元計測装置、400A…動カメラ、410…動カメラ処理部

Claims (9)

  1. 複数のカメラと演算装置をネットワークを介して接続した三次元計測装置であって、
    複数の撮影部と、
    該撮影部から画像を取得する画像取得部と、
    前記画像が撮影されたローカル時刻を取得するローカル撮影時刻取得部と、
    前記画像から動物体を検出する動物体検出部と、
    前記動物体が検出された画像を、それが撮影された前記ローカル時刻と関連付けて保持する画像保持部と、
    前記画像保持部に保持されている画像を選択する画像選択部と、
    該画像選択部が選択した画像とそれに関連付けられたローカル時刻から前記動物体の三次元位置とカメラ間の同期ずれを推定する三次元位置・同期ずれ推定部と、
    前記同期ずれを保持する同期ずれ保持部と、
    前記三次元位置・同期ずれ推定部の推定結果を出力する出力部と、
    を備え
    前記画像選択部は、
    前記カメラ間の距離から計算される空間評価値と、
    前記画像保持部に保持されているローカル撮影時刻と前記同期ずれ保持部に保持されている同期ずれから計算される時間評価値と、
    に基づき画像を選択して取得することを特徴とする三次元計測装置。
  2. 請求項に記載の三次元計測装置において、
    前記画像選択部は、前記三次元位置・同期ずれ推定部の推定結果から計算される空間評価値に基づき画像を選択して取得することを特徴とする三次元計測装置。
  3. 請求項1または請求項2に記載の三次元計測装置において、
    前記画像選択部は、前記複数のカメラの外部・内部パラメータから算出した前記カメラ間の共通視野の関係に基づき画像を選択して取得することを特徴とする三次元計測装置。
  4. 請求項に記載の三次元計測装置において、
    前記画像選択部は、前記三次元位置・同期ずれ推定部の処理結果に基づいて前記カメラ間の共通視野の関係を更新することを特徴とする三次元計測装置。
  5. 請求項1から請求項のいずれか一項に記載の三次元計測装置において、
    前記画像選択部は、前記画像保持部が一定時間更新されていない場合に動物体が検出されていないと判断し、動物体が検出されている場合より多くの画像を選択して取得することを特徴とする三次元計測装置。
  6. 請求項1から請求項の何れか一項に記載の三次元計測装置であって、
    前記カメラに前記撮影部、前記画像取得部、前記ローカル撮影時刻取得部、前記動物体検出部、および、前記画像保持部を設け、他を前記演算装置に設けた構成、または、
    前記カメラに前記撮影部を設け、他を前記演算装置に設けた構成、
    の何れかの構成であることを特徴とする三次元計測装置。
  7. 請求項に記載の三次元計測装置において、
    前記三次元位置・同期ずれ推定部は、カメラ幾何と計測対象の運動モデルに基づいた目的関数を最小化することで、計測対象の三次元位置と、運動モデルのパラメータと、カメラ間の同期ずれを推定することを特徴とする三次元計測装置。
  8. 請求項に記載の三次元計測装置において、
    前記出力部は、前記カメラの位置・姿勢と、前記画像選択部により選択された前記画像と、前記三次元位置・同期ずれ推定部により推定された計測対象の三次元位置と運動モデルのパラメータと、を二次元もしくは三次元の地図に表示することを特徴とする三次元計測装置。
  9. 請求項に記載の三次元計測装置において、
    前記複数のカメラには、位置・姿勢が変化する動カメラを含み、
    該動カメラが撮影した画像から、該動カメラの位置・姿勢の推定、動物体の検出、前記複数のカメラ間の共通視野の関係を更新する動カメラ処理部、
    をさらに備えることを特徴とする三次元計測装置。
JP2018565132A 2017-02-01 2017-02-01 三次元計測装置 Active JP6734940B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/003536 WO2018142496A1 (ja) 2017-02-01 2017-02-01 三次元計測装置

Publications (2)

Publication Number Publication Date
JPWO2018142496A1 JPWO2018142496A1 (ja) 2019-11-07
JP6734940B2 true JP6734940B2 (ja) 2020-08-05

Family

ID=63040322

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018565132A Active JP6734940B2 (ja) 2017-02-01 2017-02-01 三次元計測装置

Country Status (3)

Country Link
US (1) US11132810B2 (ja)
JP (1) JP6734940B2 (ja)
WO (1) WO2018142496A1 (ja)

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10096067B1 (en) * 2014-01-24 2018-10-09 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
GB2560387B (en) 2017-03-10 2022-03-09 Standard Cognition Corp Action identification using neural networks
US11200692B2 (en) 2017-08-07 2021-12-14 Standard Cognition, Corp Systems and methods to check-in shoppers in a cashier-less store
US10474988B2 (en) 2017-08-07 2019-11-12 Standard Cognition, Corp. Predicting inventory events using foreground/background processing
CN107423445B (zh) * 2017-08-10 2018-10-30 腾讯科技(深圳)有限公司 一种地图数据处理方法、装置及存储介质
JP7086630B2 (ja) * 2018-02-09 2022-06-20 キヤノン株式会社 情報処理装置、情報処理方法、及びプログラム
JP6974290B2 (ja) * 2018-10-31 2021-12-01 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co., Ltd 位置推定装置、位置推定方法、プログラム、及び記録媒体
US11232575B2 (en) 2019-04-18 2022-01-25 Standard Cognition, Corp Systems and methods for deep learning-based subject persistence
JP2021060252A (ja) * 2019-10-04 2021-04-15 三菱重工業株式会社 画像測定方法及び画像測定システム
US20210259779A1 (en) * 2020-02-20 2021-08-26 Verb Surgical Inc. Multi-camera user interface device calibration and tracking
US11361468B2 (en) 2020-06-26 2022-06-14 Standard Cognition, Corp. Systems and methods for automated recalibration of sensors for autonomous checkout
US11303853B2 (en) * 2020-06-26 2022-04-12 Standard Cognition, Corp. Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout
JP7490483B2 (ja) 2020-07-22 2024-05-27 キヤノン株式会社 システム、情報処理方法、物品の製造方法、プログラム及び記録媒体
US11978177B2 (en) * 2020-09-25 2024-05-07 Intel Corporation Method and system of image processing of omnidirectional images with a viewpoint shift
CN112233158B (zh) * 2020-10-14 2022-02-15 俐玛精密测量技术(苏州)有限公司 微纳米ct投影图像的二次投影配准方法
CN114765667A (zh) * 2021-01-13 2022-07-19 安霸国际有限合伙企业 用于多视图拼接的固定图案校准
KR102285220B1 (ko) * 2021-03-12 2021-08-03 주식회사 위즈브레인 대형 장비에 대한 실시간 계측 영상 동기화를 위한 서버 및 그 동작 방법

Family Cites Families (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE60330898D1 (de) * 2002-11-12 2010-02-25 Intellivid Corp Verfahren und system zur verfolgung und verhaltensüberwachung von mehreren objekten, die sich durch mehrere sichtfelder bewegen
US20060125920A1 (en) * 2004-12-10 2006-06-15 Microsoft Corporation Matching un-synchronized image portions
JP4042750B2 (ja) * 2005-02-21 2008-02-06 住友電気工業株式会社 画像処理装置、コンピュータプログラム、及び画像処理方法
JP4160572B2 (ja) * 2005-03-31 2008-10-01 株式会社東芝 画像処理装置及び画像処理方法
JP2007233523A (ja) * 2006-02-28 2007-09-13 Hitachi Ltd 非同期カメラ映像を用いた人物位置推定方法及びそのシステム
US20110298603A1 (en) * 2006-03-06 2011-12-08 King Timothy I Intersection Collision Warning System
US9386447B2 (en) * 2009-07-21 2016-07-05 Scott Ferrill Tibbitts Method and system for controlling a mobile communication device
US8811745B2 (en) * 2010-01-20 2014-08-19 Duke University Segmentation and identification of layered structures in images
US9594960B2 (en) * 2010-09-14 2017-03-14 Microsoft Technology Licensing, Llc Visualizing video within existing still images
JP2014099695A (ja) * 2012-11-13 2014-05-29 Canon Inc 移動体観測装置
JP6026252B2 (ja) * 2012-11-30 2016-11-16 株式会社東芝 物体測定装置、及び物体測定方法
GB201303076D0 (en) * 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
US9183746B2 (en) * 2013-03-12 2015-11-10 Xerox Corporation Single camera video-based speed enforcement system with a secondary auxiliary RGB traffic camera
JP2014186004A (ja) 2013-03-25 2014-10-02 Toshiba Corp 計測装置、方法及びプログラム
EP3063737B1 (en) * 2013-10-28 2020-05-06 Thomson Licensing Method and device for constructing graph representation for a 3d object
US9565400B1 (en) * 2013-12-20 2017-02-07 Amazon Technologies, Inc. Automatic imaging device selection for video analytics
US9412043B2 (en) * 2014-10-03 2016-08-09 EyeEm Mobile GmbH Systems, methods, and computer program products for searching and sorting images by aesthetic quality
US9460513B1 (en) * 2015-06-17 2016-10-04 Mitsubishi Electric Research Laboratories, Inc. Method for reconstructing a 3D scene as a 3D model using images acquired by 3D sensors and omnidirectional cameras
US9947107B2 (en) * 2015-09-16 2018-04-17 Agt International Gmbh Method and system for tracking objects between cameras
US10257395B2 (en) * 2016-10-31 2019-04-09 Nokia Technologies Oy Method, apparatus and computer program product for creating virtual reality content of an event
CN110088805B (zh) * 2016-12-20 2023-06-06 柯达阿拉里斯股份有限公司 用于检测和分割多个前景对象的方法
US10422639B2 (en) * 2016-12-30 2019-09-24 DeepMap Inc. Enrichment of point cloud data for high-definition maps for autonomous vehicles
US10957074B2 (en) * 2019-01-29 2021-03-23 Microsoft Technology Licensing, Llc Calibrating cameras using human skeleton
US10914605B1 (en) * 2019-11-25 2021-02-09 Blue Vision Labs UK Limited Guided batching

Also Published As

Publication number Publication date
WO2018142496A1 (ja) 2018-08-09
JPWO2018142496A1 (ja) 2019-11-07
US11132810B2 (en) 2021-09-28
US20190385324A1 (en) 2019-12-19

Similar Documents

Publication Publication Date Title
JP6734940B2 (ja) 三次元計測装置
CN108765498B (zh) 单目视觉跟踪方法、装置及存储介质
EP3679549B1 (en) Visual-inertial odometry with an event camera
US10755428B2 (en) Apparatuses and methods for machine vision system including creation of a point cloud model and/or three dimensional model
CN107888828B (zh) 空间定位方法及装置、电子设备、以及存储介质
JP6338021B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN112567201A (zh) 距离测量方法以及设备
KR102397343B1 (ko) 비디오에서 가상 오브젝트를 블러링하기 위한 방법 및 디바이스
WO2018140107A1 (en) System for 3d image filtering
KR20150119337A (ko) 환경의 3d 모델의 발생
CN108700946A (zh) 用于并行测距和建图的故障检测和恢复的系统和方法
JP2005033319A (ja) 位置姿勢計測方法及び装置
JP7280385B2 (ja) 視覚的ポジショニング方法および関連装置、機器並びにコンピュータ可読記憶媒体
CN111507132B (zh) 一种定位方法、装置及设备
IL182799A (en) Method for estimating the ptz camera's pose
CN111899276A (zh) 一种基于双目事件相机的slam方法及系统
CN109040525B (zh) 图像处理方法、装置、计算机可读介质及电子设备
JP7498404B2 (ja) 被写体の3次元姿勢推定装置、3次元姿勢推定方法、及びプログラム
KR101791166B1 (ko) 오브젝트의 공간 정보 추정 장치 및 방법
JP2005241323A (ja) 撮像システム及び校正方法
Irmisch et al. Simulation framework for a visual-inertial navigation system
Burschka et al. Direct pose estimation with a monocular camera
EP3392748B1 (en) System and method for position tracking in a virtual reality system
WO2019186677A1 (ja) ロボット位置姿勢推定・三次元計測装置
JP3221384B2 (ja) 三次元座標計測装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190529

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200416

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200710

R150 Certificate of patent or registration of utility model

Ref document number: 6734940

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150