JP7450195B2 - 位置分析装置及び方法、並びにカメラシステム - Google Patents
位置分析装置及び方法、並びにカメラシステム Download PDFInfo
- Publication number
- JP7450195B2 JP7450195B2 JP2022509246A JP2022509246A JP7450195B2 JP 7450195 B2 JP7450195 B2 JP 7450195B2 JP 2022509246 A JP2022509246 A JP 2022509246A JP 2022509246 A JP2022509246 A JP 2022509246A JP 7450195 B2 JP7450195 B2 JP 7450195B2
- Authority
- JP
- Japan
- Prior art keywords
- coordinate system
- camera
- analysis device
- correction
- weighting
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004458 analytical method Methods 0.000 title claims description 107
- 238000000034 method Methods 0.000 title claims description 36
- 238000012937 correction Methods 0.000 claims description 106
- 238000012545 processing Methods 0.000 claims description 87
- 230000006870 function Effects 0.000 claims description 46
- 230000009466 transformation Effects 0.000 claims description 30
- 238000010801 machine learning Methods 0.000 claims description 11
- 239000013598 vector Substances 0.000 claims description 11
- 239000003550 marker Substances 0.000 description 14
- 230000008569 process Effects 0.000 description 12
- 238000004891 communication Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 9
- 238000012986 modification Methods 0.000 description 8
- 230000004048 modification Effects 0.000 description 8
- 238000006243 chemical reaction Methods 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 4
- NJPPVKZQTLUDBO-UHFFFAOYSA-N novaluron Chemical compound C1=C(Cl)C(OC(F)(F)C(OC(F)(F)F)F)=CC=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F NJPPVKZQTLUDBO-UHFFFAOYSA-N 0.000 description 4
- 238000003754 machining Methods 0.000 description 3
- 230000008859 change Effects 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 238000007792 addition Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/698—Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
Description
本開示は、位置分析装置及び方法、並びにカメラシステムに関する。
特許文献1は、カメラパラメータの取得に関してキャリブレーションパターンにおけるマーカ座標の対応付けを行う方法を開示している。この方法は、複数のマーカのパターンを有する四角形のキャリブレーションパターンを撮影し、撮影画像からキャリブレーションパターン領域を抽出し、キャリブレーションパターン領域の4つの角の画像座標を求める。更に、この方法は、キャリブレーションパターン領域の角の画像座標と、元のキャリブレーションパターンの平面画像における角の座標とから射影変換行列を求めている。射影変換行列を用いて元のキャリブレーションパターン平面画像におけるマーカの座標と、撮影画像上のマーカの座標との対応関係を求めることで、カメラパラメータが得られる。
本開示は、カメラによる撮像画像から被写体における分析対象の位置を精度良く測定することができる位置分析装置及び方法、並びにカメラシステムを提供する。
本開示における位置分析装置は、カメラによる被写体の撮像画像に基づき被写体における分析対象の位置を測定する装置である。位置分析装置は、取得部と、演算処理部と、記憶部とを備える。取得部は、カメラが撮像した撮像画像を取得する。演算処理部は、取得された撮像画像における分析対象の位置に関して、撮像画像に応じた第1の座標系から、被写体に応じた第2の座標系への座標変換を演算する。記憶部は、第2の座標系における位置の補正量を生成する補正モデルを格納する。演算処理部は、補正モデルに基づいて、分析対象の位置が、第1の座標系から第2の座標系に変換された位置を補正する。補正モデルは、第2の座標系における互いに異なる複数の基準位置に対応する複数の重み関数を含む。各重み関数は、変換された位置が、それぞれ対応する基準位置に近いほど大きい重み付けを補正量に与える。
これらの概括的かつ特定の態様は、システム、方法、及びコンピュータプログラム、並びに、それらの組み合わせにより、実現されてもよい。
本開示における位置分析装置及び方法、並びにカメラシステムによると、カメラによる撮像画像から被写体における分析対象の位置を精度良く測定することができる。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、出願人は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。
(実施形態1)
以下、本開示の実施形態1について、図面を参照しながら説明する。
以下、本開示の実施形態1について、図面を参照しながら説明する。
1.構成
本実施形態に係る位置分析装置及びカメラシステムの構成を以下説明する。
本実施形態に係る位置分析装置及びカメラシステムの構成を以下説明する。
1-1.カメラシステムについて
図1は、本実施形態に係るカメラシステム1を説明するための図である。本実施形態のカメラシステム1は、例えば図1に示すように、全方位カメラ10と、位置分析装置2とを備える。本システム1は、例えば工場などの作業場3において、作業者31が行う加工作業等に関する各種データを、データ分析の担当者などのユーザ11に提供する用途に適用可能である。
図1は、本実施形態に係るカメラシステム1を説明するための図である。本実施形態のカメラシステム1は、例えば図1に示すように、全方位カメラ10と、位置分析装置2とを備える。本システム1は、例えば工場などの作業場3において、作業者31が行う加工作業等に関する各種データを、データ分析の担当者などのユーザ11に提供する用途に適用可能である。
以下、作業場3における鉛直方向をZ方向という。又、Z方向に直交する水平面上で互いに垂直な二方向をそれぞれX方向及びY方向という。さらに、+Z方向を上方といい、-Z方向を下方という場合がある。
図1の例において、全方位カメラ10は、作業場3を上方から俯瞰するように、作業場3の天井等に配置されている。本例では、作業場3において、加工対象物32が台座33の上に配置されている。加工対象物32は、例えば大型製造物を構成する各種部材であり、例えば大型送風機、自動車、鉄道車両、航空機あるいは船舶などの構成部材である。加工対象物32は、本システム1における被写体の一例である。
図1の例は、作業者31が、局部的な表面加工を行うための工具である表面加工工具34を用いて加工対象物32に表面加工を施す様子を示している。表面加工工具34には、例えばマーカ34aが端部に設けられる。本システム1の位置分析装置2は、全方位カメラ10からの撮像画像に位置測定方法を適用して、例えば作業者31が加工対象物32において表面加工を施した部分の位置を精度良く測定することができる。以下、本システム1における各部の構成を説明する。
全方位カメラ10は、本システム1におけるカメラの一例である。全方位カメラ10は、例えば魚眼レンズなどの光学系、及びCCD又はCMOSイメージセンサ等の撮像素子を含む。全方位カメラ10は、例えば等距離射影方式にしたがって撮像動作を行い、撮像画像を示す画像データを生成する。全方位カメラ10は、例えば画像データが位置分析装置2に送信されるように、位置分析装置2に接続される。
図1の例において、全方位カメラ10は、作業場3において撮像する範囲に加工対象物32が含まれるように配置される。全方位カメラ10は、例えば光軸をZ方向に向けて配置される。全方位カメラ10の半画角は、Z方向に対する角度θにおいて、例えばθ≦90°である。全方位カメラ10によると、1台で比較的広範囲の領域を撮像可能である。
位置分析装置2は、例えばPC(パーソナルコンピュータ)などの情報処理装置で構成される。位置分析装置2の構成について、図2を用いて説明する。
1-2.位置分析装置の構成
図2は、位置分析装置2の構成を例示するブロック図である。図2に例示する位置分析装置2は、演算処理部20と、記憶部21と、操作部22と、表示部23と、機器インタフェース24と、ネットワークインタフェース25とを備える。以下、インタフェースを「I/F」と略記する。
図2は、位置分析装置2の構成を例示するブロック図である。図2に例示する位置分析装置2は、演算処理部20と、記憶部21と、操作部22と、表示部23と、機器インタフェース24と、ネットワークインタフェース25とを備える。以下、インタフェースを「I/F」と略記する。
演算処理部20は、例えばソフトウェアと協働して所定の機能を実現するCPU又はMPUを含む。演算処理部20は、例えば位置分析装置2の全体動作を制御する。演算処理部20は、記憶部21に格納されたデータ及びプログラムを読み出して種々の演算処理を行い、各種の機能を実現する。例えば、演算処理部20は、機能的構成として、画像認識部41、座標変換部42、座標補正部43、及びモデル学習部44を備える。
画像認識部41は、画像データに各種の画像認識技術を適用して、画像データが示す画像において予め設定された処理対象の位置を認識する。座標変換部42は、画像中で認識された位置に関して、所定の座標系間の座標変換を演算する。座標補正部43は、後述する補正モデルに基づき、座標変換部42の演算結果を補正する処理を実行する。モデル学習部44は、補正モデルの機械学習を実行する。こうした位置分析装置2の各種機能による動作については後述する。
演算処理部20は、例えば上記のような位置分析装置2の機能を実現するための命令群を含んだプログラムを実行する。上記のプログラムは、インターネット等の通信ネットワークから提供されてもよいし、可搬性を有する記録媒体に格納されていてもよい。また、演算処理部20は、上記各機能を実現するように設計された専用の電子回路又は再構成可能な電子回路などのハードウェア回路であってもよい。演算処理部20は、CPU、MPU、GPU、GPGPU、TPU、マイコン、DSP、FPGA及びASIC等の種々の半導体集積回路で構成されてもよい。
記憶部21は、位置分析装置2の機能を実現するために必要なプログラム及びデータを記憶する記憶媒体である。記憶部21は、図2に示すように、格納部21a及び一時記憶部21bを含む。
格納部21aは、所定の機能を実現するためのパラメータ、データ及び制御プログラム等を格納する。格納部21aは、例えばHDD又はSSDで構成される。例えば、格納部21aは、上記のプログラム、並びに補正モデル情報D1、正解データD2及び地図情報D3などを格納する。
補正モデル情報D1は、補正モデルの学習結果を示す重みパラメータ等の各種パラメータを含む。補正モデル情報D1は、補正モデルの演算式を含んでもよい。正解データD2は、補正モデルの機械学習において正解として用いられるデータである。地図情報D3は、所定の座標系において、例えば作業場3における加工対象物32及び台座33といった各種物体の配置を示す。各種情報の詳細については後述する。
一時記憶部21bは、例えばDRAM又はSRAM等のRAMで構成され、データを一時的に記憶(即ち保持)する。例えば、一時記憶部21bは、全方位カメラ10から受信した画像データなどを保持する。また、一時記憶部21bは、演算処理部20の作業エリアとして機能してもよく、演算処理部20の内部メモリにおける記憶領域で構成されてもよい。
操作部22は、ユーザが操作を行う操作部材の総称である。操作部22は、表示部23と共にタッチパネルを構成してもよい。操作部22はタッチパネルに限らず、例えば、キーボード、タッチパッド、ボタン及びスイッチ等であってもよい。操作部22は、ユーザの操作によって入力される諸情報を取得する取得部の一例である。
表示部23は、例えば、液晶ディスプレイ又は有機ELディスプレイで構成される出力部の一例である。表示部23は、操作部22を操作するための各種アイコン及び操作部22から入力された情報など、各種の情報を表示してもよい。
機器I/F24は、位置分析装置2に、全方位カメラ10等の外部機器を接続するための回路である。機器I/F24は、所定の通信規格にしたがい通信を行う。所定の規格には、USB、HDMI(登録商標)、IEEE1395、WiFi、Bluetooth等が含まれる。機器I/F24は、全方位カメラ10からの画像データ等を受信する取得部の一例である。機器I/F24は、位置分析装置2において外部機器に諸情報を送信する出力部を構成してもよい。
ネットワークI/F25は、無線または有線の通信回線を介して位置分析装置2を通信ネットワークに接続するための回路である。ネットワークI/F25は所定の通信規格に準拠した通信を行う。所定の通信規格には、IEEE802.3,IEEE802.11a/11b/11g/11ac等の通信規格が含まれる。ネットワークI/F25は、位置分析装置2において通信ネットワークを介して、諸情報を受信する取得部あるいは送信する出力部を構成してもよい。例えば、ネットワークI/F25は、通信ネットワークを介して全方位カメラ10に接続してもよい。
以上のような位置分析装置2の構成は一例であり、位置分析装置2の構成はこれに限らない。位置分析装置2は、サーバ装置を含む各種のコンピュータで構成されてもよい。本実施形態の位置分析方法は、分散コンピューティングにおいて実行されてもよい。また、位置分析装置2における取得部は、演算処理部20等における各種ソフトウェアとの協働によって実現されてもよい。位置分析装置2における取得部は、各種記憶媒体(例えば格納部21a)に格納された諸情報を演算処理部20の作業エリア(例えば一時記憶部21b)に読み出すことによって、諸情報の取得を行うものであってもよい。
2.動作
以上のように構成されるカメラシステム1及び位置分析装置2の動作について、以下説明する。
以上のように構成されるカメラシステム1及び位置分析装置2の動作について、以下説明する。
2-1.基本動作
本システム1における位置分析装置2の基本的な動作について、図3,4を用いて説明する。
本システム1における位置分析装置2の基本的な動作について、図3,4を用いて説明する。
図3は、位置分析装置2の基本動作を説明するためのフローチャートである。図4は、位置分析装置2の基本動作を説明するための図である。図3のフローチャートに示す各処理は、演算処理部20が、画像認識部41、座標変換部42及び座標補正部43として機能することにより実行される。
まず、位置分析装置2の演算処理部20は、例えば機器I/F24を介して、全方位カメラ10から画像データを取得する(S1)。例えば、作業場3において作業者31の作業中に、全方位カメラ10は、所定の周期で撮像動作を繰り返し、撮像画像を示す画像データを生成して位置分析装置2に送信する。
図4(A)は、ステップS1で取得される画像データ50の一例を示す。画像データ50は、例えば撮像画像5における画素の配列に応じた二次元の座標系(H,V)を有する。以下、全方位カメラ10による撮像画像5の座標系(H,V)をカメラ座標系という。カメラ座標系は、撮像画像5の水平方向における位置を示すH座標と、垂直方向における位置を示すV座標とを含む。カメラ座標系は、本実施形態における第1の座標系の一例である。
図4(A)では、撮像画像5に映った加工対象物32を例示している。なお、説明の便宜上、撮像画像5における作業者31等の図示は省略している。全方位カメラ10の撮像画像5においては、角度θ=0°の中心位置p0から角度θが大きくなるにつれて加工対象物32が縮んで映るように、縮尺が変化する。このような変化は、全方位カメラ10にレンズ歪み等がなければ、等距離射影方式により中心位置p0から等方的であり、かつ角度θにおいて等間隔となる。
次に、演算処理部20は、取得した画像データ50に基づいて画像認識部41として機能し、カメラ座標系の撮像画像5における加工位置を認識する(S2)。加工位置は、加工対象物32において表面加工工具34による加工作業が行われた位置であり、本実施形態における分析対象の位置の一例である。図4(A)に、撮像画像5における加工位置pを例示する。
例えば、演算処理部20は、撮像画像5において表面加工工具34に設けられたマーカ34aを検出することで、加工位置pを認識する画像認識処理を行う(S2)。ステップS2において、演算処理部20は、例えば図4(A)に示すように、画像データ50から、カメラ座標系における加工位置pの座標(Hp,Vp)を抽出する。
次に、演算処理部20は、座標変換部42として機能して、撮像画像5における認識結果に基づき、カメラ座標系から地図座標系への座標変換を演算する(S3)。地図座標系は、地図情報D3に基づいて作業場3における位置を示すための座標系である。ステップS3の処理例を図4(B)に示す。
図4(B)は、図4(A)の画像データ50に基づくステップS3の処理結果を示す座標データ51を例示する。座標データ51は、地図座標系における位置の座標を示す。地図座標系は、例えば作業場3のX方向における位置を示すためのX座標、及びY方向における位置を示すためのY座標を含む。地図座標系は、本実施形態における第2の座標系の一例である。
図4(B)に例示する座標データ51は、カメラ座標系における加工位置pの座標(Hp,Vp)が、地図座標系に座標変換された座標(Xp,Yp)を示す。ステップS3において、演算処理部20は、例えば所定の演算式を適用して、カメラ座標系における加工位置pの座標(Hp,Vp)から、地図座標系における変換結果である変換位置xpの座標(Xp,Yp)を算出する。所定の演算式は、例えば等距離射影の逆変換を含む変換式であり、例えば三角関数を用いた非線形変換を含む。
上記のような座標変換によって得られる座標データ51によると、例えばレンズ歪みの影響によって、角度θが比較的大きい撮像画像5の端部近傍などで地図座標系における正確な位置が得られない事態が想定される。そこで、本システム1においては、上記の変換結果に対する補正を行う。
本実施形態において、演算処理部20は、座標補正部43として機能し、補正モデルF(x,W)に基づいて変換位置xpの座標データ51を補正する演算処理を実行する(S4)。補正モデルF(x,W)は、例えば、地図座標系において座標データ51を入力するとベクトル量の補正量Δxを生成する。ステップS3の処理例を図4(C)に示す。
図4(C)は、図4(B)の座標データ51に基づくステップS4の処理結果を示す座標データ52を例示する。また、図4(C)では、地図座標系における正確な加工対象物32の配置32aを例示している。
補正後の座標データ52は、地図座標系における変換位置xpが補正された位置xcの座標(Xc,Yc)を示す。補正位置xcは、補正前の変換位置xpと補正量Δxに基づき、次式(1)のように表される。
xc=xp+Δx …(1)
Δx=-F(x=xp,W)
xc=xp+Δx …(1)
Δx=-F(x=xp,W)
ステップS4において、演算処理部20は、学習済みの補正モデルF(x,W)による上式(1)の演算処理を行って、補正後の座標データ52を生成する。本実施形態の補正モデルF(x,W)は、例えば位置分析装置2のキャリブレーションの基準とする複数の位置から変換位置xpまでの各距離に応じて変化する補正量Δxの重み付けを獲得するように、機械学習される。
演算処理部20は、例えば補正後の座標データ52(S4)を格納部21aに格納して、本フローチャートに示す処理を終了する。
以上の処理によると、全方位カメラ10による撮像画像5に映った加工位置pの座標変換(S3)において誤差が生じたとしても、補正モデルF(x,W)に基づき、図4(C)に示すように変換位置xpの誤差が補正された補正位置xcが得られる(S4)。このように、作業場3の加工対象物32における加工位置といった分析対象の位置を精度良く測定することができる。
2-2.補正モデルについて
本実施形態の位置分析装置2における補正モデルF(x,W)の詳細を、図5を用いて説明する。
本実施形態の位置分析装置2における補正モデルF(x,W)の詳細を、図5を用いて説明する。
本実施形態の補正モデルF(x,W)は、地図座標系におけるn個の基準位置a1~anに基づいて、次式(11)のように表される。
上式(11)における右辺の分母及び分子は、それぞれn個の基準位置a1~anを識別する番号i=1~nにわたって総和Σを取る。図5(A),(B)では、基準位置a1~anの個数がn=5個である場合を例示している(以下同様)。
上式(11)においては、ベクトルを太字で示している(以下同様)。aiは、地図座標系におけるi番目の基準位置の座標(Xai,Yai)を位置ベクトルとして示す。Xiは、地図座標系においてi番目の基準位置aiの補正前に対応する位置すなわち対応位置の座標(XXi,YXi)を位置ベクトルとして示す。又、重みパラメータWは、n個の重み係数w1~wnを含むn次元ベクトルとして記述できる。
図5(A)は、補正モデルF(x,W)における基準位置aiと対応位置Xi間の関係を例示する。図5(A)では、地図座標系における正確な加工対象物32の配置32aと、作業場3の撮像画像の座標変換による加工対象物32の配置32bとを例示している。
1~n番目の基準位置a1~anは、それぞれ地図座標系における正確な配置32aにしたがって設定され、例えば加工対象物32における別々の位置に対応付けて設定される。i番目の対応位置Xiは、例えば座標変換部42による座標変換が全方位カメラ10による作業場3の撮像画像全体に行われた際の加工対象物32の配置32bにおいて、i番目の基準位置aiに対応する位置にある。
図5(A)の例において、各対応位置Xiは、それぞれ対応する基準位置aiから、上述した座標変換部42による座標変換の誤差の分ずれている。このような誤差は、例えば次式(12)のように、i番目の基準位置aiと対応位置Xi間の差分を示す差分ベクトルdiによって表される。
di=ai-Xi …(12)
di=ai-Xi …(12)
各差分ベクトルdiのような誤差は、例えば全方位カメラ10におけるレンズ歪み等から生じ得る。本実施形態の補正モデルF(x,W)は、x=Xiが入力されると出力する補正位置xcの正解として基準位置aiを用いる機械学習により、構築される。
補正モデルF(x,W)は、例えば各差分ベクトルd1~dnの重み付けを構成する、n個の重み関数f1(x),f2(x),…,fn(x)を含む。i番目の重み関数fi(x)は、次式(13)のように表される。
上式(13)において、|x-ai|は、地図座標系においてi番目の基準位置aiから位置xまでの距離を、ベクトルの絶対値で示す。i番目の重み関数fi(x)は、それぞれi番目の重み係数wiを含む。各重み係数w1~wnは、例えば0以上1以下において設定される。
i番目の重み関数fi(x)は、各々の重み係数wiに基づいて、位置xと各々の基準位置ai間の距離によって変化する二次的な重み付けを与える。各重み関数fi(x)による重み付けは、位置xと各々の基準位置ai間の距離が短いほど大きくなり、当該距離が遠くなるほど「0」に近づく関数形で構成される。
図5(B)は、図5(A)の例の補正モデルF(x,W)に、補正対象の位置xが入力された結果を例示する。図5(B)の例では、補正前の位置xは、5個の基準位置a1~a5の内の3個の基準位置a1~a3の比較的近くに位置する。このことから、対応する3個の重み関数f1(x)~f3(x)が、位置xに対する補正量Δxにおいて主な重み付けを与える。一方、残る2個の基準位置a4,a5は、位置xから比較的遠いことから、対応する補正関数f4(x),f5(x)の重み付けは、補正量Δxにおいて無視できる程度に小さい。
図5(B)の例では、主な3個の重み関数f1(x)~f3(x)において、2番目の重み関数f2(x)が、最も大きい重み付けを有する。補正量Δxにおける重み付けの配分は、各々の基準位置aiまでの距離に加えて、各々の重み係数wiによっても変動する。本実施形態では、こうした重み係数wiを最適化するように補正モデルF(x,W)の機械学習が行われる。これにより、地図座標系における全域にわたって座標変換の位置xの補正を精度良く行う補正モデルF(x,W)を実現することができる。
以上のような補正モデルF(x,W)における重み関数fi(x)は、例えば、式(13)の右辺に次式(14)のような指数関数型の関数形を採用して構成できる。
f(d,w)=exp(-w・d) …(14)
f(d,w)=exp(-w・d) …(14)
上式(14)において、距離d及び重み係数wとしては適宜、各基準位置aiまでの距離|x-ai|及び対応する重み係数wiが用いられる。この場合の重み係数wは、距離dが大きくなることによりf(d,w)が減少する減少率を示す。よって、各重み関数fi(x)の重み付けが距離|x-ai|の増大に伴って減少する変化は、各々の重み係数wiを大きくするほど急峻にすることができる。
f(d,w)の関数形は、特に上式(14)に限定されず、ゼロ以上の定義域に対して値域がゼロ以上となる種々の単調減少関数であってもよい。例えば、上式(14)の代わりに次式(15)のような関数形が採用できる。
f(d,w)=w/d …(15)
また、n個の重み関数f1(x)~fn(x)は、必ずしもf(d,w)が共通の関数形でなくてもよく、基準位置aiに応じて異なる関数形が用いられてもよい。
f(d,w)=w/d …(15)
また、n個の重み関数f1(x)~fn(x)は、必ずしもf(d,w)が共通の関数形でなくてもよく、基準位置aiに応じて異なる関数形が用いられてもよい。
2-3.キャリブレーション動作
上記のような補正モデルF(x,W)の機械学習を行って、本実施形態の位置分析装置2をキャリブレーションする動作について、図6,7を用いて説明する。
上記のような補正モデルF(x,W)の機械学習を行って、本実施形態の位置分析装置2をキャリブレーションする動作について、図6,7を用いて説明する。
図6は、補正モデルF(x,W)の機械学習における正解データD2を説明するための図である。図6(A)は、地図座標系の正解データD2aを例示する。図6(B)は、カメラ座標系の正解データD2bを例示する。図6(C)は、カメラ座標系の正解データD2bから得られる変換データD2cを例示する。
地図座標系の正解データD2aは、例えば図6(A)に示すに、地図座標系におけるn個の基準位置a1~anの座標(Xa1,Ya1)~(Xan,Yan)を含む。地図座標系の正解データD2aは、例えば加工対象物32の立体形状を示す3次元CADデータなどの形状データを用いて作成できる。
例えば、加工対象物32の形状データにおいて、n個の代表点を基準位置a1~anに設定し、全方位カメラ10の配置などを考慮して地図座標系における各代表点の座標を計算することにより、地図座標系の正解データD2aが得られる。
図6(B)は、カメラ座標系の正解データD2bを例示する。カメラ座標系の正解データD2bは、例えばキャリブレーション用に予め撮像された撮像画像5Aにおいて、n個の基準位置a1~anに対応するカメラ座標系の対応位置P1~Pnの座標(Ha1,Va1)~(Han,Van)を含む。キャリブレーション用の撮像画像5Aは、例えば、全方位カメラ10及び加工対象物32等が実際の作業場3において配置された状態において、全方位カメラ10で撮像される。
カメラ座標系の正解データD2bは、上記のような撮像画像5Aにおいて、例えば加工対象物32における各基準位置aiと同じ箇所をカメラ座標系の対応位置Piとして特定することによって得られる。カメラ座標系の対応位置Piを特定する手段は、目視であってもよいし、画像認識処理であってもよい。
上記のような正解データD2a,D2bが準備された状態で行われる動作の一例を以下説明する。図7は、位置分析装置2のキャリブレーション動作を説明するためのフローチャートである。本フローチャートに示す処理は、例えば演算処理部20がモデル学習部44として機能することにより、実行される。
図7に示すフローチャートにおいて、演算処理部20は、例えば格納部21aに予め格納された地図座標系の正解データD2aを取得する(S11)。同様に、演算処理部20は、例えば格納部21aからカメラ座標系の正解データD2bを取得する(S12)。次に、演算処理部20は、カメラ座標系の正解データD2bに、カメラ座標系から地図座標系への座標変換を行う(S13)。ステップS13の処理例を図6(C)に示す。
図6(C)は、図6(B)の正解データD2bに基づくステップS13の処理結果を示す変換データD2cを例示する。変換データD2cは、カメラ座標系の各対応位置Piの座標(HPi,VPi)がそれぞれ変換された地図座標系の各対応位置Xiの座標(XXi,YXi)を含む。ステップS13において、演算処理部20は、カメラ座標系の正解データD2bにおけるn個の対応位置P1~Pnに関して、図3のステップS3と同様の処理を行うことにより、地図座標系におけるn個の対応位置X1~Xnを算出する。
図7に戻り、演算処理部20は、地図座標系におけるn個の基準位置a1~an及びn個の対応位置X1~Xnに基づいて、次式(20)にしたがって補正モデルF(x,W)の機械学習を実行する(S14)。
上式(20)によると、地図座標系における各基準位置aiと、各々の対応位置Xiに学習中の補正モデルF(x=Xi,W)を適用した位置との間の二乗誤差を最小化するように、重みパラメータWの各重み係数w1~wnが調整される。演算処理部20は、式(20)の数値計算を適宜、収束するまで繰り返す。
次に、演算処理部20は、式(20)の数値計算の結果を学習結果として記憶部21に保存する(S15)。例えば、数値計算結果の重みパラメータWを含む補正モデル情報D1が、格納部21aに格納される。その後、本フローチャートに示す処理は終了する。
以上の処理によると、位置分析装置2のキャリブレーションとして、地図座標系の正解データD2aとカメラ座標系の正解データD2bを用いて補正モデルF(x,W)の機械学習が行われる。本処理により、学習済みの補正モデルF(x,W)の生成する方法が提供される。
2-4.変形例
以上のようなキャリブレーション動作は、例えば作業場3における種々の状況を勘案して複数回、行われてもよい。この変形例について、図8を用いて説明する。
以上のようなキャリブレーション動作は、例えば作業場3における種々の状況を勘案して複数回、行われてもよい。この変形例について、図8を用いて説明する。
図8は、本変形例における位置分析装置2のキャリブレーション動作を説明するための図である。例えば、作業場3における加工対象物32の少なくとも一部は、作業の進展によって高さすなわちZ方向における全方位カメラ10までの距離が変化することが想定される。そこで、本変形例では、加工対象物32の高さを変えた設定において上記のようなキャリブレーション動作を繰り返し行う。
図8(A)は、加工対象物32が初期値の高さZ1にある場合の地図座標系の正解データD21aを例示する。この場合、全方位カメラ10までの距離は比較的、近距離にある。図8(B)は、中距離の高さZ2(<Z1)の場合の地図座標系の正解データD22aを例示する。図8(C)は、遠距離の高さZ3(<Z2)における地図座標系の正解データD23aを例示する。
図8(A),(B),(C)の例は、例えばそれぞれ作業の初期、中期、及び末期に対応する。例えば図8(A)~(C)に示すように、加工対象物32の配置32aは様々な高さZ1,Z2,Z3の地図座標系において相違し得る。そこで、本変形例のキャリブレーション動作において位置分析装置2は、各々の高さZ1,Z2,Z3において別々の正解データD21a,D22a,D23aを用いて、図7のステップS11~S15と同様の処理を実行する。
上記のキャリブレーション動作によると、図8(A)の正解データD21aに基づく機械学習(S14)において第1の補正モデルF1(x,W1)が生成される。第1の補正モデルF1(x,W1)は、高さZ1の地図座標系における基準位置a1(1)~an(1)に基づき機械学習によって獲得される重みパラメータW1による複数の重み関数f1(x)~fn(x)を、上述した補正モデルF(x,W)と同様に有する。
また、図8(B),(C)の正解データD22a,D23aに基づき、第2及び第3の補正モデルF2(x,W2)、F3(x,W3)が上記と同様に生成される。各補正モデルF2(x,W2)、F3(x,W3)は、それぞれ高さZ1の場合の基準位置a1(1)~an(1)の代わりに各々の高さZ2,Z3の場合の基準位置a1(2)~an(2)、a1(3)~an(3)に基づいている。複数の補正モデルF1(x,W1)~F3(x,W3)の重みパラメータW1,W2,W3等の学習結果は、それぞれ補正モデル情報D1として記憶部21に保存される(S15)。
本変形例において、基本動作時の位置分析装置2は、加工対象物32の高さを適宜、検知し、検知結果に応じて複数の補正モデルF1(x,W1)~F3(x,W3)から、図3のステップS4に適用する補正モデルを切り替える。高さの検知は、専用のマーカを加工対象物32の高さ変化が比較的大きい点又は基準位置の一部もしくは全部に設けることで行われてもよいし、時間経過による推定であってもよい。
以上の説明は一例であり、本変形例はこれに限定されない。例えば、複数の補正モデルF1(x,W1)~F3(x,W3)の個数は3つに限らず、2つであってもよいし4つ以上であってもよい。又、本変形例は、作業の進展に応じて加工対象物32が湾曲したり、変形したりする場合にも適用可能である。この場合においても、上記のキャリブレーション動作と同様に、別々の正解データD2から複数組の基準位置に基づく複数の補正モデルを生成しておくことで、作業の進展に応じて適切な補正モデルを適用することができる。
3.まとめ
以上のように、本実施形態における位置分析装置2は、全方位カメラ10による被写体の撮像画像5に基づき被写体の一例の加工対象物32における分析対象の位置を測定する。位置分析装置2は、取得部の一例として各種I/F24,25と、演算処理部20と、記憶部21とを備える。取得部は、全方位カメラ10が撮像した撮像画像5の画像データ50を取得する(S1)。演算処理部20は、取得された撮像画像5における分析対象の位置の一例の加工位置pに関して、撮像画像5に応じた第1の座標系の一例であるカメラ座標系から、被写体に応じた第2の座標系の一例である地図座標系への座標変換を演算する(S3)。記憶部21は、地図座標系における位置の補正量Δxを生成する補正モデルF(x,W)を格納する。演算処理部20は、補正モデルに基づいて、分析対象の位置pが、カメラ座標系から地図座標系に変換された位置xpを補正する(S4)。補正モデルF(x,W)は、地図座標系における互いに異なる複数の基準位置a1~anに対応する複数の重み関数f1(x)~fn(x)を含む。各重み関数fi(x)は、変換された位置xpが、それぞれ対応する基準位置a1~anに近いほど大きい重み付けを補正量Δxに与える。
以上のように、本実施形態における位置分析装置2は、全方位カメラ10による被写体の撮像画像5に基づき被写体の一例の加工対象物32における分析対象の位置を測定する。位置分析装置2は、取得部の一例として各種I/F24,25と、演算処理部20と、記憶部21とを備える。取得部は、全方位カメラ10が撮像した撮像画像5の画像データ50を取得する(S1)。演算処理部20は、取得された撮像画像5における分析対象の位置の一例の加工位置pに関して、撮像画像5に応じた第1の座標系の一例であるカメラ座標系から、被写体に応じた第2の座標系の一例である地図座標系への座標変換を演算する(S3)。記憶部21は、地図座標系における位置の補正量Δxを生成する補正モデルF(x,W)を格納する。演算処理部20は、補正モデルに基づいて、分析対象の位置pが、カメラ座標系から地図座標系に変換された位置xpを補正する(S4)。補正モデルF(x,W)は、地図座標系における互いに異なる複数の基準位置a1~anに対応する複数の重み関数f1(x)~fn(x)を含む。各重み関数fi(x)は、変換された位置xpが、それぞれ対応する基準位置a1~anに近いほど大きい重み付けを補正量Δxに与える。
以上の位置分析装置2によると、全方位カメラ10によるカメラ座標系から地図座標系への座標変換結果に、補正モデルF(x,W)により各基準位置a1~anからの距離に応じて重み付けを変化させた補正が適用され、補正位置xcが得られる。こうした補正位置xcにより、全方位カメラ10による撮像画像5から被写体における分析対象の位置を精度良く測定することができる。
本実施形態において、補正モデルF(x,W)は、基準位置ai毎に、当該基準位置aiを基準とする座標変換の誤差を示すベクトルの一例の差分ベクトルdiと、当該基準位置aiに対応する重み関数fi(x)との積を加算して、補正量Δxを生成する(式(11),(13)参照)。これにより、基準位置aiにおける誤差を相殺するように補正位置xcが得られ、位置測定の精度を良くすることができる。
本実施形態において、補正モデルF(x,W)は、重み関数fi(x)毎に、各々の基準位置aiから変換された位置xまでの距離|x-ai|に応じた重み付けを調整する重み係数wiを有する(式(13)参照)。重み係数wiに基づく重み関数fi(x)の二次的な重み付けにより、補正位置xcが精度良く得られる。
本実施形態において、補正モデルF(x,W)は、各基準位置aiにおける誤差を最小化するように重み係数wiを調整する機械学習によって構築される(S14,式(20))。学習済みの補正モデルF(x,W)により、精度良く位置の補正を行える。
本実施形態におけるカメラの一例は、全方位カメラ10である。第1の座標系の一例であるカメラ座標系は、全方位カメラ10の射影方式によって規定される。本実施形態の位置分析装置2によると、全方位カメラ10のレンズ歪み等による座標変換の誤差を補正することができる。
本実施形態において、第2の座標系の一例である地図座標系は、全方位カメラ10が設置された作業場3などの場所における加工対象物32等の被写体の配置を示す情報によって規定される。本実施形態の位置分析装置2によると、地図座標系における分析対象の位置を精度良く得ることができる。
本実施形態において、分析対象の位置は、被写体としての加工対象物32において加工作業を施される加工位置p等の位置である。本実施形態の位置分析装置2によると、加工対象物32において加工作業を施された位置を分析することができる。
本実施形態において、カメラシステム1は、被写体を撮像して撮像画像5を生成する全方位カメラ10と、全方位カメラ10による撮像画像5に基づき被写体における分析対象の位置を測定する位置分析装置2とを備える。本システム1によると、全方位カメラ10等のカメラによる撮像画像5から被写体における分析対象の位置を精度良く測定することができる。
本実施形態において、記憶部21は、複数の補正モデルF1(x,W1),F2(x,W2),F3(x,W3)を格納する。各補正モデルF1(x,W1),F2(x,W2),F3(x,W3)は、複数組の基準位置a1(1)~an(1),a1(2)~an(2),a1(3)~an(3)における各組の基準位置に対応している。演算処理部20は、複数の補正モデルF1(x,W1)~F3(x,W3)において、分析対象の位置の補正に用いる補正モデルを切り替える。複数の補正モデルF1(x,W1)~F3(x,W3)により、被写体の状態に応じて適切な補正を実施できる。
本実施形態における位置測定方法は、全方位カメラ10による被写体の撮像画像に基づき被写体における分析対象の位置を測定する方法である。本方法は、全方位カメラ10が撮像した撮像画像を取得するステップ(S1)と、取得された撮像画像における分析対象の位置に関して、撮像画像に応じた第1の座標系から、被写体に応じた第2の座標系への座標変換を演算するステップ(S3)と、第2の座標系における位置の補正量Δxを生成する補正モデルF(x,W)に基づいて、分析対象の位置が、第1の座標系から第2の座標系に変換された位置を補正するステップ(S4)とを含む。補正モデルF(x,W)は、第2の座標系において互いに異なる複数の基準位置a1~anに対応する複数の重み関数f1(x)~fn(x)における各重み関数fi(x)において、変換位置xpが、それぞれ対応する基準位置aiに近いほど大きい重み付けを補正量Δxに与える。
本実施形態において、以上のような位置分析方法をコンピュータに実行させるためのプログラムが提供される。本実施形態の位置分析方法を全方位カメラ10等のカメラによる撮像画像5から被写体における分析対象の位置を精度良く測定することができる。
(他の実施形態)
以上のように、本出願において開示する技術の例示として、実施形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施形態を例示する。
以上のように、本出願において開示する技術の例示として、実施形態1を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置換、付加、省略などを行った実施の形態にも適用可能である。また、上記各実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施形態を例示する。
上記の実施形態1において、図3のステップS1では、全方位カメラ10の撮像画像5の画像データ50が機器I/F24を介して取得される例を説明したが、ステップS1はこれに限らない。例えば、位置分析装置2は、ネットワークI/F25を介して画像データ50を取得してもよいし、予め記憶部21に格納された画像データ50を読み出してもよい。例えば、全方位カメラ10により予め撮像された録画の画像データに対して、位置分析装置2による分析が行われてもよい。又、ステップS1において、画像データ50は、1フレーム単位で取得されてもよいし、複数フレーム単位で取得されてもよい。ステップS2以降の処理についても、複数フレーム単位で実行可能である。
また、図3のステップS2の加工位置pの認識においては、表面加工工具34の高さが考慮されてもよい。例えば、画像認識部41としての演算処理部20は、全方位カメラ10の撮像画像5においてマーカ34aの位置と共に表面加工工具34の輪郭線を検出し、検出した輪郭線において撮像画像5の中心位置p0に最も近い位置を加工位置pとして認識してもよい。また、表面加工工具34におけるマーカ34aまでの高さが既知である場合、演算処理部20は、撮像画像5におけるマーカ34aの位置から三角測量により加工位置pを算出してもよい。
又、上記の説明では、ステップS2の処理において表面加工工具34の高さを反映する例を説明したが、キャリブレーション時に反映されてもよい。例えば、キャリブレーション用の撮像画像5Aを撮像する際に、表面加工工具34のマーカ34aの高さと同じ高さのマーカを有する治具を各基準位置に配置しておく。こうした撮像画像5Aに基づく正解データD2bを用いて図7と同様のキャリブレーション動作を行うことにより、マーカの高さが予め考慮された補正モデルF(x,W)の重み付けを獲得できる。この場合、基本動作時のステップS2では、マーカ34aの位置を加工位置pとして認識しても、補正位置xcを精度良く得ることができる。
上記の各実施形態では、位置分析装置2における分析対象の位置の一例として表面加工が行われる加工位置を説明した。本実施形態において、分析対象の位置はこれに限らず、例えばユーザ11が分析対象とする種々の位置に設定可能である。例えば、分析対象の位置は、加工対象物32に対する表面加工とは別の加工作業が行われた箇所の位置であってもよいし、被写体の一例として作業場3における作業者31の位置であってもよい。作業場3と作業場3を構成する各種物体は、本実施形態における被写体の一例である。又、分析対象の位置は、1点に限らず、複数点、線または領域であってもよい。
また、上記の各実施形態では、基準位置a1~anが加工対象物32において設定される例を説明したが、基準位置はこれに限定されない。本実施形態において、基準位置は、例えば加工対象物32の台座33において設定されてもよい。例えば、台座33の3次元CADデータなどの形状データを用いて地図座標系の正解データD21aが作成されてもよい。
また、上記の各実施形態では、カメラシステム1におけるカメラの一例として全方位カメラ10を説明した。本実施形態において、カメラシステム1は、全方位カメラ10に限らず、種々のカメラを備えてもよい。例えば、本システム1のカメラは、等立体角射影方式、立体射影方式、正射影方式、円筒射影方式及び中心射影方式といった種々の射影方式を採用する各種の撮像装置であってもよい。
また、上記の各実施形態では、カメラシステム1が作業場3に適用される例を説明した。本実施形態において、カメラシステム1及び位置分析装置2が適用される現場は特に作業場3に限らず、例えば店舗の売り場など種々の現場であってもよい。
以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。
したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
本開示は、カメラを用いて種々の被写体における各種の分析対象の位置を測定する用途に適用可能である。
Claims (11)
- カメラによる被写体の撮像画像に基づき前記被写体における分析対象の位置を測定する位置分析装置であって、
前記カメラが撮像した前記撮像画像を取得する取得部と、
取得された撮像画像における前記分析対象の位置に関して、前記撮像画像に応じた第1の座標系から、前記被写体に応じた第2の座標系への座標変換を演算する演算処理部と、
前記第2の座標系における位置の補正量を生成する補正モデルを格納する記憶部と
を備え、
前記演算処理部は、前記補正モデルに基づいて、前記分析対象の位置が、前記第1の座標系から前記第2の座標系に変換された位置を補正し、
前記補正モデルは、前記第2の座標系における互いに異なる複数の基準位置に対応する複数の重み関数を含み、
前記各重み関数は、前記変換された位置が、それぞれ対応する基準位置に近いほど大きい重み付けを前記補正量に与える
位置分析装置。 - 前記補正モデルは、前記基準位置毎に、当該基準位置を基準とする前記座標変換の誤差を示すベクトルと、当該基準位置に対応する重み関数との積を加算して、前記補正量を生成する
請求項1に記載の位置分析装置。 - 前記補正モデルは、前記重み関数毎に、各々の基準位置から前記変換された位置までの距離に応じた重み付けを調整する重み係数を有する
請求項1又は2に記載の位置分析装置。 - 前記補正モデルは、各基準位置における誤差を最小化するように前記重み係数を調整する機械学習によって構築される
請求項3に記載の位置分析装置。 - 前記記憶部は、複数の補正モデルを格納し、
各補正モデルは、複数組の基準位置における各組の基準位置に対応しており、
前記演算処理部は、前記複数の補正モデルにおいて、前記分析対象の位置の補正に用いる補正モデルを切り替える
請求項1~4のいずれか1項に記載の位置分析装置。 - 前記カメラは、全方位カメラであり、
前記第1の座標系は、前記全方位カメラの射影方式により規定される
請求項1~5のいずれか1項に記載の位置分析装置。 - 前記第2の座標系は、前記カメラが設置された場所における前記被写体の配置を示す情報によって規定される
請求項1~6のいずれか1項に記載の位置分析装置。 - 前記分析対象の位置は、前記被写体としての加工対象物において加工作業を施される位置である
請求項1~7のいずれか1項に記載の位置分析装置。 - 前記被写体を撮像して撮像画像を生成するカメラと、
前記カメラによる前記撮像画像に基づき前記被写体における分析対象の位置を測定する、請求項1~8のいずれか1項に記載の位置分析装置とを備える
カメラシステム。 - カメラによる被写体の撮像画像に基づき前記被写体における分析対象の位置を測定する位置分析方法であって、
前記カメラが撮像した前記撮像画像を取得するステップと、
取得された撮像画像における分析対象の位置に関して、前記撮像画像に応じた第1の座標系から、前記被写体に応じた第2の座標系への座標変換を演算するステップと、
前記第2の座標系における位置の補正量を生成する補正モデルに基づいて、前記分析対象の位置が、前記第1の座標系から前記第2の座標系に変換された位置を補正するステップとを含み、
前記補正モデルは、前記第2の座標系において互いに異なる複数の基準位置に対応する複数の重み関数における各重み関数において、前記変換された位置が、それぞれ対応する基準位置に近いほど大きい重み付けを前記補正量に与える
位置分析方法。 - 請求項10に記載の位置分析方法をコンピュータに実行させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020058401 | 2020-03-27 | ||
JP2020058401 | 2020-03-27 | ||
PCT/JP2020/042644 WO2021192404A1 (ja) | 2020-03-27 | 2020-11-16 | 位置分析装置及び方法、並びにカメラシステム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2021192404A1 JPWO2021192404A1 (ja) | 2021-09-30 |
JP7450195B2 true JP7450195B2 (ja) | 2024-03-15 |
Family
ID=77890062
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022509246A Active JP7450195B2 (ja) | 2020-03-27 | 2020-11-16 | 位置分析装置及び方法、並びにカメラシステム |
Country Status (3)
Country | Link |
---|---|
US (1) | US20230005175A1 (ja) |
JP (1) | JP7450195B2 (ja) |
WO (1) | WO2021192404A1 (ja) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011114480A (ja) | 2009-11-25 | 2011-06-09 | Victor Co Of Japan Ltd | 画像処理装置 |
JP2016118981A (ja) | 2014-12-22 | 2016-06-30 | キヤノン株式会社 | 画像処理装置および方法 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3258213A4 (en) * | 2015-02-13 | 2018-03-07 | Ricoh Company, Ltd. | Measurement tool, calibration method, calibration device, and program |
JP6932058B2 (ja) * | 2017-10-11 | 2021-09-08 | 日立Astemo株式会社 | 移動体の位置推定装置及び位置推定方法 |
US10694148B1 (en) * | 2019-05-13 | 2020-06-23 | The Boeing Company | Image-based navigation using quality-assured line-of-sight measurements |
-
2020
- 2020-11-16 JP JP2022509246A patent/JP7450195B2/ja active Active
- 2020-11-16 WO PCT/JP2020/042644 patent/WO2021192404A1/ja active Application Filing
-
2022
- 2022-09-09 US US17/941,172 patent/US20230005175A1/en active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011114480A (ja) | 2009-11-25 | 2011-06-09 | Victor Co Of Japan Ltd | 画像処理装置 |
JP2016118981A (ja) | 2014-12-22 | 2016-06-30 | キヤノン株式会社 | 画像処理装置および方法 |
Also Published As
Publication number | Publication date |
---|---|
JPWO2021192404A1 (ja) | 2021-09-30 |
US20230005175A1 (en) | 2023-01-05 |
WO2021192404A1 (ja) | 2021-09-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6573354B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
JP6465789B2 (ja) | デプスカメラの内部パラメータを算出するプログラム、装置及び方法 | |
JP6271953B2 (ja) | 画像処理装置、画像処理方法 | |
CN107428009B (zh) | 用于工业机器人调试的方法、使用该方法的工业机器人系统和控制系统 | |
JP6331517B2 (ja) | 画像処理装置、システム、画像処理方法、および画像処理プログラム | |
JP6370038B2 (ja) | 位置姿勢計測装置及び方法 | |
US11403780B2 (en) | Camera calibration device and camera calibration method | |
JP6703812B2 (ja) | 3次元物体検査装置 | |
JP7173285B2 (ja) | カメラ校正装置、カメラ校正方法、及びプログラム | |
JP2018136896A (ja) | 情報処理装置、システム、情報処理方法、および物品の製造方法 | |
JP2016170050A (ja) | 位置姿勢計測装置、位置姿勢計測方法及びコンピュータプログラム | |
KR20200005119A (ko) | 단일 장착면의 장착 오차를 산출하여 보정하는 장치 및 그 방법 | |
JP5704909B2 (ja) | 注目領域検出方法、注目領域検出装置、及びプログラム | |
US11030767B2 (en) | Imaging apparatus and imaging system | |
JP5976089B2 (ja) | 位置姿勢計測装置、位置姿勢計測方法、およびプログラム | |
JP7450195B2 (ja) | 位置分析装置及び方法、並びにカメラシステム | |
WO2020175621A1 (ja) | カメラ校正情報取得装置、画像処理装置、カメラ校正情報取得方法および記録媒体 | |
EP4129584A1 (en) | Calibration system, information processing system, robot control system, calibration method, information processing method, robot control method, calibration program, information processing program, calibration device, information processing device, and robot control device | |
US11478936B2 (en) | Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor | |
CN111742349B (zh) | 信息处理装置、信息处理方法以及信息处理存储介质 | |
JP7401250B2 (ja) | 画像処理装置、制御方法およびプログラム | |
WO2024105847A1 (ja) | 制御装置、3次元位置計測システム、及びプログラム | |
WO2024014080A1 (ja) | 推定システムおよび推定方法 | |
US20230011093A1 (en) | Adjustment support system and adjustment support method | |
CN115246126A (zh) | 约束条件运算装置、机器人系统以及约束条件运算方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20231005 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240130 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240222 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7450195 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |