JP2017078892A - 画像処理方法および画像処理装置 - Google Patents

画像処理方法および画像処理装置 Download PDF

Info

Publication number
JP2017078892A
JP2017078892A JP2015205477A JP2015205477A JP2017078892A JP 2017078892 A JP2017078892 A JP 2017078892A JP 2015205477 A JP2015205477 A JP 2015205477A JP 2015205477 A JP2015205477 A JP 2015205477A JP 2017078892 A JP2017078892 A JP 2017078892A
Authority
JP
Japan
Prior art keywords
image
reference image
images
coordinates
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015205477A
Other languages
English (en)
Other versions
JP2017078892A5 (ja
JP6624880B2 (ja
Inventor
知宏 西山
Tomohiro Nishiyama
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015205477A priority Critical patent/JP6624880B2/ja
Publication of JP2017078892A publication Critical patent/JP2017078892A/ja
Publication of JP2017078892A5 publication Critical patent/JP2017078892A5/ja
Application granted granted Critical
Publication of JP6624880B2 publication Critical patent/JP6624880B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】複数視点の画像間における計測点の対応付けを容易に確認することを可能にする。【解決手段】撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、基準画像における指定点を基準に参照画像をシフトして基準画像に重ね合わせた合成画像を生成する生成手段と、合成画像をユーザーに提示する提示手段とを有する。【選択図】図2

Description

本発明は、複数視点の画像間に点の対応付けを行うための方法に関する。
従来、建築現場等などの写真測量では、写真から被写体の長さを測る手法として、撮像手段の位置および/または向きが異なる複数視点の画像を用いる三角測量が知られている。三角測量では、あらかじめカメラ位置およびカメラの向き(以下、カメラパラメータ)が既知の複数台のカメラを用いて撮像を行う。ディスプレイに映し出された画像において、作業者がマウス等を用いて、計測の対象となる被写体上で2点以上の計測点を指定する。そして、作業者がディスプレイに映し出された画像を目視しながら、計測点の対応付けを行う。または、特許文献1に開示された方法のように、各視点のカメラパラメータおよび各視点の画像データに基づいて、自動で計測点の対応付けを行う。計測点に対応する対応点の座標が取得されると、計測点の座標および対応点の座標に基づいて所定の演算処理が実行され、計測点間の長さ(物理的な距離)が算出される。
特許第3898945号公報
しかしながら、作業者が画像を目視しながら計測点の対応付けを行う方法では、作業者の負担が大きく、対応付けの精度は各作業者の熟練度に左右される。一方、特許文献1の方法では、計測点の対応付けを自動で行うことで、作業者の負担を軽減することができるが、対応付けに誤りが発生する可能性があり、その有無を確認するためには、作業者が1枚1枚画像を確認する必要がある。また、誤対応が発生している場合に、作業者が1枚1枚修正する必要がある。
そこで、本発明の目的は、複数視点の画像のうち1つの画像における指定点を基準に他の画像をシフトして重ね合わせた合成画像を作業者に提示することにより、作業者が計測点の対応付けを容易に確認することを可能にする方法を提供することにある。
本発明の画像処理装置は、撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における指定点を基準に前記参照画像をシフトして前記基準画像に重ね合わせた合成画像を生成する生成手段と、前記合成画像をユーザーに提示する提示手段とを有することを特徴とする。
本発明によれば、作業者が複数視点の画像間における計測点の対応付けを容易に確認することを可能にする。
実施例1に係る画像処理装置の機能構成を示す図である。 実施例1における画像処理部の処理フローを図である。 計測点を指定するためのUIの例を示す図である。 多眼カメラで取得した画像から生成した合成画像を説明するための図である。 計測点と対応点の対応関係を確認するためのUIの例を示す図である。 計測点間の距離を算出する方法を説明するための図である。 計測点間の距離算出結果を表示するUIの例を示す図である。 実施例1の効果を説明するための図である。 実施例2に係る画像処理装置の機能構成を示す図である。 計測点を指定するためのUIの例を示す図である。
[実施例1]
図1(a)は、本実施例に係る画像処理装置の機能構成を示す図である。本実施例に係る画像処理装置は、撮像部101、画像処理部100および表示部108を含む。
撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、IRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどの撮像素子(センサ)などを含み、被写体を撮像する。なお、本実施例における撮像部101は、異なる視点から複数の画像を同時に取得可能である多眼カメラであってもよいし、複数台のカメラであってもよい。また、1台のカメラを用いて複数回撮像を行ってもよい。複数視点の画像を同時、または複数回の撮像により取得できるならば、上記のカメラ形態に限らない。以下では、多眼カメラで画像を取得する場合を例に説明を行い、多眼カメラを構成する個々のカメラを小型カメラと呼称する。
画像処理部100は撮像部101から複数視点の画像データを受け取り、受け取った画像データに基づいてユーザーが指定した2点以上の計測点間の距離を算出する。本実施例における画像処理部100は、画像受け取り部102、計測点指定部103、対応点探索部104、合成画像生成部105、対応点算出部106および距離算出部107を含む。
画像受け取り部102は、撮像部101から複数視点の画像データを受け取る。
計測点指定部103は、複数視点の画像のうち1枚の画像を表示部108に表示し、ユーザーがマウスなどを用いて指定した計測点(指定点)の座標を取得する。
対応点探索部104は、計測点指定部103が取得した計測点に対応する各視点の画像における対応点を、ブロックマッチング法などを用いて自動的に求める。
合成画像生成部105は、計測点の情報とその対応点の情報に基づいて合成画像を生成し、表示部108に表示する。
対応点算出部106はユーザーが制御した画像合成時の画像シフト量、カメラパラメータ、および計測点指定部103で指定された計測点の座標に基づいて、各視点の画像における計測点の対応点の座標を算出する。ここで、カメラパラメータ(視点パラメータ)は、複数視点の画像に対応した撮像時のカメラの位置情報および向き情報を含む。多眼カメラの場合に、多眼カメラを構成する小型カメラの向きはほぼ平行であるので、カメラパラメータは小型カメラの位置情報となる。
距離算出部107は、計測点の座標、対応点の座標およびカメラパラメータに基づいて、ユーザーが指定した計測点間の物理的な長さ(2つの指定点間の物理的な距離)を算出する。
表示部108(提示手段)は例えば、液晶ディスプレイが用いられ、画像を表示する。
図1(b)は画像処理部100の内部構成をより詳細に述べた図である。
中央処理装置(CPU)111は、画像処理部100における各部を統括的に制御する。RAM112は、CPU111の主メモリ、ワークエリア等として機能する。ROM113は、CPU111で実行される制御プログラム等を格納している。バス114は各種データの転送経路であり、例えば、A/D変換部によってデジタルデータに変換された撮像データはこのバス114を介して所定の処理部に送られる。
表示制御部115は、表示部108に表示される画像や文字の表示制御を行う。デジタル信号処理部116は、バス114を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部117は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部118は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。入力部119は、キーボードやマウスなどの入力デバイス120を接続する、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。
なお、画像処理部100は撮像部101の内部に構成されてもよい。
図2は本実施例における画像処理部の処理フローを示す図である。
ステップS201において、画像受け取り部102が撮像部101から多視点画像データを受け取る。
ステップS202において、ユーザーが1つの画像上で計測点を指定し、計測点指定部103が計測点の座標を取得する。
図3は計測点指定部103のUIの例を示す図である。図3において、表示画面300は、計測点指定部103において計測点を指定する場合の画面を表示部108に表示したものである。ここでは多眼カメラで取得した複数視点の画像のうちの1枚を表示部108に表示している。
ユーザーが入力デバイス120(例えばマウス)をドラッグするとマウスのカーソル303の位置が移動し、ユーザーが被写体301上で計測したい点(計測点)をクリックすると、計測点のマーカー302が現れる。計測点の指定方法としては、これに限らず、矢印304で指定してもよい。矢印304で計測点を指定する場合は、マウスをクリックして1点目の計測点を選択し、マウスをドラッグすることで矢印304を引き、2点目の計測点でマウスをリリースすると矢印304の範囲が決定される。
ステップS203において、対応点探索部104が各視点の画像における計測点の対応点を探索する。
ステップS204において、合成画像生成部105が、ステップS202で指定された計測点の座標、およびステップS203で算出された対応点の座標に基づいて、画像合成時の画像シフト量を算出する。算出した画像シフト量に従って画像をそれぞれシフトして合成する。
本実施例において、合成画像生成部105は、小型カメラが同一平面上に配置されている多眼カメラにより取得した複数視点の画像をそれぞれシフトして平均化した画像を生成する。
図4(a)は本実施例における多眼カメラ400の配置例を表す図である。図4(a)において、多眼カメラ400は縦横に5台ずつ小型カメラ401が正方格子状に配置されるように構成されている。小型カメラ401の番号は中心の小型カメラを(0,0)とし、左上から右下に向かって(-2,-2)、(-1,-2)、・・・・(1,2)、(2,2)と番号が付けられているものとする。ここでは多眼カメラは正方格子状に配置するとしたが、この配置に限らない。
図4(b)は、2×2の多眼カメラを用いて撮像した画像を合成したものを示す図である。図4(b)において、被写体402、403、404は、番号の順に多眼カメラに対し手前から奥に向かって並んでいる。多眼カメラから被写体までの距離がそれぞれ異なるため、それぞれの被写体は視差量が異なり、例えば被写体403にピントが合うように画像をシフトして重ねると、被写体402、404は多重像になる。
以下ではN×Nの多眼カメラの場合に、合成画像を生成する手法を説明する。
小型カメラ401の番号を(m,n)、(m,n)番目の小型カメラ401が取得した画像をIm,n(x,y)とする。また、計測点のマーカー302の座標を(0,0)番目の小型カメラで取得した画像上で指定すると仮定し、計測点の座標を(xM,yM)、(m,n)番目の画像における計測点の対応点の座標を(xM_m,n,yM_m,n)とする。このとき、合成画像生成部105は合成画像Isyn(x,y)を式(1)に従って生成する。
式(1)は計測点とその対応点を位置合わせして画像を加算平均することを意味している。なお、ここでは、合成画像は各視点の画像をシフトして加算平均をとったものとしたが、各視点の画像をシフトして重みづけ加算をとったものとしてもよい。または、各視点の画像をシフトしてシースルーで重ねるように表示してもよい。
以上は多眼カメラの場合を例に説明を行ったが、カメラパラメータが既知の複数台のカメラを用いて撮像を行う場合は、カメラの向き情報を用いて、各視点の画像に射影変換を施し、カメラの向きが平行な状態で撮像された画像群に変換する。次に、カメラの位置情報を利用して、画像の倍率を調整し、同一平面状にカメラが配置された状態で撮像された画像群に変換する。すなわち、カメラの向きが平行でカメラの位置が同一平面状になる状態で撮像したのと同様になるように、いわゆる平行ステレオ変換処理を行い、平行ステレオ画像を取得する。その変換に必要なパラメータは、公知のキャリブレーション手法により求めることができる。キャリブレーション手法は例えば「佐藤淳、コンピュータビジョン―視覚の幾何学―、コロナ社」に記載されている。変換後の画像の合成処理は多眼カメラの場合と同様である。
なお、1台のカメラで複数回撮像することで複数視点の画像を取得する場合は、複数視点の画像を用いてカメラパラメータを推定する。推定されたカメラパラメータを用いることで、複数台のカメラで撮像する場合と同様にして画像を変換し、画像の合成処理を行う。
なお、本実施形態の画像処理部100は、カメラパラメータに基づいて複数視点の画像が平行ステレオ画像であるか否かを判定し、判定結果によって平行ステレオ変換を行うか否かを決定する仕組みを備えてもよい。すなわち、複数視点の画像が平行ステレオ画像である場合に、平行ステレオ変換を行わない。例えば、多眼カメラで撮像した場合に、取得した画像は平行ステレオ画像であるので、平行ステレオ変換を行わない。複数視点の画像が平行ステレオ画像でない場合に、複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、基準画像のカメラパラメータを基に参照画像を平行ステレオ変換する。
ステップS205において、合成画像生成部105が合成画像を表示部108に表示する。表示される合成画像において、計測点と同じ位置に示される各視点の画像の点は、ステップS203で探索された対応点である。
ステップS206において、ユーザーが1つの計測点を着目して、当該計測点と対応点の対応に誤りがあるか否かを確認し、誤りがない場合は、処理はステップS210に進み、誤りがある場合は、処理はステップS207に進む。
図5、合成画像生成部105のUIの例を示す図である。図5(a)の表示画面500は計測点の対応点探索ミスがない場合に、合成画像生成部105が生成した合成画像を表示部108に表示したものである。表示画面500には、左半分に表示されているウィンドウ501、および右半分に表示されているウィンドウ502が含まれる。また、画像合成時の画像シフト量を制御するスライドバー503、504、および計測点のマーカー505、506が示される。
ウィンドウ501において、計測点のマーカー505上で被写体301のピントが合っており、ウィンドウ502では計測点のマーカー506上で被写体301のピントが合っている。合成画像生成部105は、計測点とその対応点を位置合わせして画像を合成するので、計測点の位置で被写体301のピントが合っていることは、対応点は正しく探索されていることを意味している。ユーザーは計測点のマーカー505、506上で被写体301のピントが合っていることを確認し、ボタン507をクリックする。ボタン507をクリックすると、対応点算出部106に計測点の座標と、計測点に対応する対応点の座標が送られる。
ステップS207において、ユーザーがスライドバー503、504を調整することで画像合成時の画像シフト量を制御する。合成画像生成部がスライドバー503、504のステータスに応じたスカラー値を取得し、取得したスカラー値およびカメラパラメータに基づいて、画像合成時の画像シフト量を算出する。
ここで、夫々の画像のシフト量は、共通のスカラー値により制御することができる。その原因は以下となる。シフトされる画像は平行ステレオ画像であり、シフト量は夫々の画像間にカメラパラメータによって決まった比率関係がある。例えば、小型カメラが等間隔で並んでいるように構成された多眼カメラにより取得された複数視点の画像を例にすると、(0,0)番目の小型カメラの画像を基準とした夫々の画像のシフト量は次の関係がある。すなわち、(m,n)番目の小型カメラの画像のシフト量は、(1,1)番目の小型カメラの画像のシフト量に比べて、x方向においてm倍、y方向においてn倍になっている。このような関係は、合成画像生成部などによりカメラパラメータから算出される。そのため、ユーザーが共通のスカラー値を最適値に調整することで、夫々の画像シフト量を最適に制御することができる。
ステップS208において、合成画像生成部105がユーザーが制御した画像シフト量に基づき、画像をシフトして加算平均することで、合成画像を生成する。
ステップS209において、合成画像生成部105が合成画像を表示部108に表示する。なお、ここでは表示部108に表示する際に、画面をウィンドウ501、502のように左右に分割して表示したが、1枚ずつ切り替えて表示してもよい。
図5(b)の表示画面510は計測点の対応点に探索ミスがある場合に、合成画像生成部105が生成した画像を表示部108に表示したものである。表示画面510には、左半分に表示されているウィンドウ511、右半分に表示されているウィンドウ512が含まれる。
ウィンドウ512において、計測点のマーカー506上で被写体301のピントが合っていない。これは対応点探索部104において、計測点の対応点が正しく探索されなかったことを意味している。この場合、ユーザーはウィンドウ512において、計測点のマーカー上で被写体301のピントを合わせる(すなわち、ウィンドウ502で示された状態になる)ように、スライドバー504を調整する。
ステップS210において、対応点算出部106が画像シフト量、計測点の座標、カメラパラメータに基づき、計測点に対応する対応点の座標を算出する。
本実施例では、ユーザーがスライドバー503、504で制御した画像シフト量、計測点指定部103で指定した計測点の座標およびカメラパラメータに基づいて計測点に対応する対応点の座標を算出する。小型カメラが等間隔で並んでいるように構成された多眼カメラにより取得された複数視点の画像の場合に、対応点算出部106は式(2)に従って対応点の座標を算出する。スライドバー503、504で制御された(1,1)番目の小型カメラの画像のシフト量をs[pixel]、計測点の座標を(xM,yM)[pixel]とすると、(m,n)番目の小型カメラの画像における計測点の対応点の座標は式(2)で示すものとなる。
なお、小型カメラが等間隔で並んでいない場合は、式(2)においてm,nの替わりに小型カメラの間隔を反映する数値を設定すれば、類似の方法で対応点の座標を算出することができる。
また、複数台のカメラを用いる場合や、複数回撮像する場合に関しては、まず、類似の方法で平行ステレオ変換後された画像における対応点の座標を算出する。そして、算出した対応点の座標およびカメラパラメータから変換前の画像における対応点の座標を算出する。すなわち、平行ステレオ変換前に逆変換することで、変換前の画像における対応点の座標を算出する。
ステップS211において、ユーザーが全ての計測点について対応点の確認が終了しているか否かを判断する。対応点の確認が終了していない計測点がある場合はステップS206に戻る。全ての計測点について対応点の確認が終了している場合は、ユーザーが図5のボタン507をクリックすると、処理はステップS212に進む。
ステップS212において、計測点とそれに対応する対応点の座標を基に距離算出部107が計測点間の距離を算出して表示部108に表示し、画像処理部100の動作を終了する。
以下、距離算出部107の動作をより詳細に説明する。距離算出部107は基本的には三角測量の手法を用いて、計測点間の距離を算出する。
図6は計測点間の距離を算出する方法を説明するための図である。図6において、ワールド座標601、カメラ座標602、被写体603、および被写体像605が示されている。画像平面604は小型カメラ401をピンホールカメラとみなしたときの、撮像素子に対応する平面である。カメラ座標602の原点は、小型カメラ401の中心位置であり、被写体像605は被写体603と小型カメラの中心位置を結んだ直線と、画像平面604の交点になる。被写体603の位置ベクトルをXobj、カメラ座標602を張る単位ベクトルをi、j、k、ワールド座標を張る単位ベクトルをX、Y、Z、カメラの中心位置を表すベクトルをXcとする。また、小型カメラ401の中心位置から見た画像平面604上の被写体像の位置ベクトルをXscreen、画像平面604上の被写体像605の位置を(u,v)、小型カメラの焦点距離をfとする。(u,v)は画像上の被写体の位置に相当する。
図6より、式(3)、(4)が成り立つ。
ここで、sは適当なスカラー値であり、スケール変換を表している。ベクトルXobjを式(5)、ベクトルXcを式(6)と表すものとすると、式(3)を式(4)に代入し、ベクトルX、Y、Zの内積をとることにより、式(7)となる。
ここで、
であり、Rはカメラの向きの回転行列を表している。式(7)は被写体の画像上の座標(u,v)、小型カメラの中心位置(xc,yc,zc)、被写体の座標(x,y,z)の関係を表している。式(7)に小型カメラの位置番号を表す添え字(m,n)をつけると、式(9)が各カメラについて成り立つ。
式(9)において、(x,y,z)は(m,n)に依らず共通の値なので、ここでは以下の関数を最小化するようにsm,nを決める。
ここで、
とした。
Vをsm,nに関して偏微分し、0とおくと、式(12)となる。
ここで、N2は小型カメラの台数であり、
と置くと、式(12)は式(14)と変形できる。
M,vは被写体の画像上での位置、カメラの回転行列(向き)、カメラの位置が分かれば求めることができるので、式(14)をsm,nについて解くと、各視点画像におけるスケール変換値を求めることができる。
最後に、ある視点画像のスケール変換値sと式(7)を用いることにより、計測点間の距離を
と求めることができる。ここで、s1、s2は計測点1、2のスケール変換値であり、Xobj,1、Xobj,2は計測点1、2の空間座標である。距離算出部107は式(14)、式(15)に従って、画像上の2点の計測点間の距離を算出する。
以上が距離算出部107の動作原理である。 図7は、距離算出部107が算出した距離を表示部108に表示した画像を示す図である。図7において、表示画面700は(0,0)番目の小型カメラの画像を表示したものであり、ユーザーが指定した計測点701、702を結ぶ矢印703、および計測点701,702間の距離を示すウィンドウ704が表示されている。ユーザーは表示画面700を見ることで、指定した計測点間の距離を知ることができる。
図8は、本実施例に係る画像処理を施した場合の効果を説明するための図である。
図8(a)は従来手法によって計測点と対応点の対応に誤りがあるか否かを確認する画面を表したものである。表示画面800は3×3の9視点の画像を表示したものであり、ユーザーは9個に分割された画面の一枚一枚を見て対応に誤りがあるか否かを確認する。図8(a)の場合は、一番右下の画像において、対応点に誤対応が発生しているので、ユーザーは一番右下の画面において、対応点の座標を修正する。
図8(b)は、本実施例を適用し、合成画像上で計測点と対応点の対応に誤りがあるか否かを確認する画面を表したものである。表示画面810は3×3の9視点の画像を、計測点と対応点を位置合わせするように合成したものであり、ユーザーは左右2枚の画像を見て、それぞれの計測点と対応点の対応に誤りがあるか否かを確認する。ウィンドウ801では、計測点803の対応点は正しく求められているが、ウィンドウ802では計測点804上で被写体301のピントが合っていないため、対応点に誤対応が発生している。ユーザーはウィンドウ802において、計測点804上で被写体301のピントが合うようにスライドバー504を調整する。
従来手法の場合は、各視点画像が小さくなってしまい、誤対応の有無を確認することが困難である。また、1枚1枚切り替えて表示して確認する手法も考えられるが、視点数分の画像を確認する必要がある。また、誤対応が複数視点において発生している場合は、ユーザーが1枚1枚対応点を修正する必要がある。
一方、本実施例の場合は、表示画面810で示したように大きな画面で一目で誤対応の有無を確認することが可能である。また、本実施例では、複数視点の画像が平行ステレオ画像でない場合に、複数視点の画像を平行ステレオ変換し、変換された画像に基づいて合成画像を生成する。このように生成された合成画像は、誤対応の有無を容易にかつ精度高く確認することを可能にする。また、誤対応が発生している場合も、従来手法のように1枚1枚修正する必要がなく、合成画像上において共通のスカラー値を調整することで誤対応を修正することが可能になる。
以上のように、本実施例によれば、計測点の対応点に誤対応がないかを一目で判断することができ、誤対応がある場合も、簡易な操作で誤対応を修正することが可能になる。
[実施例2]
実施例1ではユーザーは表示画面500上で、計測点のマーカー505、506の指定を行ったが、本実施例では計測点のマーカー506の指定領域付近を拡大して表示部108に表示する場合について説明する。
図9は本実施例に係る画像処理装置の機能構成を示す図である。
画像処理部900は撮像部101から複数視点の画像データを受け取り、受け取った画像データに基づいてユーザーが指定した2点以上の計測点間の距離を算出する。ここでは、図1との差異のみを説明する。
領域拡大部901はマウスポインタの座標を取得し、マウスポインタの周辺領域を拡大して表示部108に表示する。本実施例では、周辺領域の拡大手法は、バイキュービック法などの補間によるものとするが、これに限らず、画像を拡大できる手法であれば超解像などほかの手法を用いてもよい。
計測点指定部902は領域拡大部901の情報を受け取り、マウスポインタの周辺領域を拡大して表示部108に表示する。
図10は計測点指定部902のUIの例を示す図である。計測点指定部902のUIは基本的には表示画面500と同様であり、表示画面1000は右半分のウィンドウを切り出したものである。
ウィンドウ1001は合成画像におけるマウス座標の周辺領域を領域拡大部901が拡大し、計測点指定部902が表示部108に表示したものである。
以上のように本実施例によれば、計測点を指定したい領域付近を拡大して表示することで、ユーザーがより精度よく計測点を指定し、より詳細に誤対応の有無を確認することが可能になる。
(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。

Claims (10)

  1. 撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における指定点を基準に前記参照画像をシフトして前記基準画像に重ね合わせた合成画像を生成する生成手段と、
    前記合成画像をユーザーに提示する提示手段と
    を有することを特徴とする画像処理装置。
  2. 前記基準画像における前記指定点に対応する、前記参照画像における対応点をブロックマッチング法により探索する探索手段をさらに有し、
    前記生成手段は、探索された前記対応点を前記指定点に位置合わせるよう前記参照画像をシフトし、シフトした前記参照画像と前記基準画像とを重みづけ加算することにより、前記合成画像を生成することを特徴とする請求項1に記載の画像処理装置。
  3. 前記複数視点の画像の視点パラメータに基づいて、前記複数視点の画像が平行ステレオ画像であるか否かを判定する判定し、前記複数視点の画像が平行ステレオ画像でないと判定した場合に、前記基準画像の視点パラメータを基準に前記参照画像を平行ステレオ変換する変換手段をさらに有し、
    前記参照画像が前記変換手段により平行ステレオ変換された場合に、前記生成手段は、変換された前記参照画像を用いて前記合成画像を生成することを特徴とする請求項1または2に記載の画像処理装置。
  4. 前記合成画像における前記参照画像のシフト量を調整するために前記ユーザーが入力した、各前記参照画像のシフト量を制御する共通のスカラー値を受け取る受け取り手段をさらに有し、
    前記受け取り手段が前記スカラー値を受け取ることに応じて、前記生成手段は、前記スカラー値と前記基準画像および前記参照画像の視点パラメータとに基づいて各前記参照画像のシフト量を算出し、算出したシフト量に従ってシフトした前記参照画像と前記基準画像とを重みづけ加算することにより、調整された合成画像を生成し、
    前記提示手段は、前記調整された合成画像を前記ユーザーに提示することを特徴とする請求項3に記載の画像処理装置。
  5. 前記提示手段は、前記スカラー値を調整するスライドバーを、前記調整された合成画像と共に前記ユーザーに提示し、
    前記受け取り手段は、前記ユーザーにより調整された前記スライドバーのステータスに応じた前記スカラー値を取得することを特徴とする請求項4に記載の画像処理装置。
  6. 前記スカラー値により制御された前記参照画像のシフト量と、前記基準画像および前記参照画像の視点パラメータと、前記基準画像における前記指定点の座標とに基づいて、前記指定点に対応する前記参照画像における対応点の座標を算出する対応点算出手段をさらに有することを特徴とする請求項4または5に記載の画像処理装置。
  7. 前記基準画像における2つの指定点に対応する、前記参照画像における対応点の座標が前記対応点算出手段により算出され、当該算出された対応点の座標と前記2つの指定点の座標と前記前記基準画像および前記参照画像の視点パラメータとに基づいて、前記2つの指定点間の物理的な距離を算出する距離算出部をさらに有することを特徴とする請求項6に記載の画像処理装置。
  8. 前記基準画像における指定点をユーザーから受け取る受け取り手段をさらに有し、前記受け取り手段は、ユーザーから入力された座標に基づいて、当該座標の周辺領域を拡大して表示することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。
  9. 撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における指定点を基準に前記参照画像をシフトして前記基準画像に重ね合わせた合成画像を生成する生成工程と、
    前記合成画像をユーザーに提示する提示工程と
    を含むことを特徴とする画像処理方法。
  10. コンピュータを請求項1乃至8のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
JP2015205477A 2015-10-19 2015-10-19 画像処理方法および画像処理装置 Active JP6624880B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015205477A JP6624880B2 (ja) 2015-10-19 2015-10-19 画像処理方法および画像処理装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015205477A JP6624880B2 (ja) 2015-10-19 2015-10-19 画像処理方法および画像処理装置

Publications (3)

Publication Number Publication Date
JP2017078892A true JP2017078892A (ja) 2017-04-27
JP2017078892A5 JP2017078892A5 (ja) 2018-11-01
JP6624880B2 JP6624880B2 (ja) 2019-12-25

Family

ID=58666895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015205477A Active JP6624880B2 (ja) 2015-10-19 2015-10-19 画像処理方法および画像処理装置

Country Status (1)

Country Link
JP (1) JP6624880B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140688A (ja) * 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 画像を幾何学的に計測するための計測処理装置
JP2006174069A (ja) * 2004-12-15 2006-06-29 Canon Inc 撮影装置及び撮影方法
JP2007318555A (ja) * 2006-05-26 2007-12-06 Omron Corp 拡大観察装置および拡大観察方法
JP2013211827A (ja) * 2012-02-28 2013-10-10 Canon Inc 画像処理方法および装置、プログラム。
JP2013217662A (ja) * 2012-04-04 2013-10-24 Sharp Corp 測長装置、測長方法、プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140688A (ja) * 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd 画像を幾何学的に計測するための計測処理装置
JP2006174069A (ja) * 2004-12-15 2006-06-29 Canon Inc 撮影装置及び撮影方法
JP2007318555A (ja) * 2006-05-26 2007-12-06 Omron Corp 拡大観察装置および拡大観察方法
JP2013211827A (ja) * 2012-02-28 2013-10-10 Canon Inc 画像処理方法および装置、プログラム。
JP2013217662A (ja) * 2012-04-04 2013-10-24 Sharp Corp 測長装置、測長方法、プログラム

Also Published As

Publication number Publication date
JP6624880B2 (ja) 2019-12-25

Similar Documents

Publication Publication Date Title
JP6112824B2 (ja) 画像処理方法および装置、プログラム。
WO2018179040A1 (ja) カメラパラメータ推定装置、方法およびプログラム
JP2012248001A (ja) 画像処理装置および画像処理方法、プログラム
JP2011232330A (ja) 撮像装置、長さ測定方法、及びプログラム
JP2015119395A (ja) 情報処理装置、情報処理方法およびプログラム
JP2016024489A (ja) 画像処理装置、撮像装置、画像処理方法及びプログラム
JP6594170B2 (ja) 画像処理装置、画像処理方法、画像投影システムおよびプログラム
JP6071257B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
WO2018179039A1 (ja) カメラパラメータ推定装置、方法およびプログラム
JP6552256B2 (ja) 画像処理装置及び画像処理装置の制御方法
JP2006329684A (ja) 画像計測装置及び方法
JP2013093836A (ja) 撮像装置、画像処理装置およびその方法
JP4581512B2 (ja) 3次元画像処理装置、光軸調整方法、光軸調整支援方法
KR101611427B1 (ko) 영상 처리 방법 및 이를 수행하는 영상 처리 장치
JP5310890B2 (ja) 画像生成装置、画像生成方法及びプログラム
JP6624880B2 (ja) 画像処理方法および画像処理装置
JP2017040542A (ja) 情報処理装置、情報処理方法、プログラム
JP6320165B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP6405539B2 (ja) 多視点画像に対するラベル情報の処理装置及びそのラベル情報の処理方法
JP6732440B2 (ja) 画像処理装置、画像処理方法、及びそのプログラム
JP6648916B2 (ja) 撮像装置
JP2013175821A (ja) 画像処理装置、画像処理方法およびプログラム
JP2018129025A (ja) 決定装置、画像処理装置、決定方法及び決定プログラム
JP5001400B2 (ja) 遮蔽物除去表示装置
JP5863280B2 (ja) 撮像装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R151 Written notification of patent or utility model registration

Ref document number: 6624880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151