JP2022042408A - Information processing device - Google Patents
Information processing device Download PDFInfo
- Publication number
- JP2022042408A JP2022042408A JP2020147826A JP2020147826A JP2022042408A JP 2022042408 A JP2022042408 A JP 2022042408A JP 2020147826 A JP2020147826 A JP 2020147826A JP 2020147826 A JP2020147826 A JP 2020147826A JP 2022042408 A JP2022042408 A JP 2022042408A
- Authority
- JP
- Japan
- Prior art keywords
- image
- calibration
- focal length
- information processing
- parameter set
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Studio Devices (AREA)
Abstract
Description
本開示は、情報処理装置に関する。 The present disclosure relates to an information processing apparatus.
従来より、カメラ等の撮像装置の特性を補正するための技術が提案されている。例えば、三次元データに基づき、指定された姿勢の基準ボード画像(較正用画像)を生成し、ディスプレイに表示させる技術が提案されている(例えば、特許文献1参照)。 Conventionally, techniques for correcting the characteristics of an image pickup device such as a camera have been proposed. For example, a technique has been proposed in which a reference board image (calibration image) of a specified posture is generated based on three-dimensional data and displayed on a display (see, for example, Patent Document 1).
カメラ等の撮像装置を用いて、表示システムによって表示された画像等の調整を行う場合、画像全体を撮像する必要があるが、表示システムの設置場所によっては、カメラ撮影のための距離が十分確保できない等の問題が生じる。カメラ設置場所に制約が発生する場合を想定し、効率の点から、画像全体の撮像にズームレンズが使用される場合がある。 When adjusting the image displayed by the display system using an image pickup device such as a camera, it is necessary to capture the entire image, but depending on the installation location of the display system, a sufficient distance for camera shooting is secured. Problems such as being unable to occur occur. Assuming that there are restrictions on the camera installation location, a zoom lens may be used to capture the entire image from the viewpoint of efficiency.
ズームレンズを使用した撮像装置の特性を補正するためには、代表的な焦点距離毎に特性を事前に求めておき、表示システムの設置場所に応じて設定された焦点距離に対応する特性に基づき、当該特性を補正する必要がある。しかし、複数の焦点距離に対応する特性を求めるためには、較正用画像が印刷されたボードや較正用画像が表示されたディスプレイと、撮像装置との距離を変えて、較正用画像の撮像を繰り返し行う必要があり、効率的ではないという課題がある。 In order to correct the characteristics of an image pickup device that uses a zoom lens, the characteristics are obtained in advance for each typical focal length, and based on the characteristics corresponding to the focal length set according to the installation location of the display system. , It is necessary to correct the characteristic. However, in order to obtain the characteristics corresponding to multiple focal lengths, the calibration image is captured by changing the distance between the image pickup device and the board on which the calibration image is printed or the display on which the calibration image is displayed. There is a problem that it needs to be repeated and is not efficient.
上述した課題に鑑み、本開示は、レンズ装置の特性を示すパラメータを、焦点距離毎に算出することが可能となる情報処理装置を提供すること目的とする。 In view of the above-mentioned problems, it is an object of the present disclosure to provide an information processing apparatus capable of calculating parameters indicating the characteristics of a lens apparatus for each focal length.
上述した課題を解決するために、本開示の情報処理装置は、
撮像装置によって撮像された較正用画像と当該較正用画像の撮像に使用されたレンズ装置の焦点距離を示す情報とを複数入力する入力部と、
前記較正用画像と前記焦点距離を示す情報とから、前記焦点距離を示す情報毎に、前記レンズ装置の特性を示すパラメータを算出する算出部と、を備えたことを特徴とする。
In order to solve the above-mentioned problems, the information processing apparatus of the present disclosure is used.
An input unit for inputting a plurality of calibration images captured by the image pickup device and information indicating the focal length of the lens device used for capturing the calibration images, and an input unit.
It is characterized by including a calculation unit for calculating a parameter indicating the characteristics of the lens device for each information indicating the focal length from the calibration image and the information indicating the focal length.
本開示によれば、レンズ装置の特性を示すパラメータを、焦点距離毎に算出することが可能となる。 According to the present disclosure, it is possible to calculate parameters indicating the characteristics of the lens device for each focal length.
以下、本開示の実施の形態について、図面を参照して説明する。なお、本実施形態では、一例として、本開示に係る情報処理装置を含むシステムについて説明する。 Hereinafter, embodiments of the present disclosure will be described with reference to the drawings. In this embodiment, as an example, a system including an information processing apparatus according to the present disclosure will be described.
[1.第1実施形態]
[1.1 全体構成]
本実施形態のシステム1の全体構成を、図1に基づいて説明する。図1に示すように、システム1は、表示装置10と、レンズ装置25を備えた撮像装置20と、情報処理装置30とを含んでいる。情報処理装置30は、表示装置10と撮像装置20と、有線又は無線により接続し、通信可能とする。
[1. First Embodiment]
[1.1 Overall configuration]
The overall configuration of the
表示装置10は、外部から入力された画像信号に基づく画像を表示する装置である。表示装置10は、例えば、液晶素子を用いたLCD(Liquid Crystal Display)、発光素子を用いた有機EL(Organic Light Emitting Diode)ディスプレイ、電気インク等の素子を含んで構成された装置である。なお、表示装置10は、壁面や机上に画像を投影可能な投影装置(例えば、プロジェクタ)であってもよい。
The
撮像装置20は、レンズ装置25(光学系)を介して入射した光に基づく画像を撮像するための装置で、例えば、デジタルカメラによって構成される。レンズ装置25は、1以上のレンズによって構成され、撮像装置20に外部からの光を入射させるための装置である。レンズ装置25は、撮像装置20に装着可能であってもよいし、撮像装置20と一体に構成されてもよい。また、撮像装置20は、撮像した画像を画像データとして記憶してもよい。
The
情報処理装置30は、入力された情報に基づき、所定の処理を行う装置である。情報処理装置30は、例えば、PC(Personal Computer)や、サーバ装置によって構成される。
The
本実施形態の撮像装置20は、例えば、複数台のプロジェクタによって投影される画像を結合させて大画面上に1つの画像として表示するシステム等、他のシステムの調整に用いられる。
The
例えば、撮像装置20は、左右に並べたプロジェクタを用いて1つの画像(横2台分×縦1台分の画像)を表示するシステムにおいて、表示する画像の調整に用いる。この場合、プロジェクタは、左側のプロジェクタが投影する画像の右側領域の一部と、右側のプロジェクタが投影する画像の左側領域の一部とが重なるように配置される。そして、プロジェクタが表示する画像の重複領域の表示が重なることで、2つの画像がシームレスな表示になるように、ユーザは、プロジェクタの配置を調整する。
For example, the
このようなプロジェクタの配置の調整方法は、一般的にエッジブレンディングといわれる。エッジブレンディングを行う場合、ユーザは、撮像装置20を用いて、プロジェクタによって投影された画像全体を撮影(撮像)する。つづいて、ユーザは、エッジブレンディングを行うための装置(例えば、情報処理装置30)に対して、撮像装置20によって撮影された画像(画像データ)を入力する。情報処理装置30は、特徴点の抽出及び幾何学補正を実行し、重複領域を補正することにより所定の調整方法を実行する。ここで、撮像装置20によって撮像された画像にはレンズ装置25の特性が表れてしまう。そのため、レンズ装置25の特性を考慮して補正した画像(レンズの特性が除去された画像)に基づき、エッジブレンディングが行われることが望ましい。
Such a method of adjusting the arrangement of the projector is generally called edge blending. When performing edge blending, the user uses the
本実施形態におけるレンズ装置25の特性は、レンズ装置25の性質に基づく画像の画質を低下する要因をいう。画質を低下する要因は、例えば、歪曲収差(樽型収差、糸巻型収差)、色収差、周辺輝度低下(周辺減光)等である。これらの特性は、使用するレンズ装置25によって異なる。本実施形態では、情報処理装置30は、撮像装置20によって撮像された画像に基づき、レンズ装置25の特性のうち、レンズの収差によって画像が歪む特性である歪曲収差の特性を示す歪み係数を算出する。
The characteristic of the
一般的に、物体を広角レンズで撮像した場合、レンズ装置25のレンズ歪みの特性により、撮像装置20によって撮像された画像の四隅には、引っ張られたような歪みが生じる。具体的には、図2(a)に示すような糸巻型歪曲や、図2(b)に示すような樽型歪曲が生じる。広角レンズや、ズームレンズの広角側を使用して物体を撮像した場合、樽型歪曲が起こりやすく、望遠レンズや、ズームレンズの望遠側を使用して物体を撮像した場合、糸巻側歪曲が起こりやすい。
Generally, when an object is imaged with a wide-angle lens, the four corners of the image captured by the
撮像装置20を用いてエッジブレンディング等の他のシステムの調整を行う場合、撮像装置20によって撮像された画像を、歪み係数を用いて補正することで、レンズ装置25のレンズの歪みの影響を解消した画像に基づく調整が可能となる。
When adjusting other systems such as edge blending using the
レンズ装置25の歪みを補正する手法として、例えば、Zhangの手法を用いることができる。
As a method for correcting the distortion of the
本実施形態では、Zhangの手法に基づき、情報処理装置30によって、レンズ装置25の特性を示す歪み係数(レンズ歪み補正パラメータセット)と、撮像装置20自体の特性を示す係数(内部パラメータセット)とを算出することとして説明する。
In this embodiment, based on Zhang's method, the
内部パラメータセットは、以下のパラメータを含む。
・fx:画像平面上のx軸方向の焦点距離
・fy:画像平面上のy軸方向の焦点距離
・Cx:画像内におけるレンズの中心(x方向)
・Cy:画像内におけるレンズの中心(y方向)
The internal parameter set contains the following parameters.
・ F x : Focal length in the x-axis direction on the image plane ・ f y : Focal length in the y-axis direction on the image plane ・ C x : Center of the lens in the image (x direction)
・ Cy: Center of lens ( y direction) in the image
レンズ歪み補正パラメータセットは、以下のパラメータを含む。
・k1,k2,k3:半径方向歪み
・p1,p2:円周方向歪み
The lens distortion correction parameter set includes the following parameters.
・ K 1 , k 2 , k 3 : Radial distortion ・ p 1 , p 2 : Circumferential distortion
本実施形態では、内部パラメータセット及びレンズ歪み補正パラメータセットを、パラメータセットという。すなわち、パラメータセットとは、レンズ装置25の歪曲収差の特性を示すパラメータと撮像装置20の特定を示すパラメータとの組である。
In the present embodiment, the internal parameter set and the lens distortion correction parameter set are referred to as parameter sets. That is, the parameter set is a set of a parameter indicating the characteristics of the distortion aberration of the
具体的には、情報処理装置30は、撮像装置20が撮像されたチェッカーボードを示すパターン(一般的にチェッカーボードパターンと呼ばれる)等の較正用画像から座標(チェッカーボードパターンであればチェッカーボードのコーナーの座標)を検出する。つづいて、情報処理装置30は、2次元ワールド(撮像装置20によって撮像された画像)から検出した座標と、3次元ワールドにおける点の座標と対応付けることで、3次元ワールド座標系から2次元ワールド座標系への変換係数(パラメータセット)を算出する。この変換係数に基づき、情報処理装置30は、レンズ歪みを補正するために用いられる係数(補正パラメータ)を推定する。
Specifically, the
較正用画像は、較正用画像を撮像した画像に基づいて、情報処理装置30が較正用画像に表れた模様(パターン)から座標を検出できる画像であればよい。例えば、較正用画像は、異なる2色(例えば、白と黒)の矩形を交互に配したチェッカーボードパターンであってもよいし、所定の大きさの円を格子状に配置したサークルグリッドパターンであってもよい。
The calibration image may be an image in which the
なお、本実施形態では、チェッカーボードパターンを用いて、パラメータセットに含まれるパラメータを算出する。パラメータセットを算出するために用いられる、基準となるチェッカーボードパターンは、例えば、図3(a)に示すような、横方向に14マス、縦方向に10マスで構成される矩形状のマス目の背景色を、交互に白又は黒にした画像である。チェッカーボードパターンに含まれるマス目の数や配置は、予め定められている。 In this embodiment, the checkerboard pattern is used to calculate the parameters included in the parameter set. The reference checkerboard pattern used to calculate the parameter set is, for example, a rectangular grid composed of 14 squares in the horizontal direction and 10 squares in the vertical direction, as shown in FIG. 3A. It is an image in which the background color of is alternately white or black. The number and arrangement of squares included in the checkerboard pattern are predetermined.
撮像装置20は、チェッカーボードパターンを撮像する。なお、図3(a)は、パラメータセットを算出する前の画像であり、撮像したチェッカーボードパターンの画像には歪み(樽型歪曲)が生じている。
The
図3(b)は、図3(a)において示した撮影したチェッカーボードパターンのうち、交点が含まれる領域E100を示した図である。交点とは、2つの黒い背景のマス目と2つの白い背景のマス目との4つのマス目が隣接している場所(マス目同士が交差する場所)である。領域E100には、横方向に13箇所、縦方向に9箇所の交点があり、合計117箇所の交点が含まれる。また、図3(c)は、領域E100の一部を拡大した図であり、領域P100は、1の交点を含む領域である。 FIG. 3B is a diagram showing a region E100 including an intersection among the photographed checkerboard patterns shown in FIG. 3A. The intersection is a place where the four squares of the two black background squares and the two white background squares are adjacent to each other (the place where the squares intersect each other). The region E100 has 13 intersections in the horizontal direction and 9 intersections in the vertical direction, and includes 117 intersections in total. Further, FIG. 3C is an enlarged view of a part of the region E100, and the region P100 is a region including the intersection of 1.
情報処理装置30は、撮像装置20が撮像した画像から、2次元ワールドにおける座標平面上の交点の座標を読み出す。例えば、情報処理装置30は、図3(a)に示したチェッカーボードパターンを撮像した画像から、117箇所の交点の座標を読み出す。
The
さらに、情報処理装置30は、117箇所の交点それぞれに対して、読み出した座標と、上から何番目左から何番目の交点であるかといった位置関係と対応付けて、座標と位置関係とのから、公知の手法で、パラメータセットを算出する。
Further, the
図3(d)は、パラメータセットを用いて図3(a)に示したチェッカーボードパターンの補正前の画像を補正した後の画像である。図3(d)に示した補正後の画像は、図3(a)に示した補正前の画像と比べて、樽型歪曲が補正されている。なお、画像の補正は、撮像装置20によって撮像された画像とパラメータセットを用いて情報処理装置30が行ってもよいし、情報処理装置30が出力したパラメータセットを受信した他の装置が行ってもよい。
FIG. 3D is an image after correcting the image before correction of the checkerboard pattern shown in FIG. 3A using the parameter set. The corrected image shown in FIG. 3 (d) has barrel-shaped distortion corrected as compared with the image before correction shown in FIG. 3 (a). The image correction may be performed by the
なお、Zhangの手法では、レンズ装置25の焦点距離を固定した上で、チェッカーボードパターンが印刷されたチェッカーボードを傾け、複数の方向に向けられたチェッカーボードを撮影した画像に基づいてパラメータを算出する。つまり、1の焦点距離に対するパラメータセットを求める場合、複数の角度から撮像されたチェッカーボードの画像が必要となる。
In Zhang's method, after fixing the focal length of the
[1.2 機能構成]
図4を参照して、本実施形態における情報処理装置30の機能構成を説明する。図4に示すように、情報処理装置30は、制御部300、画像出力部310、画像入力部320、操作部330、通信部340、記憶部350を備えて構成される。
[1.2 Function configuration]
The functional configuration of the
制御部300は、情報処理装置30の全体を制御するための機能部である。制御部300は、記憶部350に記憶されている各種プログラムを読み出して実行することにより各種機能を実現しており、1又は複数の演算装置(例えば、CPU(Central Processing Unit))により構成されている。
The
画像出力部310は、外部の表示装置(例えば、表示装置10)に、所定の画像を表示させるための信号(画像信号)を出力する。画像出力部310は、例えば、端子として構成され、HDMI(登録商標)や、ディスプレイポート、USB(Universal Serial Bus) TypeC等の何れかの方式で、外部の表示装置と接続される。
The
画像入力部320は、外部の装置(例えば、撮像装置20)から画像データを入力する。画像入力部320は、例えば、他の装置と接続(通信)を行うための端子として構成され、USB等の方式で、外部の装置と接続される。なお、画像入力部320は、USB(Universal Serial Bus)メモリや、SDカード等の記憶媒体から画像データを入力してもよい。
The
操作部330は、ユーザからの操作入力を受け付ける。例えば、操作部330は、キーボード、マウス等といった入力装置によって構成される。また、操作部330は、LCDや有機ELパネル等の表示機器の上に重ねて設けられるタッチパネルによって構成されてもよい。タッチパネルによるタッチの検出は、静電誘導方式であったり、感圧方式であったり、公知の技術によって実現する。
The
通信部340は、外部の装置と接続し、接続先の装置との通信を行う。通信部340は、例えば、LAN(Local Area Network)やインターネット等の通信ネットワークに接続可能であり、有線/無線LANで利用されるNIC(Network Interface Card)によって構成される。なお、通信部340は、USBの端子等、外部の装置と接続可能なインタフェースであってもよい。
The
記憶部350は、画像データ等の各種データや各種プログラムを記憶する。例えば、半導体メモリであるSSD(Solid State Drive)や、HDD(Hard Disk Drive)等の記憶装置によって構成される。
The
記憶部350は、記憶領域として、較正用画像データ記憶領域352と、入力画像データ記憶領域354と、パラメータセット記憶領域356とが確保される。
The
較正用画像データ記憶領域352は、撮像装置20が撮像した較正用画像の画像データを記憶する領域である。較正用画像データ記憶領域352に記憶される較正用画像は、例えば、図5の(a)~(f)によって示されるように、同一のチェッカーボードパターンの画像を、複数の拡縮率に基づいて拡大又は縮小させた画像である。
The calibration image
入力画像データ記憶領域354は、画像入力部320を介して入力された画像データを記憶する領域である。パラメータセット記憶領域356は、レンズ装置25の焦点距離毎に、焦点距離に対応するパラメータセットを記憶する領域である。
The input image
制御部300は、プログラムを実行することにより、較正用画像表示制御部302として機能する。較正用画像表示制御部302は、較正用画像データ記憶領域352に記憶された較正用画像を、画像出力部310を介して、外部の表示装置(例えば、表示装置10)に表示させる。較正用画像表示制御部302は、例えば、操作部330を介してユーザによって選択された較正用画像を表示する制御を行う。
The
なお、較正用画像表示制御部302は、表示装置10と撮像装置20との距離と、レンズ装置25の焦点距離と、表示装置10の表示可能領域の情報(例えば、表示可能領域の実際のサイズ、ピクセル数、解像度)との情報の入力を受け付け、適切な較正用画像を選択し、外部の表示装置に表示する制御を行ってもよい。なお、表示装置10の表示可能領域の情報は、予め記憶部350に記憶されてもよい。また、較正用画像表示制御部302は、レンズ装置25の焦点距離の情報の入力を受け付ける代わりに、レンズ装置25や撮像装置20の情報(例えば、型番やモデル名等)の入力を受け付け、レンズ装置25の焦点距離を取得してもよい。このようにすることで、較正用画像表示制御部302は、較正用画像の撮像環境に応じて、適切な較正用画像を表示する制御を行うことができる。
The calibration image
本実施形態では、表示装置10と撮像装置20との距離とは、撮像装置20と表示装置10とが正対されたときに、表示装置10の表示可能領域の中心位置から表示装置10と垂直を成す直線をレンズ装置25に伸ばした場合における直線の距離をいう。具体的には、図10のLに示すように、撮像装置20と正対させた表示装置10の表示可能領域の中心位置から、表示装置10と垂直を成す直線をレンズ装置25の中心位置を通るように伸ばした場合における、表示装置10とレンズ装置25の中心との間の距離である。本実施形態では、表示装置10と撮像装置20との距離Lを、基準位置合わせ距離という。
In the present embodiment, the distance between the
なお、較正用画像表示制御部302は、1の較正用画像データを拡大・縮小(スケーリング)させることで任意の大きさの較正用画像データを表示させてもよいし、プログラムによって任意の較正用画像データを生成して表示させてもよい。また、較正用画像表示制御部302は、白と黒を交互に配置した横方向に2マス×縦方向に2マスの大きさの較正用画像をタイル状に並べた画像を生成して表示させてもよい。
The calibration image
[1.3 処理の流れ]
つづいて、図を参照して、本実施形態における情報処理装置30におけるメイン処理の流れについて説明する。はじめに、制御部300は、画像入力部320を介して、撮像装置20や記憶媒体から、撮像装置20によって撮像された較正用画像の画像データと当該画像データが撮像されたときにおける焦点距離の情報とを入力し、入力画像データ記憶領域354に記憶する(ステップS102)。
[1.3 Processing flow]
Subsequently, with reference to the figure, the flow of the main processing in the
ステップS102において入力及び記憶される画像データは、撮像装置20によって撮像された画像であって、表示装置10に表示された較正用画像(チェッカーボードパターン)が写り込んでいる画像の画像データである。
The image data input and stored in step S102 is an image captured by the
制御部300(較正用画像表示制御部302)は、表示装置10に較正用画像を表示するために、ユーザから表示装置10に表示させるチェッカーボードパターンを選択させる操作を受け付けてもよい。この場合、制御部300は、ユーザによって選択された較正用画像に対応する較正用画像データを較正用画像データ記憶領域352から読み出して、画像出力部310を介して表示装置10に出力する。ユーザは、焦点距離に応じたチェッカーボードパターンとして、基準となるチェッカーボードパターンがファインダー等に収まるチェッカーボードパターンを選択する。
The control unit 300 (calibration image display control unit 302) may accept an operation of selecting a checkerboard pattern to be displayed on the
なお、撮像装置20と情報処理装置30とが接続されている場合は、制御部300は、撮像装置20からレンズ装置25の焦点距離の情報を受信して、受信した焦点距離に基づく較正用画像を表示装置10に出力してもよい。
When the
また、ステップS102において入力及び記憶される画像データは、ユーザによって1のレンズ装置25の焦点距離が設定された場合において、複数の方向(角度、姿勢)に向けられた較正用画像を撮像した画像の画像データである。表示装置10は、複数の方向に向けられた較正用画像を撮像可能とするため、表示装置10の表示面が、左右方向や上下方向に回転可能であってもよい。これにより、ユーザは、撮像装置20の位置を固定したまま、表示装置10の表示面の角度を変えることで、複数の方向に向けられた較正用画像を撮像することができる。
Further, the image data input and stored in step S102 is an image obtained by capturing a calibration image directed in a plurality of directions (angles, postures) when the focal length of one
また、ステップS102において入力及び記憶される画像データは、複数の画像データであってもよく、また、それぞれの画像データに対応する焦点距離は異なっていてもよい。例えば、制御部300は、レンズ装置25の焦点距離が18mmに設定された場合とレンズ装置25の焦点距離が22mmに設定された場合とにおいて、それぞれ撮像されたチェッカーボードパターンが写り込んだ画像の画像データを入力してもよい。
Further, the image data input and stored in step S102 may be a plurality of image data, and the focal lengths corresponding to the respective image data may be different. For example, the
焦点距離の情報は、例えば、画像データにExif情報として含まれていてもよいし、画像データとは別に取得可能であってもよい。なお、ステップS102において、制御部300は、画像データと焦点距離とを対応付けて記憶する。
The focal length information may be included in the image data as Exif information, or may be acquired separately from the image data. In step S102, the
つづいて、制御部300は、パラメータセット算出処理を実行する(ステップS102;Yes→ステップS104)。パラメータセット算出処理については、図7を参照して説明する。
Subsequently, the
はじめに、制御部300は、入力画像データ記憶領域354に記憶されている画像データに対応する焦点距離のうち、1の焦点距離を選択する(ステップS122)。そして、制御部300は、当該選択した焦点距離を示す情報と対応する画像データを入力画像データ記憶領域354から読み出す(ステップS124)。このとき、1の焦点距離に対応した画像データであって、複数の方向に向けられた較正用画像(チェッカーボードパターン)が写り込んだ画像の画像データが選択される。
First, the
つづいて、制御部300は、ステップS122において読み出した画像データによって示される画像をグレースケールの画像に変換する処理であるGray変換を実行し、さらに、画像全体を二値化する(ステップS126→ステップS128)。本実施形態では、撮像装置20で撮影した画像から、パラメータセットの生成のために、チェッカーボードパターンの交点を求める。ここで、撮像装置20が高解像度カメラの場合、電子モニターに表示した白黒画面の白パターンにおいて、液晶表示パターンが撮影されてしまうケースがある。そこで、パラメータセット生成用に撮影したチェッカーパターン画像を2値化画像に変換することで、白パターン上におけるテクスチャーを取り除く。二値化する処理として、制御部300は、例えば、判別分析法(大津の二値化法)、画像に含まれる画素の輝度値(階調値)の平均値を閾値とした単純二値化、モード法等の手法を用いる。
Subsequently, the
つづいて、制御部300は、ステップS128において二値化した画像から、チェッカーボードパターンにおける交点の座標を読み取る(ステップS130)。このとき、制御部300は、ステップS130において読み取った交点の数と、較正用画像データ記憶領域352に記憶されている較正用画像(チェッカーボードパターン)に含まれる交点の数とが一致するか否かを判定してもよい。制御部300は、読み取った交点の数と較正用画像に含まれる交点の数とが一致する場合は、較正用画像が正しく撮像されていることを判定する。一方で、制御部300は、読み取った交点の数と較正用画像に含まれる交点の数とが一致しない場合は較正用画像が正しく撮像されていないことを判定する。制御部300は、正しく撮像されていない較正用画像をパラメータセット算出に用いないようにしてもよいし、画像出力部310を介して表示装置10に正しく撮像されていない較正用画像が入力されたことを示すメッセージを表示してもよい。
Subsequently, the
つづいて、制御部300は、ステップS128において読み取った交点の座標(2次元ワールド座標系の座標)を、較正用画像データ記憶領域352に記憶されたチェッカーボードパターンの画像に基づき、3次元ワールド座標系の座標と対応させる。そして、制御部300は、2次元ワールド座標系の座標と3次元ワールド座標系の座標とを対応付ける変換係数、すなわち、レンズ装置25の歪曲収差の特性を示すパラメータセットを算出する(ステップS132)。制御部300は、ステップS130において算出したパラメータセットを、ステップS122において選択した焦点距離と対応付けて、パラメータセット記憶領域356に記憶する。
Subsequently, the
なお、ステップS124において、複数の画像データを読み出しているため、読み出した画像データの数だけ、制御部300は、画像データ毎にステップS126~ステップS130を実行する。また、制御部300は、ステップS132においては、それぞれの画像データから抽出した座標に基づき、パラメータセットを算出する。
Since a plurality of image data are read in step S124, the
制御部300は、入力画像データ記憶領域354に記憶されている画像データに対応する焦点距離のうち、未選択の焦点距離があるか否かを判定する(ステップS134)。未選択の焦点距離がある場合は、制御部300は、ステップS122に戻る(ステップS134;No→ステップS122)。なお、ステップS122を再度実行する場合においては、制御部300は、未選択の焦点距離のうち1の焦点距離を選択する。一方、未選択の焦点距離がない場合は、制御部300は、パラメータセット算出処理を終了する(ステップS134;Yes)。
The
図6に戻り、つづいて、制御部300は、操作部330を介して、パラメータセットを出力する操作がされた場合は、パラメータセットを出力する(ステップS114;Yes→ステップS116)。制御部300は、パラメータセット記憶領域356に記憶されているパラメータセットを、通信部340を介して、パラメータセットの出力先として指定された装置に出力する。例えば、制御部300は、エッジブレンディングを実現する装置にパラメータセットを出力する。エッジブレンディングを実現する装置は、プロジェクタによって投影された画像全体の画像を、パラメータセットによって補正し、補正後の画像に基づいて、エッジブレンディングを行う。なお、制御部300は、パラメータセットを出力する操作において、焦点距離を指定する操作がされていた場合は、当該焦点距離に対応するパラメータセットのみを出力してもよい。
Returning to FIG. 6, the
[1.4 動作例]
つづいて、図を参照して本実施形態における動作例を説明する。図8は、表示装置10と撮像装置20との距離を固定し、表示装置10に較正用画像を表示させた状態で表示装置10と撮像装置20とを正対させた場合に、レンズ装置25の焦点距離を変えたときに、撮像装置20のファインダーに映る画像を示した図である。図8(a)は、レンズ装置25の焦点距離を最も広角側にした場合に撮像装置20のファインダーに映る画像である。レンズ装置25の焦点距離が望遠側にされると、図8(b)、図8(c)、図8(d)、図8(e)、図8(f)の順に、画像が拡大してファインダーに映される。なお、撮像装置20が背面モニターなどの表示機器を備える場合にレンズ装置25の焦点距離を最も広角側にされたときは、撮像装置20が備える背面モニターには図8(a)に示す画像が表示される。また、レンズ装置25の焦点距離が望遠側にされることに伴い、撮像装置20は、背面モニターに、図8(b)、図8(c)、図8(d)、図8(e)、図8(f)の順に、画像を拡大して表示する。
[1.4 Operation example]
Subsequently, an operation example in the present embodiment will be described with reference to the drawings. FIG. 8 shows a
図9は、レンズ装置25の焦点距離が望遠側にされたときにファインダーに映る画像(較正用画像)を示した図である。レンズ装置25の焦点距離を望遠側にされることで、表示装置10に表示された較正用画像は、図9(a)に示すように拡大して映り、ファインダーF100の表示範囲を超えてしまう。この状態で表示装置10が撮像された場合、撮像されたチェッカーボードパターンの画像に含まれる交点の数と、表示装置10に表示されている、基準となるチェッカーボードパターンの画像に含まれる交点の数とが異なってしまう。この結果、2次元ワールド座標系の座標と3次元ワールド座標系の座標との対応付けが正常にできなくなる恐れがある。
FIG. 9 is a diagram showing an image (calibration image) that appears in the finder when the focal length of the
そのため、ユーザは、表示装置10に表示される較正用画像の全体が撮像装置20のファインダーに映るように、情報処理装置30に対して較正用画像を表示させるための操作を行い、表示装置10に表示される較正用画像を、レンズ装置25の焦点距離に応じた画像に切り替える。較正用画像が切り替わることにより、例えば、図9(b)に示すように、表示装置10は、較正用画像全体を、撮像装置20のファインダーF102に映す。
Therefore, the user performs an operation for displaying the calibration image on the
つづいて、図10を参照して、本実施形態によるパラメータ算出手順について説明する。はじめに、ユーザは、三脚等を使用して、撮像装置20を表示装置10に対して正対するように固定する。例えば、ユーザは、表示装置10の表示可能領域の中心位置から、表示装置10と垂直を成す直線をレンズ装置25に伸ばした場合、当該直線がレンズ装置25の中心位置を通るように、表示装置10と撮像装置20とを配置する。
Subsequently, the parameter calculation procedure according to the present embodiment will be described with reference to FIG. First, the user uses a tripod or the like to fix the
つづいて、ユーザは、レンズ装置25の焦点距離を広角側(例えば、18mm)に設定する。また、ユーザは、情報処理装置30を操作して、表示装置10に較正用画像を表示させる。このときユーザは、撮像装置20のファインダーに、較正用画像全体が表示され、かつ、ファインダーの表示可能領域全体に較正用画像が表示されるような較正用画像(全面配置の較正用画像)を表示装置10に表示させる。例えば、ユーザは、情報処理装置30を操作して、適切な較正用画像を選択したり、基準位置合わせ距離Lとレンズ装置25の焦点距離を入力したりして、表示装置10に表示させる。較正用画像がファインダーの全面に配置されることにより、撮像装置20は、画像の縁に近い部分まで、チェッカーボードパターンが配置された画像を撮像することができる。また、情報処理装置30は、画像の縁に近い部分に含まれる交点の座標も抽出可能となるため、画像の縁部に近い領域も歪曲収差が実現できるような、精度の高いパラメータを算出することが可能となる。
Subsequently, the user sets the focal length of the
つづいて、ユーザは、表示装置10の正面が撮像装置20と正対する角度である図10の(1)の角度に表示装置10を回転させ、正面からの較正用画像を撮像する。つづいて、ユーザは、表示装置10を(2)の左斜、(3)の右斜、(4)の上斜め、(5)の下斜めに向け、それぞれ較正用画像を撮像する。なお、(2)及び(3)に示す方向が、表示装置10の表示面が左右方向に回転された場合の方向であり、(4)及び(5)に示す方向が、表示装置10の表示面が左右方向に回転された場合の方向である。
Subsequently, the user rotates the
このとき、撮像装置20は、焦点距離の情報とともに、画像データを記憶する。このように、同じ焦点距離に対して、様々な角度(姿勢)に向いた較正用画像の画像データを撮像し、情報処理装置30に入力されることで、情報処理装置30は、パラメータセット算出処理において、算出するパラメータセットの精度を高めることができる。
At this time, the
つづいて、ユーザは、レンズ装置25の焦点距離を望遠側(例えば、24mm)に変更し、撮像装置20のファインダーに較正用画像全体が表示され、かつ、ファインダーの表示可能領域全体に較正用画像が表示されるような較正用画像を選択し、表示を切り替える。ユーザは、その後同様にして、表示装置10を、正面、左斜、右斜、上斜め、下斜めに向けることで、それぞれの方向の較正用画像を撮像する。
Subsequently, the user changes the focal length of the
ユーザは、レンズ装置25の焦点距離を変える度に、表示装置10に表示させる較正用画像を選択し、表示装置10を複数の方向に向けた上で、較正用画像を撮像する。例えば、ユーザは、焦点距離を、レンズ装置25における代表焦点距離(例えば、18、22、26、30、34、38、42、46、50mmの10箇所)に変えて、代表焦点距離ごとに、較正用画像を撮像する。
Each time the focal length of the
ユーザは、撮像した較正用画像を情報処理装置30に入力し、パラメータセットを算出させる。ユーザは、実使用において、レンズ装置25のレンズ歪みの補正を適用する際に、実使用において設定した焦点距離に応じたパラメータセットを情報処理装置30から取得し、取得したパラメータ及び実使用において撮像装置20によって撮像した画像を補正する。このようにして、ユーザは、歪みを補正した画像を得ることができ、当該歪みを補正した画像を用いて、他のシステムの調整を行うことができる。
The user inputs the captured calibration image to the
図11は、撮像装置20によって撮像される較正用画像の例を示した図である。図11(a)は、撮像装置20が、表示装置10を正面に正対させた状態で表示装置10を撮像したときの較正用画像である。同様にして、図11(b)は、表示装置10を左斜にしたときに撮像装置20が撮像した較正用画像であり、図11(c)は表示装置10を右斜に、図11(d)は表示装置10を上斜めに、図11(e)は表示装置10を下斜めにしたときの較正用画像である。
FIG. 11 is a diagram showing an example of a calibration image captured by the
図12は、レンズ装置25による歪みを補正する前後の画像を示した図である。図12(a)に示す画像は、レンズ装置25による歪みを補正する前の画像であり、図12(b)は、レンズ装置25による歪みを補正した後の画像である。図12(a)に示した画像に比べて、図12(b)に示した画像は、樽型歪曲が補正されている。
FIG. 12 is a diagram showing images before and after correcting the distortion caused by the
[1.5 第1実施形態の変形例]
複数の撮像装置20があるとき、撮像装置20によって、撮像される画像の縦横比(画角)が異なる場合がある。例えば、一般的な一眼レフカメラによって撮像される画像の縦横比(W/H)が1.5であるのに対し、Webカメラによって撮像される画像の縦横比(W/H)が1.77である場合がある。この場合、一眼レフカメラに比べてWebカメラの方が、撮像される画像の画角(アスペクト比)が横に長いこととなる。
[1.5 Modification of First Embodiment]
When there are a plurality of
しかし、一眼レフカメラ用の較正用画像をWebカメラを用いて撮像された場合、情報処理装置30は、画像の左右の縁部に近い領域から座標を抽出することができず、画像の歪みを修正するのに不十分なパラメータセットを算出する可能性がある。
However, when a calibration image for a single-lens reflex camera is captured using a Web camera, the
このような問題を解消するために、較正用画像表示制御部302は、撮像装置20のアスペクト比に応じたチェッカーボードパターンの画像を表示可能なように構成されてもよい。例えば、予め較正用画像データ記憶領域352に記憶させておき、較正用画像表示制御部302は、ユーザに適切な較正用画像を選択させて、選択された較正用画像を表示する制御を行う。なお、較正用画像表示制御部302は、基準位置合わせ距離Lとレンズ装置25の焦点距離の情報と併せてアスペクト比を示す情報を受け付けて、入力されたアスペクト比に応じた較正用画像を表示する制御を行ってもよい。アスペクト比を示す情報は、アスペクト比自体であってもよいし、撮像装置20の情報(例えば、型番やモデル名)であってもよい。撮像装置20の情報が入力された場合、較正用画像表示制御部302は、入力された情報に基づき、撮像装置20のアスペクト比を取得する。
In order to solve such a problem, the calibration image
図13(a)は、撮像される画像の縦横比が1.5である撮像装置20に対応する較正用画像を示す図である。図13(a)は、チェッカーボードパターンの内部に存在する交点の数は345箇所(15×23)であり、そのうち、外周の交点は72箇所、四隅の交点は4箇所である。
FIG. 13A is a diagram showing a calibration image corresponding to the
図13(b)は、撮像される画像の縦横比が1.77である撮像装置20に対応する較正用画像を示す図である。図13(b)に示したチェッカーボードパターンの画像は、図13(a)に示したチェッカーボードパターンの画像を横方向に拡張した画像(拡張チェッカーボードパターン)である。図13(b)に示すチェッカーボードパターンの内部に存在する交点の数は405箇所(15×27)であり、そのうち、外周の交点は80箇所、四隅の交点は4箇所である。
FIG. 13B is a diagram showing a calibration image corresponding to the
図13(b)に示した較正用画像は、図13(a)に示した較正用画像と比べて横長に配置されており、縦横比が1.77である撮像装置20によって撮像された場合であっても、撮像された画像の四隅の周辺に、チェッカーボードパターンの四隅の交点が現れる。
The calibration image shown in FIG. 13B is arranged horizontally as compared with the calibration image shown in FIG. 13A, and is captured by the
図13(a)に示した較正用画像が撮像された場合に比べて、図13(b)に示した較正用画像が撮像された場合、図7のパラメータセット算出処理のステップS130において、制御部300によって、画像データの周辺部における交点の座標情報が抽出される(読み取られる)。したがって、制御部300は、ステップS132において、周辺部の座標も3次元ワールド座標系の座標と対応付けることができ、画像の周辺部の歪みを補正することが可能なパラメータセットを生成することが可能となる。
When the calibration image shown in FIG. 13B is captured as compared with the case where the calibration image shown in FIG. 13A is captured, the control is performed in step S130 of the parameter set calculation process of FIG. The
図14は、図13(b)に示した較正用画像が、縦横比が1.77である撮像装置20によって撮像されたときに撮像された画像を示す図である。
FIG. 14 is a diagram showing an image captured when the calibration image shown in FIG. 13 (b) is captured by the
図15(a)は、従来の較正用画像(縦横比が1.5である撮像装置20に対応する較正用画像)を用いて算出したパラメータセットを用いて、図14に示した画像を補正した場合の画像である。図15(a)の領域E110に示すように、画像を補正しても、四隅が内側にひっぱられている画像となっている。
FIG. 15A corrects the image shown in FIG. 14 using a parameter set calculated using a conventional calibration image (calibration image corresponding to the
図15(b)は、拡張チェッカーボードパターンを用いて算出したパラメータセットを用いて、図14に示した画像を補正した場合の画像である。図15(b)の領域E112に示すように、四隅が内側にひっぱられてはおらず、従来補正より更に精度改善しつつ、四隅が内側に引っ張られるといった課題の解消が実現できている。 FIG. 15B is an image when the image shown in FIG. 14 is corrected by using the parameter set calculated by using the extended checkerboard pattern. As shown in the area E112 of FIG. 15B, the four corners are not pulled inward, and the problem that the four corners are pulled inward can be solved while further improving the accuracy as compared with the conventional correction.
ユーザは、画角のサイズが異なる撮像装置20を使用する場合、使用される撮像装置20に応じて、表示装置10に表示する較正用画像(拡張チェッカーボードパターン)を最適な縦横比の画像に切り替えることで、精度の高いパラメータセットを取得できる。
When the user uses an
また、上述した実施形態では、レンズ装置25における1の焦点距離に対して、複数の方向に向けた較正用画像を撮像することとして説明したが、1の方向に向けた較正用画像を撮像してもよい。この場合、制御部300は、パラメータセット算出処理において、1の焦点距離に対応するパラメータセットを、当該1の焦点距離に対応する画像データから算出する。
Further, in the above-described embodiment, the calibration image oriented in a plurality of directions is captured for one focal length in the
また、本実施形態では、撮像装置20と情報処理装置30とが別体であるとして説明したが、スマートフォンやタブレット装置等一体の装置として構成されてもよい。また、表示装置10と情報処理装置30とが別体であるとして説明したが、表示装置10と情報処理装置30とが一体となっていてもよい。情報処理装置30によって実行される一部の処理は、インターネット上(クラウド上)に設置されるサーバ装置によって実現されてもよい。例えば、ユーザが、焦点距離の情報と画像データとをクラウド上の情報処理装置に送信した場合、当該クラウド上の情報処理装置によってパラメータセットが算出され、ユーザに提供されるといったサービスが実現されてもよい。
Further, in the present embodiment, the
本実施形態では、表示装置と撮像装置との位置関係を保ったまま、撮像装置は焦点距離の設定が可能であり、表示装置には焦点距離に応じた較正用画像が表示されるため、撮像装置を移動させることなく、安定させた状態で較正用画像を撮像することができる。 In the present embodiment, the focal length of the image pickup device can be set while maintaining the positional relationship between the display device and the image pickup device, and the display device displays a calibration image according to the focal length. The calibration image can be taken in a stable state without moving the device.
焦点距離を変えた場合、一般的には、撮像装置を後ろに引くか、表示装置を撮像装置から遠くに離す必要があり、このような動作により、最初に求めた焦点距離の撮影状態と異なる撮影状態となることで、パラメータセット生成時にノイズが生じる懸念があった。しかし、本実施形態によれば、焦点距離に応じた較正用画像を表示装置させ、当該較正用画像を撮像した画像データ及び焦点距離の情報と、基準となった較正用画像とを比較することで、焦点距離に応じたパラメータセットが算出される。そのため、ユーザは、表示装置や撮像装置を移動させる必要がなく、撮像装置におけるカメラ装置の焦点距離を設定・変更するだけで容易に複数の焦点距離に応じたパラメータセットを算出することができる。本実施形態によれば、レンズの歪曲収差を較正するための画像を、撮像装置と表示装置との位置関係を維持したまま撮像できる。そのため、ユーザは、従来の方法に比べてパラメータセット生成時のノイズを抑制することができ、また、効率的で安定して撮像することができる。 When the focal length is changed, it is generally necessary to pull the image pickup device backward or move the display device far away from the image pickup device. There was a concern that noise would occur when the parameter set was generated due to the shooting condition. However, according to the present embodiment, a calibration image corresponding to the focal length is displayed as a display device, and the image data obtained by capturing the calibration image and the focal length information are compared with the reference calibration image. , The parameter set according to the focal length is calculated. Therefore, the user does not need to move the display device or the image pickup device, and can easily calculate the parameter set according to the plurality of focal lengths simply by setting or changing the focal length of the camera device in the image pickup device. According to the present embodiment, an image for calibrating the distortion of the lens can be captured while maintaining the positional relationship between the image pickup device and the display device. Therefore, the user can suppress noise at the time of parameter set generation as compared with the conventional method, and can take an image efficiently and stably.
また、表示システムの調整(例えば、複数のプロジェクタを用いたエッジブレンディング)のために撮像装置を用いる場合において、撮像装置の設置場所に制約が発生する場合を想定してズームレンズが使用されるときであっても、事前に代表的な焦点距離に対応するパラメータセットを算出しておくことで、表示システムが設置された現場に応じて、パラメータセットを使用することができる。 In addition, when the image pickup device is used for adjusting the display system (for example, edge blending using a plurality of projectors), when the zoom lens is used assuming that the installation location of the image pickup device is restricted. Even so, by calculating the parameter set corresponding to the typical focal length in advance, the parameter set can be used according to the site where the display system is installed.
[2.第2実施形態]
つづいて第2実施形態について説明する。第2実施形態はユーザによって指定された焦点距離に対応するパラメータセットが記憶されていない場合に、既に算出されたパラメータセットを補完することで、ユーザによって指定された焦点距離に対応するパラメータセットを出力する実施形態である。第2実施形態は、第1実施形態の図6を図16に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[2. Second Embodiment]
Next, the second embodiment will be described. In the second embodiment, when the parameter set corresponding to the focal length specified by the user is not stored, the parameter set corresponding to the focal length specified by the user is obtained by complementing the already calculated parameter set. It is an embodiment to output. In the second embodiment, FIG. 6 of the first embodiment is replaced with FIG. 16, and the same functional parts and processes are designated by the same reference numerals, and the description thereof will be omitted.
図16を参照して、本実施形態における情報処理装置30のメイン処理の流れについて説明する。本実施形態では、操作部330を介して、パラメータセットを出力する操作がされた場合、制御部300は、パラメータセット記憶領域356に、ユーザによって指定された焦点距離に対応するパラメータセットが記憶されているか否か判定する(ステップS106;Yes→ステップS202)。
With reference to FIG. 16, the flow of the main processing of the
ユーザによって指定された焦点距離に対応するパラメータセットが記憶されている場合は、当該焦点距離に対応するパラメータセットを出力する(ステップS202;Yes→ステップS108)。 If the parameter set corresponding to the focal length specified by the user is stored, the parameter set corresponding to the focal length is output (step S202; Yes → step S108).
一方、ユーザによって指定された焦点距離に対応するパラメータセットが記憶されていない場合は、制御部300は、既に算出されたパラメータセットを補完することで算出されたパラメータセットを出力する(ステップS202;No→ステップS204)。
On the other hand, when the parameter set corresponding to the focal length specified by the user is not stored, the
例えば、制御部300は、ステップS204において、線形補間を行う。例えば、焦点距離が18mm及び22mmに対応するパラメータセットが記憶されている場合において、焦点距離が20mmに対応するパラメータセットを出力させる操作がユーザによってされた場合、制御部300は、焦点距離が18mm及び22mmに対応するパラメータセットを用いて線形補間を行う。
For example, the
本実施形態における動作例を、図17及び図18に示す。図17は、内部パラメータセットを線形補間した場合を示す図であり、図18は、レンズ歪み補正パラメータセットを線形補間した場合を示す図である。図17及び図18に示したグラフは、何れも、横軸に焦点距離を取ったグラフであり、グラフの中の丸は、撮像装置20によって撮像された較正用画像に基づいて生成された実作成パラメータである。実作成パラメータは、例えば、レンズ装置25の焦点距離を代表焦点距離にしたときに撮像された較正用画像に基づいて算出される。
Examples of operations in this embodiment are shown in FIGS. 17 and 18. FIG. 17 is a diagram showing the case where the internal parameter set is linearly interpolated, and FIG. 18 is a diagram showing the case where the lens distortion correction parameter set is linearly interpolated. The graphs shown in FIGS. 17 and 18 are graphs with focal lengths on the horizontal axis, and the circles in the graphs are actuals generated based on the calibration image captured by the
図17(a)は、横軸に焦点距離を、縦軸にfxのパラメータの値をとった場合におけるグラフである。丸の間に示した点は、線形補間によって得られたパラメータを示している。このように、線形補間を行うことで、情報処理装置30は、代表焦点距離以外の焦点距離に対するfxパラメータの値を算出し、出力することが可能となる。
FIG. 17A is a graph when the focal length is on the horizontal axis and the parameter value of fx is on the vertical axis. The points shown between the circles indicate the parameters obtained by linear interpolation. By performing linear interpolation in this way, the
図17(b)は縦軸にfyを、図17(c)は縦軸にCxを、図17(d)は縦軸にCyをとった場合におけるグラフである。横軸は何れも焦点距離である。fy、Cx、Cyに関しても、fxと同様に、線形補間によって、代表焦点距離以外の焦点距離に対応するパラメータの値が算出される。 FIG. 17 (b) is a graph in the case where the vertical axis is f y , FIG. 17 (c) is a graph in which C x is taken in the vertical axis, and FIG. 17 (d) is a graph in which Cy is taken in the vertical axis. The horizontal axis is the focal length. For f y , C x , and Cy , the values of the parameters corresponding to the focal lengths other than the representative focal length are calculated by linear interpolation as in the case of f x .
図18(a)は縦軸にk1を、図18(b)は縦軸にk2を、図18(c)は縦軸にk3を、図18(d)は縦軸にp1を、図18(e)は縦軸にp2をとり、横軸に焦点距離をとった場合のグラフである。k1、k2、k3、p1、p2に関しても、線形補間によって、代表焦点距離以外の焦点距離に対応するパラメータの値が算出される。 18 (a) shows k 1 on the vertical axis, FIG. 18 (b) shows k 2 on the vertical axis, FIG. 18 (c) shows k 3 on the vertical axis, and FIG. 18 (d) shows p 1 on the vertical axis. 18 (e) is a graph when p2 is taken on the vertical axis and the focal length is taken on the horizontal axis. For k 1 , k 2 , k 3 , p 1 , and p 2 , linear interpolation calculates the values of the parameters corresponding to the focal lengths other than the representative focal length.
本実施形態によれば、既に算出されたパラメータセットを補完することで、ユーザによって指定された焦点距離に対応するパラメータセットを出力することができる。したがって、ユーザは、撮像装置20を用いて他のシステムの調整を行う際、当該システムが設置された現場に応じたパラメータセットが生成されていない場合であっても、線形補間により補完されたパラメータセットを使用することができる。
According to the present embodiment, by complementing the already calculated parameter set, it is possible to output the parameter set corresponding to the focal length specified by the user. Therefore, when the user adjusts another system using the
[3.第3実施形態]
つづいて第3実施形態について説明する。第3実施形態は、パラメータセット算出処理において、カメラ装置の特性である周辺減光の影響を軽減させた上でパラメータセットを算出する実施形態である。一般的に、ズームレンズは、短焦点レンズと異なり、性能面において撮影画像の周辺輝度低下(周辺減光)が発生しやすい。そのため、画角全体まで配置したチェッカーパターンの四隅近傍の交点座標を正しく読み取ることは難しい。そこで、本実施形態では、撮像画像を二値化する際、周辺減光の影響を軽減させるように二値化する。第3実施形態は、第1実施形態の図7を図19に置き換えたものであり、同一の機能部及び処理には同一の符号を付し、説明については省略する。
[3. Third Embodiment]
Next, the third embodiment will be described. The third embodiment is an embodiment in which the parameter set is calculated after reducing the influence of limb darkening, which is a characteristic of the camera device, in the parameter set calculation process. In general, unlike a short focus lens, a zoom lens tends to cause a decrease in peripheral brightness (limb darkening) of a captured image in terms of performance. Therefore, it is difficult to correctly read the coordinates of the intersections near the four corners of the checker pattern arranged up to the entire angle of view. Therefore, in the present embodiment, when the captured image is binarized, the binarization is performed so as to reduce the influence of limb darkening. In the third embodiment, FIG. 7 of the first embodiment is replaced with FIG. 19, and the same functional parts and processes are designated by the same reference numerals, and the description thereof will be omitted.
図19を参照して、本実施形態における情報処理装置30のパラメータセット算出処理の流れについて説明する。本実施形態では、第1実施形態において説明したステップS126の処理である画像全体を二値化する処理の代わりに、画像を所定のブロックに分割し、ブロックごとに二値化を行う。
With reference to FIG. 19, the flow of the parameter set calculation process of the
はじめに、制御部300は、ステップS124においてGray変換を行った1枚の画像を、所定のブロックに分割する。例えば、制御部300は、画像を縦4ブロック、横4ブロックに分割する(ステップS302)。
First, the
つづいて、制御部300は、ステップS302において分割したブロックのうち、四隅に位置するブロックを再度分割する(ステップS304)。例えば、制御部300は、四隅のブロックを縦2ブロック、横2ブロックに分割する。
Subsequently, the
つづいて、制御部300は、ブロックごとに二値化を行い(ステップS306)、二値化を行ったブロックをマージして、1枚の画像に戻す(ステップS308)。
Subsequently, the
このような処理を行うことで、制御部300は、ブロックごとにそれぞれ異なる閾値等に基づき二値化を行う。
By performing such processing, the
図を参照して、本実施形態の実施例を説明する。図20は、ブロックについて示した図である。図20(a)は、Gray変換を行った1枚の画像を示す図である。図20(b)は、図20(a)に示した画像を、画像を縦4ブロック、横4ブロックに分割されたときのブロックを示した図である。図20(b)に示したブロックのうち、領域E300、領域E302、領域E304、領域E306は四隅のブロックであり、それぞれ、左上、右上、左下、右下の四隅に位置するブロックである。 An embodiment of the present embodiment will be described with reference to the figure. FIG. 20 is a diagram showing a block. FIG. 20A is a diagram showing a single image that has undergone Gray conversion. FIG. 20 (b) is a diagram showing blocks when the image shown in FIG. 20 (a) is divided into four vertical blocks and four horizontal blocks. Of the blocks shown in FIG. 20 (b), the area E300, the area E302, the area E304, and the area E306 are blocks at the four corners, which are located at the upper left, upper right, lower left, and lower right corners, respectively.
図20(c)は、図20(b)に示したブロックのうち、領域E300(左上のブロック)を拡大した図である。四隅のブロックは、図20(c)に示すように、さらに、縦2ブロック、横2ブロックに再分割される。 FIG. 20 (c) is an enlarged view of the area E300 (upper left block) among the blocks shown in FIG. 20 (b). As shown in FIG. 20 (c), the blocks at the four corners are further subdivided into two vertical blocks and two horizontal blocks.
図21は、ブロック単位で二値化を行った場合の具体例を示す図である。図21(a)は、四隅を再分割しない状態で二値化がされた場合の画像を示す図である。図21(a)に示すように、画像の左上は、背景及び黒いマスが黒い画素となってしまい、チェッカーボードパターンの左上の済のマスの領域が判別できない状態となる。これは、制御部300が画像を二値化する際、画像に含まれる画素の輝度値(階調値)により、二値化を行う際に黒にする画素と白にする画素とを決定するための閾値を輝度値の高い側に設定したためである。制御部300は、輝度値が低い画素が多い隅部の画素を何れも黒い画素に変換してしまうため、背景とチェッカーボードパターンの黒いマスとの区別ができなくなってしまう。
FIG. 21 is a diagram showing a specific example when binarization is performed in block units. FIG. 21A is a diagram showing an image when binarization is performed without subdividing the four corners. As shown in FIG. 21 (a), in the upper left of the image, the background and the black square become black pixels, and the area of the finished square in the upper left of the checkerboard pattern cannot be discriminated. This determines, when the
図21(b)は、四隅のブロックを再分割し、それぞれのブロックにおいて二値化がされた場合の画像を示す図である。輝度値が低い画素が多い隅部のブロックは、当該ブロック内において閾値が設定されるため、他のブロックの輝度値の影響を受けることがない。閾値が輝度値の高い側に設定されることが防げるため、輝度値が低い画素が多い隅部であっても、背景は白い画素に、チェッカーボードパターンの黒いマスは黒い画素に変換される。 FIG. 21B is a diagram showing an image when the blocks at the four corners are subdivided and binarized in each block. A block in a corner having many pixels with a low luminance value is not affected by the luminance values of other blocks because a threshold value is set in the block. Since it is possible to prevent the threshold value from being set on the side with a high luminance value, the background is converted into white pixels and the black squares in the checkerboard pattern are converted into black pixels even in the corners where there are many pixels with low luminance values.
図21(c)は、四隅以外のブロックにおいて二値化がされた場合の画像を示す図である。四隅以外のブロックは、周辺減光の影響を受けないため、チェッカーボードパターンにおける白いマスと黒いマスとの輝度値の差が明確であり、そのまま二値化しても、適切に二値化を行うことができる。 FIG. 21C is a diagram showing an image when binarization is performed in blocks other than the four corners. Since the blocks other than the four corners are not affected by limb darkening, the difference in brightness between the white and black squares in the checkerboard pattern is clear, and even if they are binarized as they are, they are binarized appropriately. be able to.
図22は、ブロック単位で二値化を行った場合の具体例を示す図である。図22(a)は、撮像装置20によって撮像された較正用画像を含む画像(撮像画像)である。レンズ装置の特性により周辺減光が生じており、特に四隅は輝度値が低くなっている。
FIG. 22 is a diagram showing a specific example when binarization is performed in block units. FIG. 22A is an image (captured image) including a calibration image captured by the
図22(b)は、図22(a)に示した画像を、判別分析法(大津の二値化法)によって二値化した場合の図である。図22(c)は、図22(a)に示した画像を、画像に含まれる画素の輝度値(階調値)の平均値を閾値として二値化した場合の図である。図22(b)及び図22(c)に示すように、画像の四隅は黒い画素となっている。このような画像では、四隅付近のマス目を識別できず、交点の座標を読み取ることができない。そのため、情報処理装置30は、パラメータセットを算出することができない。
FIG. 22B is a diagram when the image shown in FIG. 22A is binarized by a discriminant analysis method (Otsu's binarization method). FIG. 22 (c) is a diagram in which the image shown in FIG. 22 (a) is binarized with the average value of the luminance values (gradation values) of the pixels included in the image as a threshold value. As shown in FIGS. 22 (b) and 22 (c), the four corners of the image are black pixels. In such an image, the squares near the four corners cannot be identified, and the coordinates of the intersection cannot be read. Therefore, the
本実施形態によれば、撮像装置によって撮像された較正用画像を含む画像に対して、レンズ装置の特性により周辺減光が生じた場合であっても、適切に二値化を行うことができる。したがって、周辺減光が生じた場合であっても、較正用画像を含む画像の四隅が二値化により黒い画素となり、座標を取得することができなくなり、結果としてパラメータの精度が落ちてしまうことを避けることができる。 According to the present embodiment, the image including the calibration image captured by the image pickup apparatus can be appropriately binarized even when limb darkening occurs due to the characteristics of the lens apparatus. .. Therefore, even if limb darkening occurs, the four corners of the image including the calibration image become black pixels due to binarization, the coordinates cannot be obtained, and as a result, the accuracy of the parameters drops. Can be avoided.
なお、本実施形態は第1実施形態に適用することとして説明したが、第2実施形態に適用してもよい。第2実施形態に適用する場合も、制御部300は、パラメータセット算出処理において、図19に示した処理を実行すればよい。
Although this embodiment has been described as being applied to the first embodiment, it may be applied to the second embodiment. Also when applied to the second embodiment, the
[4.変形例]
本開示は上述した各実施の形態に限定されるものではなく、種々の変更が可能である。すなわち、本開示の要旨を逸脱しない範囲内において適宜変更した技術的手段を組み合わせて得られる実施の形態についても本開示の技術的範囲に含まれる。また、上述した実施形態は、説明の都合上、それぞれ別に説明している部分があるが、技術的に可能な範囲で組み合わせて実行してもよいことは勿論である。
[4. Modification example]
The present disclosure is not limited to the above-described embodiments, and various modifications can be made. That is, the technical scope of the present disclosure also includes embodiments obtained by combining technical means appropriately modified within the scope of the gist of the present disclosure. Further, the above-described embodiments are described separately for convenience of explanation, but it is needless to say that they may be combined and executed within a technically possible range.
また、実施形態において各装置で動作するプログラムは、上述した実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的に一時記憶装置(例えば、RAM)に蓄積され、その後、各種ROM(Read Only Memory)やHDD等の記憶装置に格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。 Further, the program that operates in each device in the embodiment is a program that controls a CPU or the like (a program that causes a computer to function) so as to realize the functions of the above-described embodiment. Then, the information handled by these devices is temporarily stored in a temporary storage device (for example, RAM) at the time of processing, and then stored in various storage devices such as ROM (Read Only Memory) and HDD, if necessary. Is read, corrected and written by the CPU.
ここで、プログラムを格納する記録媒体としては、半導体媒体(例えば、ROMや、不揮発性のメモリカード等)、光記録媒体・光磁気記録媒体(例えば、DVD(Digital Versatile Disc)、MO(Magneto Optical Disc)、MD(Mini Disc)、CD(Compact Disc)、BD(Blu-ray(登録商標) Disc)等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等の何れであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本開示の機能が実現される場合もある。 Here, as the recording medium for storing the program, a semiconductor medium (for example, ROM, a non-volatile memory card, etc.), an optical recording medium / magneto-optical recording medium (for example, a CD (Digital Versatile Disc), MO (Magneto Optical)). Any of Disc), MD (Mini Disc), CD (Compact Disc), BD (Blu-ray (registered trademark) Disc), etc.), magnetic recording medium (for example, magnetic tape, flexible disc, etc.) may be used. .. In addition, by executing the loaded program, not only the functions of the above-described embodiment are realized, but also by processing in collaboration with the operating system or other application programs based on the instructions of the program, the present invention is used. Disclosure functions may also be realized.
また、市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本開示に含まれるのは勿論である。 Further, in the case of distribution to the market, the program can be stored and distributed in a portable recording medium, or transferred to a server computer connected via a network such as the Internet. In this case, it goes without saying that the storage device of the server computer is also included in the present disclosure.
1 システム
10 表示装置
20 撮像装置
25 レンズ装置
30 情報処理装置
300 制御部
302 較正用画像表示制御部
310 画像出力部
320 画像入力部
330 操作部
340 通信部
350 記憶部
352 較正用画像データ記憶領域
354 入力画像データ記憶領域
356 パラメータセット記憶領域
1
Claims (6)
前記較正用画像と前記焦点距離を示す情報とから、前記焦点距離を示す情報毎に、前記レンズ装置の特性を示すパラメータを算出する算出部と、
を備えたことを特徴とする情報処理装置。 An input unit for inputting a plurality of calibration images captured by the image pickup device and information indicating the focal length of the lens device used for capturing the calibration images, and an input unit.
A calculation unit that calculates a parameter indicating the characteristics of the lens device for each information indicating the focal length from the calibration image and the information indicating the focal length.
An information processing device characterized by being equipped with.
前記較正用画像を表示する制御を行う表示制御部と、
を更に備えることを特徴とする請求項1又は2に記載の情報処理装置。 A storage unit that stores the calibration image and
A display control unit that controls the display of the calibration image, and
The information processing apparatus according to claim 1 or 2, further comprising.
The calculation unit according to any one of claims 1 to 5, wherein the calibration image is divided into predetermined blocks, and parameters are generated based on the image obtained by binarizing each block. The information processing device described.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020147826A JP2022042408A (en) | 2020-09-02 | 2020-09-02 | Information processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020147826A JP2022042408A (en) | 2020-09-02 | 2020-09-02 | Information processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2022042408A true JP2022042408A (en) | 2022-03-14 |
Family
ID=80629515
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020147826A Pending JP2022042408A (en) | 2020-09-02 | 2020-09-02 | Information processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2022042408A (en) |
-
2020
- 2020-09-02 JP JP2020147826A patent/JP2022042408A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5604909B2 (en) | Correction information calculation apparatus, image processing apparatus, image display system, and image correction method | |
US9818377B2 (en) | Projection system, image processing apparatus, and correction method | |
JP3925521B2 (en) | Keystone correction using part of the screen edge | |
JP4055010B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
JP3844076B2 (en) | Image processing system, projector, program, information storage medium, and image processing method | |
KR101353110B1 (en) | Projection image area detecting device, projection image area detecting system, and projection image area detecting method | |
CN111935465B (en) | Projection system, projection device and correction method of display image thereof | |
JP5493340B2 (en) | Projection display apparatus and arrangement relation detection method | |
JP5256899B2 (en) | Image correction apparatus, image correction method, projector and projection system | |
US20070091334A1 (en) | Method of calculating correction data for correcting display characteristic, program for calculating correction data for correcting display characteristic and apparatus for calculating correction data for correcting display characteristic | |
JP2011182077A (en) | Correction information calculation device, image processing device, image display system, and image correction method | |
JP2010130225A (en) | Projection display device and adjustment method for projection | |
JP6812862B2 (en) | Image processing system, imaging device, image processing method and program | |
JP2015056834A (en) | Projection system, image processing system, projection method and program | |
JP2011182076A (en) | Correction information calculating device, image processing device, image display system, and image correcting method | |
WO2019167455A1 (en) | Information processing device, calculation method for information processing device, program | |
JP2007074578A (en) | Image processor, photography instrument, and program | |
JP2007074579A (en) | Image processor, and program | |
JP2009111813A (en) | Projector, image data acquisition method for projector, and imaging device | |
US10481363B2 (en) | Projector and focus adjustment method | |
JP6752360B2 (en) | Image processing device, imaging device, terminal device, image correction method and image processing program | |
WO2017179111A1 (en) | Display system and information processing method | |
TWI682358B (en) | Multi-dimensional image projection apparatus and multi-dimensional image calibration method thereof | |
JP5955003B2 (en) | Image processing apparatus, image processing method, and program | |
JP2022042408A (en) | Information processing device |