JP6624880B2 - Image processing method and image processing apparatus - Google Patents

Image processing method and image processing apparatus Download PDF

Info

Publication number
JP6624880B2
JP6624880B2 JP2015205477A JP2015205477A JP6624880B2 JP 6624880 B2 JP6624880 B2 JP 6624880B2 JP 2015205477 A JP2015205477 A JP 2015205477A JP 2015205477 A JP2015205477 A JP 2015205477A JP 6624880 B2 JP6624880 B2 JP 6624880B2
Authority
JP
Japan
Prior art keywords
reference image
image
images
shift amount
scalar value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015205477A
Other languages
Japanese (ja)
Other versions
JP2017078892A (en
JP2017078892A5 (en
Inventor
知宏 西山
知宏 西山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015205477A priority Critical patent/JP6624880B2/en
Publication of JP2017078892A publication Critical patent/JP2017078892A/en
Publication of JP2017078892A5 publication Critical patent/JP2017078892A5/ja
Application granted granted Critical
Publication of JP6624880B2 publication Critical patent/JP6624880B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Description

本発明は、複数視点の画像間に点の対応付けを行うための方法に関する。   The present invention relates to a method for associating points between images of a plurality of viewpoints.

従来、建築現場等などの写真測量では、写真から被写体の長さを測る手法として、撮像手段の位置および/または向きが異なる複数視点の画像を用いる三角測量が知られている。三角測量では、あらかじめカメラ位置およびカメラの向き(以下、カメラパラメータ)が既知の複数台のカメラを用いて撮像を行う。ディスプレイに映し出された画像において、作業者がマウス等を用いて、計測の対象となる被写体上で2点以上の計測点を指定する。そして、作業者がディスプレイに映し出された画像を目視しながら、計測点の対応付けを行う。または、特許文献1に開示された方法のように、各視点のカメラパラメータおよび各視点の画像データに基づいて、自動で計測点の対応付けを行う。計測点に対応する対応点の座標が取得されると、計測点の座標および対応点の座標に基づいて所定の演算処理が実行され、計測点間の長さ(物理的な距離)が算出される。   2. Description of the Related Art Conventionally, in photogrammetry of a construction site or the like, triangulation using images from a plurality of viewpoints having different positions and / or directions of an imaging unit is known as a method of measuring the length of a subject from a photograph. In triangulation, imaging is performed using a plurality of cameras whose camera positions and camera directions (hereinafter, camera parameters) are known in advance. In the image displayed on the display, the operator uses a mouse or the like to specify two or more measurement points on the measurement subject. Then, the operator associates the measurement points while watching the image projected on the display. Alternatively, as in the method disclosed in Patent Literature 1, measurement points are automatically associated with each other based on camera parameters of each viewpoint and image data of each viewpoint. When the coordinates of the corresponding point corresponding to the measurement point are obtained, a predetermined calculation process is executed based on the coordinates of the measurement point and the coordinates of the corresponding point, and the length (physical distance) between the measurement points is calculated. You.

特許第3898945号公報Japanese Patent No. 3898945

しかしながら、作業者が画像を目視しながら計測点の対応付けを行う方法では、作業者の負担が大きく、対応付けの精度は各作業者の熟練度に左右される。一方、特許文献1の方法では、計測点の対応付けを自動で行うことで、作業者の負担を軽減することができるが、対応付けに誤りが発生する可能性があり、その有無を確認するためには、作業者が1枚1枚画像を確認する必要がある。また、誤対応が発生している場合に、作業者が1枚1枚修正する必要がある。   However, in the method in which the worker associates the measurement points while viewing the image, the burden on the worker is large, and the accuracy of the association depends on the skill of each worker. On the other hand, in the method of Patent Document 1, the burden on the worker can be reduced by automatically performing the association of the measurement points, but there is a possibility that an error occurs in the association, and the presence or absence of the error is confirmed. In order to do so, it is necessary for an operator to check each image. Further, when an erroneous response has occurred, it is necessary for the operator to make corrections one by one.

そこで、本発明の目的は、複数視点の画像のうち1つの画像における指定点を基準に他の画像をシフトして重ね合わせた合成画像を作業者に提示することにより、作業者が計測点の対応付けを容易に確認することを可能にする方法を提供することにある。   Accordingly, an object of the present invention is to provide a worker with a composite image obtained by shifting and superimposing another image on the basis of a designated point in one image among images of a plurality of viewpoints, so that the worker can measure the measurement point. An object of the present invention is to provide a method that allows the user to easily confirm the correspondence.

本発明の画像処理装置は、視点が異なる複数の画像を用いて、少なくとも2つの指定点間の距離を算出する画像処理装置であって、前記複数の画像のうち少なくとも1つの画像における複数の指定点を指定する指定手段と、前記複数の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における前記指定点それぞれに対応する、前記参照画像における対応点を探索する探索手段と、前記探索手段による探索結果に基づいて前記基準画像に前記参照画像を重ね合わせた合成画像を生成する生成手段と、前記合成画像をユーザーに提示する提示手段とを有し、前記生成手段は、前記複数の指定点のうち第1の指定点と第2の指定点について、前記基準画像における前記第1の指定点を基準として前記参照画像を重ね合わせた第1の合成画像と、前記基準画像における前記第2の指定点を基準として前記参照画像を重ね合わせた第2の合成画像を生成し、前記提示手段は、前記第1の合成画像と前記第2の合成画像を並列して提示する。 The image processing apparatus of the present invention, viewpoint using images of different multiple, an image processing apparatus for calculating a distance between at least two specified points, a plurality of at least one image of the images designating means for designating specified point, among the plurality of images, either the one image and the reference image, a reference image other than images corresponding to the designated point, respectively, in the reference image, the reference image Searching means for searching for a corresponding point, generating means for generating a composite image obtained by superimposing the reference image on the reference image based on a search result by the searching means, and presenting means for presenting the composite image to a user. It has a, said generating means, for the first designated point and the second designated point of the plurality of specified points, wherein said first specified point in the reference image as a reference A first composite image in which a reference image is superimposed and a second composite image in which the reference image is superimposed on the basis of the second designated point in the reference image; And the second composite image are presented in parallel .

本発明によれば、作業者が複数視点の画像間における計測点の対応付けを容易に確認することを可能にする。   According to the present invention, it is possible for an operator to easily confirm correspondence of measurement points between images of a plurality of viewpoints.

実施例1に係る画像処理装置の機能構成を示す図である。FIG. 2 is a diagram illustrating a functional configuration of the image processing apparatus according to the first embodiment. 実施例1における画像処理部の処理フローを図である。FIG. 5 is a diagram illustrating a processing flow of an image processing unit according to the first embodiment. 計測点を指定するためのUIの例を示す図である。FIG. 9 is a diagram illustrating an example of a UI for designating a measurement point. 多眼カメラで取得した画像から生成した合成画像を説明するための図である。FIG. 4 is a diagram for explaining a composite image generated from an image acquired by a multi-view camera. 計測点と対応点の対応関係を確認するためのUIの例を示す図である。FIG. 7 is a diagram illustrating an example of a UI for confirming a correspondence between a measurement point and a corresponding point. 計測点間の距離を算出する方法を説明するための図である。FIG. 5 is a diagram for explaining a method of calculating a distance between measurement points. 計測点間の距離算出結果を表示するUIの例を示す図である。FIG. 11 is a diagram illustrating an example of a UI for displaying a calculation result of a distance between measurement points. 実施例1の効果を説明するための図である。FIG. 7 is a diagram for explaining an effect of the first embodiment. 実施例2に係る画像処理装置の機能構成を示す図である。FIG. 9 is a diagram illustrating a functional configuration of an image processing apparatus according to a second embodiment. 計測点を指定するためのUIの例を示す図である。FIG. 9 is a diagram illustrating an example of a UI for designating a measurement point.

[実施例1]
図1(a)は、本実施例に係る画像処理装置の機能構成を示す図である。本実施例に係る画像処理装置は、撮像部101、画像処理部100および表示部108を含む。
[Example 1]
FIG. 1A is a diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment. The image processing apparatus according to the present embodiment includes an imaging unit 101, an image processing unit 100, and a display unit 108.

撮像部101は、ズームレンズ、フォーカスレンズ、ぶれ補正レンズ、絞り、シャッター、光学ローパスフィルタ、IRカットフィルタ、カラーフィルタ、及び、CMOSやCCDなどの撮像素子(センサ)などを含み、被写体を撮像する。なお、本実施例における撮像部101は、異なる視点から複数の画像を同時に取得可能である多眼カメラであってもよいし、複数台のカメラであってもよい。また、1台のカメラを用いて複数回撮像を行ってもよい。複数視点の画像を同時、または複数回の撮像により取得できるならば、上記のカメラ形態に限らない。以下では、多眼カメラで画像を取得する場合を例に説明を行い、多眼カメラを構成する個々のカメラを小型カメラと呼称する。   The imaging unit 101 includes a zoom lens, a focus lens, a blur correction lens, an aperture, a shutter, an optical low-pass filter, an IR cut filter, a color filter, and an imaging element (sensor) such as a CMOS or a CCD, and captures an image of a subject. . Note that the imaging unit 101 in the present embodiment may be a multi-view camera capable of simultaneously acquiring a plurality of images from different viewpoints, or may be a plurality of cameras. Further, imaging may be performed a plurality of times using one camera. The present invention is not limited to the above-described camera mode as long as images at a plurality of viewpoints can be acquired by simultaneous or multiple imaging. In the following, a case where an image is acquired by a multi-view camera will be described as an example, and each camera constituting the multi-view camera is referred to as a small camera.

画像処理部100は撮像部101から複数視点の画像データを受け取り、受け取った画像データに基づいてユーザーが指定した2点以上の計測点間の距離を算出する。本実施例における画像処理部100は、画像受け取り部102、計測点指定部103、対応点探索部104、合成画像生成部105、対応点算出部106および距離算出部107を含む。   The image processing unit 100 receives image data of a plurality of viewpoints from the imaging unit 101, and calculates a distance between two or more measurement points specified by the user based on the received image data. The image processing unit 100 according to the present embodiment includes an image receiving unit 102, a measurement point designating unit 103, a corresponding point searching unit 104, a composite image generating unit 105, a corresponding point calculating unit 106, and a distance calculating unit 107.

画像受け取り部102は、撮像部101から複数視点の画像データを受け取る。   The image receiving unit 102 receives image data of a plurality of viewpoints from the imaging unit 101.

計測点指定部103は、複数視点の画像のうち1枚の画像を表示部108に表示し、ユーザーがマウスなどを用いて指定した計測点(指定点)の座標を取得する。   The measurement point designation unit 103 displays one image of the images of the plurality of viewpoints on the display unit 108, and acquires the coordinates of the measurement point (designated point) designated by the user using a mouse or the like.

対応点探索部104は、計測点指定部103が取得した計測点に対応する各視点の画像における対応点を、ブロックマッチング法などを用いて自動的に求める。   The corresponding point search unit 104 automatically obtains a corresponding point in the image of each viewpoint corresponding to the measurement point acquired by the measurement point designating unit 103 using a block matching method or the like.

合成画像生成部105は、計測点の情報とその対応点の情報に基づいて合成画像を生成し、表示部108に表示する。   The composite image generation unit 105 generates a composite image based on the information on the measurement points and the information on the corresponding points, and displays the composite image on the display unit 108.

対応点算出部106はユーザーが制御した画像合成時の画像シフト量、カメラパラメータ、および計測点指定部103で指定された計測点の座標に基づいて、各視点の画像における計測点の対応点の座標を算出する。ここで、カメラパラメータ(視点パラメータ)は、複数視点の画像に対応した撮像時のカメラの位置情報および向き情報を含む。多眼カメラの場合に、多眼カメラを構成する小型カメラの向きはほぼ平行であるので、カメラパラメータは小型カメラの位置情報となる。   The corresponding point calculation unit 106 calculates the corresponding point of the measurement point in the image of each viewpoint based on the image shift amount at the time of image synthesis controlled by the user, the camera parameters, and the coordinates of the measurement point designated by the measurement point designation unit 103. Calculate the coordinates. Here, the camera parameters (viewpoint parameters) include position information and orientation information of the camera at the time of imaging corresponding to images of a plurality of viewpoints. In the case of a multi-view camera, the orientations of the small cameras constituting the multi-view camera are substantially parallel, and thus the camera parameters are positional information of the small camera.

距離算出部107は、計測点の座標、対応点の座標およびカメラパラメータに基づいて、ユーザーが指定した計測点間の物理的な長さ(2つの指定点間の物理的な距離)を算出する。   The distance calculation unit 107 calculates the physical length between the measurement points specified by the user (the physical distance between the two specified points) based on the coordinates of the measurement points, the coordinates of the corresponding points, and the camera parameters. .

表示部108(提示手段)は例えば、液晶ディスプレイが用いられ、画像を表示する。   The display unit 108 (presentation unit) uses, for example, a liquid crystal display and displays an image.

図1(b)は画像処理部100の内部構成をより詳細に述べた図である。   FIG. 1B is a diagram illustrating the internal configuration of the image processing unit 100 in more detail.

中央処理装置(CPU)111は、画像処理部100における各部を統括的に制御する。RAM112は、CPU111の主メモリ、ワークエリア等として機能する。ROM113は、CPU111で実行される制御プログラム等を格納している。バス114は各種データの転送経路であり、例えば、A/D変換部によってデジタルデータに変換された撮像データはこのバス114を介して所定の処理部に送られる。   A central processing unit (CPU) 111 comprehensively controls each unit in the image processing unit 100. The RAM 112 functions as a main memory, a work area, and the like for the CPU 111. The ROM 113 stores a control program executed by the CPU 111 and the like. The bus 114 is a transfer path for various data. For example, image data converted into digital data by the A / D converter is sent to a predetermined processing unit via the bus 114.

表示制御部115は、表示部108に表示される画像や文字の表示制御を行う。デジタル信号処理部116は、バス114を介して受け取ったデジタルデータに対し、ホワイトバランス処理、ガンマ処理、ノイズ低減処理などの各種処理を行う。エンコーダ部117は、デジタルデータをJPEGやMPEGなどのファイルフォーマットに変換する処理を行う。外部メモリ制御部118は、PCやその他のメディア(例えば、ハードディスク、メモリーカード、CFカード、SDカード、USBメモリ)に繋ぐためのインターフェースである。入力部119は、キーボードやマウスなどの入力デバイス120を接続する、例えばUSBやIEEE1394等のシリアルバスインタフェイスである。   The display control unit 115 controls display of images and characters displayed on the display unit 108. The digital signal processing unit 116 performs various processing such as white balance processing, gamma processing, and noise reduction processing on the digital data received via the bus 114. The encoder unit 117 converts digital data into a file format such as JPEG or MPEG. The external memory control unit 118 is an interface for connecting to a PC or other media (for example, a hard disk, a memory card, a CF card, an SD card, or a USB memory). The input unit 119 is a serial bus interface, such as USB or IEEE1394, for connecting the input device 120 such as a keyboard or a mouse.

なお、画像処理部100は撮像部101の内部に構成されてもよい。   Note that the image processing unit 100 may be configured inside the imaging unit 101.

図2は本実施例における画像処理部の処理フローを示す図である。   FIG. 2 is a diagram illustrating a processing flow of the image processing unit in the present embodiment.

ステップS201において、画像受け取り部102が撮像部101から多視点画像データを受け取る。   In step S201, the image receiving unit 102 receives multi-view image data from the imaging unit 101.

ステップS202において、ユーザーが1つの画像上で計測点を指定し、計測点指定部103が計測点の座標を取得する。   In step S202, the user designates a measurement point on one image, and the measurement point designation unit 103 acquires the coordinates of the measurement point.

図3は計測点指定部103のUIの例を示す図である。図3において、表示画面300は、計測点指定部103において計測点を指定する場合の画面を表示部108に表示したものである。ここでは多眼カメラで取得した複数視点の画像のうちの1枚を表示部108に表示している。   FIG. 3 is a diagram illustrating an example of a UI of the measurement point designation unit 103. In FIG. 3, a display screen 300 is a screen in which a measurement point is designated by the measurement point designation unit 103 on the display unit 108. Here, one of the images of a plurality of viewpoints acquired by the multi-view camera is displayed on the display unit 108.

ユーザーが入力デバイス120(例えばマウス)をドラッグするとマウスのカーソル303の位置が移動し、ユーザーが被写体301上で計測したい点(計測点)をクリックすると、計測点のマーカー302が現れる。計測点の指定方法としては、これに限らず、矢印304で指定してもよい。矢印304で計測点を指定する場合は、マウスをクリックして1点目の計測点を選択し、マウスをドラッグすることで矢印304を引き、2点目の計測点でマウスをリリースすると矢印304の範囲が決定される。   When the user drags the input device 120 (for example, a mouse), the position of the mouse cursor 303 moves. When the user clicks on a point (measurement point) on the subject 301 to be measured, a marker 302 of the measurement point appears. The method of specifying the measurement point is not limited to this, and the measurement point may be specified by the arrow 304. When the measurement point is designated by the arrow 304, the mouse is clicked to select the first measurement point, and the mouse is dragged to draw the arrow 304. When the mouse is released at the second measurement point, the arrow 304 is displayed. Is determined.

ステップS203において、対応点探索部104が各視点の画像における計測点の対応点を探索する。   In step S203, the corresponding point search unit 104 searches for a corresponding point of the measurement point in the image of each viewpoint.

ステップS204において、合成画像生成部105が、ステップS202で指定された計測点の座標、およびステップS203で算出された対応点の座標に基づいて、画像合成時の画像シフト量を算出する。算出した画像シフト量に従って画像をそれぞれシフトして合成する。   In step S204, the composite image generation unit 105 calculates an image shift amount at the time of image composition based on the coordinates of the measurement point specified in step S202 and the coordinates of the corresponding point calculated in step S203. The images are shifted and combined according to the calculated image shift amounts.

本実施例において、合成画像生成部105は、小型カメラが同一平面上に配置されている多眼カメラにより取得した複数視点の画像をそれぞれシフトして平均化した画像を生成する。   In the present embodiment, the composite image generation unit 105 generates an averaged image by shifting images of a plurality of viewpoints obtained by a multi-view camera in which small cameras are arranged on the same plane.

図4(a)は本実施例における多眼カメラ400の配置例を表す図である。図4(a)において、多眼カメラ400は縦横に5台ずつ小型カメラ401が正方格子状に配置されるように構成されている。小型カメラ401の番号は中心の小型カメラを(0,0)とし、左上から右下に向かって(-2,-2)、(-1,-2)、・・・・(1,2)、(2,2)と番号が付けられているものとする。ここでは多眼カメラは正方格子状に配置するとしたが、この配置に限らない。   FIG. 4A is a diagram illustrating an example of the arrangement of the multi-lens camera 400 according to the present embodiment. In FIG. 4A, a multi-lens camera 400 is configured such that five small and large cameras 401 are arranged in a square lattice in each of the vertical and horizontal directions. The number of the small camera 401 is (0, 0) with the small camera at the center, and (-2, -2), (-1, -2), ... (1, 2) from the upper left to the lower right. , (2,2). Here, the multi-lens cameras are arranged in a square lattice, but the arrangement is not limited to this.

図4(b)は、2×2の多眼カメラを用いて撮像した画像を合成したものを示す図である。図4(b)において、被写体402、403、404は、番号の順に多眼カメラに対し手前から奥に向かって並んでいる。多眼カメラから被写体までの距離がそれぞれ異なるため、それぞれの被写体は視差量が異なり、例えば被写体403にピントが合うように画像をシフトして重ねると、被写体402、404は多重像になる。   FIG. 4B is a diagram showing a composite image obtained by using a 2 × 2 multi-lens camera. In FIG. 4B, subjects 402, 403, and 404 are arranged in order of number from the front to the back with respect to the multi-lens camera. Since the distances from the multi-lens camera to the subjects are different, the respective subjects have different parallax amounts. For example, if the images are shifted and overlapped so that the subject 403 is in focus, the subjects 402 and 404 become multiple images.

以下ではN×Nの多眼カメラの場合に、合成画像を生成する手法を説明する。   Hereinafter, a method of generating a composite image in the case of an N × N multiview camera will be described.

小型カメラ401の番号を(m,n)、(m,n)番目の小型カメラ401が取得した画像をIm,n(x,y)とする。また、計測点のマーカー302の座標を(0,0)番目の小型カメラで取得した画像上で指定すると仮定し、計測点の座標を(xM,yM)、(m,n)番目の画像における計測点の対応点の座標を(xM_m,n,yM_m,n)とする。このとき、合成画像生成部105は合成画像Isyn(x,y)を式(1)に従って生成する。 The number of the small camera 401 is (m, n), and the image acquired by the (m, n) th small camera 401 is Im, n (x, y). Further, the coordinates of the marker 302 of the measuring point (0,0) th assume that designated on the acquired image with a small camera, the coordinates of the measurement point (x M, y M), (m, n) th Let the coordinates of the corresponding point of the measurement point in the image be ( xM_m, n , yM_m, n ). At this time, the composite image generation unit 105 generates a composite image I syn (x, y) according to Expression (1).

式(1)は計測点とその対応点を位置合わせして画像を加算平均することを意味している。なお、ここでは、合成画像は各視点の画像をシフトして加算平均をとったものとしたが、各視点の画像をシフトして重みづけ加算をとったものとしてもよい。または、各視点の画像をシフトしてシースルーで重ねるように表示してもよい。   Equation (1) means that the measurement point and its corresponding point are aligned and the image is averaged. Here, the composite image is obtained by shifting the image of each viewpoint and performing averaging, but may be obtained by shifting the image of each viewpoint and performing weighted addition. Alternatively, the images of the respective viewpoints may be shifted and displayed so as to overlap in a see-through manner.

以上は多眼カメラの場合を例に説明を行ったが、カメラパラメータが既知の複数台のカメラを用いて撮像を行う場合は、カメラの向き情報を用いて、各視点の画像に射影変換を施し、カメラの向きが平行な状態で撮像された画像群に変換する。次に、カメラの位置情報を利用して、画像の倍率を調整し、同一平面状にカメラが配置された状態で撮像された画像群に変換する。すなわち、カメラの向きが平行でカメラの位置が同一平面状になる状態で撮像したのと同様になるように、いわゆる平行ステレオ変換処理を行い、平行ステレオ画像を取得する。その変換に必要なパラメータは、公知のキャリブレーション手法により求めることができる。キャリブレーション手法は例えば「佐藤淳、コンピュータビジョン―視覚の幾何学―、コロナ社」に記載されている。変換後の画像の合成処理は多眼カメラの場合と同様である。   Although the above description has been made taking the case of a multi-lens camera as an example, when imaging is performed using a plurality of cameras with known camera parameters, projective transformation is performed on the image of each viewpoint using camera orientation information. Then, the images are converted into a group of images captured in a state where the camera directions are parallel. Next, the magnification of the image is adjusted using the position information of the camera, and the image is converted into a group of images captured in a state where the camera is arranged on the same plane. That is, a so-called parallel stereo conversion process is performed to obtain a parallel stereo image so that the image is captured in a state where the camera direction is parallel and the camera position is in the same plane. The parameters required for the conversion can be obtained by a known calibration method. The calibration method is described, for example, in "Jun Sato, Computer Vision-Visual Geometry-, Corona". The process of synthesizing the converted image is the same as that of the multi-view camera.

なお、1台のカメラで複数回撮像することで複数視点の画像を取得する場合は、複数視点の画像を用いてカメラパラメータを推定する。推定されたカメラパラメータを用いることで、複数台のカメラで撮像する場合と同様にして画像を変換し、画像の合成処理を行う。   In the case where an image of a plurality of viewpoints is acquired by performing imaging with a single camera a plurality of times, camera parameters are estimated using the images of the plurality of viewpoints. By using the estimated camera parameters, the image is converted in the same manner as in the case of imaging with a plurality of cameras, and the image is synthesized.

なお、本実施形態の画像処理部100は、カメラパラメータに基づいて複数視点の画像が平行ステレオ画像であるか否かを判定し、判定結果によって平行ステレオ変換を行うか否かを決定する仕組みを備えてもよい。すなわち、複数視点の画像が平行ステレオ画像である場合に、平行ステレオ変換を行わない。例えば、多眼カメラで撮像した場合に、取得した画像は平行ステレオ画像であるので、平行ステレオ変換を行わない。複数視点の画像が平行ステレオ画像でない場合に、複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、基準画像のカメラパラメータを基に参照画像を平行ステレオ変換する。   Note that the image processing unit 100 according to the present embodiment determines whether or not images of a plurality of viewpoints are parallel stereo images based on camera parameters, and determines whether to perform parallel stereo conversion based on the determination result. May be provided. That is, when the images of a plurality of viewpoints are parallel stereo images, parallel stereo conversion is not performed. For example, when the image is captured by a multi-lens camera, the acquired image is a parallel stereo image, so that the parallel stereo conversion is not performed. If the images of the multiple viewpoints are not parallel stereo images, any one of the images of the multiple viewpoints is used as a reference image, the other images are used as reference images, and the reference images are parallelized based on the camera parameters of the reference image. Convert to stereo.

ステップS205において、合成画像生成部105が合成画像を表示部108に表示する。表示される合成画像において、計測点と同じ位置に示される各視点の画像の点は、ステップS203で探索された対応点である。   In step S205, the composite image generation unit 105 displays the composite image on the display unit 108. In the displayed composite image, points in the image of each viewpoint shown at the same position as the measurement point are the corresponding points searched in step S203.

ステップS206において、ユーザーが1つの計測点を着目して、当該計測点と対応点の対応に誤りがあるか否かを確認し、誤りがない場合は、処理はステップS210に進み、誤りがある場合は、処理はステップS207に進む。   In step S206, the user pays attention to one measurement point and checks whether there is an error in the correspondence between the measurement point and the corresponding point. If there is no error, the process proceeds to step S210, and there is an error. In this case, the process proceeds to step S207.

図5、合成画像生成部105のUIの例を示す図である。図5(a)の表示画面500は計測点の対応点探索ミスがない場合に、合成画像生成部105が生成した合成画像を表示部108に表示したものである。表示画面500には、左半分に表示されているウィンドウ501、および右半分に表示されているウィンドウ502が含まれる。また、画像合成時の画像シフト量を制御するスライドバー503、504、および計測点のマーカー505、506が示される。   FIG. 5 is a diagram illustrating an example of a UI of the composite image generation unit 105. The display screen 500 in FIG. 5A displays the composite image generated by the composite image generation unit 105 on the display unit 108 when there is no mistake in searching for the corresponding point of the measurement point. The display screen 500 includes a window 501 displayed on the left half and a window 502 displayed on the right half. In addition, slide bars 503 and 504 for controlling an image shift amount at the time of image synthesis and markers 505 and 506 of measurement points are shown.

ウィンドウ501において、計測点のマーカー505上で被写体301のピントが合っており、ウィンドウ502では計測点のマーカー506上で被写体301のピントが合っている。合成画像生成部105は、計測点とその対応点を位置合わせして画像を合成するので、計測点の位置で被写体301のピントが合っていることは、対応点は正しく探索されていることを意味している。ユーザーは計測点のマーカー505、506上で被写体301のピントが合っていることを確認し、ボタン507をクリックする。ボタン507をクリックすると、対応点算出部106に計測点の座標と、計測点に対応する対応点の座標が送られる。   In the window 501, the subject 301 is focused on the marker 505 at the measurement point, and in the window 502, the subject 301 is focused on the marker 506 at the measurement point. Since the synthesized image generation unit 105 synthesizes an image by aligning the measurement point and the corresponding point, the fact that the subject 301 is in focus at the position of the measurement point indicates that the corresponding point is correctly searched. Means. The user confirms that the subject 301 is in focus on the measurement point markers 505 and 506, and clicks the button 507. When the button 507 is clicked, the coordinates of the measurement point and the coordinates of the corresponding point corresponding to the measurement point are sent to the corresponding point calculation unit 106.

ステップS207において、ユーザーがスライドバー503、504を調整することで画像合成時の画像シフト量を制御する。合成画像生成部がスライドバー503、504のステータスに応じたスカラー値を取得し、取得したスカラー値およびカメラパラメータに基づいて、画像合成時の画像シフト量を算出する。   In step S207, the user adjusts the slide bars 503 and 504 to control the amount of image shift during image synthesis. The composite image generation unit acquires a scalar value corresponding to the status of the slide bars 503 and 504, and calculates an image shift amount at the time of image composition based on the acquired scalar value and camera parameters.

ここで、夫々の画像のシフト量は、共通のスカラー値により制御することができる。その原因は以下となる。シフトされる画像は平行ステレオ画像であり、シフト量は夫々の画像間にカメラパラメータによって決まった比率関係がある。例えば、小型カメラが等間隔で並んでいるように構成された多眼カメラにより取得された複数視点の画像を例にすると、(0,0)番目の小型カメラの画像を基準とした夫々の画像のシフト量は次の関係がある。すなわち、(m,n)番目の小型カメラの画像のシフト量は、(1,1)番目の小型カメラの画像のシフト量に比べて、x方向においてm倍、y方向においてn倍になっている。このような関係は、合成画像生成部などによりカメラパラメータから算出される。そのため、ユーザーが共通のスカラー値を最適値に調整することで、夫々の画像シフト量を最適に制御することができる。   Here, the shift amount of each image can be controlled by a common scalar value. The cause is as follows. The image to be shifted is a parallel stereo image, and the shift amount has a ratio relationship between the respective images determined by the camera parameters. For example, taking as an example a multi-viewpoint image acquired by a multi-view camera configured such that small cameras are arranged at equal intervals, each image based on the image of the (0,0) th small camera Has the following relationship. That is, the shift amount of the image of the (m, n) th small camera is m times in the x direction and n times in the y direction, compared to the shift amount of the image of the (1,1) th small camera. I have. Such a relationship is calculated from the camera parameters by a composite image generation unit or the like. Therefore, the user can optimally control the respective image shift amounts by adjusting the common scalar value to the optimal value.

ステップS208において、合成画像生成部105がユーザーが制御した画像シフト量に基づき、画像をシフトして加算平均することで、合成画像を生成する。   In step S208, the composite image generation unit 105 generates a composite image by shifting and averaging the images based on the image shift amount controlled by the user.

ステップS209において、合成画像生成部105が合成画像を表示部108に表示する。なお、ここでは表示部108に表示する際に、画面をウィンドウ501、502のように左右に分割して表示したが、1枚ずつ切り替えて表示してもよい。   In step S209, the composite image generation unit 105 displays the composite image on the display unit 108. Here, when displaying on the display unit 108, the screen is divided into left and right like windows 501 and 502, but may be switched and displayed one by one.

図5(b)の表示画面510は計測点の対応点に探索ミスがある場合に、合成画像生成部105が生成した画像を表示部108に表示したものである。表示画面510には、左半分に表示されているウィンドウ511、右半分に表示されているウィンドウ512が含まれる。   The display screen 510 in FIG. 5B displays the image generated by the composite image generation unit 105 on the display unit 108 when there is a search error at the corresponding point of the measurement point. The display screen 510 includes a window 511 displayed on the left half and a window 512 displayed on the right half.

ウィンドウ512において、計測点のマーカー506上で被写体301のピントが合っていない。これは対応点探索部104において、計測点の対応点が正しく探索されなかったことを意味している。この場合、ユーザーはウィンドウ512において、計測点のマーカー上で被写体301のピントを合わせる(すなわち、ウィンドウ502で示された状態になる)ように、スライドバー504を調整する。   In the window 512, the subject 301 is out of focus on the marker 506 of the measurement point. This means that the corresponding point search unit 104 did not correctly search for the corresponding point of the measurement point. In this case, the user adjusts the slide bar 504 in the window 512 so that the subject 301 is focused on the marker at the measurement point (that is, the state shown in the window 502).

ステップS210において、対応点算出部106が画像シフト量、計測点の座標、カメラパラメータに基づき、計測点に対応する対応点の座標を算出する。   In step S210, the corresponding point calculation unit 106 calculates the coordinates of the corresponding point corresponding to the measurement point based on the image shift amount, the coordinates of the measurement point, and the camera parameters.

本実施例では、ユーザーがスライドバー503、504で制御した画像シフト量、計測点指定部103で指定した計測点の座標およびカメラパラメータに基づいて計測点に対応する対応点の座標を算出する。小型カメラが等間隔で並んでいるように構成された多眼カメラにより取得された複数視点の画像の場合に、対応点算出部106は式(2)に従って対応点の座標を算出する。スライドバー503、504で制御された(1,1)番目の小型カメラの画像のシフト量をs[pixel]、計測点の座標を(xM,yM)[pixel]とすると、(m,n)番目の小型カメラの画像における計測点の対応点の座標は式(2)で示すものとなる。 In this embodiment, the coordinates of the corresponding point corresponding to the measurement point are calculated based on the image shift amount controlled by the user with the slide bars 503 and 504, the coordinates of the measurement point designated by the measurement point designation unit 103, and the camera parameters. In the case of an image of a plurality of viewpoints acquired by a multi-view camera configured such that small cameras are arranged at equal intervals, the corresponding point calculation unit 106 calculates the coordinates of the corresponding point according to Expression (2). Controlled by a slide bar 503 and 504 (1, 1) th shift amount of the miniature camera images the s [pixel], the coordinates of the measurement points when the (x M, y M) [ pixel], (m, The coordinates of the corresponding point of the measurement point in the image of the (n) th small camera are represented by Expression (2).

なお、小型カメラが等間隔で並んでいない場合は、式(2)においてm,nの替わりに小型カメラの間隔を反映する数値を設定すれば、類似の方法で対応点の座標を算出することができる。   If the small cameras are not arranged at regular intervals, the coordinates of the corresponding points can be calculated by a similar method by setting a numerical value that reflects the distance between the small cameras instead of m and n in Equation (2). Can be.

また、複数台のカメラを用いる場合や、複数回撮像する場合に関しては、まず、類似の方法で平行ステレオ変換後された画像における対応点の座標を算出する。そして、算出した対応点の座標およびカメラパラメータから変換前の画像における対応点の座標を算出する。すなわち、平行ステレオ変換前に逆変換することで、変換前の画像における対応点の座標を算出する。   In the case where a plurality of cameras are used or the case where a plurality of images are taken, first, the coordinates of the corresponding points in the image subjected to the parallel / stereo conversion by a similar method are calculated. Then, the coordinates of the corresponding point in the image before conversion are calculated from the calculated coordinates of the corresponding point and the camera parameters. That is, the coordinates of the corresponding points in the image before the conversion are calculated by performing the inverse conversion before the parallel stereo conversion.

ステップS211において、ユーザーが全ての計測点について対応点の確認が終了しているか否かを判断する。対応点の確認が終了していない計測点がある場合はステップS206に戻る。全ての計測点について対応点の確認が終了している場合は、ユーザーが図5のボタン507をクリックすると、処理はステップS212に進む。   In step S211, it is determined whether the user has finished checking the corresponding points for all the measurement points. If there is a measurement point whose corresponding point has not been confirmed, the process returns to step S206. If the confirmation of the corresponding points has been completed for all the measurement points, when the user clicks the button 507 in FIG. 5, the process proceeds to step S212.

ステップS212において、計測点とそれに対応する対応点の座標を基に距離算出部107が計測点間の距離を算出して表示部108に表示し、画像処理部100の動作を終了する。   In step S212, the distance calculation unit 107 calculates the distance between the measurement points based on the coordinates of the measurement points and the corresponding points corresponding thereto, displays the distance on the display unit 108, and ends the operation of the image processing unit 100.

以下、距離算出部107の動作をより詳細に説明する。距離算出部107は基本的には三角測量の手法を用いて、計測点間の距離を算出する。   Hereinafter, the operation of the distance calculation unit 107 will be described in more detail. The distance calculation unit 107 calculates the distance between the measurement points basically using a triangulation method.

図6は計測点間の距離を算出する方法を説明するための図である。図6において、ワールド座標601、カメラ座標602、被写体603、および被写体像605が示されている。画像平面604は小型カメラ401をピンホールカメラとみなしたときの、撮像素子に対応する平面である。カメラ座標602の原点は、小型カメラ401の中心位置であり、被写体像605は被写体603と小型カメラの中心位置を結んだ直線と、画像平面604の交点になる。被写体603の位置ベクトルをXobj、カメラ座標602を張る単位ベクトルをi、j、k、ワールド座標を張る単位ベクトルをX、Y、Z、カメラの中心位置を表すベクトルをXcとする。また、小型カメラ401の中心位置から見た画像平面604上の被写体像の位置ベクトルをXscreen、画像平面604上の被写体像605の位置を(u,v)、小型カメラの焦点距離をfとする。(u,v)は画像上の被写体の位置に相当する。 FIG. 6 is a diagram for explaining a method of calculating the distance between measurement points. FIG. 6 shows world coordinates 601, camera coordinates 602, a subject 603, and a subject image 605. The image plane 604 is a plane corresponding to the image sensor when the small camera 401 is regarded as a pinhole camera. The origin of the camera coordinates 602 is the center position of the small camera 401, and the subject image 605 is the intersection of a straight line connecting the subject 603 and the center position of the small camera and the image plane 604. It is assumed that the position vector of the subject 603 is X obj , the unit vector extending the camera coordinates 602 is i, j, k, the unit vector extending the world coordinates is X, Y, Z, and the vector representing the center position of the camera is Xc . Also, the position vector of the subject image on the image plane 604 viewed from the center position of the small camera 401 is X screen , the position of the subject image 605 on the image plane 604 is (u, v), and the focal length of the small camera is f. I do. (u, v) corresponds to the position of the subject on the image.

図6より、式(3)、(4)が成り立つ。   From FIG. 6, equations (3) and (4) hold.

ここで、sは適当なスカラー値であり、スケール変換を表している。ベクトルXobjを式(5)、ベクトルXcを式(6)と表すものとすると、式(3)を式(4)に代入し、ベクトルX、Y、Zの内積をとることにより、式(7)となる。 Here, s is an appropriate scalar value and represents scale conversion. Assuming that the vector X obj is expressed by Expression (5) and the vector X c is expressed by Expression (6), Expression (3) is substituted into Expression (4), and the inner product of the vectors X, Y, and Z is obtained. (7).

ここで、 here,

であり、Rはカメラの向きの回転行列を表している。式(7)は被写体の画像上の座標(u,v)、小型カメラの中心位置(xc,yc,zc)、被写体の座標(x,y,z)の関係を表している。式(7)に小型カメラの位置番号を表す添え字(m,n)をつけると、式(9)が各カメラについて成り立つ。 And R represents a rotation matrix of the camera direction. Equation (7) coordinates on the image of the subject (u, v), the center position of the small camera (x c, y c, z c), represents the relationship of the object coordinates (x, y, z). If a suffix (m, n) indicating the position number of the small camera is added to equation (7), equation (9) holds for each camera.

式(9)において、(x,y,z)は(m,n)に依らず共通の値なので、ここでは以下の関数を最小化するようにsm,nを決める。 In equation (9), (x, y, z) is a common value irrespective of (m, n), and therefore sm, n is determined here to minimize the following function.

ここで、 here,

とした。 And

Vをsm,nに関して偏微分し、0とおくと、式(12)となる。 When V is partially differentiated with respect to s m, n and set to 0, Equation (12) is obtained.

ここで、N2は小型カメラの台数であり、 Where N 2 is the number of small cameras,

と置くと、式(12)は式(14)と変形できる。 Equation (12) can be transformed to Equation (14).

M,vは被写体の画像上での位置、カメラの回転行列(向き)、カメラの位置が分かれば求めることができるので、式(14)をsm,nについて解くと、各視点画像におけるスケール変換値を求めることができる。 Since M and v can be obtained by knowing the position of the subject on the image, the rotation matrix (direction) of the camera, and the position of the camera, solving equation (14) for sm and n gives the scale in each viewpoint image. A conversion value can be obtained.

最後に、ある視点画像のスケール変換値sと式(7)を用いることにより、計測点間の距離を   Finally, by using the scale conversion value s of a certain viewpoint image and Expression (7), the distance between the measurement points is calculated.

と求めることができる。ここで、s1、s2は計測点1、2のスケール変換値であり、Xobj,1、Xobj,2は計測点1、2の空間座標である。距離算出部107は式(14)、式(15)に従って、画像上の2点の計測点間の距離を算出する。 You can ask. Here, s 1 and s 2 are scale conversion values of the measurement points 1 and 2, and X obj, 1 and X obj, 2 are spatial coordinates of the measurement points 1 and 2 . The distance calculation unit 107 calculates the distance between two measurement points on the image according to Expressions (14) and (15).

以上が距離算出部107の動作原理である。 図7は、距離算出部107が算出した距離を表示部108に表示した画像を示す図である。図7において、表示画面700は(0,0)番目の小型カメラの画像を表示したものであり、ユーザーが指定した計測点701、702を結ぶ矢印703、および計測点701,702間の距離を示すウィンドウ704が表示されている。ユーザーは表示画面700を見ることで、指定した計測点間の距離を知ることができる。   The above is the operation principle of the distance calculation unit 107. FIG. 7 is a diagram illustrating an image in which the distance calculated by the distance calculation unit 107 is displayed on the display unit 108. In FIG. 7, a display screen 700 displays an image of the (0,0) th small camera, and shows an arrow 703 connecting measurement points 701 and 702 specified by the user, and a distance between the measurement points 701 and 702. Window 704 is displayed. By looking at the display screen 700, the user can know the distance between the designated measurement points.

図8は、本実施例に係る画像処理を施した場合の効果を説明するための図である。   FIG. 8 is a diagram for explaining an effect when the image processing according to the present embodiment is performed.

図8(a)は従来手法によって計測点と対応点の対応に誤りがあるか否かを確認する画面を表したものである。表示画面800は3×3の9視点の画像を表示したものであり、ユーザーは9個に分割された画面の一枚一枚を見て対応に誤りがあるか否かを確認する。図8(a)の場合は、一番右下の画像において、対応点に誤対応が発生しているので、ユーザーは一番右下の画面において、対応点の座標を修正する。   FIG. 8A shows a screen for confirming whether there is an error in the correspondence between the measurement points and the corresponding points by the conventional method. The display screen 800 displays an image of nine viewpoints of 3 × 3, and the user sees each of the nine divided screens and checks whether there is an error in the correspondence. In the case of FIG. 8A, since the corresponding point has an erroneous correspondence in the lower right image, the user corrects the coordinates of the corresponding point on the lower right screen.

図8(b)は、本実施例を適用し、合成画像上で計測点と対応点の対応に誤りがあるか否かを確認する画面を表したものである。表示画面810は3×3の9視点の画像を、計測点と対応点を位置合わせするように合成したものであり、ユーザーは左右2枚の画像を見て、それぞれの計測点と対応点の対応に誤りがあるか否かを確認する。ウィンドウ801では、計測点803の対応点は正しく求められているが、ウィンドウ802では計測点804上で被写体301のピントが合っていないため、対応点に誤対応が発生している。ユーザーはウィンドウ802において、計測点804上で被写体301のピントが合うようにスライドバー504を調整する。   FIG. 8B illustrates a screen for confirming whether or not there is an error in the correspondence between the measurement points and the corresponding points on the composite image by applying the present embodiment. The display screen 810 is obtained by synthesizing images of 3 × 3 nine viewpoints so that the measurement points and the corresponding points are aligned. The user looks at the two images on the left and right, and checks the respective measurement points and the corresponding points. Check if there is an error in the response. In the window 801, the corresponding point of the measurement point 803 is correctly obtained, but in the window 802, since the subject 301 is not focused on the measurement point 804, an erroneous correspondence has occurred in the corresponding point. The user adjusts the slide bar 504 in the window 802 so that the subject 301 is focused on the measurement point 804.

従来手法の場合は、各視点画像が小さくなってしまい、誤対応の有無を確認することが困難である。また、1枚1枚切り替えて表示して確認する手法も考えられるが、視点数分の画像を確認する必要がある。また、誤対応が複数視点において発生している場合は、ユーザーが1枚1枚対応点を修正する必要がある。   In the case of the conventional method, each viewpoint image becomes small, and it is difficult to confirm whether there is an erroneous correspondence. In addition, a method of switching and displaying each image one by one to check it is conceivable, but it is necessary to check images for the number of viewpoints. Further, when erroneous correspondences occur at a plurality of viewpoints, the user needs to correct the corresponding points one by one.

一方、本実施例の場合は、表示画面810で示したように大きな画面で一目で誤対応の有無を確認することが可能である。また、本実施例では、複数視点の画像が平行ステレオ画像でない場合に、複数視点の画像を平行ステレオ変換し、変換された画像に基づいて合成画像を生成する。このように生成された合成画像は、誤対応の有無を容易にかつ精度高く確認することを可能にする。また、誤対応が発生している場合も、従来手法のように1枚1枚修正する必要がなく、合成画像上において共通のスカラー値を調整することで誤対応を修正することが可能になる。   On the other hand, in the case of this embodiment, it is possible to check at a glance whether there is an erroneous response on a large screen as shown by the display screen 810. Further, in the present embodiment, when the images of the plurality of viewpoints are not parallel stereo images, the images of the plurality of viewpoints are subjected to parallel stereo conversion, and a composite image is generated based on the converted images. The composite image generated in this manner makes it possible to easily and accurately confirm the presence or absence of an incorrect correspondence. Also, even when an erroneous correspondence has occurred, it is not necessary to correct one by one as in the conventional method, and the erroneous correspondence can be corrected by adjusting a common scalar value on the composite image. .

以上のように、本実施例によれば、計測点の対応点に誤対応がないかを一目で判断することができ、誤対応がある場合も、簡易な操作で誤対応を修正することが可能になる。   As described above, according to the present embodiment, it is possible to determine at a glance whether there is an erroneous correspondence between the corresponding points of the measurement points, and even if there is an erroneous correspondence, the erroneous correspondence can be corrected by a simple operation. Will be possible.

[実施例2]
実施例1ではユーザーは表示画面500上で、計測点のマーカー505、506の指定を行ったが、本実施例では計測点のマーカー506の指定領域付近を拡大して表示部108に表示する場合について説明する。
[Example 2]
In the first embodiment, the user specifies the markers 505 and 506 of the measurement points on the display screen 500. In the present embodiment, the case where the vicinity of the specified area of the marker 506 of the measurement points is enlarged and displayed on the display unit 108 is displayed. Will be described.

図9は本実施例に係る画像処理装置の機能構成を示す図である。   FIG. 9 is a diagram illustrating a functional configuration of the image processing apparatus according to the present embodiment.

画像処理部900は撮像部101から複数視点の画像データを受け取り、受け取った画像データに基づいてユーザーが指定した2点以上の計測点間の距離を算出する。ここでは、図1との差異のみを説明する。   The image processing unit 900 receives image data of a plurality of viewpoints from the imaging unit 101, and calculates a distance between two or more measurement points specified by the user based on the received image data. Here, only the differences from FIG. 1 will be described.

領域拡大部901はマウスポインタの座標を取得し、マウスポインタの周辺領域を拡大して表示部108に表示する。本実施例では、周辺領域の拡大手法は、バイキュービック法などの補間によるものとするが、これに限らず、画像を拡大できる手法であれば超解像などほかの手法を用いてもよい。   The area enlargement unit 901 acquires the coordinates of the mouse pointer, enlarges the area around the mouse pointer, and displays the enlarged area on the display unit 108. In the present embodiment, the method of enlarging the peripheral area is based on interpolation such as the bicubic method. However, the present invention is not limited to this, and another method such as super-resolution may be used as long as the image can be enlarged.

計測点指定部902は領域拡大部901の情報を受け取り、マウスポインタの周辺領域を拡大して表示部108に表示する。   The measurement point designation unit 902 receives the information of the area enlargement unit 901 and enlarges the area around the mouse pointer to display the enlarged area on the display unit 108.

図10は計測点指定部902のUIの例を示す図である。計測点指定部902のUIは基本的には表示画面500と同様であり、表示画面1000は右半分のウィンドウを切り出したものである。   FIG. 10 is a diagram illustrating an example of a UI of the measurement point designation unit 902. The UI of the measurement point designation unit 902 is basically the same as the display screen 500, and the display screen 1000 is obtained by cutting out the right half window.

ウィンドウ1001は合成画像におけるマウス座標の周辺領域を領域拡大部901が拡大し、計測点指定部902が表示部108に表示したものである。   The window 1001 is obtained by enlarging an area around the mouse coordinates in the composite image by the area enlarging unit 901 and displaying the measurement point specifying unit 902 on the display unit 108.

以上のように本実施例によれば、計測点を指定したい領域付近を拡大して表示することで、ユーザーがより精度よく計測点を指定し、より詳細に誤対応の有無を確認することが可能になる。   As described above, according to the present embodiment, by enlarging and displaying the vicinity of the area where the measurement point is to be specified, the user can specify the measurement point with higher accuracy and check in more detail whether there is an erroneous response. Will be possible.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program for realizing one or more functions of the above-described embodiments to a system or an apparatus via a network or a storage medium, and one or more processors in a computer of the system or the apparatus read and execute the program. It can also be realized by the following processing. Further, it can be realized by a circuit (for example, an ASIC) that realizes one or more functions.

Claims (14)

視点が異なる複数の画像を用いて、少なくとも2つの指定点間の距離を算出する画像処理装置であって、
前記複数の画像のうち少なくとも1つの画像における複数の指定点を指定する指定手段と、
前記複数の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における前記指定点それぞれに対応する、前記参照画像における対応点を探索する探索手段と、
前記探索手段による探索結果に基づいて前記基準画像に前記参照画像を重ね合わせた合成画像を生成する生成手段と、
前記合成画像をユーザーに提示する提示手段と
を有し、
前記生成手段は、前記複数の指定点のうち第1の指定点と第2の指定点について、前記基準画像における前記第1の指定点を基準として前記参照画像を重ね合わせた第1の合成画像と、前記基準画像における前記第2の指定点を基準として前記参照画像を重ね合わせた第2の合成画像を生成し、
前記提示手段は、前記第1の合成画像と前記第2の合成画像を並列して提示することを特徴とする画像処理装置。
Viewpoint using images of different multiple, an image processing apparatus for calculating a distance between at least two specific points,
Designation means for designating a plurality of designated points in at least one of the plurality of images;
Among the plurality of images, either the one image and the reference image, a reference image other than images corresponding to the designated point, respectively, in the reference image, a search means for searching the corresponding point in the reference image ,
Generating means for generating a composite image in which the reference image is superimposed on the reference image based on a search result by the search means;
Possess a presenting means for presenting the combined image to the user,
A generating unit configured to superimpose the reference image on the first specified point and the second specified point of the plurality of specified points based on the first specified point in the reference image; And generating a second composite image in which the reference images are superimposed on the basis of the second designated point in the reference image,
The image processing apparatus according to claim 1, wherein the presenting unit presents the first combined image and the second combined image in parallel .
前記探索手段は、前記基準画像における前記指定点に対応する、前記参照画像における対応点をブロックマッチング法により探索し、
前記生成手段は、探索された前記対応点を前記指定点に位置合わせるよう前記参照画像をシフトし、シフトした前記参照画像と前記基準画像とを重みづけ加算することにより、前記合成画像を生成することを特徴とする請求項1に記載の画像処理装置。
The search means searches for a corresponding point in the reference image corresponding to the designated point in the reference image by a block matching method,
The generation unit generates the composite image by shifting the reference image so that the searched corresponding point is aligned with the designated point, and weighting and adding the shifted reference image and the reference image. The image processing apparatus according to claim 1, wherein:
前記複数の画像それぞれに対応する視点パラメータに基づいて、前記複数の画像が平行ステレオ画像であるか否かを判定し、前記複数の画像が平行ステレオ画像でないと判定した場合に、前記基準画像の視点パラメータを基準に前記参照画像を平行ステレオ変換する変換手段をさらに有し、
前記参照画像が前記変換手段により平行ステレオ変換された場合に、前記生成手段は、変換された前記参照画像を用いて前記合成画像を生成することを特徴とする請求項1または2に記載の画像処理装置。
Based on the viewpoint parameters corresponding to each of the plurality of images, it is determined whether the plurality of images are parallel stereo images, and when it is determined that the plurality of images are not parallel stereo images, Further comprising a conversion means for performing parallel stereo conversion of the reference image based on viewpoint parameters,
The image according to claim 1, wherein when the reference image is subjected to the parallel / stereo conversion by the conversion unit, the generation unit generates the composite image using the converted reference image. Processing equipment.
前記合成画像における前記参照画像のシフト量を調整するために前記ユーザーが入力した、各前記参照画像のシフト量を制御する共通のスカラー値を受け取る受け取り手段をさらに有し、
前記受け取り手段が前記スカラー値を受け取ることに応じて、前記生成手段は、前記スカラー値と前記基準画像および前記参照画像の視点パラメータとに基づいて各前記参照画像のシフト量を算出し、算出したシフト量に従ってシフトした前記参照画像と前記基準画像とを重みづけ加算することにより、調整された合成画像を生成し、
前記提示手段は、前記調整された合成画像を前記ユーザーに提示することを特徴とする請求項3に記載の画像処理装置。
A receiving unit that receives a common scalar value that controls a shift amount of each of the reference images, which is input by the user to adjust a shift amount of the reference image in the composite image,
In response to the receiving unit receiving the scalar value, the generating unit calculates and calculates the shift amount of each of the reference images based on the scalar value and the viewpoint parameters of the reference image and the reference image. By weighting and adding the reference image and the reference image shifted according to the shift amount, an adjusted composite image is generated,
The image processing apparatus according to claim 3, wherein the presenting unit presents the adjusted composite image to the user.
前記提示手段は、前記スカラー値を調整するスライドバーを、前記調整された合成画像と共に前記ユーザーに提示し、
前記受け取り手段は、前記ユーザーにより調整された前記スライドバーのステータスに応じた前記スカラー値を取得することを特徴とする請求項4に記載の画像処理装置。
The presenting means presents a slide bar for adjusting the scalar value to the user together with the adjusted composite image,
The image processing apparatus according to claim 4, wherein the receiving unit acquires the scalar value according to a status of the slide bar adjusted by the user.
前記スカラー値により制御された前記参照画像のシフト量と、前記基準画像および前記参照画像の視点パラメータと、前記基準画像における前記指定点の座標とに基づいて、前記指定点に対応する前記参照画像における対応点の座標を算出する対応点算出手段をさらに有することを特徴とする請求項4または5に記載の画像処理装置。   The shift amount of the reference image controlled by the scalar value, the viewpoint parameters of the reference image and the reference image, and the reference image corresponding to the designated point based on the coordinates of the designated point in the reference image. The image processing apparatus according to claim 4, further comprising a corresponding point calculation unit configured to calculate coordinates of the corresponding point in the image processing apparatus. 前記基準画像における2つの指定点に対応する、前記参照画像における対応点の座標が前記対応点算出手段により算出され、当該算出された対応点の座標と前記2つの指定点の座標と前記基準画像および前記参照画像の視点パラメータとに基づいて、前記2つの指定点間の物理的な距離を算出する距離算出部をさらに有することを特徴とする請求項6に記載の画像処理装置。   The coordinates of the corresponding points in the reference image corresponding to the two designated points in the reference image are calculated by the corresponding point calculating means, and the calculated coordinates of the corresponding points, the coordinates of the two specified points, and the reference image The image processing apparatus according to claim 6, further comprising a distance calculation unit configured to calculate a physical distance between the two designated points based on a viewpoint parameter of the reference image. 前記指定手段は、前記基準画像における指定点をユーザーから受け取り、ユーザーから入力された座標に基づいて、当該座標の周辺領域を拡大して表示することを特徴とする請求項1乃至7のいずれか1項に記載の画像処理装置。 8. The apparatus according to claim 1, wherein the designation unit receives a designated point in the reference image from a user, and enlarges and displays a peripheral area of the coordinate based on the coordinate input by the user. Item 2. The image processing device according to item 1. 撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における指定点を基準に前記参照画像をシフトして前記基準画像に重ね合わせた合成画像を生成する生成手段と、Among images of a plurality of viewpoints having different viewpoint parameters including the position and orientation of the imaging unit, one of the images is set as a reference image, the other images are set as reference images, and the reference image is set based on a designated point in the reference image. Generating means for generating a composite image superimposed on the reference image by shifting
前記合成画像をユーザーに提示する提示手段と、  Presentation means for presenting the composite image to a user;
前記複数視点の画像の視点パラメータに基づいて、前記複数視点の画像が平行ステレオ画像であるか否かを判定し、前記複数視点の画像が平行ステレオ画像でないと判定した場合に、前記基準画像の視点パラメータを基準に前記参照画像を平行ステレオ変換する変換手段と、  Based on the viewpoint parameters of the images of the multiple viewpoints, it is determined whether or not the images of the multiple viewpoints are parallel stereo images, and when it is determined that the images of the multiple viewpoints are not parallel stereo images, Conversion means for performing parallel stereo conversion of the reference image based on viewpoint parameters,
前記合成画像における前記参照画像のシフト量を調整するために前記ユーザーが入力した、各前記参照画像のシフト量を制御する共通のスカラー値を受け取る受け取り手段と、  Receiving means for receiving a common scalar value controlling the shift amount of each of the reference images, input by the user to adjust the shift amount of the reference image in the composite image,
前記スカラー値により制御された前記参照画像のシフト量と、前記基準画像および前記参照画像の視点パラメータと、前記基準画像における前記指定点の座標とに基づいて、前記指定点に対応する前記参照画像における対応点の座標を算出する対応点算出手段と  The shift amount of the reference image controlled by the scalar value, the viewpoint parameters of the reference image and the reference image, and the reference image corresponding to the designated point based on the coordinates of the designated point in the reference image. Corresponding point calculating means for calculating coordinates of corresponding points in
を有し、Has,
前記参照画像が前記変換手段により平行ステレオ変換された場合に、前記生成手段は、変換された前記参照画像を用いて前記合成画像を生成し、  When the reference image is subjected to the parallel-stereo conversion by the conversion unit, the generation unit generates the composite image using the converted reference image,
前記受け取り手段が前記スカラー値を受け取ることに応じて、前記生成手段は、前記スカラー値と前記基準画像および前記参照画像の視点パラメータとに基づいて各前記参照画像のシフト量を算出し、算出したシフト量に従ってシフトした前記参照画像と前記基準画像とを重みづけ加算することにより、調整された合成画像を生成し、  In response to the receiving unit receiving the scalar value, the generating unit calculates and calculates the shift amount of each of the reference images based on the scalar value and the viewpoint parameters of the reference image and the reference image. By weighting and adding the reference image and the reference image shifted according to the shift amount, an adjusted composite image is generated,
前記提示手段は、前記調整された合成画像を前記ユーザーに提示する  The presenting means presents the adjusted composite image to the user
ことを特徴とする画像処理装置。An image processing apparatus comprising:
撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における指定点を基準に前記参照画像をシフトして前記基準画像に重ね合わせた合成画像を生成する生成手段と、Among images of a plurality of viewpoints having different viewpoint parameters including the position and orientation of the imaging unit, one of the images is set as a reference image, the other images are set as reference images, and the reference image is set based on a designated point in the reference image. Generating means for generating a composite image superimposed on the reference image by shifting
前記合成画像をユーザーに提示する提示手段と、  Presentation means for presenting the composite image to a user;
前記複数視点の画像の視点パラメータに基づいて、前記複数視点の画像が平行ステレオ画像であるか否かを判定し、前記複数視点の画像が平行ステレオ画像でないと判定した場合に、前記基準画像の視点パラメータを基準に前記参照画像を平行ステレオ変換する変換手段と、  Based on the viewpoint parameters of the images of the multiple viewpoints, it is determined whether or not the images of the multiple viewpoints are parallel stereo images, and when it is determined that the images of the multiple viewpoints are not parallel stereo images, Conversion means for performing parallel stereo conversion of the reference image based on viewpoint parameters,
前記合成画像における前記参照画像のシフト量を調整するために前記ユーザーが入力した、各前記参照画像のシフト量を制御する共通のスカラー値を受け取る受け取り手段と、  Receiving means for receiving a common scalar value that controls the shift amount of each of the reference images, input by the user to adjust the shift amount of the reference image in the composite image,
前記スカラー値により制御された前記参照画像のシフト量と、前記基準画像および前記参照画像の視点パラメータと、前記基準画像における前記指定点の座標とに基づいて、前記指定点に対応する前記参照画像における対応点の座標を算出する対応点算出手段と  The shift amount of the reference image controlled by the scalar value, the viewpoint parameters of the reference image and the reference image, and the reference image corresponding to the designated point based on the coordinates of the designated point in the reference image. Corresponding point calculating means for calculating coordinates of corresponding points in
を有し、Has,
前記参照画像が前記変換手段により平行ステレオ変換された場合に、前記生成手段は、変換された前記参照画像を用いて前記合成画像を生成し、  When the reference image is subjected to the parallel-stereo conversion by the conversion unit, the generation unit generates the composite image using the converted reference image,
前記受け取り手段が前記スカラー値を受け取ることに応じて、前記生成手段は、前記スカラー値と前記基準画像および前記参照画像の視点パラメータとに基づいて各前記参照画像のシフト量を算出し、算出したシフト量に従ってシフトした前記参照画像と前記基準画像とを重みづけ加算することにより、調整された合成画像を生成し、  In response to the receiving unit receiving the scalar value, the generating unit calculates and calculates the shift amount of each of the reference images based on the scalar value and the viewpoint parameters of the reference image and the reference image. By weighting and adding the reference image and the reference image shifted according to the shift amount, an adjusted composite image is generated,
前記提示手段は、前記調整された合成画像および前記スカラー値を調整するスライドバーを共に前記ユーザーに提示し、  The presenting means presents to the user both the adjusted composite image and a slide bar for adjusting the scalar value,
前記受け取り手段は、前記ユーザーにより調整された前記スライドバーのステータスに応じた前記スカラー値を取得する  The receiving means obtains the scalar value according to the status of the slide bar adjusted by the user.
ことを特徴とする画像処理装置。An image processing apparatus comprising:
視点が異なる複数の画像を用いて、少なくとも2つの指定点間の距離を算出する画像処理方法であって、
前記複数の画像のうち少なくとも1つの画像における複数の指定点を指定する指定工程と、
前記複数の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における前記指定点それぞれに対応する、前記参照画像における対応点を探索する探索工程と、
前記探索工程による探索結果に基づいて前記基準画像に重ね合わせた合成画像を生成する生成工程と、
前記合成画像をユーザーに提示する提示工程と
を含み、
前記生成工程は、前記複数の指定点のうち第1の指定点と第2の指定点について、前記基準画像における前記第1の指定点を基準として前記参照画像を重ね合わせた第1の合成画像と、前記基準画像における前記第2の指定点を基準として前記参照画像を重ね合わせた第2の合成画像を生成し、
前記提示工程は、前記第1の合成画像と前記第2の合成画像を並列して提示することを特徴とする画像処理方法。
Viewpoint using images of different multiple, an image processing method for calculating a distance between at least two specific points,
A designation step of designating a plurality of designated points in at least one of the plurality of images;
Among the plurality of images, either the one image and the reference image, a search step of the reference image to the other image, corresponding to the designated point, respectively, in the reference image to search the corresponding point in the reference image ,
A generation step of generating a composite image superimposed on the reference image based on a search result obtained by the search step;
Including a presentation step of presenting the composite image to a user,
The generating step includes, for a first designated point and a second designated point of the plurality of designated points, a first composite image in which the reference image is superimposed on the basis of the first designated point in the reference image. And generating a second composite image in which the reference images are superimposed on the basis of the second designated point in the reference image,
The image processing method , wherein the presenting step presents the first combined image and the second combined image in parallel .
撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における指定点を基準に前記参照画像をシフトして前記基準画像に重ね合わせた合成画像を生成する生成工程と、Among images of a plurality of viewpoints having different viewpoint parameters including the position and orientation of the imaging unit, one of the images is set as a reference image, the other images are set as reference images, and the reference image is set based on a designated point in the reference image. Generating a composite image superimposed on the reference image by shifting
前記合成画像をユーザーに提示する提示工程と、  A presentation step of presenting the composite image to a user;
前記複数視点の画像の視点パラメータに基づいて、前記複数視点の画像が平行ステレオ画像であるか否かを判定し、前記複数視点の画像が平行ステレオ画像でないと判定した場合に、前記基準画像の視点パラメータを基準に前記参照画像を平行ステレオ変換する変換工程と、  Based on the viewpoint parameters of the images of the multiple viewpoints, it is determined whether or not the images of the multiple viewpoints are parallel stereo images, and when it is determined that the images of the multiple viewpoints are not parallel stereo images, A conversion step of performing parallel-stereo conversion of the reference image based on viewpoint parameters,
前記合成画像における前記参照画像のシフト量を調整するために前記ユーザーが入力した、各前記参照画像のシフト量を制御する共通のスカラー値を受け取る受け取り工程と、  A receiving step of receiving a common scalar value that controls the shift amount of each of the reference images, input by the user to adjust the shift amount of the reference image in the composite image;
前記スカラー値により制御された前記参照画像のシフト量と、前記基準画像および前記参照画像の視点パラメータと、前記基準画像における前記指定点の座標とに基づいて、前記指定点に対応する前記参照画像における対応点の座標を算出する対応点算出工程と  The shift amount of the reference image controlled by the scalar value, the viewpoint parameters of the reference image and the reference image, and the reference image corresponding to the designated point based on the coordinates of the designated point in the reference image. A corresponding point calculation step of calculating the coordinates of the corresponding point in
を有し、Has,
前記参照画像が前記変換工程により平行ステレオ変換された場合に、前記生成工程は、変換された前記参照画像を用いて前記合成画像を生成し、  When the reference image is subjected to the parallel-stereo conversion by the conversion step, the generation step generates the composite image using the converted reference image,
前記受け取り工程が前記スカラー値を受け取ることに応じて、前記生成工程は、前記スカラー値と前記基準画像および前記参照画像の視点パラメータとに基づいて各前記参照画像のシフト量を算出し、算出したシフト量に従ってシフトした前記参照画像と前記基準画像とを重みづけ加算することにより、調整された合成画像を生成し、  In response to the receiving step receiving the scalar value, the generating step calculates and calculates the shift amount of each of the reference images based on the scalar value and the viewpoint parameters of the reference image and the reference image. By weighting and adding the reference image and the reference image shifted according to the shift amount, an adjusted composite image is generated,
前記提示工程は、前記調整された合成画像を前記ユーザーに提示する  The presenting step presents the adjusted composite image to the user
ことを特徴とする画像処理方法。An image processing method comprising:
撮像手段の位置および向きを含む視点パラメータが異なる複数視点の画像のうち、いずれか1つの画像を基準画像とし、それ以外の画像を参照画像とし、前記基準画像における指定点を基準に前記参照画像をシフトして前記基準画像に重ね合わせた合成画像を生成する生成工程と、Among images of a plurality of viewpoints having different viewpoint parameters including the position and orientation of the imaging unit, one of the images is set as a reference image, the other images are set as reference images, and the reference image is set based on a designated point in the reference image. Generating a composite image superimposed on the reference image by shifting
前記合成画像をユーザーに提示する提示工程と、  A presentation step of presenting the composite image to a user;
前記複数視点の画像の視点パラメータに基づいて、前記複数視点の画像が平行ステレオ画像であるか否かを判定し、前記複数視点の画像が平行ステレオ画像でないと判定した場合に、前記基準画像の視点パラメータを基準に前記参照画像を平行ステレオ変換する変換工程と、  Based on the viewpoint parameters of the images of the multiple viewpoints, it is determined whether or not the images of the multiple viewpoints are parallel stereo images, and when it is determined that the images of the multiple viewpoints are not parallel stereo images, A conversion step of performing parallel-stereo conversion of the reference image based on viewpoint parameters,
前記合成画像における前記参照画像のシフト量を調整するために前記ユーザーが入力した、各前記参照画像のシフト量を制御する共通のスカラー値を受け取る受け取り工程と、  A receiving step of receiving a common scalar value that controls the shift amount of each of the reference images, input by the user to adjust the shift amount of the reference image in the composite image;
前記スカラー値により制御された前記参照画像のシフト量と、前記基準画像および前記参照画像の視点パラメータと、前記基準画像における前記指定点の座標とに基づいて、前記指定点に対応する前記参照画像における対応点の座標を算出する対応点算出工程と  The shift amount of the reference image controlled by the scalar value, the viewpoint parameters of the reference image and the reference image, and the reference image corresponding to the designated point based on the coordinates of the designated point in the reference image. A corresponding point calculation step of calculating the coordinates of the corresponding point in
を有し、Has,
前記参照画像が前記変換工程により平行ステレオ変換された場合に、前記生成工程は、変換された前記参照画像を用いて前記合成画像を生成し、  When the reference image is subjected to the parallel-stereo conversion by the conversion step, the generation step generates the composite image using the converted reference image,
前記受け取り工程が前記スカラー値を受け取ることに応じて、前記生成工程は、前記スカラー値と前記基準画像および前記参照画像の視点パラメータとに基づいて各前記参照画像のシフト量を算出し、算出したシフト量に従ってシフトした前記参照画像と前記基準画像とを重みづけ加算することにより、調整された合成画像を生成し、  In response to the receiving step receiving the scalar value, the generating step calculates and calculates the shift amount of each of the reference images based on the scalar value and the viewpoint parameters of the reference image and the reference image. By weighting and adding the reference image and the reference image shifted according to the shift amount, an adjusted composite image is generated,
前記提示工程は、前記調整された合成画像および前記スカラー値を調整するスライドバーを共に前記ユーザーに提示し、  The presenting step presents both the adjusted composite image and the slide bar for adjusting the scalar value to the user,
前記受け取り工程は、前記ユーザーにより調整された前記スライドバーのステータスに応じた前記スカラー値を取得する  The receiving step obtains the scalar value according to the status of the slide bar adjusted by the user.
ことを特徴とする画像処理方法。An image processing method comprising:
コンピュータを請求項1乃至10のいずれか1項に記載の画像処理装置として機能させるためのプログラム。 A program for causing a computer to function as the image processing device according to any one of claims 1 to 10 .
JP2015205477A 2015-10-19 2015-10-19 Image processing method and image processing apparatus Active JP6624880B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015205477A JP6624880B2 (en) 2015-10-19 2015-10-19 Image processing method and image processing apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015205477A JP6624880B2 (en) 2015-10-19 2015-10-19 Image processing method and image processing apparatus

Publications (3)

Publication Number Publication Date
JP2017078892A JP2017078892A (en) 2017-04-27
JP2017078892A5 JP2017078892A5 (en) 2018-11-01
JP6624880B2 true JP6624880B2 (en) 2019-12-25

Family

ID=58666895

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015205477A Active JP6624880B2 (en) 2015-10-19 2015-10-19 Image processing method and image processing apparatus

Country Status (1)

Country Link
JP (1) JP6624880B2 (en)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002140688A (en) * 2000-11-01 2002-05-17 Fuji Photo Film Co Ltd Measurment processor for geometrically measuring image
JP4378272B2 (en) * 2004-12-15 2009-12-02 キヤノン株式会社 Imaging device
JP2007318555A (en) * 2006-05-26 2007-12-06 Omron Corp Magnified observation device and magnified observation method
JP6112824B2 (en) * 2012-02-28 2017-04-12 キヤノン株式会社 Image processing method and apparatus, and program.
JP6016226B2 (en) * 2012-04-04 2016-10-26 シャープ株式会社 Length measuring device, length measuring method, program

Also Published As

Publication number Publication date
JP2017078892A (en) 2017-04-27

Similar Documents

Publication Publication Date Title
JP5018980B2 (en) Imaging apparatus, length measurement method, and program
JP4832878B2 (en) Image composition processing apparatus and method
JP2018106496A (en) Image processing apparatus, image processing method, and program
WO2018179040A1 (en) Camera parameter estimation device, method, and program
JP2016171463A (en) Image processing system, image processing method, and program
JP6594170B2 (en) Image processing apparatus, image processing method, image projection system, and program
JP2012068861A (en) Ar processing unit, ar processing method and program
JPWO2018179039A1 (en) Camera parameter estimation device, method and program
JP2006329684A (en) Image measuring instrument and method
JP2013093836A (en) Image capturing apparatus, image processing apparatus, and method thereof
JP4581512B2 (en) Three-dimensional image processing apparatus, optical axis adjustment method, and optical axis adjustment support method
KR101611427B1 (en) Image processing method and apparatus performing the same
JP6624880B2 (en) Image processing method and image processing apparatus
JP5310890B2 (en) Image generating apparatus, image generating method, and program
JP6732440B2 (en) Image processing apparatus, image processing method, and program thereof
JP2017040542A (en) Information processing device, information processing method, and program
JP6405539B2 (en) Label information processing apparatus for multi-viewpoint image and label information processing method
JP6545033B2 (en) Three-dimensional temperature distribution display
JP6320165B2 (en) Image processing apparatus, control method therefor, and program
JP6648916B2 (en) Imaging device
CN111521127B (en) Measuring method, measuring apparatus, and recording medium
JP2013175821A (en) Image processing device, image processing method, and program
JP5863280B2 (en) Imaging apparatus, image processing method, and program
JP2018032991A (en) Image display unit, image display method and computer program for image display
JP2006113001A (en) Three-dimensional measuring method and device by photogrammetry

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180913

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190723

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190806

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191007

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191029

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191126

R151 Written notification of patent or utility model registration

Ref document number: 6624880

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151