JP2014060611A - Image processing apparatus, image projection system, and program - Google Patents

Image processing apparatus, image projection system, and program Download PDF

Info

Publication number
JP2014060611A
JP2014060611A JP2012204847A JP2012204847A JP2014060611A JP 2014060611 A JP2014060611 A JP 2014060611A JP 2012204847 A JP2012204847 A JP 2012204847A JP 2012204847 A JP2012204847 A JP 2012204847A JP 2014060611 A JP2014060611 A JP 2014060611A
Authority
JP
Japan
Prior art keywords
projection
target
image
point group
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012204847A
Other languages
Japanese (ja)
Other versions
JP5987584B2 (en
Inventor
Shinichi Sumiyoshi
信一 住吉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012204847A priority Critical patent/JP5987584B2/en
Publication of JP2014060611A publication Critical patent/JP2014060611A/en
Application granted granted Critical
Publication of JP5987584B2 publication Critical patent/JP5987584B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

PROBLEM TO BE SOLVED: To provide an image processing apparatus, an image projection system, and a program for controlling projection light in accordance with a positional relation between a projection object and a projection apparatus.SOLUTION: This image processing apparatus 100 comprises: distance measurement means 106 for measuring a distance between plural points within an image and calculating three-dimensional points; object shape designation means 108 for receiving designation of a three-dimensional shape being the projection object; object shape identification means (108, 110) for identifying object three-dimensional points corresponding to the three-dimensional shape of the projection object, from the three-dimensional points; surface estimation means 112 for estimating the approximate surface of the projection object from the object three-dimensional points; and control data calculation means 116 for calculating control data regulating projection light to project to a projection area on the approximate surface.

Description

本発明は、画像処理装置、映像投影システムおよびプログラムに関し、より詳細には、投影対象物と投影装置との位置関係に対応して投影光を制御するための画像処理装置、映像投影システム、および該画像処理装置を実現するためのプログラムに関する。   The present invention relates to an image processing device, a video projection system, and a program, and more particularly, an image processing device, a video projection system, and a video projection system for controlling projection light corresponding to a positional relationship between a projection object and the projection device, and The present invention relates to a program for realizing the image processing apparatus.

近年、プロジェクタに単眼カメラまたはステレオカメラを組み合わせて、スクリーンなどの投影対象物までの離間距離を測距して、投影する画像に補正をかける技術が知られている。   2. Description of the Related Art In recent years, a technique is known in which a monocular camera or a stereo camera is combined with a projector, a distance to a projection target such as a screen is measured, and a projected image is corrected.

例えば、特許第3880582号公報(特許文献1)は、フォーカス調整やあおり投射や投射対象物の表面の形状により生ずる投射画像の歪みの補正を行うことを目的としたプロジェクタを開示する。特許文献1のプロジェクタは、投射対象物の画像を撮像可能な複数のカメラを有し、所定のパターンである複数の対象点を投射対象物上に面状に投射して測距し、投射画像を補正する機能を備える。上記プロジェクタにおいては、ズーム位置に基づいて投射レンズからの距離に応じた投射範囲が算出され、複数のカメラの撮像画面と投射範囲とから、複数のカメラの撮像画面内の同一の対象点を対応させて対象点の3次元位置が検知され、対象点までの距離が検出される。そして、上記プロジェクタは、算出された平均距離に基づいて、投射レンズのフォーカスを調整する。   For example, Japanese Patent No. 3880582 (Patent Document 1) discloses a projector for the purpose of correcting the distortion of a projected image caused by focus adjustment, tilt projection, and the shape of the surface of a projection target. The projector of Patent Document 1 has a plurality of cameras capable of capturing an image of a projection target, projects a plurality of target points having a predetermined pattern onto the projection target in a plane, and measures a distance. It has a function to correct. In the projector, the projection range corresponding to the distance from the projection lens is calculated based on the zoom position, and the same target point in the imaging screen of the plurality of cameras is handled from the imaging screen and the projection range of the plurality of cameras. Thus, the three-dimensional position of the target point is detected, and the distance to the target point is detected. The projector adjusts the focus of the projection lens based on the calculated average distance.

一方、プロジェクタが投影する投影面は、スクリーンのような広い平面だけでなく、人の手や車体、中央部にくぼみを有する壁など、所定の大きさを有し、略平面と見なせる任意の対象物に投影したいという要望がある。このような任意の対象物には、スクリーンの特徴として用いられる黒枠が通常存在しない。このため、任意の対象物に投影しようとする場合、上述したような従来技術の投影対象物がスクリーンであることを前提としたシステムでは、上記任意の対象物は、投影対象物として認識されず、上述した補正技術を適用することが困難な場合があった。   On the other hand, the projection surface projected by the projector is not only a wide plane such as a screen, but also an arbitrary object that has a predetermined size, such as a human hand, a vehicle body, or a wall having a depression in the center, and can be regarded as a substantially plane. There is a desire to project on an object. Such an arbitrary object usually does not have a black frame used as a screen feature. For this reason, when trying to project onto an arbitrary object, the above-described arbitrary object is not recognized as a projection object in a system based on the assumption that the above-described conventional projection object is a screen. In some cases, it is difficult to apply the correction technique described above.

本発明は、上記従来技術における問題点に鑑みたものであり、利用者が指定した任意形状の投影対象物に対して、投影対象物に合わせた投影光制御を行うことを可能とする画像処理装置、映像投影システムおよびプログラムを提供することを目的とする。   The present invention has been made in view of the above-described problems in the prior art, and image processing that enables projection light control according to a projection target to be performed on a projection target of an arbitrary shape designated by a user. An object is to provide an apparatus, a video projection system, and a program.

本発明では、上記課題を解決するために、下記特徴を有する、画像処理装置を提供する。本画像処理装置は、画像内の複数の点の距離を測定し、3次元点群を計算する測距手段と、投影対象とする3次元形状の指定を受ける対象形状指定手段と、計算された上記3次元点群から、上記投影対象の3次元形状に対応した対象3次元点群を特定する対象形状特定手段と、特定された上記対象3次元点群から投影対象の近似面を推定する面推定手段と、上記近似面上の投影領域へ投影する投影光を規定する制御データを計算する制御データ計算手段とを含む。   In order to solve the above-described problems, the present invention provides an image processing apparatus having the following characteristics. The image processing apparatus includes a distance measuring unit that measures a distance between a plurality of points in an image and calculates a three-dimensional point group, a target shape specifying unit that receives designation of a three-dimensional shape to be projected, and a calculation Target shape specifying means for specifying a target three-dimensional point group corresponding to the three-dimensional shape of the projection target from the three-dimensional point group, and a surface for estimating an approximate surface of the projection target from the specified target three-dimensional point group Estimation means and control data calculation means for calculating control data defining projection light projected onto the projection area on the approximate plane.

上記構成によれば、利用者が指定した任意形状の投影対象物に対して、投影対象物に合わせた投影光制御を行うことが可能となる。   According to the above configuration, it is possible to perform projection light control in accordance with the projection target with respect to the projection target having an arbitrary shape designated by the user.

第1の実施形態によるプロジェクタの概略構成図。1 is a schematic configuration diagram of a projector according to a first embodiment. FIG. 第1の実施形態によるプロジェクタにおける機能ブロックおよびデータフローを説明する図。FIG. 3 is a diagram illustrating functional blocks and data flow in the projector according to the first embodiment. 第1の実施形態によるプロジェクタが実行する、投影画像補正制御を示すフローチャート。6 is a flowchart showing projection image correction control executed by the projector according to the first embodiment. 第1の実施形態において測距部が実行する、測距処理を示すフローチャート。5 is a flowchart illustrating distance measurement processing executed by a distance measurement unit in the first embodiment. 本実施形態によるステレオ画像間のステレオ対応点の探索処理を説明する図。The figure explaining the search process of the stereo corresponding point between the stereo images by this embodiment. 第1の実施形態による対象形状指定部が実行する、対象形状指定処理を示すフローチャート。The flowchart which shows the object shape designation | designated process which the object shape designation | designated part by 1st Embodiment performs. 測距部によって計算されたシーンの3次元点群を表す模式図。The schematic diagram showing the three-dimensional point group of the scene calculated by the ranging part. 第1の実施形態において、シーンの3次元点群から、所望の投影対象の3次元形状を指定する方法を説明する図。The figure explaining the method to designate the desired three-dimensional shape of the projection object from the three-dimensional point group of a scene in 1st Embodiment. 第1の実施形態による対象形状探索部が実行する、対象形状探索処理を示すフローチャート。The flowchart which shows the object shape search process which the object shape search part by 1st Embodiment performs. 投影対象物の対象3次元形状に対応した対象3次元点群を、シーン中の3次元点群の中から探索する処理を説明する図。The figure explaining the process which searches the object three-dimensional point group corresponding to the object three-dimensional shape of a projection target object from the three-dimensional point group in a scene. 第1の実施形態による平面推定部が実行する、平面推定処理を示すフローチャート。The flowchart which shows the plane estimation process which the plane estimation part by 1st Embodiment performs. 第1の実施形態による補正計算部が実行する、補正計算処理を示すフローチャート。The flowchart which shows the correction calculation process which the correction calculation part by 1st Embodiment performs. 投影対象物の対象3次元形状を近似する近似平面および近似平面の法線方向に位置する法線カメラの関係を説明する図。The figure explaining the relationship between the normal plane located in the normal direction of the approximate plane which approximates the target three-dimensional shape of a projection target object, and an approximate plane. 3次元点群を透視投影変換により法線カメラ画像上の2次元点群に変換する処理を説明する図。The figure explaining the process which converts a three-dimensional point group into the two-dimensional point group on a normal camera image by perspective projection conversion. 法線カメラ画像上の投影対象物の形状を表す2次元点群から補正矩形を得る処理を説明する図。The figure explaining the process which obtains a correction rectangle from the two-dimensional point group showing the shape of the projection target object on a normal camera image. 法線カメラ画像I上の2次元点群と、投影するプロジェクタ画像I上の特徴点群との対応関係を説明する図。Diagram for explaining a two-dimensional point group on normal camera image I V, a correspondence relationship between the feature points on the projector image I P to be projected. 射影変換行列HVPおよび射影変換行列HPPによる幾何変換を説明する図。The figure explaining the geometric transformation by projective transformation matrix HVP and projective transformation matrix HPP . (A)射影変換行列HPPによるコンテンツ画像の台形補正処理と、(B)補正された実際に投影される投影画像を説明する図。(A) The figure explaining the trapezoid correction process of the content image by the projective transformation matrix HPP , and (B) the projection image actually projected after the correction. 投影対象物の回転に追随して投影画像補正をかける利用態様を例示する図。The figure which illustrates the utilization aspect which applies a projection image correction following the rotation of a projection target object. くぼんだ形状を有する壁面を投影対象物として使用する利用態様を例示する図。The figure which illustrates the utilization aspect which uses the wall surface which has a hollow shape as a projection target object. 第2の実施形態において、所望の投影対象の3次元形状を指定する方法を説明する図。The figure explaining the method of designating the three-dimensional shape of the desired projection object in 2nd Embodiment. 投影対象物の形状に合わせて投影光を投影するよう制御する第3の実施形態を説明する図。The figure explaining 3rd Embodiment controlled to project projection light according to the shape of a projection target object. 第4の実施形態におる映像投影システムの概略構成図。The schematic block diagram of the image | video projection system in 4th Embodiment. 第5の実施形態におる映像投影システムの概略構成図。The schematic block diagram of the video projection system in 5th Embodiment. 短焦点プロジェクタおよび外部測距センサを用いて構成された映像投影システムを例示する図。The figure which illustrates the image | video projection system comprised using the short focus projector and the external distance sensor.

以下、本発明について実施形態をもって説明するが、本発明は、後述する実施形態に限定されるものではない。   Hereinafter, although this invention is demonstrated with embodiment, this invention is not limited to embodiment mentioned later.

(第1の実施形態)
なお、以下に説明する第1の実施形態では、画像処理装置および映像投影システムの一例として、ステレオ画像方式の測距センサを備えたプロジェクタ100を用いて説明する。
(First embodiment)
In the first embodiment described below, a projector 100 including a stereo image type distance measuring sensor will be described as an example of an image processing apparatus and a video projection system.

[全体構成]
図1は、第1の実施形態によるプロジェクタ100の概略構成を示す。プロジェクタ100は、本プロジェクタ100の全体制御を行う制御部102と、ステレオ画像方式の測距センサを構成する撮像部104と、ステレオ画像方式による視差演算を行う測距部106と、フォーカス調整部120と、投影部122とを備える。
[overall structure]
FIG. 1 shows a schematic configuration of a projector 100 according to the first embodiment. The projector 100 includes a control unit 102 that performs overall control of the projector 100, an imaging unit 104 that forms a stereo image type distance measuring sensor, a distance measuring unit 106 that performs stereo image type parallax calculation, and a focus adjustment unit 120. And a projection unit 122.

撮像部104は、複数のカメラを含み構成される。カメラは、それぞれ、CMOS(Complementary Metal Oxide Semiconductor)センサなどの固体撮像素子と、該固体撮像素子上に結像するためレンズなどの結像光学系とを含む。説明する実施形態では、撮像部104は、水平方向または垂直方向に平行等位に並べられた2つのカメラを含む。複数の固体撮像素子間の距離は、基線長を規定し、測距精度を向上するために高度に位置制御されている。   The imaging unit 104 includes a plurality of cameras. Each of the cameras includes a solid-state imaging device such as a CMOS (Complementary Metal Oxide Semiconductor) sensor and an imaging optical system such as a lens for imaging on the solid-state imaging device. In the embodiment to be described, the imaging unit 104 includes two cameras arranged in parallel equiposition in the horizontal direction or the vertical direction. The distance between the plurality of solid-state image sensors defines a base line length and is highly position-controlled in order to improve distance measurement accuracy.

投影部122は、液晶方式、CRT(Cathode Ray Tube)方式、DLP(Digital Light Processing)方式、LCOS(Liquid Crystal On Silicon)方式などの投影装置を含み構成される。投影部122は、本プロジェクタ100に入力された、またはプロジェクタ100がファイルから生成したコンテンツ画像を投影装置から投影対象物へ向けて投影する。フォーカス調整部120は、投影装置から投影対象物までの離間距離の測定結果に基づき、投影装置のフォーカスを調整する。   The projection unit 122 includes a projection apparatus such as a liquid crystal system, a CRT (Cathode Ray Tube) system, a DLP (Digital Light Processing) system, and an LCOS (Liquid Crystal On Silicon) system. The projection unit 122 projects a content image input to the projector 100 or generated from a file by the projector 100 from the projection device toward the projection target. The focus adjustment unit 120 adjusts the focus of the projection apparatus based on the measurement result of the separation distance from the projection apparatus to the projection target.

本実施形態によるプロジェクタ100は、上記測距部106による測距結果に基づき、撮像部104のカメラによって撮像されたシーン中の投影対象物の位置および形状を認識し、その投影対象物の領域へコンテンツ画像を補正して投影する機能を備える。従来技術では、認識可能な投影対象物が、スクリーンといった、画角内に写っている領域中における比較的広い平面に限定されており、人の体、人の手、中央部がくぼんだ壁などの物体を投影対象として認識することが難しかった。これに対し、本実施形態によるプロジェクタ100は、利用者が指定できる任意形状の物体を投影対象物として投影光を制御する、投影光制御機能を実現する。   The projector 100 according to the present embodiment recognizes the position and shape of the projection object in the scene imaged by the camera of the imaging unit 104 based on the distance measurement result by the distance measurement unit 106, and moves to the area of the projection object. A function for correcting and projecting a content image is provided. In the prior art, the recognizable projection object is limited to a relatively wide plane such as a screen in an area captured within the angle of view, such as a human body, a human hand, a wall with a recessed central part, etc. It was difficult to recognize this object as a projection target. On the other hand, the projector 100 according to the present embodiment realizes a projection light control function for controlling projection light using an object of an arbitrary shape that can be specified by the user as a projection target.

本実施形態によるプロジェクタ100は、上記投影光制御機能を実現するべく、さらに、上述した任意形状の投影対象物を指定するための対象形状指定部108と、ある時点で撮像されたシーン(場面)から、指定された投影対象物に対応した3次元形状(以下、対象3次元形状という。)を探索する対象形状探索部110とを含む。さらに、プロジェクタ100は、探索された対象3次元形状の近似平面を推定する平面推定部112と、近似平面の変化を判定する位置変化判定部114と、推定された近似平面から補正データを計算する補正計算部116と、計算された補正データを用いてコンテンツ画像に対し画像補正を施す投影画像補正部118とを含む。   In order to realize the projection light control function, the projector 100 according to the present embodiment further includes the target shape designating unit 108 for designating the above-described arbitrary shape projection target object, and a scene (scene) captured at a certain point in time. And a target shape search unit 110 for searching for a three-dimensional shape (hereinafter referred to as a target three-dimensional shape) corresponding to the designated projection target. Further, projector 100 calculates correction data from the estimated approximate plane, plane estimation unit 112 that estimates the approximate plane of the searched target three-dimensional shape, position change determination unit 114 that determines a change in the approximate plane. A correction calculation unit 116 and a projection image correction unit 118 that performs image correction on the content image using the calculated correction data are included.

以下、図2を参照しながら、上記投影光制御機能に関し、上記各機能部のはたらきについて説明する。図2は、第1の実施形態によるプロジェクタ100における機能ブロックおよびデータフローを説明する図である。   Hereinafter, the function of each functional unit will be described with respect to the projection light control function with reference to FIG. FIG. 2 is a diagram illustrating functional blocks and data flow in the projector 100 according to the first embodiment.

撮像部104は、制御部102からの撮像指令に応答して、投影部122によって投影された投影画像の少なくとも一部が写り込んだシーンを2つのカメラで略同時に撮像し、ステレオ画像の画像データを出力する。ステレオ画像方式においては、一方のカメラを基準カメラと参照し、他方を参照カメラと参照することがあるが、説明する実施形態では、2つのカメラは、水平方向に並べられており、右カメラを基準カメラとし、左カメラを参照カメラとしている。左右のカメラの位置関係は、平行等位であり、実3次元空間における3次元座標を(X,Y,Z)で表すと、基準カメラおよび参照カメラのX軸が同一となり、Y軸が平行となり、(3)Z軸も平行となる。また、説明する実施形態では、左右カメラのセンサ光軸が平行となる平行撮影を行うものとする。   In response to the imaging command from the control unit 102, the imaging unit 104 captures a scene in which at least a part of the projection image projected by the projection unit 122 is captured with two cameras substantially simultaneously, and image data of a stereo image Is output. In the stereo image system, one camera may be referred to as a reference camera and the other may be referred to as a reference camera. However, in the embodiment described, the two cameras are arranged in a horizontal direction, and the right camera is The reference camera is used as the reference camera, and the left camera is used as the reference camera. The positional relationship between the left and right cameras is parallel, and when the three-dimensional coordinates in the real three-dimensional space are represented by (X, Y, Z), the X axis of the reference camera and the reference camera are the same and the Y axis is parallel. (3) The Z-axis is also parallel. In the embodiment to be described, it is assumed that parallel shooting is performed in which the sensor optical axes of the left and right cameras are parallel.

測距部106は、撮像部104からのステレオ画像データの入力を受けて、ステレオ画像内において観測されたステレオ対応点の視差量を測定する。測距部106は、測定された視差量から、三角測量の原理に基づき、画像内の各対応点の距離を計算し、撮像されたシーンを構成する3次元点群を求め、測距データとして出力する。説明する実施形態では、詳細を後述する処理により、各ステレオ画像から特徴点を抽出し、ステレオ画像間で対応付けがなされた特徴点をステレオ対応点として用いる。また、好適な実施形態では、各ステレオ画像の特徴点と、投影しているコンテンツ画像から抽出された特徴点との対応付けを介在させることによって、ステレオ画像間の特徴点の対応付けを高精度かつ高速に行うことができる。ステレオ対応点各々の視差量から実3次元空間におけるステレオ対応点の3次元座標が復元され、これら複数のステレオ対応点に対応した複数の3次元座標点が、シーンの3次元点群を構成する。   The distance measuring unit 106 receives the input of the stereo image data from the imaging unit 104 and measures the parallax amount of the stereo corresponding point observed in the stereo image. The distance measuring unit 106 calculates the distance of each corresponding point in the image from the measured parallax amount based on the principle of triangulation, obtains a three-dimensional point group constituting the captured scene, and uses it as distance measurement data. Output. In the embodiment to be described, feature points are extracted from each stereo image by a process that will be described in detail later, and feature points that are associated with each other are used as stereo correspondence points. In a preferred embodiment, the feature points between stereo images can be associated with high accuracy by interposing the feature points of each stereo image with the feature points extracted from the projected content image. And it can be performed at high speed. The three-dimensional coordinates of the stereo corresponding points in the actual three-dimensional space are restored from the parallax amount of each stereo corresponding point, and a plurality of three-dimensional coordinate points corresponding to the plurality of stereo corresponding points constitute a three-dimensional point group of the scene. .

対象形状指定部108は、撮像部104により撮像されたシーンにおいて、ユーザによる所望の投影対象物の指定を受け付ける。なお、本実施形態において、投影対象物は、スクリーン、平坦な壁面、ホワイトボードなどの平面に限定されず、人の体、人の手、車、くぼみのある壁面といった任意の3次元形状を有する物体を指定することが可能とされている。対象形状指定部108は、特定の実施形態では、撮像部104からの画像データの入力を受けて、ステレオ画像の一方を表示装置上に表示する。そして、マウスやタッチパネルなどの入力装置に対するユーザからの操作に応答して、投影対象物(掌や、くぼんだ奥の壁面など)に対応した画像領域の指定が行われる。対象形状指定部108は、ユーザからの画像領域の指定を受けると、測距部106から入力される測距データを用いて、指定された画像領域内に含まれる3次元点群を抽出し、対象3次元形状を構成する3次元点群(以下、対象3次元点群という。)として記録し、対象形状データを出力する。   The target shape designation unit 108 accepts designation of a desired projection target by the user in the scene imaged by the imaging unit 104. In the present embodiment, the projection target is not limited to a plane such as a screen, a flat wall surface, or a whiteboard, but has an arbitrary three-dimensional shape such as a human body, a human hand, a car, or a wall surface with a depression. It is possible to specify an object. In a specific embodiment, the target shape specifying unit 108 receives input of image data from the imaging unit 104 and displays one of the stereo images on the display device. Then, in response to a user operation on an input device such as a mouse or a touch panel, an image area corresponding to a projection object (such as a palm or a wall at the back of a hollow) is designated. Upon receiving the designation of the image area from the user, the target shape designation unit 108 uses the distance measurement data input from the distance measurement unit 106 to extract a three-dimensional point group included in the designated image area, It is recorded as a three-dimensional point group constituting the target three-dimensional shape (hereinafter referred to as a target three-dimensional point group), and target shape data is output.

なお、上記表示装置および入力装置は、特に限定されず、それぞれ、プロジェクタ100が備えていてもよく、プロジェクタ100に接続されたものを利用してもよく、プロジェクタ100と通信するパーソナル・コンピュータやタブレット端末などが備えるものを利用してもよい。   Note that the display device and the input device are not particularly limited, and each of the display device and the input device may be included in the projector 100 or may be connected to the projector 100. A personal computer or tablet that communicates with the projector 100. You may utilize what a terminal etc. are equipped with.

対象形状探索部110は、ある時点のシーンに基づいて指定された投影対象物に関し、異なる時点のシーンから、指定の投影対象物の3次元形状にマッチする対象3次元点群を探索し、対象形状3次元データとして出力する。上述したように、ユーザ指定された投影対象物は、ある時点のシーンにおける測距データを用いて、その3次元形状が特定される。一方、投影対象物は、時間の経過とともにその位置を変化させる可能性がある。対象形状探索部110は、このような投影対象物の位置の経時変化に対応する手段である。   The target shape search unit 110 searches for a target three-dimensional point group that matches a three-dimensional shape of a specified projection target object from a scene at a different time point with respect to a projection target specified based on a scene at a certain time point, Output as 3D shape data. As described above, the three-dimensional shape of the projection target designated by the user is specified using the distance measurement data in the scene at a certain time. On the other hand, the position of the projection target object may change over time. The target shape search unit 110 is a means for dealing with such a change with time of the position of the projection target.

平面推定部112は、投影対象物の指定がされ、または探索された3次元形状を構成する対象3次元点群の3次元座標から、実3次元空間における投影対象物を近似する近似面を推定し、近似面データを出力する。近似面は、説明する実施形態では、近似平面とするが、他の実施形態では、円柱のような湾曲したスクリーンに対応するべく近似曲面としてもよい。平面推定部112は、さらに、対象3次元点群の重心を計算し、重心データをフォーカス調整部120に出力する。フォーカス調整部120は、平面推定部112から重心データの入力を受けて、投影装置から近似平面の重心までの離間距離に応じてフォーカスを調整する。   The plane estimation unit 112 estimates an approximate surface that approximates the projection object in the actual three-dimensional space from the three-dimensional coordinates of the target three-dimensional point group that constitutes the searched three-dimensional shape in which the projection object is designated. And output approximate surface data. In the embodiment to be described, the approximate surface is an approximate plane, but in other embodiments, the approximate surface may be an approximate curved surface so as to correspond to a curved screen such as a cylinder. The plane estimation unit 112 further calculates the centroid of the target three-dimensional point group, and outputs the centroid data to the focus adjustment unit 120. The focus adjustment unit 120 receives the centroid data from the plane estimation unit 112 and adjusts the focus according to the separation distance from the projection device to the centroid of the approximate plane.

補正計算部116は、測距部106からの測距データ、対象形状探索部110からの対象形状3次元データ、および平面推定部112からの近似平面データの入力を受けて、投影光を制御するための制御データを計算し、投影画像補正部118に出力する。投影装置からコンテンツ画像を投影する場合、投影装置の光軸に垂直な平面を基準とした投影対象物の投影面の水平方向および垂直方向のあおり角によって、投影画像に台形歪みが生じ得る。説明する実施形態において、投影光制御としては、このような台形歪みを相殺する台形歪み補正(投影画像補正)を一例に説明する。したがって、本実施形態における補正計算部116は、近似平面上の投影対象物に対応する範囲に収まるようにコンテンツ画像に対し施す、幾何補正処理を規定する補正データを計算する。   The correction calculation unit 116 receives the distance measurement data from the distance measurement unit 106, the target shape three-dimensional data from the target shape search unit 110, and the approximate plane data from the plane estimation unit 112, and controls the projection light. Control data is calculated and output to the projected image correction unit 118. When projecting a content image from a projection device, trapezoidal distortion may occur in the projection image due to the horizontal and vertical tilt angles of the projection surface of the projection object with reference to a plane perpendicular to the optical axis of the projection device. In the embodiment to be described, as the projection light control, trapezoidal distortion correction (projection image correction) for canceling such trapezoidal distortion will be described as an example. Therefore, the correction calculation unit 116 according to the present embodiment calculates correction data that defines the geometric correction processing to be applied to the content image so as to be within a range corresponding to the projection target on the approximate plane.

なお、説明する実施形態では、台形歪み補正を一例として説明するが、種々の投影光制御に対して適用することができる。他の実施形態では、円柱のような湾曲したスクリーンに対応して、推定された近似曲面にコンテンツ画像を投影した場合に観察者によって自然に見えるようにするための画像補正としてもよい。   In the embodiment to be described, trapezoidal distortion correction is described as an example, but it can be applied to various types of projection light control. In another embodiment, image correction may be performed so that a content image is naturally seen by an observer when a content image is projected onto an estimated approximate curved surface corresponding to a curved screen such as a cylinder.

投影画像補正部118は、補正計算部116から入力された補正データに基づき、当該入力または生成されたコンテンツ画像に対し補正処理を施す。投影部122は、投影画像補正部118により補正された投影画像を投影装置から投影する。位置変化判定部114は、従前のシーンに基づく近似平面と、現在のシーンに基づく近似平面とを比較して、近似平面の経時変化を検知し、上記補正計算部116による補正計算の更新の要否を判定する。例えば一定以上の位置関係の変化があったことが検知されると、補正計算部116に対し、上記補正データを再計算させることができる。   The projection image correction unit 118 performs correction processing on the input or generated content image based on the correction data input from the correction calculation unit 116. The projection unit 122 projects the projection image corrected by the projection image correction unit 118 from the projection device. The position change determination unit 114 compares the approximate plane based on the previous scene with the approximate plane based on the current scene, detects the temporal change of the approximate plane, and requires the correction calculation unit 116 to update the correction calculation. Determine no. For example, when it is detected that the positional relationship has changed more than a certain level, the correction calculation unit 116 can recalculate the correction data.

以下、図3を参照して、第1の実施形態によるプロジェクタ100が実行する投影画像補正制御の全体的な流れについて説明する。図3は、第1の実施形態によるプロジェクタ100が実行する、投影画像補正制御を示すフローチャートである。図3に示す制御は、例えばプロジェクタ100の起動とともにステップS100から開始される。ステップS101では、プロジェクタ100は、起動後のフォーカス調整を行い、ステップS102では、校正開始の信号に応答して校正処理を開始させる。   The overall flow of the projection image correction control executed by the projector 100 according to the first embodiment will be described below with reference to FIG. FIG. 3 is a flowchart showing the projection image correction control executed by the projector 100 according to the first embodiment. The control shown in FIG. 3 is started from step S100 when the projector 100 is started, for example. In step S101, the projector 100 performs focus adjustment after activation, and in step S102, the calibration process is started in response to a calibration start signal.

ステップS103では、プロジェクタ100は、投影部122によりコンテンツ画像を投影し、ステップS104では、撮像部104により、投影されている投影画像の少なくとも一部を含むシーンを、基準カメラおよび参照カメラで略同時に撮像し、ステレオ画像を得る。ステップS105では、プロジェクタ100は、測距部106により、図4および図5を参照して後述する測距処理を実行し、ステレオ画像内におけるステレオ対応点の距離を計算し、撮像されたシーンを構成する3次元点群を計算する。ステップS106では、プロジェクタ100は、初回校正時のフローであるか、2回目以降の校正時のフローであるかに応じて制御を分岐させる。   In step S103, the projector 100 projects a content image using the projection unit 122. In step S104, the imaging unit 104 causes a scene including at least a part of the projected image to be projected substantially simultaneously with the reference camera and the reference camera. Capture a stereo image. In step S105, the projector 100 uses the distance measurement unit 106 to perform distance measurement processing, which will be described later with reference to FIGS. 4 and 5, calculates the distance between the stereo corresponding points in the stereo image, and captures the captured scene. The three-dimensional point group which comprises is calculated. In step S106, the projector 100 branches the control depending on whether the flow is for the first calibration or for the second and subsequent calibrations.

ステップS106で、初回校正である場合(YES)は、ステップS107へ制御が分岐される。ステップS107では、プロジェクタ100は、対象形状指定部108により、図6〜図8を参照して後述する対象形状指定処理を実行し、ユーザからの投影対象物の指定を受け、対象3次元形状を取得する。初回校正時は、対象形状指定部108が、本実施形態における対象形状特定手段としてはたらく。ステップS108では、プロジェクタ100は、平面推定部112により、図11および図13を参照して後述する平面推定処理を実行し、対象3次元形状の3次元座標点から投影対象物の近似平面および重心を推定し、後述する位置変化の比較のため記録する。ステップS109では、プロジェクタ100は、フォーカス調整部120により、平面推定処理によって求められた重心にフォーカスを調整する。   If it is the first calibration in step S106 (YES), the control branches to step S107. In step S107, the projector 100 uses the target shape specifying unit 108 to execute a target shape specifying process to be described later with reference to FIGS. 6 to 8, receives the specification of the projection target from the user, and sets the target three-dimensional shape. get. At the time of the first calibration, the target shape specifying unit 108 functions as a target shape specifying unit in the present embodiment. In step S108, the projector 100 causes the plane estimation unit 112 to perform plane estimation processing to be described later with reference to FIGS. 11 and 13 to calculate the approximate plane and the center of gravity of the projection target from the three-dimensional coordinate point of the target three-dimensional shape. And is recorded for comparison of position changes to be described later. In step S109, the projector 100 causes the focus adjustment unit 120 to adjust the focus to the center of gravity obtained by the plane estimation process.

ステップS110では、プロジェクタ100は、推定された近似平面に基づき、図12〜図17を参照して後述する補正計算処理を実行し、コンテンツ画像に幾何補正をかけるための補正データを計算する。ステップS111では、プロジェクタ100は、投影画像補正部118により、計算された補正データに基づいて、投影すべきコンテンツ画像に対し台形歪み補正を施す。プロジェクタ100は、ステップS112で、所定のインターバル時間が経過するのを待機し、ステップS113で、本プロジェクタ100の使用が終了されたか否かを判定する。ステップS113で、未だ使用中であると判定された場合(NO)は、ステップS103へループされる。これによって、投影部122により投影された投影画像は、投影対象物の大きさ、位置およびあおり角度に応じて適切に補正されたものとなる。一方、ステップS113で、使用が終了されたと判定された場合(YES)は、プロジェクタ100は、ステップS117へ分岐させて、本制御を終了する。   In step S110, the projector 100 executes correction calculation processing described later with reference to FIGS. 12 to 17 based on the estimated approximate plane, and calculates correction data for applying geometric correction to the content image. In step S111, the projector 100 causes the projection image correction unit 118 to perform trapezoidal distortion correction on the content image to be projected based on the calculated correction data. In step S112, the projector 100 waits for a predetermined interval time to elapse. In step S113, the projector 100 determines whether the use of the projector 100 is finished. If it is determined in step S113 that it is still in use (NO), the process loops to step S103. Thereby, the projection image projected by the projection unit 122 is appropriately corrected according to the size, position, and tilt angle of the projection target. On the other hand, if it is determined in step S113 that use has ended (YES), projector 100 branches to step S117 and ends this control.

再びステップS106を参照すると、ステップS106で、2回目以降の校正時のフローであり、初回校正ではない場合(NO)は、ステップS114へ制御が分岐される。ステップS114では、プロジェクタ100は、対象形状探索部110により、図9および10を参照して後述する対象形状探索処理を実行し、2回目以降の校正時点の測距データに基づき、初回校正時において指定された対象3次元形状にマッチする対象3次元点群を探索する。2回目以降の校正時では、対象形状探索部110が、本実施形態における対象形状特定手段としてはたらく。ステップS115では、プロジェクタ100は、平面推定部112により、上記平面推定処理を実行して、投影対象物の近似平面を再度推定する。   Referring to step S106 again, in step S106, the flow is for the second and subsequent calibrations, and if it is not the first calibration (NO), control branches to step S114. In step S114, the projector 100 uses the target shape search unit 110 to execute a target shape search process, which will be described later with reference to FIGS. 9 and 10, and at the time of the first calibration based on the distance measurement data after the second calibration. Search for a target 3D point cloud that matches the specified target 3D shape. In the second and subsequent calibrations, the target shape searching unit 110 serves as a target shape specifying unit in the present embodiment. In step S115, the projector 100 causes the plane estimation unit 112 to execute the above-described plane estimation process, and again estimates the approximate plane of the projection target.

ステップS116では、プロジェクタ100は、位置変化判定部114により、従前の近似平面と、新たに推定された近似平面とを比較し、事前設定された閾値以上の変化があるか否かを判定する。変化は、近似平面の重心の移動量および水平方向および垂直方向のあおり角の変化量として検出される。上記閾値は、例えば、本プロジェクタ100のベンダ側で、数値計算や実験結果等に基づいて設定した値としてもよいし、また、ユーザに対し所望の閾値を選択させてもよい。ステップS116で、位置変化が閾値未満であると判定された場合(YES)は、ステップS112へ直接分岐させる。この場合は、補正データが再計算されず、ステップS103で、前回計算された補正データに基づき、コンテンツ画像が投影されることになる。   In step S116, the projector 100 compares the previous approximate plane with the newly estimated approximate plane by the position change determination unit 114, and determines whether there is a change greater than a preset threshold value. The change is detected as the amount of movement of the center of gravity of the approximate plane and the amount of change in the tilt angle in the horizontal and vertical directions. The threshold value may be a value set on the vendor side of the projector 100 based on numerical calculation, experimental results, or the like, or the user may select a desired threshold value. If it is determined in step S116 that the position change is less than the threshold (YES), the process directly branches to step S112. In this case, the correction data is not recalculated, and the content image is projected based on the correction data calculated last time in step S103.

一方、有意な位置変化があり、変化が閾値を超えると判定された場合(NO)は、ステップS109へ制御が分岐される。このとき、再度計算された近似平面は、次回以降の比較のため記録することができる。この場合、ステップS109では、フォーカス調整が行われ、ステップS110では、補正計算処理が再度行われ、ステップS111では、更新された補正データに基づき投影画像が補正されることになる。これにより、投影対象物の位置変化に追随して適切に補正することが可能となる。   On the other hand, when there is a significant position change and it is determined that the change exceeds the threshold (NO), the control branches to step S109. At this time, the approximate plane calculated again can be recorded for comparison after the next time. In this case, focus adjustment is performed in step S109, correction calculation processing is performed again in step S110, and in step S111, the projection image is corrected based on the updated correction data. As a result, it is possible to appropriately correct following the change in position of the projection object.

以下、図4〜図18を参照しながら、上述したステップS105の測距処理、ステップS107の対象形状指定処理、ステップS114の対象形状探索処理、ステップS108,S115の平面推定処理、およびステップS110補正計算処理のそれぞれについて詳細を説明する。   Hereinafter, with reference to FIG. 4 to FIG. 18, the distance measurement process in step S105 described above, the target shape designation process in step S107, the target shape search process in step S114, the plane estimation process in steps S108 and S115, and the correction in step S110 Details of each of the calculation processes will be described.

[測距処理]
まず、図4および図5を参照しながら、本実施形態における測距処理の詳細を説明する。図4は、第1の実施形態において測距部106が実行する、測距処理を示すフローチャートである。図5は、本実施形態によるステレオ画像間のステレオ対応点の探索処理を説明する図である。
[Distance processing]
First, the details of the distance measurement process in the present embodiment will be described with reference to FIGS. 4 and 5. FIG. 4 is a flowchart showing the distance measuring process executed by the distance measuring unit 106 in the first embodiment. FIG. 5 is a diagram illustrating a process for searching for stereo corresponding points between stereo images according to the present embodiment.

上述したように、本実施形態において測距部106は、各ステレオ画像から特徴点を抽出し、ステレオ画像間で対応付けがなされた特徴点をステレオ対応点として用いる。ステレオ画像間のステレオ対応点の探索手法は種々あるが、好適な実施形態では、投影しているコンテンツ画像から抽出された特徴点と、このコンテンツ画像の少なくとも一部を写して撮像された各ステレオ画像の特徴点との対応付けを経由させることによって行うことができる。図4は、このようなコンテンツ画像および左右ステレオ画像の特徴点の対応付けを行って、ステレオ対応点を求め、その3次元座標を計算する処理を示している。   As described above, in the present embodiment, the distance measurement unit 106 extracts feature points from each stereo image, and uses the feature points associated with each other as stereo correspondence points. There are various methods of searching for stereo correspondence points between stereo images. In a preferred embodiment, each stereo imaged by capturing at least a part of a feature point extracted from the projected content image and the content image is provided. This can be done through the association with the feature points of the image. FIG. 4 shows a process of calculating the three-dimensional coordinates by obtaining the stereo correspondence points by associating the feature points of the content image and the left and right stereo images.

図4に示す処理は、図3におけるステップS105の呼び出しに応答して、ステップS200から開始される。測距部106は、ステップS201で、撮像部104からステレオ画像データを取得し、ステップS202で、投影するコンテンツ画像データを取得する。以下、ステレオ画像のうち、基準カメラ(右カメラ)で撮像された右ステレオ画像をIで参照し、参照カメラ(左カメラ)で撮像された左ステレオ画像をIで参照し、コンテンツ画像をIで参照する。 The process shown in FIG. 4 is started from step S200 in response to the call of step S105 in FIG. The ranging unit 106 acquires stereo image data from the imaging unit 104 in step S201, and acquires content image data to be projected in step S202. Hereinafter, among the stereo image, a right stereo image captured by the reference camera (right camera) referred to by I R, a left stereo image captured by the reference camera (left camera) referred to by I L, the content image I referred to in the I C.

ステップS203では、測距部106は、コンテンツ画像Iおよびステレオ画像I,I各々から特徴点を抽出する。特徴点の抽出は、好適な実施形態では、SIFT(Scale-Invariant Feature Transform)と呼ばれるアルゴリズムを適用して行うことができる。SIFTは、画像から特徴点を検出し、検出した特徴点に対して、画像の回転、スケール変化、照明変化などに不変な特徴量を記述するアルゴリズムである。アルゴリズムについて概略を説明すると、アルゴリズムでは、まず、DoG(Difference of Gaussian)処理により、スケールスペースで極値探索を行い、特徴点の候補の位置およびスケールを決定する。検出された特徴点の候補点のうち、コントラストが小さい点やエッジ上の点などノイズ等の影響を受けやすく特徴点として向かない点を除去する。そして、回転に不変な特徴を記述するべく特徴点のオリエンテーションを求め、この求められたオリエンテーションに基づき特徴量を記述する。 In step S203, the distance measuring unit 106 extracts feature points from each of the content image I C and the stereo images I R and I L. In the preferred embodiment, feature points can be extracted by applying an algorithm called SIFT (Scale-Invariant Feature Transform). SIFT is an algorithm that detects a feature point from an image and describes a feature quantity that is invariant to rotation, scale change, illumination change, etc. of the detected feature point. An outline of the algorithm will be described. In the algorithm, first, an extreme value search is performed in a scale space by DoG (Difference of Gaussian) processing, and the position and scale of candidate feature points are determined. Among the detected feature point candidate points, points that are easily affected by noise or the like, such as points with low contrast and points on the edge, are removed. Then, the orientation of the feature point is obtained so as to describe the feature that is invariant to the rotation, and the feature amount is described based on the obtained orientation.

ここで、コンテンツ画像Iから抽出されたN個の特徴点群をV={v |i=1,…,N}で表し、右ステレオ画像Iから抽出されたN個の特徴点群をV={v |i=1,…,N}で表し、左ステレオ画像Iから抽出されたN個の特徴点群をV={v |i=1,…N}で表す。各特徴点に対しては、各画像内における位置座標と、所定数の特徴量の要素からなる特徴ベクトルが求められる。標準的なSIFTアルゴリズムでは、特徴量の記述において、特徴点を中心に、決定されたスケールを半径とした円領域を定義し、この周辺領域を4×4ブロックに分割し、ブロックごとに8方向の勾配ヒストグラムが計算される。このため、特徴量ベクトルは、128次元のベクトルとなる。 Here, V C = a N C-number of feature point group extracted from the content image I C {v i C | i = 1, ..., N C} expressed in, N R extracted from right stereo image I R The feature point groups are represented by V R = {v i R | i = 1,..., N R }, and the N L feature point groups extracted from the left stereo image I L are represented by V L = {v i L | I = 1,... N L } For each feature point, a feature vector including position coordinates in each image and a predetermined number of feature amount elements is obtained. In the standard SIFT algorithm, in the description of the feature amount, a circular region is defined with the determined scale as the radius around the feature point, this peripheral region is divided into 4 × 4 blocks, and each direction has 8 directions. The slope histogram of is calculated. For this reason, the feature vector is a 128-dimensional vector.

ステップS204〜ステップS213のループでは、各ステレオ画像I,I毎に処理が行われる。ステップS205〜ステップS212のループでは、所定のステレオ画像IまたはIについて、コンテンツ画像Iの各特徴点v (i=1,…,N)と対応関係を形成する特徴点vj* またはvj* が求められる。以下、右ステレオ画像に対する処理を代表して説明する。ステップS206〜ステップS208のループにおいて、測距部106は、ステップS207で、所定のステレオ画像Iから抽出された各特徴点v (j=1,…,N)について、コンテンツ画像Iのi番目の特徴点v との特徴点間距離d(v ,v )を計算する。ここで、vi,k 、vj,k を、それぞれ特徴点v 、v の特徴量ベクトルにおけるk番目の要素とすると、特徴点間距離dは、下記式(1)により算出することができる。 The loop of steps S204~ step S213, each stereo image I L, the processing for each I R is performed. In the loop from step S205 to step S212, a feature point v that forms a corresponding relationship with each feature point v i C (i = 1,..., N C ) of the content image I C for a predetermined stereo image I R or I L. j * R or v j * L is determined. Hereinafter, processing for the right stereo image will be described as a representative. In the loop of steps S206~ step S208, the distance measuring unit 106, in step S207, the feature points extracted from a given stereo images I R v j R (j = 1, ..., N R) for a content image I The distance d (v i C , v j R ) between the feature points of C with the i-th feature point v i C is calculated. Here, assuming that v i, k C , v j, k R are the k-th elements in the feature quantity vectors of the feature points v i C , v j R , respectively, the distance d between the feature points is expressed by the following equation (1). Can be calculated.

ステップS209では、測距部106は、ステップS206〜ステップS208で計算されたすべての特徴点間距離d(v ,v )(j=1,…,N)のうちから、下記式(2)により、最小の距離を有するステレオ画像Iの特徴点vj* との特徴点間距離d(v ,vj* )を計算する。「j*」は、下記式(2)で特徴点間距離を最小化する特徴点を識別する。 In step S209, the distance measuring unit 106, step S206~ step S208 all distances between the feature points d calculated in (v i C, v j R ) (j = 1, ..., N R) from among the following The distance d (v i C , v j * R ) between the feature points with the feature point v j * R of the stereo image I R having the minimum distance is calculated by Expression (2). “J *” identifies a feature point that minimizes the distance between feature points by the following equation (2).

ステップS210では、測距部106は、計算された特徴点間距離d(v ,vj* )が、所定の閾値(T)未満であるか否かを判定する。ステップS210で、所定の閾値未満であると判定された場合(YES)は、ステップS211で、最小かつ閾値T未満の距離を有するステレオ画像Iの特徴点vj* を、対応点ペア<v ,v >として登録する。 In step S210, the distance measuring unit 106, the calculated distances between the feature points d (v i C, v j * R) is equal to or less than a predetermined threshold value (T). In step S210, if it is determined to be less than the predetermined threshold (YES), in step S211, the feature point v j * R of the stereo image I R having a smallest and a distance less than the threshold T, the corresponding point pairs < v i C and v i R > are registered.

コンテンツ画像Iの各特徴点と、右および左のステレオ画像I,Iそれぞれの各特徴点との対応付けが両方完了すると、ポイントAを介して、ステップS214へ処理が進められる。図5は、コンテンツ画像Iの特徴点を経由した、右左ステレオ画像I,Iの特徴点の対応付けを説明している。図5に示すように、コンテンツ画像の特徴点v に対し対応ペアとして登録された特徴点vj* および特徴点vj* の両方が存在するとき、この特徴点vj* および特徴点vj* は、ステレオ対応点として検出される。ステップS214〜ステップS218のループでは、コンテンツ画像のi番目の特徴点v について、左右のステレオ画像の両方の対応点ペアの取得を試みて(ステップS215)、両方が見出されるか否かを判定し(ステップS216)、両方の対応点ペアが見出された場合(ステップS216でYES)に、k番目のステレオ対応点<v ,v ,>として登録する。 And each feature point of the content image I C, right and left stereo images I R, when the correspondence between the feature points of the respective I L is both complete, through the point A, the process proceeds to step S214. Figure 5 is passed through the characteristic points of the content image I C, right and left stereo images I R, describes the correspondence between feature points of I L. As shown in FIG. 5, when there are both a feature point v j * R and a feature point v j * L registered as a corresponding pair for the feature point v i C of the content image, this feature point v j * R And the feature point v j * L is detected as a stereo corresponding point. In the loop from step S214 to step S218, for the i-th feature point v i C of the content image, an attempt is made to acquire both corresponding point pairs of the left and right stereo images (step S215), and whether or not both are found is determined. When the determination is made (step S216) and both corresponding point pairs are found (YES in step S216), they are registered as k-th stereo corresponding points <v k R , v k L ,>.

続いてステップS219〜ステップS221のループでは、測距部106は、対応付けがとれたN個のステレオ対応点<v ,v ,>に対し、視差に基づき実3次元空間における座標点p を算出する。 The subsequently loop of steps S219~ step S221, the distance measuring section 106, correspondence is balanced the N S stereo correspondence point <v k R, v k L ,> respect, in the real three-dimensional space based on the parallax A coordinate point p k S is calculated.

ここで、基準カメラのステレオ画像上にあるステレオ対応点の座標をm=(x,y)とし、参照カメラのステレオ画像上にあるステレオ対応点の座標をm=(x,y)とし、このステレオ対応点に対応する実3次元空間中の3次元点をp=(X,Y,Z)で表す。この場合、3次元点pは、基準カメラを基準として、下記式(3)〜(5)で計算することができる。なお、上述したようにカメラは、平行等位に配置されるため、y=yが前提となる。下記式中、x−xは、水平方向の視差を表し、Bは、左右カメラ間の距離に相当する基線長を表し、fは、左右のカメラの同一の焦点距離を表す。 Here, the coordinates of the stereo corresponding points on the stereo image of the reference camera are m R = (x R , y R ), and the coordinates of the stereo corresponding points on the stereo image of the reference camera are m L = (x L , and y L), representing a three-dimensional point in the real three-dimensional space corresponding to the stereo point p = (X, Y, with Z). In this case, the three-dimensional point p can be calculated by the following equations (3) to (5) using the reference camera as a reference. As described above, since the cameras are arranged in parallel equiposition, y R = y L is assumed. In the following formula, x L -x R represents the parallax in the horizontal direction, B represents the baseline length corresponding to the distance between the left and right cameras, and f represents the same focal length of the left and right cameras.

ステップS222では、測距部106は、N個のステレオ対応点<v ,v >について、その画像上の特徴点の座標m ,m および対応する3次元点p (k=1,…,N)をセットで測距データとして記録し、ステップS223で、本処理を終了し、図3に示した元の処理に戻す。 In step S222, the distance measuring section 106, N S number of stereo corresponding points <v k R, v k L > for the coordinate m k R of the characteristic points on the image, m k L and the corresponding three-dimensional points to p k S (k = 1,..., N S ) is recorded as distance measurement data as a set, and in step S223, this process is terminated and the process returns to the original process shown in FIG.

なお、上述では、好適な実施形態として、コンテンツ画像の特徴点およびステレオ画像各々の特徴点との対応付けに基づいて、ステレオ画像間におけるステレオ対応点を探索し、対応点各々の画像間の視差に基づき、その3次元座標を計算するものとして説明した。この好適な実施形態は、演算の高速性および精度の点で優れている。しかしながら、ステレオ対応点の探索方法は、他の実施形態では、少なくとも一部の対応点について、コンテンツ画像の特徴点を経由させず、ステレオ画像の特徴点間の特徴点間距離に基づいて、直接対応付けをおこなってもよい。また、SIFTによる特徴ベクトルを用いずに、ステレオ画像を構成する画素ブロックを直接テンプレート・マッチングなどによって比較して対応付けてステレオ対応点を探索してもよい。   In the above description, as a preferred embodiment, the stereo correspondence points between the stereo images are searched based on the correspondence between the feature points of the content image and the feature points of the stereo images, and the parallax between the images of the corresponding points. Based on the above description, it is assumed that the three-dimensional coordinates are calculated. This preferred embodiment is excellent in terms of high-speed operation and accuracy. However, in another embodiment, a method for searching for stereo correspondence points is not directly performed on the basis of the distance between feature points between the feature points of the stereo image without passing through the feature points of the content image for at least some of the correspondence points. Correlation may be performed. In addition, instead of using a feature vector by SIFT, a pixel correspondence point may be searched by directly comparing and associating pixel blocks constituting a stereo image by template matching or the like.

さらに、説明する実施形態では、測距方式として、基線長が定義された2つの異なる視点からの撮像画像を用いる、いわゆるステレオ画像方式を採用している。しかしながら、他の実施形態では、3以上の異なる視点からの撮像画像を用いてもよく、ステレオ画像方式における1つの撮像画像を、プロジェクタ等の投影装置からの投影画像に置き換えたアクティブステレオ方式としてもよい。   Further, in the embodiment to be described, a so-called stereo image method is used as a distance measurement method, in which captured images from two different viewpoints with defined base line lengths are used. However, in other embodiments, captured images from three or more different viewpoints may be used, and an active stereo system in which one captured image in a stereo image system is replaced with a projected image from a projection device such as a projector may be used. Good.

[対象形状指定処理]
以下、図6〜図8を参照しながら、本実施形態における対象形状指定処理の詳細について説明する。図6は、第1の実施形態による対象形状指定部108が実行する、対象形状指定処理を示すフローチャートである。図7は、測距部106によって計算されたシーンの3次元点群を模式的に表す図である。図8は、第1の実施形態において、シーンの3次元点群から、所望の投影対象の3次元形状を指定する方法を説明する図である。
[Target shape specification processing]
Hereinafter, the details of the target shape designation processing in the present embodiment will be described with reference to FIGS. FIG. 6 is a flowchart showing the target shape designation process executed by the target shape designation unit 108 according to the first embodiment. FIG. 7 is a diagram schematically illustrating a three-dimensional point group of a scene calculated by the distance measuring unit 106. FIG. 8 is a diagram for explaining a method for designating a desired three-dimensional shape of a projection target from a three-dimensional point group of a scene in the first embodiment.

図6に示す処理は、図3におけるステップS107で呼び出されて、ステップS300から開始される。ステップS301では、対象形状指定部108は、測距部106が出力する測距データを読み出し、測距データから3次元点群P{p |k=1,…,N}および、たとえばその右ステレオ画像上の特徴点の座標m を取得する。 The process shown in FIG. 6 is called at step S107 in FIG. 3 and starts from step S300. In step S301, the target shape designation unit 108 reads out the distance measurement data output from the distance measurement unit 106, and from the distance measurement data, the three-dimensional point group P S {p k S | k = 1,..., N S } and For example, the coordinate m k R of the feature point on the right stereo image is acquired.

図7(A)および(B)は、初回校正時の投影画像を撮像したシーンに基づき復元された3次元点群Pを図示し、図7(A)は、その正面図を示し、図7(B)は、その上面図を示す。図7においては、シーンの3次元点群Pは、その奥行き(Z座標)に応じて「○」、「△」および「×」の記号で便宜上表現されている。「○」は、中間に位置するスクリーンに対応した点群154であり、「×」は、スクリーンの奥の背景に対応した点群150,152であり、「△」は、スクリーンの手前の登壇者に対応した点群156である。 Figure 7 (A) and (B), illustrate 3D point group P S restored based projection images of the first time calibration scene captured, FIG. 7 (A) shows a front view thereof, FIG. 7 (B) shows a top view thereof. In Figure 7, the three-dimensional point group P S scene, "○" in accordance with the depth (Z-coordinate), which is conveniently expressed by symbol "△" and "×". “◯” is a point group 154 corresponding to the screen located in the middle, “×” is point groups 150 and 152 corresponding to the background at the back of the screen, and “Δ” is the platform in front of the screen A point group 156 corresponding to the person.

ステップS302では、対象形状指定部108は、ディスプレイなどの表示装置に、投影対象の形状を選択するためのユーザ・インタフェース(UI)を表示させる。UIは、説明する実施形態では、図8(B)に示すようなカメラ画像(例えば右カメラで撮像された画像)を表示し、この画像に対する画像領域162の指定を受け付けるよう構成される。画像領域の指定方法としては、図8(B)に示すようにマウス操作によって選択矩形を画定したり、タッチパネル操作により所望の画像領域を塗りつぶしたりすることによって行われる。また、上記UIにおいては、ユーザが特徴点を識別しやすいように、特徴点を可視化し、カメラ画像に重ねて表示してもよい。   In step S302, the target shape designating unit 108 causes a display device such as a display to display a user interface (UI) for selecting a shape to be projected. In the embodiment to be described, the UI is configured to display a camera image (for example, an image captured by the right camera) as shown in FIG. 8B and accept designation of an image area 162 for this image. As a method for specifying an image area, as shown in FIG. 8B, a selection rectangle is defined by a mouse operation, or a desired image area is filled by a touch panel operation. In the UI, the feature points may be visualized and superimposed on the camera image so that the user can easily identify the feature points.

また、投影対象物の指定方法としては、上述した画像領域の指定に限定されない。他の実施形態では、画像領域162の指定に代えて、図8(C)で示すように、表示されたクラスタ172A〜172Dの中から投影対象物の3次元形状に構成するクラスタ172Aの指定を受け付けることとしてもよい。上記クラスタは、シーンの3次元点群Pを座標に基づいてクラスタリングし、構成される。 Further, the method of specifying the projection object is not limited to the above-described image area specification. In another embodiment, instead of designating the image area 162, as shown in FIG. 8C, designation of the cluster 172A configured to the three-dimensional shape of the projection object from the displayed clusters 172A to 172D is performed. It may be accepted. Said cluster, clustering based on the 3D point group P S of the scene to the coordinates, and.

ステップS303では、ユーザによる指定を受領したか否かを判定し、指定を受け付けるまで、ステップS303をループさせる。ステップS304では、対象領域指定部108は、UI上で選択された画像領域に含まれる3次元点群P{p |k=1,…,N}を算出する。上述したように、3次元点p に対応して右カメラ画像上の座標点m が取得されている。したがって、図8(A)に示すように、シーン全体の3次元点群Pのうちの、指定画像領域内に座標点m が包含される一部の3次元点群p が特定される。ステップS305では、対象形状指定部108は、取得された3次元点群P{p |k=1,…,N}を、対象3次元形状を構成する対象3次元点群として記録し、ステップS306で、本処理を終了し、図3に示した元の処理に戻す。 In step S303, it is determined whether or not designation by the user has been received, and step S303 is looped until designation is accepted. In step S304, the target area designating unit 108 calculates a three-dimensional point group P O {p k O | k = 1,..., N O } included in the image area selected on the UI. As described above, the coordinate point m k R on the right camera image is acquired corresponding to the three-dimensional point p k S. Accordingly, as shown in FIG. 8 (A), of the 3D point group P S of the entire scene, the coordinate point m k 3D point group of some of R are included p k O the designated image region is Identified. In step S305, the target shape specifying unit 108 records the acquired three-dimensional point group P O {p k O | k = 1,..., N O } as a target three-dimensional point group constituting the target three-dimensional shape. In step S306, the process ends and returns to the original process shown in FIG.

[対象形状探索処理]
以下、図9および図10を参照しながら、本実施形態における対象形状探索処理の詳細について説明する。図9は、第1の実施形態による対象形状探索部110が実行する、対象形状探索処理を示すフローチャートである。図10は、投影対象物の対象3次元形状に対応した対象3次元点群を、シーン中の3次元点群の中から探索する処理を説明する図である。
[Target shape search processing]
The details of the target shape search process in the present embodiment will be described below with reference to FIGS. 9 and 10. FIG. 9 is a flowchart illustrating target shape search processing executed by the target shape search unit 110 according to the first embodiment. FIG. 10 is a diagram illustrating a process of searching for a target 3D point group corresponding to the target 3D shape of the projection target object from the 3D point group in the scene.

図10に示すように、対象形状探索部110は、2回目以降の校正時のシーン中において、初回校正時に指定された対象3次元形状にマッチする対象3次元点群の探索を行う。対象3次元点群の探索は、好適な実施形態では、指定された対象3次元形状をテンプレートとした、最小二乗マッチングにより行うことができる。最小二乗マッチングの数値解法としては、ガウス−ニュートン法、最急降下法、レーベンバーグ−マーカート法など挙げることができる。なお、以下説明する実施形態では、非線形最小二乗問題の有効な解法であるレーベンバーグ−マーカート法を一例に説明する。   As shown in FIG. 10, the target shape search unit 110 searches for a target three-dimensional point group that matches the target three-dimensional shape specified at the first calibration in the second and subsequent calibration scenes. In the preferred embodiment, the search for the target three-dimensional point group can be performed by least square matching using the specified target three-dimensional shape as a template. As a numerical solution method of least square matching, Gauss-Newton method, steepest descent method, Levenberg-Markert method, and the like can be given. In the embodiment described below, the Levenberg-Marquardt method, which is an effective solution for the nonlinear least squares problem, will be described as an example.

図9に示す処理は、図3におけるステップS114で呼び出されて、ステップS400から開始される。対象形状探索部110は、ステップS401で、測距部106が出力する測距データを取得し、ステップS402で、測距データからシーンの3次元点群P{p |k=1,…,N}を取得し、ステップS403で、対象形状の3次元点群P{p |k=1,…,N}を取得する。 The process shown in FIG. 9 is called at step S114 in FIG. 3 and starts from step S400. In step S401, the target shape search unit 110 acquires distance measurement data output from the distance measurement unit 106, and in step S402, the three-dimensional point group P S {p k S | k = 1 of the scene from the distance measurement data. ..., acquires the N S}, in step S403, 3-D point cloud object shape P O {p k O | k = 1, ..., acquires N O}.

ステップS404では、対象形状探索部110は、取得したシーンの3次元点群Pから、シーンの3次元形状を近似するシーン近似曲面を推定するとともに、取得した投影対象の対象3次元点群Pから、該対象形状を近似する対象形状近似曲面を推定する。シーン近似曲面および対象形状近似曲面の推定方法は、特に限定されるものではないが、3次元点群Pおよび3次元点群Pの各座標点をそれぞれ標本点とした、最小二乗法による曲面フィッティングなどにより計算することができる。なお、近似曲面の表現方法任意であり、多項式曲面、ペジエ曲面、スプライン曲面など任意の表現形式を採用することができる。ここでは、シーン近似曲面をZ=I(X,Y)で表し、対象形状近似曲面をZ=T(X,Y)で表す。測距処理による3次元座標には誤差が存在するため、このように近似曲面を推定することにより、良好にマッチングを行うことが可能となる。 In step S404, object shape searching unit 110, the 3D point group P S of the acquired scene, with estimates the scene approximated surface that approximates the three-dimensional shape of a scene, the three-dimensional point cloud object acquired projection target P A target shape approximate curved surface that approximates the target shape is estimated from O. Method of estimating the scene approximated surface and object shape approximated surface include, but are not limited to, three-dimensional point group P S and 3D point group P O each coordinate point of the sample points, respectively, by the least square method It can be calculated by curved surface fitting. Note that the method of expressing the approximate curved surface is arbitrary, and an arbitrary expression format such as a polynomial curved surface, a Pezier curved surface, or a spline curved surface can be adopted. Here, the scene approximate curved surface is represented by Z = I (X, Y), and the target shape approximate curved surface is represented by Z = T (X, Y). Since there is an error in the three-dimensional coordinates obtained by the distance measurement processing, it is possible to perform good matching by estimating the approximate curved surface in this way.

ステップS405〜ステップS408では、レーベンバーグ−マーカート法に基づく反復計算により、対象形状近似曲面Z=T(X,Y)をシーン近似曲面Z=I(X,Y)における部分領域と照合し、その誤差が小さくなる方向にパラメータの改良を繰り返し、最終的な解を得る。レーベンバーグ−マーカート法は、下記式(6)により表現することができる。   In steps S405 to S408, the target shape approximated curved surface Z = T (X, Y) is collated with a partial region in the scene approximated curved surface Z = I (X, Y) by iterative calculation based on the Levenberg-Markert method. The parameter improvement is repeated in the direction in which the error decreases, and a final solution is obtained. The Levenberg-Markert method can be expressed by the following formula (6).

式中、χ={χ,…,χ}は、求めるべき未知のパラメータのセットを表し、テンプレートである対象近似曲面を、並進、変形および回転などの幾何変形を含めてシーン近似曲面の部分領域に対応付ける関数fのパラメータである。上記式(6)中、行列J(χ)は、ヤコビ行列であり、下記式(7)で表され、上記関数fの所定のパラメータχに関する勾配を表す行ベクトルから構成される。上記式中e(χ)は、所定のパラメータχにおいて、対象近似曲面T(X,Y)と、シーン近似曲面の対応付けられる部分領域f(I(X,Y),χ)との残差二乗和であり、小さい方がマッチングの程度が高く、すなわち最小化すべき評価関数である。λは、減衰パラメータであり、各反復処理毎に変更され得る。Iは、単位行列である。Δχは、反復処理における、パラメータχの補正量を表す。 In the equation, χ = {χ 1 ,..., Χ n } represents a set of unknown parameters to be obtained, and the target approximate curved surface that is a template includes the geometrical deformation such as translation, deformation, and rotation. This is a parameter of the function f associated with the partial area. In the above equation (6), the matrix J (χ) is a Jacobian matrix, is represented by the following equation (7), and is composed of a row vector representing the gradient with respect to the predetermined parameter χ of the function f. In the above equation, e (χ) is a residual between the target approximate curved surface T (X, Y) and the partial region f (I (X, Y), χ) associated with the scene approximated curved surface with a predetermined parameter χ. The smaller the sum of squares, the higher the degree of matching, that is, the evaluation function to be minimized. λ is an attenuation parameter and can be changed for each iteration. I is a unit matrix. Δχ represents the correction amount of the parameter χ in the iterative process.

ステップS405では、対象形状探索部110は、まず、未知パラメータの初期値χを設定する。ステップS406では、対象形状探索部110は、所与のパラメータχ(ここで、tは、反復回数を表し、初回は0である。)において、対象近似曲面をテンプレートとして、シーン近似曲面の部分領域と照合し、その誤差が小さくなるようなパラメータの補正量Δχを算出する。上記レーベンバーグ−マーカート法において、上記式(7)のヤコビ行列J(χ)が計算されると、上記式(6)からパラメータの補正量Δχを求めることができる。補正量Δχは、パラメータ空間において、誤差e(χ)を減少させる改良方向を示す。ステップS407では、未知パラメータχを、Δχだけ改良し、更新された未知パラメータχt+1を得る。ステップS408では、これまでの反復演算により、所定の収束条件が成立したか否かを判定する。収束条件は、例えば、誤差e(χ)が所定閾値以下となったこと、誤差e(χ)の変化量が所定閾値以下となったこと、またはパラメータ補正量Δχが閾値以下となったことを条件とすることができる。 In step S405, the target shape search unit 110 first sets an initial value χ 0 of an unknown parameter. In step S406, the target shape search unit 110 uses a target approximate curved surface as a template for a given parameter χ t (where t represents the number of iterations and is zero for the first time), and a portion of the scene approximate curved surface. A parameter correction amount Δχ is calculated so as to reduce the error by collating with the region. In the Levenberg-Markert method, when the Jacobian matrix J (χ) of the equation (7) is calculated, the parameter correction amount Δχ can be obtained from the equation (6). The correction amount Δχ indicates an improvement direction for reducing the error e (χ) in the parameter space. In step S407, the unknown parameter χ t is improved by Δχ to obtain an updated unknown parameter χ t + 1 . In step S408, it is determined whether or not a predetermined convergence condition is satisfied by the repeated calculation so far. The convergence condition is, for example, that the error e (χ) is less than or equal to a predetermined threshold, the change amount of the error e (χ) is less than or equal to the predetermined threshold, or the parameter correction amount Δχ is less than or equal to the threshold. It can be a condition.

ステップS408で、収束条件が成立していないと判定された場合(NO)は、ステップS406へループさせて、反復改良処理を繰り返す。ステップS408で、収束条件が成立したと判定された場合(YES)は、ステップS409へ処理を進める。図10に示すように、反復演算によってシーン中の部分領域とのマッチングを行い、最終的に得られたパラメータの解χから、シーン近似曲面中の対象形状近似曲面に対応する部分領域が特定される。ステップS409では、対象形状探索部110は、得られたパラメータχに基づき、当該シーン中の3次元点群Pの中から、対象形状に対応する対象3次元点群P’{p ’|k=1,…,NS’}を抽出し、ステップS410で、本処理を終了し、図3に示した元の処理に戻す。 If it is determined in step S408 that the convergence condition is not satisfied (NO), the process loops to step S406 and the iterative improvement process is repeated. If it is determined in step S408 that the convergence condition is satisfied (YES), the process proceeds to step S409. As shown in FIG. 10, matching with a partial area in the scene is performed by iterative calculation, and a partial area corresponding to the target shape approximate curved surface in the scene approximated curved surface is specified from the finally obtained parameter solution χ t Is done. At step S409, the object shape searching unit 110, based on the obtained parameter chi t, the out of the three-dimensional point group P S in the scene, the three-dimensional point group object corresponding to the target shape P S '{p k S ′ | k = 1,..., N S ′ } is extracted, and in step S410, the present process is terminated and the process returns to the original process shown in FIG.

なお、上述した実施形態では、テンプレートとする投影対象物の対象3次元形状(対象3次元点群)は、初回校正時に指定されたものを固定的に用いるものとして説明した。しかしながら、他の実施形態では、対象形状探索部110は、ある時点においてマッチングによって特定された対象3次元形状を、その後行われる校正時のテンプレートとして用いることもできる。この実施形態は、テンプレートとなる形状が最新のものに逐次更新されるため、例えば、カーテンなど、位置や形状が連続的に変化する投影対象物に対して良好に追従することが可能となる。   In the above-described embodiment, the target three-dimensional shape (target three-dimensional point group) of the projection target object used as the template has been described as being fixedly used in the first calibration. However, in another embodiment, the target shape search unit 110 can also use a target three-dimensional shape specified by matching at a certain time as a template for subsequent calibration. In this embodiment, since the shape as a template is sequentially updated to the latest one, for example, it is possible to satisfactorily follow a projection object whose position and shape change continuously, such as a curtain.

[平面推定処理]
以下、図11および図13を参照しながら、本実施形態における平面推定処理の詳細について説明する。図11は、第1の実施形態による平面推定部112が実行する、平面推定処理を示すフローチャートである。図13は、投影対象物の対象3次元形状を近似する近似平面および近似平面の法線方向に位置する法線カメラの関係を説明する図である。
[Plane estimation processing]
Hereinafter, the details of the plane estimation process in the present embodiment will be described with reference to FIGS. 11 and 13. FIG. 11 is a flowchart illustrating the plane estimation process executed by the plane estimation unit 112 according to the first embodiment. FIG. 13 is a diagram for explaining the relationship between the approximate plane that approximates the target three-dimensional shape of the projection target and the normal camera that is positioned in the normal direction of the approximate plane.

図11に示す処理は、図3におけるステップS108およびステップS115で呼び出されて、ステップS500から開始される。ステップS501では、平面推定部112は、対象形状探索部110が出力する対象形状3次元データから、当該シーンにおける投影対象物に対応する対象3次元点群P’{p ’|k=1,…,NS’}を取得する。ステップS502では、平面推定部112は、取得した対象形状の3次元点群PS’から、回帰平面Z=R(X,Y)を算出する。回帰平面は、下記式(8)により表され、3次元点群PS’の座標値の数値組を用いて最小二乗法により、係数a,b,cを求めることができる。なお、下記式(8)のような近似関数を用いた最小二乗法は、正規方程式による解法が周知であるので、ここでは、詳細な説明は割愛する。 The process shown in FIG. 11 is called at step S108 and step S115 in FIG. 3, and starts from step S500. In step S501, the plane estimation unit 112 uses the target 3D point group P S ′ {p k S ′ | k = corresponding to the projection target in the scene from the target shape 3D data output by the target shape search unit 110. 1,..., NS } are acquired. In step S502, the plane estimation unit 112 calculates a regression plane Z = R (X, Y) from the acquired three-dimensional point group PS ′ of the target shape. The regression plane is represented by the following equation (8), and the coefficients a, b, and c can be obtained by the least square method using a numerical set of coordinate values of the three-dimensional point group PS . In addition, since the least square method using an approximation function like the following formula (8) is well known as a solution method using a normal equation, a detailed description is omitted here.

ステップS502で算出された回帰平面をそのまま投影対象の近似平面としてもよいが、説明する実施形態では、ステップS503〜ステップS506により、回帰平面から大きくはずれる3次元点p S’を回帰平面の計算から除外しながら、回帰平面を改良する。ステップS503では、平面推定部112は、3次元点p ’の回帰平面からの距離を計算し、最も離れた3次元点p S’を抽出する。ステップS504では、平面推定部112は、上記距離が閾値以下であるか否かを判定し、閾値を超えている場合(NO)は、その最も離れた3次元点を除外し、ステップS502へループさせ、再度回帰平面を計算する。 Although the regression plane calculated in step S502 may be used as an approximate plane to be projected as it is, in the embodiment to be described, the three-dimensional point p i S ′ greatly deviating from the regression plane is calculated in steps S503 to S506. Improve regression plane while excluding from. In step S503, the plane estimation unit 112 calculates the distance of the three-dimensional point p k S ′ from the regression plane and extracts the most distant three-dimensional point p i S ′ . In step S504, the plane estimation unit 112 determines whether or not the distance is equal to or smaller than the threshold value. If the distance exceeds the threshold value (NO), the farthest three-dimensional point is excluded, and the process loops to step S502. And calculate the regression plane again.

一方、ステップS504で、距離が閾値以下であると判定された場合(NO)は、ステップS506へ処理を分岐させる。ステップS506では、平面推定部112は、現在の回帰平面が、投影対象に対応する3次元形状を近似する近似平面であるとして、上記式(8)の係数a,b,c、対象3次元形状の重心Gを記録し、ステップS507で、本処理を終了し、図3に示した元の処理に戻す。図13には、対象3次元形状として抽出された対象3次元点群PS’と近似平面Z=R(X,Y)と、重心Gとの関係が表されている。 On the other hand, if it is determined in step S504 that the distance is equal to or smaller than the threshold (NO), the process branches to step S506. In step S506, the plane estimation unit 112 assumes that the current regression plane is an approximate plane that approximates the three-dimensional shape corresponding to the projection target, the coefficients a, b, and c of the above equation (8), and the target three-dimensional shape. The center of gravity G is recorded, and in step S507, the process is terminated and the process returns to the original process shown in FIG. FIG. 13 shows the relationship between the target three-dimensional point group PS extracted as the target three-dimensional shape, the approximate plane Z = R (X, Y), and the center of gravity G.

[補正計算処理]
以下、図12〜図17を参照しながら、本実施形態における補正計算処理の詳細について説明する。図12は、第1の実施形態による補正計算部116が実行する、補正計算処理を示すフローチャートである。図13は、上述したとおりであり、近似平面の法線方向に位置する仮想的な法線カメラを説明する図である。
[Correction calculation processing]
Hereinafter, the details of the correction calculation processing in the present embodiment will be described with reference to FIGS. FIG. 12 is a flowchart showing a correction calculation process executed by the correction calculation unit 116 according to the first embodiment. FIG. 13 is a diagram for explaining a virtual normal camera that is as described above and is positioned in the normal direction of the approximate plane.

図12に示す処理は、図3に示したステップS110で呼び出されて、ステップS600から開始される。ステップS601では、補正計算部116は、対象形状探索部110から出力される対象形状3次元データを読み出し、当該シーン中の投影対象物の対象3次元点群P’{p ’|k=1,…,NS’}を取得する。ステップS602では、補正計算部116は、平面推定部112から出力される近似平面データを読み出し、近似平面Z=R(X,Y)の係数a,b,cを取得する。 The process shown in FIG. 12 is called in step S110 shown in FIG. 3, and starts from step S600. In step S601, the correction calculation unit 116 reads the target shape three-dimensional data output from the target shape search unit 110, and the target three-dimensional point group P S '{p k S ' | k of the projection target in the scene. = 1,..., NS }. In step S602, the correction calculation unit 116 reads the approximate plane data output from the plane estimation unit 112, and acquires the coefficients a, b, and c of the approximate plane Z = R (X, Y).

ステップS603では、補正計算部116は、実3次元空間上の3次元点を画像上の2次元点に変換する透視投影変換行列Bを算出する。透視投影変換行列Bは、実3次元空間上の3次元点を、近似平面に対し法線方向に位置させた仮想的な法線カメラ130から視た法線カメラ画像上の点に変換するものである。法線カメラ130は、図13に示すように、推定された近似平面Z=R(X,Y)における対象3次元点群P’の重心Gの位置から、その近似平面の法線方向に仮想的に配置されたカメラを意味する。そして、法線カメラ画像とは、この法線カメラの位置から仮想的に撮像した場合の仮想的な画像データである。法線カメラ画像は、色情報が無く、点の幾何変換の過程で使用される。以下、法線カメラ画像をIと参照する。 In step S603, the correction calculation unit 116 calculates a perspective projection transformation matrix B that converts a three-dimensional point on the real three-dimensional space into a two-dimensional point on the image. The perspective projection transformation matrix B converts a three-dimensional point in a real three-dimensional space into a point on a normal camera image viewed from a virtual normal camera 130 positioned in the normal direction with respect to the approximate plane. It is. As shown in FIG. 13, the normal camera 130 moves from the position of the center of gravity G of the target three-dimensional point group P S ′ in the estimated approximate plane Z = R (X, Y) in the normal direction of the approximate plane. This means a virtually placed camera. The normal camera image is virtual image data when the image is virtually captured from the position of the normal camera. Normal camera images have no color information and are used in the process of geometric transformation of points. Hereinafter, the normal camera image is referred to as IV .

透視投影変換行列Bは、下記式(9)で与えられる。下記式中、行列Aは、カメラの光軸座標、焦点距離、レンズの歪みを表す内部パラメータ行列(3×3)である。行列Rは、基準カメラ(右カメラ)104から法線カメラ130までの回転を表す回転行列(3×3)である。ベクトルtは、基準カメラ(右カメラ)104から法線カメラ130までの並進移動ベクトル(3×1)である。   The perspective projection transformation matrix B is given by the following equation (9). In the following formula, the matrix A is an internal parameter matrix (3 × 3) representing the optical axis coordinates of the camera, the focal length, and the distortion of the lens. The matrix R is a rotation matrix (3 × 3) representing the rotation from the reference camera (right camera) 104 to the normal camera 130. The vector t is a translation vector (3 × 1) from the reference camera (right camera) 104 to the normal camera 130.

ステップS604では、補正計算部116は、上記算出された透視投影変換行列Bを用いて、シーンにおける対象3次元点群PS’を法線カメラ画像I上の2次元点群QS’{q ’|k=1,…,NS’}に変換する。図14は、3次元点群を透視投影変換により法線カメラ画像上の2次元点群に変換する処理を説明する図である。図14に示すように、投影対象物180の3次元形状を構成する対象3次元点群PS’は、法線カメラ画像I上の2次元点群QS’に投影され、2次元点群QS’は、法線カメラ画像上での投影対象物の形状182を表す。 In step S604, the correction calculation unit 116 uses the calculated perspective projection transformation matrix B to convert the target three-dimensional point group PS in the scene into the two-dimensional point group Q S ′ {on the normal camera image IV. q k S ′ | k = 1,..., N S ′ }. FIG. 14 is a diagram illustrating a process of converting a three-dimensional point group into a two-dimensional point group on a normal camera image by perspective projection conversion. As shown in FIG. 14, the target three-dimensional point group PS constituting the three-dimensional shape of the projection object 180 is projected onto the two-dimensional point group Q S ′ on the normal camera image IV , and the two-dimensional points are projected. The group QS represents the shape 182 of the projection object on the normal camera image.

ステップS605では、補正計算部116は、得られた法線カメラ画像I上の2次元点群QS’を包み込む凸包多角形184を計算する。図15は、法線カメラ画像上の投影対象物の形状を表す2次元点群から補正矩形を得る処理を説明する図である。この凸包多角形184は、法線カメラ画像I上でスクリーンとみなされる領域を画定する。ステップS606では、補正計算部116は、得られた凸包多角形184に内包され、コンテンツ画像と同一アスペクト比を有する、最大の補正図形を算出する。補正図形は、説明する実施形態では、補正矩形であり、この補正矩形186は、法線カメラ画像I上で、コンテンツ画像が投影される領域を画定する。 In step S605, the correction calculation unit 116 calculates a convex hull polygon 184 that wraps the two-dimensional point group Q S ′ on the obtained normal camera image IV . FIG. 15 is a diagram for explaining processing for obtaining a correction rectangle from a two-dimensional point group representing the shape of the projection target on the normal camera image. This convex hull polygon 184 defines an area considered as a screen on the normal camera image IV . In step S606, the correction calculation unit 116 calculates the maximum corrected graphic that is included in the obtained convex hull polygon 184 and has the same aspect ratio as the content image. The correction figure is a correction rectangle in the embodiment to be described, and the correction rectangle 186 defines an area on the normal camera image IV on which the content image is projected.

なお、説明する実施形態では、投影対象物から投影画像がはみ出さないことを優先し、補正図形は、凸包多角形184に内包される補正矩形としている。しかしながら、凸包多角形184から任意の関係を有する補正図形を求めることができる。他の実施形態では、補正計算部116は、包含関係を変更し、凸包多角形184を内包し、コンテンツ画像と同一アスペクト比を有する、最小の補正矩形を算出してもよい。   In the embodiment to be described, priority is given to the fact that the projection image does not protrude from the projection target, and the correction figure is a correction rectangle included in the convex hull polygon 184. However, a corrected figure having an arbitrary relationship can be obtained from the convex hull polygon 184. In another embodiment, the correction calculation unit 116 may change the inclusion relationship, calculate the minimum correction rectangle that includes the convex hull polygon 184 and has the same aspect ratio as the content image.

ステップS607では、補正計算部116は、すべての2次元点群QS’のうちから、得られた補正矩形(投影対象物186)内に含まれる2次元点群QS’’{q ’’|k=1,…,NS’’}を選択する。図16は、法線カメラ画像I上の2次元点群と、投影するプロジェクタ画像I上の特徴点群との対応関係を説明する図である。セクション[測距処理]で説明した処理と同様に、プロジェクタ画像から特徴点を抽出することができる。そして、上記2次元点q S’’(ステレオ対応点に対応付けることができる。)に関連付けられる特徴量ベクトルと、プロジェクタ画像から抽出された特徴点の特徴点ベクトルとを用いて、図16に示すような対応関係を求めることができる。ステップS608では、補正計算部116は、プロジェクタ画像から、2次元点群q ’’{k=1,…,NS’’}に対応するプロジェクタ画像上の特徴点群q (k=1,…,NS’’)を取得する。 In step S607, the correction calculation unit 116 calculates the two-dimensional point group Q S ″ {q k S included in the correction rectangle (projection object 186) obtained from all the two-dimensional point groups Q S ′. ”| K = 1,..., NS } is selected. Figure 16 is a diagram for explaining a two-dimensional point group on normal camera image I V, a correspondence relationship between the feature points on the projector image I P to be projected. Similar to the processing described in the section [Ranging processing], feature points can be extracted from the projector image. Then, using the feature quantity vector associated with the two-dimensional point q k S ″ (which can be associated with the stereo correspondence point) and the feature point vector of the feature point extracted from the projector image, FIG. Corresponding relationships as shown can be obtained. In step S608, the correction calculation unit 116 determines from the projector image the feature point group q k P (k on the projector image corresponding to the two-dimensional point group q k S ″ {k = 1,..., N S ″ }. = 1,..., N S ″ ).

ステップS609では、補正計算部116は、補正矩形内に含まれる2次元点群QS’’{q ’’|k=1,…,NS’’}およびプロジェクタ画像上の対応する特徴点群Q{q |k=1,…,NS’’}のペアのうちの、4以上の対応点ペアを用いて、法線カメラ画像上の点からプロジェクタ画像上の点へと変換する射影変換行列HVPを計算する。射影変換行列HVPは、法線カメラ画像上の座標をm=(x,y)、プロジェクタ画像上の座標をm=(x,y)とすると、下記式(10)を用いて表される。なお、下記式中h〜hは、未知パラメータである。 In step S609, the correction calculation unit 116 includes the two-dimensional point group Q S ″ {q k S ″ | k = 1,..., N S ″ } included in the correction rectangle and the corresponding feature on the projector image. From a point on the normal camera image to a point on the projector image, using four or more corresponding point pairs of the point group Q P {q k P | k = 1,..., N S ″ }. And a projective transformation matrix HVP to be converted is calculated. The projection transformation matrix H VP is expressed by the following formula (10), where m V = (x V , y V ) on the normal camera image and m P = (x P , y P ) on the projector image. It is expressed using In the following formula, h 1 to h 8 are unknown parameters.

そして、スケール係数で割ることにより、下記式(11)が得られ、上記式(10)中の未知パラメータh〜hが求められれば、法線カメラ画像上の任意の座標点(x,y)について、プロジェクタ画像上の対応する座標点(x,y)が求められることになる。 Then, by dividing by the scale factor, the following equation (11) is obtained, and if the unknown parameters h 1 to h 8 in the equation (10) are obtained, an arbitrary coordinate point (x V on the normal camera image) is obtained. , Y V ), the corresponding coordinate point (x P , y P ) on the projector image is obtained.

法線カメラ画像Iおよびプロジェクタ画像Iにおける対応点ペア1つにつき、最小二乗法における1つの拘束式が得られるので、4以上の対応点ペアがあれば、最小二乗法を適用することにより、上記8つの未知パラメータh〜hが得られる。 Per corresponding point pairs one in the normal camera image I V and projector image I P, since one constraint equation in the least square method is obtained, if there are 4 or more corresponding point pairs, by applying the least square method The eight unknown parameters h 1 to h 8 are obtained.

図17は、射影変換行列HVPおよび射影変換行列HPPによる幾何変換を説明する図である。ステップS610では、補正計算部116は、得られた射影変換行列HVPを用いて、上記得られた補正矩形186の四隅の座標点を変換することにより、プロジェクタ画像上の該補正矩形186の四隅に対応する補正台形188の四隅を計算する。ステップS611では、補正計算部116は、さらに、プロジェクタ画像I上の補正台形188の四隅と、コンテンツ画像Iの四隅との4点を用いて、上述した処理と同様に最小二乗法を適用して、コンテンツ画像上の点からプロジェクタ画像上の点へと変換する射影変換行列HPPを計算する。射影変換行列HPPは、平均的な台形歪みを相殺し、コンテンツ画像を投影画像上に変換された補正図形内に収まるように幾何変換を規定する補正データとなる。 FIG. 17 is a diagram for explaining geometric transformation by the projective transformation matrix HVP and the projective transformation matrix HPP . In step S610, the correction calculation unit 116 converts the four corners of the correction rectangle 186 obtained above using the obtained projective transformation matrix H VP , so that the four corners of the correction rectangle 186 on the projector image are obtained. The four corners of the correction trapezoid 188 corresponding to are calculated. In step S611, the correction calculation unit 116, further, applied with the four corners of the correction trapezoid 188 on the projector image I P, using a 4-point between the corners of the content image I C, the least square method in the same manner as the above-described process Then, a projective transformation matrix HPP for converting from a point on the content image to a point on the projector image is calculated. The projective transformation matrix HPP is correction data that cancels out the average trapezoidal distortion and defines the geometric transformation so that the content image fits within the corrected figure converted on the projected image.

[投影補正処理]
図18は、(A)射影変換行列HPPによるコンテンツ画像の台形補正処理と、(B)補正された実際に投影される投影画像を説明する図である。投影画像補正部118は、補正計算部116から入力された補正データ(射影変換行列HPP)に基づき、入力または生成されたコンテンツ画像に対し幾何変換を適用して台形歪み補正処理を施す。これにより、投影装置から実際に投影させるプロジェクタ画像I’が生成される。射影変換行列HPPにより補正されたプロジェクタ画像I’は、ユーザが指定した任意形状の投影対象物の形状180に収まるように投影され、適切なコンテンツ投影像190が得られるようになる。
[Projection correction processing]
FIG. 18 is a diagram for explaining (A) trapezoidal correction processing of a content image by the projective transformation matrix HPP , and (B) corrected projected image actually projected. Based on the correction data (projection transformation matrix H PP ) input from the correction calculation unit 116, the projection image correction unit 118 applies a geometric transformation to the input or generated content image and performs a trapezoidal distortion correction process. Thus, a projector image I P ′ that is actually projected from the projection device is generated. The projector image I P ′ corrected by the projective transformation matrix H PP is projected so as to be within the shape 180 of the arbitrary-shaped projection target specified by the user, and an appropriate content projection image 190 is obtained.

[第1の実施形態の作用効果]
以上説明した第1の実施形態によれば、利用者が指定した任意形状の投影対象物に対して、投影対象物に合わせた投影画像補正制御を行うことが可能となる。また、上記制御は、所定時間毎に繰り返し行われ、投影対象物の位置関係の変化が認識されて補正データが再計算されることになる。したがって、プロジェクタ100を利用中、プロジェクタ100と投影対象物の位置関係に変化が発生した場合でも、プロジェクタ100の利用を中断することなく、略リアルタイムでその位置変化を検出し、任意形状の投影対象物を認識しつづけ、その物体に補正した投影光を投影しつづけることが可能となる。また、利用者がプレゼン等で使用しているコンテンツ画像を用いて、ステレオ対応点の抽出および3次元座標の計測が可能であるので、利用中に再度補正が必要となった場合でも、プロジェクタ100の利用が妨げられない。
[Operational effects of the first embodiment]
According to the first embodiment described above, it is possible to perform projection image correction control in accordance with a projection target with respect to the projection target having an arbitrary shape designated by the user. Further, the above control is repeatedly performed every predetermined time, and the change in the positional relationship of the projection target is recognized, and the correction data is recalculated. Therefore, even when a change occurs in the positional relationship between the projector 100 and the projection object while using the projector 100, the change in position is detected in substantially real time without interrupting the use of the projector 100, and a projection target having an arbitrary shape is obtained. It becomes possible to continue recognizing an object and project the corrected projection light onto the object. Further, since it is possible to extract stereo-corresponding points and measure three-dimensional coordinates using the content image used by the user in the presentation or the like, even when correction is necessary during use, the projector 100 The use of is not hindered.

図19および図20は、第1の実施形態によるプロジェクタ100の好適な利用態様を例示する。図19は、投影対象物180の回転に追随して投影画像補正をかける利用態様を例示する。図19(A)に示すように、ある時点において、投影画像190OLDは、ユーザが指定した投影対象物180が画定する投影面内に収まるよう投影画像補正がかけられている。ところが、図19(B)に示すように投影対象物が回転すると、投影画像の一部190a,190bが投影対象物からはみ出てしまうことになる。   19 and 20 exemplify preferred usage modes of the projector 100 according to the first embodiment. FIG. 19 illustrates a usage mode in which the projection image correction is performed following the rotation of the projection object 180. As shown in FIG. 19A, at a certain point in time, the projection image 190OLD has been subjected to projection image correction so as to be within the projection plane defined by the projection object 180 designated by the user. However, when the projection object rotates as shown in FIG. 19B, a part of the projection image 190a, 190b protrudes from the projection object.

このとき、そのはみ出た部分の特徴点は、投影対象物の奥行きから大きくはなれてしまう。プロジェクタ100は、投影対象物の対象3次元形状の位置および形状の変化を検知し、補正データの再計算を行う。これにより、図19(C)に示すように、指定の投影対象物の回転により補正矩形が小さく再計算され、新しく計算された補正データにより、傾いた投影対象物に投影画像190NEWが収まるように補正がかけられる。図19に示すように、上記構成によれば、投影対象物の位置変化を略リアルタイムで検出し、任意形状の投影対象物を認識しつづけ、その物体に対し適切に補正した投影光を投影することができる。   At this time, the feature point of the protruding part is greatly separated from the depth of the projection target. The projector 100 detects a change in the position and shape of the target three-dimensional shape of the projection target, and recalculates correction data. As a result, as shown in FIG. 19C, the correction rectangle is recalculated to be smaller by the rotation of the designated projection object, and the projection image 190 NEW is accommodated in the tilted projection object by the newly calculated correction data. Correction is applied. As shown in FIG. 19, according to the above configuration, a change in the position of the projection object is detected in substantially real time, the projection object having an arbitrary shape is continuously recognized, and projection light appropriately corrected is projected onto the object. be able to.

図20は、くぼんだ形状を有する壁面を投影対象物として使用する利用態様を例示する図である。従来技術においては、撮像されたシーン中の広い平面を投影対象物と認識してしまうため、図20に示すような特殊な形状の壁面に投影すると、壁面における手前の部分が投影対象物として認識されてしまう。   FIG. 20 is a diagram illustrating a usage mode in which a wall surface having a concave shape is used as a projection target. In the prior art, a wide plane in the captured scene is recognized as a projection target. Therefore, when a projection is made on a wall having a special shape as shown in FIG. 20, the front part of the wall is recognized as the projection target. It will be.

これに対して、上記第1の実施形態によるプロジェクタ100では、UIにおいて、くぼんだ奥の壁面に対応する画像領域162を、投影対象物として指定することができる。奥の壁面が投影対象物として指定されると、プロジェクタ100は、くぼんだ奥の壁面部分に投影画像190NEWが収まるように補正データを計算する。したがって、上記第1の実施形態によるプロジェクタ100は、人や手などの複雑な形状や、中央部が凹んだ壁などの任意形状の物体に対して好適に適用することができるといえる。   On the other hand, in the projector 100 according to the first embodiment, in the UI, the image region 162 corresponding to the recessed wall surface can be specified as the projection target. When the back wall is designated as the projection target, projector 100 calculates correction data so that projected image 190 NEW fits in the recessed back wall. Therefore, it can be said that the projector 100 according to the first embodiment can be suitably applied to an object having an arbitrary shape such as a complicated shape such as a person or a hand or a wall having a recessed central portion.

以下、上述した第1の実施形態の変形例の実施形態について説明する。   Hereinafter, an embodiment of a modification of the above-described first embodiment will be described.

(第2の実施形態)
上記第1の実施形態では、ユーザがUI画面上を用いて、カメラ画像上の画像領域またはクラスタ指定を行うことによって、投影対象とする対象3次元形状が指定されていた。しかしながら、投影対象物の指定方法は、上述した実施形態に限定されるものではない。第2の実施形態では、テンプレート画像の入力によって、投影対象物の指定を行うことができる。なお、第2の実施形態によるプロジェクタ100の構成は、対象形状指定部108の構成を除き、第1の実施形態の構成と同一であるため、以下、相違点を説明する。
(Second Embodiment)
In the first embodiment, the target three-dimensional shape to be projected is specified by the user specifying an image region or cluster on the camera image on the UI screen. However, the method for designating the projection object is not limited to the above-described embodiment. In the second embodiment, a projection target can be specified by inputting a template image. Note that the configuration of the projector 100 according to the second embodiment is the same as the configuration of the first embodiment except for the configuration of the target shape designating unit 108, and therefore, the differences will be described below.

第2の実施形態では、対象形状指定部108は、図21に示すように、入力された画像をテンプレート画像Iとして、例えば右カメラ画像I上の部分画像とのテンプレート・マッチングを行うことにより、投影対象物に対応する画像領域を特定する。画像領域が特定されると、第1の実施形態と同様に、3次点群Pのうちの、入力テンプレート画像Iにマッチした画像領域に含まれる3次元点群が、投影対象物の3次元形状を構成する対象3次元点群として抽出される。 In the second embodiment, object shape designation unit 108, as shown in FIG. 21, the input image as a template image I T, for example, by performing template matching between the partial images on the right camera image I R Thus, an image region corresponding to the projection target is specified. When the image area is identified, as in the first embodiment, among the three runner-up group P S, 3-dimensional point group included in the matching image area in the input template image I T is the projection object Extracted as a target three-dimensional point group constituting a three-dimensional shape.

上記第2の実施形態によれば、ユーザがUI上で投影対象物に対応した画像領域を指定しなくても、投影対象物の画像を入力するだけで、簡便に投影対象物を指定することが可能となる。例えば、人を投影対象としたい場合、別途撮像しておいた同一人物の画像を入力することによって、プロジェクタ100にその人を投影対象として認識させることが可能となる。また、種々の投影対象物を予め登録しておくことにより、所望の投影対象物を選択するだけで、投影対象を指定することが可能となる。また、テンプレート画像の入力方法としては、ファイルとしてプロジェクタ100に与えてもよいし、プロジェクタ100が備える撮像部104を用いて、テンプレート撮像モードを設けて、撮像してもよい。   According to the second embodiment, even if the user does not specify an image area corresponding to the projection target on the UI, the projection target can be specified simply by inputting the image of the projection target. Is possible. For example, when a person is to be projected, the projector 100 can be made to recognize the person as a projection target by inputting an image of the same person that has been captured separately. In addition, by registering various projection objects in advance, it is possible to specify the projection object simply by selecting the desired projection object. As a template image input method, the image may be given to the projector 100 as a file, or may be imaged by providing a template imaging mode using the imaging unit 104 provided in the projector 100.

(第3の実施形態)
上記第1の実施形態では、コンテンツ画像に対し台形歪み補正をかける投影画像補正機能を一例として説明した。しかしながら、投影光制御は、コンテンツ画像に対する幾何補正機能に限定されるものではない。第3の実施形態では、投影対象物の形状に合わせて投影光を投影するよう制御する機能を備える。なお、第3の実施形態によるプロジェクタ100の構成は、補正計算部116および投影画像補正部118を除き、第1の実施形態の構成と同一であるため、以下、相違点を説明する。
(Third embodiment)
In the first embodiment, the projection image correction function for correcting the trapezoidal distortion on the content image has been described as an example. However, the projection light control is not limited to the geometric correction function for the content image. The third embodiment has a function of controlling the projection light to be projected according to the shape of the projection target. Note that the configuration of the projector 100 according to the third embodiment is the same as the configuration of the first embodiment except for the correction calculation unit 116 and the projection image correction unit 118, and differences will be described below.

第1の実施形態では、補正計算処理において、凸包図形に内包される補正矩形を投影面とし、この投影面全体にコンテンツ画像を投影するものとした。第3の実施形態による補正計算部116は、図22(A)に示すように、例えば登壇者に対応する3次元形状の凸包図形184を計算し、凸包図形184を包含する任意の大きさの補正矩形を計算する。そして、補正計算部116は、法線カメラ画像上の補正矩形にコンテンツ画像の四隅を変換する射影変換行列HPPを計算し、コンテンツ画像を投影画像上に変換された補正矩形内に収まるように幾何変換を規定する補正データを得る。投影画像補正部118は、図22に示すように、法線カメラ画像上の凸包図形に対応する領域192を演算し、例えば白色プレーン画像に対し、演算された領域192以外の部分をマスクして、図22(B)に示すようなコンテンツ画像を生成する。すなわち、凸包図形の外側に対応する領域に光が投影されないようにマスク処理が施された投影画像が生成される。 In the first embodiment, in the correction calculation process, a correction rectangle included in a convex hull figure is used as a projection plane, and a content image is projected on the entire projection plane. As shown in FIG. 22A, the correction calculation unit 116 according to the third embodiment calculates a three-dimensional convex hull figure 184 corresponding to a speaker, for example, and has an arbitrary size including the convex hull figure 184. Calculate the correction rectangle. The correction calculation unit 116 calculates a projection transformation matrix H PP for converting the four corners of the content image to the correction rectangle on the normal line camera image, content image to fit on the converted corrected in a rectangle on the projection image Correction data defining the geometric transformation is obtained. As shown in FIG. 22, the projection image correcting unit 118 calculates a region 192 corresponding to the convex hull figure on the normal camera image, and masks a portion other than the calculated region 192 for the white plane image, for example. Thus, a content image as shown in FIG. 22B is generated. That is, a projection image is generated in which mask processing is performed so that light is not projected onto a region corresponding to the outside of the convex hull figure.

図22(B)に示すようなマスク画像に対し射影変換行列HPPをかけることにより、ユーザが指定した登壇者の形状に収まるように投影光が投影される。第3の実施形態によれば、指定した投影対象物に投影光を追従させて、投影対象物に追従するスポットライト194として利用することができる。 By applying the projective transformation matrix HPP to the mask image as shown in FIG. 22B, the projection light is projected so as to fit in the shape of the speaker specified by the user. According to the third embodiment, the projection light can be made to follow the designated projection object, and can be used as the spotlight 194 that follows the projection object.

(第4の実施形態)
上記第1の実施形態では、画像処理装置および映像投影システムの一例として、ステレオ画像方式の測距センサを備えたプロジェクタ100を用いて説明した。しかしながら、図1に示す各機能部が単一の装置内に設けられることは必ずしも要さず、一部の演算処理を外部のコンピュータ・システムで行うよう構成してもよい。
(Fourth embodiment)
In the first embodiment, the projector 100 including the stereo image type distance measuring sensor has been described as an example of the image processing apparatus and the video projection system. However, it is not always necessary that the functional units shown in FIG. 1 are provided in a single device, and some arithmetic processing may be performed by an external computer system.

図23は、第4の実施形態におる映像投影システム200の概略構成を示す図である。図23に示す映像投影システム200は、ステレオ画像方式の測距センサを備えたプロジェクタ210と、外部コンピュータ・システム230とを含み構成される。プロジェクタ210は、制御部212、フォーカス調整部216、撮像部214および投影部218に加えて、NIC(ネットワーク・インタフェース・カード)などのネットワーク通信部220を備える。一方、外部コンピュータ・システム230は、プロジェクタ210と通信するためのネットワーク通信部232と、測距部234と、対象形状指定部236と、対象形状探索部238と、平面推定部240と、位置変化判定部242と、補正計算部244と、投影画像補正部246とを含む。この場合、ネットワーク通信部220により、ステレオ画像データを外部コンピュータ・システム230に送信し、外部コンピュータ・システム230から演算結果として、重心データや補正されたプロジェクタ画像データを受信することができる。   FIG. 23 is a diagram illustrating a schematic configuration of a video projection system 200 according to the fourth embodiment. A video projection system 200 shown in FIG. 23 includes a projector 210 having a stereo image type distance measuring sensor and an external computer system 230. The projector 210 includes a network communication unit 220 such as a NIC (network interface card) in addition to the control unit 212, the focus adjustment unit 216, the imaging unit 214, and the projection unit 218. On the other hand, the external computer system 230 includes a network communication unit 232 for communicating with the projector 210, a distance measuring unit 234, a target shape specifying unit 236, a target shape searching unit 238, a plane estimating unit 240, and a position change. A determination unit 242, a correction calculation unit 244, and a projection image correction unit 246 are included. In this case, stereo image data can be transmitted to the external computer system 230 by the network communication unit 220, and centroid data and corrected projector image data can be received from the external computer system 230 as a calculation result.

図23に示すように外部コンピュータ・システム230側に主要な演算機能を実装することによって、プロジェクタ210に要求される演算性能に対する要件を緩和することができる。なお、外部コンピュータ・システム230は、単一のコンピュータ装置であってもよいし、仮想コンピュータであってもよいし、複数のコンピュータから構成され分散演算を行うコンピュータ・システムであってもよい。また、プロジェクタ210と外部コンピュータ・システム230との間における機能部を分担させる態様は、図23に示す例に限定されず、任意の態様で行うことができる。   As shown in FIG. 23, by implementing the main calculation function on the external computer system 230 side, the requirements for the calculation performance required for the projector 210 can be relaxed. The external computer system 230 may be a single computer device, a virtual computer, or a computer system that includes a plurality of computers and performs distributed calculations. Further, the mode of sharing the functional units between the projector 210 and the external computer system 230 is not limited to the example shown in FIG. 23, and can be performed in any mode.

(第5の実施形態)
上記第1の実施形態および第4の実施形態では、ステレオ画像方式の測距センサを備えたプロジェクタ100,210を用いて説明した。しかしながら、測距センサは、必ずしもプロジェクタに備えられていなくともよい。
(Fifth embodiment)
In the first embodiment and the fourth embodiment, the projectors 100 and 210 including the stereo image type distance measuring sensor have been described. However, the distance measuring sensor is not necessarily provided in the projector.

図24は、第5の実施形態におる映像投影システム300の概略構成を示す図である。図24に示す映像投影システム300は、プロジェクタ310と、外部接続されるステレオ測距センサ340とを含み構成される。プロジェクタ310は、制御部312、測距部314、対象形状指定部316、対象形状探索部318、平面推定部320、位置変化判定部322、補正計算部324、投影画像補正部326、フォーカス調整部328、投影部330に加えて、USB(Universal Serial Bus)などのインタフェース部322を備える。一方、ステレオ測距センサ340は、インタフェース部342と、撮像部344とを備える。   FIG. 24 is a diagram illustrating a schematic configuration of a video projection system 300 according to the fifth embodiment. A video projection system 300 shown in FIG. 24 includes a projector 310 and a stereo distance measuring sensor 340 connected externally. The projector 310 includes a control unit 312, a distance measurement unit 314, a target shape designation unit 316, a target shape search unit 318, a plane estimation unit 320, a position change determination unit 322, a correction calculation unit 324, a projection image correction unit 326, and a focus adjustment unit. In addition to the projection unit 330, an interface unit 322 such as a USB (Universal Serial Bus) is provided. On the other hand, the stereo distance measuring sensor 340 includes an interface unit 342 and an imaging unit 344.

図24に示すように投影部330と、撮像部344とを分離した装置310,340に設けることによって、プロジェクタ310の焦点距離と、ステレオ測距センサ340の焦点距離とが大きく解離する場合でも、好適に上述した投影光制御を行うことが可能となる。図25は、短焦点プロジェクタ310と、ステレオ測距センサ340とを分離して構成した撮像システムを例示する。   Even if the focal length of the projector 310 and the focal length of the stereo distance measuring sensor 340 are largely dissociated by providing the projection unit 330 and the imaging unit 344 in the devices 310 and 340 as shown in FIG. The above-described projection light control can be suitably performed. FIG. 25 illustrates an imaging system in which the short focus projector 310 and the stereo distance measuring sensor 340 are separated.

以上説明したように、本発明の実施形態によれば、利用者が指定した任意形状の投影対象物に対して、投影対象物に合わせた投影光制御を行うことを可能とする画像処理装置、映像投影システムおよびプログラムを提供することができる。   As described above, according to the embodiment of the present invention, an image processing device that can perform projection light control in accordance with a projection target on a projection target of an arbitrary shape specified by a user, An image projection system and a program can be provided.

なお、上記機能部は、アセンブラ、C、C++、C#、Java(登録商標)などのレガシープログラミング言語やオブジェクト指向プログラミング言語などで記述されたコンピュータ実行可能なプログラムにより実現でき、ROM、EEPROM、EPROM、フラッシュメモリ、フレキシブルディスク、CD−ROM、CD−RW、DVD−ROM、DVD−RAM、DVD−RW、ブルーレイディスク、SDカード、MOなど装置可読な記録媒体に格納して、あるいは電気通信回線を通じて頒布することができる。また、上記機能部の一部または全部は、例えばフィールド・プログラマブル・ゲート・アレイ(FPGA)などのプログラマブル・デバイス(PD)上に実装することができ、あるいはASIC(特定用途向集積)として実装することができ、上記機能部をPD上に実現するためにPDにダウンロードする回路構成データ(ビットストリームデータ)、回路構成データを生成するためのHDL(Hardware Description Language)、VHDL(VHSIC(Very High Speed Integrated Circuits) Hardware Description Language))、Verilog−HDLなどにより記述されたデータとして記録媒体により配布することができる。   The functional unit can be realized by a computer-executable program written in a legacy programming language such as assembler, C, C ++, C #, Java (registered trademark), an object-oriented programming language, or the like. ROM, EEPROM, EPROM , Stored in a device-readable recording medium such as a flash memory, a flexible disk, a CD-ROM, a CD-RW, a DVD-ROM, a DVD-RAM, a DVD-RW, a Blu-ray disc, an SD card, an MO, or through an electric communication line Can be distributed. In addition, a part or all of the functional unit can be mounted on a programmable device (PD) such as a field programmable gate array (FPGA) or mounted as an ASIC (application-specific integration). Circuit configuration data (bit stream data) downloaded to the PD in order to implement the above functional unit on the PD, HDL (Hardware Description Language) for generating the circuit configuration data, VHDL (VHSIC (Very High Speed) Integrated Circuits) Hardware Description Language)), data described in Verilog-HDL, etc. can be distributed by a recording medium.

これまで本発明の実施形態について説明してきたが、本発明の実施形態は上述した実施形態に限定されるものではなく、他の実施形態、追加、変更、削除など、当業者が想到することができる範囲内で変更することができ、いずれの態様においても本発明の作用・効果を奏する限り、本発明の範囲に含まれるものである。   Although the embodiments of the present invention have been described so far, the embodiments of the present invention are not limited to the above-described embodiments, and those skilled in the art may conceive other embodiments, additions, modifications, deletions, and the like. It can be changed within the range that can be done, and any embodiment is included in the scope of the present invention as long as the effects of the present invention are exhibited.

100…プロジェクタ、102…制御部、104…撮像部、106…測距部、108…対象形状指定部、110…対象形状探索部、112…平面推定部、114…位置変化判定部、116…補正計算部、118…投影画像補正部、120…フォーカス調整部、122…投影部、150…点群、152…点群、154…点群、156…点群、160…UI画面、162…画像領域、170…UI画面170、172…クラスタ、180…投影対象物、180…投影対象物、184…凸包図形、186…補正矩形、190…投影画像、192…凸包図形に対応する領域、194…スポットライト、200…映像投影システム、210…プロジェクタ、212…制御部、214…撮像部、216…フォーカス調整部、218…投影部、220…ネットワーク通信部、230…外部コンピュータ・システム、232…ネットワーク通信部、234…測距部、236…対象形状指定部、238…対象形状探索部、240…平面推定部、242…位置変化判定部、244…補正計算部、246…投影画像補正部、300…映像投影システム、310…短焦点プロジェクタ、312…制御部、314…測距部、316…対象形状指定部、318…対象形状探索部、320…平面推定部、322…位置変化判定部、324…補正計算部、326…投影画像補正部、328…フォーカス調整部、330…ステレオ測距センサ、330…投影部、332…ネットワーク通信部、342…ネットワーク通信部、344…撮像部 DESCRIPTION OF SYMBOLS 100 ... Projector, 102 ... Control part, 104 ... Imaging part, 106 ... Distance measuring part, 108 ... Object shape designation | designated part, 110 ... Object shape search part, 112 ... Plane estimation part, 114 ... Position change determination part, 116 ... Correction Calculation unit 118 ... Projection image correction unit 120 ... Focus adjustment unit 122 ... Projection unit 150 ... Point group 152 ... Point group 154 ... Point group 156 ... Point group 160 ... UI screen 162 ... Image area 170 ... UI screen 170, 172 ... cluster, 180 ... projection object, 180 ... projection object, 184 ... convex hull figure, 186 ... correction rectangle, 190 ... projection image, 192 ... area corresponding to convex hull figure, 194 ... Spotlight, 200 ... Video projection system, 210 ... Projector, 212 ... Control part, 214 ... Imaging part, 216 ... Focus adjustment part, 218 ... Projection part, 220 ... Net Work communication unit 230 ... External computer system, 232 ... Network communication unit, 234 ... Distance measuring unit, 236 ... Target shape specifying unit, 238 ... Target shape searching unit, 240 ... Plane estimation unit, 242 ... Position change determination unit, 244 ... Correction calculation unit, 246 ... Projection image correction unit, 300 ... Video projection system, 310 ... Short focus projector, 312 ... Control unit, 314 ... Distance measurement unit, 316 ... Target shape designation unit, 318 ... Target shape search unit, 320 ... Plane estimation unit, 322 ... Position change determination unit, 324 ... Correction calculation unit, 326 ... Projection image correction unit, 328 ... Focus adjustment unit, 330 ... Stereo distance measuring sensor, 330 ... Projection unit, 332 ... Network communication unit, 342 ... Network communication unit, 344 ... Imaging unit

特許第3880582号公報Japanese Patent No. 3880582

Claims (10)

画像内の複数の点の距離を測定し、3次元点群を計算する測距手段と、
投影対象とする3次元形状の指定を受ける対象形状指定手段と、
前記3次元点群から、前記投影対象の3次元形状に対応した対象3次元点群を特定する対象形状特定手段と、
前記対象3次元点群から前記投影対象の近似面を推定する面推定手段と、
前記近似面上の投影領域へ投影する投影光を規定する制御データを計算する制御データ計算手段と
を含む、画像処理装置。
A distance measuring means for measuring a distance between a plurality of points in the image and calculating a three-dimensional point group;
A target shape designation means for receiving designation of a three-dimensional shape as a projection target;
A target shape specifying means for specifying a target three-dimensional point group corresponding to the three-dimensional shape of the projection target from the three-dimensional point group;
Surface estimation means for estimating an approximate surface of the projection target from the target three-dimensional point group;
An image processing apparatus comprising: control data calculation means for calculating control data defining projection light projected onto the projection area on the approximate plane.
前記対象形状特定手段は、
前記投影対象の3次元形状を構成する3次元点群から該投影対象の3次元形状を近似する対象形状近似曲面を推定する手段と、
場面の3次元点群から該場面の3次元形状を近似する場面近似曲面を推定する手段と、
前記対象形状近似曲面と前記場面近似曲面の部分とを照合して、マッチングの程度を評価する評価関数が最大化される場面の対応部分の位置を推定する手段と、
前記対応部分の位置に基づき、前記場面の対応部分に関連付けられる3次元点群を前記対象3次元点群として特定する手段と
を含む、請求項1に記載の画像処理装置。
The target shape specifying means includes
Means for estimating a target shape approximation curved surface that approximates the three-dimensional shape of the projection target from a three-dimensional point group constituting the three-dimensional shape of the projection target;
Means for estimating a scene approximation curved surface that approximates a 3D shape of the scene from a 3D point cloud of the scene;
Means for collating the target shape approximate curved surface with the portion of the scene approximate curved surface and estimating the position of the corresponding portion of the scene where the evaluation function for evaluating the degree of matching is maximized;
The image processing apparatus according to claim 1, further comprising: a unit that identifies a three-dimensional point group associated with the corresponding part of the scene as the target three-dimensional point group based on the position of the corresponding part.
前記対象形状指定手段は、
前記投影対象の3次元形状を構成する3次元点群が含まれる画像領域の指定、
場面の3次元点群を分類して構成された1以上のクラスタの中からの前記投影対象の3次元形状を構成するクラスタの指定、または、
テンプレート画像にマッチングした画像領域に含まれる3次元点群が前記投影対象の3次元形状を構成するものとして該テンプレート画像の指定
を受け付ける、請求項1または2に記載の画像処理装置。
The target shape specifying means includes
Designation of an image region including a three-dimensional point group constituting the three-dimensional shape of the projection target;
Designation of a cluster constituting a three-dimensional shape of the projection target from one or more clusters configured by classifying a three-dimensional point group of a scene, or
3. The image processing apparatus according to claim 1, wherein a three-dimensional point group included in an image region matched with a template image receives designation of the template image as constituting the three-dimensional shape of the projection target.
前記測距手段は、
投影されるコンテンツ画像から複数の特徴点を抽出する手段と、
それぞれ前記コンテンツ画像の少なくとも一部が写り込んだ複数の撮像画像からそれぞれ複数の特徴点を抽出する手段と、
前記コンテンツ画像の特徴点および前記複数の撮像画像各々の特徴点との対応付けに基づいて、前記撮像画像間におけるステレオ対応点となる複数の特徴点を探索する手段と、
前記ステレオ対応点各々の画像間の視差に基づき、前記ステレオ対応点各々の3次元位置を計算する手段と
を含む、請求項1〜3のいずれか1項に記載の画像処理装置。
The distance measuring means includes
Means for extracting a plurality of feature points from the projected content image;
Means for extracting a plurality of feature points from a plurality of captured images each including at least a part of the content image;
Means for searching for a plurality of feature points to be stereo correspondence points between the captured images based on the association between the feature points of the content image and the feature points of each of the plurality of captured images;
The image processing apparatus according to claim 1, further comprising: a unit that calculates a three-dimensional position of each of the stereo correspondence points based on a parallax between the images of each of the stereo correspondence points.
前記対象形状特定手段は、前記投影対象の3次元形状を構成するものとして指定された第1の時点における対象3次元点群をテンプレートとして、第2の時点における前記場面とのマッチングを計算することによって、前記第2の時点における前記投影対象の3次元形状を構成する対象3次元点群を特定するとともに、前記第2の時点における前記対象3次元点群を次回のテンプレートとして用いることを特徴とする、請求項1〜4のいずれか1項に記載の画像処理装置。   The target shape specifying means calculates a matching with the scene at a second time point using the target three-dimensional point group at the first time point specified as constituting the three-dimensional shape of the projection target as a template. To specify a target 3D point group constituting the three-dimensional shape of the projection target at the second time point, and to use the target 3D point group at the second time point as a next template. The image processing apparatus according to any one of claims 1 to 4. 第1の時点の場面に基づく第1の近似面と、第2の時点の場面に基づく第2の近似面とを比較して、前記第2の近似面の前記第1の近似面からのずれ量を算出する手段と、
前記ずれ量が所定の閾値を超えるか否かを判定する手段と
をさらに含み、
前記制御データ計算手段は、前記ずれ量が前記所定の閾値を超えた場合に、更新された制御データを計算することを特徴とする、請求項1〜5のいずれか1項に記載の画像処理装置。
The first approximate surface based on the scene at the first time point is compared with the second approximate surface based on the scene at the second time point, and the second approximate surface is deviated from the first approximate surface. Means for calculating the quantity;
And a means for determining whether or not the deviation amount exceeds a predetermined threshold value,
The image processing according to any one of claims 1 to 5, wherein the control data calculation means calculates updated control data when the deviation amount exceeds the predetermined threshold. apparatus.
前記制御データ計算手段は、
前記対象3次元点群を、前記近似面に対し法線方向に位置する仮想的な法線カメラから視た法線カメラ画像上の2次元点群に変換する手段と、
前記2次元点群を凸包する凸包図形と包含関係を有した補正図形を計算する手段と、
前記法線カメラ画像上で補正図形に包含される2次元点群と、該2次元点群に対応する投影画像上の対応点群とに基づいて、前記法線カメラ画像上の補正図形の構成点を投影画像上に変換する手段と、
前記投影画像上に変換された補正図形内に収まるようにコンテンツ画像を変換する補正データを前記制御データとして計算する手段と
を含む、請求項1〜6のいずれか1項に記載の画像処理装置。
The control data calculation means includes
Means for converting the target three-dimensional point group into a two-dimensional point group on a normal camera image viewed from a virtual normal camera located in a normal direction with respect to the approximate plane;
Means for calculating a correction figure having an inclusion relation with a convex hull figure that convexly envelops the two-dimensional point group;
The configuration of the correction figure on the normal camera image based on the two-dimensional point group included in the correction figure on the normal camera image and the corresponding point group on the projection image corresponding to the two-dimensional point group Means for converting the points onto the projected image;
7. The image processing apparatus according to claim 1, further comprising: calculating correction data for converting a content image so as to be within the correction figure converted on the projection image as the control data. .
前記画像処理装置は、前記凸包図形の外側に対応する領域に光が投影されないようにマスク処理が施された投影画像を生成する投影画像生成手段をさらに備える、請求項7に記載の画像処理装置。   The image processing according to claim 7, wherein the image processing apparatus further includes a projection image generation unit that generates a projection image on which mask processing is performed so that light is not projected onto a region corresponding to the outside of the convex hull figure. apparatus. コンテンツ画像を投影する投影手段と、
投影されたコンテンツ画像の少なくとも一部を写して撮像する撮像手段と、
撮像された画像内の複数の点の距離を測定し、3次元点群を計算する測距手段と、
投影対象とする投影対象の3次元形状の指定を受ける対象形状指定手段と、
前記3次元点群から、前記投影対象の3次元形状に対応した対象3次元点群を特定する対象形状特定手段と、
前記対象3次元点群から投影対象の近似面を推定する面推定手段と、
前記近似面上の投影領域へ投影する投影光を規定する制御データを計算する制御データ計算手段と
前記制御データを用いて投影画像を生成する投影画像生成手段と
を含む、映像投影システム。
Projection means for projecting content images;
Imaging means for imaging at least a part of the projected content image;
A distance measuring means for measuring a distance between a plurality of points in a captured image and calculating a three-dimensional point group;
Target shape designation means for receiving designation of a three-dimensional shape of a projection target as a projection target;
A target shape specifying means for specifying a target three-dimensional point group corresponding to the three-dimensional shape of the projection target from the three-dimensional point group;
Surface estimation means for estimating an approximate surface of a projection target from the target three-dimensional point group;
A video projection system, comprising: control data calculation means for calculating control data defining projection light projected onto a projection area on the approximate plane; and projection image generation means for generating a projection image using the control data.
コンピュータを、
画像内の複数の点の距離を測定し、3次元点群を計算する測距手段、
投影対象とする投影対象の3次元形状の指定を受ける対象形状指定手段、
前記3次元点群から、前記投影対象の3次元形状に対応した対象3次元点群を特定する対象形状特定手段、
前記対象3次元点群から投影対象の近似面を推定する面推定手段、および
前記近似面上の投影領域へ投影する投影光を規定する制御データを計算する制御データ計算手段
として機能させるためのプログラム。
Computer
A distance measuring means for measuring a distance between a plurality of points in an image and calculating a three-dimensional point group;
Target shape designation means for receiving designation of a three-dimensional shape of a projection target to be projected
Target shape specifying means for specifying a target three-dimensional point group corresponding to the three-dimensional shape of the projection target from the three-dimensional point group;
Program for functioning as surface estimation means for estimating an approximate surface of a projection target from the target three-dimensional point group, and control data calculation means for calculating control data defining projection light projected onto a projection area on the approximate surface .
JP2012204847A 2012-09-18 2012-09-18 Image processing apparatus, video projection system, and program Expired - Fee Related JP5987584B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012204847A JP5987584B2 (en) 2012-09-18 2012-09-18 Image processing apparatus, video projection system, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012204847A JP5987584B2 (en) 2012-09-18 2012-09-18 Image processing apparatus, video projection system, and program

Publications (2)

Publication Number Publication Date
JP2014060611A true JP2014060611A (en) 2014-04-03
JP5987584B2 JP5987584B2 (en) 2016-09-07

Family

ID=50616698

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012204847A Expired - Fee Related JP5987584B2 (en) 2012-09-18 2012-09-18 Image processing apparatus, video projection system, and program

Country Status (1)

Country Link
JP (1) JP5987584B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015219679A (en) * 2014-05-16 2015-12-07 株式会社リコー Image processing system, information processing device, and program
JP2015233266A (en) * 2014-05-16 2015-12-24 株式会社リコー Image processing system, information processing device, and program
US9762872B2 (en) 2015-10-08 2017-09-12 Fujitsu Limited Apparatus, method and non-transitory computer-readable storage medium
US9907143B2 (en) 2015-03-04 2018-02-27 Panasonic Intellectual Property Management Co., Ltd. Lighting control device, lighting system, and program
WO2023074301A1 (en) * 2021-10-27 2023-05-04 パナソニックIpマネジメント株式会社 Calibration method and projection-type display system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061121A (en) * 1999-08-23 2001-03-06 Nec Corp Projector
JP2001083949A (en) * 1999-09-16 2001-03-30 Japan Science & Technology Corp Image projecting device
JP2006060447A (en) * 2004-08-19 2006-03-02 Seiko Epson Corp Keystone correction using partial side of screen
JP2009135921A (en) * 2007-11-06 2009-06-18 Panasonic Corp Image projection apparatus, and image projection method
JP2009225432A (en) * 2008-02-22 2009-10-01 Panasonic Electric Works Co Ltd Light projection device and illumination device
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061121A (en) * 1999-08-23 2001-03-06 Nec Corp Projector
JP2001083949A (en) * 1999-09-16 2001-03-30 Japan Science & Technology Corp Image projecting device
JP2006060447A (en) * 2004-08-19 2006-03-02 Seiko Epson Corp Keystone correction using partial side of screen
JP2009135921A (en) * 2007-11-06 2009-06-18 Panasonic Corp Image projection apparatus, and image projection method
JP2009225432A (en) * 2008-02-22 2009-10-01 Panasonic Electric Works Co Ltd Light projection device and illumination device
JP2010044255A (en) * 2008-08-14 2010-02-25 Seiko Epson Corp Projection display device and method for correcting image

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015219679A (en) * 2014-05-16 2015-12-07 株式会社リコー Image processing system, information processing device, and program
JP2015233266A (en) * 2014-05-16 2015-12-24 株式会社リコー Image processing system, information processing device, and program
US9907143B2 (en) 2015-03-04 2018-02-27 Panasonic Intellectual Property Management Co., Ltd. Lighting control device, lighting system, and program
US9762872B2 (en) 2015-10-08 2017-09-12 Fujitsu Limited Apparatus, method and non-transitory computer-readable storage medium
WO2023074301A1 (en) * 2021-10-27 2023-05-04 パナソニックIpマネジメント株式会社 Calibration method and projection-type display system

Also Published As

Publication number Publication date
JP5987584B2 (en) 2016-09-07

Similar Documents

Publication Publication Date Title
CN107004275B (en) Method and system for determining spatial coordinates of a 3D reconstruction of at least a part of a physical object
US8928736B2 (en) Three-dimensional modeling apparatus, three-dimensional modeling method and computer-readable recording medium storing three-dimensional modeling program
JP5961945B2 (en) Image processing apparatus, projector and projector system having the image processing apparatus, image processing method, program thereof, and recording medium recording the program
WO2013146269A1 (en) Image capturing device, image processing method, and program
JP5987584B2 (en) Image processing apparatus, video projection system, and program
WO2017022033A1 (en) Image processing device, image processing method, and image processing program
WO2014064870A1 (en) Image processing device and image processing method
CN107808398B (en) Camera parameter calculation device, calculation method, program, and recording medium
JP2010165248A (en) Image processor, image collation method, and program
JP6985897B2 (en) Information processing equipment and its control method, program
JP5672112B2 (en) Stereo image calibration method, stereo image calibration apparatus, and computer program for stereo image calibration
JP6894707B2 (en) Information processing device and its control method, program
JP6817742B2 (en) Information processing device and its control method
JP5849522B2 (en) Image processing apparatus, projector, projector system, image processing method, program thereof, and recording medium recording the program
WO2022218161A1 (en) Method and apparatus for target matching, device, and storage medium
JP2022039719A (en) Position and posture estimation device, position and posture estimation method, and program
CN115457176A (en) Image generation method and device, electronic equipment and storage medium
JP2017194301A (en) Face shape measuring device and method
JP6374812B2 (en) 3D model processing apparatus and camera calibration system
JP2021021577A (en) Image processing device and image processing method
WO2015198478A1 (en) Image distortion correction apparatus, information processing apparatus and image distortion correction method
US11847784B2 (en) Image processing apparatus, head-mounted display, and method for acquiring space information
JP2002352231A (en) Method and device for detecting end point of human body
CN114608521A (en) Monocular distance measuring method and device, electronic equipment and storage medium
JP2019062436A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150804

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160712

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160725

R151 Written notification of patent or utility model registration

Ref document number: 5987584

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees