JP2010250560A - Image processing apparatus and method thereof - Google Patents

Image processing apparatus and method thereof Download PDF

Info

Publication number
JP2010250560A
JP2010250560A JP2009099402A JP2009099402A JP2010250560A JP 2010250560 A JP2010250560 A JP 2010250560A JP 2009099402 A JP2009099402 A JP 2009099402A JP 2009099402 A JP2009099402 A JP 2009099402A JP 2010250560 A JP2010250560 A JP 2010250560A
Authority
JP
Japan
Prior art keywords
image
observation
shape information
information
dimensional object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009099402A
Other languages
Japanese (ja)
Other versions
JP5432571B2 (en
JP2010250560A5 (en
Inventor
Susumu Niihara
晋 新原
Hiromitsu Nishikawa
浩光 西川
Takahiro Suzuki
隆広 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2009099402A priority Critical patent/JP5432571B2/en
Publication of JP2010250560A publication Critical patent/JP2010250560A/en
Publication of JP2010250560A5 publication Critical patent/JP2010250560A5/ja
Application granted granted Critical
Publication of JP5432571B2 publication Critical patent/JP5432571B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To perform image processing in consideration of a shape of a three-dimensional object and an observation position of an image projected to the three-dimensional object. <P>SOLUTION: The shape information of the three-dimensional object to which an image is to be projected, observation position information indicating an observation position of the image to be projected to the three-dimensional object and device position information indicating the position of an image projector for projecting the image to the three-dimensional object are input (S11 to S13). Then, an observation angle indicating relation between a direction of each polygon expressing the shape information and the observation position is calculated based on the observation position information and the shape information (S14). The image to be output to the image projector is corrected based on the observation angle, the shape information and the device position information (S15 to S17). <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、三次元物体に画像を投影する際の画像処理に関する。   The present invention relates to image processing when an image is projected onto a three-dimensional object.

インテリアの色や模様のシミュレーションにコンピュータグラフィクス(CG)が利用される機会が増えた。CGを利用すれば、ユーザに色や模様を選択させ、インテリアの完成イメージをモニタ上でシミュレートすることが可能になる。しかし、モニタ上のシミュレーションは、実物とは質感が異なり、その上、表示サイズが限られ、実空間におけるイメージを忠実に再現することができるとは言えない。   Opportunities for computer graphics (CG) to be used to simulate interior colors and patterns have increased. If CG is used, the user can select the color and pattern and simulate the completed interior image on the monitor. However, the simulation on the monitor is different in texture from the real thing, and furthermore, the display size is limited, and it cannot be said that the image in the real space can be faithfully reproduced.

そこで、プロジェクタなどの画像投影装置を用いて、実物と同等の三次元形状と大きさをもつ三次元物体の表面(投影面)に画像を投影することで、実空間におけるイメージをより忠実に再現する方法が実用化された。その際、投影面の三次元形状に合わせて、画像を補正する必要がある。   Therefore, using an image projection device such as a projector, the image is projected onto the surface (projection plane) of a three-dimensional object having the same three-dimensional shape and size as the real object, thereby reproducing the image in real space more faithfully. The method to do was put into practical use. At that time, it is necessary to correct the image in accordance with the three-dimensional shape of the projection surface.

三次元形状をもつ投影面の形状に合わせて画像を投影する技術として、例えば、特許文献1に開示された技術がある。この技術では、任意の三次元形状をもつ投影面に対し、メッシュモデルを用いて投影画像を補正し、観察者が視認する投影光の歪みを抑制する。   As a technique for projecting an image in accordance with the shape of a projection surface having a three-dimensional shape, for example, there is a technique disclosed in Patent Document 1. In this technique, a projection image is corrected using a mesh model for a projection plane having an arbitrary three-dimensional shape, and distortion of projection light visually recognized by an observer is suppressed.

しかし、投影面の形状に対する観察者の位置によっては、投影面の形状を考慮する補正だけでは、投影された画像が歪んだり暈けて見えることがあり、とくに模様の歪みや暈けは強く認識される。   However, depending on the position of the viewer with respect to the shape of the projection plane, the projected image may appear distorted or blurred with only correction that takes into account the shape of the projection plane. Especially, distortion and blurring of the pattern are strongly recognized. Is done.

特許第4013989号公報Japanese Patent No. 4013989

本発明は、三次元物体の形状と、三次元物体に投影される画像の観察位置を考慮した画像処理を行うことを目的とする。   An object of the present invention is to perform image processing in consideration of the shape of a three-dimensional object and the observation position of an image projected on the three-dimensional object.

本発明は、前記の目的を達成する一手段として、以下の構成を備える。   The present invention has the following configuration as one means for achieving the above object.

本発明にかかる画像処理は、画像を投影する三次元物体の形状情報、前記三次元物体に投影される画像の観察位置を示す観察位置情報、および、前記三次元物体に画像を投影する画像投影装置の位置を示す装置位置情報を入力し、前記観察位置情報および前記形状情報に基づき、前記形状情報を表現する各ポリゴンの向きと前記観察位置の関係を示す観察角度を算出し、前記観察角度、前記形状情報および前記装置位置情報に基づき、前記画像投影装置に出力する画像を補正することを特徴とする。   Image processing according to the present invention includes three-dimensional object shape information for projecting an image, observation position information indicating an observation position of an image projected on the three-dimensional object, and image projection for projecting an image on the three-dimensional object. The apparatus position information indicating the position of the apparatus is input, and based on the observation position information and the shape information, an observation angle indicating the relationship between the direction of each polygon representing the shape information and the observation position is calculated, and the observation angle The image output to the image projection apparatus is corrected based on the shape information and the apparatus position information.

本発明によれば、三次元物体に投影された画像の観察する場合の画像の歪みや暈けを低減することができる。   According to the present invention, it is possible to reduce image distortion and blurring when an image projected on a three-dimensional object is observed.

実施例の画像処理装置の構成例を示すブロック図、A block diagram showing a configuration example of an image processing apparatus of an embodiment, 画像処理装置の機能構成例を示すブロック図、Block diagram showing a functional configuration example of an image processing device, 画像処理装置が実行す画像処理を説明するフローチャート、A flowchart illustrating image processing performed by the image processing apparatus; 3D形状情報の一例を示す図、A diagram showing an example of 3D shape information, 角度情報生成部の処理を説明するフローチャート、A flowchart for explaining processing of the angle information generation unit; ポリゴンと観察位置情報が示す観察位置の関係を示す図、A diagram showing the relationship between the polygon and the observation position indicated by the observation position information, 補正部の処理を説明するフローチャートである。It is a flowchart explaining the process of a correction | amendment part.

以下、本発明にかかる実施例の画像処理を図面を参照して詳細に説明する。   Hereinafter, image processing according to an embodiment of the present invention will be described in detail with reference to the drawings.

[装置の構成]
図1は実施例の画像処理装置11の構成例を示すブロック図である。
[Device configuration]
FIG. 1 is a block diagram illustrating a configuration example of the image processing apparatus 11 according to the embodiment.

CPU401は、ランダムアクセスメモリ(RAM)403をワークメモリとして、リードオンリメモリ(ROM)402およびハードディスクドライブ(HDD)408に格納されたプログラムを実行する。そして、システムバス404を介して、後述する各構成を制御することで、後述する画像処理を含む様々な処理を実行する。   The CPU 401 executes a program stored in a read only memory (ROM) 402 and a hard disk drive (HDD) 408 using a random access memory (RAM) 403 as a work memory. Then, various processes including image processing described later are executed by controlling each component described later via the system bus 404.

入力インタフェイス(I/F)405は、キーボードやマウス、ディジタルカメラ、スキャナ、三次元レーザスキャナなどの入力デバイス406を接続する例えばUSBやIEEE1394などのシリアルバスインタフェイスである。CPU401は、入力I/F405を介して、入力デバイス406からデータを読み込むことが可能である。   An input interface (I / F) 405 is a serial bus interface such as USB or IEEE1394 for connecting an input device 406 such as a keyboard, mouse, digital camera, scanner, or three-dimensional laser scanner. The CPU 401 can read data from the input device 406 via the input I / F 405.

HDD I/F407は、HDD408や光ディスクドライブなどの二次記憶装置を接続する例えばシリアルATA(SATA)などのインタフェイスである。CPU401は、HDD I/F407を介して、HDD408からデータを読み出し、HDD408にデータを書き込むことが可能である。さらに、CPU401は、HDD408に格納されたデータをRAM403にロードし、同様に、RAM403が記憶するデータをHDD408に保存することができる。そして、CPU401は、RAM403にロードしたデータをプログラムと見做して実行することが可能である。   The HDD I / F 407 is an interface such as a serial ATA (SATA) for connecting a secondary storage device such as the HDD 408 or an optical disk drive. The CPU 401 can read data from the HDD 408 and write data to the HDD 408 via the HDD I / F 407. Furthermore, the CPU 401 can load the data stored in the HDD 408 into the RAM 403 and similarly store the data stored in the RAM 403 in the HDD 408. The CPU 401 can execute the data loaded in the RAM 403 as a program.

ビデオI/F409は、モニタ410を接続するインタフェイスである。CPU401は、ビデオI/F409を制御して、任意の文字列、画像、ユーザインタフェイス(UI)をモニタ410に表示することができる。   The video I / F 409 is an interface for connecting the monitor 410. The CPU 401 can control the video I / F 409 to display an arbitrary character string, image, and user interface (UI) on the monitor 410.

出力I/F411は、プリンタ、プロッタ、フィルムレコーダ、プロジェクタなどの出力デバイス412を接続するシリアルバスインタフェイスである。CPU401は、出力I/F411を介して、出力デバイス412にデータを送り、印刷、記録、投影などを実行させることができる。なお、USBなどの双方向通信インタフェイスを利用する場合、入力I/F405と出力I/F411は一つにまとめることができる。   The output I / F 411 is a serial bus interface for connecting an output device 412 such as a printer, a plotter, a film recorder, or a projector. The CPU 401 can send data to the output device 412 via the output I / F 411 to execute printing, recording, projection, and the like. Note that when a bidirectional communication interface such as USB is used, the input I / F 405 and the output I / F 411 can be combined into one.

ネットワークインタフェイスカード(NIC)413は、ネットワーク414に接続するためにインタフェイスである。   A network interface card (NIC) 413 is an interface for connecting to the network 414.

[機能構成]
図2は画像処理装置11の機能構成例を示すブロック図である。なお、詳細は後述するが、図3に示す処理手順を記述したコンピュータが実行可能なプログラムがROM402またはHDD408に予め格納されている。CPU401は、ユーザの指示に従い当該プログラムをRAM403にロードし、当該プログラムを実行することにより、図2に示す機能構成が実現され、図3に示す画像処理が開始される。
[Function configuration]
FIG. 2 is a block diagram illustrating a functional configuration example of the image processing apparatus 11. Although details will be described later, a computer-executable program describing the processing procedure shown in FIG. 3 is stored in the ROM 402 or HDD 408 in advance. The CPU 401 loads the program into the RAM 403 in accordance with a user instruction, and executes the program, thereby realizing the functional configuration shown in FIG. 2 and starting the image processing shown in FIG.

3D形状取得部101は、画像を投影する投影面の三次元形状に関する情報(以下、3D形状情報)を取得する。観察位置取得部102は、投影面に投影された画像を観察する観察者が存在する位置に関する情報(以下、観察位置情報)を取得する。   The 3D shape acquisition unit 101 acquires information (hereinafter referred to as 3D shape information) regarding the three-dimensional shape of the projection surface onto which the image is projected. The observation position acquisition unit 102 acquires information (hereinafter referred to as observation position information) related to a position where an observer who observes an image projected on the projection surface is present.

装置位置取得部103は、投影面に画像を投影する画像投影装置12が存在する位置に関する情報(以下、装置位置情報)を取得する。角度情報生成部104は、投影面の各点における、観察者と三次元形状がなす角度(以下、観察角度分布情報)を計算する。   The apparatus position acquisition unit 103 acquires information (hereinafter referred to as apparatus position information) related to the position where the image projection apparatus 12 that projects an image on the projection surface is present. The angle information generation unit 104 calculates an angle (hereinafter referred to as observation angle distribution information) formed by the observer and the three-dimensional shape at each point on the projection plane.

補正部105は、入力画像を観察角度分布情報に基づき補正して、投影面に投影すべき画像を生成する。バッファメモリ106は、処理途中の演算結果を一時保存する、例えばRAM403に割り当てられるメモリである。画像投影装置12は、例えは出力I/F411を介して、画像処理装置11に接続されるプロジェクタなどの出力デバイス412である。   The correction unit 105 corrects the input image based on the observation angle distribution information, and generates an image to be projected on the projection plane. The buffer memory 106 is a memory allocated temporarily to the RAM 403, for example, for temporarily storing calculation results during processing. The image projection device 12 is an output device 412 such as a projector connected to the image processing device 11 via an output I / F 411, for example.

[画像処理]
図3は画像処理装置11が実行する画像処理を説明するフローチャートである。
[Image processing]
FIG. 3 is a flowchart illustrating image processing executed by the image processing apparatus 11.

CPU401は、3D形状取得部101により、投影面の3D形状情報を入力し、3D形状情報をバッファメモリ106に保存する(S11)。   The CPU 401 inputs the 3D shape information of the projection plane by the 3D shape acquisition unit 101 and stores the 3D shape information in the buffer memory 106 (S11).

図4は3D形状情報の一例を示す図で、3D形状情報は三次元空間に配置されたポリゴンの集合として表現される。3D形状取得部101は、既知の三次元レーザスキャナのような計測装置を用いて、画像が投影される三次元物体の表面形状(投影面)を計測して3D形状情報を入力するか、HDD408などから予め計測され3D形状情報を読み込む。   FIG. 4 is a diagram showing an example of 3D shape information. The 3D shape information is expressed as a set of polygons arranged in a three-dimensional space. The 3D shape acquisition unit 101 measures the surface shape (projection plane) of a three-dimensional object on which an image is projected using a measurement device such as a known three-dimensional laser scanner, and inputs 3D shape information, or HDD408 The 3D shape information that is measured in advance is read.

次に、CPU401は、観察位置取得部102により観察位置情報を入力し、観察位置情報をバッファメモリ106に保存する(S12)。なお、観察位置情報は、ユーザがUIを介して入力するが、HDD408などから読み込む。また、観察位置情報は、画像が投影される物体が存在する位置(以下、物体位置)と、観察者が存在する位置(以下、観察位置)の間の関係を示す距離と角度などの情報を有する。   Next, the CPU 401 inputs observation position information from the observation position acquisition unit 102, and stores the observation position information in the buffer memory 106 (S12). The observation position information is input by the user via the UI, but is read from the HDD 408 or the like. The observation position information includes information such as a distance and an angle indicating a relationship between a position where an object on which an image is projected (hereinafter referred to as an object position) and a position where an observer exists (hereinafter referred to as an observation position). Have.

次に、CPU401は、装置位置取得部103により画像投影装置12の装置位置情報を入力し、装置位置情報をバッファメモリ106に保存する(S13)。なお、装置位置情報は、ユーザがUIを介して入力するが、HDD408などから読み込む。また、観察位置情報は、物体位置と、画像投影装置12が存在する位置(以下、装置位置)の間の関係を示す距離と角度などの情報を有する。   Next, the CPU 401 inputs device position information of the image projection device 12 through the device position acquisition unit 103 and stores the device position information in the buffer memory 106 (S13). The device position information is input from the HDD 408 or the like by the user through the UI. Further, the observation position information includes information such as a distance and an angle indicating a relationship between the object position and a position where the image projection apparatus 12 exists (hereinafter, apparatus position).

次に、CPU401は、角度情報生成部104により、詳細は後述するが、バッファメモリ106に格納した3D形状情報と観察位置情報に基づき、観察角度分布情報を生成し、観察角度分布情報をバッファメモリ106に保存する(S14)。   Next, as will be described in detail later, the CPU 401 generates observation angle distribution information based on the 3D shape information and the observation position information stored in the buffer memory 106 by the angle information generation unit 104, and the observation angle distribution information is stored in the buffer memory. It is stored in 106 (S14).

次に、CPU401は、UIを介してユーザが指定する画像(以下、原画像)をHDD408などから入力する(S15)。そして、補正部105により、詳細は後述するが、バッファメモリ106に格納した装置位置情報と観察角度分布情報に基づき原画像を補正する(S16)。そして、補正後の画像を画像投影装置12に出力し(S17)、補正後の画像を投影面に投影させる。   Next, the CPU 401 inputs an image designated by the user (hereinafter referred to as an original image) from the HDD 408 or the like via the UI (S15). Then, the correction unit 105 corrects the original image based on the apparatus position information and the observation angle distribution information stored in the buffer memory 106, as will be described in detail later (S16). Then, the corrected image is output to the image projection device 12 (S17), and the corrected image is projected onto the projection plane.

[角度情報生成部]
図5は角度情報生成部104の処理を説明するフローチャートである。
[Angle information generator]
FIG. 5 is a flowchart illustrating the processing of the angle information generation unit 104.

角度情報生成部104は、バッファメモリ106から、投影面の3D形状情報を取得し(S41)、観察位置情報を取得する(S42)。   The angle information generation unit 104 acquires 3D shape information of the projection plane from the buffer memory 106 (S41), and acquires observation position information (S42).

図6はポリゴン53と観察位置情報が示す観察位置52の関係を示す図である。   FIG. 6 is a diagram showing the relationship between the polygon 53 and the observation position 52 indicated by the observation position information.

角度情報生成部104は、3D形状情報を構成する各ポリゴンから一つのポリゴンを選択する(S43)。そして、選択したポリゴン53の重心と観察位置52の間を直線54で結び、直線54とポリゴン53の法線51が成す角度(以下、観察角度θ)を計算する(S44)。   The angle information generation unit 104 selects one polygon from each polygon constituting the 3D shape information (S43). Then, the center of gravity of the selected polygon 53 and the observation position 52 are connected by a straight line 54, and an angle formed by the straight line 54 and the normal line 51 of the polygon 53 (hereinafter, the observation angle θ) is calculated (S44).

次に、角度情報生成部104は、3D形状情報を構成する全ポリゴンについて、ステップS44の観察角度θの算出を行ったか否かを判定し(S45)、全ポリゴンに関する観察角度θの算出が未了の場合は処理をステップS43に戻す。   Next, the angle information generation unit 104 determines whether or not the calculation of the observation angle θ in step S44 has been performed for all the polygons constituting the 3D shape information (S45), and the calculation of the observation angle θ for all the polygons has not been performed. If yes, the process returns to step S43.

全ポリゴンに関する観察角度θの算出が終了すると、角度情報生成部104は、各ポリゴンに関する観察角度θから観察角度分布情報を生成し、観察角度分布情報をバッファメモリ106に保存して(S46)、処理を終了する。   When the calculation of the observation angles θ for all the polygons is completed, the angle information generation unit 104 generates observation angle distribution information from the observation angles θ for each polygon, stores the observation angle distribution information in the buffer memory 106 (S46), The process ends.

[補正部]
図7は補正部105の処理を説明するフローチャートである。
[Correction section]
FIG. 7 is a flowchart for explaining the processing of the correction unit 105.

補正部105は、バッファメモリ106から、観察角度分布情報を取得し(S51)、装置位置情報を取得する(S52)。そして、観察角度分布情報が示す観察角度θが所定の閾値以上のポリゴンを細分割し、細分割したポリゴンごとに仮想投影面を生成する(S53)。   The correcting unit 105 acquires observation angle distribution information from the buffer memory 106 (S51), and acquires apparatus position information (S52). Then, a polygon whose observation angle θ indicated by the observation angle distribution information is subdivided is subdivided, and a virtual projection plane is generated for each subdivided polygon (S53).

仮想投影面は、細分割したポリゴンの重心と観察位置52を結ぶ直線54と直交する。言い換えれば、仮想投影面の法線51は直線54に一致する。また、所定の閾値(観察角度)は、UIを介してユーザが指定してもよいし、3D形状情報と観察位置情報から算出してもよい。   The virtual projection plane is orthogonal to a straight line 54 that connects the center of gravity of the subdivided polygon and the observation position 52. In other words, the normal 51 of the virtual projection plane coincides with the straight line 54. Further, the predetermined threshold (observation angle) may be designated by the user via the UI, or may be calculated from the 3D shape information and the observation position information.

補正部105は、観察角度θが所定の閾値未満の投影面と、観察角度θが所定の閾値以上の投影面を細分化した仮想投影面をもつ観察位置を考慮した3D形状情報(以下、修正形状情報)を生成し、バッファメモリ106の保存する(S54)。   The correction unit 105 calculates 3D shape information in consideration of an observation position having a projection plane whose observation angle θ is less than a predetermined threshold and a virtual projection plane obtained by subdividing a projection plane whose observation angle θ is equal to or greater than a predetermined threshold. Shape information) is generated and stored in the buffer memory 106 (S54).

次に、補正部105は、修正形状情報が示す投影面に、画像投影装置12から画像を投影する透視変換モデルを設定して原画像を投影する投影シミュレーションを行い、当該投影面に投影された画像(以下、投影画像)を得る(S55)。   Next, the correction unit 105 sets a perspective transformation model for projecting an image from the image projection device 12 on the projection plane indicated by the corrected shape information, performs a projection simulation for projecting the original image, and is projected onto the projection plane. An image (hereinafter referred to as a projected image) is obtained (S55).

次に、補正部105は、3D形状情報が示す投影面に、画像投影装置12から画像を投影する透視変換モデルを設定して、ステップS54で得た投影画像を逆投影する逆投影シミュレーションを行い、画像投影装置12が投影すべき画像を生成する(S56)。画像投影装置12が投影すべき画像が、画像処理装置11が出力すべき原画像の補正画像である。   Next, the correction unit 105 sets a perspective transformation model for projecting an image from the image projection device 12 on the projection plane indicated by the 3D shape information, and performs a back projection simulation for back projecting the projection image obtained in step S54. Then, the image projection device 12 generates an image to be projected (S56). The image to be projected by the image projection device 12 is a corrected image of the original image to be output by the image processing device 11.

なお、透視変換にかかわる処理は、3DCGの分野でよく知られた処理であり、高速な処理回路が既に広く利用されている。従って、当該回路を利用すると同時に、仮想投影面の近似精度を制御することによって、補正処理の高速化を実現することができる。   The process related to the perspective transformation is a process well known in the field of 3DCG, and high-speed processing circuits are already widely used. Accordingly, the correction process can be speeded up by using the circuit and controlling the approximation accuracy of the virtual projection plane.

上記の画像補正により、三次元物体の投影面に投影された画像の観察する場合の、投影面の形状と観察位置によって発生する画像の歪みや暈けを低減することができる。   With the above image correction, it is possible to reduce image distortion and blur caused by the shape of the projection surface and the observation position when observing the image projected on the projection surface of the three-dimensional object.

[他の実施例]
本発明は、上記実施例の機能を実現するプログラムを記録した記録媒体(または記憶媒体)を装置(またはシステム)に供給し、装置のコンピュータ(CPUやMPU)が記録媒体から読み出したプログラムを実行することでも実現される。この場合、記録媒体に格納されたプログラムが上記実施例の機能を実現し、そのプログラムと、そのプログラムを記憶するコンピュータが読み取り可能な記録媒体は本発明を構成する。
[Other embodiments]
The present invention supplies a recording medium (or storage medium) recording a program for realizing the functions of the above embodiments to the apparatus (or system), and executes the program read from the recording medium by the computer (CPU or MPU) of the apparatus It is also realized by doing. In this case, the program stored in the recording medium realizes the functions of the above embodiments, and the program and the computer-readable recording medium storing the program constitute the present invention.

また、プログラムの実行により上記機能が実現されるだけではない。つまり、プログラムの指示により、コンピュータ上で稼働するオペレーティングシステム(OS)および/または他のプログラムなどが実際の処理または制御の一部または全部を行い、それによって上記機能が実現される場合も含む。また、プログラムは、コンピュータに接続された機能拡張カードやユニットなどのデバイスのメモリに格納されていてもよい。つまり、プログラムの指示により、デバイスのCPUなどが実際の処理の一部または全部を行い、それによって上記機能が実現される場合も含む。本発明を記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応または関連するプログラムが格納される。   Further, the above functions are not only realized by the execution of the program. That is, it includes a case where an operating system (OS) running on a computer and / or another program or the like performs part or all of actual processing or control by the instruction of the program, thereby realizing the above functions. The program may be stored in a memory of a device such as a function expansion card or unit connected to the computer. In other words, it includes the case where the CPU or the like of the device performs part or all of the actual processing according to the instructions of the program, thereby realizing the above functions. When the present invention is applied to a recording medium, the recording medium stores a program corresponding to or related to the flowchart described above.

Claims (8)

画像を投影する三次元物体の形状情報、前記三次元物体に投影される画像の観察位置を示す観察位置情報、および、前記三次元物体に画像を投影する画像投影装置の位置を示す装置位置情報を入力する入力手段と、
前記観察位置情報および前記形状情報に基づき、前記形状情報を表現する各ポリゴンの向きと前記観察位置の関係を示す観察角度を算出する算出手段と、
前記観察角度、前記形状情報および前記装置位置情報に基づき、前記画像投影装置に出力する画像を補正する補正手段とを有することを特徴とする画像処理装置。
Shape information of a three-dimensional object projecting an image, observation position information indicating an observation position of an image projected on the three-dimensional object, and apparatus position information indicating a position of an image projection apparatus that projects an image on the three-dimensional object An input means for inputting
Based on the observation position information and the shape information, calculation means for calculating an observation angle indicating a relationship between the direction of each polygon representing the shape information and the observation position;
An image processing apparatus comprising: correction means for correcting an image output to the image projection apparatus based on the observation angle, the shape information, and the apparatus position information.
前記形状情報は、前記三次元物体の表面である投影面の三次元形状を表すことを特徴とする請求項1に記載された画像処理装置。   2. The image processing apparatus according to claim 1, wherein the shape information represents a three-dimensional shape of a projection plane that is a surface of the three-dimensional object. 前記観察角度は、前記ポリゴンの重心と前記観察位置を結ぶ直線が、前記ポリゴンの法線と成す角を表すことを特徴とする請求項1または請求項2に記載された画像処理装置。   3. The image processing apparatus according to claim 1, wherein the observation angle represents an angle formed by a straight line connecting the center of gravity of the polygon and the observation position with a normal line of the polygon. 前記補正手段は、前記観察角度が所定の値以上のポリゴンを細分化し、前記細分化したポリゴンの重心と前記観察位置を結ぶ直線が前記細分化したポリゴンの法線に一致するように、前記細分化したポリゴンの面の向きを設定して、前記形状情報を修正した修正形状情報を生成することを特徴とする請求項1から請求項3の何れか一項に記載された画像処理装置。   The correction means subdivides a polygon having an observation angle equal to or greater than a predetermined value, so that a straight line connecting the center of gravity of the subdivided polygon and the observation position matches a normal line of the subdivided polygon. 4. The image processing apparatus according to claim 1, wherein the corrected shape information obtained by correcting the shape information is generated by setting the orientation of the converted polygonal surface. 前記補正手段は、前記修正形状情報と前記装置位置情報に基づき設定した透視変換モデルによって前記画像投影装置に出力すべき画像の投影シミュレーションを行い、前記形状情報と前記装置位置情報に基づき設定した透視変換モデルによって前記投影シミュレーションの結果の逆投影シミュレーションを行い、前記画像投影装置に出力する補正画像を生成することを特徴とする請求項4に記載された画像処理装置。   The correction means performs a projection simulation of an image to be output to the image projection device using a perspective transformation model set based on the corrected shape information and the device position information, and a perspective set based on the shape information and the device position information. 5. The image processing apparatus according to claim 4, wherein a back projection simulation of the result of the projection simulation is performed using a conversion model, and a corrected image to be output to the image projection apparatus is generated. 画像を投影する三次元物体の形状情報、前記三次元物体に投影される画像の観察位置を示す観察位置情報、および、前記三次元物体に画像を投影する画像投影装置の位置を示す装置位置情報を入力し、
前記観察位置情報および前記形状情報に基づき、前記形状情報を表現する各ポリゴンの向きと前記観察位置の関係を示す観察角度を算出し、
前記観察角度、前記形状情報および前記装置位置情報に基づき、前記画像投影装置に出力する画像を補正することを特徴とする画像処理方法。
Shape information of a three-dimensional object projecting an image, observation position information indicating an observation position of an image projected on the three-dimensional object, and apparatus position information indicating a position of an image projection apparatus that projects an image on the three-dimensional object Enter
Based on the observation position information and the shape information, calculate the observation angle indicating the relationship between the observation position and the orientation of each polygon representing the shape information,
An image processing method, comprising: correcting an image output to the image projection device based on the observation angle, the shape information, and the device position information.
コンピュータ装置を制御して、請求項1から請求項5の何れか一項に記載された画像処理装置の各手段として機能させることを特徴とするプログラム。   6. A non-transitory computer-readable storage medium storing a program for controlling a computer apparatus to function as each unit of the image processing apparatus according to claim 1. 請求項7に記載されたプログラムが記録されたことを特徴とするコンピュータが読み取り可能な記録媒体。   8. A computer-readable recording medium on which the program according to claim 7 is recorded.
JP2009099402A 2009-04-15 2009-04-15 Image processing apparatus and method Active JP5432571B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009099402A JP5432571B2 (en) 2009-04-15 2009-04-15 Image processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009099402A JP5432571B2 (en) 2009-04-15 2009-04-15 Image processing apparatus and method

Publications (3)

Publication Number Publication Date
JP2010250560A true JP2010250560A (en) 2010-11-04
JP2010250560A5 JP2010250560A5 (en) 2012-05-31
JP5432571B2 JP5432571B2 (en) 2014-03-05

Family

ID=43312814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009099402A Active JP5432571B2 (en) 2009-04-15 2009-04-15 Image processing apparatus and method

Country Status (1)

Country Link
JP (1) JP5432571B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015169684A (en) * 2014-03-05 2015-09-28 カシオ計算機株式会社 image display device, image display method, and program
WO2016031504A1 (en) * 2014-08-28 2016-03-03 株式会社トプコン Survey information marking device and survey information marking method
JP2016192600A (en) * 2015-03-30 2016-11-10 株式会社東芝 Information processor and projection apparatus
JP6259933B1 (en) * 2016-07-27 2018-01-10 株式会社オプティム Projection system, projection method and program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061121A (en) * 1999-08-23 2001-03-06 Nec Corp Projector
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2003030677A (en) * 2001-07-19 2003-01-31 Namco Ltd Image display device, image display method, information storage medium and image display program
JP2004072553A (en) * 2002-08-08 2004-03-04 Digital Zuu:Kk Image distortion correction method, and program for the same
JP2005124006A (en) * 2003-10-20 2005-05-12 Nippon Telegr & Teleph Corp <Ntt> Apparatus and method of projection
JP2007325043A (en) * 2006-06-02 2007-12-13 Victor Co Of Japan Ltd Image display apparatus and image display program
JP2008299663A (en) * 2007-05-31 2008-12-11 Victor Co Of Japan Ltd Image display device and image display method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001061121A (en) * 1999-08-23 2001-03-06 Nec Corp Projector
JP2001320652A (en) * 2000-05-11 2001-11-16 Nec Corp Projector
JP2003030677A (en) * 2001-07-19 2003-01-31 Namco Ltd Image display device, image display method, information storage medium and image display program
JP2004072553A (en) * 2002-08-08 2004-03-04 Digital Zuu:Kk Image distortion correction method, and program for the same
JP2005124006A (en) * 2003-10-20 2005-05-12 Nippon Telegr & Teleph Corp <Ntt> Apparatus and method of projection
JP2007325043A (en) * 2006-06-02 2007-12-13 Victor Co Of Japan Ltd Image display apparatus and image display program
JP2008299663A (en) * 2007-05-31 2008-12-11 Victor Co Of Japan Ltd Image display device and image display method

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015169684A (en) * 2014-03-05 2015-09-28 カシオ計算機株式会社 image display device, image display method, and program
WO2016031504A1 (en) * 2014-08-28 2016-03-03 株式会社トプコン Survey information marking device and survey information marking method
CN106716061A (en) * 2014-08-28 2017-05-24 株式会社拓普康 Survey information marking device and survey information marking method
JPWO2016031504A1 (en) * 2014-08-28 2017-05-25 株式会社トプコン Surveying information marking device, surveying information marking method
US9776320B2 (en) 2014-08-28 2017-10-03 Kabushiki Kaisha Topcon Measurement and installation data indicating apparatus and measurement and installation data indicating method
JP2016192600A (en) * 2015-03-30 2016-11-10 株式会社東芝 Information processor and projection apparatus
JP6259933B1 (en) * 2016-07-27 2018-01-10 株式会社オプティム Projection system, projection method and program
WO2018020606A1 (en) * 2016-07-27 2018-02-01 株式会社オプティム Projection system, projection method, and program
US10345687B2 (en) 2016-07-27 2019-07-09 Optim Corporation Projection system, projection method, and projection program

Also Published As

Publication number Publication date
JP5432571B2 (en) 2014-03-05

Similar Documents

Publication Publication Date Title
US11847738B2 (en) Voxelization of mesh representations
CN108305271B (en) Video frame image processing method and device
US9865032B2 (en) Focal length warping
KR20130054868A (en) Geometric correction apparatus and method based on recursive bezier patch sub-division
US10169891B2 (en) Producing three-dimensional representation based on images of a person
JP5432571B2 (en) Image processing apparatus and method
JP2009004865A (en) Method and device for preparing profile
JP6028527B2 (en) Display processing apparatus, display processing method, and program
US10893252B2 (en) Image processing apparatus and 2D image generation program
JP5413081B2 (en) Image display method and image display apparatus
JP2020004085A (en) Image processor, image processing method and program
JP2016072691A (en) Image processing system, control method of the same, and program
US11443485B2 (en) Rendering device, rendering method, 3D model generating method, neural network model generating method, and non-transitory computer readable medium
JP2006215766A (en) Image display device, image display method and image display program
CN108256611A (en) Quick Response Code image generating method, device, computing device and storage medium
JP2015197374A (en) Three-dimensional shape estimation device and three-dimensional shape estimation method
US7859531B2 (en) Method and apparatus for three-dimensional graphics, and computer product
JP6967150B2 (en) Learning device, image generator, learning method, image generation method and program
KR101189687B1 (en) Method for creating 3d character
US20140354627A1 (en) Rendering a 3d shape
JP2006303785A (en) Image processing apparatus and method
US20170228902A1 (en) Information processing apparatus and information processing method
JP2010257224A (en) Moving image display device
JP2013070191A (en) Image processor and image processing program
CN116684561B (en) Startup image adjusting method and device, electronic equipment and storage medium

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120410

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120410

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130208

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130215

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131206

R151 Written notification of patent or utility model registration

Ref document number: 5432571

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151