JP4871820B2 - Video display system and parameter generation method for the system - Google Patents

Video display system and parameter generation method for the system Download PDF

Info

Publication number
JP4871820B2
JP4871820B2 JP2007241317A JP2007241317A JP4871820B2 JP 4871820 B2 JP4871820 B2 JP 4871820B2 JP 2007241317 A JP2007241317 A JP 2007241317A JP 2007241317 A JP2007241317 A JP 2007241317A JP 4871820 B2 JP4871820 B2 JP 4871820B2
Authority
JP
Japan
Prior art keywords
image
parameter
unit
correction
geometric correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2007241317A
Other languages
Japanese (ja)
Other versions
JP2009075646A (en
Inventor
剛 皆川
秀行 坂井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2007241317A priority Critical patent/JP4871820B2/en
Publication of JP2009075646A publication Critical patent/JP2009075646A/en
Application granted granted Critical
Publication of JP4871820B2 publication Critical patent/JP4871820B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、映像表示システム及び該システムのパラメータ生成方法に係り、特に、入力された映像に幾何補正を施して表示することにより所望の映像を得るようにした映像表示システム及び該システムのパラメータ生成方法に関する。   The present invention relates to a video display system and a parameter generation method of the system, and more particularly to a video display system that obtains a desired video by performing geometric correction on an input video and displaying the same, and parameter generation of the system Regarding the method.

魚眼レンズ等を用いて撮影した入力映像を、複数の画像投射装置を用いて表示する従来技術として、例えば、特許文献1等に記載された技術が知られている。この従来技術は、入力幾何プロファイルと出力幾何プロファイルとに基づいて入力映像から実際に表示すべき領域を切り出し、その切り出された映像に幾何補正を施した上で投射することにより、映像品質の劣化を抑えつつ、スクリーン上で所望の映像が得られるようにしたものである。
特開2005−347813号公報
As a conventional technique for displaying an input video photographed using a fisheye lens or the like using a plurality of image projection apparatuses, for example, a technique described in Patent Document 1 is known. In this conventional technique, an area to be actually displayed is cut out from an input video based on an input geometric profile and an output geometric profile, and the cut video is subjected to geometric correction and projected, thereby degrading video quality. In this way, a desired image can be obtained on a screen.
JP 2005-347813 A

前述した従来技術は、表示領域の切り出し処理をリサンプリング処理として実施せざるを得ないため、切り出し処理をスキャンコンバータ等の単純な構成の安価な装置で実施することができず、システム全体のコストを増加させているという課題を有している。   In the conventional technology described above, the display area clipping process must be performed as a resampling process. Therefore, the clipping process cannot be performed with an inexpensive apparatus having a simple configuration such as a scan converter. Has the problem of increasing

本発明の目的は、前述した従来技術の課題を解決し、映像品質の劣化を抑えながらも、より低いコストで、魚眼レンズ等を用いて撮影した映像を表示することのできる映像表示システム及び該システムのパラメータ生成方法を提供することにある。   SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned problems of the prior art and to display an image captured using a fisheye lens or the like at a lower cost while suppressing deterioration in image quality and the system. It is to provide a parameter generation method.

本発明によれば前記目的は、撮像パラメータに基づく条件で生成された画像である入力画像を供給する画像供給部と、抽出パラメータに基づいて、前記入力画像の一部分を成す矩形領域を切り出して、切り出し画像として出力する画像切り出し部と、幾何補正パラメータに基づいて前記切り出し画像に対して幾何学的な補正を施して出力する補正部と、前記補正部が出力した画像を表示する表示部とを備え、前記幾何補正パラメータは、前記表示部の設計値に基づく投影パラメータに基づいて生成された画像を補正して出力したときに前記表示部で所望の映像が得られるような補正パラメータである第1の補正パラメータと、前記撮像パラメータ及び前記抽出パラメータに基づいて生成される画像と前記投影パラメータに基づいて生成される画像との差異を補正するための補正パラメータである第2の補正パラメータとを合成した補正パラメータとされていることにより達成される。   According to the present invention, the object is to cut out a rectangular region that forms a part of the input image based on the extraction parameter, an image supply unit that supplies an input image that is an image generated under conditions based on imaging parameters, An image cutout unit that outputs as a cutout image, a correction unit that performs geometric correction on the cutout image based on a geometric correction parameter, and a display unit that displays an image output by the correction unit The geometric correction parameter is a correction parameter such that a desired image can be obtained on the display unit when an image generated based on a projection parameter based on a design value of the display unit is corrected and output. 1 correction parameter, an image generated based on the imaging parameter and the extraction parameter, and generated based on the projection parameter Is accomplished by being a correction parameter second combines the correction parameter is a correction parameter for correcting the difference between the image.

すなわち、本発明は、高解像度な入力画像に対して、特許文献1に記載の技術のように複雑な切り出し処理による映像品質の維持を図ることはせず、切り出し部が実施する処理を矩形領域の抽出と解像度の変換のみに単純化し、複雑な幾何補正処理を補正部において一括して実施するようにすることにより、映像品質の劣化を抑えるようにしている。   That is, the present invention does not attempt to maintain video quality by a complicated clipping process as in the technique described in Patent Document 1 for a high-resolution input image, and the process performed by the clipping unit is a rectangular area. By simply performing extraction and resolution conversion, and performing a complicated geometric correction process at the same time in the correction unit, deterioration of video quality is suppressed.

本発明によれば、映像品質の劣化を抑えながら、従来技術に比較してより低いコストで、魚眼レンズ等を用いて撮影した映像を所望の映像として表示することができる。   According to the present invention, it is possible to display an image captured using a fisheye lens or the like as a desired image at a lower cost as compared with the prior art while suppressing deterioration in image quality.

以下、本発明による映像表示システム及び該システムのパラメータ生成方法の実施形態を図面により詳細に説明する。   Embodiments of a video display system and a parameter generation method of the system according to the present invention will be described below in detail with reference to the drawings.

図1は本発明の第1の実施形態による映像表示システムの構成を示すブロック図である。本実施形態による映像表示システムは、画像供給部101、切り出し部112及び122、補正部113及び123、投映部114及び124、及び、スクリーン105を備えて構成される。   FIG. 1 is a block diagram showing the configuration of a video display system according to the first embodiment of the present invention. The video display system according to this embodiment includes an image supply unit 101, cropping units 112 and 122, correction units 113 and 123, projection units 114 and 124, and a screen 105.

画像供給部101は、切り出し部112及び122に対して、等距離魚眼レンズで撮影した画像を時々刻々供給するものであり、例えば、等距離魚眼レンズを付けたハイビジョンカメラと映像分配器との組により構成される。   The image supply unit 101 supplies an image captured by the equidistant fisheye lens to the clipping units 112 and 122 from time to time. For example, the image supply unit 101 includes a pair of a high-vision camera with an equidistant fisheye lens and a video distributor. Is done.

切り出し部112及び122は、画像供給部101によって供給された画像から、スクリーン105に投射すべき領域を含む一部分の領域を切り出した上で解像度変換を行い、補正部113及び123に出力するものであり、例えば、スキャンコンバータである。なお、詳細な構成については、図2により後述する。   The cutout units 112 and 122 cut out a part of the region including the region to be projected on the screen 105 from the image supplied by the image supply unit 101, perform resolution conversion, and output to the correction units 113 and 123. Yes, for example, a scan converter. The detailed configuration will be described later with reference to FIG.

補正部113及び123は、切り出し部112及び122から入力された画像に、幾何補正処理及び画素値変換処理を施してから、投映部114及び124に供給することにより、スクリーン105に投映された2つの映像が滑らかに繋がり1つの所望の映像として観賞されるようにするものである。なお、詳細な構成については、図3により後述する。   The correction units 113 and 123 perform geometric correction processing and pixel value conversion processing on the images input from the clipping units 112 and 122, and then supply the images to the projection units 114 and 124, thereby projecting 2 on the screen 105. The two images are smoothly connected to be viewed as one desired image. The detailed configuration will be described later with reference to FIG.

投映部114及び124は、補正部113及び123から入力された画像をスクリーン105に対して投映するものであり、個々の映像がスクリーン105において1つの映像を形成できるように、隣り合う投映領域が互いに一部分重複するように配置される。投映部114及び124の具体的な例としては、例えば、液晶プロジェクタである。   The projection units 114 and 124 project the images input from the correction units 113 and 123 onto the screen 105, and adjacent projection areas are formed so that each video can form one video on the screen 105. They are arranged so as to partially overlap each other. A specific example of the projection units 114 and 124 is a liquid crystal projector, for example.

スクリーン105は、例えば、観賞者から見て凹面となるような半球面形状の、正面投射用スクリーンを用いる。これによって、等距離魚眼レンズを用いて撮影した画像を、観賞者の視野の広い部分を効率よく覆うように正しく表示することが可能となる。   As the screen 105, for example, a front projection screen having a hemispherical shape that is concave as viewed from the viewer is used. This makes it possible to correctly display an image taken using an equidistant fisheye lens so as to efficiently cover a wide portion of the viewer's field of view.

なお、以下に説明する本発明の実施形態では、切り出し部と補正部と投映部とからなる構成を「表示系列」と呼ぶこととする。図1に示す例における映像表示システムは、2つの表示系列を備えているとして示しているが、本発明は、表示系列の数を2つに限る必要はなく、画像供給部101が出力するチャンネル数を増減させることにより、増減させることが可能である。   In the embodiment of the present invention described below, a configuration including a cutout unit, a correction unit, and a projection unit is referred to as a “display sequence”. Although the video display system in the example shown in FIG. 1 is shown as having two display sequences, the present invention does not have to limit the number of display sequences to two, and the channels output by the image supply unit 101 It can be increased or decreased by increasing or decreasing the number.

図2は切り出し部112の構成を示すブロック図である。切り出し部112は、画像入力部201、フレームメモリ202、領域選択部203、出力部204、領域選択パラメータ入力部205、領域選択パラメータ記憶部206により構成される。なお、切り出し部122も同様に構成される。   FIG. 2 is a block diagram illustrating a configuration of the cutout unit 112. The clipping unit 112 includes an image input unit 201, a frame memory 202, a region selection unit 203, an output unit 204, a region selection parameter input unit 205, and a region selection parameter storage unit 206. The cutout unit 122 is configured similarly.

画像入力部201は、画像供給部101から供給された1チャンネル分の画像を読み込み、デジタル画像データとしてフレームメモリ202に書き込むものであり、画像がアナログ信号として供給される場合、A/D変換器を備えて構成される。   The image input unit 201 reads an image for one channel supplied from the image supply unit 101 and writes it into the frame memory 202 as digital image data. When the image is supplied as an analog signal, the A / D converter It is configured with.

フレームメモリ202は、1チャンネル分の入力画像が格納可能な大きさのメモリを2フレーム分だけ備えて構成され、1フレーム分を画像入力部201からの書き込み用に、残りの1フレーム分を領域選択部203からの読み出し用に、奇数フレームと偶数フレームとでそれらの役割を交互に交代しながら使用される。   The frame memory 202 includes only two frames of a memory that can store an input image for one channel. The frame memory 202 is used for writing from the image input unit 201 for one frame, and the remaining one frame is used as an area. For reading from the selection unit 203, the odd frames and the even frames are used by alternately changing their roles.

領域選択部203は、領域選択パラメータ記憶部206に格納されている領域選択パラメータに基づいて、フレームメモリ202上の画像データの一部を成している矩形領域を切り出し、適切な解像度変換を施して、出力部204に対して出力する。ここで、前記領域選択パラメータは、フレームメモリ202上の矩形領域が特定できるようなパラメータであり、例えば、フレームメモリ202上の座標系における矩形領域の左上の座標値(X0,Y0)と矩形領域の幅及び高さの組(W,H)とにより構成される。パラメータの構成としては、その他に、左上と右下との座標値を指定する方法や、X座標とY座標とのそれぞれの最小値と最大値とを指定する方法、また、座標値の指定を画像全体の幅や高さに対する割合で実施する方法等、種々の方法によるものが考えられるが、矩形領域が特定できるものであれば、どのような方法で表現したパラメータで構成してもよい。   The area selection unit 203 cuts out a rectangular area that forms part of the image data on the frame memory 202 based on the area selection parameter stored in the area selection parameter storage unit 206, and performs appropriate resolution conversion. Output to the output unit 204. Here, the area selection parameter is a parameter for specifying a rectangular area on the frame memory 202. For example, the upper left coordinate value (X0, Y0) of the rectangular area in the coordinate system on the frame memory 202 and the rectangular area And a set of widths and heights (W, H). In addition to the configuration of parameters, there are a method of specifying the coordinate values of the upper left and lower right, a method of specifying the minimum and maximum values of the X and Y coordinates, and the specification of the coordinate values. Although various methods such as a method of performing the ratio with respect to the width and height of the entire image are conceivable, the parameters may be configured by any method as long as the rectangular region can be specified.

なお、切り出し部112が出力すべき画像の解像度、すなわち、前記領域選択部203による解像度変換後の解像度は、補正部113の入力解像度(後述する表示設計パラメータ432に含まれている)に応じて決定される。この解像度の設計値は、切り出し部112の図示しない記憶部に予め格納しておき、領域選択部203から参照できるようにされている。   Note that the resolution of the image to be output by the cutout unit 112, that is, the resolution after resolution conversion by the region selection unit 203, depends on the input resolution of the correction unit 113 (included in the display design parameter 432 described later). It is determined. The design value of the resolution is stored in advance in a storage unit (not shown) of the cutout unit 112 so that it can be referred to from the region selection unit 203.

出力部204は、領域選択部203から出力された画像を適切な映像信号に変換して補正部113に対して出力するものであり、補正部113がアナログ映像信号を入力するように構成されている場合、D/A変換器を備えて構成される。   The output unit 204 converts the image output from the region selection unit 203 into an appropriate video signal and outputs the video signal to the correction unit 113, and the correction unit 113 is configured to input an analog video signal. If it is, it is configured with a D / A converter.

領域選択パラメータ記憶部206には、領域選択パラメータ入力部205を介して入力された領域選択パラメータが格納される。領域選択パラメータ入力部205には、後述するパラメータ生成部401の領域選択パラメータ出力部413に対応して領域選択パラメータを受け取れるようなものを使用する。例えば、領域選択パラメータ入力部205としては、フラッシュメモリ等の記憶媒体からパラメータを読み込む装置や、ネットワークインタフェース、RS−232CインタフェースやUSBインタフェース等、種々のものを使用することができ、また、押ボタン等のユーザインタフェースを備えるように構成し、パラメータ生成部401の生成した領域選択パラメータ413をユーザが手動で入力できるようにしてもよい。   The area selection parameter storage unit 206 stores area selection parameters input via the area selection parameter input unit 205. As the area selection parameter input unit 205, an apparatus that can receive an area selection parameter corresponding to an area selection parameter output unit 413 of the parameter generation unit 401 described later is used. For example, as the area selection parameter input unit 205, various devices such as a device for reading parameters from a storage medium such as a flash memory, a network interface, an RS-232C interface, a USB interface, and the like can be used. The user interface may be configured so that the user can manually input the region selection parameter 413 generated by the parameter generation unit 401.

なお、切り出し部112の具体的な形態としては、フレームメモリ202としてRAMを、領域選択パラメータ記憶部206として書き換え可能な不揮発性のメモリを、領域選択部203としてFPGAやASICを、それぞれ使用すればよいが、本発明の実施形態は、これらに限るものではない。   As a specific form of the cutout unit 112, a RAM can be used as the frame memory 202, a rewritable nonvolatile memory can be used as the region selection parameter storage unit 206, and an FPGA or an ASIC can be used as the region selection unit 203. However, embodiments of the present invention are not limited to these.

図3は補正部113の構成を示すブロック図である。補正部113は、画像入力部301、フレームメモリ302、幾何補正部303、画素値変換部304、出力部305、幾何補正パラメータ入力部306、幾何補正パラメータ記憶部307、画素値変換パラメータ入力部308、画素値変換パラメータ記憶部309により構成される。なお、補正部123も同様に構成される。   FIG. 3 is a block diagram showing the configuration of the correction unit 113. The correction unit 113 includes an image input unit 301, a frame memory 302, a geometric correction unit 303, a pixel value conversion unit 304, an output unit 305, a geometric correction parameter input unit 306, a geometric correction parameter storage unit 307, and a pixel value conversion parameter input unit 308. The pixel value conversion parameter storage unit 309 is configured. The correction unit 123 is configured similarly.

画像入力部301は、切り出し部112から供給された1チャンネル分の画像を読み込み、デジタル画像データとしてフレームメモリ302に書き込むものであり、画像がアナログ信号として供給される場合、A/D変換器を備えて構成される。   The image input unit 301 reads an image for one channel supplied from the cutout unit 112 and writes it into the frame memory 302 as digital image data. When the image is supplied as an analog signal, an A / D converter is used. It is prepared for.

フレームメモリ302は、1チャンネル分の入力画像が格納可能な大きさのメモリを2フレーム分だけ備えて構成され、1フレーム分を画像入力部301からの書き込み用に、残りの1フレーム分を幾何補正部303からの読み出し用に、奇数フレームと偶数フレームとでそれらの役割を交互に交代しながら使用される。   The frame memory 302 includes two frames of a size that can store an input image for one channel. The frame memory 302 is used for writing from the image input unit 301 for one frame, and the remaining one frame is geometric. For reading from the correction unit 303, the odd frames and the even frames are used while alternately switching their roles.

幾何補正部303は、幾何補正パラメータ記憶部307に格納されている幾何補正パラメータに基づいて、フレームメモリ302上の画像データに幾何補正を行った結果の画像データを画素値変換部304に対して出力するものである。前述の幾何補正パラメータは、幾何補正部303が出力する画像データのそれぞれの画素に対して該画素の画素値をフレームメモリ302上のどの画素を参照してどのように決定するかを定義したパラメータである。例えば、各画素について実数値Xと実数値Yとの組を格納しておき、それをフレームメモリ302上の(X,Y)という座標値に対応させて、基準色(例えば、R,G,B)毎に、四近傍画素の双線形補間によって画素値を定めるように実装すればよい。なお、フレームメモリ302上に対応する座標値がない場合、予め定めた例外値を格納しておき、幾何補正部303を、そのような画素に対しては常に「黒」すなわち(R,G,B)=(0,0,0)を出力するように構成する。   Based on the geometric correction parameters stored in the geometric correction parameter storage unit 307, the geometric correction unit 303 sends image data obtained as a result of performing geometric correction to the image data on the frame memory 302 to the pixel value conversion unit 304. Output. The above-described geometric correction parameter is a parameter that defines how the pixel value of each pixel of the image data output from the geometric correction unit 303 is determined with reference to which pixel on the frame memory 302. It is. For example, for each pixel, a set of a real value X and a real value Y is stored, and is associated with a coordinate value (X, Y) on the frame memory 302, so that a reference color (for example, R, G, For each B), the pixel value may be determined by bilinear interpolation of four neighboring pixels. Note that if there is no corresponding coordinate value on the frame memory 302, a predetermined exception value is stored, and the geometric correction unit 303 is always “black” for such a pixel, that is, (R, G, B) = (0, 0, 0) is output.

画素値変換部304は、画素値変換パラメータ記憶部309に格納されている画素値変換パラメータに基づいて、幾何補正部303から入力された画像中の各画素に対して画素値を変換して出力部305に対して出力するものであり、画像の色や明るさの補正に相当する処理を行う部分である。画素値変換部304への入力となる画像の解像度、及び、画素値変換部304からの出力となる画像の解像度は、いずれも、補正部113から出力される画像の解像度に等しくなるようにされている。前述の画素値変換パラメータは、例えば、各画素のRとGとBとのそれぞれに独立に、入力画素値に対して出力画素値を定めたルックアップテーブルとして保持される。   The pixel value conversion unit 304 converts the pixel value for each pixel in the image input from the geometric correction unit 303 based on the pixel value conversion parameter stored in the pixel value conversion parameter storage unit 309 and outputs the converted pixel value. This is output to the unit 305 and is a part that performs processing corresponding to correction of the color and brightness of the image. The resolution of the image to be input to the pixel value conversion unit 304 and the resolution of the image to be output from the pixel value conversion unit 304 are both made equal to the resolution of the image output from the correction unit 113. ing. The above-described pixel value conversion parameters are held as a look-up table in which output pixel values are determined for input pixel values independently of R, G, and B of each pixel, for example.

出力部305は、画素値変換部304から出力された画像を適切な映像信号に変換して投映部114に対して出力するものであり、投映部114がアナログ映像信号を投映するように構成されている場合、D/A変換器を備えて構成される。   The output unit 305 converts the image output from the pixel value conversion unit 304 into an appropriate video signal and outputs the video signal to the projection unit 114. The projection unit 114 is configured to project an analog video signal. In this case, a D / A converter is provided.

幾何補正パラメータ記憶部307には、幾何補正パラメータ入力部306を介して入力された幾何補正パラメータが格納される。幾何補正パラメータ入力部306としては、後述するパラメータ生成部401の幾何補正パラメータ出力部414に対応して幾何補正パラメータを受け取れるようなものが使用される。例えば、幾何補正パラメータ入力部306としては、フラッシュメモリ等の記憶媒体からパラメータを読み込む装置や、ネットワークインタフェース、RS−232CインタフェースやUSBインタフェース等、種々のものを使用することができる。   The geometric correction parameter storage unit 307 stores the geometric correction parameters input via the geometric correction parameter input unit 306. As the geometric correction parameter input unit 306, a unit that can receive a geometric correction parameter corresponding to a geometric correction parameter output unit 414 of the parameter generation unit 401 described later is used. For example, as the geometric correction parameter input unit 306, various devices such as a device that reads parameters from a storage medium such as a flash memory, a network interface, an RS-232C interface, and a USB interface can be used.

画素値変換パラメータ記憶部309には、画素値変換パラメータ入力部308を介して入力された画素値変換パラメータが格納される。画素値変換パラメータ入力部308としては、幾何補正パラメータ入力部306と同様に、画素値変換パラメータを供給する装置のインタフェースに合わせて、種々のものを使用することができる。画素値変換パラメータ記憶部309に格納する画素値変換パラメータは、既存の技術を用いて予め生成されたものであり、予め生成されたものを画素値変換パラメータ記憶部309に格納したものである。そして、この画素値変換パラメータは、後述する表示設計パラメータ432に基づいて生成された画像を画像供給部101から供給し、幾何補正パラメータ記憶部307に後述する原幾何補正パラメータ433を格納して幾何補正部303で幾何補正を施した上で、画素値変換部304で変換してから表示した場合に、スクリーン105上で所望の映像が得られるようにするパラメータである。   The pixel value conversion parameter storage unit 309 stores the pixel value conversion parameters input via the pixel value conversion parameter input unit 308. As the pixel value conversion parameter input unit 308, various devices can be used in accordance with the interface of the device that supplies the pixel value conversion parameters, similarly to the geometric correction parameter input unit 306. The pixel value conversion parameter stored in the pixel value conversion parameter storage unit 309 is generated in advance using an existing technique, and the one generated in advance is stored in the pixel value conversion parameter storage unit 309. As the pixel value conversion parameter, an image generated based on a display design parameter 432 described later is supplied from the image supply unit 101, and an original geometric correction parameter 433 described later is stored in the geometric correction parameter storage unit 307 to store the geometric value. This is a parameter that allows a desired image to be obtained on the screen 105 when the correction unit 303 performs geometric correction, and after the pixel value conversion unit 304 converts the display.

なお、補正部113の具体的な形態としては、フレームメモリ302としてRAMを、幾何補正パラメータ記憶部307及び画素値変換パラメータ記憶部309として書き換え可能な不揮発性のメモリを、幾何補正部303及び画素値変換部304としてFPGAやASICを、それぞれ使用すればよいが、本発明の実施形態は、これらに限るものではない。   As a specific form of the correction unit 113, a RAM as the frame memory 302, a rewritable nonvolatile memory as the geometric correction parameter storage unit 307 and the pixel value conversion parameter storage unit 309, a geometric correction unit 303 and a pixel An FPGA or an ASIC may be used as the value conversion unit 304, but embodiments of the present invention are not limited to these.

図4は切り出し部、補正部が使用するパラメータを生成するパラメータ生成部401の構成を示すブロック図である。なお、このパラメータ生成部401は、以下の説明では、1つの表示系列に対するパラメータを生成するものとして説明しているが、複数の表示系列に対するパラメータを生成するものとして、共通で使用される。このパラメータ生成部401は、切り出し部112が使用する領域選択パラメータと補正部113が使用する幾何補正パラメータとを生成するものであり、画像供給部101から供給される一連の映像に対して領域選択パラメータと幾何補正パラメータとをそれぞれ1つ生成して、切り出し部112、補正部113の記憶部に記憶させる際に使用される。従って、パラメータ生成部401は、図1に示す本発明の実施形態による映像表示システムを用いて、画像の投映を行う場合には、利用されず、映像表示システムとは、切り離されていてよい。   FIG. 4 is a block diagram illustrating a configuration of a parameter generation unit 401 that generates parameters used by the cutout unit and the correction unit. In the following description, the parameter generation unit 401 is described as generating parameters for one display series, but is commonly used as generating parameters for a plurality of display series. The parameter generation unit 401 generates a region selection parameter used by the clipping unit 112 and a geometric correction parameter used by the correction unit 113, and selects a region for a series of videos supplied from the image supply unit 101. One parameter and one geometric correction parameter are generated and used when storing them in the storage unit of the cutout unit 112 and the correction unit 113. Therefore, the parameter generation unit 401 is not used when projecting an image using the video display system according to the embodiment of the present invention shown in FIG. 1, and may be separated from the video display system.

パラメータ生成部401は、演算処理部411と、記憶部412と、領域選択パラメータ出力部413と、幾何補正パラメータ出力部414と、コマンド入力部415とにより構成される。   The parameter generation unit 401 includes an arithmetic processing unit 411, a storage unit 412, a region selection parameter output unit 413, a geometric correction parameter output unit 414, and a command input unit 415.

演算処理部411は、記憶部412に記憶されたプログラム及びパラメータを使用して、適宜記憶部412を使用しながらコマンド入力部415から入力されたコマンドに対する処理を行うものであり、例えば、CPUである。   The arithmetic processing unit 411 uses the program and parameters stored in the storage unit 412 to perform processing on the command input from the command input unit 415 while using the storage unit 412 as appropriate. is there.

記憶部412は、パラメータ生成プログラム421と、撮像パラメータ431と、表示設計パラメータ432と、原幾何補正パラメータ433と、領域選択パラメータ434と、幾何補正パラメータ435と、演算処理部411が実行する処理の途中で一時的に生成される中間データとを格納するものであり、例えば、RAMとハードディスクとの組や、不揮発性メモリである。   The storage unit 412 includes a parameter generation program 421, an imaging parameter 431, a display design parameter 432, an original geometric correction parameter 433, an area selection parameter 434, a geometric correction parameter 435, and processing executed by the arithmetic processing unit 411. Intermediate data temporarily generated in the middle is stored, and for example, a set of a RAM and a hard disk, or a nonvolatile memory.

領域選択パラメータ出力部413は、切り出し部112の領域選択パラメータ入力部205に対応して領域選択パラメータの授受ができるように構成されたものであり、例えば、フラッシュメモリ等の記憶媒体にパラメータを書き込む装置や、ネットワークインタフェース、RS−232CやUSBのインタフェース等の種々のものを使用することができる。   The area selection parameter output unit 413 is configured to exchange area selection parameters in correspondence with the area selection parameter input unit 205 of the cutout unit 112, and writes parameters to a storage medium such as a flash memory, for example. Various devices such as a device, a network interface, an RS-232C interface, and a USB interface can be used.

幾何補正パラメータ出力部414は、補正部113の幾何補正パラメータ入力部306に対応して幾何補正パラメータの授受ができるように構成されたものであり、例えば、フラッシュメモリ等の記憶媒体にパラメータを書き込む装置や、ネットワークインタフェース、RS−232CやUSBのインタフェース等の種々のものを使用することができる。   The geometric correction parameter output unit 414 is configured to exchange geometric correction parameters in correspondence with the geometric correction parameter input unit 306 of the correction unit 113, and writes parameters to a storage medium such as a flash memory, for example. Various devices such as a device, a network interface, an RS-232C interface, and a USB interface can be used.

コマンド入力部415は、パラメータ生成プログラム421の起動コマンドと、領域選択パラメータの出力コマンドと、幾何補正パラメータの出力コマンドとを入力するためのものであり、例えば、キーボードである。   The command input unit 415 is used to input a command for starting the parameter generation program 421, an output command for an area selection parameter, and an output command for a geometric correction parameter, for example, a keyboard.

パラメータ生成プログラム421は、撮像パラメータ431と表示設計パラメータ432と原幾何補正パラメータ433とを入力として領域選択パラメータ434と幾何補正パラメータ435とを生成するプログラムである。パラメータ生成プログラム421の具体的な処理の内容については、図5により後述する。   The parameter generation program 421 is a program that generates an area selection parameter 434 and a geometric correction parameter 435 by inputting the imaging parameter 431, the display design parameter 432, and the original geometric correction parameter 433. The specific processing contents of the parameter generation program 421 will be described later with reference to FIG.

撮像パラメータ431は、原画像の各画素位置に対して撮影視点位置からの三次元方向を算出するためのパラメータである。本発明の実施形態では、等距離魚眼レンズを用いて撮影した画像を画像供給部101から供給しているため、撮像パラメータ431としては、原画像の座標系における投影中心の座標位置と、像円の半径、魚眼レンズの画角、原画像の幅及び高さ、ワールド座標系(=表示設計パラメータ432が従っている三次元の座標系)における撮像姿勢、を含むように構成される。   The imaging parameter 431 is a parameter for calculating the three-dimensional direction from the photographing viewpoint position for each pixel position of the original image. In the embodiment of the present invention, since the image captured using the equidistant fisheye lens is supplied from the image supply unit 101, the imaging parameter 431 includes the coordinate position of the projection center in the coordinate system of the original image and the image circle. The radius, the angle of view of the fisheye lens, the width and height of the original image, and the imaging posture in the world coordinate system (= the three-dimensional coordinate system that the display design parameter 432 follows) are configured.

なお、本発明の実施形態では、魚眼レンズの高次の歪みは無視して処理を行うが、歪みが無視できない場合、それらを表現するためのパラメータを撮像パラメータ431が備えるように構成すればよい。また、前述した投影中心の座標位置及び像円の半径については、撮影された画像から推定するようにしてもよい。具体的には、像円の外側の領域が、一般に黒あるいは黒に近い状態で撮影されることを利用して、2値化処理によって像円の境界線を抽出し、ハフ変換等の手法によって円の方程式を推定すればよい。   In the embodiment of the present invention, processing is performed by ignoring high-order distortion of the fisheye lens. However, if the distortion cannot be ignored, the imaging parameter 431 may be configured to include parameters for expressing them. Further, the coordinate position of the projection center and the radius of the image circle described above may be estimated from the captured image. Specifically, using the fact that the area outside the image circle is generally photographed in a black or near-black state, the boundary line of the image circle is extracted by binarization processing, and a method such as Hough transform is used. The circle equation can be estimated.

表示設計パラメータ432は、各補正部の入力解像度と、「各補正部に供給される画像の各画素が、ワールド座標系において、仮想的な投影中心位置を基準としてどの3次元方向に対応するデータであるか」を表すパラメータとを含むパラメータである。   The display design parameter 432 includes the input resolution of each correction unit and “data corresponding to which three-dimensional direction each pixel of the image supplied to each correction unit is based on the virtual projection center position in the world coordinate system. And a parameter indicating whether or not.

原幾何補正パラメータ433は、予め既存の技術を利用して生成したものであり、表示設計パラメータ432に基づいて生成された画像を画像供給部101から供給し、幾何補正パラメータ記憶部307に原幾何補正パラメータ433を格納して幾何補正を施してから表示した場合に、スクリーン105上で幾何学的に所望の映像が得られるように生成されたパラメータである。   The original geometric correction parameter 433 is generated using an existing technique in advance, and an image generated based on the display design parameter 432 is supplied from the image supply unit 101 and is stored in the geometric correction parameter storage unit 307. This is a parameter generated so that a desired image can be obtained geometrically on the screen 105 when the correction parameter 433 is stored and displayed after geometric correction.

領域選択パラメータ434は、演算処理部411がパラメータ生成プログラム421を使用して生成するパラメータであり、それぞれの表示系列に対して、原画像上の座標系における矩形領域の左上のX座標値及びY座標値と、矩形領域の幅及び高さとを備えたパラメータである。   The area selection parameter 434 is a parameter generated by the arithmetic processing unit 411 using the parameter generation program 421. For each display series, the upper left X coordinate value and Y of the rectangular area in the coordinate system on the original image are displayed. It is a parameter provided with coordinate values and the width and height of a rectangular area.

幾何補正パラメータ435は、演算処理部411がパラメータ生成プログラム421を使用して生成するパラメータであり、投映部114に供給する画像の各画素に対し、フレームメモリ上の座標系で、リサンプリングに用いるX座標値及びY座標値を備えたパラメータである。   The geometric correction parameter 435 is a parameter generated by the arithmetic processing unit 411 using the parameter generation program 421, and is used for resampling in the coordinate system on the frame memory for each pixel of the image supplied to the projection unit 114. It is a parameter having an X coordinate value and a Y coordinate value.

なお、原画像上の座標系、及び、フレームメモリ上の座標系においては、左上隅の位置を原点(0,0)として、右に行くほどX座標が大きくなるように、下に行くほどY座標が大きくなるように、座標系を構成する。   Note that, in the coordinate system on the original image and the coordinate system on the frame memory, the position of the upper left corner is the origin (0, 0), and the X coordinate increases as it goes to the right, and the position goes down as it goes down. The coordinate system is configured so that the coordinates are large.

図5はパラメータ生成部でのパラメータ生成の処理動作を説明するフローチャート、図6は必要範囲算出方法と矩形領域抽出方法とを説明する図である。なお、図5、図6においては、1つの表示系列に対する処理のみを説明するが、実際には、それぞれの処理は、必要な表示系列のそれぞれに対して実施される。また、図5に示すフローのステップ501、502は、図6において、原画像600から必要範囲601を算出し、算出した必要範囲601に基づいて切り出しを行う矩形領域602を抽出する処理に相当する。以下、その具体的な方法について、仮想的な投影中心位置と撮影視点位置とを一致させる場合を例として、説明する。   FIG. 5 is a flowchart for explaining the parameter generation processing operation in the parameter generation unit, and FIG. 6 is a diagram for explaining the necessary range calculation method and the rectangular area extraction method. 5 and 6, only the processing for one display sequence will be described, but in practice, each processing is performed for each necessary display sequence. Further, steps 501 and 502 of the flow shown in FIG. 5 correspond to the process of calculating the necessary range 601 from the original image 600 and extracting the rectangular area 602 to be cut out based on the calculated necessary range 601 in FIG. . Hereinafter, the specific method will be described by taking as an example the case where the virtual projection center position and the photographing viewpoint position are matched.

(1)パラメータ生成処理が開始されると、まず、必要範囲算出処理を実行する。この必要範囲算出処理は、原画像上において、補正部113におけるリサンプリング処理によって画素値を決定するために参照される画素をマークする処理である。具体的には、例えば、補正部113の幾何補正部303を、四近傍画素の双線形補間によって画素値を定めるように構成した場合、原画像と同じ大きさの2値画像を用意して全画素の画素値を「0」で初期化しておき、画素値を生成する必要のある各画素に対してその参照元の座標値(x,y)を計算し、(x,y)が原画像の右と下の境界を含まない内部に存在する場合に、x0を「xを超えない最大の整数値」、x1を「x0+1」、y0を「yを超えない最大の整数値」、y1を「y0+1」と定義したときに、前述の2値画像上で、四点(x0,y0)、(x0,y1)、(x1,y0)、(x1,y1)の画素値を「1」にする処理である。ここで、参照元の座標値の計算は、撮像パラメータ431と表示設計パラメータ432とから既存の技術を用いて実施される(ステップ501)。 (1) When parameter generation processing is started, first, necessary range calculation processing is executed. This necessary range calculation process is a process of marking a pixel to be referred to in order to determine a pixel value by a resampling process in the correction unit 113 on the original image. Specifically, for example, when the geometric correction unit 303 of the correction unit 113 is configured to determine pixel values by bilinear interpolation of four neighboring pixels, a binary image having the same size as the original image is prepared. The pixel value of the pixel is initialized with “0”, the coordinate value (x, y) of the reference source is calculated for each pixel for which the pixel value needs to be generated, and (x, y) is the original image X0 is “the maximum integer value not exceeding x”, x1 is “x0 + 1”, y0 is “the maximum integer value not exceeding y”, and y1 When “y0 + 1” is defined, the pixel values of the four points (x0, y0), (x0, y1), (x1, y0), and (x1, y1) are set to “1” on the binary image described above. It is processing to do. Here, the calculation of the coordinate value of the reference source is performed using the existing technique from the imaging parameter 431 and the display design parameter 432 (step 501).

(2)次に、矩形領域抽出処理を実行する。この矩形領域抽出処理は、原画像上の座標系において、ステップ501の処理で算出した必要範囲を含み、かつ、当該領域の各辺が原画像の対応する各辺に平行であるような最小の矩形領域を抽出する処理である。このような矩形領域は、ステップ501で生成した2値画像から、画素値が「1」であるような画素が存在するX座標の最小値及び最大値、Y座標の最小値及び最大値を求めることにより、抽出することができる(ステップ502)。 (2) Next, rectangular area extraction processing is executed. This rectangular area extraction process includes a minimum range that includes the necessary range calculated in step 501 in the coordinate system on the original image and that each side of the area is parallel to each corresponding side of the original image. This is processing for extracting a rectangular area. For such a rectangular area, the minimum and maximum values of the X coordinate and the minimum and maximum values of the Y coordinate where the pixel having the pixel value “1” exists are obtained from the binary image generated in step 501. Thus, it can be extracted (step 502).

(3)次に、領域選択パラメータ保存処理を実行する。この領域選択パラメータ保存処理は、ステップ502の処理で抽出された矩形領域を、適切なフォーマット変換によって領域選択パラメータ434として記憶部412に格納する処理である。なお、領域選択パラメータ出力部413と切り出し部112の領域選択パラメータ入力部205とが接続されている場合には、前記領域選択パラメータを領域選択パラメータ記憶部206に格納する処理を同時に行うようにしてもよい(ステップ503)。 (3) Next, an area selection parameter saving process is executed. This area selection parameter saving process is a process of storing the rectangular area extracted in the process of step 502 in the storage unit 412 as an area selection parameter 434 by appropriate format conversion. When the region selection parameter output unit 413 and the region selection parameter input unit 205 of the cutout unit 112 are connected, the process of storing the region selection parameter in the region selection parameter storage unit 206 is performed simultaneously. (Step 503).

(4)次に、幾何補正パラメータ合成処理を実行する。この幾何補正パラメータ合成処理は、原幾何補正パラメータ433と、切り出し部で切り出された入力画像を設計値に合わせるための幾何補正パラメータとを合成する処理である。ここで後者の幾何補正パラメータは、撮像パラメータ431と表示設計パラメータ432との間での投影方法の差異を補正するための幾何補正関数g(・)と、矩形領域の抽出に伴う補正をするための幾何補正関数h(・)と、解像度変換に伴う補正をするための幾何補正関数k(・)とを合成したものである。すなわち、ここでの幾何補正パラメータ合成処理では、原幾何補正パラメータ433による幾何補正を関数f(・)で表した場合、k(h(g(f(x))))という合成関数で表現される幾何補正パラメータを生成する。なお、いずれの関数も、2次元座標値を入力として2次元座標値を出力する関数である(ステップ504)。 (4) Next, geometric correction parameter composition processing is executed. This geometric correction parameter combining process is a process of combining the original geometric correction parameter 433 and the geometric correction parameter for matching the input image cut out by the cutout unit with the design value. Here, the latter geometric correction parameter is used to correct a geometric correction function g (•) for correcting a difference in projection method between the imaging parameter 431 and the display design parameter 432, and correction accompanying extraction of a rectangular area. The geometric correction function h (•) and the geometric correction function k (•) for correcting the resolution conversion are synthesized. That is, in the geometric correction parameter synthesis process here, when the geometric correction by the original geometric correction parameter 433 is expressed by a function f (·), it is expressed by a synthesis function k (h (g (f (x)))). The geometric correction parameter is generated. Each function is a function that receives a two-dimensional coordinate value and outputs a two-dimensional coordinate value (step 504).

前述のステップ504での処理をより具体的に説明すると、まず、原幾何補正パラメータ433による幾何補正においては、画素位置xの画素の画素値は、フレームメモリ上の座標f(x)に基づいて決定される。しかし実際に幾何補正部に入力されるのは、表示設計パラメータで想定されている投影方法とは異なる投影方法で生成された画像であるため、ワールド座標系における3次元構造を考慮して、両者の食い違いを補正する必要がある。表示設計パラメータ432を参照することにより、フレームメモリ上の座標f(x)は、ワールド座標系において仮想的な投影中心位置を基準とした3次元の方向dに対応するということが判るから、撮像パラメータ431を参照することにより、同じ方向dに対応する原画像上の座標g(f(x))を算出することができる。この座標値は、矩形領域の切り出しによって座標原点が移動することにより、h(g(f(x)))という座標値になる。さらに、X方向とY方向とのそれぞれで独立のスケール変換が施されることによりk(h(g(f(x))))という座標値となり、これが切り出し部から出力される画像、すなわち、補正部のフレームメモリに入力される画像上において、リサンプリングされるべき座標値となる。なお、それぞれの幾何補正関数は、既存の技術を用いて容易に生成することができる。例外処理については、f(x)が前出の例外値に一致する場合には、合成後の座標値も同じく例外値にすればよく、さらに、g(f(x))が原画像からはみ出す場合やh(g(f(x)))が矩形領域の範囲からはみ出す場合についても、合成後の座標値を例外値とすればよい。   The processing in step 504 will be described more specifically. First, in the geometric correction using the original geometric correction parameter 433, the pixel value of the pixel at the pixel position x is based on the coordinate f (x) on the frame memory. It is determined. However, since what is actually input to the geometric correction unit is an image generated by a projection method different from the projection method assumed in the display design parameters, both are considered in consideration of the three-dimensional structure in the world coordinate system. It is necessary to correct the discrepancy. By referring to the display design parameter 432, it can be seen that the coordinate f (x) on the frame memory corresponds to the three-dimensional direction d based on the virtual projection center position in the world coordinate system. By referring to the parameter 431, the coordinates g (f (x)) on the original image corresponding to the same direction d can be calculated. This coordinate value becomes a coordinate value h (g (f (x))) by moving the coordinate origin by cutting out the rectangular area. Furthermore, independent scale conversion is performed in each of the X direction and the Y direction to obtain a coordinate value k (h (g (f (x)))), which is an image output from the clipping unit, that is, This is the coordinate value to be resampled on the image input to the frame memory of the correction unit. Note that each geometric correction function can be easily generated by using an existing technique. Regarding exception processing, when f (x) matches the above-described exception value, the coordinate value after synthesis may be set to the same exception value, and g (f (x)) protrudes from the original image. Even in the case where h (g (f (x))) protrudes from the range of the rectangular area, the coordinate value after synthesis may be set as an exceptional value.

(5)次に、幾何補正パラメータ保存処理を行う。この幾何補正パラメータ保存処理は、ステップ504の処理で合成された幾何補正パラメータを、記憶部412に幾何補正パラメータ435として格納する処理である。なお、幾何補正パラメータ出力部414と補正部113の幾何補正パラメータ入力部306とが接続されている場合には、前記幾何補正パラメータを幾何補正パラメータ記憶部307に格納する処理を同時に行うようにしてもよい(ステップ505)。 (5) Next, geometric correction parameter storage processing is performed. This geometric correction parameter saving process is a process for storing the geometric correction parameter synthesized in step 504 in the storage unit 412 as the geometric correction parameter 435. If the geometric correction parameter output unit 414 and the geometric correction parameter input unit 306 of the correction unit 113 are connected, the process of storing the geometric correction parameters in the geometric correction parameter storage unit 307 is performed simultaneously. (Step 505).

ステップ505での幾何補正パラメータ保存処理の終了後、パラメータ生成処理を終了する。   After completion of the geometric correction parameter storage process in step 505, the parameter generation process is terminated.

前述した本発明の第1の実施形態によれば、高解像度な入力画像に対して、切り出し部が、補正部の処理に必要となる最小限の矩形領域を抽出した上で、補正部で処理が可能な解像度に変換して画像を出力するようにし、補正部が、従来の幾何補正パラメータと、切り出し部で切り出された入力画像を設計値に合わせるための幾何補正パラメータとを合成した、第2の幾何補正パラメータを用いて幾何補正を実施するようにしたことにより、映像品質の劣化を抑えながら、従来技術に比べより低いコストで、魚眼レンズ等を用いて撮影した映像を表示することのできる映像表示システムを提供することができる。   According to the first embodiment of the present invention described above, the clipping unit extracts a minimum rectangular area necessary for the processing of the correction unit from the high-resolution input image, and then processes the correction unit. The correction unit combines the conventional geometric correction parameter and the geometric correction parameter for matching the input image cut out by the cut-out unit with the design value. By performing geometric correction using the geometric correction parameter 2, it is possible to display an image shot using a fish-eye lens or the like at a lower cost than the prior art while suppressing deterioration in image quality. A video display system can be provided.

なお、前述した本発明の第1の実施形態においては、切り出し部の個数が投映部の個数と同数となるような構成としたが、本発明の実施形態はこれに限るものではない。例えば、切り出し部が、投映部の個数と同じ個数の出力部を持つような構成として、1個の切り出し部によって複数の補正部に映像を供給するようなシステム構成としてもよい。   In the first embodiment of the present invention described above, the number of cutout portions is the same as the number of projection portions. However, the embodiment of the present invention is not limited to this. For example, a system configuration may be adopted in which the cutout unit has the same number of output units as the number of projection units, and a single cutout unit supplies video to a plurality of correction units.

また、前述した本発明の第1の実施形態においては、画像供給部101が供給する画像は、等距離魚眼レンズを用いて撮像した画像であるとしたが、本発明の実施形態は、これに限るものではなく、撮像パラメータ431、必要範囲算出処理501、幾何補正パラメータ合成処理504を、適切に構成することができるものであればよい。例えば、表示設計パラメータとして想定されているものとは別の透視変換に基づくような画像であってもよいし、「軸対称自由曲面レンズ」と呼ばれる水平画角360度を一度に撮影できるような光学系を使用して撮影された画像であってもよい。さらに、各種の投影方式に基づき、コンピュータグラフィクスの技術によって生成された画像であってもよい。   In the first embodiment of the present invention described above, the image supplied by the image supply unit 101 is an image captured using an equidistant fisheye lens. However, the embodiment of the present invention is not limited to this. The imaging parameter 431, the necessary range calculation process 501, and the geometric correction parameter composition process 504 are not limited to those described above, and any configuration may be used. For example, an image based on a perspective transformation different from that assumed as a display design parameter may be used, or a horizontal angle of view of 360 degrees called an “axisymmetric free-form surface lens” can be captured at a time. It may be an image taken using an optical system. Furthermore, the image may be an image generated by a computer graphics technique based on various projection methods.

また、前述した本発明の第1の実施形態においては、仮想的な投影中心位置と撮影視点位置とが一致している場合について説明したが、本発明の実施形態は、これに限るものではない。例えば、表示設計パラメータ432がスクリーン105の形状・姿勢・配置に関する情報を備えるようにし、パラメータ生成処理のステップ501及びステップ504での処理において原画像上の座標値を算出する際に、「スクリーン105上の対応する点」を介して求めるような構成とすることにより、仮想的な投影中心位置と撮影視点位置とをワールド座標系上で異なる位置に設定したい場合にも、適用可能である。   Further, in the above-described first embodiment of the present invention, the case where the virtual projection center position and the photographing viewpoint position coincide with each other has been described, but the embodiment of the present invention is not limited to this. . For example, when the display design parameter 432 includes information on the shape, posture, and arrangement of the screen 105 and the coordinate value on the original image is calculated in the processing in step 501 and step 504 of the parameter generation processing, the “screen 105 By adopting a configuration that is obtained via the “corresponding point above”, the present invention is also applicable when it is desired to set the virtual projection center position and the photographing viewpoint position at different positions on the world coordinate system.

次に、本発明の第2の実施形態による映像表示システムについて説明する。本発明の第2の実施形態は、前述までに説明した第1の実施形態におけるパラメータ生成処理を、複数の表示系列間の領域選択パラメータの関係を考慮して実施するように変更したものであり、それ以外の構成は第1の実施形態と同一である。   Next, a video display system according to the second embodiment of the present invention will be described. In the second embodiment of the present invention, the parameter generation processing in the first embodiment described so far is modified so that the relationship of region selection parameters between a plurality of display series is taken into consideration. The other configuration is the same as that of the first embodiment.

図7は本発明の第2の実施形態でのパラメータ生成の処理動作を説明するフローチャート、図8は図7に示すフローにおけるステップ701のサイズ調整処理の詳細を説明するフローチャートである。図7に示すフローにおいて、ステップ501〜505は、図5の場合と同一の処理である。   FIG. 7 is a flowchart for explaining the parameter generation processing operation in the second embodiment of the present invention, and FIG. 8 is a flowchart for explaining the details of the size adjustment processing in step 701 in the flow shown in FIG. In the flow shown in FIG. 7, steps 501 to 505 are the same processing as in FIG.

図7に示すように、本発明の第2の実施形態におけるパラメータ生成の処理動作は、図5により説明したステップ502の矩形領域抽出処理の終了後、ステップ503の領域選択パラメータ保存処理を開始する前に、サイズ調整処理を実施するステップ701の処理を加えた点で第1の実施形態と相違する。以下、図8に示すフローを参照して、ステップ701のサイズ調整処理について説明する。   As shown in FIG. 7, the parameter generation processing operation in the second embodiment of the present invention starts the area selection parameter storage process in step 503 after the rectangular area extraction process in step 502 described with reference to FIG. The difference from the first embodiment is that the process of step 701 for performing the size adjustment process is added before. Hereinafter, the size adjustment processing in step 701 will be described with reference to the flow shown in FIG.

(1)サイズ調整処理が開始されると、まず、サイズ決定処理を実行する。このサイズ決定処理は、全ての表示系列に対して不具合が発生しないように、かつ、全ての表示系列に対して原画像から最終的に抽出する矩形領域が同一のサイズとなるように、原画像から最終的に抽出する矩形領域のサイズを決定する処理である。具体的な処理は、全ての表示系列に対して、ステップ502で抽出された矩形領域を参照し、該矩形領域の幅の最大値を、原画像から最終的に抽出する矩形領域の幅として、同様に該矩形領域の高さの最大値を、原画像から最終的に抽出する矩形領域の高さとして、それぞれ決定する処理である(ステップ801)。 (1) When the size adjustment process is started, first, a size determination process is executed. This size determination process is performed so that no defects occur in all display series, and the rectangular regions finally extracted from the original image for all display series have the same size. This is a process for determining the size of the rectangular area to be finally extracted from. Specifically, for all display sequences, the rectangular area extracted in step 502 is referred to, and the maximum width of the rectangular area is determined as the width of the rectangular area that is finally extracted from the original image. Similarly, the maximum value of the height of the rectangular area is determined as the height of the rectangular area finally extracted from the original image (step 801).

(2)続いて、位置調整処理を実行する。この位置調整処理は、矩形領域のサイズの変更に伴って、抽出する矩形領域が原画像の外の領域を含むことになってしまう不具合を解消するための処理である。具体的には、各表示系列に対して、ステップ502の処理で抽出された矩形領域を含み、かつ、原画像の外の領域を含まないように、矩形領域の左上位置を修正する処理である。例えば、矩形領域の左上位置のX座標がx0、矩形領域の幅がw0、原画像の幅がW(すなわち、原画像のX座標値が0〜W−1)である場合には、「W≦x0+w0」となると矩形領域が原画像の外の領域を含むことになるが、その場合、「W−w0−1」の値を改めて矩形領域の左上位置のX座標とすることにより、不具合を解消する。Y座標、すなわち、高さ方向に関しても、同様に処理を行う(ステップ802)。 (2) Subsequently, position adjustment processing is executed. This position adjustment process is a process for solving the problem that the extracted rectangular area includes an area outside the original image as the size of the rectangular area is changed. Specifically, this is a process of correcting the upper left position of the rectangular area so that each display series includes the rectangular area extracted in step 502 and does not include the area outside the original image. . For example, when the X coordinate of the upper left position of the rectangular area is x0, the width of the rectangular area is w0, and the width of the original image is W (that is, the X coordinate value of the original image is 0 to W-1), “W If ≦ x0 + w0 ”, the rectangular area includes an area outside the original image. In this case, the value of“ W−w0-1 ”is changed to the X coordinate of the upper left position of the rectangular area. Eliminate. The same processing is performed for the Y coordinate, that is, the height direction (step 802).

ステップ802の位置調整処理の終了後、サイズ調整処理を終了する。   After the position adjustment process in step 802 is completed, the size adjustment process is terminated.

前述した本発明の第2の実施形態によれば、重複する投映領域同士の間で、画素値の算出に用いられる原画像上の画素密度を一致させられるため、スクリーン上での複数の映像の間のつなぎ目を目立ちにくくすることができる。   According to the second embodiment of the present invention described above, since the pixel density on the original image used for calculating the pixel value can be matched between the overlapping projection areas, a plurality of images on the screen can be displayed. The joints between them can be made inconspicuous.

次に、本発明の第3の実施形態による映像表示システムについて説明する。本発明の第3の実施形態は、前述で説明した第2の実施形態におけるサイズ調整処理を、システム全体として画素値算出に要する補間演算の回数ができるだけ少なくなるように変更したものである。   Next, a video display system according to a third embodiment of the present invention will be described. In the third embodiment of the present invention, the size adjustment processing in the second embodiment described above is modified so that the number of interpolation calculations required for pixel value calculation as a whole is minimized.

図9は本発明の第3の実施形態でのサイズ調整処理の詳細を説明するフローチャートである。本発明の第3の実施形態でのサイズ調整処理は、図8により説明した第2の実施形態でのサイズ調整処理におけるステップ801のサイズ決定処理を、サイズ選択処理901に変更したものである。なお、以下の説明では、補正部113のフレームメモリ302における一画面分の解像度を「基準サイズ」と定義する。   FIG. 9 is a flowchart for explaining the details of the size adjustment processing in the third embodiment of the present invention. The size adjustment process in the third embodiment of the present invention is obtained by changing the size determination process in step 801 in the size adjustment process in the second embodiment described with reference to FIG. In the following description, the resolution for one screen in the frame memory 302 of the correction unit 113 is defined as “reference size”.

本発明の第3の実施形態でのサイズ調整処理におけるステップ901のサイズ選択処理は、表示系列毎に基準サイズとステップ502の処理で抽出された矩形領域のサイズとのどちらを原画像から最終的に抽出する矩形領域のサイズとするのかを選択する処理である。   In the size selection process in step 901 in the size adjustment process according to the third embodiment of the present invention, either the reference size or the size of the rectangular area extracted in the process of step 502 is finally determined from the original image for each display series. This is a process for selecting whether the size of the rectangular area to be extracted is selected.

このサイズ選択処理は、具体的には、表示系列毎に、ステップ502の処理で抽出された矩形領域のサイズと、基準サイズとを、幅及び高さに関してそれぞれ比較し、いずれも基準サイズの方が大きい場合に、原画像から最終的に抽出する矩形領域のサイズとして基準サイズを選択し、それ以外の場合、原画像から最終的に抽出する矩形領域のサイズとしてステップ502で抽出された矩形領域のサイズを選択する処理である。   Specifically, the size selection process compares the size of the rectangular area extracted in step 502 with the reference size for each display series in terms of width and height. Is selected as the size of the rectangular area finally extracted from the original image, otherwise, the rectangular area extracted in step 502 as the size of the rectangular area finally extracted from the original image This is a process of selecting the size of.

前述した本発明の第3の実施形態によれば、原画像から最終的に抽出する矩形領域のサイズが基準サイズに等しい場合、切り出し部における処理で、画素値算出のための補間演算が発生しないため、システム全体として画素値算出に要する補間演算の回数を、原理的に可能な範囲で少なくすることができ、映像品質の劣化をさらに抑えることができる。   According to the above-described third embodiment of the present invention, when the size of the rectangular region finally extracted from the original image is equal to the reference size, the interpolation operation for calculating the pixel value does not occur in the processing in the clipping unit. Therefore, the number of interpolation calculations required for pixel value calculation as a whole system can be reduced as much as possible in principle, and deterioration of video quality can be further suppressed.

前述した本発明の第1〜第3の実施形態から判るように、本発明の本質は、高解像度な入力画像から担当領域の表示に必要な部分を切り出すための処理を単純化し、単純化したことで必要となる幾何学的な補正処理を、複数の投映部から投映した映像をスクリーン上で滑らかに繋げるための幾何補正処理と合成して同時に実施するようにした点にあり、前述した本発明の各実施形態に記載の特徴を、用途に合わせて適宜組み合わせて使用してもよいことは言うまでもない。例えば、補正部の実装やスクリーン形状等は、例示したものに限るものではない。   As can be seen from the first to third embodiments of the present invention described above, the essence of the present invention is to simplify and simplify the process for extracting a part necessary for displaying the assigned area from a high-resolution input image. The geometric correction processing required for this is combined with the geometric correction processing for smoothly connecting the images projected from multiple projectors on the screen, and is performed simultaneously. It goes without saying that the features described in each embodiment of the invention may be used in appropriate combination according to the application. For example, the mounting of the correction unit and the screen shape are not limited to those illustrated.

本発明の第1の実施形態による映像表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the video display system by the 1st Embodiment of this invention. 切り出し部の構成を示すブロック図である。It is a block diagram which shows the structure of a cutout part. 補正部の構成を示すブロック図である。It is a block diagram which shows the structure of a correction | amendment part. 切り出し部、補正部が使用するパラメータを生成するパラメータ生成部の構成を示すブロック図である。It is a block diagram which shows the structure of the parameter production | generation part which produces | generates the parameter which a cutout part and a correction | amendment part use. パラメータ生成部でのパラメータ生成の処理動作を説明するフローチャートである。It is a flowchart explaining the processing operation | movement of the parameter generation in a parameter generation part. 必要範囲算出方法と矩形領域抽出方法とを説明する図である。It is a figure explaining the required range calculation method and a rectangular area extraction method. 本発明の第2の実施形態でのパラメータ生成の処理動作を説明するフローチャートである。It is a flowchart explaining the processing operation | movement of the parameter generation in the 2nd Embodiment of this invention. 図7に示すフローにおけるサイズ調整処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the size adjustment process in the flow shown in FIG. 本発明の第3の実施形態でのサイズ調整処理の詳細を説明するフローチャートである。It is a flowchart explaining the detail of the size adjustment process in the 3rd Embodiment of this invention.

符号の説明Explanation of symbols

101 画像供給部
105 スクリーン
112、122 切り出し部
113 123 補正部
114 124 投映部
201 画像入力部
202、302 フレームメモリ
203 領域選択部
204、305 出力部
205 領域選択パラメータ入力部
206 領域選択パラメータ記憶部
301 画像入力部
303 幾何補正部
304 画素値変換部
306 幾何補正パラメータ入力部
307 幾何補正パラメータ記憶部
308 画素値変換パラメータ入力部
309 画素値変換パラメータ記憶部
401 パラメータ生成部
411 演算処理部
412 記憶部
413 領域選択パラメータ出力部
414 幾何補正パラメータ出力部
415 コマンド入力部
421 パラメータ生成プログラム
431 撮像パラメータ
432 表示設計パラメータ
433 原幾何補正パラメータ
434 領域選択パラメータ
435 幾何補正パラメータ
DESCRIPTION OF SYMBOLS 101 Image supply part 105 Screen 112, 122 Clipping part 113 123 Correction part 114 124 Projection part 201 Image input part 202, 302 Frame memory 203 Area selection part 204,305 Output part 205 Area selection parameter input part 206 Area selection parameter storage part 301 Image input unit 303 Geometric correction unit 304 Pixel value conversion unit 306 Geometric correction parameter input unit 307 Geometric correction parameter storage unit 308 Pixel value conversion parameter input unit 309 Pixel value conversion parameter storage unit 401 Parameter generation unit 411 Operation processing unit 412 Storage unit 413 Area selection parameter output unit 414 Geometric correction parameter output unit 415 Command input unit 421 Parameter generation program 431 Imaging parameter 432 Display design parameter 433 Original geometric correction parameter Meter 434 region selection parameters 435 geometric correction parameters

Claims (6)

撮像パラメータに基づく条件で生成された画像である入力画像を供給する画像供給部と、
抽出パラメータに基づいて、前記入力画像の一部分を成す矩形領域を切り出して、切り出し画像として出力する画像切り出し部と、
幾何補正パラメータに基づいて前記切り出し画像に対して幾何学的な補正を施して出力する補正部と、
前記補正部が出力した画像を表示する表示部とを備え、
前記幾何補正パラメータは、前記表示部の設計値に基づく投影パラメータに基づいて生成された画像を補正して出力したときに前記表示部で所望の映像が得られるような補正パラメータである第1の補正パラメータと、前記撮像パラメータ及び前記抽出パラメータに基づいて生成される画像と前記投影パラメータに基づいて生成される画像との差異を補正するための補正パラメータである第2の補正パラメータとを合成した補正パラメータとされていることを特徴とする映像表示システム。
An image supply unit that supplies an input image that is an image generated under conditions based on imaging parameters;
Based on the extraction parameters, an image cutout unit that cuts out a rectangular region that forms part of the input image and outputs the cutout image;
A correction unit that performs geometric correction on the clipped image based on a geometric correction parameter and outputs the corrected image;
A display unit for displaying the image output by the correction unit,
The geometric correction parameter is a correction parameter that allows a desired image to be obtained on the display unit when an image generated based on a projection parameter based on a design value of the display unit is corrected and output. A correction parameter and a second correction parameter that is a correction parameter for correcting a difference between an image generated based on the imaging parameter and the extraction parameter and an image generated based on the projection parameter are synthesized. A video display system characterized by being a correction parameter.
前記画像切り出し部は、画素密度の変更をも行うことを特徴とする請求項1記載の映像表示システム。   The video display system according to claim 1, wherein the image cutout unit also changes a pixel density. 前記表示部は、複数の表示装置を備え、
前記切り出し部は、前記複数の表示装置のそれぞれに対応する前記切り出し画像を、互いに同じ大きさの矩形領域を切り出して生成することを特徴とする請求項1記載の映像表示システム。
The display unit includes a plurality of display devices,
The video display system according to claim 1, wherein the cutout unit generates the cutout image corresponding to each of the plurality of display devices by cutting out rectangular regions having the same size.
前記切り出し部は、前記切り出し画像と同じ大きさの矩形領域を切り出すことを特徴とする請求項1記載の映像表示システム。   The video display system according to claim 1, wherein the cutout unit cuts out a rectangular region having the same size as the cutout image. 前記画像供給部は、魚眼投影系に基づく条件で生成された画像を供給することを特徴とする請求項1ないし4のうちいずれか1記載の映像表示システム。   The video display system according to claim 1, wherein the image supply unit supplies an image generated under a condition based on a fisheye projection system. 撮像パラメータに基づく条件で生成された画像である入力画像を供給する画像供給部と、
抽出パラメータに基づいて前記入力画像の一部分を成す矩形領域を切り出して切り出し画像として出力する画像切り出し部と、
幾何補正パラメータに基づいて前記切り出し画像に対して幾何学的な補正を施して出力する補正部と、
前記補正部が出力した画像を表示する表示部と、
を備え、
前記幾何補正パラメータは前記表示部において幾何学的に所望の映像が得られるようなパラメータとされていること、を特徴とする映像表示システムの、前記抽出パラメータを生成するパラメータ生成方法であって、
前記表示部の設計値として与えられる投影パラメータと、前記撮像パラメータと、に基づいて、前記補正部における処理で参照され得る領域である切り出し必須領域を算出する第一のステップと、
前記切り出し必須領域を含む矩形領域として、前記入力画像から切り出す前記矩形領域を決定する第二のステップと、
を備えたことを特徴とする、パラメータ生成方法。
An image supply unit that supplies an input image that is an image generated under conditions based on imaging parameters;
Cut out a rectangular region which forms a portion of the input image based on the extracted parameter, and image cropping section for outputting a cut-out image,
A correction unit that performs geometric correction on the clipped image based on a geometric correction parameter and outputs the corrected image;
A display unit for displaying an image output by the correction unit;
With
The geometric correction parameter is a parameter for generating a desired image geometrically in the display unit, and is a parameter generation method for generating the extraction parameter of the video display system, characterized in that:
A first step of calculating a cutout essential region that is a region that can be referred to in the processing in the correction unit, based on the projection parameter given as the design value of the display unit and the imaging parameter;
As a rectangular area including the cutout essential region, and a second step of determining the rectangular region cut out from the input image,
A parameter generation method comprising:
JP2007241317A 2007-09-18 2007-09-18 Video display system and parameter generation method for the system Active JP4871820B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007241317A JP4871820B2 (en) 2007-09-18 2007-09-18 Video display system and parameter generation method for the system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007241317A JP4871820B2 (en) 2007-09-18 2007-09-18 Video display system and parameter generation method for the system

Publications (2)

Publication Number Publication Date
JP2009075646A JP2009075646A (en) 2009-04-09
JP4871820B2 true JP4871820B2 (en) 2012-02-08

Family

ID=40610589

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007241317A Active JP4871820B2 (en) 2007-09-18 2007-09-18 Video display system and parameter generation method for the system

Country Status (1)

Country Link
JP (1) JP4871820B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018175067A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175077A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175068A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175069A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP6869612B2 (en) * 2017-04-05 2021-05-12 株式会社ユニバーサルエンターテインメント Game machine
JP2018175076A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP6869611B2 (en) * 2017-04-05 2021-05-12 株式会社ユニバーサルエンターテインメント Game machine
JP2018175064A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine
JP2018175066A (en) * 2017-04-05 2018-11-15 株式会社ユニバーサルエンターテインメント Game machine

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5359363A (en) * 1991-05-13 1994-10-25 Telerobotics International, Inc. Omniview motionless camera surveillance system
JP2005034813A (en) * 2003-07-18 2005-02-10 Nagasaki Ryoden Tecnica Kk Garbage treating apparatus
JP2005347813A (en) * 2004-05-31 2005-12-15 Olympus Corp Video conversion method and image converter, and multi-projection system
JP2006287942A (en) * 2006-04-05 2006-10-19 Sony Corp Image display apparatus and image display method

Also Published As

Publication number Publication date
JP2009075646A (en) 2009-04-09

Similar Documents

Publication Publication Date Title
JP4871820B2 (en) Video display system and parameter generation method for the system
JP4013989B2 (en) Video signal processing device, virtual reality generation system
JP4620607B2 (en) Image processing device
JP4631918B2 (en) Video signal processing device
JP6568223B2 (en) Projection device, projection method, and projection program
JP2005347813A (en) Video conversion method and image converter, and multi-projection system
JP5997882B2 (en) Projector and projector control method
JP5195592B2 (en) Video processing device
CN110246161B (en) Method for seamless splicing of 360-degree panoramic images
JP2010134396A (en) Multi-display system, information processor, and image data processing method in multi-display system
US20090195758A1 (en) Meshes for separately mapping color bands
US9332238B2 (en) Image processing apparatus and image processing method
JP2011182078A (en) Correction information calculation device, image correction device, image display system, and correction information calculation method
JP5624383B2 (en) Video signal processing device, virtual reality generation system
JP5249733B2 (en) Video signal processing device
JP4631878B2 (en) Video signal processing device, virtual reality generation system
JP2017162313A (en) Image processing device, image processing method and program
JP5387276B2 (en) Image processing apparatus and image processing method
JP6972089B2 (en) Image processing equipment, image processing methods, and programs
JPH09231408A (en) Moving image compositing device
US11893706B2 (en) Image correction device
US11119396B1 (en) Camera system with a plurality of image sensors
JP2006139697A (en) Image processor and image processing method
JP5531701B2 (en) projector
JP4484037B2 (en) Image processing apparatus, image processing system, imaging apparatus, and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100201

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110704

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110905

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111025

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111121

R150 Certificate of patent or registration of utility model

Ref document number: 4871820

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141125

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250