JP2014176053A - Image signal processor - Google Patents

Image signal processor Download PDF

Info

Publication number
JP2014176053A
JP2014176053A JP2013050041A JP2013050041A JP2014176053A JP 2014176053 A JP2014176053 A JP 2014176053A JP 2013050041 A JP2013050041 A JP 2013050041A JP 2013050041 A JP2013050041 A JP 2013050041A JP 2014176053 A JP2014176053 A JP 2014176053A
Authority
JP
Japan
Prior art keywords
video
video display
image
screen
display devices
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013050041A
Other languages
Japanese (ja)
Inventor
Hiroshi Tasaka
啓 田坂
Kazuo Saigo
賀津雄 西郷
Hiroshi Mitani
浩 三谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2013050041A priority Critical patent/JP2014176053A/en
Publication of JP2014176053A publication Critical patent/JP2014176053A/en
Pending legal-status Critical Current

Links

Landscapes

  • Transforming Electric Information Into Light Information (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PROBLEM TO BE SOLVED: To solve the problem that screen installation and the adjustment of a video position is time-consuming in order to achieve the matching of the position of the screen and the position of the video in the case of configuring a video display device by using a plurality of screens.SOLUTION: Video signal generation means includes: display arrangement detection means for determining positional relations among a plurality of video display devices from an image obtained by photographing a situation that a plurality of video display devices each having a video display panel are arranged; photographic position determination means for determining the photographic position of the image corresponding to each of the video display devices from the image; video generation means for generating a video signal to be displayed at each of the plurality of video display devices (the video signal of a video subjected to the matching of the positional relations among the plurality of video display devices at a view point from a photographing device for each video display device) on the basis of the positional relations among the video display devices and the photographic position; and multi-display control means for outputting each generated video signal to each corresponding video display device.

Description

本発明は、多画面向けに多視点画像を効果的に生成する画像信号処理装置に関する。   The present invention relates to an image signal processing apparatus that effectively generates a multi-viewpoint image for multiple screens.

多画面画像は、一般的に複数の画面を組み合わせて、一視点映像を表示する場合とそれぞれの画面に異なる視点の映像を表示する場合がある。本件は、多画面に多視点映像を表示する場合に相当する。   A multi-screen image generally includes a case where a plurality of screens are combined to display a single viewpoint video, and a case where a video from a different viewpoint is displayed on each screen. This case corresponds to a case where a multi-view video is displayed on a multi-screen.

特許文献1では、所定の位置に配置した複数の画面に表示する映像を撮影する際に画面の位置関係に合わせてカメラの位置関係を調整して撮影する。また、撮影される映像に、撮影されたカメラの位置を記録し、再生時にそれを読み込み表示する。   In Patent Literature 1, when shooting images to be displayed on a plurality of screens arranged at predetermined positions, the camera is shot while adjusting the positional relationship of the cameras in accordance with the positional relationship of the screens. In addition, the position of the photographed camera is recorded in the photographed video, and this is read and displayed during playback.

特開平7−284089号公報Japanese Patent Laid-Open No. 7-284089

撮影された画像群と表示する画面の位置関係を考慮しても、必ずしも画面群が正しく撮影条件に適合した位置に配置されている保証はない。また、カメラにより撮影される多視点映像の視点位置も正しく設置されている保証はない。さらには、画面群/カメラ群を正しく配置するには困難を伴い、細かな調整が必要となる。   Even if the positional relationship between the captured image group and the screen to be displayed is taken into consideration, there is no guarantee that the screen group is correctly arranged at a position suitable for the imaging conditions. In addition, there is no guarantee that the viewpoint positions of the multi-viewpoint images captured by the camera are correctly installed. Furthermore, it is difficult to arrange the screen group / camera group correctly, and fine adjustment is required.

そこで、本発明では、画面群の配置を検出して、配置に応じてカメラの撮影条件を変更/カメラ映像を補正し、配置のズレを映像信号側で解消することを目的とするものである。   In view of the above, an object of the present invention is to detect the arrangement of screen groups, change the shooting conditions of the camera according to the arrangement, correct the camera image, and eliminate the displacement of the arrangement on the video signal side. .

特にコンピュータグラフィックスでは、リアルタイムに撮影映像を再生成できるので、画面群の設置の誤差が許容できることを目的とするものである。   In particular, in computer graphics, it is possible to regenerate a captured image in real time, so that an error in setting a screen group can be allowed.

本開示における映像信号生成装置は、映像表示パネルを有する映像表示装置を複数台並べた状況を撮影した画像から複数台の映像表示装置相互の位置関係を決定するデイスプレイ配置検出部と、画像から、映像表示装置に対する画像の撮影位置を決定する撮影位置決定部と、映像表示装置の位置関係と撮像位置とに基づいて複数台の映像表示装置それぞれに表示する映像信号を補正する映像補正部と、補正したそれぞれの映像信号を、対応するそれぞれの映像表示装置へ出力するマルチデイスプレイ制御部と、を備える。   A video signal generation device according to the present disclosure includes a display arrangement detection unit that determines a positional relationship between a plurality of video display devices from an image obtained by photographing a situation in which a plurality of video display devices having video display panels are arranged, A shooting position determination unit that determines a shooting position of an image with respect to the video display device, a video correction unit that corrects a video signal displayed on each of the plurality of video display devices based on the positional relationship and the shooting position of the video display device, and A multi-display control unit that outputs each corrected video signal to a corresponding video display device.

本出願に記載の発明により、多面郡の設置/カメラの設置が簡易化される。   The invention described in this application simplifies the installation of multifaceted counties / cameras.

実施の形態1で説明する撮影システムの例を示す図FIG. 3 illustrates an example of a photographing system described in Embodiment 1 実施の形態1で説明するCG画像の場合の撮影システムの例を示す図FIG. 5 is a diagram illustrating an example of a photographing system in the case of a CG image described in the first embodiment 実施の形態1で説明するディスプレイの配置を示す図The figure which shows arrangement | positioning of the display demonstrated in Embodiment 1 実施の形態1で説明するカメラの配置を示す図FIG. 6 is a diagram illustrating an arrangement of cameras described in Embodiment 1. 実施の形態1で説明するカメラ映像の補正を示す図The figure which shows the correction | amendment of the camera image demonstrated in Embodiment 1. 実施の形態1で説明する複数のディスプレイとカメラとの位置関係を示す図The figure which shows the positional relationship of the some display demonstrated to Embodiment 1, and a camera. 実施の形態1で説明する複数のディスプレイを撮影した画像の図The figure of the image which image | photographed the some display demonstrated in Embodiment 1 実施の形態1で説明する撮影された画像を2値でしめした画像に変換した図The figure which converted the image | photographed image demonstrated in Embodiment 1 into the image shown by the binary value 実施の形態1で説明する撮影された画像の輪郭強調処理をした図The figure which performed the outline emphasis process of the image | photographed image demonstrated in Embodiment 1 実施の形態1で説明するキャリブレーション用画像の例を示す図FIG. 5 is a diagram illustrating an example of a calibration image described in the first embodiment. 実施の形態1で説明する多画面多視点映像生成システムの構成例を示す図The figure which shows the structural example of the multi-screen multi-view video generation system demonstrated in Embodiment 1. FIG. 実施の形態1で説明する画像処理を示すフローチャートFlowchart illustrating image processing described in the first embodiment 実施の形態1で説明するCG処理を示すフローチャートThe flowchart which shows the CG process demonstrated in Embodiment 1.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、発明者(ら)は、当業者が本開示を十分に理解するために添付図面および以下の説明を提供するのであって、これらによって特許請求の範囲に記載の主題を限定することを意図するものではない。   The inventor (s) provides the accompanying drawings and the following description in order for those skilled in the art to fully understand the present disclosure, and is intended to limit the subject matter described in the claims. Not what you want.

(実施の形態1)
図1は、本実施の形態で説明する撮影システムの例を示す図である。図1は、三台のカメラと三台のディスプレイを用いて構成したものである。それぞれのディスプレイへの視点映像を撮影するカメラ1、カメラ2、カメラ3が、映像生成部を構成する。画面1、画面2、画面3が映像表示部を構成する。さらに、映像生成部の映像信号を補正する映像補正部および画面位置検出部を持つ。
(Embodiment 1)
FIG. 1 is a diagram illustrating an example of an imaging system described in this embodiment. FIG. 1 shows a configuration using three cameras and three displays. The camera 1, the camera 2, and the camera 3 that shoot the viewpoint video on each display constitute a video generation unit. Screen 1, screen 2, and screen 3 constitute a video display unit. Furthermore, it has a video correction unit and a screen position detection unit for correcting the video signal of the video generation unit.

カメラ1、カメラ2、カメラ3は、多視点画像を撮影することを目的としたカメラである。ここでは、それぞれのカメラの光軸が所定の角度を持ち、同一平面上に等間隔に配置された場合を示す。画面1、画面2、画面3は、多視点映像を表示することを目的にしたディスプレイである。カメラと同様に、画面1、画面2、画面3の法線がなす角度を前記所定の角度に合わせて配置した場合を示す。   The camera 1, the camera 2, and the camera 3 are cameras intended to capture multi-viewpoint images. Here, a case where the optical axes of the respective cameras have a predetermined angle and are arranged at equal intervals on the same plane is shown. Screen 1, screen 2, and screen 3 are displays intended to display a multi-view video. As in the case of the camera, a case where the angles formed by the normal lines of the screen 1, the screen 2, and the screen 3 are arranged in accordance with the predetermined angle is shown.

画面位置検出部は、カメラにより構成され、画面を撮影し、映像を解析して、ディスプレイの配置を取得する。   The screen position detection unit is configured by a camera, captures a screen, analyzes the video, and acquires the arrangement of the display.

映像生成部で撮影された画像は、記録または伝送されて、映像補正部に入力される。映像補正部では、カメラの位置のズレ等を補正し、ディスプレイの配置にもとづいて、映像表示部に適した状態に加工してから、補正等された映像信号を映像表示部に伝送する。   An image captured by the video generation unit is recorded or transmitted and input to the video correction unit. The video correction unit corrects a shift in the position of the camera, etc., processes the image to a state suitable for the video display unit based on the arrangement of the display, and transmits the corrected video signal to the video display unit.

図2は、図1の映像生成部に代えて、3つの仮想カメラ1、仮想カメラ2、仮想カメラ3により構成されるコンピュータグラフィックス生成部をもつ。図2の場合の映像は、コンピュータグラフィックスであり、映像の補正は、CG生成時のパラメータで調整できる。   FIG. 2 has a computer graphics generation unit constituted by three virtual cameras 1, a virtual camera 2, and a virtual camera 3 instead of the video generation unit of FIG. 1. The video in the case of FIG. 2 is computer graphics, and video correction can be adjusted with parameters at the time of CG generation.

仮想カメラ1、仮想カメラ2、仮想カメラ3は、CG空間上の仮想的な視点位置である。ここでは、それぞれの仮想カメラの視点方向(光軸に相当)が所定の角度を持ち、等間隔に配置された場合を示す。画面1、画面2、画面3は、多視点映像を表示することを目的にしたディスプレイである。仮想カメラと同様に、画面1、画面2、画面3の法線がなす角度を前記所定の角度に配置した場合を示す。   The virtual camera 1, virtual camera 2, and virtual camera 3 are virtual viewpoint positions in the CG space. Here, a case where the viewpoint directions (corresponding to the optical axes) of the respective virtual cameras have a predetermined angle and are arranged at equal intervals is shown. Screen 1, screen 2, and screen 3 are displays intended to display a multi-view video. As in the virtual camera, the case where the angles formed by the normal lines of the screen 1, the screen 2, and the screen 3 are arranged at the predetermined angle is shown.

画面位置検出部は、カメラにより構成され、画面群を撮影し、映像を解析して、ディスプレイの配置を取得する。   The screen position detection unit is configured by a camera, captures a screen group, analyzes the video, and acquires the arrangement of the display.

コンピュータグラフィックス生成部で生成された画像は、記録または伝送されて、映像表示部に入力される。コンピュータグラフィックス生成部では、ディスプレイの配置にもとづいて、映像表示部に適した状態にレンダリングしてから、映像表示部に伝送する。   The image generated by the computer graphics generation unit is recorded or transmitted and input to the video display unit. The computer graphics generation unit renders a state suitable for the video display unit based on the arrangement of the display, and then transmits the rendered image to the video display unit.

次に映像補正部の処理を説明する。図1の場合、三台のカメラより映像が撮影される。映像補正部は、カメラの光軸の位置をディスプレイの配置に合わせて設定する。ここでは、大きさの等しいディスプレイを正六角形の連続する辺に沿って配置した場合を説明する。図3はディスプレイを上から見た図である。図3に示すようにディスプレイを正六角形上に配置する。   Next, the processing of the video correction unit will be described. In the case of FIG. 1, a video is taken by three cameras. The video correction unit sets the position of the optical axis of the camera in accordance with the arrangement of the display. Here, a case will be described in which displays of equal size are arranged along continuous sides of a regular hexagon. FIG. 3 is a view of the display as viewed from above. As shown in FIG. 3, the display is arranged on a regular hexagon.

このとき、視聴者は、正六角形が外接する円の中心にいると最適な位置で視聴できる。視聴者のディスプレイからの距離は、ディスプレイの横幅をwとするとw/2/tan30°となる。   At this time, the viewer can view at the optimum position when the regular hexagon is at the center of the circumscribed circle. The distance from the viewer's display is w / 2 / tan 30 °, where w is the horizontal width of the display.

同様に図4のようにカメラ1、カメラ2、カメラ3を正六角形上に配置する。このとき、視聴者は、正六角形が外接する円の中心にいると最適な位置で視聴できる。   Similarly, camera 1, camera 2, and camera 3 are arranged on a regular hexagon as shown in FIG. At this time, the viewer can view at the optimum position when the regular hexagon is at the center of the circumscribed circle.

上記の最適な位置から視聴者が見込むディスプレイは、視野角60度なる。したがって、ディスプレイの表示するカメラ映像も視野60度であることが好ましい。そこで、撮影した際のレンズ特性から、カメラの画角を映像補正部に入力する。60度より大きい場合(N度)は、60度の画角分映像をトリミングし、拡大してディスプレイに表示する。   The display that the viewer looks at from the above optimal position has a viewing angle of 60 degrees. Therefore, it is preferable that the camera image displayed on the display also has a field of view of 60 degrees. Therefore, the angle of view of the camera is input to the video correction unit from the lens characteristics at the time of shooting. When the angle is larger than 60 degrees (N degrees), the video is cropped for an angle of view of 60 degrees, enlarged and displayed on the display.

図5は、トリミングの箇所を示す。1/2/tanN°: 1/2/tan30°の比を維持するように画面中心から切り出す。このとき、高さはディスプレイのアスペクトに準じる。切り出し後、ディスプレイの画素数に応じて、拡大する。同様に3つのカメラ映像に関して、切り出しと拡大処理を行う。   FIG. 5 shows a trimming location. 1/2 / tan N °: Cut out from the center of the screen so as to maintain a ratio of 1/2 / tan 30 °. At this time, the height conforms to the aspect of the display. After cropping, the image is enlarged according to the number of pixels of the display. Similarly, segmentation and enlargement processing are performed for three camera images.

ところでカメラの設置状態によって、誤差が生じる場合がある。その時は、隣接するカメラ間の映像を比較し、画面境界付近で画素間差分和演算を行いその値が最も小さくなる位置を特定する。そこがカメラ間に共通な被写体と推定される。   An error may occur depending on the installation state of the camera. At that time, the images between adjacent cameras are compared, and an inter-pixel difference sum calculation is performed near the screen boundary to identify the position where the value is the smallest. It is estimated that there is a subject common to the cameras.

以上により、画面間の連結がなだらかになるように切り出し位置を調整する。これらは、パノラマ撮影で利用される一般的な手法であるので、詳細は割愛する。   As described above, the cutout position is adjusted so that the connection between the screens becomes gentle. Since these are general techniques used in panoramic photography, details are omitted.

次にコンピュータグラフィックス生成部の処理を説明する。CGにおいて、実写カメラに示すような誤差はないので、ディスプレイの配置に応じて仮想カメラ設定をする。   Next, the processing of the computer graphics generation unit will be described. In CG, since there is no error as shown in the live-action camera, the virtual camera is set according to the arrangement of the display.

CGの仮想カメラでは、画角と始点と注視点を設定できるので、図3のディスプレイ配置では、画角を60度とし、仮想カメラ1、仮想カメラ2、仮想カメラ3の始点を同一座標にし、それぞれの注視点と始点がなす角度が60度なるように設定する。以上により、図4の実写のカメラ配置が仮想空間上で形成できる。
次に画像位置検出部について説明する。通常、ディスプレイは矩形であるものとする。図6に示すように、図4のディスプレイ三台が撮影できる位置にカメラを設置する。これらの準備ののちにカメラ映像を取得する。取得された画像を2値化処理する。このとき、2値化処理でディスプレイ面を検出しやすいようにそれぞれのディスプレイに全白映像を入力してもよい。
In the CG virtual camera, the angle of view, start point, and gazing point can be set. Therefore, in the display arrangement of FIG. 3, the angle of view is set to 60 degrees, and the start points of the virtual camera 1, virtual camera 2, and virtual camera 3 are set to the same coordinates. The angle between each gazing point and the starting point is set to 60 degrees. As described above, the real camera arrangement of FIG. 4 can be formed in the virtual space.
Next, the image position detection unit will be described. Normally, the display is rectangular. As shown in FIG. 6, a camera is installed at a position where the three displays of FIG. After these preparations, camera images are acquired. The acquired image is binarized. At this time, an all-white image may be input to each display so that the display surface can be easily detected by the binarization process.

このようにして取得された画面位置撮影画像を図7に示す。通常、撮影画像は、RGBの8bitの信号であるので、8bit輝度色差信号へ変換し、輝度信号を閾値と比較する。所定の輝度信号値以上を白(255,255,255)、それ以外を黒(0,0,0)などとして、2値化する。2値化された画像を図8に示す。   FIG. 7 shows the screen position photographed image thus obtained. Usually, since a captured image is an RGB 8-bit signal, it is converted into an 8-bit luminance color difference signal, and the luminance signal is compared with a threshold value. Binarization is performed by setting white (255, 255, 255) and black (0, 0, 0), etc. as the luminance signal value equal to or higher than a predetermined luminance signal value. The binarized image is shown in FIG.

次に、2値化された画像で、エッジ検出処理を実施する。隣接画素の差分が255となる画素を白へ変換し、それ以外を黒とする。検出された画像を図9に示す。   Next, edge detection processing is performed on the binarized image. A pixel in which the difference between adjacent pixels is 255 is converted to white, and the others are black. The detected image is shown in FIG.

以上により、3つの台形図形が取得できる。台形の各辺の歪を調べるとカメラとディスプレイの空間上の相対位置が一位に決まる。例えば、ディスプレイとカメラが正対している単純なケースでは、画面サイズをあらかじめ入力し、台形の向かい合う辺の比から相似の関係を用いて、カメラからの距離が求まる。それぞれの辺の距離が求まれば空間上の座標が取得でき、ディスプレイ間の相対的な位置が算出できる。ここでは、詳細は割愛するが、任意の位置を算出するには台形の射影変換の逆行列より、ディスプレイの位置が特定できる。   As described above, three trapezoidal figures can be acquired. When the distortion of each side of the trapezoid is examined, the relative position in space between the camera and the display is determined first. For example, in a simple case where the display and the camera are facing each other, the screen size is input in advance, and the distance from the camera is obtained by using a similar relationship from the ratio of the opposite sides of the trapezoid. If the distance between each side is obtained, the coordinates in the space can be acquired, and the relative position between the displays can be calculated. Although details are omitted here, the position of the display can be specified from the inverse matrix of the trapezoidal projective transformation in order to calculate an arbitrary position.

さらに画面位置検出部にあるカメラ映像をキャリブレーションに利用することもできる。
キャリブレーションとして、ベゼル(ディスプレイの額縁)位置検出部でベゼルの位置を特定し、再生映像を補正することができる。ここでのキャリブレーションとは、ベゼルの向こうに映像が存在し、あたかも窓枠から映像をみるかのように表示サイズと位置を調整することを意味する。
Furthermore, the camera image in the screen position detection unit can be used for calibration.
As calibration, the position of the bezel can be specified by the bezel (display frame) position detection unit, and the reproduced video can be corrected. Calibration here means that there is an image beyond the bezel and the display size and position are adjusted as if the image is viewed from a window frame.

図10にキャリブレーション画像を示す。キャリブレーション用画像については後述する。従来は、隣接するディスプレイにまたがるように図形を表示する。ここでは、円を表示する。その円弧が連続的につながるよう各ディスプレイの原点座標を調整する。しかしながら、本願では、先のディスプレイ位置からベゼルの位置が特定される。図8の二値化画像では、白領域に挟まれた黒領域となる。   FIG. 10 shows a calibration image. The calibration image will be described later. Conventionally, a graphic is displayed so as to span adjacent displays. Here, a circle is displayed. Adjust the origin coordinates of each display so that the arcs are connected continuously. However, in the present application, the position of the bezel is specified from the previous display position. In the binarized image of FIG. 8, a black region is sandwiched between white regions.

簡単のために、ここでは、正面のディスプレイの二値化画像が長方形である場合で、画面1のベゼルと画面2のベゼル幅が画面位置検出部にあるカメラ映像からみて略等しいとして説明する。つまり、画面2がカメラと正対した状態であり、画面1と画面2のなす角度が浅い場合を指す。さらに画面2と画面3のなす角がそれに等しいとする。   For the sake of simplicity, here, it is assumed that the binarized image of the front display is a rectangle, and that the bezel width of the screen 1 and the bezel width of the screen 2 are substantially equal when viewed from the camera image in the screen position detection unit. That is, the screen 2 is in a state of facing the camera and the angle between the screen 1 and the screen 2 is shallow. Further, it is assumed that the angle formed by the screen 2 and the screen 3 is equal to that.

前記長方形の横幅をdw、ベゼルの幅をbwとする。補正しない場合、ベゼル位置で映像が不連続となる。そこで、ベゼル分映像を拡大する。画面の中心から(dw−bw)/2の長さで左右それぞれトリミングした幅dw−bwの画像を生成する。   The width of the rectangle is dw and the width of the bezel is bw. If not corrected, the image becomes discontinuous at the bezel position. Therefore, the video for the bezel is expanded. An image having a width dw-bw trimmed to the left and right by a length of (dw-bw) / 2 from the center of the screen is generated.

次に画面アスペクトに応じて縦方向にトリミングする。FullHD画像の16:9であれば、dw−bw/16×9が縦の長さになるようにトリミングする。その後、画像をdw/(dw−bw)倍する。これを画面それぞれに行う。   Next, trimming in the vertical direction according to the screen aspect. If the full HD image is 16: 9, trimming is performed so that dw-bw / 16 × 9 has a vertical length. Thereafter, the image is multiplied by dw / (dw−bw). Do this for each screen.

以上により、映像がベゼルの向こう側でつながっているように視聴者は錯覚し、ベゼルがあたかも窓枠のように感じ、臨場感がます。また、従来のように手動のキャリブレーションが不要となり、常に最適な映像が再生できる。   As a result, the viewers have the illusion that the images are connected across the bezel, and the bezel feels like a window frame, creating a sense of presence. In addition, manual calibration is not required as in the prior art, and an optimal video can always be reproduced.

次に図11を用いて、多画面多視点映像生成システム全体の構成例を示す。画面位置検出部により、略同一平面に配置されたディスプレイの空間位置を算出する。算出された結果により得られたディスプレイ中心の法線ベクトルとカメラの光軸ベクトルが略一致するようにカメラを配置する。   Next, a configuration example of the entire multi-screen multi-view video generation system will be described with reference to FIG. The screen position detection unit calculates the spatial position of the displays arranged on substantially the same plane. The camera is arranged so that the normal vector at the center of the display obtained from the calculated result and the optical axis vector of the camera substantially coincide.

コンピュータグラフィックスでは、仮想カメラの注視点と始点が作るベクトルを光軸ベクトルとして設定する。次に映像生成部は、前記法線ベクトルの略交点からディスプレイを見込む場合の視野角より大きな画角を持つカメラで多視点映像を撮影することで、映像を生成する。生成された映像を映像補正部で補正する。多面ディスプレイ制御部では、補正された映像をそれぞれのディスプレイに伝送する。   In computer graphics, the vector created by the gazing point and the starting point of the virtual camera is set as the optical axis vector. Next, the video generation unit generates a video by shooting a multi-view video with a camera having a field angle larger than a viewing angle when the display is viewed from a substantially intersection of the normal vectors. The generated video is corrected by the video correction unit. The multi-screen display control unit transmits the corrected video to each display.

視聴者位置検出部では、視聴者の頭部の位置と向きを検出し、最適位置からずれた場合、視聴者の見ている画面において、台形歪が少なくなるよう画像補正部により補正する。   The viewer position detection unit detects the position and orientation of the viewer's head, and when the viewer position deviates from the optimal position, the image correction unit corrects the trapezoidal distortion on the screen viewed by the viewer.

図12は、本実施の形態で説明する実写を利用した場合の画像処理フローを示すフローチャートである。   FIG. 12 is a flowchart showing an image processing flow in the case of using a live-action described in the present embodiment.

(ステップS101)画面位置検出する。   (Step S101) Screen position is detected.

(ステップS102)多視点撮影カメラで画像を取得する。   (Step S102) An image is acquired with a multi-viewpoint camera.

(ステップS103)カメラの画角情報を入力する。静止画においては、通常、カメラ情報としてEXIFで管理される焦点距離より、画角を算出する。動画においても、静止画撮影を実施し、撮影条件を記録するなどの処理を追加して、自動化してもよい。   (Step S103) The angle of view information of the camera is input. For still images, the angle of view is usually calculated from the focal length managed by EXIF as camera information. Even for a moving image, it may be automated by adding a process such as shooting a still image and recording shooting conditions.

(ステップS104)視聴者の頭部位置を検出する。   (Step S104) The viewer's head position is detected.

(ステップS105)視聴者の頭部位置から、各ディスプレイ中心から伸びる法線ベクトルの交点からのズレを算出する。   (Step S105) The deviation from the intersection of the normal vectors extending from the center of each display is calculated from the viewer's head position.

(ステップS106)カメラ情報と視聴者の位置補正情報を用いて、ステップS302で取得された画像を補正する。   (Step S106) The image acquired in step S302 is corrected using the camera information and the viewer position correction information.

(ステップS107)補正された画像を対応するディスプレイへ伝送するし、表示する。   (Step S107) The corrected image is transmitted to the corresponding display and displayed.

図13は、本実施の形態で説明するコンピュータグラフィックスを利用した場合の画像処理フローを示すフローチャートである。   FIG. 13 is a flowchart showing an image processing flow when computer graphics described in the present embodiment is used.

(ステップS201)画面位置検出する。   (Step S201) The screen position is detected.

(ステップS202)画面位置に合わせた仮想カメラ位置を設定する。   (Step S202) A virtual camera position that matches the screen position is set.

(ステップS203)視聴者の頭部位置を検出する。   (Step S203) The head position of the viewer is detected.

(ステップS204)視聴者の頭部位置から、各ディスプレイの法線ベクトルの交点からのズレを算出する。   (Step S204) The deviation from the intersection of the normal vectors of each display is calculated from the viewer's head position.

(ステップS205) 位置補正情報で仮想カメラ位置を補正してCGレンダリングを行う。   (Step S205) The virtual camera position is corrected with the position correction information and CG rendering is performed.

(ステップS206)レンダリングされた画像を対応するディスプレイへ伝送表示する。   (Step S206) The rendered image is transmitted and displayed on the corresponding display.

以上のように、本開示における技術の例示として、実施の形態を説明した。そのために、添付図面および詳細な説明を提供した。   As described above, the embodiments have been described as examples of the technology in the present disclosure. For this purpose, the accompanying drawings and detailed description are provided.

したがって、添付図面および詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。   Accordingly, among the components described in the accompanying drawings and the detailed description, not only the components essential for solving the problem, but also the components not essential for solving the problem in order to illustrate the above technique. May also be included. Therefore, it should not be immediately recognized that these non-essential components are essential as those non-essential components are described in the accompanying drawings and detailed description.

また、上述の実施の形態は、本開示における技術を例示するためのものであるから、特許請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。   Moreover, since the above-mentioned embodiment is for demonstrating the technique in this indication, a various change, replacement, addition, abbreviation, etc. can be performed in a claim or its equivalent range.

本出願の発明は、複数の画面へ複数の視点映像を表示する場合等に、利用可能な技術である。   The invention of the present application is a technique that can be used when a plurality of viewpoint videos are displayed on a plurality of screens.

S101 画面位置検出ステップ
S102 映像取得ステップ
S103 カメラ情報入力ステップ
S104 視聴者位置検出ステップ
S105 補正情報生成ステップ
S106 映像補正処理ステップ
S107 ディスプレイ伝送ステップ
S201 画面位置検出ステップ
S202 仮想カメラ位置設定ステップ
S203 視聴者位置検出ステップ
S204 補正情報生成ステップ
S205 CGレンダリングステップ
S206 ディスプレイ伝送ステップ
S101 Screen position detection step S102 Video acquisition step S103 Camera information input step S104 Viewer position detection step S105 Correction information generation step S106 Video correction processing step S107 Display transmission step S201 Screen position detection step S202 Virtual camera position setting step S203 Viewer position detection Step S204 Correction information generation step S205 CG rendering step S206 Display transmission step

Claims (5)

映像表示パネルを有する映像表示装置を複数台並べた状況を撮影した画像から、前記複数台の映像表示装置相互の位置関係を決定するデイスプレイ配置検出部と、
前記画像から、前記映像表示装置に対する前記画像の撮影位置を決定する撮影位置決定部と、
前記映像表示装置の位置関係と、前記撮像位置と、に基づいて前記複数台の映像表示装置それぞれに表示する映像信号を補正する映像補正部と、
前記補正したそれぞれの映像信号を、対応するそれぞれの映像表示装置へ出力するマルチデイスプレイ制御部と、
を備える映像信号生成装置。
A display arrangement detecting unit for determining a positional relationship between the plurality of video display devices from an image obtained by photographing a situation in which a plurality of video display devices having a video display panel are arranged;
A shooting position determining unit for determining a shooting position of the image with respect to the video display device from the image;
A video correction unit that corrects a video signal displayed on each of the plurality of video display devices based on the positional relationship of the video display device and the imaging position;
A multi-display control unit that outputs the corrected video signals to the corresponding video display devices;
A video signal generation apparatus comprising:
視聴者の視聴位置を検出する視聴位置検出部を、さらに備え、
前記映像補正部は、前記視聴位置と前記映像表示装置の位置関係と前記撮影位置とにより、映像を補正する、
請求項1に記載の映像信号生成装置。
A viewing position detector for detecting the viewing position of the viewer,
The video correction unit corrects video based on the viewing position, the positional relationship of the video display device, and the shooting position.
The video signal generation device according to claim 1.
前記複数の映像表示装置の外枠位置を検出する画面外枠検出部を、さらに備え、
前記映像補正部は、互いに隣り合う映像表示装置の表示画面において外枠の背後に映像があるように補正する、
請求項1に記載の映像信号生成装置。
A screen outer frame detection unit for detecting outer frame positions of the plurality of video display devices;
The video correcting unit corrects the video behind the outer frame on the display screens of the video display devices adjacent to each other,
The video signal generation device according to claim 1.
前記映像補正部は、前記表示画面の外枠と画面の比率に応じて前記映像をトリミングし、拡大することで、画面の外枠の背後に映像があるように補正する、
請求項3に記載の映像信号生成装置。
The video correction unit corrects the video to be behind the outer frame of the screen by trimming and enlarging the video according to the ratio of the outer frame of the display screen to the screen.
The video signal generation device according to claim 3.
映像表示パネルを有する映像表示装置を複数台並べた状況を撮影した画像から、前記複数台の映像表示装置相互の位置関係を決定するデイスプレイ配置検出部と、
前記画像から、前記映像表示装置に対する前記画像の仮想撮影位置を決定する仮想撮影位置決定部と、
前記映像表示装置の位置関係と、前記撮像位置と、に基づいて前記複数台の映像表示装置それぞれに表示する映像信号をコンピューター・グラフィックスで生成する映像生成部と、
前記生成した映像信号を、対応するそれぞれの映像表示装置へ出力するマルチデイスプレイ制御部と、
を備える映像信号生成装置。
A display arrangement detecting unit for determining a positional relationship between the plurality of video display devices from an image obtained by photographing a situation in which a plurality of video display devices having a video display panel are arranged;
A virtual shooting position determination unit that determines a virtual shooting position of the image with respect to the video display device from the image;
A video generation unit configured to generate, by computer graphics, a video signal to be displayed on each of the plurality of video display devices based on the positional relationship of the video display device and the imaging position;
A multi-display controller that outputs the generated video signal to a corresponding video display device;
A video signal generation apparatus comprising:
JP2013050041A 2013-03-13 2013-03-13 Image signal processor Pending JP2014176053A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013050041A JP2014176053A (en) 2013-03-13 2013-03-13 Image signal processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013050041A JP2014176053A (en) 2013-03-13 2013-03-13 Image signal processor

Publications (1)

Publication Number Publication Date
JP2014176053A true JP2014176053A (en) 2014-09-22

Family

ID=51696854

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013050041A Pending JP2014176053A (en) 2013-03-13 2013-03-13 Image signal processor

Country Status (1)

Country Link
JP (1) JP2014176053A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016225924A (en) * 2015-06-02 2016-12-28 株式会社リコー Information terminal, photographing control program, display system, and photographing control method
KR20180046803A (en) * 2016-10-28 2018-05-09 한국해양과학기술원 Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
CN115039412A (en) * 2020-02-27 2022-09-09 爱幕赴株式会社 Image display apparatus, system and method
CN116320364A (en) * 2023-05-25 2023-06-23 四川中绳矩阵技术发展有限公司 Virtual reality shooting method and display method based on multi-layer display

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016225924A (en) * 2015-06-02 2016-12-28 株式会社リコー Information terminal, photographing control program, display system, and photographing control method
KR20180046803A (en) * 2016-10-28 2018-05-09 한국해양과학기술원 Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
KR101880437B1 (en) * 2016-10-28 2018-08-17 한국해양과학기술원 Unmanned surface vehicle control system for providing wide viewing angle using real camera image and virtual camera image
CN115039412A (en) * 2020-02-27 2022-09-09 爱幕赴株式会社 Image display apparatus, system and method
CN116320364A (en) * 2023-05-25 2023-06-23 四川中绳矩阵技术发展有限公司 Virtual reality shooting method and display method based on multi-layer display

Similar Documents

Publication Publication Date Title
US9860446B2 (en) Flare detection and mitigation in panoramic images
EP1861748B1 (en) Method of and apparatus for automatically adjusting alignement of a projector with respect to a projection screen
US8711213B2 (en) Correction information calculating device, image processing apparatus, image display system, and image correcting method
US20090122195A1 (en) System and Method for Combining Image Sequences
KR20130112574A (en) Apparatus and method for improving quality of enlarged image
US20140285777A1 (en) Projection apparatus, projection method, and program medium for projection
TW200425736A (en) Image processing system, projector and image processing method
JP2007295559A (en) Video processing and display
KR20130035862A (en) Calibration method and video display apparatus
US20170070650A1 (en) Apparatus for correcting image distortion of lens
JP2014176053A (en) Image signal processor
US11218662B2 (en) Image processing device, image processing method, and projection system
JP3741136B2 (en) Obstacle adaptive projection display
JP2017199958A (en) Imaging apparatus, control method thereof, and control program
KR102113950B1 (en) Correcting image overlay
JP2007049266A (en) Picture imaging apparatus
JP2013145949A (en) Projection system, and alignment adjusting method for superposed image
JP2021061510A (en) Projection control device, method, program, and storage medium
US9615070B2 (en) Video signal processing device and projection-type display device
KR101011704B1 (en) Apparatus and method for processing video signal to generate wide viewing image
JP6647872B2 (en) Video projection system, video projection method, and video projection program
JP2009060258A (en) Correction method and correction device
JP2012015982A (en) Method for deciding shift amount between videos
US11388341B2 (en) Image processing apparatus, image processing method, and storage medium
US11025804B2 (en) Modular wedges for generating panoramic video