JP6502701B2 - Element image group generating device, program therefor, and digital broadcast receiving device - Google Patents

Element image group generating device, program therefor, and digital broadcast receiving device Download PDF

Info

Publication number
JP6502701B2
JP6502701B2 JP2015036438A JP2015036438A JP6502701B2 JP 6502701 B2 JP6502701 B2 JP 6502701B2 JP 2015036438 A JP2015036438 A JP 2015036438A JP 2015036438 A JP2015036438 A JP 2015036438A JP 6502701 B2 JP6502701 B2 JP 6502701B2
Authority
JP
Japan
Prior art keywords
image
viewpoint
video
view
element image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015036438A
Other languages
Japanese (ja)
Other versions
JP2016158213A (en
Inventor
一宏 原
一宏 原
洗井 淳
淳 洗井
三科 智之
智之 三科
岩舘 祐一
祐一 岩舘
片山 美和
美和 片山
人誌 日浦
人誌 日浦
三浦 雅人
雅人 三浦
直人 岡市
直人 岡市
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Japan Broadcasting Corp filed Critical Japan Broadcasting Corp
Priority to JP2015036438A priority Critical patent/JP6502701B2/en
Publication of JP2016158213A publication Critical patent/JP2016158213A/en
Application granted granted Critical
Publication of JP6502701B2 publication Critical patent/JP6502701B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Description

本発明は、任意の視点から視認することができるインテグラル方式を用いた立体テレビ用の要素画像群生成装置及びそのプログラム、並びにデジタル放送受信装置に関する。   The present invention relates to an element image group generation apparatus for 3D television using an integral system that can be viewed from any viewpoint, a program thereof, and a digital broadcast receiving apparatus.

立体映像方式は、例えば、二眼方式、多眼方式、空間像再生方式に大別することができる。ここで、空間像再生方式は、被写体を光学的な空間像として再現する方式であり,インテグラル方式やホログラフィー方式が代表的な方式である。
二眼方式は、左右の目にそれぞれ対応した映像を提示することで立体像を知覚させている。二眼方式は、左右の眼に対応した1対の映像だけを用いるため運動視差を再現できない欠点がある。
The stereoscopic video system can be roughly classified into, for example, a two-eye system, a multi-eye system, and a spatial image reproduction system. Here, the space image reproduction method is a method for reproducing an object as an optical space image, and an integral method and a holography method are representative methods.
In the two-lens method, a stereoscopic image is perceived by presenting images corresponding to the left and right eyes. The twin-lens method has a drawback that it can not reproduce motion parallax because it uses only a pair of images corresponding to the left and right eyes.

多眼方式は、横に並んだ多視点の映像をレンチキュラーレンズなどを用いて左右の眼に提示する方式であり、水平方向の視点移動に伴った運動視差を再現することができる。この多眼方式は、視点数は8視点程度の場合が多く、視差画像の数が二眼方式よりも多いが、その原理は二眼方式と同様である。
ホログラフィー方式は、被写体からの光の波面を記録・再生する方式であり,理想的な空間像を再現することができる利点があるものの、ディスプレイにはインテグラル方式より多数の画素数を必要とする欠点がある。
The multi-view method is a method of presenting images of multiple viewpoints arranged side by side to left and right eyes using a lenticular lens or the like, and can reproduce motion parallax associated with horizontal viewpoint movement. In this multi-view system, the number of viewpoints is often about eight, and the number of parallax images is larger than that of the two-view system, but the principle is the same as that of the two-view system.
The holographic method is a method for recording and reproducing the wavefront of light from an object, and although it has the advantage of being able to reproduce an ideal spatial image, the display requires a larger number of pixels than the integral method. There is a drawback.

インテグラル方式は、高精細映像システムとレンズ群(レンズアレイ)で構成される撮像・表示装置を用いて被写体の光学的な空間像を記録・再生する方式である。空間像が再現されるため、水平・垂直方向の運動視差を再現することができる。また、多眼方式の視点数が8視点程度であるのに比べ、インテグラル方式の視点数は例えば20×20視点と桁外れに多く、実物を見るのと同様の条件が整うため、輻輳点と調節点が一致する。   The integral method is a method of recording and reproducing an optical spatial image of an object using an imaging and display device configured of a high definition image system and a lens group (lens array). Since the aerial image is reproduced, motion parallax in the horizontal and vertical directions can be reproduced. Moreover, compared to the number of viewpoints of the multiview system being about eight, the number of viewpoints of the integral system is, for example, 20 × 20, which is an extraordinary number, and the same conditions as viewing the real thing are satisfied. Adjustment points coincide.

また、立体映像表示方式は、3D眼鏡といった特殊な眼鏡を必要とする表示方式なのか、又は裸眼立体表示方式なのかといった分類もすることができる。これに伴い、立体映像表示方式で再生される映像コンテンツも同様に分類することができる。例えば、3D映画を視聴するために3D眼鏡を用いる二眼方式は、実用化されている立体表示方式であり、実用化されている3D映画は、特殊な眼鏡を必要とする表示方式の映像コンテンツである。   In addition, it is possible to classify whether the stereoscopic image display method is a display method requiring special glasses such as 3D glasses or an autostereoscopic display method. Along with this, video contents reproduced by the stereoscopic video display method can be similarly classified. For example, a twin-lens system that uses 3D glasses to view 3D movies is a stereoscopic display system that has been put to practical use, and a 3D movie that has been put to practical use has video contents of display methods that require special glasses It is.

一方、インテグラル方式は裸眼立体表示方式である。そして、インテグラル方式は、任意視点から視認することができる将来の立体テレビ用の撮像方式の1つとして期待されているものであり、使用されるレンズアレイには平面上または球面上にレンズ群が配列されている。図15は、インテグラル方式を採用した立体テレビシステムの撮影から表示に至るまでの構成を模式的に示す説明図である。なお、近年、複数台のカメラで撮影した多視点映像から要素画像群を生成する方法も提案されている。   On the other hand, the integral method is an autostereoscopic display method. And an integral system is expected as one of the imaging systems for the future 3D television which can be visually recognized from arbitrary viewpoints, and a lens group on a plane or a spherical surface is used for the lens array to be used. Are arranged. FIG. 15 is an explanatory view schematically showing a configuration from shooting to display of the stereoscopic television system adopting the integral system. In recent years, a method of generating an element image group from multi-view images captured by a plurality of cameras has also been proposed.

図15に示す立体テレビシステムでは、凸レンズ202を介して被写体201の像をレンズアレイ203の近辺に結像させる。また、この結像を、テレビカメラ204で撮影し、画像信号の出力に変換した後の出力信号を、液晶パネル205に表示している。この液晶パネル205の近傍にもレンズアレイ206が設けられているので、操作者は、このレンズアレイ206を介した画像により、特殊な眼鏡を掛けることなく、立体画像を視認することができる。この例では、レンズアレイ206の手前に見える像(被写体201の像)が、インテグラル方式の映像コンテンツである。   In the stereoscopic television system shown in FIG. 15, the image of the subject 201 is formed in the vicinity of the lens array 203 via the convex lens 202. Further, this image formation is photographed by the television camera 204, and an output signal after being converted into an output of an image signal is displayed on the liquid crystal panel 205. The lens array 206 is also provided in the vicinity of the liquid crystal panel 205, so that the operator can visually recognize a stereoscopic image without wearing special glasses by the image through the lens array 206. In this example, an image (image of the subject 201) seen in front of the lens array 206 is integral video content.

図15の符号207は、例えばレンズアレイ206上に得られる画像の映像拡大図を示す。この映像拡大図207からも分かるように、レンズアレイ206が具備する要素レンズの各々には、被写体201を様々な角度から撮影した画像の1つが要素画像として写し出されている。つまり、テレビカメラ204の出力信号は、レンズアレイ203のレンズ群から得られる要素画像信号が集積されたものとなっている。   Reference numeral 207 in FIG. 15 shows a magnified image of an image obtained on the lens array 206, for example. As can be seen from the image enlarged view 207, one of images obtained by photographing the subject 201 from various angles is projected as an element image on each of the element lenses included in the lens array 206. That is, the output signal of the television camera 204 is obtained by integrating element image signals obtained from the lens group of the lens array 203.

ここで、撮影される際の立体像の解像度は、撮影に使用するテレビカメラ204の個数、又は、テレビカメラ204の撮像素子の個数及びレンズアレイ203のレンズ群を構成するレンズ(以下、要素レンズと表記)の個数に関係することが知られている。
将来、例えば、レンズアレイ203のレンズ群を構成する要素レンズの個数が増大していき、また、その1つの要素レンズに割り当てられる複数の画素(以下、要素画像と表記)の個数(画素数)が多くなれば、撮影される際の立体像の解像度も増大することになる。同様に、インテグラル方式による立体像の表示の際にも、自然な立体像を表示するために、レンズアレイ206のレンズ群にはより多くの要素レンズが必要になり、また、その要素画像にはより多くの画素が必要になると考えられている。
Here, the resolution of the three-dimensional image at the time of shooting is the number of television cameras 204 used for shooting, or the number of imaging elements of the television camera 204 and lenses constituting the lens group of the lens array 203 (hereinafter referred to as element lenses It is known to relate to the number of
In the future, for example, the number of element lenses constituting the lens group of the lens array 203 increases, and the number of pixels (hereinafter referred to as element image) allocated to one element lens (number of pixels) The resolution of the three-dimensional image at the time of photography will also increase. Similarly, even when displaying a solid image by the integral method, in order to display a natural three-dimensional image, the lens group of the lens array 206 requires more element lenses, and in the element image, Is considered to require more pixels.

また、従来、提案や試作がされている裸眼立体表示方式のうち、インテグラル方式以外の裸眼立体方式としては、例えば、二眼方式の立体視が基本であるパララックスバリア方式や、多眼方式の立体視が基本であるレンチキュラー方式が知られている。
このようなレンチキュラーレンズを通して立体像を表示する為に例えばスクリーンに投射される画像や、パララックスバリアを通して立体像を表示する為に例えば液晶パネルに表示される画像は、それぞれ提示しようとする映像コンテンツの元となる被写体の多視点映像をもとに生成されている。そのため、元になる多視点画像から各方式の表示装置に合った画像に変換するための画像処理が必要とされている。同様に、特殊な眼鏡を必要とする二眼方式であっても、元になる多視点画像からActive方式やPassive方式に適合した画像に変換する処理が必要とされる。このような画像処理は表示装置の仕様に大きく影響される。
Also, among the autostereoscopic display methods that have been proposed or prototyped conventionally, as the autostereoscopic method other than the integral method, for example, a parallax barrier method based on binocular stereoscopic vision or a multiview method A lenticular method is known which is based on three-dimensional vision.
An image projected on a screen, for example, to display a stereoscopic image through such a lenticular lens, or an image displayed on a liquid crystal panel, for example, to display a stereoscopic image through a parallax barrier It is generated based on the multi-viewpoint image of the subject that is the source of. Therefore, image processing for converting an original multi-viewpoint image into an image suitable for a display device of each system is required. Similarly, even in a two-eye system requiring special glasses, a process of converting the original multi-viewpoint image into an image adapted to the Active system or the Passive system is required. Such image processing is greatly influenced by the specifications of the display device.

レンチキュラーレンズを用いた場合、横(水平方向)に並んだ例えば8視点の映像は、レンチキュラー方式の表示装置に合った画像に変換する前の元の多視点画像である。この多視点画像は映像コンテンツの元であるが、ここでは、この元になる多視点画像自体も映像コンテンツと呼ぶことにする。インテグラル方式以外の裸眼立体方式(レンチキュラー方式、パララックスバリア方式)の映像コンテンツは、インテグラル方式の映像コンテンツと同様に、二眼方式の映像コンテンツと比較してコンテンツ数が少ないのが現状である。   When a lenticular lens is used, for example, images of eight viewpoints arranged in the lateral (horizontal direction) are the original multi-viewpoint images before being converted into an image suitable for a lenticular display device. Although this multi-viewpoint image is the source of video content, here, the multi-viewpoint image itself that is the source is also referred to as video content. The video content of naked-eye three-dimensional methods (lenticular method, parallax barrier method) other than the integral method, like the integral-type video content, currently has a smaller number of contents than the two-eye method video content. is there.

一方、従来、3D視聴モードに応じて、立体映像表示方式として、二眼方式又は3視差以上の多眼方式を選択できる映像処理装置が知られている(特許文献1参照)。特許文献1に記載された映像処理装置は、液晶パネルとレンチキュラーレンズとを備えており、二眼方式の映像コンテンツの入力信号が入力された場合、そのまま二眼方式の映像で再生したり、又は、入力信号を変換した上で3視差以上の多眼方式に適した映像として再生したりする。この技術を用いることで、レンチキュラー方式の映像コンテンツ数を(見かけ上)増加させることが可能である。   On the other hand, conventionally, there has been known a video processing apparatus capable of selecting a two-view system or a multiview system having three or more parallaxes as a stereoscopic video display system according to the 3D viewing mode (see Patent Document 1). The video processing apparatus described in Patent Document 1 includes a liquid crystal panel and a lenticular lens, and when an input signal of a twin-lens type video content is input, it is reproduced as a twin-lens type video as it is, or After converting an input signal, it reproduces as an image suitable for a multi-view system with three or more parallaxes. By using this technology, it is possible (apparently) to increase the number of lenticular video content.

特許第5129376号公報Patent No. 5129376

将来のテレビ放送では、デジタル放送を受信するインテグラル方式のディスプレイによって表示できる多数の映像コンテンツを必要とすることが予想される。そこで、コンテンツ数の多い二眼方式等の映像コンテンツを画像処理してインテグラル方式のディスプレイで表示できる映像コンテンツに変換し、インテグラル方式で提示できるような映像コンテンツの数を増加させることが考えられる。しかしながら、従来、二眼方式等の入力信号からインテグラル方式のディスプレイに適した映像に変換する技術は知られていなかった。   Future television broadcasts are expected to require a large number of video content that can be displayed by an integral display that receives digital broadcasts. Therefore, it is considered to convert image content such as twin-lens type with a large number of contents into image content that can be displayed on an integral type display and to increase the number of image contents that can be presented in integral type. Be However, conventionally, no technology has been known for converting an input signal such as a two-lens system into an image suitable for an integral display.

特許文献1に記載された映像処理装置はレンチキュラー方式に関するものであり、インテグラル方式とは原理が大きく異なるため、インテグラル方式のディスプレイに適した映像に変換することはできない。その理由は、インテグラル方式のディスプレイは図15の符号207で示すように多数の要素画像(要素画像群)の存在を前提としているのに対して、二眼方式や多眼方式の映像コンテンツは水平視差のみに対応しているコンテンツだからである。   The image processing apparatus described in Patent Document 1 relates to a lenticular method, and the principle is largely different from the integral method, and therefore, it can not be converted into an image suitable for an integral method display. The reason is that the integral type display is premised on the existence of a large number of element images (element image group) as indicated by reference numeral 207 in FIG. 15, while the twin-view type and multi-view type video contents This is because the content corresponds to only the horizontal parallax.

本発明は、以上のような問題点に鑑みてなされたものであり、インテグラル方式のディスプレイに表示できる映像コンテンツの数を効率よく増加させることのできる要素画像群生成装置及びそのプログラム、並びにデジタル放送受信装置を提供することを課題とする。   The present invention has been made in view of the above problems, and it is possible to efficiently increase the number of video contents that can be displayed on an integral type display, an apparatus for generating an image group, a program thereof, and a digital It is an object of the present invention to provide a broadcast receiving apparatus.

前記課題を解決するために、本発明に係る要素画像群生成装置は、レンズアレイを介して立体映像を提示するために表示パネルに表示するインテグラル方式の複数の要素画像である要素画像群を生成する要素画像群生成装置であって、視点合成処理手段と、多視点映像補正手段と、映像切替手段と、要素画像生成手段と、多視点映像記録転送手段と、を備えることとした。   In order to solve the above problem, an element image group generation device according to the present invention is configured to display element images of multiple integral element images displayed on a display panel to present a stereoscopic image through a lens array. An element image group generation apparatus for generating, comprising viewpoint synthesis processing means, multi-view video correction means, video switching means, element image generation means, and multi-view video recording and transfer means.

かかる構成によれば、要素画像群生成装置は、視点合成処理手段によって、視点間の水平視差のみに対応している複数視点のそれぞれの視点映像で構成された映像が入力されたときに、前記レンズアレイのレンズピッチの情報を含むレンズアレイ情報に基づいて当該水平視差を持った複数の視点映像から視点を合成し、前記入力された映像よりも視点数を増加させた視点映像で構成された多視点映像を生成する。
そして、要素画像群生成装置は、多視点映像補正手段によって、前記視点合成処理手段により生成された多視点映像をインテグラル方式の要素画像生成法に適した投影方式の映像に補正する。
そして、要素画像群生成装置は、映像切替手段によって、所定の多視点映像を選択して単位時間毎の多視点映像である多視点画像を、メモリ上に定められた多視点画像配置領域の水平方向及び垂直方向に割り当てて複数の多視点画像からなる多視点画像群を生成する処理を時分割で繰り返し行う。
そして、要素画像群生成装置は、要素画像生成手段によって、前記多視点画像群から前記インテグラル方式の要素画像生成法によって要素画像を生成する処理を繰り返すことで前記要素画像群を生成する。
そして、要素画像群生成装置は、多視点映像記録転送手段によって、前記多視点映像補正手段の補正により生成された多視点映像を記録バッファに記録すると共に前記記録バッファから前記映像切替手段に転送する。
そして、要素画像群生成装置は、映像切替手段によって、前記多視点映像記録転送手段から転送される多視点映像に基づき、前記多視点画像配置領域の水平方向に対しては、前記視点合成処理手段により生成された水平成分の視点映像を割り当てると共に、前記多視点画像配置領域の垂直方向に対しては、同じ水平位置の視点映像を繰り返し割り当てることで前記多視点画像群を生成する処理を行うことを特徴とする。
According to this configuration, the element image group generation device receives the video composed of the respective viewpoint videos of the plurality of viewpoints corresponding to only the horizontal parallax between the viewpoints by the viewpoint synthesis processing means. Based on lens array information including information on lens pitch of lens array, the viewpoints are synthesized from a plurality of viewpoint videos having the horizontal parallax, and the viewpoint video is formed by increasing the number of viewpoints compared to the input video. Generate multi-view video.
Then, the element image group generation apparatus corrects the multi-viewpoint image generated by the viewpoint synthesis processing means into an image of a projection system suitable for the integral-type element image generation method by the multi-view image correction means.
Then, the element image group generation apparatus selects a predetermined multi-view image by the image switching means and sets the multi-view image, which is a multi-view image per unit time, to the horizontal of the multi-view image arrangement area defined on the memory. A process of generating a multi-viewpoint image group including a plurality of multi-viewpoint images, which are allocated in the direction and the vertical direction, is repeatedly performed in time division.
Then, the element image group generation device generates the element image group by repeating the process of generating an element image from the multi-viewpoint image group by the element image generation method of the integral method by the element image generation means.
Then, the element image group generation apparatus records the multi-viewpoint image generated by the correction of the multi-view image correcting unit by the multi-view image recording and transferring unit in the recording buffer and transfers it from the recording buffer to the image switching unit. .
Then, the element image group generation device is configured to, based on the multi-view video transferred from the multi-view video recording and transfer means by the video switching means, with respect to the horizontal direction of the multi-view image arrangement area, To assign the viewpoint video of the horizontal component generated by the process, and to repeatedly generate the multi-viewpoint image group by repeatedly assigning the viewpoint video at the same horizontal position in the vertical direction of the multi-viewpoint image arrangement area. It is characterized by

また、本発明は、コンピュータを、前記要素画像群生成装置として機能させるための要素画像群生成プログラムで実現することもできる。   The present invention can also be realized by an element image group generation program for causing a computer to function as the element image group generation device.

また、前記課題を解決するために、本発明に係るデジタル放送受信装置は、前記要素画像群生成装置と、前記表示パネルと、前記レンズアレイと、放送波を受信する放送受信手段と、通信ネットワークを介して外部との間で情報を送受信する通信手段と、を備えるデジタル放送受信装置であって、表示切替手段を備えることとした。   Further, in order to solve the above problems, a digital broadcast receiving apparatus according to the present invention includes the element image group generating apparatus, the display panel, the lens array, a broadcast receiving unit for receiving a broadcast wave, and a communication network. And D. communication means for transmitting and receiving information to and from the outside via the I. A digital broadcast receiving apparatus comprising: a display switching means.

かかる構成によれば、デジタル放送受信装置は、表示切替手段によって、前記放送受信手段によって放送波から水平視差のみの多視点映像を受信するときに、当該放送受信した水平視差のみの多視点映像に基づいて生成した垂直視差の無いインテグラル立体像の表示と、前記放送波で受信する水平視差のみの多視点映像以外の多視点映像を前記通信手段によって前記通信ネットワークを介して受信して当該ネットワーク受信した多視点映像も併用して生成した水平視差及び垂直視差の両方を有するインテグラル立体像の表示と、を切り替える。   According to this configuration, when the digital broadcast receiving apparatus receives the multiview video with only horizontal parallax from the broadcast wave by the broadcast receiving section by the display switching section, the digital broadcast receiving apparatus changes the multiview video with only the horizontal parallax received by the broadcast. Based on the display of the integral stereoscopic image having no vertical parallax generated on the basis and the multi-view image other than the multi-view image of only the horizontal parallax received by the broadcast wave by the communication means via the communication network and the network It switches between displaying the integral stereoscopic image having both horizontal parallax and vertical parallax generated by using the received multi-viewpoint image in combination.

なお、水平視差及び垂直視差の両方を有するインテグラル立体像を生成するにあたり、前記放送波で受信する水平視差のみの多視点映像をHDD等の記録装置にあらかじめ録画し、録画された水平視差のみの多視点映像と、放送波の受信とは異なる時間において前記通信ネットワークを介して受信して当該ネットワーク受信した多視点映像とを併用しても良い。   In addition, when generating an integral stereoscopic image having both horizontal parallax and vertical parallax, multi-viewpoint video of only horizontal parallax received in the broadcast wave is recorded in advance in a recording device such as HDD, and only the horizontal parallax recorded. The multi-view video of the present invention and the multi-view video received via the communication network at different times from the reception of the broadcast wave may be used in combination.

本発明によれば、水平視差のみに対応している映像からインテグラル方式の要素画像群を生成することができる。したがって、本発明によれば、将来のテレビ放送で必要とされるインテグラル方式のディスプレイに表示できるような映像コンテンツの数を効率よく増加させることができる。   According to the present invention, it is possible to generate an integral-type element image group from an image that supports only horizontal parallax. Therefore, according to the present invention, it is possible to efficiently increase the number of video contents that can be displayed on an integral display required for future television broadcasting.

本発明の第1実施形態に係る要素画像群生成装置の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the element image group production | generation apparatus which concerns on 1st Embodiment of this invention. 図1の要素画像群生成装置の動作の説明図であって、(a)は入力映像の一例、(b)は記録バッファの記憶構造の一例、(c)は視点映像の割り当て例を示している。It is explanatory drawing of operation | movement of the element image group production | generation apparatus of FIG. 1, Comprising: (a) is an example of an input image, (b) shows an example of a storage structure of a recording buffer, (c) shows an example of allocation of a viewpoint video. There is. 図1の要素画像群生成装置の映像切替手段の動作の説明図であって、多視点画像群の一例の模式図である。It is explanatory drawing of operation | movement of the image | video switching means of the element image group production | generation apparatus of FIG. 1, Comprising: It is a schematic diagram of an example of a multi-viewpoint image group. 図1の要素画像群生成装置の要素画像生成手段の動作の説明図であって、要素画像群の一例の模式図である。It is explanatory drawing of operation | movement of the element image generation means of the element image group production | generation apparatus of FIG. 1, Comprising: It is a schematic diagram of an example of an element image group. 図1の要素画像群生成装置の動作の説明図であって、(a)〜(c)は垂直成分の視点映像割当ての遷移の一例を示している。It is explanatory drawing of operation | movement of the element image group production | generation apparatus of FIG. 1, Comprising: (a)-(c) has shown an example of the transition of the viewpoint image allocation of a perpendicular | vertical component. 視域の境目での立体像の見え方の一例を示す概念図である。It is a conceptual diagram which shows an example of how to see the solid image in the boundary of a viewing zone. 右目と左目の間に視域の境目が位置するときの様子を模式的に示す平面図である。It is a top view which shows typically a mode when the boundary of a viewing area is located between right eye and left eye. 多視点映像中の視点映像が視域の境目で不連続に切り替わる様子を模式的に示すグラフである。It is a graph which shows typically a mode that the viewpoint imaging | video in multi-viewpoint imaging | video switches discontinuously at the boundary of a viewing zone. 本発明の第2実施形態に係る要素画像群生成装置の構成を模式的に示すブロック図である。It is a block diagram which shows typically the structure of the element image group production | generation apparatus which concerns on 2nd Embodiment of this invention. 図9の要素画像群生成装置によって仮想空間で要素画像を生成する手法の説明図であって、(a)は要素レンズを通過する光線毎の斜投影、(b)は複数の要素レンズを通過する平行光を示している。It is explanatory drawing of the method of producing | generating an element image in virtual space by the element image group production | generation apparatus of FIG. 9, Comprising: (a) is oblique projection for every light ray which passes an element lens, (b) passes a plurality of element lenses. Show parallel light. 図9の要素画像群生成装置によって視域の境目で連続性を持たせるように多視点映像を選択して映像を差替える一例を模式的に示すグラフである。FIG. 10 is a graph schematically showing an example of selecting multi-viewpoint images and replacing the images so as to give continuity at boundaries of viewing regions by the element image group generation device of FIG. 9; FIG. 図9の要素画像群生成装置によって視域の境目で連続性を持たせるように多視点映像を選択して映像を差替える他の例を模式的に示すグラフである。FIG. 10 is a graph schematically showing another example of selecting multi-viewpoint images and replacing the images so as to give continuity at boundaries of viewing regions by the element image group generation device of FIG. 9; FIG. 本発明の実施形態に係るデジタル放送受信装置を含む放送通信連携システムを模式的に示す構成図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a block diagram which shows typically the broadcast communication cooperation system containing the digital broadcast receiver which concerns on embodiment of this invention. 本発明の第3実施形態に係る要素画像群生成装置を含むデジタル放送受信装置を模式的に示すブロック図である。It is a block diagram which shows typically the digital broadcast receiver containing the element image group production | generation apparatus which concerns on 3rd Embodiment of this invention. 従来のインテグラル方式の立体テレビカメラの構造を模式的に示す図である。It is a figure which shows typically the structure of the conventional integral-type three-dimensional television camera.

以下、図面を参照して本発明の要素画像群生成装置を実施するための形態(以下「実施形態」という)について詳細に説明する。   Hereinafter, an embodiment (hereinafter referred to as “embodiment”) for carrying out an element image group generation apparatus of the present invention will be described in detail with reference to the drawings.

[1−1.要素画像群生成装置の構成]
図1に示す要素画像群生成装置10は、立体映像を提示するためにインテグラル方式にとって必要な複数の要素画像である要素画像群を生成するものである。この要素画像群生成装置10は、例えば一般的なコンピュータに組み込まれる要素画像群生成プログラム又コンピュータで構成され、モニタ(表示パネル)とレンズアレイとを併せて利用することで立体映像を提示することができる。あるいは、詳細は後記するが、図14に示すように、例えばモニタ70とレンズアレイ80とを備えたデジタル放送受信装置3(インテグラル立体テレビ)として利用することもできる。
[1-1. Configuration of Element Image Group Generation Device]
The element image group generation apparatus 10 shown in FIG. 1 generates an element image group which is a plurality of element images necessary for the integral method to present a stereoscopic image. The element image group generation apparatus 10 is constituted by, for example, an element image group generation program or a computer incorporated in a general computer, and presents a stereoscopic image by using a monitor (display panel) and a lens array in combination. Can. Alternatively, although the details will be described later, as shown in FIG. 14, for example, it can be used as a digital broadcast receiving apparatus 3 (integral stereo television) provided with a monitor 70 and a lens array 80.

以下では、要素画像群生成装置10は、一般的なコンピュータと同様な構成要素、すなわち、例えばCPU(Central Processing Unit)、ROM(Read Only Memory)、RAM(Random Access Memory)、HDD(Hard Disk Drive)等を備えていることとする。ここでは、要素画像群生成装置10は、その機能を果たすために、図1に示すように、入力インタフェイス11と、レンズアレイ情報記憶手段12と、視点合成処理手段13と、多視点映像補正手段14と、多視点映像記録転送手段15と、映像切替手段16と、要素画像生成手段17と、出力インタフェイス18と、を備えている。   In the following, the element image group generation device 10 has the same components as a general computer, that is, for example, a central processing unit (CPU), a read only memory (ROM), a random access memory (RAM), a hard disk drive (HDD) Shall be provided. Here, the element image group generation apparatus 10 performs, as shown in FIG. 1, the input interface 11, the lens array information storage unit 12, the viewpoint synthesis processing unit 13, and the multi-view image correction to perform its functions. A unit 14, a multiview video record transfer unit 15, a video switching unit 16, an element image generation unit 17, and an output interface 18 are provided.

入力インタフェイス11は、外部から入力映像Vを入力するための所定のインタフェイスである。入力映像Vは、例えば、ディスクドライブ装置、所定のケーブル等を用いた有線通信、無線通信、あるいは放送波等によって入力される。   The input interface 11 is a predetermined interface for inputting an input video V from the outside. The input video V is input by, for example, a disk drive, wired communication using a predetermined cable or the like, wireless communication, broadcast waves, or the like.

入力映像Vは、動画であってもよいし静止画であってもよい。この入力映像Vは、例えば二眼方式、多眼方式、あるいはインテグラル方式等の視点映像の集合である多視点映像である。
ここで、視点映像は、ある1つの視点から被写体を見たときのカメラ映像又は仮想カメラの映像である。視点映像は、二眼方式では、両眼に対応した2つの視差映像のうちの1つである。多眼方式では、水平視差を有した視点映像が3つ以上、例えば8つの視差映像のうちの1つである。インテグラル方式では、視点映像は、水平及び垂直方向にそれぞれ複数存在している。例えば、縦横3×3視点、それ以上の視点、あるいは、下段が2視点:中段が3視点:上段が2視点である3段構成のカメラアレイや仮想カメラが想定される。
The input video V may be a moving image or a still image. The input video V is, for example, a multi-view video which is a set of viewpoint videos such as a twin-view method, a multi-view method, or an integral method.
Here, the viewpoint video is a video of a camera or a video of a virtual camera when a subject is viewed from a certain viewpoint. The viewpoint video is one of two parallax videos corresponding to binoculars in the two-view system. In the multiview method, the viewpoint video having horizontal parallax is three or more, for example, one of eight parallax videos. In the integral method, a plurality of viewpoint videos are present in each of the horizontal and vertical directions. For example, a camera array or a virtual camera having a three-stage configuration in which the lower row is 2 viewpoints: the middle row is 3 viewpoints and the upper row is 2 viewpoints is assumed.

なお、ここでは、多視点とは2視点以上であるものとする。多視点映像というとき、上記3視点以上の視点数の視点映像があることを前提にしている立体表示方式の場合のほか、二眼方式であっても、視点合成処理をして視点数を増やした場合、多視点映像という。さらに、その立体表示方式、又は視点数を増やした系において空間上で想定している複数の多視点映像の組を、(同一フレームの)多視点映像群ともいう。   Here, it is assumed that the multiple viewpoints are two or more viewpoints. In the case of multi-view video, in addition to the stereoscopic display method assuming that there are three or more viewpoints in the multi-view video, even in the twin-lens method, the number of viewpoints is increased to perform the view synthesis processing. When it is called multi-view video. Furthermore, a group of a plurality of multi-view videos assumed in space in the stereoscopic display system or a system in which the number of viewpoints is increased is also referred to as a multi-view video group (of the same frame).

入力映像Vがインテグラル方式の多視点映像の場合、その入力映像Vは、水平視差及び垂直視差の両方を有している。入力映像Vが二眼方式の多視点映像(2つの視差映像)や多眼方式の多視点映像の場合、その入力映像Vは、水平視差のみを有している。
なお、視点映像や多視点映像に関して、記憶された画像やフレーム単位の画像等を特に指す場合、視点画像や多視点画像と呼ぶ場合もある。
When the input video V is an integral-type multi-view video, the input video V has both horizontal parallax and vertical parallax. When the input video V is a twin-view multi-view video (two parallax videos) or a multi-view multi-view video, the input video V has only horizontal parallax.
In addition, when referring to a stored image, an image in a frame unit, or the like with respect to a viewpoint video or a multi-view video, it may be referred to as a viewpoint image or a multi-view image.

レンズアレイ情報記憶手段12は、レンズアレイ80のレンズピッチの情報を含むレンズアレイ情報を記憶するものであり、例えば、半導体メモリ等の一般的な記憶媒体で構成することができる。レンズアレイ情報としては、レンズピッチのほか、例えば各レンズの中心の位置、レンズの大きさ、レンズの個数、レンズ配置パターン、仮想カメラの視点からレンズアレイ面までの距離等を挙げることができる。   The lens array information storage unit 12 stores lens array information including information on the lens pitch of the lens array 80, and can be configured by, for example, a general storage medium such as a semiconductor memory. The lens array information may include, for example, the position of the center of each lens, the size of the lens, the number of lenses, the lens arrangement pattern, the distance from the viewpoint of the virtual camera to the lens array surface, and the like.

視点合成処理手段13は、視点間の水平視差のみに対応している複数視点のそれぞれの視点映像で構成された映像が入力されたときに、レンズアレイのレンズピッチの情報を含むレンズアレイ情報に基づいて当該水平視差を持った複数の視点映像から視点を合成し、入力映像Vよりも視点数を増加させた視点映像で構成された多視点映像を生成するものである。なお、増加させた後の合計の視点数についてはレンズアレイの情報(インテグラル方式の表示情報)を元に予め決めておくことができる。   The viewpoint composition processing means 13 sets lens array information including information on the lens pitch of the lens array when an image composed of viewpoint images of a plurality of viewpoints corresponding to only horizontal parallax between viewpoints is input. Based on this, viewpoints are synthesized from a plurality of viewpoint videos having the horizontal parallax, and a multi-viewpoint video composed of viewpoint videos in which the number of viewpoints is increased compared to the input video V is generated. The total number of viewpoints after the increase can be determined in advance based on the information of the lens array (integral display information).

本実施形態では、視点合成処理手段13は、入力映像Vから視点合成の必要を判断することとした。この判定方法としては、例えば、入力映像Vの同一フレームに含まれる視点映像の個数が、後段で生成する多視点映像群を構成する多視点映像の設定数に満たない場合、視点合成が必要であると判定すればよい。一例を挙げれば、多視点映像の設定数を、予めインテグラル方式の多視点映像の個数(例えば水平方向20個×垂直方向20個)の条件に設定しておき、入力映像Vの同一フレームに含まれる視点映像の個数が条件を満たせば、入力映像Vに視点合成処理は不要と判断し、条件を満たさなければ視点合成処理は必要と判断することができる。なお、上記判断は必須ではなく、視点合成処理手段13に対して、予め視点合成が必要か否かの情報を与えてもよい。   In the present embodiment, the viewpoint synthesis processing unit 13 determines the necessity of viewpoint synthesis from the input video V. As this determination method, for example, when the number of viewpoint videos included in the same frame of the input video V is less than the set number of multiview videos forming the multiview video group generated in the later stage, it is necessary to combine viewpoints. It may be determined that there is. As an example, the setting number of multi-view videos is set in advance to the condition of the number of multi-view videos of integral type (for example, 20 horizontal × 20 vertical) and the same frame of the input video V If the number of included viewpoint videos satisfies the condition, it is determined that the viewpoint combining process is unnecessary for the input video V, and if the condition is not satisfied, it can be determined that the viewpoint combining process is necessary. The above determination is not essential, and information on whether or not viewpoint combination is necessary may be given to the viewpoint combination processing means 13 in advance.

そして、視点合成処理手段13は、視点合成処理が不要の場合、すなわち入力映像Vがインテグラル方式の多視点映像の場合、視点合成をすることなく、処理を多視点映像補正手段14に渡す。
一方、視点合成処理が必要の場合、すなわち入力映像Vが二眼方式や多眼方式の多視点映像の場合、視点合成処理手段13は、二眼方式や多眼方式の映像コンテンツの元となる多視点画像からインテグラル方式の映像コンテンツの元となる多視点画像へ変換するために、水平視差を持った複数の映像を基に、レンズアレイの情報を参照して、視点合成を行って視点数を増やす。そして、生成した多視点映像を、多視点映像補正手段14に出力する。
Then, when the view synthesis process is unnecessary, that is, when the input video V is an integral multiview video, the view synthesis processing unit 13 passes the process to the multiview image correction unit 14 without performing the view synthesis.
On the other hand, when the view synthesis processing is necessary, that is, when the input video V is a twin-view or multi-view multi-view video, the view synthesis processing means 13 is the source of the twin-view or multi-view video content. In order to convert a multi-viewpoint image into a multi-viewpoint image that is the source of integral-type video content, view synthesis is performed by referring to information of the lens array based on a plurality of images with horizontal parallax. Increase the score. Then, the generated multi-view video is output to the multi-view video correction unit 14.

ここで、視点合成とは、入力映像Vの各視点映像の間に1つの補間映像を作成したり、各視点映像の間に複数の補間映像を作成したりする視点内挿の処理を行うことである。なお、視点数はレンズアレイの情報を元に決めればよい。視点内挿の処理としては例えばデプスマップを利用する方法などが知られており、これを利用することができる。なお、デプスマップを利用する方法については、例えば下記参考文献に記載されているので、ここでは説明を省略する。
(参考文献)ISO/IEC JTC1/SC29/WG11 MPEG2013/M31520
Here, viewpoint synthesis means processing of viewpoint interpolation in which one interpolated video is created between each viewpoint video of the input video V, and a plurality of interpolated videos are created between each viewpoint video. It is. The number of viewpoints may be determined based on the information of the lens array. For example, a method of using a depth map is known as processing of viewpoint interpolation, and this can be used. In addition, about the method of utilizing a depth map, since it describes, for example in the following reference, description is abbreviate | omitted here.
(Reference) ISO / IEC JTC1 / SC29 / WG11 MPEG2013 / M31520

多視点映像補正手段14は、視点合成処理手段13により生成された多視点映像をインテグラル方式の要素画像生成法に適した投影方式の映像に補正するものである。インテグラル方式の要素画像生成法では、例えば斜投影で取得した画像をもとに要素画像を生成する。そこで、本実施形態では、一例として、視点内挿処理で視点数を増やした多視点映像の各視点映像を斜投影画像に変換する補正処理を施すこととした。   The multi-view video correction means 14 corrects the multi-view video generated by the view synthesis processing means 13 into a video of a projection system suitable for the integral type elementary image generation method. In the integral type element image generation method, for example, an element image is generated based on an image acquired by oblique projection. Therefore, in the present embodiment, as an example, correction processing is performed to convert each viewpoint video of a multi-view video in which the number of viewpoints has been increased by viewpoint interpolation processing into an oblique projection image.

多視点映像補正手段14は、斜投影処理手段141と、第1判定手段142と、を備えている。
斜投影処理手段141は、透視投影から平行投影の画像に変換する処理を行うものである。これは、二眼方式や多眼方式のコンテンツはカメラから取得した映像であるため通常は正射影であることが多いためである。
斜投影処理手段141は、視点合成処理手段13で生成された多視点映像を、レンズピッチなどのレンズアレイ情報に基づいて、透視投影の画像から平行投影の画像に変換し、変換された映像信号を、多視点映像記録転送手段15及び映像切替手段16に送る。
The multi-viewpoint image correction unit 14 includes an oblique projection processing unit 141 and a first determination unit 142.
The oblique projection processing means 141 performs processing of converting a perspective projection into an image of parallel projection. This is because the content in the two-view method and the multi-view method is usually an orthographic projection because it is an image acquired from a camera.
The oblique projection processing means 141 converts the perspective projection image into a parallel projection image based on lens array information such as the lens pitch, and converts the multi-viewpoint image generated by the viewpoint synthesis processing means 13 into a converted video signal. Are sent to the multi-viewpoint video recording and transferring means 15 and the video switching means 16.

第1判定手段142は、記録バッファ151を参照して、着目する多視点映像と、当該多視点映像に時間的に隣接するフレームの画像データ、又は空間的に隣接する画像データとを比較することで、当該要素画像群生成装置10にフレーム毎に入力する、視点映像の集合である多視点映像に、当該映像を構成する視点映像の欠落があるか否か判定するものである。第1判定手段142は、比較の結果、着目する多視点映像のデータが存在しない場合、視点映像の欠落があると判定する。第1判定手段142は、欠落の有無の情報を多視点映像記録転送手段15に通知する。なお、このような判定を行う理由は、要素画像群生成装置10へ入力する入力映像Vのうち一部の情報が、要素画像群生成装置10へ入力する前の伝送などにて欠落する虞があるからである。   The first determination means 142 compares the focused multi-viewpoint video with the image data of a frame temporally adjacent to the multi-viewpoint video or the image data spatially adjacent to the multi-viewpoint video with reference to the recording buffer 151. Then, it is determined whether or not the multi-viewpoint video, which is a set of viewpoint videos, input to the element image group generation device 10 for each frame is missing the viewpoint video constituting the video. The first determination means 142 determines that there is a loss of the viewpoint video when there is no data of the multi-view video to be focused as a result of the comparison. The first determination means 142 notifies the multi-view video record transfer means 15 of information on the presence or absence of the dropout. The reason why such a determination is made is that there is a possibility that part of the information in the input video V input to the element image group generation device 10 may be lost in transmission before input to the element image group generation device 10 or the like. It is because there is.

多視点映像補正手段14は、インテグラル方式の多視点映像が入力された場合、斜投影処理手段141による処理を行うことなく、第1判定手段142の処理を行った上で映像信号を、多視点映像記録転送手段15及び映像切替手段16に送る。   The multi-viewpoint image correction means 14 performs the processing of the first determination means 142 without performing the processing by the oblique projection processing means 141 when the multi-viewpoint image of the integral type is input, It is sent to the viewpoint video recording and transferring means 15 and the video switching means 16.

多視点映像記録転送手段15は、多視点映像補正手段14の補正により生成された多視点映像を記録バッファ151に記録する共に多視点映像を記録バッファ151から映像切替手段16に転送するものである。
この多視点映像記録転送手段15は、入力映像Vのうち二眼方式や多眼方式の映像コンテンツの元となる多視点映像については、多視点映像補正手段14で補正処理が施された多視点映像を記録バッファ151に記録する。
本実施形態では、多視点映像記録転送手段15は、記録バッファ151と、画像出力手段152と、補正手段153と、を備えることとした。
The multi-view video record transfer means 15 records the multi-view video generated by the correction of the multi-view video correction means 14 in the recording buffer 151 and transfers the multi-view video from the recording buffer 151 to the video switching means 16 .
The multi-viewpoint video recording and transfer unit 15 performs multi-viewpoint correction processing by the multi-viewpoint image correction unit 14 on the multi-viewpoint video that is the source of the twin-view type or multi-view type video content in the input video V. The video is recorded in the recording buffer 151.
In this embodiment, the multi-viewpoint video recording and transferring unit 15 includes the recording buffer 151, the image output unit 152, and the correcting unit 153.

記録バッファ151は、多視点映像を記録するものであり、例えば、半導体メモリ等の一般的な記憶媒体で構成することができる。なお、記録バッファ151への多視点映像の記録は一時的なものである。
画像出力手段152は、記録バッファ151から多視点映像(多視点画像)を読み出して映像切替手段16に出力するものである。
記録バッファ151と画像出力手段152との関係は、所謂スキップバックレコーダーのようなもので、多視点映像記録転送手段15に対して時系列に入力される多視点映像を、記録バッファ151に一時的に記憶し、予め定められた時間だけ(例えば数秒)遅延させて多視点映像(多視点画像)を映像切替手段16に出力する。
The recording buffer 151 is for recording multi-view video, and can be configured, for example, by a general storage medium such as a semiconductor memory. Incidentally, the recording of the multi-viewpoint video to the recording buffer 151 is temporary.
The image output unit 152 reads out the multi-view video (multi-view image) from the recording buffer 151 and outputs it to the video switching unit 16.
The relationship between the recording buffer 151 and the image output unit 152 is like a so-called skip back recorder, and temporarily stores multi-view images input to the multi-view image recording / transfer unit 15 in time series to the recording buffer 151. , And delayed for a predetermined time (for example, several seconds) to output a multi-view video (multi-view image) to the video switching means 16.

補正手段(第1補正手段)153は、視点映像に不具合がある場合、記録バッファ151に記憶された情報を用いて補正するものである。なお、補正された情報は画像出力手段152によって出力される。
本実施形態では、補正手段153は、第1判定手段142によって視点映像の欠落があると判定された場合、当該欠落箇所に対して時間的に隣接するフレームの画像データ、又は空間的に隣接する画像データを記録バッファ151から読み出して用いて当該欠落箇所の画像を補正する。例えば、補正手段153は、記録バッファ151上で、所定フレームにおいて欠落となっている視点画像が配置されるメモリ領域のデータ(null)を、当該フレームに隣接する前のフレームの視点画像と後のフレームの視点画像とを用いて補間し生成した視点画像のデータで差し替える。
The correction means (first correction means) 153 is to use the information stored in the recording buffer 151 for correction when there is a defect in the viewpoint video. The corrected information is output by the image output unit 152.
In the present embodiment, when it is determined by the first determination unit 142 that there is a loss of the viewpoint video, the correction unit 153 is adjacent to the image data of the frame temporally adjacent to the deletion portion or spatially adjacent. The image data is read from the recording buffer 151 and used to correct the image of the missing part. For example, the correction unit 153 may use data (null) of the memory area in which the viewpoint image missing in the predetermined frame is arranged on the recording buffer 151, the viewpoint image of the previous frame adjacent to the frame, and the subsequent image. It replaces with the data of the viewpoint image generated by interpolation using the viewpoint image of the frame.

映像切替手段16は、多視点映像補正手段14又は多視点映像記録転送手段15から送られる映像(所定の多視点映像)が入力され、要素画像生成手段17に出力するものである。
映像切替手段16は、多視点映像補正手段14から送られる映像についてはそのまま要素画像生成手段17に出力する。
映像切替手段16は、多視点映像記録転送手段15から送られる多視点映像を選択して単位時間毎の多視点映像である多視点画像を、メモリ上に定められた多視点画像配置領域の水平方向及び垂直方向に割り当てて複数の多視点画像からなる多視点画像群を生成する処理を時分割で繰り返し行う。
The video switching means 16 receives the video (predetermined multi-view video) sent from the multi-view video correction means 14 or the multi-view video recording and transfer means 15 and outputs the video to the element image generation means 17.
The image switching unit 16 outputs the image sent from the multi-viewpoint image correction unit 14 to the element image generation unit 17 as it is.
The image switching means 16 selects the multi-view image sent from the multi-view image recording and transfer means 15 and sets the multi-view image which is the multi-view image per unit time to the horizontal of the multi-view image arrangement area defined on the memory. A process of generating a multi-viewpoint image group including a plurality of multi-viewpoint images, which are allocated in the direction and the vertical direction, is repeatedly performed in time division.

本実施形態では、映像切替手段16は、多視点映像記録転送手段15から転送される多視点映像に基づき、多視点画像配置領域の水平方向に対しては、視点合成処理手段13により生成された水平成分の視点映像を割り当てると共に、多視点画像配置領域の垂直方向に対しては、同じ水平位置の視点映像を繰り返し割り当てることで多視点画像群を生成する処理を行う。なお、具体例については後記する。   In the present embodiment, the video switching unit 16 is generated by the viewpoint synthesis processing unit 13 in the horizontal direction of the multi-viewpoint image arrangement area based on the multi-viewpoint video transferred from the multi-viewpoint video recording and transfer unit 15. A process of generating a multi-viewpoint image group is performed by assigning the viewpoint video of the horizontal component and repeatedly assigning the viewpoint video at the same horizontal position in the vertical direction of the multi-viewpoint image arrangement region. A specific example will be described later.

要素画像生成手段17は、多視点画像群からインテグラル方式の要素画像生成法によって要素画像を生成する処理を繰り返すことで要素画像群を生成するものである。インテグラル方式の要素画像生成法については、例えば斜投影によるインテグラル立体像の生成手法を用いることができる。この手法は、特開2012−84105号公報に詳細に記載されているので、ここでは説明を省略する。   The element image generation unit 17 generates an element image group by repeating a process of generating an element image from the multi-viewpoint image group by the integral type element image generation method. As the integral-type element image generation method, for example, a method of generating an integral three-dimensional image by oblique projection can be used. Since this method is described in detail in JP 2012-84105 A, the description is omitted here.

出力インタフェイス18は、要素画像生成手段17で生成された要素画像群を、例えば、液晶ディスプレイ等の表示パネル(モニタ70)に出力したり、ハードディスクレコーダ等の蓄積手段に出力したりする。なお、表示パネル(モニタ70)には、インテグラル方式のレンズアレイ80が設置され、表示パネルが要素画像群を表示すると、立体像が再生される。   The output interface 18 outputs the element image group generated by the element image generation unit 17 to, for example, a display panel (monitor 70) such as a liquid crystal display, or outputs it to an accumulation unit such as a hard disk recorder. Note that an integral type lens array 80 is installed on the display panel (monitor 70), and when the display panel displays an element image group, a stereoscopic image is reproduced.

[1−2.要素画像群生成装置による処理の全体の流れ]
第1実施形態に係る要素画像群生成装置10による処理の全体の流れについて図1を参照して説明する。
[1-2. Overall Flow of Processing by Element Image Group Generator]
The overall flow of processing by the element image group generation apparatus 10 according to the first embodiment will be described with reference to FIG.

要素画像群生成装置10の視点合成処理手段13は、レンズアレイ情報記憶手段12からのレンズピッチなどの情報を受けて、入力映像Vから、視点合成の必要を判断する。
視点合成処理手段13は、判定の結果、視点合成が必要な場合、合成処理を行い、例えば、視点映像を作成後、多視点映像補正手段14に映像を出力し、視点合成が不要な場合、合成処理をせずに、多視点映像補正手段14に映像を出力する。視点合成処理手段13は、入力映像Vが入力されている間、上記処理を順次繰り返す。
The viewpoint synthesis processing unit 13 of the element image group generation device 10 receives information such as the lens pitch from the lens array information storage unit 12 and determines the necessity of viewpoint synthesis from the input video V.
If it is determined that the view synthesis is necessary, the view synthesis processing unit 13 performs the synthesis process. For example, after creating a view image, the view synthesis processing unit 13 outputs the image to the multiview video correction unit 14 and does not need the view synthesis. An image is output to the multi-viewpoint image correction means 14 without performing the synthesis process. While the input video V is being input, the viewpoint synthesis processing means 13 sequentially repeats the above processing.

多視点映像補正手段14は、視点合成処理手段13で視点合成された映像を受けると、レンズアレイ情報記憶手段12からレンズピッチなどの情報をもとに、視点合成された映像について、透視投影から平行投影に変換を行い、変換された映像信号を、多視点映像記録転送手段15に送る。また、多視点映像補正手段14は、視点合成が不要な映像を受けると、多視点映像記録転送手段15及び映像切替手段16に送る。さらに、多視点映像補正手段14は、視点合成処理手段13から映像を受けると、視点映像の欠落がないか否かを判定し、判定結果を多視点映像記録転送手段15に通知する。多視点映像補正手段14は、入力映像Vが入力されている間、上記処理を順次繰り返す。   When the multi-viewpoint image correction unit 14 receives the image combined with the viewpoint by the viewpoint combination processing unit 13, the multi-viewpoint image correction unit 14 performs perspective projection on the image combined with the viewpoint based on the information such as the lens pitch from the lens array information storage unit 12. Parallel projection is converted, and the converted video signal is sent to the multi-view video record transfer means 15. In addition, when the multi-viewpoint video correction unit 14 receives a video that does not require viewpoint combination, the multi-viewpoint video correction unit 14 sends it to the multi-viewpoint video recording and transfer unit 15 and the video switching unit 16. Further, when the multi-viewpoint video correction unit 14 receives the video from the viewpoint combination processing unit 13, the multi-viewpoint video correction unit 14 determines whether there is a loss of viewpoint video and notifies the multi-viewpoint video recording and transfer unit 15 of the determination result. While the input video V is being input, the multi-viewpoint video correction means 14 sequentially repeats the above processing.

多視点映像記録転送手段15は、多視点映像補正手段14から送られてきた映像を、記録バッファ151に記録すると共に、その映像を映像切替手段16に送る。また、多視点映像記録転送手段15は、多視点映像補正手段14から、視点映像の欠落が通知された場合、記録バッファ151に記録したデータを用いて視点映像を補正してから映像切替手段16に送る。多視点映像記録転送手段15は、入力映像Vが入力されている間、上記処理を順次繰り返す。   The multi-viewpoint video recording and transferring unit 15 records the video sent from the multi-viewpoint video correcting unit 14 in the recording buffer 151 and sends the video to the video switching unit 16. Also, when the multi-viewpoint video correction unit 14 notifies the multi-viewpoint video recording and transfer unit 15 that the viewpoint video is missing, the multi-viewpoint video recording and transfer unit 15 corrects the viewpoint video using the data recorded in the recording buffer 151. Send to While the input video V is being input, the multi-viewpoint video recording and transferring unit 15 sequentially repeats the above process.

映像切替手段16は、多視点映像記録転送手段15から多視点映像を受けると、時分割で多視点画像として配置し、多視点画像を繰り返し要素画像生成手段17に出力する。映像切替手段16は、入力映像Vが入力されている間、上記処理を順次繰り返す。また、映像切替手段16は、多視点映像補正手段14から受ける多視点映像と、多視点映像記録転送手段15から受ける多視点映像とを切り替えて出力する。この映像切り替えは、要素画像群生成装置10の操作者による指示操作により、動作を行う前等の所定のタイミングに切り替えればよい。   When the video switching means 16 receives the multi-view video from the multi-view video recording and transferring means 15, the video switching means 16 arranges it as a multi-view image in time division, and repeatedly outputs the multi-view image to the element image generating means 17. While the input video V is being input, the video switching means 16 sequentially repeats the above process. Further, the video switching means 16 switches between the multi-view video received from the multi-view video correction means 14 and the multi-view video received from the multi-view video recording and transfer means 15 and outputs the same. This video switching may be switched to a predetermined timing before operation or the like by an instruction operation by the operator of the element image group generation apparatus 10.

要素画像生成手段17は、映像切替手段16から受け取った多視点画像からインテグラル方式の要素画像生成法によって要素画像を生成する処理を繰り返すことで要素画像群を生成する。要素画像生成手段17は、映像切替手段16から多視点画像が入力している間、上記処理を順次繰り返す。   The element image generation unit 17 generates an element image group by repeating the process of generating an element image from the multi-viewpoint image received from the image switching unit 16 according to the integral type element image generation method. While the multi-viewpoint image is input from the video switching unit 16, the element image generation unit 17 sequentially repeats the above process.

[1−3.入力映像がインテグラル方式の多視点映像の場合の処理の流れ]
この場合の要素画像群生成装置10による処理の流れについて図2乃至図4を参照(適宜図1参照)して説明する。ここでは、一例として、9台のカメラを垂直方向に3行、水平方向に3列となるように並べたカメラアレイを用意して、円柱とその手前に配置された立方体とを被写体として撮影した3×3視点の映像を想定する。このときの入力映像の一例を図2(a)に示す。ここでは、カメラアレイの側から被写体を見たときに、左上(座標=(1,1);以下同様)、正面上(1,2)、右上(1,3)、左中(2,1)、正面中(2,2)、右中(2,3)、左下(3,1)、正面下(3,2)、右下(3,3)のそれぞれに写った視点映像を入力映像V1〜V9とする。これら入力映像V1〜V9は、同じフレームの映像である。
[1-3. Processing flow when the input video is an integral-type multi-view video]
A flow of processing by the element image group generation apparatus 10 in this case will be described with reference to FIGS. 2 to 4 (refer to FIG. 1 as needed). Here, as an example, a camera array in which nine cameras are arranged in three lines vertically and three lines horizontally is prepared, and a cylinder and a cube arranged in front of it are photographed as a subject Assume an image of 3 × 3 viewpoints. An example of the input video at this time is shown in FIG. Here, when the subject is viewed from the side of the camera array, the upper left (coordinates = (1, 1); the same applies hereinafter), the front (1, 2), the upper right (1, 3), the middle left (2, 1) ), View images taken from the front (2, 2), right middle (2, 3), lower left (3, 1), lower front (3, 2), lower right (3, 3) It is referred to as V1 to V9. These input videos V1 to V9 are videos of the same frame.

インテグラル方式の多視点映像の場合、図2(a)に示すように、多視点映像は、水平視差及び垂直視差の両方を有している。そこで、要素画像群生成装置10は、視点合成や斜投影の処理を行わず、多視点映像記録転送手段15は、図2(b)に模式的に示すように、入力映像(多視点映像)V1〜V9を記録バッファ151に記録すると共に、その映像を映像切替手段16に送る。そして、映像切替手段16は、撮影に用いたカメラアレイのカメラ配置に対応させてメモリ上に形成された、図2(c)に模式的に示す多視点画像配置領域61の水平方向及び垂直方向の3行3列の領域に、入力映像(多視点映像)V1〜V9を並び変えながら割り当てる。   In the case of the integral-type multi-view video, as shown in FIG. 2A, the multi-view video has both horizontal parallax and vertical parallax. Therefore, the element image group generation apparatus 10 does not perform processing of viewpoint synthesis and oblique projection, and the multi-viewpoint video recording and transfer unit 15 inputs an input video (multi-viewpoint video) as schematically shown in FIG. V1 to V9 are recorded in the recording buffer 151, and the video is sent to the video switching means 16. Then, the image switching means 16 is formed in the memory corresponding to the camera arrangement of the camera array used for photographing, in the horizontal direction and the vertical direction of the multi-viewpoint image arrangement area 61 schematically shown in FIG. Input video (multi-view video) V1 to V9 are assigned to the area of 3 rows and 3 columns while rearranging.

図3は、このときに映像切替手段16がメモリ上で入力映像(多視点映像)V1〜V9を割り当てることで生成された多視点画像群62の模式図である。要素画像生成手段17は、映像切替手段16から取得する多視点画像群62から要素画像群を生成する。なお、その途中には後記する正規化要素画像を生成してもよい。   FIG. 3 is a schematic view of a multi-viewpoint image group 62 generated by the video switching unit 16 allocating input videos (multi-viewpoint videos) V1 to V9 on the memory at this time. The element image generation unit 17 generates an element image group from the multi-viewpoint image group 62 acquired from the image switching unit 16. A normalized element image to be described later may be generated on the way.

ここで、多視点画像群から要素画像を生成する方法について図3及び図4を参照して説明する。図4は、あるフレームに対応する、完成した要素画像群63の一例の模式図である。図4に表示された太い実線で囲まれた6個の正方形は、要素画像群63を構成する要素画像の一例である。各要素画像は3ピクセル×3ピクセルの要素画像で構成されている。図4の各要素画像において破線で区切られた領域は、図3に示す多視点画像群を構成する画素を示している。また、図4の各要素画像において被写体の絵の代わりに記入された数字は、図3に示す多視点画像群を構成する画素の位置を表している。   Here, a method of generating an element image from a multi-viewpoint image group will be described with reference to FIGS. 3 and 4. FIG. 4 is a schematic view of an example of the completed element image group 63 corresponding to a certain frame. The six squares surrounded by thick solid lines displayed in FIG. 4 are an example of element images constituting the element image group 63. Each elementary image is composed of an elementary image of 3 pixels × 3 pixels. The area | region divided by the broken line in each element image of FIG. 4 has shown the pixel which comprises the multi-viewpoint image group shown in FIG. Also, the numbers entered in place of the picture of the subject in each element image of FIG. 4 indicate the positions of the pixels constituting the multi-viewpoint image group shown in FIG. 3.

図3の多視点画像群62において、左上(1,1)に配置された多視点画像の一部の矩形領域を拡大して示すように、当該矩形領域には、2ピクセル×3ピクセルの画素が配置されている。この拡大した矩形領域において被写体の絵の代わりに記入された数字は、当該矩形領域における画素の位置を表している。多視点画像群62において、その他の多視点画像についても同様なので詳細な説明は省略する。   In the multi-viewpoint image group 62 of FIG. 3, as shown by enlarging a rectangular area of a part of the multi-viewpoint image arranged at the upper left (1, 1), pixels of 2 pixels × 3 pixels in the rectangular area. Is arranged. The numbers entered in place of the picture of the subject in the enlarged rectangular area indicate the positions of the pixels in the rectangular area. The same applies to the other multi-viewpoint images in the multi-viewpoint image group 62, so detailed description will be omitted.

要素画像生成手段17は、多視点画像群62を構成する各多視点画像から互いに同じ座標位置にある画素を集めることで、1つの要素画像を生成する。具体的には、図3の各多視点画像の矩形領域の左上に配置された画素を、多視点画像群62の全体の配置を保ったまま集積すると、図4の要素画像群63を構成する左上隅の要素画像を生成することができる。他の要素画像も同様に生成することができる。   The element image generation unit 17 generates one element image by collecting pixels at the same coordinate position from each multi-viewpoint image forming the multi-viewpoint image group 62. Specifically, when the pixels arranged at the upper left of the rectangular area of each multi-viewpoint image of FIG. 3 are accumulated while maintaining the entire arrangement of multi-viewpoint image group 62, element image group 63 of FIG. An element image of the upper left corner can be generated. Other elemental images can be generated as well.

[1−4.入力映像が多眼方式の多視点映像の場合の処理の流れ]
この場合の要素画像群生成装置10による処理の流れについて図5を参照(適宜図1乃至図4参照)して説明する。ここでは、前提として、仮にインテグラル方式であれば例えば6×6視点の映像を用いるような場合を想定する。すなわち、要素画像群生成装置10の映像切替手段16は、図5(a)に模式的に示すように多視点画像配置領域64の水平方向及び垂直方向の6行6列の領域に、入力映像(多視点映像)を並び変えながら割り当てることになる。なお、視点数はレンズアレイの情報を元に決めればよい。
[1-4. Flow of processing when input video is multi-view type multi-view video]
A flow of processing by the element image group generation apparatus 10 in this case will be described with reference to FIG. 5 (refer to FIGS. 1 to 4 as needed). Here, as a premise, it is assumed that, for example, a video of 6 × 6 viewpoints is used in the case of the integral method. That is, as schematically shown in FIG. 5A, the image switching unit 16 of the element image group generation apparatus 10 inputs the input image to the horizontal and vertical six rows and six columns of the multi-viewpoint image arrangement region 64. It will be allocated while rearranging (multi-view video). The number of viewpoints may be determined based on the information of the lens array.

この前提の下、多眼方式の撮影のために水平方向に3台のカメラを用意して、円柱とその手前に配置された立方体とを被写体として撮影した3視点の映像を想定する。ここで、これら多視点映像を、左の映像(1,1)、中央の映像(1,3)、右の映像(1,6)と呼ぶ。この場合、要素画像群生成装置10の視点合成処理手段13は、例えば次のように視点数を増やす。左の映像(1,1)と中央の映像(1,3)との間の中点に内挿により映像(1,2)を生成する。また、中央の映像(1,3)と右の映像(1,6)と間の2箇所に例えば線形補間により映像(1,4)と映像(1,5)を生成する。以上の視点合成により生成された、合計6視点の多視点映像群は、多視点映像補正手段14によって、透視投影の画像から平行投影の画像に変換される。そして、多視点映像記録転送手段15は、多視点映像補正手段14で補正処理が施された多視点映像を記録バッファ151に一時的に記録する。   Under this premise, three cameras are prepared in the horizontal direction for multi-view shooting, and images of three viewpoints obtained by shooting a cylinder and a cube placed in front of it as a subject are assumed. Here, these multi-view videos are referred to as the left video (1, 1), the center video (1, 3), and the right video (1, 6). In this case, the viewpoint synthesis processing unit 13 of the element image group generation device 10 increases the number of viewpoints as follows, for example. An image (1, 2) is generated by interpolation at a midpoint between the left image (1, 1) and the center image (1, 3). Further, video (1, 4) and video (1, 5) are generated at two places between the central video (1, 3) and the right video (1, 6) by, for example, linear interpolation. The multi-viewpoint image group of a total of six viewpoints generated by the above-described view synthesis is converted by the multi-viewpoint image correction means 14 from an image of perspective projection to an image of parallel projection. Then, the multi-viewpoint video recording and transfer unit 15 temporarily records the multi-viewpoint video subjected to the correction processing by the multi-viewpoint image correction unit 14 in the recording buffer 151.

そして、映像切替手段16は、レンズアレイの情報で決められる視点数(ここでは6×6)に対応させてメモリ上に形成された、図5(a)に模式的に示す多視点画像配置領域64の水平方向及び垂直方向の6行6列の領域に、多視点映像を並び変えながら割り当てる。このとき、要素画像群生成装置10は、要素画像を生成する際に、水平成分の視点映像については、視点合成により既に生成しているため、映像切替手段16は、図5(b)に示すように容易に割り当てることができる。ただし、多眼方式の視点映像の場合、そもそも視点映像は水平視差のみの映像であり、垂直成分の視点映像はそれぞれの水平成分で1点しかないため正確な視点内挿も難しい。仮に図5(b)の多視点画像群65をもとにした場合、要素画像生成手段17は、図3及び図4を参照して説明した方法では要素画像群を生成できないことになる。   Then, the image switching means 16 is a multi-viewpoint image arrangement area schematically shown in FIG. 5A formed on the memory in correspondence with the number of viewpoints (here, 6 × 6) determined by the information of the lens array. The multi-view video is reordered and assigned to 64 horizontal and vertical regions of 6 rows and 6 columns. At this time, when generating the element image, the element image group generation device 10 has already generated the viewpoint image of the horizontal component by the viewpoint synthesis, so the image switching means 16 is shown in FIG. Can be easily assigned. However, in the case of a multiview type viewpoint video, the viewpoint video is originally a video with only horizontal parallax, and the viewpoint video of the vertical component has only one point for each horizontal component, so accurate viewpoint interpolation is also difficult. Assuming that the multi-viewpoint image group 65 of FIG. 5B is taken as an example, the element image generation unit 17 can not generate an element image group by the method described with reference to FIGS. 3 and 4.

しかしながら、要素画像群生成装置10では、水平視差のみの視点映像については、映像切替手段16は、記録バッファ151に記録してある同じ映像を垂直成分の視点映像として割り当てる。こうして図5(c)に模式的に示す多視点画像群65が生成される。これにより、要素画像生成手段17は、図3及び図4を参照して説明した方法によって要素画像群を生成することができる。   However, in the element image group generation device 10, for the viewpoint video with only horizontal parallax, the video switching unit 16 assigns the same video stored in the recording buffer 151 as the viewpoint video of the vertical component. Thus, a multi-viewpoint image group 65 schematically shown in FIG. 5C is generated. Thereby, the element image generation unit 17 can generate an element image group by the method described with reference to FIGS. 3 and 4.

以上説明したように、本実施形態に係る要素画像群生成装置10は、二眼方式や多眼方式のコンテンツのように水平視差を持った視点映像を基に視点合成を行い、その画像をインテグラル方式の斜投影による要素画像生成法に適した画像に補正処理を行った上で、記録バッファ151に一時的に保存し、保存された映像を割り当てて要素画像を生成する。ここで、垂直成分の映像の割り当てについては同じ水平位置の視点映像を繰り返し使用している。   As described above, the element image group generation apparatus 10 according to the present embodiment performs viewpoint synthesis based on viewpoint images with horizontal parallax such as content in the two-lens method or multi-lens method, and the image is integrated After correction processing is performed on an image suitable for an element image generation method based on the oblique projection method, the image is temporarily stored in the recording buffer 151, and the stored image is allocated to generate an element image. Here, with regard to assignment of images of vertical components, viewpoint images at the same horizontal position are repeatedly used.

したがって、要素画像群生成装置10によれば、水平視差映像にのみ対応している映像コンテンツをインテグラル立体用ディスプレイで表示することができる。要するに、二眼方式や多眼方式の映像コンテンツをインテグラル方式のディスプレイに表示することが可能となる。その結果、インテグラル方式のディスプレイに表示できる映像コンテンツの数を効率よく増加させることができる。   Therefore, according to the element image group generation device 10, it is possible to display the video content corresponding only to the horizontal parallax image on the integral stereoscopic display. In short, it is possible to display a two-view or multi-view video content on an integral display. As a result, it is possible to efficiently increase the number of video contents that can be displayed on the integral display.

また、要素画像群生成装置10は、記録バッファ151を備えており、これをスキップバックレコーダーのように利用することで、入力映像Vのうち、要素画像群生成装置10へ入力する前の伝送などにて多視点映像の一部の情報(視点映像)が欠落した場合であってもその視点映像を補間して生成することができる。   In addition, the element image group generation device 10 includes the recording buffer 151, and by using this as a skip back recorder, transmission of the input video V before being input to the element image group generation device 10, etc. Even if a part of information (viewpoint image) of the multi-viewpoint image is missing, the viewpoint image can be generated by interpolation.

(第2実施形態)
第2実施形態に係る要素画像群生成装置は、第1実施形態に係る要素画像群生成装置の構成に加えて、より自然な立体像を表示する機能を付加したものである。装置構成を説明する前に、この付加機能の背景及び解決しようとする課題について詳細に説明する。
Second Embodiment
The element image group generation apparatus according to the second embodiment has a function of displaying a more natural three-dimensional image in addition to the configuration of the element image group generation apparatus according to the first embodiment. Before describing the apparatus configuration, the background of the additional function and the problem to be solved will be described in detail.

将来の立体テレビ用の表示方式として、個人視聴者宅での視聴形態以外にも、例えば人々が通行する場所に、平面ディスプレイやプロジェクタなどを用いたデジタル・サイネージを設置して、立体映像を表示することも期待されている。インテグラル方式による立体像を正しく見ることができる範囲を視域という。視域は要素画像が要素レンズによって投影される角度に相当し、要素レンズの焦点距離と要素画像サイズに関係している。インテグラル方式による立体像を表示したモニタの前を観測者が横切りながらモニタを見ると二重像が見えてしまうことがある(図6参照)。   As a display method for stereoscopic television in the future, in addition to the viewing mode at an individual viewer home, for example, a digital signage using a flat display, a projector, etc. is installed in a place where people pass, and stereoscopic video is displayed It is also expected to do. The range in which an integral 3D image can be viewed correctly is called a viewing zone. The viewing zone corresponds to the angle at which the element image is projected by the element lens, and relates to the focal length of the element lens and the element image size. When an observer crosses the front of a monitor displaying an integral three-dimensional image, a double image may be seen when the monitor is viewed (see FIG. 6).

ここで、二重像が発生する主な理由として考えられる2つの原因について図6及び図7を参照して説明する。図6は、立体像の見え方の一例を示す概念図であり、図7は、右目と左目の間に視域の境目が位置するときの様子を模式的に示す平面図である。図7の説明図の前提をいくつか説明する。   Here, two possible causes of the double image are described with reference to FIGS. 6 and 7. FIG. 6 is a conceptual view showing an example of how a three-dimensional image looks, and FIG. 7 is a plan view schematically showing a state where a boundary of a viewing area is located between the right eye and the left eye. Some assumptions of the explanatory diagram of FIG. 7 will be described.

モニタ(表示パネル)70には、水平方向(図7において上下方向)に、例えば8個の要素画像の部分が表示されている。モニタ70の前(図7において右)には、所定距離だけ離間してレンズアレイ80が配置されている。ここでは、水平方向に例えば8個の要素レンズ81が所定のレンズピッチで配置されている部分が記載されている。また、1つの視域には、一例として水平方向に左(図7において下)から視点1〜視点11の11個の視点映像が連続的に観測できるようになっている。1つの視域の左右には、隣の視域が存在している。図示した状態では、観測者の左目の位置は視域内の視点11の近傍にあり、観測者の右目の位置は、その右隣の視域内の視点1の近傍にある。つまり、観測者の右目と左目の間には2つの視域の境目が位置している。なお、要素画像71、要素レンズ81及び視域についての観測者にとっての水平方向の関係は、観測者にとっての上下方向(紙面に垂直な方向)においても同様に成り立っている。   On the monitor (display panel) 70, for example, portions of eight element images are displayed in the horizontal direction (vertical direction in FIG. 7). A lens array 80 is disposed in front of the monitor 70 (right in FIG. 7) at a predetermined distance. Here, a portion where, for example, eight element lenses 81 are arranged at a predetermined lens pitch in the horizontal direction is described. Further, in one viewing area, as one example, eleven viewpoint videos of viewpoint 1 to viewpoint 11 can be continuously observed from the left (lower in FIG. 7) in the horizontal direction. Adjacent viewing zones exist on the left and right of one viewing zone. In the illustrated state, the position of the left eye of the observer is in the vicinity of the viewpoint 11 in the viewing area, and the position of the right eye of the observer is in the vicinity of the viewing point 1 in the viewing area to its right. That is, the boundary between the two viewing areas is located between the right eye and the left eye of the observer. Note that the horizontal relationship for the observer regarding the element image 71, the element lens 81, and the viewing area is also established in the vertical direction for the observer (the direction perpendicular to the paper surface).

二重像が発生する1つ目の原因は、図6及び図7に示すように、右目と左目の間に視域の境目が位置することであり、そのタイミングでは右目と左目とで異なる視域の映像が観測されるため、観測者には二重像が視認される。つまり、図6のように視域の境目をまたいで提示される2つの映像67が同時に観測されるため、観測者にとって二重像68となって視認される。視域は、立体像を表示するモニタやレンズ構造によって限られることから、例えばデジタル・サイネージのモニタの前を観測者が横切る時には、どうしてもインテグラル立体像の視域の境目を通過してしまう。そのため、ちょうど観測者の視点が視域の境目にあるときにモニタを見ると、右目と左目とで異なる視域の映像が観測されるため、二重像が見えてしまうことになる。そして、右目と左目に映る映像が異なっていれば異なっているほど二重像が二重に見える度合いがそれだけ大きくなってしまう。   The first cause of double image formation is that the boundary of the viewing area is located between the right eye and the left eye as shown in FIG. 6 and FIG. The observer sees a double image because an image of the area is observed. That is, as shown in FIG. 6, since two images 67 presented across the boundary of the viewing area are simultaneously observed, the observer sees as a double image 68. Since the viewing zone is limited by the monitor that displays the stereoscopic image and the lens structure, for example, when the observer crosses in front of the digital signage monitor, it passes through the boundary of the viewing zone of the integral stereogram. Therefore, when the monitor is viewed just when the observer's viewpoint is at the boundary of the viewing area, images of different viewing areas are observed by the right eye and the left eye, and a double image can be seen. The more different the images in the right and left eyes are, the larger the degree to which the double image looks double.

次にもう1つの原因について図10(a)を参照して説明する。図10(a)の説明図の前提をいくつか説明する。ここでは仮想空間(CG空間)を想定している。この仮想空間にはレンズアレイ180が配置されている。ここでは、水平方向(図10(a)において上下方向)に例えば2個の要素レンズ181が所定のレンズピッチで配置されている部分が記載されている。被写体182は、3次元CGで作成されたものであり、被写体182の表面を構成する画素に所定の画素値(輝度値)が与えられている。この例では、図示しない観測者の視点は、図10(a)において左側に位置しており、要素レンズ181の右側に要素画像が位置するものとしている。なお、水平方向の関係は垂直方向においても同様に成り立っているが、以下では水平方向の関係だけを用いて説明する。   Next, another cause will be described with reference to FIG. Some assumptions of the explanatory diagram of FIG. 10 (a) will be described. Here, a virtual space (CG space) is assumed. A lens array 180 is disposed in this virtual space. Here, a portion in which, for example, two element lenses 181 are arranged at a predetermined lens pitch in the horizontal direction (vertical direction in FIG. 10A) is described. The subject 182 is created by three-dimensional CG, and pixels forming the surface of the subject 182 are given predetermined pixel values (luminance values). In this example, the viewpoint of the observer (not shown) is located on the left side in FIG. 10A, and the element image is located on the right side of the element lens 181. Although the relationship in the horizontal direction holds in the vertical direction as well, the following description will be made using only the relationship in the horizontal direction.

インテグラル方式による要素画像の生成では、レンズピッチとモニタの画素ピッチが整数比になっていない場合、要素画像群生成処理の過程において、レンズピッチとモニタの画素ピッチとが整数比になるような正規化要素画像という大きな画像を、仮想空間上で一時的に生成する。なお、正規化要素画像については、例えば特開2012−84105号公報に詳細に記載されているので、ここでは説明を省略する。
そして、最終的にモニタに表示される要素画像群は、この正規化要素画像を縮小することで求められている。そして、縮小するために、視域の境目での映像を構成する要素画像の端にある画素部分は、例えば右に隣接する要素画像の逆側の端にある画素との間で内挿処理が施される。
In integral image generation, if the lens pitch and the pixel pitch of the monitor do not have an integer ratio, the lens pitch and the pixel pitch of the monitor have an integer ratio in the process of element image group generation processing A large image called a normalized element image is temporarily generated on the virtual space. The normalized element image is described in detail in, for example, Japanese Patent Application Laid-Open No. 2012-84105, and thus the description thereof is omitted here.
The element image group finally displayed on the monitor is obtained by reducing the normalized element image. Then, in order to reduce the size, the pixel part at the end of the element image constituting the image at the boundary of the viewing area is interpolated with the pixel at the opposite end of the element image adjacent to the right, for example Applied.

具体的には、例えば、図10(a)において下に位置する要素レンズ181を介して生成される要素画像は、11個の画素、すなわち、光線1a〜光線11aの照射先で表される。同様に、図10(a)において上に位置する要素レンズ181を介して生成される要素画像は、11個の画素、すなわち、光線1b〜光線11bの照射先で表される。そして、正規化要素画像を縮小するために、一方の要素画像の端の画素(光線1aの先)と、他方の要素画像の端の画素(光線11bの先)との間で内挿処理を施すと、その際に、図10(a)に示された光線1aから得られる映像の成分と、光線11bから得られる映像の成分との両方を含むことになる。そのため、二重像が発生してしまう原因となる。   Specifically, for example, the element image generated via the element lens 181 positioned below in FIG. 10A is represented by 11 pixels, that is, irradiation destinations of the light rays 1a to 11a. Similarly, an element image generated via the element lens 181 located at the top in FIG. 10A is represented by 11 pixels, that is, irradiation destinations of the light rays 1 b to 11 b. Then, in order to reduce the normalized element image, interpolation processing is performed between the pixel at the end of one element image (the end of the light ray 1a) and the pixel at the end of the other element image (the end of the light 11b) When applied, it will include both the component of the image obtained from the light ray 1a shown in FIG. 10A and the component of the image obtained from the light ray 11b. Therefore, a double image may be generated.

また、レンズピッチとモニタの画素ピッチとの関係によっては、視域の境目でワイプがかかったように視点が切り替わることがある。このワイプ発生時の立体像は、2つの視点映像が同時に表示されるため、ワイプ部分では立体像にずれが生じ、表示コンテンツによっては二重像のように見えてしまうことがある。   In addition, depending on the relationship between the lens pitch and the pixel pitch of the monitor, the viewpoint may switch as if wiped at the boundary of the viewing area. Since two viewpoint videos are simultaneously displayed, the stereoscopic image at the time of this wipe generation causes a displacement in the stereoscopic image at the wipe portion, and may appear as a double image depending on the display content.

図7において観測者(右目、左目)の代わりにカメラを用い、このカメラで得られる視点映像が、視域の境目で不連続に切り替わる様子について図7及び図8を参照して説明する。図8において、横軸は観測位置を表し図7の説明図に対応しており、横軸の左側は観測位置も左であることを示し、横軸の右側は観測位置も右であることを示している。縦軸は、視点1〜視点11に対応してカメラでそれぞれ得られる映像(視点映像n;n=1〜11)を示している。つまり、図8は、インテグラル方式のディスプレイ(図7のモニタ70、レンズアレイ80)を向いたカメラがディスプレイ面に対して平行であって左から右に移動したときに映る視点映像の切り替わりをグラフで示したものである。   A camera is used in place of the observer (right eye and left eye) in FIG. 7 and a state in which the viewpoint image obtained by this camera is switched discontinuously at the boundary of the viewing area will be described with reference to FIGS. 7 and 8. In FIG. 8, the horizontal axis represents the observation position and corresponds to the explanatory view of FIG. 7. The left side of the horizontal axis indicates that the observation position is also left, and the right side of the horizontal axis indicates that the observation position is also right. It shows. The vertical axis indicates video (viewpoint video n; n = 1 to 11) obtained by the camera corresponding to the viewpoint 1 to the viewpoint 11, respectively. That is, FIG. 8 shows the switching of the viewpoint image displayed when the camera facing the integral display (the monitor 70 in FIG. 7, the lens array 80) is parallel to the display surface and moved from left to right. It is shown in the graph.

図8では、横軸には約4つの視域に相当する観測位置を表示している。例えば、ディスプレイの視域角が約10〜30°程度となっている場合、ディスプレイの前を観測者(ここではカメラ)が横切るように移動すると、視域の境目が何度か発生する。図8に示すように、視域の境目では映像が不連続に切替わっている。   In FIG. 8, observation positions corresponding to about four viewing areas are displayed on the horizontal axis. For example, when the viewing angle of the display is about 10 to 30 °, when the observer (here, a camera) moves in front of the display, boundaries of the viewing area occur several times. As shown in FIG. 8, the image is switched discontinuously at the boundary of the viewing area.

ここで、映像が連続であるとは、例えば視点映像6とそのすぐ左に隣接する視点映像5との関係、又は視点映像6とすぐ右に隣接する視点映像7との関係を意味する。また、視点映像6と例えば左へ1つ飛ばした視点映像4との関係や、視点映像6と例えば右へ2つ飛ばした視点映像8との関係は、ほぼ連続するとも言える。
そして、視域の両端においては、片側だけ2つの視点映像が連続することになる。図8の例の場合、例えば視点映像1はすぐ右に隣接する視点映像2との関係だけが連続であるといい、視点映像11はすぐ左に隣接する視点映像10との関係だけが連続であるという。したがって、図8の例の場合、視域の境目において、視点映像11のすぐ右に視点映像1が観測されることは、視点映像が不連続に切り替わるというのである。
Here, that the video is continuous means, for example, the relationship between the viewpoint video 6 and the viewpoint video 5 immediately adjacent to the left thereof, or the relationship between the viewpoint video 6 and the viewpoint video 7 immediately adjacent to the right thereof. Further, it can be said that the relationship between the viewpoint video 6 and the viewpoint video 4 skipped to the left, for example, and the relationship between the viewpoint video 6 and the viewpoint video 8 skipped to the right two, for example, are substantially continuous.
Then, at both ends of the viewing area, two viewpoint videos are continuous only on one side. In the case of the example of FIG. 8, for example, it is said that only the relationship between the viewpoint video 1 and the viewpoint video 2 immediately adjacent on the right is continuous, and the relationship between the viewpoint video 11 only immediately adjacent to the viewpoint video 10 immediately adjacent on the left is continuous. It is said that there is. Therefore, in the case of the example of FIG. 8, observation of the viewpoint video 1 immediately to the right of the viewpoint video 11 at the boundary of the viewing zone means that the viewpoint video is switched discontinuously.

要するに、展示会などにおいて、展示に適したインテグラル立体コンテンツを空中浮遊させるディスプレイをデモンストレーションする表示の場合や、コンテンツ本来の魅力を引き出すために運動視差による表現を多く必要としないコンテンツの場合に、従来は観測位置と視点映像の関係が図8のように視域の境目で不連続になってしまうことがあった。   In short, in the case of a display that demonstrates a display that floats integral three-dimensional content suitable for exhibition in an exhibition or the like, or in the case of content that does not require much motion parallax representation to bring out the original attraction of the content. Conventionally, the relationship between the observation position and the viewpoint image may be discontinuous at the boundary of the viewing area as shown in FIG.

[2−1.要素画像群生成装置の構成]
図9に示す第2実施形態に係る要素画像群生成装置10Aにおいて、図1に示す要素画像群生成装置10と同じ構成には同じ符号を付して説明を適宜省略する。
要素画像群生成装置10Aは、図9に示すように、入力インタフェイス11と、レンズアレイ情報記憶手段12と、視点合成処理手段13と、多視点映像補正手段14と、多視点映像記録転送手段15と、映像切替手段16Aと、要素画像生成手段17と、出力インタフェイス18と、三次元モデル生成手段19と、斜投影処理手段20とを備えている。
[2-1. Configuration of Element Image Group Generation Device]
In the element image group generation apparatus 10A according to the second embodiment shown in FIG. 9, the same components as those of the element image group generation apparatus 10 shown in FIG.
The element image group generation apparatus 10A, as shown in FIG. 9, includes an input interface 11, a lens array information storage unit 12, a viewpoint synthesis processing unit 13, a multiview video correction unit 14, and a multiview video recording and transfer unit An image switching unit 16A, an element image generation unit 17, an output interface 18, a three-dimensional model generation unit 19, and an oblique projection processing unit 20 are provided.

三次元モデル生成手段19は、三次元スキャナの入力信号又は、3以上の複数視点のそれぞれの視点映像の集合である多視点映像で構成された入力映像V、を受けてCG上で三次元モデルを生成するものである。三次元モデルの生成方法は、本発明では特に限定されないため、ここでは説明を省略する。なお、例えば特開2012−84105号公報及び当該公報記載の先行文献に詳細に記載されている。   The three-dimensional model generation means 19 receives an input signal of the three-dimensional scanner or an input video V composed of multi-view video which is a set of three or more multi-view video and receives the three-dimensional model on CG. To generate The method of generating the three-dimensional model is not particularly limited in the present invention, and thus the description thereof is omitted here. In addition, for example, it describes in detail in Unexamined-Japanese-Patent No. 2012-84105 and the prior literature of the said gazette description.

本実施形態では、三次元モデル生成手段19は、第2判定手段191を備えている。
第2判定手段191は、生成された三次元モデルにおいて被写体の重なり等のオクルージョンが発生しているか否かを判定するものである。第2判定手段191は、オクルージョンが発生しているか否かを多視点映像記録転送手段15に通知する。
ここでの判定方法は特に限定されないが、例えば、前フレームに表示されている被写体(3次元CG)の領域の形状情報と、現時点での当該被写体(3次元CG)の領域の形状情報とを比較し、その変化量が予め設定されている閾値よりも大きくなったときにオクルージョンが発生したと判断し、それ以外はオクルージョンが発生していないと判断すればよい。ここで、被写体(3次元CG)の領域の形状情報としては、例えば、被写体(3次元CG)の領域の囲む外接矩形の面積等を用いることができる。
In the present embodiment, the three-dimensional model generation unit 19 includes a second determination unit 191.
The second determination means 191 determines whether or not an occlusion such as overlapping of objects has occurred in the generated three-dimensional model. The second determination means 191 notifies the multi-viewpoint video recording and transfer means 15 whether or not an occlusion has occurred.
Although the determination method here is not particularly limited, for example, the shape information of the area of the subject (three-dimensional CG) displayed in the previous frame and the shape information of the area of the subject (three-dimensional CG) at the current time In comparison, when the amount of change becomes larger than a preset threshold value, it is determined that an occlusion has occurred, and in other cases, it may be determined that an occlusion has not occurred. Here, as the shape information of the area of the subject (three-dimensional CG), for example, the area of a circumscribed rectangle that encloses the area of the subject (three-dimensional CG) can be used.

本実施形態では、多視点映像記録転送手段15の補正手段153は、第1実施形態で説明した機能(第1補正手段の機能)に加えて次の機能(第2補正手段の機能)を有する。すなわち、補正手段153は、第2判定手段191でオクルージョンが発生していると判定した場合、オクルージョンが発生している三次元モデルを投影して生成されたオクルージョンが発生している視点映像に対して時間的に隣接するフレームの画像データ、又は空間的に隣接する画像データを記録バッファ151から読み出して用いて当該オクルージョンが発生している視点映像を補正することとした。   In the present embodiment, the correction unit 153 of the multiview video record transfer unit 15 has the following function (the function of the second correction unit) in addition to the function (the function of the first correction unit) described in the first embodiment. . That is, when the second judging means 191 judges that the occlusion is occurring, the correcting means 153 projects the three-dimensional model in which the occlusion is occurring with respect to the viewpoint image in which the occlusion is occurring. The image data of the temporally adjacent frame or the spatially adjacent image data is read out from the recording buffer 151 and used to correct the viewpoint video in which the occlusion occurs.

斜投影処理手段20は、インテグラル方式の要素画像生成法において斜投影で取得した画像を用いているので、レンズアレイ情報に基づいて、平行投影による手法を用いて任意の視点から三次元モデルを投影して多視点映像を生成するものである。   Since the oblique projection processing means 20 uses the image acquired by oblique projection in the integral type element image generation method, based on the lens array information, using the parallel projection method, the three-dimensional model is generated from an arbitrary viewpoint. It is projected to generate a multi-view image.

ここで、斜投影による要素画像の生成手法について図10(b)を参照して簡単に説明する。図10(b)の説明図の前提は図10(a)と概ね同様であり、仮想空間内に、基準となるレンズアレイ180を配置する際には、被写体の3次元モデルをレンズアレイ180付近に配置する。図10(b)では、要素レンズ181の光軸を破線で示している。   Here, a method of generating an element image by oblique projection will be briefly described with reference to FIG. 10 (b). The premise of the explanatory view of FIG. 10B is substantially the same as that of FIG. 10A, and when arranging the lens array 180 as a reference in the virtual space, the three-dimensional model of the object is in the vicinity of the lens array 180. Place on In FIG. 10B, the optical axis of the element lens 181 is indicated by a broken line.

この例では、図示しない観測者の視点は、図10(b)において左側に位置しているものとしている、そして、3次元モデルである被写体182は、レンズアレイ180の手前(図10(b)において左)に配置されており、他の3次元モデルである被写体183は、レンズアレイ180の手前と奥(図10(b)において右)とをまたぐように配置されている。なお、3次元モデルはレンズアレイ180の奥に配置してもよい。   In this example, the viewpoint of the observer (not shown) is located on the left side in FIG. 10 (b), and the subject 182 which is a three-dimensional model is in front of the lens array 180 (FIG. 10 (b)). The subject 183, which is another three-dimensional model, is disposed so as to straddle the front and the back of the lens array 180 (right in FIG. 10B). The three-dimensional model may be disposed at the back of the lens array 180.

要素画像群の表示面(仮想ディスプレイ)184は、レンズアレイ180から、レンズアレイ180の焦点距離だけ(図10(b)において右に)離した位置に設置される。
例えば、斜投影による要素画像の生成手法では、図10(b)に示すように、要素レンズ181の中心を通過する光線の方向、すなわち要素レンズ181の光軸の向きから角度θだけ傾いた方向に着目し、その光線の方向から要素画像内の画素位置を求めることができ、また、その光線の強度から画素値を求めることができる。さらに、図10(b)の斜投影による方法を、図10(a)に示された光線1a〜光線11aのように光線の角度毎に繰り返すことで、要素画像の全画素値を求めることできる。
The display surface (virtual display) 184 of the element image group is placed at a position separated from the lens array 180 by the focal length of the lens array 180 (to the right in FIG. 10B).
For example, in the method of generating an element image by oblique projection, as shown in FIG. 10B, the direction of a ray passing through the center of the element lens 181, ie, the direction inclined by the angle θ from the direction of the optical axis of the element lens 181. The pixel position in the element image can be determined from the direction of the ray, and the pixel value can be determined from the intensity of the ray. Further, by repeating the oblique projection method shown in FIG. 10B for each light ray angle as shown by light rays 1a to 11a shown in FIG. 10A, all pixel values of the element image can be obtained. .

言い換えて要素画像群の表示面184上の画素の側から説明すると、当該画素とその画素から最近傍の要素レンズ181の中心(光学主点)とを結ぶ直線(図10(a)の光線)を想定し、この直線と対象の3次元モデルとが交差する交点のうち、最も視点に近い交点の画素値を、要素画像の画素に付与する。そして、この処理を全ての画素について実行すると、要素画像群を生成することができる。   In other words, from the side of the pixel on the display surface 184 of the element image group, a straight line connecting the pixel and the center (optical principal point) of the element lens 181 closest to the pixel (light ray in FIG. 10A) The pixel value of the intersection closest to the viewpoint is given to the pixel of the element image among the intersections at which the straight line and the target three-dimensional model intersect. And if this process is performed about all the pixels, an element image group can be produced | generated.

多視点映像記録転送手段15は、三次元モデルを投影して生成された多視点映像を記録バッファ151に一時的に記録する機能も有している。
映像切替手段16Aは、三次元モデルを投影して生成された多視点映像、視点合成処理手段13で生成された多視点映像、多視点映像補正手段14の補正により生成された多視点映像、記録バッファ151に記録した多視点映像のうちのいずれか1つを選択して出力することを時分割で繰り返し行う。これらの映像切り替えは、要素画像群生成装置10Aの操作者による指示操作により、動作を行う前等の所定のタイミングに切り替えればよい。
The multi-viewpoint video recording and transferring means 15 also has a function of temporarily recording a multi-viewpoint video generated by projecting a three-dimensional model in the recording buffer 151.
The image switching unit 16A is a multi-view image generated by projecting a three-dimensional model, a multi-view image generated by the viewpoint synthesis processing unit 13, a multi-view image generated by the correction of the multi-view image correction unit 14, and recording. Selecting and outputting any one of the multi-view videos recorded in the buffer 151 is repeated in time division. These video switching may be switched to a predetermined timing before operation or the like by an instruction operation by the operator of the element image group generation device 10A.

映像切替手段16Aは、多視点映像記録転送手段15から転送される多視点映像を選択する際、つまり、多視点画像を要素画像生成手段17に出力する際に、次の(第1のケース)、(第2のケース)もしくは(第3のケース)のようにして多視点映像を選択する。なお、ここで、図3及び図4を参照(適宜図9参照)して要素画像の画素の位置について補足的に例示しながら説明する。   When selecting the multi-view image transferred from the multi-view image record transfer unit 15, that is, when outputting the multi-view image to the element image generation unit 17, the image switching unit 16A performs the following (first case) , (Second case) or (third case) to select a multi-viewpoint image. Here, with reference to FIG. 3 and FIG. 4 (refer to FIG. 9 as needed), the position of the pixel of the element image will be described while being additionally illustrated.

(第1のケース)
映像切替手段16Aは、後段の要素画像生成手段17が、図4の例えば左上の要素画像を生成する際に、当該要素画像の左端(例えば図3の画素位置11)と右端(例えば図3の画素位置31)にそれぞれ位置する画素の各画素値が連続性のある値を持つような要素画像となるように、多視点映像を選択してメモリ上で割り当て多視点画像群を生成する(図3参照)。
(First case)
When the element image generation means 17 at the subsequent stage generates the element image at the upper left of FIG. 4, the image switching means 16A generates the left end (eg, pixel position 11 of FIG. 3) and the right end (eg, FIG. 3) of the element image. The multi-viewpoint video is selected and an assigned multi-viewpoint image group is generated on the memory so that each element value of each of the pixels located at the pixel position 31) becomes an element image having a continuous value (see FIG. 3).

(第2のケース)
映像切替手段16Aは、後段の要素画像生成手段17が、図4の例えば左上の要素画像を生成する際に、当該要素画像の上端(例えば図3の画素位置11)と下端(例えば図3の画素位置71)にそれぞれ位置する画素の各画素値が連続性のある値を持つような要素画像となるように、多視点映像を選択してメモリ上で割り当て多視点画像群を生成する(図3参照)。
(Second case)
When the element image generation means 17 in the subsequent stage generates the element image at the upper left of FIG. 4, the image switching means 16A generates the upper end (for example, the pixel position 11 of FIG. 3) and the lower end (for example, FIG. 3) of the element image. The multi-viewpoint video is selected and an assigned multi-viewpoint image group is generated on the memory so that each element value of each of the pixels located at the pixel position 71) becomes an element image having a continuity value (see FIG. 3).

(第3のケース)
映像切替手段16Aは、後段の要素画像生成手段17が、図4の例えば左上の要素画像を生成する際に、当該要素画像の上下左右のうちのいずれか3つの端部として、例えば上端(例えば図3の画素位置11)と、下端(例えば図3の画素位置71)と、上端に対する右端(例えば図3の画素位置31)と、にそれぞれ位置する画素の各画素値が連続性のある値を持つような要素画像となるように、多視点映像を選択してメモリ上で割り当て多視点画像群を生成する(図3参照)。
(Third case)
When the element image generation means 17 in the subsequent stage generates, for example, the upper left element image in FIG. The pixel values of the pixels respectively located at the pixel position 11) in FIG. 3, the lower end (for example, the pixel position 71 in FIG. 3), and the right end (for example, the pixel position 31 in FIG. 3) The multi-viewpoint video is selected to generate an assigned multi-viewpoint image group on the memory so as to obtain an element image having the above (see FIG. 3).

映像切替手段16Aのこれらの機能は、第1実施形態に係る要素画像群生成装置10の構成に対して、より自然な立体像を表示するために付加した機能である。なお、この付加機能の具体例については、後記する。   These functions of the image switching unit 16A are functions added to the configuration of the element image group generation device 10 according to the first embodiment to display a more natural three-dimensional image. A specific example of this additional function will be described later.

[2−2.要素画像群生成装置による処理の全体の流れ]
第2実施形態に係る要素画像群生成装置10Aによる処理の全体の流れについて、図9を参照して第1実施形態との重複を除いて説明する。第1実施形態では、多視点映像からの要素画像生成例を説明したが、ここでは、3次元モデルから要素画像を生成する処理について説明する。
[2-2. Overall Flow of Processing by Element Image Group Generator]
The entire flow of processing by the element image group generation device 10A according to the second embodiment will be described with reference to FIG. 9 except for the duplication with the first embodiment. In the first embodiment, an example of generating an element image from a multi-view video has been described, but here, a process of generating an element image from a three-dimensional model will be described.

要素画像群生成装置10Aの三次元モデル生成手段19は、3次元スキャナの入力信号Sや多視点映像などの入力映像Vが入力されると、3次元モデルを生成する。そして、斜投影処理手段20は、レンズアレイ情報記憶手段12からレンズピッチなどの情報を受け、生成された3次元モデルに対してある視点からの斜投影を行い、斜投影によって得られた視点画像を映像切替手段16と多視点映像記録転送手段15に出力する。   The three-dimensional model generation unit 19 of the element image group generation device 10A generates a three-dimensional model when the input signal S of the three-dimensional scanner and the input video V such as multi-view video are input. Then, the oblique projection processing means 20 receives information such as the lens pitch from the lens array information storage means 12 and performs oblique projection from a certain viewpoint on the generated three-dimensional model, and a viewpoint image obtained by oblique projection Are output to the video switching means 16 and the multi-view video record transfer means 15.

そして、多視点映像記録転送手段15の記録バッファ151では一時的に視点映像の集合である多視点映像を記録する。そして、映像切替手段16Aは、三次元モデルにおいてオクルージョンの発生がなければ、多視点映像をそのまま要素画像生成手段17に出力する。一方、オクルージョンが発生していた場合、多視点映像記録転送手段15では、記録バッファ151から呼び出した隣接するフレームからの視点画像などと比較し映像を補正処理した上で要素画像生成手段17に出力する。   Then, the recording buffer 151 of the multiview video record transfer unit 15 temporarily records a multiview video which is a set of viewpoint videos. Then, if there is no occurrence of occlusion in the three-dimensional model, the image switching means 16A outputs the multi-viewpoint image as it is to the element image generation means 17. On the other hand, when an occlusion occurs, the multi-viewpoint video recording and transferring means 15 corrects the video compared with the viewpoint image etc. from the adjacent frame called from the recording buffer 151 and outputs it to the element image generating means 17 Do.

[2−3.映像切替手段の付加機能の処理]
映像切替手段の付加機能の処理について、以下、図10〜図12を参照(適宜図7及び図8参照)して説明する。斜投影による要素画像の生成手法では、図10(b)に示すように、要素レンズ181の中心を通過する光線の方向、すなわち要素レンズ181の光軸の向きから角度θだけ傾いた方向に着目している。ここで、図10(a)に示すように、光線1aと、光線1aの隣の要素レンズ181を通過する光線1bとは同じ向きとなり、視点1を平行投影したときの一部分と考えることができる。同様に、光線11aと光線11bとは、視点11を平行投影したときの一部分と考えることができる。
[2-3. Processing of additional functions of image switching means]
The processing of the additional function of the image switching means will be described below with reference to FIGS. 10 to 12 (refer to FIGS. 7 and 8 as appropriate). In the method of generating an element image by oblique projection, as shown in FIG. 10B, attention is focused on the direction of a ray passing through the center of the element lens 181, that is, the direction inclined by the angle θ from the direction of the optical axis of the element lens 181. doing. Here, as shown in FIG. 10A, the light ray 1a and the light ray 1b passing through the element lens 181 next to the light ray 1a have the same direction, and can be considered as a part when the viewpoint 1 is parallel projected. . Similarly, the light ray 11a and the light ray 11b can be considered as a part when the viewpoint 11 is projected in parallel.

一方で、要素画像群生成装置10Aは、斜投影処理手段20によって、平行投影による手法を用いて任意の視点(例えば上記視点1や視点11)から三次元モデルを投影して多視点画像を生成している。そのため、多視点映像記録転送手段15の記録バッファ151には、この例の上記の視点1から視点11までの平行光の映像が一時的に記録されることになる。したがって、映像切替手段16Aは、記録バッファ151に記録された視点1から視点11までの平行光の映像、すなわち、11視点の多視点画像群の中から、必要な分だけ多視点画像を選択してメモリ上でその配置を並べ替えて割り当てることが可能である。   On the other hand, the element image group generation apparatus 10A generates a multi-viewpoint image by projecting a three-dimensional model from an arbitrary viewpoint (for example, the viewpoint 1 and the viewpoint 11) by using oblique projection processing means 20 using parallel projection. doing. Therefore, an image of parallel light from the viewpoint 1 to the viewpoint 11 in this example is temporarily recorded in the recording buffer 151 of the multi-viewpoint image recording and transferring means 15. Therefore, the video switching unit 16A selects the multi-viewpoint image as necessary from the images of parallel light from the viewpoint 1 to the viewpoint 11 recorded in the recording buffer 151, that is, the multi-viewpoint image group of 11 viewpoints. It is possible to rearrange and allocate the arrangement on the memory.

言い換えると、映像切替手段16Aは、記録バッファ151に記録された多視点画像が不連続にならないように映像を差替える処理を行うことができる。図11は、連続性を持たせるように映像を差替えた場合のグラフである。図11のグラフの見方は、図8のグラフと同様である。比較例となる図8のグラフの場合、前記したように、図7の水平方向の視域の1区切りに対応した視点1〜視点11までの合計11枚の多視点映像を順番に11回分読み込むことを前提としたグラフを表している。これに対して、映像切替手段16Aは、図11に示すように、視域の1区切りに対応して、多視点画像を「視点1→視点2→視点3→視点4→視点5→視点6→視点7→視点8→視点6→視点4→視点2」として読み込み要素画像を生成することとしている。   In other words, the video switching unit 16A can perform processing of replacing video so that the multi-viewpoint images recorded in the recording buffer 151 do not become discontinuous. FIG. 11 is a graph in the case of replacing the video so as to give continuity. The view of the graph of FIG. 11 is similar to that of the graph of FIG. In the case of the graph of FIG. 8 as a comparative example, as described above, a total of 11 multi-viewpoint images from viewpoint 1 to viewpoint 11 corresponding to one section of the horizontal viewing area in FIG. Represents a graph that assumes that. On the other hand, the video switching means 16A, as shown in FIG. 11, corresponds to one segment of the viewing area, “multi-viewpoint image“ viewpoint 1 → viewpoint 2 → viewpoint 3 → viewpoint 4 → viewpoint 5 → viewpoint 6 → The element image is generated by reading as “viewpoint 7 → viewpoint 8 → viewpoint 6 → viewpoint 4 → viewpoint 2”.

つまり、視域の1区切りに対応したすべての視点を用いているわけではないが、多視点映像が、連続又はほぼ連続するように合計11回分読み込んでいる。これにより、一部の区間で、例えば「視点8→視点6」のように逆視になることもある。ただし、その代わりとして、視域の境目で右目と左目に入る映像の視差は、図8の場合には「視点11→視点1」であったのに対して、図11の場合には「視点2→視点1」のようになったので、視差を少なくする効果を奏する。加えて、この映像切替手段16Aの処理によれば、正規化要素画像から縮小して要素画像群を生成する際の要素画像両端の画素値の差分を小さくすることができ、結果的に二重像を低減できている。   That is, although not all viewpoints corresponding to one section of the viewing area are used, a total of 11 readings are performed so that the multi-viewpoint image is continuous or substantially continuous. As a result, in some sections, for example, as in “view point 8 → view point 6”, it may be reverse vision. However, instead of that, the parallax of the image entering the right eye and the left eye at the boundary of the viewing area is “viewpoint 11 → viewpoint 1” in the case of FIG. As 2 → viewpoint 1 ”, there is an effect of reducing parallax. In addition, according to the processing of the video switching means 16A, it is possible to reduce the difference between the pixel values at both ends of the element image at the time of generating the element image group by reducing from the normalized element image. The image can be reduced.

図12は、視域の境目での二重像を完全に消すことを目的として映像を差替えた場合のグラフである。図12のグラフの見方は、図8のグラフと同様である。この場合、映像切替手段16Aは、図12に示すように、多視点画像を、「視点4→視点5→視点6→視点7→視点8→視点9→視点8→視点7→視点6→視点5→視点4」として読み込み要素画像を生成する。つまり、視域の1区切りに対応した11視点すべてを用いているわけではないが、多視点映像が連続するように合計11回分読み込んでいる。   FIG. 12 is a graph in the case of replacing the image for the purpose of completely erasing the double image at the boundary of the viewing zone. The view of the graph of FIG. 12 is similar to that of the graph of FIG. In this case, as shown in FIG. 12, the video switching means 16A displays the multi-viewpoint image as “viewpoint 4 → viewpoint 5 → viewpoint 6 → viewpoint 7 → viewpoint 8 → viewpoint 9 → viewpoint 8 → viewpoint 7 → viewpoint 6 → viewpoint 6 → viewpoint 5 → view 4 ”to generate an element image. That is, although not all 11 viewpoints corresponding to one section of the viewing area are used, a total of 11 readings are performed so that multi-view images are continuous.

また、図12のグラフにおいて、視域の境目に注目すると、視点映像4の次に同じ視点映像4が配置されることになる。このような配置も、視点映像の「連続」とみなすことができる。映像切替手段16Aが、このように多視点映像を選択してメモリ上で割り当て多視点画像群を生成することによって、例えば図4の要素画像を構成する画素群の中で両端に配置される画素の画素値(以下、単に、要素画像両端の画素値という)が、同じ視点映像(ここでは、視点映像4)を用いて生成されることになる。   Further, in the graph of FIG. 12, when focusing on the boundary of the viewing area, the same viewpoint video 4 is arranged next to the viewpoint video 4. Such an arrangement can also be regarded as "continuous" of the viewpoint video. The image switching means 16A selects the multi-view image in this manner and generates an assigned multi-view image group on the memory, for example, pixels arranged at both ends among the pixel groups constituting the element image of FIG. The pixel values of (hereinafter, simply referred to as pixel values at both ends of the element image) are generated using the same viewpoint video (here, viewpoint video 4).

図12の場合も図11と同様に一部の区間で逆視になるデメリットもあるが、右目と左目に映る視域差をほぼ連続的なものにすることができる効果を奏する。さらに、二重像の発生の2つ目の原因に正規化要素画像から要素画像群に縮小により生じるものがあるが、図12の例では、要素画像両端の画素値を同じ値にすることで、二重像を消すことが可能になる。   In the case of FIG. 12 as well as FIG. 11, there is a demerit that the reverse vision is in a part of the area as in the case of FIG. Furthermore, although the second cause of double image generation is caused by reduction from a normalized element image to an element image group, in the example of FIG. 12, the pixel values at both ends of the element image are made the same value. It will be possible to erase the double image.

以上説明したように本実施形態に係る要素画像群生成装置10Aによれば、比較例となる図8のグラフ中の視域の境目で例えば視点1から視点11へと不連続に切り替わるようなことを避けるように、例えば視点1から視点11までの映像を多視点映像記録転送手段15の記録バッファ151に一時的に記録し、視域の境目で視点映像が連続的に切替わるように映像を差替える処理を行う。これにより、視域の境目の二重像を低減させている。   As described above, according to the element image group generation apparatus 10A according to the present embodiment, switching from, for example, the viewpoint 1 to the viewpoint 11 is discontinuously at the boundary of the viewing area in the graph of FIG. For example, the video from the viewpoint 1 to the viewpoint 11 is temporarily recorded in the recording buffer 151 of the multi-viewpoint video recording and transfer means 15 so as to avoid the video so as to continuously switch the viewpoint video at the boundary of the viewing area. Perform replacement process. This reduces the double image at the boundary of the viewing zone.

同様に、要素画像群生成装置10Aによれば、例えば視点1から視点11までの平行光の映像を多視点映像記録転送手段15の記録バッファ151に一時的に記録し、平行光の映像を適宜差し替えることで、2つ目の原因となる「レンズピッチとモニタの画素ピッチが整数比でないことから正規化要素画像を生成し更に正規化要素画像を縮小すること」によって生じる二重像についても低減することができる。   Similarly, according to the element image group generation apparatus 10A, for example, images of parallel light from the viewpoint 1 to the viewpoint 11 are temporarily recorded in the recording buffer 151 of the multi-viewpoint image recording and transfer means 15, and the images of parallel light are appropriately recorded. The replacement also reduces the double image produced by the second cause “generate a normalized element image because the lens pitch and monitor pixel pitch are not an integer ratio and further reduce the normalized element image”. can do.

また、要素画像群生成装置10Aによれば、上記のような記録バッファ151を用いた差し替え処理によって、ワイプ発生時にワイプ部で発生する立体像のずれによる二重像も同様に低減することができる。
さらに、要素画像群生成装置10Aによれば、3次元モデルにオクルージョンが発生した場合であっても視点映像を補正して生成することができる。
Further, according to the element image group generation device 10A, the replacement process using the recording buffer 151 as described above can similarly reduce double images due to displacement of a solid image generated in the wipe portion at the time of wipe generation. .
Furthermore, according to the element image group generation device 10A, even when occlusion occurs in the three-dimensional model, the viewpoint video can be corrected and generated.

(第3実施形態)
[3−1.放送通信連携システム]
本発明の実施形態に係るデジタル放送受信装置を含む放送通信連携システムについて図13を参照して説明する。図13に示すように、放送通信連携システム1は、サービス提供システム2と、デジタル放送受信装置3(3a,3b)とを備える。視聴者は、デジタル放送受信装置3によって番組コンテンツを視聴する。以下、ユーザという場合、視聴者を指す。
Third Embodiment
[3-1. Broadcast communication cooperation system]
A broadcast communication cooperation system including a digital broadcast receiving apparatus according to an embodiment of the present invention will be described with reference to FIG. As shown in FIG. 13, the broadcast-communication collaboration system 1 includes a service providing system 2 and digital broadcast reception devices 3 (3a, 3b). The viewer views the program content by the digital broadcast receiving apparatus 3. Hereinafter, the term "user" refers to a viewer.

サービス提供システム2は、所定のサービスとして通信ネットワークNを用いた立体映像コンテンツを視聴者に提供するシステムであり、放送局で使用され映像コンテンツを放送するデジタル放送送信装置4と、放送コンテンツを補う通信コンテンツを提供するWebサーバ5とを備える。   The service providing system 2 is a system for providing the viewer with stereoscopic video content using the communication network N as a predetermined service, and supplements the broadcast content with the digital broadcast transmitting apparatus 4 used in the broadcast station to broadcast the video content. And a web server 5 for providing communication content.

放送局側のデジタル放送送信装置4及びWebサーバ5と、視聴者側のデジタル放送受信装置3は、例えば図14に示すような機能ブロックで構成される。以下、各装置の構成の詳細について説明する。   The digital broadcast transmission device 4 and the Web server 5 on the broadcast station side and the digital broadcast reception device 3 on the viewer side are configured by functional blocks as shown in FIG. 14, for example. The details of the configuration of each device will be described below.

[3−2.デジタル放送送信装置]
デジタル放送送信装置4は、番組コンテンツを放送するものであって、1サービスとして立体映像コンテンツを視聴者に提供する。このデジタル放送送信装置4は、コンテンツ記憶手段41と、放送制御手段42と、放送送出手段43と、を備えている。
[3-2. Digital broadcast transmitter]
The digital broadcast transmission device 4 broadcasts program content, and provides stereoscopic video content to a viewer as one service. The digital broadcast transmission device 4 includes a content storage unit 41, a broadcast control unit 42, and a broadcast transmission unit 43.

コンテンツ記憶手段41は、デジタル放送の番組コンテンツやデータ放送コンテンツ等の各種コンテンツを記憶するものであって、ハードディスク等の記憶装置である。このコンテンツ記憶手段41は、番組コンテンツとして、例えば水平視差及び垂直視差を有した多視点映像(映像コンテンツ)や、水平視差のみの視点映像の集合である多視点映像(映像コンテンツ)を記憶している。   The content storage unit 41 stores various contents such as program contents of digital broadcast and data broadcast contents, and is a storage device such as a hard disk. The content storage unit 41 stores, as program content, for example, multi-view video (video content) having horizontal parallax and vertical parallax, or multi-view video (video content) which is a set of viewpoint videos only with horizontal parallax. There is.

放送制御手段42は、コンテンツ記憶手段41から、番組コンテンツ、データ放送コンテンツ等を読み出して、放送送出手段43に出力するものである。なお、放送制御手段42は、詳細な説明は省略するが、デジタル放送の限定受信システムに対応してコンテンツのスクランブル、鍵情報の暗号化等の各種の制御を行う。
放送送出手段43は、放送制御手段42から出力される番組コンテンツ、データ放送のデータ等を多重化して、データカルーセルで伝送(配信)するものである。
The broadcast control unit 42 reads program content, data broadcast content, and the like from the content storage unit 41 and outputs the read content to the broadcast transmission unit 43. The broadcast control means 42 performs various controls such as scrambling of content and encryption of key information corresponding to the conditional access system of digital broadcast, although detailed description will be omitted.
The broadcast sending means 43 multiplexes the program content output from the broadcast control means 42, the data of the data broadcast and the like, and transmits (distributes) the data by a data carousel.

[3−3.Webサーバ]
Webサーバ5は、サービス事業者によって用意され、CGI(Common Gateway Interface)やPHP(Hypertext Preprocessor)といったサーバである。なお、本実施形態では、放送局(放送事業者)がサービス事業者を兼ねている。
[3-3. Web server]
The web server 5 is prepared by a service provider, and is a server such as CGI (Common Gateway Interface) or PHP (Hypertext Preprocessor). In the present embodiment, a broadcast station (broadcaster) also serves as a service provider.

Webサーバ5は、例えば、CPU(Central Processing Unit)等の演算装置と、メモリ、ハードディスク等の記憶装置(記憶手段)と、外部との各種情報の送受信を行うインタフェイス装置と、を備え、前記したハードウェア資源がプログラムによって制御されることにより実現され、図14に示すように、コンテンツ記憶手段51と、コンテンツ配信手段52と、を備える。   The Web server 5 includes, for example, an arithmetic device such as a central processing unit (CPU), a storage device (storage means) such as a memory or a hard disk, and an interface device that transmits and receives various information with the outside. The hardware resource is implemented by being controlled by a program, and as shown in FIG. 14, the content storage unit 51 and the content distribution unit 52 are provided.

コンテンツ記憶手段51は、通信コンテンツを記憶するものであり、メモリやハードディスク等の記憶装置から構成される。ここでは、放送波Wで水平視差のみの視点映像の集合である多視点映像(映像コンテンツ)が提供されるときのその映像コンテンツの垂直視差のある視点映像の集合である多視点映像を通信コンテンツとして記憶する。
コンテンツ配信手段52は、通信ネットワークNに接続されたデジタル放送受信装置3aに対して通信コンテンツを配信するものである。なお、放送波Wで伝送される映像コンテンツと、通信ネットワークNで配信される映像コンテンツは、協定世界時刻(UTC:Coordinated Universal Time)をベースとした時刻を用いることにより、同期を取って再生することが可能である。また、コンテンツ配信手段52はデジタル放送受信装置3の操作者の操作によるリクエストを受けることで、任意のタイミングにおいて映像コンテンツを配信する機能を持つ。
The content storage unit 51 stores communication content, and includes a storage device such as a memory or a hard disk. Here, when a multi-view video (video content) which is a set of viewpoint video with only horizontal parallax by broadcast wave W is provided, communication content is a multi-view video which is a set of viewpoint video with vertical parallax of the video content. Remember as.
The content distribution means 52 distributes communication content to the digital broadcast receiving apparatus 3a connected to the communication network N. The video content transmitted by broadcast wave W and the video content distributed by communication network N are synchronized and reproduced by using a time based on Coordinated Universal Time (UTC). It is possible. Further, the content distribution means 52 has a function of distributing video content at an arbitrary timing by receiving a request by the operation of the operator of the digital broadcast receiving apparatus 3.

[3−4.デジタル放送受信装置]
デジタル放送受信装置3は、放送波W等により、番組コンテンツおよびデータ放送を受信するものである。ここでは、デジタル放送受信装置3は、放送受信手段31と、ユーザ操作手段32と、通信手段33と、コンテンツ蓄積手段34と、プログラム記憶手段35と、受信制御手段36と、モニタ70と、レンズアレイ80と、を備えている。そして、デジタル放送受信装置3は、セキュリティモジュールである個別情報記憶カード37を装着されることで、デジタル放送の受信を可能としている。個別情報記憶カード37は、例えば、B−CASカードである。
[3-4. Digital broadcast receiver]
The digital broadcast receiving apparatus 3 receives program content and data broadcast by broadcast waves W and the like. Here, the digital broadcast receiving apparatus 3 includes a broadcast receiving unit 31, a user operation unit 32, a communication unit 33, a content storage unit 34, a program storage unit 35, a reception control unit 36, a monitor 70, and a lens. And an array 80. Then, the digital broadcast receiving apparatus 3 can receive digital broadcast by mounting the individual information storage card 37 which is a security module. The individual information storage card 37 is, for example, a B-CAS card.

放送受信手段31は、デジタル放送送信装置4から送出されるデジタル放送を受信するチューナ等から構成され、個別情報記憶カード37の装着時に受信したデジタル信号を受信制御手段36に出力するものである。
ユーザ操作手段32は、ユーザの操作により指定されるコマンドを受信制御手段36に出力するものであり、例えば、リモコン装置等である。
The broadcast receiving means 31 is composed of a tuner or the like for receiving the digital broadcast sent from the digital broadcast transmitter 4 and outputs the digital signal received when the individual information storage card 37 is mounted to the reception control means 36.
The user operation means 32 outputs a command designated by the user's operation to the reception control means 36, and is, for example, a remote control device.

通信手段33は、通信ネットワークNを介して外部との間で情報を送受信するものである。通信手段33は、放送波Wで水平視差のみの視点映像の集合である多視点映像(映像コンテンツ)が提供されるときのその映像コンテンツの垂直視差の視点映像の集合である多視点映像をWebサーバ5から受信し、要素画像群生成装置10Bに出力する。   The communication unit 33 transmits and receives information to and from the outside via the communication network N. The communication means 33 uses the broadcast wave W to provide a multi-viewpoint video (video content) which is a set of viewpoint videos of only horizontal parallax, and provides the Web with a multi-viewpoint video which is a set of viewpoint video of vertical parallax of the video content. It receives from the server 5 and outputs it to the element image group generation device 10B.

コンテンツ蓄積手段34は、放送受信手段31で受信したデジタル放送番組等のコンテンツを記憶するものであり、ハードディスク等で構成される。
プログラム記憶手段35は、受信制御手段36等の動作プログラムやその処理結果等を記憶するものであり、メモリやハードディスク等で構成される。
The content storage unit 34 stores content such as a digital broadcast program received by the broadcast reception unit 31 and is configured by a hard disk or the like.
The program storage unit 35 stores operation programs of the reception control unit 36 and the like, processing results thereof, and the like, and is configured by a memory, a hard disk, and the like.

受信制御手段36は、放送受信手段31や通信手段33で受信したデジタル信号の再生・表示を制御するものである。ここでは、受信制御手段36は、コンテンツ再生制御手段361と、表示制御手段362と、要素画像群生成装置10Bと、を備えている。   The reception control means 36 controls reproduction and display of the digital signal received by the broadcast reception means 31 and the communication means 33. Here, the reception control unit 36 includes a content reproduction control unit 361, a display control unit 362, and an element image group generation device 10B.

コンテンツ再生制御手段361は、例えば放送波Wで受信した多重化されたデジタル信号から暗号化鍵情報やコンテンツ等を分離し、鍵情報を復号して、コンテンツをデスクランブルすることでコンテンツを再生する制御を行うものである。   The content reproduction control means 361, for example, separates encryption key information and content from multiplexed digital signals received by the broadcast wave W, decrypts the key information, and reproduces the content by descramble the content. It controls.

表示制御手段362は、コンテンツ再生制御手段361で再生されたコンテンツをモニタ70に表示させるものである。なお、表示制御手段362は、データ放送の電子文書であるBMLを解析し、表示制御を行う。また、表示制御手段362は、ハイブリッドキャストのHTML5を解析し、番組の追加情報を表示してもよい。   The display control means 362 causes the monitor 70 to display the content reproduced by the content reproduction control means 361. The display control means 362 analyzes BML, which is an electronic document for data broadcasting, and performs display control. Further, the display control means 362 may analyze the HTML 5 of the hybrid cast and display additional information of the program.

要素画像群生成装置10Bは、表示切替手段21以外の構成は図9の要素画像群生成装置10Aと同様なものとしたので、詳細な説明は省略する。なお、要素画像群生成装置10Bにおけるレンズアレイ情報記憶手段12や記録バッファ151は、例えばプログラム記憶手段35と兼用することとする。
当該デジタル放送受信装置3は、この要素画像群生成装置10Bで生成された要素画像群からインテグラル方式の立体像を表示する。
The element image group generation apparatus 10B is the same as the element image group generation apparatus 10A in FIG. 9 except for the configuration of the display switching unit 21. Therefore, the detailed description is omitted. The lens array information storage unit 12 and the recording buffer 151 in the element image group generation apparatus 10B are also used as the program storage unit 35, for example.
The digital broadcast receiving apparatus 3 displays an integral-type three-dimensional image from the element image group generated by the element image group generating apparatus 10B.

表示切替手段21は、垂直視差の無いインテグラル方式の立体像の表示と、水平視差及び垂直視差の両方を有するインテグラル方式の立体像の表示と、を切り替えるものである。ここでは、垂直視差の無いインテグラル方式の立体像を表示するモードを第1モード、水平視差及び垂直視差の両方を有するインテグラル方式の立体像を表示するモードを第2モードと呼ぶ。   The display switching means 21 switches between the display of an integral 3D image without vertical parallax and the display of an integral 3D image having both horizontal and vertical parallax. Here, a mode for displaying an integral stereo image without vertical parallax is referred to as a first mode, and a mode for displaying an integral stereo image having both horizontal parallax and vertical parallax is referred to as a second mode.

第1モードでは、デジタル放送受信装置3は、放送受信手段31によって放送波Wから水平視差のみの多視点映像を受信するときに、当該放送受信した水平視差のみの多視点映像に基づいて要素画像群生成装置10Bで生成した垂直視差の無いインテグラル方式の立体像を表示する。   In the first mode, when the digital broadcast receiving apparatus 3 receives the multi-view video of only horizontal parallax from the broadcast wave W by the broadcast receiving unit 31, an element image is generated based on the multi-view video of only the horizontal parallax received by the broadcast. The integral-type three-dimensional image without vertical parallax generated by the group generation device 10B is displayed.

また、第2モードでは、デジタル放送受信装置3は、放送受信手段31によって放送波Wから水平視差のみの多視点映像を受信するときに、それ以外の多視点映像を通信手段33によって通信ネットワークNを介して受信して当該ネットワーク受信した多視点映像と放送波Wから受信する多視点映像とを併用して要素画像群生成装置10Bで生成された水平視差及び垂直視差の両方を有するインテグラル方式の立体像を表示する。   Further, in the second mode, when the digital broadcast receiving apparatus 3 receives the multiview video of only horizontal parallax from the broadcast wave W by the broadcast receiving unit 31, the multiview video other than that is transmitted by the communication unit 33 through the communication network N. Integral method having both horizontal parallax and vertical parallax generated by the element image group generation device 10B using the multi-view image received through the network and the multi-view image received from the broadcast wave W in combination Display a stereoscopic image of

受信制御手段36は、デジタル放送受信装置3に内蔵されたコンピュータを、前記した各手段として機能させる受信機プログラムにより動作させることで実現することができる。この受信機プログラムは、デジタル放送送信装置4からデータ放送を介して提供される。また、受信機プログラムのうちの一部である要素画像群生成プログラムは、コンピュータを、要素画像群生成装置10Bとして機能させるためのプログラムである。   The reception control means 36 can be realized by operating a computer built in the digital broadcast receiving apparatus 3 with a receiver program that causes the computer to function as the above-described means. The receiver program is provided from the digital broadcast transmitter 4 via data broadcast. The element image group generation program, which is a part of the receiver program, is a program for causing a computer to function as the element image group generation device 10B.

モニタ(表示パネル)70は、受信制御手段36の処理結果として復号されたデジタル放送番組、データ放送を画面上に表示するものであり、例えば、LCD(Liquid Crystal Display)等である。レンズアレイ80は、インテグラル方式に適用できるレンズ群を備えていれば特に限定されない。   The monitor (display panel) 70 displays a digital broadcast program and data broadcast decoded as a result of processing by the reception control means 36 on a screen, and is, for example, a liquid crystal display (LCD) or the like. The lens array 80 is not particularly limited as long as it has a lens group applicable to the integral method.

[3−5.要素画像群生成装置の動作]
第1モードでは、要素画像群生成装置10Bは、第1実施形態の要素画像群生成装置10と同様の動作を行う。
第2モードでは、要素画像群生成装置10Bは、通信手段33によって受信した通信コンテンツ(垂直視差のある視点映像の集合である多視点映像)を、多視点映像記録転送手段15に出力する。なお、必要があれば、視点合成処理手段13及び/又は多視点映像補正手段14を経由してそれぞれの処理を行う。そして、要素画像群生成装置10Bは、映像切替手段16によって、記録バッファ151(プログラム記憶手段35)に記録された、垂直視差のある視点映像と、同様に記録バッファ151に記録された、水平視差のみの視点映像とを併用して、例えば図2(c)の多視点画像配置領域61に割り当てる。そして、要素画像群生成装置10Bは、要素画像生成手段17によって、水平視差及び垂直視差のある多視点画像から要素画像を生成する。
[3-5. Operation of Element Image Group Generator]
In the first mode, the element image group generation device 10B performs the same operation as the element image group generation device 10 of the first embodiment.
In the second mode, the element image group generation device 10B outputs the communication content (multi-view video which is a set of viewpoint videos having vertical parallax) received by the communication unit 33 to the multi-view video record transfer unit 15. If necessary, the respective processing is performed via the viewpoint combination processing unit 13 and / or the multi-viewpoint image correction unit 14. Then, the elemental image group generation device 10B is configured to record the viewpoint video with vertical parallax recorded by the video switching unit 16 in the recording buffer 151 (program storage unit 35) and the horizontal parallax recorded in the recording buffer 151 in the same manner. For example, it is assigned to the multi-viewpoint image arrangement area 61 of FIG. Then, the element image group generation device 10B generates an element image from the multi-viewpoint image with horizontal parallax and vertical parallax by the element image generation unit 17.

以上説明したように、本実施形態によれば、将来のテレビ放送で必要とされるインテグラル方式のディスプレイに表示できるような映像コンテンツの数を効率よく増加させることができる。   As described above, according to the present embodiment, it is possible to efficiently increase the number of video contents that can be displayed on the integral display required for future television broadcasting.

以上、実施形態に基づいて本発明に係る要素画像群生成装置について説明したが、本発明はこれらに限定されるものではない。例えば、前記実施形態では、インテグラル方式の要素画像生成法として例えば斜投影で取得した画像をもとに要素画像を生成することとしたが、投影法は斜投影に限定されるものではない。
また、視点映像の欠落判定やオクルージョンの発生判定を行う手段は、実施形態に係る装置のブロック構成の位置に設けることに限定されず、また、第2実施形態では、2つの手段を集約して1つのブロック構成として配置してもよい。
また、第2実施形態では、補正手段153の機能を分けて、視点映像の欠落があるときに補正する第1補正手段と、オクルージョンが発生しているときに補正する第2補正手段とを備えるようにしてもよい。
As mentioned above, although the element image group production | generation apparatus which concerns on this invention based on embodiment was demonstrated, this invention is not limited to these. For example, although the element image is generated based on an image acquired by oblique projection, for example, as the integral element image generation method in the embodiment, the projection method is not limited to oblique projection.
Further, the means for performing dropout determination and occlusion occurrence determination of the viewpoint video is not limited to being provided at the position of the block configuration of the device according to the embodiment, and in the second embodiment, two means are integrated to perform It may be arranged as one block configuration.
In the second embodiment, the function of the correction unit 153 is divided into a first correction unit that corrects when there is a loss of a viewpoint video, and a second correction unit that corrects when an occlusion occurs. You may do so.

また、図2の説明では、3×3視点の映像をカメラアレイで撮影してインテグラル方式の多視点映像を説明したが、視点数は、これに限定されるものではなく、例えば20×20視点や、それ以上であってもよい。
インテグラル方式の立体表示に用いるレンズアレイにおいて、要素レンズの配列は、縦横に揃った正方配列に限らず、ある1列の要素レンズの配列に対して垂直方向および水平方向それぞれに要素レンズをずらして俵積み状態になるように配列されたものでもよい。
Further, in the description of FIG. 2, an integral-type multi-viewpoint image is described by capturing an image of 3 × 3 viewpoints with a camera array, but the number of viewpoints is not limited to this. It may be a viewpoint or more.
In the lens array used for integral-type three-dimensional display, the arrangement of the element lenses is not limited to the square array arranged vertically and horizontally, and the element lenses are shifted in the vertical direction and the horizontal direction with respect to the arrangement of one row of element lenses. It may be arranged to be in piles.

図4の要素画像は正方形であるものとしたが、円形等の他の形状であってもよい。
また、要素画像の配列方向に対して傾けた方向にレンズ配列方向が向くようにレンズアレイ全体を傾けて配置してもよい。
また、レンズアレイは、図7に示した平面状に配列された凸レンズ群に限らず、他のレンズ群あるいはピンホール群を配設したものでもよい。
Although the element image of FIG. 4 is square, it may be another shape such as a circle.
Further, the entire lens array may be arranged to be inclined such that the lens arrangement direction is oriented in a direction inclined to the arrangement direction of the element images.
Further, the lens array is not limited to the convex lens group arranged in a plane as shown in FIG. 7, and another lens group or a pinhole group may be disposed.

第3実施形態に係るデジタル放送受信装置3は、垂直視差の無いインテグラル方式の立体像の表示と、水平視差及び垂直視差の両方を有するインテグラル方式の立体像の表示と、を切り替えるために表示切替手段21を備えることとしたが、デジタル放送受信装置3が自動で判定する構成を持っていてもよいし、又は、通信ネットワークNから受信するデータに切り替えフラグを重畳しておいてこのフラグにより切り替えるようにしてもよい。   The digital broadcast receiving apparatus 3 according to the third embodiment is to switch between display of an integral 3D image without vertical parallax and display of an integral 3D image having both horizontal and vertical parallax. Although the display switching means 21 is provided, the digital broadcast receiving apparatus 3 may have a configuration to automatically determine, or the switching flag is superimposed on the data received from the communication network N and this flag It may be switched by.

第3実施形態に係るデジタル放送受信装置3は、水平視差及び垂直視差の両方を有するインテグラル方式の立体像を表示するために、放送波Wから取得する情報と、通信ネットワークNから取得する情報との両方を用いることとして説明したが、その表示のために必要な全ての情報を、通信ネットワークNから取得してもよい。
同様に、水平視差及び垂直視差の両方を有するインテグラル方式の立体像の表示のために必要な全ての情報を放送波Wから取得してもよい。このようにした場合、図13のデジタル放送受信装置3bのように、インターネットなどの通信ネットワークNに接続されていなくてもよい。
The digital broadcast receiving apparatus 3 according to the third embodiment includes information acquired from the broadcast wave W and information acquired from the communication network N in order to display an integral-type three-dimensional image having both horizontal parallax and vertical parallax. However, all information necessary for the display may be obtained from the communication network N.
Similarly, all information necessary for displaying an integral stereo image having both horizontal parallax and vertical parallax may be acquired from the broadcast wave W. In this case, it is not necessary to connect to the communication network N such as the Internet as in the digital broadcast receiver 3b of FIG.

1 放送通信連携システム
2 サービス提供システム
3,3a,3b デジタル放送受信装置
4 デジタル放送送信装置
5 Webサーバ
10,10A,10B 要素画像群生成装置
11 入力インタフェイス
12 レンズアレイ情報記憶手段
13 視点合成処理手段
14 多視点映像補正手段
141 斜投影処理手段
142 第1判定手段
15 多視点映像記録転送手段
151 記録バッファ
152 画像出力手段
153 補正手段(第1補正手段、第2補正手段)
16 映像切替手段
17 要素画像生成手段
18 出力インタフェイス
19 三次元モデル生成手段
191 第2判定手段
20 斜投影処理手段
21 表示切替手段
31 放送受信手段
32 ユーザ操作手段
33 通信手段
34 コンテンツ蓄積手段
35 プログラム記憶手段
36 受信制御手段
361 コンテンツ再生制御手段
362 表示制御手段
37 個別情報記憶カード
41 コンテンツ記憶手段
42 放送制御手段
43 放送送出手段
51 コンテンツ記憶手段
52 コンテンツ配信手段
61,64 多視点画像配置領域
62,65,66 多視点画像群
63 要素画像群
70 モニタ(表示パネル)
71 要素画像
80,180 レンズアレイ
81,181 要素レンズ
182,183 被写体(3次元CG)
184 要素画像群の表示面(仮想ディスプレイ)
DESCRIPTION OF SYMBOLS 1 broadcast communication cooperation system 2 service provision system 3, 3a, 3b digital broadcast receiver 4 digital broadcast transmitter 5 Web server 10, 10A, 10B element image group generator 11 input interface 12 lens array information storage means 13 viewpoint synthesis process Means 14 multi-viewpoint image correction means 141 oblique projection processing means 142 first determination means 15 multi-view image recording / transfer means 151 recording buffer 152 image output means 153 correction means (first correction means, second correction means)
16 image switching means 17 element image generation means 18 output interface 19 three-dimensional model generation means 191 second determination means 20 oblique projection processing means 21 display switching means 31 broadcast receiving means 32 user operation means 33 communication means 34 content storage means 35 program Storage means 36 Reception control means 361 Content reproduction control means 362 Display control means 37 Individual information storage card 41 Content storage means 42 Broadcast control means 43 Broadcast sending means 51 Content storage means 52 Content distribution means 61, 64 Multi-view image arrangement area 62, 65, 66 multi-viewpoint image group 63 element image group 70 monitor (display panel)
71 Elemental Image 80, 180 Lens Array 81, 181 Element Lens 182, 183 Object (3D CG)
184 Display surface of element image group (virtual display)

Claims (7)

レンズアレイを介して立体映像を提示するために表示パネルに表示するインテグラル方式の複数の要素画像である要素画像群を生成する要素画像群生成装置であって、
視点間の水平視差のみに対応している複数視点のそれぞれの視点映像で構成された映像が入力されたときに、前記レンズアレイのレンズピッチの情報を含むレンズアレイ情報に基づいて当該水平視差を持った複数の視点映像から視点を合成し、前記入力された映像よりも視点数を増加させた視点映像で構成された多視点映像を生成する視点合成処理手段と、
前記視点合成処理手段により生成された多視点映像をインテグラル方式の要素画像生成法に適した投影方式の映像に補正する多視点映像補正手段と、
所定の多視点映像を選択して単位時間毎の多視点映像である多視点画像を、メモリ上に定められた多視点画像配置領域の水平方向及び垂直方向に割り当てて複数の多視点画像からなる多視点画像群を生成する処理を時分割で繰り返し行う映像切替手段と、
前記多視点画像群から前記インテグラル方式の要素画像生成法によって要素画像を生成する処理を繰り返すことで前記要素画像群を生成する要素画像生成手段と、
前記多視点映像補正手段の補正により生成された多視点映像を記録バッファに記録すると共に前記記録バッファから前記映像切替手段に転送する多視点映像記録転送手段と、を備え、
前記映像切替手段は、
前記多視点映像記録転送手段から転送される多視点映像に基づき、前記多視点画像配置領域の水平方向に対しては、前記視点合成処理手段により生成された水平成分の視点映像を割り当てると共に、前記多視点画像配置領域の垂直方向に対しては、同じ水平位置の視点映像を繰り返し割り当てることで前記多視点画像群を生成する処理を行うことを特徴とする要素画像群生成装置。
An element image group generation apparatus for generating an element image group which is a plurality of integral element images of an integral type displayed on a display panel to present a stereoscopic image through a lens array,
When an image composed of viewpoint images of a plurality of viewpoints corresponding to only the horizontal parallax between viewpoints is input, the horizontal parallax is input based on lens array information including information on the lens pitch of the lens array. Viewpoint synthesis processing means for synthesizing a viewpoint from a plurality of viewpoint videos held and generating a multi-view image composed of viewpoint videos in which the number of viewpoints is increased compared to the input video;
A multi-viewpoint image correction unit that corrects the multi-viewpoint image generated by the view point synthesis processing unit into an image of a projection method suitable for an integral-type element image generation method;
A predetermined multi-viewpoint image is selected, and a multi-viewpoint image which is a multi-viewpoint image per unit time is allocated in the horizontal direction and the vertical direction of the multi-viewpoint image arrangement area defined on the memory Video switching means for repeatedly performing a process of generating a multi-viewpoint image group in time division;
Element image generation means for generating the element image group by repeating the process of generating an element image from the multi-viewpoint image group by the integral type element image generation method;
A multi-view video recording and transfer unit that records a multi-view video generated by the correction of the multi-view video correction unit in a recording buffer and transfers the multi-view video from the recording buffer to the video switching unit;
The video switching means is
Based on the multi-viewpoint video transferred from the multi-viewpoint video recording and transfer means, in the horizontal direction of the multi-viewpoint image arrangement area, the view point video of the horizontal component generated by the view synthesis processing means is allocated. An element image group generating apparatus characterized by performing processing of generating the multi-viewpoint image group by repeatedly assigning viewpoint images at the same horizontal position in the vertical direction of the multi-viewpoint image arrangement area.
前記映像切替手段は、
前記多視点映像記録転送手段から転送される前記多視点映像を選択する際に、
前記要素画像の左端と右端にそれぞれ位置する画素の各画素値、または、上端と下端にそれぞれ位置する画素の各画素値、もしくは、上下左右のうちのいずれか3つの端部にそれぞれ位置する画素の各画素値が、連続性のある値を持つような要素画像となるように、前記多視点映像を選択して前記要素画像生成手段に出力することを特徴とする請求項1に記載の要素画像群生成装置。
The video switching means is
When selecting the multi-view video transferred from the multi-view video record transfer unit,
Pixel values of pixels respectively located at left and right ends of the element image, or pixel values of pixels respectively located at upper and lower ends, or pixels respectively located at any three ends of upper, lower, left, and right 2. The element according to claim 1, wherein the multi-viewpoint image is selected and output to the element image generation unit so that each pixel value of the element image becomes an element image having a continuous value. Image group generator.
前記記録バッファを参照して、着目する多視点映像と、当該多視点映像に時間的に隣接するフレームの画像データ、又は空間的に隣接する画像データとを比較することで、当該要素画像群生成装置にフレーム毎に入力する前記視点映像で構成された映像に、当該映像を構成する視点映像の欠落があるか否か判定する第1判定手段と、
前記視点映像の欠落がある場合、当該欠落箇所に対して時間的に隣接するフレームの画像データ、又は空間的に隣接する画像データを前記記録バッファから読み出して用いて当該欠落箇所の画像を補正する第1補正手段と、
を備えることを特徴とする請求項1又は請求項2に記載の要素画像群生成装置。
The element image group generation is performed by comparing the multi-viewpoint image of interest with the image data of the frame temporally adjacent to the multi-view image or the image data spatially adjacent with reference to the recording buffer. A first determination unit that determines whether or not the video composed of the viewpoint video input for each frame to the device has a drop in the viewpoint video that constitutes the video;
When there is a loss of the viewpoint video, image data of a frame temporally adjacent to the missing portion or image data spatially adjacent is read out from the recording buffer and used to correct the image of the missing portion. First correction means,
The element image group generation apparatus according to claim 1 or 2, further comprising:
三次元スキャナの入力信号又は3以上の複数視点のそれぞれの視点映像の集合である多視点映像で構成された入力映像を受けてCG上で三次元モデルを生成する三次元モデル生成手段と、
前記レンズアレイ情報に基づいて、平行投影による手法を用いて任意の視点から前記三次元モデルを投影して多視点映像を生成する投影処理手段と、を備え、
前記多視点映像記録転送手段は、前記三次元モデルを投影して生成された多視点映像を前記記録バッファに記録し、
前記映像切替手段は、
前記三次元モデルを投影して生成された多視点映像、前記視点合成処理手段で生成された多視点映像、前記多視点映像補正手段の補正により生成された多視点映像、前記記録バッファに記録した多視点映像のうちのいずれか1つを選択して出力することを時分割で繰り返し行うことを特徴とする請求項1から請求項3のいずれか一項に記載の要素画像群生成装置。
3D model generation means for generating a 3D model on CG by receiving an input signal of a 3D scanner or an input video composed of multiview video which is a set of viewpoint video of 3 or more multiple viewpoints respectively;
Projection processing means for projecting the three-dimensional model from an arbitrary viewpoint using a parallel projection method based on the lens array information to generate a multi-viewpoint image;
The multi-viewpoint video recording and transfer unit records, in the recording buffer, a multi-viewpoint video generated by projecting the three-dimensional model.
The video switching means is
A multi-view image generated by projecting the three-dimensional model, a multi-view image generated by the view synthesis processing unit, a multi-view image generated by the correction of the multi-view image correction unit, and the recording buffer The element image group generation apparatus according to any one of claims 1 to 3, wherein selecting and outputting any one of the multi-viewpoint images is repeatedly performed in time division.
前記生成された三次元モデルにオクルージョンが発生しているか否かを判定する第2判定手段と、
前記オクルージョンが発生している三次元モデルを投影して生成されたオクルージョンが発生している視点映像に対して時間的に隣接するフレームの画像データ、又は空間的に隣接する画像データを前記記録バッファから読み出して用いて当該オクルージョンが発生している視点映像を補正する第2補正手段と、
を備えることを特徴とする請求項4に記載の要素画像群生成装置。
A second determination unit that determines whether occlusion has occurred in the generated three-dimensional model;
The recording buffer is image data of a frame temporally adjacent to a viewpoint image temporally adjacent to a viewpoint image in which the occlusion is generated by projecting the three-dimensional model in which the occlusion is generated, or the image buffer as the recording buffer A second correction unit that corrects the viewpoint image in which the occlusion is generated by reading out from the
The element image group generation apparatus according to claim 4, comprising:
コンピュータを、請求項1から請求項5のいずれか一項に記載の要素画像群生成装置として機能させるための要素画像群生成プログラム。   An element image group generation program for causing a computer to function as the element image group generation apparatus according to any one of claims 1 to 5. 請求項1から請求項5のいずれか一項に記載の要素画像群生成装置と、前記表示パネルと、前記レンズアレイと、放送波を受信する放送受信手段と、通信ネットワークを介して外部との間で情報を送受信する通信手段と、を備え、前記要素画像群生成装置で生成された要素画像群からインテグラル方式の立体像を表示するデジタル放送受信装置であって、
前記放送受信手段によって放送波から水平視差のみの多視点映像を受信するときに、
当該放送受信した水平視差のみの多視点映像に基づいて生成した垂直視差の無いインテグラル方式の立体像の表示と、
前記放送波で受信する水平視差のみの多視点映像以外の多視点映像を前記通信手段によって前記通信ネットワークを介して受信して当該ネットワーク受信した多視点映像と放送波から受信する多視点映像とを併用して生成した水平視差及び垂直視差の両方を有するインテグラル方式の立体像の表示と、
を切り替える表示切替手段を備えることを特徴とするデジタル放送受信装置。
The element image group generation apparatus according to any one of claims 1 to 5, the display panel, the lens array, a broadcast receiving unit for receiving a broadcast wave, and an external device via a communication network. And a communication means for transmitting and receiving information between each other, wherein the digital broadcast receiving apparatus displays an integral-type three-dimensional image from the element images generated by the element image group generating apparatus,
When the multi-view video of only horizontal parallax is received from the broadcast wave by the broadcast receiving means,
Display of an integral-type three-dimensional image without vertical parallax generated based on the multi-view image of only horizontal parallax received in the broadcast;
The multi-view image received through the communication network by the communication means and multi-view image received from the broadcast wave is received from the multi-view image other than the multi-view image only horizontal parallax received by the broadcast wave Integral stereoscopic image display having both horizontal parallax and vertical parallax generated in combination;
A digital broadcast receiver characterized by comprising display switching means for switching the
JP2015036438A 2015-02-26 2015-02-26 Element image group generating device, program therefor, and digital broadcast receiving device Active JP6502701B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015036438A JP6502701B2 (en) 2015-02-26 2015-02-26 Element image group generating device, program therefor, and digital broadcast receiving device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015036438A JP6502701B2 (en) 2015-02-26 2015-02-26 Element image group generating device, program therefor, and digital broadcast receiving device

Publications (2)

Publication Number Publication Date
JP2016158213A JP2016158213A (en) 2016-09-01
JP6502701B2 true JP6502701B2 (en) 2019-04-17

Family

ID=56826786

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015036438A Active JP6502701B2 (en) 2015-02-26 2015-02-26 Element image group generating device, program therefor, and digital broadcast receiving device

Country Status (1)

Country Link
JP (1) JP6502701B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6814036B2 (en) * 2016-12-07 2021-01-13 日本放送協会 Element image group generator and its program
JP6427258B1 (en) * 2017-12-21 2018-11-21 キヤノン株式会社 Display control device, display control method
JP7416573B2 (en) * 2018-08-10 2024-01-17 日本放送協会 Stereoscopic image generation device and its program
JP7389565B2 (en) * 2019-05-29 2023-11-30 日本放送協会 Encoding device, decoding device, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4614612B2 (en) * 2002-06-25 2011-01-19 ソニー株式会社 Image display system
JP2006211383A (en) * 2005-01-28 2006-08-10 Konica Minolta Photo Imaging Inc Stereoscopic image processing apparatus, stereoscopic image display apparatus, and stereoscopic image generating method
JP5522794B2 (en) * 2010-10-15 2014-06-18 日本放送協会 Stereoscopic image generating apparatus and program thereof
JP5129376B1 (en) * 2011-08-31 2013-01-30 株式会社東芝 Video processing apparatus and video processing method

Also Published As

Publication number Publication date
JP2016158213A (en) 2016-09-01

Similar Documents

Publication Publication Date Title
US20050185711A1 (en) 3D television system and method
KR101340102B1 (en) Video encoding device, video encoding method, video reproduction device and video reproduction method
USRE39342E1 (en) Method for producing a synthesized stereoscopic image
JP4295711B2 (en) Image conversion and encoding technology
RU2528080C2 (en) Encoder for three-dimensional video signals
US8416284B2 (en) Stereoscopic image capturing apparatus and stereoscopic image capturing system
US9740015B2 (en) Three-dimensional imaging system based on stereo hologram having nine-to-one microlens-to-prism arrangement
US20120148173A1 (en) Method and device for generating multi-viewpoint image
JP6502701B2 (en) Element image group generating device, program therefor, and digital broadcast receiving device
CN103984108A (en) Naked eye three-dimensional display method and device based on vibration grating
KR20140041489A (en) Automatic conversion of a stereoscopic image in order to allow a simultaneous stereoscopic and monoscopic display of said image
Dick et al. 3D holoscopic video coding using MVC
KR20100112940A (en) A method for processing data and a receiving system
JP4991930B2 (en) 3D image signal processing apparatus and method
US20150130897A1 (en) Method for generating, transporting and reconstructing a stereoscopic video stream
CN103096014A (en) Video presentation method and video presentation system
Cellatoglu et al. Autostereoscopic imaging techniques for 3D TV: proposals for improvements
JP2012138655A (en) Image processing device and image processing method
KR100496513B1 (en) Image conversion method and image conversion system, encoding method and encoding system
Arai Three-dimensional television system based on spatial imaging method using integral photography
JP4966941B2 (en) 3D video data generation method, 3D video data generation system, and 3D video data generation program
JP2012134885A (en) Image processing system and image processing method
JPH11103473A (en) Stereoscopic picture display device
KR101556149B1 (en) Receiving system and method of processing data
Kawakita et al. Glasses-free 200-view 3D video system for highly realistic communication

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180910

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190322

R150 Certificate of patent or registration of utility model

Ref document number: 6502701

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250