JP2022113478A - Integral stereoscopic display system and method thereof - Google Patents

Integral stereoscopic display system and method thereof Download PDF

Info

Publication number
JP2022113478A
JP2022113478A JP2021009759A JP2021009759A JP2022113478A JP 2022113478 A JP2022113478 A JP 2022113478A JP 2021009759 A JP2021009759 A JP 2021009759A JP 2021009759 A JP2021009759 A JP 2021009759A JP 2022113478 A JP2022113478 A JP 2022113478A
Authority
JP
Japan
Prior art keywords
face
image
mobile terminal
element image
display system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021009759A
Other languages
Japanese (ja)
Inventor
正規 加納
Masanori Kano
直人 岡市
Naoto Okaichi
真宏 河北
Masahiro Kawakita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2021009759A priority Critical patent/JP2022113478A/en
Publication of JP2022113478A publication Critical patent/JP2022113478A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Stereoscopic And Panoramic Photography (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

To provide an integral stereoscopic display system that can suppress a communication data amount, and an arithmetic processing amount of a mobile terminal.SOLUTION: An integral stereoscopic display system 100 displays an element image generated by a server 2 on a mobile terminal 1 so as to follow the point of view of a viewer who views with the mobile terminal 1. The mobile terminal 1 includes communication means 10, photographing means 11, face area detection means 12, face part detection means 13, and display means 14. The server 2 includes communication means 20, three-dimensionalizing means 21, and element image generation means 22.SELECTED DRAWING: Figure 3

Description

本発明は、インテグラル立体表示システム及びその方法に関する。 The present invention relates to an integral stereoscopic display system and method.

場所を選ばずに高い臨場感を体験できる映像メディアが望まれている。そのような映像メディアが実現されれば、エンターテイメント、教育、医療など様々な分野に適用することが可能である。高い臨場感を体験できる映像メディアの一つとして、3次元映像が知られている。 There is a demand for video media that can provide a highly realistic experience regardless of location. If such video media is realized, it can be applied to various fields such as entertainment, education, and medical care. Three-dimensional video is known as one of the video media that allows users to experience a high sense of presence.

3次元映像を表示する幾つかの立体方式のうち、実際にそこに物があるのと同じ光線を再現する光線再生立体方式が注目されている。この光線再生立体方式の一つとして、レンズアレイを用いたインテグラル方式が知られている。このインテグラル方式は、液晶ディスプレイなど一般的なディスプレイにレンズアレイを重ねるだけで実現でき、両眼視差と上下左右の運動視差とを再現可能である。 Among several stereoscopic methods for displaying 3D images, a ray reproduction stereoscopic method that reproduces the same light rays as those that actually exist is attracting attention. An integral method using a lens array is known as one of the three-dimensional methods for reproducing light rays. This integral method can be realized simply by superimposing a lens array on a general display such as a liquid crystal display, and can reproduce binocular parallax and vertical and horizontal motion parallax.

近年、スマートフォンやタブレットなどの携帯端末が普及し、映像メディアを携帯端末で視聴することが一般的になりつつある。そこで、携帯端末による高品質な3次元映像の視聴について検討する。インテグラル方式では、3次元映像の解像度、視域及び奥行き再現範囲などの映像品質にトレードオフの関係がある。これら全ての要素を改善するには、表示デバイスの性能を向上させる必要がある一方、携帯端末のような表示デバイスの性能向上には限度がある。 In recent years, mobile terminals such as smartphones and tablets have become popular, and it is becoming common to view video media on mobile terminals. Therefore, viewing of high-quality 3D video using a mobile terminal is examined. In the integral method, there is a trade-off relationship between image quality such as the resolution of the three-dimensional image, the viewing area, and the depth reproduction range. In order to improve all these elements, it is necessary to improve the performance of display devices, but there is a limit to the performance improvement of display devices such as mobile terminals.

そこで、狭い視域を視聴者に追従させることで映像品質を改善できる視点追従技術の適用を検討する(特許文献1、非特許文献1)。以下、携帯端末に視点追従技術を適用したインテグラル方式を「携帯端末型視点追従IP方式」と表記する。例えば、携帯端末型視点追従IP方式では、携帯端末のインカメラで視聴者の視点位置を計測し、その視点位置に絞ってサーバが3次元映像を生成し、その3次元映像を携帯端末で再生する。 Therefore, application of viewpoint tracking technology capable of improving video quality by having a viewer follow a narrow viewing zone is studied (Patent Document 1, Non-Patent Document 1). Hereinafter, the integral method in which the viewpoint-tracking technology is applied to the mobile terminal will be referred to as "portable-terminal-type viewpoint-tracking IP method." For example, in the mobile terminal type viewpoint tracking IP method, the viewer's viewpoint position is measured by the in-camera of the mobile terminal, the server generates a 3D image focusing on the viewpoint position, and the 3D image is played back on the mobile terminal. do.

特開2019-213127号公報JP 2019-213127 A

岡市他、“8Kディスプレイを用いた視点追従型インテグラル3D映像表示”、映像情報メディア学会冬季大会、23D-3、2018Okaichi et al., “Viewpoint Tracking Integral 3D Image Display Using 8K Display”, Institute of Image Information and Television Engineers Winter Conference, 23D-3, 2018

携帯端末型視点追従IP方式では、サーバと携帯端末との間で視点位置や3次元映像などの各種データを通信する必要がある。さらに、携帯端末型視点追従IP方式では、視聴者の視点位置に応じて要素画像を表示するため、視点位置を計測し、その視点位置に応じた3次元モデルから要素画像を生成する必要もある。携帯端末型視点追従IP方式では、これらの処理をリアルタイムで実行できない場合、遅延によって正しい3次元映像を再生できなくなる。しかし、携帯端末型視点追従IP方式では、携帯端末の処理能力には限度があり、大容量のデータ通信や複雑な演算のリアルタイム処理が困難である。 In the mobile terminal type viewpoint tracking IP system, it is necessary to communicate various data such as viewpoint positions and three-dimensional images between the server and the mobile terminal. Furthermore, in the mobile terminal type viewpoint tracking IP method, since the elemental images are displayed according to the viewpoint position of the viewer, it is necessary to measure the viewpoint position and generate the elemental images from the three-dimensional model according to the viewpoint position. . In the mobile terminal type viewpoint tracking IP method, if these processes cannot be executed in real time, it becomes impossible to reproduce correct 3D video due to delay. However, in the mobile terminal type viewpoint tracking IP method, the processing capability of the mobile terminal is limited, and it is difficult to perform large-capacity data communication and real-time processing of complicated calculations.

本発明は、通信データ量及び携帯端末の演算処理量を抑制できるインテグラル立体表示システム及びその方法を提供することを課題とする。 SUMMARY OF THE INVENTION An object of the present invention is to provide an integral stereoscopic display system and method that can reduce the communication data amount and the arithmetic processing amount of a mobile terminal.

前記課題を解決するため、本発明に係るインテグラル立体表示システムは、携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を携帯端末に表示するインテグラル立体表示システムであって、携帯端末は、撮影手段と、顔エリア検出手段と、顔パーツ検出手段と、表示手段と、を備え、要素画像生成装置は、3次元位置算出手段と、要素画像生成手段と、を備える構成とした。 In order to solve the above problems, an integral 3D display system according to the present invention provides an integral 3D display system that displays element images generated by an element image generation device on a mobile terminal so as to follow the viewpoint of a person viewing the image on the mobile terminal. In the display system, the portable terminal includes photographing means, face area detection means, face part detection means, and display means, and the element image generation device includes three-dimensional position calculation means and element image generation means. And, it was configured to include.

かかる構成によれば、携帯端末は、撮影手段によって、人物の顔画像を撮影する。また、携帯端末は、顔エリア検出手段によって、顔画像から人物の顔エリアを検出する。そして、携帯端末は、顔パーツ検出手段によって、少なくとも人物の両目が含まれる顔パーツの画像座標を顔エリアから検出する。さらに、携帯端末は、表示手段によって、要素画像生成装置が生成した要素画像を表示する。 According to such a configuration, the mobile terminal captures the face image of the person by the imaging means. Also, the mobile terminal detects the face area of the person from the face image by the face area detection means. Then, the mobile terminal detects the image coordinates of the face parts including at least both eyes of the person from the face area by the face part detection means. Further, the mobile terminal displays the element images generated by the element image generation device by means of display means.

また、要素画像生成装置は、3次元位置算出手段によって、顔パーツの画像座標から顔パーツの3次元位置を算出する。そして、要素画像生成装置は、要素画像生成手段によって、顔パーツに含まれる両目の3次元位置を視点位置として、要素画像を生成する。 Further, the elemental image generation device calculates the three-dimensional position of the face part from the image coordinates of the face part by the three-dimensional position calculation means. Then, the element image generating device generates an element image with the three-dimensional position of both eyes included in the face part as the viewpoint position by the element image generating means.

また、前記課題を解決するため、本発明に係るインテグラル立体表示システムは、携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を携帯端末に表示するインテグラル立体表示システムであって、携帯端末は、撮影手段と、顔エリア検出手段と、顔パーツ検出手段と、3次元位置算出手段と、表示手段と、を備え、要素画像生成装置は、要素画像生成手段、を備える構成とした。 In order to solve the above-mentioned problems, an integral stereoscopic display system according to the present invention provides an integral stereoscopic display system that displays element images generated by an element image generation device on a mobile terminal so as to follow the viewpoint of a person viewing on the mobile terminal. In the three-dimensional display system, the mobile terminal includes photographing means, face area detection means, face part detection means, three-dimensional position calculation means, and display means, and the element image generation device includes element images. and generating means.

かかる構成によれば、携帯端末は、撮影手段によって、人物の顔画像を撮影する。また、携帯端末は、顔エリア検出手段によって、顔画像から人物の顔エリアを検出する。そして、携帯端末は、顔パーツ検出手段によって、少なくとも人物の両目が含まれる顔パーツの画像座標を顔エリアから検出する。さらに、携帯端末は、3次元位置算出手段によって、顔パーツの画像座標から顔パーツの3次元位置を算出する。さらに、携帯端末は、表示手段によって、要素画像生成装置が生成した要素画像を表示する。 According to such a configuration, the mobile terminal captures the face image of the person by the imaging means. Also, the mobile terminal detects the face area of the person from the face image by the face area detection means. Then, the mobile terminal detects the image coordinates of the face parts including at least both eyes of the person from the face area by the face part detection means. Furthermore, the mobile terminal calculates the three-dimensional position of the face part from the image coordinates of the face part by means of the three-dimensional position calculation means. Further, the mobile terminal displays the element images generated by the element image generation device by means of display means.

また、要素画像生成装置は、要素画像生成手段によって、顔パーツに含まれる両目の3次元位置を視点位置として、要素画像を生成する。 Further, the element image generating device generates an element image with the three-dimensional positions of both eyes included in the face part as the viewpoint position by the element image generating means.

また、前記課題を解決するため、本発明に係るインテグラル立体表示方法は、携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を携帯端末に表示するインテグラル立体表示方法であって、顔画像撮影ステップと、顔エリア検出ステップと、顔パーツ検出ステップと、3次元位置算出ステップと、要素画像生成ステップと、要素画像表示ステップと、を備える手順とした。 In order to solve the above-described problems, an integral stereoscopic display method according to the present invention provides an integral stereoscopic display method for displaying elemental images generated by an elemental image generation device on a mobile terminal so as to follow the viewpoint of a person viewing the image on the mobile terminal. A three-dimensional display method comprising a face image photographing step, a face area detection step, a face part detection step, a three-dimensional position calculation step, an element image generation step, and an element image display step. .

かかる手順によれば、顔画像撮影ステップでは、携帯端末が、人物の顔画像を撮影する。また、顔エリア検出ステップでは、携帯端末が、顔画像から人物の顔エリアを検出する。そして、顔パーツ検出ステップでは、携帯端末が、少なくとも人物の両目が含まれる顔パーツの画像座標を顔エリアから検出する。さらに、3次元位置算出ステップでは、携帯端末又は要素画像生成装置が、顔パーツの画像座標から顔パーツの3次元位置を算出する。 According to this procedure, in the face image capturing step, the mobile terminal captures the face image of the person. Also, in the face area detection step, the mobile terminal detects the face area of the person from the face image. Then, in the face part detection step, the mobile terminal detects image coordinates of face parts including at least both eyes of the person from the face area. Furthermore, in the three-dimensional position calculation step, the mobile terminal or the elemental image generation device calculates the three-dimensional positions of the facial parts from the image coordinates of the facial parts.

また、要素画像生成ステップでは、要素画像生成装置が、顔パーツに含まれる両目の3次元位置を視点位置として、要素画像を生成する。そして、要素画像表示ステップでは、携帯端末が、要素画像生成装置が生成した要素画像を表示する。 Further, in the elemental image generation step, the elemental image generation device generates an elemental image with the three-dimensional positions of both eyes included in the face part as the viewpoint position. Then, in the elemental image display step, the mobile terminal displays the elemental image generated by the elemental image generation device.

このように、本発明では、携帯端末が視点位置計測処理を行い、要素画像生成装置が要素画像生成処理を行う。従って、本発明では、顔画像を送受信する必要がないので通信データ量を抑制し、携帯端末で要素画像生成処理を行う必要がないので携帯端末の演算処理量を抑制できる。 As described above, in the present invention, the mobile terminal performs viewpoint position measurement processing, and the elemental image generation device performs elemental image generation processing. Therefore, in the present invention, since there is no need to transmit and receive face images, the amount of communication data can be reduced, and since there is no need for the mobile terminal to perform elemental image generation processing, it is possible to reduce the amount of arithmetic processing of the mobile terminal.

本発明によれば、通信データ量及び携帯端末の演算処理量を抑制することができる。 According to the present invention, it is possible to suppress the communication data amount and the arithmetic processing amount of the mobile terminal.

各実施形態に係るインテグラル立体表示システムの概略構成図である。1 is a schematic configuration diagram of an integral stereoscopic display system according to each embodiment; FIG. 各実施形態における視点位置計測処理のフローチャートである。4 is a flowchart of viewpoint position measurement processing in each embodiment. 第1実施形態に係るインテグラル立体表示システムの構成を示すブロック図である。1 is a block diagram showing the configuration of an integral stereoscopic display system according to a first embodiment; FIG. 第1実施形態における視点位置計測処理を説明する説明図である。FIG. 4 is an explanatory diagram for explaining viewpoint position measurement processing in the first embodiment; 第1実施形態における顔エリアの検索を説明する説明図である。FIG. 4 is an explanatory diagram for explaining searching for a face area in the first embodiment; (a)及び(b)は、第1実施形態における仮想カメラアレイの移動を説明する説明図である。(a) and (b) are explanatory diagrams for explaining the movement of the virtual camera array in the first embodiment. 第1実施形態における要素画像の生成を説明する説明図である。FIG. 4 is an explanatory diagram for explaining generation of element images in the first embodiment; 第1実施形態に係るインテグラル立体表示システムの動作を示すシーケンス図である。4 is a sequence diagram showing the operation of the integral 3D display system according to the first embodiment; FIG. 第2実施形態に係るインテグラル立体表示システムの構成を示すブロック図である。FIG. 11 is a block diagram showing the configuration of an integral stereoscopic display system according to a second embodiment; FIG. 第2実施形態に係るインテグラル立体表示システムの動作を示すシーケンス図である。FIG. 11 is a sequence diagram showing the operation of the integral stereoscopic display system according to the second embodiment; (a)及び(b)は、第3実施形態における要素画像のシフトを説明する説明図である。(a) and (b) are explanatory diagrams for explaining the shift of elemental images in the third embodiment. 第3実施形態において、3次元モデルの回転を説明する説明図である。FIG. 11 is an explanatory diagram for explaining rotation of a three-dimensional model in the third embodiment;

以下、本発明の各実施形態について図面を参照して説明する。但し、以下に説明する各実施形態は、本発明の技術思想を具体化するためのものであって、特定的な記載がない限り、本発明を以下のものに限定しない。また、同一の手段には同一の符号を付し、説明を省略する場合がある。 Hereinafter, each embodiment of the present invention will be described with reference to the drawings. However, each embodiment described below is for embodying the technical idea of the present invention, and unless there is a specific description, the present invention is not limited to the following. In addition, the same reference numerals may be given to the same means, and the description thereof may be omitted.

[システム構成の検討]
各実施形態を説明する前に、図1の携帯端末型視点追従インテグラル立体表示システム100を実現するためのシステム構成について検討する。以後、「携帯端末型視点追従インテグラル立体表示システム」を単に「インテグラル立体表示システム」と略記する。
図1に示すように、インテグラル立体表示システム100は、視聴者(人物)αが使用する携帯端末1と、各種データを携帯端末1に提供するサーバ(要素画像生成装置)2とで構成されている。
[Study of system configuration]
Before describing each embodiment, a system configuration for realizing the mobile terminal type viewpoint-tracking integral stereoscopic display system 100 of FIG. 1 will be examined. Hereinafter, the ``portable terminal type viewpoint tracking integral 3D display system'' will be simply abbreviated as ``integral 3D display system''.
As shown in FIG. 1, an integral stereoscopic display system 100 is composed of a mobile terminal 1 used by a viewer (person) α, and a server (element image generation device) 2 that provides various data to the mobile terminal 1. ing.

図2に示すように、インテグラル立体表示システム100では、視聴者αの視点位置を計測する視点位置計測処理S1と、要素画像を生成する要素画像生成処理(要素画像生成ステップ)S2と、要素画像を表示する要素画像表示処理(要素画像表示ステップ)S3とが処理が行われる。このインテグラル立体表示システム100では、視点位置計測処理S1と要素画像生成処理S2とを毎フレーム実施する必要がある。 As shown in FIG. 2, in the integral stereoscopic display system 100, a viewpoint position measurement process S1 for measuring the viewpoint position of the viewer α, an element image generation process (element image generation step) S2 for generating element images, and an element Element image display processing (element image display step) S3 for displaying an image is performed. In this integral stereoscopic display system 100, it is necessary to perform the viewpoint position measurement process S1 and the element image generation process S2 for each frame.

なお、視点位置計測処理S1、要素画像生成処理S2及び要素画像表示処理S3の具体的処理内容は、後記する。また、要素画像表示処理S3は、処理負荷が無視できるほど低いので、検討に加えないこととする。また、視点位置計測処理S1と要素画像生成処理S2との周期は一致していることが好ましいが必須ではない。 The specific processing contents of the viewpoint position measurement processing S1, the elemental image generation processing S2, and the elemental image display processing S3 will be described later. Also, since the processing load of the elemental image display processing S3 is so low that it can be ignored, it will not be considered. Further, it is preferable that the cycle of the viewpoint position measurement processing S1 and the element image generation processing S2 is the same, but it is not essential.

インテグラル立体表示システム100において、携帯端末1とサーバ2との間で視点位置計測処理S1及び要素画像生成処理S2を配分する方法として、2通りが考えらえる。第1の方法では、サーバ2が要素画像の生成に必要な3次元モデルを携帯端末1に送信し、携帯端末1が視点位置計測処理S1と要素画像生成処理S2とを行う。しかし、第1の方法では、3次元モデルを携帯端末1に送信する必要があり、通信データ量が増大すると共に、携帯端末1の処理負荷が非常に高くなる。 In the integral stereoscopic display system 100, two methods are conceivable for distributing the viewpoint position measurement processing S1 and the elemental image generation processing S2 between the mobile terminal 1 and the server 2. FIG. In the first method, the server 2 transmits a three-dimensional model necessary for generating elemental images to the portable terminal 1, and the portable terminal 1 performs viewpoint position measurement processing S1 and elemental image generation processing S2. However, in the first method, it is necessary to transmit the three-dimensional model to the mobile terminal 1, which increases the amount of communication data and the processing load of the mobile terminal 1 extremely.

前記したように、インテグラル立体表示システム100を実現するには、通信データ量及び携帯端末1の演算処理量を抑制する必要がある。第1の方法は、携帯端末1の処理負荷が高すぎるため、1フレームあたりの処理時間が長くなり、視聴時にカクつきなどの違和感が生じてしまう。このように、第1の方法は、視点追従が追い付かず、現実的でない。 As described above, in order to realize the integral stereoscopic display system 100, it is necessary to suppress the communication data amount and the arithmetic processing amount of the mobile terminal 1. FIG. In the first method, the processing load of the mobile terminal 1 is too high, so the processing time per frame becomes long, and discomfort such as stuttering occurs when viewing. Thus, the first method cannot keep up with viewpoint tracking and is not realistic.

第2の方法では、処理負荷が大きい要素画像生成処理S2をサーバ2で実行するように、サーバ2と携帯端末1との間で処理を分散することで、携帯端末1の処理負荷を軽減できる。そこで、第2の方法をさらに検討する。 In the second method, the processing load on the mobile terminal 1 can be reduced by distributing the processing between the server 2 and the mobile terminal 1 so that the server 2 executes the element image generation processing S2, which has a large processing load. . Therefore, the second method is further considered.

図2に示すように、視点位置計測処理S1は、顔画像撮影ステップS10と、顔エリア検出ステップS11と、顔パーツ検出ステップS12と、3次元化ステップ(3次元位置算出ステップ)S13とに細分できる。ここで、携帯端末1で顔画像撮影ステップS10を行い、サーバ2で顔エリア検出ステップS11以後の処理を行う場合を考える。この場合、顔画像を送信するために携帯端末1が符号化処理(例えば、H.264)を行う必要があり、携帯端末1の処理負荷が高くなってしまう。さらに、顔画像は、符号化しても通信データ量が大きいという問題もある。そこで、携帯端末1で顔パーツ検出ステップS12又は3次元化ステップS13までの視点位置計測処理S1を行い、それ以後の処理をサーバ2で行えば、インテグラル立体表示システム100を実現できると考えられる。 As shown in FIG. 2, the viewpoint position measurement process S1 is subdivided into a face image photographing step S10, a face area detection step S11, a face part detection step S12, and a three-dimensional conversion step (three-dimensional position calculation step) S13. can. Here, consider a case where the mobile terminal 1 performs the face image photographing step S10 and the server 2 performs the processes after the face area detection step S11. In this case, the mobile terminal 1 needs to perform encoding processing (for example, H.264) in order to transmit the face image, which increases the processing load of the mobile terminal 1 . Furthermore, there is a problem that the amount of communication data is large even if the face image is encoded. Therefore, it is considered that the integral stereoscopic display system 100 can be realized by performing the viewpoint position measurement processing S1 up to the facial part detection step S12 or the three-dimensional conversion step S13 in the portable terminal 1, and performing the subsequent processing in the server 2. .

(第1実施形態)
[インテグラル立体表示システムの構成]
図1を参照し、第1実施形態に係るインテグラル立体表示システム100の構成について説明する。
インテグラル立体表示システム100は、携帯端末1で視聴する視聴者αの視点に追従するように、サーバ2が生成した要素画像を携帯端末1に表示するものである。図1に示すように、インテグラル立体表示システム100は、携帯端末1と、サーバ2とを備える。
(First embodiment)
[Configuration of integral stereoscopic display system]
The configuration of an integral 3D display system 100 according to the first embodiment will be described with reference to FIG.
The integral 3D display system 100 displays elemental images generated by the server 2 on the mobile terminal 1 so as to follow the viewpoint of the viewer α viewing on the mobile terminal 1 . As shown in FIG. 1 , the integral stereoscopic display system 100 includes a mobile terminal 1 and a server 2 .

携帯端末1は、顔パーツ検出ステップS12までの視点位置計測処理S1を行うと共に、要素画像表示ステップS3を行うものである。ここで、携帯端末1は、一般的なスマートフォンやタブレットのディスプレイ面上に、要素画像を表示するためレンズアレイを備える。この他、携帯端末1は、視聴者αの顔画像を撮影するためのインカメラ、サーバ2との間で各種データを通信するための通信機能を備える。なお、携帯端末1は、前記した各機能を備えていれば、スマートフォンやタブレットに限定されない。 The mobile terminal 1 performs the viewpoint position measurement processing S1 up to the facial parts detection step S12, and also performs the element image display step S3. Here, the mobile terminal 1 has a lens array for displaying elemental images on the display surface of a general smart phone or tablet. In addition, the mobile terminal 1 has an in-camera for photographing the face image of the viewer α and a communication function for communicating various data with the server 2 . Note that the mobile terminal 1 is not limited to a smart phone or a tablet as long as it has the functions described above.

サーバ2は、3次元化ステップS13及び要素画像生成処理S2を行って要素画像を生成し、生成した要素画像を携帯端末1に送信するものである。本実施形態では、サーバ2は、インターネットなどのネットワークNWに接続されており、携帯端末1との間で各種データを通信可能な一般的なサーバである。 The server 2 performs the three-dimensional conversion step S<b>13 and the element image generation process S<b>2 to generate element images, and transmits the generated element images to the portable terminal 1 . In this embodiment, the server 2 is a general server connected to a network NW such as the Internet and capable of communicating various data with the mobile terminal 1 .

[携帯端末の構成]
図3及び図4を参照し、携帯端末1の構成について説明する。
図3に示すように、携帯端末1は、通信手段10と、撮影手段11と、顔エリア検出手段12と、顔パーツ検出手段13と、表示手段14とを備える。
[Configuration of mobile terminal]
The configuration of the mobile terminal 1 will be described with reference to FIGS. 3 and 4. FIG.
As shown in FIG. 3, the mobile terminal 1 includes communication means 10, photographing means 11, face area detection means 12, face part detection means 13, and display means .

通信手段10は、ネットワークNWを介して、サーバ2との間で各種データを通信するものである。具体的には、通信手段10は、視聴者αの顔パーツの画像座標をサーバ2に送信すると共に、要素画像をサーバ2から受信する。例えば、通信手段10は、WiFiやパケット通信など任意の無線通信を用いて、各種データを送受信する。 The communication means 10 communicates various data with the server 2 via the network NW. Specifically, the communication means 10 transmits the image coordinates of the facial parts of the viewer α to the server 2 and receives the element images from the server 2 . For example, the communication means 10 transmits and receives various data using arbitrary wireless communication such as WiFi and packet communication.

撮影手段11は、図4に示すように、視聴者αの顔画像90を撮影する顔画像撮影ステップS10を行うものである。例えば、撮影手段11としては、スマートフォンやタブレットのインカメラがあげられる。本実施形態では、視聴者αの視点に追従するため、撮影手段11は、リアルタイムで視聴者αの顔画像90を撮影し、撮影した顔画像90をフレーム毎に顔エリア検出手段12に出力する。 The photographing means 11, as shown in FIG. 4, performs a facial image photographing step S10 for photographing a facial image 90 of the viewer α. For example, the photographing means 11 may be an in-camera of a smartphone or a tablet. In this embodiment, in order to follow the viewpoint of the viewer α, the photographing means 11 photographs the face image 90 of the viewer α in real time, and outputs the photographed face image 90 to the face area detection means 12 frame by frame. .

顔エリア検出手段12は、撮影手段11より入力された顔画像90から視聴者αの顔エリア91を検出する顔エリア検出ステップS11を行うものである。本実施形態では、撮影手段11は、視聴者αの視点に追従するため、既知の手法を用いて、顔画像90の各フレームから顔エリア91を検出する(例えば、参考文献1,2)。そして、顔エリア検出手段12は、検出した顔エリア91を顔パーツ検出手段13に出力する。 The face area detection means 12 performs a face area detection step S11 for detecting the face area 91 of the viewer α from the face image 90 input from the photographing means 11 . In the present embodiment, the photographing means 11 detects the face area 91 from each frame of the face image 90 using a known method in order to follow the viewpoint of the viewer α (eg References 1 and 2). The face area detection means 12 then outputs the detected face area 91 to the face part detection means 13 .

参考文献1:“OpenCV”,[online],[令和2年12月10日検索],インターネット<URL:https://opencv.org/>
参考文献2:“Dlib”,[online],[令和2年12月10日検索],インターネット<URL:http://dlib.net/>
Reference 1: “OpenCV”, [online], [searched on December 10, 2020], Internet <URL: https://opencv.org/>
Reference 2: “Dlib”, [online], [searched on December 10, 2020], Internet <URL: http://dlib.net/>

<顔エリアの検出>
以下、顔エリア検出手段12による顔エリア91の検出を詳細に説明する。
顔エリア91の検出は、顔画像90の各フレームで実行するため、高速化が可能である。図5に示すように、あるフレームの顔画像90では、中央で顔エリア91が検出されたこととする。この場合、次フレームの顔画像90では、前フレームの顔エリア91の近傍で顔エリア91が検出できる可能性が高い。このため、顔エリア検出手段12は、前フレームの顔エリア91の周辺を検出領域92として、次フレームの顔画像90から顔エリア91を検出する。つまり、顔エリア検出手段12は、次フレームの顔画像90に設定した検出領域92の範囲内で顔エリア91を検出する。例えば、検出領域92は、前フレームで検出した顔エリア91の縦横を2倍以下で拡大した矩形領域である。このように、顔エリア検出手段12では、検出領域92が顔画像90の全体よりも狭いので、高速化を図ることができる。なお、先頭フレームの場合や顔エリア91の検出に失敗した場合、顔エリア検出手段12は、顔画像90の全体から顔エリア91を検出する。
<Face area detection>
The detection of the face area 91 by the face area detection means 12 will be described in detail below.
Since detection of the face area 91 is executed for each frame of the face image 90, speeding up is possible. As shown in FIG. 5, it is assumed that a face area 91-1 is detected in the center of a face image 90-1 of a certain frame. In this case, there is a high possibility that the face area 91-2 can be detected in the vicinity of the face area 91-1 of the previous frame in the face image 90-2 of the next frame. Therefore, the face area detection means 12 detects the face area 91-2 from the face image 90-2 of the next frame, using the periphery of the face area 91-1 of the previous frame as the detection region 92. FIG . That is, the face area detection means 12 detects the face area 91-2 within the range of the detection area 92 set in the face image 90-2 of the next frame. For example, the detection area 92 is a rectangular area obtained by enlarging the face area 911 detected in the previous frame by a factor of two or less. As described above, in the face area detection means 12, since the detection area 92 is narrower than the entire face image 90, speeding up can be achieved. It should be noted that the face area detection means 12 detects the face area 91 from the entire face image 90 in the case of the top frame or when the detection of the face area 91 fails.

顔パーツ検出手段13は、少なくとも視聴者αの両目が含まれる顔パーツの画像座標93を顔エリア91から検出する顔パーツ検出ステップS12を行うものである。ここで、顔パーツとは、視聴者αの顔を構成する目、鼻、口などのパーツのことである。本実施形態では、顔パーツ検出手段13は、顔エリア検出手段12より入力された顔エリア91から、顔パーツとして、視聴者αの両目、鼻及び口の画像座標を検出する。例えば、顔パーツ検出手段13は、既知の手法で顔パーツを検出できる(例えば、前記参考文献1,2)。図4に示すように、顔パーツ検出手段13が顔パーツを検出すると、顔画像90内で両目などの2次元座標が既知となる。
その後、顔パーツ検出手段13は、通信手段10を介して、検出した顔パーツの画像座標93をサーバ2に送信する。この顔パーツの画像座標93は、両目などの2次元座標値を記述したデータのため、顔画像に比べてデータ量が少ない。
The face parts detection means 13 performs a face parts detection step S12 of detecting image coordinates 93 of face parts including at least both eyes of the viewer α from the face area 91 . Here, the face parts are parts such as the eyes, nose, and mouth that constitute the face of the viewer α. In this embodiment, the face part detection means 13 detects the image coordinates of both eyes, nose and mouth of the viewer α as face parts from the face area 91 input from the face area detection means 12 . For example, the facial parts detection means 13 can detect facial parts by a known technique (eg, References 1 and 2 above). As shown in FIG. 4, when the face part detection means 13 detects a face part, the two-dimensional coordinates of both eyes in the face image 90 are known.
After that, the facial parts detection means 13 transmits the image coordinates 93 of the detected facial parts to the server 2 via the communication means 10 . Since the image coordinates 93 of this face part are data describing two-dimensional coordinate values of both eyes, the amount of data is smaller than that of the face image.

なお、サーバ2で後記するPnP問題を解くため、撮影手段(インカメラ)11の内部パラメータやレンズ歪み係数が必要になる。そこで、携帯端末1は、事前にカメラキャリブレーションを行ってパラメータを取得し、サーバ2に送信することが好ましい。例えば、カメラキャリブレーションの手法は参考文献3に記載されている。 In addition, in order to solve the PnP problem described later in the server 2, the internal parameters and lens distortion coefficients of the photographing means (in-camera) 11 are required. Therefore, it is preferable that the mobile terminal 1 perform camera calibration in advance to acquire parameters and transmit the parameters to the server 2 . For example, a technique for camera calibration is described in Reference 3.

参考文献3:Z. Zhang, “A flexible new technique for camera calibration”, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, No. 11, pp. 1330-1334 (2000) Reference 3: Z. Zhang, "A flexible new technique for camera calibration", IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol. 22, No. 11, pp. 1330-1334 (2000)

表示手段14は、サーバ2が生成した要素画像を表示する要素画像表示処理S3を行うものである。具体的には、表示手段14は、通信手段10を介して、サーバ2から要素画像を受信し、受信した要素画像を表示する。例えば、表示手段14は、液晶素子や有機EL素子のディスプレイと、そのディスプレイ面上に配置されたレンズアレイとで構成されている(不図示)。 The display means 14 performs element image display processing S3 for displaying the element images generated by the server 2 . Specifically, the display means 14 receives element images from the server 2 via the communication means 10 and displays the received element images. For example, the display means 14 is composed of a liquid crystal element or organic EL element display and a lens array arranged on the display surface (not shown).

[サーバの構成]
図3及び図4を参照し、サーバ2の構成について説明する。
図3に示すように、サーバ2は、通信手段20と、3次元化手段(3次元位置算出手段)21と、要素画像生成手段22と、を備える。
[Server configuration]
The configuration of the server 2 will be described with reference to FIGS. 3 and 4. FIG.
As shown in FIG. 3 , the server 2 includes communication means 20 , three-dimensionalization means (three-dimensional position calculation means) 21 , and element image generation means 22 .

通信手段20は、ネットワークNWを介して、携帯端末1との間で各種データを通信するものである。具体的には、通信手段20は、顔パーツの画像座標93を携帯端末1から受信すると共に、要素画像を携帯端末1に送信する。 The communication means 20 communicates various data with the mobile terminal 1 via the network NW. Specifically, the communication unit 20 receives the image coordinates 93 of the facial parts from the mobile terminal 1 and transmits the element images to the mobile terminal 1 .

3次元化手段21は、図4に示すように、視聴者αの顔パーツの画像座標93から両目の3次元位置95を算出する3次元化ステップS13を行うものである。まず、3次元化手段21は、通信手段20を介して、携帯端末1から顔パーツの画像座標93を受信する。次に、3次元化手段21は、受信した顔パーツの画像座標93から顔パーツの3次元位置94を算出する(例えば、参考文献4)。具体的には、3次元化手段21は、予め設定した顔パーツの3次元位置と顔パーツの画像座標93とからPnP(Perspective n-Point)問題を解くことで、カメラ座標系で両目を含む顔パーツの3次元位置94を算出する。図4に示すように、両目の3次元位置95は、顔パーツの3次元位置94に含まれており、右目と左目の3次元座標で記述できる。
その後、3次元化手段21は、算出した両目の3次元位置95を要素画像生成手段22に出力する。なお、3次元化手段21は、要素画像の生成に不要なため、両目以外の3次元座標を要素画像生成手段22に出力せずともよい。
As shown in FIG. 4, the three-dimensionalization means 21 performs a three-dimensionalization step S13 of calculating the three-dimensional positions 95 of both eyes from the image coordinates 93 of the face parts of the viewer α. First, the three-dimensionalization means 21 receives image coordinates 93 of facial parts from the mobile terminal 1 via the communication means 20 . Next, the three-dimensionalization means 21 calculates the three-dimensional position 94 of the facial part from the received image coordinates 93 of the facial part (see Reference 4, for example). Specifically, the 3D rendering means 21 solves a PnP (Perspective n-Point) problem from preset 3D positions of facial parts and the image coordinates 93 of the facial parts, so that both eyes are included in the camera coordinate system. A three-dimensional position 94 of the face part is calculated. As shown in FIG. 4, the 3D position 95 of both eyes is included in the 3D position 94 of the face part and can be described by the 3D coordinates of the right and left eyes.
After that, the three-dimensionalization means 21 outputs the calculated three-dimensional positions 95 of both eyes to the elemental image generation means 22 . Note that the three-dimensionalization means 21 does not need to output the three-dimensional coordinates of the eyes other than those of both eyes to the element image generation means 22 because the three-dimensionalization means 21 is unnecessary for generating the elemental images.

参考文献4:ディジタル画像処理(改訂新版)、CG-ARTS協会、2015年 Reference 4: Digital Image Processing (Revised New Edition), CG-ARTS Society, 2015

要素画像生成手段22は、3次元化手段21から入力された両目の3次元位置95を視点位置として、要素画像を生成(レンダリング)する要素画像生成処理S2を行うものである。そして、要素画像生成手段22は、通信手段20を介して、生成した要素画像を携帯端末1に送信する。 The elemental image generating means 22 performs an elemental image generating process S2 for generating (rendering) an elemental image with the 3D position 95 of both eyes input from the 3D rendering means 21 as the viewpoint position. Then, the element image generation means 22 transmits the generated element images to the mobile terminal 1 via the communication means 20 .

<要素画像の生成>
図6及び図7を参照し、要素画像生成手段22による要素画像Eの生成を詳細に説明する。本実施形態では、要素画像生成手段22は、立体像の元となる3次元モデルMから要素画像Eのレンダリングを行う。具体的には、要素画像生成手段22は、コンピュータグラフィックス(CG:Computer Graphics)空間内に被写体となる3次元モデルMを配置し、その3次元モデルMを仮想カメラアレイCで撮影する。
<Generation of Element Image>
Generation of the element image E by the element image generation means 22 will be described in detail with reference to FIGS. 6 and 7. FIG. In this embodiment, the elemental image generating means 22 renders the elemental images E from the three-dimensional model M that is the basis of the stereoscopic image. Specifically, the element image generating means 22 arranges a three-dimensional model M as a subject in a computer graphics (CG) space, and photographs the three-dimensional model M with a virtual camera array C. FIG.

図6では、仮想カメラアレイCは、水平方向に配列された5台の仮想カメラC~Cで構成されている。全ての仮想カメラC~Cが仮想レンズアレイLに正対して配置され、仮想レンズアレイLの領域が撮影できるように内部パラメータが予め設定されていることとする。 In FIG. 6, the virtual camera array C is composed of five virtual cameras C 1 to C 5 arranged in the horizontal direction. It is assumed that all the virtual cameras C 1 to C 5 are arranged facing the virtual lens array L, and the internal parameters are set in advance so that the area of the virtual lens array L can be photographed.

このとき、要素画像生成手段22は、視点位置として、視点位置計測処理S1で得られた両目の3次元位置95(図4)の中点Pを仮想カメラアレイCの中心とする。図6(a)に示すように、視聴者αが仮想レンズアレイLに正対しており、仮想レンズアレイLの中心を原点とする仮想レンズアレイ座標系において、両眼の中点Pのx-y座標が共にゼロの状態を基準とする。なお、水平方向をx軸、垂直方向をy軸、奥行き方向をz軸とする。 At this time, the elemental image generating means 22 sets the midpoint P of the three-dimensional position 95 (FIG. 4) of both eyes obtained in the viewpoint position measurement process S1 as the center of the virtual camera array C as the viewpoint position. As shown in FIG. 6A, the viewer α faces the virtual lens array L, and in the virtual lens array coordinate system having the center of the virtual lens array L as the origin, x− A state in which both y-coordinates are zero is taken as a reference. Note that the horizontal direction is the x-axis, the vertical direction is the y-axis, and the depth direction is the z-axis.

要素画像生成手段22は、この状態から視聴者αが上下左右に動くのに伴い、仮想カメラアレイCも同様に上下左右に移動させる。図6(b)に示すように、視聴者αが左側に動いた場合、要素画像生成手段22は、仮想カメラアレイCを左側に移動させる。さらに視距離が変化した場合、要素画像生成手段22は、視距離Dの変化に応じて、仮想カメラアレイCを前後に移動させる。このとき、要素画像生成手段22は、仮想カメラアレイCの移動に応じて、仮想レンズアレイLの領域を撮影できるように内部パラメータも変更する。そして、要素画像生成手段22は、図7に示すように、仮想カメラアレイCで撮影した多視点画像Vの画素位置を並べ替えることで、要素画像Eを生成する。 The element image generating means 22 similarly moves the virtual camera array C up, down, left, and right as the viewer α moves up, down, left, and right from this state. As shown in FIG. 6(b), when the viewer α moves to the left, the elemental image generating means 22 moves the virtual camera array C to the left. Furthermore, when the viewing distance changes, the elemental image generating means 22 moves the virtual camera array C back and forth according to the change in the viewing distance D. FIG. At this time, the elemental image generating means 22 also changes the internal parameters so that the area of the virtual lens array L can be photographed according to the movement of the virtual camera array C. FIG. Then, the elemental image generating means 22 generates an elemental image E by rearranging the pixel positions of the multi-viewpoint image V captured by the virtual camera array C, as shown in FIG.

前記したように、仮想レンズアレイ座標系での両眼の中点Pを仮想カメラアレイCの中心と一致させることが好ましい。その一方、視点位置計測処理S1で得られる3次元位置はインカメラのカメラ座標系で表現されている。仮想レンズアレイ座標系とカメラ座標系との位置関係は平行で距離も近く、両座標系の位置関係の相違は大きな問題とならず、無視してもよい。さらに、予め設定した両座標系のオフセット値を適用し、両座標系の位置関係を調整してもよい。 As described above, it is preferable to match the middle point P of both eyes in the virtual lens array coordinate system with the center of the virtual camera array C. FIG. On the other hand, the three-dimensional position obtained by the viewpoint position measurement processing S1 is expressed in the camera coordinate system of the in-camera. The positional relationship between the virtual lens array coordinate system and the camera coordinate system is parallel and the distance is short, and the difference in the positional relationship between the two coordinate systems is not a big problem and can be ignored. Furthermore, the positional relationship between the two coordinate systems may be adjusted by applying preset offset values for the two coordinate systems.

[インテグラル立体表示システムの動作]
図8を参照し、インテグラル立体表示システム100の動作について説明する。
図8に示すように、携帯端末1は、撮影手段11によって、顔画像撮影ステップS10を行う。
携帯端末1は、顔エリア検出手段12によって、顔エリア検出ステップS11を行う。
携帯端末1は、顔パーツ検出手段13によって、顔パーツ検出ステップS12を行い、検出した顔パーツの画像座標93をサーバ2に送信する。
[Operation of Integral Stereoscopic Display System]
The operation of the integral stereoscopic display system 100 will be described with reference to FIG.
As shown in FIG. 8 , the portable terminal 1 performs a face image photographing step S10 by the photographing means 11 .
The mobile terminal 1 uses the face area detection means 12 to perform a face area detection step S11.
The mobile terminal 1 performs a face part detection step S<b>12 by the face part detection means 13 and transmits the image coordinates 93 of the detected face parts to the server 2 .

サーバ2は、3次元化手段21によって、携帯端末1から顔パーツの画像座標93を受信し、3次元化ステップS13を行う。
サーバ2は、要素画像生成手段22によって、要素画像生成処理S2を行い、生成した要素画像Eを携帯端末1に送信する。
携帯端末1は、表示手段14によって、サーバ2から要素画像を受信し、要素画像生成表示処理S3を行う。
The server 2 receives the image coordinates 93 of the facial parts from the mobile terminal 1 by the three-dimensionalization means 21, and performs the three-dimensionalization step S13.
The server 2 performs element image generation processing S<b>2 by the element image generation means 22 and transmits the generated element image E to the portable terminal 1 .
The portable terminal 1 receives the elemental image from the server 2 by the display means 14, and performs elemental image generation display processing S3.

[作用・効果]
以上のように、インテグラル立体表示システム100は、携帯端末1が顔パーツ検出ステップS12までの視点位置計測処理S1を行い、サーバ2が要素画像生成処理S2を行う。従って、インテグラル立体表示システム100では、顔画像を送受信する必要がないので通信データ量を抑制し、携帯端末1で要素画像生成処理S2を行う必要がないので携帯端末1の演算処理量も抑制できる。さらに、インテグラル立体表示システム100は、携帯端末1を用いて、外出先でも気軽に視聴者αが立体映像を楽しめるようになり、災害時における迅速かつ効率的な情報取得の役にも立つ。
[Action/effect]
As described above, in the integral 3D display system 100, the mobile terminal 1 performs the viewpoint position measurement processing S1 up to the face part detection step S12, and the server 2 performs the element image generation processing S2. Therefore, in the integral stereoscopic display system 100, since there is no need to transmit and receive face images, the amount of communication data is suppressed, and since it is not necessary for the mobile terminal 1 to perform the elemental image generation processing S2, the amount of arithmetic processing of the mobile terminal 1 is also suppressed. can. Furthermore, the integral 3D display system 100 enables the viewer α to easily enjoy 3D images on the go using the portable terminal 1, and is useful for quick and efficient information acquisition in the event of a disaster.

(第2実施形態)
[インテグラル立体表示システムの構成]
図9を参照し、第2実施形態に係るインテグラル立体表示システム100Aの構成について、第1実施形態と異なる点を説明する。
インテグラル立体表示システム100Aでは、携帯端末1Aで3次元化ステップS13を行う点が第1実施形態と異なる。
(Second embodiment)
[Configuration of integral stereoscopic display system]
With reference to FIG. 9, the configuration of an integral 3D display system 100A according to the second embodiment will be described with respect to the differences from the first embodiment.
The integral stereoscopic display system 100A differs from the first embodiment in that the portable terminal 1A performs the three-dimensionalization step S13.

図9に示すように、インテグラル立体表示システム100Aは、携帯端末1Aと、サーバ2Aとを備える。
携帯端末1Aは、3次元化ステップS13を含め、全ての視点位置計測処理S1を行うものである。
サーバ2Aは、要素画像生成装置が要素画像生成処理S2を行うものである。つまり、サーバ2Aは、第1実施形態と異なり、3次元化ステップS13を行わない。
As shown in FIG. 9, the integral stereoscopic display system 100A includes a mobile terminal 1A and a server 2A.
The portable terminal 1A performs all viewpoint position measurement processing S1 including the three-dimensionalization step S13.
In the server 2A, the element image generation device performs the element image generation processing S2. That is, unlike the first embodiment, the server 2A does not perform the three-dimensionalization step S13.

[携帯端末の構成]
続いて、携帯端末1の構成について説明する。
図9に示すように、携帯端末1Aは、通信手段10Aと、撮影手段11と、顔エリア検出手段12と、顔パーツ検出手段13と、表示手段14と、3次元化手段(3次元位置算出手段)15とを備える。なお、通信手段10A及び3次元化手段15以外の構成は、第1実施形態と同様のため、説明を省略する。
[Configuration of mobile terminal]
Next, the configuration of the mobile terminal 1 will be described.
As shown in FIG. 9, mobile terminal 1A includes communication means 10A, photographing means 11, face area detection means 12, face part detection means 13, display means 14, and three-dimensionalization means (three-dimensional position calculation). means) 15; Since the configuration other than the communication means 10A and the three-dimensionalization means 15 is the same as that of the first embodiment, the description thereof is omitted.

通信手段10Aは、ネットワークNWを介して、サーバ2Aとの間で各種データを通信するものである。具体的には、通信手段10Aは、視聴者αの両眼の3次元位置95をサーバ2Aに送信すると共に、要素画像Eをサーバ2Aから受信する。他の点、通信手段10Aは、第1実施形態と同様のため、これ以上の説明を省略する。 The communication means 10A communicates various data with the server 2A via the network NW. Specifically, the communication means 10A transmits the three-dimensional position 95 of both eyes of the viewer α to the server 2A and receives the element image E from the server 2A. Otherwise, the communication means 10A is the same as in the first embodiment, so further explanation is omitted.

3次元化手段15は、第1実施形態と同様、3次元化ステップS13を行うものである。まず、3次元化手段15は、顔パーツ検出手段13より入力された視聴者αの顔パーツの画像座標93から両目の3次元位置95を算出する。そして、3次元化手段15は、通信手段10を介して、視聴者αの両目の3次元位置95をサーバ2Aに送信する。この両目の3次元位置95は、顔画像に比べてデータ量が少ない。 The three-dimensionalization means 15 performs the three-dimensionalization step S13 as in the first embodiment. First, the three-dimensionalization means 15 calculates the three-dimensional positions 95 of both eyes from the image coordinates 93 of the face parts of the viewer α input from the face part detection means 13 . The three-dimensional rendering means 15 then transmits the three-dimensional positions 95 of both eyes of the viewer α to the server 2A via the communication means 10 . The three-dimensional position 95 of both eyes has a smaller amount of data than the face image.

[サーバの構成]
続いて、サーバ2Aの構成について説明する。
図9に示すように、サーバ2は、通信手段20Aと、要素画像生成手段22Aと、を備える。
[Server configuration]
Next, the configuration of the server 2A will be explained.
As shown in FIG. 9, the server 2 includes communication means 20A and element image generation means 22A.

通信手段20Aは、ネットワークNWを介して、携帯端末1Aとの間で各種データを通信するものである。具体的には、通信手段20Aは、視聴者αの両眼の3次元位置95を携帯端末1Aから受信すると共に、要素画像を携帯端末1Aに送信する。他の点、通信手段20Aは、第1実施形態と同様のため、これ以上の説明を省略する。 The communication means 20A communicates various data with the mobile terminal 1A via the network NW. Specifically, the communication means 20A receives the three-dimensional position 95 of both eyes of the viewer α from the mobile terminal 1A and transmits the element images to the mobile terminal 1A. Otherwise, the communication means 20A is the same as in the first embodiment, so further explanation is omitted.

要素画像生成手段22Aは、通信手段20Aを介して、携帯端末1Aから視聴者αの両眼の3次元位置95を受信する。そして、要素画像生成手段22Aは、第1実施形態と同様、要素画像生成処理S2を行う。 The elemental image generating means 22A receives the three-dimensional positions 95 of both eyes of the viewer α from the portable terminal 1A via the communication means 20A. Then, the elemental image generating means 22A performs elemental image generation processing S2 as in the first embodiment.

[インテグラル立体表示システムの動作]
図10を参照し、インテグラル立体表示システム100Aの動作について説明する。
図10に示すように、携帯端末1Aは、3次元化手段15によって、3次元化ステップS13を行う。
他の点、インテグラル立体表示システム100Aの動作は、第1実施形態と同様のため、これ以上の説明を省略する。
[Operation of Integral Stereoscopic Display System]
The operation of the integral stereoscopic display system 100A will be described with reference to FIG.
As shown in FIG. 10, the mobile terminal 1A performs a three-dimensionalization step S13 by the three-dimensionalization means 15. FIG.
Other than that, the operation of the integral stereoscopic display system 100A is the same as that of the first embodiment, so further explanation is omitted.

[作用・効果]
以上ように、インテグラル立体表示システム100Aは、携帯端末1Aが全ての視点位置計測処理S1を行い、サーバ2Aが要素画像生成処理S2を行う。従って、インテグラル立体表示システム100Aでは、顔画像を送受信する必要がないので通信データ量を抑制し、携帯端末1Aで要素画像生成処理S2を行う必要がないので携帯端末1Aの演算処理量を抑制できる。さらに、インテグラル立体表示システム100Aは、携帯端末1Aを用いて、外出先でも気軽に視聴者αが立体映像を楽しめるようになり、災害時における迅速かつ効率的な情報取得の役にも立つ。
[Action/effect]
As described above, in the integral stereoscopic display system 100A, the mobile terminal 1A performs all the viewpoint position measurement processing S1, and the server 2A performs the element image generation processing S2. Therefore, in the integral stereoscopic display system 100A, since there is no need to transmit and receive face images, the amount of communication data is suppressed, and since it is not necessary to perform the elemental image generation processing S2 in the mobile terminal 1A, the amount of arithmetic processing of the mobile terminal 1A is suppressed. can. Furthermore, the integral 3D display system 100A enables the viewer α to easily enjoy 3D images on the go using the portable terminal 1A, and is useful for quick and efficient information acquisition in the event of a disaster.

ここで、第1実施形態及び第2実施形態それぞれの利点を説明する。図3のインテグラル立体表示システム100は、3次元化ステップS13をサーバ2で行うので、携帯端末1の演算処理量を大幅に抑制できるという利点がある。これに対し、図9のインテグラル立体表示システム100Aは、両眼の3次元位置95という2点の座標データを送受信するので、通信データ量を大幅に抑制できるという利点がある。 Advantages of each of the first and second embodiments will now be described. The integral 3D display system 100 of FIG. 3 has the advantage that the three-dimensionalization step S13 is performed by the server 2, so that the computational processing amount of the mobile terminal 1 can be greatly reduced. On the other hand, the integral stereoscopic display system 100A of FIG. 9 transmits and receives coordinate data of two points, ie, the three-dimensional position 95 of both eyes, and therefore has the advantage of being able to greatly reduce the amount of communication data.

(第3実施形態)
以下、第3実施形態に係るインテグラル立体表示システム100Bについて、第1実施形態及び第2実施形態と異なる点を説明する。
(Third Embodiment)
The integral stereoscopic display system 100B according to the third embodiment will be described below with respect to the differences from the first and second embodiments.

視点追従では、3次元映像の視域を広げることが可能だが、それ以外の使い方もできる。具体的には、視点追従により、常に正面視点の3次元映像を表示することである。多くの場合、正面視点の3次元映像は、コンテンツの制作者が視聴者αに一番見せたい視点位置の映像と考えられる。インテグラル方式では、視聴者αの見る方向に応じて、立体像の見え方も変化するので、正確に視聴者αが正面を向いていない限り、正面視点の3次元映像を見ることができない。コンテンツの内容や視聴環境によっては、常に正面視点の3次元映像を見たい場合も考えられる。視点位置を正面視点に固定するには、図2の要素画像生成手段22Bが要素画像をレンダリングする際、以下のような処理を加えればよい。その処理方法は2種類あるので順に説明する。 With viewpoint tracking, it is possible to widen the viewing area of 3D images, but it can also be used in other ways. Specifically, it is to always display the 3D image of the front viewpoint by following the viewpoint. In many cases, the 3D video of the front viewpoint is considered to be the video of the viewpoint position that the creator of the content most wants to show to the viewer α. In the integral method, the appearance of the stereoscopic image changes according to the viewing direction of the viewer α, so unless the viewer α is correctly facing the front, the viewer cannot see the 3D video from the front viewpoint. Depending on the details of the content and the viewing environment, there may be a case where the user wants to always view the 3D video from the front viewpoint. In order to fix the viewpoint position to the front viewpoint, the following processing may be added when the elemental image generating means 22B in FIG. 2 renders the elemental images. Since there are two types of processing methods, they will be described in order.

<要素画像のシフト>
要素画像生成手段22Bは、生成した要素画像Eを視点位置の正面までシフトさせる。単に正面視点の要素画像Eをレンダリングするだけであれば、仮想カメラアレイCの位置を3次元モデルMの正面に固定すればよい。この場合、図11(a)に示すように、視聴者αの両目の中点Pと3次元モデルMの正面Qとが一致しないので、立体像を表示できない。ここで、3次元モデルMの正面Qは、仮想カメラアレイCの中心となる。このため、要素画像生成手段22は、図11(b)に示すように、レンダリングした後の要素画像Eをシフトさせることで、正面視点の要素画像E´を生成する。図11の例では、視点位置である両目の中点Pが3次元モデルMの正面Qの左側なので、その反対の右側に要素画像Eをシフトさせる。なお、要素画像Eのシフトでは、立体像に歪みが生じる場合がある。
<Shifting Element Images>
The elemental image generating means 22B shifts the generated elemental image E to the front of the viewpoint position. The position of the virtual camera array C should be fixed to the front of the three-dimensional model M if only the element image E of the front viewpoint is to be rendered. In this case, as shown in FIG. 11A, the middle point P of both eyes of the viewer α does not match the front face Q of the three-dimensional model M, so a stereoscopic image cannot be displayed. Here, the front face Q of the three-dimensional model M becomes the center of the virtual camera array C. FIG. Therefore, as shown in FIG. 11(b), the elemental image generating means 22 shifts the elemental image E after rendering to generate an elemental image E' of the front viewpoint. In the example of FIG. 11, the midpoint P of both eyes, which is the viewpoint position, is on the left side of the front Q of the three-dimensional model M, so the element image E is shifted to the opposite right side. Note that the shift of the elemental image E may cause distortion in the stereoscopic image.

以下、要素画像Eのシフト値s´の算出方法を説明する。シフト値s´は、正負の値をとる整数であり、単位が画素である。図11(a)に示すように、仮想レンズアレイLと仮想ディスプレイKとの距離F、仮想レンズアレイ座標系における両眼の中点P=[Px,y,、視距離D=|P|とする。なお、距離Fは、仮想レンズアレイLの焦点距離に等しい。このとき、シフト値sは、以下の式(1)で求められる。 A method of calculating the shift value s' of the element image E will be described below. The shift value s' is an integer that takes a positive or negative value, and the unit is a pixel. As shown in FIG. 11A, the distance F between the virtual lens array L and the virtual display K, the midpoint P=[P x, P y, P z ] T of both eyes in the virtual lens array coordinate system, the viewing distance Let D=|P z |. Note that the distance F is equal to the focal length of the virtual lens array L. FIG. At this time, the shift value s is obtained by the following formula (1).

Figure 2022113478000002
Figure 2022113478000002

このシフト値sは、単位が距離であるため、仮想ディスプレイKの画素ピッチPを用いて単位を画素に変換する。従って、シフト値s´は、以下の式(2)で表される。なお、round()は、四捨五入する関数である。 Since the unit of this shift value s is distance, the pixel pitch PP of the virtual display K is used to convert the unit into pixels. Therefore, the shift value s' is represented by the following equation (2). Note that round( ) is a rounding function.

Figure 2022113478000003
Figure 2022113478000003

つまり、要素画像生成手段22Bは、要素画像Eを生成した後、式(1)及び式(2)でシフト値s´を算出し、シフト値s´だけ要素画像Eをシフトさせた要素画像E´を生成する。なお、要素画像生成手段22Bは、x軸方向と同様、要素画像Eをy軸方向にもシフトさせればよい。また、要素画像生成手段22Bは、シフト後に要素画像Eを表示できない場所が発生しないように、大きなサイズの要素画像Eを予め生成するとよい。 That is, after generating the elemental image E, the elemental image generating means 22B calculates the shift value s' using the equations (1) and (2), and shifts the elemental image E by the shift value s'. '. Note that the elemental image generating means 22B may shift the elemental image E in the y-axis direction as well as in the x-axis direction. Also, the element image generating means 22B preferably generates a large-sized element image E in advance so as not to generate a place where the element image E cannot be displayed after the shift.

<3次元モデルの回転>
要素画像生成手段22Bは、視点位置に向けて3次元モデルMを回転させ、回転させた3次元モデルMから要素画像Eを生成する。図12に示すように、要素画像生成手段22Bは、回転前における3次元モデルMの正面Qが両眼の中点Pに向くように3次元モデルMを回転させる。図12の例では、視点位置である両目の中点Pが回転前における3次元モデルMの正面Qの左側なので、その反対の右側を向くように時計回りで3次元モデルMを回転させる。なお、3次元モデルMの回転では、回転角度θが大きい場合、3次元モデルの一部が仮想レンズアレイLのレンズ面から離れてしまい、ボケてしまうことがある。
<Rotation of 3D model>
The element image generating means 22B rotates the three-dimensional model M toward the viewpoint position and generates an element image E from the rotated three-dimensional model M. FIG. As shown in FIG. 12, the element image generating means 22B rotates the three-dimensional model M so that the front face Q of the three-dimensional model M before rotation faces the middle point P of both eyes. In the example of FIG. 12, the midpoint P of both eyes, which is the viewpoint position, is on the left side of the front face Q of the three-dimensional model M before rotation, so the three-dimensional model M is rotated clockwise so that it faces the opposite right side. When the rotation angle θ of the three-dimensional model M is large, part of the three-dimensional model may be separated from the lens surface of the virtual lens array L, resulting in blurring.

ここで、3次元モデルMの回転角度θは、以下の式(3)で求められる。つまり、要素画像生成手段22は、式(3)で回転角度θを算出し、算出した回転角度θだけ回転させた3次元モデルMから要素画像Eを生成すればよい。なお、要素画像生成手段22Bは、y軸方向と同様、3次元モデルMをx軸方向にも回転させればよい。 Here, the rotation angle θ of the three-dimensional model M is obtained by the following formula (3). In other words, the element image generating means 22 should calculate the rotation angle θ using the equation (3) and generate the element image E from the three-dimensional model M rotated by the calculated rotation angle θ. Note that the element image generating means 22B may rotate the three-dimensional model M in the x-axis direction as well as in the y-axis direction.

Figure 2022113478000004
Figure 2022113478000004

なお、インテグラル立体表示システム100Bでは、視点追従による通常の視聴と正面視点固定の視聴とを任意の方法で切り替えることができる。例えば、インテグラル立体表示システム100Bでは、視聴者αが携帯端末1を操作することで、通常の視聴と正面視点固定の視聴とを切り替えてもよい。 Note that, in the integral stereoscopic display system 100B, normal viewing by viewpoint tracking and viewing with a fixed front viewpoint can be switched by an arbitrary method. For example, in the integral stereoscopic display system 100B, the viewer α may operate the mobile terminal 1 to switch between normal viewing and viewing with a fixed front viewpoint.

[作用・効果]
以上のように、インテグラル立体表示システム100Bは、コンテンツの制作者が視聴者αに一番見せたい正面視点の3次元映像を表示できるので、映像表現の幅が広がり、立体映像の臨場感を向上させることができる。
[Action/effect]
As described above, the integral 3D display system 100B can display the 3D image from the front viewpoint that the creator of the content most wants to show to the viewer α. can be improved.

(変形例)
以上、本発明の各実施形態を詳述してきたが、本発明は前記した各実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計変更等も含まれる。
(Modification)
Although the respective embodiments of the present invention have been described in detail above, the present invention is not limited to the above-described respective embodiments, and includes design changes and the like within the scope of the present invention.

視点位置計測処理では、撮影範囲を広くするために広角で撮影することが多く、レンズ歪みの影響が非常に大きくなる。そこで、インテグラル立体表示システムでは、このレンズ歪みを除去することで、両眼の3次元位置の精度を向上させることができる。具体点には、このレンズ歪みを除去するタイミングとしては、顔画像撮影ステップと、顔パーツ検出ステップとが考えられる。レンズ歪みが強く顔エリアを正しく検出できない場合、顔画像撮影ステップでレンズ歪みを検出すればよい。例えば、前記参考文献1に記載の「undistort()関数」を用いて、顔画像全体のレンズ歪みを除去できる。また、顔パーツ検出ステップでは、前記参考文献1に記載の「undistortPoints()関数」を用いることで、顔画像中の点単位でレンズ歪みを除去し、演算処理量を抑制できる。 In viewpoint position measurement processing, wide-angle shooting is often performed in order to widen the shooting range, and the influence of lens distortion becomes very large. Therefore, in the integral stereoscopic display system, by removing this lens distortion, it is possible to improve the accuracy of the three-dimensional positions of both eyes. Specifically, the timing of removing this lens distortion is considered to be the face image photographing step and the face part detection step. If the lens distortion is strong and the face area cannot be detected correctly, the lens distortion may be detected in the face image photographing step. For example, the "undistort( ) function" described in Reference 1 above can be used to remove lens distortion across face images. Further, in the face part detection step, by using the "undistortPoints( ) function" described in Reference 1, lens distortion can be removed for each point in the face image, and the amount of calculation processing can be suppressed.

インテグラル立体表示システムでは、携帯端末のタッチパネル操作をサーバに送信することで、視点位置を変更することなく3次元モデルを様々な角度から閲覧できるようになる。例えば、インテグラル立体表示システムは、ピンチイン・アウトに応じて3次元モデルの拡大又は縮小した後、要素画像を生成すればよい。また、インテグラル立体表示システムでは、上下左右のスワイプに応じて3次元モデルを回転させ後、要素画像を生成すればよい。 In the integral 3D display system, by transmitting the touch panel operation of the mobile terminal to the server, the 3D model can be viewed from various angles without changing the viewpoint position. For example, the integral stereoscopic display system may generate the element images after enlarging or reducing the three-dimensional model according to pinch-in/out. In addition, in an integral stereoscopic display system, element images may be generated after rotating a three-dimensional model according to swiping up, down, left, or right.

1,1A 携帯端末
2,2A サーバ(要素画像生成装置)
10,10A 通信手段
11 撮影手段
12 顔エリア検出手段
13 顔パーツ検出手段
14 表示手段
15 3次元化手段(3次元位置算出手段)
20,20A 通信手段
21 3次元化手段(3次元位置算出手段)
22,22A,22B 要素画像生成手段
90 顔画像
91 顔エリア
92 検出領域
93 顔パーツの画像座標
94 顔パーツの3次元位置
95 両目の3次元位置
100,100A,100B インテグラル立体表示システム
E 要素画像
NW ネットワーク
P 中点
V 多視点画像
1, 1A Mobile terminal 2, 2A Server (element image generation device)
10, 10A communication means 11 imaging means 12 face area detection means 13 face part detection means 14 display means 15 three-dimensionalization means (three-dimensional position calculation means)
20, 20A communication means 21 three-dimensionalization means (three-dimensional position calculation means)
22, 22A, 22B elemental image generating means 90 face image 91 face area 92 detection area 93 face part image coordinates 94 face part three-dimensional position 95 two-eye three-dimensional position 100, 100A, 100B integral stereoscopic display system E element image NW Network P Midpoint V Multi-viewpoint image

Claims (6)

携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を前記携帯端末に表示するインテグラル立体表示システムであって、
前記携帯端末は、
前記人物の顔画像を撮影する撮影手段と、
前記顔画像から前記人物の顔エリアを検出する顔エリア検出手段と、
少なくとも前記人物の両目が含まれる顔パーツの画像座標を前記顔エリアから検出する顔パーツ検出手段と、
前記要素画像生成装置が生成した要素画像を表示する表示手段と、を備え、
前記要素画像生成装置は、
前記顔パーツの画像座標から前記顔パーツの3次元位置を算出する3次元位置算出手段と、
前記顔パーツに含まれる両目の3次元位置を視点位置として、前記要素画像を生成する要素画像生成手段と、を備えることを特徴とするインテグラル立体表示システム。
An integral stereoscopic display system that displays element images generated by an element image generation device on a mobile terminal so as to follow the viewpoint of a person viewing the mobile terminal,
The mobile terminal is
a photographing means for photographing the face image of the person;
face area detection means for detecting the face area of the person from the face image;
face part detection means for detecting image coordinates of a face part including at least both eyes of the person from the face area;
a display means for displaying the element image generated by the element image generation device,
The element image generation device is
3D position calculation means for calculating the 3D position of the face part from the image coordinates of the face part;
and an elemental image generating means for generating the elemental images with the three-dimensional positions of both eyes included in the face parts as viewpoint positions.
携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を前記携帯端末に表示するインテグラル立体表示システムであって、
前記携帯端末は、
前記人物の顔画像を撮影する撮影手段と、
前記顔画像から前記人物の顔エリアを検出する顔エリア検出手段と、
少なくとも前記人物の両目が含まれる顔パーツの画像座標を前記顔エリアから検出する顔パーツ検出手段と、
前記顔パーツの画像座標から前記顔パーツの3次元位置を算出する3次元位置算出手段と、
前記要素画像生成装置が生成した要素画像を表示する表示手段と、を備え、
前記要素画像生成装置は、
前記顔パーツに含まれる3次元位置を視点位置として、前記要素画像を生成する要素画像生成手段、を備えることを特徴とするインテグラル立体表示システム。
An integral stereoscopic display system that displays element images generated by an element image generation device on a mobile terminal so as to follow the viewpoint of a person viewing the mobile terminal,
The mobile terminal is
a photographing means for photographing the face image of the person;
face area detection means for detecting the face area of the person from the face image;
face part detection means for detecting image coordinates of a face part including at least both eyes of the person from the face area;
3D position calculation means for calculating the 3D position of the face part from the image coordinates of the face part;
a display means for displaying the element image generated by the element image generation device,
The element image generation device is
An integral stereoscopic display system, comprising: element image generation means for generating the element image with a three-dimensional position included in the face part as a viewpoint position.
前記顔エリア検出手段は、前フレームの前記顔画像から検出された前記顔エリアの周辺を検出領域として、次フレームの前記顔画像から前記顔エリアを検出することを特徴とする請求項1又は請求項2に記載のインテグラル立体表示システム。 3. The face area detection means detects the face area from the face image of the next frame, using a periphery of the face area detected from the face image of the previous frame as a detection region. Item 3. The integral stereoscopic display system according to item 2. 前記要素画像生成手段は、生成した前記要素画像を前記視点位置の正面までシフトさせることを特徴とする請求項1から請求項3の何れか一項に記載のインテグラル立体表示システム。 4. The integral stereoscopic display system according to any one of claims 1 to 3, wherein the elemental image generating means shifts the generated elemental images to the front of the viewpoint position. 前記要素画像生成手段は、前記視点位置に向けて3次元モデルを回転させ、回転させた前記3次元モデルから前記要素画像を生成することを特徴とする請求項1から請求項3の何れか一項に記載のインテグラル立体表示システム。 4. The element image generating means rotates the three-dimensional model toward the viewpoint position, and generates the element image from the rotated three-dimensional model. The integral stereoscopic display system according to the paragraph. 携帯端末で視聴する人物の視点に追従するように、要素画像生成装置が生成した要素画像を前記携帯端末に表示するインテグラル立体表示方法であって、
前記携帯端末が、前記人物の顔画像を撮影する顔画像撮影ステップと、
前記携帯端末が、前記顔画像から前記人物の顔エリアを検出する顔エリア検出ステップと、
前記携帯端末が、少なくとも前記人物の両目が含まれる顔パーツの画像座標を前記顔エリアから検出する顔パーツ検出ステップと、
前記携帯端末又は前記要素画像生成装置が、前記顔パーツの画像座標から前記顔パーツの3次元位置を算出する3次元位置算出ステップと、
前記要素画像生成装置が、前記顔パーツに含まれる両目の3次元位置を視点位置として、前記要素画像を生成する要素画像生成ステップと、
前記携帯端末が、前記要素画像生成装置が生成した要素画像を表示する要素画像表示ステップと、を備えることを特徴とするインテグラル立体表示方法。
An integral stereoscopic display method for displaying an element image generated by an element image generation device on a mobile terminal so as to follow the viewpoint of a person viewing on the mobile terminal,
a face image capturing step in which the mobile terminal captures a face image of the person;
a face area detection step in which the mobile terminal detects the face area of the person from the face image;
a face part detection step in which the mobile terminal detects image coordinates of a face part including at least both eyes of the person from the face area;
a three-dimensional position calculation step in which the mobile terminal or the element image generation device calculates the three-dimensional position of the face part from the image coordinates of the face part;
an element image generation step in which the element image generation device generates the element image with the three-dimensional positions of both eyes included in the face part as viewpoint positions;
and an element image display step in which the mobile terminal displays the element images generated by the element image generation device.
JP2021009759A 2021-01-25 2021-01-25 Integral stereoscopic display system and method thereof Pending JP2022113478A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021009759A JP2022113478A (en) 2021-01-25 2021-01-25 Integral stereoscopic display system and method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021009759A JP2022113478A (en) 2021-01-25 2021-01-25 Integral stereoscopic display system and method thereof

Publications (1)

Publication Number Publication Date
JP2022113478A true JP2022113478A (en) 2022-08-04

Family

ID=82658019

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021009759A Pending JP2022113478A (en) 2021-01-25 2021-01-25 Integral stereoscopic display system and method thereof

Country Status (1)

Country Link
JP (1) JP2022113478A (en)

Similar Documents

Publication Publication Date Title
US11037365B2 (en) Method, apparatus, medium, terminal, and device for processing multi-angle free-perspective data
KR101944050B1 (en) Capture and render panoramic virtual reality content
US8581961B2 (en) Stereoscopic panoramic video capture system using surface identification and distance registration technique
WO2015081870A1 (en) Image processing method, device and terminal
US9813693B1 (en) Accounting for perspective effects in images
CN104349155B (en) Method and equipment for displaying simulated three-dimensional image
US20080158340A1 (en) Video chat apparatus and method
JP2011090400A (en) Image display device, method, and program
US10074343B2 (en) Three-dimensional image output apparatus and three-dimensional image output method
US20220067974A1 (en) Cloud-Based Camera Calibration
WO2018121401A1 (en) Splicing method for panoramic video images, and panoramic camera
US20140347350A1 (en) Image Processing Method and Image Processing System for Generating 3D Images
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
WO2023169283A1 (en) Method and apparatus for generating binocular stereoscopic panoramic image, device, storage medium, and product
CN109495733B (en) Three-dimensional image reconstruction method, device and non-transitory computer readable storage medium thereof
US11892637B2 (en) Image generation apparatus, head-mounted display, content processing system, and image display method
JP2009175866A (en) Stereoscopic image generation device, its method, and its program
TW202123694A (en) 3d display apparatus and 3D image display method
WO2017118662A1 (en) Spherical virtual reality camera
JP2012133408A (en) Image processing device and program
JP2018033107A (en) Video distribution device and distribution method
TW201824178A (en) Image processing method for immediately producing panoramic images
CN109961395B (en) Method, device and system for generating and displaying depth image and readable medium
CN114513646B (en) Method and device for generating panoramic video in three-dimensional virtual scene
JP2022113478A (en) Integral stereoscopic display system and method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20231204