JP6378794B1 - Image processing apparatus, image processing program, and image processing method - Google Patents

Image processing apparatus, image processing program, and image processing method Download PDF

Info

Publication number
JP6378794B1
JP6378794B1 JP2017032281A JP2017032281A JP6378794B1 JP 6378794 B1 JP6378794 B1 JP 6378794B1 JP 2017032281 A JP2017032281 A JP 2017032281A JP 2017032281 A JP2017032281 A JP 2017032281A JP 6378794 B1 JP6378794 B1 JP 6378794B1
Authority
JP
Japan
Prior art keywords
eye
viewpoint
image
axis
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017032281A
Other languages
Japanese (ja)
Other versions
JP2018137679A (en
Inventor
豪放 小倉
豪放 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2017032281A priority Critical patent/JP6378794B1/en
Application granted granted Critical
Publication of JP6378794B1 publication Critical patent/JP6378794B1/en
Publication of JP2018137679A publication Critical patent/JP2018137679A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)

Abstract

【課題】ジオメトリパイプライン立体視画像生成処理により生成された立体視画像を利用者端末に表示させる場合に、利用者端末が正面方向から左右方向を向いたときに生じる、左眼対応カメラと右眼対応カメラとの間の視差の減少を抑制する。
【解決手段】視点設定部56は、ユーザ端末16の向きに基づいて、ワールド座標系内の左眼対応立体モデル74Lに対する左眼視点、及び、ワールド座標系内の右眼対応立体モデル74Rに対する右眼視点を設定する。これにより、左眼視点及び右眼視点それぞれに対して、視線方向をZ軸負方向、上方ベクトルの向きをY軸正方向、Z軸及びY軸に対して右手系を構成する向き方向をX軸正方向とするビュー座標系が定義される。視点補正部58は、左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させる。
【選択図】図5
When a stereoscopic image generated by a geometry pipeline stereoscopic image generation process is displayed on a user terminal, a left-eye compatible camera and a right that are generated when the user terminal faces in the left-right direction from the front direction. Suppresses the reduction in parallax with the eye-compatible camera.
A viewpoint setting unit 56 determines a left-eye viewpoint for a left-eye corresponding stereo model 74L in the world coordinate system and a right for a right-eye corresponding stereo model 74R in the world coordinate system based on the orientation of the user terminal 16. Set the eye viewpoint. Thus, for each of the left eye viewpoint and the right eye viewpoint, the line-of-sight direction is the Z-axis negative direction, the direction of the upper vector is the Y-axis positive direction, and the direction direction constituting the right-handed system with respect to the Z-axis and Y-axis is X A view coordinate system with a positive axis is defined. The viewpoint correction unit 58 moves the left eye viewpoint in the XVL axis negative direction in the left eye view coordinate system, and moves the right eye viewpoint in the X VR axis positive direction in the right eye view coordinate system.
[Selection] Figure 5

Description

本発明は、画像処理装置、画像処理プログラム、及び、画像処理方法に関する。   The present invention relates to an image processing apparatus, an image processing program, and an image processing method.

人間の左右の眼は異なる位置にある(所定距離離れている)ため、左右の眼で得られる像が僅かに異なる。この左右の眼で得られる像の差異によって、人間は立体感を得ることができる。左右の眼で得られる像の差異は、両眼視差と呼ばれる。   Since the left and right eyes of a human are at different positions (a predetermined distance apart), the images obtained with the left and right eyes are slightly different. Due to the difference between the images obtained by the left and right eyes, a human can obtain a stereoscopic effect. The difference between the images obtained by the left and right eyes is called binocular parallax.

従来、両眼視差を模擬して、鑑賞者が立体感を得ることのできる画像(以下「立体視画像」と記載する)を提供するシステムが提案されている(例えば特許文献1)。具体的には、左眼対応カメラと右眼対応カメラを所定距離離して設置し、左眼対応カメラで左眼対応画像を撮像し、右眼対応カメラで右眼対応画像を撮像するシステムが提案されている。両カメラ間の所定距離は人間の両眼の間隔に基づいて決定される。左眼対応カメラと右眼対応カメラは所定距離離して設置されていることから、左眼対応カメラと右眼対応カメラとの間に視差が生じ、その結果、左眼対応画像と右眼対応画像とでは、当該視差に応じて僅かに異なる画像になる。そして、左眼対応画像と右眼対応画像とを結合して立体視画像が生成される。立体視画像としては様々な態様が提案されている。例えば、左眼対応画像と右眼対応画像が交互に表示されるもの、水平方向の1ラインおきに左眼対応画像と右眼対応画像の各ラインが交互に配置されたもの、あるいは左眼対応画像と右眼対応画像が並列に並べられたものなどである。このような立体視画像に対して、利用者は、左眼対応画像を左眼で見るようにし、右眼対応画像を右眼で見るようにすることで、立体感を得ることができる。   Conventionally, a system that simulates binocular parallax and provides an image (hereinafter referred to as “stereoscopic image”) that allows a viewer to obtain a stereoscopic effect has been proposed (for example, Patent Document 1). Specifically, a system has been proposed in which a left-eye camera and a right-eye camera are installed at a predetermined distance, a left-eye camera is used to capture a left-eye camera, and a right-eye camera is used to capture a right-eye camera. Has been. The predetermined distance between the two cameras is determined based on the distance between the human eyes. Since the left-eye compatible camera and the right-eye compatible camera are installed at a predetermined distance, a parallax occurs between the left-eye compatible camera and the right-eye compatible camera. As a result, the left-eye compatible image and the right-eye compatible image Then, the image is slightly different depending on the parallax. Then, the stereoscopic image is generated by combining the left eye corresponding image and the right eye corresponding image. Various modes have been proposed for stereoscopic images. For example, left-eye corresponding image and right-eye corresponding image are displayed alternately, left-eye corresponding image and right-eye corresponding image are alternately arranged every other horizontal line, or left-eye compatible For example, the image and the right eye corresponding image are arranged in parallel. For such a stereoscopic image, the user can obtain a stereoscopic effect by viewing the left eye corresponding image with the left eye and viewing the right eye corresponding image with the right eye.

特開2002−232913号公報Japanese Patent Laid-Open No. 2002-232913

左眼対応画像及び右眼対応画像に基づいて生成された立体視画像を、鑑賞者(利用者)が利用する利用者端末に表示させるシステムが考えられる。利用者端末としては、例えば、タブレット端末やHMD(Head Mounted Display)などが考えられる。このようなシステムによれば、例えば、アーティストのライブを左眼対応カメラ及び右眼対応カメラで撮影し、得られた左眼対応画像及び右眼対応画像に基づく立体視画像であるライブ映像を利用者端末に表示させることで、利用者は、当該アーティストのライブ映像を立体感を得ながら観賞することができる。   A system is conceivable in which a stereoscopic image generated based on the left-eye corresponding image and the right-eye corresponding image is displayed on a user terminal used by a viewer (user). As the user terminal, for example, a tablet terminal or an HMD (Head Mounted Display) can be considered. According to such a system, for example, a live image of an artist is shot with a left-eye compatible camera and a right-eye compatible camera, and a live image that is a stereoscopic image based on the obtained left-eye compatible image and right-eye compatible image is used. By displaying it on the person terminal, the user can view the live video of the artist while obtaining a stereoscopic effect.

このようなシステムにおいては、利用者がVR(Virtual Reality)をより感じられるよう、以下のような処理が行うことが考えられる。まず、左眼対応カメラ及び右眼対応カメラで撮像された各画像が、一旦、ワールド座標系において定義される立体モデルに投影される。これにより左眼対応画像と右眼対応画像にそれぞれ対応する2つの立体画像モデルが生成される。その上で、ワールド座標系において、左眼対応の立体画像モデルに対する左眼視点が設定され、また、右眼対応の立体画像モデルに対する右眼視点が設定される。ここで、各視点から各立体画像モデルへの視線方向は、利用者端末の向きに応じて設定される。そして、設定された各視点及び視線方向に基づいて、各立体画像モデルが2次元投影されることで、処理済の左眼対応画像と右眼対応画像が得られる。この処理済左眼対応画像及び処理済右眼対応画像とに基づいて、立体視画像が生成される。本明細書では、上記のような一連の処理を「ジオメトリパイプライン立体視画像生成処理」と呼ぶ。   In such a system, the following processing may be performed so that the user can feel VR (Virtual Reality) more. First, each image captured by the left-eye compatible camera and the right-eye compatible camera is once projected onto a three-dimensional model defined in the world coordinate system. Accordingly, two stereoscopic image models corresponding to the left eye corresponding image and the right eye corresponding image are generated. In addition, in the world coordinate system, the left eye viewpoint for the stereoscopic image model corresponding to the left eye is set, and the right eye viewpoint for the stereoscopic image model corresponding to the right eye is set. Here, the line-of-sight direction from each viewpoint to each stereoscopic image model is set according to the orientation of the user terminal. Then, each stereoscopic image model is two-dimensionally projected based on each set viewpoint and line-of-sight direction, thereby obtaining a processed left-eye corresponding image and right-eye corresponding image. A stereoscopic image is generated based on the processed left eye corresponding image and the processed right eye corresponding image. In the present specification, a series of processes as described above is referred to as “geometry pipeline stereoscopic image generation process”.

ジオメトリパイプライン立体視画像生成処理によれば、利用者端末の向きに応じて、利用者端末に表示される立体視画像を変化させることができる。例えば、利用者端末が正面を向いているときは、各立体画像モデルの正面領域(つまり左眼対応カメラ及び右眼対応カメラの正面方向からの入射光により撮像された画像領域)が表示され、利用者が利用者端末を右側へ向けると、各立体画像モデルの右側領域(つまり左眼対応カメラ及び右眼対応カメラの右側方向からの入射光により撮像された画像領域)が表示される。しかも、利用者はそれらの画像を立体感を感じながら見ることができる。これにより、利用者は、あたかも画像が撮像された場所(例えばライブ会場)にいるような感覚を得ることができる。   According to the geometry pipeline stereoscopic image generation process, the stereoscopic image displayed on the user terminal can be changed according to the orientation of the user terminal. For example, when the user terminal is facing the front, the front area of each stereoscopic image model (that is, the image area captured by the incident light from the front direction of the left-eye compatible camera and the right-eye compatible camera) is displayed. When the user turns the user terminal to the right side, the right region of each stereoscopic image model (that is, the image region captured by the incident light from the right direction of the left-eye compatible camera and the right-eye compatible camera) is displayed. Moreover, the user can view these images while feeling a three-dimensional effect. As a result, the user can feel as if he / she is at the place where the image was captured (for example, a live venue).

上述の通り、利用者が立体視画像から立体感を得られるのは、左眼対応カメラと右眼対応カメラとの間に視差があるからである。しかしながら、ジオメトリパイプライン立体視画像生成処理においては、利用者が左右方向に利用者端末を向けて、各立体画像モデルの左右側領域を表示させた場合、左眼対応カメラと右眼対応カメラとの間の視差が小さくなるという問題が生じる。これにより、左右側領域においては、利用者が得ることのできる立体感が減少するという問題が生じる。図17を参照して、当該問題について説明する。   As described above, the user can obtain a stereoscopic effect from the stereoscopic image because there is a parallax between the left-eye compatible camera and the right-eye compatible camera. However, in the geometry pipeline stereoscopic image generation process, when the user points the user terminal in the left-right direction and displays the left and right regions of each stereoscopic image model, the left-eye compatible camera, the right-eye compatible camera, There arises a problem that the parallax between the two becomes small. Thereby, in the left and right side regions, there arises a problem that the stereoscopic effect that the user can obtain decreases. The problem will be described with reference to FIG.

図17には、水平面であるxy平面において所定距離d離れて設置された左眼対応レンズと右眼対応レンズが示されている。上述のように、dは人間の左眼と右眼の間隔に基づいて設定される。図17に示される通り、各レンズから正面を見るときは、各レンズからの視線方向が正面方向(x軸に平行)となる。このとき、左眼対応レンズと右眼対応レンズとの間の視差は、両レンズ間の間隔、すなわちdといえる。一方、利用者端末が左右方向に向けられ、各立体画像モデルの左右側領域(これは左眼対応カメラ及び右眼対応カメラの撮像領域の左右側領域でもある)が利用者端末に表示される場合を考えると、その場合であっても、左眼対応レンズ及び右眼対応レンズの向きは一定(正面向き)であることから、各レンズからの視線方向は、正面方向に対して角度を有することになる。例えば、図17に示すように、各レンズから右側方向を見る場合、各レンズからの視線方向は正面方向(x軸方向)から角度(90−φ)、真横方向(y軸方向)から角度φを持った方向となる。これにより、図17に示される通り、左眼対応レンズと右眼対応レンズとの間の視差は、両レンズ間の間隔dよりも小さいd’となってしまう。具体的には、d’=dsinφとなる。このように、利用者が利用者端末を左右に向けて、各立体画像モデルの左右側領域を見ようとすると、左眼対応レンズと右眼対応レンズとの間の視差が小さくなってしまう。   FIG. 17 shows a left-eye correspondence lens and a right-eye correspondence lens that are installed at a predetermined distance d apart in the xy plane that is a horizontal plane. As described above, d is set based on the distance between the human left eye and right eye. As shown in FIG. 17, when viewing the front from each lens, the line-of-sight direction from each lens is the front direction (parallel to the x-axis). At this time, the parallax between the left-eye corresponding lens and the right-eye corresponding lens can be said to be an interval between both lenses, that is, d. On the other hand, the user terminal is directed in the left-right direction, and the left and right regions of each stereoscopic image model (this is also the left and right regions of the imaging regions of the left-eye camera and the right-eye camera) are displayed on the user terminal. Considering the case, even in that case, the direction of the left-eye corresponding lens and the right-eye corresponding lens is constant (front direction), so the line-of-sight direction from each lens has an angle with respect to the front direction. It will be. For example, as shown in FIG. 17, when viewing the right direction from each lens, the viewing direction from each lens is an angle (90-φ) from the front direction (x-axis direction) and an angle φ from the true lateral direction (y-axis direction). It becomes the direction with Accordingly, as shown in FIG. 17, the parallax between the left-eye corresponding lens and the right-eye corresponding lens becomes d ′ smaller than the distance d between both the lenses. Specifically, d ′ = dsinφ. Thus, when the user turns the user terminal to the left and right and looks at the left and right regions of each stereoscopic image model, the parallax between the left-eye corresponding lens and the right-eye corresponding lens becomes small.

本発明の目的は、ジオメトリパイプライン立体視画像生成処理により生成された立体視画像を利用者端末に表示させる場合に、利用者端末が正面方向から左右方向を向いたときに生じる、左眼対応カメラと右眼対応カメラとの間の視差の減少を抑制することにある。   An object of the present invention is to support a left eye that occurs when a user terminal faces in the left-right direction from the front direction when displaying a stereoscopic image generated by the geometry pipeline stereoscopic image generation process on the user terminal. The object is to suppress a decrease in parallax between the camera and the right-eye camera.

本発明は、所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を生成する画像処理装置であって、前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリング部と、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す右眼上方ベクトルの向きを設定する視点設定部と、前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正部と、補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済眼対応画像を生成する投影変換部と、を備えることを特徴とする画像処理装置である。 The present invention processes images from a left-eye compatible camera and a right-eye compatible camera installed so as to face the same direction at a predetermined distance, and generates an image to be displayed on a user terminal used by the user. An image processing apparatus, wherein a left-eye corresponding image captured by the left-eye compatible camera and a right-eye corresponding image captured by the right-eye compatible camera are each projected and converted into a three-dimensional model in a world coordinate system Based on the modeling unit that builds the left-eye corresponding stereo model and the right-eye corresponding stereo model, and the orientation of the user terminal, in the world coordinate system, the position of the left-eye viewpoint with respect to the left-eye corresponding stereo model, the left eye Set the direction of the left eye gaze direction that is the viewpoint direction from the viewpoint and the direction of the upper left eye vector that indicates the upward direction of the left eye viewpoint, and based on the direction of the user terminal, the world coordinate system The right eye viewpoint position relative to the right eye corresponding stereo model, the right eye gaze direction that is the viewpoint direction from the right eye viewpoint, and the direction of the right eye upper vector indicating the upward direction of the right eye viewpoint are set. When the orientation of the viewpoint setting unit and the user terminal is directed from the front direction determined by calibration in the left-right direction, the direction opposite to the left eye gaze direction is set as the ZVL axis positive direction, and the left the orientation of the eye upward vector and Y VL-axis positive direction, the Z VL-axis and Y VL X VL-axis negative direction in the left-eye view coordinate system is orientation X VL-axis positive direction constituting a right-hand system relative axis The left eye viewpoint is moved, the direction opposite to the right eye line-of-sight direction is the Z VR axis positive direction, the right eye upper vector direction is the Y VR axis positive direction, and the Z VR axis and the Y VR axis are For the right hand system By causing orientation moves the right eye viewpoint the X VR-axis positive direction in the right-eye view coordinate system is X VR-axis positive direction, and the viewpoint correction unit for correcting the position of the left eye viewpoint and the right eye viewpoint, Based on the corrected position of the left eye viewpoint, the left eye gaze direction, and the direction of the left eye upper vector, a processed left eye correspondence image is generated by two-dimensionally projecting the left eye correspondence stereo model. Based on the corrected position of the right eye viewpoint, the right eye gaze direction, and the direction of the right eye upper vector, the processed right eye corresponding image is generated by two-dimensionally projecting the right eye corresponding stereo model An image processing apparatus comprising: a projection conversion unit configured to perform the projection conversion.

望ましくは、前記視点補正部は、前記所定距離と、前記利用者端末の向きに応じて演算される前記左眼対応カメラと前記右眼対応カメラとの間の視差との差の半分である補正距離に応じた距離分、前記左眼視点及び前記右眼視点の位置を移動させる、ことを特徴とする。   Preferably, the viewpoint correction unit is a correction that is half of the difference between the predetermined distance and the parallax between the left-eye compatible camera and the right-eye compatible camera calculated according to the orientation of the user terminal. The positions of the left eye viewpoint and the right eye viewpoint are moved by a distance corresponding to the distance.

望ましくは、前記モデリング部は、前記左眼対応立体モデルにおける、前記左眼対応カメラの撮像対象の像が描画された描画領域のうち、前記左眼対応カメラの撮像対象の像が描画されていない無描画領域側の境界領域において、当該無描画領域へ向かって描画像を徐々に透過させる処理を行い、前記右眼対応立体モデルにおける、前記右眼対応カメラの撮像対象の像が描画された描画領域のうち、前記右眼対応カメラの撮像対象の像が描画されていない無描画領域側の境界領域において、当該無描画領域へ向かって描画像を徐々に透過させる処理を行う、ことを特徴とする。   Preferably, the modeling unit does not draw an image of the imaging target of the left-eye corresponding camera in a rendering area in which the image of the imaging target of the left-eye corresponding camera is drawn in the left-eye corresponding stereo model. A drawing in which a drawing image is drawn in the right-eye corresponding model in the right-eye corresponding stereo model by performing a process of gradually transmitting the drawing image toward the non-drawing area in the border area on the non-drawing area side. A process of gradually transmitting the drawn image toward the non-drawing area in a boundary area on the non-drawing area side where the image of the imaging target of the right-eye compatible camera is not drawn among the areas is characterized in that To do.

また、本発明は、所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を生成するコンピュータを、前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリング部と、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す右眼上方ベクトルの向きを設定する視点設定部と、前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正部と、補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済眼対応画像を生成する投影変換部と、として機能させることを特徴とする画像処理プログラムである。 Further, the present invention processes images from a left-eye compatible camera and a right-eye compatible camera that are installed so as to face the same direction at a predetermined distance, and displays an image to be displayed on a user terminal used by the user. The computer for generating the left eye corresponding image captured by the left eye corresponding camera and the right eye corresponding image captured by the right eye corresponding camera is projected and converted into a three-dimensional model, respectively, and the left eye in the world coordinate system Based on the modeling unit for constructing the corresponding stereo model and the stereo model corresponding to the right eye, and the orientation of the user terminal, in the world coordinate system, the position of the left eye viewpoint relative to the left eye corresponding stereo model, from the left eye viewpoint Set the direction of the left eye line-of-sight direction, and the direction of the upper left eye vector indicating the upper direction of the left eye viewpoint, and based on the direction of the user terminal, the world coordinate system The right eye viewpoint position relative to the right eye corresponding stereo model, the right eye gaze direction that is the viewpoint direction from the right eye viewpoint, and the direction of the right eye upper vector indicating the upward direction of the right eye viewpoint are set. When the orientation of the viewpoint setting unit and the user terminal is directed from the front direction determined by calibration in the left-right direction, the direction opposite to the left eye gaze direction is set as the ZVL axis positive direction, and the left the orientation of the eye upward vector and Y VL-axis positive direction, the Z VL-axis and Y VL X VL-axis negative direction in the left-eye view coordinate system is orientation X VL-axis positive direction constituting a right-hand system relative axis The left eye viewpoint is moved, the direction opposite to the right eye line-of-sight direction is the Z VR axis positive direction, the right eye upper vector direction is the Y VR axis positive direction, and the Z VR axis and the Y VR axis are For the right hand system By causing orientation moves the right eye viewpoint the X VR-axis positive direction in the right-eye view coordinate system is X VR-axis positive direction, and the viewpoint correction unit for correcting the position of the left eye viewpoint and the right eye viewpoint, Based on the corrected position of the left eye viewpoint, the left eye gaze direction, and the direction of the left eye upper vector, a processed left eye correspondence image is generated by two-dimensionally projecting the left eye correspondence stereo model. Based on the corrected position of the right eye viewpoint, the right eye gaze direction, and the direction of the right eye upper vector, the processed right eye corresponding image is generated by two-dimensionally projecting the right eye corresponding stereo model An image processing program that functions as a projection conversion unit.

また、本発明は、所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を生成する画像処理方法であって、前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリングステップと、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す右眼上方ベクトルの向きを設定する視点設定ステップと、前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正ステップと、補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済眼対応画像を生成する投影変換ステップと、を備えることを特徴とする画像処理方法である。 Further, the present invention processes images from a left-eye compatible camera and a right-eye compatible camera that are installed so as to face the same direction at a predetermined distance, and displays an image to be displayed on a user terminal used by the user. An image processing method to be generated, wherein a left-eye corresponding image captured by the left-eye compatible camera and a right-eye corresponding image captured by the right-eye compatible camera are each projected and converted into a three-dimensional model, and world coordinates A modeling step of constructing a left-eye corresponding stereo model and a right-eye corresponding stereo model in the system, and the position of the left-eye viewpoint with respect to the left-eye corresponding stereo model in the world coordinate system, based on the orientation of the user terminal, The direction of the left eye gaze direction that is the viewpoint direction from the left eye viewpoint and the direction of the upper left eye vector that indicates the upward direction of the left eye viewpoint are set, and the work direction is determined based on the orientation of the user terminal. In a coordinate system, the position of the right eye viewpoint relative to the right eye corresponding stereo model, the right eye gaze direction that is the viewpoint direction from the right eye viewpoint, and the direction of the right eye upper vector indicating the upward direction of the right eye viewpoint A viewpoint setting step, and when the orientation of the user terminal is directed from the front direction determined by calibration to the left-right direction, the direction opposite to the left-eye line-of-sight direction is defined as the ZVL axis positive direction. the orientation of the left eye upward vector and Y VL-axis positive direction, the Z VL-axis and X VL axis in the left-eye view coordinate system is orientation X VL-axis positive direction constituting a right-handed with respect to Y VL axis The left eye viewpoint is moved in the negative direction, the direction opposite to the right eye line-of-sight direction is the Z VR axis positive direction, the right eye upper vector direction is the Y VR axis positive direction, and the Z VR axis and Y versus the VR-axis Constituting the right-hand system Te orientation by moving the right eye viewpoint the X VR-axis positive direction in the right-eye view coordinate system is X VR-axis positive direction, it corrects the position of the left eye viewpoint and the right eye viewpoint The left-eye corresponding stereo model and two-dimensional projection of the left-eye corresponding stereo model based on the corrected left-eye viewpoint position, the left-eye gaze direction, and the left-eye upper vector direction. Generated an eye-corresponding image and processed by two-dimensionally projecting the right-eye corresponding stereo model based on the corrected position of the right-eye viewpoint, the right-eye gaze direction, and the direction of the right-eye upper vector A projection conversion step of generating a right- eye corresponding image.

本発明によれば、ジオメトリパイプライン立体視画像生成処理により生成された立体視画像を利用者端末に表示させる場合に、利用者端末が正面方向から左右方向を向いたときに生じる、左眼対応カメラと右眼対応カメラとの間の視差の減少を抑制することができる。   According to the present invention, when the stereoscopic image generated by the geometry pipeline stereoscopic image generation process is displayed on the user terminal, the left-eye response that occurs when the user terminal faces the left-right direction from the front direction is generated. Reduction in parallax between the camera and the right-eye camera can be suppressed.

本実施形態に係る立体視画像提供システムの構成概略図である。1 is a schematic configuration diagram of a stereoscopic image providing system according to an embodiment. 左眼対応カメラ及び右眼対応カメラの構成概略図である。It is the structure schematic of a left eye corresponding camera and a right eye corresponding camera. 左眼対応カメラの魚眼レンズと右眼対応カメラの魚眼レンズとの間隔を示す図である。It is a figure which shows the space | interval of the fisheye lens of a left-eye corresponding camera, and the fisheye lens of a right-eye corresponding camera. 画像配信サーバの構成概略図である。1 is a schematic configuration diagram of an image distribution server. ユーザ端末の構成概略図である。It is a structure schematic diagram of a user terminal. ユーザ端末に立体視画像が表示される様子を示す図である。It is a figure which shows a mode that a stereoscopic vision image is displayed on a user terminal. 球状立体モデルの例を示す概念図である。It is a conceptual diagram which shows the example of a spherical solid model. 魚眼レンズへの入射角と魚眼画像における位置との対応関係を示す図である。It is a figure which shows the correspondence of the incident angle to a fisheye lens, and the position in a fisheye image. 球状立体モデルへの左眼対応画像の投影処理の様子を示す概念図である。It is a conceptual diagram which shows the mode of the projection process of the image corresponding to the left eye to a spherical solid model. 左眼対応立体モデルの描画領域に対する処理内容を示す概念図である。It is a conceptual diagram which shows the processing content with respect to the drawing area | region of the left-eye corresponding | compatible stereo model. ワールド座標系において設定された左眼視点を示す概念図である。It is a conceptual diagram which shows the left eye viewpoint set in the world coordinate system. ユーザ端末が左右方向に向けられる様子を示す図である。It is a figure which shows a mode that a user terminal is pointed in the left-right direction. ユーザ端末が左右方向に向けられたときの視差補正距離Δdを示す図である。It is a figure which shows parallax correction distance (DELTA) d when a user terminal is faced in the left-right direction. 左眼視点の位置が補正される様子を示す概念図である。It is a conceptual diagram which shows a mode that the position of a left eye viewpoint is correct | amended. 右眼視点の位置が補正される様子を示す概念図である。It is a conceptual diagram which shows a mode that the position of a right eye viewpoint is correct | amended. 本実施形態に係るユーザ端末の処理の流れを示すフローチャートである。It is a flowchart which shows the flow of a process of the user terminal which concerns on this embodiment. ユーザ端末が左右方向に向けられたときに両レンズ間の視差が減少する様子を示す図である。It is a figure which shows a mode that the parallax between both lenses reduces, when a user terminal is faced in the left-right direction.

以下、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described.

図1に、本実施形態に係る立体視画像提供システム10の構成概略図が示されている。立体視画像提供システム10は、左眼対応カメラ12L、右眼対応カメラ12R、画像配信サーバ14、及び利用者端末としてのユーザ端末16を含んで構成されている。左眼対応カメラ12L及び右眼対応カメラ12Rと画像配信サーバ14との間、並びに、画像配信サーバ14とユーザ端末16との間は、通信回線18を介して互いに通信可能に接続されている。通信回線18は、例えばインターネット、ローカルエリアネットワーク(LAN)、あるいは近距離無線通信などによって構成される。   FIG. 1 shows a schematic configuration diagram of a stereoscopic image providing system 10 according to the present embodiment. The stereoscopic image providing system 10 includes a left-eye compatible camera 12L, a right-eye compatible camera 12R, an image distribution server 14, and a user terminal 16 as a user terminal. The left-eye compatible camera 12L, the right-eye compatible camera 12R, and the image distribution server 14, and the image distribution server 14 and the user terminal 16 are connected to be communicable with each other via a communication line 18. The communication line 18 is configured by, for example, the Internet, a local area network (LAN), or near field communication.

立体視画像提供システム10においては、左眼対応カメラ12L及び右眼対応カメラ12Rで撮像した左眼対応画像及び右眼対応画像(動画含む)が一旦画像配信サーバ14へ格納された後、ユーザ端末16からの要求に応じて、画像配信サーバ14から左眼対応画像及び右眼対応画像がユーザ端末16へ送信される。そして、ユーザ端末16の表示部に、左眼対応画像及び右眼対応画像に基づく立体視画像が表示される。これにより利用者としてのユーザは立体感のある画像を閲覧することができる。詳細は後述するが、立体視画像提供システム10において利用者に提供される立体視画像は、ジオメトリパイプライン立体視画像生成処理によって生成される。なお、立体視画像提供システム10により提供される立体視画像の内容(コンテンツ)は、例えばアーティストやアイドルのライブ映像であるが、これらに限定されるものではない。   In the stereoscopic image providing system 10, after the left-eye corresponding image and the right-eye corresponding image (including moving images) captured by the left-eye corresponding camera 12L and the right-eye compatible camera 12R are temporarily stored in the image distribution server 14, the user terminal In response to a request from 16, the image distribution server 14 transmits a left-eye corresponding image and a right-eye corresponding image to the user terminal 16. Then, a stereoscopic image based on the left-eye corresponding image and the right-eye corresponding image is displayed on the display unit of the user terminal 16. As a result, a user as a user can browse a stereoscopic image. Although details will be described later, the stereoscopic image provided to the user in the stereoscopic image providing system 10 is generated by the geometry pipeline stereoscopic image generation process. Note that the content (content) of the stereoscopic image provided by the stereoscopic image providing system 10 is, for example, an artist or idol live video, but is not limited thereto.

図2(a)には、左眼対応カメラ12Lの構成概略図が示されている。   FIG. 2A shows a schematic configuration diagram of the left-eye camera 12L.

左眼対応カメラ12Lは魚眼レンズ20Lを備えており、つまり左眼対応カメラ12Lは魚眼カメラである。魚眼レンズ20Lは、半球状の凸レンズを有しており、当該凸レンズによって、撮像対象を平面でなく球面で捕らえることを可能としたレンズである。魚眼レンズは一般的に画角が広いため、1つのレンズで向きを固定した場合であっても撮像領域を比較的広範囲とすることができる。本実施形態における魚眼レンズ20Lは、230°の画角を有している。なお、魚眼レンズには、様々な射影方式が知られているが、本実施形態における魚眼レンズ20Lは、等立体角射影が採用されたものである。ただし、魚眼レンズ20Lとしては、その他の射影方式(例えば正射影、等距離射影、あるいは立体射影)が採用されたものであってもよい。   The left-eye compatible camera 12L includes a fisheye lens 20L, that is, the left-eye compatible camera 12L is a fisheye camera. The fish-eye lens 20L has a hemispherical convex lens, and the convex lens allows the imaging target to be captured with a spherical surface instead of a flat surface. Since a fisheye lens generally has a wide angle of view, the imaging region can be made relatively wide even when the orientation is fixed by one lens. The fisheye lens 20L in the present embodiment has an angle of view of 230 °. Various projection methods are known for the fisheye lens, but the fisheye lens 20L in the present embodiment employs an equisolid angle projection. However, the fish-eye lens 20L may employ another projection method (for example, orthographic projection, equidistant projection, or three-dimensional projection).

撮像素子22Lは、例えばCCD(Charge Coupled Device)イメージセンサなどから構成される。撮像素子22Lは、2次元配列された複数の受光素子を有している。複数の受光素子は、生成される左眼対応画像の各画素に対応するものである。撮像素子22Lが有する複数の受光素子は、魚眼レンズ20Lに入射した光を受けて、受けた光を電気信号に変換する。魚眼レンズ20Lへの光の入射角に応じて、当該光を受信する受光素子が決定される。本実施形態においては、撮像素子22Lの各受光素子は、光を受信することで、当該光に応じてR(赤)、G(緑)、B(青)の各値を有する画素値に変換する。撮像素子22Lにより上述の処理が行われることで、2次元画像である左眼対応画像が形成される。   The image sensor 22L is constituted by, for example, a CCD (Charge Coupled Device) image sensor. The image sensor 22L has a plurality of light receiving elements arranged two-dimensionally. The plurality of light receiving elements correspond to the respective pixels of the generated left eye corresponding image. The plurality of light receiving elements included in the imaging element 22L receive the light incident on the fisheye lens 20L and convert the received light into an electrical signal. The light receiving element that receives the light is determined according to the incident angle of the light to the fisheye lens 20L. In the present embodiment, each light receiving element of the image sensor 22L receives light and converts it into pixel values having R (red), G (green), and B (blue) values according to the light. To do. When the above-described processing is performed by the image sensor 22L, a left-eye corresponding image that is a two-dimensional image is formed.

通信部24Lは、例えばネットワークアダプタなどから構成される。通信部24Lはいわゆる通信インターフェースであり、通信回線18を介して、画像配信サーバ14に左眼対応画像を送信する機能を備えている。通信部24Lは、無線通信機能を備えた通信インターフェースであってもよいし、有線通信機能を備えた通信インターフェースであってもよい。   The communication unit 24L is composed of, for example, a network adapter. The communication unit 24L is a so-called communication interface and has a function of transmitting a left-eye compatible image to the image distribution server 14 via the communication line 18. The communication unit 24L may be a communication interface having a wireless communication function or a communication interface having a wired communication function.

図2(b)には、右眼対応カメラ12Rの構成概略図が示されている。右眼対応カメラ12Rは、右眼対応画像を生成して画像配信サーバ14へ送信するものである。右眼対応カメラ12Rが有する各部の構成及び機能は、左眼対応カメラ12Lが有する各部と同様であるため、説明は省略する。   FIG. 2B shows a schematic configuration diagram of the right-eye compatible camera 12R. The right-eye compatible camera 12 </ b> R generates a right-eye compatible image and transmits it to the image distribution server 14. Since the configuration and function of each unit included in the right-eye compatible camera 12R are the same as those included in the left-eye compatible camera 12L, description thereof will be omitted.

図3には、左眼対応カメラ12Lが備える魚眼レンズ20Lと、右眼対応カメラ12Rが備える魚眼レンズ20Rの位置関係が示されている。図3は平面視であり、魚眼レンズ20L及び20Rは、実空間座標系の水平面であるXR1R1平面において所定距離d離して設置されている。詳しくは、所定距離dは、魚眼レンズ20Lの中心と、魚眼レンズ20Rの中心との間の距離である。所定距離dは、人間の左眼と右眼の間隔に基づいて決定されており、本実施形態では64mmに設定されている。魚眼レンズ20L及び20Rは同じ方向を向くように設置されている。本実施形態では、魚眼レンズ20L及び20Rは、いずれもXR1軸に沿った水平方向に向けられている。本明細書においては、魚眼レンズ20LからXR1軸正方向に向かう方向、及び魚眼レンズ20RからXR1軸正方向に向かう方向を「正面方向」と記載する。また、YR1軸方向を「左右方向」と記載する。 FIG. 3 shows the positional relationship between the fisheye lens 20L included in the left-eye compatible camera 12L and the fisheye lens 20R included in the right-eye compatible camera 12R. FIG. 3 is a plan view, and the fish-eye lenses 20L and 20R are installed at a predetermined distance d apart on the X R1 Y R1 plane, which is the horizontal plane of the real space coordinate system. Specifically, the predetermined distance d is a distance between the center of the fisheye lens 20L and the center of the fisheye lens 20R. The predetermined distance d is determined based on the distance between the human left eye and right eye, and is set to 64 mm in this embodiment. The fisheye lenses 20L and 20R are installed so as to face the same direction. In the present embodiment, the fisheye lenses 20L and 20R are both oriented in the horizontal direction along the XR1 axis. In this specification, a direction from the fish-eye lens 20L to X R1 axial positive direction, and the direction from the fish-eye lens 20R to X R1 axial positive direction is referred to as a "front direction". The YR1 axis direction is referred to as “left-right direction”.

上述の通り、魚眼レンズ20L及び20Rは画角が230°であるから、魚眼レンズ20Lの正面方向を中心とした左右、上下、及び斜め方向の230°が魚眼レンズ20Lの撮像領域である。魚眼レンズ20Rについても同様である。   As described above, since the fisheye lenses 20L and 20R have an angle of view of 230 °, the imaging region of the fisheye lens 20L is 230 ° in the left, right, top, bottom, and diagonal directions centered on the front direction of the fisheye lens 20L. The same applies to the fisheye lens 20R.

図4に、画像配信サーバ14の構成概略図が示されている。画像配信サーバ14は、以下に説明する機能を発揮するコンピュータであればどのような装置であってもよい。   FIG. 4 shows a schematic configuration diagram of the image distribution server 14. The image distribution server 14 may be any device as long as it is a computer that exhibits the functions described below.

通信部30は、例えばネットワークアダプタなどから構成される。通信部30は、通信回線18を介して、左眼対応カメラ12Lから左眼対応画像を、右眼対応カメラ12Rから右眼対応画像をそれぞれ受信する機能を有する。また、通信部30は、通信回線18を介して、ユーザ端末16から画像の配信要求情報を受信する機能を有する。さらに、通信部30は、通信回線18を介して、左眼対応カメラ12L及び右眼対応カメラ12Rから受信し記憶部32に記憶された左眼対応画像34L及び右眼対応画像34Rをユーザ端末16に送信(配信)する機能を有する。このとき、左眼対応画像34L及び右眼対応画像34Rは同時に一つの画像として送信(配信)されるのが好適である。   The communication unit 30 is composed of, for example, a network adapter. The communication unit 30 has a function of receiving a left-eye corresponding image from the left-eye compatible camera 12L and a right-eye corresponding image from the right-eye compatible camera 12R via the communication line 18. The communication unit 30 also has a function of receiving image distribution request information from the user terminal 16 via the communication line 18. Further, the communication unit 30 receives the left-eye corresponding image 34L and the right-eye corresponding image 34R received from the left-eye corresponding camera 12L and the right-eye corresponding camera 12R via the communication line 18 and stored in the storage unit 32. It has a function to transmit (distribute) to. At this time, it is preferable that the left-eye corresponding image 34L and the right-eye corresponding image 34R are simultaneously transmitted (distributed) as one image.

記憶部32は、ハードディスク、ROM(Read Only Memory)、あるいはRAM(Random Access Memory)などを含んで構成される。記憶部32には、画像配信サーバ14の各部を動作させるためのプログラムが記憶される。また、記憶部32には、左眼対応カメラ12L及び右眼対応カメラ12Rから受信した左眼対応画像34L及び右眼対応画像34Rが記憶される。   The storage unit 32 includes a hard disk, a ROM (Read Only Memory), a RAM (Random Access Memory), or the like. The storage unit 32 stores a program for operating each unit of the image distribution server 14. Further, the storage unit 32 stores a left-eye correspondence image 34L and a right-eye correspondence image 34R received from the left-eye correspondence camera 12L and the right-eye correspondence camera 12R.

制御部36は、例えばCPU(Central Processing Unit)などから構成され、記憶部32に記憶されたプログラムに従って、画像配信サーバ14の各部の動作を制御する。また、制御部36は、ユーザ端末16から配信要求情報を受信すると、配信要求情報を送信したユーザ端末16に対して、配信要求に係る左眼対応画像34L及び右眼対応画像34Rを送信する制御を行う。   The control unit 36 includes, for example, a CPU (Central Processing Unit) and the like, and controls the operation of each unit of the image distribution server 14 in accordance with a program stored in the storage unit 32. In addition, when receiving the distribution request information from the user terminal 16, the control unit 36 controls to transmit the left eye corresponding image 34L and the right eye corresponding image 34R related to the distribution request to the user terminal 16 that has transmitted the distribution request information. I do.

図5に、ユーザ端末16の構成概略図が示されている。本実施形態に係るユーザ端末16はスマートフォンなどのタブレット端末であるが、ユーザ端末16としては、以下に説明する機能を発揮するコンピュータであればどのような装置であってもよい。例えば、ヘッドマウントディスプレイ(HMD)などであってもよい。ユーザ端末16においては、画像配信サーバ14から配信される左眼対応画像34L及び右眼対応画像34Rに基づく立体視画像を閲覧するためのアプリケーションを動作させることが可能になっている。   FIG. 5 shows a schematic configuration diagram of the user terminal 16. The user terminal 16 according to the present embodiment is a tablet terminal such as a smartphone, but the user terminal 16 may be any device as long as it is a computer that exhibits the functions described below. For example, a head mounted display (HMD) may be used. In the user terminal 16, an application for viewing a stereoscopic image based on the left eye corresponding image 34L and the right eye corresponding image 34R distributed from the image distribution server 14 can be operated.

本実施形態においては、ユーザ端末16が、画像配信サーバ14から受信した左眼対応画像34L及び右眼対応画像34Rを処理して立体視画像を生成する。つまり、本実施形態では、ユーザ端末16は利用者端末であると同時に画像処理装置としての機能を発揮する。   In the present embodiment, the user terminal 16 processes the left eye corresponding image 34L and the right eye corresponding image 34R received from the image distribution server 14 to generate a stereoscopic image. That is, in this embodiment, the user terminal 16 functions as an image processing apparatus at the same time as a user terminal.

制御部40は、例えばCPUあるいはマイクロコントローラなどから構成され、後述の記憶部48に記憶されたプログラムに従って、ユーザ端末16の各部の動作を制御する。また、制御部40は、ユーザから画像の配信要求の送信指示を受け付けた場合は、画像配信サーバ14に対して配信要求情報を送信する制御を行う。   The control unit 40 includes, for example, a CPU or a microcontroller, and controls the operation of each unit of the user terminal 16 according to a program stored in a storage unit 48 described later. In addition, when receiving an image distribution request transmission instruction from a user, the control unit 40 performs control to transmit distribution request information to the image distribution server 14.

通信部42は、例えばネットワークアダプタなどから構成される。通信部42は、通信回線18を介して、画像配信サーバ14へ配信要求情報を送信する機能を有する。また、通信部42は、通信回線18を介して、画像配信サーバ14から左眼対応画像34L及び右眼対応画像34Rを受信する機能を有する。   The communication unit 42 is composed of, for example, a network adapter. The communication unit 42 has a function of transmitting distribution request information to the image distribution server 14 via the communication line 18. In addition, the communication unit 42 has a function of receiving the left-eye corresponding image 34L and the right-eye corresponding image 34R from the image distribution server 14 via the communication line 18.

表示部44は、例えば液晶パネルなどから構成される。表示部44には、ユーザが各種操作を行うためのユーザインターフェース画面が表示される。また、表示部44には、画像配信サーバ14から受信し左眼対応画像34L及び右眼対応画像34Rに基づいて生成された立体視画像が表示される。本実施形態では、図6に示される通り、立体視画像は、後述の画像処理部52によって処理された処理済左眼対応画像と処理済右眼対応画像とが並列に並べられて生成されるものである。ユーザは、左眼で処理済左眼対応画像を、右眼で処理済右眼対応画像を見るための特殊レンズなどの器具をユーザ端末16に取りつけた上で当該立体視画像を見る。このようにすることで、ユーザは、表示部44に表示された立体視画像を立体感を得ながら観賞することができる。   The display unit 44 is composed of, for example, a liquid crystal panel. The display unit 44 displays a user interface screen for the user to perform various operations. The display unit 44 displays a stereoscopic image received from the image distribution server 14 and generated based on the left eye corresponding image 34L and the right eye corresponding image 34R. In the present embodiment, as shown in FIG. 6, the stereoscopic image is generated by arranging a processed left-eye corresponding image and a processed right-eye corresponding image processed by the image processing unit 52 described later in parallel. Is. The user attaches a tool such as a special lens for viewing the processed left-eye image with the left eye and the processed right-eye image with the right eye to the user terminal 16 and views the stereoscopic image. In this way, the user can view the stereoscopic image displayed on the display unit 44 while obtaining a stereoscopic effect.

図5に戻り、入力部46は、例えばタッチパネルあるいはボタンなどから構成される。入力部46は、ユーザの指示をユーザ端末16に入力するためのものである。   Returning to FIG. 5, the input unit 46 includes, for example, a touch panel or buttons. The input unit 46 is for inputting a user instruction to the user terminal 16.

記憶部48は、例えばROMあるいはRAMなどを含んで構成される。記憶部48には、ユーザ端末16の各部を動作させるためのプログラムが記憶される。また、記憶部48には、後述の画像処理部52が有する各機能を発揮させるための画像処理プログラム、及び、立体視画像を閲覧するためのアプリケーションが記憶される。その他、記憶部48には、各種の処理データなどが記憶される。   The storage unit 48 includes, for example, a ROM or a RAM. The storage unit 48 stores a program for operating each unit of the user terminal 16. In addition, the storage unit 48 stores an image processing program for exhibiting each function of the image processing unit 52 described later, and an application for viewing a stereoscopic image. In addition, the storage unit 48 stores various processing data.

角速度センサ50は、例えばジャイロセンサなどを含んで構成される。角速度センサ50は、実空間座標系における3軸回り、すなわちXR2軸回り、YR2軸回り、ZR2軸回りそれぞれにおけるユーザ端末16の回転速度(角速度)を計測する。また、角速度センサ50は、キャリブレーションを行った上で、計測した各軸周りの角速度をキャリブレーション時点からの時間で積分することで、ユーザ端末16の各軸周りの角度、すなわち向きを算出することができる。 The angular velocity sensor 50 includes, for example, a gyro sensor. The angular velocity sensor 50 measures the rotational speed (angular velocity) of the user terminal 16 around three axes in the real space coordinate system, that is, around the XR2 axis, around the YR2 axis, and around the ZR2 axis. Further, the angular velocity sensor 50 calculates the angle around each axis of the user terminal 16, that is, the direction by integrating the measured angular velocity around each axis with the time from the calibration time point after performing calibration. be able to.

画像処理部52は、例えばGPU(Graphics Processing Unit)などを含んで構成される。画像処理部52は、記憶部48に記憶された立体視画像生成プログラムとの協働により、ジオメトリパイプライン立体視画像生成処理を行うものである。図5に示すように、画像処理部52は、モデリング部54、視点設定部56、視点補正部58、投影変換部60、及び立体視画像生成部62の各機能ブロックを有している。以下、図7以降の参照しながら、画像処理部52が有する各機能ブロックについて説明する。   The image processing unit 52 includes, for example, a GPU (Graphics Processing Unit). The image processing unit 52 performs a geometry pipeline stereoscopic image generation process in cooperation with the stereoscopic image generation program stored in the storage unit 48. As illustrated in FIG. 5, the image processing unit 52 includes functional blocks of a modeling unit 54, a viewpoint setting unit 56, a viewpoint correction unit 58, a projection conversion unit 60, and a stereoscopic image generation unit 62. Hereinafter, each functional block included in the image processing unit 52 will be described with reference to FIG.

モデリング部54は、仮想空間座標系であるワールド座標系において定義された立体モデル(3次元モデル)に対して、画像配信サーバ14から受信した左眼対応画像34Lを投影変換して、左眼対応立体モデルを構築する。同様に、モデリング部54は、ワールド座標系において定義された立体モデルに対して、画像配信サーバ14から受信した右眼対応画像34Rを投影変換して、左眼対応立体モデルを構築する。   The modeling unit 54 projects and converts the left-eye corresponding image 34L received from the image distribution server 14 to the three-dimensional model (three-dimensional model) defined in the world coordinate system that is a virtual space coordinate system, and corresponds to the left eye. Build a 3D model. Similarly, the modeling unit 54 projects and converts the right-eye corresponding image 34R received from the image distribution server 14 on the three-dimensional model defined in the world coordinate system to construct a left-eye corresponding three-dimensional model.

本実施形態では、球状の立体モデルを使用する。図7に、本実施形態で使用する球状立体モデル70が示されている。本実施形態では、ワールド座標系は、原点をOとする直交座標系であるX軸、Y軸、及びZ軸で定義されている。ワールド座標系のスケールは適宜設定されてよいが、本実施形態では実空間座標系と同じスケールが設定される。球状立体モデル70は、原点Oを中心としており、その表面は複数の三角ポリゴン72で形成されている。具体的には、球状立体モデル70の両極(Y座標の最大値及び最小値)を繋ぐように経度方向に並ぶ複数の経度線と、当該球面の表面において各経度線に直交し、緯度方向に並ぶ複数の緯度線とが定義され、複数の経度線と複数の緯度線との交点が頂点として定義される。複数の頂点に対する複数の頂点座標を示す情報は予め記憶部48などに記憶され、モデリング部54が参照可能となっている。球状立体モデル70(の表面)上に定義された複数の頂点のうち、隣接する3つの頂点によって1つの三角ポリゴン72が定義される。 In the present embodiment, a spherical solid model is used. FIG. 7 shows a spherical solid model 70 used in the present embodiment. In the present embodiment, the world coordinate system, X W axis is orthogonal coordinate system with the origin as O W, as defined in the Y W-axis, and Z W-axis. The scale of the world coordinate system may be set as appropriate, but in the present embodiment, the same scale as the real space coordinate system is set. Spherical three-dimensional model 70 is centered at the origin O W, the surface thereof is formed of a plurality of triangular polygons 72. Specifically, orthogonal to each longitude lines and a plurality of longitudinal lines arranged in the longitudinal direction so as to connect the two poles of the spherical three-dimensional model 70 (maximum and minimum values of the Y W coordinate), the surface of the sphere, latitudinal A plurality of latitude lines are defined, and intersection points between the plurality of longitude lines and the plurality of latitude lines are defined as vertices. Information indicating a plurality of vertex coordinates for a plurality of vertices is stored in advance in the storage unit 48 or the like, and can be referred to by the modeling unit 54. One triangular polygon 72 is defined by three adjacent vertices among a plurality of vertices defined on the spherical solid model 70 (surface thereof).

モデリング部54は、左眼対応画像34Lを球状立体モデル70に投影変換して、球状立体モデル70が有する各三角ポリゴン72に対して描画処理を行う。これにより、球状の左眼対応立体モデルが構築される。同様に、モデリング部54は、右眼対応画像34Rを球状立体モデル70に投影変換して、球状立体モデル70が有する各三角ポリゴン72に対して描画処理を行う。これにより、球状の右眼対応立体モデルが構築される。   The modeling unit 54 projects and converts the left-eye corresponding image 34 </ b> L into a spherical solid model 70, and performs a drawing process on each triangular polygon 72 included in the spherical solid model 70. Thereby, a spherical model corresponding to the left eye is constructed. Similarly, the modeling unit 54 projects and converts the right-eye corresponding image 34 </ b> R into the spherical solid model 70 and performs drawing processing on each triangular polygon 72 included in the spherical solid model 70. Thereby, a spherical right-eye corresponding three-dimensional model is constructed.

モデリング部54による投影変換について説明する前に、魚眼カメラである左眼対応カメラ12L及び右眼対応カメラ12Rで撮像された、魚眼画像である左眼対応画像34L及び右眼対応画像34Rについて説明する。   Before describing the projection conversion by the modeling unit 54, the left-eye corresponding image 34L and the right-eye corresponding image 34R that are fish-eye images captured by the left-eye corresponding camera 12L and the right-eye corresponding camera 12R that are fish-eye cameras. explain.

図8に、魚眼レンズへの入射角と、魚眼画像における位置との対応関係を示す図が示されている。なお、図8はモデル図であり、図8に示された魚眼レンズの画角は180°となっている。また、図8には、等立体角射影の場合の例が示されている。図8においては、左側に魚眼レンズを正面から見た図と魚眼画像が重ねて示されており、右側に魚眼レンズを側面から見た図が示されている。また、図8に示された魚眼画像の各画素の座標は、魚眼画像の左上隅を原点Oとする、水平(横)方向の位置を示すX軸座標と、垂直(縦)方向の位置を示すY軸座標で表現されるものとする。 FIG. 8 is a diagram showing a correspondence relationship between the incident angle to the fisheye lens and the position in the fisheye image. FIG. 8 is a model diagram, and the angle of view of the fisheye lens shown in FIG. 8 is 180 °. FIG. 8 shows an example in the case of equisolid angle projection. In FIG. 8, the fisheye lens viewed from the front and the fisheye image are superimposed on the left side, and the fisheye lens viewed from the side on the right side. The coordinates of each pixel of the fish-eye image shown in FIG. 8, the upper left corner of the fish-eye image as the origin O P, and X P axis coordinates indicating the position of the horizontal (lateral) direction, vertical (longitudinal) It is assumed to be expressed by YP axis coordinates indicating the position in the direction.

等立体角射影においては、魚眼レンズへの入射角θと、撮像素子における像高yは、次式で与えられる。
y=2fsin(θ/2) ・・・ (式1)
ここで、入射角θとは、魚眼レンズの正面方向に対する入射光の角度であり、像高yとは、撮像素子の中央からの物理的な距離であり、fは焦点距離である。
In the equal solid angle projection, the incident angle θ to the fisheye lens and the image height y in the image sensor are given by the following equations.
y = 2fsin (θ / 2) (Formula 1)
Here, the incident angle θ is an angle of incident light with respect to the front direction of the fisheye lens, the image height y is a physical distance from the center of the image sensor, and f is a focal length.

例えば、入射角θ=0°の場合、すなわち、魚眼レンズの正面方向からの入射光については、y=0となる。これは、撮像素子が有する2次元配列された受光素子のうち中央に位置する受光素子が、入射角0°の入射光を受光することを表している。つまり、入射角0°(魚眼レンズの正面方向から)の入射光に対応する魚眼画像における画素は、魚眼画像の中心座標、すなわち、最大X座標がXPMAX、最大Y座標がYPMAXであるとすると座標(XPMAX/2,YPMAX/2)の画素となる。 For example, when the incident angle θ = 0 °, that is, incident light from the front direction of the fisheye lens, y = 0. This means that the light receiving element located at the center of the two-dimensionally arranged light receiving elements of the image pickup element receives incident light having an incident angle of 0 °. That is, the pixel in the corresponding fisheye image on the incident light angle of incidence 0 ° (from the front of the fish-eye lens), the center coordinates of the fish-eye image, i.e., the maximum X P coordinates X PMAX, the maximum Y P coordinate Y PMAX If it is, it becomes a pixel of coordinates (X PMAX / 2, Y PMAX / 2).

次に、入射角θが0°ではない場合は、像高yがある値を持つことになる。例えば、入射角θ=30°である場合は、像高y=fとなる。これは、入射角30°の入射光については、撮像素子の中央を中心とする半径y=fの円周上に位置する受光素子が受光することを表している。入射角30°の入射光に対応する魚眼画像における画素は、魚眼画像の中心座標を中心とする半径y’の円周上に位置する画素となる。ここで、yは、あくまで撮像素子上における物理的な距離であるため、魚眼画像における半径y’は、魚眼画像のサイズ(XPMAX及びYPMAX)に基づいてyに対して変換処理をかけて取得される。 Next, when the incident angle θ is not 0 °, the image height y has a certain value. For example, when the incident angle θ = 30 °, the image height y = f. This indicates that, with respect to incident light having an incident angle of 30 °, the light receiving element positioned on the circumference of the radius y = f centering on the center of the imaging element receives light. Pixels in the fisheye image corresponding to incident light with an incident angle of 30 ° are pixels located on the circumference of a radius y ′ centered on the center coordinates of the fisheye image. Here, since y is a physical distance on the image sensor, the radius y ′ in the fisheye image is converted to y based on the size of the fisheye image (X PMAX and Y PMAX ). It is acquired over time.

なお、本実施形態では、魚眼レンズ20L及び20Rの射影方式が等立体角射影であるために、像高yは式1で算出されたが、
魚眼レンズ20L及び20Rの射影方式が正射影である場合には、
y=fsinθ ・・・ (式2)で、
魚眼レンズ20L及び20Rの射影方式が等距離射影である場合には、
y=fθ ・・・ (式3)で、
魚眼レンズ20L及び20Rの射影方式が立体射影である場合には、
y=2ftan(θ/2) ・・・ (式4)で、
それぞれ像高yが求められる。
In the present embodiment, since the projection method of the fisheye lenses 20L and 20R is an equisolid angle projection, the image height y is calculated by the equation 1.
When the projection method of the fisheye lenses 20L and 20R is an orthographic projection,
y = fsinθ (Expression 2)
When the projection method of the fisheye lenses 20L and 20R is equidistant projection,
y = fθ (Expression 3)
When the projection method of the fisheye lenses 20L and 20R is a three-dimensional projection,
y = 2 f tan (θ / 2) (4)
The image height y is determined for each.

上述のように、魚眼画像においては、魚眼レンズへの入射角に応じて同心円周上の画素に像が形成されるため、図8に示される通り、魚眼画像の四隅には像が形成されないのが一般的である。以下、魚眼画像のうち、像が形成されない四隅の部分を「無画像領域」と、それ以外の部分を「画像領域」と記載する。   As described above, in the fish-eye image, an image is formed on the pixels on the concentric circumference according to the incident angle to the fish-eye lens, so that no image is formed at the four corners of the fish-eye image as shown in FIG. It is common. Hereinafter, in the fish-eye image, the four corner portions where the image is not formed are referred to as “non-image region”, and the other portions are referred to as “image region”.

図9には、モデリング部54によって左眼対応画像34Lが球状立体モデル70に対して投影変換される様子が示されている。図9に示される通り、概念的には、モデリング部54は、球状立体モデル70よりもZ軸の負方向側のX平面と平行な面に、その上側がY軸正方向となるように左眼対応画像34Lを配置した上で、球状立体モデル70を左眼対応画像34Lで包み込むようなイメージで、左眼対応画像34Lの各画素と球状立体モデル70の各三角ポリゴン72を対応させた上で、左眼対応画像34Lの各画素を対応する三角ポリゴン72に投影する。これにより、球状立体モデル70の各三角ポリゴン72に対して描画処理を行う。 FIG. 9 shows a state in which the modeling unit 54 projects and converts the left-eye corresponding image 34 </ b> L onto the spherical three-dimensional model 70. As shown in FIG. 9, conceptually, the modeling unit 54, the X W Y W plane parallel to the plane of the negative side in the Z W axis than the spherical three-dimensional model 70, the upper Y W-axis positive direction The left eye corresponding image 34L is arranged so that the spherical solid model 70 is wrapped in the left eye corresponding image 34L, and each pixel of the left eye corresponding image 34L and each triangular polygon 72 of the spherical solid model 70 are arranged. Then, each pixel of the left-eye corresponding image 34L is projected onto the corresponding triangular polygon 72. Thereby, a drawing process is performed on each triangular polygon 72 of the spherical solid model 70.

具体的には、モデリング部54は、描画対象の三角ポリゴン72とワールド座標系の原点(球状立体モデル70の中心)Oとを結ぶ線分と、原点OからZ軸負方向へ伸びる線が成す角(以下「対Z軸角」と記載する)に基づいて、当該描画対象の三角ポリゴン72に投影する左眼対応画像34Lの画素を選択する。具体的には、対Z軸角がθである三角ポリゴン群に対しては、左眼対応画像34Lの画素のうち、当該対Z軸角と同じ入射角θに対応する画素群(図9において左眼対応画像34L上に一点鎖線で示す)が投影される。上述の通り、左眼対応画像34の中心座標からの距離y’は、入射角に基づいて算出されるから、距離y’に基づいて、左眼対応画像34L上において、入射角θに対応する画素群を特定することができる。なお、1つの三角ポリゴン72に対応する左眼対応画像34Lの画素が複数ある場合は、当該三角ポリゴン72に対しては、当該複数の画素に基づいて描画処理が行われていてよい。その場合は、例えば、複数の画素が有する複数の画素値の代表値(例えば平均値など)を用いて描画されてよい。 Specifically, modeling unit 54 includes a line connecting the O W (center of the spherical three-dimensional model 70) triangles 72 and the world coordinate system of the origin of the drawing object, extending from the origin O W to Z W-axis negative direction based on the angle line forms (hereinafter referred to as "counter Z W-axis angle") to select pixels of the left eye corresponding image 34L to be projected to the triangles 72 of the drawing target. Specifically, for a triangular polygon group whose Z W axis angle is θ 1 , among the pixels of the left-eye corresponding image 34L, a pixel group corresponding to the same incident angle θ 1 as the corresponding Z W axis angle. (Indicated by a one-dot chain line on the left-eye corresponding image 34L in FIG. 9) is projected. As described above, since the distance y ′ from the center coordinates of the left-eye corresponding image 34 is calculated based on the incident angle, the distance y ′ corresponds to the incident angle θ 1 on the left-eye corresponding image 34L. A pixel group to be identified can be specified. When there are a plurality of pixels of the left-eye corresponding image 34L corresponding to one triangular polygon 72, a drawing process may be performed on the triangular polygon 72 based on the plurality of pixels. In that case, for example, drawing may be performed using representative values (for example, average values) of a plurality of pixel values of a plurality of pixels.

このように、球状立体モデル70に対して左眼対応画像34Lが投影されることで、2次元画像であった左眼対応画像34Lが左眼対応立体モデルに変換される。   In this way, the left-eye corresponding image 34L is projected onto the spherical three-dimensional model 70, whereby the left-eye corresponding image 34L that is a two-dimensional image is converted into a left-eye corresponding three-dimensional model.

右眼対応画像34Rについても同様に、球状立体モデル70に対して右眼対応画像34Rを投影変換することで、右眼対応立体モデルが構築される。   Similarly, the right-eye corresponding model 34R is constructed by projecting and converting the right-eye corresponding image 34R to the spherical three-dimensional model 70 for the right-eye corresponding image 34R.

図10には、モデリング部54の投影処理により構築された左眼対応立体モデル74LのX平面における断面図が示されている。上述の通り、本実施形態における魚眼レンズ20Lの画角は230°であり、また、魚眼画像の四隅には無画像領域が存在しているから、図10に示される通り、左眼対応立体モデル74Lの後側(Z軸正方向側)に位置する三角ポリゴン群は、左眼対応画像34Lが投影されなかった領域、及び、左眼対応画像34Lの無画像領域が投影された領域を含む(すなわち左眼対応カメラ12Lの撮像対象の像が描画されていない)無描画領域となっている。具体的には、Z軸の負方向を真ん中とした中心角230°よりも後側に位置する三角ポリゴン群が無描画領域となっている。なお、本実施形態では、無描画領域に含まれる三角ポリゴン群は黒一色となっている。一方、Z軸の負方向を真ん中とした中心角230°よりも前側(Z軸負方向側)に位置する三角ポリゴン群は、左眼対応画像34Lの画像領域、すなわち、左眼対応カメラ12Lの撮像対象の像が投影されて描画された描画領域となっている。 Figure 10 is a cross-sectional view is shown in X W Z W plane of the left eye corresponding stereo model 74L which is constructed by projection processing in the modeling unit 54. As described above, the angle of view of the fish-eye lens 20L in the present embodiment is 230 °, and there are no image areas at the four corners of the fish-eye image. Therefore, as shown in FIG. triangular polygons groups located on the side (Z W-axis positive direction) after 74L is a region left eye corresponding image 34L is not projected, and comprises a region free image area of the left eye corresponding image 34L is projected That is, it is a non-drawing area (that is, the image of the imaging target of the left eye corresponding camera 12L is not drawn). Specifically, triangular polygons unit located rearward of the central angle 230 ° with the middle negative direction of the Z W axis represents the non-rendering area. In the present embodiment, the triangular polygon group included in the non-drawing area is black. On the other hand, the triangular polygon groups located in front of the central angle 230 ° with the middle negative direction of the Z W-axis (Z W-axis negative direction side), the image area of the left eye corresponding image 34L, i.e., the left eye corresponding camera This is a drawing area in which a 12L image to be imaged is projected and drawn.

ここで、モデリング部54は、描画領域のうち、Z軸の負方向を真ん中とした中心角180°よりも後側に位置する三角ポリゴン群に描画された描画像を削除する。当該削除処理により描画像が削除される領域を「描画像削除領域」と呼ぶ(図10参照)。これは、図3に示された通り、左眼対応カメラ12Lの魚眼レンズ20Lと、右眼対応カメラ12Rの魚眼レンズ20Rとが左右方向に並べられて配置されているため、左眼対応立体モデル74Lの右側(X軸正方向側)にある描画像削除領域には、魚眼レンズ20Rの像が描画されてしまう。同様に、右眼対応立体モデル74Rの左側(X軸負方向側)にある描画像削除領域には、魚眼レンズ20Lの像が描画されてしまう。本実施形態では、描画像削除領域を含む領域が2次元投影されることにより立体視画像が生成された場合(当該2次元投影処理については詳細後述)に、ユーザに魚眼レンズ20L及び20Rが見えてしまわないように、モデリング部54は、描画像削除領域において描画像を削除している。描画像削除領域において描画像が削除されることにより、Z軸の負方向を真ん中とした中心角180°よりも前側が描画領域となり、Z軸の負方向を真ん中とした中心角180°よりも後側が無描画領域となる。 Here, the modeling unit 54, out of the drawing area, to delete the drawing image drawn on a triangular polygon unit located rearward of the central angle 180 ° with the middle negative direction of the Z W-axis. An area where the drawn image is deleted by the deletion process is referred to as a “drawn image deletion area” (see FIG. 10). This is because, as shown in FIG. 3, the fisheye lens 20L of the left-eye compatible camera 12L and the fisheye lens 20R of the right-eye compatible camera 12R are arranged side by side in the left-right direction. In the drawn image deletion area on the right side ( XW axis positive direction side), the image of the fisheye lens 20R is drawn. Similarly, the drawing image deletion area to the right eye corresponding stereo model 74R of the left (X W-axis negative direction), the image of the fish-eye lens 20L from being drawn. In the present embodiment, when a stereoscopic image is generated by two-dimensionally projecting a region including the drawing image deletion region (the details of the two-dimensional projection process will be described later), the fisheye lenses 20L and 20R can be seen by the user. The modeling unit 54 deletes the drawn image in the drawn image deletion area so as not to be stuttered. By drawing image is deleted in the drawing image deletion area, the front becomes drawing area than the central angle 180 ° with the middle negative direction of the Z W-axis, the center angle 180 ° with the middle negative direction of the Z W-axis The rear side is a non-drawing area.

さらに、モデリング部54は、左眼対応立体モデル74Lの描画領域のうち、無描画領域との境界領域(描画領域の左右両端の領域)において、無描画領域へ向かって描画像を徐々に透過させる透過処理を行う。透過処理が行われる領域を「透過処理領域」と呼ぶ(図10参照)。上述の通り、無描画領域には何も描画されておらず、本実施形態では黒一色となっている。したがって、描画領域と無描画領域との境界を含む領域が2次元投影されることにより立体視画像が生成された場合、当該立体視画像において突然無描画領域に対応する画素が現れるようになってしまう。例えば、立体視画像上に境界線が現れ、当該境界線の一方側は撮影された像に対応する画像があるのに、当該境界線を境に突然黒画素で塗りつぶされた領域が出現するようになってしまう。これにより、ユーザが違和感を感じてしまう場合が考えられる。   Further, the modeling unit 54 gradually transmits the drawn image toward the non-drawing area in the boundary area (the left and right ends of the drawing area) with the non-drawing area in the drawing area of the left-eye corresponding stereo model 74L. Perform transparency processing. An area where the transparent process is performed is referred to as a “transparent process area” (see FIG. 10). As described above, nothing is drawn in the non-drawing area, and in this embodiment, it is black. Therefore, when a stereoscopic image is generated by two-dimensionally projecting a region including the boundary between the drawing region and the non-drawing region, pixels corresponding to the non-drawing region suddenly appear in the stereoscopic image. End up. For example, a boundary line appears on a stereoscopic image, and there is an image corresponding to the captured image on one side of the boundary line, but a region suddenly filled with black pixels appears on the boundary line. Become. As a result, the user may feel uncomfortable.

そこで、モデリング部54が透過処理領域に対して透過処理を行うことにより、描画領域と無描画領域との境界を含む領域が2次元投影されて立体視画像が生成された場合であっても、当該立体視画像において、描画領域に対応する画素領域から無描画領域に対応する画素領域に行くにつれ徐々に画素が透過していくから、ユーザが感じる違和感を低減させることができる。   Therefore, even when the modeling unit 54 performs the transparency process on the transparency process area, the stereoscopic image is generated by two-dimensionally projecting the area including the boundary between the drawing area and the non-drawing area. In the stereoscopic image, since the pixels gradually pass from the pixel area corresponding to the drawing area to the pixel area corresponding to the non-drawing area, it is possible to reduce discomfort felt by the user.

モデリング部54は、右眼対応立体モデル74Rに対しても、描画像削除領域に対する描画像削除処理及び透過処理領域に対する透過処理を行う。   The modeling unit 54 also performs the drawing image deletion process for the drawing image deletion area and the transmission process for the transmission processing area for the right-eye corresponding stereo model 74R.

視点設定部56は、ワールド座標系において、モデリング部54が構築した左眼対応立体モデル74Lに対する左眼視点に関する設定、モデリング部54が構築した右眼対応立体モデル74Rに対する右眼視点に関する設定を行う。具体的には、左眼視点の位置及び右眼視点の位置、左眼視点からの視線方向である左眼視線方向及び右眼視点からの視線方向である右眼視線方向、並びに、左眼視点の上方向を示す左眼上方ベクトルの向き及び右眼視点の上方向を示す右眼上方ベクトルの向きを設定する。   In the world coordinate system, the viewpoint setting unit 56 performs settings relating to the left eye viewpoint for the left eye corresponding stereo model 74L constructed by the modeling unit 54 and settings relating to the right eye viewpoint for the right eye corresponding stereo model 74R constructed by the modeling unit 54. . Specifically, the position of the left eye viewpoint and the position of the right eye viewpoint, the left eye gaze direction that is the gaze direction from the left eye viewpoint, the right eye gaze direction that is the gaze direction from the right eye viewpoint, and the left eye viewpoint The direction of the upper left eye vector indicating the upward direction and the direction of the upper right eye vector indicating the upward direction of the right eye viewpoint are set.

視点設定部56は、ユーザ端末16の向きに応じて、左眼視点及び右眼視点の位置、左眼視線方向及び右眼視線方向、並びに左眼上方ベクトルの向き及び右眼上方ベクトルの向きを決定する。図11には水平面であるXR2R2平面上において、ユーザ端末16の向きが右方向に変更される様子が示されている。本実施形態では、ユーザ端末16において、立体視画像を閲覧するためのアプリケーションが起動したタイミングで、角速度センサ50がキャリブレーションを行う。キャリブレーションを行ったときのユーザ端末16の向きが正面方向として設定される。図11においては、水平方向であってXR2軸正方向が正面方向となっており、当該正面方向を向いたユーザ端末16が破線で示されている。図11には、キャリブレーション後、ユーザによってユーザ端末16の向きが変更され、正面方向から時計回り(右側方向)に(90−φ)°、すなわちY軸方向(真横方向)に対して角度φの向きに、回転させられた様子が示されている。なお、当然ながら、ユーザ端末16は、表示部44がユーザ側を向く状態が維持されながらその向きが変更される。 The viewpoint setting unit 56 determines the positions of the left eye viewpoint and the right eye viewpoint, the left eye gaze direction and the right eye gaze direction, the direction of the left eye upper vector, and the direction of the right eye upper vector according to the orientation of the user terminal 16. decide. FIG. 11 shows a state in which the orientation of the user terminal 16 is changed to the right on the X R2 Y R2 plane that is a horizontal plane. In the present embodiment, the angular velocity sensor 50 performs calibration at the timing when an application for viewing a stereoscopic image is activated on the user terminal 16. The orientation of the user terminal 16 when the calibration is performed is set as the front direction. In FIG. 11, the XR2 axis positive direction is the front direction in the horizontal direction, and the user terminal 16 facing the front direction is indicated by a broken line. 11 after calibrating, is changed the direction of the user terminal 16 by the user, an angle with respect to the front direction in the clockwise (right direction) (90-phi) °, namely Y R axis direction (just beside direction) The state of being rotated in the direction of φ is shown. Of course, the orientation of the user terminal 16 is changed while the state where the display unit 44 faces the user is maintained.

図12に、ワールド座標系において設定される左眼視点が示されている。図12は、図10同様、左眼対応立体モデル74LのX平面における断面図である。本実施形態では、左眼視点は、ワールド座標系の原点O、すなわち、球状の左眼対応立体モデル74Lの中心点から所定距離離れた位置に設定される。後述のように、左眼視点の位置は、ユーザ端末16の向きに応じて変更され得るが、原点Oから左眼視点までの距離は不変となっている。したがって、左眼視点の移動軌跡は、原点Oを中心とした球面上となる。 FIG. 12 shows the left eye viewpoint set in the world coordinate system. 12, FIG. 10 Similarly, a cross-sectional view in X W Z W plane of the left eye corresponding stereo model 74L. In the present embodiment, the left eye viewpoint the origin O W of the world coordinate system, i.e., is set from the center point of the spherical left eye corresponding stereo model 74L to a position at a predetermined distance. As will be described later, the position of the left eye viewpoint can be changed according to the orientation of the user terminal 16, but the distance from the origin OW to the left eye viewpoint remains unchanged. Therefore, the movement locus of the left eye viewpoint is on a spherical surface with the origin OW as the center.

左眼視点からの左眼視線方向は、左眼視点の位置から原点Oへ向かう方向である。したがって、左眼視点の位置が決定すると、それに従って左眼視線方向も決定するといえる。また、本実施形態では、左眼対応立体モデル74Lに対しては、Y軸正方向と左眼対応画像34Lの上側方向を一致させた上で、左眼対応画像34Lが球状立体モデル70に投影されているから、左眼視点がX平面上にある場合は、左眼視点の上方ベクトルの向きはY軸正方向となる。なお、左眼視線方向と左眼視点の上方ベクトルの向きとの間の方向関係は、左眼視点の位置に関わらず一定(直交)に維持される。 Left eye gaze direction from the left eye viewpoint is a direction from the position of the left eye viewpoint to the origin O W. Therefore, when the position of the left eye viewpoint is determined, it can be said that the left eye gaze direction is determined accordingly. Further, in the present embodiment, for the left eye corresponding stereo model 74L, on which to match the upper direction of the Y W-axis positive direction and the left-eye corresponding image 34L, the left eye corresponding image 34L spherical three-dimensional model 70 from being projected, if the left eye viewpoint is on X W Z W plane, the orientation of the upper vector of the left eye viewpoint becomes Y W-axis positive direction. Note that the directional relationship between the left-eye viewing direction and the direction of the upper vector of the left-eye viewpoint is maintained constant (orthogonal) regardless of the position of the left-eye viewpoint.

ワールド座標系において構築された左眼対応立体モデル74Lにおいては、Z軸負方向が正面方向に対応するため、視点設定部56は、ワールド座標系におけるZ軸負方向に対する左眼視線方向が、正面方向に対するユーザ端末16の向きに一致するように左眼視点の位置を設定する。 In the left eye corresponding stereo model 74L built in the world coordinate system, since the Z W-axis negative direction corresponds to the front direction, the viewpoint setting unit 56, the left-eye viewing direction for Z W-axis negative direction in the world coordinate system The position of the left eye viewpoint is set so as to match the orientation of the user terminal 16 with respect to the front direction.

まず、ユーザ端末16が正面方向を向いているときは、視点設定部56は、左眼視線方向がZ軸負方向を向くように、原点OからZ軸正方向の位置に左眼視点を設定する。図12においては、当該位置が点VPLiniで示されている。この場合の左眼上方ベクトルの向きはY軸正方向である。 First, when the user terminal 16 is facing the front direction, the viewpoint setting unit 56, as the left-eye viewing direction is directed in the negative direction Z W-axis, the left eye from the origin O W to Z W-axis positive direction position Set the viewpoint. In FIG. 12, the position is indicated by a point VPL ini . Orientation of the left eye upper vector in this case is the Y W-axis positive direction.

その後、図11に示すように、ユーザ端末16がXR2R2平面上において、正面方向から右側方向に(90−φ)°回転させられた場合、視点設定部56は、左眼視点をその移動軌跡上において移動させて、ワールド座標系における左眼視線方向を、原点OからZ軸負方向へ延びる線との成す角が(90−φ)°となるように左眼視点の位置を設定する。図12には、そのように設定された左眼視点の位置が点VPLで示されている。なお、この例においては、左眼視点は、X平面上を移動しただけなので、左眼上方ベクトルの向きはY軸正方向に維持される。 After that, as shown in FIG. 11, when the user terminal 16 is rotated (90−φ) ° from the front direction to the right direction on the X R2 Y R2 plane, the viewpoint setting unit 56 sets the left eye viewpoint to is moved on a moving path, a left eye viewing direction in the world coordinate system, the position of the left eye viewpoint as an angle formed between the line extending from the origin O W to Z W-axis negative direction is (90-φ) ° Set. In FIG. 12, the position of the left eye viewpoint set in this way is indicated by a point VPL 1 . Incidentally, in this example, the left eye viewpoint, since only moves over X W Z W plane, the direction of the left eye upward vector is maintained in the Y W-axis positive direction.

視点設定部56によって左眼視点の位置が設定されると、左眼視点を原点とした左眼ビュー座標系が定義される。本実施形態における左眼ビュー座標系は、左眼視線方向とは反対の方向をZVL軸正方向とし(つまり左眼視線方向がZVL軸負方向)、左眼上方ベクトルの向きをYVL軸正方向とし、ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向に設定される。したがって、左眼視点の位置が変更されると、ワールド座標系に対する左眼ビュー座標系の原点の位置、及び、XVL軸YVL軸ZVL軸各軸の方向も変更されることになる。 When the position of the left eye viewpoint is set by the viewpoint setting unit 56, a left eye view coordinate system with the left eye viewpoint as the origin is defined. In the left-eye view coordinate system in the present embodiment, the direction opposite to the left-eye line-of-sight direction is the ZVL axis positive direction (that is, the left-eye line-of-sight direction is the ZVL axis negative direction), and the direction of the left-eye upper vector is Y VL The direction that constitutes the right-handed system with respect to the Z VL axis and the Y VL axis is set to the X VL axis positive direction. Therefore, when the position of the left eye viewpoint is changed, the position of the origin of the left eye view coordinate system with respect to the world coordinate system and the directions of the X VL axis Y VL axis Z VL axis are also changed.

なお、後述の視点補正部58により左眼視点の位置が補正されなかったとすると、後述の投影変換部60によって、左眼視線方向を中心とした所定の視野角に含まれる左眼対応立体モデル74Lの一部分、すなわち、図12において左眼対応立体モデル74L上で太線で表された部分が2次元投影されて左眼に対応する2次元画像が生成される。つまり、図12の太線部分に対応する2次元画像が表示部44に表示される(ユーザが見える)部分である。   If the position of the left eye viewpoint is not corrected by the viewpoint correction unit 58 described later, the left eye corresponding stereo model 74L included in a predetermined viewing angle centered on the left eye gaze direction is described by the projection conversion unit 60 described later. , That is, a portion represented by a thick line on the left-eye corresponding stereo model 74L in FIG. 12 is two-dimensionally projected to generate a two-dimensional image corresponding to the left eye. That is, the two-dimensional image corresponding to the thick line portion in FIG. 12 is a portion that is displayed on the display unit 44 (visible to the user).

右眼対応立体モデル74Rに対する右眼視点についても、上記同様の処理によって設定される。そして、右眼視点を原点とした右眼ビュー座標系が定義される。本実施形態における右眼ビュー座標系は、右眼視線方向とは反対の方向をZVR軸正方向とし(つまり右眼視線方向がZVR軸負方向)、右眼上方ベクトルの向きをYVR軸正方向とし、ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向に設定される。 The right eye viewpoint for the right eye corresponding stereo model 74R is also set by the same processing as described above. Then, a right eye view coordinate system with the right eye viewpoint as the origin is defined. In the right-eye view coordinate system in the present embodiment, the direction opposite to the right-eye line-of-sight direction is the Z VR axis positive direction (that is, the right-eye line-of-sight direction is the Z VR axis negative direction), and the direction of the right eye upper vector is Y VR. The direction that constitutes the right-hand system with respect to the Z VR axis and the Y VR axis is set as the positive direction of the X VR axis.

視点補正部58は、ユーザ端末16が正面方向から左右方向に向けられた場合に、ユーザ端末16の向きに基づいて、設定された左眼視点の位置を左眼ビュー座標系上で移動させ、設定された右眼視点の位置を右眼ビュー座標系上で移動させることで左眼視点及び右眼視点の位置を補正する処理を行う。詳しくは、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差を拡げる方向に、左眼視点及び右眼視点の位置を移動させる。以下、当該補正処理の詳細について説明する。   The viewpoint correction unit 58 moves the set position of the left-eye viewpoint on the left-eye view coordinate system based on the orientation of the user terminal 16 when the user terminal 16 is directed from the front direction to the left-right direction, A process of correcting the positions of the left eye viewpoint and the right eye viewpoint is performed by moving the set position of the right eye viewpoint on the right eye view coordinate system. Specifically, the positions of the left eye viewpoint and the right eye viewpoint are moved in a direction in which the parallax between the left eye corresponding camera 12L and the right eye corresponding camera 12R is expanded. Hereinafter, the details of the correction process will be described.

図17において示したのと同様に、本実施形態においても、ユーザがユーザ端末16を左右方向に向けた場合、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差が小さくなるという問題が生じる。当該問題が図13において改めて示されている。ここでも、ユーザがユーザ端末16を正面方向から右側に(90−φ)°向けた場合、すなわち真横方向から角度φとなる方向に向けた場合を考える。この場合、上述のように、投影変換部60により生成される2次元画像は、左眼対応立体モデル74LのZ軸負方向(ワールド座標系における正面方向)から右側方向に対応する画像となる。一方において、魚眼レンズ20L及び20Rの向きは正面方向を向いたままであるため、実空間上で考えると、魚眼レンズ20L及び20Rからの視線方向は、レンズの向き(正面方向)から右側に(90−φ)°向いた状態となる。したがって、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差はd’となり、これは上述のようにd’=dsinφとなる。したがって、視差d’は、魚眼レンズ20Lと20Rとの間の距離、すなわち、視線方向が魚眼レンズ20Lと20Rから正面方向である場合の左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差dよりも小さくなる。 Similarly to the case shown in FIG. 17, also in this embodiment, when the user points the user terminal 16 in the left-right direction, the parallax between the left-eye compatible camera 12 </ b> L and the right-eye compatible camera 12 </ b> R becomes small. Occurs. The problem is shown again in FIG. Here again, consider the case where the user turns the user terminal 16 from the front direction to the right side (90-φ) °, that is, the direction from the right side direction to the angle φ. In this case, as described above, the two-dimensional image generated by the projective transformation unit 60 is composed of a Z W-axis negative direction of the left eye corresponding stereo model 74L (front direction in the world coordinate system) and the image corresponding to the right . On the other hand, since the orientation of the fisheye lenses 20L and 20R remains facing the front direction, when viewed in real space, the line-of-sight direction from the fisheye lenses 20L and 20R is (90-φ) from the lens orientation (front direction) to the right side. ) It is in a state of facing. Therefore, the parallax between the left-eye compatible camera 12L and the right-eye compatible camera 12R is d ′, which is d ′ = dsinφ as described above. Accordingly, the parallax d ′ is the distance between the fish-eye lenses 20L and 20R, that is, the parallax d between the left-eye corresponding camera 12L and the right-eye corresponding camera 12R when the line-of-sight direction is the front direction from the fish-eye lenses 20L and 20R. Smaller than.

ユーザ端末16が左右方向に向けられたときの、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差の減少を抑制するには、魚眼レンズ20Lの現在の視点LPL及び魚眼レンズ20Rの現在の視点LPRを、それぞれ、視差が広がる方向に移動させればよい。視差を正確にdに維持するならば、視線方向が正面のときの視差dと現在の視差d’との差分を算出し、魚眼レンズ20Lの視点及び魚眼レンズ20Rの視点を当該差分の半分であるΔdづつ、視差が広がる方向に移動させればよいことになる。 When the user terminal 16 is directed in the lateral direction, to suppress the reduction of the disparity between the left eye corresponding camera 12L and the right-eye corresponding camera 12R, the current of the current viewpoint LPL 1 and fisheye lens 20R of the fish-eye lens 20L Each viewpoint LPR 1 may be moved in the direction in which the parallax spreads. If the parallax is accurately maintained at d, the difference between the parallax d when the line-of-sight direction is the front and the current parallax d ′ is calculated, and the viewpoint of the fisheye lens 20L and the viewpoint of the fisheye lens 20R are half of the difference Δd It is only necessary to move in the direction in which the parallax spreads.

ここで、d’=dsinφであるから、補正距離Δdは、
Δd={d(1−sinφ)}/2 ・・・ (式5)
で与えられる。
Here, since d ′ = dsinφ, the correction distance Δd is
Δd = {d (1-sinφ)} / 2 (Formula 5)
Given in.

したがって、仮に、魚眼レンズ20Lの視点を視線方向に直交する方向であって視差が広がる方向に距離Δdだけ移動させて、当該視点を図13における点LPLで示される位置にし、同様に、魚眼レンズ20Rの視点を視線方向に直交する方向であって視差が広がる方向に距離Δdだけ移動させて、当該視点を図13における点LPRで示される位置にすることで、ユーザ端末16が左右方向に向けられたときに生じ得る視差の減少を解消することができると考えられる。 Therefore, if, in a direction perpendicular to the viewpoint of the fisheye lens 20L to the viewing direction is moved by a distance Δd in the spreading direction parallax, and the position shown the viewpoint at the point LPL 2 in FIG. 13, similarly, the fish-eye lens 20R Is moved in the direction orthogonal to the line-of-sight direction and in the direction in which the parallax spreads, and the viewpoint is moved to the position indicated by the point LPR 2 in FIG. It is considered that the reduction in parallax that can occur when it is applied can be eliminated.

本実施形態では、このような実空間上における視点の移動がワールド座標系上で実現されるように、視点補正部58は、ワールド座標系において設定された左眼視点及び右眼視点の位置を移動させる。   In the present embodiment, the viewpoint correction unit 58 determines the positions of the left eye viewpoint and the right eye viewpoint set in the world coordinate system so that the movement of the viewpoint in the real space is realized in the world coordinate system. Move.

図14には、左眼視点の位置が補正される様子が示されている。図14には、図12などと同様、左眼対応立体モデル74LのX平面における断面図である。視点設定部56により左眼視点が点VPLの位置に設定された状態から考える。左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差を拡げるための、左眼視点の移動方向は、左眼上方ベクトルの向きを上にして、左眼視点から左眼視線方向を向いたときの左側方向である。これは、左眼視線方向とは反対の方向をZVL軸正方向とし、左眼上方ベクトルの向きをYVL軸正方向とし、ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向であるといえる。換言すれば、左眼視点方向をZ軸正方向とし、左眼上方ベクトルの向きをY軸正方向としたときに、当該Z軸とY軸に対して右手系を構成するX軸正方向の方向であるといえる。また、左眼視点の位置を移動させるにあたり、左眼視線方向及び左眼上方ベクトルの向きは維持される。 FIG. 14 shows how the position of the left eye viewpoint is corrected. FIG. 14 is a cross-sectional view of the left-eye corresponding stereo model 74L on the X W Z W plane, as in FIG. Consider the state in which the left eye viewpoint is set to the position of the point VPL 1 by the viewpoint setting unit 56. The movement direction of the left eye viewpoint for expanding the parallax between the left eye corresponding camera 12L and the right eye corresponding camera 12R is directed from the left eye viewpoint toward the left eye gaze direction with the direction of the upper left eye vector facing upward. It is the left direction when it was. The direction opposite to the left-eye line-of-sight direction is the Z VL axis positive direction, the direction of the left eye upper vector is the Y VL axis positive direction, and the direction that forms the right-handed system with respect to the Z VL axis and the Y VL axis There can be said to be X VL-axis negative direction in the left-eye view coordinate system is a X VL-axis positive direction. In other words, when the left-eye viewpoint direction is the Z-axis positive direction and the left-eye upper vector direction is the Y-axis positive direction, the X-axis positive direction that forms the right-handed system with respect to the Z-axis and the Y-axis It can be said that it is a direction. Further, when moving the position of the left eye viewpoint, the left eye gaze direction and the direction of the left eye upper vector are maintained.

左眼視点方向及び左眼上方ベクトルの向きを維持しつつ、左眼ビュー座標系におけるXVL軸負方向に左眼視点を移動させることは、図13に示した、実座標系における魚眼レンズ20Lの視点を、その視線方向及び魚眼レンズ20Lの上側方向を維持しながら点LPLから点LPL方向へ移動させることに相当する。したがって、左眼視点をXVL軸負方向に移動させることで左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差の減少を抑制することができる。 While maintaining the orientation of the left eye view direction and the left eye upward vector, to move the left eye viewpoint X VL-axis negative direction in the left-eye view coordinate system shown in FIG. 13, the fish-eye lens 20L in the real coordinate system This corresponds to moving the viewpoint from the point LPL 1 to the point LPL 2 while maintaining the line-of-sight direction and the upward direction of the fish-eye lens 20L. Therefore, the parallax reduction between the left eye corresponding camera 12L and the right eye corresponding camera 12R can be suppressed by moving the left eye viewpoint in the negative XVL axis direction.

図15には、右眼視点の位置が補正される様子が示されている。図15には、右眼対応立体モデル74RのX平面における断面図である。左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差を拡げるための、右眼視点の移動方向は、右眼上方ベクトルの向きを上にして、右眼視点から右眼視線方向を向いたときの右側方向である。これは、右眼視線方向とは反対の方向をZVR軸正方向とし、右眼上方ベクトルの向きをYVR軸正方向とし、ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向であるといえる。換言すれば、右眼視点方向をZ軸正方向とし、右眼上方ベクトルの向きをY軸正方向としたときに、当該Z軸とY軸に対して左手系を構成するX軸正方向の方向であるといえる。また、右眼視点の位置を移動させるにあたっても、右眼視線方向及び右眼上方ベクトルの向きは維持される。 FIG. 15 shows how the position of the right eye viewpoint is corrected. 15 shows a cross-sectional view of the right eye corresponding stereo model 74R of X W Z W plane. The movement direction of the right eye viewpoint for expanding the parallax between the left eye corresponding camera 12L and the right eye corresponding camera 12R is directed from the right eye viewpoint to the right eye gaze direction with the direction of the upper right eye vector facing upward. It is the right direction when it was. The direction opposite to the right-eye line-of-sight direction is the Z VR axis positive direction, the direction of the right eye upper vector is the Y VR axis positive direction, and the direction constituting the right hand system with respect to the Z VR axis and the Y VR axis There can be said to be X VR-axis positive direction in the right-eye view coordinate system is X VR-axis positive direction. In other words, when the right-eye viewpoint direction is the Z-axis positive direction and the direction of the right-eye upper vector is the Y-axis positive direction, the X-axis positive direction that forms the left-handed system with respect to the Z-axis and the Y-axis It can be said that it is a direction. Also, when moving the position of the right eye viewpoint, the right eye gaze direction and the direction of the right eye upper vector are maintained.

右眼視点方向及び右眼上方ベクトルの向きを維持しつつ、右眼ビュー座標系におけるXVR軸正方向に右眼視点を移動させることは、図13に示した、実座標系における魚眼レンズ20Rの視点を、その視線方向及び魚眼レンズ20Rの上側方向を維持しながら点LPRから点LPR方向へ移動させることに相当する。したがって、右眼視点をXVR軸正方向に移動させることで左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差の減少を抑制することができる。 While maintaining the orientation of the right eye view direction and the right eye upward vector, to move the right-eye viewpoint X VR-axis positive direction in the right-eye view coordinate system are shown in FIG. 13, the fish-eye lens 20R in the real coordinate system This corresponds to moving the viewpoint from the point LPR 1 to the point LPR 2 while maintaining the viewing direction and the upward direction of the fisheye lens 20R. Therefore, the parallax reduction between the left-eye compatible camera 12L and the right-eye compatible camera 12R can be suppressed by moving the right-eye viewpoint in the XVR axis positive direction.

また、左眼視点及び右眼視点を補正することにより、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差がdに一致するのが好ましい。視差をdに一致させるため、視点補正部58は、左眼視点及び右眼視点の補正距離を算出する。   Further, it is preferable that the parallax between the left-eye compatible camera 12L and the right-eye compatible camera 12R matches d by correcting the left-eye viewpoint and the right-eye viewpoint. In order to make the parallax coincide with d, the viewpoint correction unit 58 calculates a correction distance between the left eye viewpoint and the right eye viewpoint.

ここでも、図11に示されるように、ユーザ端末16が正面方向から右側方向(90−φ)°傾けられ、図14の点VPLが示す位置に設定された左眼視点の位置を補正する場合を考える。視点補正部58は、魚眼レンズ20Lと魚眼レンズ20Rとの間の距離dと、角速度センサ50が演算したユーザ端末16の向きを示す角度φを用いて、上述の式5に基づいて、補正距離Δdを算出する。なお、距離dは予め計測されて、距離dを示す上方が記憶部48に記憶されていてよい。 Here, as shown in FIG. 11, the user terminal 16 is tilted to the right (90-φ) ° from the front direction, and the position of the left eye viewpoint set at the position indicated by the point VPL 1 in FIG. 14 is corrected. Think about the case. The viewpoint correction unit 58 uses the distance d between the fisheye lens 20L and the fisheye lens 20R and the angle φ indicating the orientation of the user terminal 16 calculated by the angular velocity sensor 50 to calculate the correction distance Δd based on the above equation 5. calculate. The distance d may be measured in advance, and the upper part indicating the distance d may be stored in the storage unit 48.

視点補正部58は、左眼視点を上述の方向に算出した補正距離Δd移動させる。同様に、右眼視点を上述の方向に補正距離Δd移動させる。これにより、ユーザ端末16がいずれの向きを向いていても、魚眼レンズ20Lと魚眼レンズ20Rとの間の視差を常にdとすることができる。なお、本実施形態においては、ワールド座標系と実空間座標系とのスケールが同じとなっているので、左眼視点及び右眼視点を補正距離Δd移動させたが、ワールド座標系と実空間座標系のスケールが異なる場合は、算出した補正距離Δdに両座標系のスケールを考慮した補正をかけた上で補正後の距離分だけ左眼視点及び右眼視点を移動させるようにしてもよい。   The viewpoint correction unit 58 moves the correction distance Δd calculated from the left eye viewpoint in the above-described direction. Similarly, the right eye viewpoint is moved in the above-described direction by the correction distance Δd. As a result, regardless of the orientation of the user terminal 16, the parallax between the fisheye lens 20L and the fisheye lens 20R can always be d. In the present embodiment, since the scales of the world coordinate system and the real space coordinate system are the same, the left eye viewpoint and the right eye viewpoint are moved by the correction distance Δd. When the scales of the systems are different, the left eye viewpoint and the right eye viewpoint may be moved by the corrected distance after applying the correction considering the scale of both coordinate systems to the calculated correction distance Δd.

投影変換部60は、視点設定部56により設定され、必要に応じて視点補正部58により補正された左眼視点、左眼視線方向、及び左眼上方ベクトルの向きに基づいて、左眼対応立体モデル74Lを2次元投影することで、2次元画像である処理済左眼対応画像を生成する。図14に示すように、補正後の左眼視点の位置である点VPLから左眼視線方向を中心とした所定の視野角の範囲内に含まれる左眼対応立体モデル74Lの一部である投影対象領域80Lが2次元投影の対象となる。具体的には、補正後の左眼視点を基準とした左眼ビュー座標系において定義された2次元スクリーン上に、投影対象領域80Lに含まれる三角ポリゴン群の描画像が投影されて処理済左眼対応画像が生成される。本実施形態として、2次元投影の方法として透視投影変換が用いられるが、その他の変換方法が用いられてもよい。 The projection conversion unit 60 is set by the viewpoint setting unit 56 and is corrected by the viewpoint correction unit 58 as necessary, based on the left-eye viewpoint, the left-eye line-of-sight direction, and the left-eye upper vector orientation. By projecting the model 74L two-dimensionally, a processed left-eye corresponding image that is a two-dimensional image is generated. As shown in FIG. 14, it is a part of the left-eye corresponding three-dimensional model 74L included within a predetermined viewing angle range centering on the left-eye line-of-sight direction from the point VPL 2 that is the position of the corrected left-eye viewpoint. The projection target area 80L is a target for two-dimensional projection. Specifically, the rendered image of the triangular polygon group included in the projection target area 80L is projected on the two-dimensional screen defined in the left-eye view coordinate system with the corrected left-eye viewpoint as a reference, and the processed left An eye corresponding image is generated. In the present embodiment, perspective projection conversion is used as a two-dimensional projection method, but other conversion methods may be used.

投影変換部60は、同様に、視点設定部56により設定され、必要に応じて視点補正部58により補正された右眼視点、右眼視線方向、及び右眼上方ベクトルの向きに基づいて、右眼対応立体モデル74Rを2次元投影することで、2次元画像である処理済右眼対応画像を生成する。図15に示すように、補正後の右眼視点の位置である点VPRから右眼視線方向を中心とした所定の視野角の範囲内に含まれる右眼対応立体モデル74Rの一部である投影対象領域80Rが2次元投影の対象となる。2次元投影の方法は、左眼対応立体モデル74Lの投影方法と同様であってよい。 Similarly, the projection conversion unit 60 is set based on the right eye viewpoint, right eye gaze direction, and right eye upper vector direction set by the viewpoint setting unit 56 and corrected by the viewpoint correction unit 58 as necessary. By projecting the eye corresponding stereo model 74R two-dimensionally, a processed right eye corresponding image that is a two-dimensional image is generated. As shown in FIG. 15, it is a part of the right-eye corresponding stereo model 74R included in the range of a predetermined viewing angle centered on the right-eye line-of-sight direction from the point VPR 2 that is the position of the corrected right-eye viewpoint. The projection target area 80R is a target for two-dimensional projection. The two-dimensional projection method may be the same as the projection method of the left-eye corresponding stereo model 74L.

立体視画像生成部62は、投影変換部60により生成された処理済左眼対応画像及び処理済右眼対応画像に基づいて、立体視画像を生成する。図6に示される通り、本実施形態における立体視画像は、処理済左眼対応画像及び処理済右眼対応画像が並列に並べられた画像である。もちろん、立体視画像としては、処理済左眼対応画像をユーザの左眼で見ることができ、処理済右眼対応画像をユーザの右眼で見ることができる限りにおいてその他の態様であってもよい。   The stereoscopic image generation unit 62 generates a stereoscopic image based on the processed left eye corresponding image and the processed right eye corresponding image generated by the projection conversion unit 60. As shown in FIG. 6, the stereoscopic image in the present embodiment is an image in which a processed left-eye corresponding image and a processed right-eye corresponding image are arranged in parallel. Of course, the stereoscopic image may be in any other form as long as the processed left-eye image can be viewed with the user's left eye and the processed right-eye image can be viewed with the user's right eye. Good.

また、立体視画像生成部62は、表示部44のサイズに応じて、生成した立体視画像のサイズを変更するビューポート変換を行う。これにより、表示部44のサイズに適した立体視画像が生成される。   In addition, the stereoscopic image generation unit 62 performs viewport conversion that changes the size of the generated stereoscopic image in accordance with the size of the display unit 44. Thereby, a stereoscopic image suitable for the size of the display unit 44 is generated.

生成された立体視画像は、制御部40により表示部44に表示される。   The generated stereoscopic image is displayed on the display unit 44 by the control unit 40.

本実施形態に係る立体視画像提供システム10の構成は以上の通りである。立体視画像提供システム10によれば、ジオメトリパイプライン立体視画像生成処理によって立体視画像が生成されるにあたり、ユーザ端末16が正面方向から左右方向に向けられた場合に、視点補正部58によって、ワールド座標系において設定された左眼視点及び右眼視点の位置がユーザ端末16の向きに応じて、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差が拡がる方向に移動される。これにより、ユーザ端末16が左右方向を向けられたときに生じる、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差の減少が抑制される。その結果、ユーザ端末16が左右方向に向けられた場合であっても、ユーザに対して好適に立体感を感じることができる立体視画像を提供することができる。   The configuration of the stereoscopic image providing system 10 according to the present embodiment is as described above. According to the stereoscopic image providing system 10, when the stereoscopic image is generated by the geometry pipeline stereoscopic image generation process, when the user terminal 16 is directed from the front direction to the left-right direction, the viewpoint correction unit 58 The positions of the left eye viewpoint and right eye viewpoint set in the world coordinate system are moved in a direction in which the parallax between the left eye corresponding camera 12 </ b> L and the right eye corresponding camera 12 </ b> R is expanded according to the orientation of the user terminal 16. Thereby, the reduction | decrease in the parallax between the left-eye corresponding | compatible camera 12L and the right-eye corresponding | compatible camera 12R which arises when the user terminal 16 is turned to the left-right direction is suppressed. As a result, even when the user terminal 16 is directed in the left-right direction, it is possible to provide a stereoscopic image that allows the user to feel a stereoscopic effect.

好適には、ユーザ端末の向きに応じて算出された補正距離Δdに応じた距離だけ、左眼視点及び右眼視点が移動されるから、ユーザ端末16がどの向きを向いていたとしても、左眼対応カメラ12Lと右眼対応カメラ12Rとの間の視差はdに維持される。これにより、より好適に立体感を感じることのできる立体視画像を提供することが可能になると共に、ユーザ端末16の向きに応じて表示部44に表示される立体視画像が刻々変化する場合に、ユーザに与える違和感を低減することができる。   Preferably, the left-eye viewpoint and the right-eye viewpoint are moved by a distance corresponding to the correction distance Δd calculated according to the orientation of the user terminal. Therefore, no matter which direction the user terminal 16 faces, The parallax between the eye corresponding camera 12L and the right eye corresponding camera 12R is maintained at d. As a result, it is possible to provide a stereoscopic image in which a stereoscopic effect can be more suitably felt, and when the stereoscopic image displayed on the display unit 44 changes momentarily according to the orientation of the user terminal 16. , The uncomfortable feeling given to the user can be reduced.

上述の実施形態においては、画像処理部52、すなわち、モデリング部54、視点設定部56、視点補正部58、投影変換部60、及び立体視画像生成部62はユーザ端末16が有していたが、これらの各部が画像配信サーバ14が有する態様を取ることもできる。その場合は、画像配信サーバ14が立体視画像生成装置として機能する。画像配信サーバ14において立体視画像が生成される場合、生成された立体視画像がユーザ端末16に配信される。なお、この態様を採用する場合は、ユーザ端末16の角速度センサ50の計測値は逐次画像配信サーバ14へ送信される。   In the above-described embodiment, the user terminal 16 has the image processing unit 52, that is, the modeling unit 54, the viewpoint setting unit 56, the viewpoint correction unit 58, the projection conversion unit 60, and the stereoscopic image generation unit 62. These components can also take the form of the image distribution server 14. In that case, the image distribution server 14 functions as a stereoscopic image generation device. When a stereoscopic image is generated in the image distribution server 14, the generated stereoscopic image is distributed to the user terminal 16. When this aspect is adopted, the measurement value of the angular velocity sensor 50 of the user terminal 16 is sequentially transmitted to the image distribution server 14.

以下、図16に示されたフローチャートに従って、本実施形態に係るユーザ端末16の処理の流れを説明する。   Hereinafter, the process flow of the user terminal 16 according to the present embodiment will be described with reference to the flowchart shown in FIG.

ステップS10において、ユーザの指示に応じて、ユーザ端末16から画像配信サーバ14に対して画像の配信要求情報が送信される。ユーザ端末16は、それを受けた画像配信サーバ14から左眼対応画像34L及び右眼対応画像34Rを受信する。   In step S <b> 10, image distribution request information is transmitted from the user terminal 16 to the image distribution server 14 in accordance with a user instruction. The user terminal 16 receives the left-eye corresponding image 34L and the right-eye corresponding image 34R from the image distribution server 14 that has received it.

ステップS12において、モデリング部54は、受信した左眼対応画像34Lをワールド座標系において定義された球状立体モデル70に投影変換して左眼対応立体モデル74Lを構築する。同様に、モデリング部54は、受信した右眼対応画像34Rをワールド座標系において定義された球状立体モデル70に投影変換して右眼対応立体モデル74Rを構築する。   In step S12, the modeling unit 54 projects and converts the received left-eye corresponding image 34L into a spherical three-dimensional model 70 defined in the world coordinate system, thereby constructing a left-eye corresponding three-dimensional model 74L. Similarly, the modeling unit 54 projects and converts the received right-eye corresponding image 34R into a spherical three-dimensional model 70 defined in the world coordinate system to construct a right-eye corresponding three-dimensional model 74R.

ステップS14において、角速度センサ50は、ユーザ端末16の向きを取得する。   In step S <b> 14, the angular velocity sensor 50 acquires the orientation of the user terminal 16.

ステップS16において、視点設定部56は、ステップS14において取得されたユーザ端末16の向きに基づいて、ワールド座標系において、左眼対応立体モデル74Lに対する左眼視点、左眼視線方向、及び左眼上方ベクトルの向きを設定する。同様に、視点設定部56は、ステップS14において取得されたユーザ端末16の向きに基づいて、ワールド座標系において、右眼対応立体モデル74Rに対する右眼視点、右眼視線方向、及び右眼上方ベクトルの向きを設定する。   In step S16, the viewpoint setting unit 56, based on the orientation of the user terminal 16 acquired in step S14, in the world coordinate system, the left eye viewpoint, the left eye gaze direction, and the left eye upper direction with respect to the left eye corresponding stereo model 74L. Set the orientation of the vector. Similarly, the viewpoint setting unit 56, based on the orientation of the user terminal 16 acquired in step S14, in the world coordinate system, the right-eye viewpoint, right-eye gaze direction, and right-eye upward vector for the right-eye corresponding stereo model 74R. Set the orientation.

ステップS18において、視点補正部58は、ステップS14で取得したユーザ端末16の向きに基づいて、補正距離Δdを算出する。   In step S18, the viewpoint correction unit 58 calculates the correction distance Δd based on the orientation of the user terminal 16 acquired in step S14.

ステップS20において、視点補正部58は、ステップS18で算出した補正距離Δdに応じた距離分、左眼視点及び右眼視点をそれぞれのビュー座標系上で移動させる。上述の通り、左眼視点の移動方向は、左眼ビュー座標系のXVL軸負方向であり、右眼視点の移動方向は、右眼ビュー座標系のXVR軸正方向である。 In step S20, the viewpoint correction unit 58 moves the left eye viewpoint and the right eye viewpoint on the respective view coordinate systems by a distance corresponding to the correction distance Δd calculated in step S18. As described above, the moving direction of the left-eye viewpoint is X VL-axis negative direction of the left eye view coordinate system, the moving direction of the right eye viewpoint is X VR-axis positive direction of the right-eye view coordinate system.

ステップS22において、投影変換部60は、ステップS20で補正された左眼視点の位置、左眼視線方向、及び左眼上方ベクトルの向きに基づいて、左眼対応立体モデル74Lを2次元投影することで、処理済左眼対応画像を生成する。同様に、投影変換部60は、ステップS20で補正された右眼視点の位置、右眼視線方向、及び右眼上方ベクトルの向きに基づいて、右眼対応立体モデル74Rを2次元投影することで、処理済右眼対応画像を生成する。   In step S22, the projection conversion unit 60 performs two-dimensional projection of the left-eye corresponding stereo model 74L based on the position of the left eye viewpoint, the left eye gaze direction, and the direction of the left eye upper vector corrected in step S20. Thus, a processed left eye corresponding image is generated. Similarly, the projection conversion unit 60 performs two-dimensional projection of the right-eye corresponding stereo model 74R based on the right-eye viewpoint position, the right-eye gaze direction, and the right-eye upper vector direction corrected in step S20. Then, a processed right eye corresponding image is generated.

ステップS24において、立体視画像生成部62は、ステップS22で生成された処理済左眼対応画像及び処理済右眼対応画像を並列に並べることにより、立体視画像を生成する。   In step S24, the stereoscopic image generation unit 62 generates a stereoscopic image by arranging the processed left eye corresponding image and the processed right eye corresponding image generated in step S22 in parallel.

ステップS26において、制御部40は、ステップS24で生成された立体視画像を表示部44に表示させる。   In step S26, the control unit 40 causes the display unit 44 to display the stereoscopic image generated in step S24.

以上、本発明に係る実施形態を説明したが、本発明は上記実施形態に限られるものではなく、本発明の趣旨を逸脱しない限りにおいて種々の変更が可能である。   As mentioned above, although embodiment which concerns on this invention was described, this invention is not limited to the said embodiment, A various change is possible unless it deviates from the meaning of this invention.

10 立体視画像提供システム、12L 左眼対応カメラ、12R 右眼対応カメラ、14 画像配信サーバ、16 ユーザ端末、18 通信回線、20L,20R 魚眼レンズ、22L,22R 撮像素子、24L,24R,30,42 通信部、32,48 記憶部、34L 左眼対応画像、34R 右眼対応画像、36,40 制御部、44 表示部、46 入力部、50 角速度センサ、52 画像処理部、54 モデリング部、56 視点設定部、58 視点補正部、60 投影変換部、62 立体視画像生成部。   10 stereoscopic image providing system, 12L left-eye camera, 12R right-eye camera, 14 image distribution server, 16 user terminal, 18 communication line, 20L, 20R fisheye lens, 22L, 22R image sensor, 24L, 24R, 30, 42 Communication unit, 32, 48 storage unit, 34L left eye correspondence image, 34R right eye correspondence image, 36, 40 control unit, 44 display unit, 46 input unit, 50 angular velocity sensor, 52 image processing unit, 54 modeling unit, 56 viewpoints Setting unit, 58 viewpoint correction unit, 60 projection conversion unit, 62 stereoscopic image generation unit.

Claims (5)

所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を生成する画像処理装置であって、
前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリング部と、
前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す右眼上方ベクトルの向きを設定する視点設定部と、
前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正部と、
補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済眼対応画像を生成する投影変換部と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that processes images from a left-eye compatible camera and a right-eye compatible camera installed so as to face the same direction at a predetermined distance and generate an image to be displayed on a user terminal used by a user There,
The left-eye corresponding image captured by the left-eye compatible camera and the right-eye corresponding image captured by the right-eye compatible camera are each projected and converted into a three-dimensional model, and the left-eye corresponding three-dimensional model and right A modeling unit that builds an eye-compatible stereo model;
Based on the orientation of the user terminal, in the world coordinate system, the position of the left eye viewpoint with respect to the left eye corresponding stereo model, the left eye gaze direction that is the viewpoint direction from the left eye viewpoint, and the left eye viewpoint The direction of the upper left eye vector indicating the upward direction is set, and based on the orientation of the user terminal, in the world coordinate system, the position of the right eye viewpoint relative to the right eye corresponding stereo model, from the right eye viewpoint A viewpoint setting unit that sets a right eye gaze direction that is a viewpoint direction, and a direction of a right eye upper vector that indicates an upward direction of the right eye viewpoint;
When the orientation of the user terminal is directed from the front direction determined by calibration to the left-right direction, the direction opposite to the left-eye line-of-sight direction is defined as the ZVL axis positive direction, and the orientation of the left-eye upper vector was a Y VL-axis positive direction, the left-eye viewpoint to X VL-axis negative direction in the left-eye view coordinate system is orientation X VL-axis positive direction constituting a right-hand system to the Z VL-axis and Y VL axis The direction opposite to the right eye line-of-sight direction is the Z VR axis positive direction, the direction of the right eye upper vector is the Y VR axis positive direction, and the right-handed system is set to the Z VR axis and the Y VR axis. orientation constituting the by moving the right eye viewpoint the X VR-axis positive direction in the right-eye view coordinate system is X VR-axis positive direction, viewpoint correction unit for correcting the position of the left eye viewpoint and the right eye viewpoint When,
Based on the corrected position of the left eye viewpoint, the left eye gaze direction, and the direction of the left eye upper vector, a processed left eye correspondence image is generated by two-dimensionally projecting the left eye correspondence stereo model. Based on the corrected position of the right eye viewpoint, the right eye gaze direction, and the direction of the right eye upper vector, the processed right eye corresponding image is generated by two-dimensionally projecting the right eye corresponding stereo model A projection conversion unit,
An image processing apparatus comprising:
前記視点補正部は、前記所定距離と、前記利用者端末の向きに応じて演算される前記左眼対応カメラと前記右眼対応カメラとの間の視差との差の半分である補正距離に応じた距離分、前記左眼視点及び前記右眼視点の位置を移動させる、
ことを特徴とする請求項1に記載の画像処理装置。
The viewpoint correction unit responds to a correction distance that is half of the difference between the predetermined distance and the parallax between the left-eye compatible camera and the right-eye compatible camera calculated according to the orientation of the user terminal. Moving the position of the left eye viewpoint and the right eye viewpoint by a distance of
The image processing apparatus according to claim 1.
前記モデリング部は、前記左眼対応立体モデルにおける、前記左眼対応カメラの撮像対象の像が描画された描画領域のうち、前記左眼対応カメラの撮像対象の像が描画されていない無描画領域側の境界領域において、当該無描画領域へ向かって描画像を徐々に透過させる処理を行い、前記右眼対応立体モデルにおける、前記右眼対応カメラの撮像対象の像が描画された描画領域のうち、前記右眼対応カメラの撮像対象の像が描画されていない無描画領域側の境界領域において、当該無描画領域へ向かって描画像を徐々に透過させる処理を行う、
ことを特徴とする請求項1又は2に記載の画像処理装置。
The modeling unit is a non-rendering area in which an image of the imaging target of the left-eye camera is not drawn among rendering areas in which the imaging target of the left-eye camera is rendered in the left-eye corresponding stereo model In the drawing area where the image of the imaging target of the right-eye corresponding camera in the right-eye corresponding stereo model is drawn in the right-eye corresponding stereo model, in which the drawing image is gradually transmitted toward the non-drawing area in the boundary area on the side In the boundary region on the non-rendering region side where the image to be imaged by the right-eye compatible camera is not rendered, a process of gradually transmitting the rendered image toward the non-rendering region is performed.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を生成するコンピュータを、
前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリング部と、
前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す右眼上方ベクトルの向きを設定する視点設定部と、
前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正部と、
補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済眼対応画像を生成する投影変換部と、
として機能させることを特徴とする画像処理プログラム。
A computer that processes images from a left-eye compatible camera and a right-eye compatible camera installed so as to face the same direction at a predetermined distance, and generates an image to be displayed on a user terminal used by a user;
The left-eye corresponding image captured by the left-eye compatible camera and the right-eye corresponding image captured by the right-eye compatible camera are each projected and converted into a three-dimensional model, and the left-eye corresponding three-dimensional model and right A modeling unit that builds an eye-compatible stereo model;
Based on the orientation of the user terminal, in the world coordinate system, the position of the left eye viewpoint with respect to the left eye corresponding stereo model, the left eye gaze direction that is the viewpoint direction from the left eye viewpoint, and the left eye viewpoint The direction of the upper left eye vector indicating the upward direction is set, and based on the orientation of the user terminal, in the world coordinate system, the position of the right eye viewpoint relative to the right eye corresponding stereo model, from the right eye viewpoint A viewpoint setting unit that sets a right eye gaze direction that is a viewpoint direction, and a direction of a right eye upper vector that indicates an upward direction of the right eye viewpoint;
When the orientation of the user terminal is directed from the front direction determined by calibration to the left-right direction, the direction opposite to the left-eye line-of-sight direction is defined as the ZVL axis positive direction, and the orientation of the left-eye upper vector was a Y VL-axis positive direction, the left-eye viewpoint to X VL-axis negative direction in the left-eye view coordinate system is orientation X VL-axis positive direction constituting a right-hand system to the Z VL-axis and Y VL axis The direction opposite to the right eye line-of-sight direction is the Z VR axis positive direction, the direction of the right eye upper vector is the Y VR axis positive direction, and the right-handed system is set to the Z VR axis and the Y VR axis. orientation constituting the by moving the right eye viewpoint the X VR-axis positive direction in the right-eye view coordinate system is X VR-axis positive direction, viewpoint correction unit for correcting the position of the left eye viewpoint and the right eye viewpoint When,
Based on the corrected position of the left eye viewpoint, the left eye gaze direction, and the direction of the left eye upper vector, a processed left eye correspondence image is generated by two-dimensionally projecting the left eye correspondence stereo model. Based on the corrected position of the right eye viewpoint, the right eye gaze direction, and the direction of the right eye upper vector, the processed right eye corresponding image is generated by two-dimensionally projecting the right eye corresponding stereo model A projection conversion unit,
An image processing program that functions as an image processing program.
所定距離離間して同じ方向を向くように設置された左眼対応カメラ及び右眼対応カメラからの画像を処理して、利用者が利用する利用者端末に表示する画像を生成する画像処理方法であって、
前記左眼対応カメラで撮像された左眼対応画像、及び、前記右眼対応カメラで撮像された右眼対応画像をそれぞれ立体モデルに投影変換して、ワールド座標系において左眼対応立体モデル及び右眼対応立体モデルを構築するモデリングステップと、
前記利用者端末の向きに基づいて、前記ワールド座標系において、前記左眼対応立体モデルに対する左眼視点の位置、前記左眼視点からの視点方向である左眼視線方向、及び、前記左眼視点の上方向を示す左眼上方ベクトルの向きを設定し、前記利用者端末の向きに基づいて、前記ワールド座標系において、前記右眼対応立体モデルに対する右眼視点の位置、前記右眼視点からの視点方向である右眼視線方向、及び、前記右眼視点の上方向を示す右眼上方ベクトルの向きを設定する視点設定ステップと、
前記利用者端末の向きが、キャリブレーションにより定められる正面方向から左右方向に向けられた場合に、前記左眼視線方向とは反対の方向をZVL軸正方向とし、前記左眼上方ベクトルの向きをYVL軸正方向とし、前記ZVL軸及びYVL軸に対して右手系を構成する向きがXVL軸正方向である左眼ビュー座標系におけるXVL軸負方向に前記左眼視点を移動させ、前記右眼視線方向とは反対の方向をZVR軸正方向とし、前記右眼上方ベクトルの向きをYVR軸正方向とし、前記ZVR軸及びYVR軸に対して右手系を構成する向きがXVR軸正方向である右眼ビュー座標系におけるXVR軸正方向に前記右眼視点を移動させることで、前記左眼視点及び前記右眼視点の位置を補正する視点補正ステップと、
補正された前記左眼視点の位置、前記左眼視線方向、及び前記左眼上方ベクトルの向きに基づいて、前記左眼対応立体モデルを2次元投影することで処理済左眼対応画像を生成し、補正された前記右眼視点の位置、前記右眼視線方向、及び前記右眼上方ベクトルの向きに基づいて、前記右眼対応立体モデルを2次元投影することで処理済眼対応画像を生成する投影変換ステップと、
を備えることを特徴とする画像処理方法。
An image processing method for processing images from a left-eye compatible camera and a right-eye compatible camera installed so as to face the same direction at a predetermined distance and generate an image to be displayed on a user terminal used by the user There,
The left-eye corresponding image captured by the left-eye compatible camera and the right-eye corresponding image captured by the right-eye compatible camera are each projected and converted into a three-dimensional model, and the left-eye corresponding three-dimensional model and right Modeling steps to build an eye-compatible stereo model;
Based on the orientation of the user terminal, in the world coordinate system, the position of the left eye viewpoint with respect to the left eye corresponding stereo model, the left eye gaze direction that is the viewpoint direction from the left eye viewpoint, and the left eye viewpoint The direction of the upper left eye vector indicating the upward direction is set, and based on the orientation of the user terminal, in the world coordinate system, the position of the right eye viewpoint relative to the right eye corresponding stereo model, from the right eye viewpoint A viewpoint setting step of setting a direction of a right eye gaze direction that is a viewpoint direction, and a direction of a right eye upper vector indicating an upper direction of the right eye viewpoint;
When the orientation of the user terminal is directed from the front direction determined by calibration to the left-right direction, the direction opposite to the left-eye line-of-sight direction is defined as the ZVL axis positive direction, and the orientation of the left-eye upper vector was a Y VL-axis positive direction, the left-eye viewpoint to X VL-axis negative direction in the left-eye view coordinate system is orientation X VL-axis positive direction constituting a right-hand system to the Z VL-axis and Y VL axis The direction opposite to the right eye line-of-sight direction is the Z VR axis positive direction, the direction of the right eye upper vector is the Y VR axis positive direction, and the right-handed system is set to the Z VR axis and the Y VR axis. orientation constituting the by moving the right eye viewpoint the X VR-axis positive direction in the right-eye view coordinate system is X VR-axis positive direction, viewpoint correction step of correcting a position of the left eye viewpoint and the right eye viewpoint When,
Based on the corrected position of the left eye viewpoint, the left eye gaze direction, and the direction of the left eye upper vector, a processed left eye correspondence image is generated by two-dimensionally projecting the left eye correspondence stereo model. Based on the corrected position of the right eye viewpoint, the right eye gaze direction, and the direction of the right eye upper vector, the processed right eye corresponding image is generated by two-dimensionally projecting the right eye corresponding stereo model A projection transformation step,
An image processing method comprising:
JP2017032281A 2017-02-23 2017-02-23 Image processing apparatus, image processing program, and image processing method Active JP6378794B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017032281A JP6378794B1 (en) 2017-02-23 2017-02-23 Image processing apparatus, image processing program, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017032281A JP6378794B1 (en) 2017-02-23 2017-02-23 Image processing apparatus, image processing program, and image processing method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018141215A Division JP2019013003A (en) 2018-07-27 2018-07-27 Image processing apparatus, image processing program, and image processing method

Publications (2)

Publication Number Publication Date
JP6378794B1 true JP6378794B1 (en) 2018-08-22
JP2018137679A JP2018137679A (en) 2018-08-30

Family

ID=63250108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017032281A Active JP6378794B1 (en) 2017-02-23 2017-02-23 Image processing apparatus, image processing program, and image processing method

Country Status (1)

Country Link
JP (1) JP6378794B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047638A (en) * 2018-10-12 2020-04-21 富华科精密工业(深圳)有限公司 Monocular distance measuring device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001222723A (en) * 2000-02-09 2001-08-17 Gen Tec:Kk Method and device for generating stereoscopic image
JP5515301B2 (en) * 2009-01-21 2014-06-11 株式会社ニコン Image processing apparatus, program, image processing method, recording method, and recording medium
US20120200676A1 (en) * 2011-02-08 2012-08-09 Microsoft Corporation Three-Dimensional Display with Motion Parallax
JP6337418B2 (en) * 2013-03-26 2018-06-06 セイコーエプソン株式会社 Head-mounted display device and method for controlling head-mounted display device
CA2961175A1 (en) * 2014-09-03 2016-03-10 Nextvr Inc. Methods and apparatus for capturing, streaming and/or playing back content

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111047638A (en) * 2018-10-12 2020-04-21 富华科精密工业(深圳)有限公司 Monocular distance measuring device
CN111047638B (en) * 2018-10-12 2023-08-18 深圳富联富桂精密工业有限公司 Monocular distance measuring device

Also Published As

Publication number Publication date
JP2018137679A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
US9881421B2 (en) Image processing
WO2018056155A1 (en) Information processing device, image generation method and head-mounted display
US11960086B2 (en) Image generation device, head-mounted display, and image generation method
US20190045125A1 (en) Virtual reality video processing
CN211128024U (en) 3D display device
TWI788739B (en) 3D display device, 3D image display method
WO2017086244A1 (en) Image processing device, information processing device, and image processing method
WO2018032841A1 (en) Method, device and system for drawing three-dimensional image
CN113454685A (en) Cloud-based camera calibration
US20220113543A1 (en) Head-mounted display and image display method
JPWO2019198784A1 (en) Light field image generation system, image display system, shape information acquisition server, image generation server, display device, light field image generation method and image display method
JPH1074269A (en) Stereoscopic cg moving image generator
US20180143523A1 (en) Spherical omnipolar imaging
JP6378794B1 (en) Image processing apparatus, image processing program, and image processing method
CN110060349B (en) Method for expanding field angle of augmented reality head-mounted display equipment
US20220113794A1 (en) Display device and image display method
CN114513646B (en) Method and device for generating panoramic video in three-dimensional virtual scene
CN115311133A (en) Image processing method and device, electronic equipment and storage medium
JP2019013003A (en) Image processing apparatus, image processing program, and image processing method
WO2019026388A1 (en) Image generation device and image generation method
WO2017191703A1 (en) Image processing device
TW202205851A (en) Light transmitting display system, image output method thereof and processing device thereof
US20220165015A1 (en) Image signal representing a scene
KR100893381B1 (en) Methods generating real-time stereo images
WO2019146194A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180727

R150 Certificate of patent or registration of utility model

Ref document number: 6378794

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250