JP6880410B2 - Video display system, video display method and video display program - Google Patents

Video display system, video display method and video display program Download PDF

Info

Publication number
JP6880410B2
JP6880410B2 JP2017214356A JP2017214356A JP6880410B2 JP 6880410 B2 JP6880410 B2 JP 6880410B2 JP 2017214356 A JP2017214356 A JP 2017214356A JP 2017214356 A JP2017214356 A JP 2017214356A JP 6880410 B2 JP6880410 B2 JP 6880410B2
Authority
JP
Japan
Prior art keywords
depth
spatial image
image
space
moving direction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017214356A
Other languages
Japanese (ja)
Other versions
JP2019087864A (en
Inventor
建 井阪
建 井阪
誉宗 巻口
誉宗 巻口
高田 英明
英明 高田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2017214356A priority Critical patent/JP6880410B2/en
Publication of JP2019087864A publication Critical patent/JP2019087864A/en
Application granted granted Critical
Publication of JP6880410B2 publication Critical patent/JP6880410B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、観察者に空間像の奥行き方向への移動を知覚させる技術に関する。 The present invention relates to a technique for allowing an observer to perceive the movement of a spatial image in the depth direction.

舞台等の背景となる立体的な実空間の前面に透過性のスクリーンを配置し、そのスクリーンに平面像を投影することで、その平面像を立体的かつ空中に浮遊した状態の空間像であるかのように見せる映像表示システムがある。 By arranging a transparent screen in front of a three-dimensional real space that is the background of a stage or the like and projecting a two-dimensional image on the screen, the two-dimensional image is a three-dimensional and floating space image in the air. There is a video display system that makes it look as if.

このような映像表示システムは、観察者に画像枠の存在を感じさせない等、画像が平面であることを観察者に知覚させる手がかりが少ないという特徴を備えることから、この特徴を利用すれば、実空間の所定位置に空間像が存在するという心理的な奥行き感を、複雑な構造から成る裸眼立体表示装置よりも簡便に表現することができる。 Such an image display system has a feature that there are few clues to make the observer perceive that the image is flat, such as not making the observer feel the existence of the image frame. The psychological sense of depth that a spatial image exists at a predetermined position in space can be expressed more easily than a three-dimensional display device with a naked eye having a complicated structure.

特開2017−49354号公報JP-A-2017-49354

従来の映像表示システムは、上述した投影の仕組みを持つため、透過性のスクリーン上に投影された平面像に奥行き感を与えることができる。しかしながら、その平面像に対して奥行き方向への移動を与えること、つまり、観察者に空間像の奥行き方向への移動を知覚させることは困難であった。 Since the conventional image display system has the above-mentioned projection mechanism, it is possible to give a sense of depth to the planar image projected on the transparent screen. However, it is difficult to give the plane image movement in the depth direction, that is, to make the observer perceive the movement of the spatial image in the depth direction.

この課題について、特許文献1では、透過率可変板の透過率を制御することで、空間像の奥行き方向の位置を調整する方法を採用している。しかし、この方法の場合、空間像の奥行き方向への移動を離散的にしか表現することができない。 Regarding this problem, Patent Document 1 employs a method of adjusting the position of the spatial image in the depth direction by controlling the transmittance of the variable transmittance plate. However, in the case of this method, the movement of the spatial image in the depth direction can be expressed only discretely.

本発明は、上記事情を鑑みてなされたものであり、観察する視点が複数であってもそれぞれの視点で空間像が奥行き方向に移動していることを観察者に知覚させることを第1の目的とし、その空間像が連続的に奥行き方向に移動していることを知覚させることを第2の目的とする。 The present invention has been made in view of the above circumstances, and the first is to make the observer perceive that the spatial image is moving in the depth direction from each viewpoint even if there are a plurality of viewpoints to be observed. The second purpose is to perceive that the spatial image is continuously moving in the depth direction.

以上の課題を解決するため、請求項1に係る空間像移動方向決定装置は、立体空間を所定側の視点位置からみた2次元画像を用いて、前記立体空間に表示される空間像の奥行き移動方向が前記立体空間の奥行き辺の方向と異なる場合、前記空間像が前記立体空間の奥行き方向へ移動していると知覚できる所定の移動方向許容範囲を算出する算出部と、異なる複数の視点位置にそれぞれ対応する複数の移動方向許容範囲に共通する共通範囲を用いて、前記空間像を前記立体空間の奥行き方向へ移動させる2次元画像上の移動方向を決定する決定部と、を備えることを特徴とする。 In order to solve the above problems, the spatial image moving direction determining device according to claim 1 uses a two-dimensional image of the three-dimensional space viewed from a predetermined viewpoint position, and moves the depth of the spatial image displayed in the three-dimensional space. When the direction is different from the direction of the depth side of the three-dimensional space, a calculation unit that calculates a predetermined movement direction allowable range that can be perceived as the space image moving in the depth direction of the three-dimensional space, and a plurality of different viewpoint positions. A determination unit for determining a movement direction on a two-dimensional image for moving the spatial image in the depth direction of the three-dimensional space by using a common range common to a plurality of movement direction allowable ranges corresponding to the above. It is a feature.

請求項2に係る空間像移動方向決定装置は、請求項1に記載の空間像移動方向決定装置において、前記立体空間は、直方体空間であって、前記算出部は、前記移動方向許容範囲として、前記直方体空間を所定側の視点位置からみた2次元画像の水平軸に対する、前記直方体空間の奥行き辺の角度と、前記空間像から前記奥行き辺を成す直方体空間の奥側の頂点までの線分の角度と、の間の角度範囲を算出することを特徴とする。 The spatial image moving direction determining device according to claim 2 is the spatial image moving direction determining device according to claim 1, wherein the three-dimensional space is a rectangular parallelepiped space, and the calculation unit sets the moving direction allowable range. The angle of the depth side of the rectangular parallelepiped space with respect to the horizontal axis of the two-dimensional image when the rectangular parallelepiped space is viewed from the viewpoint position on the predetermined side, and the line segment from the space image to the apex of the rectangular parallelepiped space forming the depth side. It is characterized in that the angle range between the angle and the angle is calculated.

請求項3に係る空間像移動方向決定装置は、請求項2に記載の空間像移動方向決定装置において、前記決定部は、前記水平軸に対する前記空間像の奥行き移動方向への角度が前記角度範囲に係る前記共通範囲に含まれる場合、当該奥行き移動方向を前記2次元画像上の移動方向として決定することを特徴とする。 The spatial image moving direction determining device according to claim 3 is the spatial image moving direction determining device according to claim 2, wherein the determination unit has an angle range in which the angle of the spatial image with respect to the horizontal axis in the depth moving direction is the angle range. When it is included in the common range according to the above, it is characterized in that the depth moving direction is determined as the moving direction on the two-dimensional image.

請求項4に係る空間像移動方向決定装置は、請求項2又は3に記載の空間像移動方向決定装置において、前記決定部は、前記水平軸に対する前記空間像の奥行き移動方向への角度が前記角度範囲に係る前記共通範囲に含まれない場合、当該共通範囲の上限角度又は下限角度への移動方向を前記2次元画像上の移動方向として決定することを特徴とする。 The spatial image moving direction determining device according to claim 4 is the spatial image moving direction determining device according to claim 2 or 3, wherein the determination unit has an angle of the spatial image with respect to the horizontal axis in the depth moving direction. When it is not included in the common range related to the angle range, the moving direction to the upper limit angle or the lower limit angle of the common range is determined as the moving direction on the two-dimensional image.

請求項5に係る空間像移動方向決定装置は、請求項2乃至4のいずれかに記載の空間像移動方向決定装置において、前記直方体空間を成す4つの奥行き辺のうち、前記空間像の奥行き移動方向の傾きに対する相対角度が最小の奥行き辺を探索する探索部を更に備え、前記算出部は、前記最小の奥行き辺を用いて前記移動方向許容範囲を算出することを特徴とする。 The spatial image moving direction determining device according to claim 5 is the spatial image moving direction determining device according to any one of claims 2 to 4, wherein the spatial image moving direction is moved among the four depth sides forming the rectangular space. A search unit for searching a depth side having a minimum relative angle with respect to a direction inclination is further provided, and the calculation unit is characterized in that the movement direction allowable range is calculated using the minimum depth side.

請求項6に係る空間像表示装置は、時間的に連続するフレームごとに、立体空間に表示される少なくとも1つ以上の空間像の奥行き方向への移動方向を、前記請求項1乃至5のいずれかに記載の空間像移動方向決定装置で決定された移動方向に変更する変更部と、前記フレームについて、連続して、変更後の奥行き移動方向上の位置に前記空間像を表示する表示部と、を備えることを特徴とする。 The spatial image display device according to claim 6 sets the moving direction of at least one or more spatial images displayed in the three-dimensional space in the depth direction for each frame that is continuous in time, according to any one of claims 1 to 5. A changing unit that changes the moving direction determined by the spatial image moving direction determining device described in the above, and a display unit that continuously displays the spatial image at a position on the changed depth moving direction for the frame. , Is provided.

請求項7に係る空間像移動方向決定方法は、空間像移動方向決定装置が、立体空間を所定側の視点位置からみた2次元画像を用いて、前記立体空間に表示される空間像の奥行き移動方向が前記立体空間の奥行き辺の方向と異なる場合、前記空間像が前記立体空間の奥行き方向へ移動していると知覚できる所定の移動方向許容範囲を算出するステップと、異なる複数の視点位置にそれぞれ対応する複数の移動方向許容範囲に共通する共通範囲を用いて、前記空間像を前記立体空間の奥行き方向へ移動させる2次元画像上の移動方向を決定するステップと、を行うことを特徴とする。 In the method for determining the moving direction of a spatial image according to claim 7, the spatial image moving direction determining device uses a two-dimensional image of the three-dimensional space viewed from a predetermined viewpoint position to move the depth of the spatial image displayed in the three-dimensional space. When the direction is different from the direction of the depth side of the three-dimensional space, a step of calculating a predetermined movement direction allowable range that can be perceived as the space image moving in the depth direction of the three-dimensional space, and a plurality of different viewpoint positions. It is characterized in that a step of determining a movement direction on a two-dimensional image for moving the spatial image in the depth direction of the three-dimensional space is performed using a common range common to a plurality of corresponding movement direction allowable ranges. To do.

請求項8に係る空間像移動方向決定プログラムは、請求項1乃至5のいずれかに記載の空間像移動方向決定装置としてコンピュータを機能させることを特徴とする。 The spatial image moving direction determining program according to claim 8 is characterized in that a computer functions as the spatial image moving direction determining device according to any one of claims 1 to 5.

本発明によれば、観察する視点が複数であってもそれぞれの視点で空間像が奥行き方向に移動していることを観察者に知覚させることができる。また、その空間像が連続的に奥行き方向に移動していることを知覚させることができる。 According to the present invention, even if there are a plurality of viewpoints to be observed, the observer can perceive that the spatial image is moving in the depth direction at each viewpoint. In addition, it is possible to perceive that the spatial image is continuously moving in the depth direction.

映像表示システムの全体構成を示す図である。It is a figure which shows the whole structure of a video display system. 空間像の例を示す図である。It is a figure which shows the example of the space image. 空間像移動方向決定装置1の機能ブロック構成を示す図である。It is a figure which shows the functional block composition of the space image movement direction determination apparatus 1. 空間像出力装置2の機能ブロック構成を示す図である。It is a figure which shows the functional block composition of a space image output device 2. 空間像の奥行き移動方向の決定処理フローを示す図である。It is a figure which shows the determination processing flow of the depth movement direction of a space image. バウンディングボックスの例を示す図である。It is a figure which shows the example of the bounding box. 実空間領域及び観察視点範囲の例を示す図である。It is a figure which shows the example of the real space area and the observation viewpoint range. 視点グループ及び頂点視点の例を示す図である。It is a figure which shows the example of a viewpoint group and a vertex viewpoint. 頂点視点から撮影した2次元画像の例を示す図である。It is a figure which shows the example of the 2D image taken from the apex viewpoint. 頂点視点から撮影した2次元画像の例を示す図である。It is a figure which shows the example of the 2D image taken from the apex viewpoint. 空間像の表示処理フローを示す図である。It is a figure which shows the display processing flow of a space image.

<発明の概要>
スクリーン上に投影された平面像(立体空間内の空間像)の移動方向の中には、背景となる立体空間との関係から心理的に奥行き方向への移動と感じられる移動方向がある。
<Outline of the invention>
Among the moving directions of the planar image (spatial image in the three-dimensional space) projected on the screen, there is a moving direction that is psychologically perceived as moving in the depth direction due to the relationship with the three-dimensional space that is the background.

そこで、本発明では、観察者の視点からみて、空間像の奥行き移動方向が心理的に奥行き方向への移動と感じられる方向(本来あるべき移動方向)と異なる場合には、観察者のあらゆる視点で奥行き方向への移動であると解釈するために許容される共通の移動方向許容範囲を求め、その許容範囲内の方向への移動を空間像の奥行き方向への移動としてスクリーンに投影する。 Therefore, in the present invention, when the depth movement direction of the spatial image is different from the direction (the original movement direction) that is psychologically perceived as the movement in the depth direction from the viewpoint of the observer, all viewpoints of the observer. The common movement direction tolerance that is allowed to be interpreted as movement in the depth direction is obtained, and the movement in the direction within the tolerance is projected on the screen as the movement in the depth direction of the spatial image.

これにより、観察する視点が複数であってもそれぞれの視点で空間像が奥行き方向に移動していることを観察者に知覚させることを実現する。 As a result, even if there are a plurality of viewpoints to be observed, it is possible to make the observer perceive that the spatial image is moving in the depth direction at each viewpoint.

以下、本発明を実施する一実施の形態について図面を用いて説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

<映像表示システムの構成例>
図1は、本実施の形態に係る映像表示システムの全体構成を示す図である。この映像表示システムは、図1に示すように、立体空間に表示される空間像の奥行き移動方向を決定する空間像移動方向決定装置1と、立体空間に空間像を出力する空間像出力装置2と、立体空間に背景映像を表示する背景映像表示装置3と、空間像出力装置2から出力された空間像を表示する透過性の空間像表示デバイス4と、を備えて構成される。
<Configuration example of video display system>
FIG. 1 is a diagram showing an overall configuration of a video display system according to the present embodiment. As shown in FIG. 1, this video display system includes a spatial image moving direction determining device 1 that determines the depth moving direction of a spatial image displayed in a three-dimensional space, and a spatial image output device 2 that outputs a spatial image to the three-dimensional space. A background image display device 3 that displays a background image in a three-dimensional space, and a transparent space image display device 4 that displays a space image output from the space image output device 2 are provided.

この映像表示システムでは、図1に示すように、観察者100からみて、空間像表示デバイス4を約45度の角度で奥側に傾斜させて配置し、さらに、空間像表示デバイス4の奥側に背景映像表示装置3を配置し、かつ、空間像表示デバイス4の上側に空間像出力装置2を配置することで、空間像出力装置2から空間像表示デバイス4に投影された平面像(2D画像)を立体的かつ空中に浮遊した状態の空間像として表現する。例えば、図2に示すように、観察者100に対して、何もない舞台上にボールを立体的に見せることができる。また、平面像及び背景映像を適宜変更することで、様々なコンテンツを提供することができる。 In this video display system, as shown in FIG. 1, the spatial image display device 4 is arranged so as to be tilted to the rear side at an angle of about 45 degrees when viewed from the observer 100, and further, the back side of the spatial image display device 4 is arranged. By arranging the background image display device 3 in the space image display device 3 and arranging the space image output device 2 above the space image display device 4, the planar image (2D) projected from the space image output device 2 onto the space image display device 4 Image) is expressed as a spatial image in a three-dimensional and floating state in the air. For example, as shown in FIG. 2, the ball can be three-dimensionally shown to the observer 100 on an empty stage. Further, various contents can be provided by appropriately changing the plane image and the background image.

なお、図1に示した映像表示システムの構成は一例である。例えば、空間像移動方向決定装置1を、空間像の奥行き移動方向を事前に決定するための事前処理部とし、空間像出力装置2を、その事前処理部で決定された移動方向上の位置に空間像を出力する逐次処理部として、一つの装置で実現してもよい。その他、空間像出力装置2及び空間像表示デバイス4を、一つの空間像表示装置としてもよい。 The configuration of the video display system shown in FIG. 1 is an example. For example, the spatial image moving direction determining device 1 is used as a preprocessing unit for determining the depth moving direction of the spatial image in advance, and the spatial image output device 2 is placed at a position on the moving direction determined by the preprocessing unit. It may be realized by one device as a sequential processing unit that outputs a spatial image. In addition, the spatial image output device 2 and the spatial image display device 4 may be used as one spatial image display device.

<空間像移動方向決定装置1の機能>
次に、空間像移動方向決定装置1の機能について説明する。図3は、空間像移動方向決定装置1の機能ブロック構成を示す図である。空間像移動方向決定装置1は、図3に示すように、背景情報記憶部11と、観察視点範囲記憶部12と、支配的線遠近キュー探索部13と、奥行知覚許容量算出部14と、最適移動方向ベクトル算出部15と、最適移動方向ベクトル記憶部16と、を備えて構成される。
<Function of spatial image moving direction determining device 1>
Next, the function of the spatial image moving direction determining device 1 will be described. FIG. 3 is a diagram showing a functional block configuration of the spatial image moving direction determining device 1. As shown in FIG. 3, the spatial image moving direction determining device 1 includes a background information storage unit 11, an observation viewpoint range storage unit 12, a dominant line perspective cue search unit 13, a depth perception allowance calculation unit 14, and a depth perception allowance calculation unit 14. The optimum movement direction vector calculation unit 15 and the optimum movement direction vector storage unit 16 are provided.

背景情報記憶部11は、空間像の背景となる実空間領域を直方体とみなし、その直方体の幅・高さ・奥行きの値を記録しておく機能部である。背景の実空間領域としては任意の形状が考えられるが、直方体以外の形状(例えば、一部に凹凸を持つ形状等)の場合は、簡易的なユーザ入力等からその形状の領域を床面・天井面・左右の壁面・背景面に分割して直方体を構築した後に、その直方体の幅・高さ・奥行きの値を記録する。また、直方体の水平方向・鉛直方向・奥行き方向の稜線(辺)をそれぞれx軸・y軸・z軸とする左手系座標を設定し、背景面と向かい合う面を空間像が表示される像面とする。 The background information storage unit 11 is a functional unit that regards a real space area that is the background of a spatial image as a rectangular parallelepiped and records the values of the width, height, and depth of the rectangular parallelepiped. An arbitrary shape can be considered as the real space area of the background, but in the case of a shape other than a rectangular parallelepiped (for example, a shape having unevenness in a part), the area of that shape is set as the floor surface by simple user input or the like. After constructing a rectangular parallelepiped by dividing it into a ceiling surface, left and right wall surfaces, and a background surface, record the values of the width, height, and depth of the rectangular parallelepiped. In addition, left-handed coordinates with the horizontal, vertical, and depth ridges (sides) of the rectangular parallelepiped as the x-axis, y-axis, and z-axis, respectively, are set, and the surface facing the background surface is the image surface on which the spatial image is displayed. And.

なお、直方体以外の形状から直方体を構築する方法については、例えば、「Satoshi Iizuka、“An Efficient Modeling System for 3D Scenes from a Single Image”、IEEE Computer Graphics and Applications、vol.32、no.6、2012年、p.18-p.25」に記載されている。 For information on how to construct a rectangular parallelepiped from a shape other than a rectangular parallelepiped, for example, "Satoshi Iizuka," An Efficient Modeling System for 3D Scenes from a Single Image ", IEEE Computer Graphics and Applications, vol.32, no.6, 2012 Year, p.18-p.25 ".

観察視点範囲記憶部12は、空間像を観察する観察者の視点位置が存在する範囲を観察視点範囲として記録しておく機能部である。具体的には、観察視点範囲記憶部12は、実空間の適当な点を原点と定めたときの直交座標系における観察者の視点位置の座標値(x,y,z)の集合を求め、その集合を囲むバウンディングボックス内の領域を観察視点範囲とし、このバウンディングボックスの8頂点の座標値の組を記録する。 The observation viewpoint range storage unit 12 is a functional unit that records the range in which the viewpoint position of the observer observing the spatial image exists as the observation viewpoint range. Specifically, the observation viewpoint range storage unit 12 obtains a set of coordinate values (x, y, z) of the observer's viewpoint position in the Cartesian coordinate system when an appropriate point in the real space is defined as the origin. The area in the bounding box surrounding the set is set as the observation viewpoint range, and the set of the coordinate values of the eight vertices of the bounding box is recorded.

なお、観察者は、空間像の像面に対して常に前側から一方向に観察し、奥側からは観察しないものとする。また、背景の立体空間(直方体)については、観察者の視点位置から見て、z軸に平行な右上・右下・左上・左下の稜線をそれぞれ右上線・右下線・左上線・左下線と呼び、それぞれの重心位置を各稜線の位置とする。さらに、直方体の天井面における頂点を左手前から時計回りに左上前点・左上奥点・右上奥点・右上前点と呼ぶ。直方体の床面についても同様に、床面の頂点を左手前から時計回りに左下前点・左下奥点・右下奥点・右下前点と呼ぶ。 The observer always observes the image plane of the spatial image in one direction from the front side, and does not observe it from the back side. Regarding the three-dimensional space (rectangular parallelepiped) in the background, the ridgelines of the upper right, lower right, upper left, and lower left parallel to the z-axis are the upper right line, lower right line, upper left line, and lower left line, respectively, when viewed from the observer's viewpoint position. Call it, and let the position of each center of gravity be the position of each ridgeline. Furthermore, the vertices on the ceiling surface of the rectangular parallelepiped are called the upper left front point, upper left back point, upper right back point, and upper right front point clockwise from the left front. Similarly, for the floor surface of a rectangular parallelepiped, the apex of the floor surface is called the lower left front point, the lower left back point, the lower right back point, and the lower right front point clockwise from the left front.

支配的線遠近キュー探索部13は、観察視点範囲記憶部12に記録されている各視点位置から背景の立体空間(直方体)をみたときの支配的線遠近キューを探索する機能部である。支配的線遠近キューとは、空間像が立体空間内を奥行き方向へ移動していると知覚し得る、心理的に奥行き方向への移動と感じられる立体空間の構成要素である。 The dominant line perspective cue search unit 13 is a functional unit that searches for a dominant line perspective cue when the background three-dimensional space (rectangular parallelepiped) is viewed from each viewpoint position recorded in the observation viewpoint range storage unit 12. The dominant line perspective cue is a component of a three-dimensional space that can be perceived as a spatial image moving in the depth direction in the three-dimensional space, and is psychologically perceived as moving in the depth direction.

このような支配的線遠近キューは、立体空間が直方体の場合、視点位置と空間像との相対位置によって4つのパターンがあり、それぞれ1つの稜線に一意に定まる。具体的には、視点位置が空間像より高く左にある場合は右下線、空間像より高く右にある場合は左下線、空間像より低く左にある場合は右上線、空間像より低く右にある場合は左上線が支配的線遠近キューとなる。 When the three-dimensional space is a rectangular parallelepiped, such a dominant line perspective cue has four patterns depending on the relative position between the viewpoint position and the spatial image, and each is uniquely determined by one ridgeline. Specifically, if the viewpoint position is higher than the spatial image and to the left, it is the lower right line, if it is higher than the spatial image and to the right, it is the lower left line, if it is lower than the spatial image and to the left, it is the upper right line, and if it is lower than the spatial image, it is to the right. In some cases, the upper left line is the dominant line perspective queue.

奥行知覚許容量算出部14(算出部)は、立体空間を所定の視点位置からみたバーチャルカメラによる2次元画像を用いて、立体空間に表示される空間像の奥行き移動方向が立体空間の奥行き稜線(支配的線遠近キュー)の方向(本来あるべき移動方向)と異なる場合、空間像が立体空間の奥行き方向へ移動していると知覚できる所定の移動方向許容範囲を算出する機能部である。 The depth perception allowance calculation unit 14 (calculation unit) uses a two-dimensional image of the three-dimensional space viewed from a predetermined viewpoint position by a virtual camera, and the depth movement direction of the spatial image displayed in the three-dimensional space is the depth ridgeline of the three-dimensional space. It is a functional unit that calculates a predetermined allowable range of movement direction in which it can be perceived that the spatial image is moving in the depth direction of the three-dimensional space when it is different from the direction of (dominant line perspective cue) (movement direction that should be originally).

具体的には、奥行知覚許容量算出部14(算出部)は、立体空間が直方体の場合、その直方体を所定の視点位置からみた2次元画像の水平軸に対する、当該所定の視点位置における支配的線遠近キューの角度と、空間像の重心位置から支配的線遠近キューを成す直方体空間の奥側の頂点までの線分の角度と、の間の角度範囲を算出する。そして、この角度範囲を、当該所定の視点位置における、奥行き移動を知覚するために許容される奥行知覚許容範囲(=移動方向許容範囲)とする。 Specifically, when the three-dimensional space is a rectangular parallelepiped, the depth perception allowance calculation unit 14 (calculation unit) is dominant at the predetermined viewpoint position with respect to the horizontal axis of the two-dimensional image when the rectangular parallelepiped is viewed from the predetermined viewpoint position. The angle range between the angle of the line perspective cue and the angle of the line segment from the position of the center of gravity of the spatial image to the apex of the rectangular parallelepiped space forming the dominant line perspective cue is calculated. Then, this angle range is defined as the depth perception permissible range (= movement direction permissible range) allowed for perceiving the depth movement at the predetermined viewpoint position.

最適移動方向ベクトル算出部15(決定部)は、異なる複数の視点位置にそれぞれ対応する複数の奥行知覚許容範囲に共通する共通範囲を用いて、空間像を立体空間の奥行き方向へ移動させる2次元画像上の移動方向を決定する機能部である。 The optimum movement direction vector calculation unit 15 (determination unit) moves a spatial image in the depth direction of a three-dimensional space by using a common range common to a plurality of depth permissible ranges corresponding to a plurality of different viewpoint positions. It is a functional unit that determines the moving direction on the image.

具体的には、最適移動方向ベクトル算出部15(決定部)は、観察する全ての視点位置における奥行知覚許容範囲の共通範囲を求め、全ての視点位置又は各視点位置からみた空間像の奥行き移動方向の角度が当該共通範囲に含まれる場合、各視点位置からみた空間像の奥行き移動方向を当該空間像の奥行き移動方向で線形補間し、線形補間した奥行き移動方向ベクトルを最適移動方向ベクトル記憶部16に保存する。 Specifically, the optimum movement direction vector calculation unit 15 (determination unit) obtains a common range of the permissible depth perception range at all the viewpoint positions to be observed, and moves the depth of the spatial image as seen from all the viewpoint positions or each viewpoint position. When the angle of direction is included in the common range, the depth movement direction of the spatial image viewed from each viewpoint position is linearly interpolated in the depth movement direction of the spatial image, and the linearly interpolated depth movement direction vector is optimally moved direction vector storage unit. Save at 16.

一方、空間像の奥行き移動方向の角度が上記共通範囲に含まれない場合、最適移動方向ベクトル算出部15(決定部)は、当該空間像の奥行き移動方向の角度が共通範囲の上限値を超えている場合には上限値に、下限値を下回っている場合には下限値に奥行き移動方向を更新して、更新後の奥行き移動方向ベクトルを最適移動方向ベクトル記憶部16に保存する。 On the other hand, when the angle in the depth moving direction of the spatial image is not included in the common range, the optimum moving direction vector calculation unit 15 (determining unit) exceeds the upper limit value of the common range in the angle in the depth moving direction of the spatial image. If it is, the depth movement direction is updated to the upper limit value, and if it is below the lower limit value, the depth movement direction is updated to the lower limit value, and the updated depth movement direction vector is stored in the optimum movement direction vector storage unit 16.

また、所定の視点位置における上限値が他の視点位置における下限値を下回っている等、複数の視点位置における各奥行知覚許容範囲に共通範囲がない場合、各視点位置における空間像の奥行き移動方向の真値(後述する)を平均したベクトル値を最適移動方向ベクトル記憶部16に保存する。 Further, when there is no common range in each depth perception allowable range in a plurality of viewpoint positions such that the upper limit value at a predetermined viewpoint position is lower than the lower limit value in another viewpoint position, the depth movement direction of the spatial image at each viewpoint position. The vector value obtained by averaging the true values (described later) of is stored in the optimum moving direction vector storage unit 16.

最適移動方向ベクトル記憶部16は、最適移動方向ベクトル算出部15により算出された奥行き方向への移動方向ベクトルを最適移動方向ベクトルとして記憶する機能部である。 The optimum movement direction vector storage unit 16 is a functional unit that stores the movement direction vector in the depth direction calculated by the optimum movement direction vector calculation unit 15 as the optimum movement direction vector.

<空間像出力装置2の機能>
次に、空間像出力装置2の機能について説明する。図4は、空間像出力装置2の機能ブロック構成を示す図である。この空間像出力装置2は、図4に示すように、最適移動方向ベクトル記憶部21と、オブジェクト情報記憶部22と、オブジェクト奥行移動成分更新部23と、オブジェクト出力部24と、を備えて構成される。
<Function of spatial image output device 2>
Next, the function of the spatial image output device 2 will be described. FIG. 4 is a diagram showing a functional block configuration of the spatial image output device 2. As shown in FIG. 4, the spatial image output device 2 includes an optimum movement direction vector storage unit 21, an object information storage unit 22, an object depth movement component update unit 23, and an object output unit 24. Will be done.

最適移動方向ベクトル記憶部21は、空間像移動方向決定装置1が備える最適移動方向ベクトル記憶部16と同期し、空間像を空間像移動方向決定装置1で求めた奥行き方向へ移動させるための最適移動方向ベクトルを記憶しておく機能部である。なお、空間像出力装置2は、最適移動方向ベクトル記憶部21を備えることなく、空間像移動方向決定装置1の最適移動方向ベクトル記憶部16から取得した最適移動方向ベクトルをそのまま用いてもよい。 The optimum movement direction vector storage unit 21 synchronizes with the optimum movement direction vector storage unit 16 included in the spatial image movement direction determination device 1, and is optimal for moving the spatial image in the depth direction obtained by the spatial image movement direction determination device 1. It is a functional part that stores the movement direction vector. The spatial image output device 2 may use the optimum movement direction vector acquired from the optimum movement direction vector storage unit 16 of the spatial image movement direction determination device 1 as it is without providing the optimum movement direction vector storage unit 21.

オブジェクト情報記憶部22は、時間的に連続する複数のフレームデータを記憶しておく機能部である。具体的には、オブジェクト情報記憶部22は、空間像として表示する各フレーム内のオブジェクトのテクスチャ情報、そのオブジェクトが出力される空間像表示デバイス4上での位置情報(x,y,z)を記憶しておく。 The object information storage unit 22 is a functional unit that stores a plurality of frame data that are continuous in time. Specifically, the object information storage unit 22 stores the texture information of the object in each frame to be displayed as a spatial image and the position information (x, y, z) on the spatial image display device 4 from which the object is output. Remember.

オブジェクト奥行移動成分更新部23(変更部)は、空間像表示デバイス4に出力されるオブジェクトの移動方向のうち奥行き方向への移動方向成分(z成分)の位置情報のみを抽出し、その奥行き方向への移動方向成分を最適移動方向ベクトルで更新する機能部である。 The object depth movement component update unit 23 (change unit) extracts only the position information of the movement direction component (z component) in the depth direction from the movement directions of the object output to the spatial image display device 4, and the depth direction thereof. It is a functional part that updates the moving direction component to with the optimum moving direction vector.

オブジェクト出力部24は、最適移動方向ベクトルで更新された奥行き移動方向上の位置にオブジェクトを空間像表示デバイス4へ出力する機能部である。 The object output unit 24 is a functional unit that outputs an object to the spatial image display device 4 at a position on the depth movement direction updated by the optimum movement direction vector.

<背景映像表示装置3及び空間像表示デバイス4>
次に、背景映像表示装置3及び空間像表示デバイス4について説明する。
<Background image display device 3 and spatial image display device 4>
Next, the background image display device 3 and the spatial image display device 4 will be described.

背景映像表示装置3は、背景となる実空間領域を表示する装置である。図1に示したように、観察者100からみて空間像表示デバイス4の奥側に配置され、その空間像表示デバイス4を介して実空間領域の映像を表示する。例えば、録画再生機能を持つ表示デバイスを用いて実現する。 The background image display device 3 is a device that displays a real space area as a background. As shown in FIG. 1, it is arranged behind the spatial image display device 4 when viewed from the observer 100, and an image of a real space region is displayed via the spatial image display device 4. For example, it is realized by using a display device having a recording / playback function.

空間像表示デバイス4は、背景となる背景映像表示装置3からの実空間領域の映像を透過するとともに、空間像出力装置2からの平面像の画像(2D画像)を反射する装置である。これにより、背景映像の実空間中に空間像があるように観察者に知覚させることができる。例えば、透過率と反射率がほぼ等しいハーフミラーを用いて実現する。 The spatial image display device 4 is a device that transmits an image of a real space region from the background image display device 3 as a background and reflects a plane image (2D image) from the spatial image output device 2. As a result, the observer can be made to perceive that there is a spatial image in the real space of the background image. For example, it is realized by using a half mirror whose transmittance and reflectance are almost equal to each other.

<映像表示システムの動作例>
次に、映像表示システムの動作について説明する。本発明の特徴を容易に理解するため、まず全体の動作概要について説明し、その後に空間像の奥行き移動方向を決定する動作と空間像を出力する動作をそれぞれ説明する。
<Operation example of video display system>
Next, the operation of the video display system will be described. In order to easily understand the features of the present invention, an outline of the entire operation will be described first, and then an operation of determining the depth moving direction of the spatial image and an operation of outputting the spatial image will be described.

(動作概要)
最初に、映像表示システムの全体の動作概要について説明する。
(Outline of operation)
First, an outline of the overall operation of the video display system will be described.

まず、空間像移動方向決定装置1は、観察視点範囲に含まれる各視点位置での2次元画像を用いて、その2次元画像の水平軸に対する、空間像オブジェクト(以下、オブジェクト)の奥行き移動方向の傾きθと、各視点位置における支配的線遠近キューの傾きθと、オブジェクトから支配的線遠近キューを成す背景面の頂点に向かう線分の傾きθと、をそれぞれ求めて記録する(ステップS1)。 First, the spatial image moving direction determining device 1 uses a two-dimensional image at each viewpoint position included in the observation viewpoint range, and the depth moving direction of the spatial image object (hereinafter, object) with respect to the horizontal axis of the two-dimensional image. The inclination θ 0 of, the inclination θ 1 of the dominant line perspective cue at each viewpoint position, and the inclination θ 2 of the line segment from the object toward the apex of the background surface forming the dominant line perspective cue are obtained and recorded. (Step S1).

次に、空間像移動方向決定装置1は、ステップS1で求めた2つの傾きθ,θを用いて、視点ごとの奥行き移動を知覚するために許容される奥行知覚許容範囲(θ〜θ)を算出する(ステップS2)。 Next, the spatial image movement direction determining device 1 uses the two inclinations θ 1 and θ 2 obtained in step S1 to allow the depth perception permissible range (θ 1 to θ 1) for perceiving the depth movement for each viewpoint. θ 2 ) is calculated (step S2).

次に、空間像移動方向決定装置1は、観察位置範囲に含まれる全ての視点位置で奥行知覚許容範囲(θ〜θ)の共通範囲(θ’〜θ’)をとり、その共通範囲内に各視点位置での奥行き移動方向の傾きθが収まっているか否かを判定し、その判定結果に基づいて新しい奥行き移動方向ベクトルを求めて記録する(ステップS3)。 Next, the aerial image movement direction determining apparatus 1 takes the common range (θ 1 '~θ 2') of depth perception tolerance at all viewpoint position included in the observation position range (theta 1 through? 2), the It is determined whether or not the inclination θ 0 in the depth moving direction at each viewpoint position is within the common range, and a new depth moving direction vector is obtained and recorded based on the determination result (step S3).

最後に、空間像出力装置2は、ステップ3で求めた新たな奥行き移動方向ベクトルを用いて、空間像表示デバイス4に投影するオブジェクトの奥行き方向を変更し、変更後の奥行き方向上の位置にオブジェクトを出力する(ステップS4)。 Finally, the spatial image output device 2 changes the depth direction of the object projected on the spatial image display device 4 by using the new depth movement direction vector obtained in step 3, and sets the position on the changed depth direction. Output the object (step S4).

(空間像の奥行き移動方向を決定する動作)
次に、空間像の奥行き移動方向を決定する動作について説明する。図5は、空間像の奥行き移動方向を決定する方法の動作フローを示す図である。
(Operation to determine the depth movement direction of the spatial image)
Next, the operation of determining the depth movement direction of the spatial image will be described. FIG. 5 is a diagram showing an operation flow of a method of determining the depth moving direction of the spatial image.

ステップS101;
まず、空間像移動方向決定装置1は、空間像の背景となる実空間領域を直方体とみなし、その直方体の幅・高さ・奥行きの値を背景情報記憶部11に記録する。このとき、直方体の水平方向・鉛直方向・奥行き方向の稜線をそれぞれx軸・y軸・z軸とする左手系座標を設定し、背景面と向かい合う面を空間像の像面とする。
Step S101;
First, the spatial image moving direction determining device 1 considers a real space region that is the background of the spatial image as a rectangular parallelepiped, and records the values of the width, height, and depth of the rectangular parallelepiped in the background information storage unit 11. At this time, the left-handed coordinates are set so that the horizontal, vertical, and depth ridges of the rectangular parallelepiped are the x-axis, y-axis, and z-axis, respectively, and the surface facing the background surface is set as the image plane of the spatial image.

ステップS102;
次に、空間像移動方向決定装置1は、空間像を観察する観察者の視点位置が存在する範囲を、実空間の適当な点を原点と定めたときの直交座標系における座標値(x,y,z)の集合として求め、その集合を囲むバウンディングボックス内の領域を観察視点範囲として、この観察視点範囲の8頂点の座標値の組を観察視点範囲記憶部12に記録する。なお、バウンディングボックスとは、図6に示すように、空間中に存在する複数の視点(+)のうち、最も外側にある視点にのみ接する辺から成る矩形体である。
Step S102;
Next, the spatial image moving direction determining device 1 defines the range in which the viewpoint position of the observer observing the spatial image exists as the origin at an appropriate point in the real space, and the coordinate values (x,) in the Cartesian coordinate system. It is obtained as a set of y, z), the area in the bounding box surrounding the set is set as the observation viewpoint range, and the set of the coordinate values of the eight vertices of the observation viewpoint range is recorded in the observation viewpoint range storage unit 12. As shown in FIG. 6, the bounding box is a rectangular body composed of sides tangent to only the outermost viewpoint (+) among a plurality of viewpoints (+) existing in space.

ここで、ステップS101とステップS102に基づき形成される実空間領域と観察視点範囲の例を図7に示す。図7では、分かりやすいように、実空間領域である直方体の座標系と観察視点空間の座標系とを同一としている。観察者は、空間像の像面に対して常に図7の手前側から観察するものとする。観察者からみて、実空間領域の直方体は、z軸に平行な右上線・右下線・左上線・左下線を持ち、天井面に左上前点・左上奥点・右上奥点・右上前点を持ち、床面に左下前点・左下奥点・右下奥点・右下前点を持つ。 Here, FIG. 7 shows an example of the real space region and the observation viewpoint range formed based on step S101 and step S102. In FIG. 7, for easy understanding, the coordinate system of the rectangular parallelepiped, which is the real space region, and the coordinate system of the observation viewpoint space are the same. The observer shall always observe from the front side of FIG. 7 with respect to the image plane of the spatial image. From the observer's point of view, the rectangular parallelepiped in the real space area has an upper right line, a lower right line, an upper left line, and a lower left line parallel to the z-axis, and the upper left front point, upper left back point, upper right back point, and upper right front point are on the ceiling surface. It has a lower left front point, a lower left back point, a lower right back point, and a lower right front point on the floor.

ステップS103;
次に、空間像移動方向決定装置1は、背景情報記憶部11に記録されている直方体と同じスケールの直方体をバーチャル空間に作成し、そのバーチャル空間内に空間像として表示する物体(オブジェクト)を置く。以後、背景の直方体内の全ての空間位置にオブジェクトを置いたと想定し、各位置について以降の処理を行う。このとき、処理能力の低い計算機で処理を行う場合は、直方体内の全ての位置から所定数の位置を適当にサンプリングし、そのサンプリングしたサンプル位置のみをオブジェクトの位置としてもよい。
Step S103;
Next, the spatial image moving direction determining device 1 creates a rectangular parallelepiped of the same scale as the rectangular parallelepiped recorded in the background information storage unit 11 in the virtual space, and creates an object (object) to be displayed as a spatial image in the virtual space. Put. After that, it is assumed that the objects are placed at all the spatial positions in the rectangular parallelepiped of the background, and the subsequent processing is performed for each position. At this time, when processing is performed by a computer having a low processing capacity, a predetermined number of positions may be appropriately sampled from all the positions in the rectangular parallelepiped, and only the sampled sample positions may be set as the object positions.

また、オブジェクトを背景の直方体内の空間の全ての位置に配置するとともに、空間像移動方向決定装置1は、バーチャル空間における観察視点範囲の任意の位置に、背景の直方体及びオブジェクトを2次元画像に透視変換するバーチャルカメラを設置する。バーチャルカメラの向きは、直方体及びオブジェクトを前側から撮影可能な向きであるとする。 In addition, the object is placed at all positions in the space inside the rectangular parallelepiped of the background, and the spatial image moving direction determining device 1 converts the rectangular parallelepiped and the object into a two-dimensional image at an arbitrary position in the observation viewpoint range in the virtual space. Install a virtual camera that converts perspective. The orientation of the virtual camera is such that the rectangular parallelepiped and the object can be photographed from the front side.

バーチャルカメラの鉛直方向と水平方向の位置については、バーチャルカメラが直方体内のオブジェクトより高い場合と低い場合、オブジェクトより右にある場合と左にある場合の2通りが考えられ、鉛直方向と水平方向の位置を組み合わせると、バーチャルカメラの位置は4通りのグループに分けられる。バーチャルカメラが同じ位置のグループに属する視点位置の集合を「視点グループ」と定める。 There are two possible vertical and horizontal positions for the virtual camera: when the virtual camera is higher or lower than the object in the square, when it is to the right of the object, and when it is to the left of the object. When the positions of are combined, the positions of the virtual cameras can be divided into four groups. A set of viewpoint positions in which the virtual cameras belong to the same position group is defined as a "viewpoint group".

以降、空間像移動方向決定装置1は、視点グループごとに図5に示したループBを実施し、ループBでは、オブジェクトの位置ごとに後述するステップS104〜ステップS106を実施する。なお、各視点グループの処理動作は共通するので、以降では、バーチャルカメラがオブジェクトより高く左にある視点グループに含まれる場合について説明する。 After that, the spatial image moving direction determining device 1 executes the loop B shown in FIG. 5 for each viewpoint group, and in the loop B, performs steps S104 to S106 described later for each position of the object. Since the processing operation of each viewpoint group is common, the case where the virtual camera is included in the viewpoint group higher to the left than the object will be described below.

ステップS104〜ステップS106の目的;
図8に示すように、バーチャルカメラVRがオブジェクトOBJより高く左にある視点グループG1に位置する場合、そのバーチャルカメラVRが撮影する背景の直方体及びオブジェクトOBJの2次元画像は、図9に示すような画像となる。
Objectives of steps S104 to S106;
As shown in FIG. 8, when the virtual camera VR is located in the viewpoint group G1 on the left side higher than the object OBJ, the background rectangular body and the two-dimensional image of the object OBJ taken by the virtual camera VR are as shown in FIG. It becomes an image.

このとき、オブジェクトOBJが背景である直方体の奥行き方向すなわちz軸方向に移動する場合、像面上におけるオブジェクトOBJの重心位置を考えると、図9に示した視点では、オブジェクトOBJは、その視点の2次元画像の座標系において、常にx軸の負方向かつy軸の正方向に移動している。参考として、バーチャルカメラの位置がオブジェクトより高く右にある場合は、オブジェクトは常にx軸の正方向かつy軸の正方向に移動している。同様に、バーチャルカメラの位置がオブジェクトより低く左にある場合は、オブジェクトは常にx軸の負方向かつy軸の負方向に移動しており、バーチャルカメラの位置がオブジェクトより低く右にある場合は、オブジェクトは常にx軸の正方向かつy軸の負方向に移動している。 At this time, when the object OBJ moves in the depth direction of the rectangular body which is the background, that is, in the z-axis direction, considering the position of the center of gravity of the object OBJ on the image plane, the object OBJ is the viewpoint of the viewpoint shown in FIG. In the coordinate system of the two-dimensional image, it always moves in the negative direction of the x-axis and the positive direction of the y-axis. For reference, when the position of the virtual camera is higher than the object and to the right, the object is always moving in the positive direction of the x-axis and the positive direction of the y-axis. Similarly, if the virtual camera is lower than the object and to the left, the object is always moving in the negative x-axis and negative y-axis, and if the virtual camera is lower than the object and to the right. , The object is always moving in the positive direction of the x-axis and the negative direction of the y-axis.

このオブジェクトの移動軌跡が背景の線遠近手がかりと比較されることにより、観察者はオブジェクトが背景の実空間内を奥行き方向に移動していると知覚する。オブジェクトは背景空間が成す消失点の方向に進むが、例えば図9に示した状況では、この進行方向は背景の直方体を構成する4つの稜線のうち、右下線の稜線に対して傾きの差が最も小さくなる。この状況における右下線のように、オブジェクトの奥行き移動方向との間で傾き(相対角度)の差が最小になる稜線を、この視点における支配的線遠近キューと呼ぶ。 By comparing the movement trajectory of this object with the line perspective clues of the background, the observer perceives that the object is moving in the depth direction in the real space of the background. The object advances in the direction of the vanishing point formed by the background space. For example, in the situation shown in FIG. 9, this traveling direction has a difference in inclination with respect to the ridgeline of the lower right line among the four ridgelines constituting the rectangular parallelepiped of the background. The smallest. The ridgeline that minimizes the difference in inclination (relative angle) from the depth movement direction of the object, such as the lower right line in this situation, is called the dominant line perspective cue at this viewpoint.

支配的線遠近キューの傾きは視点の位置に応じて変化し、上述したように、視点位置がオブジェクトより高く左にある場合は右下線、オブジェクトより高く右にある場合は左下線、オブジェクトより低く左にある場合は右上線、オブジェクトより低く右にある場合は左上線が支配的線遠近キューとなる。 The slope of the dominant line perspective cue changes according to the position of the viewpoint, as described above, the lower right line when the viewpoint position is higher than the object and to the left, the lower left line when the viewpoint position is higher than the object and to the right, and lower than the object. If it is on the left, the upper right line is the dominant line perspective queue, and if it is lower than the object, the upper left line is the dominant line perspective queue.

ここで、単一の2D画像(2次元画像)として空間像を表示する場合、ある一つの移動方向しか表現することができない。そこで、与えられた視点位置範囲における任意の視点から観察しても、オブジェクトが奥行き方向に移動していると観察者が解釈可能になるよう、2次元画像上の奥行き移動方向を最適化することを考える。なお、以下では、傾きの大きさは、例えば各視点位置における支配的線遠近キューと、その視点位置でのバーチャルカメラのスクリーン座標系(x、y)におけるx軸方向の水平軸とがなす角度のうち、鋭角の大きさをいう。 Here, when the spatial image is displayed as a single 2D image (two-dimensional image), only one moving direction can be expressed. Therefore, the depth movement direction on the two-dimensional image should be optimized so that the observer can interpret that the object is moving in the depth direction even when observing from an arbitrary viewpoint in a given viewpoint position range. think of. In the following, the magnitude of the inclination is the angle formed by, for example, the dominant line perspective queue at each viewpoint position and the horizontal axis in the x-axis direction in the screen coordinate system (x, y) of the virtual camera at that viewpoint position. Of these, the size of the acute angle.

ステップS104;
観察視点範囲内に観察視点は無数に存在するが、支配的線遠近キューの傾きが最大又は最小になる視点を考えると、その観察視点範囲における頂点の視点のみを考えればよい。そこで、支配的線遠近キュー探索部13は、観察視点範囲の頂点上に存在する視点位置を取得して頂点視点とし、さらに、その頂点視点に対応する支配的線遠近キューを探索する。具体的には、図8に示した視点グループG1において左上の頂点Tを頂点視点とし、図9に示した直方体の右下線を支配的線遠近キューとして決定する。
Step S104;
There are innumerable observation viewpoints in the observation viewpoint range, but when considering the viewpoint in which the inclination of the dominant line perspective cue is the maximum or the minimum, only the viewpoint of the apex in the observation viewpoint range needs to be considered. Therefore, the dominant line perspective cue search unit 13 acquires the viewpoint position existing on the apex of the observation viewpoint range and sets it as the apex viewpoint, and further searches for the dominant line perspective cue corresponding to the apex viewpoint. Specifically, in the viewpoint group G1 shown in FIG. 8, the upper left vertex T is set as the apex viewpoint, and the lower right line of the rectangular parallelepiped shown in FIG. 9 is determined as the dominant line perspective queue.

ステップS105;
次に、支配的線遠近キュー探索部13は、背景の直方体を上記頂点視点からみた2次元画像(図10)を用いて、その2次元画像のx軸に対する、オブジェクトOBJの奥行き移動方向(O−O’)の傾きθと、支配的線遠近キュー(O−A)の傾きθと、オブジェクトOBJの重心位置と右下奥点を結ぶ線分(O−B)の傾きθと、をそれぞれ求め、該当バーチャルカメラのスクリーン座標系における2次元ベクトル(x,y)の組として記録する。
Step S105;
Next, the dominant line perspective cue search unit 13 uses a two-dimensional image (FIG. 10) of the rectangular body of the background viewed from the apex viewpoint, and the depth movement direction (O) of the object OBJ with respect to the x-axis of the two-dimensional image. the inclination theta 0 of -O '), the inclination theta 1 of the dominant linear perspective queue (O-a), the inclination theta 2 of the line segment (O-B) connecting the centroid position and the lower right rear point of the object OBJ , And record them as a set of two-dimensional vectors (x, y) in the screen coordinate system of the corresponding virtual camera.

ステップS106;
次に、奥行知覚許容量算出部14は、オブジェクトの奥行き移動方向の傾きθが支配的線遠近キューの傾きθと合致するか異なるかを判定し、互いの傾きが異なる場合には、オブジェクトが奥行き方向に移動していると観察者が解釈可能になるよう、2次元画像上の奥行き移動方向を最適化する。具体的には、奥行知覚許容量算出部14は、支配的線遠近キューの傾きθとオブジェクトの重心位置と右下奥点を結ぶ線分の傾きθとの間の角度範囲(θ〜θ)を算出し、その角度範囲を、該当視点頂点におけるオブジェクトの奥行き移動方向に対する奥行知覚許容範囲とする。
Step S106;
Next, the depth perception allowance calculation unit 14 determines whether the inclination θ 0 in the depth movement direction of the object matches or differs from the inclination θ 1 of the dominant line perspective cue, and if the inclinations are different from each other, The depth movement direction on the two-dimensional image is optimized so that the observer can interpret that the object is moving in the depth direction. Specifically, the depth perception allowance calculation unit 14 determines the angle range (θ 1) between the slope θ 1 of the dominant line perspective cue and the slope θ 2 of the line segment connecting the position of the center of gravity of the object and the lower right back point. ~ Θ 2 ) is calculated, and the angle range is set as the permissible depth perception range with respect to the depth movement direction of the object at the corresponding viewpoint vertex.

その後、上述したステップS104〜ステップS106を、オブジェクトの位置を直方体内で変更し、さらに、視点グループを変更して、繰り返し実施する。勿論、一つの視点グループにおいて、頂点視点以外の他の視点位置で実施してもよい。 After that, steps S104 to S106 described above are repeated by changing the position of the object in the rectangular parallelepiped and further changing the viewpoint group. Of course, in one viewpoint group, it may be carried out at a viewpoint position other than the apex viewpoint.

ステップS107;
最後に、最適移動方向ベクトル算出部15は、全ての頂点視点における奥行知覚許容範囲(θ〜θ)の共通範囲(θ’〜θ’)を求め、その共通範囲を全ての頂点視点の奥行知覚許容範囲とする。
Step S107;
Finally, the optimal movement direction vector calculation unit 15, a common range sought (θ 1 '~θ 2') , all vertices that common range of depth perception tolerance in all vertices viewpoint (θ 12) The permissible range of depth perception of the viewpoint.

そして、最適移動方向ベクトル算出部15は、共通範囲があり、かつ、全ての頂点視点又は各頂点視点におけるオブジェクトの奥行き移動方向の傾きθが当該共通範囲(θ’〜θ’)に収まっている場合には、各頂点視点から見たオブジェクトの奥行き移動方向を当該オブジェクトの奥行き移動方向で線形補間し、線形補間した奥行き移動方向ベクトルを最適移動方向ベクトル記憶部16に保存する。 Then, the optimal movement direction vector calculation unit 15, there is a common range and the inclination theta 0 in the depth direction of movement of the object in all vertices viewpoint or each vertex viewpoint to the common range (θ 1 '~θ 2') If it fits, the depth movement direction of the object viewed from each vertex viewpoint is linearly interpolated in the depth movement direction of the object, and the linearly interpolated depth movement direction vector is stored in the optimum movement direction vector storage unit 16.

一方、共通範囲がある場合であっても、オブジェクトの奥行き移動方向の傾きθが共通範囲(θ’〜θ’)の上限値θ’を超えている場合には上限値の角度方向に、下限値θ’を下回っている場合には下限値の角度方向に移動させる奥行き移動方向ベクトルを算出して、最適移動方向ベクトル記憶部16に保存する。 On the other hand, even if there is a common range, the angle of the upper limit value in the case where the depth direction of movement of the tilt theta 0 objects exceeds the common range (θ 1 '~θ 2') the upper limit value of theta 2 ' direction, if below the lower limit theta 1 'is calculated in the depth direction of movement vectors which moves in the angular direction of the lower limit value, and stores the optimum moving direction vector storage unit 16.

その他、共通範囲が存在しない場合には、全ての頂点視点におけるオブジェクトの奥行き移動方向の真値の平均値を最適移動方向ベクトルとして最適移動方向ベクトル記憶部16に保存する。オブジェクトの奥行き移動方向の真値とは、オブジェクトが3次元空間で実際に存在した場合に観察されるその奥行き移動方向である。 In addition, when there is no common range, the average value of the true values of the depth movement directions of the objects at all the vertex viewpoints is stored in the optimum movement direction vector storage unit 16 as the optimum movement direction vector. The true value of the depth movement direction of an object is the depth movement direction observed when the object actually exists in the three-dimensional space.

なお、以上の説明は、バーチャルカメラの相対位置がオブジェクトより高く左にある場合を例に説明したが、その他の3パターンに関しても同様の方法でオブジェクトの最適移動方向を求めることができる。 In the above description, the case where the relative position of the virtual camera is higher than the object and is on the left is described as an example, but the optimum moving direction of the object can be obtained by the same method for the other three patterns.

(空間像を表示する動作)
次に、空間像を表示する動作について説明する。図11は、空間像を表示する方法の動作フローを示す図である。ここでは、空間像移動方向決定装置1で記録された最適移動方向ベクトルを入力し、観察者に奥行き移動を知覚させる空中像を表示する。なお、観察者の観察視点範囲は、空間像移動方向決定装置1で用いた観察視点範囲と同一であるとする。
(Operation to display a spatial image)
Next, the operation of displaying the spatial image will be described. FIG. 11 is a diagram showing an operation flow of a method of displaying a spatial image. Here, the optimum movement direction vector recorded by the spatial image movement direction determination device 1 is input, and an aerial image that makes the observer perceive the depth movement is displayed. It is assumed that the observation viewpoint range of the observer is the same as the observation viewpoint range used in the spatial image moving direction determining device 1.

ステップS201;
まず、オブジェクト奥行移動成分更新部23は、空間像として表示する観察対象オブジェクトのテクスチャ情報と、そのオブジェクトの位置情報(x,y,z)とをオブジェクト情報記憶部22から取得する。
Step S201;
First, the object depth movement component updating unit 23 acquires the texture information of the observation target object to be displayed as a spatial image and the position information (x, y, z) of the object from the object information storage unit 22.

ステップS202;
次に、オブジェクト奥行移動成分更新部23は、取得したオブジェクトの位置情報から奥行き方向への移動方向成分(z座標)のみを抽出し、最適移動方向ベクトル記憶部21に保存されている最適移動方向ベクトルで更新する。すなわち、観察対象オブジェクトの3次元移動方向のうち、x方向とy方向への移動については本来の移動方向へ移動させ、奥行き方向であるz方向への移動についてのみ、本来の移動方向を最適移動方向ベクトル上の位置に変更する。
Step S202;
Next, the object depth movement component update unit 23 extracts only the movement direction component (z coordinate) in the depth direction from the acquired position information of the object, and the optimum movement direction stored in the optimum movement direction vector storage unit 21. Update with vector. That is, of the three-dimensional movement directions of the object to be observed, the movement in the x direction and the y direction is moved in the original movement direction, and the original movement direction is optimally moved only in the movement in the z direction, which is the depth direction. Change to a position on the direction vector.

ステップS203;
最後に、オブジェクト出力部24は、空間像表示デバイス4に対して、ステップS202で更新した位置に観察対象オブジェクトを出力する。
Step S203;
Finally, the object output unit 24 outputs the observation target object to the spatial image display device 4 at the position updated in step S202.

上述したステップS201〜ステップS203を1フレームずつ繰り返し実施する。1フレームに複数のオブジェクトが含まれる場合には、各オブジェクトの各位置ずつステップS201〜ステップS203を繰り返し実施する。このように繰り返し実施することで、単一の平面像(2D画像)でありながら、立体空間に表示される空間像を、連続的に、かつ、同時表示させる空間像の数に制約なく、空間像の奥行き方向への移動を観察者に知覚させることができる。 The above-mentioned steps S201 to S203 are repeated frame by frame. When a plurality of objects are included in one frame, steps S201 to S203 are repeatedly executed at each position of each object. By repeating this process, the space image displayed in the three-dimensional space can be displayed continuously and simultaneously without any limitation on the number of space images, even though it is a single plane image (2D image). The observer can perceive the movement of the image in the depth direction.

<効果>
本実施の形態によれば、空間像移動方向決定装置1が、背景の直方体空間を前側の頂点視点位置からみた2次元画像を用いて、直方体空間に表示される空間像の奥行き移動方向が直方体空間の支配的線遠近キューの方向と異なる場合、空間像が直方体空間の奥行き方向へ移動していると知覚できる所定の許容範囲を算出し、異なる複数の視点位置にそれぞれ対応する複数の許容範囲に共通する共通範囲を用いて、空間像を直方体空間の奥行き方向へ移動させる2次元画像上の移動方向を決定するので、観察する視点が複数であってもそれぞれの視点で空間像が奥行き方向に移動していることを観察者に知覚させることができる(第1の目的)。
<Effect>
According to the present embodiment, the spatial image moving direction determining device 1 uses a two-dimensional image of the background rectangular space viewed from the front apex viewpoint position, and the depth moving direction of the spatial image displayed in the rectangular space is a rectangular body. Dominant line of space When different from the direction of the perspective cue, a predetermined tolerance range that can be perceived as the spatial image moving in the depth direction of the rectangular space is calculated, and a plurality of tolerance ranges corresponding to a plurality of different viewpoint positions are obtained. Since the movement direction on the two-dimensional image that moves the spatial image in the depth direction of the rectangular space is determined using the common range common to both, the spatial image is in the depth direction at each viewpoint even if there are multiple viewpoints to be observed. It is possible to make the observer perceive that the space is moving to (first purpose).

また、本実施の形態によれば、空間像出力装置2が、時間的に連続するフレームごとに、直方体空間に表示される少なくとも1つ以上の空間像の奥行き方向への移動方向を、空間像移動方向決定装置1で決定された移動方向に変更し、連続するフレームについて、連続して、変更後の奥行き移動方向上の位置に空間像を表示するので、空間像の連続的な奥行移動と、複数の空間像の異なった奥行方向への同時移動と、複数の視点位置に対する奥行き移動とを同時に実現することができる(第2の目的)。 Further, according to the present embodiment, the spatial image output device 2 determines the moving direction of at least one spatial image displayed in the rectangular space in the depth direction for each frame that is continuous in time. The movement direction is changed to the movement direction determined by the movement direction determination device 1, and the spatial image is continuously displayed at the position on the changed depth movement direction for the continuous frames. , Simultaneous movement of a plurality of spatial images in different depth directions and depth movement with respect to a plurality of viewpoint positions can be realized at the same time (second purpose).

最後に、本実施の形態で説明した映像表示システムは、コンピュータで実現することができる。また、映像表示システムとしてコンピュータを機能させるための映像表示プログラム(例えば、空間像移動方向決定プログラム、空間像出力プログラム、空間像表示プログラム)、その映像表示プログラムの記憶媒体を作成することも可能である。 Finally, the video display system described in this embodiment can be realized by a computer. It is also possible to create a video display program (for example, a spatial image moving direction determination program, a spatial image output program, a spatial image display program) for operating a computer as a video display system, and a storage medium for the video display program. is there.

1…空間像移動方向決定装置
11…背景情報記憶部
12…観察視点範囲記憶部
13…支配的線遠近キュー探索部
14…奥行知覚許容量算出部
15…最適移動方向ベクトル算出部
16…最適移動方向ベクトル記憶部
2…空間像出力装置
21…最適移動方向ベクトル記憶部
22…オブジェクト情報記憶部
23…オブジェクト奥行移動成分更新部
24…オブジェクト出力部
3…背景映像表示装置
4…空間像表示デバイス
100…観察者
1 ... Spatial image movement direction determination device 11 ... Background information storage unit 12 ... Observation viewpoint range storage unit 13 ... Dominant line perspective cue search unit 14 ... Depth perception allowance calculation unit 15 ... Optimal movement direction vector calculation unit 16 ... Optimal movement Direction vector storage unit 2 ... Spatial image output device 21 ... Optimal movement direction Vector storage unit 22 ... Object information storage unit 23 ... Object depth movement component update unit 24 ... Object output unit 3 ... Background image display device 4 ... Spatial image display device 100 … Observer

Claims (8)

空間像移動方向決定装置と、空間像表示装置と、を備えた映像表示システムにおいて、
前記空間像移動方向決定装置は、
立体空間を所定側の視点位置からみた2次元画像を用いて、前記立体空間に表示される空間像の奥行き移動方向が前記立体空間の奥行き辺の方向と異なる場合、前記空間像が前記立体空間の奥行き方向へ移動していると知覚できる所定の移動方向許容範囲を算出する算出部と、
異なる複数の視点位置にそれぞれ対応する複数の移動方向許容範囲に共通する共通範囲を用いて、前記空間像を前記立体空間の奥行き方向へ移動させる2次元画像上の移動方向を決定する決定部と、を備え、
前記空間像表示装置は、
前記立体空間に表示される空間像の奥行き方向への移動方向を、前記空間像移動方向決定装置で決定された移動方向に変更する変更部を備える、
ことを特徴とする映像表示システム
In a video display system including a spatial image moving direction determining device and a spatial image display device,
The spatial image moving direction determining device is
When the depth movement direction of the spatial image displayed in the stereoscopic space is different from the direction of the depth side of the stereoscopic space using the two-dimensional image of the stereoscopic space viewed from the viewpoint position on the predetermined side, the spatial image is the stereoscopic space. A calculation unit that calculates a predetermined movement direction allowable range that can be perceived as moving in the depth direction of
A determination unit for determining a movement direction on a two-dimensional image for moving the spatial image in the depth direction of the stereoscopic space by using a common range common to a plurality of movement direction tolerance ranges corresponding to a plurality of different viewpoint positions. , With
The spatial image display device is
A changing unit for changing the moving direction of the spatial image displayed in the three-dimensional space in the depth direction to the moving direction determined by the spatial image moving direction determining device is provided.
A video display system characterized by this.
前記立体空間は、直方体空間であって、
前記算出部は、
前記移動方向許容範囲として、前記直方体空間を所定側の視点位置からみた2次元画像の水平軸に対する、前記直方体空間の奥行き辺の角度と、前記空間像から前記奥行き辺を成す直方体空間の奥側の頂点までの線分の角度と、の間の角度範囲を算出することを特徴とする請求項1に記載の映像表示システム
The three-dimensional space is a rectangular parallelepiped space,
The calculation unit
As the movement direction allowable range, the angle of the depth side of the rectangular parallelepiped space with respect to the horizontal axis of the two-dimensional image when the rectangular parallelepiped space is viewed from the viewpoint position on the predetermined side, and the inner side of the rectangular parallelepiped space forming the depth side from the space image. The image display system according to claim 1, wherein the angle of the line segment to the apex and the angle range between the two are calculated.
前記決定部は、
前記水平軸に対する前記空間像の奥行き移動方向への角度が前記角度範囲に係る前記共通範囲に含まれる場合、当該奥行き移動方向を前記2次元画像上の移動方向として決定することを特徴とする請求項2に記載の映像表示システム
The decision unit
When the angle of the spatial image with respect to the horizontal axis in the depth moving direction is included in the common range related to the angle range, the claim is characterized in that the depth moving direction is determined as the moving direction on the two-dimensional image. Item 2. The video display system according to item 2.
前記決定部は、
前記水平軸に対する前記空間像の奥行き移動方向への角度が前記角度範囲に係る前記共通範囲に含まれない場合、当該共通範囲の上限角度又は下限角度への移動方向を前記2次元画像上の移動方向として決定することを特徴とする請求項2又は3に記載の映像表示システム
The decision unit
When the angle of the spatial image in the depth movement direction with respect to the horizontal axis is not included in the common range related to the angle range, the movement direction of the common range to the upper limit angle or the lower limit angle is moved on the two-dimensional image. The video display system according to claim 2 or 3, wherein the direction is determined.
前記空間像移動方向決定装置は、
前記直方体空間を成す4つの奥行き辺のうち、前記空間像の奥行き移動方向の傾きに対する相対角度が最小の奥行き辺を探索する探索部を更に備え、
前記算出部は、
前記最小の奥行き辺を用いて前記移動方向許容範囲を算出することを特徴とする請求項2乃至4のいずれかに記載の映像表示システム
The spatial image moving direction determining device is
Of the four depth sides forming the rectangular parallelepiped space, a search unit for searching the depth side having the smallest relative angle with respect to the inclination of the space image in the depth movement direction is further provided.
The calculation unit
The video display system according to any one of claims 2 to 4, wherein the movement direction allowable range is calculated using the minimum depth side.
前記空間像表示装置は、
時間的に連続するフレームについて、連続して、変更後の奥行き移動方向上の位置に前記空間像を表示する表示部を更に備える、
ことを特徴とする請求項1乃至5のいずれかに記載の映像表示システム
The spatial image display device is
For frames that are continuous in time, a display unit that continuously displays the spatial image at a position on the changed depth moving direction is further provided.
The video display system according to any one of claims 1 to 5 .
空間像移動方向決定装置と、空間像表示装置と、で行う映像表示方法において、
前記空間像移動方向決定装置が、
立体空間を所定側の視点位置からみた2次元画像を用いて、前記立体空間に表示される空間像の奥行き移動方向が前記立体空間の奥行き辺の方向と異なる場合、前記空間像が前記立体空間の奥行き方向へ移動していると知覚できる所定の移動方向許容範囲を算出するステップと、
異なる複数の視点位置にそれぞれ対応する複数の移動方向許容範囲に共通する共通範囲を用いて、前記空間像を前記立体空間の奥行き方向へ移動させる2次元画像上の移動方向を決定するステップと、を行い、
前記空間像表示装置が、
前記立体空間に表示される空間像の奥行き方向への移動方向を、前記空間像移動方向決定装置で決定された移動方向に変更するステップを行う、
ことを特徴とする映像表示方法
In the image display method performed by the spatial image moving direction determining device and the spatial image display device,
The spatial image moving direction determining device
When the depth movement direction of the spatial image displayed in the stereoscopic space is different from the direction of the depth side of the stereoscopic space using the two-dimensional image of the stereoscopic space viewed from the viewpoint position on the predetermined side, the spatial image is the stereoscopic space. The step of calculating a predetermined movement direction tolerance that can be perceived as moving in the depth direction of
A step of determining a moving direction on a two-dimensional image for moving the spatial image in the depth direction of the stereoscopic space by using a common range common to a plurality of moving direction allowable ranges corresponding to a plurality of different viewpoint positions. And
The spatial image display device
A step of changing the moving direction of the spatial image displayed in the three-dimensional space in the depth direction to the moving direction determined by the spatial image moving direction determining device is performed.
A video display method characterized by this.
請求項1乃至のいずれかに記載の映像表示システムとしてコンピュータを機能させることを特徴とする映像表示プログラム。 A video display program comprising operating a computer as the video display system according to any one of claims 1 to 6.
JP2017214356A 2017-11-07 2017-11-07 Video display system, video display method and video display program Active JP6880410B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017214356A JP6880410B2 (en) 2017-11-07 2017-11-07 Video display system, video display method and video display program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017214356A JP6880410B2 (en) 2017-11-07 2017-11-07 Video display system, video display method and video display program

Publications (2)

Publication Number Publication Date
JP2019087864A JP2019087864A (en) 2019-06-06
JP6880410B2 true JP6880410B2 (en) 2021-06-02

Family

ID=66763486

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017214356A Active JP6880410B2 (en) 2017-11-07 2017-11-07 Video display system, video display method and video display program

Country Status (1)

Country Link
JP (1) JP6880410B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021079402A1 (en) * 2019-10-21 2021-04-29 日本電信電話株式会社 Video processing device, display system, video processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6525699B1 (en) * 1998-05-21 2003-02-25 Nippon Telegraph And Telephone Corporation Three-dimensional representation method and an apparatus thereof
JP3081589B2 (en) * 1998-10-02 2000-08-28 日本電信電話株式会社 Three-dimensional display method and apparatus
JP2004198629A (en) * 2002-12-17 2004-07-15 Pioneer Electronic Corp Display device
TW201035966A (en) * 2009-03-17 2010-10-01 Chunghwa Picture Tubes Ltd Method of observing a depth fused display
CN101557536A (en) * 2009-05-14 2009-10-14 福建华映显示科技有限公司 Method for viewing depth-of-field fusion display
JP6027764B2 (en) * 2012-04-25 2016-11-16 キヤノン株式会社 Mirror system and control method thereof

Also Published As

Publication number Publication date
JP2019087864A (en) 2019-06-06

Similar Documents

Publication Publication Date Title
US11734897B2 (en) System and method for dense, large scale scene reconstruction
US10522116B2 (en) Projection method with multiple rectangular planes at arbitrary positions to a variable projection center
US10349033B2 (en) Three-dimensional map generating and displaying apparatus and method
KR101319805B1 (en) Photographing big things
CN111247561A (en) Method for reconstructing three-dimensional space scene based on photographing
JP6423435B2 (en) Method and apparatus for representing a physical scene
JP3619063B2 (en) Stereoscopic image processing apparatus, method thereof, stereoscopic parameter setting apparatus, method thereof and computer program storage medium
GB2520613A (en) Target region fill utilizing transformations
JP7421505B2 (en) Augmented reality viewer with automated surface selection and content orientation placement
KR20080076610A (en) Method and apparatus for creating a 3d model from 2d photograph image
US11238558B2 (en) Method for generating and modifying images of a 3D scene
CN104104936B (en) It is used to form the device and method of light field image
US20130222363A1 (en) Stereoscopic imaging system and method thereof
JP2009278456A (en) Video display device
CN104134235A (en) Real space and virtual space fusion method and real space and virtual space fusion system
CN108629799B (en) Method and equipment for realizing augmented reality
JP2020173529A (en) Information processing device, information processing method, and program
JP6880410B2 (en) Video display system, video display method and video display program
CN108450031A (en) Image capture apparatus
KR101769013B1 (en) Visualization method for 3-dimension model using 3-dimension object model merging based on space tile
US7064767B2 (en) Image solution processing method, processing apparatus, and program
CN103530869B (en) For mating the system and method that moving mass controls
JP2001222723A (en) Method and device for generating stereoscopic image
KR101163020B1 (en) Method and scaling unit for scaling a three-dimensional model
KR100893381B1 (en) Methods generating real-time stereo images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200911

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200915

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210412

R150 Certificate of patent or registration of utility model

Ref document number: 6880410

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150