WO2018186168A1 - 映像生成装置、映像生成方法および映像生成プログラム - Google Patents

映像生成装置、映像生成方法および映像生成プログラム Download PDF

Info

Publication number
WO2018186168A1
WO2018186168A1 PCT/JP2018/011047 JP2018011047W WO2018186168A1 WO 2018186168 A1 WO2018186168 A1 WO 2018186168A1 JP 2018011047 W JP2018011047 W JP 2018011047W WO 2018186168 A1 WO2018186168 A1 WO 2018186168A1
Authority
WO
WIPO (PCT)
Prior art keywords
video
shift amount
visual field
display device
interpupillary distance
Prior art date
Application number
PCT/JP2018/011047
Other languages
English (en)
French (fr)
Inventor
加藤 勝也
泰弘 浜口
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Publication of WO2018186168A1 publication Critical patent/WO2018186168A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/128Adjusting depth or disparity
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/275Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals
    • H04N13/279Image signal generators from 3D object models, e.g. computer-generated stereoscopic image signals the virtual viewpoint locations being selected by the viewers or determined by tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • H04N13/344Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking

Definitions

  • the present invention relates to a video generation device, a video generation method, and a video generation program.
  • Patent Documents 1 and 2 describe a display device that realizes a glasses-type terminal.
  • Non-Patent Document 1 describes a video generation method in which a camera that exists in a 3D pseudo space renders a video by photographing an object that exists in the same space. Displaying the video generated in this way on the display devices described in Patent Documents 1 and 2 realizes AR and MR.
  • Non-Patent Document 1 an object having a specific size is accurately displayed on the display device described in Patent Documents 1 and 2 or another glasses-type terminal at a certain distance from the user. There is a problem that you can't.
  • an object of the present invention is to provide a video generation device and a video generation device that display video so that an object of a specific size exists at a certain distance from the user.
  • the configuration of a video generation device, a video generation method, and a video generation program according to an aspect of the present invention is as follows.
  • a video generation method in which an object in a 3D (Three Dimensions) pseudo space is projected by two cameras in the 3D pseudo space to generate a video and displayed on a video display device.
  • the sub video is rendered based on the positional relationship of the camera, and the video is generated by shifting the sub video based on the video shift amount. It comprises a video rendering process of the.
  • the video shift amount information is a coefficient of a polynomial in which the interpupillary distance is input and the video shift amount is output, and the video shift amount setting process is performed on the polynomial.
  • the video shift amount is calculated by inputting the interpupillary distance.
  • the video shift amount information is an ID (Identification) of the video display device
  • the video shift amount setting step inputs the ID to a database, and from the database, the A coefficient of a polynomial having an interpupillary distance as an input and an output of the image shift amount is received, and the image shift amount is determined by inputting the interpupillary distance into the polynomial.
  • the video shift amount information is an ID (Identification) of the video display device
  • the video shift amount setting process inputs the ID and the interpupillary distance to a database, The video shift amount is received from the database.
  • the visual field information is a vertical visual field of the video display device, and the visual field setting process sets the vertical visual field as the visual field.
  • the visual field information is an ID (Identification) of the video display device
  • the visual field setting process determines the visual field by collating the database with the ID. .
  • the visual field setting process realizes the collation by transmitting the ID to the database.
  • the video generation program causes a computer to execute the above-described video generation method.
  • a video generation apparatus generates a video by causing an object in a 3D (Three Dimensions) pseudo space to be projected by two cameras in the 3D pseudo space, and displays the video on a video display device.
  • a visual field setting unit that sets a visual field of the camera based on visual field information input from the video display device
  • an interpupillary distance setting unit that sets an interpupillary distance, the interpupillary distance
  • a video shift amount setting unit that sets a video shift amount based on video shift amount information input from a video display device, and a distance between two cameras as the interpupillary distance, the field of view, the object, and the object
  • a sub video is rendered based on the positional relationship of the cameras, and the video is generated by shifting the sub video based on the video shift amount. It includes a rendering unit, the.
  • the video generation device can generate a video based on the set visual field and video shift amount.
  • FIG. 1 is a diagram illustrating an example of a video generation unit 10 according to the present embodiment.
  • FIG. 1 also shows a video display unit (video generation device) 11.
  • the video display unit 11 is provided in a video display device such as a glasses-type terminal, a smart glass, or a head-mounted display.
  • the video generation unit 10 may be provided in the video display device, or may be provided in a terminal device (also referred to as a video generation device) that can be connected to a video display device such as a smartphone. As shown in FIG.
  • a video generation unit (video generation method) 10 includes a visual field setting unit (visual field setting process) 101, an interpupillary distance setting unit (interpupillary distance setting process) 102, and an image shift amount setting.
  • Unit (video shift amount setting process) 103 and a video rendering unit (video rendering process) 104 are described.
  • the visual field setting unit 101 sets the size of the visual field (FoV: “Field Of View”) used in the video rendering unit 104 based on the visual field information input from the video display unit 11.
  • the field of view is, for example, an angle in the vertical direction when the camera in the 3D pseudo space performs perspective projection.
  • the visual field setting unit 101 outputs the set visual field value to the video rendering unit 104.
  • the visual field information is, for example, the visual field value itself.
  • the visual field value may be a vertical value, a diagonal value, or a horizontal value. Further, the visual field value may be one or more values among a vertical value, a diagonal value, and a horizontal value.
  • the visual field information is, for example, an ID such as a vendor ID or product ID of the video display unit 11 (or video display device).
  • the video generation unit 10 can store the ID and the visual field value in association with each other.
  • the video generation unit 10 can have a table (database) that associates IDs and field-of-view values.
  • the field-of-view setting unit 101 can determine the value of the field of view based on this ID.
  • the field-of-view setting unit 101 can determine the value of the field of view by, for example, comparing this ID with its own database.
  • the field-of-view setting unit 101 can, for example, inquire a server on the Internet for this ID and receive a field-of-view value.
  • the viewing angle setting unit 101 can use the table (database) on the server.
  • the interpupillary distance setting unit 102 sets the interpupillary distance (PD) and outputs it to the video shift amount setting unit 103 and the video rendering unit 104.
  • the interpupillary distance may be a fixed value or may be manually input by the user.
  • the interpupillary distance setting unit 102 may be set using the interpupillary distance measured by a sensor or a wearable sensor provided in the video display device (or video display unit 11).
  • the video shift amount setting unit 103 determines the video shift amount used by the video rendering unit 104 based on the video shift amount information input from the video display unit 11 and the interpupillary distance input from the interpupillary distance setting unit 102. Set.
  • the video shift amount setting unit 103 outputs the set video shift amount to the video rendering unit 104.
  • the video shift amount information can include the distance between the horizontal center lines of the two displays constituting the video display unit 11.
  • the video shift amount information can include the number of dots per unit length in the horizontal direction of the display constituting the video display unit 11.
  • the video shift amount information is, for example, an ID such as a vendor ID or product ID of the video display unit 11.
  • the video shift amount setting unit 103 determines the distance between the horizontal center lines of the two displays constituting the video generation unit 11 and the unit length of the display constituting the video display unit 11 in the horizontal direction. The number of dots per dot can be determined.
  • the video generation unit 10 can store the ID and video shift amount information in association with each other.
  • the video generation unit 10 can have a table (database) that associates this ID with the video shift amount.
  • the video shift amount setting unit 103 configures the video display unit 11 by comparing the ID and its own database to determine the distance between the horizontal center lines of the two displays constituting the video generation unit 11 and the video display unit 11. The number of dots per unit length in the horizontal direction of the display can be determined.
  • the video shift amount setting unit 103 queries a server on the Internet for this ID, and the distance between the horizontal center lines of the two displays constituting the video generation unit 11 and the display constituting the video display unit 11. The number of dots per unit length in the horizontal direction can be received.
  • the video shift amount setting unit 103 can use the table (database) on the server.
  • This ID may be associated with the visual field value and the video shift amount information.
  • the video generation unit 10 can specify the visual field value and the video shift amount information by the ID. For example, the video generation unit 10 can inquire a server on the Internet for this ID, and can receive the field-of-view value and the video shift amount information.
  • the video rendering unit 104 renders video by the camera shooting an object in the 3D pseudo space.
  • the visual field of the camera can be set to the visual field value input from the visual field setting unit 101.
  • the video generated when the camera performs shooting can be shifted by the video shift amount input from the video shift amount setting unit 103.
  • the video before the shift can be referred to as a sub video. For example, there are two cameras, and the distance between them can be the interpupillary distance input from the interpupillary distance setting unit 102.
  • FIG. 2 shows an example of a 3D pseudo space used by the video rendering unit 104.
  • 20 is a view of the 3D pseudo space viewed from the height direction.
  • 21 is a view of the 3D pseudo space as viewed from the side.
  • the north direction of the 3D pseudo space can be the z axis
  • the height direction can be the y axis
  • the east direction can be the x axis.
  • 20 is a diagram of the 3D pseudo space viewed from the plus direction of the y axis
  • 21 is a diagram of the 3D pseudo space viewed from the plus direction of the x axis.
  • the camera 201 and the camera 202 are arranged with a distance 203 apart.
  • the inter-camera distance 203 is also referred to as an inter-camera distance.
  • the inter-camera distance 203 can be the inter-pupil distance input from the inter-pupil distance setting unit 102.
  • the cameras 201 and 202 can generate an image by perspective projection based on the positional relationship between the camera 201 and the object 204 in the 3D pseudo space and the field of view set in the field of view setting unit 101.
  • the object 204 is a rectangular parallelepiped.
  • This perspective projection can be performed based on the field of view 211.
  • the visual field 211 can be the visual field (field value) set in the visual field setting unit 101.
  • the vertical visual field is set, but the horizontal visual field can be set from the display size and aspect ratio of the video display device 11.
  • FIG. 3 is an example of a left-eye video and a right-eye video generated by the video rendering unit 104.
  • Reference numeral 30 denotes an image generated by the camera 201 in FIG.
  • Reference numeral 31 denotes an image generated by the camera 202 in FIG.
  • An object 301 is a drawing obtained when the camera 201 captures an object 204 in FIG.
  • An object 311 is a drawing obtained by the camera 202 photographing the object 204 in FIG.
  • the object 301 is arranged from the right in the video 30 and the object 311 is arranged from the left in the video 31, so that the congestion effect can be obtained when the user views them through the video display device 11. . Further, since the shapes of the objects 301 and 311 are different, a binocular parallax effect can be obtained when the user views them through the video display device 11.
  • FIG. 4 shows an example in which the video 30 generated by the video rendering unit 104 is displayed on the display 401 in the video display device 11, and the video 31 generated by the video rendering unit 104 is displayed on the display 411 in the video display device 11.
  • Reference numeral 402 denotes a horizontal center line of the display 401
  • 412 denotes a horizontal center line of the display 411.
  • Reference numeral 403 denotes the left eye of the user wearing the video display device 11, and reference numeral 413 denotes the right eye of the user wearing the video display device 11.
  • Reference numeral 404 denotes a horizontal center line of the left eye 403, and reference numeral 414 denotes.
  • the video 30 and the video 31 obtained by the method of FIG. 2 need to be displayed shifted in the horizontal direction.
  • the shift amount s can be obtained as 0.5 (x ⁇ b) c. s may be an integer. For example, rounding can be used.
  • the video shift amount setting unit 103 in FIG. 1 can obtain b and d and output them to the video rendering unit 104.
  • the video shift amount setting unit 103 can output a 1 and a 0 to the video rendering unit 104.
  • n is a non-negative integer.
  • the video rendering unit 104 can output to the video display device 11 the video 30 that has been shifted left by s.
  • the video rendering unit 104 can output to the video display device 11 a video 31 shifted rightward by s.
  • FIG. 5 shows an example of realizing the s shift.
  • the video rendering unit 104 extends the horizontal size to be drawn by 2 s compared to when the videos 30 and 31 are generated.
  • 501, 502, 511, and 512 in FIG. 5 indicate the expanded size s.
  • Images 50 and 51 are images obtained by expansion.
  • the video 52 is obtained by cutting a horizontal region 503 having a size of 2s.
  • the left end of the area 503 coincides with the left end of the video 50.
  • a video 53 is obtained by cutting a horizontal region 513 having a size of 2s.
  • the right end of the region 513 coincides with the right end of the video 51.
  • the video rendering unit 104 can output the videos 52 and 53 to the video display device 11.
  • FIG. 6 is a diagram illustrating an example in which the visual field setting unit 101 receives the angle of the visual field in the oblique direction as the visual field information and calculates the value of the vertical visual field based on the value.
  • the diagonal line 601 of the virtual display 60, the line segments 602 and 603 connecting the vertexes of the diagonal line 601 and the viewpoint 61 form an angle 604.
  • An angle 604 indicates an angle of the visual field in an oblique direction.
  • Reference numeral 605 denotes the horizontal length of the virtual display 60.
  • Reference numeral 606 denotes the length of the virtual display 60 in the vertical direction.
  • the virtual display 62 is a diagram when the virtual display 60 is viewed from the side.
  • the vertical length of the virtual display 60 and the virtual display 62 is 606 in common.
  • Reference numerals 607 and 608 denote line segments connecting the two vertices of the virtual display 62 and the viewpoint 61.
  • Reference numeral 609 denotes an angle formed by the viewpoint 61, the line segment 607, and the line segment 608.
  • the angle 609 is a vertical visual field value.
  • the visual field setting unit 101 sets the visual field of the 3D pseudo space used by the video rendering unit 104 based on the visual field information from the video display device.
  • the object can be displayed on the video display device with the correct size.
  • the video shift amount setting unit 103 generates the shift amount of the video generated by the video rendering unit 104 based on the video shift amount information from the video display device, so that the object in the 3D pseudo space exists at the correct distance. Thus, it can be displayed on the video display device. In this way, an AR video can be automatically generated regardless of the specifications of the video display device.
  • FIG. 7 is an example showing different video display devices.
  • a video display device 70 configured as a glasses-type terminal includes a right-eye display 701 and a left-eye display 702.
  • a video display device 71 configured as a glasses-type terminal includes a right-eye display 711 and a left-eye display 712.
  • the right-eye displays 701 and 711 are different in view size and center point.
  • the left-eye displays 702 and 712 differ in view size and center point. Even in such a case, AR video can be generated by using the video generation method described in the present embodiment.
  • the visual field setting unit 101 sets the size of the visual field used by the video rendering unit 104 based on visual field information input from the video display device.
  • the video shift amount setting unit 103 also uses the video shift amount used by the video rendering unit 104 based on the video shift amount information input from the video display device and the interpupillary distance input from the interpupillary distance setting unit 102.
  • FIG. 8 is a schematic block diagram showing the configuration of the video generation method 10 in the present embodiment.
  • the visual field setting unit 101 or the video shift amount setting unit 103 inquires of the server 80 on the Internet for collation, and obtains the size of the visual field or the video shift amount from the server 80.
  • the server 80 includes a storage unit that stores a table (database) in which the size of the visual field and / or the video shift amount is associated with an ID such as a vendor ID or a product ID.
  • the video generation unit 10 notifies the server 80 of the ID.
  • the server 80 specifies the size of the visual field and / or the video shift amount from the ID.
  • the server 80 notifies the video generation unit 10 of the size of the visual field associated with the ID and / or the video shift amount.
  • the server 80 may be a cloud server on the Internet or a local server such as a mobile edge computing server.
  • FIG. 9 is an example of a method in which the video generation method 10 makes an inquiry to the server 80 to obtain a field-of-view value or a video shift amount.
  • S801 indicates an inquiry from the video generation method 10 to the server 80.
  • the visual field information and the video shift amount information are, for example, a product ID and a vendor ID of the video display device 11. Based on these IDs, the server 80 can grasp the value of the visual field of the video display device 11 and the video shift amount.
  • S802 indicates a response from the server 80 to the video generation method 10, and the response is a field-of-view value and a video shift amount.
  • the inquiry S801 may include the distance between the pupils of the user.
  • the server 80 may reply with a parameter for determining the video shift amount.
  • This parameter may be the distance b between the center lines 402 and 412 and the number c of dots per unit distance in the horizontal direction of the displays 401 and 411 described in FIG. 4 of the first embodiment.
  • the parameter may be a coefficient a n of the polynomial described above.
  • a program that operates in the video generation device, the video generation method, and the video generation program according to one aspect of the present invention is a program that controls a CPU or the like so as to realize the functions of the above-described embodiments according to one aspect of the present invention.
  • a program that causes a computer to function Information handled by these devices is temporarily stored in the RAM at the time of processing, then stored in various ROMs and HDDs, read out by the CPU, and corrected and written as necessary.
  • a semiconductor medium for example, ROM, nonvolatile memory card, etc.
  • an optical recording medium for example, DVD, MO, MD, CD, BD, etc.
  • a magnetic recording medium for example, magnetic tape, Any of a flexible disk etc.
  • the program when distributing to the market, can be stored and distributed on a portable recording medium, or transferred to a server computer connected via a network such as the Internet.
  • the storage device of the server computer is also included in one embodiment of the present invention.
  • part or all of the video generation apparatus, the video generation method, and the video generation program in the above-described embodiments may be realized as an LSI that is typically an integrated circuit.
  • Each functional block of the receiving apparatus may be individually formed as a chip, or a part or all of them may be integrated into a chip. When each functional block is integrated, an integrated circuit controller for controlling them is added.
  • the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor.
  • an integrated circuit based on the technology can also be used.
  • the present invention is not limited to the above-described embodiment. It goes without saying that the video generation method of the present invention is not limited to application to eyeglass-type terminals, but can be applied to portable devices, wearable devices, and the like.
  • One embodiment of the present invention is suitable for use in a video generation device, a video generation method, and a video generation program.
  • One embodiment of the present invention is used in, for example, a communication system, a communication device (for example, a mobile phone device, a base station device, a wireless LAN device, or a sensor device), an integrated circuit (for example, a communication chip), a program, or the like. be able to.
  • Video generation unit 11 Video display unit 20 3D pseudo space (height direction) 21 3D pseudo space (horizontal direction) 101 Field of view setting unit 102 Distance between pupils setting unit 103 Image shift amount setting unit 104 Image rendering unit 201, 202 Camera 203 Distance between cameras 204 Object 211 Field of view 30, 31 Video 301, 311 object 401, 411 display 402 generated by camera Horizontal center line 412 of display 401 Horizontal center line 403 of display 411 Left eye 404 Horizontal center line 413 of left eye 403 Right eye 414 Horizontal center line 50, 51 of right eye 413 Video 52, 53 obtained by expansion Images 501, 502, 511, 512 obtained by cutting a horizontal region Expanded size s 503, 513 Size area 2s in the horizontal direction 60, 62 Virtual display 61 Viewpoint 601 Virtual display diagonal 602, 603 Line segment connecting the vertex of the diagonal 601 and the viewpoint 61 604 Angle 605 Horizontal display length 606 Virtual Display lengths 607 and 608 Line segment connecting two vertices of virtual display and viewpoint

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Processing Or Creating Images (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間における2つのカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成方法であって、前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定過程と、瞳孔間距離を設定する瞳孔間距離設定過程と、前記瞳孔間距離と、前記映像表示装置から入力される映像シフト量情報とに基づいて映像シフト量を設定する映像シフト量設定過程と、2つの前記カメラの間の距離を前記瞳孔間距離とし、前記視野および前記オブジェクトと前記カメラの位置関係とに基づいてサブ映像をレンダリングし、前記サブ映像を前記映像シフト量に基づいてシフトすることで前記映像を生成する映像レンダリング過程と、を備える。

Description

映像生成装置、映像生成方法および映像生成プログラム
 本発明は、映像生成装置、映像生成方法および映像生成プログラムに関する。
 本願は、2017年4月5日に日本に出願された特願2017-075212号について優先権を主張し、その内容をここに援用する。
 近年、拡張現実(AR; Augmented Reality)や複合現実(MR; Mixed Reality)を実現するため、メガネ型端末やスマートグラス等のウエアラブル機器が注目されている。特許文献1および2には、メガネ型端末を実現する表示装置が記載されている。非特許文献1には、3D擬似空間に存在するカメラが、同空間に存在するオブジェクトを撮影することで映像をレンダリングする映像生成方法が記載されている。このように生成した映像を特許文献1および2に記載の表示装置に表示することでARやMRを実現する。
特開2016-149587 WO2016/113951 https://docs.unity3d.com/Manual/GameView.html
 しかしながら、非特許文献1に記載の映像生成方法では、ユーザから一定の距離に特定の大きさのオブジェクトを、特許文献1および2に記載の表示装置、あるいは他のメガネ型端末に正確に表示させることはできないという問題がある。
 本発明の一態様はこのような事情を鑑みてなされたものであり、その目的は、ユーザから一定の距離に特定の大きさのオブジェクトが存在するように映像を表示する映像生成装置、映像生成方法および映像生成プログラムを提供することにある。
 上述した課題を解決するために本発明の一態様に係る映像生成装置、映像生成方法および映像生成プログラムの構成は、次の通りである。
 本発明の一態様による映像生成方法は、3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間における2つのカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成方法であって、前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定過程と、瞳孔間距離を設定する瞳孔間距離設定過程と、前記瞳孔間距離と、前記映像表示装置から入力される映像シフト量情報とに基づいて映像シフト量を設定する映像シフト量設定過程と、2つの前記カメラの間の距離を前記瞳孔間距離とし、前記視野および前記オブジェクトと前記カメラの位置関係とに基づいてサブ映像をレンダリングし、前記サブ映像を前記映像シフト量に基づいてシフトすることで前記映像を生成する映像レンダリング過程と、を備える。
 また、本発明の映像生成方法において、前記映像シフト量情報は、前記瞳孔間距離を入力とし前記映像シフト量を出力とする、多項式の係数であり、前記映像シフト量設定過程は、前記多項式に前記瞳孔間距離を入力することで、前記映像シフト量を算出する。
 また、本発明の映像生成方法において、前記映像シフト量情報は、前記映像表示装置のID(Identification)であり、前記映像シフト量設定過程は、前記IDをデータベースへ入力し、前記データベースから、前記瞳孔間距離を入力とし前記映像シフト量を出力とする多項式の係数を受信し、前記多項式に前記瞳孔間距離を入力することで前記映像シフト量を決定する。
 また、本発明の映像生成方法において、前記映像シフト量情報は、前記映像表示装置のID(Identification)であり、前記映像シフト量設定過程は、前記IDと前記瞳孔間距離をデータベースへ入力し、前記データベースから前記映像シフト量を受信する。
 また、本発明の映像生成方法において、前記視野情報は、前記映像表示装置の縦方向視野であり、前記視野設定過程は、前記縦方向視野を、前記視野として設定する。
 また、本発明の映像生成方法において、前記視野情報は、前記映像表示装置のID(Identification)であり、前記視野設定過程は、前記IDのデータベースへの照合を行うことで、前記視野を決定する。
 また、本発明の映像生成方法において、前記視野設定過程は、前記データベースに、前記IDを送信することで、前記照合を実現する。
 本発明の一態様による映像生成プログラムは、上述した映像生成方法をコンピュータに実行させる。
 本発明の一態様による映像生成装置は、3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間における2つのカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成装置であって、前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定部と、瞳孔間距離を設定する瞳孔間距離設定部と、前記瞳孔間距離と、前記映像表示装置から入力される映像シフト量情報とに基づいて映像シフト量を設定する映像シフト量設定部と、2つの前記カメラの間の距離を前記瞳孔間距離とし、前記視野および前記オブジェクトと前記カメラの位置関係に基づいてサブ映像をレンダリングし、前記サブ映像を前記映像シフト量に基づいてシフトすることで前記映像を生成する映像レンダリング部と、を備える。
 本発明の一又は複数の態様によれば、映像生成装置は、設定された視野と映像シフト量に基づいて、映像を生成することができる。
第1の実施形態に係る映像生成装置の構成を示す概略ブロック図である。 3D擬似空間の一例を示す図である。 左目映像と右目映像の一例を示す図である。 映像表示装置と目の一例を示す図である。 映像シフトを実現する一例を示す図である。 視野情報として斜め方向の視野の角度を受信し、その値に基づいて縦方向の視野の値を算出する一例を示す図である。 異なる映像表示装置の一例を示す図である。 第2の実施形態における映像生成方法10の構成を示す概略ブロック図である。 視野の値または映像シフト量を入手する方法の一例を示す図である。
 (第1の実施形態)
 図1は、本実施形態に係る映像生成部10の一例を示す図である。図1には、映像表示部(映像生成装置)11を併せて記す。映像表示部11は、例えばメガネ型端末、スマートグラス、またはヘッドマウントディスプレイなどの映像表示装置に備えられる。映像生成部10は、前記映像表示装置内に備えられてもよいし、スマホなどの映像表示装置と接続可能な端末装置(映像生成装置とも呼ぶ)に備えられてもよい。図1に示すように、本実施形態における映像生成部(映像生成方法)10は、視野設定部(視野設定過程)101、瞳孔間距離設定部(瞳孔間距離設定過程)102、映像シフト量設定部(映像シフト量設定過程)103、および映像レンダリング部(映像レンダリング過程)104を含んで構成される。以下、各部位の動作を説明する。
 視野設定部101は、映像表示部11から入力される視野情報に基づいて、映像レンダリング部104で用いられる視野(FoV; Field of View)の大きさを設定する。視野とは、例えば、3D擬似空間におけるカメラが透視投影を行う際の、縦方向の角度である。視野設定部101は、設定された視野の値を映像レンダリング部104に出力する。視野情報は、例えば、視野の値そのものである。視野の値は、縦方向の値でも良いし、斜め方向の値や横方向の値でも良い。また、視野の値は、縦方向の値、斜め方向の値及び横方向の値のうち、1つ以上の値でもよい。視野情報は、例えば、映像表示部11(又は映像表示装置)のベンダーIDやプロダクトID等のIDである。映像生成部10は、前記IDと視野の値を関連付けて格納することができる。映像生成部10は、IDと視野の値を関連付けたテーブル(データベース)を有することができる。視野設定部101は、このIDに基づいて、視野の値を決定することができる。視野設定部101は、例えば、このIDと自身が持つデータベースを比較することで、視野の値を決定することができる。視野設定部101は、例えば、このIDをインターネット上のサーバに問い合わせ、視野の値を受信することができる。例えば、視野角設定部101は、サーバ上にある前記テーブル(データベース)を用いることができる。
 瞳孔間距離設定部102は、瞳孔間距離(PD; Pupillary Distance)を設定し、映像シフト量設定部103と映像レンダリング部104に出力する。瞳孔間距離は、固定値としても良いし、ユーザが値を手入力しても良い。あるいは、瞳孔間距離設定部102は、映像表示装置(又は映像表示部11)に備えられたセンサやウェアラブルセンサで測定された瞳孔間距離を用いて設定しても良い。
 映像シフト量設定部103は、映像表示部11から入力される映像シフト量情報と、瞳孔間距離設定部102から入力される瞳孔間距離に基づいて、映像レンダリング部104で用いられる映像シフト量を設定する。映像シフト量設定部103は、設定された映像シフト量を映像レンダリング部104に出力する。映像シフト量情報は、映像表示部11を構成する2つのディスプレイの横方向の中心線間の距離を含むことができる。映像シフト量情報は、映像表示部11を構成するディスプレイの横方向の単位長さあたりのドット数を含むことができる。映像シフト量情報は、例えば、映像表示部11のベンダーIDやプロダクトID等のIDである。映像シフト量設定部103は、このIDに基づいて、映像生成部11を構成する2つのディスプレイの横方向の中心線間の距離と、映像表示部11を構成するディスプレイの横方向の単位長さあたりのドット数を決定することができる。映像生成部10は、このIDと映像シフト量情報を関連付けて格納することができる。映像生成部10は、このIDと映像シフト量を関連付けたテーブル(データベース)を有することができる。映像シフト量設定部103は、例えば、このIDと自身が持つデータベースを比較することで、映像生成部11を構成する2つのディスプレイの横方向の中心線間の距離と、映像表示部11を構成するディスプレイの横方向の単位長さあたりのドット数を決定することができる。映像シフト量設定部103は、例えば、このIDをインターネット上のサーバに問い合わせ、映像生成部11を構成する2つのディスプレイの横方向の中心線間の距離と、映像表示部11を構成するディスプレイの横方向の単位長さあたりのドット数を受信することができる。例えば、映像シフト量設定部103は、サーバ上にある前記テーブル(データベース)を用いることができる。
 このIDは、前記視野の値と前記映像シフト量情報を関連付けられてもよい。映像生成部10は、前記IDによって、前記視野の値と前記映像シフト量情報を特定することができる。映像生成部10は、例えば、このIDをインターネット上のサーバに問い合わせ、前記視野の値と前記映像シフト量情報を受信することができる。
 映像レンダリング部104は、3D擬似空間においてカメラがオブジェクトを撮影することで、映像をレンダリングする。この際、カメラの視野は、視野設定部101から入力される視野の値に設定されることができる。カメラが撮影を行うことで生成される映像は、映像シフト量設定部103から入力される映像シフト量の分だけシフトされることができる。シフト前の映像を、サブ映像と呼称することができる。例えば、カメラは2つ存在し、その距離を瞳孔間距離設定部102から入力される瞳孔間距離とすることができる。
 図2は、映像レンダリング部104が用いる3D擬似空間の一例を示す。20は3D擬似空間を高さ方向から見た図である。21は3D疑似空間を横から見た図である。例えば、3D擬似空間の北方向をz軸、高さ方向をy軸、東方向をx軸とすることができる。その場合、20は3D疑似空間をy軸のプラス方向から見た図であり、21は3D疑似空間をx軸のプラス方向から見た図である。カメラ201とカメラ202は距離203だけ離れて配置されている。203は、カメラ間距離とも呼称する。カメラ間距離203は、瞳孔間距離設定部102から入力される瞳孔間距離とすることができる。カメラ201と202は、自身と3D擬似空間におけるオブジェクト204との位置関係と、視野設定部101に設定された視野に基づいて、透視投影で映像を生成することができる。なお、この例において、オブジェクト204は直方体である。この透視投影は、視野211に基づいて行われることができる。視野211は視野設定部101に設定された視野(視野の値)とすることができる。この例において、縦方向視野が設定されるが、横方向視野は映像表示装置11の表示サイズやアスペクト比から設定されることができる。
 図3は、映像レンダリング部104が生成した左目映像と右目映像の一例である。30は、図2におけるカメラ201によって生成された映像である。31は、図2におけるカメラ202によって生成された映像である。オブジェクト301は、図2において、カメラ201がオブジェクト204を撮影することで得られる描画である。オブジェクト311は、図2において、カメラ202がオブジェクト204を撮影することで得られる描画である。オブジェクト301が映像30内で右よりに配置され、オブジェクト311が映像31内で左よりに配置されることで、ユーザが映像表示装置11を通してこれらを見たときに輻輳の効果を得ることができる。また、オブジェクト301と311の形状が異なることで、ユーザが映像表示装置11を通してこれらを見たときに両眼視差の効果を得ることができる。
 図4は、映像レンダリング部104が生成した映像30を映像表示装置11内のディスプレイ401に表示し、映像レンダリング部104が生成した映像31を映像表示装置11内のディスプレイ411に表示する場合の一例である。402はディスプレイ401の横方向の中心線を示し、412はディスプレイ411の横方向の中心線を示す。403は映像表示装置11を装着するユーザの左目を示し、413は映像表示装置11を装着するユーザの右目を示す。404は左目403の横方向の中心線を示し、414はを示す。中心線402と404が一致せず、中心線412と414が一致しないため、図2の方法で得られた映像30と映像31は、横方向にシフトして表示される必要がある。例えば、中心線402と412の距離をb、中心線404と414の距離(例えば、瞳孔間距離)をx、ディスプレイ401と411の横方向の単位距離あたりのドット数をcとすると、シフト量sは0.5(x-b)cと求めることができる。sを整数としても良い。例えば四捨五入を用いることができる。図1の映像シフト量設定部103は、例えば、このbとdを求めて、それらを映像レンダリング部104に出力することができる。または、s=ax+aのように、sが多項式になるようにしてもよい。その場合、映像シフト量設定部103は、aとaを映像レンダリング部104に出力することができる。なお、a=0.5c、a=-0.5bcとなる。または、s=a+an-1n-1+・・・+ax+aのように、高次多項式になるようにしてもよい。nは非負の整数である。映像レンダリング部104は、映像30を左方向にsシフトしたものを映像表示装置11に出力することができる。映像レンダリング部104は、映像31を右方向にsシフトしたものを映像表示装置11に出力することができる。
 図5は、sシフトを実現する一例を示す。この例において、映像レンダリング部104は、映像30と31を生成した時に比べ、描画する横方向のサイズを2sだけ拡張する。図5の501、502、511、および512は拡張されたサイズsを示す。映像50と51は、拡張によって得られる映像である。映像50において、サイズ2sである横方向の領域503をカットすることで映像52が得られる。領域503の左端は映像50の左端と一致する。映像51において、サイズ2sである横方向の領域513をカットすることで映像53が得られる。領域513の右端は映像51の右端と一致する。映像レンダリング部104は、映像52と53を映像表示装置11に出力することができる。
 図6は、視野設定部101が視野情報として斜め方向の視野の角度を受信し、その値に基づいて縦方向の視野の値を算出する一例を示す図である。仮想ディスプレイ60の対角線601、対角線601の頂点と視点61を結ぶ線分602、および603が角度604を成す。角度604は、斜め方向の視野の角度を示す。605は仮想ディスプレイ60の横方向の長さを示す。606は仮想ディスプレイ60の縦方向の長さを示す。仮想ディスプレイ62は、仮想ディスプレイ60を横から見た場合の図である。したがって、仮想ディスプレイ60と仮想ディスプレイ62の縦方向の長さは、共通の606である。607と608は、仮想ディスプレイ62の2つの頂点と視点61を結ぶ線分である。609は、視点61、線分607、および線分608の成す角度である。角度609は、縦方向の視野の値となる。角度604をα、角度609をβ、長さ605を長さ606で除算した値をγとすると、(1+γ)tan(β/2)=tan(α/2)という関係がある。したがって、角度609(β)は、角度604(α)を用いて次式(1)のように算出されることができる。
Figure JPOXMLDOC01-appb-M000001
 
 このように、本実施形態によれば、映像レンダリング部104が用いる3D疑似空間のカメラの視野を、視野設定部101が映像表示装置からの視野情報に基づいて設定することで、3D疑似空間のオブジェクトを正しい大きさで映像表示装置に表示することができる。また、映像レンダリング部104が生成する映像のシフト量を、映像シフト量設定部103が映像表示装置からの映像シフト量情報に基づいて生成することで、3D擬似空間のオブジェクトが正しい距離に存在するように、映像表示装置に表示することができる。このようにすることで、映像表示装置の仕様によらず、自動的にARの映像を生成することができる。
 図7は、異なる映像表示装置を示す一例である。メガネ型端末として構成される映像表示装置70は、右目用ディスプレイ701と左目用ディスプレイ702を備える。メガネ型端末として構成される映像表示装置71は、右目用ディスプレイ711と左目用ディスプレイ712を備える。右目用ディスプレイ701と711は視野の大きさと中心点が異なる。左目用ディスプレイ702と712は視野の大きさと中心点が異なる。このような場合でも、本実施形態に記載の映像生成方法を用いることで、ARの映像を生成することができる。
 (第2の実施形態)
 第1の実施形態では、視野設定部101は、映像表示装置から入力される視野情報に基づいて、映像レンダリング部104で用いられる視野の大きさを設定する。また、映像シフト量設定部103は、映像表示装置から入力される映像シフト量情報と、瞳孔間距離設定部102から入力される瞳孔間距離に基づいて、映像レンダリング部104で用いられる映像シフト量を設定する。図8は、本実施形態における映像生成方法10の構成を示す概略ブロック図である。本実施形態では、視野設定部101または映像シフト量設定部103が、インターネット上のサーバ80に照合の問い合わせを行い、視野の大きさまたは映像シフト量をサーバ80から入手する。サーバ80は、視野の大きさ、または/および映像シフト量は、ベンダーIDやプロダクトID等のIDと関連付けたテーブル(データベース)を格納する格納部を備えている。映像生成部10は、サーバ80に対して、前記IDを通知する。サーバ80は、前記IDから視野の大きさ、または/および映像シフト量を特定する。サーバ80は、前記IDに関連付けられた視野の大きさ、または/および映像シフト量を映像生成部10に通知する。なお、サーバ80は、インターネット上のクラウドサーバでもよいし、モバイルエッジコンピューティングサーバなどのローカルサーバであってもよい。
 図9は、映像生成方法10がサーバ80に問い合わせを行い、視野の値または映像シフト量を入手する方法の一例である。S801は、映像生成方法10からサーバ80への問い合わせを示す。問い合わせS801において、視野情報と映像シフト量情報は、例えば、映像表示装置11のプロダクトIDやベンダーIDである。サーバ80は、これらのIDに基づいて、映像表示装置11の視野の値や映像シフト量を把握することができる。S802は、サーバ80から映像生成方法10への返答を示し、返答されるのは視野の値や映像シフト量である。なお、映像シフト量の決定を補助するため、問い合わせS801はユーザの瞳孔間距離を含んでもよい。
 なお、S802において、サーバ80が返答するのは映像シフト量を決定するためのパラメータでも良い。このパラメータは、第1の実施形態の図4で説明した中心線402と412の距離bとディスプレイ401と411の横方向の単位距離あたりのドット数cでも良い。あるいはこのパラメータは、前述した多項式の係数aであってもよい。
 なお、本発明の一態様に係る映像生成装置、映像生成方法および映像生成プログラムで動作するプログラムは、本発明の一態様に関わる上記実施形態の機能を実現するように、CPU等を制御するプログラム(コンピュータを機能させるプログラム)である。そして、これら装置で取り扱われる情報は、その処理時に一時的にRAMに蓄積され、その後、各種ROMやHDDに格納され、必要に応じてCPUによって読み出し、修正・書き込みが行なわれる。プログラムを格納する記録媒体としては、半導体媒体(例えば、ROM、不揮発性メモリカード等)、光記録媒体(例えば、DVD、MO、MD、CD、BD等)、磁気記録媒体(例えば、磁気テープ、フレキシブルディスク等)等のいずれであってもよい。また、ロードしたプログラムを実行することにより、上述した実施形態の機能が実現されるだけでなく、そのプログラムの指示に基づき、オペレーティングシステムあるいは他のアプリケーションプログラム等と共同して処理することにより、本発明の機能が実現される場合もある。
 また市場に流通させる場合には、可搬型の記録媒体にプログラムを格納して流通させたり、インターネット等のネットワークを介して接続されたサーバコンピュータに転送したりすることができる。この場合、サーバコンピュータの記憶装置も本発明の一態様に含まれる。また、上述した実施形態における映像生成装置、映像生成方法および映像生成プログラムの一部、または全部を典型的には集積回路であるLSIとして実現してもよい。受信装置の各機能ブロックは個別にチップ化してもよいし、一部、または全部を集積してチップ化してもよい。各機能ブロックを集積回路化した場合に、それらを制御する集積回路制御部が付加される。
 また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現しても良い。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いることも可能である。
 なお、本願発明は上述の実施形態に限定されるものではない。本願発明の映像生成方法は、メガネ型端末への適用に限定されるものではなく、携帯型の機器や、ウエアラブル機器などに適用出来ることは言うまでもない。
 以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も特許請求の範囲に含まれる。
 本発明の一態様は、映像生成装置、映像生成方法および映像生成プログラムに用いて好適である。本発明の一態様は、例えば、通信システム、通信機器(例えば、携帯電話装置、基地局装置、無線LAN装置、或いはセンサーデバイス)、集積回路(例えば、通信チップ)、又はプログラム等において、利用することができる。
10 映像生成部
11 映像表示部
20 3D擬似空間(高さ方向)
21 3D疑似空間(横方向)
101 視野設定部
102 瞳孔間距離設定部
103 映像シフト量設定部
104 映像レンダリング部
201、202 カメラ
203 カメラ間距離
204 オブジェクト
211 視野
30、31 カメラによって生成された映像
301、311 オブジェクト
401、411 ディスプレイ
402 ディスプレイ401の横方向の中心線
412 ディスプレイ411の横方向の中心線
403 左目
404 左目403の横方向の中心線
413 右目
414 右目413の横方向の中心線
50、51 拡張によって得られる映像
52、53 横方向の領域をカットして得られる映像
501、502、511、512 拡張されたサイズs
503、513 サイズ2sである横方向の領域
60、62 仮想ディスプレイ
61 視点
601 仮想ディスプレイの対角線
602、603 対角線601の頂点と視点61を結ぶ線分
604 角度
605 仮想ディスプレイの横方向の長さ
606 仮想ディスプレイの縦方向の長さ
607、608 仮想ディスプレイの2つの頂点と視点を結ぶ線分
609 角度
70、71 映像表示装置
701、711 右目用ディスプレイ
702、712 左目用ディスプレイ
80 サーバ

Claims (9)

  1.  3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間における2つのカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成方法であって、
     前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定過程と、
     瞳孔間距離を設定する瞳孔間距離設定過程と、
     前記瞳孔間距離と、前記映像表示装置から入力される映像シフト量情報とに基づいて映像シフト量を設定する映像シフト量設定過程と、
     2つの前記カメラの間の距離を前記瞳孔間距離とし、前記視野および前記オブジェクトと前記カメラの位置関係とに基づいてサブ映像をレンダリングし、前記サブ映像を前記映像シフト量に基づいてシフトすることで前記映像を生成する映像レンダリング過程と、
     を備える映像生成方法。
  2.  前記映像シフト量情報は、前記瞳孔間距離を入力とし前記映像シフト量を出力とする、多項式の係数であり、
     前記映像シフト量設定過程は、前記多項式に前記瞳孔間距離を入力することで、前記映像シフト量を算出する、
     請求項1に記載の映像生成方法。
  3.  前記映像シフト量情報は、前記映像表示装置のID(Identification)であり、
     前記映像シフト量設定過程は、前記IDをデータベースへ入力し、前記データベースから、前記瞳孔間距離を入力とし前記映像シフト量を出力とする多項式の係数を受信し、前記多項式に前記瞳孔間距離を入力することで前記映像シフト量を決定する、
     請求項1に記載の映像生成方法。
  4.  前記映像シフト量情報は、前記映像表示装置のID(Identification)であり、
     前記映像シフト量設定過程は、前記IDと前記瞳孔間距離をデータベースへ入力し、前記データベースから前記映像シフト量を受信する、
     請求項1に記載の映像生成方法。
  5.  前記視野情報は、前記映像表示装置の縦方向視野であり、
     前記視野設定過程は、前記縦方向視野を、前記視野として設定する、
     請求項1から4のいずれかに記載の映像生成方法。
  6.  前記視野情報は、前記映像表示装置のID(Identification)であり、
     前記視野設定過程は、前記IDのデータベースへの照合を行うことで、前記視野を決定する、
     請求項1に記載の映像生成方法。
  7.  前記視野設定過程は、
     前記データベースに、前記IDを送信することで、前記照合を実現する、
     請求項6に記載の映像生成方法。
  8.  請求項1に記載の映像生成方法をコンピュータに実行させるための映像生成プログラム。
  9.  3D(Three Dimensions)擬似空間におけるオブジェクトを、前記3D擬似空間における2つのカメラが透視投影することで、映像を生成し、映像表示装置に表示する映像生成装置であって、
     前記映像表示装置から入力される視野情報に基づいて前記カメラの視野を設定する視野設定部と、
     瞳孔間距離を設定する瞳孔間距離設定部と、
     前記瞳孔間距離と、前記映像表示装置から入力される映像シフト量情報とに基づいて映像シフト量を設定する映像シフト量設定部と、
     2つの前記カメラの間の距離を前記瞳孔間距離とし、前記視野および前記オブジェクトと前記カメラの位置関係に基づいてサブ映像をレンダリングし、前記サブ映像を前記映像シフト量に基づいてシフトすることで前記映像を生成する映像レンダリング部と、
     を備える映像生成装置。
PCT/JP2018/011047 2017-04-05 2018-03-20 映像生成装置、映像生成方法および映像生成プログラム WO2018186168A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-075212 2017-04-05
JP2017075212A JP2020098944A (ja) 2017-04-05 2017-04-05 映像生成装置、映像生成方法および映像生成プログラム

Publications (1)

Publication Number Publication Date
WO2018186168A1 true WO2018186168A1 (ja) 2018-10-11

Family

ID=63713490

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/011047 WO2018186168A1 (ja) 2017-04-05 2018-03-20 映像生成装置、映像生成方法および映像生成プログラム

Country Status (2)

Country Link
JP (1) JP2020098944A (ja)
WO (1) WO2018186168A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220282933A1 (en) 2019-10-04 2022-09-08 Mitsui Chemicals, Inc. Heating element accommodation case and structure

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017348A1 (ja) * 2012-07-24 2014-01-30 ソニー株式会社 画像表示装置および画像表示方法
JP2014192550A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016085322A (ja) * 2014-10-24 2016-05-19 セイコーエプソン株式会社 表示装置、表示装置の制御方法、表示システム、及び、プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014017348A1 (ja) * 2012-07-24 2014-01-30 ソニー株式会社 画像表示装置および画像表示方法
JP2014192550A (ja) * 2013-03-26 2014-10-06 Seiko Epson Corp 頭部装着型表示装置および頭部装着型表示装置の制御方法
JP2016085322A (ja) * 2014-10-24 2016-05-19 セイコーエプソン株式会社 表示装置、表示装置の制御方法、表示システム、及び、プログラム

Also Published As

Publication number Publication date
JP2020098944A (ja) 2020-06-25

Similar Documents

Publication Publication Date Title
CN107660337B (zh) 用于从鱼眼摄像机产生组合视图的系统及方法
US10506223B2 (en) Method, apparatus, and device for realizing virtual stereoscopic scene
EP3591607A1 (en) Image stitching method and system based on camera earphone
US20180192022A1 (en) Method and System for Real-time Rendering Displaying Virtual Reality (VR) On Mobile Using Head-Up Display Devices
KR102358932B1 (ko) 시선 위치에 기초한 안정 평면 결정
JP4228646B2 (ja) 立体視画像生成方法および立体視画像生成装置
US20130141550A1 (en) Method, apparatus and computer program for selecting a stereoscopic imaging viewpoint pair
WO2020017134A1 (ja) ファイルの生成装置およびファイルに基づく映像の生成装置
US20140035918A1 (en) Techniques for producing baseline stereo parameters for stereoscopic computer animation
US20120044241A1 (en) Three-dimensional on-screen display imaging system and method
KR102637901B1 (ko) 전자 장치에 의한 돌리 줌 효과 제공 방법 및 상기 방법에서 사용되는 전자 장치
CN106228530B (zh) 一种立体摄影方法、装置及立体摄影设备
US10802786B2 (en) Content sharing methods and apparatuses
US20190266802A1 (en) Display of Visual Data with a Virtual Reality Headset
CN111766951A (zh) 图像显示方法和装置、计算机系统和计算机可读存储介质
WO2018186168A1 (ja) 映像生成装置、映像生成方法および映像生成プログラム
KR101208767B1 (ko) 곡면 투사를 이용한 입체 영상 생성 방법, 장치 및 시스템, 이를 위한 기록 매체
US11317082B2 (en) Information processing apparatus and information processing method
JP2011081630A (ja) 画像生成装置、画像生成方法、および、プログラム
WO2018186169A1 (ja) 映像生成装置、映像生成方法および映像生成プログラム
US10701345B2 (en) System and method for generating a stereo pair of images of virtual objects
US9875526B1 (en) Display of three-dimensional images using a two-dimensional display
KR102151250B1 (ko) 객체 좌표를 도출하는 장치 및 방법
JP6611143B1 (ja) 画像表示方法、画像表示システム、プログラム
WO2023162799A1 (ja) 画像処理装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18780907

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18780907

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP