WO2007094236A1 - 表示データ生成装置 - Google Patents

表示データ生成装置 Download PDF

Info

Publication number
WO2007094236A1
WO2007094236A1 PCT/JP2007/052251 JP2007052251W WO2007094236A1 WO 2007094236 A1 WO2007094236 A1 WO 2007094236A1 JP 2007052251 W JP2007052251 W JP 2007052251W WO 2007094236 A1 WO2007094236 A1 WO 2007094236A1
Authority
WO
WIPO (PCT)
Prior art keywords
subject
information
layout
display data
important
Prior art date
Application number
PCT/JP2007/052251
Other languages
English (en)
French (fr)
Inventor
Qi Wang
Yasuo Endo
Original Assignee
Matsushita Electric Industrial Co., Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co., Ltd. filed Critical Matsushita Electric Industrial Co., Ltd.
Priority to US12/279,142 priority Critical patent/US20090115895A1/en
Publication of WO2007094236A1 publication Critical patent/WO2007094236A1/ja

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/278Subtitling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/60Network structure or processes for video distribution between server and client or between remote clients; Control signalling between clients, server and network components; Transmission of management data between server and client, e.g. sending from server to client commands for recording incoming content stream; Communication details between server and client 
    • H04N21/65Transmission of management data between client and server
    • H04N21/658Transmission by the client directed to the server
    • H04N21/6587Control parameters, e.g. trick play commands, viewpoint selection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/16Analogue secrecy systems; Analogue subscription systems
    • H04N7/173Analogue secrecy systems; Analogue subscription systems with two-way working, e.g. subscriber sending a programme selection signal
    • H04N7/17309Transmission or handling of upstream communications
    • H04N7/17318Direct or substantially direct transmission and handling of requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits

Definitions

  • the present invention relates to a display data generation device that generates telop display data to be added to a video.
  • the arbitrary viewpoint video distribution system is a system for transmitting image data captured at a plurality of viewpoint positions and arbitrary viewpoint image data generated based on the image data to viewers. The viewer can select and view the viewpoint video corresponding to the desired viewpoint from the received arbitrary viewpoint video data.
  • the arbitrary viewpoint video distribution system allows each of a plurality of viewers to watch different videos of the same program at the same time. As such a technique, among image data divided into partial images of a plurality of regions, a partial image necessary for generating an image of a viewpoint position desired by a user predicted by the center is selected and transmitted. (For example, refer to Patent Document 1).
  • the telop may present, for example, explanatory information for the subject, or may present overall information such as the score and time.
  • the purpose of the telop to be synthesized with the video is to provide explanatory information for the video screen to the viewer more quickly and quickly.
  • a method of adding information to a television image a method in which a created telop is manually combined with an image by an editor on the broadcasting station side has been common. This is because there was one video to which information was added.
  • map navigation is used as a technique for adding information to an arbitrary viewpoint video and displaying it.
  • the service center regenerates the map image to be displayed according to the viewpoint information (viewpoint position and scale information) received from the user side, and all the map guidance information included in the screen range.
  • viewpoint information viewpoint position and scale information
  • map guidance information included in the screen range.
  • Patent Document 1 Japanese Patent Laid-Open No. 2004-193941 Pages 8 to 20 Figure 1
  • Patent Document 2 JP-A-2002-213984, pages 9 to 14 Figure 1
  • the present invention has been made in view of the above-described conventional circumstances, and an object thereof is to provide a display data generation device that can generate telop display data suitable for each video. .
  • the display data generation device of the present invention is based on the viewpoint information and the subject information, a subject determination unit that determines a subject that is reflected on the screen, and a determination result of the subject determination unit. Based on the subject information! /, It is possible to determine the important subject that the viewer will pay attention to. And an important subject determination unit that generates feature information of the important subject, and a layout selection that selects a layout template having a selection condition that matches the feature information of the important subject from a plurality of layout templates. And a telop generation unit that generates telop display data based on the selected layout template.
  • the important subject determination unit uses the distance between the viewpoint position included in the viewpoint information and the subject position included in the subject information. It is characterized by making a judgment.
  • the display data generation device of the present invention is characterized in that the important subject determination unit determines that the subject having the shortest distance between the viewpoint position and the subject is the important subject.
  • the important subject determination unit may display feature information of the important subject on the screen of the important subject based on the viewpoint information and the subject information.
  • the layout selection unit selects a layout template having a selection condition that matches the size of the important subject on the screen.
  • the subject information has a subject attribute
  • the selection condition of the layout template has a subject attribute
  • the layout selection unit selects a layout template having a selection condition that matches the subject attribute of the important subject.
  • the display data generation method of the present invention is based on a subject determination step for determining a subject to be reflected on the screen based on viewpoint information and subject information, a determination result, and the subject information.
  • the important subject determination step for determining the important subject that the viewer will be interested in, and generating the feature information of the important subject, and matching the feature information of the important subject from a plurality of layout templates
  • the important subject determination step uses the distance V between the viewpoint position included in the viewpoint information and the subject position included in the subject information, and the important subject determination step uses the distance V. It is characterized in that a subject is determined.
  • the display data generation method of the present invention is characterized in that the important subject determination step determines the subject having the shortest distance between the visual point position and the subject as the important subject. .
  • the important subject determination step is configured to determine the feature information of the important subject on the screen of the important subject based on the viewpoint information and the subject information.
  • the layout selection step is to select a layout template having a selection condition that matches the size of the important subject on the screen.
  • the subject information has subject attributes
  • the selection condition of the layout template has subject attributes
  • the layout selection step includes the important subject.
  • a layout template having a selection condition that matches the subject attribute is selected.
  • the display data generation program of the present invention includes a subject determination unit that determines a subject displayed on a screen based on viewpoint information and subject information, a determination result of the subject determination unit, and Based on the subject information !, an important subject judging means for judging an important subject that the viewer will pay attention to and generating characteristic information of the important subject, among a plurality of layout templates.
  • FIG. 1 is a diagram showing an internal configuration of a display data generation device according to Embodiment 1 of the present invention.
  • FIG. 2 is a diagram conceptually showing a data structure of subject information used in the display data generation device in Embodiment 1 of the present invention.
  • FIG. 3 is a diagram conceptually showing the data structure of viewpoint information used in the display data generation device in Embodiment 1 of the present invention.
  • FIG. 5 Schematic diagram for explaining the subject determination method
  • FIG. 6 is a schematic diagram for explaining how a plurality of subjects are recognized by the subject determination unit.
  • FIG. 9 is a diagram conceptually showing the data structure of a layout template used in the display data generation device in Embodiment 1 of the present invention.
  • FIG.12 A diagram conceptually showing the data structure of telop explanation material
  • FIG.13 A diagram conceptually showing the data structure of the telop explanation material
  • FIG. 14 is a diagram display data of the display data generation device according to the first embodiment of the present invention.
  • FIG. 15 is a diagram for explaining a specific example of generation of telop display data.
  • FIG. 16 is a diagram for explaining a problem when there are a plurality of types of subjects.
  • FIG. 17 is a diagram conceptually showing a data structure of subject information used in the display data generation device in Embodiment 2 of the present invention.
  • FIG. 18 is a diagram conceptually showing the data structure of a layout template used in the display data generation device in Embodiment 2 of the present invention.
  • FIG. 19 is a diagram for explaining the operation of the layout selection unit of the display data generation device according to the second embodiment of the present invention.
  • FIG. 20 is a diagram for explaining the problems of the prior art
  • FIG. 1 is a diagram showing an internal configuration of the display data generation device according to Embodiment 1 of the present invention.
  • the display data generation device 100 includes a viewpoint information input unit 101, an arbitrary viewpoint video reception unit 1 02, Arbitrary viewpoint video reproduction unit 103, additional information reception unit 104, subject determination unit 105, important subject determination unit 106, layout selection unit 107, telop generation unit 108, and video superimposition unit 109. These are broadly divided into arbitrary viewpoint video control blocks that control display of arbitrary viewpoint videos and additional information control blocks that control display of telops.
  • the arbitrary viewpoint video control system block includes a viewpoint information input unit 101, an arbitrary viewpoint video reception unit 102, and an arbitrary viewpoint video reproduction unit 103.
  • the viewpoint information input unit 101 acquires viewpoint information by input means such as a remote controller and instructs selection of an arbitrary viewpoint video.
  • the viewpoint information is output to the arbitrary viewpoint video receiving unit 102, and is also output to the subject determination unit 105 and the important subject determination unit 106.
  • viewpoint information can be obtained by methods other than input, such as obtaining from operation history.
  • the arbitrary viewpoint video receiving unit 102 is a source for generating an arbitrary viewpoint video distributed from a distribution center (hereinafter referred to as a center) that distributes video based on viewpoint information! Multiple viewpoint position power Select and receive video data that matches the viewpoint information from the captured video data.
  • the received video data is played back by the arbitrary viewpoint video playback unit 103.
  • a method for providing arbitrary viewpoint video data for example, an arbitrary viewpoint video distribution system disclosed in Patent Document 1 was used to photograph a plurality of viewpoint position forces from which the center generates arbitrary viewpoint video.
  • a method of distributing video data and selectively receiving video data that includes the viewpoint video that the receiver needs is considered.
  • the additional information control system block includes an additional information receiving unit 104, a subject determination unit 105, an important subject determination unit 106, a layout selection unit 107, and a telop generation unit 108.
  • the additional information receiving unit 104 receives the subject information, the telop explanation material, and the latest data of the layout template as needed, and the received subject information is sent to the subject determination unit 105, and the telop explanation content material is sent to the telop generation unit 108.
  • Template to the layout selection unit 107. Note that the method of acquiring additional information such as subject information, telop explanation material, and layout template is not limited to receiving additional information distributed by the center and multiplexed with video data.
  • the display data generation device acquires additional information stored in the display data generation device.
  • additional information that is transmitted by broadcasting after being multiplexed with video data by the center.
  • the provider of the additional information is not limited to the center.
  • a third party who is not a center may provide additional information.
  • the transmission path for providing additional information is not limited.
  • Subject information is information for specifying a subject and describing characteristics of the subject.
  • the subject information is generated at the center (photographing side) and transmitted to the display data generating apparatus 100.
  • the subject includes a subject displayed on the screen of a video display terminal (not shown) connected to the display data generating apparatus 100! And displayed on the screen of a video display terminal connected to only the subject.
  • the subject information is distributed using information on a single subject as a transmission unit.
  • the transmission frequency of the subject information is not particularly limited in the present embodiment. It may be sent every one video frame, or may be sent at intervals other than one video frame. For example, if the video transmission speed is 30 frames per second, subject information may be sent every 1Z30 seconds, or subject information may be sent every 1Z2 seconds (15 frame intervals). .
  • the subject information may be generated by the display data generating apparatus 100 that is connected only at the center (photographing side).
  • the telop explanation material is a material of telop explanation content added to the screen.
  • the telop explanation material is input by the editor at the center.
  • the center transmits the telop explanation material prepared in advance to the display data generation apparatus 100, and thereafter transmits only the updated difference information as needed.
  • the telop explanation content material may be distributed as transmission units of data delimited using information specifying the telop explanation content material.
  • a layout template is information required to form a screen design of explanation contents of a telop.
  • the layout template is generated at the center and transmitted to the display data generating apparatus 100.
  • the center transmits a layout template created in advance to the display data generation apparatus 100, and thereafter transmits updated information as needed.
  • the layout template may be distributed using the data for selecting the layout template as a transmission unit.
  • the additional information receiving unit 104 may always perform the processing independently, but the present invention is not limited to this. Asynchronous processing may be performed, but this is also limited. It is not a thing. Further, the additional information receiving unit 104 may be configured as the same function unit as the arbitrary viewpoint video receiving unit 102.
  • the subject determining unit 105 determines whether or not the subject related to the acquired subject information is displayed on the screen.
  • the important subject determination unit 106 identifies an important subject that the viewer will be paying attention from among the subjects displayed on the screen, and generates feature information of the important subject.
  • the layout selection unit 107 compares the feature information of the important subject with the selection conditions of the layout template received by the additional information reception unit 104, and selects the layout template having the matching selection conditions.
  • the telop generation unit 108 generates telop display data based on the selected layout template.
  • the subject determining unit 105 extracts the subject displayed on the screen from the subject information received by the additional information receiving unit 104 based on the viewpoint information input from the viewpoint information input unit 101.
  • the important subject determination unit 106 determines an important subject that the viewer will be paying attention from among the subjects displayed on the screen, and generates feature information of the important subject.
  • the layout selection unit 107 compares the feature information of the important subject with the selection conditions related to the layout template received by the additional information reception unit 104, and selects a matching layout template.
  • the telop generation unit 108 selects necessary information applicable to each part of the template from the telop explanation content material received by the attached calo information receiving unit 104 based on the selected layout template. Then, the telop generation unit 108 generates telop display data using the selected layout template and the selected telop description content. Finally, the video superimposing unit 109 superimposes the arbitrary viewpoint video and the generated telop display data, and outputs them to a video display device (not shown).
  • FIG. 2 is a diagram conceptually showing a data structure of subject information used in the display data generating apparatus in the first embodiment of the present invention.
  • subject information D810 0 consists of subject identification information D8101 and subject position D8102.
  • Subject identification information D8101 represents a name and subject ID
  • subject position D8102 represents the current position of the subject.
  • the coordinate data of the subject position can be measured by GPS, ultrasonic radar, image recognition, etc.
  • the subject is recognized as a coordinate point.
  • FIG. 2 (b) for three subjects A, B, and C, as subject information of A, subject identification information: Mr.
  • subject position (1 12m, Om, 16m)
  • subject identification information B
  • subject position (one 36m, Om, 48m)
  • subject information of C C
  • the arbitrary viewpoint video receiver 102 uses the parameters for the virtual camera at the position desired by the viewer based on the video data taken from a plurality of viewpoint positions distributed from the center. Generates the desired arbitrary viewpoint video.
  • FIG. 3 is a diagram conceptually showing the data structure of the viewpoint information used in the display data generating device in Embodiment 1 of the present invention.
  • the viewpoint information is information for specifying parameters for the virtual camera, that is, the viewpoint position, the line-of-sight direction, and the viewing angle (viewing angle).
  • the viewpoint information D8200 includes a viewpoint position D8201, a line-of-sight direction D8202, and an angle of view D8203. Fig.
  • the viewpoint position is the position of the virtual camera used to generate the arbitrary viewpoint screen, and is represented by the three-dimensional position coordinates (X, y, z) of the virtual camera.
  • the line-of-sight direction is the shooting direction of the virtual camera, and is represented by two parameters (pan angle and tilt angle ⁇ ) of the horizontal component and the vertical component.
  • the viewing angle is represented by the range of the image captured by the virtual camera, that is, the angle of view ⁇ .
  • the angle of view is generally expressed by two parameters, a horizontal angle of view and a vertical angle of view.
  • the aspect ratio of the shot image is fixed to a value such as 16: 9 in advance. Assuming this, it will be expressed using only the horizontal angle of view.
  • the viewpoint information parameters may be any information as long as they can specify the shooting position, shooting direction, and angle of view, which are not necessarily expressed by the seven parameters shown in this embodiment.
  • Figure 5 shows the subject It is a schematic diagram for demonstrating a body determination method.
  • the virtual camera position is the vertex, and the virtual camera's horizontal field of view ⁇ 1 and vertical field of view ⁇ 2 along the direction of the virtual camera determined by the line-of-sight direction creates a 3D field of view of the quadrangular pyramid. It is formed.
  • the subject determination unit 104 determines that the subject is displayed on the screen configured by the viewpoint information. For example, since the subject P1 in the figure is present in the three-dimensional viewing area, the subject determination unit 104 determines that the subject P1 is displayed on the screen. On the other hand, since P2 does not exist in the 3D visual field, the subject determination unit 104 determines that the subject P2 is displayed on the screen.
  • FIG. 6 is a schematic diagram for explaining how a plurality of subjects are recognized by the subject determination unit 104.
  • FIG. 6 (a) is a diagram showing a visual field region formed by a certain virtual camera when looking down along the Y-axis. Depending on whether or not each object exists in the three-dimensional visual field, the subject determination unit 104 displays the objects A, B, and C present in the visual field on the screen and does not exist in the visual field. It is determined that objects D and E are not displayed on the screen.
  • Fig. 6 (b) is a schematic diagram showing an arbitrary viewpoint screen shot in the situation of Fig. 6 (a). Objects A, B, and C are on the screen, and objects D and E are not on the screen.
  • FIG. 7 is a schematic diagram for explaining an important subject determination method.
  • the identification of the important subject that the viewer will pay attention to is determined by the decision rule for the important subject.
  • the determination rule for the important subject is “the subject closest to the virtual camera (viewpoint position) among the subjects displayed on the screen. Focus on it and judge it as an important subject.
  • the subject positions corresponding to the three subjects A, B, and C shown on the screen are respectively relative to the virtual camera positions, that is, the viewpoint positions (Om, Om, Om). (—12m, Om, 16m), (36m, Om, 48m), (60m, Om, 80m).
  • the distances LI, L2, and L3 between the subjects A, B, and C and the virtual camera are calculated as 20 m, 60 m, and 100 m, respectively. Therefore, the important subject determination unit 106 determines that subject A is the important subject closest to the virtual camera.
  • the distance between the subject and the virtual camera is used as a determination method for identifying an important subject that the viewer will pay attention to.
  • the present invention is not limited to this. Absent.
  • the feature information of the subject is information indicating how the subject is reflected.
  • the screen occupancy rate of the subject is used to specify how much the viewer sees the subject at what size.
  • FIG. 8 is a schematic diagram for explaining a method of calculating the screen occupancy rate of the subject.
  • Equation 1 a value obtained by dividing the size of the subject displayed on the screen by the screen size is defined as the subject screen occupation rate.
  • the size of the subject shown on the screen should be displayed in the area of the subject shown on the screen, but in this embodiment, the subject is XZ as shown in the figure. The length obtained by projecting onto the plane and then projecting onto the X axis is taken as the size of the subject on the screen.
  • Equation 1 is the screen occupancy of the subject
  • K ′ is the subject size on the screen
  • H ′ is the screen size.
  • K represents the actual subject size
  • K is the actual size of the subject, expressed for example by the width of the athlete, and is given in advance as a constant, ignoring individual differences approximately.
  • the screen occupancy rate of the subject is approximately calculated by (Equation 5). According to (Equation 5), the closer to the camera or the narrower the angle of view, the larger the screen occupancy.
  • the screen occupancy rate of the important subject is specifically calculated using the example of Fig. 7 described above.
  • A is an important subject.
  • the distance of the subject A to the virtual camera is 2 Om
  • the camera position is (Om, Om, Om)
  • the horizontal angle of view is 5 degrees.
  • the screen occupation rate p of the important subject A is 0.458 according to (Equation 5).
  • information including the generated feature information of the important subject and the received subject identification information of the important subject is used as the important subject information. Therefore, in the example of FIG. 7, the important subject information is composed of subject identification information: A and screen occupation ratio: 0.458.
  • the force using the screen occupancy rate of the subject as the feature information is not limited to this.
  • the layout selection unit 107 selects and selects a display telop layout template suitable for the subject composition of the current video screen.
  • the layout template is provided to the telop generation unit 108.
  • the layout selection unit 107 selects a layout template having a selection condition that satisfies the screen occupancy rate of the important subject extracted by the important subject determination unit 106 from the layout template received by the additional information receiving unit 104. To do.
  • FIG. 9 shows a layout used in the display data generation device according to Embodiment 1 of the present invention. It is a figure which shows notionally the data structure of a template.
  • the layout template D8400 is composed of a selection condition D8401 and a layout item D8402.
  • the selection condition D8401 a condition for selecting a layout template is described, and in this embodiment, it is defined by a screen occupancy lower limit and a screen occupancy upper limit. If the screen occupancy of the subject is within the lower and upper limits, the layout template selection conditions are satisfied.
  • the layout item D8402 is information for arranging a telop, and includes data such as an item position, a material type, and a content item attribute. However, content item attributes are not mandatory.
  • FIG. 10 is a schematic diagram for explaining a layout template selection method.
  • Layout template D102 has a selection condition of screen occupancy: 0.4 or more and less than 0.8, items that introduce the player's name, batting ratio, age, etc., and the fighting status (name and score of both teams) The item that introduces is arranged.
  • the layout template D103 has a selection condition of screen occupancy: 0.05 or more and less than 0.4, and arranges a battle team name and a score display.
  • the layout template D104 has a selection condition of a screen occupancy ratio of 0 or more and less than 0.05, and a score display is arranged for each battle team.
  • the layout selection unit 107 since the screen occupancy rate of the important subject included in the important subject information D101 extracted by the important subject determination unit 106 is 0.458, the layout selection unit 107 has the selection condition It is judged that the layout template D102 matches the screen occupancy rate: 0.4 or more and less than 0.8. Therefore, the layout selection unit 107 extracts the layout template D102 and uses it as a display layout template.
  • FIG. 11 is a schematic diagram showing a display example of a layout template.
  • This display example is an embodiment of the display of the layout template D102 shown in FIG.
  • the position coordinates at the top left of the screen are (0, 0)
  • the screen width is 1600 pixels
  • the height is 1200 pixels.
  • the layout template parts consist of fixed display parts, overall common parts, and subject-related parts.
  • the item position and display contents are determined in the layout template.
  • the parts are mainly composed of power such as shadow backgrounds and labels.
  • the layout on the screen is determined by the “item position”.
  • the display content of the fixed display part is determined by the “display content” included in the layout item.
  • background D201, background D202, name label D205, age label, batting label, etc. are fixed display parts.
  • the layout of the background 202 is determined by the item position of the background 202, that is, the upper left position (20, 900) and the lower right position (1580, 1180).
  • the layout of the name label D205 is determined by the item position of the name label D205, that is, the upper left position (100, 1020) and the lower right position (270, 1100).
  • other fixed display parts in the figure can be similarly determined on the screen.
  • the globally common parts are parts that do not depend on a specific subject in the layout template. Common parts are mainly composed of team information and score information.
  • the layout on the screen is also determined by the “item position” for all common parts. For example, as shown in FIG. 11, in the part D203 of the layout template, the team names of the teams 1 of the opposing teams are arranged.
  • the layout of the part D203 is determined by the item position of the part D203, that is, the upper left position (30, 30) and the lower right position (160, 130).
  • the specific information of part D203 includes “team information Z team 1” of “material type” and “team name” of “content item attribute” included in the layout item.
  • part D 204 of the layout template is determined by the item position of the part D204, that is, the upper left position (30, 150) and the lower right position (160, 200).
  • the specific information of the part D204 includes “team information Z team 1” of “material type” and “score” of “content item attribute” included in the layout item.
  • the telop based on the specific information will be described later with respect to the filling method of the explanation content.
  • the layout on the screen can be determined in the same way for other common parts in the figure.
  • the subject-related part is a part that depends on a specific subject in the layout template.
  • the subject-related parts mainly include player-related explanation information. Covered
  • the layout on the screen is also determined by the item position for the body-related parts. For example, as shown in FIG. 11, the name of an arbitrary player is placed in part D206. Parts D206 is the item position of the NOT D206, good! ]
  • the upper left position (290, 1020) and lower right position (760, 1100) determine the layout on the screen.
  • the specific information of part D206 is composed of “player” of “material type” and “player name” of “content item attribute” included in the layout item. A method for extracting the telop explanation contents based on the specific information will be described later.
  • the arrangement on the screen can be similarly determined for other subject-related parts in the figure.
  • information indicating the order of superimposing on the screen may be added. For example, it is possible to arrange so that the label part is displayed before the background part.
  • the telop generation unit 108 selects telop explanation contents from the telop explanation contents material received by the additional information receiving unit 104 based on the extracted layout template, and generates telop display data.
  • FIG. 12 and FIG. 13 are diagrams conceptually showing the data structure of the telop explanation content material.
  • the telop explanation content material D8500 is composed of a material type D8501 and a telop explanation content item D8502.
  • Telop explanation content item D8502 is composed of content item attributes and telop explanation content.
  • the material type D8501 is information for specifying the telop explanation material.
  • the specific form of the material type D8501 can be described in a hierarchical description method. For example, as shown in FIG. 13 (a), the material type is described as “players 8”. In addition, as shown in FIG. 13B, the material type is described as “team information Z team 1”.
  • FIG. 14 is a flowchart showing the telop display data generation processing procedure of the display data generation apparatus according to Embodiment 1 of the present invention.
  • the telop generation unit 108 uses the layout template selected by the layout selection unit 107 as a telop display data for fixed display parts whose display contents and screen layout position have already been determined, such as backgrounds and labels of arbitrary shadows. (Step S001).
  • the telop generation unit 108 obtains the first material type and the first content item attribute included in the entire common part in the layout template selected by the layout selection unit 107, respectively. (Step S002).
  • the first material type matches the second material type included in the telop explanation content material received by the additional information receiving unit 104, and the first content item attribute and the telop explanation content received by the additional information receiving unit 104 If the second content item attribute included in the material matches, the telop generation unit 108 extracts the telop explanation content corresponding to the second material type and the second content item attribute. Then, the telop generation unit 108 fills the telop display data with the extracted telop description contents according to the item positions included in the entire common part.
  • the telop generation unit 108 obtains the third material type and the third content item attribute included in the subject-related part in the layout template selected by the layout selection unit 107 (step S003).
  • the telop generation unit 108 generates the fourth material type by combining the third material type and the subject identification information included in the important subject information extracted by the important object determination unit 106.
  • the fourth material type and the fifth material type included in the telop explanation content material received by the additional information receiving unit 104 match, and the third content item attribute and the telop received by the additional information receiving unit 104
  • the telop generation unit 108 extracts the telop explanation content according to the fifth material type and the fifth content item attribute.
  • the telop generation unit 108 fills the telop display data with the extracted telop description content according to the item position included in the subject-related part.
  • the telop generation unit 108 adjusts the front / rear superimposition relationship of each part in the telop display data based on the information of the front / rear superimposition order of each part in the extracted layout template (step S004). It is possible to determine which parts are displayed in front and which parts are displayed after the parts in the telop display data.
  • FIG. 15 is a diagram for explaining a specific example of generating telop display data. This example will be described using the layout template selected by the layout selection unit 107 shown in FIG.
  • the fixed display parts (background and Label, etc.) are filled in as telop display data.
  • the content of the label D301 arranged in the template D300 is “name”.
  • the label D301 is filled in the same coordinate position of the telop display data D400 according to the item position of the label D301.
  • the part D401 with the content “name” is generated as the telop display data D400.
  • other fixed display parts in the layout template D300 can be generated as the telop display data D400.
  • all common parts (such as whole team information and score information) that do not depend on a specific subject in the layout template are filled as telop display data.
  • the material type D3021 included in the part D302 arranged in the template D300 is “team information / team 1”, and the content item attribute D3022 is “team name”.
  • the content of the material type D501 is “team information Z team 1”, and the content item attribute D502 is “team name”.
  • the text explanation content D503 corresponding to the material type D501 and the explanation content material D502 (value is ⁇ Japan '' )
  • the telop display data 400 is filled at the same coordinate position as the 1S part D302.
  • the part D402 having the content “Japan” is generated as the telop display data D400.
  • other common parts in the layout template D300 can be generated as the telop display data D400.
  • subject-related parts that depend on a specific subject in the layout template are filled as 1S telop display data.
  • the material type D3031 included in the part D303 placed in the template D300 is “player”, and the content item attribute D 3032 is “player name”.
  • the subject identification information D3041 included in the important subject information D304 extracted by the important subject determination unit 106 is “A”.
  • a new material type D305 is generated by combining the material type D3031 and the subject identification information D3041 of the important subject.
  • the content of material type D305 is “Player ZA”.
  • the material type D504 is “player ZA” and the content item attribute D505 is “player name”. Therefore, the material type D305 matches the material type D504, and Since the item attribute D3032 matches the content item attribute D505, the material type D504 and the description Content material
  • the telop description content corresponding to the D505 D506 (value is "Nichiro Ichiro") force Parts D30 3 telop display data at the same coordinate position D400 is filled. As a result, the part D403 with the content “Nihon Ichiro” is generated as the telop display data D400.
  • other subject-related parts in the layout template D300 can be generated as the telop display data D400.
  • the front-rear superimposition relationship of all parts in the generated telop display data D400 is adjusted based on the information on the front-rear superimposition order of all parts in the layout template D300.
  • the display data generation device in Embodiment 1 of the present invention it is possible to determine an important subject that the viewer will pay attention to on the subject displayed on the screen.
  • the display content of the telop can be switched according to the characteristics of the important subject such as the size of the subject image on the screen.
  • information on important subjects is appropriately selected according to the display state of the screen and displayed in a telop with an appropriate layout, so that the viewer noticed and displayed immediately Can understand the contents of the telop accurately.
  • an important subject is selected based on the distance from the camera, and a telop layout template related to a single subject is selected based on the size of the subject on the screen.
  • a telop layout template related to a single subject is selected based on the size of the subject on the screen.
  • the second embodiment a case will be described in which when there are a plurality of types of subjects (players, etc.), it is necessary to select different subject-related (personal introduction, etc.) telop layout templates.
  • FIG. 16 is a diagram for explaining a problem when there are a plurality of types of subjects.
  • FIG. 16 (a) in the case of the player power S batter as an important subject on the screen, regardless of whether the player is a fielder or a pitcher, An appropriate telop layout template is selected based on the screen occupancy rate alone.
  • Fig. 16 (b) when the player who is an important subject on the screen is changed to another type of player, for example, a pitcher, a telop layout text corresponding to the pitcher as shown in Fig. 16 (c). It is preferable that a template is selected.
  • the same problem occurs even when the same player changes to a different state.
  • a telop layout template corresponding to the notter state is selected.
  • Fig. 16 (b) when the same player enters the pitcher area and enters the pitcher state, it can be switched to the telop layout template corresponding to the pitcher state as shown in Fig. 16 (c). Is preferred.
  • the batter telop layout template is selected as shown in Fig. 16 (b). Let's do it.
  • it is preferable that different introduction telop layout templates are selected for the forward player and the goalkeeper.
  • the layout selection unit 107 further adds subject attributes such as a pitcher or a fielder to the layout template selection condition, and further adds to the subject information.
  • subject attributes such as a pitcher or a fielder
  • the layout template selected based on the subject screen size (screen occupancy). Therefore, when the type of the subject as an important subject (for example, pitcher or fielder, goalkeeper or forward) changes, it becomes possible to switch to the corresponding telop.
  • the internal configuration of the display data generation apparatus according to the second embodiment is the same as that of the first embodiment, and a description thereof will be omitted.
  • FIG. 17 is a diagram conceptually showing a data structure of subject information used in the display data generating apparatus in the second embodiment of the present invention.
  • the subject information D 9100 is different from the subject information D8100 used in the display data generation device of the first embodiment shown in FIG. 2 (a). Have been added. Covered
  • the body attribute D9103 is an attribute relating to the subject for identifying the state and type of the subject.
  • the subject identification information of the subject information D9901 is “A”, and the subject attribute is “batter state”.
  • the subject identification information of the subject information D9902 is “B”, and the subject attribute is “pitcher state”.
  • FIG. 18 is a diagram conceptually showing a data structure of a layout template used in the display data generating apparatus in the second embodiment of the present invention.
  • the layout template D9400 is different from the layout template D8400 used in the display data generation apparatus in Embodiment 1 shown in FIG. 9 in that the subject attribute D9403 is added to the selection condition D9401.
  • the subject attribute D9403 is a condition for determining the state and type of the subject.
  • the layout selection unit 107 searches the layout template received by the additional information reception unit 104 for a layout template selection condition that satisfies both the screen occupancy rate of the important subject and the subject attribute extracted by the important subject determination unit 106. Select a layout template according to the selection conditions.
  • the selection condition of the layout template is the first selection condition that the screen occupancy rate of the subject is within the range of the screen occupancy lower limit and the screen occupancy upper limit in the selection condition D9401 shown in FIG.
  • FIG. 19 is a diagram for explaining the operation of the layout selection unit 107 of the display data generation device according to the second embodiment of the present invention.
  • the contents of the subject attribute D9911 included in the important subject information D9910 are “pitcher state”, and the screen occupation ratio D9912 is “0.458”.
  • the lower limit of screen occupancy included in the selection condition D9920 of an arbitrary layout template is “0.4”
  • the upper limit of screen occupancy is “0.8”
  • the subject attribute is “pitcher state”.
  • layout selection unit 107 determines that important subject D9910 satisfies selection condition D9920. Therefore layout selection The output unit 107 selects a layout template corresponding to the selection condition D9920.
  • the lower screen occupancy limit included in another layout template selection condition D9930 is “0.4”
  • the upper screen occupancy ratio is “0.8”
  • the subject attribute is “batter state”.
  • the layout selection unit 107 determines that the important subject D9910 does not satisfy the selection condition D9930. Therefore, the layout selection unit 107 does not select a layout template according to the selection condition D9930!
  • the generation of a telop based on the layout template selected by the layout selection unit 107 is the same as the telop generation process in the display data generation apparatus according to the first embodiment, and a description thereof will be omitted.
  • the display data generation device in Embodiment 2 of the present invention when displaying a telop related to a subject, it is possible to switch the telop depending on the type of a different subject. . Further, even when the state of the same subject has changed (for example, when the baseball player who is the subject changes from the throwing state to the batting state, etc.), the tip can be appropriately switched. In this way, it is possible to provide information corresponding to various arbitrary viewpoint video viewing.
  • the display of the telop is also appropriately changed according to the change in the displayed subject, so that the viewer can obtain information on the subject accurately.
  • the display data generation device in the above embodiment can also be applied to other video distribution systems that provide a viewpoint video that the viewer can select by viewing by switching the viewpoint.
  • a multi-view video distribution system multi-angle distribution system
  • a free viewpoint video distribution system that can cut out (image) and present it to the viewer.
  • the display data generation device of the present invention can select an appropriate layout according to the subject configuration of the screen, it has the effect that it can generate telop display data suitable for each video, This is useful for display data generation devices that generate telop display data to be added to video.

Abstract

 本発明は、各映像にそれぞれ適したテロップ表示用データを生成することができる表示データ生成装置を提供することを目的とする。 本発明の表示データ生成装置は、視点情報および被写体情報に基づいて、画面に映されている被写体を判定する被写体判定部105と、被写体判定部105の判定結果および前記被写体情報に基づいて、視聴者が注目しているであろう重要被写体を判断し、前記重要被写体の特徴情報を生成する重要被写体判断部106と、複数のレイアウトテンプレートの中から、前記重要被写体の特徴情報と合致した選択条件を持ったレイアウトテンプレートを選出するレイアウト選出部107と、前記選出されたレイアウトテンプレートに基づいて、テロップ表示用データを生成するテロップ生成部108と、を有する。

Description

明 細 書
表示データ生成装置
技術分野
[0001] 本発明は、映像に付加するテロップ表示用データを生成する表示データ生成装置 に関する。
背景技術
[0002] 近年、高精細デジタル大画面テレビや、映像の圧縮技術、大量データの伝送技術 の進展に伴ってテレビ番組や映像情報などの視聴形態も多様ィ匕して 、る。その一例 として、「好みの視点から映画や野球を見たい」というニーズを満たす、任意視点映像 配信システムが提案されている。任意視点映像配信システムとは、複数の視点位置 で撮影した画像データやそれらを元に生成された任意視点画像データを視聴者に 伝送するものである。視聴者は、受信した任意視点映像データから好みの視点に対 応する視点映像を選択して視聴することが可能である。任意視点映像配信システム により、複数の視聴者のそれぞれが、同時刻において、同じ番組の異なる映像を視 聴することができる。このような技術として、複数の領域の部分画像に分割された画像 データの内、センターが予測した利用者の所望する視点位置の画像を生成するのに 必要な部分画像を選択して伝送するものがある(例えば、特許文献 1参照)。
[0003] ところで、テレビ映像にテロップなどの説明情報を付加することにより、視聴者は映 像に関連する情報を即座に取得できる。また、視聴者がテロップを同時に参照するこ とにより、視聴中の映像をより理解しやすくなる。テロップは、視聴画面の状況に応じ て、例えば、被写体に対する説明情報を提示することもあるし、得点や時間等の全体 情報を提示することもある。つまり、映像に合成されるテロップの目的は、映像画面に 対する説明情報をより分力りやすぐ速やかに、視聴者に提供することである。従来、 テレビ映像に情報を付加する手法としては、作成したテロップを放送局側の編集者 が手動で映像に合成する方法が一般的であった。これは、情報を付加する対象とな る映像が 1つであったためである。
[0004] 一方、任意視点映像に情報を付加して表示する技術として、地図ナビゲーシヨンシ ステムに関するものがある。このナビゲーシヨンシステムにおいて、サービスセンター 側は、ユーザー側から受信した視点情報 (視点位置、縮尺情報)に応じて、表示する 地図画像を再生成するとともに、画面範囲内に含まれる全ての地図案内情報を GIS (地図情報システム)から取得し、地図画像に重畳して表示するものである(例えば、 特許文献 2参照)。
特許文献 1 :特開 2004— 193941号公報 第 8頁〜第 20頁 図 1
特許文献 2 :特開 2002— 213984号公報 第 9頁〜第 14頁 図 1
発明の開示
発明が解決しょうとする課題
[0005] 上記の任意視点映像配信システムにお 、て、従来のテロップ付加技術を用いた場 合、放送局側の編集者が、あらゆる視点の視点映像データのそれぞれに適したテロ ップを選択して、各視点映像に合成することになる。しかし、視点数が無限になり得る ので、実現できない。また、リアルタイムで行うことも現実的ではない。
[0006] また、任意視点映像配信システムにお 、て、上記特許文献 2に開示される情報付 加技術を適用した場合、 020 (a)に示すように、任意視点映像に、その画面範囲に 含まれる全ての被写体に関する説明情報が表示されることになる。この結果、上述し たテロップ表示の目的(映像画面に対する説明情報をより分力りやすぐ速やかに、 視聴者に提供すること)に反した、不適切なテロップ表示となる。それぞれの被写体 がどう!/、うふうに映像画面に映って 、るのかと!/、う画面状況を判断しなければ、テロッ プの内容の選択やレイアウト(画面配置)を決めることができない。適切なテロップ表 示としては、図 20 (b)に示すような画面表示が好ましい。
[0007] 本発明は、上記従来の事情に鑑みてなされたものであって、各映像にそれぞれ適 したテロップ表示用データを生成することができる表示データ生成装置を提供するこ とを目的とする。
課題を解決するための手段
[0008] 本発明の表示データ生成装置は、視点情報および被写体情報に基づ!、て、画面 に映されて!/ヽる被写体を判定する被写体判定部と、前記被写体判定部の判定結果 および前記被写体情報に基づ!/、て、視聴者が注目して 、るであろう重要被写体を判 断し、前記重要被写体の特徴情報を生成する重要被写体判断部と、複数のレイァゥ トテンプレートの中から、前記重要被写体の特徴情報と合致した選択条件を持ったレ ィアウトテンプレートを選出するレイアウト選出部と、前記選出されたレイアウトテンプ レートに基づいて、テロップ表示用データを生成するテロップ生成部と、を有すること を特徴とする。
上記構成によれば、画面の被写体構成に応じた適切なレイアウトを選出することが できるため、各映像にそれぞれ適したテロップ表示用データを生成することができる。 これにより、任意視点映像を配信するシステムにおいても、視聴者側端末毎に、映像 画面に対する説明情報をより分かりやすぐ速やかに、視聴者に提供することができ る。
[0009] また、本発明の表示データ生成装置は、前記重要被写体判断部が、前記視点情 報に含まれる視点位置と前記被写体情報に含まれる被写体位置との距離を用いて、 前記重要被写体の判断を行うことを特徴とする。
上記構成によれば、説明情報 (テロップ)を付加すべき重要被写体を的確に判断す ることがでさる。
[0010] また、本発明の表示データ生成装置は、前記重要被写体判断部が、前記視点位 置と被写体との距離が一番短い被写体を前記重要被写体と判断することを特徴とす る。
上記構成によれば、説明情報 (テロップ)を付加すべき重要被写体を的確に判断す ることがでさる。
[0011] また、本発明の表示データ生成装置は、前記重要被写体判断部が、前記重要被 写体の特徴情報を、前記視点情報および前記被写体情報に基づいて、前記重要被 写体の画面上の大きさとして生成し、前記レイアウト選出部が、前記重要被写体の画 面上の大きさと合致した選択条件を持ったレイアウトテンプレートを選出することを特 徴とする。
上記構成によれば、説明情報 (テロップ)を付加すべき対象と判断された重要被写 体に対して、適切なレイアウトでテロップを表示させることができる。
[0012] また、本発明の表示データ生成装置は、前記被写体情報が、被写体属性を有し、 前記レイアウトテンプレートが持つ選択条件が、被写体属性を有し、前記レイアウト選 出部が、前記重要被写体の被写体属性と合致した選択条件を持ったレイアウトテン プレートを選出することを特徴とする。
上記構成によれば、被写体属性に応じた適切な情報を含むテロップを適切なレイ アウトで表示させることができる。
[0013] また、本発明の表示データ生成方法は、視点情報および被写体情報に基づいて、 画面に映されて!/ヽる被写体を判定する被写体判定ステップと、判定結果および前記 被写体情報に基づいて、視聴者が注目しているであろう重要被写体を判断し、前記 重要被写体の特徴情報を生成する重要被写体判断ステップと、複数のレイアウトテ ンプレートの中から、前記重要被写体の特徴情報と合致した選択条件を持ったレイ アウトテンプレートを選出するレイアウト選出ステップと、前記選出されたレイアウトテ ンプレートに基づいて、テロップ表示用データを生成するテロップ生成ステップと、を 有する。
[0014] また、本発明の表示データ生成方法は、前記重要被写体判断ステップが、前記視 点情報に含まれる視点位置と前記被写体情報に含まれる被写体位置との距離を用 V、て、前記重要被写体の判断を行うことを特徴とするものである。
[0015] また、本発明の表示データ生成方法は、前記重要被写体判断ステップが、前記視 点位置と被写体との距離が一番短い被写体を前記重要被写体と判断することを特徴 とするちのである。
[0016] また、本発明の表示データ生成方法は、前記重要被写体判断ステップが、前記重 要被写体の特徴情報を、前記視点情報および前記被写体情報に基づいて、前記重 要被写体の画面上の大きさとして生成し、前記レイアウト選出ステップは、前記重要 被写体の画面上の大きさと合致した選択条件を持ったレイアウトテンプレートを選出 することを特徴とするものである。
[0017] また、本発明の表示データ生成方法は、前記被写体情報が、被写体属性を有し、 前記レイアウトテンプレートが持つ選択条件が、被写体属性を有し、前記レイアウト選 出ステップが、前記重要被写体の被写体属性と合致した選択条件を持ったレイアウト テンプレートを選出することを特徴とするものである。 [0018] さらに、本発明の表示データ生成プログラムは、コンピュータを視点情報および被 写体情報に基づいて、画面に映されている被写体を判定する被写体判定手段、前 記被写体判定部の判定結果および前記被写体情報に基づ!、て、視聴者が注目して V、るであろう重要被写体を判断し、前記重要被写体の特徴情報を生成する重要被写 体判断手段、複数のレイアウトテンプレートの中から、前記重要被写体の特徴情報と 合致した選択条件を持ったレイアウトテンプレートを選出するレイアウト選出手段、前 記選出されたレイアウトテンプレートに基づいて、テロップ表示用データを生成するテ ロップ生成手段、として機能させるためのプログラムである。
発明の効果
[0019] 本発明によれば、画面の被写体構成に応じた適切なレイアウトを選出することがで きるため、各任意視点映像に、それぞれ適したテロップを合成した表示データを生成 することができる。
図面の簡単な説明
[0020] [図 1]本発明の実施の形態 1における表示データ生成装置の内部構成を示す図
[図 2]本発明の実施の形態 1における表示データ生成装置で使用する被写体情報の データ構造を概念的に示す図
[図 3]本発明の実施の形態 1における表示データ生成装置で使用する視点情報のデ ータ構造を概念的に示す図
[図 4]視点情報の項目を説明するための模式図
[図 5]被写体判定方法を説明するための模式図
[図 6]被写体判定部で複数の被写体が認識される様子を説明するための模式図
[図 7]重要被写体判断方法を説明するための模式図
[図 8]被写体の画面占有率の算出方法を説明するための模式図
[図 9]本発明の実施の形態 1における表示データ生成装置で使用するレイアウトテン プレートのデータ構造を概念的に示す図
[図 10]レイアウトテンプレートの選出方法を説明するための模式図
[図 11]レイアウトテンプレートの表示例を示す模式図
[図 12]テロップ説明内容素材のデータ構造を概念的に示す図 [図 13]テロップ説明内容素材のデータ構造を概念的に示す図
[図 14]本発明の実施の形態 1における表示データ生成装置の、テロップ表示用デー
タ生成処理手順を示すフローチャート
[図 15]テロップ表示用データ生成の具体例を説明するための図
[図 16]被写体の種類が複数である場合の課題について説明するための図
[図 17]本発明の実施の形態 2における表示データ生成装置で使用する被写体情報 のデータ構造を概念的に示す図
[図 18]本発明の実施の形態 2における表示データ生成装置で使用するレイアウトテ ンプレートのデータ構造を概念的に示す図
[図 19]本発明の実施の形態 2における表示データ生成装置の、レイアウト選出部の 動作を説明するための図
[図 20]従来技術の課題を説明するための図
符号の説明
表示データ生成装置
101 視点情報入力部
102 任意視点映像受信部
103 任意視点映像再生部
104 付加情報受信部
105 被写体判定部
106 重要被写体判断部
107 レイアウト選出部
108 テロップ生成部
109 映像重畳部
発明を実施するための最良の形態
[0022] 以下、本発明の実施の形態について図面を参照しながら説明する。
[0023] [実施の形態 1]
図 1は、本発明の実施の形態 1における表示データ生成装置の内部構成を示す図 である。表示データ生成装置 100は、視点情報入力部 101、任意視点映像受信部 1 02、任意視点映像再生部 103、付加情報受信部 104、被写体判定部 105、重要被 写体判断部 106、レイアウト選出部 107、テロップ生成部 108、映像重畳部 109を備 えて構成される。これらは、任意視点映像の表示制御を行う任意視点映像制御系ブ ロックと、テロップの表示制御を行う付加情報制御系ブロックとに大別される。
[0024] はじめに、任意視点映像制御系ブロックにつ 、て説明する。任意視点映像制御系 ブロックは、視点情報入力部 101、任意視点映像受信部 102、任意視点映像再生部 103を含む。視点情報入力部 101は、リモコンなどの入力手段によって視点情報を 取得し、任意視点映像の選択を指示するものである。視点情報は、任意視点映像受 信部 102に出力されるとともに、被写体判定部 105と、重要被写体判断部 106にも出 力される。尚、視点情報は、操作履歴から取得する等、入力以外の方法で取得して ちょい。
[0025] 任意視点映像受信部 102は、視点情報に基づ!/、て、映像の配信を行う配信センタ 一(以下、センターと称する)から配信された、任意視点映像を生成する元となる複数 の視点位置力 撮影された映像データから、視点情報に合致する映像データを選択 受信する。受信した映像データは、任意視点映像再生部 103で再生される。ここで、 任意視点映像データを提供する手法としては、例えば、特許文献 1に開示された任 意視点映像配信システムにより、センターが任意視点映像を生成する元となる複数 の視点位置力 撮影された映像データを配信し、受信側が必要な視点映像が含ま れた映像データを選択受信する方法などが考えられる。
[0026] 次に、付加情報制御系ブロックにつ 、て説明する。付加情報制御系ブロックは、付 加情報受信部 104、被写体判定部 105、重要被写体判断部 106、レイアウト選出部 107、テロップ生成部 108を含む。付加情報受信部 104は、被写体情報、テロップ説 明内容素材、レイアウトテンプレートの最新データを随時受信し、受信した被写体情 報を被写体判定部 105へ、テロップ説明内容素材をテロップ生成部 108へ、レイァゥ トテンプレートをレイアウト選出部 107へそれぞれ提供する。尚、被写体情報、テロッ プ説明内容素材、レイアウトテンプレートといった付加情報の取得方法は、センター により映像データと多重化して配信された付加情報を、受信することに限定されるも のではない。例えば、表示データ生成装置内部に蓄積されている付加情報を取得し てもよ 、し、センターが映像データと多重化して放送により伝送した付加情報を取得 してもよい。尚、付加情報の提供元は、センターに限定されるものではない。例えば、 センターでない第 3者が付加情報を提供してもよい。尚、付加情報を提供する伝送路 については、限定しない。
[0027] 被写体情報とは、被写体を特定し、被写体の特徴を記述するための情報である。
被写体情報は、センター (撮影側)で生成され、表示データ生成装置 100へ送信され る。被写体には、表示データ生成装置 100に接続する映像表示端末(図示省略)の 画面に表示されて!、る被写体だけでなぐ映像表示端末の画面に表示されて ヽな 、 被写体も含まれる。また、被写体情報は、単体の被写体に関する情報を送信単位と して配信される。被写体情報の伝送頻度は、本実施の形態では、特に限定しない。 一映像フレームごとに送出されてもよいし、一映像フレーム以外の間隔で送出されて もよい。例えば、映像送信スピードが毎秒 30フレームの場合、それに合わせて 1Z3 0秒ごとに被写体情報が送出されてもよいし、 1Z2秒の間隔(15フレーム間隔)で被 写体情報が送出されてもよい。尚、被写体情報の生成は、センター (撮影側)だけで なぐ表示データ生成装置 100で生成してもよい。
[0028] テロップ説明内容素材とは、画面に付加するテロップの説明内容の素材である。テ ロップ説明内容素材は、センターの編集者により入力される。センターは、予め作成 したテロップ説明内容素材を表示データ生成装置 100へ送信し、その後は、更新さ れた差分情報のみを随時送信する。また、テロップ説明内容素材は、テロップ説明内 容素材を特定する情報を用いて区切られたデータを送信単位として配信してもよ 、。
[0029] レイアウトテンプレートとは、テロップの説明内容の画面デザインを形成するために 必要とされる情報である。レイアウトテンプレートは、センターで生成され、表示データ 生成装置 100へ送信される。センターは、予め作成したレイアウトテンプレートを表示 データ生成装置 100へ送信し、その後は、更新された情報を随時送信する。また、レ ィアウトテンプレートは、レイアウトテンプレートを選択する情報を用いて区切られたデ ータを送信単位として配信してもよ ヽ。
[0030] 尚、上記において付加情報受信部 104は、常時独立して処理を行ってもよいが、こ れに限定されるものではない。また、非同期処理を行ってもよいが、これも限定される ものではない。更に、付加情報受信部 104は、任意視点映像受信部 102と同一の機 能部として構成してもよい。
[0031] 被写体判定部 105は、取得した被写体情報に係る被写体が、画面に表示されて 、 る力否かを判定する。重要被写体判断部 106は、画面に表示されている被写体の中 から、視聴者が注目しているであろう重要被写体を特定し、当該重要被写体の特徴 情報を生成する。レイアウト選出部 107は、重要被写体の特徴情報と、付加情報受 信部 104で受信したレイアウトテンプレートが有する選択条件とを比較し、合致した選 択条件を有するレイアウトテンプレートを選出する。
テロップ生成部 108は、選出されたレイアウトテンプレートに基づいてテロップ表示 用データを生成する。
[0032] 次に、上記構成の表示データ生成装置 100の動作について説明する。
[0033] はじめに、テロップの表示制御動作について説明する。被写体判定部 105は、視 点情報入力部 101から入力された視点情報に基づいて、付加情報受信部 104で受 信した被写体情報の中から、画面に表示されている被写体を抽出する。次に、重要 被写体判断部 106は、画面に表示されている被写体の中から、視聴者が注目してい るであろう重要被写体を判断し、当該重要被写体の特徴情報を生成する。更に、レイ アウト選出部 107は、重要被写体の特徴情報と付加情報受信部 104で受信したレイ アウトテンプレートに関する選択条件とを比較し、合致するレイアウトテンプレートを選 出する。
[0034] 次に、テロップ生成部 108は、選出されたレイアウトテンプレートに基づいて、付カロ 情報受信部 104で受信したテロップ説明内容素材から、テンプレートの各パーツに あてはまる必要な情報を選択する。そして、テロップ生成部 108は、選出されたレイァ ゥトテンプレートと、選択したテロップ説明内容とを用いて、テロップ表示用データを 生成する。最後に、映像重畳部 109は、任意視点映像と生成されたテロップ表示用 データとを重畳して、図示しない映像表示装置へ出力する。
[0035] ここで、被写体情報と視点情報の定義について詳細に説明する。
[0036] 図 2は、本発明の実施の形態 1における表示データ生成装置で使用する被写体情 報のデータ構造を概念的に示す図である。図 2 (a)に示すように、被写体情報 D810 0は、被写体識別情報 D8101と被写体位置 D8102で構成される。被写体識別情報 D8101は、名前や被写体 IDを表し、被写体位置 D8102は、被写体の現在位置を 示す。被写体位置の座標データは、 GPS、超音波レーダ、画像認識などにより測定 可能である。尚、被写体は、座標点として認識される。例えば、図 2 (b)に示すように、 A、 B、 Cの 3つの被写体について、 Aの被写体情報として、被写体識別情報: Aさん 、被写体位置:(一 12m, Om, 16m)、 Bの被写体情報として、被写体識別情報: Bさ ん、被写体位置:(一 36m, Om, 48m)、 Cの被写体情報として、被写体識別情報: C さん、被写体位置:(60m, Om, 80m)という被写体情報が生成されている。
[0037] 次に、視点情報について説明する。任意視点映像受信部 102は、センターから配 信された、複数の視点位置から撮影された映像データを元にして、視聴者が所望す る位置にある仮想的カメラに対するパラメータを用いて、視聴者が所望する任意視点 映像を生成する。図 3は、本発明の実施の形態 1における表示データ生成装置で使 用する視点情報のデータ構造を概念的に示す図である。本実施の形態では、視点 情報は、仮想的カメラに対するパラメータ、すなわち、視点位置、視線方向、視野角( 画角)を特定するための情報である。図に示すように、視点情報 D8200は、視点位 置 D8201、視線方向 D8202、画角 D8203で構成される。図 4は、視点情報の項目 を説明するための模式図である。視点位置は、任意視点画面を生成するために使用 した仮想カメラの位置であり、仮想カメラの 3次元的な位置座標 (X, y, z)で表される 。視線方向は、仮想カメラの撮影方向であり、水平成分と垂直成分の 2つのパラメ一 タ (パン角度 、チルト角度 β )で表される。視野角は、仮想カメラが撮影する映像の 範囲、即ち画角 Θで表される。画角は、一般には水平画角、垂直画角の 2つのパラメ ータで表されるが、本実施の形態では撮影映像のアスペクト比が 16: 9などの値に事 前に固定されていることを前提として、水平画角のみを用いて表すこととする。尚、視 点情報のパラメータは、必ずしも本実施の形態で示した 7つのパラメータで表現され る必要はなぐ撮影位置、撮影方向、画角が特定できる情報であればどのようなもの でもかまわない。
[0038] 次に、テロップの表示制御動作における各部の処理について詳細に説明する。
[0039] はじめに、被写体判定部 104の被写体判定処理にっ 、て説明する。図 5は、被写 体判定方法を説明するための模式図である。図に示すように、仮想カメラ位置を頂点 とし、視線方向で決定された仮想カメラの向きに沿って仮想カメラの水平画角 Θ 1と 垂直画角 Θ 2により、四角錐の 3次元視野領域が形成される。被写体判定部 104は、 任意の被写体 (点)がその視野領域に存在すれば、当該被写体は視点情報によって 構成された画面に表示されていると判定する。例えば、図中の被写体 P1は 3次元視 野領域に存在しているので、被写体判定部 104は、被写体 P1が画面に表示されて いると判定する。一方、 P2は 3次元視野領域に存在していないので、被写体判定部 104は、被写体 P2は画面に表示されて 、な 、と判定する。
[0040] 同様に、図 6は、被写体判定部 104で複数の被写体が認識される様子を説明する ための模式図である。図 6 (a)は、 Y軸に沿って俯瞰する際、ある仮想カメラで構成さ れる視野領域を示す図である。被写体判定部 104は、各オブジェクトが 3次元視野領 域に存在するか否かに応じて、視野領域に存在しているオブジェクト A、 B、 Cが画面 に表示され、視野領域に存在していないオブジェクト D、 Eは画面に表示されないと 判定する。図 6 (b)は、図 6 (a)の状況で撮影された任意視点画面を示す模式図であ る。オブジェクト A、 B、 Cが画面に映っていて、オブジェクト D、 Eは画面に映っていな い。
[0041] 次に、重要被写体判断部 106の重要被写体判断処理について説明する。図 7は、 重要被写体判断方法を説明するための模式図である。視聴者が注目して 、るであろ う重要被写体の特定は、重要被写体の判定ルールによって判断する。ここで、本実 施の形態においては、重要被写体の判定ルールを、「画面に表示されている被写体 の中で、仮想カメラ (視点位置)に対して最も近距離にある被写体を、視聴者が注目 して 、るであろう重要被写体と判断する」と定義する。
[0042] 図 7に示すように、画面に映っている 3つの被写体 A、 B、 Cに対応する被写体位置 は、仮想カメラの位置、即ち視点位置(Om, Om, Om)に対して、それぞれ(— 12m, Om, 16m)、(一36m, Om, 48m)、 (60m, Om, 80m)である。空間における 2点間 の距離計算により、被写体 A、 B、 Cと仮想カメラとの距離 LI、 L2、 L3は、それぞれ、 20m、 60m、 100mと算出される。従って、重要被写体判断部 106は、仮想カメラに 最も近 、被写体 Aが重要被写体であると判断する。 [0043] 尚、本実施の形態では、視聴者が注目して 、るであろう重要被写体を特定する判 断方法として被写体と仮想カメラとの距離を用いたが、これに限定されるものではな い。
[0044] 次に、重要被写体判断部 106で行われるもう一つの処理である重要被写体の特徴 情報生成処理について説明する。被写体の特徴情報とは、被写体がどのように映つ ているのかを表す情報である。ここでは被写体の特徴情報として、視聴者が被写体を どれぐら 、の大きさで見て 、るのかを特定する被写体の画面占有率を用いる。図 8は 、被写体の画面占有率の算出方法を説明するための模式図である。本実施の形態 では、(式 1)に示すように、画面上に映されている被写体のサイズを画面サイズで除 した値を被写体の画面占有率とする。正確には、画面上に映されている被写体のサ ィズは、画面上に映されている被写体の面積で表示すべきであるが、本実施形態で は、図示のように、被写体を XZ平面に射影し、さらに、 X軸に射影して得た長さを、画 面上に映されている被写体のサイズとみなす。
[0045] [数 1] p = K' / (式 1 )
[0046] ここで、 は被写体の画面占有率、 K 'は画面上の被写体サイズ、 H 'は画面サイズ を表す。更に、 Kは実際の被写体サイズ、 Hは画面と平行して被写体と認識されてい る点を通る相似形のサイズを表す。相似の原理により K' /H' = K/Hであるから、それ を (式 1)に代入すると、(式 2)が得られる。
[0047] [数 2] p = /H (式 2 ) また、図 8に示すように、 Lは仮想カメラ位置に対する被写体の距離であり、三角関 数により(式 3)が得られる。
[0048] [数 3] tan ( 6 /2) = (H/2) /L (式 3 )
(式 3)を変換した後、(式 4)が得られる [0049] [数 4]
H = 2*L*tan ( 0 /2) (式 4 )
(式 4)を (式 2)に代入して変換すると、(式 5)が得られる。
[0050] [数 5]
K ―
p = Θ (式 5 )
2 * L * tan — ここで、 Kは被写体の実サイズであり、例えば、選手の横幅などで表され、個人差を 近似的に無視し、定数として予め付与される。このように、被写体の画面占有率は、 ( 式 5)で近似的に算出される。(式 5)によれば、カメラに近ければ近いほど、または画 角が狭ければ狭 、ほど、画面占有率が大きくなる。
[0051] 次に、前述の図 7の例を用いて重要被写体の画面占有率を具体的に算出する。図 7の例では、 Aが重要被写体である。さらに、仮想カメラに対する被写体 Aの距離は 2 Om、カメラ位置は(Om, Om, Om)、水平画角は 5度である。仮に、被写体の実サイ ズ (選手の横幅)が一定値の 0. 80mの場合、(式 5)により重要被写体 Aの画面占有 率 pは、 0. 458となる。次に、記述を簡略化するため、生成した重要被写体の特徴 情報と、受信した重要被写体の被写体識別情報とから構成される情報を重要被写体 情報とする。従って、図 7の例では、重要被写体情報は、被写体識別情報: A、画面 占有率: 0. 458、で構成される。尚、本実施の形態では、特徴情報に被写体の画面 占有率を用いた力 これに限定されるものではない。
[0052] 次に、レイアウト選出部 107のレイアウト選出処理について説明する。レイアウト選 出部 107は、重要被写体判断部 106で生成された重要被写体情報に基づいて、現 在の映像画面の被写体構成にあった適切な表示用のテロップのレイアウトテンプレ ートを選出し、選出したレイアウトテンプレートをテロップ生成部 108へ提供する。具 体的には、レイアウト選出部 107は、付加情報受信部 104で受信したレイアウトテン プレートから、重要被写体判断部 106で抽出した重要被写体の画面占有率を満足 する選択条件を有するレイアウトテンプレートを選出する。
[0053] 図 9は、本発明の実施の形態 1における表示データ生成装置で使用するレイアウト テンプレートのデータ構造を概念的に示す図である。図に示すように、レイアウトテン プレート D8400は、選択条件 D8401、レイアウト項目 D8402で構成される。選択条 件 D8401として、レイアウトテンプレートを選択するための条件が記述され、本実施 形態では、画面占有率下限と画面占有率上限で定義される。被写体の画面占有率 が下限と上限の範囲内にあれば、レイアウトテンプレートの選択条件が満足される。 レイアウト項目 D8402は、テロップを配置するための情報であり、項目位置、素材種 別、内容項目属性などのデータで構成される。但し、内容項目属性は必須のもので はない。
[0054] 図 10は、レイアウトテンプレートの選出方法を説明するための模式図である。図で は、付カ卩情報受信部 104で 3つのレイアウトテンプレート D102、 D103、 D104が提 供された場合について説明している。レイアウトテンプレート D102は、選択条件が画 面占有率: 0. 4以上 0. 8未満のものであり、選手の名前、打率、年齢などを紹介する 項目と、対戦状態 (対戦両チーム名と得点)を紹介する項目を配置するものである。 一方、レイアウトテンプレート D103は、選択条件が画面占有率: 0. 05以上 0. 4未満 のものであり、対戦チーム名と得点表示を配置するものである。更に、レイアウトテン プレート D104は、選択条件が画面占有率: 0以上 0. 05未満のものであり、対戦チ ーム毎回得点表示を配置するものである。
[0055] 図 10に示すように、重要被写体判断部 106で抽出した重要被写体情報 D101に 含まれている重要被写体の画面占有率は 0. 458であるので、レイアウト選出部 107 は、選択条件が合致するのは、画面占有率: 0. 4以上 0. 8未満のレイアウトテンプレ ート D102であると判断する。従って、レイアウト選出部 107は、レイアウトテンプレート D102を抽出して表示用レイアウトテンプレートとする。
[0056] 次に、図 11は、レイアウトテンプレートの表示例を示す模式図である。この表示例は 、図 10に示したレイアウトテンプレート D102の表示を具体化したものである。レイァ ゥトテンプレートでは画面左上の位置座標が(0, 0)で、画面の横幅 1600ピクセル、 高さ 1200ピクセルとしている。図に示すように、レイアウトテンプレートのパーツは、固 定表示パーツ、全体共通パーツ、被写体関連パーツで構成される。
[0057] 固定表示パーツは、レイアウトテンプレートにおいて、項目位置と表示内容が決定 されたパーツであり、主に影の背景やラベルなど力 構成される。固定表示パーツは 、「項目位置」により画面上のレイアウトが決定される。さらに、固定表示パーツは、レ ィアウト項目に含まれる「表示内容」により表示内容が決定される。例えば、図 11に示 すように、背景 D201、背景 D202、名前ラベル D205、年齢ラベル、打率ラベルなど が固定表示パーツである。背景 202は、背景 202の項目位置、即ち左上位置 (20, 9 00)と右下位置 (1580, 1180)により画面上のレイアウトが決定される。背景 202と同 様に、名前ラベル D205は、名前ラベル D205の項目位置、即ち左上位置(100, 10 20)と右下位置(270, 1100)により画面上のレイアウトが決定される。また、図中の その他の固定表示パーツについても、同様に画面上の配置を決定することができる
[0058] 全体共通パーツは、レイアウトテンプレートにおいて、特定の被写体に依存しない パーツである。全体共通パーツは、主にチームの情報や得点情報などで構成される 。全体共通パーツも、「項目位置」により画面上のレイアウトが決定される。例えば、図 11に示すように、レイアウトテンプレートのパーツ D203には、対戦両チームのチーム 1のチーム名が配置される。パーツ D203は、パーツ D203の項目位置、即ち左上位 置(30, 30)と右下位置(160, 130)により画面上のレイアウトが決定される。また、 パーツ D203の特定情報は、レイアウト項目に含まれる「素材種別」の「チーム情報 Z チーム 1」、「内容項目属性」の「チーム名」で構成される。特定情報によるテロップ説 明内容の抽出方法については後述する。同様に、レイアウトテンプレートのパーツ D 204は、対戦両チームのチーム 1の得点が配置される。ノ ーッ D204は、パーツ D20 4の項目位置、即ち左上位置(30, 150)と右下位置(160, 200)により画面上のレイ アウトが決定される。
[0059] また、パーツ D204の特定情報は、レイアウト項目に含まれる「素材種別」の「チーム 情報 Zチーム 1」、「内容項目属性」の「得点」で構成される。特定情報によるテロップ 説明内容の充填方法についても後述する。また、図中のその他の全体共通パーツに ついても、同様に画面上の配置を決定することができる。
[0060] 被写体関連パーツは、レイアウトテンプレートにおいて、特定の被写体に依存する パーツである。被写体関連パーツは、主に選手関連説明情報などで構成される。被 写体関連パーツも、項目位置により画面上のレイアウトが決定される。例えば、図 11 に示すように、パーツ D206には、任意の選手の名前が配置される。パーツ D206は 、ノーッ D206の項目位置、良!]ち左上位置 (290, 1020)と右下位置(760, 1100) により画面上のレイアウトが決定される。また、パーツ D206の特定情報については、 レイアウト項目に含まれる「素材種別」の「選手」、「内容項目属性」の「選手名前」で構 成される。特定情報によるテロップ説明内容の抽出方法については後述する。また、 図中のその他の被写体関連パーツにつ 、ても、同様に画面上の配置を決定すること ができる。また、レイアウトテンプレートの各パーツについては、画面上の前後重畳順 を示す情報を付加してもよい。例えば、ラベルのパーツを背景のパーツより前に表示 させるような配置が可能である。
[0061] 次に、テロップ生成部 108のテロップ生成処理について説明する。テロップ生成部 108は、抽出されたレイアウトテンプレートに基づいて、付加情報受信部 104で受信 したテロップ説明内容素材からテロップ説明内容を選択し、テロップ表示用データを 生成する。
[0062] 図 12および図 13は、テロップ説明内容素材のデータ構造を概念的に示す図であ る。図 12に示すように、テロップ説明内容素材 D8500は、素材種別 D8501とテロッ プ説明内容項目 D8502で構成される。テロップ説明内容項目 D8502は、内容項目 属性とテロップ説明内容で構成される。素材種別 D8501は、テロップ説明内容素材 を特定するための情報である。素材種別 D8501の具体的な形態については、階層 型記述方法での記述が可能である。例えば、図 13 (a)に示すように、素材種別は、「 選手 7八」と記述される。また、図 13 (b)に示すように、素材種別は、「チーム情報 Z チーム 1」と記述される。
[0063] 次に、テロップ表示用データの生成手順について説明する。図 14は、本発明の実 施の形態 1における表示データ生成装置の、テロップ表示用データ生成処理手順を 示すフローチャートである。はじめに、テロップ生成部 108は、レイアウト選出部 107 で選出されたレイアウトテンプレートに、任意の影の背景やラベルなど、既に表示内 容と画面配置位置が決定されている固定表示パーツをテロップ表示用データに充填 する(ステップ S001)。 [0064] 次に、テロップ生成部 108は、レイアウト選出部 107で選出されたレイアウトテンプレ ートにある全体共通パーツに含まれる第 1の素材種別と第 1の内容項目属性をそれ ぞれ取得する (ステップ S002)。第 1の素材種別と付加情報受信部 104で受信した テロップ説明内容素材に含まれる第 2の素材種別とがー致し、且つ第 1の内容項目 属性と付加情報受信部 104で受信したテロップ説明内容素材に含まれる第 2の内容 項目属性とがー致する場合、テロップ生成部 108は、第 2の素材種別と第 2の内容項 目属性に応じたテロップ説明内容を抽出する。そして、テロップ生成部 108は、抽出 したテロップ説明内容を、全体共通パーツに含まれた項目位置にしたがってテロップ 表示用データに充填する。
[0065] 次に、テロップ生成部 108は、レイアウト選出部 107で選出されたレイアウトテンプレ ートにある、被写体関連パーツに含まれる第 3の素材種別と第 3の内容項目属性を取 得する (ステップ S003)。テロップ生成部 108は、第 3の素材種別と、更に重要被写 体判断部 106で抽出した重要被写体情報に含まれる被写体識別情報とを組み合わ せて第 4の素材種別を生成する。また、第 4素材種別と付加情報受信部 104で受信 したテロップ説明内容素材に含まれる第 5の素材種別とがー致し、且つ、第 3の内容 項目属性と付加情報受信部 104で受信したテロップ説明内容素材に含まれる第 5の 内容項目属性とがー致する場合、テロップ生成部 108は、第 5の素材種別と第 5の内 容項目属性に応じたテロップ説明内容を抽出する。そして、テロップ生成部 108は、 抽出したテロップ説明内容を、被写体関連パーツに含まれる項目位置にしたがって テロップ表示用データに充填する。
[0066] 次に、抽出したレイアウトテンプレートにおける各パーツの前後重畳順の情報により 、テロップ生成部 108は、テロップ表示用データにある各パーツの前後重畳関係を調 整する(ステップ S004)。テロップ表示用データにあるパーツに対して、どのパーツを より前に表示し、どのパーツをより後ろに表示するかを決定できる。
[0067] 図 15は、テロップ表示用データ生成の具体例を説明するための図である。この例 では、図 10に示したレイアウト選出部 107で選出されたレイアウトテンプレートを用い て説明する。
[0068] 図 15に示すように、はじめにレイアウトテンプレートにある固定表示パーツ (背景や ラベルなど)がテロップ表示用データとして充填される。テンプレート D300に配置さ れたラベル D301の内容は「名前」である。ラベル D301をラベル D301の項目位置 によりテロップ表示用データ D400の同座標位置に充填する。これにより「名前」という 内容のパーツ D401がテロップ表示用データ D400として生成される。同様の処理に より、レイアウトテンプレート D300にあるその他の固定表示パーツをテロップ表示用 データ D400として生成することができる。
[0069] また、レイアウトテンプレートにある特定な被写体に依存しない全体共通パーツ (チ ーム全体情報や得点情報など)がテロップ表示用データとして充填される。テンプレ ート D300に配置されたパーツ D302に含まれる素材種別 D3021は「チーム情報/ チーム 1」であり、内容項目属性 D3022は「チーム名」である。一方、付加情報受信 部 108で受信したテロップ説明内容素材 D500において、素材種別 D501の内容は 「チーム情報 Zチーム 1」、内容項目属性 D502の内容は「チーム名」である。従って 、素材種別 D3021が素材種別 D501と一致し、且つ内容項目属性 D3022が内容 項目属性 D502と一致するので、素材種別 D501と説明内容素材 D502に応じたテ ロップ説明内容 D503 (値は「日本」) 1S パーツ D302と同座標位置でテロップ表示 用データ 400に充填される。これにより「日本」という内容のパーツ D402がテロップ表 示用データ D400として生成される。同様の処理により、レイアウトテンプレート D300 にあるその他の全体共通パーツをテロップ表示用データ D400として生成することが できる。
[0070] また、レイアウトテンプレートにある特定の被写体に依存する被写体関連パーツ (選 手の紹介など) 1S テロップ表示用データとして充填される。テンプレート D300に配 置されたパーツ D303に含まれる素材種別 D3031は「選手」であり、内容項目属性 D 3032は「選手名前」である。更に、重要被写体判断部 106で抽出された重要被写体 情報 D304に含まれる被写体識別情報 D3041は「A」である。素材種別 D3031と重 要被写体の被写体識別情報 D3041とを組み合わせて新たな素材種別 D305を生 成する。素材種別 D305の内容は「選手 ZA」となる。一方、テロップ説明内容素材 D 500において、素材種別 D504の内容は「選手 ZA」、内容項目属性 D505の内容 は「選手名前」である。従って、素材種別 D305が素材種別 D504と一致し、且つ、内 容項目属性 D3032が内容項目属性 D505と一致するので、素材種別 D504と説明 内容素材 D505に応じたテロップ説明内容 D506 (値は「日本一郎」)力 パーツ D30 3と同座標位置でテロップ表示用データ D400に充填される。これにより、「日本一郎」 と 、う内容のパーツ D403がテロップ表示用データ D400として生成される。同様の 処理により、レイアウトテンプレート D300にあるその他の被写体関連パーツをテロッ プ表示用データ D400として生成することができる。
[0071] また、レイアウトテンプレート D300にある全てのパーツの前後重畳順の情報により 、生成したテロップ表示用データ D400にある全てのパーツの前後重畳関係が調整 される。
[0072] 以上のように、本発明の実施の形態 1における表示データ生成装置によれば、画 面に表示された被写体にっ 、て視聴者が注目して 、るであろう重要被写体を判断し 、画面上における被写体像の大きさなど、重要被写体の特徴によってテロップの表 示内容を切り替えることができる。様々な任意視点映像画面に対して同時に、画面の 表示状態に応じて、重要な被写体に関する情報を適切に選択し、適切なレイアウトで テロップ表示するので、視聴者は注目しやすぐまた表示されたテロップの内容を的 確に理解することができる。
[0073] [実施の形態 2]
実施の形態 1の表示データ生成装置では、カメラとの距離によって重要被写体を選 出し、当該被写体の画面上におけるサイズによって唯一の被写体に関するテロップ レイアウトテンプレートを選出した。これに対し、実施の形態 2では、被写体 (選手など )の種類が複数である場合、それぞれ異なった被写体関連 (個人紹介など)のテロッ プのレイアウトテンプレートを選出する必要がある場合について説明する。
[0074] 図 16は、被写体の種類が複数である場合の課題について説明するための図であ る。前述の実施の形態 1における表示データ生成装置によれば、図 16 (a)に示すよう に、画面の重要被写体とした選手力 Sバッターの場合、選手の種類が野手か投手かに 関わらず、画面占有率だけに応じて適切なテロップのレイアウトテンプレートが選出さ れる。その後、図 16 (b)に示すように、画面の重要被写体とした選手が他の種類の選 手、例えば投手に変わると、図 16 (c)に示すように投手に応じたテロップレイアウトテ ンプレートが選出されることが好ましい。しかし、実施の形態 1における表示データ生 成装置では、選手の画面占有率だけがレイアウトテンプレートの選択条件と照合され るので、図 16 (b)に示すように、図 16 (a)に示した画面占有率に応じた同様のバッタ 一のテロップレイアウトテンプレートが選出されてしまう。
[0075] 更に、図 16に示した例と同様に、同じ選手が異なる状態に変化する場合でも同様 の課題が生じる。例えば、図 16 (a)に示すように任意の選手がバッターボックスに入 つてバッター状態になると、ノ ッター状態に応じたテロップのレイアウトテンプレートが 選出される。しかし、図 16 (b)に示すように同一の選手が投手エリアに入って投手状 態になると、図 16 (c)に示すように投手状態に応じたテロップのレイアウトテンプレー トに切り替えられることが好ましい。しかし、実施の形態 1における表示データ生成装 置では、選手の画面占有率だけがレイアウトテンプレートの選択条件と照合されるの で、図 16 (b)に示すようにバッターのテロップレイアウトテンプレートが選出されてしま う。また、サッカーなど他の場合も同様に、選手がフォワードの場合とゴールキーパー の場合では、それぞれ違った紹介テロップレイアウトテンプレートが選出されることが 好ましい。
[0076] そこで、実施の形態 2における表示データ生成装置では、レイアウト選出部 107に おいて、レイアウトテンプレートの選出条件に、例えば、投手か野手かなどの被写体 属性を更に追加し、被写体情報にさらに被写体属性を追加することで、被写体の画 面大きさ(画面占有率)で選出したレイアウトテンプレートをもとに、重要被写体の被 写体属性と選出条件に一致したレイアウトを選出する。従って、重要被写体とした被 写体の種別(例えば、投手か野手か、ゴールキーパーかフォワードか、など)が変化 するとそれに応じたテロップに切り替えることが可能となる。尚、実施の形態 2におけ る表示データ生成装置の内部構成は、実施の形態 1のそれと同じであるので、説明 は省略する。
[0077] 図 17は、本発明の実施の形態 2における表示データ生成装置で使用する被写体 情報のデータ構造を概念的に示す図である。図 17 (a)に示すように、被写体情報 D 9100は、図 2 (a)に示す実施の形態 1の表示データ生成装置で使用する被写体情 報 D8100と異なり、被写体属性 D9103が被写体情報 D9100に追加されている。被 写体属性 D9103は、被写体の状態や種類を識別する被写体に関する属性である。 図 17 (b)に示すように、被写体情報 D9901の被写体識別情報は「A」、被写体属性 は「バッター状態」である。図 17 (c)に示すように、被写体情報 D9902の被写体識別 情報は「B」、被写体属性は「投手状態」である。
[0078] 図 18は、本発明の実施の形態 2における表示データ生成装置で使用するレイァゥ トテンプレートのデータ構造を概念的に示す図である。レイアウトテンプレート D9400 は、図 9に示す実施の形態 1における表示データ生成装置で使用するレイアウトテン プレート D8400と異なり、被写体属性 D9403が選択条件 D9401に追加されている 。被写体属性 D9403は、被写体の状態や種類を判断する条件である。
[0079] 次に、実施の形態 2における表示データ生成装置の、レイアウト選出部 107のレイ アウト選出処理について説明する。レイアウト選出部 107は、付加情報受信部 104で 受信したレイアウトテンプレートから、重要被写体判断部 106で抽出した重要被写体 の画面占有率と被写体属性とを共に満足するレイアウトテンプレートの選択条件を検 索し、選択条件に応じたレイアウトテンプレートを選出する。ここで、レイアウトテンプレ ートの選択条件としては、被写体の画面占有率が、図 18に示した選択条件 D9401 にある画面占有率下限と画面占有率上限の範囲内にあるという第 1の選択条件と、 被写体の被写体属性が選択条件 D9401にある被写体属性と一致するという第 2の 選択条件とを用いる。
[0080] 図 19は、本発明の実施の形態 2における表示データ生成装置の、レイアウト選出 部 107の動作を説明するための図である。
[0081] 図に示すように、重要被写体情報 D9910に含まれる被写体属性 D9911の内容は 「投手状態」、画面占有率 D9912は「0. 458」である。例えば、任意のレイアウトテン プレートの選択条件 D9920に含まれる画面占有率下限は「0. 4」、画面占有率上限 は「0. 8」、被写体属性は「投手状態」である。この場合、画面占有率 D9912が選択 条件 D9920の画面占有率下限超且つ選択条件 D9920の画面占有率上限以下と いう第 1の選択条件を満足し、且つ被写体属性 D9911が選択条件 D9920の被写体 属性と一致するという第 2の選択条件も満足することから、レイアウト選出部 107は、 重要被写体 D9910が選択条件 D9920を満足すると判断する。従ってレイアウト選 出部 107は、選択条件 D9920に応じたレイアウトテンプレートを選出する。一方、例 えば、もう一つのレイアウトテンプレートの選択条件 D9930に含まれる画面占有率下 限は「0. 4」、画面占有率上限は「0. 8」、被写体属性は「バッター状態」である。この 場合、画面占有率 D9912は選択条件 D9930の画面占有率下限超かつ選択条件 D 9930の画面占有率上限以下という第 1の選択条件を満足するが、被写体属性 D99 11は選択条件 D9930の被写体属性と一致すると ヽぅ第 2の選択条件を満足しな 、 ことから、レイアウト選出部 107は、重要被写体 D9910が選択条件 D9930を満足し ないと判断する。従って、レイアウト選出部 107は、選択条件 D9930に応じたレイァ ゥトテンプレートを選出しな!、。
[0082] レイアウト選出部 107で選出されたレイアウトテンプレートに基づくテロップの生成に ついては、実施の形態 1の表示データ生成装置におけるテロップ生成処理と同様で あるため、説明を省略する。
[0083] 以上のように、本発明の実施の形態 2における表示データ生成装置によれば、被 写体に関連するテロップを表示する際、異なる被写体の種類によってテロップを切り 替えることが可能となる。また、同一の被写体の状態が変化したような場合 (例えば、 被写体である野球選手が投球状態からバッティング状態に変わる場合など)でも、テ 口ップを適切に切り替えることができる。このように、様々な任意視点映像視聴に相応 L 、情報を提供することができる。表示される被写体の変化に応じてテロップの表示 も適切に変更されるので、視聴者は被写体に関する情報を的確に取得することがで きる。
[0084] 尚、上記の実施の形態における表示データ生成装置は、視聴者が視点を切り替え て視聴選択可能な視点映像を提供するその他の映像配信システムでも適用可能な ことは言うまでもない。例えば、多数のカメラを用いて撮影した多視点映像を同時配 信する多視点映像配信システム(マルチアングル配信システム)、超広角 '超高解像 度の映像を撮影し、その一部分の映像 (視点画像)を切り出して視聴者に提示できる 自由視点映像配信システムなどに適用可能である。
[0085] 本発明を詳細にまた特定の実施態様を参照して説明したが、本発明の精神と範囲 を逸脱することなく様々な変更や修正を加えることができることは当業者にとって明ら かである。
本出願は、 2006年 2月 13日出願の日本特許出願 (特願 2006— 035175)に基づくも のであり、その内容はここに参照として取り込まれる。
産業上の利用可能性
本発明の表示データ生成装置は、画面の被写体構成に応じた適切なレイアウトを 選出することができるため、各映像にそれぞれ適したテロップ表示用データを生成す ることができるという効果を有し、映像に付加するテロップ表示用データを生成する表 示データ生成装置等に有用である。

Claims

請求の範囲
[1] 視点情報および被写体情報に基づ!、て、画面に映されて!/、る被写体を判定する被 写体判定部と、
前記被写体判定部の判定結果および前記被写体情報に基づ!、て、視聴者が注目 して!/、るであろう重要被写体を判断し、前記重要被写体の特徴情報を生成する重要 被写体判断部と、
複数のレイアウトテンプレートの中から、前記重要被写体の特徴情報と合致した選 択条件を持ったレイアウトテンプレートを選出するレイアウト選出部と、
前記選出されたレイアウトテンプレートに基づいて、テロップ表示用データを生成す るテロップ生成部と、を有することを特徴とする表示データ生成装置。
[2] 前記重要被写体判断部は、前記視点情報に含まれる視点位置と前記被写体情報 に含まれる被写体位置との距離を用いて、前記重要被写体の判断を行うことを特徴 とする請求項 1記載の表示データ生成装置。
[3] 前記重要被写体判断部は、前記視点位置と被写体との距離が一番短 、被写体を 前記重要被写体と判断することを特徴とする請求項 2記載の表示データ生成装置。
[4] 前記重要被写体判断部は、前記重要被写体の特徴情報を、前記視点情報および 前記被写体情報に基づいて、前記重要被写体の画面上の大きさとして生成し、 前記レイアウト選出部は、前記重要被写体の画面上の大きさと合致した選択条件を 持ったレイアウトテンプレートを選出することを特徴とする請求項 1、請求項 2または請 求項 3記載の表示データ生成装置。
[5] 前記被写体情報は、被写体属性を有し、
前記レイアウトテンプレートが持つ選択条件は、被写体属性を有し、
前記レイアウト選出部は、前記重要被写体の被写体属性と合致した選択条件を持 つたレイアウトテンプレートを選出することを特徴とする請求項 4記載の表示データ生 成装置。
[6] 視点情報および被写体情報に基づ!、て、画面に映されて!/、る被写体を判定する被 写体判定ステップと、
判定結果および前記被写体情報に基づ 、て、視聴者が注目して!、るであろう重要 被写体を判断し、前記重要被写体の特徴情報を生成する重要被写体判断ステップ と、
複数のレイアウトテンプレートの中から、前記重要被写体の特徴情報と合致した選 択条件を持ったレイアウトテンプレートを選出するレイアウト選出ステップと、
前記選出されたレイアウトテンプレートに基づいて、テロップ表示用データを生成す るテロップ生成ステップと、
を有する表示データ生成方法。
[7] 前記重要被写体判断ステップは、前記視点情報に含まれる視点位置と前記被写体 情報に含まれる被写体位置との距離を用いて、前記重要被写体の判断を行うことを 特徴とする請求項 6記載の表示データ生成方法。
[8] 前記重要被写体判断ステップは、前記視点位置と被写体との距離が一番短 、被写 体を前記重要被写体と判断することを特徴とする請求項 7記載の表示データ生成方 法。
[9] 前記重要被写体判断ステップは、前記重要被写体の特徴情報を、前記視点情報 および前記被写体情報に基づいて、前記重要被写体の画面上の大きさとして生成し 前記レイアウト選出ステップは、前記重要被写体の画面上の大きさと合致した選択 条件を持ったレイアウトテンプレートを選出することを特徴とする請求項 6、請求項 7ま たは請求項 8記載の表示データ生成方法。
[10] 前記被写体情報は、被写体属性を有し、
前記レイアウトテンプレートが持つ選択条件は、被写体属性を有し、
前記レイアウト選出ステップは、前記重要被写体の被写体属性と合致した選択条件 を持ったレイアウトテンプレートを選出することを特徴とする請求項 9記載の表示デー タ生成方法。
[11] コンピュータを
視点情報および被写体情報に基づ!、て、画面に映されて!/、る被写体を判定する被 写体判定手段、
前記被写体判定部の判定結果および前記被写体情報に基づ!、て、視聴者が注目 して!/、るであろう重要被写体を判断し、前記重要被写体の特徴情報を生成する重要 被写体判断手段、
複数のレイアウトテンプレートの中から、前記重要被写体の特徴情報と合致した選 択条件を持ったレイアウトテンプレートを選出するレイアウト選出手段、
前記選出されたレイアウトテンプレートに基づいて、テロップ表示用データを生成す るテロップ生成手段、
として機能させるための表示データ生成プログラム。
PCT/JP2007/052251 2006-02-13 2007-02-08 表示データ生成装置 WO2007094236A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US12/279,142 US20090115895A1 (en) 2006-02-13 2007-02-08 Display data generating apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006035175A JP2007215097A (ja) 2006-02-13 2006-02-13 表示データ生成装置
JP2006-035175 2006-02-13

Publications (1)

Publication Number Publication Date
WO2007094236A1 true WO2007094236A1 (ja) 2007-08-23

Family

ID=38371423

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/052251 WO2007094236A1 (ja) 2006-02-13 2007-02-08 表示データ生成装置

Country Status (4)

Country Link
US (1) US20090115895A1 (ja)
JP (1) JP2007215097A (ja)
CN (1) CN101385343A (ja)
WO (1) WO2007094236A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011130323A (ja) * 2009-12-21 2011-06-30 Canon Inc 放送受信装置及びその制御方法
CN102082933B (zh) * 2009-11-30 2015-04-29 新奥特(北京)视频技术有限公司 一种字幕制作系统

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8487957B1 (en) * 2007-05-29 2013-07-16 Google Inc. Displaying and navigating within photo placemarks in a geographic information system, and applications thereof
DE202009014231U1 (de) * 2009-10-21 2010-01-07 Robotics Technology Leaders Gmbh System zur Visualisierung einer Kameralage in einem virtuellen Aufnahmestudio
CN102065240B (zh) * 2009-11-18 2015-04-29 新奥特(北京)视频技术有限公司 一种自动播出字幕的字幕机
CN102065244A (zh) * 2009-11-18 2011-05-18 新奥特(北京)视频技术有限公司 一种字幕制作方法和装置
CN102082925B (zh) * 2009-11-30 2015-08-19 新奥特(北京)视频技术有限公司 一种字幕模板的填充方法及装置
CN102082934B (zh) * 2009-11-30 2015-07-15 新奥特(北京)视频技术有限公司 字幕对象的更新方法及装置
JP2011151773A (ja) 2009-12-21 2011-08-04 Canon Inc 映像処理装置及び制御方法
JP5465620B2 (ja) 2010-06-25 2014-04-09 Kddi株式会社 映像コンテンツに重畳する付加情報の領域を決定する映像出力装置、プログラム及び方法
JP5835932B2 (ja) * 2010-07-02 2015-12-24 キヤノン株式会社 画像処理装置、及びその制御方法
US9568997B2 (en) * 2014-03-25 2017-02-14 Microsoft Technology Licensing, Llc Eye tracking enabled smart closed captioning
CA3001480C (en) * 2015-10-16 2019-06-18 Tribune Broadcasting Company, Llc Video-production system with dve feature
JP7285045B2 (ja) * 2018-05-09 2023-06-01 日本テレビ放送網株式会社 画像合成装置、画像合成方法及びプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0395542A (ja) * 1989-09-07 1991-04-19 Fuji Photo Film Co Ltd 写真プリント方法
JPH08136971A (ja) * 1994-11-08 1996-05-31 Fuji Photo Film Co Ltd 撮影装置及び露光制御方法
JP2000175155A (ja) * 1998-12-08 2000-06-23 Canon Inc 放送受信装置およびその方法
JP2001008064A (ja) * 1999-06-24 2001-01-12 Casio Comput Co Ltd 電子カメラ装置及び重畳表示情報配置方法
JP2004128778A (ja) * 2002-10-01 2004-04-22 Sony Corp 表示制御装置、表示制御方法、プログラム
JP2004234500A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp 画像レイアウト装置、画像レイアウト方法、画像レイアウト装置におけるプログラム、及び画像編集装置
JP2004328534A (ja) * 2003-04-25 2004-11-18 Konica Minolta Photo Imaging Inc 画像形成方法、画像処理装置及び画像記録装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPP923599A0 (en) * 1999-03-16 1999-04-15 Canon Kabushiki Kaisha Displaying items of information
JP3987025B2 (ja) * 2002-12-12 2007-10-03 シャープ株式会社 マルチメディアデータ処理装置およびマルチメディアデータ処理プログラム
US7460108B2 (en) * 2003-12-10 2008-12-02 Panasonic Corporation Portable information terminal device

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0395542A (ja) * 1989-09-07 1991-04-19 Fuji Photo Film Co Ltd 写真プリント方法
JPH08136971A (ja) * 1994-11-08 1996-05-31 Fuji Photo Film Co Ltd 撮影装置及び露光制御方法
JP2000175155A (ja) * 1998-12-08 2000-06-23 Canon Inc 放送受信装置およびその方法
JP2001008064A (ja) * 1999-06-24 2001-01-12 Casio Comput Co Ltd 電子カメラ装置及び重畳表示情報配置方法
JP2004128778A (ja) * 2002-10-01 2004-04-22 Sony Corp 表示制御装置、表示制御方法、プログラム
JP2004234500A (ja) * 2003-01-31 2004-08-19 Seiko Epson Corp 画像レイアウト装置、画像レイアウト方法、画像レイアウト装置におけるプログラム、及び画像編集装置
JP2004328534A (ja) * 2003-04-25 2004-11-18 Konica Minolta Photo Imaging Inc 画像形成方法、画像処理装置及び画像記録装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102082933B (zh) * 2009-11-30 2015-04-29 新奥特(北京)视频技术有限公司 一种字幕制作系统
JP2011130323A (ja) * 2009-12-21 2011-06-30 Canon Inc 放送受信装置及びその制御方法

Also Published As

Publication number Publication date
JP2007215097A (ja) 2007-08-23
CN101385343A (zh) 2009-03-11
US20090115895A1 (en) 2009-05-07

Similar Documents

Publication Publication Date Title
WO2007094236A1 (ja) 表示データ生成装置
US11223821B2 (en) Video display method and video display device including a selection of a viewpoint from a plurality of viewpoints
CN104604239B (zh) 用于视频系统的增强现实
CN106331732B (zh) 生成、展现全景内容的方法及装置
US10158685B1 (en) Viewing and participating at virtualized locations
EP2462736B1 (en) Recommended depth value for overlaying a graphics object on three-dimensional video
CN109416931A (zh) 用于视线跟踪的装置和方法
JP2014215828A (ja) 画像データ再生装置、および視点情報生成装置
CN102859486B (zh) 缩放显示导航
US20140240500A1 (en) System and method for adjusting an image for a vehicle mounted camera
CN110166764B (zh) 虚拟现实vr直播中的视角同步方法及装置
US20010048481A1 (en) Broadcasting system, transmitter, and receiver
CN107911737A (zh) 媒体内容的展示方法、装置、计算设备及存储介质
JP2005159592A (ja) コンテンツ送信装置およびコンテンツ受信装置
US20170150212A1 (en) Method and electronic device for adjusting video
US20130294650A1 (en) Image generation device
US20070195097A1 (en) Interactive Video
WO2020100770A1 (ja) 情報処理システム、情報処理方法、およびプログラム
KR20150097609A (ko) 이머전 통신 클라이언트, 서버 및 컨텐츠 뷰를 획득하는 방법
CN107155065A (zh) 一种虚拟拍照装置及方法
CN107409239A (zh) 基于眼睛追踪的图像传输方法、图像传输设备及图像传输系统
CN104866261A (zh) 一种信息处理方法和装置
JP2006310936A (ja) 任意視点映像生成システム
US10796723B2 (en) Spatialized rendering of real-time video data to 3D space
CN113170231A (zh) 跟随用户运动控制播放视频内容的方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 200780005334.6

Country of ref document: CN

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 12279142

Country of ref document: US

122 Ep: pct application non-entry in european phase

Ref document number: 07708235

Country of ref document: EP

Kind code of ref document: A1