WO2018235762A1 - 表示制御装置、表示制御方法、およびプログラム - Google Patents

表示制御装置、表示制御方法、およびプログラム Download PDF

Info

Publication number
WO2018235762A1
WO2018235762A1 PCT/JP2018/023063 JP2018023063W WO2018235762A1 WO 2018235762 A1 WO2018235762 A1 WO 2018235762A1 JP 2018023063 W JP2018023063 W JP 2018023063W WO 2018235762 A1 WO2018235762 A1 WO 2018235762A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
display control
imaging devices
display
image
Prior art date
Application number
PCT/JP2018/023063
Other languages
English (en)
French (fr)
Inventor
靖 四方
良樹 岩切
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018022067A external-priority patent/JP6482696B2/ja
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to KR1020207001337A priority Critical patent/KR102138608B1/ko
Priority to CN201880026330.4A priority patent/CN110546948B/zh
Priority to CA3068417A priority patent/CA3068417C/en
Priority to EP18821627.9A priority patent/EP3618429B1/en
Priority to RU2020102187A priority patent/RU2738220C1/ru
Priority to BR112019020588A priority patent/BR112019020588A2/pt
Priority to AU2018289853A priority patent/AU2018289853B2/en
Publication of WO2018235762A1 publication Critical patent/WO2018235762A1/ja
Priority to US16/724,009 priority patent/US10999571B2/en
Priority to US17/222,348 priority patent/US11445167B2/en

Links

Images

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/24Monitoring of processes or resources, e.g. monitoring of server load, available bandwidth, upstream requests
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to a display control device, a display control method, and a program.
  • a plurality of imaging devices are installed at different positions, and a plurality of imaging devices synchronously capture images of a subject, and using images of a plurality of viewpoints obtained by the imaging, it is only an image of the installation position of the imaging devices
  • a technique for generating an image of an arbitrary viewpoint as a virtual viewpoint image is attracting attention.
  • the generation and viewing of virtual viewpoint images based on images of multiple viewpoints can be realized, for example, as follows. First, images captured by a plurality of imaging devices are integrated into an image generation device such as a server. Then, the image generation device performs processing such as rendering based on a virtual viewpoint using the images captured by the plurality of imaging devices to generate a virtual viewpoint image, and displays the virtual viewpoint image on the user's viewing terminal.
  • an image generation device such as a server.
  • the image generation device performs processing such as rendering based on a virtual viewpoint using the images captured by the plurality of imaging devices to generate a virtual viewpoint image, and displays the virtual viewpoint image on the user's viewing terminal.
  • Content of a powerful viewpoint can be produced by generating a virtual viewpoint image according to a viewpoint specified by an image content creator from an image obtained by capturing a soccer or basketball game.
  • the user who is viewing content can freely move the viewpoint using a controller, a tablet, etc. provided in the viewing terminal, and the image generation device generates a virtual viewpoint image according to the viewpoint. You can watch the game from your own point of view. Therefore, in a service using a virtual viewpoint image, it is possible to give the user a sense of realism as compared to a conventional captured image whose viewpoint can not be arbitrarily changed.
  • JP-A-2014-236896 discloses a technique for the user to select a preferred viewpoint based on one or more images, and to generate a virtual viewpoint image from the image and information of the selected viewpoint.
  • Patent Document 1 also discloses a UI (user interface) when the user selects a favorite viewpoint.
  • a defect such as a decrease in the quality of a virtual viewpoint image may occur.
  • the imaging range of each of the plurality of imaging devices and the imaging parameter indicating the exposure condition are not set appropriately, problems such as deterioration of the quality of the virtual viewpoint image may occur.
  • the user can grasp the state of these imaging devices, it is possible to perform repairs, set imaging parameters, and the like, and to reduce the occurrence of defects such as the degradation of the quality of the virtual viewpoint image.
  • the components described above are not limited to the imaging device.
  • a server that generates a virtual viewpoint image, switches and routers that configure a system for generating a virtual viewpoint image, and a network cable can also be components.
  • the present invention has been made in view of such problems, and an object thereof is to provide a technique for enabling a user to easily know the state of a component of a system related to generation of a virtual viewpoint image. It is.
  • the display control apparatus is a display control apparatus for displaying information on a plurality of imaging apparatuses for capturing an image for generating a virtual viewpoint image, and the acquiring unit acquires information on the plurality of imaging apparatuses, And display control means for performing display control to cause the display unit to display information related to the communication connection of the plurality of imaging devices for transmitting an image captured by each of the plurality of imaging devices based on the information acquired by the acquiring means. , And is characterized by.
  • composition of a display system It is a figure which shows arrangement
  • movement of an image generation apparatus It is a figure which shows the 1st example of a functional structure of an information display apparatus. It is a flowchart which shows the 1st example of operation
  • FIG. 6 is a diagram illustrating an example of an operation UI for operating the imaging apparatus.
  • FIG. 6 is a diagram illustrating an example of an operation UI for operating the imaging apparatus.
  • each imaging device the installation position of each imaging device, the network connection relationship between the imaging devices, and each imaging device and the imaging target area on an image imitating a stadium where the imaging object is to be imaged and installed.
  • FIG. 1 is a diagram showing an example of a configuration of a display system of the present embodiment.
  • the display system of this embodiment includes an imaging system 100 having a plurality of imaging devices 100-1, 100-2,... 100-M, an image generation device 200, a user terminal 300, and an information display device 400. And a dispensing device 500.
  • the respective devices are communicably connected to each other via a transmission cable for transmitting an image and control information.
  • Specific examples of the transmission cable include ETHERNET (registered trademark) GBE (Gigabit Ethernet) conforming to IEEE standard and 10 GBE.
  • the transmission cable is not limited to these, and may be another type of cable.
  • each device may perform wireless communication.
  • the imaging system 100 includes M imaging devices (imaging devices 100-1, 100-2,..., 100-M).
  • imaging devices 100-1, 100-2,..., 100-M the imaging devices 100-1, 100-2,..., 100-M will be referred to as an imaging device 100-X.
  • M, N (after-mentioned) and X which are described here show an integer value.
  • the imaging devices 100-X located adjacent to each other are mutually connected via a transmission cable.
  • the imaging device 100 -X transmits the captured image and the state information of the imaging device 100 -X to the image generation device 200 and the information display device 400.
  • the state information will be described later.
  • the imaging device 100-1 is mutually connected with the imaging device 100-2.
  • the imaging device 100-2 is mutually connected with another imaging device (not shown) located adjacent to the imaging device 100-2.
  • the imaging device 100-N is mutually connected to an imaging device (not shown) at a position adjacent to the imaging device 100-N. Further, the imaging device 100 -N is mutually connected to the distribution device 500.
  • connection groups there are two such connection groups. That is, the other is that the imaging system from the imaging device 100- (N + 1) to the imaging device 100-M performs the same connection.
  • the number of connection groups is not limited to two, and may be one or three or more.
  • the imaging device 100-X is disposed so as to surround a stadium or a specific subject such as a soccer field.
  • FIG. 2 is a view showing an example of the arrangement of the imaging device 100-X.
  • the plurality of imaging devices 100-X are arranged such that the entire or a part of the stadium 210 such as a soccer field is imaged by the plurality of imaging devices 100-X.
  • the plurality of imaging devices 100-X are, for example, digital cameras, and perform imaging at the same timing based on a synchronization signal from a synchronization device (not shown).
  • An image captured by the imaging device 100 -X is transmitted to the image generation device 200 and the information display device 400 via the transmission cable and the distribution device 500.
  • the imaging device 100-X may be a camera that captures a still image, a camera that captures a moving image, or a camera that captures both a still image and a moving image.
  • the term “image” will be described as including still images and moving images unless otherwise noted.
  • the image generation device 200 is mutually connected to the imaging device 100 -X via the distribution device 500.
  • the image generation device 200 is also mutually connected with the user terminal 300 and the information display device 400.
  • the image generation device 200 accumulates an image captured by the imaging device 100-X.
  • the image generation device 200 receives virtual viewpoint information based on an operation of the user terminal 300, the image generation device 200 generates a virtual viewpoint image corresponding to the virtual viewpoint information using the images captured by the plurality of imaging devices 100-X.
  • the generating apparatus 200 transmits the generated virtual viewpoint image to the user terminal 300.
  • the virtual viewpoint information at least includes position information and direction information.
  • the position information is information indicating a relative position (for example, a position in the front-rear direction, the left-right direction, and the up-down direction based on the predetermined position) with respect to a predetermined position such as the center of the stadium 210.
  • the position information may be information indicating absolute coordinates.
  • the direction information is information indicating a direction from the predetermined position (for example, an angle from each axis in a three-dimensional orthogonal coordinate system having a predetermined position as an origin and having an axis in the front-back direction, the left-right direction, and the up-down direction). .
  • the direction information may be information indicating an absolute direction.
  • the virtual viewpoint information is information indicating the position of the viewpoint and the direction of the line of sight, for generating a virtual viewpoint image.
  • the virtual viewpoint information is information indicating the position and orientation of a virtual camera for generating a virtual viewpoint image.
  • the image generation device 200 is, for example, a server device, and has a database function (described later as the image storage unit 202) and an image processing function (described later as the virtual viewpoint image generation unit 203).
  • the database used by the image generation device 200 holds in advance an image obtained by imaging a scene of a competition venue in a state where there is no specific subject such as a player, such as a scene of a competition venue before the start of competition, as background image data. Background image data is used in foreground / background separation processing for extracting a specific subject from a captured image.
  • the user terminal 300 has a controller for operation.
  • the user terminal 300 receives, for example, a movement of the position of the virtual viewpoint, a change of the gaze direction of the virtual viewpoint, and an instruction to switch the viewpoint based on the operation of the controller of the user, As the image generation apparatus 200.
  • the user terminal 300 displays the virtual viewpoint image received from the image generation device 200 on a display screen provided on the user terminal 300.
  • the virtual viewpoint image may be a still image or a moving image.
  • the user terminal 300 is, for example, a PC (PERSONAL COMPUTER) or a tablet
  • the controller includes, for example, at least one of a mouse, a keyboard, a six-axis controller, and a touch panel.
  • the information display device 400 is mutually connected to the imaging device 100 -X and the image generation device 200 via the distribution device 500.
  • the information display device 400 receives a captured image captured by the imaging device 100-X and status information of the imaging device 100-X, and displays the information on a display screen (display unit 404) described later. Further, the information display device 400 acquires the installation location of the imaging device 100-X, the connection relationship between the imaging devices, the information of the group to which the imaging device belongs, and the like from the database, and displays the acquired information on the display screen. Further, the information display device 400 also receives the status information of the image generation device 200 and displays it on the display screen.
  • the person in charge of monitoring views the information displayed on the information display device 400. The person in charge of monitoring regularly monitors the states of the imaging system 100 and the image generation device 200 using a captured image or the like displayed on the display screen of the information display device 400.
  • the distribution device 500 distributes the captured image received from the imaging device 100-X to the image generation device 200 and the information display device 400.
  • FIG. 3 is a diagram showing an example of a hardware configuration of the imaging device 100-X.
  • the imaging optical system 301 optical lens system
  • the imaging element 302 converts the light formed into an electrical signal, and outputs the electrical signal to the A / D converter 303.
  • the A / D converter 303 converts the input electric signal into a digital signal, and inputs the converted digital signal to the image processing circuit 304.
  • the image sensor 302 is a photoelectric conversion element that converts an optical signal of an image formed on a light receiving surface into an electrical signal for each light receiving pixel at a corresponding position.
  • the system controller 308 includes, for example, a CPU (CENTRAL PROCESSING UNIT), a ROM (READ ONLY MEMORY), a RAM (RANDOM ACCESS MEMORY), and the like.
  • the system controller 308 controls the imaging device 100-X by executing a computer program stored in the ROM.
  • An image processing circuit 304 performs various types of image processing on the digital signal (image signal) input from the A / D converter 303.
  • the image processing includes, for example, white balance adjustment, color correction, and gamma correction.
  • the image signal subjected to image processing by the image processing circuit 304 is stored in the recording medium 307 or displayed by the display device 305. Further, the image processing circuit 304 executes a process of extracting a subject such as a player from an image captured during the competition in the stadium 210 among the captured images input from the imaging unit 102.
  • the imaging optical system control circuit 306 drives a lens or the like included in the imaging optical system 301 based on a control signal from the system controller 308.
  • the configuration of the illustrated imaging device 100-X is an example, and not all the configurations need to be necessarily provided, and other configurations may be provided.
  • the display device 305 is not an essential component of the imaging device 100-X.
  • FIG. 4 is a diagram showing an example of a functional configuration of the imaging device 100-X of the present embodiment.
  • FIG. 5 is a flowchart illustrating an example of the operation of the imaging device 100-X of the present embodiment.
  • the flowchart of FIG. 5 is executed, for example, each time a captured image is obtained by the imaging device 100-X.
  • the process shown in the flowchart of FIG. 5 is realized by the system controller 308 calculating information and controlling each hardware. Note that at least part of the steps in the flowchart of FIG. 5 may be executed by dedicated hardware.
  • the dedicated hardware is, for example, an ASIC or an FPGA.
  • the imaging device 100-X includes a lens unit 101, an imaging unit 102, a foreground / background separation unit 103, a state information storage unit 104, an output unit 105, a control unit 106, and a control signal input unit 107. These are mutually connected by the internal bus 108, and can transmit and receive data mutually under the control of the control unit 106.
  • the lens unit 101 in FIG. 4 corresponds to the imaging optical system 301 and the imaging optical system control circuit 306 in FIG. 3
  • the imaging unit 102 in FIG. 4 corresponds to the imaging element 302 and the A / D converter 303 in FIG.
  • FIG. 4 is performed by the image processing circuit 304 in FIG.
  • the functions of the state information holding unit 104, the output unit 105, the control unit 106, and the control signal input unit 107 in FIG. 4 are implemented by the system controller 308 in FIG. Further, the processing of FIG. 5 is realized by the system controller 308 of FIG. 3 reading out various programs stored in the recording medium 307 and executing control of each part.
  • FIG. 5 is realized by the system controller 308 of FIG. 3 reading out various programs stored in the recording medium 307 and executing control of each part.
  • the lens unit 101 is disposed in the front stage of the imaging unit 102, and focuses incident light from an imaging target on the imaging unit 102.
  • the lens unit 101 can adjust the zoom and focus of the lens.
  • the imaging unit 102 performs an exposure operation of incident light imaged by the lens unit 101 and converts it into an electric signal.
  • the imaging unit 102 performs signal processing, such as correction of loss of sensor output and variation in lens optical characteristics, on the converted signal.
  • the imaging unit 102 converts the image into a captured image of an image format such as RAW, JPEG (JOINT PHOTOGRAPHIC EXPERTS GROUP), or BMP (BITMAP IMAGE) based on the result of the signal processing.
  • the captured image is output to the foreground / background separation unit 103.
  • the captured image is acquired as described above (S501).
  • the foreground / background separation unit 103 extracts a specific subject such as a player from the image captured during the competition at the stadium 210 among the captured images input from the imaging unit 102, and outputs it as “foreground image data” at a later stage. Output to the unit 105 (S502). In addition, the foreground / background separation unit 103 outputs an image obtained by imaging a scene of the stadium 210 in a state in which no object is present, such as a scene of the stadium 210 before the start of the competition, to the output unit 105 as “background image data”. (S502). Note that the foreground / background separation unit 103 may output the remaining image obtained by removing a specific subject from the captured image to the output unit 105 as background image data.
  • image data before foreground and background separation a captured image which is not separated in foreground and background is referred to as “image data before foreground and background separation”.
  • FIG. 6 is an image diagram showing an example of “foreground / background pre-separation image data”, “foreground image data”, and “background image data”.
  • FIG. 6A is a diagram showing an example of “foreground / background pre-separation image data”.
  • the foreground / background pre-separation image data is a captured image including two players 611 and 612, a soccer ball 620, and a soccer goal 630 at the soccer field which is the stadium 210.
  • FIG. 6B is a diagram showing an example of “foreground image data”.
  • the case where two players 611 and 612 and the soccer ball 620 are extracted as “foreground image data” is described as an example. Each of these is treated as separate “foreground image data”.
  • FIG. 6B three foreground image data are generated.
  • “foreground image data” is treated as rectangular data (see the broken line in FIG. 6B).
  • FIG. 6C is a diagram showing an example of “background image data”. An object with almost no time change during the competition, such as a soccer goal 630, is treated as "background image data”.
  • a method using image processing including object extraction can be used.
  • Object extraction is performed by extracting the difference between the captured image and the background image.
  • the foreground may be, for example, not only the player playing the game but also another specific person (for example, at least one of the assistant player, the director, and the referee).
  • the foreground may be an object such as a ball or a goal, for which an image pattern is predetermined.
  • a moving object may be detected.
  • the state information holding unit 104 holds the state information of the imaging device 100-X, and outputs the information to the output unit 105 when the state changes (S503).
  • the status information includes at least one of the following. -Communication connection status of imaging device 100-X (connection, disconnection, etc.) -Shooting status of the imaging device 100-X (during shooting, preparation, power off, power on, etc.) ⁇ Operating state of the imaging device 100-X (during zoom operation, focus operation, iris setting, etc.) ⁇ Output state of imaging device 100-X (during output of “foreground image data” and “background image data” to image generation device 200, etc.) ⁇ Error status (normal, temperature error, lens error, etc.) of the imaging device 100-X -Configuration state of imaging device (with camera platform, microphone, zoom lens, etc.) -Shooting parameters of the imaging device (aperture value (iris), shutter speed, white balance, exposure value, ISO sensitivity, zoom, focus,
  • the state information may be information indicating in what stage on the daisy chain the imaging device 100-X is connected, address information, or information indicating a network configuration such as a network identifier of a belonging network.
  • the output unit 105 outputs “foreground image data” or “background image data” output from the foreground / background separation unit 103 to the image generation device 200 and the information display device 400 at a predetermined frame rate via the distribution device 500. (S504). Also, the output unit 105 outputs the state information output from the state information holding unit 104 to the information display device 400 via the other imaging device 100-X and the distribution device 500 (S504).
  • the output timing is when each state changes or when the imaging device 100-X is activated. In addition, the output unit 105 may output data at timing according to a frame rate at which the imaging device 100-X performs imaging.
  • the control unit 106 issues a control instruction to each unit of the imaging apparatus 100-X based on control information from the control signal input unit 107 or a user I / F unit (not shown). For example, when the control unit 106 receives an adjustment parameter for exposure adjustment such as iris or ISO from the user I / F unit or the control signal input unit 107, the control unit 106 performs the exposure control on the imaging unit 102.
  • an adjustment parameter for exposure adjustment such as iris or ISO
  • the control signal input unit 107 receives a control signal from an information display device 400 described later, and outputs the control signal to the control unit 106.
  • the control signal from the information display device 400 may be a signal for setting imaging parameters. For example, shooting parameters include zoom, focus, iris, ISO, shutter speed, ND filter switching, and the like.
  • the foreground / background separation unit 103 may be included in an apparatus different from the imaging apparatus 100-X.
  • the output unit 105 may be included in another device, and the other device may output data acquired from the imaging device 100-X.
  • FIG. 7 is a diagram showing an example of the hardware configuration of the image generation device 200, the information display device 400, and the user terminal 300.
  • Device 7000 (user terminal 300, image generation device 200 or information display device 400) includes controller unit 700, operation unit 709, and display device 710.
  • the controller unit 700 has a CPU 701.
  • the CPU 701 starts the OS (OPERATING SYSTEM) by the boot program stored in the ROM 702.
  • the CPU 701 executes an application program stored in the HDD (HARD DISK DRIVE) 704 on this OS.
  • the CPU 701 implements various processes by executing application programs.
  • a RAM 703 is used as a work area of the CPU 701.
  • the HDD 704 stores application programs and the like.
  • the CPU 701 is mutually connected to the ROM 702, the RAM 703, the operation unit I / F 705, the display unit I / F 706, and the communication I / F 707 via the system bus 708.
  • the operation unit I / F 705 is an interface with the operation unit 709.
  • the operation unit I / F 705 transmits, to the CPU 701, information input by the user via the operation unit 709.
  • the operation unit 709 has, for example, a mouse and a keyboard.
  • the display unit I / F 706 outputs the image data to be displayed on the display device 710 to the display device 710.
  • the display device 710 has a computer display.
  • the communication I / F 707 is an interface for performing communication such as Ethernet (registered trademark), for example, and is connected to a transmission cable.
  • the communication I / F 707 inputs / outputs information to / from an external device via a transmission cable.
  • Communication I / F 707 may be a circuit or an antenna for performing wireless communication.
  • the device 7000 can also perform display control to display an image on an external display device 710 connected via a cable or a network. In this case, the device 7000 realizes display control by outputting display data to the display device 710.
  • the display device 710 is not an essential component.
  • FIG. 8 is a diagram showing an example of a functional configuration of the image generation apparatus 200 of the present embodiment.
  • FIG. 9 is a flow chart for explaining an example of the operation of the image generation apparatus 200 of the present embodiment.
  • the image generation apparatus 200 includes an image input unit 201, an image storage unit 202, a virtual viewpoint image generation unit 203, an output unit 204, a control unit 205, and a user input unit 206, as shown in FIG. These are mutually connected by the internal bus 207, and can transmit and receive data mutually under the control of the control unit 205.
  • the image input unit 201 in FIG. 8 corresponds to the communication I / F 707 in FIG. 7
  • the user input unit 206 in FIG. 8 corresponds to the operation unit I / F 705 in FIG.
  • FIG. 9 corresponds to the CPU 701.
  • the processing of FIG. 9 is realized by the CPU 701 of FIG. 7 reading out various programs stored in the ROM 702 and executing control of each part.
  • the dedicated hardware is, for example, an ASIC or an FPGA.
  • the image input unit 201 inputs “foreground image data” and “background image data” output from the imaging device 100-X at different predetermined frame rates via the distribution device 500 (S901). Then, the image input unit 201 outputs the input “foreground image data” and “background image data” to the image storage unit 202. When the “foreground image data” and the “background image data” output from the imaging device 100-X are not input, the process skips S902 and proceeds to S903 described later.
  • the image storage unit 202 is a database, and stores “foreground image data” and “background image data” input from the image input unit 201 (S902).
  • the image storage unit 202 also outputs “foreground image data” and “background image data” designated by the virtual viewpoint image generation unit 203 described later to the virtual viewpoint image generation unit 203.
  • the virtual viewpoint image generation unit 203 determines whether virtual viewpoint information has been input from the control unit 205 (S903). An example of a method of generating virtual viewpoint information will be described later. If it is determined that the virtual viewpoint information is not input from the control unit 205 as a result of the determination, the process returns to step S901. On the other hand, when virtual viewpoint information is input from the control unit 205, the virtual viewpoint image generation unit 203 acquires “foreground image data” and “background image data” corresponding to the virtual viewpoint information from the image storage unit 202. (S904).
  • the virtual viewpoint image generation unit 203 generates a virtual viewpoint image by synthesizing “foreground image data” and “background image data” acquired from the image storage unit 202 by image processing, and outputs the virtual viewpoint image to the output unit 105 ( S 905).
  • the MBR is a method of generating a virtual viewpoint image using a three-dimensional model generated based on a plurality of captured images obtained by capturing an object from a plurality of directions.
  • the MBR uses the three-dimensional shape (model) of the target scene obtained by a three-dimensional shape restoration method such as the visual volume intersection method or MULTI-VIEW-STEREO (MVS) to make the scene visible from a virtual viewpoint.
  • a technology to generate as an image is not limited to the method using the MBR.
  • a rendering method other than the MBR such as image-based rendering may be used.
  • the output unit 204 converts the virtual viewpoint image input from the virtual viewpoint image generation unit 203 into a transmission signal that can be transmitted to the user terminal 300 and outputs the transmission signal (S906).
  • the user terminal 300 receives an instruction to change the position of the virtual viewpoint, the direction of the line of sight, and the switching of the viewpoint. Then, the user terminal 300 transmits a transmission signal indicating the content to the image generation apparatus 200.
  • the user input unit 206 converts the transmission signal input through the user terminal 300 in this manner into virtual viewpoint information that can be processed. Then, the user input unit 206 outputs the virtual viewpoint information to the control unit 205.
  • the control unit 205 issues a control instruction to each unit of the image generation apparatus 200 based on the virtual viewpoint information from the user input unit 206. For example, when information of a virtual viewpoint is received from the user input unit 206, the information is transmitted to the virtual viewpoint image generation unit 203 as control information. As described above, when the virtual viewpoint information is input, the virtual viewpoint image generation unit 203 generates and outputs a virtual viewpoint image.
  • the image storage unit 202 and the virtual viewpoint image generation unit 203 may be configured as separate devices.
  • the user terminal 300 receives the position and the direction of the virtual viewpoint from the user, and the display screen provided on the user terminal 300 with a virtual viewpoint image according to the position and the direction of the virtual viewpoint received from the user received from the image generation device 200 indicate. By doing this, the user views the content from the viewpoint based on his / her operation.
  • the user terminal 300 is, for example, a PC (PERSONAL COMPUTER) or a tablet
  • the controller is, for example, a mouse, a keyboard, a six-axis controller, or a touch panel.
  • a user operates a virtual viewpoint using these, and displays a virtual viewpoint image from an arbitrary viewpoint on a display screen provided in the user terminal 300.
  • FIG. 10 is a diagram showing an example of a functional configuration of the information display apparatus 400 of the present embodiment.
  • FIG. 11 is a flow chart for explaining an example of the operation of the information display apparatus 400 of this embodiment.
  • the information display device 400 is an example of a display device that displays a state of the imaging device 100 -X or the image generation device 200 from the information stored in the data storage unit 401 described later and the information acquired by the state acquisition unit 405. It is.
  • the information display device 400 includes a data holding unit 401, a data reading unit 402, a UI generation unit 403, a display unit 404, a state acquisition unit 405, a control unit 406, a user input unit 407, and a control signal output unit 408. These are mutually connected by the internal bus 409, and can transmit and receive data mutually under the control of the control unit 406.
  • the data holding unit 401 in FIG. 10 corresponds to the HDD 704 in FIG. 7
  • the data reading unit 402, the UI generation unit 403, and the control unit 406 in FIG. 10 correspond to the CPU 701 in FIG.
  • the state acquisition unit 405 and the control signal output unit 408 in FIG. 10 correspond to the communication I / F 707 in FIG.
  • the display unit 404 in FIG. 10 corresponds to the display I / F and the display device 710.
  • the processing described later performed by FIG. 11 and the information display apparatus 400 is realized by the CPU 701 of FIG. 7 reading out various programs recorded in the ROM 702 and executing control of each part.
  • the CPU 701 of FIG. 7 reading out various programs recorded in the ROM 702 and executing control of each part.
  • an example of the configuration of each part will be described in detail.
  • the dedicated hardware is, for example, an ASIC or an FPGA.
  • the data holding unit 401 holds data necessary for the UI generation unit 403 to display a UI.
  • the data includes at least one of the following: ⁇ Layout data of the stadium 210 ⁇ Identification information of the imaging device 100-X ⁇ Connection group information to which the imaging device 100-X belongs ⁇ Connection destination of the imaging device 100-X ⁇ Installation area of the imaging device 100-X ⁇ Imaging device 100- Installation coordinate information of X, shooting target area of imaging device 100-X, center coordinate information of shooting target area of imaging device 100-X, effective area information of shooting target area of imaging device 100-X, of imaging device 100-X Area information of installation area
  • FIG. 12 shows an example of data held by the data holding unit 401.
  • the “imaging device 100-1” belongs to the communication connection group “L1”, is mutually connected with the “imaging device 100-2”, and coordinates (x1 of the area “R1” , Y1) is shown.
  • the installation coordinate information is XY coordinate information in the case where a predetermined position (for example, the center of the stadium 210) is set as the origin.
  • Area center coordinates (information indicating the center coordinates of the imaging target area shown in FIG. 12) are XY coordinate information when the predetermined position (for example, the center of the stadium 210) is the origin.
  • the group of the imaging devices 100-X for imaging a common imaging target area is installed so that the optical axis thereof is directed to the position indicated by the area center coordinates. That is, the center of the image captured by the imaging device 100-X capturing the same imaging target area is the position indicated by the same area center coordinate in any imaging device 100-X.
  • the effective area information is an area indicated by a radius from the center coordinates.
  • the virtual viewpoint image is generated using an image captured by the imaging device 100-X that captures a common imaging target area.
  • the vertex coordinates consist of coordinate information of at least three or more vertices, and the area surrounded by these coordinate information is the area of the installation area.
  • the data holding unit 401 may acquire these pieces of information by an input according to the operation by the user, or may acquire them based on the state information from the imaging device 100-X. Note that the data holding unit 401 need not be in the information display device 400, and may be in an external recording device. In addition, the data holding unit 401 that holds information related to the imaging device 100-X may be provided in each imaging device 100-X.
  • the data reading unit 402 reads various data from the data holding unit 401 and outputs the data to the UI generation unit 403 (S1101).
  • the UI generation unit 403 generates a UI image, which is information indicating the state of the system or the imaging apparatus 100-X, based on the data output from the data reading unit 402 and the state information output from the state acquisition unit 405. (S1102). The state information and the UI image example will be described later. Then, the UI generation unit 403 outputs the generated UI image as a display image to the display unit 404.
  • the display unit 404 has a frame buffer and a display panel.
  • the display unit 404 stores (overwrites) the display image output from the UI generation unit 403 in the frame buffer. Then, the display unit 404 reads the display image stored in the frame buffer at a predetermined refresh rate and displays the read image on the display panel (S1103).
  • the display panel is, for example, a liquid crystal panel or an organic EL panel.
  • the state acquisition unit 405 acquires the state information of each imaging device 100 -X and the state information of the image generation device 200, and outputs the state information to the UI generation unit 403.
  • the UI generation unit 403 updates the generated UI image (S1104, S1105).
  • the control unit 406 issues a control instruction to each unit of the information display apparatus 400 based on the operation information from the user input unit 407. For example, when the control unit 406 receives operation information indicating a switching instruction of a display image type from the user input unit 407, the control unit 406 converts the operation information into a corresponding display image type and transmits it to the UI generation unit 403. An example of the specific content of the display image will be described later.
  • the user input unit 407 receives operation information input from a controller (not shown) and outputs the operation information to the control unit 406.
  • the controller is, for example, at least one of a keyboard, a mouse, and a touch panel.
  • Control signal output unit 408 outputs the control signal from control unit 406 to the outside.
  • the output destination is, for example, the imaging device 100-X.
  • the control signal is, for example, a signal for setting imaging parameters such as zoom, focus, iris, ISO, shutter speed, and ND filter switching of the imaging device 100-X.
  • FIG. 15 is a view showing an example of a display image displayed by the information display apparatus 400 of the present embodiment.
  • the following information is displayed on the information (1201) indicating the stadium 210.
  • ⁇ Installation area where the imaging device 100-X is installed for example, the area indicated by 1202) -Imaging device 100-X and its installation position (for example, a circular portion indicated by 1203)
  • Connection relationship and connection state between imaging devices 100-X for example, a line indicated by 1204)
  • a shooting target area for example, a dashed circular area indicated by 1205)
  • the center point of the shooting target area for example, a hexagon indicated by 1206)
  • An area to be photographed by the imaging device 100-X for example, a dotted line indicated by 1207)
  • the information display device 400 displays the connection state between the image generation device 200 or the information display device 400 and the imaging device 100-X.
  • the information display apparatus 400 since the information display apparatus 400 may be installed in the broadcast relay car etc. out of a stadium in FIG. 15, these are described as a relay car.
  • the information display apparatus 400 can make the user grasp at a glance information concerning an imaging system having a plurality of imaging apparatuses.
  • the information display device 400 can display which imaging device is disposed where and how it is connected.
  • the information display device 400 hides the line 1204 of the connection path in which the communication error has occurred.
  • the information display device 400 includes a circular portion 1203 indicating the imaging device 100-X in a state capable of photographing, and a circular portion 1203 indicating an imaging device 100-X in failure or adjustment and not in a state capable of photographing.
  • the information display device 400 may hide the circular portion 1203 indicating the imaging device 100-X which is not in the state capable of photographing.
  • the information display device 400 may display an error when the data held by the data holding unit 401 does not correspond to the data indicated by the state information acquired from the imaging device 100-X. For example, when the connection relation between the imaging devices 100 held by the data holding unit 401 and the actual connection relation between the imaging devices 100-X indicated by the state information are different, a warning is displayed. By doing this, it is possible to make the user easily identify the imaging device in which the failure has occurred, and easily grasp where it is disposed.
  • the information display device 400 displays information indicating the imaging target areas of each of the plurality of imaging devices, it is possible to make the user grasp the position of the virtual viewpoint that causes a problem when a failure occurs in the imaging devices. it can.
  • the information display device 400 displays information indicating the imaging target areas of each of the plurality of imaging devices, it is set whether or not the imaging system can capture a captured image sufficient for generating a virtual viewpoint image. The user can be made to understand.
  • the information display device 400 does not have to display all the information exemplified in FIG. 15, and may display only a part of them. That is, the information processing apparatus 400 includes at least at least one of a plurality of types of information such as information on a setting location of the imaging apparatus 100-X, information on communication connection of the imaging apparatus 100-X, and information on an imaging target area of the imaging apparatus 100-X Either one may be displayed. For example, the information processing apparatus 400 can easily grasp for which area a plurality of imaging apparatuses of the imaging system 100 are arranged in which area by displaying information on the setting place of the imaging apparatus 100-X.
  • the information display apparatus 400 can allow the user to easily grasp the network configuration by displaying the information related to the communication connection of the imaging apparatus.
  • the information display device 400 can allow the user to easily grasp the imaging region to which each of the plurality of imaging devices of the imaging system 100 gazes by displaying the information on the imaging target area of the imaging device 100-X. Become.
  • FIG. 16 is a process flow for the UI generation unit 403 of the information display device 400 to generate the display image of FIG.
  • FIGS. 17 to 22 show specific display images drawn by each process in the flow.
  • the processing order is not limited to this.
  • the process in FIG. 16 and each display process described later are realized by the CPU 701 in FIG. 7 reading out various programs stored in the ROM 702 and executing control of each unit.
  • the CPU 701 in FIG. 7 reading out various programs stored in the ROM 702 and executing control of each unit.
  • FIG. 16 and the flowchart of each display process may be executed by dedicated hardware.
  • the dedicated hardware is, for example, an ASIC or an FPGA.
  • the UI generation unit 403 draws the layout data of the stadium 210 output from the data reading unit 402 (S1401, FIG. 17). Thereafter, the UI generation unit 403 draws an area in the stadium 210 where the imaging device 100-X is to be installed (S1402, FIG. 18). There are four installation areas here (R1, R2, R3 and R4). These areas are based on the coordinate information shown in FIG. Thereafter, the UI generation unit 403 arranges the imaging device 100-X in the installation area to which each belongs (S1403, FIG. 19). These are based on the installation area and the installation coordinate information shown in FIG. Thereafter, the UI generation unit 403 draws the connection relationship between the imaging devices 100-X (S1404 and FIG. 20). Here, there are two connection groups (L1, L2).
  • the UI generation unit 403 may dynamically create a display image indicating network connection of the imaging system 100 based on the state information acquired from the imaging system 100.
  • the UI generation unit 403 may also display an error when the generated network connection of the imaging system 100 is different from the correct network configuration stored in advance. Thereafter, the UI generation unit 403 draws an area to be photographed by each imaging device 100-X (S1405, FIG. 21). Here, there are two shooting target areas. Each of these consists of the center point (1206) of the imaging area and the effective area (1205) of the imaging area.
  • the effective area indicates an area suitable for generating a virtual viewpoint video. These are based on the information shown in FIG.
  • the images shown in FIGS. 17 to 22 are drawn as images of different layers. Thereafter, the UI generation unit 403 connects these as information to associate each imaging device 100-X with the imaging target area (S1406, FIG. 22).
  • the imaging device 100-X 1203-2
  • the imaging target area connected (12072-2) is another imaging device 100- May intersect with X (1203-1).
  • the UI generation unit 403 confirms the presence or absence of such an intersection (S1407), and when an intersection occurs, rearranges the drawing position of the imaging device 100-X which intersected to a position not intersecting in the same area (1408) ).
  • the information display device 400 performs display control such that the line connecting the information indicating the imaging device 100-X and the central point of the imaging target area does not overlap. By doing this, the user can easily know the imaging target area of each imaging device 100-X. However, the position of the imaging device 100-X may not be moved.
  • the UI generation unit 403 divides the layer and draws based on the information of FIGS.
  • a layer is a plurality of recording areas of the same size as the frame buffer included in the UI generation unit 403, and specifically corresponds to a part of the RAM 703 in FIG.
  • the UI generation unit 403 generates the display image of FIG. 15 by superimposing a plurality of drawing layers.
  • each drawing layer is drawn as follows. ⁇ Stadium 210 (S 1401, illustrated in FIG. 17) ⁇ Each area (S 1402, illustrated in FIG. 18) Imaging device 100-X (S1403, illustrated in FIG. 19) ⁇ Each connection group (S1404, illustrated in FIG. 20) ⁇ Each shooting target area (S1405, illustrated in FIG. 21) ⁇ Wire connection between the imaging device 100-X and the imaging target area (S1406, illustrated in FIG. 22)
  • FIG. 24 is an example of a layer drawing processing image of the UI generation unit 403.
  • the stadium 210 corresponding to 1201 in FIG. 17 is drawn in the lowermost layer, and the layer of each area is superimposed on the layer above it.
  • layers in which connections of each imaging device 100 -X and the minimum imaging area are drawn are overlapped at the top.
  • the order of superposition of the layers may be changed as appropriate.
  • a display image as shown in FIG. 15 may be generated by adding the contents shown in FIGS. 18 to 22 to the image of FIG.
  • drawing processing for each of a plurality of layers there is an advantage that switching of display images becomes easy. The points will be described in detail below.
  • FIG. 25 is a processing flow for switching the display of the display image drawn in FIG. 15 based on the operation information input via the user input unit 407.
  • the user input unit 407 inputs operation information from a controller such as a keyboard
  • the user input unit 407 outputs the information to the control unit 406 (S2501).
  • the control unit 406 having received the operation information specifies display content to be displayed or not displayed based on the operation information, and outputs the content to the UI generation unit 403 as a display switching instruction. (S2502).
  • the control unit 406 has in advance content to be displayed or not displayed for each piece of operation information.
  • the UI generation unit 403 adds or deletes the corresponding drawing layer, superimposes the remaining drawing layer, and outputs the superimposed drawing layer to the display unit 404 (S2503).
  • FIG. 26 is an example of a UI image generated by the processing result of FIG. This is the result of performing display switching to display only the imaging device 100-X belonging to the connection group L1.
  • the information display device 400 can display information of only the imaging device 100-X installed in the area R1 by the process of FIG. Further, the information display device 400 can display information of only an arbitrary imaging device 100-X by the process of FIG. Further, the information display apparatus 400 can display information of only the imaging apparatus 100-X in which a common imaging target area is set, by the process of FIG.
  • the information display device 400 may pop up a warning when information indicating that at least one device of the system is in a state in which a defect may occur in the virtual viewpoint image is received. Further, in this case, the information display apparatus 400 pops up a warning and automatically selects and displays a layer suitable for displaying the state of the apparatus in a state in which a problem may occur in the virtual viewpoint image. You may By doing this, the user can understand that a defect such as a decrease in the quality of the virtual viewpoint image may occur, and can take measures.
  • the information display apparatus 400 displays the state of the imaging system by combining or deleting the layers as appropriate. Therefore, even when the imaging system has many imaging devices, the information display device 400 can display only the state of a desired imaging device group, and can improve the visibility.
  • the UI generation unit 403 can also change the background color of each layer. For example, when the information display device 400 is disposed in a relay vehicle with low illuminance, the background color can be black-based to improve visibility. Further, when the information display device 400 is disposed in the outdoor where the illuminance is high, visibility can be ensured by using a white-based background. Although an example of selecting a layer to be displayed has been shown, the layer to be displayed may not be selected, and all or part of the information to be displayed in FIG. 15 may be fixedly displayed.
  • FIG. 27 is an example showing the state of the imaging device 100-X on the display image shown in FIG.
  • the state acquisition unit 405 of the information display device 400 outputs the state information to the UI generation unit 403.
  • the UI generation unit 403 updates the display of the imaging device 100-X on the display image of FIG. 15 based on the state information.
  • FIG. 27 specifically shows an example in which a part of the imaging device 100-X on a certain connection group (1204) is displayed.
  • the display of the state of the imaging device 100-X includes the following.
  • a state in which the imaging device 100-X is not connected to the information display device 400 or another imaging device 100-X and can not communicate (2402 in FIG. 27A)
  • the information display device 400 also displays the state of the imaging device 100-X itself.
  • the imaging apparatus 100-X is in an error state (2403 in FIG. 27B)
  • the imaging device 100-X is in a warning state (2404 in FIG. 27B)
  • the error state indicates a state in which an abnormality occurs in the temperature or the optical lens in the imaging device 100-X.
  • the error state may be a state in which the imaging device 100-X can not perform imaging or a problem may occur in imaging.
  • the warning state is a state in which an error state is likely to occur, and there is no problem in operation, but indicates a state in which a predetermined temperature increase or a predetermined synchronization deviation with an external synchronization device (not shown) occurs.
  • the bypass state indicates a state in which the imaging device 100-X is not used and only the connection state is maintained. Further, the bypass state may be a state in which the imaging device 100-X can not execute imaging or image processing, and only performs data transmission.
  • the information display device 400 also displays the configuration state of the imaging device 100-X.
  • a zoom lens is attached to the imaging device 100-X (2406 in FIG. 27C)
  • a sound collection microphone is attached to the imaging device 100-X (2407 in FIG. 27C)
  • a camera platform is attached to the imaging device 100-X (2408 in FIG. 27C)
  • the information display device 400 also displays the output state of the imaging device 100-X. While outputting “foreground image data” or “background image data” captured by the imaging device 100-X to the image generation device 200 and the information display device 400 via the distribution device 500 at a predetermined frame rate (FIG. 27D) 2409)
  • the information display device 400 may display information indicating these.
  • the information display device 400 may display information of information (such as data size, image size, and file format) related to the image quality output by the imaging device 100-X.
  • the information display device 400 also displays the mechanical state of the imaging device 100-X. -During operation of the zoom lens of the imaging device 100-X (2410 in FIG. 27E)
  • the display example of the state of the imaging device 100-X has been shown, the content to be displayed is not limited to this.
  • the synchronization state between each imaging device 100-X and the synchronization device may be displayed.
  • contents set in each imaging device, a state of completion of the work, and the like may be displayed.
  • the state of the imaging device 100-X may be displayed by a message. Further, the display item may be selectable from the information indicating the state of the imaging device 100-X. Also, whether to display the state of the imaging device 100-X may be selectable. In addition, the information display device 400 may display information indicating the state of the imaging device 100-X corresponding to the position of the cursor for an instruction operation by the user. In addition, the information display device 400 may display information indicating the state of the imaging device 100-X corresponding to the instruction operation on the touch panel by the user.
  • the information display device 400 may display the imaging parameters set in the imaging device 100-X as information indicating the state of the imaging device 100-X.
  • there may be a problem in generation of a virtual viewpoint image such as an error state, a warning state, a communication impossible state or a state in which data can not be output. In this case, a warning may be displayed separately.
  • the information display apparatus 400 may display a warning by an image, a color, or a message when the state of the imaging device 100-X is a state in which a problem may occur in generation of a virtual viewpoint image.
  • the information display apparatus 400 is not limited to the imaging apparatus 100-X, and in the case where the system state is a state in which a problem may occur in generation of a virtual viewpoint image, “the system state may cause a failure in a virtual viewpoint image There may be a warning message such as “Please perform repair or check the setting as soon as possible.” You may also display a message to prompt you to solve the problem.
  • the information display device 400 in order to display the information indicating the state of the imaging device 100-X shown in FIG. 27, can make the user grasp the information related to the imaging system having a plurality of imaging devices. it can. Further, the information display apparatus 400 can allow the user to easily grasp which imaging apparatus is in what state. Further, for example, the information display device 400 identifiably displays the imaging device 100-X in which an error occurs in imaging, so that the user can grasp the imaging device 100-X in which an error occurs.
  • FIG. 28 is another example in which the state of the imaging device 100-X on the display image shown in FIG. 15 is listed and shown.
  • FIG. 28 is an example in which a summary of the state of one or more imaging devices 100-X, which specifically target a certain imaging target area (1205 and 1206) (connecting the wire connection), is displayed as a list .
  • this group is referred to as a shooting target area group.
  • the list display shown in FIG. 28 is called group state summary list display.
  • the group summary list display contents of the shooting target area group include the following. ⁇ Connection status between imaging devices in the shooting target area group (connected / not connected) -Error status of each imaging device in the shooting target area group (error present, not present) ⁇ Warning status of each imaging device in the shooting target area group (Warning with / without warning) -Bypass status of each imaging device in the shooting target area group (with bypass, without bypass) -Configuration state of each imaging device in the shooting target area group (with / without pan head, with / without microphone, etc.) -Output status of each imaging device in shooting target area group (during output, no output) -Mechanical operation state of each imaging device in the shooting target area group (during operation, non-operation)
  • FIG. 29 is a flowchart of the process of displaying the group state summary list shown in FIG. 28 by the state acquisition unit 405 and the UI generation unit 403 of the information display device 400.
  • This flowchart is started by accepting a predetermined operation by the user.
  • the state acquisition unit 405 acquires state information of the imaging device 100-X from the state information holding unit 104 of all the imaging devices 100-X, and outputs the result to the UI generation unit 403 (S2901, S2902).
  • the UI generation unit 403 identifies the imaging device 100-X belonging to the imaging target area group to be displayed as a list (S2903), and compares the state information (S2904).
  • the state information of all the imaging devices 100-X is displayed (S2905). If the state information of one or more imaging devices 100-X is different, a warning is displayed (S2906).
  • the warning display refers to an error state of the imaging target area group V2 and an iris value of the imaging target area group V1. These indicate that an error has occurred in one or more imaging devices 100-X, or that the iris value is different from that of the other imaging devices 100-X.
  • the warning display may be performed by other information.
  • the warning display may be performed by a message such as “The exposure condition of each imaging device of the imaging target area group does not match, and a problem may occur in the virtual viewpoint image.” Or the like.
  • a warning may be displayed by displaying an image meaning a color or a warning.
  • the shooting target group state summary list of the shooting target area group is performed. Therefore, it is possible to make the user easily recognize the possibility that the virtual viewpoint image may be uncomfortable due to the difference in exposure conditions depending on the imaging device used for generating the virtual viewpoint image and capturing a plurality of images, and to take measures therefor. .
  • FIG. 30 shows an example in which the state of each imaging device 100-X belonging to the imaging target area group V2 shown in FIG. 28 is displayed as a list (this list display is called group state detailed list display). This is different from the group state summary list display, and the state of each imaging device 100-X belonging to the group can be known. Therefore, when a warning display is found in the group status summary list display, a specific warning location can be identified by switching the display to the group status detailed list display. According to FIG. 30, since the imaging apparatus 100-2 causes a temperature error, it can be understood that a warning display is given in FIG.
  • the information display device 400 does not have to display all the information described in FIG. 30, but may display some of them.
  • FIG. 31 shows a switching operation of group state summary list display and group state detailed list display by the UI generation unit 403.
  • the UI generation unit 403 switches the display between the group state summary list display and the group state detailed list display based on the operation information (display switching operation) input through the user input unit 407. For example, when the information display apparatus 400 displays a shooting target group state summary list, when a tap or an instruction operation to a position corresponding to “V2” which is identification information of a shooting target area group is received from the user, Switch to group status detail list display. In addition, when the information display apparatus 400 receives a tap or an instruction operation on a position corresponding to the “return” message icon (not shown) while displaying the group state detail list, the information display apparatus 400 Switch to display.
  • the state of the imaging device 100-X is displayed as a list of imaging target area groups.
  • the content to be displayed is not limited to this.
  • the synchronization status between each imaging device 100-X and the synchronization device may be displayed.
  • contents set in each imaging device, a state of completion of the work, and the like may be displayed.
  • the group is not limited to the shooting target area group.
  • the connection area may be displayed as a list, or the installation area may be displayed as a single group.
  • FIGS. 32 and 33 are diagrams showing an example of an operation UI for operating the imaging device 100-X displayed by the information display device 400 of the present embodiment.
  • FIG. 32 shows a UI for receiving an instruction for operating the individual imaging device 100-X displayed by the information display device 400.
  • the information display device 400 transmits, to the imaging device 100-X, information for setting the imaging parameters of the imaging device 100-X and operating the imaging device 100-X in accordance with the operation by the user.
  • the operation UI it is possible to set at least the zoom of the imaging apparatus 100-X, the ISO for determining the exposure condition, the iris, the shutter speed, and the ND filter.
  • PAN pan
  • TILT tilt
  • FIG. 33 is an operation image for collectively operating the imaging devices 100-X belonging to the imaging target area group.
  • the operation image it is possible to set ISO, iris, shutter speed, and ND filter which at least determine the exposure condition.
  • the information display apparatus 400 can receive settings and operations of a plurality of imaging devices belonging to the imaging target area group from the user and reflect them on the imaging devices.
  • FIG. 39 is a flowchart showing processing for causing the information display device 400 to display the operation UI and reflecting the setting received from the user on the imaging device 100-X.
  • the information display device 400 determines whether a user operation for specifying the imaging device 100-X to be operated by the operation UI has been received (S4001).
  • the operation for displaying the operation UI is performed on the circular portion 1203 while the drawing layer for displaying the information indicating the imaging device 100-X is displayed as shown in FIG. It is determined whether or not it has been received.
  • the imaging device 100-X corresponding to the circular portion 1203 on which the operation has been performed is specified as the display target of the operation UI.
  • the imaging device 100-X belonging to the imaging target area group corresponding to the imaging target area for which the operation has been performed is specified as the display target of the operation UI.
  • the imaging device 100-X belonging to the connection group corresponding to the connection group for which the operation has been performed is specified as the display target of the operation UI.
  • the imaging device 100-X belonging to the shooting target group corresponding to the shooting target group for which the operation has been performed is specified as the display target of the operation UI.
  • the information display device 400 displays the operation UI shown in FIG. 32 or 33 (S4002).
  • the information display apparatus 400 determines whether a user operation for setting or operating the imaging apparatus has been received by the operation UI (S4003).
  • the information display device 400 transmits an instruction for reflecting the setting or operation on the imaging device (S4004).
  • the imaging device 100-X reflects the instruction based on the information received from the transmission destination imaging device 100-X indicating whether the instruction is reflected or not. It is determined whether or not (S4005).
  • the information display device 400 determines that the imaging device 100-X reflects the instruction in S4005, the information display device 400 updates the information reflected by the imaging device 100-X and the reflected setting or operation information of the imaging device 100-X, It displays (S4006). On the other hand, when it is determined in S4005 that the imaging device 100-X does not reflect the instruction, the information display device 400 displays an error (S4007).
  • the information display device 400 links and displays the plurality of imaging devices 100-X, the connection relationship, the installation area, and the imaging target area on the map of the stadium 210.
  • the state of each imaging device 100-X is also displayed together. Therefore, even if the number of imaging apparatuses 100-X increases, the user can grasp at a glance the system status such as the connection status, the installation status, and the influence range of imaging.
  • the present embodiment it is possible to appropriately add or delete information to be displayed, such as display of only the connection group or display of only the imaging target area group. Therefore, even if the number of imaging apparatuses 100-X, the number of connection groups, and the like increase, the display can be performed focusing on only a specific group.
  • the state as the connection group unit or the shooting target area group unit can be confirmed.
  • the generation thereof is greatly affected.
  • the degree of influence on generation of such virtual viewpoint video can be grasped.
  • control of imaging parameters such as ISO and iris of the imaging device 100-X can be performed in connection group units and imaging target area group units.
  • the same exposure condition is often changed for each shooting target area group shooting the same shooting target area.
  • collective control can be performed in imaging target area groups, it is possible to change the imaging device 100-X to settings suitable for generating a virtual viewpoint image in a short time.
  • FIG. 34 is a diagram showing an example of a functional configuration of the information display device 400 of the modification.
  • the information display apparatus 400 according to the modification includes a data holding unit 601, a data reading unit 602, a UI generation unit 603, a display unit 604, a state acquisition unit 605, a control unit 606, a user input unit 607, a control signal output unit 608, and an image.
  • An acquisition unit 610 is included. These are mutually connected by the internal bus 609, and can transmit and receive data mutually under the control of the control unit 606.
  • the functional configuration shown in FIG. 34 is the same as the functional configuration shown in FIG. 10 except for the image acquisition unit 610, and thus the description thereof is omitted.
  • the image acquisition unit 610 acquires a photographed image output from each imaging device 100 -X, and outputs the acquired image to the UI generation unit 603.
  • FIG. 35 is a flowchart illustrating an example of the image display process of the information display device 400.
  • the information display device 400 acquires operation information for selecting the imaging device 100-X.
  • the information display device 400 is an imaging device 100-X (1203) on a UI where a user (person in charge of monitoring) is displayed, a connection group (1204), an imaging target area (1205, 1206), or an installation area (1202) Accept the selection operation of.
  • a controller such as a keyboard or a mouse
  • the user input unit 607 outputs the operation information to the control unit 606 (S3501).
  • the control unit 606 specifies the imaging device 100-X, or the group, or the area selected from the operation information and the display image (S3502). After that, the control unit 606 acquires an image of the imaging device 100-X specified or the imaging device 100-X included in the group or area via the image acquisition unit 610, and outputs the image to the UI generation unit 603 (S3503) .
  • the UI generation unit 603 superimposes and displays the input image of the imaging device 100-X on the display image (S3504). If the image is a moving image, S3503 and S3504 are repeated (S3505).
  • FIGS. 36 to 38 are views showing an example of the operation UI for displaying the captured image displayed by the information display device 400 in a superimposed manner.
  • FIG. 36 shows an example where the user (person in charge of monitoring) selects an individual imaging device 100-X on the display image. An image of the selected imaging device 100-X is displayed.
  • FIG. 37 shows an example in which the center point of the imaging target area on the display image is selected. A list of images of all the imaging devices 100-X belonging to the selected imaging target area is displayed.
  • FIG. 38 shows an example in which a connection group on a display image is selected. A list of images of all the imaging devices 100-X belonging to the selected connection group is displayed.
  • FIG. 40 shows an example in which a center marker, which is a guide display for confirming the posture of the imaging device 100-X, is displayed on the photographed image.
  • FIG. 41 shows an example in which an exposure guide bar 4101 which is a guide display for confirming the exposure state of the imaging device 100-X is displayed on a photographed image.
  • the exposure guide bar 4101 shown in FIG. 41 is a guide display indicating whether the exposure amount set in the imaging device 100-X is larger or smaller than the appropriate exposure measured by the exposure meter of the imaging device 100-X. is there.
  • the exposure guide bar 4101 is a slide bar as an example. In the exposure guide bar 4101, a scale of zero indicates proper exposure, and the slider is positioned in the positive direction to indicate overexposure, and positioned in the negative direction indicates underexposure.
  • the information display device 400 when the information display device 400 receives from the user an operation to change the position of the slider of the exposure guide bar 4101, the information display device 400 transmits information for instructing the imaging device 100-X to perform exposure correction according to the operation. Good.
  • the user confirms the guide display for exposure confirmation of the imaging device 100-X shown in FIG. 41 together with the photographed image, it is possible to confirm whether the exposure amount of the imaging device 100-X is set correctly.
  • FIG. 42 shows an example in which a focus state table 4201 for confirming the focus state of the imaging device 100-X is displayed on the photographed image.
  • a focus state table 4201 shown in FIG. 42 is the in-focus position of the imaging device 100-X and a guide display for performing the adjustment.
  • the horizontal axis indicates focus lens position information.
  • the in-focus position of the imaging device 100-X changes as the focus lens moves.
  • the vertical axis is frequency information of a captured image with respect to the position of the focus lens. The more focused the image is at the proper position, the higher the frequency of the captured image.
  • the lens position at which the frequency of the captured image is the highest is described as the “peak value”.
  • the current lens position is described as "current value”.
  • the information display device 400 receives an operation to change the current value from the user to the focus state table 4201, the information display device 400 transmits information for instructing the imaging device 100-X to change the position of the focus lens according to the operation. It is good also as composition.
  • FIG. 43 is an example of a UI in which the center marker shown in FIG. 40 and the exposure guide bar shown in FIG. 41 are superimposed on the list of images of the imaging device 100-X shown in FIG. 37 or 38.
  • the information display apparatus 400 may transmit an instruction of exposure correction to the corresponding imaging apparatus 100-X when any of the exposure guide bars is operated.
  • the user can confirm the attitudes and exposures of the plurality of imaging devices at once in more detail.
  • the focus state table shown in FIG. 42 may be further superimposed.
  • the form of the above-mentioned guide display is only an example, and you may perform guide display by other forms, such as a character or a numerical value.
  • the images of the selected imaging device 100-X, or the imaging target area and all the imaging devices 100-X belonging to the connection group are displayed. Therefore, since the actual captured image of the captured image 100-X linked in the area or group can also be confirmed, the state of the system can be more accurately grasped.
  • FIG. 44 is a diagram showing an example of a display image displayed by the information display device 400. The difference from the display image described in FIG. 15 will be described in detail.
  • 44001 to 4404 indicate that a zoom lens is attached to the imaging device 100-X.
  • a zoom lens is attached, and a zoom lens such as a solid line or a thick line is attached to indicate a line 4405 indicating an area to be photographed by the imaging device 100-X (44001 to 4404) having a relatively narrow angle of view. It is displayed in a form different from that of the imaging device 100-X which is not used.
  • the user can easily grasp the difference in angle of view of each of the plurality of imaging devices 100-X. be able to.
  • information on the angle of view of each of the plurality of imaging devices 100-X may be displayed in other forms such as characters and numerical values.
  • the information display apparatus 400 of the present embodiment can also display the state of the device regarding the system for generating a virtual viewpoint image in addition to or in place of the imaging apparatus 100-X.
  • the information display device 400 can also display, for example, the state of a network device such as a switch or a router, the image generation device 200, and a synchronization device as a device related to a system for generating a virtual viewpoint image. That is, the information display apparatus 400 can display an image indicating the state of the component of the system for generating the virtual viewpoint image.
  • the information display apparatus 400 has been described based on an example in which the occurrence of the state change is detected based on the state information from the imaging apparatus 100-X, the present invention is not limited to this example. For example, it may be determined that a state change of the imaging device 100-X has occurred by not receiving the state information from the imaging device 100-X for a predetermined time.
  • the present invention supplies a program that implements one or more functions of the above-described embodiments to a system or apparatus via a network or storage medium, and one or more processors in a computer of the system or apparatus read and execute the program. Can also be realized. It can also be realized by a circuit (for example, an ASIC or the like) that realizes one or more functions. Also, the program may be provided by being recorded on a computer readable recording medium.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Devices (AREA)

Abstract

仮想視点画像を生成するための画像を撮像する複数の撮像装置に関する情報を表示させる表示制御装置であって、複数の撮像装置に関する情報を取得する取得手段と前記取得手段により取得された情報に基づく、前記複数の撮像装置夫々が撮像した画像を伝送するための前記複数の撮像装置の通信接続に関する情報を、表示部に表示させる表示制御を行う表示制御手段と、を有することを特徴とする。

Description

表示制御装置、表示制御方法、およびプログラム
 本発明は、表示制御装置、表示制御方法、およびプログラムに関する。
 近年、複数の撮像装置を異なる位置に設置し、複数の撮像装置が同期して被写体を撮像し、当該撮像により得られた複数の視点の画像を用いて、撮像装置の設置位置の画像だけでなく任意の視点の画像を仮想視点画像として生成する技術が注目されている。
 複数の視点の画像に基づく仮想視点画像の生成および閲覧は、例えば、次のようにして実現することができる。まず、複数の撮像装置が撮像した画像をサーバなどの画像生成装置に集約する。そして、画像生成装置は、複数の撮像装置が撮像した画像を用いて、仮想視点に基づくレンダリングなどの処理を施して仮想視点画像を生成し、ユーザの視聴端末に仮想視点画像を表示する。
 サッカーやバスケットボールの試合を撮像した画像から、画像コンテンツ制作者により指定された視点に応じた仮想視点画像を生成することにより迫力のある視点のコンテンツを制作することができる。また、コンテンツを視聴しているユーザ自身が視聴端末に備えたコントローラやタブレット等を使用して自由に視点を移動し、画像生成装置がその視点に応じた仮想視点画像を生成することにより、ユーザは、自身の好みの視点で、試合を観戦することができる。従って、仮想視点画像を用いたサービスでは、視点を任意に変更できない従来の撮像画像と比較してユーザにその場面にいるような臨場感を与えることができる。
 特開2014-236896号公報には、一つ以上の画像を元にユーザが好みの視点を選択し、当該画像と当該選択された視点の情報から仮想視点画像を生成する技術が開示されている。また、特許文献1では、ユーザが好みの視点を選択する際のUI(ユーザインターフェース)に関しても開示している。
 しかしながら、仮想視点画像の生成に係るシステムの構成要素の状態をユーザが容易に知ることができない恐れがあった。
 例えば、複数の撮像装置の少なくとも一つが、故障したり、正常な撮影ができなかったり、撮像画像を出力できなかったりする場合、仮想視点画像の品質の低下など不具合が生じ得る。また、複数の撮像装置それぞれの撮影範囲や露光条件を示す撮影パラメータなどが適切に設定されていない場合も、仮想視点画像の品質の低下など不具合が生じ得る。しかしながら、ユーザがこれらの撮像装置の状態を把握することができれば、修理や撮影パラメータの設定などを行うことができ、仮想視点画像の品質の低下などの不具合の発生を低減することができる。なお、上記した構成要素は撮像装置に限らない。例えば、仮想視点画像を生成するサーバ、仮想視点画像を生成するためのシステムを構成するスイッチやルータ、及びネットワークケーブルなども構成要素となりうる。
 本発明は、かかる課題に鑑みてなされたものであり、その目的は、仮想視点画像の生成に係るシステムの構成要素の状態をユーザが容易に知ることができるようにするための技術を提供することである。
 本発明の表示制御装置は、仮想視点画像を生成するための画像を撮像する複数の撮像装置に関する情報を表示させる表示制御装置であって、複数の撮像装置に関する情報を取得する取得手段と、前記取得手段により取得された情報に基づく、前記複数の撮像装置夫々が撮像した画像を伝送するための前記複数の撮像装置の通信接続に関する情報を、表示部に表示させる表示制御を行う表示制御手段と、を有することを特徴とする。
表示システムの構成を示す図である。 撮像装置の配置を示す図である。 撮像装置のハードウェアの構成を示す図である。 撮像装置の機能的な構成の第1の例を示す図である。 撮像装置の動作の第1の例を示すフローチャートである。 前景画像データおよび背景画像データを示す図である。 前景画像データおよび背景画像データを示す図である。 前景画像データおよび背景画像データを示す図である。 装置のハードウェアの構成を示す図である。 画像生成装置の機能的な構成の第1の例を示す図である。 画像生成装置の動作を示すフローチャートである。 情報表示装置の機能的な構成の第1の例を示す図である。 情報表示装置の動作の第1の例を示すフローチャートである。 情報表示装置のデータ保持部が保持しているデータ例を示す図である。 情報表示装置のデータ保持部が保持しているデータ例を示す図である。 情報表示装置のデータ保持部が保持しているデータ例を示す図である。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置のUI生成部の処理を示すフローチャートである。 情報表示装置のUI生成部が生成する表示イメージの例を示す図である。 情報表示装置のUI生成部が生成する表示イメージの例を示す図である。 情報表示装置のUI生成部が生成する表示イメージの例を示す図である。 情報表示装置のUI生成部が生成する表示イメージの例を示す図である。 情報表示装置のUI生成部が生成する表示イメージの例を示す図である。 情報表示装置のUI生成部が生成する表示イメージの例を示す図である。 情報表示装置のUI生成部の処理を示す表示イメージの例を示す図である。 情報表示装置のUI生成部の処理を示す表示イメージの例を示す図である。 情報表示装置のUI生成部のレイヤー描画処理イメージの例を示す図である。 情報表示装置の処理を示すフローチャートである。 情報表示装置のUI生成部の表示切替の表示イメージ例を示す図である。 表示イメージ上の撮像装置の状態を示した例を示す図である。 表示イメージ上の撮像装置の状態を示した例を示す図である。 表示イメージ上の撮像装置の状態を示した例を示す図である。 表示イメージ上の撮像装置の状態を示した例を示す図である。 表示イメージ上の撮像装置の状態を示した例を示す図である。 表示イメージ上の撮像装置の状態をリストして示した例を示す図である。 情報表示装置の表示処理のフローチャートである。 撮像装置の状態をリスト表示した例を示す図である。 リスト表示の切り替え動作のイメージ図である。 撮像装置を操作する操作UIの例を示す図である。 撮像装置を操作する操作UIの例を示す図である。 情報表示装置の機能的な構成の変形例を示す図である。 情報表示装置の画像表示処理の一例を説明するフローチャートである。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置の操作UIによる撮像装置の設定のための処理を示すフローチャートである。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置により表示される表示イメージの一例を示す図である。 情報表示装置により表示される表示イメージの一例を示す図である。
 以下、図面を参照して、実施形態を説明する。本実施形態では、撮影対象であり、撮像装置の設置場所である競技場を模した画像上に、各撮像装置の設置位置、撮像装置間のネットワーク接続関係、及び各撮像装置と撮像対象エリアとの関係のうち少なくとも1つ以上を表示する例を説明する。
 図1は、本実施形態の表示システムの構成の一例を示す図である。本実施形態の表示システムは、複数の撮像装置100-1、100-2、・・・100-Mを有する撮像システム100と、画像生成装置200と、ユーザ端末300と、情報表示装置400と、分配装置500とを有する。各々の装置は、画像や制御情報を伝送する為の伝送ケーブルを介して相互に通信可能に接続される。伝送ケーブルの具体例としては、ETHERNET(登録商標)であるIEEE標準準拠のGBE(ギガビットイーサーネット)や10GBEが挙げられる。ただし、伝送ケーブルは、これらに限定されず、他の種別のケーブルであってもよい。また、各々の装置は無線通信を行ってもよい。
 撮像システム100は、M個の撮像装置(撮像装置100-1、100-2、・・・、100-M)を有する。以下、特定の撮像装置を示さない場合、撮像装置100-1、100-2、・・・、100-Mを、撮像装置100-Xと称する。なお、ここで記載されるM、N(後述)、Xは、整数値を示す。
 相互に隣り合う位置にある撮像装置100-X同士(例えば、撮像装置100-1と撮像装置100-2)は、伝送ケーブルを介して相互に接続される。撮像装置100-Xは、撮像画像や撮像装置100-Xの状態情報を画像生成装置200および情報表示装置400へ伝送する。状態情報については後述する。図1では、撮像装置100-1は、撮像装置100-2と相互に接続される。また、撮像装置100-2は、撮像装置100-1に加え、撮像装置100-2と隣り合う位置にある不図示のもう1つの撮像装置と相互に接続される。そして、撮像装置100-Nは、撮像装置100-Nと隣り合う位置にある不図示の撮像装置と相互に接続される。また、撮像装置100-Nは、分配装置500と相互に接続される。なお、撮像装置間はデイジーチェーンにより接続される例を示すが、例えばスター型接続など他の接続形態により接続されてもよい。本実施形態では、こうした接続グループが2つある。つまり、もう一つは、撮像装置100-(N+1)から撮像装置100-Mまでの撮像システムも同様の接続を行う。なお、この接続グループの数は2つに限らず、1つでも3つ以上あってもよい。
 撮像装置100-Xは、サッカー場などの競技場や特定の被写体を取り囲むように配置される。図2は、撮像装置100-Xの配置の一例を示す図である。図2に示す例では、サッカー場などの競技場210の全てまたは一部の範囲が複数の撮像装置100-Xで撮像されるように、複数の撮像装置100-Xが配置される。
 複数の撮像装置100-Xは、例えばデジタルカメラであり、不図示の同期装置からの同期信号に基づき、同じタイミングで撮像を行う。撮像装置100-Xにより撮像された画像は、伝送ケーブルと分配装置500とを介し、画像生成装置200および情報表示装置400に伝送される。撮像装置100-Xは、静止画像を撮像するカメラであっても、動画像を撮像するカメラであっても、静止画像および動画像の双方を撮像するカメラであってもよい。本実施形態では、画像という文言を特に断りがない限り静止画および動画を含むものとして説明を行う。
 画像生成装置200は、分配装置500を介して撮像装置100-Xと相互に接続される。また、画像生成装置200は、ユーザ端末300や情報表示装置400とも相互に接続される。画像生成装置200は、撮像装置100-Xにより撮像された画像を蓄積する。画像生成装置200は、ユーザ端末300の操作に基づく仮想視点情報を入力した場合、複数の撮像装置100-Xにより撮像された画像を用いて、仮想視点情報に対応した仮想視点画像を生成する画像生成装置200は、生成した仮想視点画像を、ユーザ端末300に伝送する。ここで、仮想視点情報には、位置情報と方向情報とが少なくとも含まれる。位置情報は、競技場210の中央などの所定位置に対する相対的な位置(例えば、所定位置を基準とした場合の、前後方向、左右方向及び上下方向の位置)を示す情報である。なお、位置情報は絶対的な座標を示す情報であってもよい。方向情報は、その所定位置からの向き(例えば、所定の位置を原点とし、前後方向、左右方向及び上下方向を軸とする3次元直交座標系での各軸からの角度)を示す情報である。また、方向情報は、絶対的な方向を示す情報であってもよい。仮想視点情報は、仮想視点画像を生成するための、視点の位置及び視線の方向を示す情報である。また、仮想視点情報は、仮想視点画像を生成するための仮想カメラの位置姿勢を示す情報である。
 画像生成装置200は、例えば、サーバ装置であり、データベース機能(画像保存部202として後述)や、画像処理機能(仮想視点画像生成部203として後述)を有する。画像生成装置200が用いるデータベースは、競技の開始前の競技会場の場面など、予め選手などの特定の被写体が存在しない状態の競技会場の場面を撮像した画像を背景画像データとして、予め保持する。背景画像データは、撮像画像から特定の被写体を抽出するための前景背景分離処理に用いられる。
 ユーザ端末300は、操作用のコントローラを有する。ユーザ端末300は、ユーザのコントローラの操作に基づいて、例えば、仮想視点の位置の移動、仮想視点の視線方向の変更、および視点の切り替えの指示を受け付け、その内容を示す伝送信号を仮想視点情報として画像生成装置200へ伝送する。また、ユーザ端末300は、画像生成装置200から受信した仮想視点画像をユーザ端末300に備えた表示画面に表示する。仮想視点画像は、静止画像であっても動画像であってもよい。ここで、ユーザ端末300は、例えば、PC(PERSONAL COMPUTER)やタブレットであり、コントローラは、例えば、マウス、キーボード、6軸コントローラ、およびタッチパネルの少なくとも1つを有する。
 情報表示装置400は、分配装置500を介して撮像装置100-Xや画像生成装置200と相互に接続される。情報表示装置400は、撮像装置100-Xにより撮像された撮像画像や撮像装置100-Xの状態情報を受信し、後述する表示画面(表示部404)に表示する。また、情報表示装置400は、撮像装置100-Xの設置場所や撮像装置間の接続関係や属するグループの情報などをデータベースから取得し、取得した情報を表示画面に表示する。また、情報表示装置400は、画像生成装置200の状態情報も受信し、表示画面に表示する。情報表示装置400に表示された情報を監視担当者が閲覧する。監視担当者は、情報表示装置400の表示画面に表示された撮像画像などを用いて撮像システム100や画像生成装置200の状態を定常的に監視する。
 分配装置500は、撮像装置100-Xから受信した撮像画像を、画像生成装置200および情報表示装置400に分配する。
 次に、撮像装置100-Xの構成の一例について説明する。図3は、撮像装置100-Xのハードウェアの構成の一例を示す図である。撮像光学系301(光学レンズ系)は、被写体からの光を撮像素子302に結像する。撮像素子302は、結像された光を電気信号に変換し、その電気信号をA/Dコンバータ303に出力する。A/Dコンバータ303は、入力された電気信号をデジタル信号に変換し、変換したデジタル信号を画像処理回路304に入力する。尚、撮像素子302は、受光面上に結像された像による光信号を、対応する位置の受光画素毎に電気信号に変換する光電変換素子である。
 システムコントローラ308は、例えば、CPU(CENTRAL PROCESSING UNIT)、ROM(READ ONLY MEMORY)、RAM(RANDOM ACCESS MEMORY)などを有する。システムコントローラ308は、ROMに記録されたコンピュータプログラムを実行すること等により撮像装置100-Xを制御する。
 画像処理回路304は、A/Dコンバータ303から入力したデジタル信号(画像信号)に対して各種の画像処理を行う。画像処理としては、例えば、例えば、ホワイトバランス調整、色補正、およびガンマ補正などが含まれる。画像処理回路304により画像処理された画像信号は記録媒体307に保存されたり、表示装置305により表示されたりする。また、画像処理回路304は、撮像部102から入力された撮像画像のうち、競技場210で競技中に撮像された画像から選手などの被写体を抽出する処理を実行する。
 撮像光学系制御回路306は、システムコントローラ308からの制御信号に基づいて、撮像光学系301に含まれるレンズなどを駆動する。なお、図示した撮像装置100-Xの構成は例示であり、必ずしもすべての構成を有する必要はないし、他の構成を有していてもよい。例えば、表示装置305は撮像装置100-Xに必須の構成ではない。
 図4は、本実施形態の撮像装置100-Xの機能的な構成の一例を示す図である。図5は、本実施形態の撮像装置100-Xの動作の一例を説明するフローチャートである。尚、図5のフローチャートは、例えば、撮像装置100-Xで撮像画像が得られる度に実行される。図5のフローチャートに示す処理は、システムコントローラ308が情報の演算や各ハードウェアを制御することで実現される。なお、図5のフローチャートの少なくとも一部のステップが専用のハードウェアにより実行されてもよい。専用のハードウェアは、例えば、ASICやFPGAである。
 図4に示す通り、撮像装置100-Xは、レンズ部101、撮像部102、前景背景分離部103、状態情報保持部104、出力部105、制御部106、及び制御信号入力部107を有する。これらは、内部バス108によって相互に接続され、制御部106による制御の下、相互にデータを送受信することができる。なお、図4のレンズ部101は図3の撮像光学系301及び撮像光学系制御回路306に対応し、図4の撮像部102は図3の撮像素子302及びA/Dコンバータ303に対応する。また、図4の前景背景分離部103が実行すべき処理は図3の画像処理回路304により実行される。また、図4の状態情報保持部104、出力部105、制御部106、及び制御信号入力部107の機能は、図3のシステムコントローラ308により実現される。また、図5の処理は、図3のシステムコントローラ308が記録媒体307に記憶された各種プログラムを読み出して各部の制御を実行することにより実現される。以下、各部の構成の一例を詳細に説明する。
 レンズ部101は、撮像部102の前段に設置されており、撮像対象からの入射光を撮像部102へ結像する。レンズ部101は、レンズのズームやフォーカスを調整することができる。撮像部102は、レンズ部101により結像された入射光の露出動作を行い電気信号に変換する。また、撮像部102は、変換後の信号に対して、センサの出力の欠損やレンズ光学特性のバラつきの補正などの信号処理を施す。また、撮像部102は、信号処理の結果に基づいて、RAW、JPEG(JOINT PHOTOGRAPHIC EXPERTS GROUP)、もしくはBMP(BITMAP IMAGE)などの画像フォーマットの撮像画像に変換する。撮像画像は、前景背景分離部103へ出力される。本実施形態では、以上のようにして撮像画像が取得される(S501)。
 前景背景分離部103は、撮像部102から入力された撮像画像のうち、競技場210で競技中に撮像された画像から選手などの特定の被写体を抽出し、「前景画像データ」として後段の出力部105へ出力する(S502)。また、前景背景分離部103は、競技の開始前の競技場210の場面など、予め被写体が存在しない状態の競技場210の場面を撮像した画像を「背景画像データ」として、出力部105へ出力する(S502)。なお、前景背景分離部103が撮像画像から特定の被写体を除いた残りの画像を背景画像データとして出力部105へ出力するようにしてもよい。以下、前景背景分離していない撮像画像を、「前景画像データ」および「背景画像データ」と区別するために「前景背景分離前画像データ」と称する。
 図6は、「前景背景分離前画像データ」、「前景画像データ」、および「背景画像データ」の一例を示すイメージ図である。図6Aは、「前景背景分離前画像データ」の一例を示す図である。ここでは、前景背景分離前画像データは、競技場210であるサッカー場で、2人の選手611、612と、サッカーボール620と、サッカーゴール630とを含む撮像画像である。図6Bは、「前景画像データ」の一例を示す図である。ここでは、2人の選手611、612と、サッカーボール620とが「前景画像データ」として抽出される場合を例に挙げて示す。これらは、それぞれ別の「前景画像データ」として扱われる。つまり図6Bでは、3つの前景画像データが生成される。尚、本実施形態では、「前景画像データ」を矩形データとして扱う(図6Bの破線を参照)。図6Cは、「背景画像データ」の一例を示す図である。サッカーゴール630など、競技中ほとんど時間変化のない被写体は「背景画像データ」として扱われる。
 特定の被写体である前景の分離方法として、例えば、オブジェクト抽出を含む画像処理を用いた方法を用いることができる。オブジェクト抽出は、撮像画像と背景画像との差分を抽出することにより行われる。尚、前景は、競技する選手だけでなく、例えば、他の特定人物(例えば、控え選手、監督、審判の少なくとも何れか1人)であってもよい。また、前景は、ボールやゴールなど、画像パターンが予め定められている物体であってもよい。また、前景を検出するその他の方法として、例えば、動体が検出されるようにしてもよい。
 状態情報保持部104は、撮像装置100―Xの状態情報を保持し、その状態が変化した時などに、その情報を出力部105へ出力する(S503)。状態情報には少なくとも以下のいずれかを含む。
・撮像装置100-Xの通信接続状態(接続、非接続など)
・撮像装置100-Xの撮影状態(撮影中、準備中、電源OFF中、電源ON中など)
・撮像装置100-Xの動作状態(ズーム動作中、フォーカス動作中、アイリス設定中など)
・撮像装置100-Xの出力状態(「前景画像データ」や「背景画像データ」を画像生成装置200へ出力中など)
・撮像装置100-Xのエラー有無状態(正常、温度エラー、レンズエラーなど)
・撮像装置の構成状態(雲台有り、マイク有り、ズームレンズ有り、など)
・撮像装置の撮影パラメータ(絞り値(アイリス)、シャッタースピード、ホワイトバランス、露出値、ISO感度、ズーム、フォーカス、NDフィルタ、撮影モードなど)
 また、状態情報は、撮像装置100-Xがデイジーチェーン上の何段目に接続されているかを示す情報、アドレス情報または属するネットワークのネットワーク識別子などのネットワーク構成を示す情報であってもよい。
 出力部105は、前景背景分離部103から出力された「前景画像データ」や「背景画像データ」を、分配装置500を介して、画像生成装置200および情報表示装置400へ所定のフレームレートで出力する(S504)。また、出力部105は、状態情報保持部104から出力された状態情報を、他の撮像装置100-Xや分配装置500を介して、情報表示装置400へ出力する(S504)。尚、出力するタイミングは、各状態が変化した場合や撮像装置100-Xが起動した場合である。また、出力部105は、撮像装置100-Xが撮影を行うフレームレートに準じたタイミングでデータを出力してもよい。
 制御部106は、制御信号入力部107や不図示のユーザI/F部からの制御情報に基づき、撮像装置100-Xの各部に制御指示を出す。例えば、制御部106は、ユーザI/F部または制御信号入力部107から、アイリスやISOなどの露出調整のための調整パラメータを受信すると、撮像部102に対して、当該露出制御を行う。
 制御信号入力部107は、後述の情報表示装置400からの制御信号を入力し、制御部106へ出力する。情報表示装置400からの制御信号は、撮影パラメータを設定するための信号であり得る。例えば、撮影パラメータは、ズーム、フォーカス、アイリス、ISO、シャッタースピード、NDフィルタ切替などがある。
 なお、図示した撮像装置100-Xの構成の一部を他の装置が有する構成としてもよい。例えば、前景背景分離部103は、撮像装置100-Xと異なる装置が有する構成としてもよい。また、出力部105は、他の装置が有し、他の装置が、撮像装置100-Xから取得したデータを出力する構成としてもよい。
 次に、画像生成装置200、情報表示装置400及びユーザ端末300の構成の一例について説明する。図7は、画像生成装置200、情報表示装置400及びユーザ端末300のハードウェアの構成の一例を示す図である。装置7000(ユーザ端末300、画像生成装置200または情報表示装置400)は、コントローラユニット700、操作ユニット709、および表示装置710を含む。
 コントローラユニット700は、CPU701を有する。CPU701は、ROM702に格納されているブートプログラムによりOS(OPERATING SYSTEM)を起動する。CPU701は、このOS上で、HDD(HARD DISK DRIVE)704に格納されているアプリケーションプログラムを実行する。CPU701は、アプリケーションプログラムの実行によって各種処理を実現する。CPU701の作業領域としてはRAM703が用いられる。HDD704は、アプリケーションプログラムなどを格納する。
 CPU701は、システムバス708を介して、ROM702、RAM703、操作部I/F705、表示部I/F706、および通信I/F707と相互に接続される。操作部I/F705は、操作ユニット709とのインタフェースである。操作部I/F705は、操作ユニット709によってユーザにより入力された情報をCPU701に送出する。操作ユニット709は、例えば、マウスおよびキーボードなどを有する。表示部I/F706は、表示装置710に表示すべき画像データを表示装置710に対して出力する。表示装置710は、コンピュータディスプレイを有する。通信I/F707は、例えばイーサネット(登録商標)などの通信を行うためのインタフェースであり、伝送ケーブルに接続される。通信I/F707は、伝送ケーブルを介して、外部装置との間で情報の入出力を行う。なお、通信I/F707は、無線通信を行うための回路やアンテナであってもよい。また、装置7000は、ケーブルやネットワークを介して接続された外部の表示装置710に画像を表示させる表示制御を行うことも可能である。この場合、装置7000は、表示データを表示装置710に出力することで表示制御を実現する。なお、図7で示した構成のすべてが画像生成装置200または情報表示装置400において必須の構成とは限らない。例えば画像生成装置200において、表示装置710は必須の構成ではない。
 図8は、本実施形態の画像生成装置200の機能的な構成の一例を示す図である。図9は、本実施形態の画像生成装置200の動作の一例を説明するフローチャートである。画像生成装置200は、図8に示す通り、画像入力部201、画像保存部202、仮想視点画像生成部203、出力部204、制御部205、およびユーザ入力部206を有する。これらは、内部バス207によって相互に接続され、制御部205による制御の下、相互にデータを送受信することができる。なお、図8の画像入力部201は図7の通信I/F707に対応し、図8のユーザ入力部206は図7の操作部I/F705に対応し、図8の出力部204は図7の表示部I/F706及び通信I/F707に対応する。また、図8の画像保存部202は図7のROM702、RAM703、HDD704に対応し、制御部205はCPU701に対応する。また、図9の処理は、図7のCPU701がROM702に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。以下、各部の一例を詳細に説明する。なお、図9のフローチャートの少なくとも一部のステップが専用のハードウェアにより実行されてもよい。専用のハードウェアは、例えば、ASICやFPGAである。
 画像入力部201は、撮像装置100-Xから出力された「前景画像データ」および「背景画像データ」を、分配装置500を介して、各々異なる所定のフレームレートで入力する(S901)。そして、画像入力部201は、入力した「前景画像データ」および「背景画像データ」を画像保存部202へ出力する。尚、撮像装置100-Xから出力された「前景画像データ」および「背景画像データ」を入力していない場合、S902を省略して後述のS903に進む。
 画像保存部202は、データベースであり、画像入力部201から入力された「前景画像データ」および「背景画像データ」を保存する(S902)。また、画像保存部202は、後述の仮想視点画像生成部203から指定された「前景画像データ」および「背景画像データ」を仮想視点画像生成部203へ出力する。
 仮想視点画像生成部203は、制御部205から仮想視点情報を入力したか否かを判定する(S903)。仮想視点情報の生成方法の一例については後述する。この判定の結果、制御部205から仮想視点情報を入力していない場合、S901に戻る。一方、制御部205から仮想視点情報を入力している場合、仮想視点画像生成部203は、仮想視点情報に対応する「前景画像データ」および「背景画像データ」を、画像保存部202から取得する(S904)。
 そして、仮想視点画像生成部203は、画像保存部202から取得した「前景画像データ」および「背景画像データ」を画像処理により合成することで仮想視点画像を生成し、出力部105に出力する(S905)。
 仮想視点画像を生成する方式として、例えば、モデルベースレンダリング(MODEL-BASED RENDERING:MBR)を用いる方式が挙げられる。MBRとは、被写体を複数の方向から撮像した複数の撮像画像に基づいて生成される三次元モデルを用いて仮想視点画像を生成する方式である。具体的にMBRは、視体積交差法、MULTI-VIEW-STEREO(MVS)などの三次元形状復元手法により得られた対象シーンの三次元形状(モデル)を利用し、仮想視点からのシーンの見えを画像として生成する技術である。尚、仮想視点画像の生成方法は、MBRを用いる方法に限定されず、例えば、イメージベースレンダリングなどMBR以外のレンダリング手法を用いてもよい。
 出力部204は、仮想視点画像生成部203から入力した仮想視点画像をユーザ端末300へ伝送可能な伝送信号に変換して出力する(S906)。
 ここで、前述したようにユーザ端末300は、ユーザ端末300に接続されたコントローラのユーザによる操作に基づいて、仮想視点の位置、視線の方向の変更、および視点の切り替えの指示を受け付ける。そして、ユーザ端末300は、その内容を示す伝送信号を画像生成装置200へ伝送する。ユーザ入力部206は、このようにしてユーザ端末300を通して入力された伝送信号を処理可能な仮想視点情報に変換する。そして、ユーザ入力部206は、その仮想視点情報を制御部205に出力する。
 制御部205は、ユーザ入力部206からの仮想視点情報に基づき、画像生成装置200の各部に制御指示を出す。例えば、ユーザ入力部206から、仮想視点の情報を受信すると、仮想視点画像生成部203に制御情報として送信する。前述したように、仮想視点画像生成部203は、仮想視点情報を入力すると、仮想視点画像を生成して出力する。
 なお、図示した画像生成装置200の構成の一部を他の装置が有する構成としてもよい。例えば、画像保存部202と仮想視点画像生成部203とを別々の装置として構成してもよい。
 ユーザ端末300は、ユーザからの仮想視点の位置や方向を受け付け、画像生成装置200から受信したユーザから受け付けた仮想視点の位置や方向に応じた仮想視点画像をユーザ端末300に備えた表示画面に表示する。このようにすることで、ユーザは、自身の操作に基づく視点でコンテンツを視聴する。前述したように、ユーザ端末300は、例えば、PC(PERSONAL COMPUTER)やタブレットであり、コントローラは、例えば、マウス、キーボード、6軸コントローラ、タッチパネルである。ユーザは、これらを用いて仮想視点を操作し、ユーザ端末300に備えた表示画面に任意の視点からの仮想視点画像を表示させる。
 次に、情報表示装置400の構成の一例について説明する。図10は、本実施形態の情報表示装置400の機能的な構成の一例を示す図である。図11は、本実施形態の情報表示装置400の動作の一例を説明するフローチャートである。情報表示装置400は、後述のデータ保持部401に保持されている情報と、状態取得部405が取得した情報から撮像装置100-Xや画像生成装置200の状態を示す表示を行う表示装置の一例である。情報表示装置400は、データ保持部401、データ読出部402、UI生成部403、表示部404、状態取得部405、制御部406、ユーザ入力部407、及び制御信号出力部408を有する。これらは、内部バス409によって相互に接続され、制御部406による制御の下、相互にデータを送受信することができる。なお、図10のデータ保持部401は図7のHDD704に対応し、図10のデータ読出部402、UI生成部403、及び制御部406は、図7のCPU701に対応する。また、図10の状態取得部405、及び制御信号出力部408は図7の通信I/F707に対応し、図10の表示部404は、表示部I/Fと表示装置710に対応する。また、図11や情報表示装置400が行う後述の処理は、図7のCPU701がROM702に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。以下、各部の構成の一例を詳細に説明する。なお、図11や情報表示装置400が行う後述のフローチャートの少なくとも一部のステップが専用のハードウェアにより実行されてもよい。専用のハードウェアは、例えば、ASICやFPGAである。
 データ保持部401は、UI生成部403がUIを表示するために必要なデータを保持する。当該データには少なくとも以下のいずれかを含む。
・競技場210のレイアウトデータ
・撮像装置100-Xの識別情報
・撮像装置100-Xが属する接続グループ情報
・撮像装置100-Xの接続先
・撮像装置100-Xの設置エリア
・撮像装置100-Xの設置座標情報
・撮像装置100-Xの撮影対象エリア
・撮像装置100-Xの撮影対象エリアの中心座標情報
・撮像装置100-Xの撮影対象エリアの有効エリア情報
・撮像装置100-Xの設置エリアの領域情報
 図12にデータ保持部401が保持するデータ例を示す。図12に示すデータでは、例えば、「撮像装置100-1」が「L1」という通信接続グループに属し、「撮像装置100-2」と相互に接続され、「R1」というエリアの、座標(x1、y1)に設置されることを示している。なお、設置座標情報は、所定の位置(例えば、競技場210の中央)を原点とした場合のXY座標情報である。
 また、データ保持部401が保持する他のデータ例を図13に示す。エリア中心座標(図12で示す撮影対象エリアの中心座標を示す情報)は、所定の位置(例えば、競技場210の中央)を原点とした場合のXY座標情報である。なお、共通の撮影対象エリアを撮影する撮像装置100-Xのグループは、その光軸をエリア中心座標が示す位置に向けるように設置されるものとする。即ち、同じ撮影対象エリアを撮影する撮像装置100-Xが撮影する画像の中心は、どの撮像装置100-Xにおいても、同じエリア中心座標が示す位置となる。また有効エリア情報とは、中心座標からの半径で示された領域である。なお、仮想視点画像は、共通の撮影対象エリアを撮影する撮像装置100-Xが撮影した画像を用いて生成される。
 また、データ保持部401が保持する他のデータ例を図14に示す。頂点座標は少なくとも3つ以上の頂点の座標情報からなり、これらの座標情報で囲まれる領域が設置エリアの領域である。
 データ保持部401は、これらの情報をユーザによる操作に応じた入力により取得してもよいし、撮像装置100-Xからの状態情報に基づいて取得してもよい。なお、データ保持部401は、情報表示装置400内にある必要はなく、外部の記録装置にあってもよい。また、撮像装置100-Xに関する情報を保持するデータ保持部401は、各々の撮像装置100-X内にあってもよい。
 データ読出部402は、データ保持部401から各種データを読出し、UI生成部403へ出力する(S1101)。UI生成部403は、データ読出部402から出力されたデータと、状態取得部405から出力された状態情報を元に、システムや撮像装置100-Xの状態を示す情報であるUI画像を生成する(S1102)。状態情報、及びUI画像例については後述する。そしてUI生成部403は、生成したUI画像を表示イメージとして表示部404に出力する。
 表示部404は、フレームバッファおよび表示パネルを有する。表示部404は、UI生成部403から出力された表示イメージをフレームバッファに格納する(上書きする)。そして、表示部404は、フレームバッファに格納した表示イメージを所定のリフレッシュレートで読み出して表示パネルにて表示する(S1103)。表示パネルとは、例えば、液晶パネルや有機ELパネルである。
 状態取得部405は、各撮像装置100―Xの状態情報や画像生成装置200の状態情報を取得し、UI生成部403へ出力する。UI生成部403は、前記状態情報が変化している場合は、生成したUI画像を更新する(S1104、S1105)。
 制御部406は、ユーザ入力部407からの操作情報に基づき、情報表示装置400の各部に制御指示を出す。例えば、制御部406は、ユーザ入力部407から表示イメージ種別の切替指示を示す操作情報を受信すると、その操作情報を該当する表示イメージ種別に変換し、UI生成部403に送信する。表示イメージの具体的な内容の一例については後述する。
 ユーザ入力部407は、不図示のコントローラから入力された操作情報を受け付け、制御部406に出力する。コントローラは、例えば、キーボード、マウス、およびタッチパネルの少なくとも何れか1つである。制御信号出力部408は、制御部406からの制御信号を外部に出力する。出力先は例えば撮像装置100-Xである。制御信号は、例えば、撮像装置100-Xのズーム、フォーカス、アイリス、ISO、シャッタースピード、NDフィルタ切替などの撮影パラメータを設定するための信号である。
 (競技場レイアウト表示の説明)
 図15は、本実施形態の情報表示装置400により表示される表示イメージの一例を示す図である。図15では、競技場210を示す情報(1201)上に、以下の情報を表示する。
・撮像装置100-Xを設置する設置エリア(例えば、1202が示すエリア)
・撮像装置100-Xとその設置位置(例えば、1203が示す円形部)
・撮像装置100-X間の接続関係及び接続状態(例えば、1204が示す線)
・撮影対象エリア(例えば、1205が示す破線の円形エリア)
・撮影対象エリアの中心点(例えば、1206が示す六角形)
・撮像装置100-Xの撮影対象とするエリア(例えば、1207が示す点線)
 また、図15において、情報表示装置400は、画像生成装置200や情報表示装置400と撮像装置100-Xとの接続状態を表示する。なお、図15において、情報表示装置400は、画像生成装置200などはスタジアム外の放送中継車内等に設置される場合があるため、図15ではこれらを中継車と記載している。
 このように図15のような表示を行うため、情報表示装置400は、複数の撮像装置を有する撮像システムに関する情報を一見してユーザに把握させることができる。また、情報表示装置400は、どの撮像装置がどこに配置され、どのように接続されているかを表示させることができる。また、例えば、情報表示装置400は、通信エラーが生じた接続経路の線1204を非表示とする。また、例えば、情報表示装置400は、撮影可能な状態である撮像装置100-Xを示す円形部1203と、故障や調整中であり撮影可能な状態でない撮像装置100-Xを示す円形部1203とを識別可能するための表示をさらに行う。また、情報表示装置400は、撮影可能な状態でない撮像装置100-Xを示す円形部1203を非表示としてもよい。また、情報表示装置400は、データ保持部401で保持しているデータと、撮像装置100-Xから取得した状態情報が示すデータとが対応しない場合、エラーを表示してもよい。例えば、データ保持部401で保持している撮像装置100-間の接続関係と、状態情報により示される撮像装置100-X間の実際の接続関係が異なる場合、警告を表示する。このようにすることで、ユーザに、故障が生じた撮像装置を容易に特定させ、どこに配置されているかを容易に把握させることができる。また、情報表示装置400は、複数の撮像装置のそれぞれの撮影対象エリアを示す情報を表示するので、撮像装置に故障が生じた場合に、不具合が生じる仮想視点の位置をユーザに把握させることができる。また、情報表示装置400は、複数の撮像装置のそれぞれの撮影対象エリアを示す情報を表示するので、撮像システムが仮想視点画像を生成するために十分な撮像画像を撮影できる設置となっているか否かをユーザに把握させることができる。
 なお、情報表示装置400は、図15において例示したすべての情報を表示する必要はなく、これらのうち一部のみを表示するようにしてもよい。即ち、情報処理装置400は、撮像装置100-Xの設定場所に関する情報、撮像装置100-Xの通信接続に関する情報、撮像装置100-Xの撮影対象エリアに関する情報などの複数種類の情報のうち少なくとも何れか一つを表示する構成としてもよい。例えば、情報処理装置400は、撮像装置100-Xの設定場所に関する情報を表示することで、撮像システム100の複数の撮像装置それぞれがどのエリアにどのように配置されているかをユーザに容易に把握させることが可能になる。また、情報表示装置400は、撮像装置の通信接続に関する情報を表示することでネットワーク構成をユーザは容易に把握させることができる。また、撮像装置100-Xの通信接続に関する情報の表示により、ネットワーク障害が生じた場合には、ユーザは影響が生じる撮像装置100-Xを容易に識別でき、修理などの対応を即座に行うことが可能となる。また、情報表示装置400は、撮像装置100-Xの撮影対象エリアに関する情報を表示することで、撮像システム100の複数の撮像装置それぞれが注視する撮影領域を容易にユーザに把握させることが可能となる。また、撮像装置100-Xの撮影対象エリアに関する情報を表示することで、ユーザは、仮想視点画像を生成するうえで必要な様々な角度からの多視点撮影が十分に行われているか否かを容易に把握することが可能となる。図16は、情報表示装置400のUI生成部403が、図15の表示イメージを生成するための処理フローである。また図17~図22は、フロー内の各処理によって描画される具体的な表示イメージである。なお、処理順序はこれに限定されない。また、図16の処理及び後述する各表示処理は、図7のCPU701がROM702に記録された各種プログラムを読み出して各部の制御を実行することにより実現される。以下、各部の構成の一例を詳細に説明する。なお、図16や各表示処理のフローチャートの少なくとも一部のステップが専用のハードウェアにより実行されてもよい。専用のハードウェアは、例えば、ASICやFPGAである。
 UI生成部403は、データ読出部402から出力された競技場210のレイアウトデータを描画する(S1401、図17)。その後、UI生成部403は、競技場210の中で撮像装置100-Xを設置するエリアを描画する(S1402、図18)。ここでは設置エリアは4つある(R1、R2、R3、及びR4)。これらのエリアは図14に示した座標情報を元にしている。その後、UI生成部403は、撮像装置100-Xをそれぞれが属する設置エリア内に配置する(S1403、図19)。これらは図12に示した設置エリアや設置座標情報を元にしている。その後、UI生成部403は、各撮像装置100-X間の接続関係を描画する(S1404、図20)。ここでは2つの接続グループがある(L1、L2)。これらは図12に示した接続グループ情報及び接続先の情報を元にしている。なお、UI生成部403は、撮像システム100から取得した状態情報に基づいて、撮像システム100のネットワーク接続を示す表示イメージを動的に作成してもよい。また、UI生成部403は、生成した撮像システム100のネットワーク接続が、事前に記憶していた正しいネットワーク構成と異なる場合、エラーを表示してもよい。その後、UI生成部403は、各撮像装置100-Xが撮影対象とするエリアを描画する(S1405、図21)。ここでは二つの撮影対象エリアがある。これらはそれぞれ撮影エリアの中心点(1206)と、撮影エリアの有効エリア(1205)から成る。有効エリアは仮想視点映像を生成するために適した領域を示す。これらは図13に示した情報を元にしている。なお、後述するように、図17~図22で示す画像は、それぞれ別レイヤーの画像として描画される。その後、UI生成部403は、各撮像装置100-Xと撮影対象エリアを関連付ける情報としてこれらを結線する(S1406、図22)。同一エリアに撮像装置100-Xが多数あると、図23Aに示すように、撮像装置100-X(1203-2)と撮影対象エリアを結線したもの(1207―2)が別の撮像装置100-X(1203-1)と交差することがある。UI生成部403は、このような交差の有無を確認(S1407)し、交差が発生する場合は、交差した撮像装置100-Xの描画位置を同一エリア内で交差しない位置へ再配置する(1408)。即ち、情報表示装置400は、撮像装置100-Xを示す情報と、撮影対象エリアの中心点とを結ぶ線がいずれも重ならないように表示制御を行う。このようにすることで、各撮像装置100-Xの撮影対象エリアをユーザが容易に知ることができるようになる。ただし、撮像装置100-Xの位置を移動させなくても良い。
 (レイヤー表示とユーザ操作による表示切替)
 なお、UI生成部403は、図16の処理フローによって表示イメージを描画する際、図12~図14の情報を元に、レイヤーを分けて描画する。ここでレイヤーとは、UI生成部403が内包するフレームバッファと同サイズの複数の記録領域であり、具体的には、図7のRAM703の一部に該当する。UI生成部403は複数の描画レイヤーを重ねあわせることで、図15の表示イメージを生成する。
 個々の描画レイヤーは、具体的には以下が描画される。
・競技場210(S1401、図17に図示)
・各エリア(S1402、図18に図示)
・撮像装置100-X(S1403、図19に図示)
・各接続グループ(S1404、図20に図示)
・各撮影対象エリア(S1405、図21に図示)
・撮像装置100-Xと撮影対象エリアの結線(S1406、図22に図示)
 上述のとおり、本実施形態の撮像装置の設置エリアはR1、R2、R3及びR4の4つのである。そのため、S1402では、4つのレイヤーが使用される。同じく接続グループはL1、L2の2つである。そのため、S1403では2つのレイヤーが使用される。図24は、UI生成部403のレイヤー描画処理イメージ例である。最下層に図17の1201に該当する競技場210が描画され、その上部のレイヤーに各エリアのレイヤーが重ねあわされる。そして、最上部に各撮像装置100-Xと撮像最少エリアの結線を描画したレイヤーが重ねあわされる。なお、各レイヤーの重ね合わせの順序は適宜組み替えてもよい。また、必ずしも複数のレイヤーを重ね合わせなければならないわけではない。例えば、図17の画像に、図18~22で示した内容を追記することで、図15に示すような表示イメージが生成されるようにしても良い。しかしながら、複数のレイヤーごとに描画処理を行うことによって、表示イメージの切替えが容易になるというメリットがある。係る点について、以下で詳述する。
 図25は、ユーザ入力部407を介して入力された操作情報に基づいて、図15で描画した表示イメージの表示を切り替える処理フローである。ユーザ入力部407は、キーボードなどのコントローラから操作情報を入力すると、その情報を制御部406へ出力する(S2501)。操作情報を受信した制御部406は、その操作情報を元に表示もしくは非表示にすべき表示内容を特定し、その内容を表示切替指示として、UI生成部403へ出力する。(S2502)。制御部406は、操作情報毎に、表示もしくは非表示にすべき内容を予め有している。
 例えば、キーボードで「A」というキーが押された場合は、L1の接続グループに属するカメラを表示する、などの内容を有している。UI生成部403は、表示切替指示を受けると、該当する描画レイヤーを追加、もしくは削除したのち、残った描画レイヤーを重畳後、表示部404へ出力する(S2503)。
 図26は、図25の処理結果により生成されるUI画像の一例である。これは接続グループL1に属する撮像装置100-Xのみ表示するための表示切替を行った結果である。また、例えば、情報表示装置400は、図25の処理により、エリアR1に設置された撮像装置100-Xのみの情報を表示することができる。また、情報表示装置400は、図25の処理により、任意の撮像装置100-Xのみの情報を表示することができる。また、情報表示装置400は、図25の処理により、共通の撮影対象エリアが設定されている撮像装置100-Xのみの情報を表示することができる。
 なお、表示させるレイヤーをユーザにより選択させる例を示したがこれに限らず、情報表示装置400が表示させるレイヤー自動で選択してもよい。例えば、情報表示装置400は、システムの少なくとも一つの装置が仮想視点画像に不具合が生じ得る状態であることを示す情報を受信した場合、警告をポップアップ表示してもよい。また、この場合、情報表示装置400は、警告をポップアップ表示するとともに、仮想視点画像に不具合が生じ得る状態となった装置の状態を表示するのに適したレイヤーを自動で選択して表示させるようにしてもよい。このようにすることで、ユーザは、仮想視点画像の品質の低下などの不具合が発生し得ることを把握でき、その対策を行うことができる。
 このように、情報表示装置400は、各レイヤーを適宜組み合わせたり、削除したりして撮像システムの状態の表示を行う。したがって、情報表示装置400は、撮像システムが多くの撮像装置を有している場合であっても、所望の撮像装置群の状態のみを表示することができ、視認性を向上させることができる。また、UI生成部403は、上述したレイヤー毎の描画に加えて、各レイヤーの背景色を変更することもできる。例えば、情報表示装置400が照度の低い中継車に配置される場合、背景色を黒ベースにして視認性を高めることができる。また、情報表示装置400が照度の高い野外に配置される場合は、白ベースの背景にして視認性を確保できる。なお、表示させるレイヤーを選択する例を示したが、表示させるレイヤーの選択を行わず、図15に表示する情報のすべてまたは一部のみを固定的に表示するようにしてもよい。
 (撮像装置100-Xの状態表示の説明)
 図27は、図15に示した表示イメージ上の撮像装置100-Xの状態を示した例である。情報表示装置400の状態取得部405は、撮像装置100-Xの状態情報保持部104から撮像装置100-Xの状態情報を取得すると、UI生成部403に出力する。UI生成部403は、その状態情報を元に図15の表示イメージ上の撮像装置100-Xの表示を更新する。図27は、具体的にはある接続グループ(1204)上にある撮像装置100-Xの一部を表示した例である。例えば、撮像装置100-Xの状態の表示には以下のものがある。
・撮像装置100-Xが情報表示装置400や他の撮像装置100-Xと接続して通信可能な状態(図27Aの2401)
・撮像装置100-Xが情報表示装置400や他の撮像装置100-Xと接続しておらず通信不可な状態(図27Aの2402)
 また、情報表示装置400は図27Aに加えて、撮像装置100-X自体の状態も表示する。
・撮像装置100-Xがエラー状態(図27Bの2403)
・撮像装置100-Xがワーニング状態(図27Bの2404)
・撮像装置100-Xがバイパスされている状態(図27Bの2405)
 ここでエラー状態とは、撮像装置100-X内の温度や光学レンズに異常が発生している状態を示す。エラー状態は、撮像装置100-Xが撮像を行えないまたは撮像に不具合が生じ得る状態であってもよい。ワーニング状態とは、エラー状態になりそうな状態であり、動作上問題ないが、所定の温度上昇や、外部の不図示の同期装置との所定以上の同期ずれなどが生じている状態を示す。また、バイパス状態とは、その撮像装置100-Xが使用されておらず接続状態のみ維持されている状態を示す。また、バイパス状態は、撮像装置100-Xが撮影や画像処理を実行できず、データの伝送のみを行っている状態であってもよい。
 また、情報表示装置400は図27A、Bに加えて、撮像装置100-Xの構成状態も表示する。
・撮像装置100-Xにズームレンズが付随(図27Cの2406)
・撮像装置100-Xに集音マイクが付随(図27Cの2407)
・撮像装置100-Xに雲台が付随(図27Cの2408)
 また、情報表示装置400は図27A、B、Cに加えて、撮像装置100-Xの出力状態も表示する。
・撮像装置100-Xが撮像した「前景画像データ」や「背景画像データ」を、分配装置500を介して、画像生成装置200および情報表示装置400へ所定のフレームレートで出力中(図27Dの2409)
 また、情報表示装置400は、撮像装置100-Xの出力するデータの出力先や出力のフレームレートが複数ある場合は、これらを示す情報を表示してもよい。また、情報表示装置400は、撮像装置100-Xが出力する画質の関する情報(データサイズ、画像サイズ及びファイル形式など)の情報を表示してもよい。
 また、情報表示装置400は図27A、B、C及びDに加えて、撮像装置100-Xの機械的な状態も表示する。
・撮像装置100-Xのズームレンズ動作中(図27Eの2410)
 このほか、雲台動作やオートフォーカス動作などもこれに含まれる。
 撮像装置100-Xの状態の表示例を示したが、表示する内容はこれに限定されない。例えば、各撮像装置100-Xと同期装置との同期状態を表示してもよい。またこうした状態情報に加え、各撮像装置に設定した内容や、その作業完了状態なども表示してもよい。
 なお、撮像装置100-Xの状態を、図27の2401~2410に図示するアイコンで示す例を説明したが、メッセージで撮像装置100-Xの状態を表示してもよい。また、撮像装置100-Xの状態を示す情報のうち表示項目を選択可能であってもよい。また、撮像装置100-Xの状態の表示可否も選択可能であってもよい。また、情報表示装置400は、ユーザによる指示操作のためのカーソルの位置に対応する撮像装置100-Xの状態を示す情報を表示するようにしてもよい。また、情報表示装置400は、ユーザによるタッチパネルに対する指示操作に対応する撮像装置100-Xの状態を示す情報を表示するようにしてもよい。また、情報表示装置400は、撮像装置100-Xの状態を示す情報として撮像装置100-Xに設定されている撮影パラメータを表示してもよい。また、情報表示装置400は、撮像装置100-Xの状態が、例えば、エラー状態、ワーニング状態、通信不可な状態またはデータの出力ができない状態など、仮想視点画像の生成に不具合が生じ得る状態の場合に、警告を別途表示してもよい。また、情報表示装置400は、撮像装置100-Xの状態が仮想視点画像の生成に不具合が生じ得る状態の場合に、画像、色またはメッセージにより警告を表示してもよい。また、情報表示装置400は、撮像装置100-Xに限らず、システムの状態が仮想視点画像の生成に不具合が生じ得る状態の場合に、「システムの状態が、仮想視点画像に不具合が生じる恐れがあります。至急、修理や設定の確認を行ってください。」などのようにメッセージで警告表示を行うと共に不具合を解消することを促すための表示を行ってもよい。
 本実施形態によれば、図27に示す撮像装置100-Xの状態を示す情報の表示を行うため、情報表示装置400は、複数の撮像装置を有する撮像システムに関する情報をユーザに把握させることができる。また、情報表示装置400は、どの撮像装置がどのような状態であるかをユーザに容易に把握させることができる。また、例えば、情報表示装置400は、撮影にエラーが生じた撮像装置100-Xを識別可能に表示するため、ユーザは、エラーが生じた撮像装置100-Xを把握させることができる。
 (グループ概要リスト表示の説明)
 図28は、図15に示した表示イメージ上の撮像装置100-Xの状態をリストして示した別の例である。図28は、具体的にはある撮影対象エリア(1205及び1206)を撮影対象としている(結線を結んでいる)一つ以上の撮像装置100-X群の状態の概要をリスト表示した例である。以下、この群を撮影対象エリアグループと呼ぶ。また、図28に示すリスト表示をグループ状態概要リスト表示と呼ぶ。
 例えば、撮影対象エリアグループのグループ概要リスト表示内容に以下のものがある。
・撮影対象エリアグループの撮像装置間の接続状態(接続、非接続)
・撮影対象エリアグループの各撮像装置のエラー状態(エラー有り、無し)
・撮影対象エリアグループの各撮像装置のワーニング状態(ワーニング有り、無し)
・撮影対象エリアグループの各撮像装置のバイパス状態(バイパス有り、無し)
・撮影対象エリアグループの各撮像装置の構成状態(雲台有り/無し、マイク有/無しなど)
・撮影対象エリアグループの各撮像装置の出力状態(出力中、出力なし)
・撮影対象エリアグループの各撮像装置の機械的な動作状態(動作中、非動作)
 これらは、図27で示した例と同様の内容である。図28に示すリスト表示では、それ以外にも以下の状態も表示する。
・撮影対象エリアグループの各撮像装置のISO値
・撮影対象エリアグループの各撮像装置のアイリス値
・撮影対象エリアグループの各撮像装置のシャッタースピード値
・撮影対象エリアグループの各撮像装置のND(NEUTRAL DENSITY)フィルタ値
 図29は、情報表示装置400の状態取得部405及びUI生成部403による図28に示すグループ状態概要リストの表示処理のフローチャートである。このフローチャートは、ユーザによる所定の操作を受け付けたことにより開始される。状態取得部405は、全ての撮像装置100-Xの状態情報保持部104から撮像装置100-Xの状態情報を取得し、その結果をUI生成部403に出力する(S2901、S2902)。UI生成部403は、リスト表示する撮影対象エリアグループに属する撮像装置100-Xを特定し(S2903)、その状態情報を比較する(S2904)。ここで全ての撮像装置100-Xの状態情報が同一の場合は、その状態情報を表示する(S2905)。一つ以上の撮像装置100-Xの状態情報が異なる場合は、警告表示を行う(S2906)。ここで警告表示とは、図28を例にすると、撮影対象エリアグループV2のエラー状態や、撮影対象エリアグループV1のアイリス値である。これらは、一つ以上の撮像装置100-Xにエラーが発生している、もしくはアイリス値が他の撮像装置100-Xと異なっていることを示している。なお、図28では警告表示をアスタリスクで行う例を示したが、他の情報により警告表示を行ってもよい。例えば、警告表示を「撮影対象エリアグループの各撮像装置の露光条件が一致していないため、仮想視点画像に不具合が生じる恐れがあります。」などのようにメッセージで警告表示を行ってもよい。また、色や警告を意味する画像を表示することで警告表示を行ってもよい。
 このように本実施形態によれば、撮影対象エリアグループの撮影対象グループ状態概要リストを行う。したがって、仮想視点画像の生成に用いられ複数の画像を撮影する撮像装置によって露光条件が異なり仮想視点画像に違和感が生じる可能性を容易にユーザに認識させ、その対策を取らせることが可能になる。
 (グループ詳細リスト表示の説明)
 図30は、図28に示した撮影対象エリアグループV2に属する撮像装置100-X毎の状態をリスト表示した例である(このリスト表示をグループ状態詳細リスト表示と呼ぶ)。これはグループ状態概要リスト表示と異なり、そのグループに属する撮像装置100-X毎の状態がわかる。そのため、グループ状態概要リスト表示で警告表示を見つけた場合、グループ状態詳細リスト表示へ表示切替することで、具体的な警告箇所を特定できる。図30によると、撮像装置100-2が温度エラーを起こしているため、図28にて警告表示が出ていたことがわかる。なお、情報表示装置400は、図30において説明したすべての情報を表示する必要はなく、これらのうち一部を表示してもよい。
 図31は、UI生成部403によるグループ状態概要リスト表示とグループ状態詳細リスト表示の切り替え動作である。UI生成部403は、ユーザ入力部407を介して入力された操作情報(表示切替操作)に基づいて、グループ状態概要リスト表示とグループ状態詳細リスト表示との間で表示の切り替えを行う。例えば、情報表示装置400は、撮影対象グループ状態概要リストを表示している際に、ユーザから撮影対象エリアグループの識別情報である「V2」に対応する位置に対するタップや指示操作を受け付けた場合、グループ状態詳細リスト表示に切りかえる。また、情報表示装置400は、グループ状態詳細リストを表示している際に、不図示の「戻る」のメッセージアイコンに対応する位置に対するタップや指示操作を受け付けた場合、撮影対象グループ状態概要リストの表示に切り替える。
 以上に説明したように、撮像装置100-Xの状態を、撮影対象エリアグループのリスト表示として示す例を説明した。なお、表示する内容はこれに限定されない。各撮像装置100-Xと同期装置との同期状態を表示してもよい。またこうした状態情報に加え、各撮像装置に設定した内容や、その作業完了状態なども表示してもよい。また、グループは撮影対象エリアグループに限定されない。接続グループ毎にリスト表示してもよいし、設置エリアを一つのグループとしてリスト表示してもよい。
 (操作UIの説明)
 図32及び図33は、本実施形態の情報表示装置400により表示される撮像装置100-Xを操作する操作UIの一例を示す図である。図32には、情報表示装置400が表示する、個別の撮像装置100-Xを操作するための指示を受け付けるためのUIを示す。情報表示装置400は、ユーザによる操作に応じて、撮像装置100-Xの撮影パラメータの設定や撮像装置100-Xを操作するための情報を撮像装置100-Xに送信する。操作UIでは、少なくとも撮像装置100-Xのズーム、フォーカス、露出条件を決めるISO、アイリス、シャッタースピード、及びNDフィルタの設定が可能である。また、撮像装置100-Xが雲台を有する場合、PAN(パン)やTILT(チルト)の設定もできる。
 図33は、撮影対象エリアグループに属する撮像装置100-Xを一括で操作する操作イメージである。操作イメージ上では、少なくとも露出条件を決めるISO、アイリス、シャッタースピード、及びNDフィルタの設定が可能である。このように、撮影対象エリアグループに属する複数の撮像装置の設定や操作を情報表示装置400がユーザから受け付け、これらを撮像装置に反映することができる。
 図39は、情報表示装置400が操作UIを表示し、ユーザから受け付けた設定を撮像装置100-Xに反映させるための処理を示すフローチャートである。情報表示装置400は、操作UIによる操作対象となる撮像装置100-Xを特定するためのユーザ操作を受け付けたか否かを判定する(S4001)。
 S4001の判定は、例えば、図15のように撮像装置100-Xを示す情報を表示するための描画レイヤーを表示している状態で円形部1203に対して操作UIの表示のための操作が行われたか否かを判定する。この場合、操作が行われた円形部1203に対応する撮像装置100-Xを操作UIの表示対象と特定する。また、図15のように撮影対象エリアを表示するための描画レイヤーを表示している状態で撮影対象エリア1205または1206に対して操作UIの表示のための操作が行われたか否かを判定する。この場合、操作が行われた撮影対象エリアに対応する撮影対象エリアグループに属する撮像装置100-Xを操作UIの表示対象と特定する。
 また、図15のように接続グループを表示するための描画レイヤーを表示している状態で接続グループを示す線1204に対して操作UIの表示のための操作が行われたか否かを判定する。この場合、操作が行われた接続グループに対応する接続グループに属する撮像装置100-Xを操作UIの表示対象と特定する。
 また、図28のようにグループ状態概要リスト表示を表示している状態で、撮影対象エリアグループV1またはV2に対して操作UIの表示のための操作が行われたか否かを判定する。この場合、操作が行われた撮影対象グループに対応する撮影対象グループに属する撮像装置100-Xを操作UIの表示対象と特定する。
 また、図30のようにグループ状態詳細リスト表示を表示している状態で、撮像装置100-1~nのうちの何れかに対して操作UIの表示のための操作が行われたか否かを判定する。この場合、操作が行われた撮像装置100-Xを操作UIの表示対象と特定する。
 操作UIによる操作対象となる撮像装置100-Xを特定するための操作を受け付けた場合、情報表示装置400は、図32または図33に示す操作UIを表示する(S4002)。情報表示装置400は、操作UIにより撮像装置の設定または操作するためのユーザ操作を受け付けたか否かを判定する(S4003)。操作UIにより撮像装置の設定または操作するためのユーザ操作を受け付けた場合、情報表示装置400は、撮像装置に設定または操作を反映させるための指示を送信する(S4004)。情報表示装置400は、S4004において指示を送信した場合、送信先の撮像装置100-Xから受信した、指示を反映したか否かを示す情報に基づいて、指示を撮像装置100-Xが反映したか否かを判定する(S4005)。情報表示装置400は、S4005において指示を撮像装置100-Xが反映したと判定した場合、撮像装置100-Xが反映したこと及び反映した撮像装置100-Xの設定または操作の情報を更新し、表示する(S4006)。一方、情報表示装置400は、S4005において指示を撮像装置100-Xが反映していないと判定した場合、エラーを表示する(S4007)。
 以上のように本実施形態では、情報表示装置400は、複数の撮像装置100-Xと、接続関係、設置エリア、及び撮影対象エリアを、競技場210の地図上で紐づけて表示する。また、各々の撮像装置100-Xの状態も合わせて表示する。従って、撮像装置100-Xの数が増加しても、それらの接続状態、設置状態、撮影の影響範囲などのシステム状態を一目でユーザが把握することができる。
 また、本実施形態では、接続グループだけの表示、撮影対象エリアグループだけの表示など、表示したい情報を適宜加えたり、削除したりすることができる。そのため撮像装置100-Xの数や接続グループの数などが増加しても、特定のグループだけに着目して表示することができる。
 また、本実施形態では、接続グループ単位や撮影対象エリアグループ単位としての状態を確認することができる。仮想視点映像を生成する場合、撮影対象エリアグループに属する撮像装置100-Xに不具合が生じると、その生成に大きな影響を受ける。本実施形態では、そうした仮想視点映像の生成への影響度を把握できる。
 また、本実施形態では、接続グループ単位や撮影対象エリアグループ単位で撮像装置100-XのISOやアイリスなどの撮影パラメータの制御を行うことができる。撮影中、外光状況が変化すると、同一の撮影対象エリアを撮影している撮影対象エリアグループ毎に、同一の露出条件に変更することが多い。このような場合に、撮影対象エリアグループ単位で一括制御できるため、短時間に撮像装置100-Xを仮想視点画像の生成に適した設定に変更することが可能となる。
 (変形例)
 次に、上述した実施形態の変形例を説明する。変形例では、撮像装置100-Xの撮影画像をUIに重畳表示する。これにより撮像装置100-Xの状態をより的確に把握させることができる。
 図34は、変形例の情報表示装置400の機能的な構成の一例を示す図である。変形例の情報表示装置400は、データ保持部601、データ読出部602、UI生成部603、表示部604、状態取得部605、制御部606、ユーザ入力部607、制御信号出力部608、及び画像取得部610を有する。これらは、内部バス609によって相互に接続され、制御部606による制御の下、相互にデータを送受信することができる。なお、図34に示す機能構成は、図10に示す機能構成と、画像取得部610以外の部分は、同様の機能のため、説明は省略する。画像取得部610は、各撮像装置100-Xから出力された撮影画像を取得し、UI生成部603へ出力する。
 図35は、情報表示装置400の画像表示処理の一例を説明するフローチャートである。ここでは、情報表示装置400が、図15で示す情報を表示していることを前提に説明する。情報表示装置400は、撮像装置100-Xを選択するための操作情報を取得する。情報表示装置400は、ユーザ(監視担当者)が表示されているUI上の撮像装置100-X(1203)、接続グループ(1204)、撮影対象エリア(1205、1206)、もしくは設置エリア(1202)の選択操作を受け付ける。ユーザ(監視担当者)がキーボードやマウスなどのコントローラを用いて撮像装置100-Xを選択すると、ユーザ入力部607は、その操作情報を制御部606へ出力する(S3501)。制御部606は、その操作情報と表示イメージから選択された撮像装置100-X、もしくはグループ、もしくはエリアを特定する(S3502)。その後、制御部606は特定した撮像装置100-X、もしくはグループやエリアに含まれる撮像装置100-Xの画像を、画像取得部610を介して取得し、UI生成部603へ出力する(S3503)。UI生成部603は、入力された撮像装置100-Xの画像を、表示イメージ上に重畳して表示する(S3504)。画像が動画の場合、S3503とS3504を繰り返す(S3505)。
 図36~図38は、情報表示装置400により表示される撮像画像を重畳表示する操作UIの一例を示す図である。図36は、ユーザ(監視担当者)が表示イメージ上の個々の撮像装置100-Xを選択した場合の例である。選択された撮像装置100-Xの画像が表示される。図37は、表示イメージ上の撮影対象エリアの中心点を選択した場合の例である。選択された撮影対象エリアに属するすべての撮像装置100-Xの画像の一覧が表示される。図38は、表示イメージ上の接続グループを選択した場合の例である。選択された接続グループに属するすべての撮像装置100-Xの画像の一覧が表示される。
 続いて図36~図38に示した情報表示装置400により表示される撮像画像上に、撮像装置100-Xの姿勢確認用のガイド表示、露出確認用のガイド表示及びフォーカス確認用のガイド表示を更に重畳表示する例を説明する。図40は、撮像装置100-Xの姿勢を確認するためのガイド表示であるセンターマーカーを撮影画像上に表示した例である。図40に示す撮像装置100-Xの姿勢確認用のガイド表示をユーザが確認することにより、撮像装置100-Xが正しく設置されているか否かを確認することができる。
 図41は、撮像装置100-Xの露出状態を確認するためのガイド表示である露出ガイドバー4101を撮影画像上に表示した例である。図41に示す露出ガイドバー4101は、撮像装置100-Xに設定されている露出量が、撮像装置100-Xの露出計により測定された適正露出に対して多いか少ないかを示すガイド表示である。露出ガイドバー4101は、一例としてスライドバーである。露出ガイドバー4101において、ゼロの目盛が適正露出を示しており、スライダーが+方向に位置すると露出オーバー、-方向に位置すると露出アンダーであることを示す。また、情報表示装置400は、露出ガイドバー4101のスライダーの位置を変更する操作をユーザから受け付けると、撮像装置100-Xに操作に応じた露出補正を指示するための情報を送信する構成としてもよい。図41に示す撮像装置100-Xの露出確認用のガイド表示を撮影画像とともにユーザが確認することにより、撮像装置100-Xの露出量が正しく設定されているか否かを確認することができる。
 図42は、撮像装置100-Xのフォーカス状態を確認するためのフォーカス状態表4201を撮影画像に表示した例である。図42に示すフォーカス状態表4201は、撮像装置100-Xの合焦位置とその調整を行うためのガイド表示である。図42に示すフォーカス状態表4201において、横軸は、フォーカスレンズ位置情報を示す。なお、フォーカスレンズが移動することで、撮像装置100-Xの合焦位置が変化する。図42に示すフォーカス状態表4201において、縦軸はフォーカスレンズの位置に対する撮影画像の周波数情報である。合焦が適切な位置で行われているほど、撮影画像の周波数は高くなる。ここでは、撮影画像の周波数が最も高くなるレンズ位置を「ピーク値」と記載している。また、現状のレンズ位置を「現在値」と記載している。「ピーク値」と「現在値」がかい離していると撮影画像がぼけている可能性が高くなる。また、情報表示装置400は、フォーカス状態表4201へのユーザから現在値を変更する操作を受け付けると、撮像装置100-Xに操作に応じたフォーカスレンズの位置変更を指示するための情報を送信する構成としてもよい。図42に示す撮像装置100-Xのフォーカス状態表のガイド表示を撮影画像とともにユーザが確認することにより、撮像装置100-Xの合焦位置が正しく設定されているか否かを確認することができる。
 図43は、図37もしくは図38に示した撮像装置100-Xの画像の一覧に、図40に示すセンターマーカーと図41に示す露出ガイドバーを重畳したUIの一例である。なお、情報表示装置400は、いずれかの露出ガイドバーが操作された場合、対応する撮像装置100-Xに露出補正の指示を送信してもよい。このように、撮影画像とともに撮像装置100-Xの状態を示す情報を一覧表示することで、複数の撮像装置の姿勢や露出を一度により詳細にユーザは確認することができる。なお、図43において、図42に示すフォーカス状態表を更に重畳してもよい。なお、上述のガイド表示の形態は、一例に過ぎず、文字または数値など他の形態によりガイド表示を行ってもよい。以上のように変形例では、選択された撮像装置100-X、もしくは撮影対象エリア、接続グループに属するすべての撮像装置100-Xの画像が表示される。従って、エリアやグループで紐づいた撮像画像100-Xの実際の撮影画像の確認もできることから、よりシステムの状態が正確に把握させることができる。
 他の変形例を、図44を用いて説明する。図44は、情報表示装置400により表示される表示イメージの一例を示す図である。図15において説明した表示イメージとの差異を詳細に説明する。図44において、44001~4404は、撮像装置100-Xにズームレンズが付随していることを示す。また、図44では、ズームレンズが付随しており、画角が比較的狭い撮像装置100-X(44001~4404)の撮影対象とするエリアを示す線4405を実線や太線など、ズームレンズが付随していない撮像装置100-Xのものと異なる形態で表示する。このように、図44に例示した撮像装置100-Xの画角に関する情報が含まれる表示イメージを表示することにより、複数の撮像装置100-Xそれぞれの画角の違いをユーザは容易に把握することができる。なお、複数の撮像装置100-Xそれぞれの画角に関する情報を文字や数値など他の形態で表示してもよい。
 なお、上記の実施形態では、撮像装置100-Xに関する情報を表示させる例を中心に説明したが、これに限らない。つまり、本実施形態の情報表示装置400は、撮像装置100-Xに加えて、又は撮像装置100-Xに代えて、仮想視点画像の生成のためのシステムに関するデバイスの状態を表示させることもできる。情報表示装置400は、仮想視点画像の生成のためのシステムに関するデバイスとして、例えば、スイッチやルータなどのネットワーク機器、画像生成装置200及び同期装置などの状態を表示させることもできる。つまり、情報表示装置400は、仮想視点画像の生成のためのシステムの構成要素の状態を示す画像を表示させることができる。また、情報表示装置400は、撮像装置100-Xからの状態情報に基づいて、状態変化の発生を検出する例を中心に説明したが、この例に限らない。例えば、一定時間、撮像装置100-Xから状態情報を受信しなかったことにより、当該撮像装置100-Xの状態変化が発生したと判定されるようにしても良い。
 また、上述の実施形態に記載されている構成要素はあくまで例示であり、本発明の範囲をそれらに限定する趣旨のものではない。また、実施形態で説明されている構成要素の組み合わせのすべてが、課題を解決するための手段に必須のものとは限らず、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形及び変更が可能である。例えば、上述の実施形態において、説明した表示イメージの一部のみを表示すること、表示イメージの一部を他の情報に置き換えることおよび表示イメージに追加の情報を重畳することなどの変形及び変更が行われてもよい。
 (その他の実施形態)
 本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC等)によっても実現可能である。また、そのプログラムをコンピュータにより読み取り可能な記録媒体に記録して提供してもよい。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2017年6月23日提出の日本国特許出願特願2017-123318と2018年2月9日提出の日本国特許出願特願2018-022067を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (21)

  1.  仮想視点画像を生成するための画像を撮像する複数の撮像装置に関する情報を表示させる表示制御装置であって、
     前記複数の撮像装置に関する情報を取得する取得手段と、
     前記取得手段により取得された情報に基づく、前記複数の撮像装置夫々が撮像した画像を伝送するための前記複数の撮像装置の通信接続に関する情報を、表示部に表示させる表示制御を行う表示制御手段と、
     を有することを特徴とする表示制御装置。
  2.  前記表示制御手段は、前記複数の撮像装置の設置場所に対応する表示位置において前記複数の撮像装置の夫々を示す情報と、前記複数の撮像装置夫々が撮像を行う対象である領域に関する情報とのうち少なくともいずれか一つを、前記取得手段により取得された情報に基づいて前記表示部に表示させる表示制御を行うことを特徴とする請求項1に記載の表示制御装置。
  3.  前記表示制御手段は、前記複数の撮像装置の夫々を示す情報と、前記複数の撮像装置の通信接続に関する情報と、前記複数の撮像装置が撮像を行う対象である領域に関する情報とのうち、ユーザにより選択された情報を表示または非表示にさせる表示制御を行うことを特徴とする請求項2に記載の表示制御装置。
  4.  前記表示制御手段は、前記複数の撮像装置の夫々を示す情報と、前記複数の撮像装置が撮像を行う対象である領域に関する情報とを関連付けるための情報をさらに表示させる表示制御を行うことを特徴とする請求項2または3に記載の表示制御装置。
  5.  前記表示制御手段は、前記複数の撮像装置の夫々を示す情報と、前記複数の撮像装置が撮像を行う対象である領域に関する情報とを関連付けるための情報として、前記複数の撮像装置の夫々を示す情報と、前記複数の撮像装置が撮像を行う対象である領域とを結ぶ線を表示させる表示制御を行うことを特徴とする請求項4に記載の表示制御装置。
  6.  前記表示制御手段は、前記複数の撮像装置のうちの第1撮像装置を示す情報と前記第1撮像装置が撮像を行う対象である領域とを結ぶ線と、前記複数の撮像装置のうちの他の撮像装置を示す情報と前記他の撮像装置が撮像を行う対象である領域とを結ぶ線とが重ならないように表示を行う表示制御を行うことを特徴とする請求項5に記載の表示制御装置。
  7.  前記表示制御手段は、前記複数の撮像装置の夫々を示す情報が表示される位置を、前記取得手段により取得された前記複数の撮像装置の設置場所に関する情報に基づいて制御する表示制御を行うことを特徴とする請求項2から6までのいずれか1項に記載の表示制御装置。
  8.  前記複数の撮像装置の夫々を示す情報は、前記複数の撮像装置の夫々の通信接続状態、データの出力状態及びエラー状態のうち少なくとも1つを識別可能にするための情報を含むことを特徴とする請求項2から7までのいずれか1項に記載の表示制御装置。
  9.  前記表示制御手段は、前記複数の撮像装置の夫々を示す情報と、前記複数の撮像装置の通信接続に関する情報と、前記複数の撮像装置が撮像を行う対象である領域に関する情報とを、前記複数の撮像装置の設置場所を示す画像に重畳して表示させる表示制御を行うことを特徴とする請求項2から8までのいずれか1項に記載の表示制御装置。
  10.  前記複数の撮像装置の設置場所を示す画像は、競技場を示す画像であることを特徴とする請求項9に記載の表示制御装置。
  11.  前記表示制御手段は、前記複数の撮像装置のうちの少なくともいずれかが撮像した画像を表示させる表示制御を行うことを特徴とする請求項1から10までのいずれか1項に記載の表示制御装置。
  12.  前記複数の撮像装置のうちの少なくともいずれかの撮影パラメータを設定するための情報を送信する送信手段を有することを特徴とする請求項1から11までのいずれか1項に記載の表示制御装置。
  13.  前記表示制御手段は、前記複数の撮像装置のうちの少なくともいずれに設定されている撮影パラメータを示す情報を表示させる表示制御を行うことを特徴とする請求項1から12までのいずれか1項に記載の表示制御装置。
  14.  前記撮影パラメータは、絞り、シャッタースピード、ISO感度及びズームのうちの少なくともいずれか1つであることを特徴とする請求項12または13に記載の表示制御装置。
  15.  前記取得手段は、前記複数の撮像装置の通信接続状態、前記複数の撮像装置の撮影状態及び前記複数の撮像装置のエラー状態のうちの少なくともいずれか1つを示す情報を取得することを特徴とする請求項1から14までのいずれか1項に記載の表示制御装置。
  16.  前記取得手段は、前記複数の撮像装置の識別情報、前記複数の撮像装置の接続グループ、前記複数の撮像装置の設置場所及び前記複数の撮像装置の撮像を行う対象である領域のうちの少なくともいずれか1つを示す情報を取得することを特徴とする請求項1から15までのいずれか1項に記載の表示制御装置。
  17.  前記表示制御手段は、前記複数の撮像装置のうちの少なくとも1つが、データを出力できない状態、通信接続が非接続である状態または撮像を行えないエラー状態である場合、仮想視点画像に不具合が生じ得ることを示す警告を表示させることを特徴とする請求項8に記載の表示制御装置。
  18.  前記表示制御手段は、前記複数の撮像装置のうちの少なくともいずれかが撮像した画像に、当該画像を撮影した撮像装置の、姿勢に関する情報、フォーカスに関する情報または露出に関する情報を重畳して表示させる表示制御を行うことを特徴とする請求項11に記載の表示制御装置。
  19.  前記表示制御手段は、前記複数の撮像装置のうちの少なくともいずれかの画角に関する情報を表示させる表示制御を行うことを特徴とする請求項1から18までのいずれか1項に記載の表示制御装置。
  20.  仮想視点画像を生成するための画像を撮像する複数の撮像装置に関する情報を表示させる表示制御方法であって、
     複数の撮像装置に関する情報を取得し、
     取得された情報に基づく、前記複数の撮像装置夫々が撮像した画像を伝送するための前記複数の撮像装置の通信接続に関する情報を、表示部に表示させる表示制御を行う
     ことを特徴とする表示制御方法。
  21.  請求項1から19までのいずれか1項に記載の表示制御装置としてコンピュータを動作させるためのプログラム。
PCT/JP2018/023063 2017-06-23 2018-06-18 表示制御装置、表示制御方法、およびプログラム WO2018235762A1 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
KR1020207001337A KR102138608B1 (ko) 2017-06-23 2018-06-18 표시 제어 장치, 표시 제어 방법 및 저장 매체
CN201880026330.4A CN110546948B (zh) 2017-06-23 2018-06-18 显示控制设备、显示控制方法和存储介质
CA3068417A CA3068417C (en) 2017-06-23 2018-06-18 Display control apparatus, display control method, and program
EP18821627.9A EP3618429B1 (en) 2017-06-23 2018-06-18 Display control device, display control method, and program
RU2020102187A RU2738220C1 (ru) 2017-06-23 2018-06-18 Устройство для управления отображением, способ управления отображением и носитель хранения
BR112019020588A BR112019020588A2 (pt) 2017-06-23 2018-06-18 aparelho de controle de exibição, método de controle de exibição e meio de armazenamento
AU2018289853A AU2018289853B2 (en) 2017-06-23 2018-06-18 Display control device, display control method, and program
US16/724,009 US10999571B2 (en) 2017-06-23 2019-12-20 Display control apparatus, display control method, and storage medium
US17/222,348 US11445167B2 (en) 2017-06-23 2021-04-05 Display control apparatus, display control method, and storage medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2017123318 2017-06-23
JP2017-123318 2017-06-23
JP2018022067A JP6482696B2 (ja) 2017-06-23 2018-02-09 表示制御装置、表示制御方法、およびプログラム
JP2018-022067 2018-02-09

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/724,009 Continuation US10999571B2 (en) 2017-06-23 2019-12-20 Display control apparatus, display control method, and storage medium

Publications (1)

Publication Number Publication Date
WO2018235762A1 true WO2018235762A1 (ja) 2018-12-27

Family

ID=64737052

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/023063 WO2018235762A1 (ja) 2017-06-23 2018-06-18 表示制御装置、表示制御方法、およびプログラム

Country Status (1)

Country Link
WO (1) WO2018235762A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10999571B2 (en) 2017-06-23 2021-05-04 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244728A (ja) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd 仮想映像作成装置及び仮想映像作成方法
JP2009060201A (ja) * 2007-08-30 2009-03-19 Panasonic Corp マルチ画面監視システム
JP2011176452A (ja) * 2010-02-23 2011-09-08 Mitsubishi Electric Corp 映像監視システム及び監視映像表示装置
JP2014236896A (ja) 2013-06-10 2014-12-18 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2016116003A (ja) * 2014-12-12 2016-06-23 株式会社日立国際電気 映像監視システム
JP2017123318A (ja) 2016-01-08 2017-07-13 株式会社神戸製鋼所 異種導電部材の製造方法
JP2018022067A (ja) 2016-08-04 2018-02-08 オムロン株式会社 光デバイス

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244728A (ja) * 2002-02-15 2003-08-29 Mitsubishi Heavy Ind Ltd 仮想映像作成装置及び仮想映像作成方法
JP2009060201A (ja) * 2007-08-30 2009-03-19 Panasonic Corp マルチ画面監視システム
JP2011176452A (ja) * 2010-02-23 2011-09-08 Mitsubishi Electric Corp 映像監視システム及び監視映像表示装置
JP2014236896A (ja) 2013-06-10 2014-12-18 Nkワークス株式会社 情報処理装置、情報処理方法、及び、プログラム
JP2016116003A (ja) * 2014-12-12 2016-06-23 株式会社日立国際電気 映像監視システム
JP2017123318A (ja) 2016-01-08 2017-07-13 株式会社神戸製鋼所 異種導電部材の製造方法
JP2018022067A (ja) 2016-08-04 2018-02-08 オムロン株式会社 光デバイス

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3618429A4

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10999571B2 (en) 2017-06-23 2021-05-04 Canon Kabushiki Kaisha Display control apparatus, display control method, and storage medium

Similar Documents

Publication Publication Date Title
JP7146662B2 (ja) 画像処理装置、画像処理方法、およびプログラム
JP7494273B2 (ja) 表示制御装置、表示制御方法、およびプログラム
US10699473B2 (en) System and method for generating a virtual viewpoint apparatus
US10970915B2 (en) Virtual viewpoint setting apparatus that sets a virtual viewpoint according to a determined common image capturing area of a plurality of image capturing apparatuses, and related setting method and storage medium
JP6849430B2 (ja) 画像処理装置、画像処理方法、及びプログラム
US10771761B2 (en) Information processing apparatus, information processing method and storing unit
JP2019191989A (ja) 仮想視点画像を生成するシステム、方法及びプログラム
JP2013025649A (ja) 画像処理装置及び画像処理方法、プログラム
US11527021B2 (en) Image processing system, image processing method, and storage medium
JP2010166218A (ja) カメラシステム及びその制御方法
WO2018235762A1 (ja) 表示制御装置、表示制御方法、およびプログラム
US9883103B2 (en) Imaging control apparatus and method for generating a display image, and storage medium
JP2019216363A (ja) 表示制御装置、表示制御装置の制御方法、及び、プログラム
JP7130976B2 (ja) 表示情報作成装置、撮影システムおよびプログラム
JP2022041594A (ja) 情報処理装置、情報処理方法及びプログラム
JP2023122130A (ja) 映像処理装置およびその制御方法、プログラム
JP2022050305A (ja) 処理システム及びその制御方法及びプログラム
JP2015056790A (ja) 画像処理装置、画像処理方法およびプログラム
JP2019118042A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18821627

Country of ref document: EP

Kind code of ref document: A1

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112019020588

Country of ref document: BR

ENP Entry into the national phase

Ref document number: 2018821627

Country of ref document: EP

Effective date: 20191129

ENP Entry into the national phase

Ref document number: 2018289853

Country of ref document: AU

Date of ref document: 20180618

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 3068417

Country of ref document: CA

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20207001337

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 112019020588

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20190930