WO2020230751A1 - 配置決定装置、システム、配置決定方法、及びプログラム - Google Patents

配置決定装置、システム、配置決定方法、及びプログラム Download PDF

Info

Publication number
WO2020230751A1
WO2020230751A1 PCT/JP2020/018779 JP2020018779W WO2020230751A1 WO 2020230751 A1 WO2020230751 A1 WO 2020230751A1 JP 2020018779 W JP2020018779 W JP 2020018779W WO 2020230751 A1 WO2020230751 A1 WO 2020230751A1
Authority
WO
WIPO (PCT)
Prior art keywords
arrangement
target area
photographing
devices
area
Prior art date
Application number
PCT/JP2020/018779
Other languages
English (en)
French (fr)
Inventor
相澤 道雄
靖 四方
紳一郎 宇野
伊達 厚
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2019172187A external-priority patent/JP2020191618A/ja
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to EP20805406.4A priority Critical patent/EP3972238A4/en
Priority to KR1020217039524A priority patent/KR102629225B1/ko
Priority to CN202080035989.3A priority patent/CN113826378B/zh
Publication of WO2020230751A1 publication Critical patent/WO2020230751A1/ja
Priority to US17/518,444 priority patent/US12010437B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/111Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation
    • H04N13/117Transformation of image signals corresponding to virtual viewpoints, e.g. spatial image interpolation the virtual viewpoint locations being selected by the viewers or determined by viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/282Image signal generators for generating image signals corresponding to three or more geometrical viewpoints, e.g. multi-view systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing

Definitions

  • the present invention relates to a technique for determining the arrangement of a plurality of photographing devices.
  • Patent Document 1 describes a technique for generating a virtual viewpoint image, and describes arranging a plurality of photographing devices along the circumference so as to face the center of a circle which is a photographing target area.
  • Patent Document 1 there is a difference between the number of photographing devices for photographing a subject existing near the center of a circle, which is a photographing target area, and the number of photographing devices for photographing a subject existing at a position away from the subject. Further, when the imaging target area is large, the difference becomes large. Therefore, the difference in the reproducibility of the subject in the virtual viewpoint image between the virtual viewpoints may become large.
  • One aspect of the present invention is as follows. That is, it is an arrangement determining device that determines the arrangement of a plurality of photographing devices used for generating a virtual viewpoint image, and is an area acquisition means for acquiring information representing an imaging target area to be photographed by the plurality of photographing devices. Based on the information acquired by the area acquisition means, the entire area of the imaging target area is photographed by two or more imaging devices among the plurality of imaging devices, and two or more of the plurality of imaging devices. It is characterized by having an arrangement determining means for determining the arrangement of the plurality of photographing devices so that the entire area to be photographed is photographed by two or more other photographing devices different from the photographing device.
  • the present invention it is possible to reduce the difference in the reproducibility of the subject between the virtual viewpoints even in a wide range of shooting target areas.
  • Diagram showing a configuration example of an image processing system The figure which shows the hardware configuration example of the arrangement determination apparatus The figure which shows the structural example of the arrangement determination apparatus which concerns on Embodiment 1.
  • Diagram to illustrate the resolution Diagram showing an example of the placement area The figure which shows the arrangement example of a plurality of cameras in an arrangement area Diagram showing an ideal arrangement of multiple cameras
  • the figure explaining the angle of the photographing target area as seen from the arrangement area The figure which shows the structural example of the arrangement determination apparatus which concerns on Embodiment 2.
  • the figure which shows an example of the table which the arrangement determination apparatus which concerns on Embodiment 3 refers to.
  • the figure which shows the example of the imaging target area which concerns on Embodiment 3. A flowchart showing an example of a processing procedure of the arrangement determination device according to the third embodiment.
  • FIG. 1 is a diagram showing an example of the configuration of the image processing system 100.
  • the image processing system 100 includes a multi-camera system 101, a hub 104, a control device 105, and a virtual viewpoint image generation device 106. Further, the image processing system 100 may include a virtual viewpoint designation device 107 and an arrangement determination device 108.
  • the image processing system 100 is a system that generates a virtual viewpoint image representing the appearance from a designated viewpoint based on a plurality of images taken by a plurality of photographing devices and a designated virtual viewpoint.
  • the virtual viewpoint image in the present embodiment is also called a free viewpoint image, but is not limited to an image corresponding to a viewpoint freely (arbitrarily) specified by the user, for example, a viewpoint selected by the user from a plurality of candidates. Corresponding images and the like are also included in the virtual viewpoint image.
  • the case where the virtual viewpoint is specified by the user operation will be mainly described, but the virtual viewpoint may be automatically specified based on the result of image analysis or the like.
  • the case where the virtual viewpoint image is a moving image will be mainly described, but the virtual viewpoint image may be a still image.
  • the multi-camera system 101 has a plurality of cameras (shooting devices) 102aa to 102 lc that shoot the shooting target space from a plurality of directions.
  • the plurality of cameras 102aa to 102lc belong to any one of the plurality of camera groups 103a to 103l. In the following, when it is not necessary to distinguish between them, they are referred to as a camera 102 and a camera group 103.
  • Each camera group 103 has one or more cameras 102. Specifically, three cameras 102aa, 102ab, and 102ac belong to the camera group 103a. However, the number of cameras belonging to the camera group 103 is not limited to three, and may be two or less, or four or more. Further, the number of cameras 102 belonging to each of the camera groups 103 may be the same or different.
  • a plurality of images taken by the plurality of cameras 102 are sent to the virtual viewpoint image generator 106 through the hub 104. Further, the control device 105 controls the shooting of the multi-camera system 101 and manages the arrangement status of the plurality of cameras 102 of the multi-camera system 101.
  • the virtual viewpoint image generation device 106 generates a virtual viewpoint image viewed from a viewpoint designated by the virtual viewpoint designation device 107 based on a plurality of images taken by the multi-camera system 101.
  • the viewpoint information designated by the virtual viewpoint designation device 107 is information indicating the position and orientation of the virtual viewpoint.
  • the viewpoint information is a parameter set including a parameter representing a three-dimensional position of the virtual viewpoint and a parameter representing the orientation of the virtual viewpoint in the pan, tilt, and roll directions.
  • the content of the viewpoint information is not limited to the above.
  • the parameter set as the viewpoint information may include a parameter representing the size (angle of view) of the field of view of the virtual viewpoint.
  • the viewpoint information may have a plurality of parameter sets.
  • the viewpoint information may be information that has a plurality of parameter sets corresponding to a plurality of frames constituting a moving image of the virtual viewpoint image and indicates the position and orientation of the virtual viewpoint at each of a plurality of consecutive time points. ..
  • the virtual viewpoint designation device 107 is connected to the virtual viewpoint image generation device 106 or the image processing system 100 by wire or wirelessly.
  • the virtual viewpoint image generation device 106 generates a virtual viewpoint image by, for example, the following method. First, a plurality of images are acquired by shooting from different directions with a plurality of photographing devices. Next, a foreground image in which a foreground area corresponding to a predetermined object (subject) such as a person or a ball is extracted and a background image in which a background area other than the foreground area is extracted are acquired from the plurality of images. Further, in order to generate a foreground model representing the three-dimensional shape of a predetermined subject and texture data for coloring the foreground model based on the foreground image, and to color the background model representing the three-dimensional shape of the background such as a stadium.
  • a predetermined object such as a person or a ball
  • Texture data is generated based on the background image. Then, the texture data is mapped to the foreground model and the background model, and the virtual viewpoint image is generated by rendering according to the virtual viewpoint indicated by the viewpoint information.
  • the background is the field and goal post.
  • the method of generating the virtual viewpoint image is not limited to this, and various methods such as a method of generating a virtual viewpoint image by projective transformation of the captured image without using the three-dimensional model can be used.
  • the arrangement determination device 108 determines the arrangement of a plurality of cameras 102 included in the multi-camera system 101 as described later.
  • the arrangement determination device 108 may or may not be included in the image processing system 100.
  • the arrangement determination device 108 is connected to the control device 105 or the image processing system 100 by wire or wirelessly.
  • the foreground image and the background image described above may be extracted from the captured image by the virtual viewpoint image generation device 106, respectively, or may be extracted by another device, for example, the camera 102.
  • both the foreground image and the background image may be extracted by each of the plurality of cameras 102, or some cameras of the plurality of cameras 102 may extract the foreground image. It may be extracted and the other part may extract the background image.
  • the plurality of cameras 102 may include a camera 102 that does not extract either a foreground image or a background image.
  • FIG. 2 is a diagram showing an example of the hardware configuration of the arrangement determination device 108.
  • the CPU 201 realizes each function of the information processing device by controlling the entire information processing device using computer programs and data stored in the ROM 202 and the RAM 203.
  • the information processing device may have one or more dedicated hardware different from the CPU 201, and the dedicated hardware may execute at least a part of the processing by the CPU 201. Examples of dedicated hardware include ASICs (application specific integrated circuits), FPGAs (field programmable gate arrays), and DSPs (digital signal processors).
  • the ROM 202 stores programs and the like that do not require changes.
  • the RAM 203 temporarily stores programs and data supplied from the auxiliary storage device 204, data supplied from the outside via the communication I / F 207, and the like.
  • the auxiliary storage device 204 is composed of, for example, a hard disk drive or the like, and stores various data such as image data and audio data.
  • the display unit 205 is composed of, for example, a liquid crystal display, an LED, or the like, and displays a GUI (Graphical User Interface) for the user to operate the information processing device.
  • GUI Graphic User Interface
  • the operation unit 206 is composed of, for example, a keyboard, a mouse, a joystick, a touch panel, etc., and inputs various instructions to the CPU 201 in response to an operation by the user.
  • the communication I / F 207 is used for communication with an external device of the information processing device. For example, when the information processing device is connected to an external device by wire, a communication cable is connected to the communication I / F 207. When the information processing device has a function of wirelessly communicating with an external device, the communication I / F 207 includes an antenna.
  • the bus 208 connects each part of the information processing device to transmit information.
  • the display unit 205 and the operation unit 206 exist inside the arrangement determination device 108, but at least one of the display unit 205 and the operation unit 206 exists as another device outside the arrangement determination device 108. You may be doing it.
  • the CPU 201 may operate as a display control unit that controls the display unit 205 and an operation control unit that controls the operation unit 206.
  • FIG. 3 is a diagram showing an example of the functional configuration of the arrangement determination device 108.
  • the arrangement determination device 108 includes a permissible value acquisition unit 303, a shooting target area acquisition unit 304, a camera group number acquisition unit 305, and an arrangement determination unit 306. Further, the arrangement determination device 108 may have an event information storage unit 301 and a venue information storage unit 302. The present embodiment will be described by exemplifying an example in which the arrangement determination device 108 has an event information storage unit 301 and a venue information storage unit 302. However, the event information storage unit 301 and the venue information storage unit 302 may be included in a device different from the arrangement determination device 108, and the arrangement determination device 108 may acquire necessary information from the device.
  • the event information storage unit 301 stores information about the event to be photographed.
  • the event information is, for example, the following information.
  • the types of events are sports competitions such as rugby, soccer, bouldering, baseball, athletics, water competitions, and ice competitions, concerts, plays, and the like, and are not particularly limited.
  • the field is a surface on which moving objects such as a person, a ball, and a tool used in the event can move.
  • the moving range of the subject is set for each event.
  • the density of subjects is a numerical value of the density of people who are subjects in an event. For example, when comparing the density of rugby, soccer, and baseball, rugby has the highest density and baseball has the lowest density. The reason why the density of rugby subjects is high is that play such as scrum and mall occurs.
  • the virtual viewpoint image is used for live broadcasting, archive distribution, behavior analysis, tactical analysis, and the like.
  • the venue information storage unit 302 stores information about the venue where the plurality of cameras 102 are arranged.
  • the venue information is, for example, the following information. Information on the name of the venue, information on the size of the venue, information on the structure and its position where the cameras 102 can be arranged in the venue, information on the number of cameras 102 which can be arranged, and the like.
  • the venues are stadiums, which are venues for games such as rugby and soccer, and venues for plays and concerts.
  • the venue may also be a practice field for sports teams.
  • the structure in which the camera 102 can be arranged and the information indicating the position thereof may be represented by a two-dimensional image or may be represented as three-dimensional data.
  • the permissible value acquisition unit 303 sets and acquires a lower limit value of the resolution which is the size in the image of the subject.
  • the lower limit resolution is set according to the use of the virtual viewpoint image. For example, when the virtual viewpoint image is used for a bird's-eye view image for live broadcasting, the lower limit resolution is set small, and when the virtual viewpoint image is used for a replay image, the lower limit resolution is set large. The lower limit resolution will be described later.
  • the permissible value acquisition unit 303 may store in advance the correspondence between the use of the virtual viewpoint image, which is one of the event information, and the lower limit resolution as a table, and set by referring to the table. That is, when the permissible value acquisition unit 303 receives the input of information that can identify the event from the operator via the operation unit 206, the permissible value acquisition unit 303 refers to the event information stored in the event information storage unit 301 and its table, and sets the lower limit resolution. You may try to get it.
  • An example of the referenced table is shown in FIG. 17A.
  • the referenced table may be associated with information on the usage of the virtual viewpoint image and information on the lower limit resolution, but is not limited to this.
  • Event information other than the above and information on the lower limit resolution may be associated with each other.
  • the referenced table may be associated with information that can identify an event, such as an event name, and a lower limit resolution. Further, the referenced table may be stored in the event information storage unit 301 or may be stored in an external device.
  • permissible value acquisition unit 303 may acquire information such as a numerical value of the lower limit resolution directly from the operator via the operation unit 206.
  • the shooting target area acquisition unit 304 determines the shooting target area, which is the shooting target area of the multi-camera system 101, based on the event information.
  • the photographing target area acquisition unit 304 may have the following configuration. That is, first, the shooting target area acquisition unit 304 stores a table in which at least a part of the event information and the information representing the shooting target area are associated with each other. At least a part of the event information is information on the size of the field, information on the moving range of the subject, and the like.
  • the shooting target area acquisition unit 304 when the shooting target area acquisition unit 304 receives the input of the information that can identify the event from the operator via the operation unit 206, the shooting target area acquisition unit 304 refers to the event information stored in the event information storage unit 301 and its table, and is the shooting target. Determine the area.
  • An example of the referenced table is shown in FIG. 17B.
  • the table to be referred to may be, but is not limited to, as long as the information on the size of the field, the information on the moving range of the subject, and the information on the shooting target area are associated with each other. Event information other than the above may be associated with information on the shooting target area. Further, in the referenced table, information that can identify the event, such as the name of the event, may be associated with the shooting target area. Further, the referenced table may be stored in the event information storage unit 301 or may be stored in an external device.
  • the shooting target area acquisition unit 304 may acquire information on the shooting target area directly from the operator via the operation unit 206.
  • FIG. 5A is a diagram showing an example of a shooting target area, and this figure shows an example when the event is rugby.
  • the photographing target area 503 is a two-dimensional surface, and constitutes a part of the space 504 of FIG. 5B.
  • the shooting target area 503 is determined by the shooting target area acquisition unit 304 based on the size of the field 501 and the moving range of a subject such as a person (player) or a ball.
  • the movement range includes not only the movement range on the field 501 but also the periphery of the field 501 because the player stands outside the touch line when throwing in by lineout, for example.
  • the size of the movement range may be set according to the event.
  • the moving distance may be defined by the distance or angle from the touch line, dead ball line, touch-in goal line, goal post 502, etc., or is set to include the field 501. It may be specified in the range. Further, in the case of soccer, the distance or angle from the touch line, the goal line, the position of the corner flag, or the like may be similarly specified. Further, in the case of baseball, the movement range may be set to include the foul zone.
  • the shooting target area 503 is set to include the play area (field 501) and further include a predetermined range outside the play area.
  • the shooting target area 503 it is possible to generate a high-quality virtual viewpoint image in the entire area of the field 501.
  • FIG. 5B is a diagram showing an example in which a space 504 in consideration of the height direction is set as a shooting target area. That is, in the example of FIG. 5B, the imaging target area is a three-dimensional space. In FIG. 5B, the shooting target area is set so as to include the range including the space above the goal post 502, mainly considering the moving range of the ball. In addition, the imaging target area may be a space in which a predetermined height is taken into consideration from the field 501.
  • the predetermined height is the height of the person (player), the height when the person jumps, the arrival point of the player who is lifted at the time of lineout, and the like.
  • the camera group number acquisition unit 305 acquires the number of camera groups 103 constituting the multi-camera system 101 so as to shoot the shooting target area 503 from a plurality of directions. Specifically, the camera group number acquisition unit 305 sets the number of camera groups 103 based on the density of the subjects. The camera group number acquisition unit 305 sets the number of camera groups 103 more when the density of the subjects is large than when the density of the subjects is small. The camera group number acquisition unit 305 stores in advance the correspondence between the density of subjects, which is one of the event information, and the number of camera groups 103 as a table, and sets by referring to the table. You may.
  • the camera group 103 refers to the event information stored in the event information storage unit 301 and its table. You may try to get the number of.
  • An example of the referenced table is shown in FIG. 17C.
  • the table to be referred to may be, but is not limited to, as long as the information on the density of the subject and the information on the number of camera groups 103 are associated with each other. Event information other than the above may be associated with information on the number of camera groups 103. Further, in the referenced table, information that can identify the event, such as the name of the event, may be associated with the number of camera groups 103. Further, the referenced table may be stored in the event information storage unit 301 or may be stored in an external device.
  • the camera group number acquisition unit 305 may acquire information on the number of camera groups 103 directly from the operator via the operation unit 206.
  • the arrangement determination unit 306 determines the arrangement of the cameras 102 based on the lower limit resolution, the shooting target area 503, the number of camera groups, and the venue information.
  • the lower limit resolution is acquired by the permissible value acquisition unit 303
  • the shooting target area 503 is acquired by the shooting target area acquisition unit 304
  • the number of camera groups is acquired by the camera group number acquisition unit 305.
  • the venue information is stored in the venue information storage unit 302.
  • the arrangement determination unit 306 acquires necessary venue information from the venue information storage unit 302 based on the information for identifying the venue input via the operation unit 206.
  • the venue information to be acquired includes information on a structure in which the cameras 102 can be arranged and their positions in the venue, information on the number of cameras 102 that can be arranged, and the like.
  • the arrangement determination unit 306 first determines the arrangement position of the camera group 103 based on the shooting target area 503, the number of camera groups, and the venue information. Next, the arrangement determination unit 306 determines the arrangement of the plurality of cameras 102 to which the camera group 103 belongs. At that time, the arrangement determination unit 306 determines the arrangement of the plurality of cameras 102 belonging to each camera group 103 so that the entire area of the photographing target area 503 is photographed by the plurality of cameras 102 belonging to the camera group 103. Further, the arrangement determination unit 306 determines the arrangement of the plurality of cameras 102 in the plurality of cameras 102 belonging to the camera group 103 so that the resolution exceeds the lower limit resolution in the entire area of the shooting target area 503.
  • the arrangement of the plurality of cameras 102 is determined so as to satisfy the above-mentioned conditions regarding the shooting target area and the conditions regarding the resolution in all the camera groups 103, but the present invention is not limited to this.
  • the arrangement of the plurality of cameras 102 may be determined so that only the plurality of cameras 102 belonging to a predetermined number of camera groups 103 satisfy the above conditions.
  • the arrangement of the plurality of cameras 102 belonging to the camera group 103 may be determined so that the camera group 103 at a predetermined position and the camera group 103 having a predetermined relationship satisfy the above conditions.
  • the plurality of cameras 102 may be arranged so that a plurality of cameras 102 belonging to a part of the camera group 103 capture a part of the photographing target area 503 instead of the entire area. Further, in a plurality of cameras 102 belonging to a part of the camera group 103, the resolution does not have to exceed the lower limit resolution in a part of the shooting target area 503.
  • FIG. 4 is a flowchart showing an example of the processing procedure of the arrangement determination device 108. The process performed by the arrangement determination device 108 will be described with reference to FIG.
  • the arrangement determination device 108 receives an instruction for arrangement determination from the operator via the operation unit 206. According to the instruction, in step S401, the permissible value acquisition unit 303 acquires the lower limit resolution.
  • the resolution referred to here is the size of a reference subject in the image captured by the camera 102, and is represented by the number of pixels.
  • the reference subject may be a typical subject or a virtual subject, or may be a specific subject or an arbitrary subject in the event to be photographed.
  • an upright athlete with a height of 2 m is defined as a reference subject.
  • the number of pixels from the tip of the head to the tip of the foot of an upright athlete with a height of 2 m is the resolution.
  • FIG. 6 is a diagram for explaining the resolution.
  • the number of pixels in the captured image representing the height of the reference subject (here, an upright athlete with a height of 2 m) at the position 602a in the field 501 is defined as the resolution 601a.
  • the number of pixels in the captured image representing the height of the reference subject at the position 602b is set to the resolution 601b.
  • the resolution varies depending on the distance from the camera 102, the focal length of the camera 102, and the like. For example, the resolution 601a at the position 602a near the camera 102 is larger than the resolution 601b at the position 602b far away.
  • the lower limit resolution is an allowable value of the resolution in the image taken by the camera 102.
  • This lower limit resolution indicates how many pixels or more the reference subject at an arbitrary position in the field 501 is represented in the captured image. However, it is not limited to this.
  • the lower limit resolution may indicate how many pixels or more the reference subject in a predetermined position or a predetermined range is represented in the captured image, not at an arbitrary position in the field 501. Good.
  • the permissible value acquisition unit 303 determines and acquires the lower limit resolution based on the information that can identify the event input from the operator via the operation unit 206 and the table stored in advance.
  • the shooting target area acquisition unit 304 determines and acquires the shooting target area 503. Specifically, as described above, the imaging target area 503 is determined based on the information that can identify the event input from the operator via the operation unit 206 and the table stored in advance. The imaging target area 503 is as described above.
  • the camera group number acquisition unit 305 determines and acquires the number of camera groups 103.
  • the number of camera groups 103 is determined according to the number of directions required for the virtual viewpoint image generation device 106 to accurately generate three-dimensional shape data of the subject.
  • the number of directions required to generate the three-dimensional shape data of the subject varies depending on the density of the subject.
  • the camera group number acquisition unit 305 associates the density of the subjects with the number of required directions (that is, the number of camera groups) and stores them in advance as a table.
  • the camera group number acquisition unit 305 generates a virtual viewpoint image using CG (computer graphics) that imitates the subject, and determines the number of directions required to see the image quality and the viewpoint position, and determines the density of the subject.
  • CG computer graphics
  • the number of directions determined here is determined as the number of camera groups 103.
  • the number of camera groups 103 is determined to be 12.
  • the arrangement area of the camera group 103 may also be determined in this step, but in the present embodiment, it is determined in the next step S404.
  • step S404 the placement determination unit 306 determines the placement area of the camera group 103 based on the number of camera groups and venue information.
  • the arrangement determination process will be described in detail with reference to FIGS. 7 to 12.
  • FIG. 7 is a diagram showing an example of the arrangement position of the camera group 103.
  • the venue information for example, the design drawing of the stadium 702
  • the area where the camera 102 can be arranged is determined as a candidate for the arrangement areas 701a to 701l.
  • Candidates for the placement areas 701a to 701l are pillars, aisles, handrails, ceilings, etc. of the stadium 702.
  • the determined candidate for the arrangement area may be displayed on the display unit 205.
  • the arrangement areas 701a to 701l are referred to as arrangement areas 701.
  • the placement area 701 of the camera group 103 is determined according to the criteria described below.
  • the arrangement areas 701 of the camera group 103 are determined to be as evenly spaced as possible when viewed from the subject in the shooting target area 503.
  • the arrangement area 701 is determined so that the angles between the adjacent arrangement areas 701 are equal when viewed from the subject at the center 703 of the imaging target area 503.
  • the arrangement determination unit 306 determines the number of two or more cameras 102 belonging to the camera group 103 for each camera group 103 based on the arrangement area 701 of the camera group 103, the lower limit resolution, and the shooting target area 503. And determine the placement. At that time, the number and arrangement of two or more cameras 102 belonging to the camera group 103 are determined so as to satisfy the following conditions. That is, for each camera group 103, the number and arrangement of two or more cameras 102 are determined so that the entire area of the shooting target area 503 is shot. Further, the number and arrangement of the cameras 102 are determined so that the resolution exceeds the lower limit resolution in the entire area of the photographing target area 503. Further, the arrangement is determined so that the number of cameras 102 is as small as possible.
  • the arrangement of the camera 102 referred to here includes the position and orientation of the camera 102.
  • the plurality of cameras 102 belonging to the camera group 103 are arranged in the corresponding arrangement areas 701.
  • the plurality of cameras 102 belonging to the camera group 103a are arranged in the corresponding arrangement area 701a.
  • FIG. 9 shows an example in which three cameras 102aa, 102ab, and 102ac in the same camera group 103a are arranged so that their optical centers overlap, as an ideal state.
  • the shooting range of the camera 102aa is 901aa.
  • the shooting range of the camera 102ab is 901ab.
  • the shooting range of the camera 102ac is 901ac.
  • the shooting range 901 of the camera 102 extends radially. Therefore, when the optical centers overlap, the cameras 102aa, 102ab, and 102ac can be arranged so that the shooting ranges 901aa, 901ab, and 901ac are in contact with each other.
  • the three cameras 102aa to 102ac can efficiently cover a wide area.
  • the optical centers cannot be arranged so as to overlap each other. Therefore, by arranging them as close to each other as possible, the overlap of the shooting ranges 901 is reduced.
  • a plurality of cameras 102ha, 102hb, 102hc belonging to the camera group 103h are arranged within a range of a predetermined angle 801h when viewed from the center 703 of the photographing target area 503.
  • a plurality of cameras 102 belonging to the camera group 103 are arranged within a predetermined distance.
  • each camera 102 is arranged closer to the camera 102 of the camera group 103 to which the user belongs than the camera 102 of the other camera group 103.
  • adjacent camera groups 103g and 103h will be described. It is assumed that the cameras 102ga, 102gb, and 102gc belong to the camera group 103g. Further, it is assumed that the cameras 102ha, 102hb, and 102hc belong to the camera group 103h. In this case, the camera 102gc is arranged closer to the cameras 102ga, 102gb than the cameras 102ha, 102hb, 102hc. The reason is as follows. It is assumed that the camera 102gc is arranged near the camera 102ha. Then, the distance between the camera 102gc and the camera 102 of the camera group 103f located on the opposite side of the camera group 103h becomes wide, and the image quality of the virtual viewpoint image tends to deteriorate.
  • FIG. 10 shows an example in which the entire area of the photographing target area 503 is photographed by the three cameras 102ia, 102ib, and 102ic for the camera group 103i.
  • the shooting range of the camera 102ia is 901ia.
  • the shooting range of the camera 102ib is 901ib.
  • the shooting range of the camera 102ic is 901ic.
  • the shooting target range corresponds to a region where the resolution of the reference subject in the shot image exceeds the lower limit resolution. As shown in FIG. 10, when these shooting ranges 901ia, 901ib, and 901ic are combined, the entire area of the shooting target area 503 is shot.
  • the camera 102ib is arranged in the center
  • the camera 102ia is arranged on the right side
  • the camera 102ic is arranged on the left side
  • the three cameras 102 are arranged in a fan shape.
  • the respective shooting ranges 901ia, 901ib, and 901ic also expand in a fan shape.
  • FIG. 10 is a diagram illustrating the shooting range 901ia to 901ic of the cameras 102ia to 102ic with respect to the in-plane direction of the shooting target area 503.
  • the shooting target area may be a three-dimensional space including up to a predetermined height of the field 501.
  • the camera 102 shoots the shooting target area including the predetermined height direction of the field 501. Need to be placed. Since the positions of the optical centers of the three cameras 102 do not match, for example, a part of the shooting range 901ic and 901ib overlap. By arranging the three cameras 102 as close as possible, the overlap of the shooting ranges 901 can be reduced, and more efficient arrangement becomes possible. That is, the number of cameras 102 required for the camera group 103 can be reduced.
  • the intersection of the optical axis of the camera 102 and the field 501 of the stadium 702 is defined as the gazing point 1001 of the camera 102.
  • the gazing point of the camera 102ia is 1001ia.
  • the gazing point of the camera 102ib is 1001ib.
  • the gazing point of the camera 102ic is 1001ic.
  • the positions of the gazing points 1001 are all different. That is, the gazing points of the plurality of cameras 102 belonging to the camera group 103 are all different.
  • one camera group 103 may include cameras 102 having the same gazing point.
  • the optical axes of the cameras 102ia to 102ic are oriented in different directions from each other. Further, the line segments projected onto the field 501 of the line segments connecting the cameras 102ia to 102ic and the respective gazing points do not intersect with each other.
  • FIG. 11 is a diagram showing an example of arrangement of cameras 102 belonging to another camera group 103.
  • the camera group 103g includes six cameras 102ga, 102gb, 102gc, 102gd, 102ge, and 102gf.
  • the entire area of the imaging target area 503 is photographed by the cameras 102ga, 102gb, 102gc, 102gd, 102ge, and 102gf.
  • FIG. 11A is a view of the photographing target area 503 as viewed from above, and is a diagram showing the arrangement of 102ga, 102gb, 102gc, 102gd, 102ge, and 102gf in the in-plane direction of the photographing target area 503.
  • the photographing range is 901ga and the gazing point is 1101ga.
  • the six cameras 102 are further divided into two subgroups.
  • the cameras 102ga, 102gb, and 102gc belong to the first subgroup, and are arranged so as to shoot the front side of the shooting target area 503 (the side close to the placement area 701g of the camera group 103g) when viewed from the placement area 701. To do.
  • the cameras 102gd, 102ge, and 102gf belong to the second subgroup, and are arranged so as to shoot the back side of the shooting target area 503 (the side far from the placement area 701g of the camera group 103g) when viewed from the placement area 701. To do. Further, as shown in FIG. 11A, the cameras 102 in each subgroup are arranged so that the shooting range 901 expands in a fan shape.
  • FIG. 11B is a side view of the photographing target area 503, and is a diagram showing the arrangement of the cameras 102 in the height direction of the photographing target area 503.
  • the cameras 102ga, 102gb, 102gc that shoot the front side of the shooting target area 503 and the cameras 102gd, 102ge, 102gf that shoot the back side of the shooting target area 503 are arranged at different heights.
  • the camera 102gb that shoots the front side of the shooting target area 503 has a larger depression angle than the camera 102g that shoots the back side.
  • the camera 102gb that captures the front side of the imaging target area 503 on the lower side it can be arranged closer without physical interference. That is, a plurality of cameras 102 belonging to the camera group 103 may be divided into subgroups, and the height may be changed for each subgroup.
  • FIG. 12 is a diagram showing another example of the arrangement of the cameras 102 belonging to the camera group 103g.
  • the camera group 103g includes six cameras 102ga, 102gb, 102gc, 102gd, 102ge, and 102gf.
  • the entire area of the imaging target area 503 is photographed by the cameras 102ga, 102gb, 102gc, 102gd, 102ge, and 102gf.
  • the positions are arranged differently for each subgroup.
  • the placement area 701g is set to include two pillars. Then, different subgroups are assigned to each of the two pillars.
  • the cameras 102ga, 102gb, and 102gc belonging to the first subgroup are arranged on the left pillar when viewed from the photographing target area 503.
  • the cameras 102gd, 102ge, and 102gf belonging to the second subgroup are arranged on the pillar on the right side of the photographing target area 503. That is, a plurality of cameras 102 belonging to the camera group 103 may be divided into subgroups, and the positions may be changed for each subgroup.
  • the lower limit resolution is different, the number of cameras 102 for each camera group 103 will be different.
  • the lower limit resolution is increased, it is necessary to increase the focal length of the camera 102. Then, when the focal length is lengthened, the shooting range 901 of the camera 102 becomes narrower. Therefore, the number of cameras 102 required to shoot the entire area of the shooting target area 503 increases.
  • the lower limit resolution is reduced, the focal length of the camera 102 can be shortened. When the focal length is shortened, the shooting range 901 of the camera 102 becomes wider. Therefore, the number of cameras 102 required to shoot the entire area of the shooting target area 503 is reduced.
  • step S406 the arrangement determination unit 306 totals the number of cameras 102 determined for each camera group 103 determined in S405, and determines the number of cameras 102 required for the multi-camera system 101.
  • step S407 the arrangement determination unit 306 determines whether there is a problem with the number of cameras calculated in step S406. Specifically, the arrangement determination unit 306 determines that there is a problem when the number of cameras is larger or smaller than the predetermined number. If it is determined that there is no problem (YES), the process ends. If it is determined that there is a problem (NO), the process proceeds to step S408.
  • the predetermined number of units may be set according to the budget, or may be set based on the processing capacity of the virtual viewpoint image generation device 106, the transmission bandwidth capacity when transmitting the captured image, and the like.
  • step S408 the arrangement determination unit 306 determines which arrangement condition is to be changed.
  • the arrangement condition that can be changed is any one of the shooting target area 503, the lower limit resolution, and the number of camera groups 103.
  • the arrangement condition to be changed may be automatically determined by the arrangement determination unit 306, or may be directly input by the operator via the operation unit 206. Even if it is automatically determined by arrangement determining unit 306, to set a priority to an arrangement condition in advance change operator may specify whether to change the advance which arrangement conditions.
  • step S409 the arrangement determination unit 306 determines whether or not the arrangement condition to be changed is the imaging target area 503. In the case of the photographing target area 503 (YES), the process proceeds to step S410. If not (NO), the process proceeds to step S411.
  • step S410 the shooting target area acquisition unit 304 changes the shooting target area 503. If the reason for determining that there is a problem in step S407 is "the number of cameras is large”, the shooting target area 503 is changed to be narrowed. On the contrary, when “the number of cameras is small”, the shooting target area 503 is changed to be wider.
  • the process proceeds to step S405, and the arrangement determination unit 306 redetermines the number and arrangement of the cameras 102 based on the changed shooting target area 503.
  • the shooting target area acquisition unit 304 may acquire the shooting target area from the operator via the operation unit 206.
  • step S411 the arrangement determination unit 306 determines whether or not the arrangement condition to be changed is the lower limit resolution. In the case of the lower limit resolution (YES), the process proceeds to step S412. If not (NO), the process proceeds to step S413.
  • step S412 the allowable value acquisition unit 303 changes the lower limit resolution. If the reason for determining that there is a problem in step S407 is "the number of cameras is large”, the lower limit resolution is changed to be smaller. On the contrary, if "the number of cameras is small”, change the lower limit resolution to be larger.
  • the process proceeds to step S405, and the arrangement determination unit 306 redetermines the number and arrangement of the cameras 102 based on the changed lower limit resolution.
  • the permissible value acquisition unit 303 may acquire the lower limit resolution from the operator via the operation unit 206.
  • step S413 the camera group number acquisition unit 305 changes the number of camera groups 103. If the reason for determining that there is a problem in step S407 is "the number of cameras is large", the number of camera groups 103 is changed to be reduced. On the contrary, when “the number of cameras is small", the number of camera groups 103 is increased.
  • step S404 the arrangement determination unit 306 determines the arrangement area 701 of the camera group 103 again. Then, the process proceeds to step S405, and the arrangement determination unit 306 redetermines the number and arrangement of the cameras 102.
  • the camera group number acquisition unit 305 may acquire the number of camera groups from the operator via the operation unit 206.
  • each camera group 103 a plurality of cameras 102 belonging to each camera group 103 are arranged so that the entire area of the shooting target area 503 is photographed. That is, a subject at an arbitrary position in the shooting target area 503 is shot by at least one camera 102 in each camera group 103.
  • the camera 102aa photographs the subject at the position of 1301.
  • the camera 102ba photographs the subject at the position 1301.
  • the same number of cameras 102 as the number of camera groups 103 will shoot a subject at an arbitrary position in the shooting target area 503.
  • the arrangement areas 701 of each camera group 103 are determined so as to be as evenly spaced as possible. That is, it is possible to generate a virtual viewpoint image with good image quality for a subject at an arbitrary position in the shooting target area 503.
  • FIG. 16 shows an example of the functional configuration of the arrangement determination device 1600 in the present embodiment.
  • the arrangement determination device 1600 has a camera number acquisition unit 1601 instead of the permissible value acquisition unit 303 of FIG.
  • the arrangement determination device 1600 has an arrangement determination unit 1602 instead of the arrangement determination unit 306 of FIG. Since the hardware configuration of the arrangement determination device 108 is the same as that in FIG. 2, it is omitted.
  • the camera number acquisition unit 1601 acquires the number of cameras 102 of the multi-camera system 101 directly from the operator via the operation unit 206.
  • the number of cameras 102 may be set based on the processing performance of the virtual viewpoint image generation device 106.
  • the higher the processing performance of the virtual viewpoint image generator 106 the more images can be processed. That is, the higher the processing performance of the virtual viewpoint image generation device 106, the larger the number of cameras 102 can be set.
  • the number of cameras 102 may be set based on the budget. Increasing the number of cameras 102 increases the cost required for placement. That is, the larger the budget, the larger the number of cameras 102 can be set.
  • the camera number acquisition unit 1601 may have the following configuration. That is, the camera number acquisition unit 1601 stores a table showing the correspondence between the scale of the event and the density of the subjects, which is one of the event information, and the number of cameras 102. Then, when the camera number acquisition unit 1601 receives the input of the information specifying the event from the operator via the operation unit 206, the camera 102 obtains the event information stored in the event information storage unit 301 and the table thereof. You may try to acquire the number of units. For example, when the scale of the event is large, the number of cameras 102 is determined to be larger than when the event is small. Further, when the density of the subjects is large, the number of cameras 102 is determined to be larger than that when the density of the subjects is small.
  • the arrangement determination unit 1602 determines the arrangement of the cameras 102 based on the number of cameras 102, the shooting target area 503, the number of camera groups, and the venue information.
  • the number of cameras 102 is acquired by the camera number acquisition unit 1601
  • the shooting target area 503 is acquired by the shooting target area acquisition unit 304
  • the number of camera groups is acquired by the camera group number acquisition unit 305.
  • FIG. 14 is a flowchart showing an example of the processing procedure of the arrangement determination device 108. Since steps S402 to S404 are the same processes as in FIG. 4, description thereof will be omitted.
  • the camera number acquisition unit 1601 acquires the number of cameras 102.
  • the number of cameras 102 may be set based on the processing performance of the virtual viewpoint image generation device 106.
  • the higher the processing performance of the virtual viewpoint image generator 106 the more images can be processed. That is, the higher the processing performance of the virtual viewpoint image generation device 106, the larger the number of cameras 102 can be.
  • the number of cameras 102 may be set based on the budget. Increasing the number of cameras 102 increases the cost required for placement. That is, the larger the budget, the larger the number of cameras 102 can be.
  • the arrangement determination unit 1602 allocates the number of cameras 102 acquired in step S1401 to the number of camera groups 103 acquired in step S403.
  • the number of cameras 102 required for the camera group 103 varies depending on the relationship between the imaging target area 503 acquired in step S402 and the arrangement area 701.
  • the photographing target area 503 seen from the arrangement area 701 is represented by an angle 1501.
  • the angle 1501 of the imaging target region 503 as seen from the arrangement region 701a is 1501a.
  • the camera 102 is assigned to the camera group 103 according to the angle 1501. That is, more cameras 102 are allocated to the camera group 103 having a large angle 1501 of the shooting target area 503 as seen from the arrangement area 701.
  • step S1403 the arrangement determination unit 1602 determines the arrangement of the cameras 102 for each camera group 103 based on the number of cameras 102 for each camera group 103 assigned in step S1402 and the venue information.
  • the specific arrangement of the camera 102 is determined so that the entire area of the photographing target area 503 is photographed. Further, the camera 102 is arranged so that the resolution is as high as possible in the entire area of the photographing target area 503.
  • step S1404 the arrangement determination unit 1602 calculates the resolution in the entire shooting target area 503 for each camera group 103.
  • a subject is photographed by a plurality of cameras 102 in an area overlapping the photographing range of the camera 102. In that case, the value of the camera 102 having a large resolution is used as the resolution.
  • step S1405 the arrangement determination unit 1602 determines whether there is a problem with the resolution calculated in step S1404. For example, it is determined that there is a problem when a region having a resolution smaller than a predetermined value is within the imaging target region 503. If it is determined that there is no problem (YES), the process ends. If it is determined that there is a problem (NO), the process proceeds to step S1406.
  • step S1406 the placement determination unit 1602 determines which placement condition to change.
  • the arrangement condition that can be changed is either the number of the shooting target area 503 or the number of camera groups 103.
  • step S1407 the arrangement determination unit 1602 determines whether or not the condition to be changed is the imaging target area 503. If the condition to be changed is the imaging target area 503 (YES), the process proceeds to step S1408. If the condition to be changed is not the imaging target area 503 (NO), the process proceeds to step S1409.
  • step S1408 the shooting target area acquisition unit 304 changes the shooting target area 503. Specifically, the photographing target area acquisition unit 304 is changed so as to narrow the photographing target area 503 so that the calculated resolution becomes higher. After the shooting target area 503 is changed by the shooting target area acquisition unit 304, the process proceeds to step S404, and the placement determination unit 306 determines the placement area 701 of the camera group 103 again. Then, the process proceeds to step 1402 and S1403, and the arrangement determination unit 306 redetermines the number and arrangement of the cameras 102.
  • the shooting target area acquisition unit 304 may acquire the shooting target area from the operator via the operation unit 206.
  • the camera group number acquisition unit 305 changes the number of camera groups 103. Specifically, the camera group number acquisition unit 305 is changed to reduce the number of camera groups 103 so as to increase the calculated resolution. This is because if the number of camera groups 103 is reduced, the number of cameras 102 assigned to the camera group 103 increases, and the resolution becomes higher.
  • the process proceeds to step S404, and the arrangement determination unit 306 determines the arrangement area 701 of the camera group 103 again. Then, the process proceeds to steps S1402 and S1403, and the arrangement determination unit 306 determines the number and arrangement of the cameras 102 again.
  • the camera group number acquisition unit 305 may acquire the number of camera groups from the operator via the operation unit 206.
  • the same effect as in the first embodiment can be obtained. That is, subjects at arbitrary positions in the shooting target area 503 are shot from the same number of cameras 102 as the number of camera groups 103. Further, the arrangement areas 701 of each camera group 103 are determined so as to be as evenly spaced as possible. That is, it is possible to generate a virtual viewpoint image with good image quality for a subject at an arbitrary position in the shooting target area 503.
  • FIG. 18 shows an example of the functional configuration of the arrangement determination device 1800 according to the present embodiment.
  • the arrangement determination device 1800 includes an event information storage unit 1801, a venue information storage unit 1802, a permissible value acquisition unit 1803, a shooting target area acquisition unit 1804, a camera group number acquisition unit 1805, and an arrangement determination unit 1806.
  • the arrangement determination device 1800 has a type acquisition unit 1807, an area setting unit 1808, a level information setting unit 1809, and a group number setting unit 1810.
  • the type acquisition unit 1807, the area setting unit 1808, the level information setting unit 1809, and the group number setting unit 1810 are functional units used for generating event information, and the arrangement determination device has these functional units. You don't have to. That is, if the event information generated by the type acquisition unit 1807, the area setting unit 1808, the level information setting unit 1809, and the group number setting unit 1810 is stored in the event information storage unit 1801, the camera is arranged based on the event information. Can be determined. Since the hardware configuration of the arrangement determination device 1800 is the same as that in FIG. 2, it is omitted. Hereinafter, the points different from those of the first embodiment will be mainly described.
  • a plurality of spaces are defined with respect to a space to be photographed by a plurality of cameras (for example, space 504 in FIG. 5B), and each of the defined plurality of spaces is set as an imaging target area.
  • the arrangement determination device 1800 in the present embodiment determines the number and arrangement of camera groups and the number and arrangement of cameras in each camera group for a plurality of shooting target areas.
  • the plurality of defined spaces are all included in the space (space 504 in FIG. 5B) to be photographed by a plurality of cameras. Further, the plurality of defined spaces may be defined exclusively with each other. That is, a plurality of spaces may be defined so as to be composed of a plurality of spaces that divide the space 504 of FIG. 5B. Further, of the plurality of defined spaces, any two spaces may partially overlap, and one space may be further included in the other space.
  • the type acquisition unit 1807 acquires the type of the main foreground (subject) appearing in the event and the movement range thereof.
  • the type acquisition unit 1807 acquires the information by inputting the information regarding the type of the subject and the movement range thereof by the operator via the operation unit 206.
  • An example of this information is shown in FIG. 19A.
  • a person (player) and a ball are input as the main subject types, and the person is divided into a stationary person and a moving person.
  • the range in which each subject moves is input corresponding to the type of the subject.
  • the movement range indicates the range in which a person or a ball may be present during a rugby game.
  • the moving range of a stationary person indicates the range in which a stationary person may exist.
  • the moving range of the stationary person is almost the same as the vertical and horizontal lengths of the field.
  • the height direction is equivalent to, for example, the height of the athlete (for example, 2 m).
  • the moving range of a moving person is wider than the moving range of a stationary person.
  • the height direction in rugby, a player may lift another player by throwing in due to a lineout, so the moving range of a moving person is wider than the moving range of a stationary person.
  • the height is about 5 m.
  • the range of movement of the ball becomes even wider.
  • the kicked ball rises high, so the height of the moving range of the ball is set to 20 m.
  • the vertical and horizontal directions that is, in the in-plane direction of the field, a moving person or a ball has a wider range of movement than a stationary person.
  • the information acquired by the type acquisition unit 1807 is output to the area setting unit 1808, also output to the event information storage unit 1801, and stored by the event information storage unit 1801.
  • the event information storage unit 1801 stores the table shown in FIG. 19A.
  • the event information storage unit 1801 may store the information output from the type acquisition unit 1807 in a format other than the table shown in FIG. 19A.
  • the operator may identify the event type and other events, field size information, and subject density information, as in the first embodiment. , Enter information about the intended use of the virtual viewpoint image.
  • the arrangement determination device 1800 is used only for a specific event, it is possible to omit the input of the event type and other information that can identify the event.
  • the area setting unit 1808 sets a plurality of shooting target areas based on the information indicating the type of the subject acquired by the type acquisition unit 1807 and the moving range thereof. However, a part of any two or more shooting target areas among the plurality of shooting target areas may partially overlap.
  • 20A and 20B show the relationship between the shooting target areas in the example in which the three shooting target areas are set.
  • FIG. 20A is a schematic view of the field viewed from above, and shows the relationship between the vertical and horizontal sizes of the three imaging target areas. Further, FIG. 20B is a side view of the field and shows the relationship between the heights of the three imaging target areas.
  • the first shooting target area 2001 corresponds to the moving range of the stationary person
  • the second shooting target area 2002 corresponds to the moving range of the moving person
  • the third shooting target area 2003 corresponds to the moving range of the ball. ..
  • the range of the first imaging target area 2001, the second imaging target area 2002, and the third imaging target area 2003 becomes wider in this order.
  • the first imaging target area 2001 is included in the second imaging target area 2002
  • the second imaging target area 2002 is included in the third imaging target area 2003.
  • a part of the first photographing target area 2001, not all of it may be included in the second photographing target area 2002.
  • a part of the second imaging target area 2002, but not all, may be included in the third imaging target area 2003.
  • Information indicating a plurality of shooting target areas set by the area setting unit 1808 is output to the level information setting unit 1809, output to the event information storage unit 1801, and stored by the event information storage unit 1801.
  • the area setting unit 1808 may set the shooting target area so that the same shooting target area corresponds to the moving range of the stationary person and the moving person. Specifically, the area setting unit 1808 may not set the first shooting target area 2001 of FIGS. 20A and 20B, but may set the remaining second shooting target area 2002 and the third shooting target area 2003.
  • the level information setting unit 1809 sets the required level of the quality of the three-dimensional shape data and the required level of the lower limit resolution for each of the plurality of shooting target areas set by the area setting unit 1808.
  • the level information setting unit 1809 receives an input by the operator via the operation unit 206 and sets the request level.
  • FIG. 19B shows an example of the required level of quality of the three-dimensional shape data and the required level of the lower limit resolution corresponding to each imaging target area.
  • the required level of quality of 3D shape data and the required level of lower limit resolution are defined in three stages of "high”, “medium”, and "low”.
  • the required level of the lower limit resolution may be defined by the number of pixels representing the lower limit resolution as shown in the first embodiment.
  • the main subject of the first shooting target area 2001 is a stationary person.
  • the image quality of the virtual viewpoint image can be improved by displaying the virtual viewpoint image with high image quality. Therefore, the level information setting unit 1809 sets the required level of the quality of the three-dimensional shape data and the required level of the lower limit resolution to "high" for the first shooting target area 2001 corresponding to the moving range of the stationary person. And set.
  • the required level of the lower limit resolution is "high", which means at least a level at which the facial features and contours become clear.
  • the number of pixels for a height of 2 m in a captured image is set to 400 pixels. This corresponds to requiring a resolution of at least 0.5 cm / pixel.
  • the main subject of the second shooting target area 2002 is a moving person. Since a moving person is moving unlike a stationary person, its image quality can be tolerated even if it is lower than that of a stationary person. Therefore, the required level of quality of the three-dimensional shape data and the lower limit resolution level for the second imaging target region 2002 are set to "medium". As a specific numerical example of the lower limit resolution level, the number of pixels for a height of 2 m in a captured image is set to 200 pixels.
  • the main subject of the third shooting target area 2003 is a ball.
  • the ball In rugby, the ball can move faster than the person and is smaller than the person, so that the image quality can be acceptable even if it is lower than the image quality of the moving person.
  • the required level of the quality of the 3D shape data and the required level of the lower limit resolution are the same level for one imaging target area, but the required level of the quality of the 3D shape data and the lower limit resolution may be different depending on the event.
  • the required levels of are not necessarily the same.
  • the required level of quality of the three-dimensional shape data for one imaging target area may be "high”
  • the required level of the lower limit resolution for the imaging target region may be "low”.
  • the information set by the level information setting unit 1809 is output to the group number setting unit 1810 and the event information storage unit 1801, and is stored by the event information storage unit 1801.
  • the event information storage unit 1801 stores the table shown in FIG. 19B.
  • the event information storage unit 1801 may store the information output from the type acquisition unit 1807 in a format other than the table shown in FIG. 19B.
  • the number of groups setting unit 1810 sets the number of camera groups 103 from the required level of quality of the three-dimensional shape data set by the level information setting unit 1809.
  • the accuracy of the three-dimensional shape data improves as the number of camera groups increases. Therefore, the higher the request level, the larger the number of camera groups.
  • Each shooting target area and the number of camera groups are shown in FIG. 19C.
  • the required level of quality of 3D shape data is "high”
  • the number of camera groups is set to "24”, if it is “medium”, it is set to "12”, and if it is “low”, it is set to "8".
  • An example is shown.
  • the information set by the group number setting unit 1810 is also output to the event information storage unit 1801 and stored by the event information storage unit 1801.
  • the event information storage unit 1801 stores the table shown in FIG. 19C.
  • the event information storage unit 1801 may store the information output from the type acquisition unit 1807 in a format other than the table shown in FIG. 19C.
  • the group number setting unit 1810 may uniquely set the number of camera groups based on the required level of quality of the three-dimensional shape data, but may also set it based on the density of the subjects. In the example of rugby, in the first shooting target area 2001, the density is high because play such as scrum and mall occurs, but in the second shooting target area 2002 and the third shooting target area 2003, the density is low. In consideration of this point, the group number setting unit 1810 sets the number of camera groups. That is, the group number setting unit 1810 is set so that the number of camera groups increases as the density increases.
  • the event information storage unit 1801 stores information about the event to be photographed.
  • the event information may include information indicating the type of subject, information indicating the shooting area, information on the density of subjects in each shooting area, and the like, which are set for each event. Good.
  • the venue information storage unit 1802 stores information about the venue where the plurality of cameras 102 are arranged.
  • the venue information is the same information as the information shown in the first embodiment.
  • the permissible value acquisition unit 1803 sets a lower limit value of the resolution which is the size in the image of the subject.
  • the permissible value acquisition unit 1803 is the shooting target based on the information indicating the correspondence between the plurality of shooting target areas set for each event and the required level of the lower limit resolution, which is one of the event information. Set a lower limit for each area.
  • Information indicating the correspondence relationship between the plurality of shooting target areas set for each event and the required level of the lower limit resolution may be stored in the event information storage unit 1801 as a correspondence table as shown in FIG. 19B. It may be stored in an external storage device.
  • the permissible value acquisition unit 1803 receives the input of information that can identify the event from the operator via the operation unit 206, the permissible value acquisition unit 1803 sets the lower limit resolution for the plurality of shooting target areas set for the event.
  • permissible value acquisition unit 1803 may acquire information such as a numerical value of the lower limit resolution directly from the operator via the operation unit 206.
  • the shooting target area acquisition unit 1804 determines a plurality of shooting target areas corresponding to the event based on the event information.
  • the photographing target area acquisition unit 1804 may have the following configuration. That is, first, the shooting target area acquisition unit 1804 stores a table in which at least a part of the event information and information representing a plurality of shooting target areas are associated with each other. At least a part of the event information includes information indicating the type of the subject, information on the moving range of the subject, information on the size of the field, and the like.
  • the photographing target area acquisition unit 1804 when the photographing target area acquisition unit 1804 receives the input of the information that can identify the event from the operator via the operation unit 206, the photographing target area acquisition unit 1804 refers to the event information stored in the event information storage unit 1801 and its table, and a plurality of cases. Determine the shooting target area.
  • the referenced table may be associated with information on the type of subject, information on the moving range of the subject, and information on a plurality of shooting target areas, but is not limited to this. Event information other than the above may be associated with information on the shooting target area. Further, in the referenced table, information that can identify the event, such as the name of the event, may be associated with a plurality of shooting target areas. Further, the referenced table may be stored in the event information storage unit 1801 or may be stored in an external device.
  • the shooting target area acquisition unit 1804 may acquire information on the shooting target area directly from the operator via the operation unit 206.
  • the camera group number acquisition unit 1805 may set the camera group by referring to the table in which the event information and the number of camera groups 103 are associated with each other. That is, when the camera group number acquisition unit 305 receives the input of the information that can identify the event via the operation unit 206, the camera group number acquisition unit 305 refers to the event information stored in the event information storage unit 1801 and its table, and refers to the shooting target area. The number of camera groups 103 is acquired for each.
  • An example of the referenced table is shown in FIG. 19C.
  • the referenced table may be associated with information on the shooting target area and information on the number of camera groups 103, but is not limited to this. Further, the referenced table may be stored in the event information storage unit 1801 or may be stored in an external device.
  • the camera group number acquisition unit 1805 may acquire information on the number of camera groups 103 directly from the operator via the operation unit 206.
  • the arrangement determination unit 1806 determines the arrangement of the cameras 102 based on the lower limit resolution, a plurality of shooting target areas, the number of camera groups for each shooting target area, and venue information.
  • the lower limit resolution is acquired by the permissible value acquisition unit 1803, a plurality of shooting target areas are acquired by the shooting target area acquisition unit 1804, and the number of camera groups is acquired by the camera group number acquisition unit 1805.
  • the venue information is stored in the venue information storage unit 302.
  • the arrangement determination unit 306 acquires necessary venue information from the venue information storage unit 302 based on the information for identifying the venue input via the operation unit 206.
  • the venue information to be acquired includes information on a structure in which the cameras 102 can be arranged and their positions in the venue, information on the number of cameras 102 that can be arranged, and the like.
  • the arrangement determination unit 1806 determines the arrangement position of the camera group 103 for each of the plurality of shooting target areas based on the number of camera groups and the venue information, as in the first embodiment.
  • the arrangement determination unit 306 determines the arrangement of the plurality of cameras 102 to which the camera group 103 belongs. At that time, the arrangement determination unit 306 determines the arrangement of the plurality of cameras 102 belonging to each camera group 103 so that the entire area of the imaging target area is photographed by the plurality of cameras 102 belonging to the camera group 103. That is, the arrangement of the plurality of cameras 102 belonging to the camera group 103 is determined so that the plurality of cameras 102 belonging to the camera group 103 of the first shooting target area 2001 shoot the entire area of the first shooting target area 2001. To. The arrangement of the plurality of cameras 102 belonging to the camera group 103 of the second shooting target area 2002 and the plurality of cameras 102 belonging to the camera group 103 of the third shooting target area 2003 are also determined in the same manner.
  • the arrangement determination unit 1806 determines the arrangement of the plurality of cameras 102 in the plurality of cameras 102 belonging to the camera group 103 so that the resolution exceeds the lower limit resolution in the entire area of the shooting target area. It should be noted that the arrangement of the plurality of cameras 102 is determined so as to satisfy the above-mentioned conditions regarding the shooting target area and the conditions regarding the resolution in all the camera groups 103 corresponding to each shooting target area, but the present invention is not limited to this. .. For example, the arrangement of the plurality of cameras 102 may be determined so that only the plurality of cameras 102 belonging to a predetermined number of camera groups 103 satisfy the above conditions.
  • the arrangement of the plurality of cameras 102 belonging to the camera group 103 may be determined so that the camera group 103 at a predetermined position and the camera group 103 having a predetermined relationship satisfy the above conditions. That is, the plurality of cameras 102 may be arranged so that a plurality of cameras 102 belonging to a part of the camera group 103 capture a part of each shooting target area instead of the entire area. Further, in the plurality of cameras 102 belonging to some camera groups 103, the resolution does not have to exceed the lower limit resolution in a part of each shooting target area.
  • FIG. 21 is a flowchart showing an example of the processing procedure of the arrangement determination device 1800. The process performed by the arrangement determination device 1800 will be described with reference to FIG.
  • the arrangement determination device 1800 receives an instruction for arrangement determination from the operator via the operation unit 206. Then, in step S2101, the shooting target area acquisition unit 1804 determines and acquires a plurality of shooting target areas. Specifically, a plurality of shooting target areas are determined based on the information that can identify the event input from the operator via the operation unit 206 and the table stored in advance. As a plurality of shooting target areas, as shown in FIG. 20, a first shooting target area 2001, a second shooting target area 2002, and a third shooting target area 2003 are set.
  • the permissible value acquisition unit 1803 acquires the required level of quality of the three-dimensional shape data and the level of the lower limit resolution.
  • the permissible value acquisition unit 1803 requests the quality of the three-dimensional shape data for each shooting target area based on the information that can identify the event input from the operator via the operation unit 206 and the table stored in advance. And the lower limit resolution level is determined and acquired.
  • the camera group number acquisition unit 1805 determines and acquires the number of camera groups 103 for each shooting target area.
  • the number of camera groups 103 is determined according to the required level of quality of the three-dimensional shape data generated by the virtual viewpoint image generator 106.
  • the number of directions required to generate the 3D shape data varies depending on the required level of quality of the 3D shape data. That is, when the required level of quality of the three-dimensional shape data is high, that is, when the accuracy of the three-dimensional shape data is increased, it is necessary to shoot from many directions, so that the number of camera groups 103 increases. On the other hand, when the required level of quality of the three-dimensional shape data is low, the accuracy of the three-dimensional shape data may be low, so that the shooting direction may be reduced, and as a result, the number of camera groups 103 can be reduced. it can.
  • the camera group number acquisition unit 1805 refers to the table by associating the camera group number acquisition unit 1805 with the required level of quality of the three-dimensional shape data and the number of required directions (that is, the number of camera groups). , The number of camera groups can be determined. Since the required level of quality of 3D shape data corresponds to the target area for shooting, here is a table in which the required level of quality of 3D shape data and the number of camera groups correspond to each other. By referring to 19C), the number of camera groups is determined.
  • the number of camera groups 103 in each of the first shooting target area 2001, the second shooting target area 2002, and the third shooting target area 2003 is determined to be 30, 24, 10. Further, the arrangement area of the camera group 103 may also be determined by this process, but in the present embodiment, an example determined in the next step S2104 is shown.
  • step S2104 the placement determination unit 1806 determines the placement area of the camera group 103 for each shooting target area based on the number of camera groups and venue information. Since this process corresponds to performing the same process as in S404 of FIG. 4 for each of the plurality of imaging target areas, the description thereof will be omitted.
  • step S2105 the placement determination unit 1806 determines the placement of two or more cameras 102 belonging to the camera group 103 for each camera group 103 in each shooting target area based on the placement area of the camera group 103 and the lower limit resolution request level. Determine the number and placement. Since this process corresponds to performing the same process as in S405 of FIG. 4 for each of the plurality of imaging target areas, the description thereof will be omitted. Further, the arrangement of the camera 102 determined by the arrangement determination unit 1806 is the same as that of the first embodiment.
  • step S2106 the arrangement determination unit 1806 totals the number of cameras 102 determined for each camera group 103 in each shooting target area in S2105, and determines the number of cameras 102 required for the multi-camera system 101.
  • step S2107 the arrangement determination unit 1806 determines whether there is a problem with the number of cameras calculated in step S2106. Since step S2107 is the same process as S407 in FIG. 4, detailed description thereof will be omitted. If it is determined that there is no problem (YES), the process ends. If it is determined that there is a problem (NO), the process proceeds to step S2108.
  • step S2108 the arrangement determination unit 1806 determines which arrangement condition is to be changed.
  • the arrangement condition that can be changed is any of the shooting target area, the lower limit resolution, and the number of camera groups 103. Since step S2108 is the same process as S408 in FIG. 4, detailed description thereof will be omitted.
  • step S2109 the arrangement determination unit 1806 determines whether or not the arrangement condition to be changed is the imaging target area. In the case of the imaging target area (YES), the process proceeds to step S2110. If not (NO), the process proceeds to step S2111.
  • step S2110 the shooting target area acquisition unit 1804 changes the shooting target area.
  • one or more shooting target areas out of a plurality of shooting target areas are changed. That is, it is not necessary to change the entire shooting target area. If the reason for determining that there is a problem in step S2107 is "the number of cameras is large", the shooting target area is changed to be narrower than one of the plurality of shooting target areas. On the contrary, when “the number of cameras is small", it is changed so that one or more of the plurality of shooting target areas are widened.
  • the process proceeds to step S2105, and the arrangement determination unit 1806 sets the number and arrangement of the cameras 102 based on the plurality of shooting target areas including the changed shooting target area. To determine again.
  • the shooting target area acquisition unit 1804 may acquire the shooting target area from the operator via the operation unit 206.
  • step S2111 the arrangement determination unit 1806 determines whether or not the arrangement condition to be changed is the lower limit resolution. In the case of the lower limit resolution (YES), the process proceeds to step S2112. If not (NO), the process proceeds to step S2113.
  • step S2112 the permissible value acquisition unit 1803 changes the lower limit resolution request level. If the reason for determining that there is a problem is "the number of cameras is large”, the lower limit resolution requirement level of one or more shooting target areas is changed to be small. On the contrary, when the reason for determining that there is a problem is "the number of cameras is small", the lower limit resolution requirement level of one or more shooting target areas is changed to be large.
  • the permissible value acquisition unit 1803 the process proceeds to step S2105, and the arrangement determination unit 1806 redetermines the number and arrangement of the cameras 102.
  • the permissible value acquisition unit 1803 may acquire the lower limit resolution request level from the operator via the operation unit 206.
  • step S2113 the camera group number acquisition unit 1805 changes the number of camera groups 103. If the reason for determining that there is a problem in step S2107 is "the number of cameras is large”, the number of camera groups 103 in one or more shooting target areas is reduced. On the contrary, when the reason for determining that there is a problem is "the number of cameras is small", the number of camera groups 103 in one or more shooting target areas is increased.
  • the process proceeds to step S2104, and the arrangement determination unit 1806 determines the arrangement area of the camera group 103 again. Then, the process proceeds to step S2105, and the arrangement determination unit 1806 determines the number and arrangement of the cameras 102 again.
  • the camera group number acquisition unit 1805 may acquire the number of camera groups from the operator via the operation unit 206.
  • the same effect as that of the first embodiment is obtained. That is, in each of the camera groups 103 in the shooting target area, a plurality of cameras 102 belonging to the camera group 103 are arranged so that the entire area of the corresponding shooting target area is shot. Therefore, a subject at an arbitrary position in the shooting target area is shot by at least one camera 102 in each camera group 103. Then, the same number of cameras 102 as the number of camera groups 103 will shoot a subject at an arbitrary position in the shooting target area. Further, the arrangement areas of the respective camera groups 103 are determined to be as evenly spaced as possible. That is, it is possible to generate a virtual viewpoint image with good image quality for a subject at an arbitrary position in the shooting target area.
  • the shooting target area is set for each of the plurality of required levels. Then, by determining the number and arrangement of the camera groups 103 and the number and arrangement of the cameras 102 in the camera group for each shooting target area, the appropriate number of cameras according to the type of the subject can be appropriately positioned. Can be placed in. For example, when the space 504 of FIG. 5 of the first embodiment and the third imaging target area 2003 of FIG. 20 are the same, the number of cameras 102 can be reduced as compared with the first embodiment.
  • the number of camera groups 103 and the number of cameras 102 are uniformly determined regardless of the type of subject and the moving range. For example, in the first embodiment, even in an area away from the ground, specifically, an area of the third imaging target area 2003 that is not included in the second imaging target area 2002, all the cameras belonging to the camera group shoot. Therefore, the number of cameras 102 increases. However, since only the ball is the subject in that area, the required level of quality of the three-dimensional shape data may be low, and it is not necessary to shoot at a high resolution. Therefore, according to the present embodiment, in consideration of this point, the number of camera groups 103 for photographing the area is reduced, and the number of cameras 102 belonging to the camera group 103 is also reduced.
  • one or more camera groups may be shared between the first shooting target area 2001 and the second shooting target area. In that case, the number of cameras 102 can be further reduced.
  • the following processing is performed. That is, the processing of S404 is performed as follows.
  • the arrangement determination unit 1806 determines the arrangement of the camera group 103 with respect to the first imaging target area 2001. Further, the arrangement determination unit 1806 determines the arrangement of the camera group 103 with respect to the second shooting target area 2002. Then, among the camera groups 103 determined for the first shooting target area 2001, it is determined whether there is a camera group 103 whose position is close to the camera group 103 determined for the second shooting target area 2002.
  • the camera group 103 is set to the first shooting target area 2001. Try to remove from.
  • the point that the number and arrangement of the cameras 102 belonging to the camera group 103 are determined according to the lower limit resolution requirement level and the quality requirement level of the three-dimensional shape data based on the shooting target area corresponding to the camera group 103 is described above. Same as the explanation. For example, it is assumed that 12 camera groups 701a to 701l as shown in FIG. 7 are determined for the first imaging target area 2001.
  • positions close to the camera groups 701b, 701d, 701f, 701h, 701j, and 701k as shown in FIG. 7 are determined with respect to the second imaging target area 2002.
  • the camera groups 701b, 701d, 701f, 701h, 701j, and 701k are excluded from the camera group of the first photographing target area 2001. That is, as the camera group of the first photographing target area 2001, the camera groups 701a, 701c, 701e, 701g, 701i, and 701l remain, and the subsequent processing is performed.
  • the three-dimensional shape data can be appropriately generated.
  • the camera group of the first shooting target area 2001 and the camera group 103 of the second shooting target area 2002 are arranged alternately to reduce the bias of the quality level depending on the direction when generating the three-dimensional shape data. Can be done.
  • the three-dimensional shape data of the subject is generated not only by the cameras in the camera group 103 in the second shooting target area 2002 but also by the cameras in the camera group 103 in the first shooting target area 2001. Captured images are also used.
  • the process is as follows.
  • the weight of the pixel value at the position corresponding to the pixel of interest of the camera of the camera group 103 in the first shooting target area 2001 is set to the pixel of interest of the camera of the camera group 103 of the second shooting target area 2002. Make it larger than the weight of the pixel value at the corresponding position.
  • the first shooting target area 2001 and the second shooting target area 2002 are taken as examples, even if a part of the camera groups of any two or more shooting target areas among the plurality of shooting target areas are shared, the camera groups may be shared. The number of cameras 102 can be reduced.
  • the type acquisition unit 1807 may acquire information on a plurality of shooting target areas instead of the type of the subject. That is, for example, in FIG. 19A, the type of the shooting target area (first shooting target area 2001, second shooting target area 2002, third shooting target area 2003) and the length, width, and height that define the shooting target area. Information indicating the length of the may be acquired.
  • rugby as an example of an event
  • this embodiment can also be applied to ball games such as soccer and athletics.
  • the 100m dash which is a track and field race
  • it is conceivable that a high-quality virtual viewpoint image is required on the track on which the athlete runs, in the vicinity of the goal point, from other places. In that case, various demand levels may be increased with respect to the region near the goal point, and various demand levels may be lowered in other regions.
  • a storage medium in which a program code of software that realizes the functions of the above-described embodiment is recorded is supplied to a system or an apparatus.
  • the computer (or CPU or MPU) of the system or device reads and executes the program code stored in the storage medium.
  • the program code itself read from the storage medium realizes the function of the above-described embodiment, and the storage medium storing the program code constitutes the present invention.
  • a storage medium for supplying the program code for example, a flexible disk, a hard disk, an optical disk, a magneto-optical disk, a CD-ROM, a CD-R, a magnetic tape, a non-volatile memory card, a ROM, or the like can be used.
  • the OS operating system running on the computer performs a part or all of the actual processing.
  • the program code read from the storage medium is written in the memory provided in the function expansion board inserted in the computer or the function expansion unit connected to the computer.
  • the function expansion board, the CPU provided in the function expansion unit, or the like performs a part or all of the actual processing.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

仮想視点画像の生成に用いられる複数のカメラ102の配置を決定する配置決定装置108であって、撮影対象領域503を表す情報を取得し、その情報に基づいて、複数のカメラ102のうち2以上のカメラ102により撮影対象領域503の全域が撮影され、かつ、複数のカメラ102のうち前記2以上のカメラ102とは異なる他の2以上のカメラ102により撮影対象領域503の全域が撮影されるように、複数のカメラ102の配置を決定する。

Description

配置決定装置、システム、配置決定方法、及びプログラム
 本発明は、複数の撮影装置の配置を決定する技術に関する。
 近年、複数の撮影装置を異なる位置に配置して、同期して撮影し、当該撮影により得られた複数の画像を用いて、指定された仮想視点からの仮想視点画像を生成する技術が注目されている。
 特許文献1は、仮想視点画像を生成する技術について記載されており、複数の撮影装置を円周に沿って撮影対象領域である円の中心を向くように配置することについて記載されている。
特開2010-79505号公報
 特許文献1では、撮影対象領域である円の中心の近傍に存在する被写体を撮影する撮影装置の台数と、そこから離れた位置に存在する被写体を撮影する撮影装置の台数とに差が生じる。さらに、撮影対象領域が大きい場合には、その差が大きくなる。そのため、仮想視点画像における被写体の再現精度について、仮想視点間の差が大きくなる場合がある。
 そこで、上記課題に鑑み、本発明では、広範囲の撮影対象領域であっても、仮想視点間における被写体の再現精度の差を低減することを目的とする。
 本発明の一つの態様は、以下のとおりである。すなわち、仮想視点画像の生成に用いられる複数の撮影装置の配置を決定する配置決定装置であって、前記複数の撮影装置による撮影の対象となる撮影対象領域を表す情報を取得する領域取得手段と、前記領域取得手段により取得された情報に基づいて、前記複数の撮影装置のうち2以上の撮影装置により前記撮影対象領域の全域が撮影され、かつ、前記複数の撮影装置のうち前記2以上の撮影装置とは異なる他の2以上の撮影装置により前記撮影対象領域の全域が撮影されるように前記複数の撮影装置の配置を決定する配置決定手段と、を有することを特徴とする。
 本発明によれば、広範囲の撮影対象領域であっても、仮想視点間における被写体の再現精度の差を低減することができる。
画像処理システムの構成例を示す図 配置決定装置のハードウェア構成例を示す図 実施形態1に係る配置決定装置の構成例を示す図 実施形態1に係る配置決定装置の処理手順例を示すフローチャート 実施形態1に係る撮影対象領域の例を示す図 実施形態1に係る撮影対象領域の例を示す図 解像度を説明するための図 配置領域の例を示す図 配置領域における複数のカメラの配置例を示す図 理想的な複数のカメラの配置を示す図 複数のカメラの配置例を示す図 複数のカメラの他の配置例を示す図 複数のカメラの他の配置例を示す図 複数のカメラの他の配置例を示す図 決定した配置例を示す図 実施形態2に係る配置決定装置の処理手順例を示すフローチャート 配置領域から見た撮影対象領域の角度を説明する図 実施形態2に係る配置決定装置の構成例を示す図 実施形態1に係る配置決定装置が参照する表の一例を示す図 実施形態1に係る配置決定装置が参照する表の一例を示す図 実施形態1に係る配置決定装置が参照する表の一例を示す図 実施形態3に係る配置決定装置の構成例を示す図 実施形態3に係る配置決定装置が参照する表の一例を示す図 実施形態3に係る配置決定装置が参照する表の一例を示す図 実施形態3に係る配置決定装置が参照する表の一例を示す図 実施形態3に係る撮影対象領域の例を示す図 実施形態3に係る撮影対象領域の例を示す図 実施形態3に係る配置決定装置の処理手順例を示すフローチャート
 以下、図面を参照しながら、本発明を実施するための形態について説明する。なお、以下の実施形態は本発明を限定するものではなく、また、本実施形態で説明されている特徴の組み合わせの全てが本発明の解決手段に必須のものとは限らない。なお、同一の構成については、同じ符号を付して説明する。
 <実施形態1>
 図1は、画像処理システム100の構成の一例を示す図である。画像処理システム100は、マルチカメラシステム101、ハブ104、制御装置105、仮想視点画像生成装置106を有する。また、画像処理システム100は、仮想視点指定装置107や配置決定装置108を含んでいてもよい。
 画像処理システム100は、複数の撮影装置による撮影に基づく複数の画像と、指定された仮想視点とに基づいて、指定された視点からの見えを表す仮想視点画像を生成するシステムである。本実施形態における仮想視点画像は、自由視点映像とも呼ばれるものであるが、ユーザが自由に(任意に)指定した視点に対応する画像に限定されず、例えば複数の候補からユーザが選択した視点に対応する画像なども仮想視点画像に含まれる。また、本実施形態では仮想視点の指定がユーザ操作により行われる場合を中心に説明するが、仮想視点の指定が画像解析の結果等に基づいて自動で行われてもよい。また、本実施形態では仮想視点画像が動画である場合を中心に説明するが、仮想視点画像は静止画であってもよい。
 マルチカメラシステム101は、撮影対象空間を複数の方向から撮影する複数のカメラ(撮影装置)102aa~102lcを有する。複数のカメラ102aa~102lcは、複数のカメラグループ103a~103lのうちいずれかのカメラグループに属している。なお、以下では、特に区別する必要がない場合、カメラ102、カメラグループ103と表現する。
 それぞれのカメラグループ103は、1台以上のカメラ102を有する。具体的には、カメラグループ103aには、3台のカメラ102aa、102ab、102acが属している。ただし、カメラグループ103に属するカメラの台数は3台に限らず、2台以下でもよいし、4台以上でもよい。また、カメラグループ103のそれぞれに属するカメラ102の台数は同じでもよいし、異なっていてもよい。
 複数のカメラ102で撮影された複数の画像は、ハブ104を通して、仮想視点画像生成装置106へ送られる。また、制御装置105は、マルチカメラシステム101の撮影を制御したり、マルチカメラシステム101が有する複数のカメラ102の配置状況を管理する。
 仮想視点画像生成装置106は、マルチカメラシステム101で撮影された複数の画像に基づいて、仮想視点指定装置107で指定された視点から見た仮想視点画像を生成する。仮想視点指定装置107で指定される視点情報は、仮想視点の位置及び向きを示す情報である。具体的には、視点情報は、仮想視点の3次元位置を表すパラメータと、パン、チルト、及びロール方向における仮想視点の向きを表すパラメータとを含む、パラメータセットである。なお、視点情報の内容は上記に限定されない。例えば、視点情報としてのパラメータセットには、仮想視点の視野の大きさ(画角)を表すパラメータが含まれてもよい。また、視点情報は複数のパラメータセットを有していてもよい。例えば、視点情報が、仮想視点画像の動画を構成する複数のフレームにそれぞれ対応する複数のパラメータセットを有し、連続する複数の時点それぞれにおける仮想視点の位置及び向きを示す情報であってもよい。なお、仮想視点指定装置107は、仮想視点画像生成装置106又は画像処理システム100と有線もしくは無線で接続されている。
 仮想視点画像生成装置106は、例えば以下の方法で仮想視点画像を生成する。まず、複数の撮影装置によりそれぞれ異なる方向から撮影することで複数の画像が取得される。次に、その複数の画像から、人物やボールなどの所定のオブジェクト(被写体)に対応する前景領域を抽出した前景画像と、前景領域以外の背景領域を抽出した背景画像が取得される。また、所定の被写体の3次元形状を表す前景モデルと前景モデルに色付けするためのテクスチャデータとが前景画像に基づいて生成され、競技場などの背景の3次元形状を表す背景モデルに色づけするためのテクスチャデータが背景画像に基づいて生成される。そして、前景モデルと背景モデルに対してテクスチャデータをマッピングし、視点情報が示す仮想視点に応じてレンダリングを行うことにより、仮想視点画像が生成される。なお、背景としてはフィールドやゴールポストである。ただし、仮想視点画像の生成方法はこれに限定されず、3次元モデルを用いずに撮影画像の射影変換により仮想視点画像を生成する方法など、種々の方法を用いることができる。
 配置決定装置108は、後述するようにマルチカメラシステム101が有する複数のカメラ102の配置を決定する。この配置決定装置108は、画像処理システム100に含まれていてもよいし、含まれていなくてもよい。配置決定装置108は、制御装置105又は画像処理システム100と有線又は無線で接続されている。
 なお、上述した前景画像と背景画像は、仮想視点画像生成装置106で撮影画像からそれぞれ抽出されてもよい、それ以外の装置で、例えばカメラ102で抽出されてもよい。カメラ102で前景画像と背景画像が抽出される場合、複数のカメラ102のそれぞれで前景画像と背景画像の両方ともを抽出してもよいし、複数のカメラ102の一部のカメラが前景画像を抽出し、他の一部が背景画像を抽出するようにしてもよい。また、複数のカメラ102には、前景画像と背景画像のいずれも抽出しないカメラ102が含まれていてもよい。
 図2は、配置決定装置108のハードウェア構成の一例を示す図である。CPU201は、ROM202やRAM203に格納されているコンピュータプログラムやデータを用いて情報処理装置の全体を制御することで、情報処理装置の各機能を実現する。なお、情報処理装置がCPU201とは異なる1又は複数の専用のハードウェアを有し、CPU201による処理の少なくとも一部を専用のハードウェアが実行してもよい。専用のハードウェアの例としては、ASIC(特定用途向け集積回路)、FPGA(フィールドプログラマブルゲートアレイ)、およびDSP(デジタルシグナルプロセッサ)などがある。ROM202は、変更を必要としないプログラムなどを格納する。
 RAM203は、補助記憶装置204から供給されるプログラムやデータ、及び通信I/F207を介して外部から供給されるデータなどを一時記憶する。補助記憶装置204は、例えばハードディスクドライブ等で構成され、画像データや音声データなどの種々のデータを記憶する。表示部205は、例えば液晶ディスプレイやLED等で構成され、ユーザが情報処理装置を操作するためのGUI(Graphical User Interface)などを表示する。
 操作部206は、例えばキーボードやマウス、ジョイスティック、タッチパネル等で構成され、ユーザによる操作を受けて各種の指示をCPU201に入力する。通信I/F207は、情報処理装置の外部の装置との通信に用いられる。例えば、情報処理装置が外部の装置と有線で接続される場合には、通信用のケーブルが通信I/F207に接続される。情報処理装置が外部の装置と無線通信する機能を有する場合には、通信I/F207はアンテナを備える。バス208は、情報処理装置の各部をつないで情報を伝達する。
 本実施形態では表示部205と操作部206が配置決定装置108の内部に存在するものとするが、表示部205と操作部206との少なくとも一方が配置決定装置108の外部に別の装置として存在していてもよい。この場合、CPU201が、表示部205を制御する表示制御部、及び操作部206を制御する操作制御部として動作してもよい。
 図3は、配置決定装置108の機能構成の一例を示す図である。配置決定装置108は、許容値取得部303、撮影対象領域取得部304、カメラグループ数取得部305、配置決定部306を有している。さらに、配置決定装置108は、イベント情報記憶部301と会場情報記憶部302とを有していてもよい。本実施形態は、配置決定装置108がイベント情報記憶部301と会場情報記憶部302とを有する例で説明を行う。しかし、イベント情報記憶部301と会場情報記憶部302は、配置決定装置108とは別の装置に含まれて、その装置から配置決定装置108が必要な情報を取得するようにしてもよい。
 イベント情報記憶部301は、撮影対象のイベントに関する情報を記憶する。イベント情報は、例えば、以下の情報である。イベントの種別やその他のイベントが特定できる情報、フィールドの大きさの情報、被写体の移動範囲の情報、被写体の密集度の情報、仮想視点画像の用途に関する情報、イベントの規模の情報などである。イベントの種別は、ラグビー、サッカー、ボルダリング、野球、陸上競技、水上競技、氷上競技などのスポーツ競技や、コンサートや演劇などであり、特に限定されない。フィールドとは、イベントにおいて被写体である人物やボール、イベントで使用される道具等の動体が移動できる面をいう。被写体の移動範囲は、イベントごとに設定される。被写体の密集度は、イベントにおいて被写体である人物が密集した場合のその密集度を数値化したものである。例えばラグビー、サッカー、野球の密集度を比較すると、ラグビーが最も密集度が大きく、野球が最も密集度が小さい。ラグビーの被写体の密集度が大きい要因は、スクラムやモールなどのプレイが発生するからである。仮想視点画像の用途は、生放送での使用用途、アーカイブ配信での使用用途、行動分析や戦術分析などでの使用用途などがある。
 会場情報記憶部302は、複数のカメラ102を配置する会場に関する情報を記憶する。会場情報は、例えば、以下の情報である。会場の名称の情報、会場の大きさの情報、会場内でのカメラ102を配置可能な構造体とその位置に関する情報や、配置可能なカメラ102の台数の情報などである。なお、会場は、ラグビーやサッカーなどの試合会場となるスタジアムや、演劇やコンサートなどの会場などである。また、会場は、スポーツチームの練習場などであってもよい。カメラ102を配置可能な構造体とその位置を示す情報は、2次元画像で表されていてもよいし、3次元データとして表されていてもよい。
 許容値取得部303は、所定の基準となる被写体をカメラ102が撮影した際に、その被写体の画像中の大きさである解像度の下限値を設定して取得する。具体的には、仮想視点画像の用途により、下限解像度を設定する。例えば、仮想視点画像の用途が生放送用の俯瞰画像の場合は、下限解像度を小さく設定し、仮想視点画像の用途がリプレイ画像の場合は、下限解像度を大きく設定する。なお、下限解像度については後述する。
 許容値取得部303は、イベント情報の一つである仮想視点画像の用途と下限解像度の対応を予め表として記憶しておき、その表を参照して設定するようにしてもよい。つまり、許容値取得部303は、操作部206を介してオペレータからイベントを特定できる情報の入力を受け付けると、イベント情報記憶部301に記憶されているイベント情報とその表を参照し、下限解像度を取得するようにしてもよい。参照される表の一例を図17Aに示す。なお、参照される表は、仮想視点画像の用途の情報と下限解像度の情報とが対応付けられていればよいが、これに限られない。上記以外のイベント情報と下限解像度の情報とが対応付けられていてもよい。また、参照される表は、イベントの名称等のイベントを特定できる情報と下限解像度とが対応付けられていてもよい。また、参照される表は、イベント情報記憶部301に記憶されていてもよいし、外部の装置に記憶されていてもよい。
 また、許容値取得部303は、操作部206を介して、オペレータから直接、下限解像度の数値等の情報を取得してもよい。
 撮影対象領域取得部304は、イベント情報に基づいて、マルチカメラシステム101の撮影対象となる領域である撮影対象領域を決定する。具体的には、撮影対象領域取得部304は、次のような構成とすればよい。すなわち、まず、撮影対象領域取得部304はイベント情報の少なくとも一部の情報と撮影対象領域を表す情報とが対応付けた表を記憶する。イベント情報の少なくとも一部の情報とは、フィールドの大きさの情報、被写体の移動範囲の情報などである。そして、撮影対象領域取得部304は、操作部206を介してオペレータからイベントを特定できる情報の入力を受け付けると、イベント情報記憶部301に記憶されているイベント情報とその表を参照し、撮影対象領域を決定する。参照される表の一例を図17Bに示す。なお、参照される表は、フィールドの大きさの情報と被写体の移動範囲の情報と撮影対象領域の情報とが対応付けられていればよいが、これに限られない。上記以外のイベント情報と撮影対象領域の情報とが対応付けられていてもよい。また、参照される表は、イベントの名称等のイベントを特定できる情報と撮影対象領域とが対応付けられていてもよい。また、参照される表は、イベント情報記憶部301に記憶されていてもよいし、外部の装置に記憶されていてもよい。
 また、撮影対象領域取得部304は、操作部206を介して、オペレータから直接、撮影対象領域の情報を取得してもよい。
 ここで、撮影対象領域について説明を行う。図5Aは、撮影対象領域の一例を示す図であり、この図では、イベントがラグビーである場合の例を示している。撮影対象領域503は2次元上の面であり、図5Bの空間504の一部を構成する。この撮影対象領域503は、撮影対象領域取得部304により、フィールド501の大きさや、人物(選手)やボールなど被写体の移動範囲に基づいて決定される。ここで、移動範囲とは、フィールド501上の移動範囲だけでなく、例えばラインアウトによるスローインを行う際に、タッチラインの外に選手が立つため、フィールド501の周辺も移動範囲に含むものとする。移動範囲はイベントに応じてその大きさが設定されていてもよい。例えば、ラグビーであれば、移動距離はタッチラインやデッドボールライン、タッチインゴールラインやゴールポスト502などからの距離や角度等で規定されていてもよいし、フィールド501を含むように設定された範囲で規定されてもよい。また、サッカーであれば、同様にタッチラインやゴールライン、コーナーフラッグの位置などからの距離や角度で規定されてもよい。また、野球であれば、移動範囲としてファールゾーンを含むように設定されていてもよい。
 このように、撮影対象領域503は、プレーエリア(フィールド501)を含み、さらにプレーエリアよりも外側にある所定の範囲を含むように設定される。このように撮影対象領域503が設定されることにより、フィールド501の全域において、高画質な仮想視点画像を生成することができる。
 図5Bは、高さ方向を考慮した空間504を撮影対象領域として設定される例を示す図である。つまり、図5Bの例では、撮影対象領域は3次元空間である。図5Bでは、主にボールの動く範囲を考慮して、ゴールポスト502の上部の空間を含む範囲を含むように撮影対象領域が設定される。そのほか、撮影対象領域は、フィールド501から所定の高さが考慮された空間であってもよい。例えば所定の高さとは、人物(選手)の身長や人物が跳躍した時の高さ、ラインアウト時にリフトされる選手の到達点などである。
 カメラグループ数取得部305は、撮影対象領域503を複数の方向から撮影するように、マルチカメラシステム101を構成するカメラグループ103の数を取得する。具体的には、カメラグループ数取得部305は、被写体の密集度を基に、カメラグループ103の数を設定する。カメラグループ数取得部305は、被写体の密集度が大きい場合は、被写体の密集度が小さい場合に比べ、カメラグループ103の数をより多く設定するようにする。なお、カメラグループ数取得部305は、イベント情報の一つである被写体の密集度と、カメラグループ103の数との対応を予め表として記憶しておき、その表を参照して設定するようにしてもよい。つまり、カメラグループ数取得部305は、操作部206を介してイベントを特定できる情報の入力を受け付けると、イベント情報記憶部301に記憶されているイベント情報とその表とを参照し、カメラグループ103の数を取得するようにしてもよい。参照される表の一例を図17Cに示す。なお、参照される表は、被写体の密集度の情報とカメラグループ103の数の情報とが対応付けられていればよいが、これに限られない。上記以外のイベント情報とカメラグループ103の数の情報とが対応付けられていてもよい。また、参照される表は、イベントの名称等のイベントを特定できる情報とカメラグループ103の数とが対応付けられていてもよい。また、参照される表は、イベント情報記憶部301に記憶されていてもよいし、外部の装置に記憶されていてもよい。
 また、カメラグループ数取得部305は、操作部206を介して、オペレータから直接、カメラグループ103の数の情報を取得してもよい。
 配置決定部306は、下限解像度、撮影対象領域503、カメラグループ数、会場情報に基づいて、カメラ102の配置を決定する。下限解像度は許容値取得部303により取得され、撮影対象領域503は、撮影対象領域取得部304により取得され、カメラグループ数は、カメラグループ数取得部305により取得される。また、会場情報は、会場情報記憶部302に記憶されている。配置決定部306は、操作部206を介して入力された会場を特定するための情報に基づいて、会場情報記憶部302から、必要な会場情報を取得する。例えば、取得する会場情報は、会場内でのカメラ102を配置可能な構造体とその位置に関する情報や、配置可能なカメラ102の台数の情報などである。
 配置決定部306は、具体的には、まず撮影対象領域503と、カメラグループ数と、会場情報とを基に、カメラグループ103の配置位置を決定する。次に、配置決定部306は、カメラグループ103ごとに、属する複数のカメラ102の配置を決定する。その際、配置決定部306は、カメラグループ103に属する複数のカメラ102により撮影対象領域503の全域が撮影されるように、各カメラグループ103に属する複数のカメラ102の配置を決定する。さらに配置決定部306は、カメラグループ103に属する複数のカメラ102において、撮影対象領域503の全域で、解像度が下限解像度を上回るように、複数のカメラ102の配置を決定する。なお、全カメラグループ103で、上記の撮影対象領域に関する条件、解像度に関する条件を満たすように、複数のカメラ102の配置が決定されるとしたが、これに限られない。例えば、所定数のカメラグループ103に属する複数のカメラ102だけが上記の条件を満たすように、複数のカメラ102の配置が決定されてもよい。また、所定の位置にあるカメラグループ103や所定の関係にあるカメラグループ103が上記の条件を満たすように、そのカメラグループ103に属する複数のカメラ102の配置が決定されてもよい。つまり、一部のカメラグループ103に属する複数のカメラ102によって、撮影対象領域503の全域ではなく一部が撮影されるように、その複数のカメラ102が配置されていてもよい。さらに、一部のカメラグループ103に属する複数のカメラ102において、撮影対象領域503の一部の領域で、解像度が下限解像度を上回らなくてもよい。
 図4は、配置決定装置108の処理手順の一例を示すフローチャートである。図4を用いて配置決定装置108が行う処理について説明を行う。
 まず、配置決定装置108は、操作部206を介してオペレータからの配置決定の指示を受け付ける。その指示に従って、ステップS401で、許容値取得部303は、下限解像度を取得する。
 ここで、下限解像度について説明を行うが、その前に、解像度について説明する。ここでいう解像度は、カメラ102が撮影した画像において、基準となる被写体の大きさであり、画素数で表される。基準となる被写体は、撮影対象となるイベントにおいて、典型的な被写体や仮想的な被写体であってもよいし、特定の被写体や任意の被写体であってもよい。例えば、身長2mの直立した選手を基準となる被写体と定める。その場合は、カメラ102が撮影した画像において、身長2mの直立した選手の頭の先から足の先までの画素数が解像度となる。
 図6は、解像度を説明するための図である。フィールド501内の位置602aにおける、基準となる被写体(ここでは、身長2mの直立した選手)の身長を表す撮影画像における画素数を解像度601aとする。また、位置602bにおける、基準となる被写体の身長を表す撮影画像における画素数を解像度601bとする。解像度は、カメラ102からの距離やカメラ102の焦点距離などによって異なる。例えば、カメラ102から近い位置602aの解像度601aは、遠い位置602bの解像度601bより大きくなる。
 下限解像度は、カメラ102が撮影した画像における解像度の許容値である。下限解像度は、仮想視点画像における被写体の画質に影響する。つまり、仮想視点画像において、基準となる被写体の画素数が下限解像度よりも大きくなると、デジタルズームと同様の効果により、画質劣化が生じる。よって、下限解像度は、仮想視点画像においてどれだけ被写体を大きく写したいか、どういう構図にしたいかに応じて決定される。例えば、基準となる被写体を、仮想視点画像の4分の1のサイズまで大きく写すことを考える。仮想視点画像のサイズを1920画素×1080画素とする。すると、下限解像度は、1080画素÷4=270画素と決定される。なお、ある程度のデジタルズームを許容するように下限解像度は決定されてもよい。例えば、1.2倍のデジタルズームまで許容できると判断すると、270÷1.2=225画素を下限解像度と決定する。
 この下限解像度は、フィールド501内の任意の位置における基準となる被写体を、撮影画像において何画素数以上で表現するかということ表している。ただし、これに限定されるものではない。例えば、下限解像度は、フィールド501内の任意の位置ではなくて、所定の位置あるいは所定の範囲内における基準となる被写体を、撮影画像において何画素数以上で表現するかということ表すようにしてもよい。
 許容値取得部303は、上述したように、操作部206を介してオペレータから入力されるイベントを特定できる情報と、予め記憶された表とに基づいて、下限解像度を決定して取得する。
 次に、ステップS402で、撮影対象領域取得部304は、撮影対象領域503を決定して取得する。具体的には、上述したように、操作部206を介してオペレータから入力されるイベントを特定できる情報と、予め記憶された表とに基づいて、撮影対象領域503が決定される。なお、撮影対象領域503については、上述したとおりである。
 ステップS403で、カメラグループ数取得部305は、カメラグループ103の数を決定して取得する。カメラグループ103の数は、仮想視点画像生成装置106が被写体の3次元形状データを精度よく生成するために必要な方向の数に応じて決定する。被写体の3次元形状データの生成に必要な方向の数は、被写体の密集度によって変化する。カメラグループ数取得部305は、被写体の密集度と必要な方向の数(つまり、カメラグループの数)とを対応付けて、表として予め記憶しておく。例えば、カメラグループ数取得部305は、被写体を模したCG(コンピュータグラフィックス)を用いて仮想視点画像を生成し、その画質を見て必要な方向の数およびその視点位置を、被写体の密集度と対応付けて、表として予め記憶する。例えば、野球のピッチャーなど、被写体が単独で存在する状況では、オクルージョンが発生しにくいので、少ない方向からの撮影でもよいが、ラグビーのスクラムなど、多数の被写体が密集する状況では、多くの方向から撮影する必要がある。ここで決定した方向の数を、カメラグループ103の数と決定する。以下、例として、カメラグループ103の数を12と決定したとする。また、カメラグループ103の配置領域もこのステップで決定されてもよいが、本実施形態では、次のステップS404で決定されるものとする。
 ステップS404で、配置決定部306は、カメラグループ数及び会場情報に基づいて、カメラグループ103の配置領域を決定する。配置決定処理について、図7~12を用いて詳細に説明する。図7は、カメラグループ103の配置位置の例を示す図である。まず、会場情報、例えばスタジアム702の設計図などから、カメラ102を配置することが可能な領域を、配置領域701a~701lの候補として決定する。配置領域701a~701lの候補は、スタジアム702の柱、通路、手すり、天井などである。決定された配置領域の候補は、表示部205で表示させるようにしてもよい。なお、以下では、特別な事情がない限り、配置領域701a~701lは、配置領域701という。
 次に、配置領域701の候補の中から、以下に述べる基準に沿って、カメラグループ103の配置領域701を決定する。被写体を撮影する隣り合う2つのカメラグループ103の間隔が広くなると、その間に指定された仮想視点から生成した仮想視点画像の画質が劣化する。そのためにカメラグループ103間の間隔が不均一であると、仮想視点画像の画質が指定された仮想視点の位置よってばらついてしまう。よって、撮影対象領域503の被写体から見て、カメラグループ103の配置領域701は、なるべく等間隔になるよう決定されるのがよい。例えば、撮影対象領域503の中心703の被写体から見て、隣り合う配置領域701の間の角度が等しくなるように配置領域701を決定する。カメラグループ103の数が12の場合、隣り合う配置領域701の間の理想的な角度は360度/12=30度である。よって、例えば、配置領域701aと配置領域701bを、その間の角度704abが30度となるように決定する。しかし、柱の位置など、スタジアム702の構造上の理由により、等間隔に配置領域701を決定することができない場合が考えられる。そこで、例えば、理想的な角度の1.5倍を許容範囲とするなど、予め基準を設けて、配置領域701を決定してもよい。つまり、被写体から見て隣り合う配置領域701の間の角度が所定の値を超えないように配置領域701を決定する。
 ステップS405で、配置決定部306は、カメラグループ103の配置領域701と、下限解像度と、撮影対象領域503とに基づいて、カメラグループ103ごとに、カメラグループ103に属する2以上のカメラ102の台数及び配置を決定する。その際、以下の条件を満たすように、カメラグループ103に属する2以上のカメラ102の台数及び配置が決定される。すなわち、カメラグループ103ごとに、撮影対象領域503の全域が撮影されるように、2以上のカメラ102の台数及び配置が決定される。さらに、撮影対象領域503の全域で解像度が下限解像度よりも超えるように、カメラ102の台数及び配置が決定される。また、カメラ102の台数がなるべく少なくなるように配置が決定される。なお、ここでいうカメラ102の配置は、カメラ102の位置と向きを含むものとする。
 まず、図8を用いて、配置領域701内で、複数のカメラ102を配置する位置を説明する。カメラグループ103に属する複数のカメラ102は、それぞれ対応する配置領域701に配置する。例えば、カメラグループ103aに属する複数のカメラ102は、対応する配置領域701aに配置する。配置領域701内において、カメラグループ103に属する複数のカメラ102をなるべく近い位置に配置する。
 図9は、理想的な状態として、同一のカメラグループ103a内の3台のカメラ102aa、102ab、102acを、それぞれの光学中心が重なるように配置した例である。カメラ102aaの撮影範囲が901aaである。カメラ102abの撮影範囲が901abである。カメラ102acの撮影範囲が901acである。カメラ102の撮影範囲901は、放射状に広がる。よって、光学中心が重なる場合は、撮影範囲901aa、901ab、901acが接するように、カメラ102aa、102ab、102acを配置することができる。撮影範囲901が重ならずに接することで、3台のカメラ102aa~102acで効率的に広い領域をカバーすることができる。しかし、実際は、カメラ102の物理的な制約により、光学中心が重なるように配置することはできない。よって、なるべく近い位置に配置することで、撮影範囲901の重なりを少なくする。
 図8に戻り、例えば、カメラグループ103hに属する複数のカメラ102ha、102hb、102hcを、撮影対象領域503の中心703から見て、所定の角度801hの範囲内に配置する。例えば、カメラグループ103に属する複数のカメラ102を所定の距離以内に配置する。
 別の観点から説明すると、それぞれのカメラ102を、他のカメラグループ103のカメラ102よりも、自分が属するカメラグループ103のカメラ102の近くに配置する。例えば、隣り合うカメラグループ103gと103hについて説明する。カメラグループ103gに、カメラ102ga、102gb、102gcが属するとする。また、カメラグループ103hに、カメラ102ha、102hb、102hcが属するとする。この場合に、カメラ102gcは、カメラ102ha、102hb、102hcよりも、カメラ102ga、102gbの近くに配置する。理由は次のとおりである。仮に、カメラ102gcをカメラ102haの近くに配置したとする。すると、カメラ102gcは、カメラグループ103hとは反対側に位置するカメラグループ103fのカメラ102との間隔が広くなり、仮想視点画像の画質が劣化する方向が生じるからである。
 次に、図10~12を用いて、カメラグループ103に属する複数のカメラ102により撮影対象領域503の全域を撮影する一例を説明する。
 図10は、カメラグループ103iについて、3台のカメラ102ia、102ib、102icにより、撮影対象領域503の全域を撮影する例である。カメラ102iaの撮影範囲が901iaである。カメラ102ibの撮影範囲が901ibである。カメラ102icの撮影範囲が901icである。撮影対象範囲とは、撮影画像における基準となる被写体の解像度が、下限解像度を超える領域に対応している。図10に示すように、これらの撮影範囲901ia、901ib、901icを合わせると、撮影対象領域503の全域が撮影される。例えば、カメラ102ibを真ん中に配置し、右にカメラ102iaを配置し、左にカメラ102icを配置し、3台のカメラ102が扇状に配置されている。結果として、それぞれの撮影範囲901ia、901ib、901icも扇型に広がる。
 図10は、撮影対象領域503の面内方向について、カメラ102ia~102icの撮影範囲901ia~901icについて説明する図である。ただし、撮影対象領域は、フィールド501の所定の高さまでを含む3次元空間であってもよく、その場合は、フィールド501の所定の高さ方向を含めた撮影対象領域を撮影するようにカメラ102を配置する必要がある。なお、3台のカメラ102の光学中心の位置が一致しないため、例えば、撮影範囲901icと901ibの一部が重なっている。3台のカメラ102をなるべく近くに配置することで、撮影範囲901の重なりを減らし、より効率の良い配置が可能になる。つまり、カメラグループ103に必要なカメラ102の台数を減らすことができる。
 ここで、カメラ102の光軸とスタジアム702のフィールド501との交点をカメラ102の注視点1001と定義する。図10で、カメラ102iaの注視点が1001iaである。カメラ102ibの注視点が1001ibである。カメラ102icの注視点が1001icである。図10に示すように、注視点1001の位置はすべて異なる。つまり、カメラグループ103に属する複数のカメラ102の注視点はすべて異なる。ただし、1つのカメラグループ103には、同一の注視点となるカメラ102が含まれていてもよい。
 また、図10のカメラ102の配置例では、カメラ102ia~102icの光軸は、互いに異なる方向に向けられている。また、カメラ102ia~102icのそれぞれと、それぞれの注視点とを結ぶ線分のフィールド501への射影した線分は互いに交差しない。
 図11は、別のカメラグループ103に属するカメラ102の配置の例を示す図である。カメラグループ103gには、6台のカメラ102ga、102gb、102gc、102gd、102ge、102gfが含まれている。このカメラ102ga、102gb、102gc、102gd、102ge、102gfによって、撮影対象領域503の全域が撮影されている。
 図11Aは、撮影対象領域503を上から見た図であり、撮影対象領域503の面内方向について、102ga、102gb、102gc、102gd、102ge、102gfの配置を示す図である。カメラ102gaについて、撮影範囲が901gaであり、注視点が1101gaである。カメラ102gb~102gfについても同様である。6台のカメラ102を、さらに2つのサブグループに分ける。1つ目のサブグループには、カメラ102ga、102gb、102gcが属し、配置領域701から見て、撮影対象領域503の手前側(カメラグループ103gの配置領域701gに近い側)を撮影するように配置する。2つ目のサブグループには、カメラ102gd、102ge、102gfが属し、配置領域701から見て、撮影対象領域503の奥側(カメラグループ103gの配置領域701gから遠い側)を撮影するように配置する。また、図11Aに示すとおり、それぞれのサブグループ内のカメラ102は、撮影範囲901が扇型に広がるように配置されている。
 図11Bは、撮影対象領域503を横から見た図であり、撮影対象領域503の高さ方向について、カメラ102の配置を示す図である。図11Bに示すとおり、撮影対象領域503の手前側を撮影するカメラ102ga、102gb、102gcと、撮影対象領域503の奥側を撮影するカメラ102gd、102ge、102gfとが、異なる高さに配置されている。例えば、撮影対象領域503の手前側を撮影するカメラ102gbは、奥側を撮影するカメラ102geに比べ、俯角が大きくなる。よって、撮影対象領域503の手前側を撮影するカメラ102gbを下側に配置することで、物理的に干渉することなく、より近くに配置することができる。つまり、カメラグループ103に属する複数のカメラ102をサブグループに分け、サブグループごとに高さを変えて配置してもよい。
 図12は、カメラグループ103gに属するカメラ102の配置の別の例を示す図である。カメラグループ103gには、6台のカメラ102ga、102gb、102gc、102gd、102ge、102gfが含まれている。このカメラ102ga、102gb、102gc、102gd、102ge、102gfにより、撮影対象領域503の全域が撮影される。この例では、サブグループごとに位置が異なるように配置されている。例えば、配置領域701gが、2本の柱を含むように設定される。そして、その2本の柱それぞれに異なるサブグループが割り当てられる。例えば、撮影対象領域503から見て左の柱に、1つ目のサブグループに属するカメラ102ga、102gb、102gcが配置される。撮影対象領域503から見て右の柱に、2つ目のサブグループに属するカメラ102gd、102ge、102gfが配置される。つまり、カメラグループ103に属する複数のカメラ102をサブグループに分け、サブグループごとに位置を変えて配置してもよい。
 下限解像度が異なれば、カメラグループ103ごとのカメラ102の台数は異なる。下限解像度を大きくすると、カメラ102の焦点距離を長くする必要がある。そして、焦点距離を長くすると、カメラ102の撮影範囲901が狭くなる。よって、撮影対象領域503の全域を撮影するために必要なカメラ102の台数が増加する。逆に、下限解像度を小さくすると、カメラ102の焦点距離を短くすることができる。焦点距離を短くすると、カメラ102の撮影範囲901が広くなる。よって、撮影対象領域503の全域を撮影するために必要なカメラ102の台数が減少する。
 ステップS406で、配置決定部306は、S405で決定したカメラグループ103ごとに決定したカメラ102の台数を合計し、マルチカメラシステム101に必要なカメラ102の台数を決定する。
 ステップS407で、配置決定部306は、ステップS406で計算したカメラの台数に問題が無いかを判定する。具体的には、配置決定部306は、カメラの台数が所定の台数より多い、あるいは少ない場合に問題があると判定する。問題がない(YES)と判定した場合は処理を終了する。問題がある(NO)と判定した場合はステップS408に進む。なお、所定の台数は、予算によって設定されてもよいし、仮想視点画像生成装置106の処理能力や、撮影した画像を伝送する際の伝送帯域容量など、を基に設定されてもよい。
 ステップS408で、配置決定部306は、どの配置条件を変更するかを決定する。変更可能な配置条件は、撮影対象領域503、下限解像度、カメラグループ103の数のいずれかである。なお、変更する配置条件は、配置決定部306により自動的に決定されてもよいし、オペレータが操作部206を介して、直接入力されてもよい。なお、配置決定部306により自動的に決定される場合であっても、予めオペレータが変更する配置条件に優先度を設定したり、予めどの配置条件を変更するか指定するようにしてもよい。
 ステップS409で、配置決定部306は、変更する配置条件が撮影対象領域503であるか否かを判定する。撮影対象領域503の場合(YES)は、ステップS410へ進む。そうでない場合(NO)は、ステップS411へ進む。
 ステップS410で、撮影対象領域取得部304は、撮影対象領域503を変更する。ステップS407で問題があると判定した理由が、「カメラの台数が多い」ことである場合は、撮影対象領域503を狭くするように変更する。逆に、「カメラの台数が少ない」ことである場合は、撮影対象領域503を広くするように変更する。撮影対象領域取得部304により撮影対象領域503が変更されると、ステップS405へ進み、変更された撮影対象領域503に基づいて、配置決定部306は、カメラ102の台数及び配置を再度決定する。なお、撮影対象領域取得部304は、オペレータから、操作部206を介して、撮影対象領域を取得するようにしてもよい。
 ステップS411で、配置決定部306は、変更する配置条件が下限解像度であるか否かを判定する。下限解像度の場合(YES)は、ステップS412へ進む。そうでない場合(NO)は、ステップS413へ進む。
 ステップS412で、許容値取得部303が、下限解像度を変更する。ステップS407で問題が有ると判定した理由が、「カメラの台数が多い」ことである場合は、下限解像度を小さくするように変更する。逆に、「カメラの台数が少ない」ことである場合は、下限解像度を大きくするように変更する。許容値取得部303により下限解像度が変更された後、ステップS405へ進み、変更された下限解像度に基づいて、配置決定部306は、カメラ102の台数及び配置を再度決定する。なお、許容値取得部303は、オペレータから、操作部206を介して、下限解像度を取得するようにしてもよい。
 ステップS413で、カメラグループ数取得部305は、カメラグループ103の数を変更する。ステップS407で問題があると判定した理由が、「カメラの台数が多い」ことである場合は、カメラグループ103の数を減らすように変更する。逆に、「カメラの台数が少ない」ことである場合は、カメラグループ103の数を増やすように変更する。カメラグループ数取得部305によりカメラグループ103の数が変更された後、ステップS404へ進み、配置決定部306は、カメラグループ103の配置領域701を再度決定する。そして、ステップS405に進み、配置決定部306は、カメラ102の台数及び配置を再度決定する。なお、カメラグループ数取得部305は、オペレータから、操作部206を介して、カメラグループ数を取得するようにしてもよい。
 配置決定装置108が決定した配置の効果について、図13を用いて説明する。それぞれのカメラグループ103は、撮影対象領域503の全域が撮影されるように、属する複数のカメラ102が配置される。つまり、撮影対象領域503の中の任意の位置の被写体が、それぞれのカメラグループ103において、少なくとも1台のカメラ102から撮影されることになる。1301の位置にいる被写体について考える。カメラグループ103aにおいて、カメラ102aaが1301の位置の被写体を撮影する。カメラグループ103bにおいて、カメラ102baが1301の位置の被写体を撮影する。以下同様である。言い換えると、カメラグループ103の数と同数のカメラ102から、撮影対象領域503の中の任意の位置の被写体が撮影されることになる。また、それぞれのカメラグループ103の配置領域701は、なるべく等間隔になるように決定されている。つまり、撮影対象領域503の中の任意の位置の被写体について、画質のよい仮想視点画像を生成することが可能である。
 <実施形態2>
 本実施形態において、実施形態1とは異なる配置決定装置1600の例について説明する。図16に、本実施形態における配置決定装置1600の機能構成例を示す。図16に示すように、配置決定装置1600は、図3の許容値取得部303の代わりに、カメラ台数取得部1601を有している。また、配置決定装置1600は、図3の配置決定部306に代わりに、配置決定部1602を有している。なお、配置決定装置108のハードウェア構成は、図2と同じであるため省略する。
 カメラ台数取得部1601は、操作部206を介して、オペレータから直接、マルチカメラシステム101が有するカメラ102の台数を取得する。例えば、仮想視点画像生成装置106の処理性能を基に、カメラ102の台数が設定されてもよい。仮想視点画像生成装置106の処理性能が高いほど、より多くの画像を処理することができる。つまり、仮想視点画像生成装置106の処理性能が高いほど、カメラ102の台数をより多い値に設定することができる。また、予算に基づいてカメラ102の台数が設定されてもよい。カメラ102の台数を増やすと、配置に必要な費用が増える。つまり、予算が大きいほど、カメラ102の台数をより多い値に設定することができる。
 また、カメラ台数取得部1601は、以下の構成でもよい。すなわち、カメラ台数取得部1601は、イベント情報の一つであるイベントの規模や被写体の密集度とカメラ102の台数とを対応付けて、その対応を示す表を記憶しておく。そして、カメラ台数取得部1601は、操作部206を介してオペレータからイベントを特定する情報の入力を受け付けると、イベント情報記憶部301に記憶されているイベント情報とその表を参照し、カメラ102の台数を取得するようにしてもよい。例えば、イベントの規模が大きい場合は、小さい場合に比べ、カメラ102の台数がより多くなるように決定される。また、被写体の密集度が大きい場合は、被写体の密集度が小さい場合に比べて、カメラ102の台数がより多くなるように決定される。
 配置決定部1602は、カメラ102の台数、撮影対象領域503、カメラグループ数、会場情報に基づいて、カメラ102の配置を決定する。カメラ102の台数はカメラ台数取得部1601により取得され、撮影対象領域503は、撮影対象領域取得部304により取得され、カメラグループ数は、カメラグループ数取得部305により取得される。
 図14は、配置決定装置108の処理手順の一例を示すフローチャートである。ステップS402~ステップS404は、図4と同じ処理であるので、説明は省略する。
 ステップS1401で、カメラ台数取得部1601が、カメラ102の台数を取得する。例えば、仮想視点画像生成装置106の処理性能を基に、カメラ102の台数が設定されてもよい。仮想視点画像生成装置106の処理性能が高いほど、より多く画像を処理することができる。つまり、仮想視点画像生成装置106の処理性能が高いほど、カメラ102の台数をより多い値にすることができる。例えば、予算に基づいて、カメラ102の台数が設定されてもよい。カメラ102の台数を増やすと、配置に必要な費用が増える。つまり、予算が大きいほど、カメラ102の台数をより多い値にすることができる。
 ステップS1402で、配置決定部1602が、ステップS1401で取得した台数のカメラ102を、ステップS403で取得した数のカメラグループ103に割り当てる。カメラグループ103に必要なカメラ102の台数は、ステップS402で取得した撮影対象領域503と、配置領域701の関係によって変化する。例えば、図15に示すように、配置領域701から見た撮影対象領域503を角度1501で表す。配置領域701aから見た撮影対象領域503の角度1501が1501aである。そして、その角度1501に応じて、カメラグループ103にカメラ102を割り当てる。つまり、配置領域701から見た撮影対象領域503の角度1501が大きいカメラグループ103に、より多くのカメラ102を割り当てる。
 ステップS1403で、配置決定部1602は、ステップS1402で割り当てたカメラグループ103ごとのカメラ102の台数と会場情報とに基づいて、カメラグループ103ごとに、カメラ102の配置を決定する。具体的なカメラ102の配置は、撮影対象領域503の全域が撮影されるように決定される。さらに、カメラ102は、撮影対象領域503の全域で、解像度がなるべく高くなるように配置する。
 ステップS1404で、配置決定部1602は、カメラグループ103ごとに、撮影対象領域503の全域において解像度を計算する。カメラ102の撮影範囲に重なる領域では複数のカメラ102から被写体が撮影される。その場合は、解像度が大きいカメラ102の値を解像度とする。
 ステップS1405で、配置決定部1602は、ステップS1404で計算された解像度に問題がないかを判定する。例えば、解像度が所定の値よりも小さい領域が撮影対象領域503内にある場合に問題があると判定される。問題がない(YES)と判定された場合は処理を終了する。問題がある(NO)と判定された場合はステップS1406へ進む。
 ステップS1406で、配置決定部1602は、どの配置条件を変更するかを決定する。変更可能な配置条件は、撮影対象領域503とカメラグループ103の数のいずれかである。
 ステップS1407で、配置決定部1602は、変更する条件が撮影対象領域503であるか否かを判定する。変更する条件が撮影対象領域503である場合(YES)は、ステップS1408へ進む。変更する条件が撮影対象領域503ではない場合(NO)は、ステップS1409へ進む。
 ステップS1408で、撮影対象領域取得部304は、撮影対象領域503を変更する。具体的には、撮影対象領域取得部304は、計算される解像度がより高くなるように、撮影対象領域503を狭くするように変更する。撮影対象領域取得部304により撮影対象領域503が変更された後、ステップS404へ進み、配置決定部306は、カメラグループ103の配置領域701を再度決定する。そして、ステップ1402、S1403に進み、配置決定部306は、カメラ102の台数及び配置を再度決定する。なお、撮影対象領域取得部304は、オペレータから、操作部206を介して、撮影対象領域を取得するようにしてもよい。
 ステップS1409で、カメラグループ数取得部305は、カメラグループ103の数を変更する。具体的には、カメラグループ数取得部305は、計算される解像度をより高くするように、カメラグループ103の数を減らすように変更する。カメラグループ103の数を減らすと、カメラグループ103に割り当てられるカメラ102の台数が増え、解像度が高くなるからである。カメラグループ数取得部305によりカメラグループ103の数が変更された後、ステップS404へ進み、配置決定部306は、カメラグループ103の配置領域701を再度決定する。そして、ステップS1402、S1403に進み、配置決定部306は、カメラ102の台数及び配置を再度決定する。なお、カメラグループ数取得部305は、オペレータから、操作部206を介して、カメラグループ数を取得するようにしてもよい。
 本実施形態においても、実施形態1と同様の効果を得ることができる。つまり、カメラグループ103の数と同数のカメラ102から、撮影対象領域503の中の任意の位置の被写体が撮影されることになる。また、それぞれのカメラグループ103の配置領域701は、なるべく等間隔になるように決定されている。つまり、撮影対象領域503の中の任意の位置の被写体について、画質のよい仮想視点画像を生成することが可能である。
 <実施形態3>
 本実施形態において、実施形態1とは異なる配置決定装置1800の例について説明する。図18に、本実施形態における配置決定装置1800の機能構成例を示す。図18に示すように、配置決定装置1800は、イベント情報記憶部1801、会場情報記憶部1802、許容値取得部1803、撮影対象領域取得部1804、カメラグループ数取得部1805、配置決定部1806を有する。更に、配置決定装置1800は、種別取得部1807、領域設定部1808、レベル情報設定部1809、グループ数設定部1810を有する。ただし、種別取得部1807、領域設定部1808、レベル情報設定部1809、グループ数設定部1810は、イベント情報を生成するために用いられる機能部であり、配置決定装置は、それらの機能部を有していなくてもよい。つまり、イベント情報記憶部1801に種別取得部1807、領域設定部1808、レベル情報設定部1809、グループ数設定部1810により生成されたイベント情報が記憶されていれば、そのイベント情報から、カメラの配置を決定することができる。なお、配置決定装置1800のハードウェア構成は、図2と同じであるため省略する。以下では、実施形態1と異なる点を中心に説明を行う。
 本実施形態においては、複数のカメラにより撮影の対象となる空間(例えば、図5Bの空間504)に対して、複数の空間を定義し、定義された複数の空間それぞれを撮影対象領域とする。そして、本実施形態における配置決定装置1800は、複数の撮影対象領域に対して、カメラグループの数と配置、及び各カメラグループのカメラの数と配置を決定する。ただし、複数の撮影対象領域のうちの全部の撮影対象領域に対して、本実施形態を適用する必要はなく、そのうちの一つに対して本実施形態を適用するようにしてもよい。
 定義される複数の空間は、いずれも複数のカメラにより撮影の対象となる空間(図5Bの空間504)に含まれる。また、定義される複数の空間は、互いに排他的に定義されてもよい。つまり、図5Bの空間504を分割する複数の空間で構成されるように、複数の空間が定義されてもよい。また、定義される複数の空間のうち、任意の2つの空間が一部重なっていてもよし、さらに一方の空間が他方の空間に包含されていてもよい。
 種別取得部1807は、イベントに登場する主となる前景(被写体)の種別と、その移動範囲を取得する。種別取得部1807は、操作部206を介して、オペレータにより、被写体の種別とその移動範囲に関する情報が入力されることで、その情報を取得する。この情報の例を図19Aに示す。ここでは、イベントとしてラグビーを想定し、主となる被写体の種別として人物(選手)と、ボールが入力され、人物については、静止人物と動く人物に分けて入力された例を示している。さらに、それぞれの被写体が移動する範囲が、被写体の種別と対応して入力される。ここで、移動範囲は、ラグビーの試合中に人物やボールが存在する可能性がある範囲を示している。例えば、静止人物の移動範囲とは、静止人物が存在する可能性のある範囲を示すものである。そのため、静止人物の移動範囲は、フィールドの縦や横の長さとほぼ同等の長さとなる。高さ方向は、例えば選手の身長(例えば2m)と同等となる。一方、動く人物の移動範囲は、静止人物の移動範囲より広くなる。例えば、高さ方向について、ラグビーではラインアウトによるスローインで選手が別の選手をリフトすることがあるため、静止人物の移動範囲より動く人物の移動範囲の方が広くなる。具体的には、高さが5m程度になる。ボールの移動範囲は、更に広くなる。例えば、ラグビーでは蹴ったボールが高く上がるため、ボールの移動範囲の高さを20mとする。また、縦や横方向、つまり、フィールドの面内方向においても、動く人物やボールは静止人物よりも移動範囲が広くなる。
 種別取得部1807が取得した情報は、領域設定部1808に出力され、またイベント情報記憶部1801にも出力されて、イベント情報記憶部1801により記憶される。具体的には、イベント情報記憶部1801は、図19Aで示される表を記憶する。ただし、イベント情報記憶部1801は、図19Aの表以外の形式で、種別取得部1807より出力された情報を記憶してもよい。
 なお、図19Aに示された情報を入力する上で、オペレータは、実施形態1と同様に、イベントの種別やその他のイベントが特定できる情報、フィールドの大きさの情報、被写体の密集度の情報、仮想視点画像の用途に関する情報を入力する。ただし、配置決定装置1800を特定のイベントにしか使用しない場合は、イベントの種別やその他のイベントが特定できる情報の入力を省略することができる。
 領域設定部1808は、種別取得部1807により取得された被写体の種別とその移動範囲を示す情報に基づき、複数の撮影対象領域を設定する。ただし、複数の撮影対象領域のうち、任意の2つ以上の撮影対象領域の一部が部分的に重複していてもよい。図20A、20Bは、3つの撮影対象領域を設定した例の撮影対象領域の関係を示す。図20Aは、フィールドを上から見た模式図であり、3つの撮影対象領域の縦と横の大きさの関係を示している。また、図20Bは、フィールドを横から見た図であり、3つの撮影対象領域の高さの関係を示している。ここでは、第1撮影対象領域2001は静止人物の移動範囲に対応し、第2撮影対象領域2002は、動く人物の移動範囲に対応し、第3撮影対象領域2003はボールの移動範囲に対応する。第1撮影対象領域2001、第2撮影対象領域2002、第3撮影対象領域2003は、この順で範囲が広くなっている。また、第1撮影対象領域2001は、第2撮影対象領域2002に含まれ、第2撮影対象領域2002は、第3撮影対象領域2003に含まれている。ただし、第1撮影対象領域2001の全部ではなく一部が、第2撮影対象領域2002に含まれるようにしてもよい。第2撮影対象領域2002の全部ではなく一部が、第3撮影対象領域2003に含まれるようにしてもよい。
 領域設定部1808で設定された複数の撮影対象領域を示す情報は、レベル情報設定部1809に出力され、イベント情報記憶部1801にも出力され、イベント情報記憶部1801により記憶される。
 なお、領域設定部1808は、静止人物と動く人物の移動範囲に対して同じ撮影対象領域を対応させるように撮影対象領域を設定してもよい。具体的には、領域設定部1808は、図20A、20Bの第1撮影対象領域2001を設定せず、残りの第2撮影対象領域2002と第3撮影対象領域2003を設定してもよい。
 レベル情報設定部1809は、領域設定部1808により設定された複数の撮影対象領域のそれぞれに対して、3次元形状データの品質の要求レベルと、下限解像度の要求レベルを設定する。レベル情報設定部1809は、操作部206を介して、オペレータによる入力を受け付けて、その要求レベルを設定する。各撮影対象領域に対応する3次元形状データの品質の要求レベルと下限解像度の要求レベルの例を、図19Bに示す。ここでは、3次元形状データの品質の要求レベルと下限解像度の要求レベルを「高」、「中」、「低」の3段階で定義する。なお、下限解像度の要求レベルは、実施形態1で示したように、下限解像度を表す画素数で定義されてもよい。
 第1撮影対象領域2001の主たる被写体は、静止人物である。静止人物に対しては、仮想視点画像において、高画質に表示することで、仮想視点画像の画質を向上させることができる。そのため、レベル情報設定部1809は、静止人物の移動範囲に対応する第1撮影対象領域2001に対しては、3次元形状データの品質の要求レベル、及び、下限解像度の要求レベルを、「高」と設定する。なお、下限解像度の要求レベルが「高」とは、少なくとも顔の顔立ちや輪郭が明確になるレベルを意味する。具体的な数値例として、撮影画像において2mの高さに対する画素数を400画素に設定されることが挙げられる。これは少なくとも0.5cm/画素の分解能を要求することに相当する。
 第2撮影対象領域2002の主たる被写体は、動く人物である。動く人物は、静止人物とは異なり移動しているため、その画質は、静止人物の画質に比べて低くても許容されうる。そのため、第2撮影対象領域2002に対する3次元形状データの品質の要求レベル、及び下限解像度レベルは、「中」に設定される。具体的な下限解像度レベルの数値例として、撮影画像において2mの高さに対する画素数を200画素に設定されることが挙げられる。
 第3撮影対象領域2003の主たる被写体は、ボールである。ラグビーにおいてボールは、人物よりも速く移動することが可能であり、また人物よりも小さいため、その画質は、動く人物の画質と比べ、低くても許容されうる。
 なお、図19Bでは、一つの撮影対象領域に対する、3次元形状データの品質の要求レベルと下限解像度の要求レベルが同じレベルであるが、イベントによっては3次元形状データの品質の要求レベルと下限解像度の要求レベルが同じレベルでなくてもよい。例えば、一つの撮影対象領域に対する3次元形状データの品質の要求レベルが「高」で、その撮影対象領域に対する下限解像度の要求レベルが「低」となっても構わない。
 レベル情報設定部1809で設定された情報は、グループ数設定部1810とイベント情報記憶部1801に出力され、イベント情報記憶部1801により記憶される。具体的には、イベント情報記憶部1801は、図19Bで示される表を記憶する。ただし、イベント情報記憶部1801は、図19Bの表以外の形式で、種別取得部1807より出力された情報を記憶してもよい。
 グループ数設定部1810は、レベル情報設定部1809により設定された3次元形状データの品質の要求レベルからカメラグループ103の数を設定する。3次元形状データは、カメラグループ数が大きければ大きいほど、その精度が向上する。そのため、要求レベルが高いほど、カメラグループの数を大きくするようにする。各撮影対象領域とカメラグループ数を、図19Cに示す。ここでは、3次元形状データの品質の要求レベルが「高」であれば、カメラグループ数を「24」、「中」であれば「12」、「低」であれば「8」と設定された例が示されている。グループ数設定部1810で設定された情報は、イベント情報記憶部1801にも出力され、イベント情報記憶部1801により記憶される。具体的には、イベント情報記憶部1801は、図19Cで示される表を記憶する。ただし、イベント情報記憶部1801は、図19Cの表以外の形式で、種別取得部1807より出力された情報を記憶してもよい。
 グループ数設定部1810は、カメラグループ数を、3次元形状データの品質の要求レベルに基づいて一意に設定してもよいが、被写体の密集度にも基づいて設定してもよい。ラグビーの例では、第1撮影対象領域2001では、スクラムやモールなどのプレイが発生するため密集度が高いが、第2撮影対象領域2002、第3撮影対象領域2003では、密集度は低い。この点も考慮して、グループ数設定部1810は、カメラグループ数を設定する。すなわち、グループ数設定部1810は、密集度が高いほどカメラグループ数を多くするように設定する。
 イベント情報記憶部1801は、撮影対象のイベントに関する情報を記憶する。イベント情報は、実施形態1で示した情報の他、イベントごとに設定された、被写体の種別を示す情報、撮影領域を示す情報、撮影領域ごとの被写体の密集度の情報などを含んでいてもよい。
 会場情報記憶部1802は、複数のカメラ102を配置する会場に関する情報を記憶する。会場情報は、実施形態1で示した情報と同様の情報である。
 許容値取得部1803は、所定の基準となる被写体をカメラ102が撮影した際に、その被写体の画像中の大きさである解像度の下限値を設定する。具体的には、イベント情報の一つである、イベントごとに設定された複数の撮影対象領域と下限解像度の要求レベルとの対応関係を示す情報に基づいて、許容値取得部1803は、撮影対象領域のそれぞれに下限値を設定する。イベントごとに設定された複数の撮影対象領域と下限解像度の要求レベルとの対応関係を示す情報は、図19Bで示すような対応表として、イベント情報記憶部1801に記憶されていてもよいし、外部の記憶装置に記憶されていてもよい。これにより、許容値取得部1803は、操作部206を介してオペレータからイベントを特定できる情報の入力を受け付けると、そのイベントに設定された複数の撮影対象領域に対して、下限解像度を設定する。
 また、許容値取得部1803は、操作部206を介して、オペレータから直接、下限解像度の数値等の情報を取得してもよい。
 撮影対象領域取得部1804は、イベント情報に基づいて、そのイベントに対応する複数の撮影対象領域を決定する。具体的には、撮影対象領域取得部1804は、次のような構成とすればよい。すなわち、まず、撮影対象領域取得部1804はイベント情報の少なくとも一部の情報と複数の撮影対象領域を表す情報とが対応付けた表を記憶する。イベント情報の少なくとも一部の情報とは、被写体の種別を示す情報、被写体の移動範囲の情報、フィールドの大きさの情報などである。そして、撮影対象領域取得部1804は、操作部206を介してオペレータからイベントを特定できる情報の入力を受け付けると、イベント情報記憶部1801に記憶されているイベント情報とその表を参照し、複数の撮影対象領域を決定する。なお、参照される表は、被写体の種別の情報と被写体の移動範囲の情報と複数の撮影対象領域の情報とが対応付けられていればよいが、これに限られない。上記以外のイベント情報と撮影対象領域の情報とが対応付けられていてもよい。また、参照される表は、イベントの名称等のイベントを特定できる情報と複数の撮影対象領域とが対応付けられていてもよい。また、参照される表は、イベント情報記憶部1801に記憶されていてもよいし、外部の装置に記憶されていてもよい。
 また、撮影対象領域取得部1804は、操作部206を介して、オペレータから直接、撮影対象領域の情報を取得してもよい。
 カメラグループ数取得部1805は、イベント情報とカメラグループ103の数とが対応付けられた表を参照して、カメラグループを設定するようにしてもよい。つまり、カメラグループ数取得部305は、操作部206を介してイベントを特定できる情報の入力を受け付けると、イベント情報記憶部1801に記憶されているイベント情報とその表とを参照し、撮影対象領域ごとにカメラグループ103の数を取得する。参照される表の一例を図19Cに示す。なお、参照される表は、撮影対象領域の情報とカメラグループ103の数の情報とが対応付けられていればよいが、これに限られない。また、参照される表は、イベント情報記憶部1801に記憶されていてもよいし、外部の装置に記憶されていてもよい。
 また、カメラグループ数取得部1805は、操作部206を介して、オペレータから直接、カメラグループ103の数の情報を取得してもよい。
 配置決定部1806は、下限解像度、複数の撮影対象領域、撮影対象領域ごとのカメラグループ数、会場情報に基づいて、カメラ102の配置を決定する。下限解像度は許容値取得部1803により取得され、複数の撮影対象領域は、撮影対象領域取得部1804により取得され、カメラグループ数は、カメラグループ数取得部1805により取得される。また、会場情報は、会場情報記憶部302に記憶されている。配置決定部306は、操作部206を介して入力された会場を特定するための情報に基づいて、会場情報記憶部302から、必要な会場情報を取得する。例えば、取得する会場情報は、会場内でのカメラ102を配置可能な構造体とその位置に関する情報や、配置可能なカメラ102の台数の情報などである。
 配置決定部1806は、まず、複数の撮影対象領域のそれぞれに対して、実施形態1と同様に、カメラグループ数と、会場情報とを基に、カメラグループ103の配置位置を決定する。次に、配置決定部306は、カメラグループ103ごとに、属する複数のカメラ102の配置を決定する。その際、配置決定部306は、カメラグループ103に属する複数のカメラ102により撮影対象領域のそれぞれの全域が撮影されるように、各カメラグループ103に属する複数のカメラ102の配置を決定する。つまり、第1撮影対象領域2001のカメラグループ103に属する複数のカメラ102により、第1撮影対象領域2001の全域が撮影されるように、このカメラグループ103に属する複数のカメラ102の配置が決定される。第2撮影対象領域2002のカメラグループ103に属する複数のカメラ102や、第3撮影対象領域2003のカメラグループ103に属する複数のカメラ102も同様に、配置が決定される。
 さらに、配置決定部1806は、カメラグループ103に属する複数のカメラ102において、撮影対象領域のそれぞれの全域で、解像度が下限解像度を上回るように、複数のカメラ102の配置を決定する。なお、各撮影対象領域に対応する全カメラグループ103で、上記の撮影対象領域に関する条件、解像度に関する条件を満たすように、複数のカメラ102の配置が決定されるとしたが、これに限られない。例えば、所定数のカメラグループ103に属する複数のカメラ102だけが上記の条件を満たすように、複数のカメラ102の配置が決定されてもよい。また、所定の位置にあるカメラグループ103や所定の関係にあるカメラグループ103が上記の条件を満たすように、そのカメラグループ103に属する複数のカメラ102の配置が決定されてもよい。つまり、一部のカメラグループ103に属する複数のカメラ102によって、各撮影対象領域の全域ではなく一部が撮影されるように、その複数のカメラ102が配置されていてもよい。さらに、一部のカメラグループ103に属する複数のカメラ102において、各撮影対象領域の一部の領域で、解像度が下限解像度を上回らなくてもよい。
 図21は、配置決定装置1800の処理手順の一例を示すフローチャートである。図21を用いて配置決定装置1800が行う処理について説明を行う。
 まず、配置決定装置1800は、操作部206を介してオペレータからの配置決定の指示を受け付ける。そして、ステップS2101において撮影対象領域取得部1804は、複数の撮影対象領域を決定して取得する。具体的には、操作部206を介してオペレータから入力されるイベントを特定できる情報と、予め記憶された表とに基づいて、複数の撮影対象領域が決定される。複数の撮影対象領域としては、図20で示すように第1撮影対象領域2001、第2撮影対象領域2002、第3撮影対象領域2003が設定される。
 次に、ステップS2102において、許容値取得部1803は、3次元形状データの品質の要求レベルと下限解像度のレベルを取得する。許容値取得部1803は、操作部206を介してオペレータから入力されるイベントを特定できる情報と、予め記憶された表とに基づいて、撮影対象領域ごとに、3次元形状データの品質の要求レベルと下限解像度のレベルを決定して取得する。
 次に、ステップS2103で、カメラグループ数取得部1805は、撮影対象領域ごとにカメラグループ103の数を決定して取得する。カメラグループ103の数は、仮想視点画像生成装置106が生成する3次元形状データの品質の要求レベルに応じて決定される。この3次元形状データの生成に必要な方向の数は、3次元形状データの品質の要求レベルによって変化する。つまり、3次元形状データの品質の要求レベルが高い場合、つまり、3次元形状データの精度を高くする場合、多くの方向から撮影することが必要になるため、カメラグループ103の数は多くなる。一方、3次元形状データの品質の要求レベルが低い場合、3次元形状データの精度が低くてもよいため、撮影方向を少なくしてもよく、その結果、カメラグループ103の数を少なくすることができる。
 カメラグループ数取得部1805は、カメラグループ数取得部1805は、3次元形状データの品質の要求レベルと必要な方向の数(つまり、カメラグループの数)とを対応付けて表を参照することで、カメラグループの数を決定することができる。3次元形状データの品質の要求レベルと撮影対象領域とが対応しているため、ここでは、3次元形状データの品質の要求レベルではなく撮影対象領域とカメラグループの数を対応させた表(図19C)を参照することで、カメラグループの数が決定される。
 以下、例として、第1撮影対象領域2001、第2撮影対象領域2002、第3撮影対象領域2003ぞれぞれのカメラグループ103の数を30,24,10と決定したとする。また、カメラグループ103の配置領域もこの処理で決定されてもよいが、本実施形態では、次のステップS2104で決定される例を示す。
 ステップS2104で、配置決定部1806は、カメラグループ数及び会場情報に基づいて、撮影対象領域ごとにカメラグループ103の配置領域を決定する。なお、この処理は、複数の撮影対象領域のそれぞれに対して、図4のS404と同様の処理を行ことに相当するため、説明を省略する。
 ステップS2105で、配置決定部1806は、カメラグループ103の配置領域と、下限解像度要求レベルと、に基づいて、各撮影対象領域のカメラグループ103ごとに、カメラグループ103に属する2以上のカメラ102の台数及び配置を決定する。この処理は、複数の撮影対象領域のそれぞれに対して、図4のS405と同様の処理を行ことに相当するため、説明を省略する。また、配置決定部1806により決定されるカメラ102の配置についても実施形態1と同様である。
 ステップS2106で、配置決定部1806は、S2105で、各撮影対象領域のカメラグループ103ごとに決定したカメラ102の台数を合計し、マルチカメラシステム101に必要なカメラ102の台数を決定する。
 ステップS2107は、配置決定部1806は、ステップS2106で計算したカメラの台数に問題が無いかを判定する。なお、ステップS2107は図4のS407と同様の処理のため、詳細な説明は省略する。問題がない(YES)と判定した場合は処理を終了する。問題がある(NO)と判定した場合はステップS2108に進む。
 ステップS2108で、配置決定部1806は、どの配置条件を変更するかを決定する。変更可能な配置条件は、撮影対象領域、下限解像度、カメラグループ103の数のいずれかである。ステップS2108は図4のS408と同様の処理のため、詳細な説明は省略する。
 ステップS2109で、配置決定部1806は、変更する配置条件が撮影対象領域であるか否かを判定する。撮影対象領域の場合(YES)は、ステップS2110へ進む。そうでない場合(NO)は、ステップS2111へ進む。
 ステップS2110で、撮影対象領域取得部1804は、撮影対象領域を変更する。なお、複数の撮影対象領域のうち1以上の撮影対象領域を変更する。つまり、撮影対象領域のすべてを変更しなくてもよい。ステップS2107で問題があると判定した理由が、「カメラの台数が多い」ことである場合は、複数の撮影対象領域のうち1以上の撮影対象領域を狭くするように変更する。逆に、「カメラの台数が少ない」ことである場合は、複数の撮影対象領域のうち1以上の撮影対象領域を広くするように変更する。撮影対象領域取得部1804により撮影対象領域が変更されると、ステップS2105へ進み、変更された撮影対象領域を含む複数の撮影対象領域に基づいて、配置決定部1806は、カメラ102の台数及び配置を再度決定する。なお、撮影対象領域取得部1804は、オペレータから、操作部206を介して、撮影対象領域を取得するようにしてもよい。
 ステップS2111で、配置決定部1806は、変更する配置条件が下限解像度であるか否かを判定する。下限解像度の場合(YES)は、ステップS2112へ進む。そうでない場合(NO)は、ステップS2113へ進む。
 ステップS2112で、許容値取得部1803が、下限解像度要求レベルを変更する。問題が有ると判定した理由が「カメラの台数が多い」ことである場合は、1つ以上の撮影対象領域の下限解像度要求レベルを小さくするように変更する。逆に、問題が有ると判定した理由が「カメラの台数が少ない」ことである場合は、1つ以上の撮影対象領域の下限解像度要求レベルを大きくするように変更する。許容値取得部1803により下限解像度が変更された後、ステップS2105へ進み、配置決定部1806は、カメラ102の台数及び配置を再度決定する。なお、許容値取得部1803は、オペレータから、操作部206を介して、下限解像度要求レベルを取得するようにしてもよい。
 ステップS2113で、カメラグループ数取得部1805は、カメラグループ103の数を変更する。ステップS2107で問題があると判定した理由が「カメラの台数が多い」ことである場合は、1つ以上の撮影対象領域のカメラグループ103の数を減らすように変更する。逆に、問題があると判定した理由が「カメラの台数が少ない」ことである場合は、1つ以上の撮影対象領域のカメラグループ103の数を増やすように変更する。カメラグループ数取得部1805によりカメラグループ103の数が変更された後、ステップS2104へ進み、配置決定部1806は、カメラグループ103の配置領域を再度決定する。そして、ステップS2105に進み、配置決定部1806は、カメラ102の台数及び配置を再度決定する。なお、カメラグループ数取得部1805は、オペレータから、操作部206を介して、カメラグループ数を取得するようにしてもよい。
 本実施形態によれば、実施形態1と同様の効果を奏する。つまり、撮影対象領域のカメラグループ103それぞれは、対応する撮影対象領域の全域が撮影されるように、そのカメラグループ103に属する複数のカメラ102が配置される。このため、撮影対象領域の中の任意の位置の被写体が、それぞれのカメラグループ103において、少なくとも1台のカメラ102から撮影されることになる。そして、カメラグループ103の数と同数のカメラ102から、撮影対象領域の中の任意の位置の被写体が撮影されることになる。また、それぞれのカメラグループ103の配置領域は、なるべく等間隔になるように決定されている。つまり、撮影対象領域の中の任意の位置の被写体について、画質のよい仮想視点画像を生成することが可能である。
 また、本実施形態では、被写体の種別とその移動範囲により、画像における解像度の要求レベルが、複数ある場合、その複数の要求レベルのそれぞれに対して、撮影対象領域を設定している。そして、その撮影対象領域ごとに、カメラグループ103の数及び配置、そしてカメラグループ内のカメラ102の数及び配置を決定することで、被写体の種別に応じた、適切なカメラの数を適切な位置に配置することができる。例えば、実施形態1の図5の空間504と図20の第3撮影対象領域2003とが同じ場合、実施形態1よりも、カメラ102の数を削減することができる。その理由は、実施形態1では、被写体の種別や移動範囲によらず一律にカメラグループ103の数、カメラ102の数を決定しているからである。例えば、実施形態1では、地上から離れた領域、具体的には、第2撮影対象領域2002に含まれない第3撮影対象領域2003の領域においても、カメラグループに属する全カメラで撮影するようにするため、カメラ102の数が多くなる。ただし、その領域は、ボールのみが被写体となるため、3次元形状データの品質の要求レベルが低くてもよく、高い解像度で撮影する必要がない。そのため、本実施形態によれば、その点を考慮して、その領域を撮影するカメラグループ103の数を削減し、さらに、そのカメラグループ103に属するカメラ102の数も削減している。
 なお、実施形態3において、例えば、第1撮影対象領域2001と第2撮影対象領域とで、1以上のカメラグループを共有させてもよい。その場合、よりカメラ102の数を削減することができる。この場合、以下のような処理が行われる。すなわち、S404の処理が以下のように行われる。配置決定部1806は、第1撮影対象領域2001に対してカメラグループ103の配置を決定する。また、配置決定部1806は、第2撮影対象領域2002に対してカメラグループ103の配置を決定する。そして、第1撮影対象領域2001に対して決定されたカメラグループ103のうち、第2撮影対象領域2002に対して決定されたカメラグループ103と位置が近いカメラグループ103があるか判定する。第1撮影対象領域2001のカメラグループ103のうち、第2撮影対象領域2002に対して決定されたカメラグループ103と位置が近いカメラグループ103がある場合、そのカメラグループ103を第1撮影対象領域2001から除くようにする。カメラグループ103に属するカメラ102の数や配置は、そのカメラグループ103に対応する撮影対象領域に基づいて、下限解像度要求レベルや3次元形状データの品質の要求レベルに従い決定される点は、上記の説明と変わらない。例えば、第1撮影対象領域2001に対して、図7で示すような12のカメラグループ701a~701lが決定されたとする。一方、第2撮影対象領域2002に対して、図7で示すようなカメラグループ701b、701d、701f、701h、701j、701kに近い位置が決定されたとする。その場合、カメラグループ701b、701d、701f、701h、701j、701kは、第1撮影対象領域2001のカメラグループから除かれる。つまり、第1撮影対象領域2001のカメラグループとしては、カメラグループ701a、701c、701e、701g、701i、701lが残り、その後の処理が行われる。
 このように、第1撮影対象領域2001と第2撮影対象領域2002とで、1以上のカメラグループを共有させたマルチカメラシステムを用いても、3次元形状データを適切に生成することができる。また、第1撮影対象領域2001のカメラグループと第2撮影対象領域2002のカメラグループ103は交互に配置されることで、3次元形状データの生成に際し、品質のレベルが方向による偏りを低減することができる。なお、第2撮影対象領域2002において、被写体の3次元形状データの生成には、第2撮影対象領域2002のカメラグループ103のカメラのみならず、第1撮影対象領域2001のカメラグループ103のカメラの撮影画像も用いられる。ただし、仮想視点画像の画素値を決定する際に、画質を向上させるために、下限解像度の要求レベルの高い第1撮影対象領域2001のカメラグループ103のカメラの撮影画像のみを用いる。なお、第1撮影対象領域2001のカメラグループ103のカメラの撮影画像を優先的に用いれば、第2撮影対象領域2002のカメラグループ103のカメラの撮影画像を用いても構わない。例えば、仮想視点画像の着目画素の画素値を、複数の撮影画像において着目画素と対応する位置の画素値を重みを用いた平均化処理により決定する場合、以下のようにする。すなわち、第1撮影対象領域2001のカメラグループ103のカメラの撮影画像の着目画素と対応する位置の画素値の重みを、第2撮影対象領域2002のカメラグループ103のカメラの撮影画像の着目画素と対応する位置の画素値の重みより大きくする。
 なお、第1撮影対象領域2001と第2撮影対象領域2002とを例に挙げたが、複数の撮影対象領域のうち任意の2以上の撮影対象領域の一部のカメラグループを共有化しても、カメラ102の数を軽減できる。
 また、種別取得部1807は、被写体の種別の代わりに、複数の撮影対象領域の情報を取得するようにしてもよい。つまり、例えば、図19Aにおいて、撮影対象領域の種別(第1撮影対象領域2001、第2撮影対象領域2002、第3撮影対象領域2003)と、その撮影対象領域を規定する縦、横、高さの長さを示す情報が取得されてもよい。また、イベントとして、ラグビーを例にして説明を行ったが、サッカーなどの球技や、陸上競技などにも本実施形態は適用できる。例えば、陸上のトラック競技である100m走において、選手が走るトラック上で、ゴール地点近傍においては、その他の場所より、高画質な仮想視点画像が要求されることが考えられる。その場合、ゴール地点近傍の領域に対して、各種の要求レベルを高くし、それ以外の領域の各種の要求レベルを低くするようにしてもよい。
 <その他の実施形態>
 なお、本発明の目的は、以下でも達成される。前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システムあるいは装置に供給する。そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記憶媒体に格納されたプログラムコードを読み出し実行する。
 この場合、記憶媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記憶した記憶媒体は本発明を構成することになる。
 プログラムコードを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、光ディスク、光磁気ディスク、CD-ROM、CD-R、磁気テープ、不揮発性のメモリカード、ROMなどを用いることができる。
 また、以下の処理によって前述した実施形態の機能が実現される場合も含まれる。コンピュータが読出したプログラムコードの指示に基づき、コンピュータ上で稼働しているOS(オペレーティングシステム)などが実際の処理の一部または全部を行う。
 さらに、以下の処理によって前述した実施形態の機能が実現される場合も含まれる。まず記憶媒体から読出されたプログラムコードが、コンピュータに挿入された機能拡張ボードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれる。次にそのプログラムコードの指示に基づき、その機能拡張ボードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行う。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2019年5月16日提出の日本国特許出願特願2019-092773及び2019年9月20日提出の日本国特許出願特願2019-172187を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (22)

  1.  仮想視点画像の生成に用いられる複数の撮影装置の配置を決定する配置決定装置であって、
     前記複数の撮影装置による撮影の対象となる撮影対象領域を表す情報を取得する領域取得手段と、
     前記領域取得手段により取得された情報に基づいて、前記複数の撮影装置のうち2以上の撮影装置により前記撮影対象領域の全域が撮影され、かつ、前記複数の撮影装置のうち前記2以上の撮影装置とは異なる他の2以上の撮影装置により前記撮影対象領域の全域が撮影されるように前記複数の撮影装置の配置を決定する配置決定手段と、を有することを特徴とする配置決定装置。
  2.  基準となる被写体が前記撮影対象領域に存在した場合に、前記撮影装置が撮影して取得する画像において前記基準となる被写体の所定の方向の大きさを表す画素数の許容値を取得する許容値取得手段を、さらに有し、
     前記配置決定手段は、さらに前記許容値取得手段により取得された許容値に基づいて、前記複数の撮影装置のうち2以上の撮影装置により前記撮影対象領域の全域が撮影され、かつ、前記他の2以上の撮影装置により前記撮影対象領域の全域が撮影され、かつ、前記複数の撮影装置のそれぞれが撮影する画像における前記基準となる被写体の前記所定の方向の大きさが前記許容値を上回るように、前記複数の撮影装置の配置を決定することを特徴とする請求項1に記載の配置決定装置。
  3.  前記基準となる被写体とは、前記撮影対象領域に対して所定の方向に所定の大きさを有する被写体であることを特徴とする請求項2に記載の配置決定装置。
  4.  前記基準となる被写体とは、所定の身長を有し、直立している人物であることを特徴とする請求項2又は3に記載の配置決定装置。
  5.  前記許容値取得手段は、前記仮想視点画像の用途に基づいて前記許容値を決定することを特徴とする請求項2乃至4の何れか1項に記載の配置決定装置。
  6.  前記仮想視点画像を生放送にて使用する場合は、前記仮想視点画像をアーカイブ配信にて使用する場合よりも、前記許容値が小さいことを特徴とする請求項5に記載の配置決定装置。
  7.  前記撮影装置の台数を取得する台数取得手段を、さらに有し、
     前記配置決定手段は、さらに前記台数取得手段により取得された台数に基づいて、前記複数の撮影装置のうち2以上の撮影装置により撮影対象領域の全域が撮影され、かつ、前記他の2以上の撮影装置により前記撮影対象領域の全域が撮影されるように、前記複数の撮影装置の配置を決定することを特徴とする請求項1に記載の配置決定装置。
  8.  前記台数取得手段は、仮想視点画像を生成する装置の処理性能に基づいて、前記台数を決定することを特徴とする請求項7に記載の配置決定装置。
  9.  前記配置決定手段は、さらに前記複数の撮影装置を配置する会場に関する情報に基づいて、前記複数の撮影装置のうち2以上の撮影装置により撮影対象領域の全域が撮影され、かつ、前記他の2以上の撮影装置により前記撮影対象領域の全域が撮影されるように、前記複数の撮影装置の配置を決定することを特徴とする請求項1乃至8の何れか1項に記載の配置決定装置。
  10.  2以上の撮影装置が属するグループの数を取得するグループ数取得手段を、さらに有し、
     前記配置決定手段は、
     前記グループ数取得手段により取得されたグループの数に基づいて、前記グループの配置領域を決定し、
     前記グループごとに、前記グループに属する撮影装置の配置を決定することを特徴とする請求項1乃至9の何れか1項に記載の配置決定装置。
  11.  前記グループ数取得手段は、イベントの種別に基づいて、前記グループの数を取得することを特徴とする請求項10に記載の配置決定装置。
  12.  前記配置決定手段は、前記撮影対象領域の所定の位置と、隣り合う2つのグループのそれぞれの配置領域とを結ぶ線分がなす角度が、所定の値を超えないように、グループの配置領域を決定することを特徴とする請求項10又は11に記載の配置決定装置。
  13.  前記配置決定手段は、グループ内の撮影装置の間隔が所定の距離を超えないように、前記複数の撮影装置の配置を決定することを特徴とする請求項10乃至12の何れか1項に記載の配置決定装置。
  14.  前記配置決定手段は、前記2以上の撮影装置のうち、前記他の2以上の撮影装置に近い撮影装置が、前記他の2以上の撮影装置のうちのいずれの撮影装置よりも前記2以上の撮影装置のうちの他の撮影装置に近くなるように、前記複数の撮影装置の配置を決定することを特徴とする請求項1乃至13の何れか1項に記載の配置決定装置。
  15.  前記撮影対象領域は、前記複数の撮影装置による撮影の対象となる空間の少なくとも一部であることを特徴とする請求項1乃至14のいずれか1項に記載の配置決定装置。
  16.  前記空間は、第1の撮影対象領域と、前記第1の撮影対象領域とは異なる第2の撮影対象領域を含み、
     前記配置決定手段は、前記複数の撮影装置のうち2以上の第1の撮影装置により前記第1の撮影対象領域の全域が撮影され、かつ、前記複数の撮影装置のうち前記第1の撮影装置とは異なる2以上の第2の撮影装置により前記第1の撮影対象領域の全域が撮影されるように前記複数の撮影装置の配置を決定し、
     前記配置決定手段は、前記複数の撮影装置のうち前記第1及び第2の撮影装置とは異なる2以上の第3の撮影装置により前記第2の撮影対象領域の全域が撮影され、かつ、前記複数の撮影装置のうち前記第1乃至第3の撮影装置とは異なる2以上の第4の撮影装置により前記第1の撮影対象領域の全域が撮影されるように前記複数の撮影装置の配置を決定することを特徴とする請求項15に記載の配置決定装置。
  17.  前記第2の撮影対象領域は、第1の撮影対象領域を含むことを特徴とする請求項16に記載の配置決定装置。
  18.  仮想視点画像の生成に用いられる複数の撮影装置を有し、
     前記複数の撮影装置のうち2以上の撮影装置は、前記複数の撮影装置による撮影の対象となる撮影対象領域の全域を撮影するように配置され、かつ、前記複数の撮影装置のうち前記2以上の撮影装置とは異なる他の2以上の撮影装置は、前記撮影対象領域の全域を撮影するように配置されていることを特徴とするシステム。
  19.  前記2以上の撮影装置のうち、前記他の2以上の撮影装置に近い撮影装置は、前記他の2以上の撮影装置のうちのいずれの撮影装置よりも前記2以上の撮影装置のうちの他の撮影装置に近くに配置されていることを特徴とする請求項18に記載のシステム。
  20.  前記複数の撮影装置による撮影により取得された画像に基づいて、前記仮想視点画像を生成する生成手段を、さらに有することを特徴とする請求項18又は19に記載のシステム。
  21.  仮想視点画像の生成に用いられる複数の撮影装置の配置を決定する配置決定方法であって、
     前記複数の撮影装置による撮影の対象となる撮影対象領域を表す情報を取得する領域取得工程と、
     前記領域取得工程において取得された情報に基づいて、前記複数の撮影装置のうち2以上の撮影装置により前記撮影対象領域の全域が撮影され、かつ、前記複数の撮影装置のうち前記2以上の撮影装置とは異なる他の2以上の撮影装置により前記撮影対象領域の全域が撮影されるように前記複数の撮影装置の配置を決定する配置決定工程と、を有することを特徴とする配置決定方法。
  22.  コンピュータを、請求項1乃至17の何れか1項に記載の配置決定装置として機能させるためのプログラム。
PCT/JP2020/018779 2019-05-16 2020-05-11 配置決定装置、システム、配置決定方法、及びプログラム WO2020230751A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP20805406.4A EP3972238A4 (en) 2019-05-16 2020-05-11 ARRANGEMENT DETERMINATION APPARATUS, SYSTEM, ARRANGEMENT DETERMINATION METHOD AND PROGRAM
KR1020217039524A KR102629225B1 (ko) 2019-05-16 2020-05-11 배치 결정 장치, 시스템, 배치 결정 방법 및 기록 매체
CN202080035989.3A CN113826378B (zh) 2019-05-16 2020-05-11 布置确定装置、系统、布置确定方法和存储介质
US17/518,444 US12010437B2 (en) 2019-05-16 2021-11-03 Arrangement determination apparatus, system, arrangement determination method, and recording medium

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2019-092773 2019-05-16
JP2019092773 2019-05-16
JP2019172187A JP2020191618A (ja) 2019-05-16 2019-09-20 配置決定装置、システム、配置決定方法、及びプログラム
JP2019-172187 2019-09-20

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/518,444 Continuation US12010437B2 (en) 2019-05-16 2021-11-03 Arrangement determination apparatus, system, arrangement determination method, and recording medium

Publications (1)

Publication Number Publication Date
WO2020230751A1 true WO2020230751A1 (ja) 2020-11-19

Family

ID=73289390

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/018779 WO2020230751A1 (ja) 2019-05-16 2020-05-11 配置決定装置、システム、配置決定方法、及びプログラム

Country Status (5)

Country Link
US (1) US12010437B2 (ja)
EP (1) EP3972238A4 (ja)
KR (1) KR102629225B1 (ja)
CN (1) CN113826378B (ja)
WO (1) WO2020230751A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114900651B (zh) * 2022-03-30 2023-10-27 联想(北京)有限公司 一种信息处理方法、装置和电子设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079505A (ja) 2008-09-25 2010-04-08 Kddi Corp 画像生成装置及びプログラム
JP2018107793A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2019036791A (ja) * 2017-08-10 2019-03-07 キヤノン株式会社 画像処理装置、画像処理システム、制御方法、及び、プログラム
JP2019092773A (ja) 2017-11-22 2019-06-20 株式会社大一商会 遊技機
JP2019172187A (ja) 2018-03-29 2019-10-10 しげる工業株式会社 部品接合方法、車両外装品およびルーフスポイラのサイド部とその製造方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012619A (ja) * 2003-06-20 2005-01-13 Mitsubishi Electric Corp パノラマ画像生成装置
KR100548403B1 (ko) * 2003-08-23 2006-02-02 엘지전자 주식회사 카메라를 구비한 이동 통신 단말기 및 이를 이용한 영상촬영 방법
WO2007013231A1 (ja) * 2005-07-29 2007-02-01 Matsushita Electric Industrial Co., Ltd. 撮影領域調整装置
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
EP2354893B1 (en) * 2009-12-31 2018-10-24 Sony Interactive Entertainment Europe Limited Reducing inertial-based motion estimation drift of a game input controller with an image-based motion estimation
JP5548002B2 (ja) * 2010-03-25 2014-07-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法
JP2011237713A (ja) * 2010-05-13 2011-11-24 Canon Inc 画像撮影装置、及び画像撮影方法
JP6148896B2 (ja) * 2013-04-26 2017-06-14 富士通テン株式会社 画像生成装置及び画像生成方法
JP6416741B2 (ja) * 2015-11-27 2018-10-31 日本電信電話株式会社 画像処理装置、画像処理方法及びコンピュータプログラム
CN114928701A (zh) * 2016-03-31 2022-08-19 株式会社尼康 摄像装置
US10762653B2 (en) * 2016-12-27 2020-09-01 Canon Kabushiki Kaisha Generation apparatus of virtual viewpoint image, generation method, and storage medium
JP7121470B2 (ja) * 2017-05-12 2022-08-18 キヤノン株式会社 画像処理システム、制御方法、及び、プログラム
JP7027049B2 (ja) * 2017-06-15 2022-03-01 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN107330917B (zh) * 2017-06-23 2019-06-25 歌尔股份有限公司 移动目标的跟踪拍摄方法和跟踪设备
JP7033865B2 (ja) * 2017-08-10 2022-03-11 キヤノン株式会社 画像生成装置、画像生成方法、及びプログラム
JP6425780B1 (ja) * 2017-09-22 2018-11-21 キヤノン株式会社 画像処理システム、画像処理装置、画像処理方法及びプログラム
KR102300570B1 (ko) * 2020-07-31 2021-09-09 주식회사 쓰리아이 전방위 이미지 촬영 어셈블리 및 이에 의해 수행되는 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010079505A (ja) 2008-09-25 2010-04-08 Kddi Corp 画像生成装置及びプログラム
JP2018107793A (ja) * 2016-12-27 2018-07-05 キヤノン株式会社 仮想視点画像の生成装置、生成方法及びプログラム
JP2019036791A (ja) * 2017-08-10 2019-03-07 キヤノン株式会社 画像処理装置、画像処理システム、制御方法、及び、プログラム
JP2019092773A (ja) 2017-11-22 2019-06-20 株式会社大一商会 遊技機
JP2019172187A (ja) 2018-03-29 2019-10-10 しげる工業株式会社 部品接合方法、車両外装品およびルーフスポイラのサイド部とその製造方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3972238A4

Also Published As

Publication number Publication date
EP3972238A1 (en) 2022-03-23
US20220060638A1 (en) 2022-02-24
KR102629225B1 (ko) 2024-01-29
US12010437B2 (en) 2024-06-11
CN113826378A (zh) 2021-12-21
EP3972238A4 (en) 2023-10-25
CN113826378B (zh) 2024-05-07
KR20220003608A (ko) 2022-01-10

Similar Documents

Publication Publication Date Title
JP5806215B2 (ja) 複数のカメラの相対制御のための方法及び装置
US8624962B2 (en) Systems and methods for simulating three-dimensional virtual interactions from two-dimensional camera images
US11006089B2 (en) Information processing apparatus and information processing method
US8049750B2 (en) Fading techniques for virtual viewpoint animations
US8154633B2 (en) Line removal and object detection in an image
US8466913B2 (en) User interface for accessing virtual viewpoint animations
US9041722B2 (en) Updating background texture for virtual viewpoint animations
US8073190B2 (en) 3D textured objects for virtual viewpoint animations
BR112017007408A2 (pt) sistema e método para rastreamento ótico de jogadores em estádios esportivos
US9361660B2 (en) Image processing device and method, supplement image generation device and method, program, and recording medium
EP3014579A1 (en) System and method of limiting processing by a 3d reconstruction system of an environment in a 3d reconstruction of an event occurring in an event space
JP7446754B2 (ja) 画像処理装置、画像処理方法、及びプログラム
WO2020230751A1 (ja) 配置決定装置、システム、配置決定方法、及びプログラム
JP7207913B2 (ja) 情報処理装置、情報処理方法及びプログラム
US11816760B2 (en) Adding augmented reality to a sub-view of a high resolution central video feed
JP2020191618A (ja) 配置決定装置、システム、配置決定方法、及びプログラム
US11587283B2 (en) Image processing apparatus, image processing method, and storage medium for improved visibility in 3D display
US20240046552A1 (en) Generation apparatus, generation method, and non-transitory computer-readable storage medium
US20230291883A1 (en) Image processing system, image processing method, and storage medium
JP2023184358A (ja) 画像処理システム、画像処理システムの制御方法、及びプログラム
JP2024022484A (ja) 生成装置、生成方法及びプログラム
JP2022171436A (ja) 情報処理装置、情報処理方法およびプログラム
JP2024062300A (ja) 画像処理装置、画像処理方法及びコンピュータプログラム
JP2022077380A (ja) 画像処理装置、画像処理方法、およびプログラム
JP2023019727A (ja) 撮影制御システム及びその動作方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20805406

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 20217039524

Country of ref document: KR

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2020805406

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2020805406

Country of ref document: EP

Effective date: 20211216