WO2019092790A1 - 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム - Google Patents

撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム Download PDF

Info

Publication number
WO2019092790A1
WO2019092790A1 PCT/JP2017/040127 JP2017040127W WO2019092790A1 WO 2019092790 A1 WO2019092790 A1 WO 2019092790A1 JP 2017040127 W JP2017040127 W JP 2017040127W WO 2019092790 A1 WO2019092790 A1 WO 2019092790A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
unit
imaging device
event
adjustment
Prior art date
Application number
PCT/JP2017/040127
Other languages
English (en)
French (fr)
Inventor
多田 幸生
吉就 中村
貴裕 浅野
陽 前澤
健一 山内
Original Assignee
ヤマハ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ株式会社 filed Critical ヤマハ株式会社
Priority to PCT/JP2017/040127 priority Critical patent/WO2019092790A1/ja
Publication of WO2019092790A1 publication Critical patent/WO2019092790A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters

Definitions

  • the present invention relates to an imaging system, a control device, an imaging device, a control method of an imaging device, and a program.
  • Patent documents 1 and 2 disclose a system in which a flightable drone called drone captures an image. Specifically, Patent Document 1 discloses starting imaging when the drone is stabilized in a predetermined trajectory. Patent Document 2 discloses continuous arrangement of images obtained by imaging a land which has been flying above by a drone.
  • events such as concerts may proceed according to a predetermined schedule. Therefore, it is possible to grasp in advance the area to be imaged at each time during the holding of the event. Therefore, it is convenient to be able to automatically control the position of the imaging device at each time according to this schedule. However, it is necessary to create in advance data specifying the position of the imaging device at each time, and the burden on the person is large.
  • one of the objects of the present invention is to control the position of an imaging device so as to capture a specific imaging target in an event even if data for specifying the position of the imaging device is not created in advance.
  • a movable imaging device including an imaging unit, a database storing an event progression schedule in association with a time axis, and a database on which the progression schedule is stored, on the time axis
  • the position of the imaging device is determined based on a specifying unit that specifies an imaging position at each time point, an adjusting unit that adjusts the specified imaging position according to an imaging target in the event, and the imaging position after adjustment.
  • a movement control unit to control the imaging system.
  • the identification unit identifies the imaging direction at each point in time based on the traveling schedule, the adjustment unit adjusts the imaging direction according to the imaging target, and the imaging control unit
  • the position of the imaging device and the direction of the imaging unit may be controlled based on the imaging position and the imaging direction after adjustment.
  • the adjustment unit may control the position of the imaging device and the direction of the imaging unit based on the captured image generated by the imaging unit.
  • an acquisition unit for acquiring a sound signal and the specification unit specify a position of a sound indicated by the sound signal in music, and the imaging is performed based on the progress schedule according to the specified position.
  • the position and the imaging direction may be specified.
  • the adjustment unit may adjust the position of the first imaging device or the second imaging device such that the first imaging device and the second imaging device do not approach within a predetermined distance.
  • the adjustment unit may cause the second imaging device to perform imaging instead of the first imaging device.
  • the adjustment unit changes the position of the first imaging device or the second imaging device or the direction of the imaging unit so that the second imaging device is not included in the imaging range of the first imaging device. May be
  • the adjustment unit specifies the positional relationship between the imaging device and a specific device, and adjusts the position of the imaging device so that the imaging device and the device do not approach within a predetermined distance. It is also good.
  • the adjustment unit may specify a positional relationship between the imaging device and a specific area, and adjust the position of the imaging device so that the imaging device does not enter the area.
  • the imaging device may be flyable.
  • the imaging device may include the adjustment unit.
  • a database storing an event's progress schedule in association with a time axis, and a specifying unit for specifying an imaging position at each time on the time axis based on the progress schedule;
  • An apparatus control unit that controls the position of a movable imaging apparatus including an imaging unit based on an adjustment unit that adjusts the identified imaging position according to an imaging target in the event, and the imaging position after adjustment And a control device is provided.
  • the imaging unit operable to move the own apparatus, and the progressing schedule stored in the database stored in association with the timetable of the proceedings of the event.
  • An imaging device including: a movement control unit for moving the device to an imaging position at each time point on the time axis; and an adjusting unit for adjusting the imaging position according to an imaging target in the event .
  • the imaging apparatus may include a communication unit that receives a command for controlling the imaging position, and the adjustment unit may adjust the position instructed by the command.
  • a driving unit operating to move the apparatus itself, a database storing an event progression schedule in association with a time axis, and the progression schedule.
  • the identification unit that identifies the imaging position at each time point on the time axis, the adjustment unit that adjusts the identified imaging position according to the imaging target in the event, and the imaging position after adjustment
  • a movement control unit configured to control the position of the imaging device.
  • the imaging position at each time point on the time axis is specified and specified based on the movement plan stored in a database that stores an event's progress schedule in association with the time axis.
  • a control method of an imaging apparatus including: an imaging unit that adjusts a captured image position according to an image capturing target in the event, and includes an imaging unit based on the adjusted image capturing position. Be done.
  • the computer identifies an imaging position at each time point on the time axis based on the progressing schedule stored in a database that stores an event's progressing schedule in association with the time axis. Adjust the specified imaging position according to the imaging target in the event, and execute the process of controlling the position of the movable imaging device including the imaging unit based on the adjusted imaging position
  • the present invention even if data for specifying the position of the imaging device is not created in advance, it is possible to control the position of the imaging device so as to capture a specific imaging target in an event.
  • FIG. 1 is a diagram showing an entire configuration of an imaging system 1 according to an embodiment of the present invention.
  • the imaging system 1 is a system for imaging the space S.
  • the space S is a space where a concert is held, which is an example of an event.
  • the players P1 and P2 are events that perform and sing an instrument on the stage 80.
  • Space S may be either outdoor or indoor.
  • the imaging system 1 includes a control device 10 and a plurality of imaging devices 20 (20A, 20B, 20C).
  • the control device 10 is a device that controls the entire imaging system 1.
  • the control device 10 may be a device integrated with a PA (Public Address) device.
  • PA Public Address
  • the control device 10 controls imaging and movement of each of the plurality of imaging devices 20.
  • the imaging device 20 is a device (so-called drone) movable by flying. That is, the imaging device 20 moves in the horizontal direction, the vertical direction, or a crossing direction thereof by flying by the power of the own device.
  • the imaging device 20 can also change its posture, such as rotating in a predetermined direction. When the attitude of the imaging device 20 changes, the imaging direction may also change.
  • three imaging devices 20A, 20B, and 20C are shown as the plurality of imaging devices 20 in FIG. However, the number of imaging devices 20 included in the imaging system 1 may be two or less, or four or more. In the example of FIG. 1, the imaging devices 20A and 20B image a specific area on the stage 80 in flight. On the other hand, the imaging device 20C is not flying or imaging.
  • FIG. 2 is a view showing an appearance configuration of the imaging device 20.
  • the image pickup device 20 is provided as a substantially cross-shaped base 210 and drive means provided at four ends of the base 210 in four directions.
  • the rotary vanes 23A, 23B, 23C, and 23D are flight means for causing the imaging device 20 to fly, and can be driven to rotate independently.
  • the base 210 is provided with a pair of legs 24A and 24B.
  • the imaging unit 27 is physically connected to the bottom surface of the base 210 via the support member 25.
  • the imaging unit 27 sets the direction in front of the imaging device 20 as the imaging direction.
  • the external appearance structure of the imaging device 20 shown in FIG. 2 is only an example.
  • the position or direction of the imaging unit 27 may be different from the position or direction shown in FIG.
  • the illumination device 30 is disposed in the space S and illuminates a specific area on the stage 80.
  • the illumination device 30 illuminates the players P1 and P2 with light, for example.
  • the sound emitting device 40 is disposed in the space S, and emits, for example, the performance sound or the singing voice of the performance performed by the players P1 and P2.
  • the position and direction in which the illuminating device 30 and the sound emitting device 40 are disposed are not limited.
  • the audience seat 90 is provided in front of the stage 80, and is an area where the audience for the event is present.
  • FIG. 3 is a block diagram showing the configuration of the control device 10.
  • the control device 10 includes a control unit 11, a communication unit 12, and a database 13 as a physical configuration.
  • the control unit 11 controls each unit of the control device 10.
  • the control unit 11 is a signal processing exemplified by, for example, a central processing unit (CPU) as an arithmetic processing unit, a read only memory (ROM), a processor including a random access memory (RAM), and a digital signal processor (DSP). It has a circuit.
  • CPU central processing unit
  • ROM read only memory
  • RAM random access memory
  • DSP digital signal processor
  • the communication unit 12 communicates with each of the plurality of imaging devices 20.
  • Communication unit 12 includes a communication circuit and an antenna for performing wireless communication.
  • the communication method of the communication unit 12 is, for example, near field communication such as Bluetooth (registered trademark) or a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark), but may be other communication methods. .
  • the database 13 is a database that stores event data 131 in which an event progression schedule is associated with a time axis.
  • the event data 131 includes data on an event scheduled at each time.
  • FIG. 4 is a diagram showing an example of the configuration of the event data 131.
  • the event data 131 includes, for example, data of “set list”, “position of person”, “illumination”, and “solo part”.
  • the "set list” indicates songs played at each time.
  • “Position of person” indicates the position of the person participating in the event, in this case, the player P1 and P2 at each time.
  • “Lighting” indicates the method of lighting of the lighting device 30 at each time (for example, the area to be lighted, the brightness, and the color).
  • Solo part indicates that the performers P1 and P2 perform or sing alone.
  • FIG. 1 the performers P1 and P2 perform or sing alone.
  • a solo part "S1" indicates a section which is a solo part of the player P1
  • a solo part "S2" indicates a section which is a solo part of the player P2.
  • the database 13 is realized using, for example, a magnetic recording medium such as a hard disk drive. However, the database 13 may be realized by a computer readable recording medium such as a semiconductor recording medium or an optical recording medium.
  • the event data 131 is data created to manage the progress of the event before the event is held.
  • the control unit 11 has a specification unit 111, an acquisition unit 112, an adjustment unit 113, and a device control unit 114 as a functional configuration.
  • the identifying unit 111 identifies the imaging position and the imaging direction based on the event data 131 stored in the database 13.
  • the acquisition unit 112 acquires information from the imaging device 20 using the communication unit 12.
  • the information acquired by the acquisition unit 112 is, for example, a captured image of the imaging device 20 and data measured by the imaging device 20.
  • the adjustment unit 113 adjusts the imaging position and the imaging direction identified by the identifying unit 111.
  • the adjustment unit 113 performs this adjustment to cause the imaging device 20 to image a specific imaging target.
  • the adjustment unit 113 performs this adjustment, for example, based on the information acquired by the acquisition unit 112 from the imaging device 20. If the adjustment of the imaging position and the imaging direction specified by the identification unit 111 is unnecessary, the adjustment unit 113 may not perform this adjustment.
  • the device control unit 114 controls the position of the imaging device 20 and the direction of the imaging unit 27 based on the imaging position and the imaging direction adjusted by the adjustment unit 113.
  • the device control unit 114 transmits a command for controlling the position of the imaging device 20 and the direction of the imaging unit 27 to the imaging device 20 using the communication unit 12.
  • FIG. 5 is a block diagram showing the configuration of the imaging device 20.
  • the imaging device 20 has a physical configuration that includes a control unit 21, drivers 22A, 22B, 22C, and 22D, rotary blades 23A, 23B, 23C, and 23D, a communication unit 26, an imaging unit 27, and a measurement unit 28. And a battery 29.
  • the control unit 21 controls each unit of the imaging device 20.
  • the communication unit 26 communicates with the control device 10.
  • the control unit 21 and the communication unit 26 may have the same physical configuration as the control unit 11 and the communication unit 12, respectively.
  • the drive unit 22A rotates the rotary vanes 23A according to the control of the control unit 21.
  • the driving unit 22B rotates the rotary vanes 23B according to the control of the control unit 21.
  • the drive unit 22C rotates the rotary vanes 23C in accordance with the control of the control unit 21.
  • the driving unit 22D rotates the rotary vanes 23D in accordance with the control of the control unit 21.
  • the imaging unit 27 performs imaging and generates a captured image.
  • the imaging unit 27 includes, for example, an imaging element and a lens.
  • the imaging device is, for example, a complementary metal oxide semiconductor (CMOS), but may be another imaging device.
  • CMOS complementary metal oxide semiconductor
  • the measurement unit 28 measures the position of the imaging device 20 and the direction of the imaging unit 27.
  • the measuring unit 28 includes, for example, a positioning unit 281, a direction sensor 282, and an air pressure sensor 283.
  • the positioning unit 281 measures the position of the imaging device 20, in particular, the position in the horizontal direction (for example, latitude and longitude).
  • the positioning unit 281 includes, for example, a GPS (Global Positioning System) receiving circuit and an antenna.
  • the direction sensor 282 measures the direction in which the imaging device 20 faces, and in the present embodiment, the direction of the imaging unit 27.
  • the direction sensor 282 includes, for example, a geomagnetic sensor.
  • the air pressure sensor 283 measures the air pressure acting on the imaging device 20.
  • the battery 29 is a battery serving as a power supply of the imaging device 20.
  • the battery 29 is, for example, a secondary battery.
  • the control unit 21 has a data processing unit 211, a movement control unit 212, and an imaging control unit 213 as a functional configuration.
  • the data processing unit 211 transmits and receives data to and from the control device 10 using the communication unit 26.
  • the movement control unit 212 controls the position of the imaging device 20 and the direction of the imaging unit 27 by driving the driving units 22A, 22B, 22C, and 22D.
  • the movement control unit 212 moves the imaging device 20 by driving the drive units 22A, 22B, 22C, and 22D based on the command acquired using the communication unit 26.
  • the imaging control unit 213 causes the imaging unit 27 to perform imaging.
  • the imaging control unit 213 transmits the captured image to a predetermined device (for example, a display device at an event holding place or a display device at a remote place) using the communication unit 26, or an internal storage device (not shown)
  • a predetermined device for example, a display device at an event holding place or a display device at a remote place
  • FIG. 6 is a sequence diagram showing processing performed by the imaging system 1.
  • the process shown in FIG. 6 is performed for each imaging device 20.
  • each data of the database 13 is input, for example, before the event is held.
  • an event is started.
  • the specifying unit 111 specifies an imaging position and an imaging direction in the imaging device 20 based on the event data 131 of the database 13 (step S11).
  • the identifying unit 111 identifies, for example, the imaging position and the imaging direction according to the music being played, based on the data of the “set list” and the “person's position”.
  • the specifying unit 111 picks up a position specified by the positions “P12” and “P22” of the person while playing the music “# 2”, Identify the imaging position and imaging direction.
  • the identifying unit 111 may identify the imaging position and the imaging direction so as to image the illumination area designated by “illumination”.
  • the current time is “t” illustrated in FIG.
  • the identifying unit 111 identifies the imaging position and the imaging direction so as to image the area identified by the illumination “L22”. Alternatively, the identifying unit 111 may identify the imaging position and the imaging direction so as to image the player designated by “solo part”.
  • the specifying unit 111 specifies the imaging position and the imaging direction so as to image the player P1 identified in “S1”.
  • the imaging position may be specified by data of “person's position”, but the identification unit 111 recognizes the player's face from the imaged image, and picks up the imaging position and imaging direction so as to image the position of the player. May be identified.
  • a transmitter is provided with a predetermined signal in the possession of the player such as a musical instrument, and the identification unit 111 picks up an imaging position and an image of the position of the player based on the result of detection of the signal.
  • the imaging direction may be specified.
  • the specification unit 111 may specify the progress of the current event using the technique of score alignment.
  • the specifying unit 111 specifies the music position in the musical score of the musical performance sound indicated by the sound signal detected in the space S, and based on the event data 131 at the time corresponding to the specified music position, the imaging position and imaging Identify the direction.
  • the score alignment is based on each pronunciation information (for example, note-on data and note-off data) constituting musical score data representing musical score, and which portion of the musical score is currently based on the sound signal of the performance sound. It is a technique to estimate whether you are playing.
  • the music score data is, for example, data in a standard MIDI (registered trademark) file format.
  • the specific algorithm of the score alignment technique may be, for example, a known algorithm as disclosed in Japanese Patent No. 6187132 or Japanese Patent Laid-Open No. 2017-181724. Thereby, even if the progression of the event is different from the progress schedule indicated by the event data 131, the specification unit 111 can specify the imaging position and the imaging direction according to the playing position.
  • the imaging control unit 213 performs imaging using the imaging unit 27 (step S12).
  • the data processing unit 211 measures the position of the imaging device 20 and the direction of the imaging unit 27 using the measuring unit 28 (step S13).
  • the data processing unit 211 transmits the captured image captured by the imaging unit 27, position information indicating the position of the imaging device 20, and direction information indicating the direction of the imaging unit 27 to the control device 10 using the communication unit 26.
  • the position information includes, for example, information indicating the position in the horizontal direction measured using the positioning unit 281, and information indicating the height specified based on the air pressure measured using the air pressure sensor 283.
  • the acquisition unit 112 acquires a captured image, position information, and direction information transmitted by the imaging device 20 (step S15).
  • the adjustment unit 113 adjusts the imaging position and the imaging direction specified by the specifying unit 111 (step S16).
  • the adjustment unit 113 performs this adjustment so that the player P1 or P2 is an imaging target. If, for example, at least one of the position of the imaging device 20 and the direction of the imaging unit 27 specified from the information transmitted in step S14 is different from the imaging position and the imaging direction specified in step S11, the adjustment unit 113 It adjusts so that it may closely approach to the said imaging position and the said imaging direction.
  • the device control unit 114 transmits a command according to the imaging position and imaging direction after adjustment by the adjustment unit 113 to the imaging device 20 using the communication unit 12 (step S17).
  • the movement control unit 212 controls the position of the imaging device 20 and the direction of the imaging unit 27 based on this command (step S18). For example, in the solo part of the performer P1 at time "t", as shown in FIG. 7, the imaging devices 20A and 20B capture the performer P1 as an imaging target and surround the performer P1 for imaging. In this example, the imaging devices 20A and 20B image the player P1 from different directions.
  • the imaging device 20 may not be present at a desired position or may not be imaged in a desired imaging direction under the influence of disturbance such as wind.
  • the adjustment unit 113 adjusts the position of the imaging device 20 and the direction of the imaging unit 27 based on the position information and the direction information. As shown in the upper part of FIG. 8, for example, it is assumed that a captured image IM1 obtained by capturing the upper body of the player P1 is to be obtained. In this case, as shown in the lower part of FIG. 8, a captured image IM2 in which the imaging range is shifted may be obtained. Therefore, the adjustment unit 113 adjusts at least one of the position of the imaging device 20 and the direction of the imaging unit 27 so as to reduce the deviation of the imaging range.
  • the adjustment unit 113 may determine the adjustment method using the measurement result of the measurement unit 28, or determines the adjustment method by recognizing the face or the musical instrument of the performer from the captured image of the imaging device 20. May be Additional information may be used as information for determining the adjustment method.
  • the adjustment unit 113 adjusts the position of the imaging device 20A or the imaging device 20B so that the imaging device 20A and the imaging device 20B do not approach within a predetermined distance (for example, do not contact). It is also good.
  • the measuring unit 28 may include a sensor such as an infrared sensor or an ultrasonic sensor in order to determine whether the imaging devices 20A and 20B are close to each other.
  • the adjustment unit 113 may adjust the position or the direction of the imaging device 20A or the imaging device 20B so that the imaging device 20B is not included in the imaging range of the imaging device 20A.
  • the adjustment unit 113 may control the position of the imaging device 20A or the imaging device 20B or the direction of the imaging unit 27 based on the position information acquired from the imaging devices 20A and 20B.
  • the adjustment unit 113 may control the imaging device 20A or the imaging device 20B when the other imaging device is recognized from one captured image of the imaging device 20A and the imaging device 20B.
  • the adjustment unit 113 may specify the positional relationship between the imaging device 20 and a specific device, and adjust the position so that the imaging device 20 and the device do not approach within a predetermined distance.
  • the adjustment unit 113 controls the position of the imaging device 20 so that the imaging device 20 and the sound emitting device 40 do not contact.
  • the adjustment unit 113 identifies the positional relationship between the imaging device 20 and the sound emitting device 40 by recognizing an image (for example, a mark) attached to the sound emitting device 40 from the captured image of the imaging device 20, for example. Good.
  • the sound emitting device 40 transmits a predetermined signal to a range within a predetermined distance, and the adjusting unit 113 specifies the positional relationship with the sound emitting device 40 based on whether or not this signal is received by the communication unit 12 You may
  • the adjustment unit 113 may specify the positional relationship between the imaging device 20 and the specific area, and adjust the position of the imaging device 20 so that the imaging device 20 does not enter this area.
  • the specific area is a space area where the imaging device 20 should not enter, for example, an area where the audience seat 90 exists.
  • the specific area may be designated in advance using position information.
  • the adjustment unit 113 may analyze the captured image of the imaging device 20 and recognize a specific image (for example, a floor) to prevent the imaging device 20 from entering the specific area.
  • each imaging device 20 can be appropriately moved based on the actual progress of the event and the positional relationship with other imaging devices 20 and devices.
  • the present invention can be implemented in a form different from the embodiment described above.
  • the present invention can also be implemented, for example, in the following modes.
  • the modifications shown below may combine each suitably.
  • the adjustment unit 113 may determine an imaging target according to the performer's performance method. For example, the adjustment unit 113 may set, as an imaging target, a player who performs in a specific rendition style. The adjustment unit 113 may capture the timing at which the drummer player P2 strikes the drum stick. Here, the adjustment unit 113 may analyze the captured image to specify what playing method is being performed. The adjustment unit 113 may analyze the pattern included in the waveform of the sound signal detected in the space S, and specify the playing method based on the pattern included in the waveform of the sound signal.
  • FIG. 9 is a sequence diagram showing processing performed by the imaging system 1.
  • the acquisition unit 112 acquires the remaining battery level from the imaging devices 20A and 20B (steps S21 and S22).
  • the adjustment unit 113 determines whether there is an imaging device 20 in which the remaining amount of the battery 29 is equal to or less than the threshold (step S23). When it is judged as "NO" by Step S23, processing of control device 10 is returned to Step S21.
  • the adjustment unit 113 determines “NO” in step S23, and notifies the imaging device 20A that imaging is finished (step S24).
  • the movement control unit 212 receives this notification and returns to the predetermined place (step S25).
  • the imaging control unit 213 also transmits a command instructing movement to the unused imaging device 20C (step S26).
  • the imaging control unit 213 transmits a command to move the imaging device 20C to the position where the imaging device 20A existed before returning.
  • the movement control unit 212 moves according to this command (step S27). Then, the imaging control unit 213 of the imaging device 20C starts imaging.
  • the imaging device 20A and the imaging device 20C may approach, the proximity of the imaging device 20A and the imaging device 20C is avoided by the method described above.
  • the imaging device of the present invention may not be a flightable imaging device.
  • a traveling-type imaging device 50 is shown in FIG.
  • FIG. 10 is a diagram showing an appearance configuration of the imaging device 50.
  • the imaging device 50 is provided on the front of the housing 510 and the housing 510, and includes an imaging unit 55.
  • the imaging unit 55 is provided such that the horizontal direction is the imaging direction.
  • the imaging device 50 includes wheels 53A, 53B, 53C, and 53D provided at four corners of the bottom surface of the housing 510.
  • the wheels 53A to 53D are traveling means for causing the imaging device 50 to travel by a motor or the like, and independently rotate around a wheel axis and rotate around a vertical axis.
  • the configuration of the appearance of the imaging device 50 illustrated in FIG. 10 is an example.
  • FIG. 11 is a block diagram showing the configuration of the imaging device 50.
  • the control unit 51 controls each unit of the imaging device 50.
  • the communication unit 54 performs wireless communication with the control device 10.
  • the control unit 51 and the communication unit 54 may have the same physical configuration as the control unit 11 and the communication unit 12, respectively.
  • the imaging unit 55 captures an image and generates a captured image indicating the captured image.
  • the measurement unit 56 measures the position of the imaging device 50 and the direction of the imaging unit 27.
  • Measurement unit 56 includes a positioning unit 561 and a direction sensor 562.
  • the positioning unit 561 measures the position of the imaging device 50 in the horizontal direction.
  • the direction sensor 562 includes, for example, a geomagnetic sensor.
  • the battery 57 is a secondary battery here, and serves as a power supply of the imaging device 50.
  • the control unit 51 has a data processing unit 511, a movement control unit 512, and an imaging control unit 513 as a functional configuration.
  • the data processing unit 511 transmits and receives data to and from the control device 10 using the communication unit 54.
  • the movement control unit 512 controls the position of the imaging device 20 and the direction of the imaging unit 27 by driving the driving units 52A, 52B, 52C, and 52D.
  • the movement control unit 512 drives the drive units 52A, 52B, 52C, and 52D based on the command acquired using the communication unit 54, for example, to move the imaging device 20 forward, backward, and diagonally.
  • the same function as the imaging device 20 can be executed.
  • the imaging control unit 53 causes the imaging unit 55 to perform imaging.
  • the imaging control unit 513 transmits the captured image to the communication unit 54 and transmits the image to a predetermined device, or stores the image in an internal storage device (not shown).
  • the data processing unit 511 and the imaging control unit 513 may have the same functions as the data processing unit 211 and the imaging control unit 213, respectively.
  • control unit 11 of the control device 10 may be realized by the control unit of the imaging device.
  • the control unit 11 of the control device 10A includes a specifying unit 111 and a device control unit 114A.
  • the device control unit 114A transmits a command instructing the imaging position and the imaging direction identified based on the event data 131 stored in the database 13 by the identifying unit 111 to the imaging device 20D using the communication unit 12.
  • the control unit 21 of the imaging device 20D includes, as a functional configuration, an adjustment unit 214, a movement control unit 215, and an imaging control unit 216.
  • the adjustment unit 214 adjusts the imaging position and the imaging direction specified by the command acquired using the communication unit 26.
  • the adjustment unit 214 may have the same function as the adjustment unit 113.
  • the adjustment unit 214 performs this adjustment to cause the imaging device 20 to image a specific imaging target.
  • the movement control unit 215 moves the imaging device 20D by driving the drive units 22A, 22B, 22C, and 22D based on the imaging position and the imaging direction adjusted by the adjustment unit 214.
  • the imaging control unit 216 causes the imaging unit 27 to perform imaging.
  • FIG. 13 is a sequence diagram showing processing performed by the imaging system.
  • the identification unit 111 identifies the imaging position and the imaging direction in the imaging device 20D based on the event data 131 of the database 13 (step S31).
  • the device control unit 114A transmits a command corresponding to the imaging position and imaging direction identified by the identification unit 111 to the imaging device 20 using the communication unit 12 (step S32).
  • the movement control unit 215 moves the imaging device 20D by driving the drivers 22A, 22B, 22C, and 22D based on the imaging position and the imaging direction instructed by the command (step S33). .
  • the imaging control unit 213 performs imaging using the imaging unit 27 (step S34).
  • the adjustment unit 214 uses the measurement unit 28 to measure the position of the imaging device 20D and the direction of the imaging unit 27 (step S35).
  • the adjustment unit 214 adjusts the imaging position and the imaging direction identified by the identification unit 111 (step S36).
  • the movement control unit 215 controls the position of the imaging device 20D and the direction of the imaging unit 27 by driving the driving units 22A, 22B, 22C, and 22D based on the imaging position and the imaging direction adjusted by the adjustment unit 214. (Step S37). As described above, the imaging device 20D autonomously adjusts the position of the own device and the direction of the imaging unit 27.
  • the imaging device 20E has a database 60.
  • the database 60 may have the same configuration as the database 13 of the first embodiment, and stores event data 131.
  • the control unit 21 has a specifying unit 217, an adjusting unit 218, a movement control unit 219, and an imaging control unit 220 as a functional configuration.
  • the identifying unit 217 has the same function as the identifying unit 111 of the first embodiment.
  • the adjustment unit 218 adjusts the imaging position and the imaging direction identified by the identifying unit 217.
  • the adjustment unit 218 may have the same function as the adjustment unit 113.
  • the adjustment unit 218 performs this adjustment in order to cause the imaging device 20 to image a specific imaging target.
  • the movement control unit 219 moves the imaging device 20E by driving the drive units 22A, 22B, 22C, and 22D based on the imaging position and the imaging direction adjusted by the adjustment unit 218.
  • the imaging control unit 220 causes the imaging unit 27 to perform imaging.
  • FIG. 15 is a flowchart showing processing performed by the imaging device 20E.
  • the imaging control unit 220 performs imaging using the imaging unit 27 (step S41).
  • the identifying unit 217 uses the measuring unit 28 to measure the position of the imaging device 20D and the direction of the imaging unit 27 based on the event data 131 of the database 60 (step S43).
  • the adjustment unit 218 adjusts the imaging position and the imaging direction specified by the specifying unit 217 (step S44).
  • the movement control unit 219 controls the position of the imaging device 20E and the direction of the imaging unit 27 by driving the driving units 22A, 22B, 22C, and 22D based on the imaging position and the imaging direction adjusted by the adjustment unit 218. (Step S45).
  • the imaging device 20E can autonomously control the position of the own device and the direction of the imaging unit 27 without communicating with the external control device 10.
  • the movement control unit 212 of the imaging device 20 may change the position and the direction of the imaging unit 27 in synchronization with the performance.
  • the imaging device 20 may display a lyric for a player to show on the display device, may turn over a score, or may perform a specific motion of directing in accordance with a performance.
  • the event does not have to be a concert if it is scheduled to proceed.
  • the event may be, for example, an imaging of a music video.
  • the control device 10 may divide the music to be played into a plurality of sections and cause the imaging device 20 to image each section.
  • the device control unit 114 controls the position and orientation of the imaging device 20 according to the classification of the music to be played.
  • There is no particular limitation on the method of segmenting music but there are methods of segmenting according to phrases (sections) such as A-melo, B-melo, and Sabi, or methods of segmenting according to playing parts such as vocals and guitars.
  • the imaging control unit 213 manages (for example, records or transmits) a captured image in association with the section.
  • management for example, editing
  • events may be progressed along a predetermined schedule, such as events at various commercial facilities, meetings and the like.
  • the sound signal may not be a sound signal indicating a playing sound.
  • the imaging system described above adjusts the position of the imaging device and the direction of the imaging unit, at least the position of the imaging device may be controlled.
  • the imaging system according to the present invention can be specified as the imaging system 2 configured as shown in FIG. That is, the imaging system 2 includes an imaging unit, and the movable imaging device 201, the database 202 storing the advance schedule of the event in association with the time axis, and each on the time axis based on the progress schedule.
  • the position of the imaging device based on the identifying unit 203 that identifies the imaging position at the time point, the adjusting unit 204 that adjusts the identified imaging position according to the imaging target in the event, and the imaging position after adjustment And a movement control unit 205 that controls the
  • this program may be a computer read such as a magnetic recording medium (magnetic tape, magnetic disk, etc.), an optical recording medium, a magneto-optical recording medium, a semiconductor memory, etc. It may be provided as stored in a possible recording medium, or may be distributed via a network.
  • the present invention can also be grasped as an invention of a method.
  • this invention is not limited to said embodiment, It is possible to change suitably in the range which does not deviate from the meaning.
  • Imaging system 2 Imaging system 10: Control device 10A: Control device 11: Control unit 12: Communication unit 13: Database 20: Imaging device 20A: Imaging device 20B: Imaging device 20C : Imaging device, 20D: Imaging device, 20E: Imaging device, 21: Control unit, 22A: Drive unit, 22B: Drive unit, 22C: Drive unit, 22D: Drive unit, 23A: Rotary blade, 23B: Rotary blade, 23C : Rotary blade, 23D: Rotary blade, 24A: Leg, 24B: Leg, 25: Support member, 26: Communication unit, 27: Imaging unit, 28: Measurement unit, 29: Battery, 30: Lighting device, 40: Sound emission device 50: imaging device 51: control unit 52A: drive unit 52B: drive unit 52C: drive unit 52D: drive unit 53: imaging control unit 53A: wheel 53B: wheel 53C: Wheels 53D: Wheel, 54: Communication unit, 55: Imaging unit, 56: Measurement unit, 57: Battery, 60: Database, 80: Stage, 90: Audience seat, 111: Identification unit, 112: Identification unit

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Studio Devices (AREA)

Abstract

撮像システムは、撮像部を含み、移動可能な撮像装置と、イベントの進行予定を時間軸と対応付けて記憶したデータベースと、前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部と、特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、調整後の前記撮像位置に基づいて、前記撮像装置の位置を制御する移動制御部と、を備える。前記特定部は、前記進行予定に基づいて、前記各時点における撮像方向を特定し、前記調整部は、前記撮像対象に応じて、前記撮像方向を調整し、前記移動制御部は、調整後の前記撮像位置及び前記撮像方向に基づいて、前記撮像装置の位置および前記撮像部の方向を制御する。

Description

撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム
 本発明は、撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラムに関する。
 カメラを搭載した無人機を遠隔操作して、例えばコンサートの開催場所を撮像するシステムが用いられることがある。このシステムでは、高所に設置されたワイヤに沿って移動する無人機が用いられることがある。また、特許文献1,2は、ドローンと呼ばれる飛行可能な無人機が撮像するシステムを開示している。具体的には、特許文献1は、無人機が所定の軌道において安定したときに撮像を開始することを開示している。特許文献2は、ドローンにより上空を飛行された土地を撮像した画像を連続配置することを開示している。
特開2013-139256号公報 特開2017-15704公報
 例えば、コンサートなどのイベントは、あらかじめ決められたスケジュールに従って進行することがある。よって、イベントの開催中の各時刻において撮像すべき領域を事前に把握することは可能である。このため、各時刻における撮像装置の位置を、このスケジュールに従って自動で制御できると便利である。しかしながら、各時刻における撮像装置の位置を指定するデータを事前に作成する必要があり、そのための人的な負担は大きい。
 そこで、本発明の目的の一つは、撮像装置の位置を指定するデータが予め作成されていなくとも、イベントにおける特定の撮像対象の撮像するように撮像装置の位置を制御することである。
 本発明の一実施形態によれば、撮像部を含み、移動可能な撮像装置と、イベントの進行予定を時間軸と対応付けて記憶したデータベースと、前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部と、特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、調整後の前記撮像位置に基づいて、前記撮像装置の位置を制御する移動制御部と、を備える撮像システムが提供される。
 撮像システムにおいて、前記特定部は、前記進行予定に基づいて、前記各時点における撮像方向を特定し、前記調整部は、前記撮像対象に応じて、前記撮像方向を調整し、前記撮像制御部は、調整後の前記撮像位置および前記撮像方向に基づいて、前記撮像装置の位置および前記撮像部の方向を制御してもよい。
 撮像システムにおいて、前記調整部は、前記撮像部により生成された撮像画像に基づいて、前記撮像装置の位置および前記撮像部の方向を制御してもよい。
 撮像システムにおいて、音信号を取得する取得部と、前記特定部は、前記音信号が示す音の楽曲における位置を特定し、特定した当該位置に応じた時点の前記進行予定に基づいて、前記撮像位置および前記撮像方向を特定してもよい。
 撮像システムにおいて、前記調整部は、第1撮像装置と第2撮像装置とが所定距離以内に近接しないように、前記第1撮像装置または前記第2撮像装置の位置を調整してもよい。
 撮像システムにおいて、前記調整部は、撮像中の第1撮像装置の電池残量が閾値以下になった場合、第1撮像装置に代えて第2撮像装置に撮像させてもよい。
 撮像システムにおいて、前記調整部は、第1撮像装置の撮像範囲に第2撮像装置が含まれないように、前記第1撮像装置または前記第2撮像装置の位置または前記撮像部の方向を変更してもよい。
 撮像システムにおいて、前記調整部は、前記撮像装置と特定の機器との位置関係を特定し、前記撮像装置と前記機器とが所定距離以内に近接しないように、前記撮像装置の位置を調整してもよい。
 撮像システムにおいて、前記調整部は、前記撮像装置と特定の領域との位置関係を特定し、前記撮像装置が前記領域に進入しないしように、前記撮像装置の位置を調整してもよい。
 撮像システムにおいて、前記撮像装置は飛行可能であってもよい。
 撮像システムにおいて、前記撮像装置が前記調整部を備えてもよい。
 本発明の一実施形態によれば、イベントの進行予定を時間軸と対応付けて記憶したデータベースと、前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部と、特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、調整後の前記撮像位置に基づいて、撮像部を含み、移動可能な撮像装置の位置を制御する装置制御部と、を備える制御装置が提供される。
 本発明の一実施形態によれば、撮像部と、自装置を移動させるように動作する駆動部と、イベントの進行予定を時間軸と対応付けて記憶したデータベースに記憶された前記進行予定に基づいて、前記時間軸上の各時点の撮像位置に自装置を移動させる移動制御部と、前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、を備える撮像装置が提供される。
 撮像装置において、前記撮像位置を制御するためのコマンドを受信する通信部を備え、前記調整部は、前記コマンドにより指示された位置を調整してもよい。
 本発明の一実施形態によれば、撮像部と、自装置を移動させるように動作する駆動部と、イベントの進行予定を時間軸と対応付けて記憶したデータベースと、前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部と、特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、調整後の前記撮像位置に基づいて、前記撮像装置の位置を制御する移動制御部と、を備える撮像装置が提供される。
 本発明の一実施形態によれば、イベントの進行予定を時間軸と対応付けて記憶したデータベースに記憶された前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定し、特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整し、調整後の前記撮像位置に基づいて、撮像部を含み、移動可能な撮像装置の位置を制御する撮像装置の制御方法が提供される。
 本発明の一実施形態によれば、コンピュータに、イベントの進行予定を時間軸と対応付けて記憶したデータベースに記憶された前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定し、特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整し、調整後の前記撮像位置に基づいて、撮像部を含み、移動可能な撮像装置の位置を制御する処理を実行させるためのプログラムが提供される。
 本発明によれば、撮像装置の位置を指定するデータが予め作成されていなくとも、イベントにおける特定の撮像対象の撮像するように撮像装置の位置を制御することができる。
本発明の一実施形態における撮像システムの全体構成を示す図である。 本発明の一実施形態における、撮像装置の外観構成を示す図である。 本発明の一実施形態における制御装置の構成を示すブロック図である。 本発明の一実施形態におけるイベントデータの構成を示すブロック図である。 本発明の一実施形態における撮像装置の構成を示すブロック図である。 本発明の一実施形態における撮像システムで行われる撮像装置の制御を示すシーケンス図である。 本発明の一実施形態における撮像システムの撮像の様子を示す図である。 本発明の一実施形態における撮像位置および撮像対象の調整の様子を示す図である。 本発明の変形例2における撮像システムで行われる処理を示すシーケンス図である。 本発明の変形例2における、撮像装置の外観構成を示す図である。 本発明の一変形例2おける撮像装置の構成を示すブロック図である。 本発明の変形例3における制御装置および撮像装置の構成を示すブロック図である。 本発明の変形例3における撮像システムで行われる撮像装置の制御を示すシーケンス図である。 本発明の変形例3における撮像装置の構成を示すブロック図である。 本発明の変形例3における撮像装置で行われる処理を示すフローチャートである。 本発明における撮像システムを示す機能ブロック図である。
 以下、本発明の一実施形態における撮像システムついて、図面を参照しながら詳細に説明する。以下に示す実施形態は、本発明の実施形態の一例であって、本発明はこれらの実施形態に限定して解釈されるものではない。
[実施形態]
 図1は、本発明の一実施形態に係る撮像システム1の全体構成を示す図である。撮像システム1は、空間Sを撮像するシステムである。空間Sは、イベントの一例であるコンサートの開催場所の空間である。このコンサートでは、演奏者P1およびP2が、ステージ80上で楽器の演奏および歌唱を行うイベントである。なお、空間Sは、屋外および屋内のどちらであってもよい。
 撮像システム1は、制御装置10と、複数の撮像装置20(20A,20B,20C)とを備える。制御装置10は、撮像システム1の全体を制御する装置である。制御装置10は、PA(Public Address)機器と一体の装置であってもよい。制御装置10は、複数の撮像装置20の各々の撮像および移動を制御する。
 撮像装置20は、飛行することにより移動可能な装置(いわゆるドローン)である。すなわち、撮像装置20は、自装置の動力によって飛行することにより、水平方向、鉛直方向、又はこれらの交差方向に移動する。また、撮像装置20は、所定の方向に回転するなど、その姿勢を変化させることもできる。撮像装置20の姿勢が変化すると、その撮像方向も変化することがある。なお、図1には、複数の撮像装置20として、撮像装置20A,20B,20Cの3台が示されている。ただし、撮像システム1に含まれる撮像装置20は、2台以下または4台以上であってもよい。図1の例では、撮像装置20A,20Bは、飛行中でステージ80上の特定の領域を撮像している。一方、撮像装置20Cは、飛行しておらず、撮像もしていない。
 図2は、撮像装置20の外観構成を示す図である。図2は、撮像装置20をその正面の斜め上から見た図を示す撮像装置20は、ここでは、ほぼ十字型の基体210と、基体210の四方向における端部に設けられた駆動手段としての駆動部22A,22B,22C,22Dと、駆動部22A,22B,22C,22Dの回転軸にそれぞれ接続された回転羽根23A,23B,23C,23Dとを備える。回転羽根23A,23B,23C,23Dは、撮像装置20を飛行させるための飛行手段で、各々独立して回転駆動することが可能である。基体210には、一対の脚部24A,24Bが設けられている。基体210の底面には、支持部材25を介して撮像部27が物理的に接続されている。撮像部27は、例えば、撮像装置20の正面の方向を撮像方向とする。なお、図2に示す撮像装置20の外観構成は一例に過ぎない。例えば、撮像部27の位置または方向が、図2に示す位置または方向と異なっていてもよい。
 図1に戻って説明する。照明装置30は、空間Sに配置され、ステージ80上の特定の領域を照明する。照明装置30は、例えば、演奏者P1およびP2に光を照射する。放音装置40は、空間Sに配置され、例えば演奏者P1およびP2が行った演奏の演奏音または歌唱音声を放音する。なお、照明装置30および放音装置40の配置される位置や方向は、問わない。観客席90は、ステージ80の前方に設けられ、イベントの観客が存在する領域である。
 図3は、制御装置10の構成を示すブロック図である。制御装置10は、物理的構成として、制御部11と、通信部12と、データベース13とを備える。制御部11は、制御装置10の各部を制御する。制御部11は、例えば、演算処理装置としてのCPU(Central Processing Unit)、およびROM(Read Only Memory)、RAM(Random Access Memory)を含むプロセッサ、およびDSP(Digital Signal Processor)で例示される信号処理回路を備える。
 通信部12は、複数の撮像装置20の各々と通信を行う。通信部12は、無線通信を行うための通信回路およびアンテナを含む。通信部12の通信方式は、例えばBluetooth(登録商標)等の近距離無線通信またはWi-Fi(登録商標)等の無線LAN(Local Area Network)であるが、その他の通信方式であってもよい。
 データベース13は、イベントの進行予定を時間軸と対応付けたイベントデータ131を記憶するデータベースである。イベントデータ131は、各時刻に予定されているイベントに関するデータを含む。
 図4は、イベントデータ131の構成の一例を示す図である。イベントデータ131は、例えば、「セットリスト」、「人の位置」、「照明」、および「ソロパート」の各データを含む。「セットリスト」は、各時刻において演奏される楽曲を示す。「人の位置」は、イベントに参加する人、ここでは演奏者P1およびP2の各時刻における位置を示す。「照明」は、各時刻における照明装置30の照明の方法(例えば、照明する領域や、明るさ、色)を示す。「ソロパート」は、演奏者P1,P2が単独で演奏または歌唱を行うことを示す。図3では、ソロパート「S1」は、演奏者P1のソロパートである区間を示し、ソロパート「S2」は、演奏者P2のソロパートである区間を示す。なお、データベース13は、例えばハードディスク装置などの磁気記録媒体を用いて実現される。ただし、データベース13は、半導体記録媒体や光学式記録媒体などの、コンピュータが読み取り可能な記録媒体で実現されればよい。なお、イベントデータ131は、イベントの開催前に、そのイベントの進行を管理するために作成されるデータである。
 制御部11は、機能的構成として、特定部111と、取得部112と、調整部113と、装置制御部114とを有する。特定部111は、データベース13に記憶されたイベントデータ131に基づいて、撮像位置および撮像方向を特定する。取得部112は、通信部12を用いて、撮像装置20から情報を取得する。取得部112が取得する情報は、例えば、撮像装置20の撮像画像、および撮像装置20で測定されたデータである。
 調整部113は、特定部111により特定された撮像位置および撮像方向を調整する。調整部113は、撮像装置20に特定の撮像対象を撮像させるために、この調整を行う。調整部113は、例えば、取得部112が撮像装置20から取得した情報に基づいて、この調整を行う。調整部113は、特定部111が特定した撮像位置および撮像方向の調整が不要である場合には、この調整をしなくてよい。
 装置制御部114は、調整部113により調整された後の撮像位置および撮像方向に基づいて、撮像装置20の位置および撮像部27の方向を制御する。装置制御部114は、撮像装置20の位置および撮像部27の方向を制御するためのコマンドを、通信部12を用いて撮像装置20へ送信する。
 図5は、撮像装置20の構成を示すブロック図である。撮像装置20は、物理的構成として、制御部21と、駆動部22A,22B,22C,22Dと、回転羽根23A,23B,23C,23Dと、通信部26と、撮像部27と、測定部28と、電池29とを備える。制御部21は、撮像装置20の各部を制御する。通信部26は、制御装置10と通信を行う。制御部21および通信部26は、それぞれ制御部11および通信部12と同じ物理的構成でよい。
 駆動部22Aは、制御部21の制御に応じて、回転羽根23Aを回転させる。駆動部22Bは、制御部21の制御に応じて、回転羽根23Bを回転させる。駆動部22Cは、制御部21の制御に応じて、回転羽根23Cを回転させる。駆動部22Dは、制御部21の制御に応じて、回転羽根23Dを回転させる。
 撮像部27は、撮像を行い、撮像画像を生成する。撮像部27は、例えば撮像素子およびレンズを含む。撮像素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)であるが、他の撮像素子であってもよい。
 測定部28は、撮像装置20の位置および撮像部27の方向を測定する。測定部28は、例えば、測位部281、方向センサ282、および気圧センサ283を含む。測位部281は、撮像装置20の位置、特に水平方向における位置(例えば、緯度および経度)を測定する。測位部281は、例えば、GPS(Global Positioning System)受信回路およびアンテナを含む。方向センサ282は、撮像装置20が向く方向、本実施形態では撮像部27の方向を測定する。方向センサ282は、例えば地磁気センサを含む。気圧センサ283は、撮像装置20に作用する気圧を測定する。電池29は、撮像装置20の電源となる電池である。電池29は、例えば二次電池である。
 制御部21は、機能的構成として、データ処理部211と、移動制御部212と、撮像制御部213とを有する。データ処理部211は、通信部26を用いて制御装置10とデータの送受信を行う。移動制御部212は、駆動部22A,22B,22C,22Dを駆動することにより、撮像装置20の位置および撮像部27の方向を制御する。移動制御部212は、通信部26を用いて取得したコマンドに基づいて、駆動部22A,22B,22C,22Dを駆動することにより、撮像装置20を移動させる。撮像制御部213は、撮像部27に撮像させる。撮像制御部213は、撮像した画像を、通信部26を用いて所定の装置(例えば、イベント開催場所のディスプレイ装置や、遠隔地のディスプレイ装置)に送信したり、又は図示せぬ内部の記憶装置に記憶させたりする。
 次に、本実施形態の動作を説明する。図6は、撮像システム1で行われ処理を示すシーケンス図である。撮像システム1では、撮像装置20毎に、図6に示す処理が行われる。また、データベース13の各データは、例えばイベントの開催前に入力されている。撮像装置20の電源を投入し、所定の場所に設置された後、イベントは開始される。
 まず、制御装置10において特定部111は、データベース13のイベントデータ131に基づいて、撮像装置20における撮像位置および撮像方向を特定する(ステップS11)。特定部111は、例えば、「セットリスト」および「人の位置」のデータに基づいて、演奏中の楽曲に応じた撮像位置および撮像方向を特定する。現在時刻が図4に示す「t」である場合、特定部111は、楽曲「#2」の演奏中は、人の位置「P12」および「P22」によって特定される位置を撮像するように、撮像位置および撮像方向を特定する。特定部111は、「照明」で指定された照明領域を撮像するように、撮像位置および撮像方向を特定してもよい。現在時刻が図4に示す「t」である場合、特定部111は、照明「L22」によって特定される領域を撮像するように、撮像位置および撮像方向を特定する。または、特定部111は、「ソロパート」で指定された演奏者を撮像するように、撮像位置および撮像方向を特定してもよい。現在時刻が図3に示す「t」である場合、特定部111は、「S1」で識別される演奏者P1を撮像するように、撮像位置および撮像方向を特定する。撮像位置は「人の位置」のデータにより特定されてもよいが、特定部111は、撮像画像から演奏者の顔を認識し、当該演奏者の位置を撮像するように、撮像位置および撮像方向を特定してもよい。または、楽器などの演奏者の所持物に所定の信号を発信機が設けられ、特定部111は、当該信号を検出した結果に基づいて、当該演奏者の位置を撮像するように、撮像位置および撮像方向を特定してもよい。
 ステップS11において、特定部111は、スコアアライメントの技術を用いて、現在のイベントの進行状況を特定してもよい。この場合、特定部111は、空間Sで検出された音信号が示す演奏音の楽譜における楽曲位置を特定し、その特定した楽曲位置に対応する時点のイベントデータ131に基づいて、撮像位置および撮像方向を特定する。スコアアライメントは、楽曲の楽譜を表す楽譜データを構成する各発音情報(例えば、ノートオンデータおよびノートオフデータ)と、演奏音の音信号とに基づいて、楽曲の楽譜のうちのどの部分が現在演奏されているのかを推定するための技術である。楽譜データとして、例えば、標準MIDI(登録商標)ファイル形式のデータである。スコアアライメント技術の具体的なアルゴリズムは、例えば、特許第6187132号または特開2017-181724公報に開示されているような公知のアルゴリズムでよい。これにより、イベントの進行がイベントデータ131が示す進行予定と異なっていても、特定部111は、演奏位置に応じた撮像位置および撮像方向を特定することができる。
 撮像装置20において撮像制御部213は、撮像部27を用いて撮像を行う(ステップS12)。データ処理部211は、測定部28を用いて、撮像装置20の位置および撮像部27の方向を測定する(ステップS13)。データ処理部211は、通信部26を用いて、撮像部27により撮像された撮像画像、撮像装置20の位置を示す位置情報、および撮像部27の方向を示す方向情報を、制御装置10へ送信する(ステップS14)。位置情報は、例えば、測位部281を用いて測定された水平方向における位置を示す情報と、気圧センサ283を用いて測定された気圧に基づいて特定された高さを示す情報とを含む。
 制御装置10において取得部112は、撮像装置20により送信された撮像画像、位置情報および方向情報を取得する(ステップS15)。
 次に、調整部113は、特定部111により特定された撮像位置および撮像方向を調整する(ステップS16)。調整部113は、演奏者P1またはP2を撮像対象とするように、この調整を行う。調整部113は、例えば、ステップS14で送信された情報から特定される撮像装置20の位置および撮像部27の方向の少なくともいずれかが、ステップS11で特定した撮像位置および撮像方向と異なる場合は、当該撮像位置および当該撮像方向に近づけるように調整する。そして、装置制御部114は、調整部113による調整後の撮像位置および撮像方向に応じたコマンドを、通信部12を用いて撮像装置20へ送信する(ステップS17)。
 撮像装置20において移動制御部212は、このコマンドに基づいて撮像装置20の位置および撮像部27の方向を制御する(ステップS18)。例えば、例えば時刻「t」における演奏者P1のソロパートでは、図7に示すように、撮像装置20A,20Bが演奏者P1を撮像対象とし、演奏者P1を取り囲んで撮像する。この例では、撮像装置20A,20Bは互いに異なる方向から演奏者P1を撮像する。
 ところで、撮像装置20は、風などの外乱の影響を受けて、所望する位置に存在しない場合、または、所望する撮像方向で撮像していない場合がある。ステップS16では、調整部113は、位置情報および方向情報に基づいて、撮像装置20の位置および撮像部27の方向を調整する。図8の上段に示すように、例えば演奏者P1の上半身を撮像した撮像画像IM1を得たいとする。この場合に、図8の下段に示すように、撮像範囲がずれた撮像画像IM2が得られてしまうことがある。そこで、調整部113は、撮像範囲のずれを小さくするように、撮像装置20の位置および撮像部27の方向の少なくともいずれかを調整する。この際、調整部113は、測定部28の測定結果を用いて調整方法を決定してもよいし、撮像装置20の撮像画像から演奏者の顔や楽器を認識することにより調整方法を決定してもよい。調整方法を決定するための情報については、更に別の情報が用いられてもよい。
 ステップS16の調整において、調整部113は、撮像装置20Aと撮像装置20Bとが所定距離以内に接近しないように(例えば、接触しないように)、撮像装置20Aまたは撮像装置20Bの位置を調整してもよい。なお、撮像装置20A,20Bが近接しているかどうかを判断するために、測定部28は赤外線センサや超音波センサなどのセンサを含んでもよい。
 ステップS16の調整において、調整部113は、撮像装置20Aの撮像範囲に撮像装置20Bが含まれないように、撮像装置20Aまたは撮像装置20Bの位置または方向を調整してもよい。例えば、調整部113は、撮像装置20A,20Bから取得された位置情報に基づいて、撮像装置20Aまたは撮像装置20Bの位置または撮像部27の方向を制御してもよい。また、調整部113は、撮像装置20Aおよび撮像装置20Bのうちの一方の撮像画像から他方の撮像装置を認識した場合に、撮像装置20Aまたは撮像装置20Bを制御してもよい。
 ステップS16の調整において、調整部113は、撮像装置20と特定の機器との位置関係を特定し、撮像装置20と機器とが所定距離以内に近接しないように位置を調整してもよい。例えば、調整部113は、撮像装置20と放音装置40とが接触しないように、撮像装置20の位置を制御する。調整部113は、例えば、撮像装置20の撮像画像から放音装置40に付された画像(例えばマーク)を認識することにより、撮像装置20と放音装置40との位置関係を特定してもよい。また、放音装置40が所定の信号を所定距離内の範囲に送信し、調整部113はこの信号が通信部12により受信されるか否かに基づいて放音装置40との位置関係を特定してもよい。
 ステップS16の調整において、調整部113は、撮像装置20と特定の領域との位置関係を特定し、撮像装置20がこの領域に進入しないしように撮像装置20の位置を調整してもよい。特定の領域は、撮像装置20が進入すべきでない空間領域で、例えば観客席90の存在する領域である。特定の領域は、予め位置情報を用いて指定されていてもよい。また、調整部113は、撮像装置20の撮像画像を解析して、特定の画像(例えば、床)を認識することにより、特定の領域に撮像装置20が進入しないようにしてもよい。
 以上説明した実施形態の撮像システム1によれば、各時刻に撮像装置にどの位置で撮像させるかを指定するためのデータを作成しておかなくとも、イベントの進行に応じて撮像装置20の移動を制御できる。また、調整部113の機能により、イベントの実際の進行状況や、他の撮像装置20や機器との位置関係に基づいて、適切に各撮像装置20を移動させることができる。
[変形例]
 本発明は、上述した実施形態と異なる形態で実施することが可能である。本発明は、例えば、以下のような形態で実施することも可能である。また、以下に示す変形例は、各々を適宜に組み合わせてもよい。
(変形例1)
 調整部113は、演奏者の演奏方法に応じて撮像対象を決定してもよい。例えば、調整部113は、特定の奏法で演奏を行う演奏者を撮像対象にしてもよい。調整部113は、ドラマーである演奏者P2がドラムスティックを叩くタイミングを撮像させてもよい。ここにおいて、調整部113は、撮像画像を解析してどのような演奏方法で演奏が行われているかを特定してもよい。調整部113は、空間Sで検出された音信号の波形に含まれるパターンを解析し、音信号の波形に含まれるパターンに基づいて、演奏方法を特定してもよい。
(変形例2)
 調整部113は、撮像中の撮像装置20の電池29の残量が閾値以下になった場合、この撮像装置20に代えて他の撮像装置20に撮像させてもよい。図9は、撮像システム1で行われる処理を示すシーケンス図である。
 取得部112は、電池残量を撮像装置20A,20Bから取得する(ステップS21,S22)。次に、調整部113は、電池29の残量が閾値以下の撮像装置20が存在するかどうかを判断する(ステップS23)。ステップS23で「NO」と判断された場合、制御装置10の処理はステップS21に戻される。
 ここで、撮像装置20Aの電池29の残量が閾値未満であった場合を説明する。この場合、調整部113は、ステップS23で「NO」と判断し、撮像を終了する旨を、撮像装置20Aへ通知する(ステップS24)。撮像装置20Aにおいて移動制御部212は、この通知を受けて所定の場所に帰還する(ステップS25)。また、撮像制御部213は、未使用の撮像装置20Cへ移動を指示するコマンドを送信する(ステップS26)。撮像制御部213は、撮像装置20Aが帰還前に存在していた位置に撮像装置20Cを移動させるように、コマンドを送信する。撮像装置20Cにおいて移動制御部212は、このコマンドに応じて移動する(ステップS27)。そして、撮像装置20Cの撮像制御部213は、撮像を開始する。なお、撮像装置20Aと撮像装置20Cとが近接する可能性はあるが、前述の方法により、撮像装置20Aと撮像装置20Cとの近接は回避される。
 本発明の撮像装置は飛行可能な撮像装置でなくてもよい。図10に、走行式の撮像装置50を示す。図10は、撮像装置50の外観構成を示す図である。図10には撮像装置50の正面図と、右側面図と、底面図とが示されている。撮像装置50は、筐体510と、筐体510の正面に設けられ、撮像部55とを備える。撮像部55は、ここでは、ほぼ水平方向を撮像方向とするように設けられている。撮像装置50は、筐体510の底面の四隅に設けられた車輪53A,53B,53C,53Dを備える。車輪53A~53Dは、モータなどにより撮像装置50を走行させるための走行手段で、各々独立して車輪軸を中心に回転し、また鉛直軸を中心に回転する。なお、図10に示す撮像装置50の外観の構成は一例である。
 図11は、撮像装置50の構成を示すブロック図である。制御部51は、撮像装置50の各部を制御する。通信部54は、制御装置10と無線通信を行う。制御部51および通信部54は、それぞれ制御部11および通信部12と同じ物理的構成でよい。
 撮像部55は、撮像を行い、撮像した画像を示す撮像画像を生成する。測定部56は、撮像装置50の位置および撮像部27の方向を測定する。測定部56は、測位部561と、方向センサ562とを含む。測位部561は、撮像装置50の水平方向における位置を測定する。方向センサ562は、例えば地磁気センサを含む。電池57は、ここでは二次電池で、撮像装置50の電源となる。
 制御部51は、機能的構成として、データ処理部511と、移動制御部512と、撮像制御部513とを有する。データ処理部511は、通信部54を用いて制御装置10とデータの送受信を行う。移動制御部512は、駆動部52A,52B,52C,52Dを駆動することにより、撮像装置20の位置および撮像部27の方向を制御する。移動制御部512は、通信部54を用いて取得したコマンドに基づいて、駆動部52A,52B,52C,52Dを駆動することにより、例えば、撮像装置20を前進、後進、斜め走行させる。このように、高さ方向の移動がない点を除いて撮像装置20と異なるが、撮像装置20と同様の機能を実行し得る。撮像制御部53は、撮像部55に撮像させる。撮像制御部513は、撮像した画像を通信部54に送信して所定の装置に送信する、又は図示せぬ内部の記憶装置に記憶させる。データ処理部511と撮像制御部513とは、それぞれデータ処理部211と撮像制御部213と同じ機能でよい。
(変形例3)
 制御装置10の制御部11の機能の一部または全部が、撮像装置の制御部で実現されてもよい。図12に示す例では、制御装置10Aの制御部11は、特定部111と、装置制御部114Aとを備える。装置制御部114Aは、特定部111によりデータベース13に記憶されたイベントデータ131に基づいて特定された撮像位置および撮像方向を指示するコマンドを、通信部12を用いて撮像装置20Dへ送信する。
 撮像装置20Dの制御部21は、機能的構成として、調整部214と、移動制御部215と、撮像制御部216とを有する。調整部214は、通信部26を用いて取得したコマンドにより特定された撮像位置および撮像方向を、調整する。調整部214は、調整部113と同様の機能を有していればよい。調整部214は、撮像装置20に特定の撮像対象を撮像させるために、この調整を行う。移動制御部215は、調整部214による調整後の撮像位置および撮像方向に基づいて、駆動部22A,22B,22C,22Dを駆動することにより、撮像装置20Dを移動させる。撮像制御部216は、撮像部27に撮像させる。
 図13は、撮像システムで行われる処理を示すシーケンス図である。
制御装置10Aにおいて特定部111は、データベース13のイベントデータ131に基づいて、撮像装置20Dにおける撮像位置および撮像方向を特定する(ステップS31)。装置制御部114Aは、特定部111により特定された撮像位置および撮像方向に応じたコマンドを、通信部12を用いて撮像装置20へ送信する(ステップS32)。
 撮像装置20Dにおいて、移動制御部215は、コマンドで指示された撮像位置および撮像方向に基づいて、駆動部22A,22B,22C,22Dを駆動することにより、撮像装置20Dを移動させる(ステップS33)。撮像制御部213は、撮像部27を用いて撮像を行う(ステップS34)。そして、調整部214は、測定部28を用いて、撮像装置20Dの位置、および撮像部27の方向を測定する(ステップS35)。そして、調整部214は、特定部111により特定された撮像位置および撮像方向を調整する(ステップS36)。移動制御部215は、調整部214による調整後の撮像位置および撮像方向に基づいて、駆動部22A,22B,22C,22Dを駆動することにより、撮像装置20Dの位置および撮像部27の方向を制御する(ステップS37)。このように、撮像装置20Dが自律的に自装置の位置および撮像部27の方向の調整を行う。
 図14に示す例では、撮像装置20Eは、データベース60を有する。データベース60は、実施形態1のデータベース13と同様の構成でよく、イベントデータ131を記憶する。制御部21は、機能的構成として、特定部217と、調整部218と、移動制御部219と、撮像制御部220とを有する。特定部217は、実施形態1の特定部111と同様の機能を有する。調整部218は、特定部217により特定された撮像位置および撮像方向を調整する。調整部218は、調整部113と同様の機能を有していればよい。調整部218は、撮像装置20に特定の撮像対象を撮像させるために、この調整を行う。移動制御部219は、調整部218による調整後の撮像位置および撮像方向に基づいて、駆動部22A,22B,22C,22Dを駆動することにより、撮像装置20Eを移動させる。撮像制御部220は、撮像部27に撮像させる。
 図15は、撮像装置20Eで行われる処理を示すフローチャートである。撮像制御部220は、撮像部27を用いて撮像を行う(ステップS41)。特定部217は、データベース60のイベントデータ131に基づいて、調整部218は、測定部28を用いて、撮像装置20Dの位置および撮像部27の方向を測定する(ステップS43)。そして調整部218は、特定部217により特定された撮像位置および撮像方向を調整する(ステップS44)。移動制御部219は、調整部218による調整後の撮像位置および撮像方向に基づいて、駆動部22A,22B,22C,22Dを駆動することにより、撮像装置20Eの位置および撮像部27の方向を制御する(ステップS45)。撮像装置20Eは、外部の制御装置10と通信しなくとも、自律的に自装置の位置および撮像部27の方向を制御することができる。
(変形例4)
 撮像装置20の移動制御部212は、演奏と同期して位置および撮像部27の方向を変化させてもよい。また、撮像装置20は演奏者に見せるための歌詞を表示装置に表示したり、楽譜をめくったり、演奏に合わせて指揮をする特定の動きをしてもよい。
(変形例5)
 イベントは、進行予定が決められているのであれば、コンサートでなくてもよい。イベントは、例えばミュージックビデオの撮像であってもよい。この場合、制御装置10は、演奏される楽曲を複数の区分に分けて、その区分ごとに撮像装置20に撮像させてもよい。この変形例において、装置制御部114は、演奏される楽曲の区分に応じて撮像装置20の位置及び姿勢を制御する。楽曲の区分の方法は特に問わないが、例えばAメロ、Bメロ、サビのようなフレーズ(区間)に応じて区分する方法、またはボーカル、ギターなどの演奏パートに応じて区分する方法がある。撮像制御部213は、撮像を行うと、当該区分と対応付けて撮像画像を管理(例えば、記録または送信)する。この変形例の撮像システムによれば、楽曲が演奏されている様子を撮像する場合に、同一の区分について複数回撮像をしたときでも、区分ごとの撮像画像の管理(例えば、編集)が容易になる。ミュージックビデオの撮像以外にも、イベントは、予め決められた進行予定に沿って進行されればよく、各種商業施設での催し物、会議などがある。また、音信号は、演奏音を示す音信号でなくてよい。
 上述した実施形態の構成および動作の一部が省略されてもよい。上述した撮像システムは、撮像装置の位置および撮像部の方向を調整していたが、少なくとも撮像装置の位置を制御すればよい。本発明に係る撮像システムは、図16に示す構成の撮像システム2として特定することができる。すなわち、撮像システム2は、撮像部を含み、移動可能な撮像装置201と、イベントの進行予定を時間軸と対応付けて記憶したデータベース202と、前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部203と、特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部204と、調整後の前記撮像位置に基づいて、前記撮像装置の位置を制御する移動制御部205と、を有する。
 また、以上説明した各装置の機能がプログラムを用いて実現される場合、このプログラムは、磁気記録媒体(磁気テープ、磁気ディスク等)、光記録媒体、光磁気記録媒体、半導体メモリ等のコンピュータ読み取り可能な記録媒体に記憶した状態で提供されてもよいし、ネットワークを介して配信されてもよい。また、本発明は、方法の発明として把握することも可能である。
 また、本発明は上記の実施形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。
1:撮像システム、2:撮像システム、10:制御装置、10A:制御装置、11:制御部、12:通信部、13:データベース、20:撮像装置、20A:撮像装置、20B:撮像装置、20C:撮像装置、20D:撮像装置、20E:撮像装置、21:制御部、22A:駆動部、22B:駆動部、22C:駆動部、22D:駆動部、23A:回転羽根、23B:回転羽根、23C:回転羽根、23D:回転羽根、24A:脚部、24B:脚部、25:支持部材、26:通信部、27:撮像部、28:測定部、29:電池、30:照明装置、40:放音装置、50:撮像装置、51:制御部、52A:駆動部、52B:駆動部、52C:駆動部、52D:駆動部、53:撮像制御部、53A:車輪、53B:車輪、53C:車輪、53D:車輪、54:通信部、55:撮像部、56:測定部、57:電池、60:データベース、80:ステージ、90:観客席、111:特定部、112:取得部、113:調整部、114:装置制御部、114A:装置制御部、131:イベントデータ、201:撮像装置、202:データベース、203:特定部、204:調整部、205:移動制御部、210:基体、211:データ処理部、212:移動制御部、213:撮像制御部、214:調整部、215:移動制御部、216:撮像制御部、217:特定部、218:調整部、219:移動制御部、220:撮像制御部、281:測位部、282:方向センサ、283:気圧センサ、510:筐体、511:データ処理部、512:移動制御部、513:撮像制御部、561:測位部、562:方向センサ
 

Claims (17)

  1.  撮像部を含み、移動可能な撮像装置と、
     イベントの進行予定を時間軸と対応付けて記憶したデータベースと、
     前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部と、
     特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、
     調整後の前記撮像位置に基づいて、前記撮像装置の位置を制御する移動制御部と、
     を備える撮像システム。
  2.  前記特定部は、前記進行予定に基づいて、前記各時点における撮像方向を特定し、
     前記調整部は、前記撮像対象に応じて、前記撮像方向を調整し、
     前記移動制御部は、調整後の前記撮像位置及び前記撮像方向に基づいて、前記撮像装置の位置および前記撮像部の方向を制御する
     請求項1に記載の撮像システム。
  3.  前記調整部は、前記撮像部により生成された撮像画像に基づいて、前記撮像装置の位置および前記撮像部の方向を制御する
     請求項2に記載の撮像システム。
  4.  音信号を取得する取得部と、
     前記特定部は、前記音信号が示す音の楽曲における位置を特定し、特定した当該位置に応じた時点の前記進行予定に基づいて、前記撮像位置及び前記撮像方向を特定する
     請求項1から請求項3のいずれか1項に記載の撮像システム。
  5.  前記調整部は、第1撮像装置と第2撮像装置とが所定距離以内に近接しないように、前記第1撮像装置または前記第2撮像装置の位置を調整する
     請求項1から請求項4のいずれか1項に記載の撮像システム。
  6.  前記調整部は、撮像中の第1撮像装置の電池残量が閾値以下になった場合、第1撮像装置に代えて第2撮像装置に撮像させる
     請求項1から請求項5のいずれか1項に記載の撮像システム。
  7.  前記調整部は、第1撮像装置の撮像範囲に第2撮像装置が含まれないように、前記第1撮像装置または前記第2撮像装置の位置または前記撮像部の方向を変更する
     請求項1から請求項6のいずれか1項に記載の撮像システム。
  8.  前記調整部は、前記撮像装置と特定の機器との位置関係を特定し、前記撮像装置と前記機器とが所定距離以内に近接しないように、前記撮像装置の位置を調整する
     請求項1から請求項7のいずれか1項に記載の撮像システム。
  9.  前記調整部は、前記撮像装置と特定の領域との位置関係を特定し、前記撮像装置が前記領域に進入しないしように、前記撮像装置の位置を調整する
     請求項1から請求項8のいずれか1項に記載の撮像システム。
  10.  前記撮像装置は飛行可能である
     請求項1から請求項9のいずれか1項に記載の撮像システム。
  11.  前記撮像装置が前記調整部を備える
     請求項1から請求項10のいずれか1項に記載の撮像システム。
  12.  イベントの進行予定を時間軸と対応付けて記憶したデータベースと、
     前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部と、
     特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、
     調整後の前記撮像位置に基づいて、撮像部を含み、移動可能な撮像装置の位置を制御する装置制御部と、
     を備える制御装置。
  13.  撮像部と、
     自装置を移動させるように動作する駆動部と、
     イベントの進行予定を時間軸と対応付けて記憶したデータベースに記憶された前記進行予定に基づいて、前記時間軸上の各時点の撮像位置に自装置を移動させる移動制御部と、
     前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、
     を備える撮像装置。
  14.  前記撮像位置を制御するためのコマンドを受信する通信部を備え、
     前記調整部は、前記コマンドにより指示された前記撮像位置を調整する
     請求項13に記載の撮像装置。
  15.  撮像部と、
     自装置を移動させるように動作する駆動部と、
     イベントの進行予定を時間軸と対応付けて記憶したデータベースと、
     前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定する特定部と、
     特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整する調整部と、
     調整後の前記撮像位置に基づいて、前記撮像装置の位置を制御する移動制御部と、
     を備える撮像装置。
  16.  イベントの進行予定を時間軸と対応付けて記憶したデータベースに記憶された前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定し、
     特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整し、
     調整後の前記撮像位置に基づいて、撮像部を含み、移動可能な撮像装置の位置を制御する
     撮像装置の制御方法。
  17.  コンピュータに、
     イベントの進行予定を時間軸と対応付けて記憶したデータベースに記憶された前記進行予定に基づいて、前記時間軸上の各時点における撮像位置を特定し、
     特定された前記撮像位置を、前記イベントにおける撮像対象に応じて調整し、
     調整後の前記撮像位置に基づいて、撮像部を含み、移動可能な撮像装置の位置を制御する
     処理を実行させるためのプログラム。
PCT/JP2017/040127 2017-11-07 2017-11-07 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム WO2019092790A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040127 WO2019092790A1 (ja) 2017-11-07 2017-11-07 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/040127 WO2019092790A1 (ja) 2017-11-07 2017-11-07 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム

Publications (1)

Publication Number Publication Date
WO2019092790A1 true WO2019092790A1 (ja) 2019-05-16

Family

ID=66439136

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/040127 WO2019092790A1 (ja) 2017-11-07 2017-11-07 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム

Country Status (1)

Country Link
WO (1) WO2019092790A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0393364A (ja) * 1989-09-06 1991-04-18 Toshiba Corp カメラ制御装置
JP2000228741A (ja) * 1999-02-05 2000-08-15 Fuji Photo Optical Co Ltd 雲台制御システム
JP2011530692A (ja) * 2008-05-21 2011-12-22 ザ・ボーイング・カンパニー 遠隔無人輸送手段群による構造物および物体の検査用システムおよび方法
JP2015002522A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 監視カメラ及び監視カメラの制御方法
US20160031559A1 (en) * 2014-07-30 2016-02-04 SZ DJI Technology Co., Ltd Systems and methods for target tracking
WO2016088437A1 (ja) * 2014-12-04 2016-06-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0393364A (ja) * 1989-09-06 1991-04-18 Toshiba Corp カメラ制御装置
JP2000228741A (ja) * 1999-02-05 2000-08-15 Fuji Photo Optical Co Ltd 雲台制御システム
JP2011530692A (ja) * 2008-05-21 2011-12-22 ザ・ボーイング・カンパニー 遠隔無人輸送手段群による構造物および物体の検査用システムおよび方法
JP2015002522A (ja) * 2013-06-18 2015-01-05 キヤノン株式会社 監視カメラ及び監視カメラの制御方法
US20160031559A1 (en) * 2014-07-30 2016-02-04 SZ DJI Technology Co., Ltd Systems and methods for target tracking
WO2016088437A1 (ja) * 2014-12-04 2016-06-09 ソニー株式会社 情報処理装置、情報処理方法およびプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
INOUE, AKIFUMI ET AL.: "Scenario Based Camera work Planning for Orchestral Performances", TRANSACTIONS OF THE INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 46, no. 1, pages 38 - 50 *

Similar Documents

Publication Publication Date Title
JP4247626B2 (ja) 再生装置および再生方法
US8586853B2 (en) Performance apparatus and electronic musical instrument
JP4595555B2 (ja) コンテンツ再生装置およびコンテンツ再生方法
CN115762451A (zh) 用于单元作曲的装置和方法
JP6699677B2 (ja) 情報処理方法、情報処理装置およびプログラム
US20230319965A1 (en) Systems and methods for a music feature file and coordinated light show
CN106465008A (zh) 终端混音系统和播放方法
ES2923639T3 (es) Método y conjunto para mejorar la presentación de sonidos de señal de audio durante una grabación de vídeo
JP2004086189A (ja) 楽曲検索システム
WO2015151766A1 (ja) 投影撮影システム、カラオケ装置及びシミュレーション装置
US20200365123A1 (en) Information processing method
WO2012053371A1 (ja) アミューズメントシステム
TW201742431A (zh) 影像製作系統及方法
WO2019092790A1 (ja) 撮像システム、制御装置、撮像装置、撮像装置の制御方法およびプログラム
WO2015008756A1 (ja) 投影装置、制御装置、制御プログラム、および投影制御方法
JP2009192619A (ja) 楽曲修正プログラムおよび楽曲修正装置
JP6065225B2 (ja) カラオケ装置
JP2020129272A (ja) プログラムおよび電子機器
JP5178402B2 (ja) 移動式自動カラオケ演奏装置
JP2005295181A (ja) 音声情報生成装置
JP2006081128A (ja) 撮影システム、カラオケシステム、撮影方法
JP7141955B2 (ja) カラオケシステム
JP2006222694A (ja) ユーザに立ち位置を通知するためのデータ処理装置およびプログラム
JP4380521B2 (ja) 楽曲演奏および歌詞表示に伴うガイダンス表示を行うためのデータ処理装置およびプログラム
US11853076B1 (en) Virtual reality concert system

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17931789

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17931789

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP