WO2022168481A1 - 画像処理装置、画像処理システム - Google Patents

画像処理装置、画像処理システム Download PDF

Info

Publication number
WO2022168481A1
WO2022168481A1 PCT/JP2021/047894 JP2021047894W WO2022168481A1 WO 2022168481 A1 WO2022168481 A1 WO 2022168481A1 JP 2021047894 W JP2021047894 W JP 2021047894W WO 2022168481 A1 WO2022168481 A1 WO 2022168481A1
Authority
WO
WIPO (PCT)
Prior art keywords
tracking
subject
information
unit
tracking target
Prior art date
Application number
PCT/JP2021/047894
Other languages
English (en)
French (fr)
Inventor
宣浩 綱島
正和 海老原
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Priority to EP21924866.3A priority Critical patent/EP4290852A1/en
Priority to US18/269,706 priority patent/US20240056686A1/en
Publication of WO2022168481A1 publication Critical patent/WO2022168481A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • H04N23/662Transmitting camera control signals through networks, e.g. control via the Internet by using master/slave camera arrangements for affecting the control of camera image capture, e.g. placing the camera in a desirable condition to capture a desired image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/667Camera operation mode switching, e.g. between still and video, sport and normal or high- and low-resolution modes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30221Sports video; Sports image
    • G06T2207/30224Ball; Puck
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Definitions

  • the present technology relates to the technical field of an image processing device and an image processing system that perform processing for tracking a specific subject by linking two imaging units.
  • Patent Document 1 discloses a technique in which two cameras are used, one of which functions as a panorama camera that photographs the entire photographing area, and the other camera functions as a telephoto camera that photographs a subject in close-up. It is
  • This technology has been developed in view of such problems and the above circumstances, and aims to keep the target subject within the angle of view using a plurality of imaging devices.
  • An image processing apparatus includes a tracking target subject determination unit that determines a tracking target subject as a tracking target subject based on a first image captured by a first imaging unit; a tracking subject information acquisition unit that acquires information for specifying a tracking subject that is a subject in the tracked area; and a determination processing unit that determines whether the tracking subject and the tracking target subject are the same subject. and a tracking change processing unit that performs processing for changing the subject being tracked of the second imaging unit to the tracking target subject when it is determined that the subject being tracked and the tracking target subject are not the same. It is a thing. As a result, when the subject being tracked by the second imaging unit is different from the tracking target subject, which is the assumed target subject, the process of changing the tracking target is executed.
  • the tracking subject information acquisition unit in the image processing apparatus described above acquires information for specifying the tracking subject from another image processing apparatus, and the tracking change processing unit performs the change processing for the tracking target.
  • a process of transmitting information about the subject to the other image processing apparatus may be performed. For example, by exchanging information between an image processing apparatus having this configuration and another image processing apparatus, a process of changing the tracking target is realized.
  • the tracking change processing unit in the image processing device described above may transmit information for changing the optical axis direction in the second imaging unit to the other image processing device as information about the tracking target subject. For example, the position of the tracking target subject in the first image captured by the first imaging unit (or within the angle of view of the first imaging unit) and the second position for capturing the tracking target subject within the angle of view of the second imaging unit.
  • the setting of the optical axis direction of the imaging unit can be associated on a one-to-one basis.
  • the position of the tracking target subject in the first image and the position of the tracking target subject in the first image 2 It is easy to associate the optical axis directions of the imaging units.
  • the tracking change processing unit in the above-described image processing apparatus may reduce the frequency of processing for transmission to the other image processing apparatus when it is determined that the tracking subject and the tracking target subject are the same. . If the subject being tracked by the second imaging unit is the tracking target subject, it is sufficient to continue tracking the subject being tracked. Such processing is processing that can be executed without newly providing information on the tracking target subject.
  • the above-described image processing apparatus includes a moving direction estimating section for estimating the moving direction of the tracking target subject, and the tracking change processing section performs the changing process in addition to the information about the tracking target subject. may be transmitted to the other image processing apparatus.
  • the tracking target subject is determined based on the first image captured by the first imaging unit, and information transmitted from the image processing device that controls the second imaging unit is used. Based on this, the second imaging unit identifies the subject being tracked as the subject being tracked, determines whether or not the tracking target subject and the subject being tracked are the same subject, and transmits information about the tracking target subject accordingly. It is assumed that the subject is moving before the image is transmitted to the image processing apparatus.
  • the second imaging unit finishes changing the composition of the second imaging unit in order to track a new tracking target object the tracking target object may not already be positioned within the angle of view of the second imaging unit. have a nature.
  • the moving direction estimating section in the image processing apparatus described above may estimate the moving direction based on a past image captured by the first imaging section. For example, by using the first images of the past few frames, it is possible to estimate the moving direction of the subject as the tracking target subject.
  • the determination processing unit in the image processing device described above performs the following based on the imaging time of the second image at which information for specifying the tracking subject is obtained from the second image captured by the second imaging unit.
  • the determination as to whether or not the subject is the same may be performed using the selected first image.
  • information for specifying the subject being tracked is extracted based on the second image captured by the second imaging unit, and the extracted information is transmitted to the image processing apparatus having the present configuration
  • the position of the tracking target subject in the first image captured after a certain amount of time has passed since the two images were captured may differ from the position at the time when the second image was captured. In such a situation, if the subject being tracked by the second imaging unit is estimated based on, for example, the latest first image, the subject being tracked by the second imaging unit may be erroneously specified. .
  • a first mode in which the processing by the determination processing section and the processing by the tracking change processing section are executed, and a second mode in which the processing by the determination processing section and the processing by the tracking change processing section are not executed. and a switching processing unit for switching between. Comparing the first mode and the second mode, it is assumed that the second mode has simpler control and a lighter processing load. Specifically, in comparison with the first mode in which the process of determining whether the tracking target subject and the subject being tracked are the same subject and the transmission and reception of various types of information for performing the determination, other image processing apparatuses and The second mode, in which the tracking of the subject being tracked by the process of the second imaging unit is continued, is simpler.
  • the switching processing unit in the above image processing apparatus may switch between the first mode and the second mode according to the determined movement mode of the tracking target subject. For example, in a case where the movement direction of the tracking target subject is constant or stays within a predetermined range, or in a case where the movement speed of the tracking target subject is slow, the second imaging unit and other images It can be said that this is a case in which there is a low possibility that the object being tracked will be lost due to processing closed to the processing device.
  • the image processing apparatus described above may include the first imaging section.
  • the image processing device is a camera device that includes a first imaging section.
  • the image processing apparatus uses information of a tracking target subject, which is a tracking target subject determined based on the first image captured by the first imaging section, to perform tracking of the subject by the second imaging section.
  • a tracking control unit that performs control is provided, and the tracking control unit outputs information for specifying a tracking subject that is the subject being tracked, and when information on the tracking target subject is not acquired during the tracking control. performs the tracking control without changing the tracking target subject, and if information on the tracking target subject is acquired during the tracking control, based on the newly acquired information on the tracking target subject Tracking control is performed with the subject specified by the method as the target to be tracked. Accordingly, the tracking control unit can continue tracking by the second imaging unit by executing simple processing when information on a new tracking target subject is not acquired.
  • the reception processing unit receives information on the tracking target subject from the other image processing apparatus, and the information for specifying the tracking subject outputted by the tracking control unit is transmitted to the other image processing apparatus. and a transmission processing unit for transmitting to an image processing device, wherein the tracking control unit transmits the tracking target subject when the reception processing unit does not receive information on the tracking target subject during the tracking control. If the tracking control is performed without change and the reception processing unit receives the information of the tracking target subject during the tracking control, the tracking target subject is specified based on the newly acquired information of the tracking target subject. Tracking control may be performed with the subject as the object to be tracked.
  • an image processing device having this configuration and another image processing device processing for continuing tracking of a subject set as a subject being tracked or stopping tracking of the subject being tracked is performed.
  • a process for starting tracking of the newly specified tracking target subject is executed.
  • the transmission processing section in the image processing apparatus described above may transmit information for specifying the tracking subject each time the captured image is generated by the second imaging section. This makes it possible to frequently transmit information for specifying the subject being tracked to other image processing apparatuses.
  • the transmission processing unit in the image processing apparatus described above may transmit information regarding the optical axis direction of the second imaging unit as information for specifying the subject being tracked.
  • the information on the optical axis direction may be vector information that can uniquely identify the optical axis direction of the second imaging section in a predetermined coordinate system, or may be information on the optical axis direction of the second imaging section on a one-to-one basis. Information such as the control amount for the corresponding pan direction and tilt direction may also be used.
  • the other image processing device can specify the optical axis direction of the second imaging unit.
  • the transmission processing unit in the image processing apparatus described above may transmit a second image captured by the second imaging unit as information for specifying the tracking subject.
  • Information about the optical axis direction of the second imaging section may not be obtained depending on the configuration of the second imaging section and the device for adjusting its orientation. In such a case, the information of the second image captured by the second imaging section may be transmitted to another image processing device as in this configuration.
  • the reception processing unit in the image processing device described above receives information about the movement direction of the tracking target subject from the other image processing device, and the tracking control unit receives the image capturing time of the first image and the received movement
  • the tracking may be controlled using the predicted position of the tracking target subject calculated based on the direction.
  • the position of the tracking target subject at the time when the tracking target subject is determined based on the first image and information about the tracking target subject are received by the image processing device, and the tracking target subject is captured within the angle of view of the second imaging section. It is conceivable that the position of the tracking target subject at the time when the control for the tracking target is performed varies depending on the movement of the tracking target subject. In such a case, the current position of the tracking target subject can be estimated by the image processing apparatus receiving information about the moving direction of the tracking target subject.
  • the processing of the transmission processing unit and the processing of the tracking control unit that performs tracking control on the subject specified based on the newly acquired information of the tracking target subject as the tracking target is executed. and a second mode in which the tracking control is continuously executed without changing the tracking target subject. Comparing the first mode and the second mode, it is assumed that the second mode has simpler control and a lighter processing load. Specifically, the process of continuing to track the subject being tracked is a simpler process with a lighter processing load than the process of starting tracking of a new subject based on information on a new tracking target subject. In particular, when starting tracking of a new subject, the new subject may differ from the tracking target subject. In such cases, it is necessary to specify the new subject again and start tracking. .
  • the switching processing unit in the above-described image processing apparatus may switch between the first mode and the second mode according to the moving mode of the subject being tracked by the tracking control unit. For example, in a case where the moving direction of the subject being tracked is constant or stays within a predetermined range, or in a case where the moving speed of the subject being tracked is slow, information is obtained from another image processing device. It is possible to continue tracking the object being tracked without obtaining it. That is, such a case can be said to be a case in which there is a low possibility of losing the subject during tracking.
  • the image processing apparatus described above may include the second imaging section.
  • the image processing device is a camera device having a second imaging section.
  • An image processing system includes a tracking target subject determination unit that determines a tracking target subject based on a first image captured by a first imaging unit as a tracking target subject, and information about the tracking target subject.
  • a tracking control unit for controlling tracking of the subject by the second imaging unit, and tracking for specifying the subject being tracked by the second imaging unit as the subject being tracked based on the information output by the tracking control unit a determination processing unit for determining whether or not the determined tracking target subject and the identified tracking target subject are the same subject; and the tracking target subject and the tracking target subject are the same.
  • a tracking change processing unit configured to output information about the tracking target subject to the tracking control unit when it is determined that the tracking target subject is not, wherein the tracking control unit outputs information about the tracking target subject during the tracking control.
  • FIG. 10 is a schematic diagram showing a soccer court being imaged by an imaging system according to the present technology
  • 1 is a block diagram showing a configuration example of an imaging system
  • FIG. 3 is a functional block diagram of an information processing device
  • FIG. 3 is a functional block diagram of a first processing section and a second processing section
  • FIG. 10 is a diagram for explaining that a tracking subject is specified based on post-conversion coordinates and a predetermined area
  • FIG. 10 is a diagram showing a state in which a tracking target subject and a subject being tracked match
  • FIG. 10 is a diagram showing a state in which the tracking target subject and the subject being tracked do not match; 6 is a flowchart showing an example of processing executed by a first processing unit; 9 is a flowchart showing an example of processing executed by a second processing unit; FIG. 11 is a flow chart showing an example of processing executed by a first processing unit according to the second embodiment; FIG. It is a functional block diagram of the 1st processing part in a 3rd embodiment.
  • FIG. 11 is a flow chart showing an example of processing executed by a first processing unit according to the third embodiment; FIG. It is a functional block diagram of the 2nd processing part in a 3rd embodiment.
  • FIG. 13 is a flow chart showing an example of processing executed by a second processing unit according to the third embodiment;
  • FIG. 12 is a block diagram showing a configuration example of an imaging system according to a fourth embodiment;
  • FIG. FIG. 11 is a block diagram showing a configuration example of an imaging system according to a fifth embodiment; FIG.
  • the imaging system 1 of this embodiment is configured with two or more cameras.
  • a wide-angle camera 2 for capturing a full view and a telephoto camera 3 for capturing a zoomed-in image of an object will be given.
  • the present technology is not limited to this, and can be applied to an imaging system including three or more cameras.
  • the imaging system 1 is configured with a wide-angle camera 2 that captures an image of the entire soccer court and a telephoto camera 3 that captures a zoomed-in image of an individual player.
  • the wide-angle camera 2 is operated as a fixed camera in which pan control, tilt control, and zoom control are not performed and the composition is not changed.
  • pan control, tilt control, and zoom control may be executed in the wide-angle camera 2 according to the position of the subject of interest.
  • an adjustment may be made to change the composition during the interval of the game.
  • the telephoto camera 3 as shown in FIG. 2 processing unit 7 and a PTZ control unit 8 that performs pan (P) control, tilt (T) control, and zoom (Z) control of the telephoto camera 3 .
  • the telephoto camera 3 also includes a camera platform (not shown) as a control target of the PTZ control unit 8 . That is, the PTZ control unit 8 controls the attitude of the camera platform by performing pan control and tilt control, and controls the position of the zoom lens provided in the telephoto camera 3 by performing zoom control.
  • the wide-angle camera 2 can be regarded as an information processing device having each function as the first processing section 5 .
  • the telephoto camera 3 can be regarded as an information processing device having each function as the second processing unit 7 .
  • FIG. 3 shows a functional block diagram of the information processing device. Note that each information processing apparatus does not need to have all of the configurations described below, and may have only some of them.
  • Various processes are executed according to stored programs or programs loaded from the storage unit 79 to the RAM (Random Access Memory) 73 .
  • the RAM 73 also stores data necessary for the CPU 71 to execute various processes.
  • the CPU 71 , ROM 72 , RAM 73 and nonvolatile memory section 74 are interconnected via a bus 83 .
  • An input/output interface 75 is also connected to this bus 83 .
  • the input/output interface 75 is connected to an input section 76 including operators and operating devices.
  • an input section 76 including operators and operating devices.
  • various operators and operation devices such as a keyboard, mouse, key, dial, touch panel, touch pad, and remote controller are assumed.
  • a user's operation is detected by the input unit 76 , and a signal corresponding to the input operation is interpreted by the CPU 71 .
  • the input/output interface 75 is connected integrally or separately with a display unit 77 such as an LCD (Liquid Crystal Display) or an organic EL panel, and an audio output unit 78 such as a speaker.
  • the display unit 77 is a display unit that performs various displays, and is configured by, for example, a display device provided in the casing of the wide-angle camera 2 or the telephoto camera 3 as an information processing device, or a separate display device connected to the casing. be done. In the case of the wide-angle camera 2 and the telephoto camera 3 according to the present embodiment, the rear monitor or the like corresponds to the display section 77 .
  • the display unit 77 displays images for various types of image processing, moving images to be processed, etc. on the display screen based on instructions from the CPU 71 . Further, the display unit 77 displays various operation menus, icons, messages, etc., ie, GUI (Graphical User Interface), based on instructions from the CPU 71 .
  • the input/output interface 75 may be connected to a storage unit 79 made up of a hard disk, solid-state memory, etc., and a communication unit 80 made up of a modem or the like.
  • the communication unit 80 performs communication processing via a transmission line such as the Internet, wired/wireless communication with various devices, bus communication, and the like.
  • a drive 81 is also connected to the input/output interface 75 as required, and a removable storage medium 82 such as a magnetic disk, optical disk, magneto-optical disk, or semiconductor memory is appropriately mounted.
  • Data files such as image files and various computer programs can be read from the removable storage medium 82 by the drive 81 .
  • the read data file is stored in the storage unit 79 , and the image and sound contained in the data file are output by the display unit 77 and the sound output unit 78 .
  • Computer programs and the like read from the removable storage medium 82 are installed in the storage unit 79 as required.
  • software for the processing of this embodiment can be installed via network communication by the communication unit 80 or via the removable storage medium 82 .
  • the software may be stored in advance in the ROM 72, the storage unit 79, or the like.
  • the CPU 71 performs processing operations based on various programs, the necessary information processing and communication processing described later in the first processing section 5 of the wide-angle camera 2 and the second processing section 7 of the telephoto camera 3 are executed.
  • the information processing device that constitutes the wide-angle camera 2 and the telephoto camera 3 is not limited to a single information processing device as shown in FIG. good too.
  • the plurality of information processing apparatuses may be systematized by LAN or the like, or may be remotely located by VPN or the like using the Internet or the like.
  • the plurality of information processing devices may include information processing devices as a group of servers (cloud) that can be used by a cloud computing service.
  • the first processing section 5 provided in the wide-angle camera 2 and the second processing section 7 provided in the telephoto camera 3 are provided with respective sections for performing various types of processing. An example will be specifically described with reference to FIG.
  • the first processing unit 5 includes a tracking target subject determination unit 9, a tracking subject information acquisition unit 10, a conversion processing unit 11, a tracking subject identification unit 12, a determination processing unit 13, and a movement direction estimation unit 14. , a tracking change processing unit 15 and a communication processing unit 16 .
  • the tracking target subject determination unit 9 performs processing for determining the subject to be tracked based on the captured image captured by the first imaging unit 4 .
  • the image captured by the first imaging unit 4 is referred to as “first image GC1”
  • the tracking target subject determined based on the first image GC1 is referred to as "tracking target subject T1". do.
  • determining the tracking target subject T1 For example, as shown in FIG. 1, in the case of a soccer match, it is conceivable to determine the player holding the ball as the tracking target subject T1. In this case, for example, the background subtraction method is used to detect candidate subjects, and among them, the subject that matches the ball is specified. Then, a player who is closest to the subject identified as the ball or who is in contact with the ball is determined as the tracking target subject T1.
  • matching processing may be performed using features such as the face and hairstyle of the player who scored, and a subject with a high score may be identified as the player and determined as the tracking target subject T1.
  • the player may be identified by performing a matching process or the like using the uniform number drawn on the player's uniform.
  • zoomed-in images of all players may be captured. For example, it is suitable for introducing players before the game starts.
  • the tracking target subject determination unit 9 performs processing for determining the tracking target subject T1 from each subject such as each player, ball, or referee.
  • the tracking subject information acquisition unit 10 performs processing for acquiring information for specifying the subject being tracked by the second imaging unit 6 of the telephoto camera 3 .
  • the subject being tracked by the second imaging unit 6 is referred to as "tracking subject T2".
  • the image captured by the second imaging unit 6 is referred to as a "second image GC2”.
  • Various types of information are conceivable for specifying the tracking subject T2.
  • information representing the optical axis direction of the second imaging unit 6 is acquired as information for specifying the tracking subject T2.
  • the wide-angle camera 2 and the telephoto camera 3 are installed so that the distance between the first imaging unit 4 and the second imaging unit 6 is smaller than the distance between each imaging unit and the subject.
  • the distance between the imaging unit and the subject is several tens of meters
  • the distance between the first imaging unit 4 and the second imaging unit 6 is several tens of centimeters.
  • the process of specifying the tracking subject T2 is a process executed by the tracking subject specifying unit 12, which will be described later.
  • the wide-angle camera 2 and the telephoto camera 3 should be adjusted so that the distance between the first imaging unit 4 and the second imaging unit 6 is always close to the distance between each imaging unit and the subject. 2 and telephoto camera 3 may not be installed.
  • the conversion processing unit 11 converts information representing the coordinates (position) of the subject on the first image GC1 captured by the wide-angle camera 2 and the optical axis direction of the second image capturing unit 6 of the telephoto camera 3 (for example, the control amount in the pan direction and the control amount in the tilt direction).
  • the coordinates of the tracking target subject T1 on the first image GC1 are converted into information representing the optical axis direction of the second imaging unit 6.
  • the first processing unit 5 of the wide-angle camera 2 transmits the converted information to the telephoto camera 3, so that the telephoto camera 3 can take a close-up of the tracking target subject T1.
  • the conversion processing unit 11 converts information representing the optical axis direction of the second imaging unit 6 received from the telephoto camera 3 into coordinates on the first image GC1. Thereby, the first processing unit 5 of the wide-angle camera 2 can identify the tracking subject T2 in the second imaging unit 6 of the telephoto camera 3 .
  • the tracking subject identification unit 12 identifies the subject being tracked by the second imaging unit 6 from among the subjects appearing in the first image GC1 based on the coordinates in the first image GC1 converted by the conversion processing unit 11.
  • the tracking subject specifying unit 12 identifies a subject at least partially located in a predetermined range around the post-conversion coordinates Ca, for example, a predetermined area Ar1 based on the angle-of-view information of the second imaging unit 6, as the subject being tracked. Identify as T2.
  • the determination processing unit 13 determines whether the tracking subject T2 identified by the tracking subject identification unit 12 and the tracking target subject T1 determined by the tracking target subject determination unit 9 are the same subject.
  • FIG. Assuming that the area in which the tracking target subject T1 is imaged in the first image GC1 is a "target area ArD", the predetermined area Ar1 based on the post-conversion coordinates Ca is located so as to partially overlap the target area ArD. There is Furthermore, part of the tracking target subject T1 is positioned within the predetermined area Ar1. In such a case, the tracking subject identification unit 12 identifies the subject positioned within the predetermined area Ar1 as the tracking subject T2. Therefore, the determination processing unit 13 determines that the tracking target subject T1 and the tracking subject T2 are the same subject.
  • the predetermined area Ar1 based on the post-conversion coordinates Ca is located so as to partially overlap the target area ArD, which is the area where the tracking target subject T1 is captured in the first image GC1. Also, in the predetermined area Ar1, a part of the subject H1 imaged as a subject located in front and a part of the subject H2 imaged as a subject located in the back are located.
  • the subject H1 is the tracking target subject T1. From this, it can be said that part of the tracking target subject T1 is positioned within the angle of view of the second imaging unit 6 . However, the subject H2 is located in the center of the angle of view of the second imaging unit 6 relative to the subject H1. In this case, the tracking subject specifying unit 12 specifies that the subject H2 is the tracking subject T2. Therefore, in the situation shown in FIG. 7, the determination processing unit 13 determines that the tracking target subject T1 and the tracking subject T2 are not the same subject.
  • the tracking subject specifying unit 12 may take into account the moving direction of the predetermined area Ar1.
  • the subject H1 is a subject moving from right to left within the angle of view of the first imaging unit 4.
  • a subject H2 is a subject moving from left to right within the angle of view of the first imaging unit 4 . Therefore, the moving direction of the predetermined area Ar1 is identified based on the history of the coordinates of the predetermined area Ar1 in the past, and when the predetermined area Ar1 is moving from right to left, the subject H1 is identified as the tracking subject T2, If the predetermined area Ar1 is moving from left to right, the subject H2 may be specified as the tracking subject T2.
  • the subject moving in the same direction as the moving direction of the predetermined area Ar1 is specified as the tracking subject T2.
  • Such processing may be performed when a plurality of subjects are positioned in the predetermined area Ar1. If there is only one subject positioned in the predetermined area Ar1, the subject may be specified as the tracking subject T2.
  • the tracking subject identification unit 12 detects the image of the second image GC2 that is the target of the process for the second processing unit 7 to acquire the information about the optical axis direction of the second imaging unit 6.
  • a first image GC1 captured at a time close to the time may be acquired, and the process of identifying the tracking subject T2 as described above may be performed using the first image GC1. For example, by selecting the first image GC1 captured at the time closest to the time when the second image GC2 was captured, it is possible to increase the possibility that the tracking subject T2 is correctly identified.
  • the movement direction estimation unit 14 and the tracking change processing unit 15 perform various processes when the determination processing unit 13 determines that the tracking target subject T1 and the tracking subject T2 are not the same subject.
  • the movement direction estimation unit 14 performs processing for estimating the movement direction of the tracking target subject T1.
  • the first image GC1 captured by the first imaging unit 4 is stored from the latest frame to the previous frame, and the moving direction of the tracking target subject T1 is estimated.
  • matching processing of the tracking target subject T1 is performed for each frame to specify the coordinates of the tracking target subject T1 for each frame, and the movement direction of the tracking target subject T1 is estimated from changes in the coordinates.
  • the moving direction estimating section 14 may estimate not only the moving direction but also the moving speed of the tracking target subject T1.
  • the first processing unit 5 may be configured without the moving direction estimating unit 14 .
  • the tracking change processing unit 15 performs processing for changing the subject to be tracked by the second imaging unit 6, that is, the subject being tracked T2. For example, by transmitting information representing the optical axis direction of the second imaging unit 6 converted from the coordinate information of the tracking target subject T1 by the processing of the conversion processing unit 11 described above to the telephoto camera 3, the second imaging unit 6 The second processing unit 7 of the telephoto camera 3 is made to execute processing for changing the tracking subject T2 to the same subject as the tracking target subject T1.
  • Such processing in the moving direction estimating unit 14 and the tracking change processing unit 15 can be executed, for example, each time information for specifying the tracking subject T2 is acquired from the telephoto camera 3. That is, as long as the information for identifying the tracking subject T2 is acquired from the telephoto camera 3 and the tracking subject T2 is different from the tracking target subject T1, the information is acquired from the telephoto camera 3. Executed each time.
  • the determination processing unit 13 determines that the tracking target subject T1 and the tracking subject T2 are the same subject, it indicates that the second imaging unit 6 is tracking the subject as intended. .
  • Several processes are conceivable that are executed by the movement direction estimation unit 14 and the tracking change processing unit 15 in this case.
  • the second imaging unit 6 for tracking the tracking target subject T1 by the tracking change processing unit 15 does not execute the processing of calculating information on the moving direction and moving speed of the tracking target subject T1 by the moving direction estimating unit 14 . Only the process of transmitting the information representing the optical axis direction of may be executed.
  • the frequency of the transmission process by the tracking change processing unit 15 may be reduced.
  • the tracking change processing unit 15 executes the transmission process each time information for specifying the tracking subject T2 is acquired from the telephoto camera 3.
  • the transmission processing by the tracking change processing unit 15 may be postponed until the information for tracking is obtained from the telephoto camera 3 a predetermined number of times. As a result, the processing load on the first processing unit 5 can be reduced.
  • the tracking change processing unit 15 may not perform information transmission processing.
  • the second processing unit 7 of the telephoto camera 3 can track the correct subject while not receiving information indicating the optical axis direction of the second imaging unit 6 from the wide-angle camera 2.
  • the information is received from the wide-angle camera 2, it is possible to recognize that the subject being tracked is incorrect.
  • the communication processing unit 16 performs wired or wireless communication with the telephoto camera 3 according to the processing of each unit described above. These communication processes are realized using the communication unit 80 of FIG. 3 provided in the wide-angle camera 2 .
  • the second processing unit 7 includes a tracking control unit 17 and a communication processing unit 18 (see FIG. 4).
  • the tracking control unit 17 performs various processes for appropriately tracking the subject by the second imaging unit 6 . Specifically, the tracking control unit 17 performs processing for continuing tracking of the tracking subject T2 based on the image captured by the second imaging unit 6 . Note that the image captured by the second imaging unit 6 is referred to as the second image GC2 as described above.
  • the tracking continuation process can be realized by a process closed inside the telephoto camera 3 without receiving information from the wide-angle camera 2 .
  • This tracking process is described as "local tracking process".
  • the tracking control unit 17 performs matching processing for the tracking subject T2 each time the second image GC2 captured by the second imaging unit 6 of the telephoto camera 3 is obtained.
  • the PTZ control unit 8 is instructed to drive so that the tracking subject T2 is positioned at the center of the angle of view of the second imaging unit 6. send.
  • the PTZ control unit 8 controls the pan head according to the instruction, thereby changing the composition so that the tracking subject T2 is positioned near the center of the angle of view of the second imaging unit 6 .
  • the PTZ control unit 8 may perform zoom control so that the tracking subject T2 does not become too large or too small with respect to the angle of view of the second imaging unit 6 .
  • the tracking control unit 17 can execute a process of starting tracking of the newly set tracking target subject T1. For example, when the subject T2 being tracked by the second imaging section 6 is different from the tracking target subject T1, the wide-angle camera 2 transmits information about the optical axis direction of the second imaging section 6 as information for tracking the tracking target subject T1. It's coming.
  • the tracking control unit 17 changes the optical axis direction of the second imaging unit 6 by issuing a drive instruction to the PTZ control unit 8 in accordance with the received information regarding the optical axis direction, and changes the optical axis direction of the second imaging unit 6.
  • the tracking target subject T1 is captured at the same time.
  • the tracking target subject T1 may move, and tracking of the new tracking target subject T1 may not be started normally.
  • the wide-angle camera 2 may include a movement direction estimator 14 .
  • the moving direction estimation unit 14 calculates the moving direction and moving speed of the tracking target subject T1 as described above.
  • the tracking control unit 17 of the telephoto camera 3 receives information on the moving direction and moving speed of the tracking target subject T1, and performs processing for predicting the moving destination of the tracking target subject T1 based on this information.
  • the predicted position (predicted coordinates) of the tracking target subject T1 is calculated in consideration of the time difference between the imaging time of the first image GC1 used for calculating the coordinate information of the tracking target subject T1 in the wide-angle camera 2 and the current time.
  • the tracking control unit 17 can perform tracking processing for the correct subject by performing control so that the tracking target subject T1 is captured within the angle of view of the second imaging unit 6 according to the predicted position.
  • the tracking control unit 17 adjusts the optical axis direction of the second imaging unit 6 so as to capture the newly set tracking target subject T1 within the angle of view, and starts the local tracking control (the first processing). process) and a process (second process) for continuing the local tracking process for the currently tracked subject T2.
  • the tracking control unit 17 switches between the first process and the second process depending on the situation.
  • the tracking control unit 17 performs the second process of continuing the local tracking process when the tracking subject T2 is a suitable subject.
  • the second process has a relatively lighter processing load than the first process, so performing the second process when the tracking subject T2 is a correct subject increases the processing load of the second processing unit 7. You can prevent it from happening.
  • the second imaging unit does not include information about the moving direction and moving speed of the tracking target subject T1.
  • 6 may be configured to receive only information about the optical axis direction of 6 from the wide-angle camera 2 . In that case, when it is determined that the tracking target subject T1 and the tracking subject T2 are not the same subject, information about the moving direction and moving speed of the tracking target subject T1 and information about the optical axis direction of the second imaging unit 6 are provided. It is configured to receive all of the information from the wide-angle camera 2 .
  • the information regarding the optical axis direction of the second imaging section 6 is received from the wide-angle camera 2. Therefore, it can be confirmed that the communication environment is normal.
  • the tracking control unit 17 outputs information for specifying the tracked subject T ⁇ b>2 to the communication processing unit 18 , thereby transmitting the information to the wide-angle camera 2 via the communication processing unit 18 .
  • information for specifying the optical axis direction of the second imaging unit 6 at the present time the amount of control in the pan direction, the amount of control in the tilt direction, and the like are output.
  • the imaging time may be output to the communication processing unit 18 so that the above-described time lag can be considered when the tracking subject identification unit 12 identifies the tracking subject T2.
  • the communication processing unit 18 performs wired or wireless communication with the wide-angle camera 2 according to the processing of the tracking control unit 17 described above. These communication processes are realized using the communication unit 80 of FIG. 3 provided in the telephoto camera 3 .
  • the communication processing unit 18 performs processing for receiving information transmitted from the communication processing unit 16 of the wide-angle camera 2 . For example, as information for adjusting the optical axis direction of the second imaging unit 6, information on the amount of control in the pan direction and information on the amount of control in the tilt direction are received. Further, the communication processing unit 18 may receive information on the moving direction and moving speed of the tracking target subject T1 as information for adjusting the optical axis direction.
  • the communication processing unit 18 transmits information about the optical axis direction of the second imaging unit 6 (for example, information about the amount of control in the pan direction and the amount of control in the tilt direction) to the wide-angle camera 2 as information for specifying the tracking subject T2. is transmitted to the communication processing unit 16.
  • the communication processing unit 18 acquires the second image GC2 (for each frame) so that the wide-angle camera 2 can quickly detect that the subject being tracked by the second imaging unit 6 is incorrect. may transmit information about the optical axis direction of
  • FIG. 8 An example of a flowchart of processing executed by the first processing unit 5 is shown in FIG. Note that the series of processes shown in FIG. 8 are processes that are executed each time the information of the first image GC1 is input. For example, when the first imaging unit 4 is imaging at 30 fps, a series of processes shown in FIG. 8 are repeatedly executed 30 times per second. Note that the series of processes shown in FIG. 8 may be executed every time the information of the first image GC1 is input several times.
  • step S101 the first processing unit 5 receives input of the first image GC1.
  • a first image GC ⁇ b>1 is output from the first imaging unit 4 .
  • the first processing unit 5 After completing the reception of the input of the first image GC1, the first processing unit 5 performs the process of determining the tracking target subject T1 in step S102. This processing is executed by the tracking target subject determination unit 9 of the first processing unit 5, for example.
  • step S103 the first processing unit 5 performs branch processing to determine whether or not the tracking target subject T1 has been determined.
  • the tracking target subject T1 may not be determined when there is no subject other than the background as a result of using the background subtraction method or the like.
  • the first processing section 5 transmits a tracking stop instruction to the telephoto camera 3 in step S104.
  • the tracking control by the second imaging section 6 of the telephoto camera 3 is stopped. Note that when the tracking control is not started, the stopped state of the tracking control is continued.
  • the first processing unit 5 receives information from the telephoto camera 3 in step S105.
  • the information received here is information for identifying the tracking subject T2, and is information about the optical axis direction of the second imaging unit 6, for example.
  • step S106 the first processing unit 5 performs processing for determining whether or not information has been received from the telephoto camera 3.
  • the second imaging unit 6 of the telephoto camera 3 has not started subject tracking processing, and the telephoto camera 3 transmits information regarding the optical axis direction of the second imaging unit 6 to the wide-angle camera 2. not. Therefore, the determination result of step S106 in the initial state is "No".
  • the first processing unit 5 performs coordinate angle conversion processing in step S107.
  • the coordinate angle conversion process is a process executed by the conversion processing unit 11. Specifically, the coordinates of the tracking target subject T1 on the first image GC1 are converted into information representing the optical axis direction of the second imaging unit 6. It is a conversion process.
  • the information representing the optical axis direction of the second imaging section 6 can be rephrased as information relating to the imaging angle of the second imaging section 6 .
  • step S108 the first processing unit 5 performs processing for transmitting information about the tracking target subject T1.
  • control amount information in the pan direction and control amount information in the tilt direction for keeping the tracking target subject T1 within the angle of view of the second imaging unit 6 are transmitted to the telephoto camera 3 .
  • step S106 When the tracking process by the second imaging unit 6 of the telephoto camera 3 is started, information for specifying the tracking subject T2 is transmitted from the telephoto camera 3 at a predetermined timing such as when the second image GC2 is captured.
  • the first processing unit 5 receives the information for identifying the tracking subject T2 from the telephoto camera 3, it determines “Yes” in step S106, and proceeds to step S109.
  • step S109 the first processing unit 5 selects the first image GC1 of the past frame.
  • This process is a process for the first processing unit 5 to appropriately specify the tracking subject T2. This is the process of selecting GC1.
  • step S110 the first processing unit 5 performs angular coordinate conversion processing. This process is executed by the conversion processing unit 11. Specifically, information indicating the optical axis direction of the second imaging unit 6 received as information for specifying the tracking subject T2 is converted in step S109. This is the process of converting the coordinates of the tracking subject T2 on the selected first image GC1. Thereby, the first processing unit 5 can specify the coordinates of the tracking target subject T1 and the coordinates of the tracking subject T2 on the selected first image GC1.
  • step S111 the first processing unit 5 performs branching processing to determine whether or not the tracking target subject T1 and the tracking subject T2 are the same subject.
  • the first processing unit 5 terminates the series of processes shown in FIG. On the other hand, if it is determined that they are not the same object, the first processing unit 5 converts the coordinates of the tracking target object T1 into information representing the optical axis direction of the second imaging unit 6 by performing the process of step S107, and performs step S108. is transmitted to the telephoto camera 3 by the processing of .
  • FIG. 9 shows an example of a flowchart of processing executed by the second processing unit 7 .
  • the second processing unit 7 repeatedly executes the series of processes shown in FIG. 9 until a predetermined condition such as turning off the power of the telephoto camera 3 is satisfied.
  • the second processing unit 7 determines whether information from the wide-angle camera 2 has been received in step S201.
  • This information is information transmitted from the wide-angle camera 2 by the transmission process shown in step S108 in FIG. 8, and is information about the tracking target subject T1. For example, it is information about the optical axis direction of the second imaging unit 6 .
  • the wide-angle camera 2 may transmit a stop signal for stopping the tracking process. Including such information, the second processing unit 7 determines whether or not there is reception in step S201.
  • step S201 If it is determined in step S201 that information has not been received, the second processing unit 7 performs branch processing to determine whether or not local tracking processing is being executed in step S202.
  • step S201 the process of step S202 when the local tracking process is not being executed can be said to be a process of waiting until information about the tracking target subject T1 is acquired from the wide-angle camera 2.
  • the second processing unit 7 When determining that the local tracking process is being executed, the second processing unit 7 performs the local tracking process in step S203.
  • the second processing unit 7 acquires the second image GC2 as the latest frame captured by the second imaging unit 6, and the second image GC2 as the past frame acquired one frame before is tracked.
  • the coordinates of the tracking subject T2 in the latest frame are specified by performing matching processing or the like using the imaging area of the subject T2.
  • the second processing unit 7 performs local tracking processing.
  • step S204 the second processing unit 7 transmits, for example, information about the optical axis direction of the second imaging unit 6 to the wide-angle camera 2 as information for specifying the tracking subject T2.
  • the second processing unit 7 returns to the process of step S201. That is, as long as the state of local tracking continues without receiving information from the wide-angle camera 2, the second processing unit 7 performs the local tracking process in step S203 and performs the tracking process for identifying the tracking subject T2 in step S204. Send information repeatedly.
  • the second processing unit 7 determines in step S205 whether or not a tracking stop signal has been received.
  • the tracking stop signal is generated, for example, when the game, which is the imaging target of the imaging system 1, has ended and there is no subject to be imaged, or when a predetermined time (game time) has passed, or when the operator picks up an image.
  • This information is received from the wide-angle camera 2 when an operation to stop the system 1 is performed. Note that these pieces of information may be input directly to the telephoto camera 3 without going through the wide-angle camera 2 .
  • the second processing unit 7 When determining that the tracking stop signal has been received, the second processing unit 7 performs processing to transition to the initial state in step S206.
  • the initial state for example, an instruction is sent to the PTZ control section 8 so that the optical axis direction of the second imaging section 6 in the telephoto camera 3 faces the central portion of the imaging target space.
  • the central portion of the imaging target space is, for example, the center circle in the case of a soccer court.
  • the second processing unit 7 After transitioning to the initial state, the second processing unit 7 performs processing for stopping camera control in step S207. As a result, the imaging operation of the telephoto camera 3 is stopped. After that, the second processing unit 7 returns to the process of step S201. That is, after the camera control is once stopped, the confirmation process of steps S201 and S202 is repeatedly executed until information about the tracking target subject T1 is received from the wide-angle camera 2 again.
  • the second processing unit 7 determines the current position of the tracking target subject T1 in step S208. Perform position prediction processing. As described above, this process is a process of predicting the destination of the tracking target subject T1 based on the moving direction and moving speed information about the tracking target subject T1 received from the wide-angle camera 2.
  • step S ⁇ b>209 the second processing unit 7 performs processing for adjusting the optical axis direction so that the tracking target subject T ⁇ b>1 is positioned within the angle of view of the second imaging unit 6 of the telephoto camera 3 .
  • This processing is realized by sending an instruction to the PTZ control unit 8.
  • the second processing unit 7 starts local tracking control in step S210.
  • the second processing unit 7 After executing the processing of step S210, the second processing unit 7 transmits information for specifying the tracking subject T2 to the wide-angle camera 2 in step S204. In this way, after local tracking control is started in step S210, the second processing unit 7 performs confirmation processing in steps S201 and S202 until information about a new tracking target subject T1 is received from the wide-angle camera 2. By executing the local tracking process in step S203, the tracking of the tracking subject T2 is continued.
  • the information for identifying the tracking subject T2 acquired by the tracking subject information acquiring section 10 of the first processing section 5 is information representing the optical axis direction of the second imaging section 6. I explained an example.
  • the tracking subject information obtaining section 10 obtains the second image GC2 captured by the second imaging section 6 as information for specifying the tracking subject T2. obtains.
  • FIG. 10 shows processing executed by the first processing unit 5 .
  • 5 executed by the first processing unit 5 in the first embodiment are denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the first processing unit 5 executes a series of processes shown in FIG. 10 each time the first image GC1 is acquired. That is, the first processing unit 5 receives an image input (step S101), determines the tracking target subject T1 (step S102), determines whether or not the tracking target subject T1 has been determined (step S103), and then telephoto. Information for identifying the tracking subject T2 is acquired from the camera 3 (step S105). This information is the second image GC2 captured by the second imaging section 6 . In step S105, the first processing unit 5 acquires information such as the imaging time and the imaging magnification of the second image GC2 together with the second image GC2.
  • the first processing unit 5 selects the past frame in step S109.
  • the past frame selected at this time is the past frame captured at the closest time to the capturing time of the second image GC2 received from the second processing unit 7 in step S105.
  • step S121 the first processing unit 5 performs processing for identifying the tracking subject T2.
  • the tracking subject T2 for example, by enlarging or reducing the second image GC2 using information about the imaging magnification when the second image GC2 was captured, Unify the size of the subject. Then, by performing matching processing using the first image GC1 and the second image GC2, the imaging position of the second imaging unit 6 in the first image GC1 is specified.
  • steps S111, S107, and S108 is the same as the processing shown in FIG. 8, so description thereof will be omitted.
  • the second processing unit 7 executes a series of processes shown in FIG. Note that each process other than step S204 is the same process as in the first embodiment.
  • the second processing unit 7 transmits the second image GC2 captured by the second imaging unit 6 to the first processing unit 5 as information for specifying the tracking subject T2. Thereby, the first processing unit 5 can realize the matching processing described above.
  • the first processing unit 5 in the present embodiment includes a tracking target subject determination unit 9, a tracking subject information acquisition unit 10, a conversion processing unit 11, a tracking subject identification unit 12, A determination processing unit 13 , a moving direction estimation unit 14 , a tracking change processing unit 15 , a communication processing unit 16 , and a switching processing unit 21 are provided.
  • the switching processing unit 21 performs switching processing between the first mode and the second mode described above. A specific switching process will be described with reference to FIG. The same reference numerals are assigned to the same processes as those shown in FIG. 8, and the description thereof will be omitted as appropriate.
  • the first processing unit 5 determines in step S103 whether or not the tracking target subject T1 has been determined. If the tracking target subject T1 could not be determined, a tracking stop instruction is transmitted in step S104 to end the series of processes, as in the first embodiment.
  • the first processing unit 5 proceeds to step S131 and determines whether the movement of the tracking target subject T1 is slow or regular. judge.
  • the moving speed of the tracking target subject T1 is estimated using the information of the past frames of the first image GC1. Then, when the moving speed is less than the predetermined speed, it is determined that the moving speed of the tracking target subject T1 is low.
  • the motion of the tracking target subject T1 is regular motion such as uniform linear motion or circular motion.
  • the first processing unit 5 terminates the series of processes shown in FIG. That is, the process of determining whether or not the tracking target subject T1 and the tracking subject T2 are the same subject is not performed. Accordingly, the first processing unit 5 does not execute the process of changing the tracking subject T2.
  • the second processing unit 7 performs processing for continuing tracking of the tracking subject T2 based on the second image GC2, that is, local tracking processing. This is because when the movement of the tracking target subject T1 is slow or regular, there is a high possibility that the second imaging unit 6 will track the subject normally. This is because the possibility of tracking the subject is considered to be low. By executing the local tracking process, the tracking target subject T1 can be tracked while reducing the processing load on each processing unit.
  • the first processing unit 5 has not yet transmitted information on the tracking target subject T1 to the second processing unit 7 and the second imaging unit 6 has not started tracking the tracking target subject T1, this Not as long.
  • the coordinate angle conversion process in step S107 and the process of transmitting information about the tracking target subject T1 in step S108 are performed. make it run.
  • steps S107 and S108 may be executed even when the movement of the tracking target subject T1 is slow or regular. That is, a process of performing coordinate angle conversion processing and transmitting information about the tracking target subject T1 may be performed. In this case, when the information indicating the optical axis direction received by the second processing unit 7 deviates from the actual optical axis direction by a predetermined amount or more, the second processing unit 7 determines that the wrong subject is being tracked. You may Then, the second processing unit 7 starts tracking the new subject based on the received information indicating the optical axis direction.
  • the first mode can be said to be a state in which each process of steps S101 to S103, step S131 (No determination), and steps S105 to S108 in FIG. 12 is looped.
  • the second mode can be said to be a state in which each process of steps S101, S102, S103, and S131 (determined as Yes) in FIG. 12 is looped.
  • the second processing section 7 may include a switching processing section for switching between the first mode and the second mode.
  • the second processing section 7 includes a tracking control section 17 , a communication processing section 18 , and a switching processing section 22 .
  • the switching processing unit 22 performs switching processing between the first mode and the second mode described above. A specific switching process will be described with reference to FIG. Note that processing similar to each processing shown in FIG. 9 is denoted by the same reference numerals, and description thereof will be omitted as appropriate.
  • the second processing unit 7 determines that information about the tracking target subject T1 has not been received from the wide-angle camera 2 (step S201), and if it determines that local tracking is being performed (step S202), Perform local tracking. As described above, this process specifies the coordinates of the tracking subject T2 in the latest frame and sends an instruction to the PTZ control unit 8 so that the specified coordinates are at the center of the angle of view.
  • step S221 the second processing unit 7 performs a process of determining whether or not the change in the control amount in the local tracking process is regular.
  • a case where the change in the control amount in the local tracking process is regular is, for example, a case where the change in the control amount in the pan direction or the control amount in the tilt direction transmitted to the PTZ control unit 8 is regular. In other words, this is the case, for example, when the movement of the tracking subject T2 is regular.
  • step S202 the local tracking process in step S202 is continuously executed until information is received from the wide-angle camera 2 as long as the change in the control amount is regular.
  • the local tracking process may be continued until a tracking stop instruction is received from the wide-angle camera 2 .
  • step S221 if it is determined in step S221 that the control amount is regular, the process may be returned to step S203.
  • the first mode can be said to be a state in which each process of step S201 (Yes determination), step S205 (No determination), steps S208 to S210, and step S204 in FIG. 14 is looped.
  • the second mode can be said to be a state in which each process of step S201 (No determination), step S202, step S203, and step S221 (Yes determination) in FIG. 14 is looped.
  • the first processing unit 5 includes the switching processing unit 21
  • the second processing unit 7 includes the switching processing unit 22
  • the switching processing unit 21 may be provided and the second processing unit 7 may be configured to include the switching processing unit 22 . That is, the local tracking process can be easily continued as long as it is not necessary by executing the above-described determination process as to whether or not the local tracking process should be continued by the first processing unit 5 and the second processing unit 7 respectively. Therefore, it is possible to suppress the occurrence of unnecessary communication processing, etc., and contribute to the reduction of the processing load.
  • FIG. 15 shows a configuration example of an imaging system 1A according to the fourth embodiment.
  • the imaging system 1A includes a wide-angle camera 2A, a telephoto camera 3A, a first image processing device 31, and a second image processing device 41.
  • the wide-angle camera 2A includes the above-described first imaging unit 4, and further includes signal processing capable of executing various processes for converting image signals captured by the first imaging unit 4 into image data. portion (not shown).
  • the telephoto camera 3A includes the second imaging section 6 and the PTZ control section 8 described above, and further performs various processes for converting image signals captured by the second imaging section 6 into image data. It has an executable signal processor (not shown).
  • the first image processing device 31 is configured to have a function as the first processing section 5 included in the wide-angle camera 2 described above. That is, the first image processing device 31 includes a tracking target subject determination unit 9, a tracking subject information acquisition unit 10, a conversion processing unit 11, a tracking subject identification unit 12, a determination processing unit 13, a movement direction estimation unit 14, and a tracking change unit. By including the processing unit 15 and the communication processing unit 16, it has the same function as the first processing unit 5 shown in FIG.
  • the second image processing device 41 is configured to have a function as the second processing section 7 included in the telephoto camera 3 described above. That is, as shown in FIG. 4, the second image processing device 41 has functions equivalent to those of the second processing unit 7 shown in FIG. 4 by including the tracking control unit 17 and communication processing unit 18. .
  • At least one of the first image processing device 31 and the second image processing device 41 may include a switching processing unit as described in the third embodiment.
  • the wide-angle camera 2A and the first image processing device 31 as separate information processing devices, an information processing device specialized for image processing can be adopted as the first image processing device 31. Therefore, the first image processing It becomes easy to improve the performance of the device 31 . As a result, for example, even if the frame rate of the moving image captured by the first imaging unit 4 is increased, the various types of processing described above can be executed. A similar effect can be obtained for the telephoto camera 3A and the second image processing device 41 as well.
  • FIG. 16 shows a configuration example of an imaging system 1B according to the fifth embodiment.
  • the imaging system 1B includes a wide-angle camera 2A, a telephoto camera 3A, and a third image processing device 51.
  • FIG. 16 shows a configuration example of an imaging system 1B according to the fifth embodiment.
  • the imaging system 1B includes a wide-angle camera 2A, a telephoto camera 3A, and a third image processing device 51.
  • the wide-angle camera 2A and the telephoto camera 3A have the same configuration as in the fourth embodiment, so descriptions thereof will be omitted.
  • the third image processing device 51 has the functions of both the first image processing device 31 and the second image processing device 41 .
  • the first image processing device 31 has a function of transmitting and receiving information to and from the second image processing device 41
  • the second image processing device 41 has a function of transmitting and receiving information to and from the first image processing device 31 .
  • the third image processing device 51 instead executes information output processing and acquisition processing for other units in the device.
  • the third image processing device 51 can communicate with both the wide-angle camera 2A and the telephoto camera 3A, and through the communication, the first image GC1 captured by the first imaging unit 4 of the wide-angle camera 2A and the Both of the second image GC2 captured by the second imaging unit 6 of the telephoto camera 3A can be obtained. Further, the third image processing device 51 is capable of transmitting control information to the PTZ control section 8 provided in the telephoto camera 3A.
  • the third image processing device 51 includes a tracking target subject determination unit 9, a tracking subject information acquisition unit 10, a conversion processing unit 11, a tracking subject identification unit 12, and a determination processing unit 13. , a moving direction estimation unit 14 , a tracking change processing unit 15 , a tracking control unit 17 , a switching processing unit 23 , and a communication processing unit 24 .
  • the tracking target subject determining unit 9 performs processing for determining the subject to be tracked based on the first image GC1 captured by the first imaging unit 4, as in the other embodiments described above.
  • the tracking subject information acquisition unit 10 acquires information for specifying the tracking subject T2. For this reason, the tracking subject information acquisition unit 10 performs processing for acquiring control information for the PTZ control unit 8, in other words, information representing the optical axis direction of the second imaging unit 6, from the telephoto camera 3A. Thus, information for specifying the tracking subject T2 is obtained.
  • control information that the third image processing device 51 transmits to the PTZ control unit 8 is stored in the storage area in the third image processing device 51, the tracking subject information acquiring unit 10 Control information may be obtained from the area. In that case, it is possible to perform processing without acquiring control information from the telephoto camera 3A.
  • the conversion processing unit 11 converts information representing the coordinates of the subject on the first image GC1 and the optical axis direction of the second imaging unit 6 of the telephoto camera 3A.
  • the conversion processing unit 11 also converts the information representing the optical axis direction of the second imaging unit 6 received from the telephoto camera 3A into coordinates on the first image GC1.
  • the tracking subject identification unit 12 identifies the subject being tracked by the second imaging unit 6 from among the subjects appearing in the first image GC1 based on the coordinates in the first image GC1 converted by the conversion processing unit 11.
  • the determination processing unit 13 determines whether the tracking subject T2 identified by the tracking subject identification unit 12 and the tracking target subject T1 determined by the tracking target subject determination unit 9 are the same subject.
  • the movement direction estimation unit 14 performs processing for estimating the movement direction of the tracking target subject T1.
  • the tracking change processing unit 15 performs processing for changing the subject to be tracked by the second imaging unit 6, that is, the subject being tracked T2.
  • information representing the optical axis direction of the second imaging unit 6, which is converted from the coordinate information of the tracking target subject T1 by the processing of the conversion processing unit 11, is transmitted to the telephoto camera 3A. performs pan control, tilt control, etc., and changes the tracking subject T2 to the same subject as the tracking target subject T1.
  • the tracking control unit 17 performs various processes for appropriately tracking the subject by the second imaging unit 6 . Specifically, by performing image processing on the second image GC2 captured by the second imaging unit 6, the tracking subject T2 is specified, and the tracking subject T2 is positioned at the center of the angle of view. Then, the pan control amount and the tilt control amount for controlling the optical axis direction of the second imaging section 6 are determined and transmitted to the PTZ control section 8 of the telephoto camera 3A. In this case, each control amount may be determined in consideration of the movement direction of the tracking subject T2.
  • the switching processing unit 23 has a mode (first mode) in which it is possible to determine whether or not the tracking target subject T1 and the tracking subject T2 match, and to change the tracking target accordingly. Then, the second imaging unit 6 performs processing for switching between the mode (second mode) in which the tracking of the tracking subject T2 being tracked by the second imaging unit 6 is continued.
  • the communication processing unit 24 performs communication processing with the wide-angle camera 2A and the telephoto camera 3A in order to realize the above-described processing in this embodiment.
  • the image processing apparatus By configuring the image processing apparatus with one information processing apparatus as in the present embodiment, it is possible to reduce costs compared to constructing an imaging system using a plurality of image processing apparatuses. Further, since no information transmission/reception processing occurs between the image processing apparatuses, it is possible to speed up the processing.
  • the tracking target subject determination unit 9 automatically executes the determination processing of the tracking target subject T1, but the tracking target subject T1 may be determined manually by the operator.
  • the tracking target subject T1 may be set by the operator specifying the team to which the player belongs and the uniform number.
  • the tracking target subject determining unit 9 may function as a specifying unit that specifies the designated player by performing image processing on the first image GC1.
  • an index for determining the tracking target subject T1 may be presented by an operator's manual operation. For example, the operator may designate "a player who scored a goal".
  • the tracking target subject determining unit 9 identifies the corresponding player by performing image processing using the latest frame to the previous frame of the first image GC1.
  • deep learning may be used when performing image processing for determining the tracking target subject T1 as in each of the above examples and this modified example.
  • the information acquired by the tracking subject information acquiring unit 10 as information for specifying the tracking subject T2 does not have to be the above-described information indicating the optical axis direction or the information of the second image GC2.
  • it may be information representing characteristics of the tracking subject T2.
  • various examples are conceivable, such as uniform number information, hair color information, hairstyle information, position information, shoe color information, and skin color information.
  • the conversion processing unit 11 that has acquired such information performs image processing of the first image GC1 instead of converting the information indicating the optical axis direction into coordinate information, thereby performing tracking on the first image GC1.
  • a process of specifying the middle subject T2 and converting it into coordinate information is performed.
  • the imaging system 1 (1A, 1B) executes processing for determining the tracking target subject T1 by performing image processing on the first image GC1.
  • the feature information of the tracking subject T2 is extracted by performing image processing on the second image GC2.
  • image processing does not have to be executed each time a captured image is acquired.
  • the first imaging unit 4 and the second imaging unit 6 may capture moving images at 60 fps or 120 fps, and each processing unit may perform the various image processing described above at 30 fps. This makes it possible to perform tracking processing for an appropriate subject while capturing a moving image at a high fps.
  • Information for specifying T2 may be transmitted to the wide-angle camera 2 with high frequency.
  • the frequency of transmitting information about the tracking target subject T1 may be increased.
  • the wide-angle camera 2 (or the first image processing device 31 or the third image processing device 51) performs tracking based on the first image GC1 captured by the first imaging unit 4.
  • a tracking target subject determination unit 9 that determines the target subject as a tracking target subject T1, and tracking subject information that acquires information for specifying a tracking subject T2 that is the subject being tracked by the second imaging unit 6.
  • an acquisition unit 10 a determination processing unit 13 that determines whether or not the tracking subject T2 and the tracking target subject T1 are the same subject, and if it is determined that the tracking subject T2 and the tracking target subject T1 are not the same.
  • a tracking change processing unit 15 that performs processing for changing the subject T2 being tracked by the second imaging unit 6 to the tracking target subject T1.
  • the tracking subject information acquisition unit 10 in the wide-angle camera 2 obtains information for specifying the tracking subject T2 from another image processing device.
  • the tracking change processing unit 15 may perform a process of transmitting information about the tracking target subject T1 to another image processing device as a process of changing the information. .
  • a process of changing the tracking target is realized.
  • a wide-angle camera 2 having both the function of the first imaging unit 4 and the function of the image processing device of this configuration, and the function of the second imaging unit 6 and the other image processing device It is a telephoto camera 3 having the function of .
  • a wide-angle camera 2A having a first imaging unit 4, a first image processing device 31 provided corresponding to the wide-angle camera 2A and having functions as this configuration, and a second imaging unit 6 and another image processing device (second image processing device 41) provided corresponding to the telephoto camera 3A.
  • the telephoto camera 3A can be controlled so as to track the tracking target subject T1 determined from the first image GC1 acquired by the wide-angle camera 2A by transmitting and receiving information between the devices. becomes. Then, when the tracking control of the telephoto camera 3A is tracking a subject different from the intended one, the wrong subject is continuously tracked by executing the processing to change the tracking target subject T1 to be tracked. can be prevented.
  • the tracking change processing unit 15 in the wide-angle camera 2 receives information for changing the optical axis direction in the second imaging unit 6 as the tracking target.
  • Information about the subject T1 may be transmitted to another image processing device (for example, the telephoto camera 3 or the second image processing device 41).
  • the position of the tracking target subject T1 within the first image GC1 captured by the first imaging unit 4 or within the angle of view of the first imaging unit 4
  • the position of the tracking target subject T1 within the angle of view of the second imaging unit 6 It is possible to set the optical axis direction of the second imaging unit 6 for capturing in a one-to-one correspondence.
  • the tracking target subject T1 in the first image GC1 , and the optical axis direction of the second imaging unit 6 can be easily associated.
  • information for adjusting the optical axis direction instead of the information such as the color, shape, size, and other features of the tracking target subject T1 and the position.
  • Information for adjusting the optical axis direction can be transmitted to the control unit (PTZ control unit 8) that controls the composition of the second imaging unit 6, thereby transmitting the tracking target subject T1 to the control unit. becomes.
  • the above information for changing the optical axis direction of the second imaging unit 6 is, for example, a conversion formula for calculating the optical axis direction of the second imaging unit 6 from the position of the tracking target subject T1 in the first image GC1. may be information calculated each time using It may be information.
  • Information for changing the optical axis direction of the second imaging unit 6 may be information such as a numerical value representing the optical axis direction, or the second imaging unit controlled by the control unit (PTZ control unit 8). It may be information on the amount of control in the pan direction and tilt direction for the unit 6 .
  • the control amounts in the pan and tilt directions may be absolute values or values relative to the current values.
  • the information representing the optical axis direction may be information determined so that the tracking target subject T1 is positioned at the center of the image frame of the telephoto camera 3, or information indicating a predetermined position other than the center of the image frame of the telephoto camera 3. It may be information determined so that the tracking target subject T1 is positioned at the position. Alternatively, information regarding the direction for capturing the subject at the center of the image frame may be used as information representing the optical axis direction. Upon receiving such information, the telephoto camera 3 may determine the position of the tracking target subject T1 in the image frame, and then determine the actual optical axis direction based on the received information. That is, the optical axis direction indicated by the received information may differ from the actual optical axis direction.
  • the tracking change processing unit 15 in the wide-angle camera 2 determines that the tracking subject T2 and the tracking target subject T1 are the same.
  • the frequency of processing to transmit to another image processing device for example, the telephoto camera 3 or the second image processing device 41
  • the subject being tracked by the second imaging unit 6 is the tracking target subject T1
  • Such processing is processing that can be executed without newly providing information on the tracking target subject T1.
  • the image processing device (the wide-angle camera 2 or the first image processing device 31) can be transferred to another image processing device (for example, the telephoto camera 3 or the like). Since the frequency of transmitting information about the tracking target subject T1 to the second image processing device 41) is reduced, the processing load required for communication processing can be reduced, and the consumption of the communication band can be reduced.
  • the transmission frequency may be lowered by canceling the transmission process once every several times, or the transmission frequency may be lowered by not performing the transmission process at all.
  • the moving direction estimating unit 14 for estimating the moving direction of the tracking target subject T1 in the wide-angle camera 2 (or the first image processing device 31) is provided, and the tracking change processing unit 15 As a process for changing, in addition to information about the tracking target subject T1, a process of transmitting the movement direction to another image processing device (for example, the telephoto camera 3 or the second image processing device 41) may be performed.
  • the second imaging unit 6 Based on the information transmitted from (telephoto camera 3 and second image processing device 41), the second imaging unit 6 identifies the subject being tracked as the subject being tracked T2, and the tracking target subject T1 and the subject being tracked T2 are the same. It is assumed that the subject is moving until it is determined whether or not the subject is the subject T1 and the information about the tracking target subject T1 is transmitted to another image processing apparatus accordingly. By the time the second imaging unit 6 finishes changing the composition of the second imaging unit 6 to track the new tracking target object T1, the tracking target object T1 is already within the angle of view of the second imaging unit 6. may not be located. In such a case, there is a possibility that tracking of the tracking target subject T1 cannot be started.
  • the image processing apparatus of this configuration transmits information on the tracking target subject T1 and information on the movement direction to the other image processing apparatuses. is continuously transmitted, it is possible to prevent a situation in which the tracking target subject T1 cannot be captured within the angle of view of the second imaging unit 6 from continuing.
  • the moving direction estimating unit 14 in the wide-angle camera 2 uses the previous image captured by the first imaging unit 4
  • the moving direction may be estimated based on (the past image in the first image GC1).
  • the moving direction of the subject as the tracking target subject T1 can be estimated by using the first image GC1 of the past few frames.
  • the other image processing devices can detect that tracking target subject T1 is moving toward second imaging unit 6.
  • the pan direction and tilt direction of the second imaging unit 6 can be controlled so as to be within the angle of view.
  • the possibility that the correct subject is tracked by the second imaging unit 6 can be increased. It should be noted that not only the moving direction of the tracking target subject T1 but also the moving speed information may be estimated and transmitted to another image processing apparatus. This can further increase the possibility that the correct subject will be tracked.
  • the determination processing unit 13 in the wide-angle camera 2 (or the first image processing device 31 or the third image processing device 51) captures the second image captured by the second imaging unit 6.
  • the first image GC1 selected based on the imaging time of the second image GC2 from which the information for specifying the tracking subject T2 was obtained from among the GC2 it is determined whether or not the subjects are the same subject.
  • the tracking target subject T1 in the first image GC1 captured after a certain amount of time has passed since the second image GC2 was captured.
  • the position may differ from the position at the imaging time of the second image GC2. In such a situation, for example, if the tracking subject T2 in the second imaging unit 6 is estimated based on the latest first image GC1, the tracking subject in the second imaging unit 6 is erroneously specified. there is a possibility.
  • the second imaging unit 6 may be delayed to detect that the second imaging unit 6 is tracking the wrong subject.
  • the identification of the subject being tracked by the second imaging unit 6 is performed using the first image GC1 captured at a timing close to the imaging time of the second image GC2, It is possible to suppress erroneous identification of the subject T2. As a result, it is possible to quickly detect that the second imaging unit 6 is tracking the wrong subject, and it is possible to quickly shift to a state in which the tracking target subject T1 is correctly tracked. Then, it is possible to minimize the effect of latency on data transfer.
  • the processing of the determination processing unit 13 that determines whether or not the subject is the same and the tracking target A first mode of executing the processing of the tracking change processing unit 15 that transmits information about the subject T1 to another image processing device (telephoto camera 3 or the second image processing device 41), and the processing and tracking change of the determination processing unit 13
  • a switching processing unit 21 switching processing unit 23 for switching between a second mode in which the processing of the processing unit 15 is not executed and a switching processing unit 23 may be provided. Comparing the first mode and the second mode, it is assumed that the second mode has simpler control and a lighter processing load.
  • the processing for determining whether the tracking target subject T1 and the tracking subject T2 are the same subject and the transmission and reception of various information for performing the determination is performed.
  • the second mode in which the tracking of the object being tracked by the device (telephoto camera 3 or second image processing device 41) and the processing of the second imaging unit 6 is continued is simpler processing. Therefore, by providing the switching processing unit 21 (switching processing unit 23), it is possible to switch to the second mode when the control of the first mode is not required. It is possible to reduce the processing burden of
  • the switching processing unit 21 changes the movement mode of the determined tracking target subject T1.
  • the second imaging unit 6 in a case where the movement direction of the tracking target subject T1 is constant or stays within a predetermined range, or in a case where the movement speed of the tracking target subject T1 is low, the second imaging unit 6 and It can be said that this is a case in which there is a low possibility that the subject being tracked will be lost due to processing closed by another image processing device (telephoto camera 3 or second image processing device 41).
  • the processing load on the image processing apparatus and other image processing apparatuses can be reduced.
  • the wide-angle camera 2 may include the first imaging section 4 .
  • the image processing device is a camera device having the first imaging unit 4 .
  • a camera device wide-angle camera 2
  • a process of changing the tracking target is executed. . Therefore, it is possible to prevent a subject different from the tracking target subject T1 from being continuously tracked.
  • the telephoto camera 3 (or the second image processing device 41 or the third image processing device 51) is determined based on the first image GC1 captured by the first imaging unit 4.
  • a tracking control unit 17 is provided for controlling tracking of the subject by the second imaging unit 6 using information on the tracking target subject T1, which is the tracking target subject. If information for identifying the subject T2 is output and information on the tracking target subject T1 is not acquired during tracking control, tracking control is performed without changing the tracking target subject T1, and tracking is performed during tracking control. When the information of the target subject T1 is acquired, tracking control is performed with the subject identified based on the newly acquired information of the tracking target subject T1 as the tracking target.
  • the tracking control unit 17 can continue tracking by the second imaging unit 6 by executing simple processing when information on the new tracking target subject T1 is not acquired. This can reduce the processing load on the image processing devices (telephoto camera 3, second image processing device 41, and third image processing device 51) until information on the new tracking target subject T1 is acquired. Further, when information on a new tracking target subject T1 is acquired, it is possible to prevent continued tracking of a wrong subject by starting new tracking based on the information on the new tracking target subject T1. can.
  • the information of the tracking target subject T1 is transferred to other image processing devices (the wide-angle camera 2 and the first image processing device 31). ), and a transmission processing unit (communication processing unit 18 ), the tracking control unit 17 performs tracking control without changing the tracking target subject T1 when the reception processing unit does not receive information on the tracking target subject T1 during tracking control,
  • tracking control may be performed with the subject specified based on the newly acquired information on the tracking target subject T1 as the tracking target. good.
  • an image processing device having this configuration telephoto camera 3 or second image processing device 41
  • another image processing device wide-angle camera 2 or first image processing device 31.
  • a process of continuing the tracking of the subject set as the tracking subject T2 and a process of stopping the tracking of the tracking subject T2 and starting the tracking of the newly designated tracking target subject T1 are executed.
  • the telephoto camera 3 having the function as the second imaging unit 6 and the function as the image processing device of this configuration, the function as the first imaging unit 4, and the function as another image processing device are combined. wide-angle camera 2 or the like.
  • a wide-angle camera 2A having one imaging unit 4 and another image processing device (first image processing device 31) provided corresponding to the wide-angle camera 2A may be configured by four devices.
  • the telephoto camera 3A is controlled so as to track the tracking target subject T1 determined based on the first image GC1 acquired by the wide-angle camera 2A by transmitting and receiving information between the devices. becomes possible. Then, when the tracking control of the telephoto camera 3A is tracking a subject different from the intended subject, the control for tracking the newly designated tracking target subject T1 is executed, resulting in an erroneous subject. can be prevented from being tracked continuously.
  • the transmission processing unit (communication processing unit 18) in the telephoto camera 3 (or the second image processing device 41) is tracking each time an image captured by the second imaging unit 6 is generated.
  • Information for specifying subject T2 may be transmitted. This makes it possible to frequently transmit information for specifying the tracking subject T2 to other image processing devices (the wide-angle camera 2 and the first image processing device 31). Then, in the other image processing apparatus, by receiving information for identifying the tracking subject T2 at a high frequency, it is determined whether or not the tracking subject T2 is different from the tracking target subject T1 for each frame. Therefore, it is possible to quickly detect a state in which the subject T2 being tracked by the second imaging unit 6 is different from the tracking target subject T1. Therefore, it is possible to instruct so that the subject T2 being tracked by the second imaging unit 6 becomes the intended subject. In addition, it is possible to prevent a situation in which the second imaging unit 6 tracks an unintended subject from continuing for a long time.
  • the transmission processing unit (communication processing unit 18) in the telephoto camera 3 uses the second imaging as information for specifying the tracking subject T2.
  • Information about the optical axis direction of the unit 6 may be transmitted.
  • the information about the optical axis direction may be vector information that can uniquely identify the optical axis direction of the second imaging unit 6 in a predetermined coordinate system, or a pair of optical axis directions of the second imaging unit 6. 1 may be information such as the control amount for the corresponding pan direction and tilt direction.
  • the wide-angle camera 2 or the first image processing device 31 it is possible to associate information about the position of the tracking target subject T1 in the first image GC1 with the optical axis direction of the second imaging unit 6.
  • the other image processing device can specify the optical axis direction of the second imaging unit 6 by transmitting the information about the optical axis direction as described above to the other image processing device. . Therefore, it is possible to execute a process of determining whether or not the tracking target subject T1 determined from the first image GC1 matches the tracking target subject T1 determined from the first image GC1 and the tracking target subject T2 by the second imaging unit 6 in another image processing apparatus. A correct subject can be tracked by the second imaging unit 6 .
  • the transmission processing unit (communication processing unit 18) in the telephoto camera 3 uses the second imaging as information for specifying the tracking subject T2. You may transmit 2nd image GC2 imaged in the part 6.
  • FIG. Information about the optical axis direction of the second imaging section 6 may not be obtained depending on the configuration of the second imaging section 6 and the device for adjusting its orientation. In such a case, as in this configuration, the information of the second image GC2 captured by the second imaging unit 6 is transmitted to another image processing device (the wide-angle camera 2 or the first image processing device 31). good too.
  • other image processing apparatuses can specify the tracking subject T2 from the second image GC2 by performing block matching processing or matching processing using feature points. Specifically, the position in the first image GC1 of the subject included in the second image GC2 is specified. Then, by comparing the position of the subject in the first image GC1 and the position of the tracking target subject T1, it is possible to determine whether or not the correct subject is being tracked by the second imaging unit 6. As a result, when the subject T2 being tracked by the second imaging unit 6 is different from the tracking target subject T1, it is possible to perform control again so that the correct subject is tracked.
  • the reception processing unit (communication processing unit 18) in the telephoto camera 3 (or the second image processing device 41) can be used by other image processing devices (the wide-angle camera 2 and the first image processing
  • the tracking control unit 17 receives the moving direction information of the tracking target subject T1 from the device 31), and uses the predicted position of the tracking target subject T1 calculated based on the imaging time of the first image GC1 and the received moving direction. may be used to control tracking.
  • the position of the tracking target subject T1 at the time when the tracking target subject T1 was determined based on the first image GC1 and information about the tracking target subject T1 are received by the image processing apparatus, and the tracking target subject T1 is captured by the second imaging unit 6.
  • the position of the tracking target subject T1 at the time when control is performed to capture it within the angle of view of 1 varies depending on the movement of the tracking target subject T1.
  • the current position of the tracking target subject T1 can be estimated by the image processing apparatus receiving information about the moving direction of the tracking target subject T1. Therefore, it is possible to control the orientation of the second imaging unit 6 according to the estimated current position of the tracking target subject T1, and increase the possibility of normally starting tracking of the tracking target subject T1. can.
  • the possibility that the tracking target subject T1 is captured within the angle of view of the second imaging unit 6 can be increased by the image processing apparatus receiving information about not only the moving direction but also the moving speed of the tracking target subject T1. It is possible to perform more appropriate tracking processing.
  • the information for identifying the tracking subject T2 output by the tracking control unit 17 is The object specified based on the processing of the transmission processing unit (communication processing unit 18) that is transmitted to the image processing device (wide-angle camera 2 or the first image processing device 31) and the newly acquired information of the tracking target object T1.
  • a switching processing unit that switches between a first mode of executing the processing of the tracking control unit 17 that performs tracking control as a tracking target and a second mode of continuing the tracking control without changing the tracking target subject T1. 22 may be provided.
  • the switching processing unit 22 may be the switching processing unit 23 provided in the third image processing device 51 .
  • the second mode has simpler control and a lighter processing load.
  • the process of continuing to track the tracking subject T2 is a simpler process with a lighter processing load than the process of starting tracking of the new subject based on the information of the new tracking target subject T1.
  • the new subject may differ from the tracking target subject T1. In this case, it is necessary to specify the new subject again and start tracking. be. Therefore, by providing the switching processing unit 22, it is possible to switch to the second mode when the control in the first mode is unnecessary, thereby reducing the processing load on the image processing apparatus and other image processing apparatuses. can be planned.
  • the switching processing unit 22 notifies other image processing devices (the wide-angle camera 2 and the first image processing device 31) that control the first imaging unit 4 when switching from the first mode to the second mode. may be executed.
  • other image processing apparatuses can avoid executing various kinds of processing for realizing the first aspect, and the processing load can be reduced.
  • the switching processing unit 22 may be provided as the switching processing unit 21 only in another image processing device that controls the first imaging unit 4. In that case, the image processing device having this configuration may The function of the switching processing unit 22 can be realized only by performing processing according to instructions from the image processing device.
  • the switching processing unit 22 in the telephoto camera 3 causes the tracking control unit 17 to change the position according to the movement mode of the tracking subject T2.
  • Switching between the first mode and the second mode may be performed. For example, in a case where the moving direction of the tracking subject T2 is constant or stays within a predetermined range, or in a case where the moving speed of the tracking subject T2 is slow, another image processing device ( It is possible to continue tracking the tracking subject T2 without acquiring information from the wide-angle camera 2 or the first image processing device 31). That is, such a case can be said to be a case in which there is a low possibility of losing the tracking subject T2. In such a case, by switching to the second mode, the processing load of the image processing device (telephoto camera 3 and second image processing device 41) and other image processing devices (wide-angle camera 2 and first image processing device 31) can be reduced. can be reduced.
  • the image processing device is a camera device having the second imaging unit 6 .
  • the tracking control unit 17 continues tracking by the second imaging unit 6 by executing simple processing when information on a new tracking target subject T1 is not acquired. be able to.
  • information on a new tracking target subject T1 is acquired, it is possible to prevent continued tracking of an erroneous subject by starting new tracking based on the information on the new tracking target subject T1. can.
  • An image processing system consisting of a wide-angle camera 2 and a telephoto camera 3, an image processing system consisting of a first image processing device 31 and a second image processing device 41, or an image as a third image processing device 51
  • the processing system includes a tracking target subject determination unit 9 that determines a tracking target subject as a tracking target subject T1 based on the first image GC1 captured by the first imaging unit 4, and information on the tracking target subject T1.
  • a tracking control unit 17 that controls tracking of the subject by the second imaging unit 6, and the subject being tracked by the second imaging unit 6 based on the information output from the tracking control unit 17 as a tracking subject T2.
  • a tracking change processing unit 15 that outputs information about the tracking target object T1 to the tracking control unit 17 when it is determined that the target objects T1 are not the same;
  • tracking control is performed with the subject specified based on the information on the new tracking target subject T1 as the target of tracking, and tracking control of the tracking target subject T1 is performed during tracking control. If no information is input, tracking control is performed without changing the tracking target subject T1.
  • Various effects described above can be obtained by using such an image processing system.
  • the first processing unit 5 (or the first image processing device 31 or the third image processing device 51) described with reference to each drawing, A program that causes a CPU, a DSP (Digital Signal Processor), or a device including these to execute processing by the second processing unit 7 (or the second image processing device 41 or the third image processing device 51) can be considered.
  • a program that causes a CPU, a DSP (Digital Signal Processor), or a device including these to execute processing by the second processing unit 7 (or the second image processing device 41 or the third image processing device 51) can be considered. can.
  • the program as an embodiment of the first processing unit 5 (or the first image processing device 31 or the third image processing device 51) is a program readable by a computer device, and the first imaging unit 4
  • a tracking target subject determination function for determining a tracking target subject T1 as a tracking target subject based on the captured first image GC1, and specifying a tracking subject T2 which is a subject being tracked by the second imaging unit 6.
  • a tracking subject information acquisition function for acquiring information for tracking
  • a determination function for determining whether or not the tracking subject T2 and the tracking target subject T1 are the same subject and a tracking subject T2 and the tracking target subject T1.
  • a tracking change function for changing the tracking subject T2 of the second imaging unit 6 to the tracking target subject T1 when it is determined that they are not the same.
  • a program as an embodiment of the second processing unit 7 is based on the first image GC1 captured by the first imaging unit 4.
  • the above-described first processing unit 5 (or first image processing device 31 or third image processing device 51) or second processing unit 7 (or second image processing device 41 or third image processing device)
  • the device 51 can be implemented in a device as the imaging system 1, 1A, 1B.
  • Such a program can be recorded in advance in an HDD as a recording medium built in equipment such as a computer device, or in a ROM or the like in a microcomputer having a CPU.
  • flexible discs CD-ROMs (Compact Disc Read Only Memory), MO (Magneto Optical) discs, DVDs (Digital Versatile Discs), Blu-ray discs (Blu-ray Discs (registered trademark)), magnetic discs, semiconductor memories, It can be temporarily or permanently stored (recorded) in a removable recording medium such as a memory card.
  • Such removable recording media can be provided as so-called package software.
  • it can also be downloaded from a download site via a network such as a LAN (Local Area Network) or the Internet.
  • LAN Local Area Network
  • the first processing unit 5 (or the first image processing device 31 or the third image processing device 51) or the second processing unit 7 (or the second image processing device 41) of the embodiment and the third image processing device 51).
  • the personal computer by downloading a program to a personal computer, a portable information processing device, a mobile phone, a game device, a video device, a PDA (Personal Digital Assistant), etc., the personal computer, etc. can perform processing as the rendering unit 11a of the present disclosure. It can be made to function as a device to realize.
  • the information processing method executed by the first processing unit 5 (or the first image processing device 31 or the third image processing device 51) to realize the imaging systems 1, 1A, and 1B described above is Tracking target subject determination processing for determining a tracking target subject T1 as a tracking target subject based on the captured first image GC1; a tracking subject information acquisition process for acquiring information for tracking, a determination process for determining whether or not the tracking subject T2 and the tracking target subject T1 are the same subject, and a tracking subject T2 and the tracking target subject T1. and tracking change processing for changing the tracking subject T2 of the second imaging unit 6 to the tracking target subject T1 when it is determined that they are not the same.
  • the information processing method executed by the second processing unit 7 is determined based on the first image GC1 captured by the first imaging unit 4.
  • the present technology can also adopt the following configuration.
  • a tracking target subject determination unit configured to determine a tracking target subject as a tracking target subject based on the first image captured by the first imaging unit; a tracked subject information acquisition unit that acquires information for specifying a tracked subject that is the subject being tracked by the second imaging unit; a determination processing unit that determines whether the tracking subject and the tracking target subject are the same subject; a tracking change processing unit that performs processing for changing the subject being tracked by the second imaging unit to the tracking target subject when it is determined that the subject being tracked and the tracking target subject are not the same. processing equipment.
  • the tracking subject information acquiring unit acquires information for specifying the tracking subject from another image processing device;
  • the tracking change processing unit reduces the frequency of transmission to the other image processing device when it is determined that the tracking subject and the tracking target subject are the same.
  • a moving direction estimating unit for estimating a moving direction of the tracking target subject; Any one of (2) to (4) above, in which the tracking change processing unit performs a process of transmitting the movement direction to the other image processing apparatus in addition to the information about the tracking target subject as the process of making the change.
  • the image processing device according to . (6) The image processing device according to (5), wherein the moving direction estimation unit estimates the moving direction based on a past image captured by the first imaging unit.
  • the determination processing unit is using the first image selected based on the imaging time of the second image from which the information for specifying the tracking subject is obtained from among the second images captured by the second imaging unit;
  • the image processing apparatus according to any one of (2) to (6) above, wherein the determination is made as to whether or not the image is a subject.
  • a switching processing unit that switches between a first mode of executing the processing of the determination processing unit and the processing of the tracking change processing unit and a second mode of not performing the processing of the determination processing unit and the processing of the tracking change processing unit;
  • the image processing apparatus according to any one of (2) to (7) above.
  • the image processing apparatus according to any one of (2) to (9) above, including the first imaging section.
  • a tracking control unit that controls tracking of the subject by the second imaging unit using information of the tracking target object that is the target object of tracking determined based on the first image captured by the first imaging unit, The tracking control unit outputting information for identifying the tracked subject, which is the subject being tracked; if the tracking target subject information is not acquired during the tracking control, the tracking control is performed without changing the tracking target subject;
  • An image processing device that performs tracking control on a subject identified based on the newly acquired information on the tracking target subject as a tracking target when information on the tracking target subject is acquired during the tracking control.
  • a reception processing unit that receives information on the tracking target subject from another image processing device; a transmission processing unit configured to transmit information for specifying the tracked subject output by the tracking control unit to the other image processing device;
  • the tracking control unit if the reception processing unit does not receive information on the tracking target subject during the tracking control, performing the tracking control without changing the tracking target subject;
  • tracking control is performed with the subject specified based on the newly acquired information of the tracking target subject as the tracking target.
  • the image processing device according to any one of (12) to (13) above, wherein the transmission processing unit transmits information regarding an optical axis direction of the second imaging unit as information for specifying the subject being tracked.
  • the transmission processing unit transmits a second image captured by the second imaging unit as information for specifying the subject being tracked.
  • the reception processing unit receives information about a moving direction of the tracking target subject from the other image processing device, The tracking control unit controls the tracking using the predicted position of the tracking target subject calculated based on the imaging time of the first image and the received moving direction. ).
  • a tracking target subject determination unit configured to determine a tracking target subject as a tracking target subject based on the first image captured by the first imaging unit; a tracking control unit that controls tracking of the subject by the second imaging unit using the information of the tracking target subject; a tracked subject identification unit that identifies the subject being tracked by the second imaging unit as a tracked subject based on the information output by the tracking control unit; a determination processing unit that determines whether the determined tracking target subject and the identified tracking subject are the same subject; a tracking change processing unit that outputs information about the tracking target subject to the tracking control unit when it is determined that the tracking target subject and the tracking target subject are not the same;
  • the tracking control unit when information about a tracking target subject is input during the tracking control, tracking control is performed with the subject specified based on the information on the new tracking target subject as a tracking target;
  • An image processing system wherein when information about the tracking target subject is not input during the tracking control, the tracking control is performed without changing the tracking target subject.
  • Imaging system image processing system 2 wide-angle camera (first imaging unit, image processing device) 2A wide-angle camera (first imaging unit) 3 telephoto camera (second imaging unit, image processing device) 3A telephoto camera (second imaging unit) 4 First imaging unit 6 Second imaging unit 9 Tracking target subject determination unit 10 Tracking subject information acquisition unit 12 Tracking subject identification unit 13 Judgment processing unit 14 Moving direction estimation unit 15 Tracking change processing unit 16 Communication processing unit 17 Tracking control Unit 18 Communication processing unit (reception processing unit, transmission processing unit) 21 switching processing unit 22 switching processing unit 23 switching processing unit 31 first image processing device (image processing device) 41 second image processing device (image processing device) 51 third image processing device (image processing device) GC1 First image GC2 Second image T1 Tracking target subject T2 Tracking subject

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

画像処理装置は、第1撮像部において撮像された第1画像に基づいて追尾の目標とされた被写体を追尾目標被写体として決定する追尾目標被写体決定部と、第2撮像部による追尾中の被写体である追尾中被写体を特定するための情報を取得する追尾中被写体情報取得部と、前記追尾中被写体と前記追尾目標被写体が同一の被写体であるか否かを判定する判定処理部と、前記追尾中被写体と前記追尾目標被写体が同一でないと判定された場合に前記第2撮像部の前記追尾中被写体を前記追尾目標被写体へと変更させる処理を行う追尾変更処理部と、を備えるものとした。

Description

画像処理装置、画像処理システム
 本技術は、二つの撮像部を連携させることにより特定の被写体を追尾するための処理を行う画像処理装置及び画像処理システムの技術分野に関する。
 スポーツ会場や会議室などある程度の広さのある空間を撮影する場合には、1台のみのカメラを用いて空間全体を撮影すると人物などの被写体が非常に小さく写ってしまう。また、1台のみのカメラを用いて被写体を大写しにしてしまうと撮像されていない領域や被写体が発生してしまうという問題がある。
 このような問題を解決するために、2台以上のカメラを用いる方法が考えられる。例えば、全体撮影するカメラと被写体を大写しにするカメラとを併用する方法である。このように複数台のカメラを用いる技術として、例えば、下記特許文献1に記載された技術がある。
 特許文献1には、2台のカメラを用い、1台のカメラが撮影領域全体を撮影する全景カメラとして機能し、もう1台のカメラが被写体を大写しで撮影する望遠カメラとして機能する技術が開示されている。
特開平5-334572号公報
 しかし、大写しにする被写体を全景カメラで特定してから実際に望遠カメラで当該被写体を画角に収めるまでには各種の処理が実行されるため、タイムラグが生じ、望遠カメラで被写体を捉えることができない虞があるという問題がある。
 本技術はこのような問題に鑑みて上記事情に鑑み為されたものであり、複数台の撮像装置を用いて対象の被写体を画角に収めることを目的とする。
 本技術に係る画像処理装置は、第1撮像部において撮像された第1画像に基づいて追尾の目標とされた被写体を追尾目標被写体として決定する追尾目標被写体決定部と、第2撮像部による追尾中の被写体である追尾中被写体を特定するための情報を取得する追尾中被写体情報取得部と、前記追尾中被写体と前記追尾目標被写体が同一の被写体であるか否かを判定する判定処理部と、前記追尾中被写体と前記追尾目標被写体が同一でないと判定された場合に前記第2撮像部の前記追尾中被写体を前記追尾目標被写体へと変更させる処理を行う追尾変更処理部と、を備えたものである。
 これにより、第2撮像部において追尾中の被写体が想定した目標被写体である追尾目標被写体と異なる場合には、追尾の対象を変更させる処理が実行される。
 上記した画像処理装置における前記追尾中被写体情報取得部は、前記追尾中被写体を特定するための情報を他の画像処理装置から取得し、前記追尾変更処理部は、前記変更させる処理として前記追尾目標被写体についての情報を前記他の画像処理装置に送信する処理を行ってもよい。
 例えば、本構成を有する画像処理装置と他の画像処理装置の2台の装置で情報のやりとりを行うことにより追尾の対象を変更させる処理が実現される。
 上記した画像処理装置における前記追尾変更処理部は、前記第2撮像部における光軸方向を変更するための情報を前記追尾目標被写体についての情報として前記他の画像処理装置に送信してもよい。
 例えば、第1撮像部が撮像した第1画像内(或いは第1撮像部の画角内)における追尾目標被写体の位置と該追尾目標被写体を第2撮像部の画角内に捉えるための第2撮像部の光軸方向の設定は1対1に対応付けることが可能である。
 特に、第1撮像部と第2撮像部が近い位置に配置されており、且つ、各撮像部と被写体が一定距離以上離れている場合には、第1画像内における追尾目標被写体の位置と第2撮像部の光軸方向の対応付が容易である。
 上記した画像処理装置における前記追尾変更処理部は、前記追尾中被写体と前記追尾目標被写体が同一であると判定された場合に前記他の画像処理装置に送信する処理の頻度を低くしてもよい。
 第2撮像部が追尾中の被写体が追尾目標被写体である場合は、追尾中の被写体の追尾を継続するだけでよい。そして、そのような処理は追尾目標被写体の情報を新たに提供せずに実行可能な処理である。
 上記した画像処理装置においては、前記追尾目標被写体の移動方向を推定する移動方向推定部を備え、前記追尾変更処理部は、前記変更させる処理として前記追尾目標被写体についての情報に加えて前記移動方向を前記他の画像処理装置に送信する処理を行ってもよい。
 第2撮像部で第2画像を撮影してから、第1撮像部が撮像した第1画像に基づいて追尾目標被写体を決定し、第2撮像部を制御する画像処理装置から送信された情報に基づいて第2撮像部が追尾中の被写体を追尾中被写体として特定し、追尾目標被写体と追尾中被写体が同一の被写体であるか否かを判定し、それに応じて追尾目標被写体についての情報を他の画像処理装置に送信するまでの間に、被写体は動いていることが想定される。そして、第2撮像部が新たな追尾目標被写体を追尾するために第2撮像部の構図の変更を終えた頃には既に第2撮像部の画角内に追尾目標被写体が位置していない可能性がある。
 上記した画像処理装置における前記移動方向推定部は、前記第1撮像部において撮像された過去画像に基づいて前記移動方向を推定してもよい。
 例えば、過去数フレームの第1画像を用いることにより追尾目標被写体としての被写体の移動方向を推定することができる。
 上記した画像処理装置における前記判定処理部は、前記第2撮像部において撮像された第2画像のうち前記追尾中被写体を特定するための情報が得られた前記第2画像の撮像時刻に基づいて選択された前記第1画像を用いて同一の被写体であるか否かについての前記判定を行ってもよい。
 第2撮像部によって撮像された第2画像に基づいて追尾中被写体を特定するための情報が抽出され、該抽出された情報が本構成を備える画像処理装置に送信された場合について考えると、第2画像が撮影されてからある程度の時間が経過した後に撮像された第1画像における追尾目標被写体の位置は当該第2画像の撮像時刻における位置と異なる場合がある。そのような状況で、例えば最新の第1画像に基づいて第2撮像部における追尾中被写体を推定してしまうと、第2撮像部において追尾中の被写体を誤って特定してしまう可能性がある。
 上記した画像処理装置においては、前記判定処理部の処理及び前記追尾変更処理部の処理を実行する第1態様と、前記判定処理部の処理及び前記追尾変更処理部の処理を実行しない第2態様と、を切り替える切替処理部を備えていてもよい。
 第1態様と第2態様とを比較すると、第2態様の方が単純な制御とされ、処理負担も軽いことが想定される。具体的には、追尾目標被写体と追尾中被写体が同一の被写体かどうかを判定する処理やその判定を行うために各種の情報の送受信を行う第1態様と比較して、他の画像処理装置及び第2撮像部の処理によって追尾中の被写体についての追尾を継続するだけの第2態様の方が簡易な処理とされる。
 上記した画像処理装置における前記切替処理部は、決定された前記追尾目標被写体の移動態様に応じて前記第1態様と前記第2態様の切り替えを行ってもよい。
 例えば、追尾目標被写体の移動方向が一定であるケースや所定の範囲にとどまっているようなケース、或いは、追尾目標被写体の移動速度が低速であるようなケースでは、第2撮像部及び他の画像処理装置に閉じた処理によって追尾中の被写体をロストしてしまう虞が低いケースと言える。
 上記した画像処理装置においては、前記第1撮像部を備えていてもよい。
 例えば、画像処理装置は、第1撮像部を備えたカメラ装置とされる。
 本技術に係る画像処理装置は、第1撮像部において撮像された第1画像に基づいて決定された追尾の目標被写体である追尾目標被写体の情報を用いて、第2撮像部による被写体の追尾について制御を行う追尾制御部を備え、前記追尾制御部は、追尾中の被写体である追尾中被写体を特定するための情報を出力し、前記追尾の制御中に前記追尾目標被写体の情報が取得されない場合は、前記追尾目標被写体を変更せずに前記追尾の制御を行い、前記追尾の制御中に前記追尾目標被写体の情報が取得された場合は、新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行うものである。
 これにより、追尾制御部は、新たな追尾目標被写体の情報が取得されない場合には簡易な処理を実行することにより第2撮像部による追尾を継続することができる。
 上記した画像処理装置においては、前記追尾目標被写体の情報を他の画像処理装置から受信する受信処理部と、前記追尾制御部によって出力された前記追尾中被写体を特定するための情報を前記他の画像処理装置に送信する送信処理部と、を備え、前記追尾制御部は、前記追尾の制御中に前記追尾目標被写体の情報を前記受信処理部が受信しなかった場合は、前記追尾目標被写体を変更せずに前記追尾の制御を行い、前記追尾の制御中に前記追尾目標被写体の情報を前記受信処理部が受信した場合は、新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行ってもよい。
 例えば、本構成を有する画像処理装置と他の画像処理装置の2台の装置で情報のやりとりを行うことにより、追尾中被写体とされた被写体の追尾を継続させる処理や追尾中被写体の追尾をやめて新たに指定された追尾目標被写体についての追尾を開始させる処理が実行される。
 上記した画像処理装置における前記送信処理部は、前記第2撮像部による撮像画像の生成ごとに前記追尾中被写体を特定するための情報の送信を行ってもよい。
 これにより、他の画像処理装置に対して追尾中被写体を特定するための情報を高頻度で送信することが可能となる。
 上記した画像処理装置における前記送信処理部は、前記追尾中被写体を特定するための情報として前記第2撮像部の光軸方向に関する情報を送信してもよい。
 光軸方向に関する情報とは、所定の座標系において第2撮像部の光軸方向を一意に特定可能なベクトル情報などであってもよいし、第2撮像部の光軸方向に1対1で対応するパン方向及びチルト方向についての制御量などの情報であってもよい。
 例えば、他の画像処理装置において、第1画像内の追尾目標被写体の位置と第2撮像部の光軸方向に関する情報の対応付けが可能である場合には、上述したような光軸方向に関する情報を他の画像処理装置に送信することにより、他の画像処理装置は第2撮像部の光軸方向を特定することが可能となる。
 上記した画像処理装置における前記送信処理部は、前記追尾中被写体を特定するための情報として前記第2撮像部において撮像された第2画像を送信してもよい。
 第2撮像部及びその向きを調整するための機器の構成によっては、第2撮像部の光軸方向に関する情報を取得できない場合がある。そのような場合には、本構成のように、第2撮像部において撮像された第2画像の情報を他の画像処理装置に送信してもよい。
 上記した画像処理装置における前記受信処理部は、前記他の画像処理装置から前記追尾目標被写体の移動方向の情報を受信し、前記追尾制御部は、前記第1画像の撮像時刻と受信した前記移動方向とに基づいて算出した前記追尾目標被写体の予測位置を用いて前記追尾についての制御を行ってもよい。
 第1画像に基づいて追尾目標被写体が決定された時点の追尾目標被写体の位置と、追尾目標被写体についての情報を当該画像処理装置が受信し追尾目標被写体を第2撮像部の画角内に捉えるための制御を行った時点の追尾目標被写体の位置は、追尾目標被写体の移動により異なることが考えられる。このような場合において、追尾目標被写体の移動方向についての情報を当該画像処理装置が受信することにより、追尾目標被写体の現在の位置を推定することが可能となる。
 上記した画像処理装置においては、前記送信処理部の処理及び新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う前記追尾制御部の処理を実行する第1態様と、前記追尾目標被写体を変更せずに前記追尾の制御を継続して実行する第2態様と、を切り替える切替処理部を備えていてもよい。
 第1態様と第2態様とを比較すると、第2態様の方が単純な制御とされ、処理負担も軽いことが想定される。具体的には、追尾中被写体を追尾し続ける処理の方が、新たな追尾目標被写体の情報に基づいて新たな被写体についての追尾を開始させる処理よりも処理負担が軽く簡易な処理とされる。特に、新たな被写体についての追尾を開始させる場合には、新たな被写体が追尾目標被写体と異なっている場合などもあり、その場合には再度新たな被写体を特定して追尾を開始させる必要がある。
 上記した画像処理装置における前記切替処理部は、前記追尾制御部によって前記追尾中被写体の移動態様に応じて前記第1態様と前記第2態様の切り替えを行ってもよい。
 例えば、追尾中被写体の移動方向が一定であるケースや所定の範囲にとどまっているようなケース、或いは、追尾中被写体の移動速度が低速であるようなケースでは、他の画像処理装置から情報を取得することなく追尾中被写体の追尾を継続することが可能である。即ち、そのようなケースは、追尾中被写体をロストしてしまう虞が低いケースと言える。
 上記した画像処理装置においては、前記第2撮像部を備えていてもよい。
 例えば、画像処理装置は、第2撮像部を備えたカメラ装置とされる。
 本技術に係る画像処理システムは、第1撮像部において撮像された第1画像に基づいて追尾の目標とされた被写体を追尾目標被写体として決定する追尾目標被写体決定部と、前記追尾目標被写体の情報を用いて、第2撮像部による被写体の追尾について制御を行う追尾制御部と、前記追尾制御部により出力された情報に基づいて第2撮像部による追尾中の被写体を追尾中被写体として特定する追尾中被写体特定部と、決定された前記追尾目標被写体と特定された前記追尾中被写体とが同一の被写体であるか否かを判定する判定処理部と、前記追尾中被写体と前記追尾目標被写体が同一でないと判定された場合に前記追尾目標被写体についての情報を前記追尾制御部へと出力する追尾変更処理部と、を備え、前記追尾制御部は、前記追尾の制御中に追尾目標被写体についての情報が入力された場合には、新たな前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行い、前記追尾の制御中に前記追尾目標被写体についての情報が入力されない場合には、前記追尾目標被写体を変更せずに前記追尾の制御を行うものである。
 このような画像処理システムによっても上記した各種の作用を得ることができる。
本技術に係る撮像システムによってサッカーコートを撮像している様子を示す概略図である。 撮像システムの構成例を示すブロック図である。 情報処理装置の機能ブロック図である。 第1処理部及び第2処理部の機能ブロック図である。 変換後座標と所定領域に基づいて追尾中被写体が特定されることを説明するための図である。 追尾目標被写体と追尾中被写体が一致している状態を示す図である。 追尾目標被写体と追尾中被写体が一致していない状態を示す図である。 第1処理部が実行する処理の一例を示すフローチャートである。 第2処理部が実行する処理の一例を示すフローチャートである。 第2の実施の形態における第1処理部が実行する処理の一例を示すフローチャートである。 第3の実施の形態における第1処理部の機能ブロック図である。 第3の実施の形態における第1処理部が実行する処理の一例を示すフローチャートである。 第3の実施の形態における第2処理部の機能ブロック図である。 第3の実施の形態における第2処理部が実行する処理の一例を示すフローチャートである。 第4の実施の形態における撮像システムの構成例を示すブロック図である。 第5の実施の形態における撮像システムの構成例を示すブロック図である。
 以下、添付図面を参照し、本技術に係る実施の形態を次の順序で説明する。
<1.撮像システムの構成>
<2.情報処理装置の構成>
<3.各処理部の機能構成>
<4.フローチャート>
<4-1.第1処理部が実行する処理のフローチャート>
<4-2.第2処理部が実行する処理のフローチャート>
<5.第2の実施の形態>
<6.第3の実施の形態>
<7.第4の実施の形態>
<8.第5の実施の形態>
<9.変形例>
<10.まとめ>
<11.本技術>
<1.撮像システムの構成>
 本実施の形態の撮像システム1は、2台以上のカメラを備えて構成されている。以下の説明においては、全景を撮像するための広角カメラ2と被写体のズームアップ画像を撮像するための望遠カメラ3の2台のカメラを備えて撮像システム1が構成されている例を挙げる。但し、本技術はこれに限らず、3台以上のカメラを備えた撮像システムに適用することが可能である。
 撮像システム1は、図1に示すように、サッカーコート全体を撮像する広角カメラ2と選手個人のズームアップ画像を撮像する望遠カメラ3を備えて構成されている。
 広角カメラ2は、図2に示すように、撮像光学系やイメージセンサ等を備えて構成される第1撮像部4と、第1撮像部4から出力される撮像画像と望遠カメラ3から送信される情報を用いて各種の処理を行う第1処理部5とを備えている。
 広角カメラ2は構図の初期調整が行われた後はパン制御、チルト制御及びズーム制御が行われず構図が変更されない固定カメラとして運用される。但し、注目する被写体の位置等に応じて多少のパン制御やチルト制御やズーム制御が広角カメラ2において実行されてもよい。また、試合のインターバルなどに構図を変更する調整が行われてもよい。
 望遠カメラ3は、図2に示すように、撮像光学系やイメージセンサ等を備えて構成される第2撮像部6と、第2撮像部6による追尾制御を行うための各種の処理を行う第2処理部7と、望遠カメラ3のパン(P)制御、チルト(T)制御及びズーム(Z)制御を行うPTZ制御部8とを備えている。
 また、望遠カメラ3は、PTZ制御部8の制御対象としての雲台(不図示)を備えている。即ち、PTZ制御部8は、パン制御及びチルト制御を行うことにより雲台の姿勢制御を行い、ズーム制御を行うことにより望遠カメラ3が備えるズームレンズの位置制御を行う。
<2.情報処理装置の構成>
 広角カメラ2は第1処理部5としての各機能を備えた情報処理装置として捉えることができる。また、望遠カメラ3は第2処理部7としての各機能を備えた情報処理装置として捉えることができる。
 即ち、上述した広角カメラ2や望遠カメラ3は、上述した各機能を備えるために、情報処理装置としての構成を備えている。情報処理装置の機能ブロック図を図3に示す。
 なお、各情報処理装置が以下に示す全ての構成を備えている必要はなく、一部のみを備えていてもよい。
 各情報処理装置のCPU(Central Processing Unit)71は、図3に示すように、ROM(Read Only Memory)72や例えばEEP-ROM(Electrically Erasable Programmable Read-Only Memory)などの不揮発性メモリ部74に記憶されているプログラム、または記憶部79からRAM(Random Access Memory)73にロードされたプログラムに従って各種の処理を実行する。また、RAM73にはCPU71が各種の処理を実行する上で必要なデータなども適宜記憶される。
 CPU71、ROM72、RAM73、不揮発性メモリ部74は、バス83を介して相互に接続されている。このバス83にはまた、入出力インタフェース75も接続されている。
 入出力インタフェース75には、操作子や操作デバイスよりなる入力部76が接続される。
 例えば入力部76としては、キーボード、マウス、キー、ダイヤル、タッチパネル、タッチパッド、リモートコントローラ等の各種の操作子や操作デバイスが想定される。
 入力部76によりユーザの操作が検知され、入力された操作に応じた信号はCPU71によって解釈される。
 また入出力インタフェース75には、LCD(Liquid Cristal Display)或いは有機ELパネルなどよりなる表示部77や、スピーカなどよりなる音声出力部78が一体又は別体として接続される。
 表示部77は各種表示を行う表示部であり、例えば情報処理装置としての広角カメラ2や望遠カメラ3の筐体に設けられるディスプレイデバイスや、筐体に接続される別体のディスプレイデバイス等により構成される。本実施の形態における広角カメラ2や望遠カメラ3であれば、背面モニタなどが表示部77に相当する。
 表示部77は、CPU71の指示に基づいて表示画面上に各種の画像処理のための画像や処理対象の動画等の表示を実行する。また表示部77はCPU71の指示に基づいて、各種操作メニュー、アイコン、メッセージ等、即ちGUI(Graphical User Interface)としての表示を行う。
 入出力インタフェース75には、ハードディスクや固体メモリなどより構成される記憶部79や、モデムなどより構成される通信部80が接続される場合もある。
 通信部80は、インターネット等の伝送路を介しての通信処理や、各種機器との有線/無線通信、バス通信などによる通信を行う。
 入出力インタフェース75にはまた、必要に応じてドライブ81が接続され、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブル記憶媒体82が適宜装着される。
 ドライブ81により、リムーバブル記憶媒体82からは画像ファイル等のデータファイルや、各種のコンピュータプログラムなどを読み出すことができる。読み出されたデータファイルは記憶部79に記憶されたり、データファイルに含まれる画像や音声が表示部77や音声出力部78で出力されたりする。またリムーバブル記憶媒体82から読み出されたコンピュータプログラム等は必要に応じて記憶部79にインストールされる。
 この情報処理装置では、例えば本実施の形態の処理のためのソフトウェアを、通信部80によるネットワーク通信やリムーバブル記憶媒体82を介してインストールすることができる。或いは当該ソフトウェアは予めROM72や記憶部79等に記憶されていてもよい。
 CPU71が各種のプログラムに基づいて処理動作を行うことで、広角カメラ2の第1処理部5や望遠カメラ3の第2処理部7における後述する必要な情報処理や通信処理が実行される。
 なお、広角カメラ2や望遠カメラ3を構成する情報処理装置は、図3のような情報処理装置が単一で構成されることに限らず、複数の情報処理装置がシステム化されて構成されてもよい。複数の情報処理装置は、LAN等によりシステム化されていてもよいし、インターネット等を利用したVPN等により遠隔地に配置されたものでもよい。複数の情報処理装置には、クラウドコンピューティングサービスによって利用可能なサーバ群(クラウド)としての情報処理装置が含まれてもよい。
<3.各処理部の機能構成>
 広角カメラ2が備える第1処理部5と望遠カメラ3が備える第2処理部7は各種の処理を行うための各部を備えている。一例について具体的に図4を参照して説明する。
 第1処理部5は、追尾目標被写体決定部9と、追尾中被写体情報取得部10と、変換処理部11と、追尾中被写体特定部12と、判定処理部13と、移動方向推定部14と、追尾変更処理部15と、通信処理部16とを備えている。
 追尾目標被写体決定部9は、第1撮像部4において撮像された撮像画像に基づいて追尾対象の被写体を決定する処理を行う。以降の説明においては、第1撮像部4において撮像された画像を「第1画像GC1」と記載し、第1画像GC1に基づいて決定された追尾対象の被写体を「追尾目標被写体T1」と記載する。
 追尾目標被写体T1の決定手法は各種考えられる。例えば、図1に示すようにサッカーの試合であれば、ボールを持った選手を追尾目標被写体T1として決定することが考えられる。この場合には、例えば、背景差分法を用いて候補の被写体を検出し、その中からボールに合致する被写体を特定する。そして、ボールとして特定した被写体に最も近い位置にいる選手やボールに触れている選手などを追尾目標被写体T1として決定する。
 また、直前にゴールを決めた選手を一定時間追尾目標被写体T1として決定することも考えられる。この場合には、得点を決めた選手の顔や髪型等の特徴を用いたマッチング処理を行いスコアの高い被写体を当該選手として特定し、追尾目標被写体T1として決定してもよい。或いは、選手のユニフォームに描かれた背番号を用いてマッチング処理等を行うことにより当該選手を特定してもよい。
 更には、各選手を一定時間ごとに追尾目標被写体T1として決定することで全選手のズームアップ画像が撮像されるようにしてもよい。例えば、試合開始前の選手紹介などに好適である。
 このようにして、追尾目標被写体決定部9は各選手やボール、或いは、審判などの各被写体から追尾目標被写体T1を決定する処理を行う。
 追尾中被写体情報取得部10は、望遠カメラ3の第2撮像部6によって追尾中の被写体を特定するための情報を取得する処理を行う。以降の説明においては、第2撮像部6によって追尾中の被写体を「追尾中被写体T2」と記載する。また、第2撮像部6において撮像された画像を「第2画像GC2」と記載する。
 追尾中被写体T2を特定するための情報は各種考えられる。本実施の形態においては、追尾中被写体T2を特定するための情報として第2撮像部6の光軸方向を表す情報を取得する。
 そのために、本実施の形態においては、各撮像部と被写体の距離に対して第1撮像部4と第2撮像部6の距離が近くなるように広角カメラ2及び望遠カメラ3が設置されている。例えば、撮像部と被写体の距離が数十mとされ、第1撮像部4と第2撮像部6の距離が数十cmとされている。
 第2撮像部6の光軸方向が分かれば自ずと第2撮像部6の画角内に捉えられている被写体、即ち追尾中被写体T2を特定することが可能である。追尾中被写体T2を特定する処理は後述の追尾中被写体特定部12が実行する処理である。
 なお、広角カメラ2と望遠カメラ3の位置関係が把握できていれば、各撮像部と被写体の距離に対して必ずしも第1撮像部4と第2撮像部6の距離が近くなるように広角カメラ2及び望遠カメラ3が設置されていなくてもよい。
 変換処理部11は、広角カメラ2において撮像された第1画像GC1上の被写体の座標(位置)と望遠カメラ3の第2撮像部6の光軸方向を表す情報(例えばパン方向における制御量とチルト方向における制御量)の変換を行う。
 例えば、第1画像GC1上の追尾目標被写体T1の座標を第2撮像部6の光軸方向を表す情報に変換する。広角カメラ2の第1処理部5は、変換された情報を望遠カメラ3に送信することで、望遠カメラ3は追尾目標被写体T1を大写しにすることが可能となる。
 また、変換処理部11は、望遠カメラ3から受信した第2撮像部6の光軸方向を表す情報を第1画像GC1上の座標に変換する。これにより、広角カメラ2の第1処理部5は、望遠カメラ3の第2撮像部6における追尾中被写体T2を特定することができる。
 追尾中被写体特定部12は、変換処理部11によって変換された第1画像GC1における座標に基づいて第1画像GC1に写る被写体の中から第2撮像部6による追尾中の被写体を特定する。
 例えば、図5に示すように、第1画像GC1における水平方向の座標をxで表し垂直方向の座標をyで表し、変換処理部11によって変換された第1画像GC1における座標を「変換後座標Ca」とする。追尾中被写体特定部12は、変換後座標Caを中心とした所定の範囲、例えば、第2撮像部6の画角情報に基づく所定領域Ar1に少なくとも一部が位置している被写体を追尾中被写体T2として特定する。
 判定処理部13は、追尾中被写体特定部12によって特定された追尾中被写体T2と追尾目標被写体決定部9が決定した追尾目標被写体T1が同一の被写体であるか否かを判定する。
 追尾中被写体特定部12及び判定処理部13の処理内容についていくつかの例を示す。
 先ず、図6を用いて一例を示す。第1画像GC1において追尾目標被写体T1が撮像された領域を「目標領域ArD」とすると、変換後座標Caに基づく所定領域Ar1は目標領域ArDに対して一部の領域が重なるように位置している。更に、追尾目標被写体T1の一部が所定領域Ar1内に位置している。このような場合には、追尾中被写体特定部12は所定領域Ar1内に位置する被写体を追尾中被写体T2として特定する。従って、判定処理部13は、追尾目標被写体T1と追尾中被写体T2は同一の被写体であると判定する。
 図7を用いて他の例を示す。第1画像GC1において追尾目標被写体T1が撮像された領域である目標領域ArDに対して、変換後座標Caに基づく所定領域Ar1は一部が重なるように位置している。また、所定領域Ar1には、手前に位置する被写体として撮像された被写体H1の一部と、奥に位置する被写体として撮像された被写体H2の一部が位置している。そして、被写体H1は追尾目標被写体T1である。このことから、第2撮像部6の画角内に追尾目標被写体T1の一部が位置しているといえる。
 但し、被写体H2は被写体H1よりも第2撮像部6の画角内の中央部に位置している。この場合には、追尾中被写体特定部12は被写体H2が追尾中被写体T2であると特定する。従って、判定処理部13は、図7に示す状況においては追尾目標被写体T1と追尾中被写体T2は同一の被写体ではないと判定する。
 なお、この判定をより確実に行うために、追尾中被写体特定部12は所定領域Ar1の移動方向を加味してもよい。図7に示す例であれば、被写体H1は第1撮像部4の画角内を右から左へ向かって移動している被写体である。また、被写体H2は第1撮像部4の画角内を左から右へ向かって移動している被写体である。
 従って、過去の所定領域Ar1の座標の履歴に基づいて所定領域Ar1の移動方向を特定し、所定領域Ar1が右から左へ移動している場合には被写体H1を追尾中被写体T2として特定し、所定領域Ar1が左から右へ移動している場合には被写体H2を追尾中被写体T2として特定してもよい。即ち、所定領域Ar1の移動方向と同方向に移動している被写体を追尾中被写体T2として特定する。
 なお、このような処理は、所定領域Ar1に複数の被写体が位置している場合に行えばよい。所定領域Ar1に位置している被写体が一人(一つ)である場合には、当該被写体を追尾中被写体T2として特定すればよい。
 第2処理部7が第2撮像部6の光軸方向に関する情報を取得するタイミングと、広角カメラ2の第1処理部5に当該情報が送信された後に第1処理部5によって当該情報に基づいて追尾中被写体T2が特定されるタイミングの間には多少のタイムラグが存在する。そして、そのタイムラグの存在により、第2撮像部6による追尾が行われていた被写体と異なる被写体が追尾中被写体T2として特定されてしまう虞がある。
 これを防止するために、追尾中被写体特定部12は、第2処理部7が第2撮像部6の光軸方向に関する情報を取得する処理の対象とされた第2画像GC2が撮像された撮像時刻に近い時刻に撮像された第1画像GC1を取得し、当該第1画像GC1を用いて上記したような追尾中被写体T2の特定処理を実行してもよい。
 例えば、第2画像GC2が撮像された撮像時刻に最も近い時刻に撮像された第1画像GC1を選択することで、追尾中被写体T2が正しく特定される可能性を高めることができる。
 移動方向推定部14及び追尾変更処理部15は、判定処理部13によって追尾目標被写体T1と追尾中被写体T2が同一の被写体でないと判定された場合に各種の処理を実行する。
 具体的に、移動方向推定部14は、追尾目標被写体T1の移動方向を推定する処理を行う。例えば、第1撮像部4において撮像された第1画像GC1について最新フレームから過去フレームに亘って記憶しておき、追尾目標被写体T1の移動方向を推定する。この処理は、フレーム毎に追尾目標被写体T1のマッチング処理を行うことによりフレーム毎の追尾目標被写体T1の座標を特定し、その座標の変化から追尾目標被写体T1の移動方向を推定する。
 また、移動方向推定部14は、追尾目標被写体T1の移動方向だけでなく移動速度を推定してもよい。
 なお、第1処理部5が移動方向推定部14を含まずに構成されていてもよい。
 追尾変更処理部15は、第2撮像部6による追尾の対象の被写体、即ち追尾中被写体T2を変更させるための処理を行う。
 例えば、上述した変換処理部11の処理によって追尾目標被写体T1の座標情報から変換された第2撮像部6の光軸方向を表す情報を望遠カメラ3に送信することにより、第2撮像部6による追尾中被写体T2を追尾目標被写体T1と同一の被写体に変えさせる処理を望遠カメラ3の第2処理部7に実行させる。
 移動方向推定部14及び追尾変更処理部15におけるこのような処理は、例えば、望遠カメラ3から追尾中被写体T2を特定するための情報を取得するごとに実行され得る。即ち、望遠カメラ3から追尾中被写体T2を特定するための情報を取得し、且つ、追尾中被写体T2が追尾目標被写体T1と異なる被写体であった状況が継続する限り、望遠カメラ3から情報が取得されるごとに実行される。
 なお、判定処理部13によって追尾目標被写体T1と追尾中被写体T2が同一の被写体であると判定された場合は、第2撮像部6による被写体の追尾が意図した通りに行われていることを示す。この場合における移動方向推定部14及び追尾変更処理部15が実行する処理はいくつか考えられる。
 例えば、移動方向推定部14による追尾目標被写体T1の移動方向や移動速度の情報を算出する処理は実行せずに、追尾変更処理部15による追尾目標被写体T1を追尾するための第2撮像部6の光軸方向を表す情報を送信する処理のみを実行してもよい。
 或いは、追尾変更処理部15による当該送信処理の頻度を低下させてもよい。例えば、上述の例では、追尾中被写体T2を特定するための情報を望遠カメラ3から取得するたびに追尾変更処理部15による送信処理を実行する例を示したが、追尾中被写体T2を特定するための情報を望遠カメラ3から所定回数取得するまで追尾変更処理部15による送信処理を控えてもよい。これにより、第1処理部5の処理負担軽減が図られる。
 また、追尾目標被写体T1と追尾中被写体T2が同一の被写体であると判定されている状況が継続している限り追尾変更処理部15による情報の送信処理を行わなくてもよい。この場合には、望遠カメラ3の第2処理部7は、広角カメラ2から第2撮像部6の光軸方向を表す情報を受信していない間は正しい被写体を追尾することができていることを認識することができると共に、当該情報を広角カメラ2から受信した場合には追尾中の被写体が誤っていることを認識することができる。
 通信処理部16は、上述した各部の処理に応じて望遠カメラ3と有線または無線による通信を行う。これらの通信処理は、広角カメラ2が備える図3の通信部80を利用して実現される。
 第2処理部7は、追尾制御部17と、通信処理部18とを備えている(図4参照)。
 追尾制御部17は、第2撮像部6による被写体の追尾を適切に行うための各種の処理を行う。
 具体的には、追尾制御部17は、第2撮像部6において撮像された画像に基づいて追尾中被写体T2の追尾を継続する処理を行う。なお、第2撮像部6によって撮像された画像は上述したように第2画像GC2とする。
 追尾の継続処理は、広角カメラ2から情報を受信せずに望遠カメラ3の内部に閉じた処理で実現可能である。この追尾処理を「ローカル追尾処理」と記載する。
 ローカル追尾処理では、追尾制御部17は、望遠カメラ3の第2撮像部6において撮像された第2画像GC2を取得するごとに追尾中被写体T2についてのマッチング処理を行う。マッチング処理によって新たに特定した第2画像GC2上における追尾中被写体T2の座標に応じて、追尾中被写体T2が第2撮像部6の画角の中央に位置するようにPTZ制御部8に駆動指示を送る。PTZ制御部8は該指示に従って雲台の制御を行うことにより第2撮像部6の画角の中央付近に追尾中被写体T2が位置するように構図を変更する。
 なお、PTZ制御部8は、第2撮像部6の画角に対して追尾中被写体T2が大きくなりすぎたり小さくなりすぎたりしないようにズーム制御を行ってもよい。
 追尾制御部17は、ローカル追尾処理以外にも、新たに設定された追尾目標被写体T1に対する追尾を開始させる処理を実行可能とされている。
 例えば、第2撮像部6による追尾中被写体T2が追尾目標被写体T1とは異なる場合に広角カメラ2から追尾目標被写体T1を追尾するための情報として第2撮像部6の光軸方向に関する情報が送信されてくる。
 追尾制御部17は、受信した光軸方向に関する情報に応じてPTZ制御部8に駆動指示を行うことで第2撮像部6の光軸方向の変更を行い、第2撮像部6の画角内に追尾目標被写体T1を捉えるようにする。
 なお、広角カメラ2において追尾目標被写体T1の座標情報から望遠カメラ3の第2撮像部6の光軸方向についての情報を算出する処理と、その情報を望遠カメラ3に送信する処理及び望遠カメラ3が情報を受信する処理と、を行う間に追尾目標被写体T1が移動してしまい、新たな追尾目標被写体T1の追尾を正常に開始できない虞がある。
 これに対応するために、広角カメラ2は移動方向推定部14を備えていてもよい。移動方向推定部14は、追尾目標被写体T1についての移動方向と移動速度を前述のように算出している。望遠カメラ3の追尾制御部17は、追尾目標被写体T1についての移動方向及び移動速度の情報を受信し、これらの情報に基づいて追尾目標被写体T1の移動先を予測する処理を行う。このとき、広角カメラ2において追尾目標被写体T1の座標情報の算出に用いられた第1画像GC1の撮像時刻と現時刻の時間差を考慮して追尾目標被写体T1の予測位置(予測座標)を算出してもよい。
 追尾制御部17は、予測位置に応じて追尾目標被写体T1を第2撮像部6の画角内に捉えるように制御することで、正しい被写体についての追尾処理を行うことができる。
 このように、追尾制御部17は、新たに設定された追尾目標被写体T1を画角内に捉えるように第2撮像部6の光軸方向の調整を行いローカル追尾制御を開始させる処理(第1処理)や、現時点で追尾している追尾中被写体T2についてのローカル追尾処理を継続させる処理(第2処理)を実行可能とされている。
 追尾制御部17は、第1処理と、第2処理とを状況に応じて切り替える。
 例えば、広角カメラ2から第2撮像部6の光軸方向に関する情報と追尾目標被写体T1の移動方向及び移動速度に関する情報を取得した場合には、追尾中被写体T2が誤った被写体であると推定して第1処理を行う。
 一方、広角カメラ2からこれらの情報を受信しなかった場合には、第2撮像部6による追尾中被写体T2は正しい被写体であると推定して第2処理を実行する。
 このように、追尾制御部17は、追尾中被写体T2が適切な被写体である場合には、ローカル追尾処理を継続させる第2処理を行う。なお、第2処理は、第1処理よりも相対的に処理負担が軽いため、追尾中被写体T2が正しい被写体である場合に第2処理を行うことにより、第2処理部7の処理負担が増大してしまうことを防止することができる。
 なお、追尾目標被写体T1と追尾中被写体T2が同一の被写体であると判定されている状況が継続している限り、追尾目標被写体T1の移動方向や移動速度に関する情報を含まずに第2撮像部6の光軸方向に関する情報のみを広角カメラ2から受信するように構成されていてもよい。また、その場合には、追尾目標被写体T1と追尾中被写体T2が同一の被写体でないと判定された場合に追尾目標被写体T1の移動方向や移動速度に関する情報と第2撮像部6の光軸方向に関する情報の全てを広角カメラ2から受信するように構成されている。
 この場合には、追尾目標被写体T1と追尾中被写体T2が同一の被写体であると判定されている場合であっても第2撮像部6の光軸方向に関する情報を広角カメラ2から受信しているため、通信環境が正常であることを確認することができる。
 追尾制御部17は、追尾中被写体T2を特定するための情報を通信処理部18に出力することにより、通信処理部18を介して広角カメラ2に送信する。
 例えば、現時点における第2撮像部6の光軸方向を特定するための情報として、パン方向の制御量やチルト方向の制御量等を出力する。このとき、追尾中被写体特定部12が追尾中被写体T2の特定を行う際に上述したタイムラグを考慮できるように撮像時刻を通信処理部18に出力してもよい。
 通信処理部18は、上述した追尾制御部17の処理に応じて広角カメラ2と有線または無線による通信を行う。これらの通信処理は、望遠カメラ3が備える図3の通信部80を利用して実現される。
 具体的に通信処理部18は、広角カメラ2の通信処理部16から送信される情報を受信する処理を行う。例えば、第2撮像部6の光軸方向を調整するための情報としてパン方向の制御量の情報やチルト方向の制御量の情報などを受信する。また、通信処理部18は、光軸方向を調整するための情報として、追尾目標被写体T1の移動方向や移動速度の情報を受信してもよい。
 通信処理部18は、追尾中被写体T2を特定するための情報として、第2撮像部6の光軸方向に関する情報(例えばパン方向の制御量やチルト方向の制御量の情報など)を広角カメラ2の通信処理部16に送信する処理を行う。
 通信処理部18は、第2撮像部6において追尾中の被写体が誤っている状態を広角カメラ2が速やかに検出できるように、第2画像GC2を得るごと(フレームごと)に第2撮像部6の光軸方向に関する情報を送信してもよい。
<4.フローチャート>
 広角カメラ2の第1処理部5が実行する処理及び望遠カメラ3の第2処理部7が実行する処理についてのフローチャートを説明する。
<4-1.第1処理部が実行する処理のフローチャート>
 第1処理部5が実行する処理のフローチャートの一例を図8に示す。なお、図8に示す一連の処理は、第1画像GC1の情報が入力されるごとに実行される処理である。例えば、第1撮像部4が30fpsで撮像を行っている場合には、図8に示す一連の処理が1秒間に30回繰り返し実行される。
 なお、第1画像GC1の情報の入力が数回行われるごとに図8に示す一連の処理を実行してもよい。
 第1処理部5はステップS101において、第1画像GC1の入力を受け付ける。第1画像GC1は、第1撮像部4から出力される。
 第1画像GC1の入力受付を完了した後、第1処理部5はステップS102において、追尾目標被写体T1を決定する処理を行う。この処理は、例えば、第1処理部5の追尾目標被写体決定部9によって実行される。
 第1処理部5はステップS103において、追尾目標被写体T1が決定されたか否かを判定する分岐処理を行う。例えば、背景差分法などを用いた結果、背景以外の被写体が存在しなかった場合には、追尾目標被写体T1が決定されない場合がある。そのような場合には、追尾目標被写体T1が決定されていないと判定し、第1処理部5はステップS104において、追尾停止指示を望遠カメラ3に対して送信する。
 これにより望遠カメラ3の第2撮像部6による追尾制御が停止される。なお、追尾制御が開始されていない場合には、追尾制御の停止状態が継続される。
 一方、追尾目標被写体T1を決定済みであると判定した場合、第1処理部5はステップS105において、望遠カメラ3からの情報を受信する。ここで受信される情報は、追尾中被写体T2を特定するための情報であり、例えば、第2撮像部6の光軸方向についての情報である。
 続いて、第1処理部5はステップS106において、望遠カメラ3から情報を受信したか否かを判定する処理を行う。初期状態においては、望遠カメラ3の第2撮像部6は被写体の追尾処理を開始しておらず、望遠カメラ3は広角カメラ2に対して第2撮像部6の光軸方向に関する情報などを送信していない。従って、初期状態におけるステップS106の判定結果は「No」とされる。
 その場合には、第1処理部5はステップS107において、座標角度変換処理を行う。座標角度変換処理は、変換処理部11によって実行される処理であり、具体的には、追尾目標被写体T1についての第1画像GC1上における座標を第2撮像部6の光軸方向を表す情報に変換する処理である。第2撮像部6の光軸方向を表す情報は第2撮像部6の撮像角度に関する情報と換言することができる。
 次に、第1処理部5はステップS108において、追尾目標被写体T1についての情報を送信する処理を行う。この処理では、例えば、追尾目標被写体T1を第2撮像部6の画角内に収めるためのパン方向の制御量情報やチルト方向の制御量情報などが望遠カメラ3に送信される。
 これにより、望遠カメラ3の第2撮像部6による追尾目標被写体T1の追尾制御が開始される。
 望遠カメラ3の第2撮像部6による追尾処理が開始されると、第2画像GC2の撮像時など所定のタイミングで望遠カメラ3から追尾中被写体T2を特定するための情報が送信されてくる。
 第1処理部5は、望遠カメラ3から追尾中被写体T2を特定するための情報を受信した場合には、ステップS106において「Yes」と判定しステップS109へと進む。
 第1処理部5はステップS109において、過去フレームの第1画像GC1を選択する。この処理は、第1処理部5が追尾中被写体T2を適切に特定するための処理であり、望遠カメラ3において追尾中被写体T2を特定するための情報を生成したタイミングで撮像された第1画像GC1を選択する処理である。
 第1処理部5はステップS110において、角度座標変換処理を行う。この処理は、変換処理部11によって実行される処理であり、具体的には、追尾中被写体T2を特定するための情報として受信した第2撮像部6の光軸方向を表す情報をステップS109で選択した第1画像GC1上における追尾中被写体T2の座標に変換する処理である。
 これにより、第1処理部5は、選択された第1画像GC1上において追尾目標被写体T1の座標と追尾中被写体T2の座標を特定することができる。
 第1処理部5はステップS111において、追尾目標被写体T1と追尾中被写体T2が同一の被写体であるか否かを判定する分岐処理を行う。
 同一の被写体であると判定した場合、第1処理部5は図8に示す一連の処理を終了する。一方、同一の被写体でないと判定した場合、第1処理部5はステップS107の処理を行うことにより追尾目標被写体T1の座標を第2撮像部6の光軸方向を表す情報に変換し、ステップS108の処理で望遠カメラ3に送信する。
<4-2.第2処理部が実行する処理のフローチャート>
 第2処理部7が実行する処理のフローチャートの一例を図9に示す。第2処理部7は、望遠カメラ3の電源が落とされるなど所定の条件が成立するまでは図9に示す一連の処理を繰り返し実行する。
 第2処理部7はステップS201において、広角カメラ2からの情報を受信したか否かを判定する。この情報は、先の図8のステップS108に示す送信処理によって広角カメラ2から送信される情報であり、追尾目標被写体T1についての情報である。例えば、第2撮像部6の光軸方向に関する情報である。或いは、広角カメラ2から追尾処理を停止するための停止信号が送信されてくる場合もある。このような情報も含めて第2処理部7はステップS201で受信の有無を判定している。
 ステップS201において情報を受信していないと判定した場合、第2処理部7はステップS202において、ローカル追尾処理を実行中であるか否かを判定する分岐処理を行う。
 ローカル追尾処理を実行中でない場合、第2処理部7はステップS201の処理へと戻る。即ち、ローカル追尾処理を実行していない場合におけるステップS202の処理は、広角カメラ2から追尾目標被写体T1についての情報を取得するまで待機する処理といえる。
 ローカル追尾処理を実行中であると判定した場合、第2処理部7はステップS203において、ローカル追尾処理を行う。この処理では、第2処理部7は、第2撮像部6において撮像された最新フレームとしての第2画像GC2を取得し、1フレーム前に取得済みの過去フレームとしての第2画像GC2における追尾中被写体T2の撮像領域を用いたマッチング処理等を行うことにより最新フレームにおける追尾中被写体T2の座標を特定する。更に、当該新たな座標が画角の中央になるようにPTZ制御部8に指示を送ることで第2処理部7はローカル追尾処理を行う。
 次に、第2処理部7はステップS204において、追尾中被写体T2を特定するための情報として、例えば、第2撮像部6の光軸方向についての情報を広角カメラ2に送信する。第2処理部7はステップS204を実行した後は再びステップS201の処理へと戻る。
 即ち、広角カメラ2から情報を受信せずにローカル追尾中である状態が継続する限り、第2処理部7はステップS203でローカル追尾処理を行いつつステップS204で追尾中被写体T2を特定するための情報の送信を繰り返し行う。
 広角カメラ2から追尾目標被写体T1についての情報を受信したと判定した場合、第2処理部7はステップS205において、追尾停止信号を受信したか否かを判定する。追尾停止信号は、例えば、撮像システム1の撮像対象である試合が終了してしまい撮像すべき被写体が存在しなくなった場合や、所定の時間(試合時間)が経過した場合や、作業者によって撮像システム1を停止させる操作が行われた場合などに広角カメラ2から受信する情報である。なお、これらの情報は、広角カメラ2を介さずに直接望遠カメラ3に入力されてもよい。
 追尾停止信号を受信したと判定した場合、第2処理部7はステップS206において、初期状態に遷移する処理を行う。初期状態とは、例えば、望遠カメラ3における第2撮像部6の光軸方向が撮像対象空間の中央部を向く方向となるようにPTZ制御部8に指示を送る。撮像対象空間の中央部とは、例えばサッカーコートであれば、センターサークルなどである。これにより、撮像の再開に伴って指定された追尾目標被写体T1を第2撮像部6の画角内に収めるためのパン方向及びチルト方向の制御量が大きくならずに済むため、速やかに追尾制御を開始させることができる。
 なお、ステップS206において第2撮像部6において撮像された第2画像GC2が一時的に記憶されているメモリ領域をクリアする処理などを行ってもよい。
 初期状態に遷移した後、第2処理部7はステップS207において、カメラ制御を停止させる処理を行う。これにより、望遠カメラ3の撮像動作が停止される。その後、第2処理部7はステップS201の処理へと戻る。
 即ち、一度カメラ制御を停止した後は、再び広角カメラ2から追尾目標被写体T1についての情報などを受信するまでステップS201及びステップS202の確認処理が繰り返し実行される。
 広角カメラ2から受信した情報が追尾停止信号でなかった場合、即ち、広角カメラ2から追尾目標被写体T1についての情報を受信した場合、第2処理部7はステップS208において、追尾目標被写体T1の現在位置を予測する処理を行う。この処理は、上述したように、広角カメラ2から受信した追尾目標被写体T1についての移動方向及び移動速度の情報に基づいて追尾目標被写体T1の移動先を予測する処理である。
 そして、第2処理部7はステップS209において、望遠カメラ3の第2撮像部6の画角内に追尾目標被写体T1が位置するように光軸方向を調整する処理を行う。この処理は、PTZ制御部8に指示を送ることにより実現される。
 第2処理部7はステップS210において、ローカル追尾制御を開始する。
 ステップS210の処理を実行した後は、第2処理部7はステップS204で追尾中被写体T2を特定するための情報を広角カメラ2に送信する。
 このように、ステップS210でローカル追尾制御を開始させた後は、広角カメラ2から新たな追尾目標被写体T1についての情報を受信するまで、第2処理部7はステップS201及びステップS202における確認処理を実行し、ステップS203のローカル追尾処理が実行されることで、追尾中被写体T2の追尾が継続される。
<5.第2の実施の形態>
 第1の実施の形態においては、第1処理部5の追尾中被写体情報取得部10が取得する追尾中被写体T2を特定するための情報が第2撮像部6の光軸方向を表す情報である例を説明した。
 第2の実施の形態においては、第1の実施の形態と異なり、追尾中被写体T2を特定するための情報として第2撮像部6において撮像された第2画像GC2を追尾中被写体情報取得部10が取得する。
 第2の実施の形態における第1処理部5及び第2処理部7が実行する処理について説明する。
 図10は、第1処理部5が実行する処理である。なお、第1の実施の形態における第1処理部5が実行する図5の各処理と同一の処理については、同一の符号を付し適宜説明を省略する。
 第1処理部5は、第1画像GC1の取得ごとに図10に示す一連の処理を実行する。即ち、第1処理部5は、画像入力を受け付け(ステップS101)、追尾目標被写体T1を決定し(ステップS102)、追尾目標被写体T1が決定されたか否かを判定した(ステップS103)後、望遠カメラ3から追尾中被写体T2を特定するための情報を取得する(ステップS105)。この情報は、第2撮像部6において撮像された第2画像GC2である。
 第1処理部5は、ステップS105において、第2画像GC2と共に第2画像GC2の撮像時刻や撮像倍率等の情報を取得する。
 第1処理部5は、第2画像GC2の受信を確認(ステップS106)できた場合には、ステップS109において過去フレームを選択する。このとき選択する過去フレームは、ステップS105で第2処理部7から受信した第2画像GC2の撮像時刻に最も近い時刻に撮像された過去フレームである。
 第1処理部5はステップS121において、追尾中被写体T2を特定する処理を行う。追尾中被写体T2の特定においては、例えば、第2画像GC2を撮像したときの撮像倍率の情報を用いて第2画像GC2の拡大または縮小を行うことにより、第1画像GC1と第2画像GC2における被写体の大きさを統一させる。
 そして、第1画像GC1と第2画像GC2を用いたマッチング処理を行うことにより、第1画像GC1における第2撮像部6の撮像位置を特定する。
 これにより、第2撮像部6が追尾している追尾中被写体T2を特定することが可能となる。
 その後のステップS111、ステップS107及びステップS108の各処理については、図8に示す処理と同様の処理であるため、説明を省略する。
 第2処理部7は、図9に示す一連の処理を実行する。なお、ステップS204以外の各処理については、第1の実施の形態と同様の処理である。
 ステップS204において、第2処理部7は、追尾中被写体T2を特定するための情報として、第2撮像部6において撮像された第2画像GC2を第1処理部5へ送信する。
 これにより、第1処理部5は上述したマッチング処理を実現することができる。
<6.第3の実施の形態>
 第3の実施の形態では、上述したように第1処理部5の処理結果に応じて第2処理部7が追尾目標被写体T1の追尾を行うモード(第1態様)と、第1処理部5の処理結果によらず第2処理部7が第2画像GC2に基づいて追尾中被写体T2の追尾を継続するモード(第2態様)とを切り換える例について説明する。
 図11に示すように、本実施の形態における第1処理部5は、追尾目標被写体決定部9と、追尾中被写体情報取得部10と、変換処理部11と、追尾中被写体特定部12と、判定処理部13と、移動方向推定部14と、追尾変更処理部15と、通信処理部16に加えて切替処理部21を備えている。
 切替処理部21は、前述の第1態様と第2態様の切り替え処理を行う。具体的な切り替え処理について、図12を参照して説明する。なお、図8に示す各処理と同様の処理については同一の符号を付し適宜説明を省略する。
 第1処理部5は、ステップS101及びステップS102の処理を実行することにより追尾目標被写体T1を決定する処理を実行した後、ステップS103において、追尾目標被写体T1が決定されたか否かを判定する。追尾目標被写体T1が決定できなかった場合には、第1の実施の形態と同様にステップS104の追尾停止指示を送信して一連の処理を終了させる。
 一方、追尾目標被写体T1が決定されたと判定した場合、第1処理部5はステップS131へと進み、追尾目標被写体T1の動きが低速であるか否か、或いは、規則的であるか否かを判定する。
 この処理では、第1画像GC1の過去フレームの情報などを用いて追尾目標被写体T1の移動速度を推定する。そして、移動速度が所定速度未満である場合には、追尾目標被写体T1の移動速度は低速であると判定する。
 或いは、この処理において追尾目標被写体T1の動きが等速直線運動や円運動などの規則的な動きであるか否かを判定する。
 追尾目標被写体T1の動きが低速であると判定された場合や規則的な動きであると判定された場合には、第1処理部5は図12に示す一連の処理を終了する。即ち、追尾目標被写体T1と追尾中被写体T2が同一の被写体であるか否かを判定する処理を行わない。これにより、第1処理部5は追尾中被写体T2を変更させる処理を実行しない。
 これに応じて、第2処理部7は、第2画像GC2に基づいて追尾中被写体T2の追尾を継続させる処理、即ちローカル追尾処理を行う。
 これは、追尾目標被写体T1の動きが低速であったり規則的であったりする場合は、第2撮像部6による被写体追尾が正常に行われる可能性が高い状態、換言すれば、目標とは異なる被写体を追尾してしまう可能性が低い状態と考えられるためである。ローカル追尾処理を実行することにより各処理部の処理負担の軽減を図りつつ追尾目標被写体T1を追尾することができる。
 但し、第1処理部5が第2処理部7に対して追尾目標被写体T1の情報をまだ送信しておらず、第2撮像部6による追尾目標被写体T1の追尾が開始されていない場合はこの限りではない。この場合には、追尾目標被写体T1の動きが低速であっても、或いは、規則的であっても、ステップS107の座標角度変換処理とステップS108の追尾目標被写体T1についての情報を送信する処理が実行されるようにする。
 なお、追尾目標被写体T1の動きが低速である場合や、規則的である場合であっても、ステップS107及びステップS108の処理を実行するようにしてもよい。即ち、座標角度変換処理を行い、追尾目標被写体T1についての情報を送信する処理を実行してもよい。この場合には、第2処理部7において受信した光軸方向を表す情報と実際の光軸方向が所定以上ずれている場合に、第2処理部7は誤った被写体を追尾していると判定してもよい。そして、第2処理部7は、受信した光軸方向を表す情報に基づいて新たな被写体についての追尾を開始する。
 第1態様とは、図12におけるステップS101~ステップS103、ステップS131(No判定)、ステップS105~ステップS108の各処理をループする状態と言える。
 また、第2態様とは、図12におけるステップS101、ステップS102、ステップS103、ステップS131(Yes判定)の各処理をループする状態と言える。
 第3の実施の形態において第1態様と第2態様を切り換える切替処理部は、第2処理部7が備えていてもよい。
 例えば、図13に示すように、第2処理部7は、追尾制御部17と、通信処理部18に加えて切替処理部22を備えている。
 切替処理部22は、前述の第1態様と第2態様の切り替え処理を行う。具体的な切り替え処理について、図14を参照して説明する。なお、図9に示す各処理と同様の処理については同一の符号を付し適宜説明を省略する。
 第2処理部7は、広角カメラ2から追尾目標被写体T1についての情報を受信していないと判定し(ステップS201)、ローカル追尾中であると判定(ステップS202)した場合には、ステップS203のローカル追尾処理を実行する。この処理は、前述したように、最新フレームにおける追尾中被写体T2の座標を特定すると共に、当該特定した座標が画角の中央になるようにPTZ制御部8に指示を送る処理である。
 ローカル追尾処理を実行した後、第2処理部7はステップS221において、ローカル追尾処理における制御量の変化が規則的であるか否かを判定する処理を行う。
 ローカル追尾処理における制御量の変化が規則的である場合とは、例えば、PTZ制御部8に送信するパン方向の制御量やチルト方向の制御量の変化量が規則的な場合などである。換言すれば、追尾中被写体T2の動きが規則的な動きとなっている場合などである。
 ローカル追尾処理における制御量の変化が規則的であると判定した場合、第2処理部7はステップS201へと戻る。これにより、当該制御量の変化が規則的である限り広角カメラ2から情報を受信するまでステップS202のローカル追尾処理が継続して実行される。或いは、広角カメラ2から追尾停止指示を受信するまでローカル追尾処理が継続されるようにしてもよい。
 一方、ローカル追尾処理における制御量の変化が規則的でないと判定した場合には、第1の実施の形態と同様に、第2処理部7はステップS204で追尾中被写体T2を特定するための情報を広角カメラ2に送信する。
 なお、ステップS221において当該制御量が規則的であると判定した場合には、ステップS203の処理へ戻るように構成してもよい。
 第1態様とは、図14におけるステップS201(Yes判定)、ステップS205(No判定)、ステップS208~ステップS210、ステップS204の各処理をループする状態と言える。
 また、第2態様とは、図14におけるステップS201(No判定)、ステップS202、ステップS203、ステップS221(Yes判定)の各処理をループする状態と言える。
 第3の実施の形態の説明においては、第1処理部5が切替処理部21を備える例と、第2処理部7が切替処理部22を備える例を示したが、第1処理部5が切替処理部21を備えると共に第2処理部7が切替処理部22を備えるように構成してもよい。即ち、第1処理部5と第2処理部7がローカル追尾処理を継続するか否かについての上述した判定処理をそれぞれ実行することにより、必要がない限りローカル追尾処理が継続されやすくなる。従って、余分な通信処理などの発生が抑制され、処理負担の軽減に寄与することができる。
<7.第4の実施の形態>
 第4の実施の形態では、撮像部と処理部が別の装置として設けられている例について説明する。
 第4の実施の形態における撮像システム1Aの構成例を図15に示す。
 撮像システム1Aは、広角カメラ2Aと望遠カメラ3Aと第1画像処理装置31と第2画像処理装置41とを備えている。
 広角カメラ2Aは、上述した第1撮像部4を備えて構成されており、更に、第1撮像部4において撮像された画像信号を画像データに変換するための各種の処理を実行可能な信号処理部(不図示)を備えている。
 望遠カメラ3Aは、上述した第2撮像部6とPTZ制御部8を備えて構成されており、更に、第2撮像部6において撮像された画像信号を画像データに変換するための各種の処理を実行可能な信号処理部(不図示)を備えている。
 第1画像処理装置31は、前述した広角カメラ2が備える第1処理部5としての機能を有して構成されている。即ち、第1画像処理装置31は、追尾目標被写体決定部9と追尾中被写体情報取得部10と変換処理部11と追尾中被写体特定部12と判定処理部13と移動方向推定部14と追尾変更処理部15と通信処理部16の各部を備えることにより図4に示す第1処理部5と同等の機能を有している。
 第2画像処理装置41は、前述した望遠カメラ3が備える第2処理部7としての機能を有して構成されている。即ち、第2画像処理装置41は、図4に示すように、追尾制御部17と通信処理部18の各部を備えることにより図4に示す第2処理部7と同等の機能を有している。
 第1画像処理装置31及び第2画像処理装置41は、第3の実施の形態で説明したように少なくとも何れか一方が切替処理部を備えていてもよい。
 広角カメラ2Aと第1画像処理装置31を別体の情報処理装置とすることで、画像処理に特化した情報処理装置を第1画像処理装置31として採用することができるため、第1画像処理装置31の高性能化を図ることが容易となる。これにより、例えば、第1撮像部4が撮像する動画の高フレームレート化を行ったとしても上述の各種の処理を実行することが可能となる。
 望遠カメラ3Aと第2画像処理装置41についても同様の効果を得ることができる。
<8.第5の実施の形態>
 第5の実施の形態では、撮像部と処理部が別の装置として設けられている他の例について説明する。
 第5の実施の形態における撮像システム1Bの構成例を図16に示す。
 撮像システム1Bは、広角カメラ2Aと望遠カメラ3Aと第3画像処理装置51とを備えている。
 広角カメラ2A及び望遠カメラ3Aは第4の実施の形態と同様の構成であるため、説明を省略する。
 第3画像処理装置51は、第1画像処理装置31と第2画像処理装置41の双方の機能を備えている。但し、第1画像処理装置31は第2画像処理装置41に対して情報を送受信する機能を備え、第2画像処理装置41は第1画像処理装置31に対して情報を送受信する機能を備えていたが、第3画像処理装置51は、代わりに装置内の他の部に対する情報の出力処理と取得処理を実行する。
 また、第3画像処理装置51は、広角カメラ2A及び望遠カメラ3Aの双方と通信可能とされており、該通信を介して広角カメラ2Aの第1撮像部4において撮像された第1画像GC1と望遠カメラ3Aの第2撮像部6において撮像された第2画像GC2の双方を取得可能とされている。また、第3画像処理装置51は、望遠カメラ3Aが備えるPTZ制御部8に対する制御情報の送信処理が可能とされている。
 第3画像処理装置51は、図16に示すように、追尾目標被写体決定部9と、追尾中被写体情報取得部10と、変換処理部11と、追尾中被写体特定部12と、判定処理部13と、移動方向推定部14と、追尾変更処理部15と、追尾制御部17と、切替処理部23と、通信処理部24と、を備えている。
 追尾目標被写体決定部9は、上述した他の実施の形態と同様に、第1撮像部4において撮像された第1画像GC1に基づいて追尾対象の被写体を決定する処理を行う。
 追尾中被写体情報取得部10は、追尾中被写体T2を特定するための情報を取得する。このために、追尾中被写体情報取得部10はPTZ制御部8の制御情報、換言すれば、第2撮像部6の光軸方向を表す情報を望遠カメラ3Aから取得する処理を行う。これにより、追尾中被写体T2を特定するための情報を取得する。
 なお、第3画像処理装置51がPTZ制御部8に対して送信する制御情報が第3画像処理装置51内の記憶領域に記憶されている場合には、追尾中被写体情報取得部10は当該記憶領域から制御情報を取得してもよい。その場合には、望遠カメラ3Aから制御情報を取得せずに処理を行うことが可能である。
 変換処理部11は、第1画像GC1上の被写体の座標と望遠カメラ3Aの第2撮像部6の光軸方向を表す情報の変換を行う。また、変換処理部11は、望遠カメラ3Aから受信した第2撮像部6の光軸方向を表す情報を第1画像GC1上の座標に変換する。
 追尾中被写体特定部12は、変換処理部11によって変換された第1画像GC1における座標に基づいて第1画像GC1に写る被写体の中から第2撮像部6による追尾中の被写体を特定する。
 判定処理部13は、追尾中被写体特定部12によって特定された追尾中被写体T2と追尾目標被写体決定部9が決定した追尾目標被写体T1が同一の被写体であるか否かを判定する。
 移動方向推定部14は、追尾目標被写体T1の移動方向を推定する処理を行う。
 追尾変更処理部15は、第2撮像部6による追尾の対象の被写体、即ち追尾中被写体T2を変更させるための処理を行う。本実施の形態では、変換処理部11の処理によって追尾目標被写体T1の座標情報から変換された第2撮像部6の光軸方向を表す情報を望遠カメラ3Aに送信することにより、PTZ制御部8にパン制御やチルト制御などを実行させ、追尾中被写体T2を追尾目標被写体T1と同一の被写体に変えさせる。
 追尾制御部17は、第2撮像部6による被写体の追尾を適切に行うための各種の処理を行う。具体的には、第2撮像部6において撮像された第2画像GC2に対して画像処理を施すことにより、追尾中被写体T2を特定し、該追尾中被写体T2が画角の中央に位置するように第2撮像部6の光軸方向を制御するためのパン制御の制御量やチルト制御の制御量を決定し、望遠カメラ3AのPTZ制御部8に送信する。なお、この場合に、追尾中被写体T2の移動方向を考慮して各制御量を決定してもよい。
 切替処理部23は、追尾目標被写体T1と追尾中被写体T2が一致しているか否かを判定しそれに応じて追尾の対象を変更し得るモード(第1態様)と、当該判定処理を実行せずに第2撮像部6が追尾中の追尾中被写体T2の追尾を継続するモード(第2態様)とを切り換える処理を行う。
 通信処理部24は、本実施の形態における上述の各処理を実現するために広角カメラ2A及び望遠カメラ3Aとの通信処理を行う。
 本実施の形態のように画像処理装置が一つの情報処理装置で構成されることにより、複数の画像処理装置を用いて撮像システムを構築するよりもコストの削減を図ることが可能となる。また、画像処理装置間の情報の送受信処理が発生しないため、処理の高速化を図ることが可能となる。
<9.変形例>
 上述した各例においては、追尾目標被写体T1の決定処理を追尾目標被写体決定部9が自動で実行する例を説明したが、作業者の手動操作により追尾目標被写体T1が決定されてもよい。例えば、サッカーの試合であれば、選手が所属するチームと背番号を作業者が指定することにより追尾目標被写体T1を設定してもよい。その場合における追尾目標被写体決定部9は、第1画像GC1の画像処理を行うことにより指定された選手を特定する特定部として機能してもよい。
 或いは、作業者の手動操作によって追尾目標被写体T1を決定するための指標が提示されてもよい。例えば、「ゴールを決めた選手」という指定を作業者が行ってもよい。追尾目標被写体決定部9は、第1画像GC1の最新フレームから過去フレームを用いた画像処理を行うことにより、該当する選手を特定する。
 なお、上述した各例や本変形例のように追尾目標被写体T1を決定するための画像処理を行う際には、ディープラーニングを用いてもよい。
 追尾中被写体T2を特定するための情報として追尾中被写体情報取得部10が取得する情報は、上述した光軸方向を示す情報や第2画像GC2の情報でなくてもよい。例えば、追尾中被写体T2の特徴を表す情報であってもよい。例えば、背番号情報や髪の毛の色の情報や、髪型の情報や、ポジションの情報や、靴の色の情報や、肌の色の情報など、各種の例が考えられる。
 このような情報を取得した変換処理部11は、光軸方向を示す情報を座標情報に変換する処理を実行する代わりに、第1画像GC1の画像処理を行うことにより第1画像GC1上の追尾中被写体T2の特定を行い座標情報に変換する処理を行う。
 上述したように撮像システム1(1A,1B)は、第1画像GC1に対する画像処理を行うことにより追尾目標被写体T1を決定する処理を実行する。或いは、上述した変形例のように、第2画像GC2に対する画像処理を行うことにより追尾中被写体T2の特徴情報を抽出する。このような画像処理は、撮像画像の取得毎に実行されなくてもよい。例えば、第1撮像部4と第2撮像部6が60fpsや120fpsでの動画像の撮像を行うと共に、各処理部は30fpsで上述した各種の画像処理を行ってもよい。
 これにより、高fpsの動画像の撮像を行いながら、適切な被写体についての追尾処理を実行することが可能となる。
 望遠カメラ3において追尾中被写体T2の追尾を停止し新たに指定された追尾目標被写体T1の追尾を開始した場合には正しくない被写体の追尾を開始してしまった可能性があるため、追尾中被写体T2を特定するための情報を高頻度に広角カメラ2に送信してもよい。
 また、追尾中被写体T2と別の被写体が交錯した場合などにおいても追尾中被写体T2が意図せずに切り替わってしまう虞があるため、追尾中被写体T2を特定するための情報を高頻度に広角カメラ2に送信してもよい。
 追尾目標被写体T1以外の被写体が複数いる場合や、所定数(所定人数)よりも多い場合には、誤った被写体を追尾してしまう可能性が大きくなるため、広角カメラ2が追尾目標被写体T1についての情報を送信する頻度を高めてもよい。
 また、追尾目標被写体T1の所定距離以内に他の被写体が存在する場合などにおいても、追尾目標被写体T1についての情報を送信する頻度を高めてもよい。
<10.まとめ>
 上述した各種の例において説明したように、広角カメラ2(或いは第1画像処理装置31,第3画像処理装置51)は、第1撮像部4において撮像された第1画像GC1に基づいて追尾の目標とされた被写体を追尾目標被写体T1として決定する追尾目標被写体決定部9と、第2撮像部6による追尾中の被写体である追尾中被写体T2を特定するための情報を取得する追尾中被写体情報取得部10と、追尾中被写体T2と追尾目標被写体T1が同一の被写体であるか否かを判定する判定処理部13と、追尾中被写体T2と追尾目標被写体T1が同一でないと判定された場合に第2撮像部6の追尾中被写体T2を追尾目標被写体T1へと変更させる処理を行う追尾変更処理部15と、を備えたものである。
 これにより、第2撮像部6が追尾中の被写体が想定した目標被写体である追尾目標被写体T1と異なる場合には、追尾の対象を変更させる処理が実行される。
 従って、追尾目標被写体T1と異なる被写体を追尾し続けてしまうことが防止される。また、不規則に移動している被写体や、被写体同士が交差したことによって別の被写体が追尾中被写体T2とされてしまった場合などでも、追尾の対象を変更させる処理が実行されるため、正しい被写体を追尾する状態に戻すことができる。
 図4等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31)における追尾中被写体情報取得部10は、追尾中被写体T2を特定するための情報を他の画像処理装置(例えば望遠カメラ3や第2画像処理装置41)から取得し、追尾変更処理部15は、変更させる処理として追尾目標被写体T1についての情報を他の画像処理装置に送信する処理を行ってもよい。
 例えば、本構成を有する画像処理装置と他の画像処理装置の2台の装置で情報のやりとりを行うことにより追尾の対象を変更させる処理が実現される。
 このような態様としては、例えば、第1撮像部4としての機能と本構成の画像処理装置としての機能を兼ね備えた広角カメラ2と、第2撮像部6としての機能と他の画像処理装置としての機能を備えた望遠カメラ3などである。また、他にも、第1撮像部4を備えた広角カメラ2Aと、広角カメラ2Aに対応して設けられた本構成としての機能を備えた第1画像処理装置31と、第2撮像部6を備えた望遠カメラ3Aと、望遠カメラ3Aに対応して設けられた他の画像処理装置(第2画像処理装置41)の4台の装置で構成してもよい。
 このような構成においてお互いの装置が情報の送受信を行うことにより、広角カメラ2Aで取得した第1画像GC1から決定された追尾目標被写体T1を追尾するように望遠カメラ3Aの制御を行うことが可能となる。そして、望遠カメラ3Aの追尾制御が意図とは異なる被写体を追尾している場合には、追尾目標被写体T1を追尾するように変更させる処理を実行することで、誤った被写体を追尾し続けてしまうことを防止することができる。
 図4等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31)における追尾変更処理部15は、第2撮像部6における光軸方向を変更するための情報を追尾目標被写体T1についての情報として他の画像処理装置(例えば望遠カメラ3や第2画像処理装置41)に送信してもよい。
 例えば、第1撮像部4が撮像した第1画像GC1内(或いは第1撮像部4の画角内)における追尾目標被写体T1の位置と該追尾目標被写体T1を第2撮像部6の画角内に捉えるための第2撮像部6の光軸方向の設定は1対1に対応付けることが可能である。
 特に、第1撮像部4と第2撮像部6が近い位置に配置されており、且つ、各撮像部と被写体が一定距離以上離れている場合には、第1画像GC1内における追尾目標被写体T1の位置と第2撮像部6の光軸方向の対応付が容易である。
 このような場合には、追尾目標被写体T1の色や形や大きさなどの特徴や位置等の情報の代わりに、光軸方向を調整するための情報を用いることが可能である。そして、光軸方向を調整するための情報は、第2撮像部6の構図を制御する制御部(PTZ制御部8)に送信することにより追尾目標被写体T1を該制御部に伝達することが可能となる。また、この情報は、画像処理等により被写体を特定する処理や検出する処理が不要とされるため、追尾変更処理部15の処理負担が増大することがなく好適である。
 第2撮像部6の光軸方向を変更するための上述した情報は、例えば、第1画像GC1内の追尾目標被写体T1の位置から第2撮像部6の光軸方向を算出するための変換式を利用して都度算出した情報であってもよいし、第1画像GC1内の追尾目標被写体T1の位置と第2撮像部6の光軸方向を対応付けた変換テーブルを利用して得られた情報であってもよい。
 また、第2撮像部6の光軸方向を変更するための情報としては、光軸方向を表す数値などの情報であってもよいし、制御部(PTZ制御部8)が制御する第2撮像部6についてのパン方向及びチルト方向の制御量の情報であってもよい。そして、パン方向及びチルト方向の制御量は、絶対的な値であってもよいし現在値に対する相対的な値であってもよい。
 また、光軸方向を表す情報は、望遠カメラ3の画枠の中心に追尾目標被写体T1が位置するように決定された情報であってもよいし、望遠カメラ3の画枠の中心以外の所定位置に追尾目標被写体T1が位置するように決定された情報であってもよい。
 或いは、被写体を画枠中心に捉えるための方向に関する情報が光軸方向を表す情報とされてもよい。そのような情報を受信した望遠カメラ3は、画枠のどの位置に追尾目標被写体T1を位置させるかを決定した上で受信した情報に基づいて実際の光軸方向を決定してもよい。即ち、受信した情報が示す光軸方向と実際の光軸方向が異なっていてもよい。
 図4等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31)における追尾変更処理部15は、追尾中被写体T2と追尾目標被写体T1が同一であると判定された場合に他の画像処理装置(例えば望遠カメラ3や第2画像処理装置41)に送信する処理の頻度を低くしてもよい。
 第2撮像部6が追尾中の被写体が追尾目標被写体T1である場合は、追尾中の被写体の追尾を継続するだけでよい。そして、そのような処理は追尾目標被写体T1の情報を新たに提供せずに実行可能な処理である。
 本構成によれば、追尾目標被写体T1と追尾中被写体T2が同一の被写体である限り、画像処理装置(広角カメラ2や第1画像処理装置31)から他の画像処理装置(例えば望遠カメラ3や第2画像処理装置41)に対して追尾目標被写体T1についての情報を送信する頻度が低下されるため、通信処理に要する処理負担の軽減が図られると共に通信帯域の消費を軽減することができる。
 なお、数回に一度送信処理を取りやめることにより送信頻度の低下を実現してもよいし、送信処理を一切行わないようにすることにより送信頻度の低下を実現してもよい。
 図4等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31)における追尾目標被写体T1の移動方向を推定する移動方向推定部14を備え、追尾変更処理部15は、変更させる処理として追尾目標被写体T1についての情報に加えて移動方向を他の画像処理装置(例えば望遠カメラ3や第2画像処理装置41)に送信する処理を行ってもよい。
 第2撮像部6で第2画像GC2を撮像してから、第1撮像部4が撮像した第1画像GC1に基づいて追尾目標被写体T1を決定し、第2撮像部6を制御する画像処理装置(望遠カメラ3や第2画像処理装置41)から送信された情報に基づいて第2撮像部6が追尾中の被写体を追尾中被写体T2として特定し、追尾目標被写体T1と追尾中被写体T2が同一の被写体であるか否かを判定し、それに応じて追尾目標被写体T1についての情報を他の画像処理装置に送信するまでの間に、被写体は動いていることが想定される。そして、第2撮像部6が新たな追尾目標被写体T1を追尾するために第2撮像部6の構図の変更を終えた頃には既に第2撮像部6の画角内に追尾目標被写体T1が位置していない可能性がある。
 このような場合には、追尾目標被写体T1の追尾を開始することができない虞がある。そこで、追尾目標被写体T1の移動方向を推定し、その情報を他の画像処理装置に送信することにより、第2撮像部6の画角内に追尾目標被写体T1が捉えられる可能性を高めることができる。そして、第2撮像部6の画角内に追尾目標被写体T1を捉えられない状況が続く限り本構成の画像処理装置から他の画像処理装置に対して追尾目標被写体T1の情報及び移動方向の情報が送信され続けることで、第2撮像部6の画角内に追尾目標被写体T1を捉えられない状況が続いてしまうことが防止される。
 図4等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31、第3画像処理装置51)における移動方向推定部14は、第1撮像部4において撮像された過去画像(第1画像GC1における過去画像)に基づいて移動方向を推定してもよい。
 例えば、過去数フレームの第1画像GC1を用いることにより追尾目標被写体T1としての被写体の移動方向を推定することができる。
 そして、その移動方向についての情報を他の画像処理装置(望遠カメラ3や第2画像処理装置41)に送信することにより、他の画像処理装置は、追尾目標被写体T1が第2撮像部6の画角内に収まるように第2撮像部6についてのパン方向及びチルト方向の制御を行うことができる。これにより、第2撮像部6によって正しい被写体が追尾される可能性を高めることができる。
 なお、追尾目標被写体T1の移動方向だけでなく移動速度についての情報を推定して他の画像処理装置に送信してもよい。これにより、正しい被写体が追尾される可能性を更に高めることができる。
 図4等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31、第3画像処理装置51)における判定処理部13は、第2撮像部6において撮像された第2画像GC2のうち追尾中被写体T2を特定するための情報が得られた第2画像GC2の撮像時刻に基づいて選択された第1画像GC1を用いて同一の被写体であるか否かについての判定を行ってもよい。
 第2撮像部6によって撮像された第2画像GC2に基づいて追尾中被写体T2を特定するための情報が抽出され、該抽出された情報が本構成を備える画像処理装置(広角カメラ2、第1画像処理装置31、第3画像処理装置51)に送信された場合について考えると、第2画像GC2が撮像されてからある程度の時間が経過した後に撮像された第1画像GC1における追尾目標被写体T1の位置は当該第2画像GC2の撮像時刻における位置と異なる場合がある。そのような状況で、例えば最新の第1画像GC1に基づいて第2撮像部6における追尾中被写体T2を推定してしまうと、第2撮像部6において追尾中の被写体を誤って特定してしまう可能性がある。
 その結果、第2撮像部6が誤った被写体を追尾していることを検出するのが遅れてしまう可能性がある。しかし、本構成によれば、第2撮像部6において追尾中の被写体の特定は、第2画像GC2の撮像時刻に近いタイミングで撮像された第1画像GC1を用いて行われることから、追尾中被写体T2特定を誤ってしまうことを抑制することができる。これにより、第2撮像部6が誤った被写体を追尾していることを早期に検出することができ、追尾目標被写体T1を正しく追尾している状態に速やかに移行することが可能となる。そして、データ転送についてのレイテンシの影響を最小限に抑えることが可能となる。
 図8,図9等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31)においては、同一の被写体であるか否かを判定する判定処理部13の処理及び追尾目標被写体T1についての情報を他の画像処理装置(望遠カメラ3や第2画像処理装置41)に送信する追尾変更処理部15の処理を実行する第1態様と、判定処理部13の処理及び追尾変更処理部15の処理を実行しない第2態様と、を切り替える切替処理部21(切替処理部23)を備えていてもよい。
 第1態様と第2態様とを比較すると、第2態様の方が単純な制御とされ、処理負担も軽いことが想定される。具体的には、追尾目標被写体T1と追尾中被写体T2が同一の被写体かどうかを判定する処理やその判定を行うために各種の情報の送受信を行う第1態様と比較して、他の画像処理装置(望遠カメラ3や第2画像処理装置41)及び第2撮像部6の処理によって追尾中の被写体についての追尾を継続するだけの第2態様の方が簡易な処理とされる。
 従って、切替処理部21(切替処理部23)が設けられることにより、第1態様の制御が不要な場合に第2態様に切り換えることが可能とされるため、画像処理装置及び他の画像処理装置の処理負担の軽減を図ることができる。
 図8,図9等を参照して説明したように、広角カメラ2(或いは第1画像処理装置31)における切替処理部21(切替処理部23)は、決定された追尾目標被写体T1の移動態様に応じて第1態様と前記第2態様の切り替えを行ってもよい。
 例えば、追尾目標被写体T1の移動方向が一定であるケースや所定の範囲にとどまっているようなケース、或いは、追尾目標被写体T1の移動速度が低速であるようなケースでは、第2撮像部6及び他の画像処理装置(望遠カメラ3や第2画像処理装置41)で閉じた処理によって追尾中の被写体をロストしてしまう虞が低いケースと言える。
 そのような場合に第2態様に切り換えることで、画像処理装置及び他の画像処理装置の処理負担の軽減を図ることができる。
 図2等を参照して説明したように、広角カメラ2においては、第1撮像部4を備えていてもよい。
 例えば、画像処理装置は、第1撮像部4を備えたカメラ装置とされる。
 このようなカメラ装置(広角カメラ2)において、第2撮像部6が追尾中の被写体が想定した目標被写体である追尾目標被写体T1と異なる場合には、追尾の対象を変更させる処理が実行される。従って、追尾目標被写体T1と異なる被写体を追尾し続けてしまうことを防止することができる。
 上述した各例で説明したように、望遠カメラ3(或いは第2画像処理装置41、第3画像処理装置51)は、第1撮像部4において撮像された第1画像GC1に基づいて決定された追尾の目標被写体である追尾目標被写体T1の情報を用いて、第2撮像部6による被写体の追尾について制御を行う追尾制御部17を備え、追尾制御部17は、追尾中の被写体である追尾中被写体T2を特定するための情報を出力し、追尾の制御中に追尾目標被写体T1の情報が取得されない場合は、追尾目標被写体T1を変更せずに追尾の制御を行い、追尾の制御中に追尾目標被写体T1の情報が取得された場合は、新たに取得された追尾目標被写体T1の情報に基づいて特定された被写体を追尾の対象として追尾制御を行うものである。
 これにより、追尾制御部17は、新たな追尾目標被写体T1の情報が取得されない場合には簡易な処理を実行することにより第2撮像部6による追尾を継続することができる。
 これにより、新たな追尾目標被写体T1の情報が取得されるまでの画像処理装置(望遠カメラ3、第2画像処理装置41、第3画像処理装置51)の処理負担の軽減を図ることができる。また、新たな追尾目標被写体T1の情報が取得された場合には、新たな追尾目標被写体T1の情報に基づいて新たな追尾を開始させることにより誤った被写体を追尾し続けることを防止することができる。
 図4等を参照して説明したように、望遠カメラ3(或いは第2画像処理装置41)においては、追尾目標被写体T1の情報を他の画像処理装置(広角カメラ2や第1画像処理装置31)から受信する受信処理部(通信処理部18)と、追尾制御部17によって出力された追尾中被写体T2を特定するための情報を他の画像処理装置に送信する送信処理部(通信処理部18)と、を備え、追尾制御部17は、追尾の制御中に追尾目標被写体T1の情報を受信処理部が受信しなかった場合は、追尾目標被写体T1を変更せずに追尾の制御を行い、追尾の制御中に追尾目標被写体T1の情報を受信処理部が受信した場合は、新たに取得された追尾目標被写体T1の情報に基づいて特定された被写体を追尾の対象として追尾制御を行ってもよい。
 例えば、本構成を有する画像処理装置(望遠カメラ3や第2画像処理装置41)と他の画像処理装置(広角カメラ2や第1画像処理装置31)の2台の装置で情報のやりとりを行うことにより、追尾中被写体T2とされた被写体の追尾を継続させる処理や追尾中被写体T2の追尾をやめて新たに指定された追尾目標被写体T1についての追尾を開始させる処理が実行される。
 このような態様としては、第2撮像部6としての機能と本構成の画像処理装置としての機能を有する望遠カメラ3と、第1撮像部4としての機能と他の画像処理装置としての機能を有する広角カメラ2などである。また、他にも、第2撮像部6を備えた望遠カメラ3Aと、望遠カメラ3Aに対応して設けられた本構成としての機能を備える画像処理装置(第2画像処理装置41)と、第1撮像部4を備えた広角カメラ2Aと、広角カメラ2Aに対応して設けられた他の画像処理装置(第1画像処理装置31)の4台の装置で構成してもよい。
 このような構成においてお互いの装置が情報の送受信を行うことにより、広角カメラ2Aで取得した第1画像GC1に基づいて決定された追尾目標被写体T1を追尾するように望遠カメラ3Aの制御を行うことが可能となる。そして、望遠カメラ3Aの追尾制御が意図した被写体とは異なる被写体を追尾している場合には、新たに指定された追尾目標被写体T1を追尾するための制御が実行されることにより、誤った被写体を追尾し続けてしまうことを防止することができる。
 図4等を参照して説明したように、望遠カメラ3(或いは第2画像処理装置41)における送信処理部(通信処理部18)は、第2撮像部6による撮像画像の生成ごとに追尾中被写体T2を特定するための情報の送信を行ってもよい。
 これにより、他の画像処理装置(広角カメラ2や第1画像処理装置31)に対して追尾中被写体T2を特定するための情報を高頻度で送信することが可能となる。
 そして、他の画像処理装置においては、追尾中被写体T2を特定するための情報を高頻度で受信することにより、追尾中被写体T2が追尾目標被写体T1と相違しているか否かをフレーム毎に判定することができるため、第2撮像部6による追尾中被写体T2が追尾目標被写体T1と異なった状態を速やかに検出することができる。従って、第2撮像部6による追尾中被写体T2が意図した被写体となるように指示することが可能となる。また、第2撮像部6が意図とは異なる被写体を追尾している状況が長い時間に亘って継続してしまうことを防止することができる。
 図4等を参照して説明したように、望遠カメラ3(或いは第2画像処理装置41)における送信処理部(通信処理部18)は、追尾中被写体T2を特定するための情報として第2撮像部6の光軸方向に関する情報を送信してもよい。
 光軸方向に関する情報とは、所定の座標系において第2撮像部6の光軸方向を一意に特定可能なベクトル情報などであってもよいし、第2撮像部6の光軸方向に1対1で対応するパン方向及びチルト方向についての制御量などの情報であってもよい。
 例えば、他の画像処理装置(広角カメラ2や第1画像処理装置31)において、第1画像GC1内の追尾目標被写体T1の位置と第2撮像部6の光軸方向に関する情報の対応付けが可能である場合には、上述したような光軸方向に関する情報を他の画像処理装置に送信することにより、他の画像処理装置は第2撮像部6の光軸方向を特定することが可能となる。
 従って、他の画像処理装置において第2撮像部6による追尾中被写体T2と第1画像GC1から決定された追尾目標被写体T1が一致しているか否かを判定する処理などを実行することができ、第2撮像部6によって正しい被写体が追尾されるようにすることができる。
 図9等を参照して説明したように、望遠カメラ3(或いは第2画像処理装置41)における送信処理部(通信処理部18)は、追尾中被写体T2を特定するための情報として第2撮像部6において撮像された第2画像GC2を送信してもよい。
 第2撮像部6及びその向きを調整するための機器の構成によっては、第2撮像部6の光軸方向に関する情報を取得できない場合がある。そのような場合には、本構成のように、第2撮像部6において撮像された第2画像GC2の情報を他の画像処理装置(広角カメラ2や第1画像処理装置31)に送信してもよい。
 一方、他の画像処理装置では、ブロックマッチング処理や特徴点を用いたマッチング処理を行うことにより第2画像GC2から追尾中被写体T2を特定することが可能である。具体的には、第2画像GC2に含まれる被写体についての第1画像GC1における位置を特定する。そして、第1画像GC1における当該被写体の位置と追尾目標被写体T1の位置とを比較することにより、第2撮像部6によって正しい被写体が追尾されているか否かを判定することができる。
 これにより、第2撮像部6による追尾中被写体T2が追尾目標被写体T1と異なっている場合に正しい被写体を追尾するように制御し直すことなどが可能となる。
 図4等を参照して説明したように、望遠カメラ3(或いは第2画像処理装置41)における受信処理部(通信処理部18)は、他の画像処理装置(広角カメラ2や第1画像処理装置31)から追尾目標被写体T1の移動方向の情報を受信し、追尾制御部17は、第1画像GC1の撮像時刻と受信した移動方向とに基づいて算出した追尾目標被写体T1の予測位置を用いて追尾についての制御を行ってもよい。
 第1画像GC1に基づいて追尾目標被写体T1が決定された時点の追尾目標被写体T1の位置と、追尾目標被写体T1についての情報を当該画像処理装置が受信し追尾目標被写体T1を第2撮像部6の画角内に捉えるための制御を行った時点の追尾目標被写体T1の位置は、追尾目標被写体T1の移動により異なることが考えられる。このような場合において、追尾目標被写体T1の移動方向についての情報を当該画像処理装置が受信することにより、追尾目標被写体T1の現在の位置を推定することが可能となる。
 従って、推定された追尾目標被写体T1の現在位置に応じて第2撮像部6の向きを制御することが可能となり、追尾目標被写体T1の追尾を正常に開始させることができる可能性を高めることができる。
 なお、追尾目標被写体T1の移動方向だけでなく移動速度についての情報を当該画像処理装置が受け取ることにより、追尾目標被写体T1が第2撮像部6の画角内に捉えられる可能性を高めることができ、より適切な追尾処理を行うことが可能となる。
 図13,図14等を参照して説明したように、望遠カメラ3(或いは第2画像処理装置41)においては、追尾制御部17によって出力された追尾中被写体T2を特定するための情報を他の画像処理装置(広角カメラ2や第1画像処理装置31)に送信する送信処理部(通信処理部18)の処理及び新たに取得された追尾目標被写体T1の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う追尾制御部17の処理を実行する第1態様と、追尾目標被写体T1を変更せずに追尾の制御を継続して実行する第2態様と、を切り替える切替処理部22を備えていてもよい。またこの切替処理部22は、第3画像処理装置51が備える切替処理部23とされていてもよい。
 第1態様と第2態様とを比較すると、第2態様の方が単純な制御とされ、処理負担も軽いことが想定される。具体的には、追尾中被写体T2を追尾し続ける処理の方が、新たな追尾目標被写体T1の情報に基づいて新たな被写体についての追尾を開始させる処理よりも処理負担が軽く簡易な処理とされる。特に、新たな被写体についての追尾を開始させる場合には、新たな被写体が追尾目標被写体T1と異なっている場合などもあり、その場合には再度新たな被写体を特定して追尾を開始させる必要がある。
 従って、切替処理部22が設けられることにより、第1態様の制御が不要な場合に第2態様に切り換えることが可能とされるため、画像処理装置及び他の画像処理装置の処理負担の軽減を図ることができる。また、切替処理部22は、第1態様から第2態様に切り換えた場合に第1撮像部4を制御する他の画像処理装置(広角カメラ2や第1画像処理装置31)に対してその旨を通知する処理を実行してもよい。これにより、他の画像処理装置は第1態様を実現するための各種の処理の実行を回避することができ、処理負担の軽減を図ることができる。
 なお、切替処理部22は第1撮像部4を制御する他の画像処理装置のみに切替処理部21として設けられていてもよく、その場合には、本構成を備える画像処理装置は、他の画像処理装置の指示に従って処理を行うだけで切替処理部22としての機能を実現することができる。
 図13,図14等を参照して説明したように、望遠カメラ3(或いは第2画像処理装置41)における切替処理部22は、追尾制御部17によって追尾中被写体T2の移動態様に応じて第1態様と第2態様の切り替えを行ってもよい。
 例えば、追尾中被写体T2の移動方向が一定であるケースや所定の範囲にとどまっているようなケース、或いは、追尾中被写体T2の移動速度が低速であるようなケースでは、他の画像処理装置(広角カメラ2や第1画像処理装置31)から情報を取得することなく追尾中被写体T2の追尾を継続することが可能である。即ち、そのようなケースは、追尾中被写体T2をロストしてしまう虞が低いケースと言える。
 そのような場合に第2態様に切り換えることで、画像処理装置(望遠カメラ3や第2画像処理装置41)及び他の画像処理装置(広角カメラ2や第1画像処理装置31)の処理負担の軽減を図ることができる。
 図2等を参照して説明したように、望遠カメラ3は第2撮像部6を備えていてもよい。
 例えば、画像処理装置は、第2撮像部6を備えたカメラ装置とされる。
 このようなカメラ装置(望遠カメラ3)において、追尾制御部17は、新たな追尾目標被写体T1の情報が取得されない場合には簡易な処理を実行することにより第2撮像部6による追尾を継続することができる。これにより、新たな追尾目標被写体T1の情報が取得されるまでの画像処理装置(望遠カメラ3)の処理負担の軽減を図ることができる。また、新たな追尾目標被写体T1の情報が取得された場合には、新たな追尾目標被写体T1の情報に基づいて新たな追尾を開始させることにより誤った被写体を追尾し続けることを防止することができる。
 広角カメラ2及び望遠カメラ3から成る画像処理システム(撮像システム1)、或いは、第1画像処理装置31と第2画像処理装置41から成る画像処理システム、或いは、第3画像処理装置51としての画像処理システムは、第1撮像部4において撮像された第1画像GC1に基づいて追尾の目標とされた被写体を追尾目標被写体T1として決定する追尾目標被写体決定部9と、追尾目標被写体T1の情報を用いて、第2撮像部6による被写体の追尾について制御を行う追尾制御部17と、追尾制御部17により出力された情報に基づいて第2撮像部6による追尾中の被写体を追尾中被写体T2として特定する追尾中被写体特定部12と、決定された追尾目標被写体T1と特定された追尾中被写体T2とが同一の被写体であるか否かを判定する判定処理部13と、追尾中被写体T2と追尾目標被写体T1が同一でないと判定された場合に追尾目標被写体T1についての情報を追尾制御部17へと出力する追尾変更処理部15と、を備え、追尾制御部17は、追尾の制御中に追尾目標被写体T1についての情報が入力された場合には、新たな追尾目標被写体T1の情報に基づいて特定された被写体を追尾の対象として追尾制御を行い、追尾の制御中に追尾目標被写体T1についての情報が入力されない場合には、追尾目標被写体T1を変更せずに追尾の制御を行うものである。
 このような画像処理システムを用いることにより上述した各種の効果を得ることができる。
 ここで、上述の各種の処理を実現するための実施の形態としては、各図を参照して説明した第1処理部5(或いは、第1画像処理装置31や第3画像処理装置51)や第2処理部7(或いは、第2画像処理装置41や第3画像処理装置51)による処理を、例えばCPU、DSP(Digital Signal Processor)等、或いはこれらを含むデバイスに実行させるプログラムを考えることができる。
 すなわち、第1処理部5(或いは、第1画像処理装置31や第3画像処理装置51)についての実施の形態としてのプログラムは、コンピュータ装置が読み取り可能なプログラムであって第1撮像部4において撮像された第1画像GC1に基づいて追尾の目標とされた被写体を追尾目標被写体T1として決定する追尾目標被写体決定機能と、第2撮像部6による追尾中の被写体である追尾中被写体T2を特定するための情報を取得する追尾中被写体情報取得機能と、追尾中被写体T2と追尾目標被写体T1が同一の被写体であるか否かを判定する判定機能と、追尾中被写体T2と追尾目標被写体T1が同一でないと判定された場合に第2撮像部6の追尾中被写体T2を追尾目標被写体T1へと変更させる処理を行う追尾変更機能と、をコンピュータ装置に実現させるプログラムである。
 また、第2処理部7(或いは、第2画像処理装置41や第3画像処理装置51)についての実施の形態としてのプログラムは、第1撮像部4において撮像された第1画像GC1に基づいて決定された追尾の目標被写体である追尾目標被写体T1の情報を用いて、第2撮像部6による被写体の追尾について制御を行う追尾制御処理と、追尾の制御中において、追尾の制御対象の被写体とされた追尾中被写体T2を特定するための情報を出力する処理と、追尾の制御中に追尾目標被写体T1の情報が取得されない場合は、追尾目標被写体T1を変更せずに追尾の制御を行い処理と、追尾の制御中に追尾目標被写体T1の情報が取得された場合は、新たに取得された追尾目標被写体T1の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う処理と、をコンピュータ装置に実現させるプログラムである。
 このようなプログラムにより、上述した第1処理部5(或いは、第1画像処理装置31や第3画像処理装置51)や第2処理部7(或いは、第2画像処理装置41や第3画像処理装置51)を撮像システム1,1A,1Bとしての機器において実現できる。
 このようなプログラムはコンピュータ装置等の機器に内蔵されている記録媒体としてのHDDや、CPUを有するマイクロコンピュータ内のROM等に予め記録しておくことができる。
 或いはまた、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、MO(Magneto Optical)ディスク、DVD(Digital Versatile Disc)、ブルーレイディスク(Blu-ray Disc(登録商標))、磁気ディスク、半導体メモリ、メモリカードなどのリムーバブル記録媒体に、一時的或いは永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウエアとして提供することができる。
 また、このようなプログラムは、リムーバブル記録媒体からパーソナルコンピュータ等にインストールする他、ダウンロードサイトから、LAN(Local Area Network)、インターネットなどのネットワークを介してダウンロードすることもできる。
 またこのようなプログラムによれば、実施の形態の第1処理部5(或いは、第1画像処理装置31や第3画像処理装置51)や第2処理部7(或いは、第2画像処理装置41や第3画像処理装置51)の広範な提供に適している。例えばパーソナルコンピュータ、携帯型情報処理装置、携帯電話機、ゲーム機器、ビデオ機器、PDA(Personal Digital Assistant)等にプログラムをダウンロードすることで、当該パーソナルコンピュータ等を、本開示のレンダリング部11aとしての処理を実現する装置として機能させることができる。
 上述した撮像システム1,1A,1Bを実現するために第1処理部5(或いは、第1画像処理装置31や第3画像処理装置51)が実行する情報処理方法は、第1撮像部4において撮像された第1画像GC1に基づいて追尾の目標とされた被写体を追尾目標被写体T1として決定する追尾目標被写体決定処理と、第2撮像部6による追尾中の被写体である追尾中被写体T2を特定するための情報を取得する追尾中被写体情報取得処理と、追尾中被写体T2と追尾目標被写体T1が同一の被写体であるか否かを判定する判定処理と、追尾中被写体T2と追尾目標被写体T1が同一でないと判定された場合に第2撮像部6の追尾中被写体T2を追尾目標被写体T1へと変更させる処理を行う追尾変更処理と、を情報処理装置が実行するものである。
 また、第2処理部7(或いは、第2画像処理装置41や第3画像処理装置51)が実行する情報処理方法は、第1撮像部4において撮像された第1画像GC1に基づいて決定された追尾の目標被写体である追尾目標被写体T1の情報を用いて、第2撮像部6による被写体の追尾について制御を行う追尾制御処理と、追尾の制御中において、追尾の制御対象の被写体とされた追尾中被写体T2を特定するための情報を出力する処理と、追尾の制御中に追尾目標被写体T1の情報が取得されない場合は、追尾目標被写体T1を変更せずに追尾の制御を行い処理と、追尾の制御中に追尾目標被写体T1の情報が取得された場合は、新たに取得された追尾目標被写体T1の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う処理と、を情報処理装置が実行するものである。
 なお、本明細書に記載された効果はあくまでも例示であって限定されるものではなく、また他の効果があってもよい。
<11.本技術>
 本技術は以下のような構成を採ることも可能である。
(1)
 第1撮像部において撮像された第1画像に基づいて追尾の目標とされた被写体を追尾目標被写体として決定する追尾目標被写体決定部と、
 第2撮像部による追尾中の被写体である追尾中被写体を特定するための情報を取得する追尾中被写体情報取得部と、
 前記追尾中被写体と前記追尾目標被写体が同一の被写体であるか否かを判定する判定処理部と、
 前記追尾中被写体と前記追尾目標被写体が同一でないと判定された場合に前記第2撮像部の前記追尾中被写体を前記追尾目標被写体へと変更させる処理を行う追尾変更処理部と、を備えた
 画像処理装置。
(2)
 前記追尾中被写体情報取得部は、前記追尾中被写体を特定するための情報を他の画像処理装置から取得し、
 前記追尾変更処理部は、前記変更させる処理として前記追尾目標被写体についての情報を前記他の画像処理装置に送信する処理を行う
 上記(1)に記載の画像処理装置。
(3)
 前記追尾変更処理部は、前記第2撮像部における光軸方向を変更するための情報を前記追尾目標被写体についての情報として前記他の画像処理装置に送信する
 上記(2)に記載の画像処理装置。
(4)
 前記追尾変更処理部は、前記追尾中被写体と前記追尾目標被写体が同一であると判定された場合に前記他の画像処理装置に送信する処理の頻度を低くする
 上記(2)から上記(3)の何れかに記載の画像処理装置。
(5)
 前記追尾目標被写体の移動方向を推定する移動方向推定部を備え、
 前記追尾変更処理部は、前記変更させる処理として前記追尾目標被写体についての情報に加えて前記移動方向を前記他の画像処理装置に送信する処理を行う
 上記(2)から上記(4)の何れかに記載の画像処理装置。
(6)
 前記移動方向推定部は、前記第1撮像部において撮像された過去画像に基づいて前記移動方向を推定する
 上記(5)に記載の画像処理装置。
(7)
 前記判定処理部は、
 前記第2撮像部において撮像された第2画像のうち前記追尾中被写体を特定するための情報が得られた前記第2画像の撮像時刻に基づいて選択された前記第1画像を用いて同一の被写体であるか否かについての前記判定を行う
 上記(2)から上記(6)の何れかに記載の画像処理装置。
(8)
 前記判定処理部の処理及び前記追尾変更処理部の処理を実行する第1態様と、前記判定処理部の処理及び前記追尾変更処理部の処理を実行しない第2態様と、を切り替える切替処理部を備えた
 上記(2)から上記(7)の何れかに記載の画像処理装置。
(9)
 前記切替処理部は、決定された前記追尾目標被写体の移動態様に応じて前記第1態様と前記第2態様の切り替えを行う
 上記(8)に記載の画像処理装置。
(10)
 前記第1撮像部を備えた
 上記(2)から上記(9)の何れかに記載の画像処理装置。
(11)
 第1撮像部において撮像された第1画像に基づいて決定された追尾の目標被写体である追尾目標被写体の情報を用いて、第2撮像部による被写体の追尾について制御を行う追尾制御部を備え、
 前記追尾制御部は、
 追尾中の被写体である追尾中被写体を特定するための情報を出力し、
 前記追尾の制御中に前記追尾目標被写体の情報が取得されない場合は、前記追尾目標被写体を変更せずに前記追尾の制御を行い、
 前記追尾の制御中に前記追尾目標被写体の情報が取得された場合は、新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う
 画像処理装置。
(12)
 前記追尾目標被写体の情報を他の画像処理装置から受信する受信処理部と、
 前記追尾制御部によって出力された前記追尾中被写体を特定するための情報を前記他の画像処理装置に送信する送信処理部と、を備え、
 前記追尾制御部は、
 前記追尾の制御中に前記追尾目標被写体の情報を前記受信処理部が受信しなかった場合は、前記追尾目標被写体を変更せずに前記追尾の制御を行い、
 前記追尾の制御中に前記追尾目標被写体の情報を前記受信処理部が受信した場合は、新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う
 上記(11)に記載の画像処理装置。
(13)
 前記送信処理部は、前記第2撮像部による撮像画像の生成ごとに前記追尾中被写体を特定するための情報の送信を行う
 上記(12)に記載の画像処理装置。
(14)
 前記送信処理部は、前記追尾中被写体を特定するための情報として前記第2撮像部の光軸方向に関する情報を送信する
 上記(12)から上記(13)の何れかに記載の画像処理装置。
(15)
 前記送信処理部は、前記追尾中被写体を特定するための情報として前記第2撮像部において撮像された第2画像を送信する
 上記(12)から上記(14)の何れかに記載の画像処理装置。
(16)
 前記受信処理部は、前記他の画像処理装置から前記追尾目標被写体の移動方向の情報を受信し、
 前記追尾制御部は、前記第1画像の撮像時刻と受信した前記移動方向とに基づいて算出した前記追尾目標被写体の予測位置を用いて前記追尾についての制御を行う
 上記(12)から上記(15)の何れかに記載の画像処理装置。
(17)
 前記送信処理部の処理及び新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う前記追尾制御部の処理を実行する第1態様と、前記追尾目標被写体を変更せずに前記追尾の制御を継続して実行する第2態様と、を切り替える切替処理部を備えた
 上記(12)から上記(16)の何れかに記載の画像処理装置。
(18)
 前記切替処理部は、前記追尾制御部によって前記追尾中被写体の移動態様に応じて前記第1態様と前記第2態様の切り替えを行う
 上記(17)に記載の画像処理装置。
(19)
 前記第2撮像部を備えた
 上記(12)から上記(18)の何れかに記載の画像処理装置。
(20)
 第1撮像部において撮像された第1画像に基づいて追尾の目標とされた被写体を追尾目標被写体として決定する追尾目標被写体決定部と、
 前記追尾目標被写体の情報を用いて、第2撮像部による被写体の追尾について制御を行う追尾制御部と、
 前記追尾制御部により出力された情報に基づいて第2撮像部による追尾中の被写体を追尾中被写体として特定する追尾中被写体特定部と、
 決定された前記追尾目標被写体と特定された前記追尾中被写体とが同一の被写体であるか否かを判定する判定処理部と、
 前記追尾中被写体と前記追尾目標被写体が同一でないと判定された場合に前記追尾目標被写体についての情報を前記追尾制御部へと出力する追尾変更処理部と、を備え、
 前記追尾制御部は、
 前記追尾の制御中に追尾目標被写体についての情報が入力された場合には、新たな前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行い、
 前記追尾の制御中に前記追尾目標被写体についての情報が入力されない場合には、前記追尾目標被写体を変更せずに前記追尾の制御を行う
 画像処理システム。
1,1A,1B 撮像システム(画像処理システム)
2 広角カメラ(第1撮像部、画像処理装置)
2A 広角カメラ(第1撮像部)
3 望遠カメラ(第2撮像部、画像処理装置)
3A 望遠カメラ(第2撮像部)
4 第1撮像部
6 第2撮像部
9 追尾目標被写体決定部
10 追尾中被写体情報取得部
12 追尾中被写体特定部
13 判定処理部
14 移動方向推定部
15 追尾変更処理部
16 通信処理部
17 追尾制御部
18 通信処理部(受信処理部、送信処理部)
21 切替処理部
22 切替処理部
23 切替処理部
31 第1画像処理装置(画像処理装置)
41 第2画像処理装置(画像処理装置)
51 第3画像処理装置(画像処理装置)
GC1 第1画像
GC2 第2画像
T1 追尾目標被写体
T2 追尾中被写体

Claims (20)

  1.  第1撮像部において撮像された第1画像に基づいて追尾の目標とされた被写体を追尾目標被写体として決定する追尾目標被写体決定部と、
     第2撮像部による追尾中の被写体である追尾中被写体を特定するための情報を取得する追尾中被写体情報取得部と、
     前記追尾中被写体と前記追尾目標被写体が同一の被写体であるか否かを判定する判定処理部と、
     前記追尾中被写体と前記追尾目標被写体が同一でないと判定された場合に前記第2撮像部の前記追尾中被写体を前記追尾目標被写体へと変更させる処理を行う追尾変更処理部と、を備えた
     画像処理装置。
  2.  前記追尾中被写体情報取得部は、前記追尾中被写体を特定するための情報を他の画像処理装置から取得し、
     前記追尾変更処理部は、前記変更させる処理として前記追尾目標被写体についての情報を前記他の画像処理装置に送信する処理を行う
     請求項1に記載の画像処理装置。
  3.  前記追尾変更処理部は、前記第2撮像部における光軸方向を変更するための情報を前記追尾目標被写体についての情報として前記他の画像処理装置に送信する
     請求項2に記載の画像処理装置。
  4.  前記追尾変更処理部は、前記追尾中被写体と前記追尾目標被写体が同一であると判定された場合に前記他の画像処理装置に送信する処理の頻度を低くする
     請求項2に記載の画像処理装置。
  5.  前記追尾目標被写体の移動方向を推定する移動方向推定部を備え、
     前記追尾変更処理部は、前記変更させる処理として前記追尾目標被写体についての情報に加えて前記移動方向を前記他の画像処理装置に送信する処理を行う
     請求項2に記載の画像処理装置。
  6.  前記移動方向推定部は、前記第1撮像部において撮像された過去画像に基づいて前記移動方向を推定する
     請求項5に記載の画像処理装置。
  7.  前記判定処理部は、
     前記第2撮像部において撮像された第2画像のうち前記追尾中被写体を特定するための情報が得られた前記第2画像の撮像時刻に基づいて選択された前記第1画像を用いて同一の被写体であるか否かについての前記判定を行う
     請求項2に記載の画像処理装置。
  8.  前記判定処理部の処理及び前記追尾変更処理部の処理を実行する第1態様と、前記判定処理部の処理及び前記追尾変更処理部の処理を実行しない第2態様と、を切り替える切替処理部を備えた
     請求項2に記載の画像処理装置。
  9.  前記切替処理部は、決定された前記追尾目標被写体の移動態様に応じて前記第1態様と前記第2態様の切り替えを行う
     請求項8に記載の画像処理装置。
  10.  前記第1撮像部を備えた
     請求項2に記載の画像処理装置。
  11.  第1撮像部において撮像された第1画像に基づいて決定された追尾の目標被写体である追尾目標被写体の情報を用いて、第2撮像部による被写体の追尾について制御を行う追尾制御部を備え、
     前記追尾制御部は、
     追尾中の被写体である追尾中被写体を特定するための情報を出力し、
     前記追尾の制御中に前記追尾目標被写体の情報が取得されない場合は、前記追尾目標被写体を変更せずに前記追尾の制御を行い、
     前記追尾の制御中に前記追尾目標被写体の情報が取得された場合は、新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う
     画像処理装置。
  12.  前記追尾目標被写体の情報を他の画像処理装置から受信する受信処理部と、
     前記追尾制御部によって出力された前記追尾中被写体を特定するための情報を前記他の画像処理装置に送信する送信処理部と、を備え、
     前記追尾制御部は、
     前記追尾の制御中に前記追尾目標被写体の情報を前記受信処理部が受信しなかった場合は、前記追尾目標被写体を変更せずに前記追尾の制御を行い、
     前記追尾の制御中に前記追尾目標被写体の情報を前記受信処理部が受信した場合は、新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う
     請求項11に記載の画像処理装置。
  13.  前記送信処理部は、前記第2撮像部による撮像画像の生成ごとに前記追尾中被写体を特定するための情報の送信を行う
     請求項12に記載の画像処理装置。
  14.  前記送信処理部は、前記追尾中被写体を特定するための情報として前記第2撮像部の光軸方向に関する情報を送信する
     請求項12に記載の画像処理装置。
  15.  前記送信処理部は、前記追尾中被写体を特定するための情報として前記第2撮像部において撮像された第2画像を送信する
     請求項12に記載の画像処理装置。
  16.  前記受信処理部は、前記他の画像処理装置から前記追尾目標被写体の移動方向の情報を受信し、
     前記追尾制御部は、前記第1画像の撮像時刻と受信した前記移動方向とに基づいて算出した前記追尾目標被写体の予測位置を用いて前記追尾についての制御を行う
     請求項12に記載の画像処理装置。
  17.  前記送信処理部の処理及び新たに取得された前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行う前記追尾制御部の処理を実行する第1態様と、前記追尾目標被写体を変更せずに前記追尾の制御を継続して実行する第2態様と、を切り替える切替処理部を備えた
     請求項12に記載の画像処理装置。
  18.  前記切替処理部は、前記追尾制御部によって前記追尾中被写体の移動態様に応じて前記第1態様と前記第2態様の切り替えを行う
     請求項17に記載の画像処理装置。
  19.  前記第2撮像部を備えた
     請求項12に記載の画像処理装置。
  20.  第1撮像部において撮像された第1画像に基づいて追尾の目標とされた被写体を追尾目標被写体として決定する追尾目標被写体決定部と、
     前記追尾目標被写体の情報を用いて、第2撮像部による被写体の追尾について制御を行う追尾制御部と、
     前記追尾制御部により出力された情報に基づいて第2撮像部による追尾中の被写体を追尾中被写体として特定する追尾中被写体特定部と、
     決定された前記追尾目標被写体と特定された前記追尾中被写体とが同一の被写体であるか否かを判定する判定処理部と、
     前記追尾中被写体と前記追尾目標被写体が同一でないと判定された場合に前記追尾目標被写体についての情報を前記追尾制御部へと出力する追尾変更処理部と、を備え、
     前記追尾制御部は、
     前記追尾の制御中に追尾目標被写体についての情報が入力された場合には、新たな前記追尾目標被写体の情報に基づいて特定された被写体を追尾の対象として追尾制御を行い、
     前記追尾の制御中に前記追尾目標被写体についての情報が入力されない場合には、前記追尾目標被写体を変更せずに前記追尾の制御を行う
     画像処理システム。
PCT/JP2021/047894 2021-02-02 2021-12-23 画像処理装置、画像処理システム WO2022168481A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP21924866.3A EP4290852A1 (en) 2021-02-02 2021-12-23 Image processing device and image processing system
US18/269,706 US20240056686A1 (en) 2021-02-02 2021-12-23 Image processing device and image processing system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2021015314 2021-02-02
JP2021-015314 2021-02-02

Publications (1)

Publication Number Publication Date
WO2022168481A1 true WO2022168481A1 (ja) 2022-08-11

Family

ID=82742225

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047894 WO2022168481A1 (ja) 2021-02-02 2021-12-23 画像処理装置、画像処理システム

Country Status (3)

Country Link
US (1) US20240056686A1 (ja)
EP (1) EP4290852A1 (ja)
WO (1) WO2022168481A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05334572A (ja) 1992-06-01 1993-12-17 Fuji Electric Co Ltd 室内監視装置
JP2003158664A (ja) * 2001-11-21 2003-05-30 Matsushita Electric Ind Co Ltd カメラ制御装置
JP2008507229A (ja) * 2004-07-19 2008-03-06 グランドアイ,エルティーディー 広角ビデオカメラのズーム機能の自動拡張
JP2012520650A (ja) * 2009-05-29 2012-09-06 ヨングク エレクトロニクス シーオー., エルティーディー 知能型監視カメラ装置及びこれを採用した映像監視システム
JP2019129410A (ja) * 2018-01-24 2019-08-01 キヤノン株式会社 監視カメラ、監視カメラの制御方法、およびプログラム
JP2020198468A (ja) * 2019-05-30 2020-12-10 キヤノン株式会社 撮像装置、撮像方法及びプログラム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05334572A (ja) 1992-06-01 1993-12-17 Fuji Electric Co Ltd 室内監視装置
JP2003158664A (ja) * 2001-11-21 2003-05-30 Matsushita Electric Ind Co Ltd カメラ制御装置
JP2008507229A (ja) * 2004-07-19 2008-03-06 グランドアイ,エルティーディー 広角ビデオカメラのズーム機能の自動拡張
JP2012520650A (ja) * 2009-05-29 2012-09-06 ヨングク エレクトロニクス シーオー., エルティーディー 知能型監視カメラ装置及びこれを採用した映像監視システム
JP2019129410A (ja) * 2018-01-24 2019-08-01 キヤノン株式会社 監視カメラ、監視カメラの制御方法、およびプログラム
JP2020198468A (ja) * 2019-05-30 2020-12-10 キヤノン株式会社 撮像装置、撮像方法及びプログラム

Also Published As

Publication number Publication date
EP4290852A1 (en) 2023-12-13
US20240056686A1 (en) 2024-02-15

Similar Documents

Publication Publication Date Title
JP6696615B2 (ja) 監視システム、監視方法、及び監視プログラムを記憶する記録媒体
KR101901104B1 (ko) 오토매틱 줌을 수행하기 위한 시스템들 및 방법들
US10451705B2 (en) Tracking control device, tracking control method, tracking control program, and automatic tracking imaging system
JP4697810B2 (ja) 自動追尾装置及び自動追尾方法
US20100188511A1 (en) Imaging apparatus, subject tracking method and storage medium
JP2008172427A (ja) カメラ制御装置及びその制御方法、並びにカメラ制御システム
JP2004520738A (ja) コンピュータ遠隔監視制御方式cctvシステム、これに用いられるコンピュータ映像マトリックススイッチャー及び制御プログラム
EP3923570A1 (en) Image processing device, image processing method, and program
WO2011141991A1 (ja) 画像処理装置および画像処理プログラム
WO2022168481A1 (ja) 画像処理装置、画像処理システム
JP6593922B2 (ja) 画像監視システム
JP2000083243A (ja) 撮像装置、撮像システム、撮像制御方法、及び記憶媒体
EP2942945B1 (en) System and method of precision remote ptz control of ip cameras
JP2009296536A (ja) 動画像中継配信装置、動画像中継配信方法及びプログラム
JP2005051664A (ja) 撮像装置及び撮像方法
EP4151370A1 (en) Remote operation device and program therefor
JP2009253449A (ja) 監視装置及び監視方法
JP2008301191A (ja) 映像監視システム、映像監視制御装置、映像監視制御方法、及び映像監視制御用プログラム
WO2020189057A1 (ja) 画像処理装置、画像処理方法、プログラム
US20220166939A1 (en) Information processing apparatus, method, and recording medium
JP4777486B2 (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JP5241880B2 (ja) カメラ制御システムおよびその方法およびその動作処理プログラムを記憶した記憶媒体
JPH03292571A (ja) 画像操作情報設定方式
EP4373070A1 (en) Information processing device, information processing method, and program
JP2024010640A (ja) 撮像システム及びそれを構成する制御装置、撮像装置、制御方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21924866

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18269706

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2021924866

Country of ref document: EP

Effective date: 20230904

NENP Non-entry into the national phase

Ref country code: JP