WO2023223933A1 - 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム - Google Patents

情報処理方法、情報処理装置、通信システム及びコンピュータプログラム Download PDF

Info

Publication number
WO2023223933A1
WO2023223933A1 PCT/JP2023/017719 JP2023017719W WO2023223933A1 WO 2023223933 A1 WO2023223933 A1 WO 2023223933A1 JP 2023017719 W JP2023017719 W JP 2023017719W WO 2023223933 A1 WO2023223933 A1 WO 2023223933A1
Authority
WO
WIPO (PCT)
Prior art keywords
virtual
information
camera
area
photographing camera
Prior art date
Application number
PCT/JP2023/017719
Other languages
English (en)
French (fr)
Inventor
琢人 元山
隆志 紺野
Original Assignee
ソニーグループ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニーグループ株式会社 filed Critical ソニーグループ株式会社
Publication of WO2023223933A1 publication Critical patent/WO2023223933A1/ja

Links

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B7/00Mountings, adjusting means, or light-tight connections, for optical elements
    • G02B7/28Systems for automatic generation of focusing signals
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment

Definitions

  • the present disclosure relates to an information processing method, an information processing device, a communication system, and a computer program.
  • the operator can check the focused area in real time.
  • even when focusing on the object to be photographed using the autofocus function of the camera if the drone moves or rotates at high speed, it may be difficult to make it follow the object to be photographed.
  • the present disclosure has been made in view of the above-mentioned problems, and makes it possible to easily grasp the area that is focused by the photographing camera.
  • the information processing method arranges a virtual camera associated with the photographing camera in a virtual environment space that models a target environment movable by a moving body equipped with a photographing camera, and corresponds to the field of view of the virtual camera.
  • a virtual focus area corresponding to the area focused by the photographing camera in the target environment is determined in the virtual environment space based on the image, and area specifying information specifying the virtual focus area is displayed on a display screen.
  • FIG. 1 is a diagram showing a communication system according to a first embodiment of the present disclosure.
  • a block diagram of a drone and an operating device. A diagram schematically showing a procedure for creating a three-dimensional environment map.
  • FIG. 3 is a diagram illustrating a specific example of processing performed by a three-dimensional view generation unit.
  • FIG. 3 is a diagram illustrating a specific example of processing performed by a three-dimensional view generation unit.
  • FIG. 8 is a diagram showing an example of displaying area identification information on the three-dimensional view screen shown in FIG.
  • FIG. 7 is a diagram showing a communication system according to a second embodiment.
  • FIG. 3 is a diagram schematically showing an example of moving a virtual camera and a virtual target object to predicted positions in a three-dimensional environment map. The figure which shows the example of a display of the image of the visual field range of a virtual camera in the future time.
  • FIG. 3 is a diagram illustrating an example of a method for determining a virtual focus area.
  • FIG. 3 is a diagram illustrating an example of controlling the focus position of a photographing camera.
  • 7 is a flowchart of an example of the operation of the communication system according to the second embodiment.
  • FIG. 7 is a diagram showing a communication system according to a third embodiment.
  • 5 is a flowchart illustrating an example of preparation processing performed by a simulation unit.
  • FIG. 3 is a diagram illustrating an example of processing performed by a simulation unit.
  • 5 is a flowchart showing an example of a simulation performed by a simulation unit.
  • 7 is a flowchart of an operation example of a communication system according to a third embodiment.
  • FIG. 7 is a diagram showing a communication system according to a fourth embodiment.
  • FIG. 7 is a diagram illustrating a specific example of processing by a focus area visualization image creation unit.
  • 10 is a flowchart of an operation example of a communication system according to a fourth embodiment.
  • FIG. 1 shows a communication system 1 according to an embodiment of the present disclosure.
  • the communication system 1 includes a drone 10 that is a mobile object and an operating device 20 that operates the drone 10.
  • the drone 10 includes a photographing camera 101 that photographs a target environment (target space).
  • the drone 10 receives operation information (control signals) from the operating device 20 and drives the rotor 111 with a drive system such as a motor, thereby flying along a route instructed by a user 30 who is an operator or a pre-designated route. do.
  • the mobile object according to the present disclosure is not limited to a drone, and may be a vehicle such as an automated guided vehicle (AGV) or a trolley, or a robot.
  • the operating device 20 is a device for operating the drone 10 by the user 30.
  • the operation of the drone 10 includes not only the flight operation of the drone itself but also the operation of the photographing camera 101.
  • the operation of the photographing camera 101 may include operating the direction of the photographing camera 101 (that is, the posture of the photographing camera 101), operating the zoom mechanism of the photographing camera 101, and the like.
  • the photographing camera 101 is movably installed in the main body of the movable body, the operation of moving the photographing camera 101 may be included in the operation of the photographing camera 101.
  • An example of operating a zoom mechanism is optical zoom, in which the focal length is changed by moving the position of the lens. By changing the focal length, the area or position where the photographing camera 101 is focused, in other words, the distance to the area or position where the camera 101 is focused is changed.
  • the photographing camera 101 may have an autofocus function.
  • the target environment in which the drone 10 flies and photographs may be any environment such as a factory, a news site, a stadium, a forest, a town, etc., for example.
  • the shooting target of the drone 10 may be a specific location (for example, a specific address) or a specific object (for example, a specific building or plant) in the shooting environment, or may be an object that moves in the target environment (hereinafter referred to as an object).
  • objects include humans, animals, insects, and cars.
  • the object to be photographed is not limited to a specific object as long as it exists in the object environment.
  • FIG. 2 is a block diagram of the drone 10 and the operating device 20.
  • the drone 10 includes a photographing camera 101, a communication section 102, a flight control section 103, a ranging sensor 104, a position specifying section 105, an object recognition section 106, an integrating section 107, an object tracking section 108, a focus control section 109, and an image data storage section. It is equipped with 110.
  • the functions of blocks 102, 103, 105 to 109 may be realized by having a computer including a processor such as a CPU (Central Processing Unit) execute a program, or may be realized by a circuit such as an ASIC or FPGA. However, it may also be realized by a combination of these.
  • a processor such as a CPU (Central Processing Unit) execute a program
  • a circuit such as an ASIC or FPGA
  • the operating device 20 includes an operation control section 201, a communication section 202, a three-dimensional environment map storage section 203, a three-dimensional view generation section 204, a focus adjustment calculation section 206, a display section 207, and a user input section 208.
  • the three-dimensional view generation unit 204 and focus adjustment calculation unit 206 constitute a processing unit 209.
  • the functions of blocks 201, 202, 204, 206, and 208 may be realized by having a computer including a processor such as a CPU execute a program, or may be implemented using an ASIC (Application Specific Integrated Circuit), FPGA (Field-Programmable Gate Array ), or a combination thereof.
  • ASIC Application Specific Integrated Circuit
  • FPGA Field-Programmable Gate Array
  • the communication unit 202 in the operating device 20 wirelessly communicates with the communication unit 102 in the drone 10.
  • the communication unit 202 includes a circuit that processes a communication protocol, an AD (Analog to Digital)/DA (Digital to Analog) converter, a frequency converter, a bandpass filter, an amplifier, one or more antennas, and the like.
  • the communication protocol and wireless frequency band are not limited to specific ones.
  • the communication unit 102 in the drone 10 wirelessly communicates with the communication unit 202 in the operating device 20.
  • the communication unit 102 includes a circuit that processes a communication protocol, an AD/DA converter, a frequency converter, a bandpass filter, an amplifier, an antenna, and the like.
  • the communication protocol and wireless frequency band are not limited to specific ones. Note that a configuration in which the mobile object or drone 10 according to the present disclosure communicates with the operating device 20 by wire is not excluded.
  • the three-dimensional environment map storage unit 203 in the operating device 20 stores a three-dimensional environment map that is a virtual environment space that models the target environment in which the drone 10 flies and photographs.
  • a three-dimensional environment map (virtual environment space) can be created based on a plurality of images of the target environment taken from a plurality of viewpoints.
  • photogrammetry or the like can be used as a method for creating a three-dimensional environment map.
  • FIG. 3 is a diagram schematically showing the procedure for creating a three-dimensional environment map.
  • the target environment is photographed from various viewpoints using a camera in advance.
  • Photography may be performed by flying a mobile object 50 such as a drone in the target environment 60, or by a user 51 such as a worker moving in the target environment 60 with a handheld camera 52.
  • the moving body 50 may be the drone 10 or may be a moving body such as a drone different from the drone 10.
  • the user Based on the plurality of images 53 photographed in advance in this manner, the user generates the three-dimensional environment map 70 by causing the computer to execute the program of the photogrammetry tool.
  • the data of the generated three-dimensional environment map 70 is stored in the three-dimensional environment map storage unit 203.
  • distance measurement sensors such as GPS (Global Positioning Satellite) information at the time of shooting and LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging) are used. information, coordinate information of a control point placed in the photographing environment (a point whose exact position is known in advance), etc. may be utilized.
  • FIG. 4 is a flowchart of an example of the procedure for creating a three-dimensional environment map.
  • This example shows a case where the moving object 50 performs photography.
  • the moving object 50 flies over the target environment 60, and the camera of the moving object 50 takes a picture (S11).
  • the data of the photographed image is stored in a storage section within the mobile body 50.
  • a processing unit such as a CPU in the moving object 50 determines whether a shooting end condition, which is a condition for determining whether a sufficient number of captured images have been acquired for the entire target environment 60, is satisfied (S12).
  • a sufficient number of images means that the areas between captured images overlap by a certain size or more between adjacent times.
  • the mobile object 50 moves within a range where the shooting area overlaps the image shot one hour ago by a certain percentage or more (S13), and shoots with the camera (S11). .
  • the image stored in the storage unit of the moving object 50 is read out to a computer, and a three-dimensional environment map is generated by the computer using photogrammetry.
  • the computer may be the operating device 20 or the mobile body 50 in FIG.
  • the user input unit 208 is an input unit through which the user inputs various operation information or operation instructions.
  • the user input unit 208 is, for example, a touch panel, a stick, a button, a cross key, or a combination thereof.
  • Examples of the operation information input from the user input unit 208 include operation information for the flight of the drone 10 (for example, information for controlling the speed and direction), and operation information for the photographing camera 101 (for example, information for controlling the attitude of the photographing camera 101). and so on.
  • the operation information it may be specified whether the drone 10 is to perform autonomous flight or manual flight. When specifying autonomous flight, a route for autonomous flight may also be specified. Further, as the operation information, instructions for switching screens to be displayed on the display unit 207 may also be input.
  • the operation control unit 201 receives operation information of the drone 10 or the photographing camera 101 via the user input unit 208, converts the received operation information into a control instruction format that can be interpreted by the drone 10 or the photographing camera 101, and converts the received operation information into a control instruction format that can be interpreted by the drone 10 or the photographing camera 101. , to the drone 10. More specifically, the operation control unit 201 sends a control instruction to the communication unit 202, and the communication unit 202 sends the control instruction to the drone 10.
  • the communication unit 102 of the drone 10 receives control instructions from the operating device 20.
  • the communication unit 102 classifies the received control instructions, sends control instructions indicating flight operations and operations of the photographing camera 101 to the flight control unit 103, and sends control instructions indicating operations of the photographing camera 101 to the photographing camera 101.
  • the flight control unit 103 generates flight control information based on control instructions indicating flight operations, and sends the control information to a drive system (not shown).
  • the drive system includes multiple ESCs (Electric Speed Controllers), multiple motors, multiple rotors (see rotor 111 in FIG. 1), and the like.
  • the ESC drives a corresponding motor based on the control information, and rotates a rotor connected to the shaft of the motor. This allows the drone 10 to fly in a desired direction and at a desired speed, and to stop (hover) at a desired position.
  • the flight control unit 103 also acquires at least one of the position information and speed information of the drone 10 and the direction information (attitude information) of the photographing camera 101 at regular time intervals, and sends the acquired information to the integration unit 107. .
  • the flight control unit 103 also sends the acquired information to the object tracking unit 108.
  • the time-series sequence of at least one of the position information and speed information of the drone 10 corresponds to the movement information of the drone 10.
  • the time-series sequence of orientation information of the photographing camera 101 corresponds to movement information of the photographing camera 101. Therefore, the movement information of the drone 10 and the movement information of the photographing camera 101 are based on the operation information input by the user into the operation device 20.
  • the method by which the flight control unit 103 acquires the position information of the drone 10 may be based on the history of control instructions indicating flight operations.
  • at least one sensor such as a GPS (Global Positioning Satellite) sensor and an IMU (Inertial Measurement Unit) may be used.
  • a history of control instructions, GPS, IMU, etc. may be combined.
  • the flight control unit 103 may acquire the position information of the drone 10 by sending inquiry data to the server.
  • the operating device 20 may have a server function that manages the position of the drone 10.
  • the flight control unit 103 may acquire orientation information of the photographing camera 101 based on a history of control instructions indicating operations of the photographing camera 101. Alternatively, if the photographing camera 101 has a function of detecting or managing its own orientation, the flight control unit 103 may acquire orientation information of the photographing camera 101 by sending inquiry data to the photographing camera 101. .
  • the photographing camera 101 is an imaging device that photographs the target environment in which the drone 10 is flying. Photographs are taken at regular time intervals.
  • the photographing camera 101 may be any camera, such as an RGB camera, a monochrome camera, an infrared camera, a stereo camera, or a depth camera, as long as it can photograph the surrounding environment. Although it is assumed that the image data acquired by the photographing camera 101 is a moving image, it may be a still image.
  • FIG. 5 shows the drone 10 flying over the target environment 60 and photographing the target environment 60 with the photographing camera 101.
  • the photographing camera 101 has an angle of view 101A (field of view).
  • the target environment 60 includes a target object 61 that is an object to be photographed.
  • the target object 61 is a person walking or running in a forest.
  • objects 5, 7, and 9 are arranged as other objects in the target environment 60.
  • Objects 5, 7, and 9 are tree objects.
  • Image data taken by the photographing camera 101 is stored in the image data storage section 110. Further, image data photographed by the photographing camera 101 is selected at regular intervals. For example, when X images are taken during a certain period, the latest image data of the X images is selected. The selected image data is sent to the position specifying section 105 and the object recognition section 106. In this way, the processing performed by the position specifying unit 105 and the object recognition unit 106 is performed not on all image data taken by the photographing camera 101, but only on image data selected at a constant cycle. This makes it possible to reduce the processing load on blocks downstream of the photographing camera 101.
  • the image data storage unit 110 stores image data photographed by the photographing camera 101.
  • the image data storage unit 110 includes, for example, a hard disk, a RAM (Random Access Memory) disk, a nonvolatile memory, and the like.
  • the image data stored in the image data storage unit 110 is read out via wireless communication, wired communication, or a recording medium (memory card, etc.) after the flight of the drone 10 is completed, and the content of the image data is confirmed by the operator. be able to. It is not excluded that the image data taken by the photographing camera 101 is transmitted to the operating device 20 and the image data is displayed on the display unit 207 in real time. In this case, the image data may be transmitted intermittently, or the image data may be compressed.
  • the display unit 207 is a display capable of displaying data or information, such as a liquid crystal display panel or an organic EL panel.
  • the photographing camera 101 can change the direction of photographing, that is, the orientation (posture) of the camera body.
  • the photographing camera 101 may be provided on the drone 10 via a 3-axis gimbal.
  • the orientation of the photographing camera 101 can be changed by controlling the three-axis gimbal based on operation information (control instructions) from the operator.
  • the photographing camera 101 may be movable within the drone 10 along a rail or the like, and the relative position of the photographing camera 101 with respect to the drone 10 may be changeable.
  • the relative position of the photographing camera 101 may be changed by an operation from the operator.
  • it is assumed that the position of the photographing camera 101 in the drone 10 is fixed.
  • the position of the drone 10 and the position of the photographing camera 101 have a one-to-one correspondence in the coordinate system of the target environment. In other words, once the position of the drone 10 is determined, the position of the photographing camera 101 is also determined.
  • the position specifying unit 105 of the drone 10 transmits a three-dimensional environment map acquisition request to the operating device 20 and acquires data of the three-dimensional environmental map from the operating device 20. More specifically, in the operating device 20, when the communication unit 202 receives a request to acquire a three-dimensional environment map from the drone 10, the communication unit 202 retrieves the three-dimensional environment map from the three-dimensional environment map storage unit 203 based on the acquisition request. Read out. The communication unit 202 transmits data of the three-dimensional environment map to the drone 10. The communication unit 102 sends the three-dimensional environment map data received from the operating device 20 to the position specifying unit 105. Note that a configuration in which the position specifying unit 105 does not transmit an acquisition request is also possible. For example, the three-dimensional environment map data is transmitted from the operating device 20 autonomously or in accordance with a user's transmission instruction, and the position specifying unit 105 acquires the three-dimensional environment map data transmitted from the operating device 20 .
  • the position specifying unit 105 determines the position in the three-dimensional environment map corresponding to the position of the photographing camera 101 (corresponding position in the map) and the orientation of the photographing camera 101, based on image data received from the photographing camera 101 at regular intervals.
  • the orientation in the three-dimensional environment map (corresponding orientation within the map) is determined. For example, image data is checked against a three-dimensional environment map, and the position and orientation where the image data best matches is searched for.
  • a method of matching for example, one or more feature points (for example, a corner, a place with a large brightness change, etc.) and their feature amounts are calculated in the image data, and a feature amount vector including the feature amount of each feature point is obtained.
  • image data (model image data) viewed from an arbitrary position and direction on the three-dimensional environment map is acquired, and a model feature vector is obtained in the same manner for the model image data.
  • the position and orientation at which the model feature vector that matches or approximates the feature vector of the image data is determined as the corresponding position and orientation within the map of the photographing camera 101. Approximating means, for example, that the absolute value of the difference between the feature vectors is less than or equal to a threshold value.
  • the verification method is just an example, and other methods may be used. For example, the position and orientation where the sum of the differences between pixels between the image data and the model image data is the smallest may be determined as the corresponding position and orientation within the map of the photographing camera 101.
  • the integrating unit 107 combines the movement information of the drone 10 and the movement information of the photographing camera 101 acquired by the flight control unit 103 and the corresponding position and orientation within the map of the photographing camera 101 estimated by the position specifying unit 105 into one. Integrate as one set of data. One integrated set of data is referred to as integrated data.
  • the motion information of the drone 10 includes, for example, at least one of the above-mentioned position information and speed information for a certain period.
  • the motion information of the photographing camera 101 includes, for example, the direction information for a certain period described above, and may further include position information for a certain period. Integrating section 107 transmits the integrated data to operating device 20 via communication section 102 .
  • the integrated data may include information obtained by converting the movement information of the drone 10 and the movement information of the photographing camera 101 into movement information within a three-dimensional environment map.
  • the ranging sensor 104 of the drone 10 measures the distance of an area within the detection range at regular time intervals, and generates distance data including distance values to each position within the detection range.
  • the distance data includes a distance value for each pixel.
  • the distance sensor 104 sends distance data to the object recognition unit 106.
  • the detection range of the distance measurement sensor 104 is, for example, the same as or at least partially common to the photographing range (field of view range) of the photographing camera 101.
  • the distance measurement sensor 104 is, for example, LiDAR (Light Detection and Ranging, Laser Imaging Detection and Ranging), a stereo camera, a radar, or a monocular camera.
  • the object recognition unit 106 detects an object to be photographed (target object) based on image data from the photographing camera 101.
  • the object recognition unit 106 calculates the position of the detected target object based on the distance data.
  • the object recognition unit 106 sends position information of the target object to the object tracking unit 108. It is assumed that the correspondence between the photographing range (field of view range) of the photographing camera 101 and the detection range of the ranging sensor 104 is obtained in advance. Therefore, it is possible to calculate the position of any object included in the image data from the distance data.
  • the type of target object may be determined in advance.
  • the target object may be a moving object (dynamic object) or a stationary object (stationary object).
  • the dynamic object may be a person moving through the forest, or if the target environment is a forest, it may be a player participating in the game.
  • the dynamic object does not have to be a human being, but may be a vehicle such as a car, an insect, or an animal.
  • the stationary object may be anything, such as a building or a landscape.
  • the orientation of the target object may be detected by analyzing image data or the like.
  • the object tracking unit 108 tracks the target object based on the movement information of the drone 10 (or the photographing camera 101) from the flight control unit 103 and the position information of the target object detected by the object recognition unit 106. conduct. This estimates the movement of the target object. For example, the object tracking unit 108 estimates the movement of the target object by the length of the above-described constant period, and obtains movement information of the target object. As a result, motion information that estimates the current movement of the target object is obtained.
  • the object tracking unit 108 may include a memory that stores a history of the position or movement of the target object. In this case, the movement of the target object may be estimated based on the position or movement history.
  • a history of movement vectors may be calculated from a sequence of past positions, and the movement of the target object may be estimated from the history of movement vectors.
  • the object tracking unit 108 transmits position information and movement information of the target object to the operating device 20 via the communication unit 102. If the orientation of the target object is also detected in addition to the position of the target object, the orientation information of the target object may also be transmitted.
  • the three-dimensional view generation unit 204 in the operating device 20 reads three-dimensional environment map data from the three-dimensional environment map storage unit 203, and also acquires integrated data and position information and movement information of the target object from the drone 10. .
  • the three-dimensional view generation unit 204 generates image data to be presented to the operator as a three-dimensional view by integrating the photographing camera 101 and the target object into the three-dimensional environment map.
  • the three-dimensional view generation unit 204 arranges a virtual camera (virtual viewpoint) associated with the photographing camera 101 at a corresponding position in the map of the photographing camera 101 in the three-dimensional environment map in a corresponding orientation within the map. do.
  • the corresponding position in the map of the photographing camera 101 corresponds to the first position obtained by converting the position of the photographing camera 101 into a position in the three-dimensional environment map
  • the corresponding orientation in the map corresponds to the first position obtained by converting the position of the photographing camera 101 into a position in the three-dimensional environment map. This corresponds to the first orientation converted to the orientation of .
  • the viewing range of the virtual camera is set according to camera parameters such as the viewing angle (viewing range) of the photographing camera 101, for example.
  • the field of view of the virtual camera is set in accordance with the correspondence between the three-dimensional environment map and the target environment, such as size.
  • the viewing range of the virtual camera may be a predetermined range.
  • an object (virtual target object) corresponding to the target object is placed on the three-dimensional environment map. That is, the position information of the target object is converted to a position in the three-dimensional environment map, and the virtual target object is placed at the converted position (the position in the three-dimensional environment map that corresponds to the position of the target object).
  • Any object within the three-dimensional environment map may be referred to as a virtual object, and a virtual object corresponding to a target object may be particularly referred to as a virtual target object.
  • the shape of the virtual target object may be a predetermined shape depending on the type of the target object, a specific shape such as a rectangular parallelepiped, a sphere, or a specific character, or a shape specified by the user.
  • the target object to be photographed is a dynamic object that does not exist in the target environment when the 3D environment map is generated, and the 3D environment map stored in the 3D environment map storage unit 203 does not include the target object. Not yet. However, if the target object to be photographed by the drone 10 is a stationary object, the target object may be included in the target environment when creating the three-dimensional environment map.
  • the three-dimensional view generation unit 204 generates image data within the field of view of the virtual camera from the three-dimensional environment map. That is, the situation captured by the photographing camera 101 in the target environment is emulated using a three-dimensional environment map.
  • the three-dimensional view generation unit 204 causes the display unit 207 to display the image data generated through emulation. Furthermore, the three-dimensional view generation unit 204 moves the virtual camera and the virtual target object at a constant frame rate based on the motion information of the photographing camera 101 (or the motion information of the drone 10) and the motion information of the target object.
  • Image data including the position and orientation of the virtual camera and the position and orientation of the virtual target object for each frame rate is generated and displayed on the display unit 207.
  • the position and orientation of the virtual target object correspond to a third position and a third orientation in which the virtual target object is arranged.
  • the situation captured by the photographing camera 101 in the target environment is emulated on the three-dimensional environment map at a constant frame rate.
  • This process is performed, for example, for a period corresponding to the above-mentioned constant cycle.
  • an image of the area on the three-dimensional environment map corresponding to the area photographed by the drone 10 is displayed as a moving image.
  • the target object to be photographed is displayed as a virtual target object that schematically represents the target object.
  • FIG. 6 shows an example in which a virtual camera 71 (virtual viewpoint) and a virtual target object 72 are arranged on a three-dimensional environment map 70.
  • a virtual camera 71 is arranged at a corresponding position within the map and oriented in a corresponding direction within the map.
  • the virtual camera 71 has a viewing range 71A that is determined according to the angle of view of the photographing camera 101 and the correspondence between the target environment and the three-dimensional environment map.
  • a virtual drone equipped with a virtual camera 71 is shown, but only the virtual camera 71 may be arranged.
  • the virtual target object 72 is a cubic object that schematically represents the human target object 61 shown in FIG.
  • FIG. 7 shows an example of a three-dimensional view generated by the three-dimensional view generation unit 204.
  • An image 80 within the viewing range 71A of the virtual camera 71 is displayed on the screen (display screen) of the display unit 207.
  • the focus adjustment calculation unit 206 calculates a three-dimensional image based on the image corresponding to the visual field range of the virtual camera (an image within the visual field range) by setting an area corresponding to the area where the photographing camera 101 is focused in the target environment as a virtual focus area. Determine or estimate in the environmental map.
  • the focused area in-focus area means that the depth of field of the photographing camera 101 includes all or at least part of the area. Depth of field is the distance range on the subject side that appears to be in focus.
  • the focus adjustment calculation unit 206 selects an object from at least one object (virtual object) included in the image within the visual field of the virtual camera according to the first selection condition, and sets the area containing the selected object as a virtual focus area.
  • the photographing camera 101 may also select the object to focus on according to the same conditions as this first selection condition.
  • the first selection condition may include, for example, at least one of the following conditions. ⁇ Conditions for selecting a moving object among at least one object ⁇ Conditions for selecting an object based on the area included in the first area range in the image among at least one object (for example, if the area included in the first area range is the largest) (select large objects) ⁇ Conditions for selecting at least one object included in the first distance range from the virtual camera
  • the area on which the photographing camera 101 is focused is a target object to be photographed.
  • a condition for selecting a moving object is used as the above-mentioned first selection condition.
  • the focus adjustment calculating unit 206 causes the display unit 207 to display area specifying information, which is information specifying the calculated virtual focus area, via the three-dimensional view generating unit 204.
  • the area specifying information can be composed of arbitrary information such as a line (such as a rectangular or circular frame) surrounding the virtual focus area or a translucent image that masks the virtual focus area. This allows the user to visualize an area in the three-dimensional environment map that corresponds to the area expected to be focused on by the photographing camera 101. That is, the user can expect that the photographing camera 101 is focused on the area in the target environment that corresponds to the area in the three-dimensional environment map indicated by the area specifying information. For example, if the region specifying information indicates a region including a virtual target object, the user can expect that the photographing camera 101 is focused on a region including a target object corresponding to the virtual target object.
  • FIG. 8 shows an example in which the area specifying information 81 is displayed on the three-dimensional view screen shown in FIG. 7.
  • the area specifying information 81 is arranged to overlap the virtual target object 72 and its surrounding area, and is indicated by diagonal lines.
  • the user can input an instruction to change the virtual focus area indicated by the area specifying information 81 from the user input unit 208.
  • the instruction to change the virtual focus area may be given by, for example, tapping another object on the screen, and detecting the area including the tapped object as the virtual focus area specified by the user.
  • the user may instruct to change the virtual focus area by moving the area specifying information displayed on the display unit 207.
  • you may specify a range on the screen with your finger or pen as the area you want to focus on.
  • the focus adjustment calculation unit 206 calculates the distance to the changed virtual focus area.
  • the focus adjustment calculation unit 206 converts the calculated distance into a distance of the target environment.
  • the focus adjustment calculation unit 206 generates focus adjustment instruction information that instructs to focus on the converted distance, and transmits it to the drone 10 via the communication unit 202.
  • This focus adjustment instruction information corresponds to information that instructs to focus on an area in the target environment that corresponds to the changed virtual focus area.
  • the focus control unit 109 of the drone 10 adjusts the focus of the photographing camera 101 according to the focus adjustment instruction information.
  • Camera parameters include, for example, lens position or focal length.
  • the focal length is adjusted so that, for example, an object located at the converted distance is focused.
  • the focus adjustment calculation unit 206 converts the distance to the current virtual focus area into the distance of the target environment.
  • the focus adjustment calculation unit 206 generates focus adjustment instruction information that instructs to focus on the converted distance, and transmits it to the drone 10 via the communication unit 202.
  • the focus control unit 109 of the drone 10 adjusts the focus of the photographing camera 101 according to the focus adjustment instruction information.
  • FIG. 9 is a flowchart of an example of the operation of the communication system according to the first embodiment.
  • the user operates the user input unit 208 of the operating device 20 to fly the drone 10 in the target environment (manual flight), and causes the camera 101 to photograph the target environment. Photographing by the photographing camera 101 is performed, for example, at a constant frame rate.
  • the flight control unit 103 of the drone 10 estimates movement information of the drone 10 and movement information of the photographing camera 101 based on the user's operation information.
  • step S102 the position specifying unit 105 of the drone 10 determines a position in the three-dimensional environment map (corresponding position in the map) corresponding to the position and orientation of the photographing camera 101 based on the image data received from the photographing camera 101 at a constant cycle. and the orientation (corresponding orientation within the map).
  • the integrating unit 107 combines the movement information of the drone 10 and the movement information of the photographing camera 101 estimated by the flight control unit 103, and the corresponding position and orientation within the map of the photographing camera 101 into one set of data. and obtain integrated data.
  • the motion information of the drone 10 includes, for example, at least one of position information and speed information for the period of the above-mentioned cycle length.
  • the motion information of the photographing camera 101 includes at least one of position information and orientation information for the period of the above-mentioned cycle length, for example.
  • step S104 the distance measurement sensor 104 performs distance measurement within the detection range in the target environment, and generates distance data including distance values to each position within the detection range.
  • the distance sensor 104 sends distance data to the object recognition unit 106.
  • step S105 the object recognition unit 106 detects an object to be photographed (target object) based on the image data from the photographing camera 101.
  • the object recognition unit 106 calculates the position of the detected target object in the target environment based on the distance data.
  • the object tracking unit 108 detects the target object based on the movement information of at least one of the drone 10 or the photographing camera 101 from the flight control unit 103 and the position information of the target object detected by the object recognition unit 106. Track. This estimates the movement of the target object.
  • the object tracking unit 108 estimates the movement of the target object over a period of, for example, the above-mentioned cycle length, and obtains movement information of the target object.
  • step S107 the communication unit 102 transmits the integrated data obtained by the integration unit 107 and the movement information and position information of the target object obtained by the object tracking unit 108 to the operating device 20.
  • the three-dimensional view generation unit 204 of the operating device 20 integrates the target object and the photographing camera into the three-dimensional environment map. That is, the three-dimensional view generation unit 204 arranges a virtual camera (virtual viewpoint) at a position corresponding to the photographing camera 101 in the three-dimensional environment map in an orientation corresponding to the map. Further, the visual field range of the virtual camera is set based on the camera parameters of the photographing camera 101 and the like. Furthermore, based on the position information of the target object, a virtual target object corresponding to the target object is placed on the three-dimensional environment map. Note that when detecting orientation information in addition to position information of the target object in the target environment, the orientation of the virtual target object may also be set according to the orientation information.
  • step S109 the three-dimensional view generation unit 204 generates image data within the field of view of the virtual camera from the three-dimensional environment map at a constant frame rate corresponding to the period of the above-mentioned period length, and the generated image data. It is displayed on the display unit 207. That is, the image of the scene captured by the photographing camera 101 in the target environment is emulated with a three-dimensional environment map. Specifically, the three-dimensional view generation unit 204 moves the virtual camera and the virtual target object at a constant frame rate based on the motion information of the photographing camera 101 (or the drone 10) and the motion information of the target object. Then, the image data for each frame rate is displayed on the display unit 207.
  • step S110 the focus adjustment calculation unit 206 calculates the area corresponding to the area in which the photographing camera 101 is focused (the area in which the photographing camera 101 is expected to be in focus) based on the image of the visual field range of the virtual camera.
  • a virtual focus area is determined in the three-dimensional environment map. Area specifying information for specifying the virtual focus area is displayed on the display unit 207.
  • the focus adjustment calculation unit 206 determines whether an instruction to change the virtual focus area has been input from the user input unit 208.
  • the focus adjustment calculation unit 206 calculates the distance to the changed virtual focus area instructed by the user, and uses the calculated distance as the distance of the target environment. Convert to .
  • the distance to the virtual focus area may be the average distance to the virtual focus area, the average distance to the virtual target object included in the virtual focus area, or the distance to the position (for example, the center of gravity) of the virtual target object. . Alternatively, it may be a distance to the center of gravity in the virtual focus area or any predetermined position, or a distance determined by another method.
  • step S114 the focus adjustment calculation unit 206 generates focus adjustment instruction information that instructs to adjust the focus to the converted distance, and transmits it to the drone 10 via the communication unit 202.
  • step S115 the focus control unit 109 of the drone 10 adjusts the focus by adjusting camera parameters such as the focal length of the photographing camera 101 according to the focus adjustment instruction information.
  • the focus adjustment calculation unit 206 converts the distance to the current virtual focus area into a distance in the target environment in step S112.
  • step S113 if the converted distance is the same as the previous converted distance, the focus adjustment calculation unit 206 determines that the area where the photographic camera 101 is expected to be focused is already in focus. (YES in S113), and the process returns to step S101.
  • the focus adjustment calculation unit 206 determines that the area where the photographing camera 101 is expected to be in focus is not in focus (NO in S113). ). In the first process of this flowchart, since the distance after the previous conversion is unknown, it may be unconditionally determined that the object is not in focus in step S113.
  • the focus adjustment calculation unit 206 generates focus adjustment instruction information that instructs to adjust the focus to the converted distance, and transmits it to the drone 10 via the communication unit 202.
  • the user can grasp the area in which the photographing camera is focused (the area expected to be in focus) as the virtual focus area in the three-dimensional environment map. If the virtual focus area is different from the area expected by the user, the user can change the area on which the photographing camera 101 is focused in the target environment to a desired area by changing the virtual focus area based on the input. In other words, the user can adjust the focus area of the photographing camera while grasping the state within the viewing angle of the photographing camera (current scene or composition) using the three-dimensional environment map.
  • the angle of view of the camera can be adjusted based on the drone's position. You can reconfigure the scene within and adjust the area the camera focuses on. In this way, the user can have the drone capture high-quality images that are focused on a desired area.
  • This embodiment calculates the position and orientation of the photographing camera 101 at a future time and the position and orientation of the target object at the future time by predicting the future movements of the photographing camera 101 and the target object.
  • the position and orientation of the virtual camera are changed according to the predicted position and orientation of the photographing camera 101, and the position and orientation of the virtual target object are changed according to the predicted position and orientation of the target object.
  • An image of the field of view of the virtual camera at the changed position is displayed on the display unit 207.
  • a virtual focus area (virtual focus area at a future time) is specified in an image within the field of view of the virtual camera, and area specifying information is displayed in association with (for example, superimposed on) the focus area.
  • the user can visually confirm in advance the area in which the photographing camera 101 is expected to be in focus in the future. Further, the user can change the virtual focus area at a future time to a desired position in the same manner as in the first embodiment. In other words, the user can specify in advance the area in which the photographic camera 101 is to be focused before a future time arrives. Thereby, it is possible to obtain a high-quality photographed image in which a desired area is in focus. This embodiment will be described in detail below.
  • FIG. 10 shows a communication system 2 according to a second embodiment of the present disclosure.
  • a future predicted view generation unit 205 is added to the processing unit 209 in the operating device 20.
  • Elements with the same names as those in FIG. 2 are given the same reference numerals, and detailed explanations are omitted as appropriate, except for changed or expanded processing.
  • the future predicted view generation unit 205 predicts the position and orientation of the photographing camera 101 at a future time after a certain period of time based on the movement information of the photographing camera 101. For example, operation information (instruction information to the drone 10) output from the operation control unit 201 is received, and the position and orientation of the photographing camera 101 at a future time after a certain period of time are predicted. Alternatively, the future predicted view generation unit 205 may predict the position and orientation of the photographing camera 101 after a certain period of time based on the movement history of the drone 10 or the photographing camera 101.
  • the three-dimensional view generation unit 204 may include a holding unit that holds the movement history of the drone 10 or the photographing camera 101.
  • the movement example history may be created based on the operation information, or may be created based on the movement information of the drone 10 or the photographing camera 101 received from the drone 10. Although the position and orientation of the photographing camera 101 are predicted here, only the position of the photographing camera 101 may be predicted. In this case, the direction of the photographing camera 101 may be fixed in advance.
  • the predicted future view generation unit 205 determines the position and orientation of the virtual camera based on the predicted position and orientation of the photographing camera 101. For example, the position and orientation of the virtual camera are changed in the three-dimensional environment map according to the difference between the position and orientation before prediction and the predicted position and orientation.
  • the future predicted view generation unit 205 predicts the movement of the target object based on the movement information (for example, the history of the position of the target object) of the target object imaged by the photographing camera 101 in the target environment.
  • the future predicted view generation unit 205 predicts at least one of the position and orientation of the target object at a future time after a certain period of time.
  • the future predicted view generation unit 205 moves the virtual target object in the three-dimensional environment map according to the predicted position and orientation of the target object. That is, the position and orientation of the virtual target object are changed.
  • the position and orientation of the target object are predicted here, only the position of the target object may be predicted.
  • FIG. 11 schematically shows an example of moving the virtual camera 71 and virtual target object 72 to predicted positions in the three-dimensional environment map 70.
  • the position of the photographing camera 101 at a future time is predicted, and the virtual camera 71 is moved to a position (second position) in the three-dimensional environment map 70 corresponding to the predicted position (processing P1).
  • the orientation of the camera 101 at a future time is predicted, and the virtual camera 71 is directed in accordance with the predicted orientation (processing P2).
  • the position and orientation of the virtual camera 71 in the three-dimensional environment map 70 which correspond to the predicted position and orientation of the photographing camera 101, correspond to a second position and a second orientation at which the virtual camera 71 is arranged.
  • the movement of the target object in the target environment is predicted, and the virtual target object 72 in the three-dimensional environment map 70 is moved and its orientation is changed according to the predicted position and orientation (process P3).
  • the future predicted view generation unit 205 causes the display unit 207 to display an image of the field of view of the virtual camera 71 at the future time position and orientation.
  • FIG. 12 shows a display example of an image 83 of the visual field of the virtual camera at a future time after a certain period of time, when the image of the visual field of the virtual camera at the current time is the image 80 shown in FIG. 7 described above.
  • the display unit 207 displays an image 83 that is an image of the field of view of the virtual camera at a future time.
  • the image 83 at the current time and the image 80 at the future time may be displayed on the display unit 207 simultaneously or in a switchable manner.
  • the future predicted view generation unit 205 determines a virtual focus area in an image of the visual field of the virtual camera at a future time.
  • the future predicted view generation unit 205 selects an object (virtual object) in an image within the field of view of the virtual camera at a future time according to the second selection condition, and sets an area including the selected object as a virtual focus area.
  • the second selection condition may include at least one of the following conditions. ⁇ Conditions for selecting a moving object among at least one object ⁇ Conditions for selecting an object having the largest area included in the second region range in the image among at least one object ⁇ Out of at least one object, the virtual camera Condition for selecting an object included in the second distance range from ⁇ Condition for selecting an object specified by the user from among at least one object
  • the future predicted view generation unit 205 arranges the area identification information in association with the determined virtual focus area. For example, area specifying information is superimposed on the virtual focus area.
  • FIG. 13 a specific example of a method for determining a virtual focus area according to the second selection condition will be shown using FIG. 13.
  • FIG. 13 is a diagram illustrating an example of a method for determining a virtual focus area.
  • FIG. 13A shows an example in which an area including an object (virtual target object 72) that moves as a tracking target in an image of the visual field of the virtual camera at a future time is determined as the virtual focus area.
  • Area specifying information 82 indicated by diagonal lines is displayed superimposed on the determined virtual focus area.
  • FIG. 13(B) shows an example in which an object is selected from one or more objects included in an area of a predetermined shape in an image of a virtual camera at a future time, and the area of the selected object is determined as a virtual focus area. More specifically, among the objects that are at least partially included in the rectangular area 84 that includes the center of the image, the object that has the largest area included in the area 84 is selected. In this example, a virtual object 85 different from the virtual target object 72 is selected. A virtual focus area is set for the selected virtual object 85. Area specifying information 86 indicated by diagonal lines is displayed superimposed on the determined virtual focus area.
  • FIG. 13(C) shows an example in which the area of the virtual object specified by the user input unit 208 is set as the virtual focus area.
  • the user uses the user input unit 208 to specify a virtual object to be focused on in the image displayed on the display unit 207.
  • a virtual object 87 is specified, and a virtual focus area is set for the virtual object 87.
  • Area specifying information 88 indicated by diagonal lines is displayed superimposed on the determined virtual focus area.
  • the user may select which method to use as the second selection condition from the user input section 208.
  • One of the plurality of methods may be determined in advance as a default option, and the default method may be applied unless the user makes a selection.
  • the method shown in FIG. 13 is an example, and the virtual focus area may be set using other methods.
  • the user may designate the virtual focus area at a predetermined location on the three-dimensional environment map in advance.
  • a pre-specified location in the displayed image is determined as the virtual focus area.
  • programming may be performed in advance so that the virtual focus area is changed according to the drone 10 (photographing camera 101) in the target environment through simulation (see the third embodiment described later).
  • the focus adjustment calculation unit 206 calculates the distance to the virtual focus area at the future time determined by the future predicted view generation unit 205. The method for calculating this distance may be the same as in the first embodiment.
  • the focus adjustment calculation unit 206 converts the calculated distance into a distance of the target environment.
  • the focus adjustment calculation unit 206 generates focus adjustment instruction information that instructs to adjust the focus to the converted distance at a future time after a certain period of time (after the first time), and sends the information via the communication unit 202. and send it to the drone 10.
  • the focus control unit 109 of the drone 10 adjusts the focus of the photographing camera 101 according to the focus adjustment instruction information at a timing when a future time arrives after a certain period of time.
  • camera parameters such as the focal length of the photographing camera 101 are adjusted so that the focus is set at a distance specified by the focus adjustment instruction information.
  • the focus position of the photographing camera 101 can be controlled so that the area where the photographing camera 101 is expected to be focused at a future time is in focus.
  • FIG. 14 is a diagram illustrating an example of controlling the focus position of the photographing camera 101.
  • the distance at which the photographing camera 101 is focused (distance in the target environment) at the current time t1 is set to the distance A. Further, the focal length of the lens, the depth of field D1, etc. are set based on the position of the distance A.
  • the depth of field includes the range before and after the focal length of the lens, and is the range that can be considered to be in focus.
  • the depth of field is determined by a combination of the aperture value (F value) of the lens, the focal length of the lens, and the photographing distance (distance between the object to be photographed and the photographing camera).
  • F value the aperture value
  • the focal length of the lens the lens that can be adjusted by changing the aperture value of the lens.
  • the camera parameters are adjusted so that the focus is set to the distance B at the time t2. For example, camera parameters such as at least one of the focal length and aperture value are adjusted so that the distance B is aligned with the center of the depth of field D2, or so that the distance B is at least included in the range of the depth of field D2. adjust.
  • the image on the display unit 207 at the current time t1 is the image 80 in FIG. 8, and a virtual focus area is set on the virtual object 87 in the image 83 in FIG. 12 at the future time t2.
  • the focal length of the lens of the photographing camera 101, etc. are adjusted in accordance with the distance B.
  • the distance B is adjusted so that it corresponds to the center of the depth of field.
  • FIG. 15 is a flowchart of an example of the operation of the communication system according to the second embodiment. Steps S101 to S108, S114, and S115 are the same as those in the flowchart of FIG. 9, so their explanation will be omitted.
  • the future predicted view generation unit 205 predicts the future three-dimensional environment based on the motion information of the photographing camera 101 (or the drone 10) and the motion information of the target object. For example, the future predictive view generation unit 205 determines the position of the photographing camera 101 at a future time after a certain period of time (first time) based on the operation information output from the operation control unit 201 or the movement history of the photographing camera 101. Predict orientation. The future predicted view generation unit 205 predicts the movement of the target object based on the movement information of the target object captured by the photographing camera 101 in the target environment, and predicts the position and orientation of the target object at a future time after a certain period of time. .
  • the future predicted view generation unit 205 emulates an image of the scene captured by the photographing camera 101 at a time in the future after a certain period of time. More specifically, the future predicted view generation unit 205 changes the position and orientation of the virtual camera in the three-dimensional environment map according to the position and orientation of the photographing camera 101 predicted in step S201. The position and orientation of the virtual target object in the three-dimensional environment map are changed according to the position and orientation of the target object predicted in step S201. The future predicted view generation unit 205 causes the display unit 207 to display an image of the changed field of view of the virtual camera 71 in the three-dimensional environment map.
  • step S203 the future predicted view generation unit 205 determines a virtual focus area at a future time after a certain period of time, and visualizes the virtual focus area. That is, the area specifying information is placed over the virtual focus area.
  • the virtual focus area is set, for example, to an area including the virtual object selected according to the second selection condition described above (see FIGS. 13(A) to 13(C)).
  • step S111 the focus adjustment calculation unit 206 determines whether an instruction to change the virtual focus area for a future time has been input from the user input unit 208. If an instruction to change the focus area is input (YES in S111), the process advances to step S114, and focus adjustment instruction information specifying that the focus be adjusted to the calculated distance is transmitted to the drone 10.
  • step S115 the focus control unit 109 of the drone 10 adjusts the focus position or area of the photographing camera 101 according to the focus adjustment instruction information.
  • step S204 the focus adjustment calculation unit 206 calculates the distance to the area that is expected to be in focus at a future time in the target environment. . That is, the distance to the predicted virtual focus area in the three-dimensional environment map is converted into the distance to the target environment.
  • step S205 the focus adjustment calculation unit 206 determines whether the area expected to be in focus is already in focus. If the area expected to be in focus is already in focus (YES in S205), the process returns to step S101.
  • step S114 focus adjustment instruction information specifying that the focus be adjusted to the distance calculated in step S204 is transmitted to the drone 10.
  • the focus control unit 109 of the drone 10 adjusts the focus position or area of the photographing camera 101 according to the focus adjustment instruction information.
  • the user can predict in advance, as a virtual focus area in the three-dimensional environment map, the area where the photographing camera is expected to be focused at a future time after a certain period of time. If the virtual focus area is different from the area the user expects, the user can change the virtual focus area at a future time in advance so that the camera will focus on the expected area when the future time arrives. You can do it like this. In other words, even when the drone or the camera moves quickly, the area on which the camera is focused can follow the object to be photographed. This can reduce the frequency of re-photographing and photographing failures.
  • FIG. 16 shows a communication system 3 according to a third embodiment of the present disclosure.
  • a simulation unit 211 is added to the processing unit 209 in the operating device 20.
  • the drone 10 in this embodiment performs autonomous flight according to a prespecified route.
  • Elements with the same names as those in FIG. 2 are given the same reference numerals, and detailed explanations are omitted as appropriate, except for changed or expanded processing.
  • the simulation unit 211 performs simulation preparation processing and simulation processing.
  • a route (virtual flight route) along which a virtual drone equipped with a virtual camera is moved is determined on a three-dimensional environment map. Furthermore, the orientation of the virtual camera at each position (waypoint) along the virtual flight route, the area of the object (target object) to be focused on, etc. are determined.
  • the target object is, for example, an object to be inspected.
  • FIG. 17 is a flowchart illustrating an example of the preparation process performed by the simulation unit 211.
  • a three-dimensional environment map generated in advance is displayed on the display unit 207 (S301).
  • the simulation unit 211 determines the area of the target object to be focused on based on the user input from the user input unit 208 (S302).
  • the user sets the priority of the target object (step S302). By setting the priority, when multiple target objects exist on the screen, it is possible to select the target object to be focused on preferentially.
  • the simulation unit 211 generates a virtual flight path for the virtual drone by setting a plurality of waypoints on the three-dimensional environment map based on user input, and also determines the direction of the virtual camera at each waypoint. (S303).
  • the simulation unit 211 stores the information determined in steps S302 and S303. Instead of the route for moving the virtual drone, a route for moving the virtual camera may be used.
  • FIG. 18(A) is a diagram illustrating an example of pre-processing by the simulation unit 211.
  • a virtual drone 73 with a virtual camera 71 is shown in a three-dimensional environment map 70 .
  • a virtual flight route R11 which is a route along which the virtual drone 73 is moved, is set.
  • a virtual object 85 is designated as the focused object.
  • the simulation unit 211 performs a simulation of moving the virtual drone on a three-dimensional environment map according to the virtual flight path.
  • FIG. 18(B) shows an example of a simulation in which the virtual drone 73 is moved along the virtual flight path R11.
  • FIG. 19 is a flowchart showing an example of a simulation performed by the simulation unit 211.
  • the virtual drone 73 equipped with the virtual camera 71 is moved based on the waypoint and the orientation of the virtual camera set in the preparation process (S311).
  • the simulation unit 211 determines a virtual focus area for each position (waypoint) of the virtual drone moving along the virtual flight path. More specifically, first, the current position of the virtual camera is calculated in the three-dimensional environment map, and an image of the visual field of the virtual camera is generated (S312). A virtual target object is detected in the generated image (S313).
  • the virtual target object in this example is assumed to be a specific object (static object) that already exists in the three-dimensional environment map.
  • the simulation unit 211 When the simulation unit 211 detects a virtual target object (YES), the simulation unit 211 sets the area of the virtual target object as a virtual focus area.
  • the simulation unit 211 calculates the distance to the virtual focus area (S315). This distance corresponds to the distance at which the virtual camera is focused on the virtual focus area in the three-dimensional environment map.
  • the simulation unit 211 converts the calculated distance into a distance in the target environment (distance to the target object).
  • the simulation unit 211 associates at least one of the distance to the virtual focus area or the converted distance with the position of the virtual drone and stores it as correspondence information (step S315).
  • This correspondence information is an example of information in which information on the virtual focus area is associated with the position of the virtual drone.
  • information specifying the position or range of the virtual focus area may be associated instead of the distance. If a plurality of virtual target objects exist, for example, the virtual target object with the highest priority is selected, and the area of the selected virtual target object is set as the virtual focus area (step S315). Alternatively, the virtual target objects are weighted according to their priorities, the distances to each virtual target object are weighted according to their priorities, and the average of the weighted distances is taken as the distance to the virtual focus area (same step S315).
  • the simulation unit 211 calculates a distance for focus adjustment using a predetermined method (S314).
  • a virtual object is selected using an arbitrary method, such as a virtual object having the largest area in a region including the center of the screen, or a virtual object closest to the virtual camera.
  • a virtual object may be selected using a method similar to the first selection condition or second selection condition described above.
  • the simulation unit 211 sets the area including the selected virtual object as a virtual focus area, and calculates the distance to the virtual focus area.
  • the simulation unit 211 associates at least one of the distance to the virtual focus area and the distance obtained by converting the distance to a distance on the target environment with the position of the virtual drone, and stores this as correspondence information (step S314).
  • the simulation unit 211 uses lens emulation to generate a blurred image according to the distance calculated in step S314 or step S315 at the current position and orientation of the virtual camera (S316). That is, in the image generated in step S312, the image is adjusted so that the blur becomes larger in the area that deviates from the distance calculated in step S314 or step S315.
  • the simulation unit 211 stores the generated image in a storage unit that can be accessed from the simulation unit 211 for confirmation by the user.
  • the storage unit may be provided inside the operating device 20 or may be provided outside the operating device 20.
  • the simulation unit 211 determines whether the virtual drone has arrived at the goal point of the virtual flight route (S317), and if it has not arrived (NO), the process returns to step S311.
  • step S316 If the virtual drone has arrived at the goal point of the virtual flight route (YES), the image saved in step S316 is played back, and the played image is displayed on the display unit 207 for the user to see (S318). Further, the above-mentioned correspondence information is displayed on the display unit 207 in the form of a graph that changes over time. The reproduced image and the corresponding information may be displayed in time synchronization.
  • FIG. 20 shows an example in which a reproduced image and corresponding information are displayed in time synchronization.
  • a distance graph G1 is displayed in a coordinate system with time on the horizontal axis and distance on the vertical axis.
  • the corresponding image (the blurred image) is displayed.
  • the position of the virtual camera may be displayed at the same time.
  • the user can check the distance at the same time as the blurred image at each time (in this example, it is the distance to the virtual focus area, but it may also be a converted distance).
  • the figure shows blurred images and distances at times t1, t2, and t3, and in this example, depths of field D11, D12, and D13 at each time.
  • the user finds an image for which the virtual focus area should be adjusted while looking at images that reproduce blur, the user inputs an instruction to change the virtual focus area (instruction to adjust the distance to the virtual focus area) for the image. It's okay.
  • the instruction to change the virtual focus area may be an instruction to specify a virtual object to be focused on, or may be an instruction to directly specify the distance to the virtual focus area.
  • the simulation unit 211 updates the information of the corresponding virtual focus area in the correspondence information, and more specifically updates the distance to the virtual focus area, based on the instruction input by the user.
  • the drone 10 acquires information on a flight path in the target environment corresponding to the above-mentioned virtual flight route and information on the orientation of the photographing camera 101 at a position in the target environment corresponding to each position (waypoint) on the virtual flight route. do.
  • the drone 10 performs autonomous flight and photography based on the acquired information.
  • the flight path (route for autonomous flight) in the target environment is represented by a set of positions corresponding to each waypoint on the virtual flight path.
  • the flight route for autonomous flight is calculated from the virtual flight route by the simulation unit 211 and sent from the operation control unit 201 of the operating device 20 to the flight control unit 103 of the drone 10. Further, information on the orientation of the photographing camera 101 corresponding to the orientation of the virtual camera at each waypoint is sent from the operation control unit 201 of the operating device 20 to the flight control unit 103 of the drone 10.
  • the flight control unit 103 flies along the autonomous flight route and takes pictures with the picture camera 101 based on information about the route for autonomous flight and the orientation of the picture camera 101 .
  • FIG. 21 shows the drone 10 flying along the autonomous flight route 21 in the target environment and photographing with the photographing camera 101.
  • the actual flight path of the drone 10 may deviate significantly from the autonomous flight path due to the influence of wind and the like.
  • Whether or not the routes are far apart may be determined, for example, by using a method that uses a neural network to determine whether two routes are far apart.
  • focus control may be performed using object selection according to the first selection condition or the second selection condition described above.
  • the operating device 20 acquires information such as the corresponding position in the map of at least one of the drone 10 and the photographing camera 101 from the integration unit 107 of the drone 10.
  • the focus adjustment calculation unit 206 identifies a position that matches or is close to the acquired corresponding position in the map based on the correspondence information acquired in advance by the simulation unit 211, and calculates the distance corresponding to the specified position (to the virtual focus area). distance).
  • the position close to the corresponding position in the map is, for example, the position closest to the corresponding position in the map, or the position whose distance is less than or equal to the threshold value.
  • the focus adjustment calculation unit 206 converts the distance to the acquired virtual focus area into a distance in the target environment, generates focus adjustment instruction information based on the converted distance, and transmits it to the drone 10.
  • the focus control unit 109 of the drone 10 adjusts the focus of the photographing camera 101 to the distance indicated by the focus adjustment instruction information by adjusting camera parameters of the photographing camera 101 or the like.
  • FIG. 22 is a flowchart of an example of the operation of the communication system according to the third embodiment. Steps S101 to S109 and S113 to S115 are the same as those in the flowchart of FIG. 9, so their explanation will be omitted. Steps S401 to S405 are newly added steps.
  • step S401 the flight control unit 103 of the drone 10 acquires information about the autonomous flight route and the orientation of the photographing camera 101 from the operating device 20, controls the flight of the drone 10 based on the acquired information, and The direction of the photographing camera 101 is controlled.
  • step S402 the simulation unit 211 of the operating device 20 sets the position (waypoint) closest to the current corresponding position of the drone 10 in the map and the position (waypoint) in the virtual flight path of the simulation. Select the orientation.
  • the simulation unit 211 determines whether there is a large difference between the selected position and orientation and the current corresponding position and orientation within the map of the drone 10. For example, if the difference in either one is greater than or equal to a threshold value, it is determined that there is a large deviation, and if it is less than the threshold value, it is determined that there is not a large deviation.
  • the simulation unit 211 determines that there is not a large deviation (NO in S403), the simulation unit 211 selects the focal length associated with the closest position in the correspondence information, and sends focus adjustment instruction information indicating the focal length to the drone 10. Send (S114).
  • the drone 10 controls the focus of the photographing camera 101 based on the focus adjustment instruction information (S115).
  • the focus adjustment calculation unit 206 calculates the A virtual focus area is determined (S405).
  • the method for determining the virtual focus area may be the same as the simulation preparation process. If multiple virtual objects are included, the virtual focus area may be determined based on the priority of each virtual object.
  • the focus adjustment calculation unit 206 calculates the distance to the determined virtual focus area, and determines whether the calculated distance is converted into a distance in the target environment and the distance to the current focus area of the photographing camera 101 matches the distance to the current focus area of the photographing camera 101. to judge. If they match (YES in S113), the process returns to step S401; if they do not match, the process proceeds to steps S114 and S115.
  • the processes after steps S114 and S115 are the same as in the first embodiment.
  • the operation device 20 performs processing for focus control using the correspondence information, but the correspondence information is provided to the drone 10 in advance, and the focus control unit 109 autonomously controls the focus based on the correspondence information. You may do so. In this case, the amount of communication between the drone 10 and the operating device 20 can be reduced.
  • the drone 10 even when the drone 10 flies autonomously, it is possible to capture an image focused on an object desired by the user.
  • information specifying the virtual focus area is visualized by superimposing it on the image of the virtual camera.
  • area specifying information may be superimposed on the image of the photographing camera 101 (sometimes referred to as a through image or a photographing camera image) and visualized.
  • focus identification information is displayed on the screen of the display unit 207 at the same position as the virtual focus area determined in the same manner as in the first embodiment, and furthermore, the background image of the display unit 207 is Display images.
  • the virtual target object in the image of the virtual camera and the target object in the through image are expected to exist at the same position or approximately the same position. Therefore, with this method, it is expected that the focus identification information will be displayed at least partially overlapping the target object in the through image. Therefore, the user can more easily or intuitively grasp the area that is expected to be focused by the photographing camera 101.
  • FIG. 23 shows a communication system 4 according to a fourth embodiment of the present disclosure.
  • a compression section 502 is added to the drone 10.
  • a focus area visualization image creation unit 501 is added to the processing unit 209 of the operating device 20.
  • Elements with the same names as those in FIG. 2 are given the same reference numerals, and detailed explanations are omitted as appropriate, except for changed or expanded processing.
  • the compression unit 502 of the drone 10 receives an image (through image) taken by the photographing camera 101 and compresses the image. Compression may be performed using any method that can reduce the amount of image data, such as size reduction or resolution reduction.
  • the compression unit 502 transmits compressed image data to the operating device 20 via the communication unit 102.
  • the photographing camera 101 may select an image from the captured images and provide the image to the compression unit 502 at the same cycle as the cycle at which the image is provided to the position specifying unit 105, or may select an image at a cycle shorter or longer than the cycle.
  • the data may also be provided to the compression unit 502.
  • the three-dimensional view generation unit 204 arranges a virtual target object corresponding to the target object on the three-dimensional environment map, and generates an image of the visual field of the virtual camera.
  • the three-dimensional view generation unit 204 sets the area of the virtual target object included in the generated image as a virtual focus area. Note that other methods may be used to determine the virtual focus area.
  • the three-dimensional view generation unit 204 provides the focus area visualization image generation unit 501 with information indicating the range of the virtual focus area within the image.
  • the range of the virtual focus area may be information indicating the positions of all pixels belonging to the area, or if the area has a specific shape such as a rectangle, it may be in a predetermined format (for example, the upper left coordinates of the rectangle, and the horizontal size and vertical size).
  • the focus area visualization image creation unit 501 acquires compressed through-the-lens image data from the drone 10 via the communication unit 202.
  • area specifying information for specifying the focus area is superimposed on an area at the same position as the virtual focus area indicated by the information obtained from the three-dimensional view generation unit 204.
  • the superimposed images are displayed on the display unit 207. It is assumed that the size and resolution of the compressed through-the-lens image and the image of the virtual camera are the same, but the size and resolution may be different. If the sizes and resolutions are different, the area at the same position as the virtual focus area can be specified in the compressed through-the-lens image by appropriately matching the positional relationship between the images.
  • FIG. 24 shows a specific example of processing by the focus area visualization image creation unit 501.
  • the upper left diagram in FIG. 24 shows an example of a compressed through image 511 transmitted from the drone 10 when the drone 10 flies and photographs in an environment similar to that in FIG. 5.
  • the upper right diagram in FIG. 24 shows the virtual focus area 512 specified in the image of the visual field of the virtual camera by the three-dimensional view generation unit 204 when the through image is acquired.
  • the lower diagram in FIG. 24 shows an image in which the area specifying information 513 is superimposed on the compressed through-the-lens image in the upper left of FIG. 24 at the same position as the virtual focus area in the upper right of FIG.
  • the area specifying information 513 is semi-transparent, and the background image (target object) can be seen through it. This allows the user to easily and realistically understand which area of the through image the photographing camera 101 is expected to focus on. Note that the area specifying information may be non-transparent so that the background image of the virtual focus area cannot be seen through
  • FIG. 25 is a flowchart of an operation example of the communication system 4 according to the fourth embodiment. Steps S101 to S106, S108, S109, and S111 to S115 are the same as those in the flowchart of FIG. 9, so their explanation will be omitted.
  • step S501 the compression unit 502 of the drone 10 receives an image from the camera 101 and compresses the image.
  • step S502 the communication unit 102 transmits compressed image data to the operating device 20 in addition to the transmission performed in step S107 of FIG.
  • step S503 the focus area visualization image creation unit 501 superimposes area specifying information that specifies the virtual focus area on the received through-the-lens image at the same position as the virtual focus area generated by the three-dimensional view generation unit 204.
  • the focus area visualization image creation unit 501 causes the display unit 207 to display a through image overlaid with area specifying information.
  • information specifying a virtual focus area is superimposed and displayed on the captured image (through image) of the capturing camera 101, so that the user can easily identify the area on which the capturing camera 101 is expected to be focused. It is possible to increase the sense of reality and make it visible.
  • the distance from the virtual camera to the virtual target object is converted into a distance in the target environment, and the focus of the photographing camera 101 is adjusted. Due to individual differences in the photographing camera 101, distance measuring sensor 104, etc., the converted distance may not match the distance from the photographing camera 101 to the target object in the actual target environment, and the object may not be in focus. In this embodiment, more accurate focusing is achieved by calibrating the distance to the virtual target object.
  • the block diagram of the communication system according to this embodiment is the same as the block diagram of each embodiment described above, but the processing of the focus adjustment calculation unit 206 is partially expanded.
  • the focus adjustment calculation unit 206 generates focus adjustment instruction information based on the distance from the virtual camera to the virtual target object converted to the distance in the target environment, and converts the focus adjustment instruction information into Send to drone 10.
  • the focus adjustment calculation unit 206 calculates the image taken by the photographing camera 101 after (for example, immediately after) the focus adjustment (for example, adjustment of camera parameters such as focal length) has been performed by the focus control unit 109 and the measurement by the distance measurement sensor 104.
  • a distance image is acquired from the drone 10.
  • the focus adjustment calculation unit 206 acquires data representing the relationship between the distance from the photographing camera 101 (the distance measurement value of the distance measurement image) and the contrast intensity.
  • the contrast intensity for each distance can be calculated, for example, by integrating high frequency components of pixels for each distance in a captured image. It can be said that the larger the integral value, the higher the contrast and the better the focus.
  • the focus adjustment calculation unit 206 specifies the distance corresponding to the maximum contrast intensity (peak) in the acquired data.
  • the focus adjustment calculation unit 206 calculates the difference between the specified distance and the distance obtained by converting the distance to the virtual focus area described above into a distance in the target environment.
  • FIG. 26 shows an example of an image captured by the photographing camera 101 after focus adjustment has been performed by the focus control unit 109.
  • FIG. 27 shows an example of data showing the relationship between distance (distance in the target environment) and contrast intensity.
  • a distance H1 corresponding to the maximum contrast intensity (peak) a distance H2 obtained by converting the distance to the virtual focus area on the three-dimensional environment map into a distance on the target environment, and a difference ⁇ H between the distances H1 and H2 are shown. .
  • the focus adjustment calculation unit 206 calibrates the distance (or converted distance) to the virtual target object according to the calculated difference. As the calibration, for example, a difference is added or subtracted to the distance to the virtual focus area (or the distance converted to the distance in the target environment). Alternatively, a value obtained by multiplying the difference by an adjustment coefficient is added or subtracted.
  • the focus adjustment calculation unit 206 generates focus adjustment instruction information based on the distance after calibration. In this way, the focus adjustment calculation unit 206 calculates the difference between the distance from the virtual camera to the virtual focus area and the distance at which the photographing camera 101 is focused, and generates focus adjustment instruction information according to the difference.
  • the focus adjustment calculation unit 206 transmits the generated focus adjustment instruction information to the drone 10.
  • the difference ⁇ H may be calculated once at the start of the flight of the drone 10, and thereafter, calibration may be performed every time using the difference. Alternatively, the difference may be updated at regular time intervals by calculating the difference ⁇ H at regular time intervals.
  • a distance measurement image was used to calculate the difference, but calibration using other methods is also possible.
  • the drone is stopped in the air and the camera 101 takes a picture, and the same process as in the first embodiment is performed to calculate the distance to the virtual target object.
  • the focal length of the lens of the photographing camera 101 is varied within a certain range, and images are taken by the photographing camera 101 at each focal length position. In each captured image, the contrast intensity of a region including the target object is calculated. Identify the focal length with the highest contrast intensity.
  • the distance in the target environment corresponding to the determined focal length of the lens is obtained.
  • the acquired distance is compared with a distance obtained by converting the distance to the virtual focus area described above into a distance in the target environment, and a difference between the two is calculated.
  • Distance calibration is performed using the calculated difference in the same manner as in the calibration example described above.
  • the focus adjustment calculation unit 206 performs the above processing.
  • a method that utilizes the phase difference between two images is also possible.
  • part of the light from the subject (target object) that has passed through the lens (photographing lens) is incident on the image sensor via a half mirror, and the remaining part of the light is transmitted to another Reflect it in the direction with a half mirror.
  • the reflected light is made to enter each of two detection lenses, and is made to be input from the two detection lenses to two image sensors for phase difference detection, respectively.
  • the distance to the subject is calculated from the phase difference between the images of the two image sensors. Information indicating the calculated distance is transmitted from the drone 10 to the operating device 20.
  • the focus adjustment calculation unit 206 of the operating device 20 compares the received distance with a distance obtained by converting the distance to the virtual target object on the three-dimensional environment map into a distance on the target environment, and calculates the difference between the two. .
  • the focus adjustment calculation unit 206 calibrates the calculated distance (or converted distance) to the virtual target object according to the difference. As the calibration, for example, a difference or a value obtained by multiplying the difference by an adjustment coefficient is added or subtracted to the distance to the virtual target object (or the distance converted to the distance in the target environment).
  • the focus adjustment calculation unit 206 generates focus adjustment instruction information based on the distance after calibration, and transmits it to the drone 10.
  • Calculation of the difference for performing calibration may be performed once at the beginning or during the flight of the drone 10, and thereafter, calibration may be performed every time using the difference. Alternatively, the value of the difference may be updated by calculating the difference at regular time intervals. Although the distance was calculated by the photographing camera 101, information on the phase difference may be transmitted to the operating device 20, and the focus adjustment calculation unit 206 may perform a process of calculating the distance from the phase difference.
  • the photographing camera is provided on the drone, but the object to which the photographing camera is provided is not limited to the drone.
  • a similar embodiment is possible when a photographing camera is provided on a moving object such as a trolley, an AGV, a mobile robot, a train, an automobile, or a submarine.
  • a three-dimensional environment map was created using photogrammetry, but an environment map (for example, an Occupancy Grid Map) can be created in real time using a sensor such as a ranging sensor provided on a moving object such as a draw. Good too. Furthermore, the above-described embodiments can be implemented even in an environment where GPS (Global Positioning Satellite) signals cannot be received.
  • GPS Global Positioning Satellite
  • the present disclosure can also have the following configuration.
  • An information processing method comprising displaying area specifying information for specifying the virtual focus area on a display screen.
  • At least one object is included in the image corresponding to the viewing range of the virtual camera;
  • the information processing method according to item 1 wherein an object is selected from the at least one object included in the image according to a first selection condition, and an area including the selected object is set as the virtual focus area.
  • the first selection condition is a condition for selecting an object to move among the at least one object; a condition for selecting an object based on an area included in a first region range in the image from among the at least one object; a condition for selecting an object included in a first distance range from the virtual camera among the at least one object;
  • the information processing method according to item 2 including at least one of the following.
  • [Item 4] obtaining position information representing the position of the photographing camera in the target environment; The information processing method according to any one of items 1 to 3, wherein the virtual camera is placed at a first position in the virtual environment space corresponding to the position indicated by the position information.
  • [Item 5] acquiring posture information representing the posture of the photographing camera in the target environment; The information processing method according to item 4, wherein the virtual camera is arranged in a posture corresponding to the posture indicated by the posture information.
  • [Item 6] The information processing according to any one of items 1 to 5, wherein the image corresponding to the visual field range of the virtual camera is displayed on the display screen, and the area specifying information is placed in the virtual focus area in the image.
  • [Item 7] acquiring a captured image of the photographing camera and displaying the captured image on the display screen; The information processing according to any one of items 1 to 6, wherein the area specifying information is placed at a position in the captured image that corresponds to a position of the virtual focus area in the image corresponding to the visual field range of the virtual camera.
  • Method. [Item 8] calculating a distance from the virtual camera to the virtual focus area; Any one of items 1 to 7, wherein focus adjustment instruction information is sent to the mobile object to instruct the camera to focus on an area in the target environment corresponding to the virtual focus area, based on the calculated distance.
  • [Item 10] Obtaining instruction information instructing to change the virtual focus area via a user input unit; The information processing method according to any one of items 8 to 9, wherein the virtual focus area is changed based on the instruction information.
  • [Item 11] obtaining movement information of the moving object, predicting the position of the photographing camera after a first time based on the movement information of the moving object; The information processing method according to any one of items 1 to 10, wherein the virtual camera is placed at a second position in the virtual environment space that corresponds to the predicted position of the photographing camera.
  • [Item 12] displaying the image corresponding to the viewing range of the virtual camera on the display screen; obtaining movement information of the target object imaged by the photographing camera; predicting the position of the target object after the first time based on motion information of the target object; placing a virtual object representing the target object at a third position in the virtual environment space corresponding to the predicted position of the target object;
  • At least one object is included in an image corresponding to the viewing range of the virtual camera located at the second position;
  • the information processing method according to item 11 or 12 wherein an object is selected from the at least one object included in the image according to a second selection condition, and an area including the selected object is determined as the virtual focus area.
  • the second selection condition is a condition for selecting an object to move among the at least one object; a condition for selecting an object based on an area included in a second region range in the image from among the at least one object; a condition for selecting an object included in a second distance range from the virtual camera from the at least one object;
  • the information processing method according to item 13 including at least one condition for selecting an object specified by the user from among the at least one object.
  • [Item 15] Obtaining operation information for instructing movement of the mobile object via a user input unit, transmitting the operation information to the mobile object; The information processing method according to any one of items 11 to 14, wherein the movement information of the moving body is acquired based on the operation information.
  • [Item 16] performing a simulation of moving the virtual camera or a virtual mobile body equipped with the virtual camera along a first route in the virtual environment space; setting the virtual focus area for each of a plurality of positions on the first route; The information processing method according to any one of items 1 to 15, wherein correspondence information is generated in which information on the plurality of set virtual focus areas is associated with the plurality of positions.
  • [Item 18] displaying the correspondence information on the display screen; obtaining, via a user input unit, instruction information instructing to change the virtual focus area for one of the plurality of positions included in the correspondence information; The information processing method according to item 17, wherein information on the virtual focus area corresponding to the one position in the correspondence information is updated based on the instruction information.
  • [Item 20] The information processing method according to any one of items 1 to 19, wherein the mobile object is a drone.
  • a virtual camera associated with the photographing camera is placed in a virtual environment space that models a target environment movable by a moving body equipped with a photographing camera, and based on an image corresponding to the field of view of the virtual camera, the target environment is a processing unit that determines a virtual focus area in the virtual environment space that corresponds to the area on which the photographing camera is focused;
  • An information processing apparatus comprising: a display unit that displays area specifying information for specifying the virtual focus area on a display screen.
  • the operating device includes: a virtual environment space that models the target environment; a receiving unit that receives, from the mobile object, information that can specify a position in the virtual environment space corresponding to the position of the photographing camera; A process of arranging a virtual camera at the position indicated by the information and determining, in the virtual environment space, a virtual focus area corresponding to the area in which the photographing camera is focused, based on an image corresponding to the visual field range of the virtual camera.
  • Department and A communication system comprising: a display unit that displays area specifying information for specifying the virtual focus area.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)

Abstract

[課題]撮影カメラによりフォーカスされている領域を容易に確認できるようにする。 [解決手段]本開示に係る情報処理方法は、撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置し、前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定し、前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示する。

Description

情報処理方法、情報処理装置、通信システム及びコンピュータプログラム
 本開示は、情報処理方法、情報処理装置、通信システム及びコンピュータプログラムに関する。
 地理環境の計測、報道現場の撮影、スポーツの撮影など様々な目的で、ドローンを飛行させ、ドローンに搭載したカメラで対象環境を撮影することが広く行われている。ドローンのカメラがフォーカスされている箇所(ピントが合っている箇所)を、撮影中にリアルタイムに把握することは困難である。撮影後、カメラの映像を確認することで、撮影対象にカメラが正しくフォーカスされていたか否かが分かる。撮影対象に正しくフォーカスされていないと、撮影対象がぼけた映像となるため、再撮影を行う必要がある。報道現場及びスポーツなどリアルタイム性が要求される撮影の場合、再撮影を行うことは困難なことも多い。
 ドローンのカメラで撮影された映像データをドローンのオペレータ(ユーザ)の操作装置に常時送信すれば、オペレータはフォーカスされている領域をリアルタイムに確認することができる。しかしながら、映像データを常時送信することは、無線帯域の制約から困難である。また、カメラのオートフォーカス機能を用いて撮影対象にフォーカスさせる場合も、ドローンが高速に移動又は回転すると、撮影対象に追従させることが困難になることもある。
特開2018-201240号公報
 本開示は、上述したような問題点に鑑みてなされたものであり、撮影カメラによりフォーカスされている領域を容易に把握できるようにする。
 本開示に係る情報処理方法は、撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置し、前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定し、前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示する。
本開示の第1の実施形態に係る通信システムを示す図。 ドローン及び操作装置のブロック図。 3次元環境マップを作成する手順を模式的に示す図。 3次元環境マップを作成の手順の一例のフローチャート。 ドローンが対象環境を飛行し、撮影カメラで撮影を行う様子を示す図。 3次元ビュー生成部で行う処理の具体例を説明する図である。 3次元ビュー生成部で行う処理の具体例を説明する図である。 図7に示した3次元ビューの画面に領域特定情報を表示した例を示す図。 第1の実施形態に係る通信システムの動作例のフローチャート。 第2の実施形態に係る通信システムを示す図。 3次元環境マップにおいて仮想カメラ及び仮想対象オブジェクトを、予測した位置に移動させる例を模式的に示す図。 未来時刻における仮想カメラの視野範囲の画像の表示例を示す図。 仮想フォーカス領域を決定する手法の例を示す図である。 撮影カメラのフォーカス位置の制御の一例を説明する図。 第2の実施形態に係る通信システムの動作例のフローチャート。 第3の実施形態に係る通信システムを示す図。 シミュレーション部により行われる準備処理の一例を示すフローチャート。 シミュレーション部により行われる処理の例を説明する図。 シミュレーション部により行われるシミュレーションの一例を示すフローチャート。 再生した画像と対応情報とを時刻で同期させて表示する例を示す図。 ドローンが自律飛行用の経路に沿って飛行し、撮影を行う様子を示す図。 第3の実施形態に係る通信システムの動作例のフローチャート。 第4の実施形態に係る通信システムを示す図。 フォーカス領域可視化画像作成部の処理の具体例を示す図。 第4の実施形態に係る通信システムの動作例のフローチャート。 フォーカス調整後の撮影カメラにより撮像された画像の例を示す図。 距離とコントラスト強度との関係を示すデータの例を示す図。
 以下、図面を参照して、本開示の実施形態について説明する。本開示において示される1以上の実施形態において、各実施形態が含む要素を互いに組み合わせることができ、かつ、当該組み合わせられた結果物も本開示が示す実施形態の一部をなす。
 (第1の実施形態)
 図1は、本開示の実施形態に係る通信システム1を示す。通信システム1は、移動体であるドローン10と、ドローン10を操作する操作装置20とを備えている。ドローン10は、対象環境(対象空間)を撮影する撮影カメラ101を備える。ドローン10は、操作装置20から操作情報(制御信号)を受けて、ロータ111をモータ等の駆動系により駆動することで、オペレータであるユーザ30に指示された経路又は予め指定された経路を飛行する。本開示に係る移動体はドローンに限定されず、無人搬送車(AGV:Automated Guided Vehicle)又は台車等の車両、あるいはロボットなどであってもよい。操作装置20は、ユーザ30によりドローン10を操作するための装置である。
 ドローン10の操作は、ドローン本体の飛行の操作のみならず、撮影カメラ101の操作も含む。撮影カメラ101の操作は、撮影カメラ101の向き(すなわち、撮影カメラ101の姿勢)の操作、撮影カメラ101のズーム機構の操作などを含んでよい。撮影カメラ101が移動体本体に移動可能に設置されている場合は、撮影カメラ101を移動させる操作が撮影カメラ101の操作に含まれてよい。ズーム機構の操作の例として、レンズの位置を動かすことで焦点距離を変化させる光学ズームがある。焦点距離を変化させることで、撮影カメラ101がフォーカスされる領域又は位置、換言すれば、フォーカスされる領域又は位置までの距離が変更される。また撮影カメラ101がオートフォーカス機能を備えていてもよい。
 ドローン10が飛行及び撮影する対象環境は、例えば、工場、報道現場、競技場、山林、町内など任意の環境でよい。ドローン10の撮影対象は、撮影環境における特定の箇所(例えば特定の住所など)又は特定の物(例えば特定の建物、植物など)でもよいし、対象環境を移動する物体(以下、オブジェクト)でもよい。オブジェクトの例として、人間、動物、昆虫、自動車などがある。撮影対象は、対象環境に存在する限り、特定のものに限定されない。
 図2は、ドローン10及び操作装置20のブロック図である。
 ドローン10は、撮影カメラ101、通信部102、飛行制御部103、測距センサ104、位置特定部105、オブジェクト認識部106、統合部107、オブジェクト追跡部108、フォーカス制御部109及び画像データ記憶部110を備えている。ブロック102、103、105~109の機能は、CPU(Central Processing Unit)等のプロセッサを含むコンピュータにプログラムを実行させることにより実現されてもよいし、ASIC、FPGA等の回路により実現されてもよいし、これらの組み合わせにより実現されてもよい。
 操作装置20は、操作制御部201、通信部202、3次元環境マップ記憶部203、3次元ビュー生成部204、フォーカス調整算出部206、表示部207、及びユーザ入力部208を備えている。3次元ビュー生成部204及びフォーカス調整算出部206は処理部209を構成する。ブロック201、202、204、206、208の機能は、CPU等のプロセッサを含むコンピュータにプログラムを実行させることにより実現されてもよいし、ASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)等の回路により実現されてもよし、これらの組み合わせにより実現されてもよい。
 操作装置20における通信部202は、ドローン10における通信部102と無線で通信する。通信部202は、通信プロトコルを処理する回路、AD(Analog to Digital)/DA(Digital to Analog)変換器、周波数コンバータ、帯域フィルタ、増幅器、1つ以上のアンテナなどを備える。通信プロトコル及び無線の周波数帯は特定のものに限定されない。
 ドローン10における通信部102は、操作装置20における通信部202と無線で通信する。通信部102は、通信プロトコルを処理する回路、AD/DA変換器、周波数コンバータ、帯域フィルタ、増幅器、アンテナなどを備える。通信プロトコル及び無線の周波数帯は特定のものに限定されない。なお、本開示に係る移動体又はドローン10が、操作装置20と有線で通信される形態も排除されない。
 操作装置20における3次元環境マップ記憶部203は、ドローン10が飛行及び撮影する対象環境をモデル化した仮想環境空間である3次元環境マップを記憶している。3次元環境マップ(仮想環境空間)は、一例として、対象環境を複数の視点で撮影した複数の画像に基づき作成できる。具体的には、3次元環境マップを作成する手法として、フォトグラメトリ(Photogrammetry)等を用いることができる。
 図3は、3次元環境マップを作成する手順を模式的に示す図である。
 3次元環境マップを作成するため、事前に対象環境を撮影カメラで様々な視点で撮影する。撮影は、ドローン等の移動体50を対象環境60で飛行させることで行ってもよいし、あるいは、作業員等のユーザ51が手持ちのカメラ52で対象環境60を移動することで行ってもよい。移動体50はドローン10でもよいし、ドローン10と異なるドローン等の移動体でもよい。このように事前に撮影した複数の画像53を元に、ユーザがフォトグラメトリツールのプログラムをコンピュータに実行させることで、3次元環境マップ70を生成する。生成した3次元環境マップ70のデータは3次元環境マップ記憶部203に記憶される。3次元環境マップ70の距離スケールを、実空間と厳密に合わせるために、撮影した時のGPS(Global Positioning Satellite)情報や、LiDAR(Light  Detection  and  Ranging,Laser  Imaging  Detection  and  Ranging)等の測距センサーの情報、撮影環境に置かれた標定点(予め正確な位置が分かっている点)の座標情報等を活用しても良い。
 図4は、3次元環境マップを作成の手順の一例のフローチャートである。この例では移動体50が撮影を行う場合を示す。移動体50が対象環境60を飛行し、移動体50のカメラで撮影を行う(S11)。撮影した画像のデータは移動体50内の記憶部に格納する。移動体50におけるCPU等の処理部が、対象環境60の全体に対して、十分な個数の撮影画像を取得したかの条件である撮影終了条件を満たしたかを判断する(S12)。十分な個数とは、隣接する時刻間で撮影画像間の領域が一定サイズ以上重複することである。撮影終了条件を満たしていない場合は、移動体50は、一時刻前に撮影した画像と撮影領域が一定割合以上、オーバラップする範囲内で移動し(S13)、カメラで撮影を行う(S11)。撮影終了条件が満たされたら撮影を終了する。この後、移動体50の記憶部に記憶された画像をコンピュータに読み出し、コンピュータでフォトグラメトリにより3次元環境マップを生成する。コンピュータは図2の操作装置20又は移動体50でもよい。
 ユーザ入力部208は、各種の操作情報又は操作指示をユーザが入力する入力部である。ユーザ入力部208は、例えば、タッチパネル、スティック、ボタン、十字キー又はこれらの組み合わせなどである。ユーザ入力部208から入力する操作情報の例として、ドローン10の飛行の操作情報(例えば速度・方向を操作する情報など)、及び撮影カメラ101の操作情報(例えば撮影カメラ101の姿勢を操作する情報など)がある。操作情報の他の例として、ドローン10を自律飛行及びマニュアル飛行のいずれを行わせるかを指定してもよい。自律飛行を指定する場合、自律飛行させる経路の指定をさらに行ってもよい。また操作情報として、表示部207に表示する画面の切り替え指示なども入力してもよい。
 操作制御部201は、ユーザ入力部208を介して、ドローン10又は撮影カメラ101の操作情報を受信し、受信した操作情報をドローン10又は撮影カメラ101で解釈可能な制御指示の形式に変換して、ドローン10に送信する。より詳細には、操作制御部201は制御指示を通信部202に送り、通信部202が制御指示をドローン10に送信する。
 ドローン10の通信部102は、操作装置20から制御指示を受信する。通信部102は、受信した制御指示を分類し、飛行の操作及び撮影カメラ101の操作を示す制御指示を飛行制御部103に送り、撮影カメラ101の操作を示す制御指示を撮影カメラ101に送る。
 飛行制御部103は、飛行の操作を示す制御指示に基づき、飛行の制御情報を生成し、図示しない駆動系に制御情報を送る。駆動系は複数のESC(Electric Speed Controller)、複数のモータ及び複数のロータ(図1のロータ111参照)等を含む。ESCが制御情報に基づき対応するモータを駆動し、モータの軸に接続されたロータを回転させる。これにより、ドローン10を所望の方向及び所望の速度で飛行させ、また所望の位置で停止(ホバリング)させることができる。
 また飛行制御部103は、一定時間間隔で、ドローン10の位置情報及び速度情報の少なくとも一方と、撮影カメラ101の向き情報(姿勢情報)とを取得し、取得した情報を、統合部107に送る。また飛行制御部103は、当該取得した情報を、オブジェクト追跡部108に送る。ドローン10の位置情報及び速度情報の少なくとも一方の時系列のシーケンスは、ドローン10の動き情報に対応する。撮影カメラ101の向き情報の時系列のシーケンスは、撮影カメラ101の動き情報に対応する。従って、ドローン10の動き情報及び撮影カメラ101の動き情報は、ユーザが操作装置20に入力した操作情報に基づいている。
 飛行制御部103がドローン10の位置情報を取得する方法は、飛行の操作を示す制御指示の履歴に基づき行ってもよい。あるいは、GPS(Global Positioning Satellite)センサ及びIMU(Inertial Measurement Unit)等の少なくとも1つのセンサを用いて行ってもよい。制御指示の履歴、GPS、IMU等を組み合わせてもよい。あるいは、ドローン10の位置を管理するサーバが存在する場合には、飛行制御部103は、サーバに問い合わせデータを送ることによってドローン10の位置情報を取得してもよい。操作装置20がドローン10の位置を管理するサーバの機能を備えていてもよい。
 飛行制御部103が撮影カメラ101の向き情報を取得する方法は、撮影カメラ101の操作を示す制御指示の履歴に基づき行ってもよい。あるいは撮影カメラ101が自装置の向きを検出又は管理する機能を備えている場合は、飛行制御部103は撮影カメラ101に問い合わせデータを送ることにより、撮影カメラ101の向き情報を取得してもよい。
 撮影カメラ101は、ドローン10が飛行する対象環境を撮影する撮像装置である。撮影は一定時間間隔で行う。撮影カメラ101は、RGBカメラ、モノクロカメラ、赤外線カメラ、ステレオカメラ、デプスカメラなど、周囲の環境を撮影できる限り、任意のカメラでよい。撮影カメラ101が取得する画像データは、動画である場合を想定するが、静止画でもよい。
 図5は、ドローン10が対象環境60を飛行し、撮影カメラ101で対象環境60を撮影する様子を示す。撮影カメラ101は画角101A(視野範囲)を有する。対象環境60には撮影対象の物体である対象オブジェクト61が含まれる。本例では対象オブジェクト61は、森林の中を歩行又は走行する人間である。また対象環境60には、その他の物体として、オブジェクト5,7,9が配置されている。オブジェクト5,7,9は木のオブジェクトである。
 撮影カメラ101で撮影された画像データは画像データ記憶部110に記憶される。また、撮影カメラ101で撮影された画像データは一定の周期で選択される。例えば一定の周期の期間にX個の画像が撮影される場合、X個の画像のうちの最新の画像データが選択される。選択された画像データが位置特定部105及びオブジェクト認識部106へ送られる。このように位置特定部105及びオブジェクト認識部106が行う処理を撮影カメラ101で撮影したすべての画像データではなく、一定の周期で選択された画像データのみを対象とする。これにより、撮影カメラ101の後段のブロックの処理負荷を軽減できる。
 画像データ記憶部110は、撮影カメラ101によって撮影された画像データを記憶する。画像データ記憶部110は、例えば、ハードディスク、RAM(Random Access Memory)ディスク、不揮発性のメモリなどにより構成される。画像データ記憶部110に記憶された画像データは、ドローン10の飛行完了後に、無線通信、有線通信又は記録媒体(メモリカード等)を介して読み出され、オペレータによって画像データの内容が確認されることができる。撮影カメラ101によって撮影された画像データを操作装置20に送信し、表示部207に画像データをリアルタイムに表示することも排除されない。この場合、画像データの送信は間欠的でもよいし、画像データを圧縮してもよい。表示部207は、液晶表示パネル又は有機ELパネル等のデータ又は情報を表示可能なディスプレイである。
 撮影カメラ101は、撮影の方向、すなわちカメラ本体の向き(姿勢)を変更することができる。一例として、撮影カメラ101は、3軸ジンバルを介してドローン10に設けられていてもよい。この場合、操作者からの操作情報(制御指示)に基づき3軸ジンバルを制御することで、撮影カメラ101の向きを変更することができる。なお撮影カメラ101がドローン10内でレール等に沿って移動可能とし、ドローン10に対する撮影カメラ101の相対位置を変更可能であってもよい。この場合、操作者からの操作により、撮影カメラ101の相対位置を変更可能にしてもよい。本実施形態ではドローン10における撮影カメラ101の位置は固定である場合を想定する。この場合、ドローン10の位置と撮影カメラ101の位置とが、対象環境の座標系において1対1に対応づく。つまりドローン10の位置が決まれば、撮影カメラ101の位置も定まる。
 ドローン10の位置特定部105は、操作装置20に3次元環境マップの取得要求を送信し、操作装置20から3次元環境マップのデータを取得する。より詳細には、操作装置20においては、ドローン10から3次元環境マップの取得要求を通信部202で受信すると、通信部202が取得要求に基づき、3次元環境マップ記憶部203から3次元環境マップを読み出す。通信部202は、3次元環境マップのデータをドローン10に送信する。通信部102は操作装置20から受信した3次元環境マップのデータを位置特定部105に送る。なお、位置特定部105が取得要求を送信しない構成も可能である。例えば、操作装置20から自律的に又はユーザの送信指示に従って3次元環境マップのデータを送信し、位置特定部105は操作装置20から送信された3次元環境マップのデータを取得する。
 位置特定部105は、撮影カメラ101から一定の周期で受け取る画像データに基づき、撮影カメラ101の位置に対応する3次元環境マップにおける位置(マップ内対応位置)、及び撮影カメラ101の向きに対応する3次元環境マップにおける向き(マップ内対応向き)を決定する。例えば、画像データを3次元環境マップに照合し、画像データが最も合致する位置及び向きを探索する。照合の方法として、例えば画像データにおいて1つ以上の特徴点(例えばコーナー、輝度変化が大きい箇所など)とその特徴量を算出し、各特徴点の特徴量を含む特徴量ベクトルを得る。同様に3次元環境マップにおける任意の位置及び方向から見た画像データ(モデル画像データ)を取得して、モデル画像データに対して同様にしてモデル特徴量ベクトルを得る。画像データの特徴量ベクトルに一致又は近似するモデル特徴量ベクトルが得られた位置及び向きを、撮影カメラ101のマップ内対応位置及びマップ内対応向きとして決定する。近似するとは、例えば特徴量ベクトル間の差分の絶対値が閾値以下であることである。照合の方法は一例であり、他の方法でもよい。例えば画像データとモデル画像データとでピクセル間の差分の総和が最も小さい位置及び向きを、撮影カメラ101のマップ内対応位置及びマップ内対応向きとして決定してもよい。
 統合部107は、飛行制御部103で取得されたドローン10の動き情報及び撮影カメラ101の動き情報と、位置特定部105で推定した撮影カメラ101のマップ内対応位置及びマップ内対応向きとを1つのセットデータとして統合する。統合された1つのセットデータを統合データと称する。ドローン10の動き情報は、例えば、上述した一定の周期分の位置情報及び速度情報の少なくとも一方を含む。撮影カメラ101の動き情報は、例えば、上述した一定の周期分の向き情報を含み、さらに一定の周期分の位置情報を含んでもよい。統合部107は、通信部102を介して、統合データを操作装置20に送信する。なお、撮影カメラ101の位置情報とドローン10の位置情報とが1対1に対応づいている場合は、いずれか一方の位置情報のみを統合データに含めてもよい。また、ドローン10の動き情報及び撮影カメラ101の動き情報を、3次元環境マップ内の動き情報にそれぞれ変換した情報を統合データに含めてもよい。
 ドローン10の測距センサ104は、一定時間間隔で検出範囲内の領域を測距し、検出範囲内の各位置までの距離値を含む距離データを生成する。距離データは画素ごとの距離値を含む。測距センサ104は距離データをオブジェクト認識部106へ送る。測距センサ104の検出範囲は、一例として撮影カメラ101の撮影範囲(視野範囲)と同じ又は少なくとも部分的に共通している。測距センサ104は、一例として、LiDAR(Light  Detection  and  Ranging,Laser  Imaging  Detection  and  Ranging)、ステレオカメラ、レーダー、又は単眼カメラなどである。
 オブジェクト認識部106は、撮影カメラ101からの画像データに基づき撮影対象となる物体(対象オブジェクト)の検出を行う。オブジェクト認識部106は、検出した対象オブジェクトの位置を、距離データに基づき算出する。オブジェクト認識部106は、対象オブジェクトの位置情報をオブジェクト追跡部108に送る。撮影カメラ101の撮影範囲(視野範囲)と測距センサ104の検出範囲との対応は予め取得されているものとする。したがって、画像データに含まれる任意のオブジェクトの位置を、距離データから算出することが可能である。対象オブジェクトの種類は予め決められていてもよい。対象オブジェクトは動くオブジェクト(動的オブジェクト)でも、静止したオブジェクト(静止オブジェクト)でもよい。例えば、動的オブジェクトは、対象環境が森林であれば森林を移動する人間でもよいし、サッカーゲームであればゲームに参加している選手でもよい。動的オブジェクトは人間である必要はなく、自動車等の車両でもよいし、昆虫又は動物でもよい。また、静止オブジェクトは、例えば建築物又は風景など何でもよい。対象オブジェクトの位置に加えて、画像データの解析等により対象オブジェクトの向きの検出を行ってもよい。
 オブジェクト追跡部108は、飛行制御部103からのドローン10(又は撮影カメラ101)の動き情報と、オブジェクト認識部106で検出された対象オブジェクトの位置情報とに基づき、対象オブジェクトの追跡(トラッキング)を行う。これにより、対象オブジェクトの動きを推定する。例えば、オブジェクト追跡部108は、対象オブジェクトの動きを、上述した一定の周期の長さ分、推定し、対象オブジェクトの動き情報を得る。これにより、現在の対象オブジェクトの動きを推定した動き情報が得られる。オブジェクト追跡部108は、対象オブジェクトの位置又は動きの履歴を記憶するメモリを備えてもよい。この場合、位置又は動きの履歴に基づき、対象オブジェクトの動きを推定してもよい。過去の位置のシーケンスから移動ベクトルの履歴を算出し、移動ベクトルの履歴から対象オブジェクトの動きを推定してもよい。オブジェクト追跡部108は、対象オブジェクトの位置情報と動き情報とを、通信部102を介して操作装置20に送信する。対象オブジェクトの位置に加えて、向きも検出されている場合は、対象オブジェクトの向き情報も送信してもよい。
 操作装置20における3次元ビュー生成部204は、3次元環境マップ記憶部203から3次元環境マップのデータを読み出し、また、ドローン10から統合データと、対象オブジェクトの位置情報及び動き情報とを取得する。3次元ビュー生成部204は、3次元環境マップに、撮影カメラ101と対象オブジェクトとを統合することにより、オペレータに提示する画像データを3次元ビューとして生成する。
 より詳細には、3次元ビュー生成部204は、3次元環境マップ内における、撮影カメラ101のマップ内対応位置に、撮影カメラ101に関連付けられた仮想カメラ(仮想視点)をマップ内対応向きで配置する。撮影カメラ101のマップ内対応位置は、撮影カメラ101の位置を3次元環境マップ内の位置に変換した第1位置に対応し、マップ内対応向きは、撮影カメラ101の向きを3次元環境マップ内の向きに変換した第1向きに対応する。
 また仮想カメラの視野範囲を、例えば撮影カメラ101の画角(視野範囲)等のカメラパラメータに応じて設定する。3次元環境マップと対象環境とのサイズ等の対応関係に合わせて、仮想カメラの視野範囲の設定を行う。あるいは仮想カメラの視野範囲は予め決められた範囲であってもよい。
 また対象オブジェクトの位置情報に基づき、3次元環境マップに当該対象オブジェクトに対応するオブジェクト(仮想対象オブジェクト)を配置する。すなわち対象オブジェクトの位置情報を3次元環境マップ内の位置に変換し、変換後の位置(対象オブジェクトの位置に対応する3次元環境マップ内の位置)に、仮想対象オブジェクトを配置する。3次元環境マップ内の任意のオブジェクトを仮想オブジェクトと呼び、対象オブジェクトに対応する仮想オブジェクトを特に仮想対象オブジェクトと呼ぶ場合がある。仮想対象オブジェクトの形状は、対象オブジェクトの種類に応じて予め定めた形状でもよいし、直方体、球又は特定のキャラクタなど特定の形状でもよいし、ユーザが指定した形状でもよい。
 撮影対象となる対象オブジェクトは動的オブジェクトであり、3次元環境マップの生成時には対象環境に存在せず、3次元環境マップ記憶部203に記憶された3次元環境マップには当該対象オブジェクトが含まれていない。但し、ドローン10の撮影対象となる対象オブジェクトが静止オブジェクトである場合には、3次元環境マップの作成時に対象環境に対象オブジェクトが含まれていてよい。
 3次元ビュー生成部204は、仮想カメラの視野範囲内の画像データを3次元環境マップから生成する。すなわち、撮影カメラ101が対象環境でとらえている状況を3次元環境マップでエミュレートする。3次元ビュー生成部204は、エミュレートにより生成した画像データを表示部207に表示させる。また3次元ビュー生成部204は、撮影カメラ101の動き情報(又はドローン10の動き情報)と対象オブジェクトの動き情報とに基づき、仮想カメラ及び仮想対象オブジェクトを一定のフレームレートで移動させる。フレームレートごとの仮想カメラの位置及び向きと、仮想対象オブジェクトの位置及び向きとを含む画像データを生成して、表示部207に表示させる。仮想対象オブジェクトの位置及び向きは、仮想対象オブジェクトを配置する第3位置及び第3向きに対応する。このようにして、撮影カメラ101が対象環境でとらえている状況を3次元環境マップで一定のフレームレートでエミュレートする。この処理は、例えば、上述した一定の周期に対応する期間行う。これにより表示部207には、ドローン10が撮影している領域に対応する、3次元環境マップにおける領域の画像が動画として表示される。この際、撮影対象となる対象オブジェクトは、対象オブジェクトを模式的に表す仮想対象オブジェクトとして表示される。
 図6及び図7は、3次元ビュー生成部204で行う処理の具体例を説明する図である。
 図6に、3次元環境マップ70に仮想カメラ71(仮想視点)と、仮想対象オブジェクト72とが配置される例が示される。仮想カメラ71がマップ内対応位置にマップ内対応向きで配置されている。仮想カメラ71は、撮影カメラ101の画角等と、対象環境及び3次元環境マップ間の対応関係とに応じて決定される視野範囲71Aを有する。図では、仮想カメラ71を備えた仮想ドローンが示されるが、仮想カメラ71のみを配置してもよい。仮想対象オブジェクト72は図5に示した人間の対象オブジェクト61を模式的に表す立方体のオブジェクトである。
 図7には、3次元ビュー生成部204で生成された3次元ビューの例が示される。仮想カメラ71の視野範囲71A内の画像80が、表示部207の画面(表示画面)に表示されている。
 フォーカス調整算出部206は、仮想カメラの視野範囲に対応する画像(視野範囲内の画像)に基づき、対象環境において撮影カメラ101がフォーカスされている領域に対応する領域を仮想フォーカス領域として、3次元環境マップにおいて決定又は推定する。フォーカスされている領域(フォーカスが合っている領域)とは、撮影カメラ101の被写界深度に当該領域の全部又は少なくとも一部が含まれていることを意味する。被写界深度は、フォーカスが合っているように見える被写体側の距離の範囲である。
 フォーカス調整算出部206は、仮想カメラの視野範囲内の画像に含まれる少なくとも1つのオブジェクト(仮想オブジェクト)から第1選択条件に従ってオブジェクトを選択し、選択したオブジェクトを含む領域を仮想フォーカス領域とする。撮影カメラ101でも、この第1選択条件と同じ条件に従ってフォーカスするオブジェクトが選択されていてもよい。
 第1選択条件は、一例として、以下の条件のうち少なくとも1つを含んでよい。
・少なくとも1つのオブジェクトのうち移動するオブジェクトを選択する条件
・少なくとも1つのオブジェクトのうち画像における第1領域範囲に含まれる面積に基づきオブジェクトを選択する条件(例えば第1領域範囲に含まれる面積が最も大きいオブジェクトを選択する)
・少なくとも1つのオブジェクトのうち仮想カメラから第1距離範囲に含まれるオブジェクトを選択する条件
 本実施形態の例では、撮影カメラ101がフォーカスされる領域は撮影対象である対象オブジェクトである場合を想定する。つまり、上述の第1選択条件として、移動するオブジェクトを選択する条件を用いる場合を想定する。
 フォーカス調整算出部206は、算出した仮想フォーカス領域を特定する情報である領域特定情報を、3次元ビュー生成部204を介して、表示部207に表示させる。領域特定情報は、例えば、仮想フォーカス領域を囲む線(矩形又は円の枠など)、仮想フォーカス領域をマスクする半透明の画像など任意の情報で構成できる。これにより、撮影カメラ101でフォーカスされていることが期待される領域に対応する、3次元環境マップ内の領域が、ユーザに可視化されることができる。すなわち、ユーザは、領域特定情報が示す3次元環境マップ内の領域に対応する対象環境における領域に、撮影カメラ101がフォーカスされていると期待できる。例えば、領域特定情報が仮想対象オブジェクトを含む領域を示していれば、仮想対象オブジェクトに対応する対象オブジェクトを含む領域に撮影カメラ101がフォーカスされていることをユーザは期待できる。
 図8は、図7に示した3次元ビュー画面に領域特定情報81を表示した例を示す。領域特定情報81は、仮想対象オブジェクト72とその周辺の領域に重ねて配置されており、斜線によって示されている。
 ユーザは、領域特定情報81が示す仮想フォーカス領域を変更する指示をユーザ入力部208から入力することができる。仮想フォーカス領域の変更指示は、例えば画面で別のオブジェクトをタップすることで、タップされたオブジェクトを含む領域を、ユーザが指示した仮想フォーカス領域として検出してもよい。あるいは、表示部207に表示されている領域特定情報をユーザが移動させることで、仮想フォーカス領域の変更をユーザは指示してもよい。あるいは、フォーカスしたい領域として、画面上で指又はペンなどで範囲を指定してもよい。
 フォーカス調整算出部206は、ユーザ入力部208から仮想フォーカス領域の変更指示が入力された場合は、変更後の仮想フォーカス領域までの距離を算出する。フォーカス調整算出部206は、算出した距離を、対象環境の距離に換算する。フォーカス調整算出部206は、換算後の距離にフォーカスを合わせる(合焦させる)ことを指示するフォーカス調整指示情報を生成して、通信部202を介してドローン10に送信する。このフォーカス調整指示情報は、変更後の仮想フォーカス領域に対応する、対象環境における領域にフォーカスを合わせることを指示する情報に対応する。ドローン10のフォーカス制御部109は、フォーカス調整指示情報に従って、撮影カメラ101のフォーカスを調整する。例えば対象環境における距離とカメラパラメータ値とを対応づけた情報に基づき、撮影カメラ101に設定するカメラパラメータ値を決定し、決定した値にカメラパラメータを設定する。カメラパラメータは、例えば、レンズ位置又は焦点距離等を含む。例えば焦点距離を、例えば換算後の距離に位置する物体にフォーカスされるように調整する。
 フォーカス調整算出部206は、ユーザによる変更指示の入力がない場合は、現在の仮想フォーカス領域までの距離を、対象環境の距離に換算する。フォーカス調整算出部206は、換算後の距離にフォーカスを合わせることを指示するフォーカス調整指示情報を生成して、通信部202を介してドローン10に送信する。ドローン10のフォーカス制御部109は、フォーカス調整指示情報に従って、撮影カメラ101のフォーカスを調整する。
 図9は、第1の実施形態に係る通信システムの動作例のフローチャートである。
 ステップS101において、ユーザが操作装置20のユーザ入力部208を操作してドローン10を対象環境において飛行(マニュアル飛行)させ、撮影カメラ101で対象環境を撮影させる。撮影カメラ101の撮影は、例えば一定のフレームレートで行われる。ドローン10の飛行制御部103では、ユーザの操作情報に基づき、ドローン10の動き情報及び撮影カメラ101の動き情報が推定される。
 ステップS102において、ドローン10の位置特定部105は、撮影カメラ101から一定の周期で受け取る画像データに基づき、撮影カメラ101の位置及び向きに対応する、3次元環境マップにおける位置(マップ内対応位置)及び向き(マップ内対応向き)を推定する。
 ステップS103において、統合部107は、飛行制御部103で推定されるドローン10の動き情報及び撮影カメラ101の動き情報と、撮影カメラ101のマップ内対応位置及びマップ内対応向きとを1つのセットデータとして統合し、統合データを得る。ドローン10の動き情報は、例えば上述した周期長の期間分、位置情報及び速度情報の少なくとも一方を含む。撮影カメラ101の動き情報は、例えば上述した周期長の期間分、位置情報及び向き情報の少なくとも一方を含む。
 ステップS104において、測距センサ104は、対象環境における検出範囲内の測距を行い、検出範囲内の各位置までの距離値を含む距離データを生成する。測距センサ104は距離データをオブジェクト認識部106へ送る。
 ステップS105において、オブジェクト認識部106は、撮影カメラ101からの画像データに基づき撮影対象となる物体(対象オブジェクト)の検出を行う。オブジェクト認識部106は、対象環境における当該検出した対象オブジェクトの位置を、距離データに基づき算出する。
 ステップS106において、オブジェクト追跡部108は、飛行制御部103からのドローン10又は撮影カメラ101の少なくとも一方の動き情報と、オブジェクト認識部106で検出された対象オブジェクトの位置情報とに基づき、対象オブジェクトの追跡を行う。これにより対象オブジェクトの動きを推定する。オブジェクト追跡部108は、対象オブジェクトの動きを、例えば上述した周期長の期間推定し、対象オブジェクトの動き情報を得る。
 ステップS107において、通信部102は、統合部107により得られた統合データと、オブジェクト追跡部108で得られた対象オブジェクトの動き情報と位置情報とを操作装置20に送信する。
 ステップS108において、操作装置20の3次元ビュー生成部204は、3次元環境マップに、対象オブジェクト及び撮影カメラを統合する。すなわち、3次元ビュー生成部204は、3次元環境マップ内における撮影カメラ101のマップ内対応位置に仮想カメラ(仮想視点)をマップ内対応向きで配置する。また仮想カメラの視野範囲を、撮影カメラ101のカメラパラメータ等に基づき設定する。また対象オブジェクトの位置情報に基づき、3次元環境マップに当該対象オブジェクトに対応する仮想対象オブジェクトを配置する。なお、対象環境において対象オブジェクトの位置情報に加えて向き情報を検出する場合は、仮想対象オブジェクトの向きも当該向き情報に合わせて設定してもよい。
 ステップS109において、3次元ビュー生成部204は、仮想カメラの視野範囲内の画像データを3次元環境マップから上述した周期長の期間に対応して一定のフレームレートで生成し、生成した画像データを表示部207に表示させる。すなわち、撮影カメラ101が対象環境でとらえているシーンの画像を3次元環境マップでエミュレートする。具体的には、3次元ビュー生成部204は、撮影カメラ101(又はドローン10)の動き情報と対象オブジェクトの動き情報とに基づき、仮想カメラ及び仮想対象オブジェクトを一定のフレームレートで移動させる。そして、フレームレートごとの画像データを表示部207に表示させる。
 ステップS110において、フォーカス調整算出部206は、仮想カメラの視野範囲の画像に基づき、撮影カメラ101がフォーカスされている領域(撮影カメラ101のフォーカスが合っていることが期待される領域)に対応する仮想フォーカス領域を3次元環境マップにおいて決定する。仮想フォーカス領域を特定する領域特定情報を表示部207に表示させる。
 ステップS111において、フォーカス調整算出部206は、仮想フォーカス領域を変更する指示がユーザ入力部208から入力されたかを判断する。フォーカス領域の変更指示が入力された場合(S111のYES)、フォーカス調整算出部206は、ユーザに指示された変更後の仮想フォーカス領域までの距離を算出し、算出した距離を、対象環境の距離に換算する。仮想フォーカス領域までの距離は、仮想フォーカス領域までの平均距離でもよいし、仮想フォーカス領域に含まれる仮想対象オブジェクトまでの平均距離でもよいし、仮想対象オブジェクトの位置(例えば重心)までの距離でもよい。あるいは、仮想フォーカス領域における重心又は任意の定めた位置までの距離でもよいし、その他の手法で定めた距離でもよい。
 ステップS114において、フォーカス調整算出部206は、換算後の距離にフォーカスを調整することを指示するフォーカス調整指示情報を生成し、通信部202を介してドローン10に送信する。
 ステップS115において、ドローン10のフォーカス制御部109は、フォーカス調整指示情報に従って、撮影カメラ101の焦点距離等のカメラパラメータを調整することにより、フォーカスを調整する。
 ユーザによるフォーカス領域の変更指示の入力がない場合(S111のNO)、フォーカス調整算出部206は、ステップS112において、現在の仮想フォーカス領域までの距離を対象環境における距離に換算する。
 ステップS113において、フォーカス調整算出部206は、換算後の距離が、前回の換算後の距離と同じ場合は、撮影カメラ101のフォーカスが合うことが期待される領域にフォーカスが既に合っていると判断し(S113のYES)、ステップS101に戻る。
 フォーカス調整算出部206は、換算後の距離が、前回の換算後の距離と異なる場合は、撮影カメラ101のフォーカスが合うことが期待される領域にフォーカスが合っていないと判断する(S113のNO)。本フローチャートの1回目の処理においては前回の換算後の距離が不明なため、ステップS113では無条件にフォーカスが合っていないと判断してもよい。フォーカス調整算出部206は、換算後の距離にフォーカスを調整することを指示するフォーカス調整指示情報を生成し、通信部202を介してドローン10に送信する。
 以上、本実施形態によれば、撮影カメラがフォーカスされている領域(フォーカスが合っていると期待される領域)を、ユーザは3次元環境マップにおける仮想フォーカス領域として把握することができる。仮想フォーカス領域が、ユーザが期待する領域と異なる場合は、ユーザは入力に基づき仮想フォーカス領域を変更することで、対象環境において撮影カメラ101をフォーカスさせる領域を所望の領域に変更することができる。つまりユーザは、撮影カメラの画角内の状態(現在のシーン又は構図)を3次元環境マップで把握しながら、撮影カメラのフォーカス領域を調整できる。すなわち、3次元環境マップを用いることで、ドローンの撮影カメラで撮影されているリアルタイムの撮影映像(生の撮影映像)を確認できない状況下であっても、ドローンの位置に基づき撮影カメラの画角内のシーンを再構成して、カメラにフォーカスさせる領域の調整ができる。このようにユーザは、所望の領域にフォーカスが合った、高品質な映像をドローンに撮影させることができる。
(第2の実施形態)
 本実施形態は、未来の撮影カメラ101の動き及び対象オブジェクトの動きを予測することで、未来時刻における撮影カメラ101の位置及び向きと、当該未来時刻における対象オブジェクトの位置及び向きを算出する。撮影カメラ101の予測した位置及び予測した向きに応じて、仮想カメラの位置と向きを変更する、また対象オブジェクトの予測した位置及び予測した向きに応じて、仮想対象オブジェクトの位置と向きを変更する。変更後の位置における仮想カメラの視野範囲の画像を表示部207に表示させる。仮想カメラの視野範囲内の画像において仮想フォーカス領域(未来時刻の仮想フォーカス領域)を特定し、領域特定情報を当該フォーカス領域に関連付けて(例えば重ねて)表示する。これにより未来における撮影カメラ101のフォーカスが合っていると期待される領域をユーザに事前に視認させることができる。また、ユーザは第1の実施形態と同様にして、未来時刻における仮想フォーカス領域を所望の位置に変更することができる。つまり、撮影カメラ101のフォーカスを合わせる領域を未来の時刻が到来する前にユーザは事前に指定しておくことができる。これにより、所望の領域にフォーカスが合った高品質な撮影画像を得ることができる。以下、本実施形態について詳細に説明する。
 図10は、本開示の第2の実施形態に係る通信システム2を示す。操作装置20における処理部209に未来予測ビュー生成部205が追加されている。図2と同一名称の要素には同一の符号を付し、変更又は拡張された処理を除き、詳細な説明は適宜省略する。
 未来予測ビュー生成部205は、撮影カメラ101の動き情報に基づき、一定時間後の未来時刻における撮影カメラ101の位置及び向きを予測する。例えば、操作制御部201から出力される操作情報(ドローン10への指示情報)を受信し、一定時間後の未来時刻における撮影カメラ101の位置及び向きを予測する。あるいは、未来予測ビュー生成部205は、ドローン10又は撮影カメラ101の移動履歴に基づき、一定時間後の撮影カメラ101の位置及び向きを予測してもよい。3次元ビュー生成部204は、ドローン10又は撮影カメラ101の移動履歴を保持する保持部を備えていてもよい。移動例歴は、操作情報に基づき作成してもよいし、ドローン10から受信するドローン10又は撮影カメラ101の動き情報に基づき作成してもよい。ここでは撮影カメラ101の位置と向きを予測しているが、撮影カメラ101の位置のみを予測してもよい。この場合、撮影カメラ101の向きは予め固定されていてもよい。
 未来予測ビュー生成部205は、予測された撮影カメラ101の位置及び向きに基づき、仮想カメラの位置及び向きを決定する。例えば予測前の位置と向きと、予測された位置及び向きとの差分に応じて、仮想カメラの位置及び向きを、3次元環境マップにおいて変更する。
 未来予測ビュー生成部205は、対象環境において撮影カメラ101により撮像される対象オブジェクトの動き情報(例えば、対象オブジェクトの位置の履歴)に基づき対象オブジェクトの動きを予測する。未来予測ビュー生成部205は、一定時間後の未来時刻における対象オブジェクトの位置及び向きの少なくとも一方を予測する。未来予測ビュー生成部205は、予測された対象オブジェクトの位置及び向きに応じて、3次元環境マップにおける仮想対象オブジェクトを移動させる。すなわち、仮想対象オブジェクトの位置及び向きを変更する。ここでは対象オブジェクトの位置と向きを予測しているが、対象オブジェクトの位置のみを予測してもよい。
 図11は、3次元環境マップ70において仮想カメラ71及び仮想対象オブジェクト72を、予測した位置に移動させる例を模式的に示す。未来時刻の撮影カメラ101の位置を予測し、予測した位置に対応する、3次元環境マップ70における位置(第2位置)に仮想カメラ71を移動させる(処理P1)。未来時刻の撮影カメラ101の向きを予測し、予測した向きに応じた向きに仮想カメラ71を向ける(処理P2)。撮影カメラ101の予測した位置及び予測した向きに対応する、3次元環境マップ70における仮想カメラ71の位置及び向きは、仮想カメラ71を配置する第2位置及び第2向きに対応する。対象環境における対象オブジェクトの動き予測を行い、予測された位置及び向きに応じて、3次元環境マップ70における仮想対象オブジェクト72を移動させ、また向きを変更する(処理P3)。
 未来予測ビュー生成部205は、未来時刻の位置及び向きにおける仮想カメラ71の視野範囲の画像を表示部207に表示させる。
 図12は、現在時刻における仮想カメラの視野範囲の画像が上述の図7に示した画像80である場合に、一定時間後の未来時刻における仮想カメラの視野範囲の画像83の表示例を示す。表示部207には未来時刻の仮想カメラの視野範囲の画像である画像83が表示される。現在時刻の画像83と未来時刻の画像80とが両方を同時に又は切り替え可能に、表示部207に表示してもよい。
 未来予測ビュー生成部205は、未来時刻における仮想カメラの視野範囲の画像において、仮想フォーカス領域を決定する。未来予測ビュー生成部205は、未来時刻における仮想カメラの視野範囲内の画像において第2選択条件に従ってオブジェクト(仮想オブジェクト)を選択し、選択したオブジェクトを含む領域を仮想フォーカス領域とする。
 第2選択条件は、以下の条件のうちの少なくとも1つを含んでよい。
・少なくとも1つのオブジェクトのうち移動するオブジェクトを選択する条件
・少なくとも1つのオブジェクトのうち前記画像における第2領域範囲に含まれる面積が最も大きいオブジェクトを選択する条件
・少なくとも1つのオブジェクトのうち前記仮想カメラから第2距離範囲に含まれるオブジェクトを選択する条件
・少なくとも1つのオブジェクトのうちユーザにより指定されたオブジェクトを選択する条件
 未来予測ビュー生成部205は、決定した仮想フォーカス領域に関連付けて領域特定情報を配置する。例えば仮想フォーカス領域に領域特定情報を重ねる。
 以下、図13を用いて、第2選択条件に従って、仮想フォーカス領域を決定する手法の具体例を示す。
 図13は、仮想フォーカス領域を決定する手法の例を示す図である。
 図13(A)は、未来時刻の仮想カメラの視野範囲の画像において追跡対象として移動するオブジェクト(仮想対象オブジェクト72)を含む領域を、仮想フォーカス領域に決定する例を示す。決定した仮想フォーカス領域に、斜線で示す領域特定情報82が重ねて表示されている。
 図13(B)は、未来時刻の仮想カメラの画像における所定形状の領域に含まれる1つ以上のオブジェクトからオブジェクトを選択し、選択したオブジェクトの領域を仮想フォーカス領域に決定する例を示す。より詳細には、画像の中央を含む矩形の領域84に少なくとも一部が含まれるオブジェクトのうち、領域84に含まれる部分の面積が最も大きいオブジェクトを選択する。本例では仮想対象オブジェクト72と異なる仮想オブジェクト85が選択されている。選択した仮想オブジェクト85に仮想フォーカス領域を設定する。決定した仮想フォーカス領域に、斜線で示す領域特定情報86が重ねて表示されている。
 図13(C)は、ユーザ入力部208から指定された仮想オブジェクトの領域を仮想フォーカス領域に設定する例を示す。ユーザは、ユーザ入力部208を用いて、表示部207に表示されている画像においてフォーカスを合わせたい仮想オブジェクトを指定する。本例では仮想オブジェクト87が指定され、仮想オブジェクト87に仮想フォーカス領域が設定されている。決定した仮想フォーカス領域に、斜線で示す領域特定情報88が重ねて表示されている。
 第2選択条件としていずれの手法を用いるかはユーザがユーザ入力部208から選択してもよい。複数の手法の1つが予めデフォルトのオプションとして決まっており、ユーザから選択が行われない限り、デフォルトの手法が適用されてもよい。
 図13に示した手法は一例であり、他の手法で仮想フォーカス領域を設定してもよい。例えば、ユーザが、事前に3次元環境マップにおいて仮想フォーカス領域を所定の箇所に指定しておいてもよい。この場合、仮想カメラの視野範囲の画像を表示部207に表示する際、表示された画像のうち事前に指定した箇所が仮想フォーカス領域として決定される。あるいは、事前にシミュレーションにより仮想フォーカス領域が対象環境におけるドローン10(撮影カメラ101)に応じて、変更されるようプログラミングしておいてもよい(後述する第3の実施形態を参照)。
 フォーカス調整算出部206は、未来予測ビュー生成部205により決定された未来時刻の仮想フォーカス領域までの距離を算出する。この距離の算出方法は第1の実施形態と同様でよい。フォーカス調整算出部206は、算出した距離を、対象環境の距離に換算する。フォーカス調整算出部206は、一定時間後(第1の時間後後)の未来時刻で当該換算後の距離にフォーカスを調整することを指示するフォーカス調整指示情報を生成して、通信部202を介してドローン10に送信する。ドローン10のフォーカス制御部109は、フォーカス調整指示情報に従って、一定時間後の未来時刻が到来するタイミングで撮影カメラ101のフォーカスを調整する。例えばフォーカス調整指示情報で指定された距離にフォーカスを合わせるように、撮影カメラ101の焦点距離等のカメラパラメータを調整する。このように、未来時刻で撮影カメラ101のフォーカスが合うことが期待される領域にフォーカスが合うように、撮影カメラ101のフォーカス位置を制御することができる。
 図14は、撮影カメラ101のフォーカス位置の制御の一例を説明する図である。現在時刻t1において撮影カメラ101がフォーカスされる距離(対象環境における距離)が距離Aにされている。また距離Aの位置を基準に、レンズの焦点距離と被写界深度D1等が設定されている。
 被写界深度は、レンズの焦点距離の前後の範囲を含み、フォーカスが合っていると見なせる範囲である。被写界深度は、レンズの絞り値(F値)、レンズの焦点距離、及び、撮影距離(撮影対象と撮影カメラとの間の距離)の組み合わせで決まる。例えば、ある撮影環境下で、レンズの絞り値によって、被写界深度を調整できる。絞り値を小さくすると、被写界深度は浅く(狭く)なり、絞り値を大きくするほど被写界深度は深く(大きく)なる。
 未来時刻t2においてフォーカスを合わせたい距離として距離Bに合わせることをフォーカス調整算出部206からフォーカス制御部109に指示された場合、時刻t2で距離Bにフォーカスが合わせるようにカメラパラメータを調整する。例えば、被写界深度D2の中心に距離Bが合わせられるように、あるいは、少なくとも被写界深度D2の範囲に距離Bが含まれるように、焦点距離及び絞り値の少なくとも一方等のカメラパラメータを調整する。
 具体例として、現在時刻t1の表示部207の画像が図8の画像80であり、未来時刻t2に対して図12の画像83のうち仮想オブジェクト87に仮想フォーカス領域を設定する場合を考える。未来時刻t2が到来すると、撮影カメラ101のレンズの焦点距離等が距離Bに合わせて調整される。例えば被写界深度の中心に距離Bが対応するように調整される。これにより、3次元環境マップにおける仮想オブジェクト87に対応する対象環境におけるオブジェクトに、撮影カメラ101のフォーカスが合わせられることが期待される。
 図15は、第2の実施形態に係る通信システムの動作例のフローチャートである。ステップS101~S108、S114、S115は、図9のフローチャートと同じであるため、説明を省略する。
 ステップS201において、未来予測ビュー生成部205が、撮影カメラ101(又はドローン10)の動き情報と、対象オブジェクトの動き情報とに基づき、未来の3次元環境を予測する。例えば、未来予測ビュー生成部205は、操作制御部201から出力される操作情報又は撮影カメラ101の移動履歴等に基づき、一定時間後(第1時間後)の未来時刻における撮影カメラ101の位置及び向きを予測する。未来予測ビュー生成部205は、対象環境において撮影カメラ101により撮像される対象オブジェクトの動き情報に基づき、対象オブジェクトの動きを予測し、一定時間後の未来時刻における対象オブジェクトの位置及び向きを予測する。
 ステップS202において、未来予測ビュー生成部205が、一定時間後の未来の時刻に撮影カメラ101がとらえているシーンの画像をエミュレートする。より詳細には、未来予測ビュー生成部205は、ステップS201で予測された撮影カメラ101の位置及び向きに応じて、3次元環境マップにおける仮想カメラの位置及び向きを変更する。ステップS201で予測された対象オブジェクトの位置及び向きに応じて、3次元環境マップにおける仮想対象オブジェクトの位置及び向きを変更する。未来予測ビュー生成部205は、3次元環境マップにおける変更後の仮想カメラ71の視野範囲の画像を表示部207に表示させる。
 ステップS203において、未来予測ビュー生成部205は、一定時間後の未来時刻における仮想フォーカス領域を決定し、仮想フォーカス領域を可視化する。すなわち、仮想フォーカス領域に領域特定情報を重ねて配置する。仮想フォーカス領域は、例えば、上述の第2選択条件に従って選択した仮想オブジェクトを含む領域に設定する(図13(A)~図13(C)参照)。
 ステップS111において、フォーカス調整算出部206は、未来時刻に対する仮想フォーカス領域を変更する指示がユーザ入力部208から入力されたかを判断する。フォーカス領域の変更指示が入力された場合(S111のYES)、ステップS114に進み、算出した距離にフォーカスを調整することを指定したフォーカス調整指示情報を、ドローン10に送信する。ステップS115において、ドローン10のフォーカス制御部109は、フォーカス調整指示情報に従って、撮影カメラ101のフォーカスの位置又は領域を調整する。
 ユーザによるフォーカス領域の変更指示の入力がない場合(S111のNO)、フォーカス調整算出部206は、ステップS204において、対象環境において未来時刻でフォーカスが合うことが期待される領域までの距離を算出する。すなわち、3次元環境マップ内の予測された仮想フォーカス領域までの距離を、対象環境の距離に換算する。
 ステップS205において、フォーカス調整算出部206は、フォーカスが合うことが期待される領域にフォーカスがすでに合っているかを判断する。フォーカスが合うことが期待される領域にフォーカスがすでに合っている場合は(S205のYES)、ステップS101に戻る。
 フォーカス調整算出部206は、フォーカスが合うことが期待される領域にフォーカスが合っていない場合は(S205のNO)、ステップS114に進む。ステップS114において、ステップS204で算出した距離にフォーカスを調整することを指定したフォーカス調整指示情報を、ドローン10に送信する。ステップS115において、ドローン10のフォーカス制御部109は、フォーカス調整指示情報に従って、撮影カメラ101のフォーカスの位置又は領域を調整する。
 以上、本実施形態によれば、一定時間後の未来時刻において撮影カメラがフォーカスされることが期待される領域を、ユーザは事前に3次元環境マップにおける仮想フォーカス領域として予測することができる。仮想フォーカス領域が、ユーザが期待する領域と異なる場合は、ユーザは、事前に未来時刻における仮想フォーカス領域を変更することで、未来時刻が到来したときに、期待した領域に撮影カメラのフォーカスが合うようにすることができる。つまり、ドローン又は撮影カメラの素早い動きに対しても、撮影カメラがフォーカスされる領域を撮影対象に追従させることができる。これにより再撮影及び撮影の失敗の頻度を減らすことができる。
(第3の実施形態)
 図16は、本開示の第3の実施形態に係る通信システム3を示す。操作装置20における処理部209にシミュレーション部211が追加されている。また、本実施形態におけるドローン10は、事前に指定された経路に従って、自律飛行を行う。図2と同一名称の要素には同一の符号を付し、変更又は拡張された処理を除き、詳細な説明は適宜省略する。
 シミュレーション部211は、シミュレーションの準備処理と、シミュレーション処理とを行う。
 シミュレーションの準備処理では、3次元環境マップにおいて仮想カメラを備えた仮想ドローンを移動させる経路(仮想飛行経路)を決定する。また、仮想飛行経路に沿った各位置(ウェイポイント)における仮想カメラの向き、及び、フォーカスを合わせたいオブジェクト(対象オブジェクト)の領域等を決定する。対象オブジェクトは、例えば点検対象となるオブジェクトである。
 図17は、シミュレーション部211により行われる準備処理の一例を示すフローチャートである。事前に生成した3次元環境マップを表示部207に表示させる(S301)。シミュレーション部211は、ユーザ入力部208からのユーザ入力に基づき、フォーカスを合わせたい対象オブジェクトの領域を決定する(S302)。ユーザは、対象オブジェクトの優先度を設定する(同ステップS302)。優先度を設定することで、複数の対象オブジェクトが画面内に存在する場合、優先的にフォーカスさせるべき対象オブジェクトを選択することができる。シミュレーション部211は、ユーザの入力に基づき、3次元環境マップにおいて複数のウェイポイントを設定することで、仮想ドローンを飛行させる仮想飛行経路を生成し、また、各ウェイポイントにおける仮想カメラの向きを決定する(S303)。シミュレーション部211は、ステップS302、S303で決定された情報を記憶する。仮想ドローンを移動させる経路の代わりに、仮想カメラを移動させる経路を用いてもよい。
 図18(A)は、シミュレーション部211の事前処理の一例を説明する図である。3次元環境マップ70において仮想カメラ71を備えた仮想ドローン73が示される。ユーザ入力に基づき、仮想ドローン73を移動させる経路である仮想飛行経路R11が設定される。またフォーカスを合わせた対象オブジェクトとして仮想オブジェクト85が指定されている。
 シミュレーション部211は、仮想飛行経路に従って3次元環境マップで仮想ドローンを移動させるシミュレーションを行う。
 図18(B)は、仮想飛行経路R11に沿って仮想ドローン73を移動させるシミュレーションの例を示す。
 図19は、シミュレーション部211により行われるシミュレーションの一例を示すフローチャートである。3次元環境マップにおいて、準備処理で設定されたウェイポイントと仮想カメラの向きとに基づき、仮想カメラ71を備えた仮想ドローン73を移動させる(S311)。
 シミュレーション部211は、仮想飛行経路に沿って移動する仮想ドローンの位置(ウェイポイント)毎に、仮想フォーカス領域を決定する。より詳細には、まず3次元環境マップにおいて現在の仮想カメラの位置を算出し、仮想カメラの視野範囲の画像を生成する(S312)。生成した画像において仮想対象オブジェクトを検出する(S313)。本例の仮想対象オブジェクトは3次元環境マップ内に予め存在する特定のオブジェクト(静的オブジェクト)の場合を想定する。
 シミュレーション部211は、仮想対象オブジェクトを検出した場合は(YES)、仮想対象オブジェクトの領域を仮想フォーカス領域とする。シミュレーション部211は、仮想フォーカス領域までの距離を計算する(S315)。この距離は、3次元環境マップにおいて仮想フォーカス領域に仮想カメラをフォーカスさせる距離に対応する。シミュレーション部211は、計算した距離を、対象環境における距離(対象オブジェクトまでの距離)に換算する。シミュレーション部211は、仮想フォーカス領域までの距離又は換算後の距離の少なくとも一方を、仮想ドローンの位置に対応付けて、対応情報として記憶する(同ステップS315)。この対応情報は、仮想フォーカス領域の情報を仮想ドローンの位置に対応付けた情報の一例である。対応情報において、仮想フォーカス領域の情報として、上記距離の代わりに、仮想フォーカス領域の位置又は範囲を特定する情報を対応づけてもよい。複数の仮想対象オブジェクトが存在する場合、一例として、最も優先度が高い仮想対象オブジェクトを選択し、選択した仮想対象オブジェクトの領域を仮想フォーカス領域とする(同ステップS315)。または、優先度に応じて仮想対象オブジェクトに重み付けを行い、各仮想対象オブジェクトまでの距離を優先度に応じて重み付けし、重み付けした距離を平均したものを仮想フォーカス領域までの距離とする(同ステップS315)。
 一方、シミュレーション部211は、仮想対象オブジェクトが検出されない場合は(NO)、事前に決められた方式により、フォーカス調整のための距離を算出する(S314)。例えば、画面内の中央を含む領域に含まれる部分の面積が最も大きい仮想オブジェクト、仮想カメラから一番近い仮想オブジェクトなど任意の方法で仮想オブジェクトを選択する。前述した第1選択条件又は第2選択条件と同様の方法で仮想オブジェクトの選択を行ってもよい。シミュレーション部211は、選択した仮想オブジェクトを含む領域を仮想フォーカス領域とし、仮想フォーカス領域までの距離を算出する。シミュレーション部211は、仮想フォーカス領域までの距離、及び当該距離を対象環境上の距離に換算した距離の少なくとも一方を、仮想ドローンの位置に対応付けて、対応情報として記憶する(同ステップS314)。
 シミュレーション部211は、現在の仮想カメラの位置及び向きにおいて、ステップS314又はステップS315で計算した距離に応じて、レンズエミュレーションにより、ぼけを再現した画像を生成する(S316)。すなわち、ステップS312で生成した画像において、ステップS314又はステップS315で算出した距離から逸脱した領域ほど、ボケを大きくした画像を調整する。シミュレーション部211は、生成した画像をユーザによる確認用に、シミュレーション部211からアクセス可能な記憶部に保存する。記憶部は、操作装置20の内部に設けられても、操作装置20の外部に設けられていてもよい。
 シミュレーション部211は、仮想ドローンが仮想飛行経路のゴール地点に到着したかを判断し(S317)、到達していない場合は(NO)、ステップS311に戻る。
 仮想ドローンが仮想飛行経路のゴール地点に到着した場合(YES)、ステップS316で保存した画像を再生し、再生した画像を表示部207にユーザに確認可能に表示させる(S318)。また、表示部207に、上述の対応情報を、時間に応じて遷移させたグラフの形式などで表示する。再生した画像と対応情報とを時刻同期して表示させてもよい。
 図20は、再生した画像と対応情報とを時刻同期して表示させる例を示す。横軸を時間、縦軸を距離として座標系に、距離のグラフG1が表示されている。カーソルをグラフG1における位置に合わせると、該当する画像(ボケを生じさせた画像)が表示される。この際、同時に仮想カメラの位置が同時に表示されてもよい。ユーザは、ボケを再現した各時刻の画像と同じ時刻における距離(本例では仮想フォーカス領域までの距離とするが、換算した距離でもよい)を確認できる。図には時刻t1、t2、t3のボケを再現した画像と、距離が示され、さらに本例では、各時刻における被写界深度D11、D12、D13が示される。ユーザは、ボケを再現した画像を見ながら、仮想フォーカス領域を調整したい画像を見つけた場合は、当該画像に対して仮想フォーカス領域の変更指示(仮想フォーカス領域までの距離の調整指示)を入力してもよい。仮想フォーカス領域の変更指示は、フォーカスを合わせたい仮想オブジェクトを指定する指示でもよいし、仮想フォーカス領域までの距離を直接指定してもよい。シミュレーション部211は、ユーザから入力された指示に基づき、対応情報における該当する仮想フォーカス領域の情報を更新、より詳細には仮想フォーカス領域までの距離を更新する。
 ドローン10は、上述の仮想飛行経路に対応する対象環境における飛行経路の情報と、仮想飛行経路における各位置(ウェイポイント)に対応する対象環境における位置での撮影カメラ101の向きの情報とを取得する。ドローン10は、取得した情報に基づき自律飛行と撮影とを行う。
 対象環境における飛行経路(自律飛行用の経路)は、仮想飛行経路における各ウェイポイントに対応する位置のセットで表される。自律飛行用の飛行経路はシミュレーション部211で仮想飛行経路から算出され、操作装置20の操作制御部201からドローン10の飛行制御部103に送られる。また、各ウェイポイントでの仮想カメラの向きに対応する撮影カメラ101の向きの情報が、操作装置20の操作制御部201からドローン10の飛行制御部103に送られる。飛行制御部103は、自律飛行用の経路と撮影カメラ101の向きとの情報に基づき、自律飛行経路に沿って飛行し、撮影カメラ101で撮影を行う。
 図21は、対象環境においてドローン10を自律飛行用の経路21に沿って飛行し、撮影カメラ101で撮影を行う様子を示している。ドローン10の実際の飛行経路が、風などの影響により、自律飛行用の経路から大きく離れる場合もあり得る。経路が大きく離れたか否かは、例えば、ニューラルネットワークを用いて2つの経路が大きく離れているかを判別する方法を用いて判断してもよい。自律飛行用の経路から大きく離れた場合は、前述した第1選択条件又は第2選択条件に従ったオブジェクト選択を用いて、フォーカス制御を行ってもよい。
 操作装置20は、ドローン10の統合部107から、ドローン10及び撮影カメラ101の少なくとも一方のマップ内対応位置等の情報を取得する。フォーカス調整算出部206は、シミュレーション部211で事前に取得された対応情報に基づき、取得したマップ内対応位置に一致する又は近い位置を特定し、特定した位置に対応する距離(仮想フォーカス領域までの距離)を取得する。マップ内対応位置に近い位置は、例えば、当該マップ内対応位置に最も近い位置、又は、距離が閾値以下の位置である。フォーカス調整算出部206は、取得した仮想フォーカス領域までの距離を、対象環境上の距離に換算し、換算した距離に基づきフォーカス調整指示情報を生成し、ドローン10に送信する。ドローン10のフォーカス制御部109は、フォーカス調整指示情報が示す距離に撮影カメラ101のフォーカスを合わせる調整を撮影カメラ101のカメラパラメータの調整等により行う。
 図22は、第3の実施形態に係る通信システムの動作例のフローチャートである。ステップS101~S109、S113~S115は、図9のフローチャートと同じであるため、説明を省略する。ステップS401~S405が新たに追加されたステップである。
 ステップS401において、ドローン10の飛行制御部103は、操作装置20から自律飛行用の経路と撮影カメラ101の向きとの情報を取得し、取得した情報に基づき、ドローン10の飛行を制御し、また撮影カメラ101の向きを制御する。
 ステップS402において、操作装置20のシミュレーション部211は、シミュレーションの仮想飛行経路において、ドローン10の現在のマップ内対応位置に最も近い位置(ウェイポイント)と、当該位置(ウェイポイント)に設定されている向きとを選択する。シミュレーション部211は、選択した位置・向きと、ドローン10の現在のマップ内対応位置・マップ内対応向きとの差が大きく乖離しているかを判断する。例えばいずれか一方の差が閾値以上であれば、大きく乖離していると判断し、閾値未満であれば、大きく乖離していないと判断する。シミュレーション部211は、大きく乖離していないと判断した場合は(S403のNO)、対応情報において上記最も近い位置に対応づいた焦点距離を選択し、焦点距離を示すフォーカス調整指示情報をドローン10に送信する(S114)。ドローン10は、フォーカス調整指示情報に基づき撮影カメラ101のフォーカスを制御する(S115)。
 一方、上記のいずれか一方の差が大きく乖離していると判断した場合は(S403のYES)、フォーカス調整算出部206は、現在のマップ内対応向きにおける仮想カメラの視野範囲内の画像に基づき仮想フォーカス領域を決定する(S405)。仮想フォーカス領域を決定する方法は、シミュレーション準備処理と同様でよい。複数の仮想オブジェクトが含まれる場合は、各仮想オブジェクトの優先度に基づき、仮想フォーカス領域を決定してもよい。フォーカス調整算出部206は、決定した仮想フォーカス領域までの距離を計算し、計算した距離を対象環境上の距離に換算した距離が、撮影カメラ101の現在のフォーカス領域までの距離に一致しているかを判断する。一致している場合は(S113のYES)、ステップS401に戻り、一致していない場合は、ステップS114、S115に進む。ステップS114、S115以降の処理は、第1の実施形態と同様である。
 本実施形態では対応情報を用いたフォーカス制御のため処理を操作装置20で行ったが、対応情報をドローン10に予め提供しておき、フォーカス制御部109が対応情報に基づき、自律的にフォーカス制御を行ってもよい。この場合、ドローン10及び操作装置20間の通信量を削減できる。
 以上、本実施形態によれば、ドローン10が自律飛行を行う場合にも、ユーザが所望するオブジェクトにフォーカスを合わせた画像を撮影することができる。
(第4の実施形態)
 上述した第1の実施形態等では、仮想フォーカス領域を特定する情報(領域特定情報)を仮想カメラの画像に重畳することにより可視化した。別の形態として、撮影カメラ101の画像(スルー画像又は撮影カメラ画像と呼ぶ場合がある)に領域特定情報を重畳して可視化してもよい。具体的には、表示部207の画面内に、第1の実施形態と同様にして決定した仮想フォーカス領域と同じ位置にフォーカス識別情報を表示し、さらに、表示部207の背景画像としては、スルー画像を表示する。仮想カメラの画像内の仮想対象オブジェクトとスルー画像における対象オブジェクトは同じ位置又は概ね同じ位置に存在することが期待される。よって、この方法により、フォーカス識別情報がスルー画像における対象オブジェクトに少なくとも部分的に重ねて表示されることが期待される。よってユーザは撮影カメラ101によりフォーカスされることが期待される領域をより容易又は直感的に把握できる。
 図23は、本開示の第4の実施形態に係る通信システム4を示す。ドローン10に圧縮部502が追加されている。また操作装置20の処理部209にフォーカス領域可視化画像作成部501が追加されている。図2と同一名称の要素には同一の符号を付し、変更又は拡張された処理を除き、詳細な説明は適宜省略する。
 ドローン10の圧縮部502は、撮影カメラ101で撮影された画像(スルー画像)を受け取り、画像を圧縮する。圧縮は、サイズの縮小又は解像度の低下など、画像のデータ量を削減できる任意の方法を用いてよい。圧縮部502は圧縮した画像のデータを、通信部102を介して操作装置20に送信する。撮影カメラ101は、撮影した画像から、位置特定部105に画像を提供する周期と同じ周期で画像を選択して圧縮部502に提供してもよいし、当該周期よりも短い又は長い周期で選択して圧縮部502に提供してもよい。
 3次元ビュー生成部204は、第1の実施形態と同様に3次元環境マップに、対象オブジェクトに対応する仮想対象オブジェクトを配置し、仮想カメラの視野範囲の画像を生成する。3次元ビュー生成部204は、生成した画像に含まれる仮想対象オブジェクトの領域を仮想フォーカス領域とする。なお、仮想フォーカス領域の決定方法は他の方法でもよい。3次元ビュー生成部204は、画像内における仮想フォーカス領域の範囲を示す情報をフォーカス領域可視化画像作成部501に提供する。仮想フォーカス領域の範囲は、当該領域に属する全ての画素の位置を示す情報でもよいし、領域の形状が矩形等の特定の形状であれば、所定の形式(例えば矩形における左上の座標と、横サイズと、縦サイズ)で表されてもよい。
 フォーカス領域可視化画像作成部501は、通信部202を介してドローン10から圧縮されたスルー画像のデータを取得する。取得したスルー画像において、3次元ビュー生成部204から取得した情報に示される仮想フォーカス領域と同じ位置の領域に、フォーカス領域を特定する領域特定情報を重ねる。重ねた画像を表示部207に表示させる。なお、圧縮したスルー画像と仮想カメラの画像のサイズ及び解像度は同じであるとするが、サイズ及び解像度が異なってもよい。サイズ及び解像度が異なる場合は、適宜、画像間の位置関係の対応をとることで、仮想フォーカス領域と同じ位置の領域を、圧縮されたスルー画像において特定できる。
 図24は、フォーカス領域可視化画像作成部501の処理の具体例を示す。図24の左上図は、図5と同様の環境でドローン10が飛行及び撮影した場合に、ドローン10から送信される圧縮されたスルー画像511の例を示す。図24の右上図は、当該スルー画像が取得された際に、3次元ビュー生成部204において仮想カメラの視野範囲の画像において特定された仮想フォーカス領域512を示す。図24の下図は、図24の左上の圧縮されたスルー画像において、図24の右上の仮想フォーカス領域と同じ位置に領域特定情報513を重ねた画像を示す。領域特定情報513は半透明であり、背景画像(対象オブジェクト)が透けて見える。これによりユーザはスルー画像のどの領域に撮影カメラ101がフォーカスされることが期待されているかを、容易に現実感をもって把握することができる。なお、領域特定情報を非透明とし、仮想フォーカス領域の背景画像が透けない(見えない)ようにしてもよい。
 図25は、第4の実施形態に係る通信システム4の動作例のフローチャートである。ステップS101~S106、S108、S109、S111~S115は、図9のフローチャートと同じであるため、説明を省略する。
 ステップS501において、ドローン10の圧縮部502は、撮影カメラ101の画像を受け取り、画像を圧縮する。
 ステップS502において、通信部102が、図9のステップS107で行う送信に加え、圧縮した画像のデータを操作装置20に送信する。
 ステップS503において、フォーカス領域可視化画像作成部501は、受信したスルー画像において、3次元ビュー生成部204で生成される仮想フォーカス領域と同じ位置に、仮想フォーカス領域を特定する領域特定情報を重ねる。フォーカス領域可視化画像作成部501は、領域特定情報を重ねたスルー画像を表示部207に表示させる。
 以上、本実施形態によれば、撮影カメラ101の撮影画像(スルー画像)に仮想フォーカス領域を特定する情報を重ねて表示することにより、撮影カメラ101がフォーカスしていると期待される領域をユーザに、より現実感を高めて視認させることができる。
(第5の実施形態)
 上述した各実施形態では仮想カメラから仮想対象オブジェクトまでの距離(仮想フォーカス領域までの距離)を対象環境における距離に換算して、撮影カメラ101のフォーカス調整を行った。撮影カメラ101又は測距センサ104等の個体差により、換算した距離が、実際の対象環境の撮影カメラ101から対象オブジェクトまでの距離に合致せず、フォーカスが合わない場合もあり得る。本実施形態では、仮想対象オブジェクトまでの距離のキャリブレーションを行うことで、フォーカスをより正確に合わせることを実現する。
 本実施形態に係る通信システムのブロック図は、前述した各実施形態のブロック図と同じであるが、フォーカス調整算出部206の処理が一部拡張されている。
 フォーカス調整算出部206は、第1の実施形態と同様に、仮想カメラから仮想対象オブジェクトまでの距離を対象環境における距離に換算した距離に基づき、フォーカス調整指示情報を生成し、フォーカス調整指示情報をドローン10に送信する。
 フォーカス調整算出部206は、フォーカス制御部109によりフォーカス調整(例えば焦点距離等のカメラパラメータの調整)がなされた後(例えば直後)の撮影カメラ101により撮像された画像と、測距センサ104の測距画像とをドローン10から取得する。フォーカス調整算出部206は、取得したこれらの画像に基づき、撮影カメラ101からの距離(測距画像の測距値)とコントラスト強度との関係を表すデータを取得する。距離ごとのコントラスト強度は、例えば撮影画像において距離ごとに画素の高周波成分を積分することにより算出できる。積分値が大きいほどコントラストが高く、フォーカスがより合っているといえる。フォーカス調整算出部206は、取得したデータにおいて最大のコントラスト強度(ピーク)に対応する距離を特定する。フォーカス調整算出部206は、特定した距離と、上記の仮想フォーカス領域までの距離を対象環境上の距離に換算した距離との差分を算出する。
 図26は、フォーカス制御部109によりフォーカス調整がなされた後の撮影カメラ101により撮像された画像の例を示す。
 図27は、距離(対象環境における距離)とコントラスト強度との関係を示すデータの例を示す。最大のコントラスト強度(ピーク)に対応する距離H1と、3次元環境マップ上の仮想フォーカス領域までの距離を対象環境上の距離に換算した距離H2と、距離H1、H2の差分ΔHとが示される。
 フォーカス調整算出部206は、算出した差分に応じて、仮想対象オブジェクトまでの距離(又は換算した距離)をキャリブレーションする。キャリブレーションとして、例えば仮想フォーカス領域までの距離(又は当該距離を対象環境上の距離に換算した距離)に、差分を加算又は減算する。あるいは、差分に調整係数を乗じた値を加算又は減算する。フォーカス調整算出部206は、キャリブレーション後の距離に基づいて、フォーカス調整指示情報を生成する。このようにフォーカス調整算出部206は、仮想カメラから仮想フォーカス領域までの距離と、撮影カメラ101がフォーカスされている距離との差分を算出し、差分に応じて、フォーカス調整指示情報を生成する。フォーカス調整算出部206は、生成したフォーカス調整指示情報をドローン10に送信する。差分ΔHの計算は、ドローン10の飛行の開始時に1回行い、その後は、当該差分を用いて毎回キャリブレーションを行ってもよい。あるいは、一定の時間間隔で差分ΔHの計算を行うことで、一定時間間隔で差分を更新してもよい。
 上述した例では差分を計算するために測距画像を用いたが、他の手法によるキャリブレーションも可能である。例えば、ドローンが空中に停止した状態で撮影カメラ101による撮影を行い、第1の実施形態と同様の処理を行い、仮想対象オブジェクトまでの距離を算出する。またドローンをその位置の状態にしたまま、撮影カメラ101のレンズの焦点距離を一定の範囲で変動させ、各焦点距離の位置で撮影カメラ101により撮像を行う。各撮像した画像において、対象オブジェクトを含む領域のコントラスト強度を算出する。コントラスト強度が最も高い焦点距離を特定する。事前にレンズの焦点距離と、フォーカスが合う対象環境上の距離との対応づけたフォーカス・距離対応データに基づき、決定したレンズの焦点距離に対応する対象環境上の距離を取得する。取得した距離を、上記の仮想フォーカス領域までの距離を対象環境上の距離に換算した距離と比較し、両者の差分を算出する。算出した差分を、前述したキャリブレーションの例と同様にして用いて、距離のキャリブレーションを行う。以上の処理をフォーカス調整算出部206が行う。
 キャリブレーションのさらに他の手法として、2つの結像画像の位相差を利用する方式も可能である。撮影カメラ101の内部において、被写体(対象オブジェクト)からのレンズ(撮影レンズ)を通過した光の一部を、ハーフミラーを介して撮像素子に入射させるとともに、当該光の残りの一部を他の方向にハーフミラーで反射させる。反射した光を2つの検出用レンズにそれぞれ入射させ、当該2つの検出用レンズから位相差検出用の2つの撮像センサにそれぞれ入力させる。2つの撮像センサの画像の位相差から被写体までの距離を算出する。算出した距離を示す情報を、ドローン10から操作装置20に送信する。操作装置20のフォーカス調整算出部206は、受信した距離を、上記の3次元環境マップ上の仮想対象オブジェクトまでの距離を対象環境上の距離に換算した距離と比較し、両者の差分を算出する。フォーカス調整算出部206は、差分に応じて、算出した仮想対象オブジェクトまでの距離(又は換算した距離)をキャリブレーションする。キャリブレーションとして、例えば仮想対象オブジェクトまでの距離(又は当該距離を対象環境上の距離に換算した距離)に、差分又は差分に調整係数を乗じた値を、加算又は減算する。フォーカス調整算出部206は、キャリブレーション後の距離に基づいてフォーカス調整指示情報を生成し、ドローン10に送信する。キャリブレーションを行うための差分の算出は、ドローン10の飛行の開始時又は途中で1回行い、その後は、当該差分を用いて毎回キャリブレーションを行ってもよい。あるいは、一定の時間間隔で差分の計算を行うことにより、差分の値を更新してもよい。距離の算出を撮影カメラ101で行ったが、位相差の情報を操作装置20に送信し、フォーカス調整算出部206で位相差から距離を計算する処理を行ってもよい。
(変形例)
 上述した実施形態では、撮影カメラをドローンに設けたが、撮影カメラを設ける対象はドローンに限定されない。例えば、台車、AGV、移動ロボット、電車、自動者、潜水艦などの移動体に撮影カメラを設ける場合も、同様の実施形態が可能である。
 上述した実施形態ではフォトグラメトリを用いて3次元環境マップを作成したが、ドロー等の移動体が備える測距センサ等のセンサを用いてリアルタイムに環境マップ(例えばOccupancy Grid Map)を作成してもよい。また上述の実施形態はGPS(Global Positioning Satellite、全地球測位システム)信号を受信できない環境でも実施可能である。
 また、本明細書に記載された本開示の効果は例示に過ぎず、その他の効果があってもよい。
 なお、本発明は上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。さらに、異なる実施形態にわたる構成要素を適宜組み合わせてもよい。
 なお、本開示は以下のような構成を取ることもできる。
[項目1]
 撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置し、
 前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定し、
 前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示する
 情報処理方法。
[項目2]
 前記仮想カメラの前記視野範囲に対応する前記画像に少なくとも1つのオブジェクトが含まれており、
 前記画像に含まれる前記少なくとも1つのオブジェクトから第1選択条件に従ってオブジェクトを選択し、選択した前記オブジェクトを含む領域を前記仮想フォーカス領域とする
 項目1に記載の情報処理方法。
[項目3]
 前記第1選択条件は、
 前記少なくとも1つのオブジェクトのうち移動するオブジェクトを選択する条件、
 前記少なくとも1つのオブジェクトのうち前記画像における第1領域範囲に含まれる面積に基づいてオブジェクトを選択する条件、
 前記少なくとも1つのオブジェクトのうち前記仮想カメラから第1距離範囲に含まれるオブジェクトを選択する条件、
 のうちの少なくとも1つを含む
 項目2に記載の情報処理方法。
[項目4]
 前記対象環境における前記撮影カメラの位置を表す位置情報を取得し、
 前記位置情報が示す位置に対応する前記仮想環境空間における第1位置に前記仮想カメラを配置する
 項目1~3のいずれか一項に記載の情報処理方法。
[項目5]
 前記対象環境における前記撮影カメラの姿勢を表す姿勢情報を取得し、
 前記仮想カメラを前記姿勢情報が示す姿勢に応じた姿勢で配置する
 項目4に記載の情報処理方法。
[項目6]
 前記仮想カメラの前記視野範囲に対応する前記画像を前記表示画面に表示し、前記画像における前記仮想フォーカス領域に、前記領域特定情報を配置する
 項目1~5のいずれか一項に記載の情報処理方法。
[項目7]
 前記撮影カメラの撮像画像を取得し、前記撮像画像を前記表示画面に表示し、
 前記仮想カメラの前記視野範囲に対応する前記画像における前記仮想フォーカス領域の位置に対応する、前記撮像画像における位置に前記領域特定情報を配置する
 項目1~6のいずれか一項に記載の情報処理方法。
[項目8]
 前記仮想カメラから前記仮想フォーカス領域までの距離を算出し、
 算出した距離に基づき、前記仮想フォーカス領域に対応する前記対象環境における領域に、前記撮影カメラのフォーカスを合わせることを指示するフォーカス調整指示情報を前記移動体に送信する
 項目1~7のいずれか一項に記載の情報処理方法。
[項目9]
 前記フォーカス調整指示情報に基づき、前記撮影カメラのカメラパラメータを調整することにより、前記撮影カメラのフォーカスを合わせる距離を調整する
 項目8に記載の情報処理方法。
[項目10]
 前記仮想フォーカス領域を変更することを指示する指示情報を、ユーザ入力部を介して取得し、
 前記指示情報に基づき、前記仮想フォーカス領域を変更する
 項目8~9のいずれか一項に記載の情報処理方法。
[項目11]
 前記移動体の動き情報を取得し、前記移動体の動き情報に基づき、第1の時間後の前記撮影カメラの位置を予測し、
 前記撮影カメラの予測された位置に対応する前記仮想環境空間における第2位置に、前記仮想カメラを配置する
 項目1~10のいずれか一項に記載の情報処理方法。
[項目12]
 前記仮想カメラの前記視野範囲に対応する前記画像を前記表示画面に表示し、
 前記撮影カメラにより撮像される対象オブジェクトの動き情報を取得し、
 前記対象オブジェクトの動き情報に基づき、前記第1の時間後の前記対象オブジェクトの位置を予測し、
 前記対象オブジェクトの予測された位置に対応する前記仮想環境空間における第3位置に、前記対象オブジェクトを表す仮想オブジェクトを配置し、
 前記仮想カメラの前記視野範囲に対応する前記画像において前記仮想オブジェクトを含む領域を前記仮想フォーカス領域に決定する
 項目11に記載の情報処理方法。
[項目13]
 前記第2位置に配置された前記仮想カメラの前記視野範囲に対応する画像に少なくとも1つのオブジェクトが含まれており、
 前記画像に含まれる前記少なくとも1つのオブジェクトから第2選択条件に従ってオブジェクトを選択し、選択した前記オブジェクトを含む領域を前記仮想フォーカス領域に決定する
 項目11又は12に記載の情報処理方法。
[項目14]
 前記第2選択条件は、
 前記少なくとも1つのオブジェクトのうち移動するオブジェクトを選択する条件、
 前記少なくとも1つのオブジェクトのうち前記画像における第2領域範囲に含まれる面積に基づきオブジェクトを選択する条件、
 前記少なくとも1つのオブジェクトのうち前記仮想カメラから第2距離範囲に含まれるオブジェクトを選択する条件、
 前記少なくとも1つのオブジェクトのうちユーザにより指定されたオブジェクトを選択する条件
 のうちの少なくとも1つを含む
 項目13に記載の情報処理方法。
[項目15]
 前記移動体の移動を指示する操作情報を、ユーザ入力部を介して取得し、
 前記操作情報を前記移動体に送信し、
 前記移動体の動き情報を、前記操作情報に基づき取得する
 項目11~14のいずれか一項に記載の情報処理方法。
[項目16]
 前記仮想カメラ又は前記仮想カメラを搭載した仮想移動体を前記仮想環境空間において第1の経路に沿って移動させるシミュレーションを行い、
 前記第1の経路における複数の位置ごとに前記仮想フォーカス領域を設定し、
 設定した複数の前記仮想フォーカス領域の情報を前記複数の位置に対応付けた対応情報を生成する
 項目1~15のいずれか一項に記載の情報処理方法。
[項目17]
 前記仮想環境空間の前記第1の経路に対応する、前記対象環境の第2経路に基づき、前記移動体に自律移動させ、
 自律移動する前記移動体から前記移動体の位置又は前記撮影カメラの位置を示す位置情報を取得し、
 前記位置情報が示す前記位置に対応する、前記仮想環境空間における位置に基づき、前記対応情報から仮想フォーカス領域の情報を選択し、
 選択した前記情報が示す前記仮想フォーカス領域に対応する前記対象環境における領域に前記撮影カメラをフォーカスさせることを指示するフォーカス調整指示情報を、前記移動体に送信する
 項目16に記載の情報処理方法。
[項目18]
 前記対応情報を前記表示画面に表示し、
 前記対応情報に含まれる前記複数の位置のうちの1つの位置に対して、前記仮想フォーカス領域を変更することを指示する指示情報を、ユーザ入力部を介して取得し、
 前記指示情報に基づき前記対応情報における前記1つの位置に対応する前記仮想フォーカス領域の情報を更新する
 項目17に記載の情報処理方法。
[項目19]
 前記仮想カメラから前記仮想フォーカス領域までの距離と、前記撮影カメラがフォーカスされている距離との差分を算出し、前記差分に応じて、前記フォーカス調整指示情報を生成する
項目8~18のいずれか一項に記載の情報処理方法。
[項目20]
 前記移動体は、ドローンである
 項目1~19のいずれか一項に記載の情報処理方法。
[項目21]
 撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置し、前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定する処理部と、
 前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示する表示部と
 を備えた情報処理装置。
[項目22]
 撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置するステップと、
 前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定するステップと、
 前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示するステップと
 をコンピュータに実行させるためのコンピュータプログラム。
[項目23]
 対象環境を移動可能であり、撮影カメラを搭載した移動体と、
 前記移動体を操作する操作装置と、を備え、
 前記操作装置は、
 前記対象環境をモデル化した仮想環境空間と、
 前記移動体から、前記撮影カメラの位置に対応する前記仮想環境空間における位置を特定可能な情報を受信する受信部と、
 前記情報が示す前記位置に仮想カメラを配置し、前記仮想カメラの視野範囲に対応する画像に基づき、前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定する処理部と、
 前記仮想フォーカス領域を特定する領域特定情報を表示する表示部と
 を備えた通信システム。
1~4 通信システム
10 ドローン
20 操作装置
21 経路
30 ユーザ
50 移動体
51 ユーザ
52 カメラ
53 画像
60 対象環境
61 対象オブジェクト
70 3次元環境マップ
71 仮想カメラ
71A 視野範囲
73 仮想ドローン
72 仮想対象オブジェクト
80 画像
81 領域特定情報
82 領域特定情報
83 画像
84 領域
85 仮想オブジェクト
86 領域特定情報
87 仮想オブジェクト
88 領域特定情報
101 撮影カメラ
101A 画角
102 通信部
103 飛行制御部
104 測距センサ
105 位置特定部
106 オブジェクト認識部
107 統合部
108 オブジェクト追跡部
109 フォーカス制御部
110 画像データ記憶部
111 ロータ
201 操作制御部
202 通信部
203 3次元環境マップ記憶部
204 3次元ビュー生成部
205 未来予測ビュー生成部
206 フォーカス調整算出部
207 表示部
208 ユーザ入力部
209 処理部
211 シミュレーション部
501 フォーカス領域可視化画像作成部
502 圧縮部
511 スルー画像
512 仮想フォーカス領域
513 領域特定情報
A 距離
B 距離
D1 被写界深度
D2 被写界深度
D11~D13 被写界深度
G1 グラフ
H1、H2 距離
P1~P3 処理
R11 仮想飛行経路

Claims (23)

  1.  撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置し、
     前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定し、
     前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示する
     情報処理方法。
  2.  前記仮想カメラの前記視野範囲に対応する前記画像に少なくとも1つのオブジェクトが含まれており、
     前記画像に含まれる前記少なくとも1つのオブジェクトから第1選択条件に従ってオブジェクトを選択し、選択した前記オブジェクトを含む領域を前記仮想フォーカス領域とする
     請求項1に記載の情報処理方法。
  3.  前記第1選択条件は、
     前記少なくとも1つのオブジェクトのうち移動するオブジェクトを選択する条件、
     前記少なくとも1つのオブジェクトのうち前記画像における第1領域範囲に含まれる面積に基づいてオブジェクトを選択する条件、
     前記少なくとも1つのオブジェクトのうち前記仮想カメラから第1距離範囲に含まれるオブジェクトを選択する条件、
     のうちの少なくとも1つを含む
     請求項2に記載の情報処理方法。
  4.  前記対象環境における前記撮影カメラの位置を表す位置情報を取得し、
     前記位置情報が示す位置に対応する前記仮想環境空間における第1位置に前記仮想カメラを配置する
     請求項1に記載の情報処理方法。
  5.  前記対象環境における前記撮影カメラの姿勢を表す姿勢情報を取得し、
     前記仮想カメラを前記姿勢情報が示す姿勢に応じた姿勢で配置する
     請求項4に記載の情報処理方法。
  6.  前記仮想カメラの前記視野範囲に対応する前記画像を前記表示画面に表示し、前記画像における前記仮想フォーカス領域に、前記領域特定情報を配置する
     請求項1に記載の情報処理方法。
  7.  前記撮影カメラの撮像画像を取得し、前記撮像画像を前記表示画面に表示し、
     前記仮想カメラの前記視野範囲に対応する前記画像における前記仮想フォーカス領域の位置に対応する、前記撮像画像における位置に前記領域特定情報を配置する
     請求項1に記載の情報処理方法。
  8.  前記仮想カメラから前記仮想フォーカス領域までの距離を算出し、
     算出した距離に基づき、前記仮想フォーカス領域に対応する前記対象環境における領域に、前記撮影カメラのフォーカスを合わせることを指示するフォーカス調整指示情報を前記移動体に送信する
     請求項1に記載の情報処理方法。
  9.  前記フォーカス調整指示情報に基づき、前記撮影カメラのカメラパラメータを調整することにより、前記撮影カメラのフォーカスを合わせる距離を調整する
     請求項8に記載の情報処理方法。
  10.  前記仮想フォーカス領域を変更することを指示する指示情報を、ユーザ入力部を介して取得し、
     前記指示情報に基づき、前記仮想フォーカス領域を変更する
     請求項8に記載の情報処理方法。
  11.  前記移動体の動き情報を取得し、前記移動体の動き情報に基づき、第1の時間後の前記撮影カメラの位置を予測し、
     前記撮影カメラの予測された位置に対応する前記仮想環境空間における第2位置に、前記仮想カメラを配置する
     請求項1に記載の情報処理方法。
  12.  前記仮想カメラの前記視野範囲に対応する前記画像を前記表示画面に表示し、
     前記撮影カメラにより撮像される対象オブジェクトの動き情報を取得し、
     前記対象オブジェクトの動き情報に基づき、前記第1の時間後の前記対象オブジェクトの位置を予測し、
     前記対象オブジェクトの予測された位置に対応する前記仮想環境空間における第3位置に、前記対象オブジェクトを表す仮想オブジェクトを配置し、
     前記仮想カメラの前記視野範囲に対応する前記画像において前記仮想オブジェクトを含む領域を前記仮想フォーカス領域に決定する
     請求項11に記載の情報処理方法。
  13.  前記第2位置に配置された前記仮想カメラの前記視野範囲に対応する画像に少なくとも1つのオブジェクトが含まれており、
     前記画像に含まれる前記少なくとも1つのオブジェクトから第2選択条件に従ってオブジェクトを選択し、選択した前記オブジェクトを含む領域を前記仮想フォーカス領域に決定する
     請求項11に記載の情報処理方法。
  14.  前記第2選択条件は、
     前記少なくとも1つのオブジェクトのうち移動するオブジェクトを選択する条件、
     前記少なくとも1つのオブジェクトのうち前記画像における第2領域範囲に含まれる面積に基づきオブジェクトを選択する条件、
     前記少なくとも1つのオブジェクトのうち前記仮想カメラから第2距離範囲に含まれるオブジェクトを選択する条件、
     前記少なくとも1つのオブジェクトのうちユーザにより指定されたオブジェクトを選択する条件
     のうちの少なくとも1つを含む
     請求項13に記載の情報処理方法。
  15.  前記移動体の移動を指示する操作情報を、ユーザ入力部を介して取得し、
     前記操作情報を前記移動体に送信し、
     前記移動体の動き情報を、前記操作情報に基づき取得する
     請求項11に記載の情報処理方法。
  16.  前記仮想カメラ又は前記仮想カメラを搭載した仮想移動体を前記仮想環境空間において第1の経路に沿って移動させるシミュレーションを行い、
     前記第1の経路における複数の位置ごとに前記仮想フォーカス領域を設定し、
     設定した複数の前記仮想フォーカス領域の情報を前記複数の位置に対応付けた対応情報を生成する
     請求項1に記載の情報処理方法。
  17.  前記仮想環境空間の前記第1の経路に対応する、前記対象環境の第2経路に基づき、前記移動体に自律移動させ、
     自律移動する前記移動体から前記移動体の位置又は前記撮影カメラの位置を示す位置情報を取得し、
     前記位置情報が示す前記位置に対応する、前記仮想環境空間における位置に基づき、前記対応情報から仮想フォーカス領域の情報を選択し、
     選択した前記情報が示す前記仮想フォーカス領域に対応する前記対象環境における領域に前記撮影カメラをフォーカスさせることを指示するフォーカス調整指示情報を、前記移動体に送信する
     請求項16に記載の情報処理方法。
  18.  前記対応情報を前記表示画面に表示し、
     前記対応情報に含まれる前記複数の位置のうちの1つの位置に対して、前記仮想フォーカス領域を変更することを指示する指示情報を、ユーザ入力部を介して取得し、
     前記指示情報に基づき前記対応情報における前記1つの位置に対応する前記仮想フォーカス領域の情報を更新する
     請求項17に記載の情報処理方法。
  19.  前記仮想カメラから前記仮想フォーカス領域までの距離と、前記撮影カメラがフォーカスされている距離との差分を算出し、前記差分に応じて、前記フォーカス調整指示情報を生成する
     請求項8に記載の情報処理方法。
  20.  前記移動体は、ドローンである
     請求項1に記載の情報処理方法。
  21.  撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置し、前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定する処理部と、
     前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示する表示部と
     を備えた情報処理装置。
  22.  撮影カメラを搭載した移動体により移動可能な対象環境をモデル化した仮想環境空間に前記撮影カメラに関連づけられる仮想カメラを配置するステップと、
     前記仮想カメラの視野範囲に対応する画像に基づき、前記対象環境において前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定するステップと、
     前記仮想フォーカス領域を特定する領域特定情報を表示画面に表示するステップと
     をコンピュータに実行させるためのコンピュータプログラム。
  23.  対象環境を移動可能であり、撮影カメラを搭載した移動体と、
     前記移動体を操作する操作装置と、を備え、
     前記操作装置は、
     前記対象環境をモデル化した仮想環境空間と、
     前記移動体から、前記撮影カメラの位置に対応する前記仮想環境空間における位置を特定可能な情報を受信する受信部と、
     前記情報が示す前記位置に仮想カメラを配置し、前記仮想カメラの視野範囲に対応する画像に基づき、前記撮影カメラがフォーカスされている領域に対応する仮想フォーカス領域を前記仮想環境空間において決定する処理部と、
     前記仮想フォーカス領域を特定する領域特定情報を表示する表示部と
     を備えた通信システム。
PCT/JP2023/017719 2022-05-18 2023-05-11 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム WO2023223933A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-081883 2022-05-18
JP2022081883 2022-05-18

Publications (1)

Publication Number Publication Date
WO2023223933A1 true WO2023223933A1 (ja) 2023-11-23

Family

ID=88835402

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/017719 WO2023223933A1 (ja) 2022-05-18 2023-05-11 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム

Country Status (1)

Country Link
WO (1) WO2023223933A1 (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010177741A (ja) * 2009-01-27 2010-08-12 Olympus Corp 撮像装置
WO2018012395A1 (ja) * 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント シミュレーションシステム、処理方法及び情報記憶媒体
WO2018150831A1 (ja) * 2017-02-16 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010177741A (ja) * 2009-01-27 2010-08-12 Olympus Corp 撮像装置
WO2018012395A1 (ja) * 2016-07-13 2018-01-18 株式会社バンダイナムコエンターテインメント シミュレーションシステム、処理方法及び情報記憶媒体
WO2018150831A1 (ja) * 2017-02-16 2018-08-23 ソニー株式会社 情報処理装置、情報処理方法及び記録媒体

Similar Documents

Publication Publication Date Title
JP6687204B2 (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
KR102245648B1 (ko) 복수의 기기를 이용한 다차원의 환경 데이터 캡쳐
US10924691B2 (en) Control device of movable type imaging device and control method of movable type imaging device
US20180262789A1 (en) System for georeferenced, geo-oriented realtime video streams
JPWO2018193574A1 (ja) 飛行経路生成方法、情報処理装置、飛行経路生成システム、プログラム及び記録媒体
KR20170044451A (ko) 헤드 마운트 디스플레이를 이용한 원격지 카메라 제어 시스템 및 방법
JP2022507715A (ja) 測量方法、装置及びデバイス
US20180077356A1 (en) System and method for remotely assisted camera orientation
WO2019230604A1 (ja) 検査システム
US20210264666A1 (en) Method for obtaining photogrammetric data using a layered approach
CN110291777B (zh) 图像采集方法、设备及机器可读存储介质
KR20210015624A (ko) 드론 기반 재난상황 관제 방법 및 시스템
WO2020225979A1 (ja) 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP7435599B2 (ja) 情報処理装置、情報処理方法、及びプログラム
CN108364340A (zh) 同步空间扫描的方法及系统
WO2023223933A1 (ja) 情報処理方法、情報処理装置、通信システム及びコンピュータプログラム
JP2021113005A (ja) 無人航空機システムおよび飛行制御方法
JP7379785B2 (ja) 3dツアーの比較表示システム及び方法
KR102181809B1 (ko) 시설물 점검 장치 및 방법
JP7437930B2 (ja) 移動体及び撮像システム
JP6684012B1 (ja) 情報処理装置および情報処理方法
JP7081198B2 (ja) 撮影システム及び撮影制御装置
CN114586335A (zh) 图像处理装置、图像处理方法、程序及记录介质
TWI768724B (zh) 立體空間中定位方法與定位系統

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23807537

Country of ref document: EP

Kind code of ref document: A1