WO2019012803A1 - 指定装置、及び、指定プログラム - Google Patents

指定装置、及び、指定プログラム Download PDF

Info

Publication number
WO2019012803A1
WO2019012803A1 PCT/JP2018/018970 JP2018018970W WO2019012803A1 WO 2019012803 A1 WO2019012803 A1 WO 2019012803A1 JP 2018018970 W JP2018018970 W JP 2018018970W WO 2019012803 A1 WO2019012803 A1 WO 2019012803A1
Authority
WO
WIPO (PCT)
Prior art keywords
imaging
photographing
designation
shooting
mobile
Prior art date
Application number
PCT/JP2018/018970
Other languages
English (en)
French (fr)
Inventor
太一 三宅
大津 誠
拓人 市川
Original Assignee
シャープ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャープ株式会社 filed Critical シャープ株式会社
Priority to US16/630,717 priority Critical patent/US20210092305A1/en
Priority to JP2019528956A priority patent/JP6876130B2/ja
Publication of WO2019012803A1 publication Critical patent/WO2019012803A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/024Guidance services
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • H04N23/632Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters for displaying or modifying preview images prior to image capturing, e.g. variety of image resolutions or capturing parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/029Location-based management or tracking services

Definitions

  • the present invention relates to a designation device and a designation program.
  • Non-Patent Document 1 discloses a technology for moving a self-propelled photographing device to a photographing point by remote control by a human while watching a streaming video sent from a photographing device provided in a self-propelled photographing device. ing.
  • this technique since the field of view of the image to be sent is limited, it is difficult to grasp the current position of the self-propelled imaging device, and it is difficult to guide it to the destination.
  • Patent Document 1 As a technique for coping with this problem, in Patent Document 1, a destination is set on a map expressed in two or three dimensions, and the self-propelled photographing device is moved to the destination. There is disclosed a technique for photographing the vicinity of the destination.
  • the self-propelled imaging device moves to the imaging position upon receiving an instruction from the operator, and after imaging, determines whether the imaged location is the imaging prohibited area or not. It is judged. Therefore, in order to make this determination, it is necessary to have a time for the self-propelled imaging device to move, a time for determining whether or not normal imaging is possible, and a time for transmitting the determination result to the operator terminal. is there. In addition, even in a place that is not a shooting prohibited area, the above-mentioned time is required until the position where the self-propelled shooting apparatus can shoot in the target area is grasped, and the task efficiency is significantly reduced.
  • the inventors of the present invention move the inside of the target area based on a unique idea, in the designation device for specifying the shooting target of the mobile shooting device that shoots the shooting target, the position where the mobile shooting device can shoot We considered to present the shooting state information indicating. That is, one aspect of the present invention is mainly directed to presenting photographing state information indicating a position at which the mobile photographing device can shoot in the designation device for specifying the photographing target of the mobile photographing device.
  • a specification device concerning one mode of the present invention is a specification device which specifies the photography object concerned of a mobile imaging device which moves in the object area and photographs a photography object, A display processing unit for displaying a map of the target area, and a designation receiving unit for receiving designation of a position on the map corresponding to the photographing target, the display processing unit including information on the mobile photographing apparatus
  • the imaging state information indicating the position at which the mobile imaging device can shoot within the target area is superimposed on the map and displayed.
  • the designation device for designating the shooting target of the mobile shooting device it is possible to present shooting state information indicating a position where the mobile shooting device can shoot.
  • Embodiment 1 Hereinafter, Embodiment 1 of the present invention will be described in detail.
  • FIG. 1 is a schematic view showing a remote indication system A according to the present embodiment.
  • the remote indication system A spans a shooting site (target area) 100 and an indication room 101.
  • the operator 103 in the instruction room 101 instructs the self-propelled imaging device (mobile imaging device) 102 at the imaging site 100 to perform imaging operation so that the imaging object 104 is imaged.
  • the self-propelled imaging device mobile imaging device
  • the operator 103 may use the designation device 105 and the display device (display unit) 106 to instruct the self-propelled imaging device 102 the position of the imaging target 104 (hereinafter referred to as “imaging position”). It is possible.
  • the operator 103 inputs an imaging position to the three-dimensional map (three-dimensional map) 107 displayed on the display device 106.
  • the designation device 105 designates an imaging target of the self-propelled imaging device 102.
  • the self-propelled imaging apparatus 102 designated as an imaging target moves autonomously to capture an imaging target.
  • the designation device 105 and the display device 106 are in an independent aspect, but the present invention is not limited to this aspect.
  • the designation device such as a tablet terminal and the display device are integrated. It may be a converted aspect.
  • the remote indication system A operates as follows. First, the operator 103 inputs an imaging position to the three-dimensional map 107 displayed on the display device 106 using a touch panel or a mouse.
  • the three-dimensional map 107 is a group of objects composed of 3D CG (Computer Graphics) representing the shooting site 100, and three-dimensional position information is given to each object.
  • 3D CG Computer Graphics
  • the designation device 105 When the operator 103 inputs an imaging position corresponding to the imaging target 104 to the three-dimensional map 107, the designation device 105 performs self-running with information indicating the input imaging position of the imaging target 104 at the imaging site 100. It is transmitted to the expression photographing device 102.
  • the self-propelled imaging apparatus 102 receives the information indicating the imaging position of the imaging target 104 from the designation device 105, the self-propelled imaging apparatus 102 moves the imaging scene 100 based on the imaging position and images the imaging target 104.
  • the self-propelled imaging device 102 and the designation device 105 are connected by a public communication network such as the Internet and wireless communication.
  • Wireless communication can be realized, for example, by the WiFi (registered trademark) connection of the international standard (IEEE 802.11) defined by the WiFi (registered trademark) Alliance (US industry group).
  • the communication network not only a public communication network such as the Internet but also a LAN (Local Area Network) used in, for example, a company or the like can be used, and a configuration in which they are mixed may be used. .
  • the imaging device (imaging unit) 108 is mounted on the upper part of the self-propelled imaging device 102, but the present embodiment is not limited to such a configuration.
  • the self-propelled photographing device 102 includes an arm-like manipulator (Manipulator), and the photographing device 108 is mounted on the tip of the manipulator, and when photographing the photographing object 104, the position of the photographing device 108 is self-propelled It may be changed and photographed according to the position of the imaging device 102 and the control of the manipulator.
  • the imaging device 108 may be configured to be enclosed in a housing of the self-propelled imaging device 102.
  • FIG. 2 is a block diagram showing a configuration example of the designation device 105 according to the present embodiment.
  • the specification device 105 includes a data bus 200, a parameter input unit (information reception unit) 201, a storage unit 202, a shooting state calculation unit 203, a three-dimensional map drawing processing unit 204, a display control unit 205, and specification reception. And a communication unit (transmission unit) 207.
  • the photographing state calculation unit (display processing unit) 203, the three-dimensional map drawing processing unit (display processing unit) 204, and the display control unit 205 (display processing unit) constitute a display processing unit 208.
  • the data bus 200 is a bus for exchanging data between the respective units.
  • the parameter input unit 201 acquires drive control parameters and imaging control parameters by the input operation of the operator 103. The details of the drive control parameter and the imaging control parameter will be described later.
  • the parameter input unit 201 includes an input / output port such as USB (Universal Serial Bus) as an external input / output unit, and can connect and input a keyboard, a mouse, and the like.
  • the parameter input unit 201 also operates as an interface with an external storage.
  • the storage unit 202 stores the drive control parameter, the imaging control parameter, the three-dimensional map 107, various data calculated by the imaging state calculation unit 203, and the like input to the parameter input unit 201.
  • the storage unit 202 is configured by a storage device such as a random access memory (RAM), a hard disk, or the like.
  • the photographing state calculation unit 203 calculates the photographing state information of the self-propelled photographing device 102 based on the information (drive control parameter, photographing control parameter) related to the self-propelled photographing device 102, and the photographing state information is three-dimensional. It is output to the map drawing processing unit 204.
  • the photographing state information is information indicating the photographing position at which the self-propelled photographing device 102 can photograph in the photographing site 100, and in one aspect, the self-propelled photographing device 102 can photograph in a specific aspect in the photographing spot 100
  • the information may be information indicating a photographing position, or information indicating a photographing position where the self-propelled photographing device 102 can photograph in the photographing site 100 without particular limitation.
  • the shooting state information may further indicate a shootable angle at a shooting position where the self-propelled shooting device 102 can shoot in the shooting site 100.
  • the imaging state calculation unit 203 calculates imaging state information based on a drive control parameter (moving ability) of the self-propelled imaging device 102 and an imaging control parameter (imaging ability) of the imaging device 108.
  • the shooting state calculation unit 203 is configured of an FPGA (Field Programmable Gate Array), an ASIC (Application Specific Integrated Circuit), and the like. The specific example of the imaging state and the calculation method will be described later.
  • the three-dimensional map drawing processing unit 204 and the display control unit 205 superimpose the imaging state information on the three-dimensional map 107 and cause the display device 106 to display the information.
  • the three-dimensional map drawing processing unit 204 adjusts the drawing content of the three-dimensional map 107 in accordance with the shooting state information acquired from the shooting state calculation unit 203.
  • the three-dimensional map drawing processing unit 204 is configured by an FPGA, an ASIC, a GPU (Graphics Processing Unit), and the like.
  • the display control unit 205 outputs the drawing content adjusted by the three-dimensional map drawing processing unit 204 to the display device 106.
  • the display device 106 is configured by an LCD (Liquid Crystal Display), an organic EL display (OELD: Organic Electro-Luminescence Display), etc., and is used to control the device as a result of the drawing processing output from the three-dimensional map drawing processing unit 204.
  • Display UI User Interface
  • the display device 106 may have a touch panel function which is a terminal that can be operated by pressing the display surface.
  • a three-dimensional map 107 used by the operator 103 to input an instruction to the self-propelled imaging device 102 can be acquired by a known method as described below.
  • a device capable of directly acquiring three-dimensional coordinates for example, measuring the distance based on reflection time of infrared light to the object
  • a method of connecting three-dimensional point groups obtained by applying an apparatus or the like of a TOF (Time Of Flight) method to create a three-dimensional map.
  • the method of acquiring a three-dimensional map is not limited to the above method, and a method capable of generating a map in which three-dimensional information in the shooting site 100 is described, such as the arrangement of objects and coordinate values indicating the arrangement of walls. Any method may be used as long as
  • the imaging state refers to how the imaging result is viewed, and is an index indicating whether the imaging target 104 is correctly displayed.
  • a scale indicating a shooting state that affects the appearance of shooting results, whether or not shooting based on physical constraints of the self-propelled shooting device 102, whether the shooting device 108 faces the shooting target 104, Parameters such as the degree of inclination of the imaging target 104 in the imaging result of the imaging target 104, whether the imaging target 104 falls within the range of the captured image, and the like.
  • the possibility of photographing by the photographing device 108 will be taken up, and the functional block configuration in the photographing state calculation unit 203, the specific calculation method, and the processing of the designation device 105 will be described.
  • FIG. 3 is a diagram showing a functional block configuration of the shooting state calculation unit 203 according to the present embodiment.
  • FIG. 4 is a view showing the ground surface 401 on the three-dimensional map 107 according to the present embodiment.
  • the shooting state calculation unit 203 includes a shooting position selection unit (designation control unit) 301, a movable range calculation unit 302, and a shooting area calculation processing unit 303.
  • the imaging position selection unit 301 reads the three-dimensional map 107 of the target area from the storage unit 202, and causes the display device 106 to display the three-dimensional map 107. Based on physical constraints such as the vehicle width of the self-propelled photographing device 102 from the arbitrary coordinates of the ground surface 401 shown in FIG. Select the place to be taken (hereinafter referred to as the shooting place).
  • the shooting position selection unit 301 outputs, to the movable range calculation unit 302, the shooting location corresponding to the received shooting target or the coordinates of the selected shooting location.
  • the movable range calculation unit 302 calculates the movable range of the imaging device 108 of the self-propelled imaging device 102 at the coordinates of the imaging location selected by the imaging position selection unit 301.
  • the movable range calculation unit 302 calculates the movable range based on the content input as the drive control parameter. The method of calculating the movable range will be described later.
  • the movable range calculation unit 302 calculates a movable range as a three-dimensional coordinate point group in which the imaging device 108 can exist, removes the overlapped movable range, and then stores the movable range as the storage unit 202 and the imaging area calculation processing unit Output to 303.
  • the imaging area calculation processing unit 303 calculates coordinate points (the position of an imaging target) on the three-dimensional map 107 which fall within the area imaged by the imaging device 108.
  • the imaging area calculation processing unit 303 outputs the calculation result to the three-dimensional map drawing processing unit 204.
  • the drive control parameters indicate parameters expressing the appearance of the self-propelled imaging device 102 and the movable range of the device (imaging device 108, manipulator, etc.) provided in the self-propelled imaging device 102.
  • the drive control parameters there are parameters indicating the outer shape of the self-propelled imaging device 102, such as the width, height, and depth of the housing of the self-propelled imaging device 102.
  • the drive control parameters include the installation position of the imaging device 108 and the width of the pan and tilt angles of the installed imaging device 108 (that is, the position of the imaging device 108 and an external parameter representing the imaging direction).
  • the movable range of the manipulator, the position of joints, the length between joints, etc. are also included in the drive control parameters.
  • the imaging control parameters indicate parameters such as internal parameters that are unique information of the imaging device 108 such as characteristics of the optical sensor and distortion information of the lens, and an angle of view of the lens.
  • the internal parameters of the imaging device 108 may be calculated using a general camera calibration method provided in a general-purpose library such as OpenCV (Computer Vision), or calibration of a camera whose three-dimensional position is known. A method using an instrument may be used.
  • the imaging control parameters may be calibrated in advance, and the calibration result may be stored in the storage unit 202.
  • the drive control parameters used to calculate the availability of shooting in this embodiment include, by way of example, the height of the case, the width of the case, the depth of the case, the position of the photographing device 108, and the position of the photographing device 108.
  • the shooting direction is used. Further, as an example, the angle of view in the horizontal direction, the angle of view in the vertical direction, and the focal length among the internal parameters are used as the imaging control parameters.
  • the photographing position selection unit 301 selects any coordinates on the ground surface 401 described above. Thereafter, based on the drive control parameter acquired from the parameter input unit 201, the shooting position selection unit 301 determines whether or not the self-propelled shooting device 102 can reach. If it is determined that the self-propelled imaging device 102 can reach the selected coordinates, the imaging position selection unit 301 sets the position of the selected coordinates as the imaging location. When it is determined that the self-propelled photographing device 102 can not reach the selected coordinates, the photographing position selection unit 301 selects another coordinate, and the self-propelled photographing device 102 is selected. The process of selecting another coordinate is repeated until it is determined that the coordinate can be reached.
  • the self-propelled imaging device 102 determines whether the linear distance between the selected coordinate and the surface of the surrounding object exceeds the width of the housing and the length of the depth. It is determined whether the mobile imaging device 102 can reach the selected coordinate.
  • the movable range calculation unit 302 calculates possible positions of the imaging device 108 mounted.
  • the movable range calculation unit 302 can obtain the position that the imaging device 108 can take using kinematics of the robot, and outputs the movable range as a coordinate group .
  • the kinematics of the robot is a method of calculating the tip position of the manipulator from the information of the angles that can be taken by the joints of the manipulator of the self-propelled imaging device 102, the joints, and the lengths between the joints.
  • the imaging apparatus 108 In the case of the self-propelled imaging apparatus 102 in which the imaging apparatus 108 is fixed to a housing without a manipulator, the imaging apparatus 108 does not move, and the movable range calculation unit 302 does not perform calculation processing of the movable range.
  • the installation position of the imaging device 108 in the imaging device 102 is output.
  • FIG. 5 is a schematic view showing the imaging region of the imaging target 104 included in the viewing frustum (the imaging available range by the imaging device 108) based on the imaging device 108 according to the present embodiment.
  • the imaging area calculation processing unit 303 selects one coordinate as a position of the imaging device 108 from the group of coordinates that becomes the movable range of the imaging device 108 obtained from the movable range calculation unit 302.
  • the shooting area calculation processing unit 303 determines the position and the size of the front clipping plane 503 based on the vertical angle of view of the photographing device 108, the horizontal angle of view, the focal length, and the photographing direction. Do.
  • the photographing area calculation processing unit 303 draws straight lines 501 from the optical axis origin 502 of the photographing device 108 toward the four corners of the front clipping surface 503, positions where the straight lines 501 are equidistant on straight lines
  • the rear clipping plane 504 is set with four corners. In this case, a space called a visual frustum is defined by the front clip surface 503, the rear clip surface 504, and the surface formed by the straight lines 501 connecting the four corners of the clip surfaces.
  • the imaging region calculation processing unit 303 draws a straight line from the optical axis origin 502 until it intersects the surface of the object, as indicated by 505 a and 505 b in FIG. 5. Then, the imaging region calculation processing unit 303 calculates, as the imaging regions 506a and 506b, surfaces that are surfaces to which the intersections in this case belong and fall within the range of the viewing frustum. The imaging area calculation processing unit 303 performs the process of calculating such an imaging area until the entire front clipping plane 503 is scanned.
  • the photographing area calculation processing unit 303 performs processing of calculating the photographing area with respect to all the photographing directions that can be taken by the photographing device 108, and the group of coordinates constituting the plane obtained as the photographing area is self-propelled in the photographing site 100. It is output to the three-dimensional map drawing processing unit 204 as shooting state information indicating a shooting position where the formula shooting apparatus 102 can shoot.
  • FIG. 6 is a view showing a notification result of a shooting area (shooting state information) when the self-propelled shooting apparatus 102 according to the present embodiment shoots at an arbitrary position.
  • the three-dimensional map drawing processing unit 204 adjusts the drawing of the plane to which the corresponding coordinates on the object belong based on the information of the coordinate group of the photographing area acquired from the photographing area calculation processing unit 303, thereby providing the operator 103 Notify the shooting status.
  • the three-dimensional map drawing processing unit 204 causes the operator 103 to draw by making the surface color, texture, etc. different between the range in which the imaging device 108 can capture and the range in which the imaging can not be performed. Notify the shooting status.
  • the imageable range of the self-propelled imaging device 102 at the imaging position 601 is expressed as 602.
  • the notification method of the shooting state is not limited to the above method, and only the surface of the shootable range is drawn to erase the other, and the position which can not be shot unless the shooting direction is moved to the limit of pan angle or tilt angle is dark On the contrary, the position which can be photographed especially without moving the manipulator is changed to a bright color, and when a plurality of positions which can be photographed on the ground surface 401 overlap, it is changed to a bright color, etc. There is a way. In addition, there are methods such as a pattern on the surface of an object, presenting a sound when the mouse is over, and transmitting a vibration by an external or built-in function. That is, the notification method of the imaging state may be any method as long as different imaging states are transmitted to the operator by sight, hearing, tactile sense, or a combination thereof.
  • FIG. 7 is a flowchart showing processing of the designation device 105 according to the present embodiment.
  • step S 701 the parameter input unit 201 acquires imaging control parameters set in the self-propelled imaging device 102. Thereafter, the parameter input unit 201 outputs the shooting control parameter to the shooting state calculation unit 203.
  • step S702 the parameter input unit 201 acquires drive control parameters. Thereafter, the parameter input unit 201 outputs the drive control parameter to the imaging state calculation unit 203.
  • the parameter input unit 201 omits the processing in steps S701 and S702. be able to.
  • step S703 the photographing position selection unit 301 of the photographing state calculation unit 203 reads the three-dimensional map 107 from the storage unit 202, and selects an arbitrary coordinate on the ground surface 401 as a photographing position.
  • step S704 the photographing position selection unit 301 determines whether the self-propelled photographing device 102 can reach the photographing position indicated by the coordinates selected in step S703 based on the drive control parameter. When it is determined that the self-propelled imaging device 102 can not reach the position (NO in step S704), the imaging position selection unit 301 returns to the process of step S703. If it is determined that the self-propelled imaging device 102 can reach the position (YES in step S704), the imaging position selection unit 301 outputs the coordinate value selected in step S703 to the movable range calculation unit 302, and step S705. Go to the process of
  • step S705 the movable range calculation unit 302 of the imaging state calculation unit 203 calculates the driving control parameters of the self-propelled imaging device 102 output in step S702 and the coordinate values of the imaging position output in step S704.
  • a coordinate group is calculated as the movable range of the imaging device 108 at the above coordinates.
  • step S706 the movable range calculation unit 302 extracts a portion overlapping with at least one or more past movable range calculation results with respect to the group of coordinates of the imaging device 108 output in step S705.
  • the movable range calculation unit 302 outputs the result of excluding the overlapping portion from the movable range of the imaging device 108 to the imaging area calculation processing unit 303 as movable range information.
  • step S 707 the imaging area calculation processing unit 303 processes the imaging control parameters output in step S 701, the drive control parameters output in step S 702, and the movable range information of the imaging device 108 output in step S 706. Based on the above, the area that can be photographed by the photographing device 108 is calculated.
  • the imaging area calculation processing unit 303 outputs the calculated imaging available area to the three-dimensional map drawing processing unit 204 as imaging state information indicating an imaging position where the self-propelled imaging device 102 can perform imaging within the imaging site 100.
  • step S708 the three-dimensional map drawing processing unit 204 draws a shootable area on the three-dimensional map 107 based on the calculation result of the shootable area output in step S707.
  • step S709 the designation device 105 determines whether or not the processing in steps S703 to S708 has been performed for all the coordinates of the ground surface 401 of the three-dimensional map 107. If all the coordinates of the ground surface 401 have not been processed (NO in step S709), the process returns to step S703, and an arbitrary position is selected to calculate the image captureable area and repeat the process of drawing.
  • the three-dimensional map drawing processing unit 204 outputs the three-dimensional map 107 in which the shootable area is visualized to the display control unit 205, It progresses to the process of step S710.
  • step S710 the display control unit 205 outputs the three-dimensional map 107 to the display device 106, and the process proceeds to step S711.
  • step S711 the designation device 105 determines whether to end the display of the three-dimensional map 107. If the display is not finished (NO in step S711), the designated device 105 returns to the process of step S710. When ending the display (YES in step S711), the designation device 105 ends the entire process.
  • the shooting state information calculated by the shooting state calculation unit 203 further indicates the range of the target in the target area where the shooting device 108 can face the subject and the subject can or can not face the subject. It is different from The other configuration and processing are the same as in the first embodiment.
  • FIG. 8 is a view showing an area 603 in which the imaging apparatus 108 according to the present embodiment can directly face and shoot, and a region 604 in which the shooting apparatus 108 can not directly shoot.
  • the imaging area calculation processing unit 303 calculates a normal vector at the coordinates of the three-dimensional map 107 with respect to the plane determined by the imaging area calculation processing unit 303 to be capable of imaging in step S 707 in FIG. 7.
  • the imaging area calculation processing unit 303 calculates an optical axis vector in an imaging direction of the imaging device 108 located within the movable range calculated in step S705 in FIG. 7.
  • the imaging region calculation processing unit 303 normalizes (units vectorizes) the normal vector and the optical axis vector, and calculates an inner product of the normal vector and the optical axis vector.
  • the imaging area calculation processing unit 303 determines that the value of the inner product calculated above is smaller than the negative threshold (that is, close to or equal to -1), the normal vector and the optical axis It means that the vector is opposite to it. In that case, the imaging area calculation processing unit 303 identifies the surface corresponding to the normal vector as the area 603 which can be imaged by the imaging device 108 facing directly. Then, as shown in FIG. 8C, in the shooting area calculation processing unit 303, the self-propelled shooting apparatus 102 in the shooting site 100 can take an area 603 in which the shooting apparatus 108 at the shooting position 601 can directly face and shoot. The three-dimensional map 107 is visualized on the three-dimensional map 107 by outputting it to the three-dimensional map drawing processing unit 204 as photographing state information indicating a photographing position which can be photographed.
  • the specifying device 105 may directly visualize the surface as a non-shootable region 604.
  • the pointing device 105 faces the area 603 where the image can be taken and the image can be taken.
  • the operator 103 may be notified by color-coding the impossible area 604 and drawing it on the three-dimensional map 107.
  • the imaging instruction input can be efficiently performed.
  • the imaging device 108 is movable, the position and the orientation of the imaging device 108 can be changed to face the surface determined to be capable of imaging, which is very useful.
  • the present embodiment is different from the first embodiment in that the shooting state information calculated by the shooting state calculation unit 203 further indicates an angle at which an object that can be photographed by the imaging device 108 can be photographed in the target area.
  • the other configuration and processing are the same as in the first embodiment.
  • FIG. 9 is a diagram showing the inclination of the surface of the object with respect to the imaging device 108 according to the present embodiment. That is, when the photographing device is photographed in the designation device 105, it indicates how much the photographing object is inclined in the photographed image.
  • the self-propelled imaging device 102 can not always face the object to be imaged and can often perform imaging in an inclined state. On the other hand, although the self-propelled photographing device 102 photographed an object that fits within the imageable area, the photographing object appearing in the photographing result may be largely distorted.
  • the degree to which the surface constituting the photographing object on the three-dimensional map 107 is inclined with respect to the photographing device 108 at the photographing position 601 Is displayed on the three-dimensional map 107 by the display device 106 to notify the operator 103.
  • the imaging area calculation processing unit 303 calculates a normal vector at the coordinates of the three-dimensional map 107 with respect to the plane determined by the imaging area calculation processing unit 303 to be capable of imaging in step S 707 in FIG. 7.
  • the imaging area calculation processing unit 303 calculates an optical axis vector in an imaging direction of the imaging device 108 located within the movable range calculated in step S705 in FIG. 7.
  • the imaging area calculation processing unit 303 obtains an angle formed by the normal vector and the optical axis vector. Assuming that the component of the optical axis vector O is (o 1 , o 2 , o 3 ) and the component of the normal vector N is (n 1 , n 2 , n 3 ), the above angle can be obtained by the following equation 1 Can.
  • the imaging area calculation processing unit 303 outputs information indicating the angle calculated as described above for the plane determined to be shootable to the three-dimensional map drawing processing unit 204 by including it in the shooting state information.
  • the three-dimensional map drawing processing unit 204 draws the face by color-coding according to the range of the angle indicated for the face determined to be shootable in the shooting state information.
  • the three-dimensional map drawing processing unit 204 may change the lightness among the color information of the surface, for example, according to the angle formed by the normal vector and the optical axis vector. As an example, it may be brightest when facing the most, and darker as the angle is closer to the right angle (90 degrees).
  • the designation device 105 may normalize the normal vector and the optical axis vector before calculating the angle formed by the normal vector and the optical axis vector.
  • the operator 103 is notified by notifying how much each plane (target to be photographed) within the range of the photographing area on the three-dimensional map 107 appears when actually photographed. In this case, it is possible to select how to view other than shooting in a state in which the shooting target is faced. As a result, the degree of freedom when the operator 103 selects a shooting target is increased.
  • Embodiment 4 The fourth embodiment of the present invention will be described as follows.
  • symbol is appended and the description is abbreviate
  • the shooting state information calculated by the shooting state calculation unit 203 further indicates whether or not the entire subject at the shooting position where the shooting device 108 can shoot can be shot in the target area. It is different.
  • the other configuration and processing are the same as in the first embodiment.
  • the entire shooting target may not fit in the shot image depending on the shooting state such as being too close to the shooting target (subject) or the shooting target being too large. If you move away from the subject, you can fit in the captured image, but in a narrow place where you can not get a sufficient distance, a place with many obstacles, etc., it may not fit in the captured image regardless of its position. Therefore, the operator 103 is notified of the photographing state, such as whether or not the object to be photographed can be included in the photographed image, on the three-dimensional map 107.
  • the shooting state may not be accommodated because there is a wall or the like in the rear, may be accommodated if widely separated, and may be accommodated unconsciously in particular.
  • the imaging area calculation processing unit 303 calculates a viewing frustum at each imaging position determined to be capable of imaging as described above. As shown in FIG. 5, the size of the rear clipping plane 504 of the viewing frustum increases in proportion to the distance from the optical axis origin 502 of the imaging device 108 to the rear clipping plane 504.
  • the imaging area calculation processing unit 303 calculates the distance from the position of the imaging device 108 to the position of the imaging target. Then, when the size of the rear clipping plane generated at the position of the distance from the optical axis origin 502 of the imaging device 108 is smaller than the size of the imaging target, the imaging area calculation processing unit 303 captures a panoramic view of the imaging target It determines that it does not appear in the image, and outputs the determination result to the dimensional map drawing processing unit 204 as photographing state information indicating a position where the self-propelled photographing device 102 can photograph the whole subject in the photographing site 100. Thus, the data is visualized on the three-dimensional map 107.
  • the present embodiment shows a modification of the notifying means to the operator 103 in the first to fourth embodiments.
  • the other configurations and processes are the same as in the first to fourth embodiments.
  • the three-dimensional map drawing processing unit 204 may change the color or texture on the three-dimensional map 107 based on the shooting state information.
  • the three-dimensional map drawing processing unit 204 may change the lightness in accordance with the inclination of the surface to be photographed.
  • the three-dimensional map drawing processing unit 204 may change the position of the imaging target that can be imaged without moving the manipulator in the imaging available area to a bright color.
  • each component for realizing the function is described as being a different part, but it must have a part that can be clearly separated and recognized in this way. It doesn't have to be.
  • the remote work support device that realizes the functions of the above-described embodiments may configure each component for realizing the functions using, for example, different portions in practice, or all the configurations
  • the elements may be implemented in one LSI. That is, it is only necessary to have each component as a function in any implementation.
  • each component of the present invention can be arbitrarily selected, and an invention having a selected configuration is also included in the present invention.
  • a program for realizing the functions described in the above embodiments is recorded in a computer readable recording medium, and the computer system reads the program recorded in the recording medium and executes the program. You may process.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the "computer system” also includes a homepage providing environment (or display environment) if the WWW system is used.
  • the “computer-readable recording medium” means a portable medium such as a flexible disk, a magneto-optical disk, a ROM, a CD-ROM, or a storage device such as a hard disk built in a computer system. Furthermore, “computer-readable recording medium” dynamically holds a program for a short time, like a communication line in the case of transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, the volatile memory in the computer system which is the server or the client in that case, and the one that holds the program for a certain period of time is also included. The program may be for realizing a part of the functions described above, or may be realized in combination with the program already recorded in the computer system.
  • the control block (the shooting state calculation unit 203, the three-dimensional map drawing processing unit 204, the display control unit 205) of the display processing unit 208 is realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like. It may be realized by software using a CPU (central processing unit).
  • the display processing unit 208 is a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read Only Memory) in which the program and various data are readably recorded by a computer (or CPU).
  • a storage device (these are referred to as “recording media”), a RAM (Random Access Memory) for developing the program, and the like are provided.
  • the object of the present invention is achieved by the computer (or CPU) reading and executing the program from the recording medium.
  • the recording medium a “non-transitory tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, etc. can be used.
  • the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program.
  • any transmission medium communication network, broadcast wave, etc.
  • one aspect of the present invention may also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.
  • the designation device is a designation device for designating the imaging target of a mobile imaging device that moves in the target area and captures an imaging target, and the display unit displays the map of the target area (3 A display processing unit for displaying the two-dimensional map 107) and a designation receiving unit for receiving designation of the position on the map corresponding to the photographing target, the display processing unit based on the information on the mobile photographing device Shooting state information indicating a position where the mobile shooting device can shoot in the target area is superimposed on the map and displayed.
  • the designation device can preferably present shooting state information indicating a position where the mobile shooting device can shoot based on the information on the mobile shooting device.
  • the information related to the mobile imaging device is an outer shape of the mobile imaging device, and a movable range of an imaging unit (imaging device 108) included in the mobile imaging device One or more of an external parameter, an internal parameter, and an angle of view may be indicated.
  • the designation device may further include an information receiving unit for receiving input of information related to the mobile photographing device in the above aspects 1 and 2.
  • the designation device can easily acquire the information on the mobile photographing device.
  • the map may be a three-dimensional map.
  • the photographing state information may indicate a position where the mobile photographing device can face the photographing in the target area.
  • the position where the mobile imaging device can shoot in the target area is indicated, and the mobile imaging device can shoot at each indicated position. It is also possible to indicate various angles.
  • the photographing state information may indicate a position where the mobile photographing device can photograph the entire subject within the target area.
  • the display processing unit may change a color or texture on a three-dimensional map based on the photographing state information.
  • the imaging state can be notified in an easy-to-understand manner.
  • an instruction to the mobile imaging device can be suitably performed.
  • the designation device may be realized by a computer.
  • the designation device is realized by the computer by causing the computer to operate as each unit (software element) included in the designation device.
  • the control program of the designated device and the computer readable recording medium recording the same also fall within the scope of the present invention.

Abstract

移動撮影装置の撮影対象を指定する指定装置において、移動撮影装置が撮影可能な位置を示す撮影状態情報を提示する。指定装置(105)は、表示装置(106)に、対象区域の地図を表示させる表示処理部(208)と、前記撮影対象に対応する前記地図上の位置の指定を受け付ける指定受付部(206)と、を備え、前記表示処理部(208)は、前記移動撮影装置に関する情報に基づいて、前記対象区域内において前記移動撮影装置が撮影可能な位置を示す撮影状態情報を、前記地図に重畳させて表示させる。

Description

指定装置、及び、指定プログラム
 本発明は、指定装置、及び、指定プログラムに関する。
 近年、点検、検査、又は整備の際に行う撮影作業を、人間の代わりに自走式撮影装置に実施させるための技術開発が進められている。
 非特許文献1には、自走式撮影装置に備えられた撮影装置から送られてくるストリーミング映像を見ながら、人間が遠隔操作して自走式撮影装置を撮影地点まで移動させる技術が開示されている。この技術では、送られてくる映像の視界が限定されるため、自走式撮影装置の現在位置を把握するのが難しく、目的地まで誘導するのが困難であるという問題がある。
 この問題に対処する技術として、特許文献1には、2次元又は3次元で表現される地図の上に目的地を設定して、自走式撮影装置に対して、目的地まで移動させて、その目的地の周辺を撮影させる技術が開示されている。
日本国公開特許公報「特開2016-203276号公報(2016年12月8日公開)」
「原発内作業・調査ミッション用ロボットの開発と改良」(日本ロボット学会誌 Vol.32 No.2, pp92-97, 2014)
 特許文献1に記載の技術において、自走式撮影装置は、操作者から指示を受けて撮影位置に移動して、撮影を行った後に、撮影された場所が撮影禁止領域であるか否かを判定している。そのため、この判定を行うにあたっては、自走式撮影装置が移動するための時間と、通常撮影の可否を判定するための時間と、判断結果を操作者端末に送信するための時間とが必要である。また、撮影禁止領域でない場所であっても、対象区域内における自走式撮影装置が撮影可能な位置を把握するまでに前記の時間がかかり、作業の効率が著しく低下するという課題がある。
 これに対し、本発明者らは、独自の発想に基づき、対象区域内を移動して撮影対象を撮影する移動撮影装置の当該撮影対象を指定する指定装置において、移動撮影装置が撮影可能な位置を示す撮影状態情報を提示することを検討した。すなわち、本発明の一態様は、移動撮影装置の撮影対象を指定する指定装置において、移動撮影装置が撮影可能な位置を示す撮影状態情報を提示することを主たる目的とする。
 前記の課題を解決するために、本発明の一態様に係る指定装置は、対象区域内を移動して撮影対象を撮影する移動撮影装置の当該撮影対象を指定する指定装置であって、表示部に、前記対象区域の地図を表示させる表示処理部と、前記撮影対象に対応する前記地図上の位置の指定を受け付ける指定受付部と、を備え、前記表示処理部は、前記移動撮影装置に関する情報に基づいて、前記対象区域内において前記移動撮影装置が撮影可能な位置を示す撮影状態情報を、前記地図に重畳させて表示させる。
 本発明の一態様によれば、移動撮影装置の撮影対象を指定する指定装置において、移動撮影装置が撮影可能な位置を示す撮影状態情報を提示することができる。
本発明の実施形態1に係る遠隔指示システムを示す模式図である。 本発明の実施形態1に係る指定装置の構成例を示すブロック図である。 本発明の実施形態1に係る撮影状態算出部の機能ブロック構成を示す図である。 本発明の実施形態1に係る3次元地図上の地表面を示す図である。 本発明の実施形態1に係る撮影装置を基準とした、撮影対象の撮影領域を示す模式図である。 本発明の実施形態1に係る自走式撮影装置が任意の位置で撮影を行った際の、撮影領域の通知結果を示す図である。 本発明の実施形態1に係る指定装置の処理を示すフローチャートである。 本発明の実施形態2に係る撮影装置が正対して撮影可能な領域、及び、正対して撮影不可能な領域を示す図である。 本発明の実施形態3に係る撮影装置に対するオブジェクトの面の傾きを示す図である。
 〔実施形態1〕
 以下、本発明の実施形態1について、詳細に説明する。
 本実施形態について、図1~図7に基づいて説明する。図1は、本実施形態に係る遠隔指示システムAを示す模式図である。
 図1に示すように、遠隔指示システムAは、撮影現場(対象区域)100と、指示室101とに亘っている。遠隔指示システムAにおいては、撮影現場100にある自走式撮影装置(移動撮影装置)102に対して、指示室101にいる操作者103が、撮影対象104を撮影するように、指示入力操作を行う。
 操作者103は、指定装置105及び表示装置(表示部)106を用いて、自走式撮影装置102に対して、撮影対象104の位置(以下、「撮影位置」と称する)を指示することが可能である。操作者103は、表示装置106に表示されている3次元地図(立体地図)107に対して撮影位置を入力する。
 指定装置105は、自走式撮影装置102の撮影対象を指定する。撮影対象が指定された自走式撮影装置102は、自律的に移動して当該撮影対象を撮影するようになっている。
 図1では、指定装置105と、表示装置106とが独立した態様になっているが、その態様に限定されるものではなく、例えば、タブレット端末のような、指定装置と、表示装置とが一体化された態様であってもよい。
 図1に示す例において、遠隔指示システムAは、具体的には以下のように動作する。まず、操作者103は、タッチパネルやマウスを用いて、表示装置106に表示されている3次元地図107に対して撮影位置を入力する。3次元地図107とは、撮影現場100を表現する3D・CG(Computer Graphics)で構成されるオブジェクト群であって、各オブジェクトに3次元位置情報が付与されたものである。
 操作者103が3次元地図107に対して撮影対象104に対応した撮影位置を入力すると、指定装置105は、入力された撮影対象104の撮影位置を示す情報を、撮影現場100に位置する自走式撮影装置102に送信する。自走式撮影装置102は、指定装置105からの撮影対象104の撮影位置を示す情報を受信すると、撮影位置に基づいて撮影現場100を移動して、撮影対象104を撮影する。
 ここで、自走式撮影装置102と、指定装置105とは、インターネット等の公衆通信網及び無線通信によって接続されている。無線通信は、例えばWiFi(登録商標) Alliance(米国業界団体)によって規定された国際標準規格(IEEE 802.11)のWiFi(登録商標)接続によって実現することが可能である。通信網に関しては、インターネット等の公衆通信網だけでなく、例えば、企業等で使用されているLAN(Local Area Network)を用いることも可能であり、また、それらが混在した構成であってもよい。
 なお、図1に示すように、自走式撮影装置102の上部に撮影装置(撮影部)108が搭載された装置として構成されているが、本実施形態はこのような構成に限定されない。例えば、自走式撮影装置102は、アーム状のマニピュレータ(Manipulator)を備え、マニピュレータの先端に撮影装置108を搭載し、撮影対象104を撮影する場合に、撮影装置108の位置を、自走式撮影装置102の位置、及び、マニピュレータの制御によって変化させて撮影してもよい。また、撮影装置108が、自走式撮影装置102の筺体に内包された構成であってもよい。
 (指定装置105の構成)
 図2は、本実施形態に係る指定装置105の構成例を示すブロック図である。指定装置105は、データバス200と、パラメータ入力部(情報受付部)201と、保存部202と、撮影状態算出部203と、3次元地図描画処理部204と、表示制御部205と、指定受付部206、通信部(送信部)207と、を備えている。なお、撮影状態算出部(表示処理部)203と、3次元地図描画処理部(表示処理部)204と、表示制御部205(表示処理部)とは、表示処理部208を構成している。
 データバス200は、各部間におけるデータのやりとりを行うためのバスである。
 パラメータ入力部201は、操作者103の入力操作によって、駆動制御パラメータ及び撮影制御パラメータを取得する。駆動制御パラメータ及び撮影制御パラメータの詳細に関しては、後述する。また、パラメータ入力部201は、外部入出力手段としてUSB(Universal Serial Bus)等の入出力ポートを備え、キーボード、マウス等を接続して入力することができる。また、パラメータ入力部201は、外部ストレージとのインターフェースとしても動作する。
 保存部202は、パラメータ入力部201に入力された駆動制御パラメータ、撮影制御パラメータ、3次元地図107、撮影状態算出部203で算出される種々のデータ等を保存する。保存部202は、RAM(Random Access Memory)、ハードディスク等の記憶装置によって構成される。
 撮影状態算出部203は、自走式撮影装置102に関する情報(駆動制御パラメータ、撮影制御パラメータ)に基づいて、自走式撮影装置102の撮影状態情報を算出して、当該撮影状態情報を3次元地図描画処理部204に出力する。
 撮影状態情報は、撮影現場100内において自走式撮影装置102が撮影可能な撮影位置を示す情報であり、一態様において、撮影現場100内において自走式撮影装置102が特定の態様で撮影可能な撮影位置を示す情報であってもよいし、撮影現場100内において自走式撮影装置102が、特に態様を限定せずに撮影可能な撮影位置を示す情報であってもよい。特定の態様としては、例えば、後述する実施形態において説明するように、撮影対象に対して正対して撮影する態様、撮影対象の被写体の全体を撮影する態様であってもよい。また、撮影状態情報は、撮影現場100内において自走式撮影装置102が撮影可能な撮影位置における撮影可能な角度をさらに示すものであってもよい。
 撮影状態算出部203は、自走式撮影装置102の駆動制御パラメータ(移動能力)、及び、撮影装置108の撮影制御パラメータ(撮影能力)に基づいて、撮影状態情報を算出する。撮影状態算出部203は、FPGA(Field Programmable Gate Array)、ASIC(Application Specific Integrated Circuit)等によって構成される。撮影状態の具体例及び算出方法に関しては、後述する。
 3次元地図描画処理部204及び表示制御部205は、撮影状態情報を3次元地図107に重畳させて表示装置106に表示させる。
 詳細には、3次元地図描画処理部204は、撮影状態算出部203から取得した撮影状態情報に応じて、3次元地図107の描画内容を調整する。3次元地図描画処理部204は、FPGA、ASIC、GPU(Graphics Processing Unit)等によって構成される。
 表示制御部205は、3次元地図描画処理部204が調整した描画内容を、表示装置106に出力する。
 表示装置106は、LCD(Liquid Crystal Display)、有機ELディスプレイ(OELD:Organic Electro-Luminescence Display)等によって構成され、3次元地図描画処理部204から出力された描画処理結果、装置を制御するためのUI(User Interface)等を表示する。また、表示装置106は、その表示面を押すことにより操作可能な端末であるタッチパネルの機能を具備していてもよい。
 (3次元地図の取得方法)
 本実施形態において、操作者103が自走式撮影装置102に対する指示を入力するために用いる3次元地図107は、次に示すような周知の手法により取得可能である。
 3次元地図107を作成する方法としては、三角測量の原理を用いたステレオ計測による測距、3次元座標を直接取得できる装置、例えば、被写体までの赤外光の反射時間に基づいて距離を測定するTOF(Time Of Flight)方式の装置等を適用して得た3次元点群を、繋ぎ合わせて3次元地図を作成する手法が知られている。3次元地図の取得方法は、上記手法に限定されるものではなく、物の配置、壁の配置を示す座標値等、撮影現場100における3次元的な情報が記述された地図を生成可能な手法であれば、どのような手法を用いてもよい。
 (撮影状態算出部203)
 撮影状態とは、上記の通り、撮影結果の見え方のことを指し、撮影対象104が正しく映っているか否かを表す指標である。撮影結果の見た目に影響する撮影状態を示す尺度の一例として、自走式撮影装置102の物理的な制約に基づいた撮影の可否、撮影対象104に対して撮影装置108が正対するか否か、撮影対象104の撮影結果における撮影対象104の傾きの度合いや、撮影対象104が撮影画像の範囲内に収まるか否か、等のパラメータが挙げられる。
 本実施形態では、上記の撮影状態のうち、撮影装置108の撮影の可否について取り上げ、撮影状態算出部203内の機能ブロック構成、具体的な算出方法、及び、指定装置105の処理について説明する。
 (撮影状態算出部203の機能ブロック構成)
 撮影装置108の撮影の可否を算出する態様において、撮影状態算出部203が有する機能ブロックの構成について、図3及び図4を用いて説明する。図3は、本実施形態に係る撮影状態算出部203の機能ブロック構成を示す図である。図4は、本実施形態に係る3次元地図107上の地表面401を示す図である。
 図3に示すように、撮影状態算出部203は、撮影位置選択部(指定制御部)301と、可動範囲算出部302と、撮影領域算出処理部303と、を備えている。
 撮影位置選択部301は、保存部202から対象区域の3次元地図107を読み出し、当該3次元地図107を表示装置106に表示させる。撮影位置選択部301は、図4に示す、地表面401の任意の座標から、自走式撮影装置102の車幅等の物理的制約に基づいて、自走式撮影装置102が撮影対象を撮影する場所(以降、撮影場所と称する)を選択する。撮影位置選択部301は、受け付けた撮影対象に対応する撮影場所、又は、選択した撮影場所の座標を可動範囲算出部302に出力する。
 可動範囲算出部302は、撮影位置選択部301が選択した、撮影場所の座標における、自走式撮影装置102の撮影装置108の可動範囲を算出する。可動範囲算出部302は、駆動制御パラメータとして入力された内容に基づいて、可動範囲を算出する。可動範囲の算出方法に関しては、後述する。可動範囲算出部302は、撮影装置108が存在可能な3次元の座標点群として可動範囲を算出し、重複した可動範囲を除去した上で、当該可動範囲を保存部202及び撮影領域算出処理部303に出力する。
 撮影領域算出処理部303は、撮影装置108によって撮影される領域内に収まる、3次元地図107上の座標点(撮影対象の位置)を算出する。撮影領域算出処理部303は、当該算出結果を3次元地図描画処理部204に出力する。
 (駆動制御パラメータ及び撮影制御パラメータ)
 駆動制御パラメータは、自走式撮影装置102の外観的な特徴と、自走式撮影装置102に具備された装置(撮影装置108、マニピュレータ等)の可動範囲と、を表現するパラメータを示す。駆動制御パラメータの一例として、自走式撮影装置102の筺体の幅、高さや、奥行き等の自走式撮影装置102の外形を示すパラメータがある。その他に、撮影装置108の設置位置、搭載されている撮影装置108のパン及びティルトの角度の幅(すなわち、撮影装置108の位置、撮影方向を表現する外部パラメータ)が駆動制御パラメータに含まれる。更に、マニピュレータが搭載されている場合には、当該マニピュレータの可動範囲、関節の位置、関節間の長さ等も駆動制御パラメータに含まれる。
 撮影制御パラメータは、光学センサの特性やレンズの歪み情報といった、撮影装置108の固有情報である内部パラメータ、レンズの画角等のパラメータを示す。撮影装置108の持つ内部パラメータの算出には、OpenCV(Computer Vision)等の汎用のライブラリに備わる、一般的なカメラキャリブレーション手法を用いて算出してよいし、3次元位置が既知のカメラの校正器具を用いた方法でもよい。撮影制御パラメータは、事前にキャリブレーションされていてもよく、キャリブレーション結果が保存部202に記憶されていてもよい。
 本実施形態における、撮影の可否の算出に用いる駆動制御パラメータには、一例として、筐体の高さと、筐体の幅と、筐体の奥行きと、撮影装置108の位置と、撮影装置108の撮影方向と、が用いられる。また、撮影制御パラメータには、一例として、撮影装置108の水平方向の画角と、垂直方向の画角と、内部パラメータのうち、焦点距離と、が用いられる。
 (撮影位置の選択方法)
 撮影位置選択部301は、上記の地表面401上の任意の座標を選択する。その後、撮影位置選択部301は、パラメータ入力部201から取得された駆動制御パラメータに基づいて、自走式撮影装置102の到達の可否を判定する。自走式撮影装置102が選択された座標に到達できると判定した場合、撮影位置選択部301は、選択された座標の位置を撮影場所とする。自走式撮影装置102が選択された座標に自走式撮影装置102が到達できないと判定した場合、撮影位置選択部301は、別の座標を選択し、自走式撮影装置102が選択された座標に到達できると判定するまで、別の座標を選択する処理を繰り返す。
 自走式撮影装置102は、例えば、選択された座標と、周囲のオブジェクトの面との間の直線距離が、筐体の幅、及び、奥行きの長さを超えているか否かにより、当該自走式撮影装置102が、選択された座標に到達可能か否かを判定する。
 (撮影装置108の可動範囲の算出)
 可動範囲算出部302は、搭載された撮影装置108の取りうる位置の候補を算出する。マニピュレータの先端に撮影装置108が搭載されている場合、可動範囲算出部302は、撮影装置108の取りうる位置を、ロボットの運動学を用いて求めることができ、可動範囲を座標群として出力する。ロボットの運動学とは、自走式撮影装置102のマニピュレータの各関節部が取りうる角度と、関節と、関節との間の長さの情報から、マニピュレータの先端位置を算出する手法である。
 マニピュレータのない筐体に撮影装置108が固定されている自走式撮影装置102の場合、撮影装置108は可動せず、可動範囲算出部302は、可動範囲の算出処理を行わず、自走式撮影装置102における撮影装置108の設置位置を出力する。
 (撮影領域の算出方法)
 撮影領域算出処理部303において、3次元地図107上で撮影装置108が撮影可能な領域を算出する方法について、図5を用いて説明する。図5は、本実施形態に係る撮影装置108を基準とした視錐台(撮影装置108による撮影可能範囲)に含まれる、撮影対象104の撮影領域を示す模式図である。
 まず、撮影領域算出処理部303は、可動範囲算出部302から得られた撮影装置108の可動範囲となる座標群のうち、1つの座標を撮影装置108の位置として選択する。次に、撮影領域算出処理部303は、撮影装置108の垂直方向の画角と、水平方向の画角と、焦点距離と、撮影方向とに基づいて、前方クリップ面503の位置及びサイズを決定する。続いて、撮影領域算出処理部303は、撮影装置108の光軸原点502から前方クリップ面503の4隅に向かって直線501を引いた場合に、当該直線501の延長線上の等距離となる位置を4隅とする、後方クリップ面504を設定する。この場合、前方クリップ面503と、後方クリップ面504と、各クリップ面の4隅を繋ぐ直線501によって形成される面とに囲まれた、視錐台と呼ばれる空間が定まる。
 ここで、撮影領域算出処理部303は、図5の505a、505bにより示すように、光軸原点502からオブジェクトの面に交わるまで直線を引く。そして、撮影領域算出処理部303は、この場合の交点の属する面であり、かつ、視錐台の範囲内に収まる面を、撮影領域506a及び506bとして算出する。撮影領域算出処理部303は、このような撮影領域を算出する処理を、前方クリップ面503全体を走査するまで行う。
 撮影領域算出処理部303は、撮影領域を算出する処理を、撮影装置108の取りうる全ての撮影方向に関して行い、撮影領域として得られた面を構成する座標群を、撮影現場100内において自走式撮影装置102が撮影可能な撮影位置を示す撮影状態情報として、3次元地図描画処理部204に出力する。
 (撮影状態の通知方法)
 撮影状態の通知方法について、図6を用いて説明する。図6は、本実施形態に係る自走式撮影装置102が任意の位置で撮影を行った際の、撮影領域(撮影状態情報)の通知結果を示す図である。
 3次元地図描画処理部204は、撮影領域算出処理部303から取得した撮影領域の座標群の情報に基づいて、オブジェクト上の該当する座標の属する面の描画を調整することにより、操作者103に撮影状態を通知する。
 一例として、3次元地図描画処理部204は、撮影装置108が撮影可能な範囲と、撮影不可能な範囲との間で面の色、テクスチャ等が異なるように描画することにより、操作者103に撮影状態を通知する。図6に示すように、撮影位置601における自走式撮影装置102の撮影可能な範囲は、602のように表現される。
 撮影状態の通知方法は、上記の方法に限らず、撮影可能な範囲の面のみを描画してそれ以外を消す、撮影方向をパン角又はティルト角の限界まで可動させないと撮影できない位置は暗い色にして、逆に、特にマニピュレータを動かさなくても撮影できる位置は明るい色に変更する、地表面401上の複数の位置で撮影可能な領域が重複する場合には明るい色に変更する、等の方法がある。その他には、オブジェクト表面の模様や、マウスオーバーで音を提示させる、外付け又は内蔵された機能で振動を伝える等の方法がある。すなわち、撮影状態の通知方法は、異なる撮影状態が操作者に視覚、聴覚、触覚の何れか、又はそれらの組合せで伝わる方法であればよい。
 (指定装置105の処理)
 指定装置105において、撮影可能な領域を通知する処理を、図7を用いて説明する。図7は、本実施形態に係る指定装置105の処理を示すフローチャートである。
 ステップS701では、パラメータ入力部201は、自走式撮影装置102に設定されている撮影制御パラメータを取得する。その後、パラメータ入力部201は、撮影制御パラメータを撮影状態算出部203に出力する。
 ステップS702では、パラメータ入力部201は、駆動制御パラメータを取得する。その後、パラメータ入力部201は、駆動制御パラメータを撮影状態算出部203に出力する。なお、ステップS701で取得される撮影制御パラメータ、及び、S702で取得される駆動制御パラメータが保存部202に保持されている場合には、パラメータ入力部201は、ステップS701及びS702の処理を省略することができる。
 ステップS703では、撮影状態算出部203の撮影位置選択部301が、保存部202から3次元地図107を読み出し、地表面401上の任意の座標を撮影位置として選択する。
 ステップS704では、撮影位置選択部301が、ステップS703で選択した座標が示す撮影位置に自走式撮影装置102が到達可能か否かを、駆動制御パラメータに基づいて判定する。当該位置に自走式撮影装置102が到達不可と判定した場合(ステップS704のNO)、撮影位置選択部301は、ステップS703の処理に戻る。当該位置に自走式撮影装置102が到達可能と判定した場合(ステップS704のYES)、撮影位置選択部301は、ステップS703で選択した座標値を可動範囲算出部302に出力して、ステップS705の処理に進む。
 ステップS705では、撮影状態算出部203の可動範囲算出部302が、ステップS702で出力された自走式撮影装置102の駆動制御パラメータと、ステップS704で出力された撮影位置の座標値とに基づいて、上記座標における撮影装置108の可動範囲として座標群を算出する。
 ステップS706では、可動範囲算出部302が、ステップS705で出力された撮影装置108の座標群に関して、少なくとも1つ以上の過去の可動範囲算出結果との間において重複する部分を抽出する。可動範囲算出部302は、撮影装置108の可動範囲から、重複する部分を除外した結果を可動範囲情報として撮影領域算出処理部303に出力する。
 ステップS707では、撮影領域算出処理部303が、ステップS701で出力された撮影制御パラメータと、ステップS702で出力された駆動制御パラメータと、ステップS706で出力された撮影装置108の可動範囲情報と、に基づいて、撮影装置108が撮影可能な領域を算出する。撮影領域算出処理部303は、算出した撮影可能領域を、撮影現場100内において自走式撮影装置102が撮影可能な撮影位置を示す撮影状態情報として3次元地図描画処理部204に出力する。
 ステップS708では、3次元地図描画処理部204が、ステップS707で出力された撮影可能領域の算出結果に基づいて、3次元地図107上に撮影可能領域を描画する。
 ステップS709では、指定装置105が、3次元地図107の地表面401の座標全てに関してステップS703~S708の処理を行ったか否かを判定する。地表面401の座標全てに関して処理していない場合(ステップS709のNO)、ステップS703の処理に戻り、任意の位置を選択して、撮影可能領域を算出し、描画する処理を繰り返す。地表面401の座標全て関して処理している場合(ステップS709のYES)、3次元地図描画処理部204が、撮影可能領域が可視化された3次元地図107を表示制御部205に出力して、ステップS710の処理に進む。
 ステップS710では、表示制御部205が、3次元地図107を表示装置106に出力し、ステップS711の処理に進む。
 ステップS711では、指定装置105が、3次元地図107の表示を終了するか否かの判定を行う。表示を終了しない場合(ステップS711のNO)、指定装置105は、ステップS710の処理に戻る。表示を終了させる場合(ステップS711のYES)、指定装置105は、全体の処理を終了する。
 (実施形態1の効果)
 以上の構成によれば、自走式撮影装置102に対して3次元地図107を用いて撮影位置の指示を入力する際に、3次元地図107上に撮影状態を通知する指定装置105を提供することができる。
 〔実施形態2〕
 本発明の実施形態2について、図8に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態は、撮影状態算出部203が算出する撮影状態情報が、対象区域内において撮影装置108が正対して撮影可能または正対して撮影不可能な対象の範囲をさらに示すことが実施形態1と異なる。それ以外の構成、及び、処理は、実施形態1と同様である。
 図8は、本実施形態に係る撮影装置108が正対して撮影可能な領域603、及び、正対して撮影不可能な領域604を示す図である。
 (指定装置105の処理)
 撮影領域算出処理部303は、図7のステップS707で撮影領域算出処理部303が撮影可能と判定した面に関して、3次元地図107の座標における法線ベクトルを算出する。
 次に、撮影領域算出処理部303は、図7のステップS705で算出された可動範囲内に位置する撮影装置108のある撮影方向における光軸ベクトルを算出する。
 そして、撮影領域算出処理部303は、上記法線ベクトル及び上記光軸ベクトルをそれぞれ正規化(単位ベクトル化)した上で、当該法線ベクトル及び当該光軸ベクトルの内積を算出する。
 さらに、撮影領域算出処理部303が、上記算出した内積の値が負の閾値よりも小さい(すなわち、-1に近いか、等しい)と判定した場合には、上記法線ベクトルと、上記光軸ベクトルとが対向していることになる。その場合、撮影領域算出処理部303は、上記法線ベクトルに対応する面を、撮影装置108が正対して撮影可能な領域603として特定する。そして、図8(c)に示すように、撮影領域算出処理部303は、撮影位置601における撮影装置108が正対して撮影可能な領域603を、撮影現場100内において自走式撮影装置102が正対して撮影可能な撮影位置を示す撮影状態情報として3次元地図描画処理部204に出力することにより、3次元地図107上に可視化する。
 なお、撮影可能と判定した面に関して、上記内積の値が負の閾値以上である場合、指定装置105は、当該面を、正対して撮影不可能な領域604として可視化してもよい。また、操作者103が自走式撮影装置102に撮影対象の指示を行うと、図8(b)に示すように、指定装置105は、正対して撮影可能な領域603と、正対して撮影不可能な領域604とを色分けして、3次元地図107上に描画することにより、操作者103に通知してもよい。
 (実施形態2の効果)
 パン角及びティルト角による撮影装置108の方向の調整によっては、斜め前方の対象物であっても正対して撮影できる可能性があるが、操作者103が撮影制御パラメータを把握した上で、撮影可能な対象を選択しなければならない。
 そこで、本実施形態によれば、どの撮影位置を選択すれば正対した状態の撮影結果が得られるかが事前に操作者103に通知されるので、撮影指示入力を効率よく行うことができる。
 特に、正対して撮影されることが前提の対象物を撮る場合に有用である。例えば、ひび割れを撮る場合、目盛やメジャーを一緒に写す場合等に有用である。そして、撮影装置108が可動である場合には、撮影可能と判定した面に正対するように撮影装置108の位置及び向きを変更可能なので、非常に有用である。
 〔実施形態3〕
 本発明の実施形態3について、図9に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態は、撮影状態算出部203が算出する撮影状態情報が、対象区域内において撮影装置108が撮影可能な対象について撮影可能な角度をさらに示すことが実施形態1と異なる。それ以外の構成、及び、処理は、実施形態1と同様である。
 図9は、本実施形態に係る撮影装置108に対するオブジェクトの面の傾きを示す図である。すなわち、指定装置105において、撮影対象を撮影した場合に、撮影画像中で撮影対象がどのくらい傾いているかを示す。
 自走式撮影装置102は、必ずしも撮影対象に正対して撮影できるわけではなく、傾いた状態で撮影することも多い。一方、自走式撮影装置102は撮影可能領域に収まる対象を撮影したが、撮影結果に映った撮影対象は大きく歪んでいた、といったことが起こり得る。
 そこで、図9に示すように、撮影装置108が撮影可能な対象を特定した上で、撮影位置601における撮影装置108に対して3次元地図107上の撮影対象を構成する面がどの程度傾斜しているかを、表示装置106が3次元地図107上に明示することにより操作者103に通知する。
 (指定装置105の処理)
 撮影領域算出処理部303は、図7のステップS707で撮影領域算出処理部303が撮影可能と判定した面に関して、3次元地図107の座標における法線ベクトルを算出する。
 次に、撮影領域算出処理部303は、図7のステップS705で算出された可動範囲内に位置する撮影装置108のある撮影方向における光軸ベクトルを算出する。
 そして、撮影領域算出処理部303は、上記法線ベクトルと、上記光軸ベクトルとがなす角度を求める。光軸ベクトルOの成分を(o、o2、o3)とし、法線ベクトルNの成分を(n、n2、n3)とすると、上記角度は、下記の式1により求めることができる。
Figure JPOXMLDOC01-appb-M000001
 ただし、0<θ<90°
 そして、撮影領域算出処理部303は、撮影可能と判定した面について、上述のように算出した角度を示す情報を、撮影状態情報に含めて3次元地図描画処理部204に出力する。3次元地図描画処理部204は、撮影状態情報において、撮影可能と判定した面について示された角度の範囲に応じて色分けして、面を描画する。3次元地図描画処理部204は、例えば、上記法線ベクトルと、上記光軸ベクトルとがなす角度に応じて、面の色情報のうち明度を変更してもよい。一例として、最も正対している場合には最も明るくして、角度が直角(90度)に近いほど暗くするようにしてもよい。
 なお、指定装置105は、上記法線ベクトルと、上記光軸ベクトルとがなす角度を算出する前に、当該法線ベクトル及び当該光軸ベクトルをそれぞれ正規化してもよい。
 (実施形態3の効果)
 本実施形態によれば、3次元地図107上の撮影領域の範囲内にあるそれぞれの面(撮影対象)が、実際に撮影された場合にどのくらい傾いて映るかを通知することにより、操作者103は、撮影対象が正対した状態で撮影される以外の見え方を選択できるようになる。これにより、操作者103が撮影対象を選択する場合の自由度が増す。
 特に、撮影領域に収まる範囲内で撮影対象を指定する場合、撮影対象が正しく映るか否かを知りたい場合、ある程度は傾いて撮影されても問題ないような撮影対象を指定する場合等に、有用である。
 〔実施形態4〕
 本発明の実施形態4について説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態は、撮影状態算出部203が算出する撮影状態情報が、対象区域内において撮影装置108が撮影可能な撮影位置の被写体の全体を撮影可能な否かをさらに示すことが実施形態1と異なる。それ以外の構成、及び、処理は、実施形態1と同様である。
 撮影対象を指定した場合、撮影対象(被写体)に対して近付き過ぎている、撮影対象が大き過ぎる等の撮影状態によっては、撮影対象の全体が撮影画像内に収まらないことがある。撮影対象から離れれば撮影画像内に収めることはできるが、十分に距離が取れない狭い場所、障害物の多い場所等では、どのような位置を取っても撮影画像内に収まらない場合がある。そこで、撮影対象が撮影画像内に収められるか否かといった撮影状態を3次元地図107上に明示して、操作者103に通知する。撮影状態には、後方に壁等があるために収められない、大きく離れれば収められる、特に意識せずに収められる等がある。
 (指定装置105の処理)
 前提として、撮影領域算出処理部303は、撮影対象の大きさと、撮影対象の3次元地図107上の位置とを示す情報を事前に取得しているものとする。
 次に、撮影領域算出処理部303は、上述のように撮影可能と判定したそれぞれの撮影位置における視錐台を算出する。図5に示すように、視錐台の後方クリップ面504の大きさは、撮影装置108の光軸原点502から後方クリップ面504までの距離に比例して大きくなる。
 さらに、撮影領域算出処理部303は、撮影装置108の位置から、撮影対象の位置までの距離を算出する。そして、撮影領域算出処理部303は、撮影装置108の光軸原点502から当該距離の位置に生成される後方クリップ面のサイズが、撮影対象のサイズよりも小さい場合は、撮影対象の全景が撮影画像内に映らないと判定し、その判定結果を、撮影現場100内において自走式撮影装置102が被写体の全体を撮影可能な位置を示す撮影状態情報として、次元地図描画処理部204に出力することにより、3次元地図107上に可視化する。
 (実施形態4の効果)
 本実施形態によれば、撮影対象が撮影画像内に収まるか否かを操作者103に通知することができる。
 〔実施形態5〕
 本発明の実施形態5について説明すれば、以下のとおりである。なお、説明の便宜上、上記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
 本実施形態は、実施形態1~4における、操作者103への通知手段の変形例を示すものである。それ以外の構成、及び、処理は、実施形態1~4と同様である。
 実施形態1において、3次元地図描画処理部204が、撮影状態情報に基づいて、3次元地図107上の色またはテクスチャを変化させるようにしてもよい。
 実施形態3において、3次元地図描画処理部204が、撮影対象の面の傾きに応じて明度を変更してもよい。
 実施形態3において、3次元地図描画処理部204が、撮影可能領域のうち、マニピュレータを動かさなくても撮影できる撮影対象の位置を、明るい色に変更してもよい。
 〔実施形態1~5について〕
 前記の各実施形態において、添付図面に図示されている構成等については、あくまで一例であり、これらに限定されるものではなく、本発明の効果を発揮する範囲内で適宜変更することが可能である。その他、本発明の目的の範囲を逸脱しない限りにおいて適宜変更して実施することが可能である。
 前記の各実施形態の説明では、機能を実現するための各構成要素をそれぞれ異なる部位であるとして説明を行っているが、実際にこのように明確に分離して認識できる部位を有していなければならないわけではない。前記の各実施形態の機能を実現する遠隔作業支援の装置が、機能を実現するための各構成要素を、例えば実際にそれぞれ異なる部位を用いて構成していてもかまわないし、あるいは、全ての構成要素を一つのLSIに実装していてもかまわない。すなわち、どういう実装形態であれ、機能として各構成要素を有していればよい。また、本発明の各構成要素は、任意に取捨選択することができ、取捨選択した構成を具備する発明も本発明に含まれるものである。
 また、前記の各実施形態で説明した機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより各部の処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また前記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
 〔ソフトウェアによる実現例〕
 表示処理部208の制御ブロック(撮影状態算出部203、3次元地図描画処理部204、表示制御部205)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
 後者の場合、表示処理部208は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラム及び各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)等を備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路等を用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明の一態様は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔まとめ〕
 本発明の態様1に係る指定装置は、対象区域内を移動して撮影対象を撮影する移動撮影装置の当該撮影対象を指定する指定装置であって、表示部に、前記対象区域の地図(3次元地図107)を表示させる表示処理部と、前記撮影対象に対応する前記地図上の位置の指定を受け付ける指定受付部と、を備え、前記表示処理部は、前記移動撮影装置に関する情報に基づいて、前記対象区域内において前記移動撮影装置が撮影可能な位置を示す撮影状態情報を、前記地図に重畳させて表示させる。
 上記の構成によれば、指定装置は、移動撮影装置に関する情報に基づいて、移動撮影装置が撮影可能な位置を示す撮影状態情報を好適に提示することができる。
 本発明の態様2に係る指定装置は、上記態様1において、前記移動撮影装置に関する情報は、前記移動撮影装置の外形、ならびに、前記移動撮影装置が備える撮影部(撮影装置108)の可動範囲、外部パラメータ、内部パラメータ、および、画角のうち1つ以上を示すようになっていることとしてもよい。
 上記の構成によれば、移動撮影装置に関する情報に基づいて、対象区域内において移動撮影装置が撮影可能な位置を示す撮影状態情報を精度高く提示することができる。
 本発明の態様3に係る指定装置は、上記態様1及び2において、前記移動撮影装置に関する情報の入力を受け付ける情報受け付け部をさらに備えていることとしてもよい。
 上記の構成によれば、指定装置が移動撮影装置に関する情報を容易に取得することができる。
 本発明の態様4に係る指定装置は、上記態様1から3において、前記地図は、3次元地図であることとしてもよい。
 上記の構成によれば、撮影対象の指定をより直感的に行うことができる。
 本発明の態様5に係る指定装置は、上記態様1から4において、前記撮影状態情報は、前記対象区域内において前記移動撮影装置が正対して撮影可能な位置を示すこととしてもよい。
 上記の構成によれば、移動撮影装置がより好適に撮影可能な位置を示す撮影状態情報を提示することができる。
 本発明の態様6に係る指定装置は、上記態様1から5において、前記対象区域内において前記移動撮影装置が撮影可能な位置を示すとともに、示された各位置について、前記移動撮影装置が撮影可能な角度を示すこととしてもよい。
 上記の構成によれば、移動撮影装置がより好適に撮影可能な位置を示す撮影状態情報を提示することができる。
 本発明の態様7に係る指定装置は、上記態様1から6において、前記撮影状態情報は、前記対象区域内において前記移動撮影装置が被写体の全体を撮影可能な位置を示すこととしてもよい。
 上記の構成によれば、移動撮影装置がより好適に撮影可能な位置を示す撮影状態情報を提示することができる。
 本発明の態様8に係る指定装置は、上記態様1から7において、前記表示処理部が、前記撮影状態情報に基づいて、3次元地図上の色またはテクスチャを変化させることとしてもよい。
 上記の構成によれば、3次元地図上の色またはテクスチャを変化させるので、撮影状態を分かりやすく通知することができる。
 本発明の態様9に係る指定装置は、上記態様1から8において、前記表示部(表示装置106)と、前記指定受付部が受け付けた前記地図上の位置に対応する前記撮影対象の位置を前記移動撮影装置に送信する送信部(通信部207)と、をさらに備えていることとしてもよい。
 上記の構成によれば、移動撮影装置に対する指示を好適に行うことができる。
 本発明の各態様に係る指定装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記指定装置が備える各部(ソフトウェア要素)として動作させることにより前記指定装置をコンピュータにて実現させる指定装置の制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
(関連出願の相互参照)
 本出願は、2017年7月13日に出願された日本国特許出願:特願2017-137354に対して優先権の利益を主張するものであり、それを参照することにより、その内容の全てが本書に含まれる。
 102 自走式撮影装置(移動撮影装置)
 108 撮影装置(撮影部)
 105 指定装置
 106 表示装置(表示部)
 107 3次元地図
 201 パラメータ入力部(情報受付部)
 203 撮影状態算出部
 204 3次元地図描画処理部
 205 表示制御部
 206 指定受付部
 207 通信部(送信部)
 208 表示処理部

Claims (10)

  1.  対象区域内を移動して撮影対象を撮影する移動撮影装置の当該撮影対象を指定する指定装置であって、
     表示部に、前記対象区域の地図を表示させる表示処理部と、
     前記撮影対象に対応する前記地図上の位置の指定を受け付ける指定受付部と、を備え、
     前記表示処理部は、前記移動撮影装置に関する情報に基づいて、前記対象区域内において前記移動撮影装置が撮影可能な位置を示す撮影状態情報を、前記地図に重畳させて表示させることを特徴とする指定装置。
  2.  前記移動撮影装置に関する情報は、前記移動撮影装置の外形、ならびに、前記移動撮影装置が備える撮影部の可動範囲、外部パラメータ、内部パラメータ、および、画角のうち1つ以上を示すことを特徴とする請求項1に記載の指定装置。
  3.  前記移動撮影装置に関する情報の入力を受け付ける情報受付部をさらに備えていることを特徴とする請求項1または2に記載の指定装置。
  4.  前記地図は、3次元地図であることを特徴とする請求項1から3の何れか1項に記載の指定装置。
  5.  前記撮影状態情報は、前記対象区域内において前記移動撮影装置が正対して撮影可能な位置を示すことを特徴とする請求項1から4の何れか1項に記載の指定装置。
  6.  前記撮影状態情報は、前記対象区域内において前記移動撮影装置が撮影可能な位置を示すとともに、示された各位置について、前記移動撮影装置が撮影可能な角度を示すことを特徴とする請求項1から5の何れか1項に記載の指定装置。
  7.  前記撮影状態情報は、前記対象区域内において前記移動撮影装置が被写体の全体を撮影可能な位置を示すことを特徴とする請求項1から6の何れか1項に記載の指定装置。
  8.  前記表示処理部は、前記撮影状態情報に基づいて、3次元地図上の色またはテクスチャを変化させることを特徴とする請求項1から7の何れか1項に記載の指定装置。
  9.  前記表示部と、
     前記指定受付部が受け付けた前記地図上の位置に対応する前記撮影対象の位置を前記移動撮影装置に送信する送信部と、をさらに備えていることを特徴とする請求項1から8の何れか1項に記載の指定装置。
  10.  請求項1から9の何れか1項に記載の指定装置としてコンピュータを機能させるための指定プログラムであって、前記表示処理部および前記指定受付部としてコンピュータを機能させるための指定プログラム。
PCT/JP2018/018970 2017-07-13 2018-05-16 指定装置、及び、指定プログラム WO2019012803A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/630,717 US20210092305A1 (en) 2017-07-13 2018-05-16 Designation device and non-transitory recording medium
JP2019528956A JP6876130B2 (ja) 2017-07-13 2018-05-16 指定装置、及び、指定プログラム

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017-137354 2017-07-13
JP2017137354 2017-07-13

Publications (1)

Publication Number Publication Date
WO2019012803A1 true WO2019012803A1 (ja) 2019-01-17

Family

ID=65002516

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2018/018970 WO2019012803A1 (ja) 2017-07-13 2018-05-16 指定装置、及び、指定プログラム

Country Status (3)

Country Link
US (1) US20210092305A1 (ja)
JP (1) JP6876130B2 (ja)
WO (1) WO2019012803A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7454161B2 (ja) 2020-04-03 2024-03-22 Telexistence株式会社 ロボット制御装置、ロボット制御システム及びロボット制御方法

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102374570B1 (ko) * 2017-11-28 2022-03-14 제이에프이 스틸 가부시키가이샤 설비 관리 시스템
WO2019220877A1 (ja) * 2018-05-14 2019-11-21 富士フイルム株式会社 移動型機器及び撮影システム
CN116627578B (zh) * 2023-07-24 2024-01-26 中国电子科技集团公司第十五研究所 一种动态目标标牌的帧率动态适配显示优化方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11187363A (ja) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp 移動局映像伝送システム
JP2002247568A (ja) * 2001-02-16 2002-08-30 Syst Five:Kk 撮像情報提供装置
JP2015050693A (ja) * 2013-09-03 2015-03-16 Toa株式会社 カメラ設置シミュレータ及びそのコンピュータプログラム
JP2015088819A (ja) * 2013-10-29 2015-05-07 セコム株式会社 撮像シミュレーション装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11187363A (ja) * 1997-12-24 1999-07-09 Mitsubishi Electric Corp 移動局映像伝送システム
JP2002247568A (ja) * 2001-02-16 2002-08-30 Syst Five:Kk 撮像情報提供装置
JP2015050693A (ja) * 2013-09-03 2015-03-16 Toa株式会社 カメラ設置シミュレータ及びそのコンピュータプログラム
JP2015088819A (ja) * 2013-10-29 2015-05-07 セコム株式会社 撮像シミュレーション装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7454161B2 (ja) 2020-04-03 2024-03-22 Telexistence株式会社 ロボット制御装置、ロボット制御システム及びロボット制御方法

Also Published As

Publication number Publication date
US20210092305A1 (en) 2021-03-25
JPWO2019012803A1 (ja) 2020-07-02
JP6876130B2 (ja) 2021-05-26

Similar Documents

Publication Publication Date Title
US20210112181A1 (en) Image processing device, image processing method, and recording medium
JP5538667B2 (ja) 位置姿勢計測装置及びその制御方法
US9460517B2 (en) Photogrammetric methods and devices related thereto
JP6876130B2 (ja) 指定装置、及び、指定プログラム
US10529142B2 (en) Capturing and aligning three-dimensional scenes
JP5093053B2 (ja) 電子カメラ
US20170178392A1 (en) 3d scanning apparatus including scanning sensor detachable from screen
JP2022537614A (ja) マルチ仮想キャラクターの制御方法、装置、およびコンピュータプログラム
CN112652016A (zh) 点云预测模型的生成方法、位姿估计方法及其装置
WO2019019819A1 (zh) 一种用于处理任务区域的任务的移动电子设备以及方法
WO2022077190A1 (zh) 数据处理方法、控制设备及存储介质
WO2020019175A1 (zh) 图像处理方法和设备、摄像装置以及无人机
JP5514062B2 (ja) 電子機器、情報付き撮像画面表示方法及びプログラム
JP6625654B2 (ja) 投影装置、投影方法、および、プログラム
JP2016224015A (ja) 三次元位置計測方法、測量方法、三次元位置計測装置及び三次元位置計測プログラム
KR20170021689A (ko) 증강현실을 이용한 해양 구조물 설계/생산 지원 시스템 및 방법
JP6564622B2 (ja) 三次元位置計測方法、測量方法、三次元位置計測装置及び三次元位置計測プログラム
WO2023199583A1 (ja) ビューワ制御方法及び情報処理装置
JP6950548B2 (ja) 送信プログラム、方法及び装置、並びに画像合成プログラム、方法及び装置
US11985294B2 (en) Information processing apparatus, information processing method, and program
JP7335335B2 (ja) 情報処理装置、情報処理方法、及びプログラム
KR102535136B1 (ko) 영상정합장치 및 방법
JP2004171414A (ja) 3次元位置姿勢入力装置、方法、プログラムおよびプログラムを記録した媒体
JP2015152338A (ja) 距離情報取得方法、距離情報取得装置及びロボット

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18831868

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2019528956

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 18831868

Country of ref document: EP

Kind code of ref document: A1