WO2019216131A1 - 撮影システム - Google Patents

撮影システム Download PDF

Info

Publication number
WO2019216131A1
WO2019216131A1 PCT/JP2019/016320 JP2019016320W WO2019216131A1 WO 2019216131 A1 WO2019216131 A1 WO 2019216131A1 JP 2019016320 W JP2019016320 W JP 2019016320W WO 2019216131 A1 WO2019216131 A1 WO 2019216131A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
mobile device
role
image
assigned
Prior art date
Application number
PCT/JP2019/016320
Other languages
English (en)
French (fr)
Inventor
宏俊 吉澤
宇佐美 由久
慎一郎 園田
素 寺横
絵理奈 小椋
田中 伸也
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2020518219A priority Critical patent/JP7030964B2/ja
Priority to CN201980030931.7A priority patent/CN112088528B/zh
Publication of WO2019216131A1 publication Critical patent/WO2019216131A1/ja
Priority to US17/080,848 priority patent/US11019247B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00132Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture in a digital photofinishing system, i.e. a system where digital photographic images undergo typical photofinishing processing, e.g. printing ordering
    • H04N1/00185Image output
    • H04N1/00196Creation of a photo-montage, e.g. photoalbum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • This disclosure relates to a shooting system.
  • An image forming apparatus has been proposed that self-runs to the vicinity of the user when an instruction to start image formation is input from the user (see Japanese Patent Application Laid-Open No. 2017-54537).
  • the image forming apparatus starts to form an image when a predetermined operation is performed by the user after self-running to the vicinity of the user.
  • At least one mobile device other than the mobile device that the user wants to take together can take a picture. This is preferable because it can reduce the labor of the user.
  • the techniques described in Japanese Patent Application Laid-Open Nos. 2017-54537 and 2005-65022 do not take into consideration the trouble of the user performing photographing with at least one of a plurality of mobile devices. .
  • This disclosure is intended to reduce the effort required for a subject to be photographed together with a mobile device.
  • a recognition unit that recognizes whether a role of a shooting target is assigned to the own device or a role of a shooting person is assigned, and a role of a shooting person is assigned by the recognition unit
  • An acquisition unit that acquires an image obtained by photographing with a photographing device when recognized, and a mobile device to which a predetermined photographing target and a role of the photographing target are assigned in the image obtained by the obtaining unit If there is no at least one of the arrangement control unit, the arrangement control unit for performing control for arrangement of the imaging target set in advance within the angle of view of the imaging device and the mobile device assigned the role of the imaging target,
  • the image acquired by the acquisition unit includes a preset shooting target and a mobile device to which the role of the shooting target is assigned, the image acquired by the acquisition unit is stored in the storage unit.
  • a plurality of mobile devices including a storage control unit that performs storage control, and the plurality of mobile devices are assigned a mobile device to which a role to be imaged is assigned and a role in
  • the imaging system is configured to display an image when a mobile device includes a preset shooting target and a mobile device to which the role of the shooting target is assigned in the image acquired by the acquisition unit.
  • a formation control unit that performs control to form on a recording medium, a discharge unit that discharges the recording medium on which an image has been formed to a preset delivery target, and a movement for delivering the recording medium to the delivery target
  • a movement control unit that controls movement of the mold device itself.
  • the recording medium on which the image is formed can be delivered.
  • the mobile device starts to move by the period from the start of image formation on the recording medium by the formation control unit to the completion of discharge of the recording medium by the discharge unit, and the control by the movement control unit. Then, at least a part of the period from completion to completion may overlap.
  • the recording medium on which the image is formed can be quickly delivered.
  • the mobile device may start the movement control by the movement control unit and start the image formation by the formation control unit at the same timing.
  • the recording medium on which the image is formed can be transferred more quickly.
  • the mobile device delivers the recording medium to the delivery target from the distance from the delivery target and the time required from the start of image formation by the formation control unit to the completion of ejection by the ejection unit.
  • a derivation unit that derives a moving speed at which the recording medium can be delivered at a position where the recording medium can be transferred may be further provided, and the movement control unit may control the movement according to the moving speed derived by the derivation unit.
  • the recording medium can be delivered at a position where the recording medium on which an image is formed is delivered.
  • the recording medium may be a photosensitive recording medium.
  • the imaging device Control for forming at least one of a plurality of images continuously photographed on the recording medium may be performed.
  • an appropriate image can be formed on a recording medium from a plurality of images.
  • a preset photographing target and a delivery target may be the same.
  • the photographing target can acquire the recording medium on which the image is formed.
  • the movement control unit may control movement when the transfer target is within a predetermined range as a transferable range.
  • the mobile device may further include an image processing unit that performs image processing for processing the image acquired by the acquisition unit.
  • the recognition unit recognizes whether the role of the imaging target is assigned to the own device or the role of the imaging person is assigned according to a gesture predetermined according to the role. May be.
  • the recognition unit recognizes whether the role of the imaging target is assigned to the own device or the role of the imaging person is assigned according to a sound predetermined according to the role. May be.
  • the imaging system receives position information of a mobile device to which a role to be imaged is assigned when the mobile device is recognized by the recognition unit to be assigned a role in charge of shooting.
  • the recognition unit recognizes that the role of the photographing target is assigned
  • the first receiving unit may receive the position information of the mobile device to which the role of the photographing person is assigned.
  • the imaging system of the present disclosure receives position information transmitted from a mobile device to which a role to be imaged is assigned and position information transmitted from a mobile device to which a role in charge of imaging is assigned.
  • the position information of the second receiving unit and the mobile device to which the role of the object to be received received by the second receiving unit is transmitted to the mobile device to which the role of shooting is assigned, and the second reception
  • a first transmission unit that transmits the position information of the mobile device to which the role of the person in charge of photography received by the unit is assigned to the mobile device to which the role of subject of photography is assigned.
  • the mobile device may further include a second transmission unit that transmits the position information of the mobile device itself to the information processing apparatus.
  • the mobile device when the mobile device recognizes that the role to be imaged is assigned by the recognition unit, the mobile device itself uses the position information received by the first reception unit.
  • a direction control unit that performs control to direct the front of the mobile device to the mobile device to which the role of the person in charge of photography is assigned.
  • the storage control unit includes a preset imaging target and a mobile device to which the role of the imaging target is assigned in the image acquired by the acquisition unit, and is set in advance.
  • control for storing the image in the storage unit may be performed.
  • the storage control unit includes a predetermined imaging target and a mobile device to which the role of the imaging target is assigned in the image acquired by the acquisition unit, and is determined in advance.
  • control for storing the image in the storage unit may be performed.
  • the imaging system further includes an information processing apparatus including a first reception unit that receives an image transmitted from a mobile device to which a role in charge of imaging is assigned, and the mobile device includes an acquisition unit.
  • the image processing apparatus may further include a first transmission unit that transmits the image to the information processing apparatus. Good.
  • the image can be stored in the information processing apparatus.
  • the imaging system further includes a second transmission unit that transmits an image received by the first reception unit to a mobile device to which a role in charge of imaging is assigned.
  • the mobile device to which the role is assigned may further include a second receiving unit that receives an image transmitted from the information processing apparatus.
  • the information processing apparatus may further include an image processing unit that performs image processing for processing the image received by the first receiving unit.
  • the image can be processed by the information processing apparatus.
  • the information processing apparatus may further include a generation unit that generates data for creating a photo album using the image received by the first reception unit.
  • the imaging system further includes a selection unit that the information processing apparatus selects an image that satisfies a predetermined selection condition from the image received by the first reception unit, and the generation unit includes the selection unit. Data may be generated using the selected image.
  • the imaging system 100 includes a plurality (two in this embodiment) of mobile devices 10.
  • a role in charge of shooting is assigned to one of the two mobile devices 10, and a role to be shot is assigned to the other.
  • the two mobile devices 10 include a pair of pet robots.
  • the number of mobile devices 10 is not limited to two, and may be three or more. In this case, the three or more mobile devices 10 include at least one mobile device 10 to which a role to be photographed is assigned and one mobile device 10 to which a role in charge of photographing is assigned.
  • mobile device 10 when the two mobile devices 10 are not distinguished, they are described as “mobile device 10”. Further, in the following, in order to make the explanation easy to understand, when two mobile devices 10 are distinguished, the mobile device 10 to which the role of the person in charge of photography is assigned is expressed as “mobile device 10A”. The mobile device 10 to which the role to be imaged is assigned is referred to as “mobile device 10B”.
  • the mobile device 10 includes a photographing device 12 and an image forming apparatus 14.
  • the mobile device 10 and the photographing device 12 are communicably connected by at least one of wired communication and wireless communication.
  • the mobile device 10 and the image forming apparatus 14 are communicably connected by at least one of wired communication and wireless communication.
  • the mobile device 10A and the mobile device 10B only the mobile device 10A may include the imaging device 12 and the image forming apparatus 14.
  • the imaging device 12 includes an imaging element such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, and an imaging lens, and outputs an image obtained by imaging to the mobile device 10.
  • the photographing device 12 is mounted on a moving mechanism 26 (see FIG. 2), and the moving mechanism 26 is controlled by the moving device 10, whereby the height and posture of the photographing device 12 can be controlled. Yes.
  • the image forming apparatus 14 includes a plurality of light emitting elements, and forms an image on a photosensitive recording medium such as a photosensitive film by causing the light emitting elements to emit light.
  • the image forming apparatus 14 may be an apparatus that forms an image on a recording medium by other methods such as an ink jet method, a xerography method, a thermal method, and a thermal transfer method.
  • the image forming apparatus 14 includes a discharge unit 16 that discharges the photosensitive recording medium on which an image is formed in a state where it can be transferred to a preset transfer target U.
  • the state that can be delivered here is, for example, a state in which the discharge unit 16 discharges one end side of the photosensitive recording medium to the outside of the image forming apparatus 14 and holds the other end side.
  • the mobile device 10 includes a plurality of wheels, and is movable in all directions of 360 degrees by controlling the rotation and direction of the wheels.
  • the mobile device 10 may be a mobile body that moves by bipedal walking, quadrupedal walking, or the like, may be a flying body that floats by magnetic force, or may fly by a propeller or the like. It may be a flying object that moves.
  • the mobile device 10 ⁇ / b> A captures a preset photographing object S and the mobile device 10 ⁇ / b> B with the photographing device 12, and forms an image obtained by the photographing on a photosensitive recording medium by the image forming apparatus 14. To do. Then, the mobile device 10 according to the present embodiment moves in order to deliver the photosensitive recording medium on which the image is formed to the delivery target U.
  • Examples of the shooting target S include objects represented by general nouns such as children, people, babies, animals, dogs, and buildings, and specific nouns such as specific people, specific pets, and specific buildings.
  • the object to be represented is listed.
  • examples of the delivery target U include a target represented by a proper noun such as a specific person. Further, the photographing target S and the delivery target U may be the same person.
  • the mobile device 10 includes a central processing unit (CPU) 20, a memory 21 as a temporary storage area, and a nonvolatile storage unit 22. Further, the mobile device 10 includes a display unit 23 such as a liquid crystal display, various buttons, and an input unit 24 such as a touch panel integrated with the display unit 23. In addition, the mobile device 10 includes a communication I / F (InterFace) 25, a moving mechanism 26, a driving unit 27, and a distance measuring unit 28 that are used for communication between the photographing device 12, the image forming apparatus 14, and an external device. Yes.
  • the CPU 20, the memory 21, the storage unit 22, the display unit 23, the input unit 24, the communication I / F 25, the movement mechanism 26, the drive unit 27, and the distance measurement unit 28 are connected via a bus 29.
  • the storage unit 22 is realized by an HDD (Hard Disk Drive), an SSD (Solid State Drive), a flash memory, or the like.
  • the storage unit 22 stores role information 30 and setting information 32. Details of the role information 30 and the setting information 32 will be described later.
  • the moving mechanism 26 changes the height and posture of the photographing device 12 by moving the photographing device 12 under the control of the CPU 20.
  • the drive unit 27 includes a motor and the like, and moves the mobile device 10 by transmitting a driving force from the motor to the wheels under the control of the CPU 20.
  • the distance measuring unit 28 measures the distance between the mobile device 10 and the delivery target U. Examples of the distance measuring unit 28 include a twin-lens camera, an infrared sensor, and an ultrasonic sensor.
  • the mobile device 10 includes a reception unit 40, a recognition unit 41, a shooting control unit 42, an acquisition unit 44, an arrangement control unit 46, a storage control unit 48, an image processing unit 50, a formation control unit 52, A derivation unit 54 and a movement control unit 56 are included.
  • the deriving unit 54 includes a delivery target searching unit 54A and a moving speed deriving unit 54B.
  • the reception unit 40 When the CPU 20 executes a program stored in advance in the storage unit 22, the reception unit 40, the recognition unit 41, the imaging control unit 42, the acquisition unit 44, the arrangement control unit 46, the storage control unit 48, the image processing unit 50, and the formation It functions as a control unit 52, a derivation unit 54, and a movement control unit 56.
  • the accepting unit 40 accepts role information 30 input by a terminal such as a smartphone, and stores the accepted role information 30 in the storage unit 22.
  • the role information 30 includes information indicating the role of the mobile device 10.
  • the role information 30 stored in the storage unit 22 of the mobile device 10A includes information indicating that the person is in charge of photographing
  • the role information 30 stored in the storage unit 22 of the mobile device 10B is included in the role information 30. Includes information indicating that it is a subject to be photographed.
  • the setting information 32 includes shooting target information for specifying the shooting target S.
  • shooting target information in the case where the shooting target S is an object represented by the above-described general noun, the common noun is given.
  • shooting target information when the shooting target S is an object represented by the above-described proper noun, an image of the shooting target S can be cited.
  • the setting information 32 also includes photographing target device information for specifying the mobile device 10B. An example of the imaging target device information is an image of the mobile device 10B.
  • the setting information 32 includes delivery target information for specifying the delivery target U.
  • An example of the delivery target information is an image of the delivery target U.
  • the setting information 32 also includes image storage conditions.
  • the image storage condition for example, a condition that the photographing target S exists in a predetermined size (for example, a central position) in the image with a predetermined size may be mentioned.
  • the setting information 32 includes information indicating a movable range (hereinafter referred to as “deliverable range”) for delivering the photosensitive recording medium to the delivery target U.
  • a movable range hereinafter referred to as “deliverable range”
  • the upper limit value of the distance that the mobile device 10 can move to transfer the photosensitive recording medium to the transfer target U can be cited.
  • the delivery range may be a range on a map generated by a map generation method such as SLAM (Simultaneous Localization And Mapping).
  • the setting information 32 also includes information indicating a range of distances that can be acquired by the transfer target U (hereinafter referred to as “acquisable range”) of the photosensitive recording medium discharged in a state that can be transferred by the discharge unit 16. included.
  • acquisable range a range of distances that can be acquired by the transfer target U
  • the upper limit value of the distance that the delivery target U can obtain the photosensitive recording medium ejected in a state that can be delivered by the ejecting unit 16 can be given.
  • the recognizing unit 41 recognizes whether a role to be photographed is assigned to the own device or a role in charge of photographing according to the role information 30 stored in the storage unit 22.
  • the shooting control unit 42, the acquisition unit 44, the arrangement control unit 46, the storage control unit 48, the image processing unit 50, the formation control unit 52, the derivation unit 54, and the movement control unit 56 are assigned a role in charge of shooting by the recognition unit 41. It functions in the mobile device 10A recognized as being.
  • the photographing control unit 42 controls the photographing device 12 to photograph an image.
  • the acquisition unit 44 acquires an image obtained by photographing with the photographing device 12.
  • the arrangement control unit 46 performs control for arranging the imaging target S and the mobile device 10 ⁇ / b> B within the angle of view of the imaging device 12.
  • the arrangement control unit 46 performs image analysis processing such as face recognition processing on the image acquired by the acquisition unit 44.
  • image analysis processing the arrangement control unit 46 includes the imaging target S specified by the imaging target information included in the setting information 32 and the mobile device 10B specified by the imaging target device information in the image, and It is determined whether or not the storage condition of the image included in the setting information 32 is satisfied.
  • the arrangement control unit 46 changes the height and posture of the photographing device 12 by controlling the moving mechanism 26 and moves the mobile device 10 by controlling the driving unit 27. , And at least one of changing the zoom magnification of the photographing device 12. Thereby, the arrangement control unit 46 performs control so that the imaging target S and the mobile device 10 ⁇ / b> B are arranged within the angle of view of the imaging device 12.
  • the storage control unit 48 performs control to store the image acquired by the acquisition unit 44 in the storage unit 22 when the determination by the arrangement control unit 46 described above is affirmative.
  • the image processing unit 50 performs image processing for processing the image stored in the storage unit 22 under the control of the storage control unit 48. Examples of this image processing include adjusting the brightness of the image, adjusting the degree of blur of the image, removing noise from the image, superimposing characters on the image, and superimposing other images such as characters on the image, etc. Can be mentioned.
  • the formation control unit 52 controls the image forming apparatus 14 to form an image subjected to the image processing by the image processing unit 50 on the photosensitive recording medium when the determination by the arrangement control unit 46 described above is affirmative.
  • the delivery target search unit 54A searches for the delivery target U.
  • the delivery target search unit 54A similarly to the arrangement control unit 46, the delivery target search unit 54A performs image analysis processing such as face recognition processing on the image acquired by the acquisition unit 44.
  • the delivery target searching unit 54A determines whether or not the delivery target U specified by the delivery target information included in the setting information 32 exists in the image. When this determination is negative, the delivery target search unit 54A changes the height and posture of the photographing device 12 by controlling the moving mechanism 26, and the mobile device 10 by controlling the driving unit 27.
  • At least one of moving and changing the zoom magnification of the photographing device 12 is performed.
  • the delivery target search unit 54A searches for the delivery target U.
  • the delivery target search unit 54A may search for the delivery target U by performing wireless communication with the terminal.
  • the moving speed deriving unit 54B determines the distance between the searched delivery target U and the delivery target U measured by the distance measuring unit 28 and the discharge control unit 52 from the start of image formation by the formation control unit 52.
  • the following movement speed is derived from the time required for completion. That is, in this case, the moving speed deriving unit 54B derives the moving speed at which the photosensitive recording medium can be delivered at a position where the photosensitive recording medium can be delivered to the delivery target U from the distance and the time. To do.
  • the moving speed deriving unit 54B derives the moving speed by dividing the distance by the time according to the following equation (1).
  • V in the expression (1) represents a moving speed at which the photosensitive recording medium can be delivered at a position where the photosensitive recording medium can be delivered to the delivery target U.
  • D in the expression (1) represents the distance to the delivery target U measured by the distance measuring unit 28.
  • T represents the time required from the start of image formation by the formation control unit 52 to the completion of discharge by the discharge unit 16.
  • V D ⁇ T (1)
  • led-out by (1) Formula is an example, and is not limited to this example. For example, this moving speed may be set in advance.
  • the movement control unit 56 controls the movement of the mobile device 10 for delivering the photosensitive recording medium to the delivery target U by controlling the drive unit 27. Specifically, the movement control unit 56 controls the driving unit 27 so that the mobile device 10 moves toward the delivery target U at the moving speed derived by the moving speed deriving unit 54B.
  • the mobile device 10 performs the start of movement control by the movement control unit 56 and the start of image formation by the formation control unit 52 at the same timing. Note that these two starts may not be performed at the same timing.
  • the formation control unit 52 may start the image formation after the movement control unit 56 starts the movement control. In this case, the formation control unit 52 starts image formation before the movement of the mobile device 10 within the obtainable range is completed.
  • the movement control unit 56 may start the movement control after the formation control unit 52 starts the image formation. In this case, the movement control unit 56 starts the movement control before the discharge of the photosensitive recording medium on which the image is formed by the discharge unit 16 is completed.
  • the mobile device 10 moves according to the period from the start of image formation on the photosensitive recording medium by the formation control unit 52 to the completion of discharge of the photosensitive recording medium by the discharge unit 16 and the control by the movement control unit 56. Overlap at least part of the period from start to completion.
  • the imaging process illustrated in FIG. 4 is executed when the mobile device 10 receives role information 30 input by a terminal such as a smartphone, for example.
  • the accepting unit 40 accepts the role information 30 input by a terminal such as a smartphone via the communication I / F 25 and stores the accepted role information 30 in the storage unit 22.
  • the recognizing unit 41 determines whether a role to be photographed is assigned to the own device or a role in charge of photographing according to the role information 30 stored in the storage unit 22 by the process of step S10. recognize. Then, the recognizing unit 41 determines whether or not a role in charge of photographing is assigned. If the determination is affirmative, the process proceeds to step S14. If the determination is negative, the recognition unit 41 regards that the role to be imaged is assigned, and the imaging process ends. That is, the following processing from step S14 to step S42 is executed by the mobile device 10A.
  • step S14 the reception unit 40 receives the setting information 32 input by a terminal such as a smartphone via the communication I / F 25, and stores the received setting information 32 in the storage unit 22.
  • the receiving unit 40 receives the setting information 32 after receiving the role information 30, but the present invention is not limited to this.
  • the receiving unit 40 may receive the role information 30 and the setting information 32 in parallel, or may receive the role information 30 after receiving the setting information 32.
  • step S ⁇ b> 16 the shooting control unit 42 controls the shooting device 12 to take an image.
  • step S18 the acquisition unit 44 acquires an image obtained by photographing with the photographing device 12 by the processing in step S16.
  • step S20 the arrangement control unit 46, as described above, is specified by the shooting target S and the shooting target device information specified by the shooting target information included in the setting information 32 received by the process of step S14. It is determined whether or not the device 10B exists in the image acquired by the process of step S18. If this determination is negative, the process proceeds to step S22. If the determination is affirmative, the process proceeds to step S24.
  • step S ⁇ b> 22 the arrangement control unit 46 changes the height and posture of the photographing device 12 by controlling the moving mechanism 26, moves the mobile device 10 ⁇ / b> A by controlling the driving unit 27, and zooms the photographing device 12. At least one of changing the magnification is performed. Thereby, the arrangement control unit 46 performs control so that the imaging target S and the mobile device 10 ⁇ / b> B are arranged within the angle of view of the imaging device 12.
  • the process of step S22 ends, the process returns to step S16.
  • step S24 the arrangement control unit 46 stores the image storage condition in which the setting information 32 includes the shooting target S specified by the shooting target information included in the setting information 32 received by the process of step S14. It is determined whether or not the above is satisfied. If this determination is negative, the process proceeds to step S26. If the determination is affirmative, the process proceeds to step S28.
  • step S ⁇ b> 26 the arrangement control unit 46 changes the height and posture of the imaging device 12 by controlling the moving mechanism 26, moves the mobile device 10 ⁇ / b> A by controlling the driving unit 27, and zooms the imaging device 12. At least one of changing the magnification is performed. Thereby, the arrangement control unit 46 performs control so that the imaging target S satisfies the image storage condition.
  • the process of step S26 ends, the process returns to step S16.
  • step S28 the storage control unit 48 performs control to store the image acquired by the processing in step S18 in the storage unit 22.
  • the image processing unit 50 performs image processing for processing the image stored in the storage unit 22 by the control by the processing in step S28.
  • the delivery target searching unit 54A searches for the delivery target U as described above.
  • step S34 the delivery target search unit 54A determines whether or not the delivery target U searched for in the process of step S32 is within the deliverable range included in the setting information 32 received in the process of step S14. To do. If this determination is negative, the shooting process ends, and if the determination is affirmative, the process proceeds to step S36.
  • step S36 the moving speed deriving unit 54B determines the distance from the transfer target U measured by the distance measuring unit 28 and the formation control unit 52 to start image formation for the transfer target U searched by the process of step S32. From the time required for the discharge unit 16 to complete the discharge, the moving speed is derived according to the above equation (1).
  • step S38 the formation control unit 52 performs control to form an image that has undergone image processing in step S30 on the photosensitive recording medium.
  • the movement control unit 56 controls the drive unit 27 so that the mobile device 10A moves toward the delivery target U at the moving speed derived by the process of step S36. That is, by these controls, image formation by the image forming apparatus 14 and movement of the mobile device 10A are started at the same timing.
  • the image formation by the image forming apparatus 14 is continuously performed until the discharge of the photosensitive recording medium by the discharge unit 16 is completed.
  • the movement of the mobile device 10A is continued until step S42 described later is executed.
  • step S40 the movement control unit 56 determines whether or not the distance to the transfer target U measured by the distance measurement unit 28 is within the acquirable range included in the setting information 32 received by the process of step S14. judge. If this determination is negative, step S40 is executed again at predetermined time intervals. If the determination is affirmative, the process proceeds to step S42.
  • step S42 the movement control unit 56 controls the driving unit 27, and ends the movement of the mobile device 10A started by the process in step S38.
  • the shooting process ends.
  • the delivery target U acquires the photosensitive recording medium discharged from the discharge unit 16 of the image forming apparatus 14 of the mobile device 10A that has moved to the vicinity.
  • a process may return to step S16 after completion
  • the role of the photographing target is assigned or the role of the person in charge of photography is recognized, and the role of the person in charge of photography is recognized
  • an image obtained by photographing with a photographing device is acquired, and the acquired image is stored. Therefore, it is possible to reduce the effort required for the photographing object to take a picture together with the mobile device.
  • the imaging system 100 includes the mobile device 10 and the information processing apparatus 18 similar to those in the first embodiment.
  • Each mobile device 10 and the information processing apparatus 18 are communicably connected by wireless communication.
  • Examples of the information processing apparatus 18 include a personal computer or a server computer. Since the hardware configuration of the mobile device 10 is the same as that of the first embodiment, the description thereof is omitted.
  • the information processing apparatus 18 includes a CPU 60, a memory 61 as a temporary storage area, and a nonvolatile storage unit 62. Further, the information processing apparatus 18 includes a display unit 63 such as a liquid crystal display, an input unit 64 such as a mouse and a keyboard, and a communication I / F 65 used for communication with the mobile device 10.
  • the CPU 60, the memory 61, the storage unit 62, the display unit 63, the input unit 64, and the communication I / F 65 are connected via a bus 66.
  • the mobile device 10 includes a reception unit 40, an imaging control unit 42, an acquisition unit 44, an arrangement control unit 46, a storage control unit 48, a formation control unit 52, a derivation unit 54, a movement control unit 56, A transmission unit 57, a reception unit 58, and a direction control unit 59 are included.
  • the deriving unit 54 includes a delivery target searching unit 54A and a moving speed deriving unit 54B.
  • the direction control unit 59 functions in the mobile device 10 ⁇ / b> B that is recognized by the recognition unit 41 as being assigned the role of the shooting target.
  • the transmission unit 57 transmits the image acquired by the acquisition unit 44 to the information processing apparatus 18 via the communication I / F 25 when the above-described determination by the arrangement control unit 46 is affirmative.
  • the transmission unit 57 transmits the position information of the mobile device 10 itself to the information processing device 18 via the communication I / F 25.
  • This position information can be obtained by, for example, GPS (Global Positioning System).
  • the receiving unit 58 receives the image transmitted from the information processing apparatus 18 via the communication I / F 25. In addition, the reception unit 58 receives the position information transmitted from the information processing apparatus 18 via the communication I / F 25.
  • the direction control unit 59 uses the position information of the mobile device 10 ⁇ / b> A received by the reception unit 58 by controlling the drive unit 27 when the recognition unit 41 recognizes that the role of the imaging target is assigned. Then, the mobile device 10B itself is controlled to face the mobile device 10A. When the mobile device 10B is a device such as a robot having a head, the direction control unit 59 directs the front (ie, face) of the head to the mobile device 10A instead of the entire mobile device 10B. Control may be performed.
  • the information processing apparatus 18 includes a reception unit 70, a storage control unit 72, an image processing unit 74, a transmission unit 76, a selection unit 78, and a generation unit 80.
  • the CPU 60 functions as a reception unit 70, a storage control unit 72, an image processing unit 74, a transmission unit 76, a selection unit 78, and a generation unit 80 by executing a program stored in advance in the storage unit 62.
  • the receiving unit 70 receives an image transmitted from the mobile device 10A via the communication I / F 65. Further, the receiving unit 70 communicates the position information transmitted from the mobile device 10B to which the role to be imaged is assigned and the position information transmitted from the mobile device 10A to which the role of charge of photography is assigned. Receive via the I / F 65.
  • the storage control unit 72 performs control to store the image received by the receiving unit 70 in the storage unit 62. In addition, the storage control unit 72 performs control to store data for creating a photo album generated by the generation unit 80 described later in the storage unit 62. Similar to the image processing unit 50 according to the first embodiment, the image processing unit 74 performs image processing for processing the image stored in the storage unit 62 under the control of the storage control unit 72.
  • the transmission unit 76 transmits an image that has undergone image processing by the image processing unit 74 to the mobile device 10A via the communication I / F 65. Further, the transmission unit 76 transmits the position information of the mobile device 10A received by the reception unit 70 to the mobile device 10B via the communication I / F 65. Further, the transmission unit 76 transmits the position information of the mobile device 10B received by the reception unit 70 to the mobile device 10A via the communication I / F 65.
  • the selection unit 78 selects an image satisfying a predetermined selection condition from the images stored in the storage unit 62.
  • the selection condition include an image in which a person in the image is laughing, an image in which a specific person is shown, and the like. Note that the selection unit 78 may select an image that satisfies the selection condition from the images that have undergone the image processing by the image processing unit 74.
  • the generation unit 80 generates data for creating a photo album using the image selected by the selection unit 78. A photo album is created using this data.
  • the position information update process shown in FIG. 9 is periodically executed after each mobile device 10 recognizes the role by the process of step S12 of the photographing process shown in FIG.
  • the photographing process shown in FIG. 10 is executed.
  • the imaging process illustrated in FIG. 10 is executed when the mobile device 10 receives role information 30 input by a terminal such as a smartphone, for example. Steps in FIG. 10 that execute the same processing as in FIG.
  • the image processing shown in FIG. 11 and the album creation shown in FIG. 12 are executed.
  • the image processing shown in FIG. 11 is executed when the information processing apparatus 18 receives an image transmitted from the mobile device 10A, for example.
  • the album creation process shown in FIG. 12 is executed when, for example, an instruction to start the process is input via the input unit 64.
  • the transmission unit 57 of the mobile device 10B transmits the position information of the mobile device 10B itself to the information processing apparatus 18 via the communication I / F 25.
  • the transmission unit 57 of the mobile device 10A transmits the position information of the mobile device 10A itself to the information processing apparatus 18 via the communication I / F 25.
  • the receiving unit 70 of the information processing device 18 transmits the position information transmitted from the mobile device 10B by the process of step S50 and the position information transmitted from the mobile device 10A by the process of step S60 to the communication I. Receive via / F65.
  • step S52 the transmission unit 57 of the mobile device 10B transmits information indicating that the position information of the mobile device 10A in charge of photographing is requested to the information processing apparatus 18 via the communication I / F 25.
  • step S62 the transmission unit 57 of the mobile device 10A transmits information indicating that the position information of the mobile device 10B to be imaged is requested to the information processing device 18 via the communication I / F 25.
  • step S72 the receiving unit 70 of the information processing device 18 transmits the information transmitted from the mobile device 10B by the process of step S52 and the information transmitted from the mobile device 10A by the process of step S62 to the communication I / F 65. Receive via.
  • step S74 the transmission unit 76 of the information processing apparatus 18 transmits the position information of the mobile device 10B received by the process of step S70 to the mobile device 10A via the communication I / F 65.
  • the transmission unit 76 of the information processing device 18 transmits the position information of the mobile device 10A received by the process of step S70 to the mobile device 10B via the communication I / F 65.
  • step S54 the receiving unit 58 of the mobile device 10B receives the location information of the mobile device 10A in charge of shooting, which is transmitted from the information processing apparatus 18 by the processing in step S74, via the communication I / F 25.
  • step S64 the reception unit 58 of the mobile device 10A receives the position information of the mobile device 10B to be imaged transmitted from the information processing apparatus 18 through the process of step S74 via the communication I / F 25. .
  • the mobile device 10A acquires the latest position information of the mobile device 10B, and the mobile device 10B acquires the latest position information of the mobile device 10A. get.
  • the arrangement control unit 46 may perform the above-described control so that the angle of view of the imaging device 12 faces the position indicated by the latest position information of the mobile device 10B. . Thereby, it is possible to shorten the time until the imaging target S and the mobile device 10B are arranged within the angle of view of the imaging device 12 of the mobile device 10A.
  • step S29 of FIG. 10 the transmission unit 57 of the mobile device 10A transmits the image acquired by the process of step S18 to the information processing apparatus 18 via the communication I / F 25.
  • step S31 the reception unit 58 of the mobile device 10A receives the image transmitted from the information processing apparatus 18 through the processing in step S86 of the image processing described later via the communication I / F 25.
  • step S38 control is performed to form the image received by the process in step S31 on the photosensitive recording medium.
  • the process may return to step S16 after step S42 ends. In this case, using the setting information 32 received once, the processing from step S16 to step S42 is repeatedly executed a plurality of times.
  • step S44 the process of step S44 is executed by the mobile device 10B.
  • the direction control unit 59 of the mobile device 10B controls the drive unit 27 so that the front surface of the mobile device 10B itself becomes the mobile device 10A using the position information of the mobile device 10A. Control to turn.
  • the shooting process ends.
  • step S80 of FIG. 11 the receiving unit 70 receives the image transmitted from the mobile device 10A through the processing of step S29 of the imaging process via the communication I / F 65.
  • step S82 the storage control unit 72 performs control to store the image received by the process of step S80 in the storage unit 62.
  • step S84 the image processing unit 74 performs image processing for processing the image stored in the storage unit 62 by the processing in step S82.
  • step S86 the transmission unit 76 transmits the image that has undergone the image processing in step S84 to the mobile device 10A via the communication I / F 65. When the process of step S86 ends, the image processing process ends.
  • the selection unit 78 selects an image satisfying the selection condition from the images stored in the storage unit 62 as described above.
  • the generation unit 80 generates data for creating a photo album using the image selected in the process of step S90.
  • the storage control unit 72 performs control to store data for creating the photo album generated by the process of step S92 in the storage unit 62.
  • the acquisition unit 44 may acquire a plurality of images continuously captured by the imaging device 12.
  • a form in which the formation control unit 52 controls the image forming apparatus 14 to form at least one of the plurality of images acquired by the acquisition unit 44 on the photosensitive recording medium is exemplified.
  • the formation control unit 52 selects an image satisfying a predetermined selection condition such as an image with the smallest blur amount, a brightest image, and an image with the eye S being opened, from a plurality of images. Then, a mode of performing control to form the selected image on the photosensitive recording medium is exemplified.
  • the condition that the photographing target S exists at a predetermined position in the image with a predetermined size has been described as the image storage condition. It is not limited.
  • a condition that a gesture (for example, a peace sign) predetermined by the shooting target S is performed may be applied.
  • a condition that a predetermined sound is input to the mobile device 10 may be applied as the image storage condition.
  • the mobile device 10 recognizes whether a role to be photographed is assigned to its own device or a role in charge of photographing is assigned according to a gesture predetermined according to the role. It is good also as a form to do. In this case, the mobile device 10 recognizes that the role of the shooting target is assigned when the gesture corresponding to the role of the shooting target is performed by the shooting target S. Further, in this case, the mobile device 10 is configured to recognize that the role of photographing person is assigned when the gesture corresponding to the role of photographing person is performed by the photographing object S.
  • the mobile device 10 recognizes whether a role to be photographed or a role in charge of photographing is assigned to the own device according to a sound determined in advance according to the role. It is good also as a form to do.
  • the mobile device 10 is configured to recognize that the role of the photographing target is assigned when the sound corresponding to the role of the photographing target is emitted by the photographing target S. Further, in this case, when the mobile device 10 generates a sound corresponding to the role of photographing person by the photographing object S, the mobile device 10 recognizes that the role of photographing person is assigned.
  • each mobile device 10 may directly acquire position information of the mobile device 10 other than the mobile device 10 itself by wireless communication.
  • various processors other than the CPU may execute various processes executed by the CPU executing software (programs) in each of the above embodiments.
  • a processor in this case, in order to execute specific processing such as PLD (Programmable Logic Device) and ASIC (Application Specific Integrated Circuit) whose circuit configuration can be changed after manufacturing FPGA (Field-Programmable Gate Array) or the like
  • a dedicated electric circuit which is a processor having a circuit configuration designed exclusively, is exemplified.
  • the above-described various processes may be executed by one of these various processors, or a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and CPUs and FPGAs). Etc.).
  • the hardware structure of these various processors is an electric circuit in which circuit elements such as semiconductor elements are combined.
  • the mode in which the program is stored (installed) in advance in the storage units 22 and 62 has been described, but the present invention is not limited to this.
  • the program is provided in a form recorded in a non-temporary recording medium such as a CD-ROM (Compact Disk Read Only Memory), a DVD-ROM (Digital Versatile Disk Read Only Memory), and a USB (Universal Serial Bus) memory. Also good. Further, the program may be downloaded from an external device via a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Studio Devices (AREA)

Abstract

認識部により撮影担当の役割が割り当てられていると認識された場合に、撮影機器による撮影により得られた画像を取得する取得部と、前記取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器との少なくとも一方が存在しない場合、前記撮影機器の画角内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが配置されるための制御を行う配置制御部と、前記取得部により取得された画像内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、前記取得部により取得された画像を記憶部に記憶する制御を行う記憶制御部と、を備えた複数の移動型機器を含み、前記複数の移動型機器は、撮影対象の役割が割り当てられている移動型機器と撮影担当の役割が割り当てられている移動型機器とを少なくとも1台ずつ含む、撮影システム。

Description

撮影システム
 本開示は、撮影システムに関する。
 ユーザから画像形成開始の指示が入力された場合に、ユーザの近傍まで自走する画像形成装置が提案されている(特開2017-54537号公報参照)。この画像形成装置は、ユーザの近傍まで自走した後、ユーザにより予め定められた操作が行われた場合に、画像の形成を開始する。
 また、撮影機器を備え、移動する撮影対象を追従して撮影する移動型機器が提案されている(特開2005-65022号公報参照)。
 例えば、ユーザが、複数のペット型ロボット等の移動型機器のうちの少なくとも1台と一緒に写真を撮影したい場合、一緒に撮影したい移動型機器以外の少なくとも1台の移動型機器が撮影を行えると、ユーザの手間を低減することができ、好ましい。しかしながら、特開2017-54537号公報及び特開2005-65022号公報に記載の技術では、ユーザが、複数の移動型機器のうちの少なくとも1台と撮影を行うことの手間については考慮されていない。
 本開示は、撮影対象が移動型機器と一緒に写真を撮影するために要する手間を低減することを目的とする。
 本開示の撮影システムは、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する認識部と、認識部により撮影担当の役割が割り当てられていると認識された場合に、撮影機器による撮影により得られた画像を取得する取得部と、取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器との少なくとも一方が存在しない場合、撮影機器の画角内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが配置されるための制御を行う配置制御部と、取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、取得部により取得された画像を記憶部に記憶する制御を行う記憶制御部と、を備えた複数の移動型機器を含み、複数の移動型機器は、撮影対象の役割が割り当てられている移動型機器と撮影担当の役割が割り当てられている移動型機器とを少なくとも1台ずつ含む。
 これにより、撮影対象が移動型機器と一緒に写真を撮影するために要する手間を低減することができる。
 なお、本開示の撮影システムは、移動型機器が、取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、画像を記録媒体に形成する制御を行う形成制御部と、画像が形成された記録媒体を予め設定された受け渡し対象に受け渡し可能な状態で排出する排出部と、記録媒体を受け渡し対象に受け渡すための移動型機器自身の移動を制御する移動制御部と、を更に備えていてもよい。
 これにより、画像が形成された記録媒体を受け渡すことができる。
 また、本開示の撮影システムは、移動型機器が、形成制御部による記録媒体への画像の形成開始から排出部による記録媒体の排出の完了までの期間と、移動制御部による制御によって移動を開始してから完了するまでの期間との少なくとも一部の期間が重複してもよい。
 これにより、画像が形成された記録媒体を速やかに受け渡すことができる。
 また、本開示の撮影システムは、移動型機器が、移動制御部による移動の制御の開始と、形成制御部による画像の形成の開始とを同じタイミングで行ってもよい。
 これにより、画像が形成された記録媒体をより速やかに受け渡すことができる。
 また、本開示の撮影システムは、移動型機器が、受け渡し対象との距離、及び形成制御部による画像の形成の開始から排出部による排出の完了までに要する時間から、記録媒体を受け渡し対象に渡すことが可能な位置で記録媒体が受け渡し可能な状態となる移動速度を導出する導出部を更に備え、移動制御部が、導出部により導出された移動速度に従って移動を制御してもよい。
 これにより、受け渡し対象に画像が形成された記録媒体を受け渡す位置で、記録媒体を受け渡し可能な状態とすることができる。
 また、本開示の撮影システムは、記録媒体が、感光性記録媒体であってもよい。
 これにより、画像を速やかに形成することができる。
 また、本開示の撮影システムは、形成制御部が、取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、撮影機器により連続的に撮影された複数の画像の少なくとも1つの画像を記録媒体に形成する制御を行ってもよい。
 これにより、複数の画像から適切な画像を記録媒体に形成することができる。
 また、本開示の撮影システムは、予め設定された撮影対象と受け渡し対象とが同じであってもよい。
 これにより、撮影対象が、画像が形成された記録媒体を取得することができる。
 また、本開示の撮影システムは、移動制御部が、受け渡し対象が受け渡し可能な範囲として予め定められた範囲内に存在する場合、移動を制御してもよい。
 これにより、画像が記録された記録媒体を確実に受け渡すことができる。
 また、本開示の撮影システムは、移動型機器が、取得部により取得された画像を加工する画像処理を行う画像処理部を更に備えていてもよい。
 これにより、ユーザが所望する画像処理を実行することができる。
 また、本開示の撮影システムは、認識部が、役割に応じて予め定められたジェスチャーに従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識してもよい。
 これにより、簡易に移動型機器の役割を設定することができる。
 また、本開示の撮影システムは、認識部が、役割に応じて予め定められた音に従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識してもよい。
 これにより、簡易に移動型機器の役割を設定することができる。
 また、本開示の撮影システムは、移動型機器が、認識部により撮影担当の役割が割り当てられていると認識された場合、撮影対象の役割が割り当てられている移動型機器の位置情報を受信し、認識部により撮影対象の役割が割り当てられていると認識された場合、撮影担当の役割が割り当てられている移動型機器の位置情報を受信する第1受信部を更に備えてもよい。
 これにより、移動型機器が他の移動型機器の位置を把握することができる。
 また、本開示の撮影システムは、撮影対象の役割が割り当てられている移動型機器から送信された位置情報、及び撮影担当の役割が割り当てられている移動型機器から送信された位置情報を受信する第2受信部と、第2受信部により受信された撮影対象の役割が割り当てられている移動型機器の位置情報を撮影担当の役割が割り当てられている移動型機器に送信し、かつ第2受信部により受信された撮影担当の役割が割り当てられている移動型機器の位置情報を撮影対象の役割が割り当てられている移動型機器に送信する第1送信部と、を備えた情報処理装置を更に含み、移動型機器が、移動型機器自身の位置情報を情報処理装置に送信する第2送信部を更に備えていてもよい。
 これにより、情報処理装置を介して移動型機器の位置を把握することができる。
 また、本開示の撮影システムは、移動型機器が、認識部により撮影対象の役割が割り当てられていると認識された場合、第1受信部により受信された位置情報を用いて、移動型機器自身の正面を撮影担当の役割が割り当てられている移動型機器に向ける制御を行う方向制御部を更に備えていてもよい。
 これにより、撮影対象の移動型機器が適切な方向を向いた状態で画像を撮影することができる。
 また、本開示の撮影システムは、記憶制御部が、取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在し、かつ予め設定された撮影対象により予め定められたジェスチャーが行われた場合、画像を記憶部に記憶する制御を行ってもよい。
 これにより、適切なタイミングで撮影された画像を形成することができる。
 また、本開示の撮影システムは、記憶制御部が、取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在し、かつ予め定められた音が入力された場合、画像を記憶部に記憶する制御を行ってもよい。
 これにより、適切なタイミングで撮影された画像を形成することができる。
 また、本開示の撮影システムは、撮影担当の役割が割り当てられている移動型機器から送信された画像を受信する第1受信部を備えた情報処理装置を更に含み、移動型機器が、取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、画像を情報処理装置に送信する第1送信部を更に備えていてもよい。
 これにより、情報処理装置に画像を保存することができる。
 また、本開示の撮影システムは、情報処理装置が、第1受信部により受信された画像を撮影担当の役割が割り当てられている移動型機器に送信する第2送信部を更に備え、撮影担当の役割が割り当てられている移動型機器が、情報処理装置から送信された画像を受信する第2受信部を更に備えていてもよい。
 これにより、情報処理装置を介して画像を保存することができる。
 また、本開示の撮影システムは、情報処理装置が、第1受信部により受信された画像を加工する画像処理を行う画像処理部を更に備えていてもよい。
 これにより、情報処理装置で画像を加工することができる。
 また、本開示の撮影システムは、情報処理装置が、第1受信部により受信された画像を用いてフォトアルバムを作成するためのデータを生成する生成部を更に備えていてもよい。
 これにより、フォトアルバムを作成することができる。
 また、本開示の撮影システムは、情報処理装置が、第1受信部により受信された画像から、予め定められた選択条件を満たす画像を選択する選択部を更に備え、生成部が、選択部により選択された画像を用いてデータを生成してもよい。
 これにより、適切な画像を用いてフォトアルバムを作成することができる。
 本開示によれば、撮影対象が移動型機器と一緒に写真を撮影するために要する手間を低減することができる。
第1実施形態に係る撮影システムの構成の一例を示すブロック図である。 各実施形態に係る移動型機器のハードウェア構成の一例を示すブロック図である。 第1実施形態に係る移動型機器の機能的な構成の一例を示すブロック図である。 第1実施形態に係る撮影処理の一例を示すフローチャートである。 第2実施形態に係る撮影システムの構成の一例を示すブロック図である。 第2実施形態に係る情報処理装置のハードウェア構成の一例を示すブロック図である。 第2実施形態に係る移動型機器の機能的な構成の一例を示すブロック図である。 第2実施形態に係る情報処理装置の機能的な構成の一例を示すブロック図である。 第2実施形態に係る位置情報更新処理の一例を示すシーケンス図である。 第2実施形態に係る撮影処理の一例を示すフローチャートである。 第2実施形態に係る画像加工処理の一例を示すフローチャートである。 第2実施形態に係るアルバム作成処理の一例を示すフローチャートである。
 以下、図面を参照して、本開示の技術を実施するための形態例を詳細に説明する。
 [第1実施形態]
 まず、図1を参照して、本実施形態に係る撮影システム100の構成について説明する。図1に示すように、撮影システム100は、複数(本実施形態では、2台)の移動型機器10を含む。本実施形態では、2台の移動型機器10の一方に撮影担当の役割が割り当てられ、他方に撮影対象の役割が割り当てられる。2台の移動型機器10の例としては、一対のペット型ロボット等が挙げられる。なお、移動型機器10の台数は、2台に限定されず、3台以上であってもよい。この場合、3台以上の移動型機器10は、撮影対象の役割が割り当てられている移動型機器10と撮影担当の役割が割り当てられている移動型機器10とを少なくとも1台ずつ含む。また、以下では、2台の移動型機器10を区別しない場合は、「移動型機器10」と表記する。また、以下では、説明を分かり易くするために、2台の移動型機器10を区別する場合は、撮影担当の役割が割り当てられている移動型機器10を「移動型機器10A」と表記し、撮影対象の役割が割り当てられている移動型機器10を「移動型機器10B」と表記する。
 移動型機器10は、撮影機器12及び画像形成装置14を備えている。移動型機器10と撮影機器12とは、有線通信及び無線通信の少なくとも一方により通信可能に接続されている。また、移動型機器10と画像形成装置14とは、有線通信及び無線通信の少なくとも一方により通信可能に接続されている。なお、移動型機器10A及び移動型機器10Bのうち、移動型機器10Aのみが撮影機器12及び画像形成装置14を備えてもよい。
 撮影機器12は、CCD(Charge Coupled Device)イメージセンサ又はCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の撮像素子、及び撮像レンズを含み、撮影して得られた画像を移動型機器10に出力する。また、撮影機器12は、移動機構26(図2参照)に搭載されており、移動機構26が移動型機器10によって制御されることによって、撮影機器12の高さ及び姿勢が制御可能とされている。
 画像形成装置14は、発光素子を複数備え、発光素子を発光させることによって感光性フィルム等の感光性記録媒体に画像を形成する。なお、画像形成装置14は、インクジェット方式、ゼログラフィ方式、感熱方式、及び熱転写方式等の他の方式によって記録媒体に画像を形成する装置であってもよい。また、画像形成装置14は、画像が形成された感光性記録媒体を予め設定された受け渡し対象Uに受け渡し可能な状態で排出する排出部16を備えている。ここでいう受け渡し可能な状態とは、例えば、排出部16が感光性記録媒体の一端側を画像形成装置14の外側に排出し、他端側を把持している状態である。
 また、移動型機器10は、車輪を複数備え、車輪の回転及び向きが制御されることによって、360度の全方向に移動可能とされている。なお、移動型機器10は、二足歩行又は四足歩行等によって移動する移動体であってもよいし、磁力によって浮上した状態で移動する飛行体であってもよいし、プロペラ等によって飛行して移動する飛行体であってもよい。
 本実施形態に係る移動型機器10Aは、予め設定された撮影対象Sと移動型機器10Bとを撮影機器12により撮影し、撮影により得られた画像を画像形成装置14によって感光性記録媒体に形成する。そして、本実施形態に係る移動型機器10は、画像が形成された感光性記録媒体を受け渡し対象Uに受け渡すために移動する。
 なお、撮影対象Sの例としては、子供、人、赤ん坊、動物、犬、及び建物等の一般名詞で表される対象と、特定の人、特定のペット、及び特定の建物等の固有名詞で表される対象等が挙げられる。また、受け渡し対象Uとしては、特定の人等の固有名詞で表される対象が挙げられる。また、撮影対象Sと受け渡し対象Uは、同じ人であってもよい。
 次に、図2を参照して、移動型機器10のハードウェア構成について説明する。図2に示すように、移動型機器10は、CPU(Central Processing Unit)20、一時記憶領域としてのメモリ21、及び不揮発性の記憶部22を備えている。また、移動型機器10は、液晶ディスプレイ等の表示部23、及び各種ボタンと、表示部23と一体化されたタッチパネル等の入力部24を備えている。また、移動型機器10は、撮影機器12と画像形成装置14と外部機器との通信に用いられる通信I/F(InterFace)25、移動機構26、駆動部27、及び距離計測部28を備えている。CPU20、メモリ21、記憶部22、表示部23、入力部24、通信I/F25、移動機構26、駆動部27、及び距離計測部28は、バス29を介して接続される。
 記憶部22は、HDD(Hard Disk Drive)、SSD(Solid State Drive)、及びフラッシュメモリ等によって実現される。記憶部22には、役割情報30及び設定情報32が記憶される。役割情報30及び設定情報32の詳細については後述する。
 移動機構26は、CPU20による制御によって撮影機器12を移動させることにより、撮影機器12の高さ及び姿勢を変更する。駆動部27は、モータ等を含み、CPU20による制御によってモータからの駆動力を車輪に伝達することにより、移動型機器10を移動させる。距離計測部28は、移動型機器10と受け渡し対象Uとの距離を計測する。距離計測部28の例としては、2眼カメラ、赤外線センサ、及び超音波センサ等が挙げられる。
 次に、図3を参照して、本実施形態に係る移動型機器10の機能的な構成について説明する。図3に示すように、移動型機器10は、受付部40、認識部41、撮影制御部42、取得部44、配置制御部46、記憶制御部48、画像処理部50、形成制御部52、導出部54、及び移動制御部56を含む。また、導出部54は、受け渡し対象探索部54A及び移動速度導出部54Bを含む。CPU20が記憶部22に予め記憶されたプログラムを実行することによって、受付部40、認識部41、撮影制御部42、取得部44、配置制御部46、記憶制御部48、画像処理部50、形成制御部52、導出部54、及び移動制御部56として機能する。
 受付部40は、スマートフォン等の端末によって入力された役割情報30を受け付け、受け付けた役割情報30を記憶部22に記憶する。役割情報30には、移動型機器10の役割を示す情報が含まれる。詳細には、移動型機器10Aの記憶部22に記憶される役割情報30には、撮影担当であることを示す情報が含まれ、移動型機器10Bの記憶部22に記憶される役割情報30には、撮影対象であることを示す情報が含まれる。
 また、受付部40は、後述する認識部41により撮影担当の役割が割り当てられていると認識された場合、端末によって入力された設定情報32を通信I/F25を介して受け付け、受け付けた設定情報32を記憶部22に記憶する。設定情報32には、撮影対象Sを特定するための撮影対象情報が含まれる。撮影対象情報の例としては、撮影対象Sが前述した一般名詞で表される対象の場合は、その一般名詞が挙げられる。また、撮影対象情報の例としては、撮影対象Sが前述した固有名詞で表される対象の場合は、撮影対象Sの画像が挙げられる。また、設定情報32には、移動型機器10Bを特定するための撮影対象機器情報も含まれる。撮影対象機器情報の例としては、移動型機器10Bの画像が挙げられる。
 また、設定情報32には、受け渡し対象Uを特定するための受け渡し対象情報も含まれる。受け渡し対象情報の例としては、受け渡し対象Uの画像が挙げられる。また、設定情報32には、画像の記憶条件も含まれる。画像の記憶条件の例としては、例えば、撮影対象Sが画像内の予め定められた位置(例えば、中央の位置)に、予め定められた大きさで存在するとの条件が挙げられる。
 また、設定情報32には、感光性記録媒体を受け渡し対象Uに受け渡すために移動可能な範囲(以下、「受け渡し可能範囲」という)を示す情報も含まれる。受け渡し可能範囲の例としては、移動型機器10が、感光性記録媒体を受け渡し対象Uに受け渡すために移動可能な距離の上限値が挙げられる。なお、受け渡し可能範囲は、SLAM(Simultaneous Localization And Mapping)等の地図生成手法によって生成された地図上の範囲でもよい。
 また、設定情報32には、排出部16により受け渡し可能な状態で排出された感光性記録媒体を、受け渡し対象Uが取得可能な距離の範囲(以下、「取得可能範囲」という)を示す情報も含まれる。取得可能範囲の例としては、排出部16により受け渡し可能な状態で排出された感光性記録媒体を、受け渡し対象Uが取得可能な距離の上限値が挙げられる。
 認識部41は、記憶部22に記憶された役割情報30に従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する。撮影制御部42、取得部44、配置制御部46、記憶制御部48、画像処理部50、形成制御部52、導出部54、及び移動制御部56は、認識部41により撮影担当の役割が割り当てられていると認識された移動型機器10Aで機能する。
 撮影制御部42は、撮影機器12に対し、画像を撮影させる制御を行う。取得部44は、撮影機器12による撮影により得られた画像を取得する。配置制御部46は、撮影対象Sと移動型機器10Bとが撮影機器12の画角内に配置されるための制御を行う。本実施形態では、配置制御部46は、取得部44により取得された画像に対し、顔認識処理等の画像解析処理を行う。この画像解析処理によって、配置制御部46は、設定情報32に含まれる撮影対象情報により特定される撮影対象Sと撮影対象機器情報により特定される移動型機器10Bとが画像内に存在し、かつ設定情報32に含まれる画像の記憶条件を満たすか否かを判定する。
 配置制御部46は、この判定が否定判定となった場合は、移動機構26を制御することによる撮影機器12の高さ及び姿勢の変更、駆動部27を制御することによる移動型機器10の移動、及び撮影機器12のズーム倍率の変更の少なくとも1つを行う。これにより、配置制御部46は、撮影対象Sと移動型機器10Bとが撮影機器12の画角内に配置されるように制御する。
 記憶制御部48は、前述した配置制御部46による判定が肯定判定となった場合、取得部44により取得された画像を記憶部22に記憶する制御を行う。画像処理部50は、記憶制御部48による制御により記憶部22に記憶された画像を加工する画像処理を行う。この画像処理の例としては、画像の明るさの調整、画像のぼけの度合いの調整、画像のノイズの除去、画像への文字の重畳、及び画像へのキャラクター等の他の画像の重畳等が挙げられる。
 形成制御部52は、前述した配置制御部46による判定が肯定判定となった場合、画像形成装置14に対し、画像処理部50による画像処理を経た画像を感光記録媒体に形成する制御を行う。受け渡し対象探索部54Aは、受け渡し対象Uを探索する。本実施形態では、受け渡し対象探索部54Aは、配置制御部46と同様に、取得部44により取得された画像に対し、顔認識処理等の画像解析処理を行う。この画像解析処理によって、受け渡し対象探索部54Aは、設定情報32に含まれる受け渡し対象情報により特定される受け渡し対象Uが画像内に存在するか否かを判定する。受け渡し対象探索部54Aは、この判定が否定判定となった場合は、移動機構26を制御することによる撮影機器12の高さ及び姿勢の変更、駆動部27を制御することによる移動型機器10の移動、及び撮影機器12のズーム倍率の変更の少なくとも1つを行う。この処理を受け渡し対象Uが画像内に存在するようになるまで繰り返すことにより、受け渡し対象探索部54Aは、受け渡し対象Uを探索する。なお、受け渡し対象Uがスマートフォン等の端末を所持している場合は、受け渡し対象探索部54Aは、端末と無線通信を行うことによって受け渡し対象Uを探索してもよい。
 また、移動速度導出部54Bは、探索された受け渡し対象Uについて、距離計測部28により計測された受け渡し対象Uとの距離、及び形成制御部52による画像の形成の開始から排出部16による排出の完了までに要する時間から、以下に示す移動速度を導出する。すなわち、この場合、移動速度導出部54Bは、上記距離及び上記時間から、感光性記録媒体を受け渡し対象Uに渡すことが可能な位置で感光性記録媒体が受け渡し可能な状態となる移動速度を導出する。
 詳細には、移動速度導出部54Bは、以下の(1)式に従って、上記距離を上記時間で除算することによって上記移動速度を導出する。なお、(1)式におけるVは、感光性記録媒体を受け渡し対象Uに渡すことが可能な位置で感光性記録媒体が受け渡し可能な状態となる移動速度を表す。また、(1)式におけるDは、距離計測部28により計測された受け渡し対象Uとの距離を表す。また、(1)式におけるTは、形成制御部52による画像の形成の開始から排出部16による排出の完了までに要する時間を表す。
 V=D÷T・・・(1)
 なお、(1)式により導出される移動速度は一例であり、この例に限定されない。例えば、この移動速度は予め設定されていてもよい。
 移動制御部56は、駆動部27を制御することによって、感光性記録媒体を受け渡し対象Uに受け渡すための移動型機器10の移動を制御する。詳細には、移動制御部56は、移動型機器10が受け渡し対象Uに向かって移動速度導出部54Bにより導出された移動速度で移動するように駆動部27を制御する。
 本実施形態に係る移動型機器10は、前述した移動制御部56による移動の制御の開始と、形成制御部52による画像の形成の開始とを同じタイミングで行う。なお、この2つの開始は同じタイミングに行わなくてもよい。例えば、移動制御部56による移動の制御の開始後に形成制御部52による画像の形成の開始を行ってもよい。この場合、形成制御部52は、移動型機器10の取得可能範囲内への移動が完了する前に、画像の形成の開始を行う。また、例えば、形成制御部52による画像の形成の開始後に移動制御部56による移動の制御の開始を行ってもよい。この場合、移動制御部56は、排出部16による画像が形成された感光性記録媒体の排出が完了する前に、移動の制御の開始を行う。すなわち、移動型機器10は、形成制御部52による感光性記録媒体への画像の形成開始から排出部16による感光性記録媒体の排出の完了までの期間と、移動制御部56による制御によって移動を開始してから完了するまでの期間との少なくとも一部の期間を重複させる。
 次に、図4を参照して、本実施形態に係る撮影システム100の作用を説明する。CPU20が記憶部22に記憶されたプログラムを実行することにより、図4に示す撮影処理が実行される。図4に示す撮影処理は、例えば、スマートフォン等の端末によって入力された役割情報30を移動型機器10が受信した場合に実行される。
 図4のステップS10で、受付部40は、スマートフォン等の端末によって入力された役割情報30を通信I/F25を介して受け付け、受け付けた役割情報30を記憶部22に記憶する。ステップS12で、認識部41は、ステップS10の処理により記憶部22に記憶された役割情報30に従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する。そして、認識部41は、撮影担当の役割が割り当てられているか否かを判定する。この判定が肯定判定となった場合は、処理はステップS14に移行し、否定判定となった場合は、認識部41は撮影対象の役割が割り当てられていると見なし、撮影処理が終了する。すなわち、以下のステップS14からステップS42までの処理は、移動型機器10Aにより実行される。
 ステップS14で、受付部40は、スマートフォン等の端末によって入力された設定情報32を通信I/F25を介して受け付け、受け付けた設定情報32を記憶部22に記憶する。なお、本実施形態では、受付部40が、役割情報30を受け付けた後に設定情報32を受け付けているが、これに限定されない。受付部40が、役割情報30及び設定情報32を受け付ける処理を並列に行ってもよいし、設定情報32を受け付けた後に役割情報30を受け付けてもよい。ステップS16で、撮影制御部42は、撮影機器12に対し、画像を撮影させる制御を行う。ステップS18で、取得部44は、ステップS16の処理によって撮影機器12による撮影により得られた画像を取得する。
 ステップS20で、配置制御部46は、前述したように、ステップS14の処理により受け付けられた設定情報32に含まれる撮影対象情報により特定される撮影対象Sと撮影対象機器情報により特定される移動型機器10Bとが、ステップS18の処理により取得された画像内に存在するか否かを判定する。この判定が否定判定となった場合は、処理はステップS22に移行し、肯定判定となった場合は、処理はステップS24に移行する。
 ステップS22で、配置制御部46は、移動機構26を制御することによる撮影機器12の高さ及び姿勢の変更、駆動部27を制御することによる移動型機器10Aの移動、及び撮影機器12のズーム倍率の変更の少なくとも1つを行う。これにより、配置制御部46は、撮影対象Sと移動型機器10Bとが撮影機器12の画角内に配置されるように制御する。ステップS22の処理が終了すると、処理はステップS16に戻る。
 ステップS24で、配置制御部46は、前述したように、ステップS14の処理により受け付けられた設定情報32に含まれる撮影対象情報により特定される撮影対象Sが設定情報32に含まれる画像の記憶条件を満たすか否かを判定する。この判定が否定判定となった場合は、処理はステップS26に移行し、肯定判定となった場合は、処理はステップS28に移行する。
 ステップS26で、配置制御部46は、移動機構26を制御することによる撮影機器12の高さ及び姿勢の変更、駆動部27を制御することによる移動型機器10Aの移動、及び撮影機器12のズーム倍率の変更の少なくとも1つを行う。これにより、配置制御部46は、撮影対象Sが画像の記憶条件を満たすように制御する。ステップS26の処理が終了すると、処理はステップS16に戻る。
 ステップS28で、記憶制御部48は、ステップS18の処理により取得された画像を記憶部22に記憶する制御を行う。ステップS30で、画像処理部50は、前述したように、ステップS28の処理による制御により記憶部22に記憶された画像を加工する画像処理を行う。ステップS32で、受け渡し対象探索部54Aは、前述したように、受け渡し対象Uを探索する。
 ステップS34で、受け渡し対象探索部54Aは、ステップS32の処理により探索された受け渡し対象Uが、ステップS14の処理により受け付けられた設定情報32に含まれる受け渡し可能範囲内に存在するか否かを判定する。この判定が否定判定となった場合は、撮影処理が終了し、肯定判定となった場合は、処理はステップS36に移行する。
 ステップS36で、移動速度導出部54Bは、ステップS32の処理により探索された受け渡し対象Uについて、距離計測部28により計測された受け渡し対象Uとの距離、及び形成制御部52による画像の形成の開始から排出部16による排出の完了までに要する時間から、上記(1)式に従って移動速度を導出する。
 ステップS38で、形成制御部52は、ステップS30の処理による画像処理を経た画像を感光記録媒体に形成する制御を行う。この制御と同じタイミングで、移動制御部56は、移動型機器10Aが受け渡し対象Uに向かってステップS36の処理により導出された移動速度で移動するように駆動部27を制御する。すなわち、これらの制御により、画像形成装置14による画像の形成、及び移動型機器10Aの移動が同じタイミングで開始される。画像形成装置14による画像の形成は、排出部16による感光性記録媒体の排出が完了するまで継続して行われる。移動型機器10Aの移動は、後述するステップS42が実行されるまで継続して行われる。
 ステップS40で、移動制御部56は、距離計測部28により計測された受け渡し対象Uとの距離が、ステップS14の処理により受け付けられた設定情報32に含まれる取得可能範囲内であるか否かを判定する。この判定が否定判定となった場合は、所定の時間間隔でステップS40が再度実行され、肯定判定となった場合は、処理はステップS42に移行する。
 ステップS42で、移動制御部56は、駆動部27を制御し、ステップS38の処理により開始された移動型機器10Aの移動を終了する。ステップS42の処理が終了すると、撮影処理が終了する。受け渡し対象Uは、近傍まで移動してきた移動型機器10Aの画像形成装置14の排出部16から排出された感光性記録媒体を取得する。なお、ステップS42の終了後に、処理がステップS16に戻ってもよい。この場合、一度受信した設定情報32を用いて、ステップS16からステップS42までの処理が複数回繰り返して実行される。
 以上説明したように、本実施形態によれば、撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識し、撮影担当の役割が割り当てられていると認識した場合に、撮影機器による撮影により得られた画像を取得し、取得した画像を記憶している。従って、撮影対象が移動型機器と一緒に写真を撮影するために要する手間を低減することができる。
 [第2実施形態]
 開示の技術の第2実施形態を説明する。なお、第1実施形態と同一の構成要素については、同一の符号を付して説明を省略する。まず、図5を参照して、本実施形態に係る撮影システム100の構成について説明する。図5に示すように、撮影システム100は、第1実施形態と同様の移動型機器10、及び情報処理装置18を含む。各移動型機器10と情報処理装置18とは、無線通信により通信可能に接続されている。情報処理装置18の例としては、パーソナルコンピュータ又はサーバコンピュータ等が挙げられる。移動型機器10のハードウェア構成は、第1実施形態と同様であるため、説明を省略する。
 次に、図6を参照して、情報処理装置18のハードウェア構成について説明する。図6に示すように、情報処理装置18は、CPU60、一時記憶領域としてのメモリ61、及び不揮発性の記憶部62を備える。また、情報処理装置18は、液晶ディスプレイ等の表示部63、マウスとキーボード等の入力部64、及び移動型機器10との通信に用いられる通信I/F65を備えている。CPU60、メモリ61、記憶部62、表示部63、入力部64、及び通信I/F65は、バス66を介して接続される。
 次に、図7を参照して、本実施形態に係る移動型機器10の機能的な構成について説明する。図7に示すように、移動型機器10は、受付部40、撮影制御部42、取得部44、配置制御部46、記憶制御部48、形成制御部52、導出部54、移動制御部56、送信部57、受信部58、及び方向制御部59を含む。また、導出部54は、受け渡し対象探索部54A及び移動速度導出部54Bを含む。CPU20が記憶部22に予め記憶されたプログラムを実行することによって受付部40、撮影制御部42、取得部44、配置制御部46、記憶制御部48、形成制御部52、導出部54、移動制御部56、送信部57、受信部58、及び方向制御部59として機能する。方向制御部59は、認識部41により撮影対象の役割が割り当てられていると認識された移動型機器10Bで機能する。
 送信部57は、前述した配置制御部46による判定が肯定判定となった場合、取得部44により取得された画像を、通信I/F25を介して情報処理装置18に送信する。また、送信部57は、移動型機器10自身の位置情報を、通信I/F25を介して情報処理装置18に送信する。この位置情報は、例えば、GPS(Global Positioning System)等によって得ることができる。
 受信部58は、情報処理装置18から送信された画像を、通信I/F25を介して受信する。また、受信部58は、情報処理装置18から送信された位置情報を、通信I/F25を介して受信する。
 方向制御部59は、認識部41により撮影対象の役割が割り当てられていると認識された場合、駆動部27を制御することによって、受信部58により受信された移動型機器10Aの位置情報を用いて、移動型機器10B自身の正面を移動型機器10Aに向ける制御を行う。なお、方向制御部59は、移動型機器10Bが頭部を有するロボット等の装置である場合は、移動型機器10Bの全体ではなく頭部の正面(すなわち、顔)を移動型機器10Aに向ける制御を行ってもよい。
 次に、図8を参照して、本実施形態に係る情報処理装置18の機能的な構成について説明する。図8に示すように、情報処理装置18は、受信部70、記憶制御部72、画像処理部74、送信部76、選択部78、及び生成部80を含む。CPU60が記憶部62に予め記憶されたプログラムを実行することによって受信部70、記憶制御部72、画像処理部74、送信部76、選択部78、及び生成部80として機能する。
 受信部70は、移動型機器10Aから送信された画像を、通信I/F65を介して受信する。また、受信部70は、撮影対象の役割が割り当てられている移動型機器10Bから送信された位置情報、及び撮影担当の役割が割り当てられている移動型機器10Aから送信された位置情報を、通信I/F65を介して受信する。
 記憶制御部72は、受信部70により受信された画像を記憶部62に記憶する制御を行う。また、記憶制御部72は、後述する生成部80により生成されたフォトアルバムを作成するためのデータを記憶部62に記憶する制御を行う。画像処理部74は、第1実施形態に係る画像処理部50と同様に、記憶制御部72による制御により記憶部62に記憶された画像を加工する画像処理を行う。
 送信部76は、画像処理部74による画像処理を経た画像を、通信I/F65を介して移動型機器10Aに送信する。また、送信部76は、受信部70により受信された移動型機器10Aの位置情報を、通信I/F65を介して移動型機器10Bに送信する。また、送信部76は、受信部70により受信された移動型機器10Bの位置情報を、通信I/F65を介して移動型機器10Aに送信する。
 選択部78は、記憶部62に記憶された画像から、予め定められた選択条件を満たす画像を選択する。この選択条件の例としては、画像内の人が笑っている画像、及び特定の人が写っている画像等が挙げられる。なお、選択部78は、画像処理部74による画像処理を経た画像から、選択条件を満たす画像を選択してもよい。
 生成部80は、選択部78により選択された画像を用いてフォトアルバムを作成するためのデータを生成する。このデータを用いて、フォトアルバムが作成される。
 次に、図9~図12を参照して、本実施形態に係る撮影システム100の作用を説明する。図9に示す位置情報更新処理は、図10に示す撮影処理のステップS12の処理により、各移動型機器10が役割を認識した後に定期的に実行される。
 また、CPU20が記憶部22に記憶されたプログラムを実行することにより、図10に示す撮影処理が実行される。図10に示す撮影処理は、例えば、スマートフォン等の端末によって入力された役割情報30を移動型機器10が受信した場合に実行される。図10における図4と同一の処理を実行するステップについては、同一の符号を付して説明を省略する。
 また、CPU60が記憶部62に記憶されたプログラムを実行することにより、図11に示す画像加工処理及び図12に示すアルバム作成処理が実行される。図11に示す画像加工処理は、例えば、移動型機器10Aから送信された画像を情報処理装置18が受信した場合に実行される。図12に示すアルバム作成処理は、例えば、入力部64を介して処理の実行開始の指示が入力された場合に実行される。
 図9のステップS50で、移動型機器10Bの送信部57は、移動型機器10B自身の位置情報を、通信I/F25を介して情報処理装置18に送信する。ステップS60で、移動型機器10Aの送信部57は、移動型機器10A自身の位置情報を、通信I/F25を介して情報処理装置18に送信する。ステップS70で、情報処理装置18の受信部70は、ステップS50の処理により移動型機器10Bから送信された位置情報、及びステップS60の処理により移動型機器10Aから送信された位置情報を、通信I/F65を介して受信する。
 ステップS52で、移動型機器10Bの送信部57は、撮影担当の移動型機器10Aの位置情報を要求することを示す情報を、通信I/F25を介して情報処理装置18に送信する。ステップS62で、移動型機器10Aの送信部57は、撮影対象の移動型機器10Bの位置情報を要求することを示す情報を、通信I/F25を介して情報処理装置18に送信する。ステップS72で、情報処理装置18の受信部70は、ステップS52の処理により移動型機器10Bから送信された情報、及びステップS62の処理により移動型機器10Aから送信された情報を、通信I/F65を介して受信する。
 ステップS74で、情報処理装置18の送信部76は、ステップS70の処理により受信された移動型機器10Bの位置情報を、通信I/F65を介して移動型機器10Aに送信する。また、情報処理装置18の送信部76は、ステップS70の処理により受信された移動型機器10Aの位置情報を、通信I/F65を介して移動型機器10Bに送信する。
 ステップS54で、移動型機器10Bの受信部58は、ステップS74の処理により情報処理装置18から送信された撮影担当の移動型機器10Aの位置情報を、通信I/F25を介して受信する。また、ステップS64で、移動型機器10Aの受信部58は、ステップS74の処理により情報処理装置18から送信された撮影対象の移動型機器10Bの位置情報を、通信I/F25を介して受信する。以上説明した位置情報更新処理が定期的に実行されることによって、移動型機器10Aは移動型機器10Bの直近の位置情報を取得し、移動型機器10Bは移動型機器10Aの直近の位置情報を取得する。
 例えば、図10に示すステップS22で、配置制御部46は、撮影機器12の画角が移動型機器10Bの直近の位置情報が示す位置の方向を向くように、前述した制御を行ってもよい。これにより、撮影対象Sと移動型機器10Bとが移動型機器10Aの撮影機器12の画角内に配置されるまでの時間を短くすることができる。
 図10のステップS29で、移動型機器10Aの送信部57は、ステップS18の処理により取得された画像を、通信I/F25を介して情報処理装置18に送信する。ステップS31で、移動型機器10Aの受信部58は、後述する画像加工処理のステップS86の処理により情報処理装置18から送信された画像を、通信I/F25を介して受信する。ステップS38では、ステップS31の処理により受信された画像を感光性記録媒体に形成する制御が行われる。なお、本実施形態においても、ステップS42の終了後に、処理がステップS16に戻ってもよい。この場合、一度受信した設定情報32を用いて、ステップS16からステップS42までの処理が複数回繰り返して実行される。
 一方、ステップS12の判定が否定判定となった場合、認識部41は撮影対象の役割が割り当てられていると見なし、処理はステップS44に移行する。すなわち、ステップS44の処理は、移動型機器10Bにより実行される。ステップS44で、移動型機器10Bの方向制御部59は、駆動部27を制御することによって、移動型機器10Aの直近の位置情報を用いて、移動型機器10B自身の正面を移動型機器10Aに向ける制御を行う。ステップS44の処理が終了すると、撮影処理が終了する。
 図11のステップS80で、受信部70は、撮影処理のステップS29の処理により移動型機器10Aから送信された画像を、通信I/F65を介して受信する。ステップS82で、記憶制御部72は、ステップS80の処理により受信された画像を記憶部62に記憶する制御を行う。
 ステップS84で、画像処理部74は、ステップS82の処理により記憶部62に記憶された画像を加工する画像処理を行う。ステップS86で、送信部76は、ステップS84の処理による画像処理を経た画像を、通信I/F65を介して移動型機器10Aに送信する。ステップS86の処理が終了すると、画像加工処理が終了する。
 図12のステップS90で、選択部78は、前述したように、記憶部62に記憶された画像から、選択条件を満たす画像を選択する。ステップS92で、生成部80は、ステップS90の処理により選択された画像を用いてフォトアルバムを作成するためのデータを生成する。ステップS94で、記憶制御部72は、ステップS92の処理により生成されたフォトアルバムを作成するためのデータを記憶部62に記憶する制御を行う。ステップS94の処理が終了すると、アルバム作成処理が終了する。
 以上説明したように、本実施形態によれば、第1実施形態と同様の効果を奏することができる。
 なお、上記各実施形態において、配置制御部46による判定が肯定判定となった場合に、取得部44が、撮影機器12により連続的に撮影された複数の画像を取得してもよい。この場合、形成制御部52は、画像形成装置14に対し、取得部44により取得された複数の画像の少なくとも1つを感光記録媒体に形成する制御を行う形態が例示される。更にこの場合、形成制御部52は、複数の画像から、ぶれ量が最も小さい画像、最も明るい画像、及び撮影対象Sが目を開いている画像等の予め設定された選択条件を満たす画像を選択し、選択した画像を感光記録媒体に形成する制御を行う形態が例示される。
 また、上記各実施形態では、画像の記憶条件として、撮影対象Sが画像内の予め定められた位置に、予め定められた大きさで存在するとの条件を適用した場合について説明したが、これに限定されない。例えば、画像の記憶条件として、撮影対象Sにより予め定められたジェスチャー(例えば、ピースサイン等)が行われたとの条件を適用してもよい。また、例えば、画像の記憶条件として、移動型機器10に予め定められた音が入力されたとの条件を適用してもよい。
 また、上記各実施形態において、移動型機器10は、役割に応じて予め定められたジェスチャーに従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する形態としてもよい。この場合、移動型機器10は、撮影対象Sにより、撮影対象の役割に対応するジェスチャーが行われた場合に、撮影対象の役割が割り当てられていると認識する形態が例示される。また、この場合、移動型機器10は、撮影対象Sにより、撮影担当の役割に対応するジェスチャーが行われた場合に、撮影担当の役割が割り当てられていると認識する形態が例示される。
 また、上記各実施形態において、移動型機器10は、役割に応じて予め定められた音に従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する形態としてもよい。この場合、移動型機器10は、撮影対象Sにより、撮影対象の役割に対応する音声が発せられた場合に、撮影対象の役割が割り当てられていると認識する形態が例示される。また、この場合、移動型機器10は、撮影対象Sにより、撮影担当の役割に対応する音声が発せられた場合に、撮影担当の役割が割り当てられていると認識する形態が例示される。
 また、上記各実施形態において、各移動型機器10は、無線通信によって移動型機器10自身以外の他の移動型機器10の位置情報を直接取得してもよい。
 また、上記各実施形態でCPUがソフトウェア(プログラム)を実行することにより実行した各種処理を、CPU以外の各種のプロセッサが実行してもよい。この場合のプロセッサとしては、FPGA(Field-Programmable Gate Array)等の製造後に回路構成を変更可能なPLD(Programmable Logic Device)、及びASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が例示される。また、上記各種処理を、これらの各種のプロセッサのうちの1つで実行してもよいし、同種又は異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGA、及びCPUとFPGAとの組み合わせ等)で実行してもよい。また、これらの各種のプロセッサのハードウェア的な構造は、より詳細には、半導体素子等の回路素子を組み合わせた電気回路である。
 また、上記各実施形態では、プログラムが記憶部22、62に予め記憶(インストール)されている態様を説明したが、これに限定されない。プログラムは、CD-ROM(Compact Disk Read Only Memory)、DVD-ROM(Digital Versatile Disk Read Only Memory)、及びUSB(Universal Serial Bus)メモリ等の非一時的記録媒体に記録された形態で提供されてもよい。また、プログラムは、ネットワークを介して外部装置からダウンロードされる形態としてもよい。
 本願は2018年5月11日出願の日本出願第2018-092465号の優先権を主張すると共に、その全文を参照により本明細書に援用する。

Claims (22)

  1.  自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する認識部と、
     前記認識部により撮影担当の役割が割り当てられていると認識された場合に、撮影機器による撮影により得られた画像を取得する取得部と、
     前記取得部により取得された画像内に予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器との少なくとも一方が存在しない場合、前記撮影機器の画角内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが配置されるための制御を行う配置制御部と、
     前記取得部により取得された画像内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、前記取得部により取得された画像を記憶部に記憶する制御を行う記憶制御部と、
     を備えた複数の移動型機器を含み、
     前記複数の移動型機器は、撮影対象の役割が割り当てられている移動型機器と撮影担当の役割が割り当てられている移動型機器とを少なくとも1台ずつ含む
     撮影システム。
  2.  前記移動型機器は、
     前記取得部により取得された画像内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、前記画像を記録媒体に形成する制御を行う形成制御部と、
     前記画像が形成された記録媒体を予め設定された受け渡し対象に受け渡し可能な状態で排出する排出部と、
     前記記録媒体を前記受け渡し対象に受け渡すための移動型機器自身の移動を制御する移動制御部と、
     を更に備えた請求項1に記載の撮影システム。
  3.  前記移動型機器は、
     前記形成制御部による前記記録媒体への前記画像の形成開始から前記排出部による前記記録媒体の排出の完了までの期間と、前記移動制御部による制御によって移動を開始してから完了するまでの期間との少なくとも一部の期間が重複する
     請求項2に記載の撮影システム。
  4.  前記移動型機器は、
     前記移動制御部による移動の制御の開始と、前記形成制御部による画像の形成の開始とを同じタイミングで行う
     請求項3に記載の撮影システム。
  5.  前記移動型機器は、
     前記受け渡し対象との距離、及び前記形成制御部による画像の形成の開始から前記排出部による排出の完了までに要する時間から、前記記録媒体を前記受け渡し対象に渡すことが可能な位置で前記記録媒体が受け渡し可能な状態となる移動速度を導出する導出部を更に備え、
     前記移動制御部は、前記導出部により導出された移動速度に従って前記移動を制御する
     請求項2から請求項4の何れか1項に記載の撮影システム。
  6.  前記記録媒体は、感光性記録媒体である
     請求項2から請求項5の何れか1項に記載の撮影システム。
  7.  前記形成制御部は、前記取得部により取得された画像内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、前記撮影機器により連続的に撮影された複数の画像の少なくとも1つの画像を前記記録媒体に形成する制御を行う
     請求項2から請求項6の何れか1項に記載の撮影システム。
  8.  前記予め設定された撮影対象と前記受け渡し対象とが同じである
     請求項2から請求項7の何れか1項に記載の撮影システム。
  9.  前記移動制御部は、前記受け渡し対象が受け渡し可能な範囲として予め定められた範囲内に存在する場合、前記移動を制御する
     請求項2から請求項8の何れか1項に記載の撮影システム。
  10.  前記移動型機器は、
     前記取得部により取得された画像を加工する画像処理を行う画像処理部を更に備えた
     請求項1から請求項9の何れか1項に記載の撮影システム。
  11.  前記認識部は、役割に応じて予め定められたジェスチャーに従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する
     請求項1から請求項10の何れか1項に記載の撮影システム。
  12.  前記認識部は、役割に応じて予め定められた音に従って、自機に撮影対象の役割が割り当てられているか、又は撮影担当の役割が割り当てられているかを認識する
     請求項1から請求項11の何れか1項に記載の撮影システム。
  13.  前記移動型機器は、
     前記認識部により撮影担当の役割が割り当てられていると認識された場合、撮影対象の役割が割り当てられている移動型機器の位置情報を受信し、前記認識部により撮影対象の役割が割り当てられていると認識された場合、撮影担当の役割が割り当てられている移動型機器の位置情報を受信する第1受信部を更に備えた
     請求項1から請求項12の何れか1項に記載の撮影システム。
  14.  撮影対象の役割が割り当てられている移動型機器から送信された位置情報、及び撮影担当の役割が割り当てられている移動型機器から送信された位置情報を受信する第2受信部と、前記第2受信部により受信された撮影対象の役割が割り当てられている移動型機器の位置情報を撮影担当の役割が割り当てられている移動型機器に送信し、かつ前記第2受信部により受信された撮影担当の役割が割り当てられている移動型機器の位置情報を撮影対象の役割が割り当てられている移動型機器に送信する第1送信部と、を備えた情報処理装置を更に含み、
     前記移動型機器は、移動型機器自身の位置情報を前記情報処理装置に送信する第2送信部を更に備えた
     請求項13に記載の撮影システム。
  15.  前記移動型機器は、
     前記認識部により撮影対象の役割が割り当てられていると認識された場合、前記第1受信部により受信された位置情報を用いて、移動型機器自身の正面を撮影担当の役割が割り当てられている移動型機器に向ける制御を行う方向制御部を更に備えた
     請求項13又は請求項14に記載の撮影システム。
  16.  前記記憶制御部は、前記取得部により取得された画像内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在し、かつ前記予め設定された撮影対象により予め定められたジェスチャーが行われた場合、前記画像を前記記憶部に記憶する制御を行う
     請求項1から請求項15の何れか1項に記載の撮影システム。
  17.  前記記憶制御部は、前記取得部により取得された画像内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在し、かつ予め定められた音が入力された場合、前記画像を前記記憶部に記憶する制御を行う
     請求項1から請求項16の何れか1項に記載の撮影システム。
  18.  撮影担当の役割が割り当てられている移動型機器から送信された画像を受信する第1受信部を備えた情報処理装置を更に含み、
     前記移動型機器は、
     前記取得部により取得された画像内に前記予め設定された撮影対象と撮影対象の役割が割り当てられている移動型機器とが存在する場合、前記画像を前記情報処理装置に送信する第1送信部を更に備えた
     請求項1から請求項12の何れか1項に記載の撮影システム。
  19.  前記情報処理装置は、前記第1受信部により受信された画像を撮影担当の役割が割り当てられている移動型機器に送信する第2送信部を更に備え、
     撮影担当の役割が割り当てられている移動型機器は、前記情報処理装置から送信された画像を受信する第2受信部を更に備えた
     請求項18に記載の撮影システム。
  20.  前記情報処理装置は、前記第1受信部により受信された画像を加工する画像処理を行う画像処理部を更に備えた
     請求項18又は請求項19に記載の撮影システム。
  21.  前記情報処理装置は、前記第1受信部により受信された画像を用いてフォトアルバムを作成するためのデータを生成する生成部を更に備えた
     請求項18から請求項20の何れか1項に記載の撮影システム。
  22.  前記情報処理装置は、前記第1受信部により受信された画像から、予め定められた選択条件を満たす画像を選択する選択部を更に備え、
     前記生成部は、前記選択部により選択された画像を用いて前記データを生成する
     請求項21に記載の撮影システム。
PCT/JP2019/016320 2018-05-11 2019-04-16 撮影システム WO2019216131A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2020518219A JP7030964B2 (ja) 2018-05-11 2019-04-16 撮影システム
CN201980030931.7A CN112088528B (zh) 2018-05-11 2019-04-16 摄影系统
US17/080,848 US11019247B2 (en) 2018-05-11 2020-10-27 Imaging system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018092465 2018-05-11
JP2018-092465 2018-05-11

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/080,848 Continuation US11019247B2 (en) 2018-05-11 2020-10-27 Imaging system

Publications (1)

Publication Number Publication Date
WO2019216131A1 true WO2019216131A1 (ja) 2019-11-14

Family

ID=68468350

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/016320 WO2019216131A1 (ja) 2018-05-11 2019-04-16 撮影システム

Country Status (4)

Country Link
US (1) US11019247B2 (ja)
JP (1) JP7030964B2 (ja)
CN (1) CN112088528B (ja)
WO (1) WO2019216131A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065024A (ja) * 2003-08-18 2005-03-10 Honda Motor Co Ltd 携帯端末機器を用いた移動ロボットの画像撮影装置
JP2016177726A (ja) * 2015-03-23 2016-10-06 日本電気株式会社 画像処理装置、画像処理方法、及び、プログラム

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6801334B1 (en) * 1998-05-28 2004-10-05 Fuji Photo Film Co., Ltd. Index print producing method, image processing system, image processing method and image processing device
JP3849517B2 (ja) * 2001-12-14 2006-11-22 ソニー株式会社 写真ブース、画像処理方法、記録媒体、並びにプログラム
US7274834B2 (en) * 2003-05-21 2007-09-25 Konica Minolta Holdings, Inc. Searching device, searching method and program
JP4455160B2 (ja) * 2003-06-16 2010-04-21 キヤノン株式会社 画像形成装置
JP4220857B2 (ja) 2003-08-18 2009-02-04 本田技研工業株式会社 携帯端末機器を用いた移動ロボットの画像撮影装置
US7756322B2 (en) * 2003-08-18 2010-07-13 Honda Motor Co., Ltd. Picture taking mobile robot
JP2007036928A (ja) * 2005-07-29 2007-02-08 Sharp Corp 携帯情報端末装置
US8264545B2 (en) * 2006-12-11 2012-09-11 Nikon Corporation Electronic camera
CN103699211A (zh) * 2012-09-27 2014-04-02 北京三星通信技术研究有限公司 一种电子设备及其互联和控制方法
CN107483829A (zh) * 2013-01-30 2017-12-15 奥林巴斯株式会社 摄像装置、操作装置、对象物确认方法
JP6075912B2 (ja) * 2013-03-14 2017-02-08 Juki株式会社 画像処理装置及び画像処理方法
JP5999523B2 (ja) * 2014-06-30 2016-09-28 カシオ計算機株式会社 カメラ制御装置、カメラ制御方法及びプログラム
CN104811609A (zh) * 2015-03-03 2015-07-29 小米科技有限责任公司 拍摄参数调整方法和装置
JP6264433B2 (ja) 2016-11-24 2018-01-24 富士ゼロックス株式会社 作業装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005065024A (ja) * 2003-08-18 2005-03-10 Honda Motor Co Ltd 携帯端末機器を用いた移動ロボットの画像撮影装置
JP2016177726A (ja) * 2015-03-23 2016-10-06 日本電気株式会社 画像処理装置、画像処理方法、及び、プログラム

Also Published As

Publication number Publication date
JPWO2019216131A1 (ja) 2021-06-24
US20210058542A1 (en) 2021-02-25
CN112088528B (zh) 2022-01-11
US11019247B2 (en) 2021-05-25
CN112088528A (zh) 2020-12-15
JP7030964B2 (ja) 2022-03-07

Similar Documents

Publication Publication Date Title
US20170374277A1 (en) Image pickup apparatus, image pickup method, and recording medium for imaging plural subjects or a single subject
US20180288303A1 (en) System and method for providing autonomous photography and videography
CN108700408B (zh) 三维形状数据及纹理信息生成系统、方法及拍摄控制方法
US20160124435A1 (en) 3d scanning and imaging method utilizing a self-actuating compact unmanned aerial device
JP2017065467A (ja) 無人機およびその制御方法
WO2019206076A1 (zh) 控制装置、摄像装置、移动体、控制方法以及程序
WO2019216131A1 (ja) 撮影システム
US20210199919A1 (en) Control device, photographing device, control method, and program
JP6997303B2 (ja) 移動型機器及び撮影システム
JP6641573B1 (ja) 決定装置、撮像装置、撮像システム、移動体、決定方法、及びプログラム
CN112335227A (zh) 控制装置、摄像系统、控制方法以及程序
JP2018078433A (ja) 移動撮像装置およびその制御方法、ならびに撮像装置およびその制御方法、無人機、プログラム、記憶媒体
US20220046177A1 (en) Control device, camera device, movable object, control method, and program
WO2021031833A1 (zh) 控制装置、摄像系统、控制方法以及程序
JP6475568B2 (ja) 撮像装置および飛行制御方法
CN107547793B (zh) 飞行装置、方法以及存储程序的存储介质
CN111295874B (zh) 长条图像生成系统、方法以及存储介质
CN110785997A (zh) 控制装置、摄像装置、移动体、控制方法以及程序
WO2020088438A1 (zh) 控制装置、摄像装置、系统、控制方法以及程序
CN112106341B (zh) 一种拍摄方法、装置及拍摄设备
WO2020216039A1 (zh) 控制装置、摄像系统、移动体、控制方法以及程序
US20210231908A1 (en) Control device, camera device, control method, and program
CN112313943A (zh) 装置、摄像装置、移动体、方法以及程序
JP2020161960A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
CN114600446A (zh) 控制装置、摄像装置、移动体、控制方法以及程序

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19799764

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020518219

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19799764

Country of ref document: EP

Kind code of ref document: A1