WO2018020769A1 - 映像システム装置 - Google Patents

映像システム装置 Download PDF

Info

Publication number
WO2018020769A1
WO2018020769A1 PCT/JP2017/017446 JP2017017446W WO2018020769A1 WO 2018020769 A1 WO2018020769 A1 WO 2018020769A1 JP 2017017446 W JP2017017446 W JP 2017017446W WO 2018020769 A1 WO2018020769 A1 WO 2018020769A1
Authority
WO
WIPO (PCT)
Prior art keywords
digital camera
host
image
video
units
Prior art date
Application number
PCT/JP2017/017446
Other languages
English (en)
French (fr)
Inventor
内田 茂樹
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Priority to JP2017560621A priority Critical patent/JPWO2018020769A1/ja
Priority to US15/865,604 priority patent/US10264172B2/en
Publication of WO2018020769A1 publication Critical patent/WO2018020769A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B35/00Stereoscopic photography
    • G03B35/08Stereoscopic photography by simultaneous recording
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B37/00Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe
    • G03B37/04Panoramic or wide-screen photography; Photographing extended surfaces, e.g. for surveying; Photographing internal surfaces, e.g. of pipe with cameras or projectors providing touching or overlapping fields of view
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction

Definitions

  • the present disclosure relates to a video system apparatus that captures a specific subject from various directions using a plurality of imaging units.
  • Patent Document 1 discloses a device control system that gives different roles by connecting the same device to different layers.
  • This device control system forms a plurality of hierarchized ports by cascading a plurality of hubs to a root hub. Since this device control system connects only one device to each layer, it can distinguish and recognize the port depending on the layer. Thereby, it becomes possible to give a different role for every apparatus connected to each port.
  • the video system apparatus includes a plurality of imaging units that shoot a specific subject from different directions, and a shooting signal transmission unit that provides the plurality of imaging units with a shooting signal that controls timing of shooting by the plurality of imaging units. And acquiring position information indicating the physical position of each of the plurality of imaging units, and receiving the video from each of the plurality of imaging units, the video with the file name based on the corresponding position information A storage host.
  • the video system apparatus can easily identify the correspondence between the captured image and the digital camera.
  • FIG. 1A is a schematic diagram showing a configuration of a video system apparatus according to Embodiment 1.
  • FIG. 1B is a block diagram illustrating a configuration of the tablet terminal according to Embodiment 1.
  • FIG. 2 is a schematic diagram showing a connection configuration between the host PC and the USB hub in the first embodiment.
  • FIG. 3 is a diagram illustrating an example of a captured image that can be acquired by the video system apparatus according to the first embodiment.
  • FIG. 4 is a block diagram showing the configuration of the digital camera in the first embodiment.
  • FIG. 5 is a top plan view showing the configuration of the video system apparatus according to the first embodiment.
  • FIG. 6 is a diagram showing to which USB hub the digital camera in the first embodiment is attached.
  • FIG. 7 is a diagram for explaining the file name of a video shot by each digital camera in the first embodiment.
  • FIG. 8 is a schematic diagram showing a list of physical positions of the digital camera and acquired captured images in the first embodiment.
  • FIG. 9 is a flowchart for explaining the operation of the video system apparatus according to the first embodiment.
  • FIG. 10 is a flowchart for explaining the operation of generating a file name in the first embodiment.
  • FIG. 11 is a flowchart for explaining the operation of identifying the abnormal operation camera in the first embodiment.
  • FIG. 12 is a schematic diagram showing the configuration of the video system apparatus in the second embodiment.
  • FIG. 1A is a schematic diagram showing a configuration of video system apparatus 100 according to Embodiment 1.
  • a host PC (Personal Computer) 110 as a host for controlling the system, a USB (Universal Serial Bus) hub 120 and a wireless router 210 connected to the host PC 110, and a plurality of digital cameras 130 connected to the USB hub 120.
  • a plurality of lamps 140 positioned in the vicinity of the plurality of digital cameras 130, respectively.
  • a plurality of frames 150 that support a plurality of digital cameras 130 and a plurality of lamps 140, a strobe 160 installed on a beam on the upper surface of the frame 150, a speaker 180 that transmits sound from the operator 170, and the operator 170
  • a tablet terminal 190 to be operated is also provided.
  • a subject 200 is arranged in the center of the video system apparatus 100 and is photographed by a plurality of digital cameras 130.
  • the host PC 110 functions as a Web server.
  • the operator 170 can access the host PC 110 from the Web browser of the tablet terminal 190 using the tablet terminal 190. Accordingly, the operator 170 can control the video system apparatus 100 via the tablet terminal 190.
  • the host PC 110 functions as a position information acquisition unit, and acquires the position information of each digital camera 130 in association with the address information of the USB hub 120 to which each digital camera 130 is connected.
  • the position information is information indicating the physical position of each digital camera 130.
  • the identification information of each digital camera 130 is associated with the physical position of each digital camera 130. It will be the information attached.
  • the address information is electronic connection information (hierarchical information of the USB hub 120 and port number information) between each digital camera 130 and the USB hub 120, and is expressed in a hierarchical structure.
  • the host PC 110 acquires the captured image (video) together with the identification information of each digital camera 130 from each digital camera 130.
  • the host PC 110 specifies the position information of the digital camera 130 that captured the captured image from the identification information of the digital camera 130 associated with the captured image or from the acquired route address information. Then, the host PC 110 assigns a file name based on the specified position information to the captured image and saves the captured image.
  • the host PC 110 receives the captured images from the plurality of digital cameras 130, and then creates 3D model data of the subject 200 from the captured images.
  • the USB hub 120 functions as a hub for connecting the host PC 110 and a plurality of digital cameras 130 (details will be described later).
  • the wireless router 210 is externally connected to the host PC 110, receives a signal from the host PC 110, and transmits the signal to the tablet terminal 190 connected wirelessly.
  • the digital camera 130 is fixed so as to be aligned in the vertical direction along the frame 150.
  • One USB hub 120 is disposed in each frame 150. Further, the digital camera 130 and the port of the USB hub 120 are associated one-on-one. That is, each digital camera 130 is connected one by one to the port of the USB hub 120 arranged on the frame 150 to which the digital camera 130 is attached.
  • a plurality of digital cameras 130 fixed to one frame 150 are defined as one video unit.
  • the video system apparatus 100 includes a plurality of video units. The plurality of video units are arranged in an arc shape in the vertical direction of the video system apparatus 100 (vertical direction on the paper surface of FIG. 1A).
  • Each lamp 140 is supported by a frame 150 and is disposed in the vicinity of the corresponding digital camera 130.
  • the lamp 140 is lit to notify the operator 170 and the like which digital camera 130 is pointed to. That is, the lamp functions as a notification unit that can notify the operator 170 of the physical position of each digital camera 130.
  • the frame 150 is formed in a straight line parallel to the vertical direction.
  • a horizontal member is disposed so as to connect one end of each frame 150 in the vertical direction (upper ends in FIG. 1A), and each frame 150 is supported.
  • the horizontal member is disposed on a plane parallel to the horizontal direction.
  • a cross beam is hung in the center of the horizontal member.
  • the strobe 160 is disposed at the center of the cross beam formed above the frame 150.
  • the strobe 160 is installed to irradiate the upper side (ceiling side).
  • the subject 200 is illuminated by light reflected from the ceiling.
  • the speaker 180 is installed in the upper part of the room where the frame 150 is installed. From the speaker 180, the voice of the operator 170 can be heard, and an instruction can be given to the person who is the subject 200.
  • the tablet terminal 190 includes an operation unit 191, a communication unit 192, a controller 193, and a display monitor 194.
  • the operation unit 191 receives an operation by the operator 170.
  • the operation unit 191 may be a mechanical operation button or a touch panel integrated with the display monitor 194.
  • the communication unit 192 communicates with the host PC 110 in both directions.
  • the communication unit 192 is a communication device capable of wireless communication in conformity with infrared communication or Wi-Fi standard, Bluetooth (registered trademark) standard, or the like.
  • the communication unit 192 may be a wired communication device connected to the router via a LAN (Local Area Network) cable and capable of communicating with the host PC 110.
  • the communication unit 192 may be a communication device that can directly communicate with the digital camera 130 using wireless communication or wired communication.
  • the controller 193 generates various signals and controls communication by the communication unit 192.
  • the various signals include a shutter operation signal that is a shooting signal that controls the shooting timing of the digital camera 130.
  • the controller 401 is a microcontroller, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), an application-specific integrated circuit (ASIC), a PG, an ASIC, a PG, a PG, an ASIC, a PG, a PG, an ASIC, a PG, a PG, a PG, a PG, an ASIC, a PG, or a PG.
  • CPU central processing unit
  • MPU micro processing unit
  • DSP digital signal processor
  • ASIC application-specific integrated circuit
  • the display monitor 194 is a display device such as a liquid crystal monitor or an organic EL (Electro Luminescence) monitor.
  • the communication unit 192 of the tablet terminal 190 sends a shutter operation signal of the digital camera 130 based on the shooting instruction received by the operation unit to the host PC 110.
  • the communication unit 192 of the tablet terminal 190 functions as a photographing signal transmission unit.
  • the communication unit 192 of the tablet terminal 190 acquires the video from the digital camera 130 received by the host PC 110.
  • the operator 170 can check the video received by the communication unit 192 of the tablet terminal 190 on the display monitor 194 of the tablet terminal 190.
  • the subject 200 is a person or an object, and is a target for creating 3D (three-dimensional) model data.
  • the operator 170 uses the tablet terminal 190 to photograph the subject 200. It is possible to confirm that the subject 200 is arranged at the center of the system and simultaneously release the shutters of all the digital cameras 130 at an arbitrary timing.
  • the wireless router 210 has been described as being externally connected to the host PC 110 in FIG. 1A, it may be incorporated in the host PC 110.
  • FIG. 2 is a schematic diagram showing a connection configuration between the host PC 110 and the USB hub 120 in the first embodiment.
  • a USB hub 1 (HUB1) and a USB hub 2 (HUB2) are connected to the USB connector 220 and the USB connector 230 of the host PC 110.
  • the USB hub may be referred to as HUB.
  • HUB1 and HUB2 each have four ports.
  • HUB1 and HUB2 cascade connect HUB11 to HUB14 and HUB21 to HUB24.
  • Each of HUB11 to HUB14 and HUB21 to HUB24 has 10 ports. Note that FIG.
  • FIG. 2 shows that, for example, a 4-port USB hub HUB1 is connected to the USB connector 220 of the host PC 110, and a 4-port USB hub HUB2 is connected to the USB connector 230 of the host PC 110.
  • the address information of these digital cameras 130 is individually based on the hierarchical information and port number information of the USB hub 120.
  • the hierarchy information is, for example, information indicating whether the first hierarchy is HUB1 or HUB2, and whether the second hierarchy is HUB11 to HUB14 or HUB21 to HUB24. Note that the number of connected digital cameras 130 and the connection configuration of the USB hub 120 are limited by the USB standard, and are not limited in this embodiment.
  • the digital camera 130 is connected in a two-layer structure using the USB connectors 220 and 230 of one host PC 110.
  • the present invention is not limited to this, and the digital camera 130 is digitally displayed in a one-layer structure using a plurality of host PCs 110.
  • a camera 130 may be connected.
  • the number of connected digital cameras 130 may be increased by using a plurality of host PCs 110.
  • FIG. 3 is a diagram illustrating an example of a captured image that can be acquired by the video system apparatus 100 according to the first embodiment.
  • a photograph A is an image taken by a digital camera 130 (referred to as a digital camera 130A) located in front of the subject 200 and at an intermediate position of the frame 150.
  • Photo B is an image taken by digital camera 130 (referred to as digital camera 130B) that faces digital camera 130A.
  • Photo C is an image taken by a digital camera 130 (referred to as a digital camera 130C) located above the digital camera 130A.
  • Photo D is an image taken by digital camera 130 (referred to as digital camera 130D) located below digital camera 130A. Since the plurality of digital cameras 130 are respectively arranged around the subject 200, the subject 200 can be photographed from various angles. Therefore, 3D model data can be created by using these captured images.
  • FIG. 4 is a block diagram illustrating a configuration of the digital camera 130 according to the first embodiment.
  • the electrical configuration of the digital camera 130 according to Embodiment 1 will be described with reference to FIG.
  • the digital camera 130 is an imaging device that captures an image of a subject 200 formed by an optical system 240 including one or a plurality of lenses with a CCD (Charge Coupled Device) 250.
  • the image data generated by the CCD 250 is subjected to various processes by the image processor 260 and stored in the memory card 270.
  • the configuration of the digital camera 130 will be described in detail.
  • the optical system 240 includes a zoom lens 280 and a focus lens 290.
  • the zoom lens 280 By moving the zoom lens 280 along the optical axis, the image of the subject 200 can be enlarged or reduced. Further, the focus (focused state) of the image of the subject 200 can be adjusted by moving the focus lens 290 along the optical axis.
  • the lens driving unit 300 drives each lens (for example, the zoom lens 280 and the focus lens 290) included in the optical system 240.
  • the lens driving unit 300 includes, for example, a zoom motor that drives the zoom lens 280 and a focus motor that drives the focus lens 290.
  • the diaphragm unit 310 adjusts the amount of light transmitted through the opening by adjusting the size of the opening or automatically according to a user setting.
  • the shutter unit 320 is a means for blocking light transmitted through the CCD 250.
  • the shutter unit 320 together with the optical system 240 and the diaphragm unit 310, constitutes an optical system unit that controls optical information indicating the image of the subject 200.
  • the optical system 240 and the diaphragm unit 310 are housed in a lens barrel.
  • the CCD 250 captures an image of the subject 200 formed by the optical system 240 and generates image data.
  • the CCD 250 includes a color filter, a light receiving element, and an AGC (Auto Gain Controller).
  • the light receiving element converts the optical signal collected by the optical system 240 into an electrical signal, and generates image information.
  • the AGC amplifies the electric signal output from the light receiving element.
  • An ADC (A / D converter: analog-digital converter) 330 converts analog image data generated by the CCD 250 into digital image data.
  • the image processing unit 260 performs various processes on the digital image data generated and converted by the CCD 250 under the control of the controller 340.
  • the image processing unit 260 generates image data to be displayed on the display monitor 350 or generates image data to be stored in the memory card 270.
  • the image processing unit 260 performs various processes such as gamma correction, white balance correction, and flaw correction on the image data generated by the CCD 250.
  • the image processing unit 260 converts the image data generated by the CCD 250 into H.264. It compresses by the compression format etc. based on H.264 standard or MPEG2 standard.
  • the image processing unit 260 can generate moving image data (4K moving image data) having a prime number of about 4000 ⁇ 2000 based on the image data generated by the CCD 250, for example.
  • the image processing unit 260 can perform various processes to be described later on the generated 4K moving image data.
  • the controller 340 is a control means for controlling the entire digital camera 130.
  • the controller 340 can be realized by a semiconductor element or the like.
  • the image processing unit 260 and the controller 340 may be configured only by hardware, or may be realized by combining hardware and software.
  • the controller 340 is a microcontroller, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), an ASIC (Application Specific Integrated FP), an ASIC (Circuit Processing Acceleration, PG, etc.).
  • the buffer 360 functions as a work memory for the image processing unit 260 and the controller 340.
  • the buffer 360 can be realized by, for example, a DRAM (Dynamic Random Access Memory), a ferroelectric memory, or the like.
  • the card slot 370 is a means for attaching the memory card 270 to the digital camera 130.
  • the card slot 370 can mechanically and electrically connect the memory card 270 and the digital camera 130.
  • the memory card 270 includes a flash memory, a ferroelectric memory, and the like, and can store data such as an image file generated by the image processing unit 260.
  • the built-in memory 380 includes a flash memory or a ferroelectric memory.
  • the built-in memory 380 stores a control program and data for controlling the entire digital camera 130.
  • the operation member 390 is a generic term for a user interface that receives an operation from a user.
  • the operation member 390 includes a button, a lever, a dial, a touch panel, a switch, and the like that receive an operation from the user.
  • the operation member 390 includes a focus ring provided on the outer periphery of the lens barrel.
  • the focus ring is a member that is rotated by the user to move the focus lens 290.
  • the display monitor 350 can display an image (through image) indicated by the image data generated by the CCD 250 and an image indicated by the image data read from the memory card 270.
  • the display monitor 350 can also display various menu screens for performing various settings of the digital camera 130.
  • the display monitor 350 includes a liquid crystal display device or an organic EL (Electro Luminescence) display device.
  • the operation of the video system apparatus 100 configured as described above will be described below.
  • the video system apparatus 100 performs each operation of obtaining position information of the digital camera 130, obtaining a photographed image, and generating a photographed image file name based on the position information of the digital camera 130.
  • each operation will be described in detail.
  • FIG. 5 is an overhead view showing the configuration of the video system apparatus 100 according to the first embodiment.
  • HUB11, HUB12, and HUB13 are connected to HUB1, which is the same 4-port USB hub
  • HUB21, HUB22, and HUB23 are connected to HUB2, which is the same 4-port USB hub.
  • the HUB11 to HUB13 and HUB21 to HUB23 are arranged concentrically at regular intervals when viewed from above.
  • the front door 400 in the space where the frame 150 is installed is arranged so as not to obstruct the HUB 11 and HUB 23 when opening and closing.
  • FIG. 6 is a diagram showing to which USB hub 120 the digital camera 130 according to the first embodiment is attached.
  • the position information of the digital camera 130 can be represented as a matrix.
  • FIG. 1A three digital cameras 130 are installed in each of the 10-port USB hubs HUB11 to HUB13 and HUB21 to HUB23, but in FIG. 6, the 10-port USB hubs HUB11 to HUB13 and HUB21 to HUB23 are provided. 6 shows the relationship between the position of each digital camera 130 and the address information when six digital cameras 130 are installed.
  • FIG. 6 indicates to which hub of the HUB 11 to HUB 13 and HUB 21 to HUB 23 the digital camera 130 is attached.
  • “1-1” on the horizontal axis in FIG. 6 corresponds to HUB11
  • “1-2” corresponds to HUB12
  • “1-3” corresponds to HUB13
  • “2-1”, “2-2”, and “2-3” on the horizontal axis correspond to HUB21, HUB22, and HUB23, respectively.
  • the vertical axis in FIG. 6 shows to which port of the HUB 11 to HUB 13 and HUB 21 to HUB 23 the digital camera 130 is attached.
  • 10 numbers 200, 300, 100, 420, 430, 410... are assigned to the ports of HUB11 to HUB13 and HUB21 to HUB23, respectively.
  • FIG. 7 is a diagram for explaining file names of videos (captured images) captured by each digital camera 130 in the first embodiment. 7 shows the numbers included in the file names of the captured images of each digital camera 130 when six digital cameras 130 are installed in each of HUB 11 to HUB 13 and HUB 21 to HUB 23, as in FIG. . From the numbers shown in FIG. 7, the hierarchical information and port number information of the USB hub 120 to which each digital camera 130 is connected can be specified. For example, when “11200” is included in the file name of the photographed image, it can be specified that the photographed image is of the digital camera 130 connected to the port “200” of the HUB 11 which is a 10-port USB hub.
  • a file name indicating the address information of the USB hub 120 is assigned to the captured image transmitted from each digital camera 130 and stored in the host PC 110.
  • the operator 170 knows from which digital camera 130 the captured image stored in the host PC 110 is transmitted.
  • FIG. 8 is a schematic diagram showing a list of physical positions of the digital camera 130 and acquired photographed images according to the first embodiment.
  • the host PC 110 acquires a captured image from the digital camera 130
  • the host PC 110 identifies the physical position of the digital camera 130 based on the file name indicating the address information of the USB hub 120, and each captured image as shown in FIG. Is newly generated on the tile (hereinafter referred to as a tile image).
  • Each tile is arranged corresponding to the physical position of the digital camera 130.
  • the operator 170 can check the generated tile image through the web browser of the tablet terminal 190.
  • a specific digital camera 130 fails to capture or acquire an image, the field of the captured image of the corresponding digital camera 130 is replaced with an x mark image, and a text file with a corresponding file name is created. Therefore, it is easy for the operator 170 to check the generated tile image or to check which digital camera 130 image has not been acquired simply by checking the folder in the Web server where the acquired captured image is stored. Can be identified. Also, the error log of the digital camera 130 is described in the text file. That is, when a text file is opened with a text editor or the like, it is possible to confirm what kind of error has occurred in the digital camera 130.
  • FIG. 9 is a flowchart for explaining the operation of the video system apparatus 100 according to the first embodiment.
  • the operator 170 checks whether or not the subject 200 is located at the center of the video system device 100 (S100).
  • the subject 200 is not located at the center (No in S100)
  • adjustment is performed so that the subject 200 is located at the center, and confirmation is performed again.
  • the operator 170 may instruct the subject 200 to be positioned at the center via the speaker 180.
  • the tablet terminal 190 confirms whether the operator 170 has operated the tablet terminal 190 to instruct the host PC 110 to perform shooting (S110). ).
  • the tablet terminal 190 determines that the operator 170 has operated the tablet terminal 190 and has not instructed the host PC 110 to perform shooting (No in S110), the tablet terminal 190 waits until there is a shooting instruction.
  • the tablet terminal 190 determines that all digital cameras are based on the shooting execution instruction.
  • a shutter operation signal is transmitted to 130. All the digital cameras 130 that have received the shutter operation signal simultaneously photograph the subject 200 (S120). Shooting can be performed several times in succession.
  • the host PC 110 When the host PC 110 acquires a captured image from each digital camera 130, the host PC 110 generates a file name based on the position information of each digital camera 130, assigns the file name to the corresponding captured image, and stores the captured image. (S140).
  • a photographed image at another photographing timing is preferable, a photographed image at another photographing timing (for example, the second photographing timing) is acquired again as a sample only from several digital cameras 130 (Yes in S150).
  • step S150 If it is determined in step S150 that it is not necessary to acquire a captured image at another shooting timing (No in step S150), it is determined which timing to use the captured image (S160). Then, a captured image at the determined timing is acquired from all the digital cameras 130 other than the sample (S170).
  • the host PC 110 When the host PC 110 acquires a captured image from each digital camera 130, the host PC 110 generates a file name based on the position information of each digital camera 130, assigns the file name to the corresponding captured image, and stores the captured image. (S180).
  • step S190 S200.
  • step S190 If an abnormal digital camera 130 is identified in step S190 (Yes in S200), the operator 170 is notified of which digital camera 130 has an abnormality (S210). For example, in the first embodiment, the operator 170 is notified by turning on the lamp 140 in the vicinity of the abnormal digital camera 130.
  • step S190 If no abnormal digital camera 130 is identified in step S190 (No in S200), the process ends.
  • FIG. 10 is a flowchart for explaining the operation of generating a file name in the first embodiment.
  • the file name generation process will be described in detail with reference to FIG.
  • FIG. 10 is a flowchart showing a detailed processing flow of the file name generation processing (S140, S180) of FIG.
  • the host PC 110 searches for all devices connected to the host PC 110 by USB (S300).
  • the host PC 110 acquires the hierarchical information of the USB hub 120 to which the digital camera 130 is connected as shown in FIG. 6 (S310).
  • the port number of the USB hub 120 is acquired and held based on the acquired hierarchy information (S320).
  • a file name is generated based on the acquired hierarchical information and port number information of the USB hub 120 (S340). For example, when the number “12200” is included in the generated file name, the first two-digit number “12” indicates that the digital camera 130 is connected to the USB connector 220 of the host PC 110 and the second HUB1 of the 4-port USB hub. It shows that it is connected to the HUB 12 of the 10-port USB hub via the connector. The last three digits “200” indicate that the digital camera 130 is connected to the connector (see FIG. 6) having the port number “200”.
  • the host PC 110 determines whether or not searching for all devices has been completed (S350), and if not completed (No in S350), returns to step S300. If completed (Yes in S350), the process ends.
  • FIG. 11 is a flowchart for explaining the operation of identifying the abnormal operation camera in the first embodiment. The process for specifying the abnormal digital camera 130 will be described in detail with reference to FIG.
  • FIG. 11 is a flowchart showing a detailed processing flow of the abnormal camera identification (S190) of FIG.
  • the host PC 110 collates the file name of the acquired captured image with the position information of all the digital cameras 130 (S400). Then, it is confirmed whether there is a captured image that has not been received (S410). That is, the host PC 110 determines that the captured image cannot be received from the specific digital camera 130 when there is no file name based on the position information of the specific digital camera 130 in any stored captured image file name. It is confirmed whether there is an image file from the digital camera 130 that has not been acquired (Yes in S410).
  • the digital camera 130 that identifies the captured image is specified. That is, it is specified which digital camera 130 is abnormal (S420). The physical position of the specified digital camera 130 is identified and recorded based on the address information of the specified digital camera 130 (S430). If there is no captured image that has not been acquired (No in S410), the fact that there is no abnormal digital camera 130 is recorded and the process ends.
  • the video system apparatus 100 has a plurality of digital cameras 130 that shoot a specific subject 200 from different directions and a plurality of shooting signals that control the timing of shooting by the plurality of digital cameras 130.
  • the photographing signal transmission unit (tablet terminal 190) to be given to the digital camera 130 and position information indicating the physical position of each of the plurality of digital cameras 130 are acquired and video is received from each of the plurality of digital cameras 130.
  • a host PC 110 that stores a video with a file name based on the corresponding position information.
  • the host PC 110 when the host PC 110 acquires images taken by a plurality of digital cameras 130, the host PC 110 saves them with file names based on the position information of the digital cameras 130. For this reason, since the correspondence relationship between the captured image and the digital camera 130 can be easily specified, it is easy to specify in which digital camera 130 the defect has occurred.
  • the plurality of digital cameras 130 constitute a plurality of video units arranged in an arc shape in the vertical direction of the video system apparatus 100, and each of the plurality of video units includes a plurality of digital cameras 130. It is arranged in the vertical direction.
  • each digital camera 130 is arranged in a matrix, and the subject 200 can be photographed from multiple directions.
  • Embodiment 1 a plurality of connection ports respectively connected to the plurality of digital cameras 130 are further provided, and the position information corresponds to the address information of each of the plurality of connection ports.
  • the host PC 110 acquires images taken by a plurality of digital cameras 130, the host PC 110 generates a file name indicating address information corresponding to the position information based on the position information of each digital camera 130, and assigns the file name to the image. it can.
  • the lamp 140 is provided as a notification unit.
  • the lamp 140 can notify the physical position of each of the plurality of digital cameras 130 to the operator.
  • the lamp 140 is physically connected to the specific digital camera 130. Announce the correct position.
  • the operator 170 can easily identify the abnormal digital camera 130.
  • FIG. 12 is a schematic diagram showing the configuration of the video system apparatus 100 according to the second embodiment.
  • digital cameras 130 on the same horizontal plane are grouped as one video unit.
  • the video system apparatus according to the second embodiment includes three video units. Each video unit is connected to HUB 31 to HUB 33, which are 10-port USB hubs.
  • the file name of the captured image of the digital camera 130 is generated based on the position information of the digital camera 130. That is, the file name indicates address information (hierarchical information and port number information) of the digital camera 130 that has captured the captured image.
  • the host PC 110 collates the file name of the acquired captured image with the position information (address information) of the digital camera. If the host PC 110 determines that there is a captured image that cannot be acquired, the host PC 110 identifies the corresponding digital camera 130 from the file name. If it is determined that there is an abnormality in the identified digital camera 130, a notification is made.
  • the video system apparatus 100 also includes the plurality of digital cameras 130, the tablet terminal (190) serving as the photographing signal transmission unit, and the position information of the digital camera 130 as in the first embodiment.
  • a host PC 110 that acquires and saves a captured image with a file name based on position information.
  • the plurality of digital cameras 130 are grouped for each part of the digital cameras 130 existing on the same horizontal plane. Therefore, it is possible to easily specify the correspondence between the captured image and the digital camera 130, and it is easy to specify which digital camera 130 has the problem.
  • the digital camera 130 is connected in a two-layer structure using the USB connectors 220 and 230 of one host PC 110.
  • the present invention is not limited to this, and a plurality of host PCs 110 may be used.
  • the position information indicating the physical position of the digital camera 130 is associated with the address information (hierarchical information and port number information) of the USB hub.
  • the position information is GPS (Global Positioning System). It may be associated with information. That is, each digital camera 130 includes a GPS receiver, and adds GPS information to captured image data.
  • the host PC 110 can acquire the position information of each digital camera 130 in advance and link the position information and GPS information. Therefore, when acquiring a photographed image from the digital camera 130, the physical position of the digital camera 130 can be specified from the GPS information included in the photographed image. This further facilitates identification of the digital camera 130. Further, the host PC 110 may generate a file name indicating GPS information, give it to the captured image, and store it. Thereby, when there is a digital camera 130 that cannot transmit an image, it can be easily identified.
  • the lamp 140 is used as the notification unit, but the notification unit is not limited to the lamp 140.
  • the notification unit may be a single light source such as a laser pointer. This light source notifies the operator 170 by irradiating the target digital camera 130 with a light beam.
  • the host PC 110 or the tablet terminal 190 itself may function as a notification unit, and may be displayed on the display monitor provided in the host PC 110 or the tablet terminal 190 so that the target digital camera 130 can be notified.
  • the notification unit is a speaker, and the physical position of the digital camera may be notified by voice.
  • the speaker as the notification unit may be common to the speaker 180 illustrated in FIG. 1A or may be provided separately.
  • the configuration has been described in which the communication unit of the tablet terminal 190 functions as a shooting signal transmission unit and outputs shooting signals (shutter operation signals) that control the timing of shooting by the plurality of digital cameras 130.
  • the photographing signal transmission unit is not limited to the communication unit of the tablet terminal 190.
  • the photographing signal transmission unit is a communication unit of the host PC 110, or a communication unit of another terminal that can be connected to the host PC 110 or the digital camera 130, and each digital camera 130 outputs a photographing signal from the other terminal or the communication unit of the host PC 110.
  • the shooting timing may be manipulated.
  • the photographing signal transmission unit may be a shutter device externally attached to each digital camera 130. That is, the operator 170 may directly operate the shutter device of each digital camera 130 to operate the shooting timing of each digital camera 130.
  • the host PC 110 is used as the host.
  • the host itself may be a portable tablet terminal.
  • the operator 170 operates the host PC 110 using the tablet terminal 190.
  • the operator 170 may directly operate the host PC 110.
  • the tablet terminal 190 is assumed to be a portable plate computer, but a so-called notebook PC can be used instead.
  • the digital camera is taken as an example of the imaging unit, but the present invention is not limited to the digital camera.
  • the imaging part if it has an imaging function, the imaging device which has other than camera functions, such as a smart phone with a camera, and a tablet terminal is also included.
  • Embodiment 1 and Embodiment 2 have been described as examples of the technology disclosed in the present application.
  • the technology in the present disclosure is not limited to this, and can also be applied to embodiments that have been changed, replaced, added, omitted, and the like.
  • a new embodiment can be made by combining the constituent elements described in the first to second embodiments.
  • the present disclosure can be applied to an apparatus that captures a specific subject using a plurality of digital cameras. Specifically, the present disclosure is applicable to a system that generates data useful for 3D modeling using a plurality of digital cameras.
  • Video system device 110 Host PC (host) 120 USB hub 130 Digital camera (imaging unit) 140 lamp 150 frame 160 strobe 170 operator 180 speaker 190 tablet terminal 191 operation unit 192 communication unit (photographing signal transmission unit) 193 Controller 194 Display monitor 200 Subject 210 Wireless router 220, 230 USB connector

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Studio Devices (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Stereoscopic And Panoramic Photography (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

互いに異なる方向から特定の被写体を撮影する複数の撮像部(130)と、前記複数の撮像部(130)が撮影するタイミングを制御する撮影信号を前記複数の撮像部(130)に与える撮影信号送信部と、前記複数の撮像部(130)のそれぞれの物理的な位置を示す位置情報を取得し、前記複数の撮像部(130)のそれぞれから映像を受信した場合に、対応する前記位置情報に基づくファイル名で前記映像を保存するホスト(110)と、を備える映像システム装置(100)。

Description

映像システム装置
 本開示は、複数の撮像部で特定の被写体を多方面から撮影する映像システム装置に関する。
 特許文献1は、同一機器を異なる階層に接続することで異なる役割を与える機器制御システムを開示する。この機器制御システムは、ルートハブに対して複数のハブをカスケード接続することで、階層分けされた複数のポートを形成する。この機器制御システムは、各階層に1つの機器のみ接続するため、階層の違いによってポートを区別して認識することができる。これにより、各ポートに接続された機器ごとに異なる役割を与えることが可能となる。
特開2002-7307号公報
 本開示の映像システム装置は、互いに異なる方向から特定の被写体を撮影する複数の撮像部と、前記複数の撮像部が撮影するタイミングを制御する撮影信号を前記複数の撮像部に与える撮影信号送信部と、前記複数の撮像部のそれぞれの物理的な位置を示す位置情報を取得し、前記複数の撮像部のそれぞれから映像を受信した場合に、対応する前記位置情報に基づくファイル名で前記映像を保存するホストと、を備える。
 本開示における映像システム装置は、撮影画像とデジタルカメラの対応関係を容易に特定可能である。
図1Aは実施の形態1における映像システム装置の構成を示す模式図である。 図1Bは実施の形態1におけるタブレット端末の構成を示すブロック図である。 図2は実施の形態1におけるホストPCとUSBハブの接続構成を示す模式図である。 図3は実施の形態1における映像システム装置で取得可能な撮影画像の一例を示す図である。 図4は実施の形態1におけるデジタルカメラの構成を示すブロック図である。 図5は実施の形態1における映像システム装置の構成を示す上面俯瞰図である。 図6は実施の形態1におけるデジタルカメラがどのUSBハブに取り付けられているかを示す図である。 図7は実施の形態1における各々のデジタルカメラが撮影する映像のファイル名を説明するための図である。 図8は実施の形態1におけるデジタルカメラの物理的な位置と取得した撮影画像の一覧を示す模式図である。 図9は実施の形態1における映像システム装置の動作を説明するためのフローチャートである。 図10は実施の形態1におけるファイル名を生成する動作を説明するためのフローチャートである。 図11は実施の形態1における動作異常カメラを特定する動作を説明するためのフローチャートである。 図12は実施の形態2における映像システム装置の構成を示す模式図である。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより請求の範囲に記載の主題を限定することは意図されていない。
 (実施の形態1)
 以下、図1A~図11を用いて、実施の形態1を説明する。
 [1-1.構成]
 [1-1-1.映像システム装置の構成]
 (実施の形態1)
 図1Aは、実施の形態1における映像システム装置100の構成を示す模式図である。システムを制御するためのホストとしてのホストPC(Personal Computer)110と、ホストPC110に接続されたUSB(Universal Serial Bus)ハブ120及び無線ルーター210と、USBハブ120に接続された複数のデジタルカメラ130と、複数のデジタルカメラ130の近傍にそれぞれ位置する複数のランプ140で構成される。また、複数のデジタルカメラ130及び複数のランプ140を支持する複数のフレーム150と、フレーム150の上面の梁に設置されたストロボ160と、オペレータ170等からの音声を伝えるスピーカ180と、オペレータ170により操作されるタブレット端末190も備える。さらに映像システム装置100の中央に被写体200が配置され、複数のデジタルカメラ130で撮影する。
 ホストPC110はWebサーバとして機能する。オペレータ170は、タブレット端末190を使用し、タブレット端末190のWebブラウザからホストPC110にアクセス出来る。これによりオペレータ170は、タブレット端末190を介して映像システム装置100を制御することが可能である。実施の形態1では、ホストPC110は、位置情報取得部として機能し、各々のデジタルカメラ130の位置情報を、各々のデジタルカメラ130が接続されたUSBハブ120のアドレス情報と対応付けて取得する。位置情報とは、各々のデジタルカメラ130の物理的な位置を示す情報であり、実施の形態1では、各々のデジタルカメラ130の識別情報と、各々のデジタルカメラ130の物理的な位置とを対応付けた情報とする。アドレス情報とは、各々のデジタルカメラ130とUSBハブ120との電子的な接続情報(USBハブ120の階層情報と、ポート番号情報)であり、階層構造で表現される。ホストPC110は、各々のデジタルカメラ130から、その撮影画像(映像)を各々のデジタルカメラ130の識別情報とともに取得する。ホストPC110は、撮影画像に紐付いたデジタルカメラ130の識別情報から、あるいは取得した経路のアドレス情報から、撮影画像を撮影したデジタルカメラ130の位置情報を特定する。そしてホストPC110は、特定した位置情報に基づいたファイル名を撮影画像に付与して撮影画像を保存する。ホストPC110は、複数のデジタルカメラ130からそれぞれ撮影画像を受信した後、それらの撮影画像から被写体200の3Dモデルデータを作成する。
 USBハブ120は、ホストPC110と複数のデジタルカメラ130とを接続するハブとして機能する(詳細は後述する)。
 無線ルーター210は、ホストPC110と外付接続され、ホストPC110から信号を受信して無線にて接続されているタブレット端末190に信号を伝達する。
 デジタルカメラ130は、フレーム150に沿って鉛直方向に並ぶように固定される。各々のフレーム150には1つずつUSBハブ120が配置される。またデジタルカメラ130とUSBハブ120のポートとは、一対一で対応付けられる。つまり各々のデジタルカメラ130は自身が取り付けられたフレーム150に配置されたUSBハブ120のポートに一つずつ接続される。一つのフレーム150に固定された複数のデジタルカメラ130を一つの映像ユニットとする。映像システム装置100は、複数の映像ユニットを備える。複数の映像ユニットは、映像システム装置100の鉛直方向(図1Aの紙面上における上下方向)に円弧状に配置される。
 各々のランプ140は、フレーム150によって支持され、対応するデジタルカメラ130の近傍に配置される。ランプ140が点灯することにより、オペレータ170等にどのデジタルカメラ130を指し示すかを報知する。つまりランプは、それぞれのデジタルカメラ130の物理的な位置をオペレータ170に報知可能な報知部として機能する。
 フレーム150は、鉛直方向に平行な直線的に形成される。各フレーム150の鉛直方向における一端どうし(図1Aでは上端どうし)を結ぶように水平部材が配置され、各フレーム150は支持される。水平部材は、水平方向に平行な面上に配置される。水平部材の中央には十字の梁が架けられている。
 ストロボ160は、フレーム150の上方に形成される十字の梁の中央部に配置される。ストロボ160は、上側(天井側)へ照射するように設置される。被写体200は、天井から反射した光によって照らされる。
 スピーカ180は、フレーム150が設置されている部屋の上部に設置される。そのスピーカ180からは、オペレータ170の音声を聞くことができ、被写体200である人物に指示を出すことができる。
 タブレット端末190は、図1Bに示すように、操作部191と、通信部192と、コントローラ193と、表示モニタ194と、を備える。
 操作部191はオペレータ170による操作を受け付ける。操作部191は、機械的な操作釦であってもよく、表示モニタ194と一体化したタッチパネルであってもよい。
 通信部192はホストPC110と双方向に通信する。通信部192は、赤外線通信あるいはWi-Fi規格やBluetooth(登録商標)規格などに準拠した無線通信が可能な通信装置である。場合によっては、通信部192はLAN(Local Area Network)ケーブルによってルータに接続され、ホストPC110と通信可能な有線通信の通信装置であってもよい。また通信部192は、無線通信あるいは有線通信を用いて直接デジタルカメラ130と通信可能な通信装置であってもよい。
 コントローラ193は、各種信号を生成したり、通信部192による通信を制御したりする。各種信号には、デジタルカメラ130の撮影タイミングを制御する撮影信号であるシャッター操作信号が含まれる。コントローラ401は、マイクロコントローラ、Central Processing Unit(CPU)、Micro Processing Unit(MPU)、Digital Signal Processor(DSP)、Application Specific Integrated Circuit(ASIC)、Field‐Programmable Gate Array(FPGA)などで実現できる。
 表示モニタ194は、例えば液晶モニタ、有機EL(Electro Luminescence)モニタなどの表示装置である。
 オペレータ170がタブレット端末190の操作部191に撮影の指示を入力すると、タブレット端末190の通信部192は、操作部で受け付けた撮影の指示に基づいて、デジタルカメラ130のシャッター操作信号を、ホストPC110を介してデジタルカメラ130に送信する。つまりタブレット端末190の通信部192は、撮影信号送信部として機能する。またタブレット端末190の通信部192は、ホストPC110が受信したデジタルカメラ130からの映像を取得する。オペレータ170は、タブレット端末190の通信部192が受信した映像を、タブレット端末190の表示モニタ194で確認できる。
 被写体200は、人物あるいは物体であり、3D(3次元)モデルデータを作成する対象である。
 オペレータ170は、タブレット端末190を使用して、被写体200を撮影する。被写体200がシステム中央に配置されていることを確認し、任意のタイミングですべてのデジタルカメラ130のシャッターを同時に切ることができる。
 尚、無線ルーター210は、図1AにおいてホストPC110に対して外付接続されていると説明したが、ホストPC110に内蔵されていても構わない。
 図2は、実施の形態1におけるホストPC110とUSBハブ120の接続構成を示す模式図である。ホストPC110のUSBコネクタ220及びUSBコネクタ230にUSBハブ1(HUB1)及びUSBハブ2(HUB2)が接続される。以下、USBハブをHUBと記す場合がある。HUB1及びHUB2はそれぞれ4つのポートを有する。さらにHUB1及びHUB2は、HUB11~HUB14及びHUB21~HUB24をカスケード接続する。HUB11~HUB14、HUB21~HUB24はそれぞれ10個のポートを有する。尚、図2は、例えば4ポートUSBハブであるHUB1は、ホストPC110のUSBコネクタ220に接続され、4ポートUSBハブであるHUB2は、ホストPC110のUSBコネクタ230に接続されていることを示している。複数のデジタルカメラ130が、10ポートUSBハブのHUB11~HUB14及びHUB21~HUB24にそれぞれ接続される場合、これらのデジタルカメラ130のアドレス情報は、USBハブ120の階層情報およびポート番号情報に基づいて個別に識別される。階層情報とは、たとえば1階層目がHUB1及びHUB2のいずれであるかと、2階層目がHUB11~HUB14およびHUB21~HUB24のいずれであるかを示す情報である。尚、デジタルカメラ130の接続台数やUSBハブ120の接続構成は、USBの規格で制限されるものであって、本実施において制限されるものではない。
 尚、図2では、1台のホストPC110のUSBコネクタ220、230を使用して2階層構造でデジタルカメラ130を接続したがそれに限るものではなく、複数のホストPC110を用いて1階層構造でデジタルカメラ130を接続してもよい。さらに複数のホストPC110を用いることで、デジタルカメラ130の接続台数を増加させてもよい。
 図3は、実施の形態1における映像システム装置100で取得可能な撮影画像の一例を示す図である。写真Aは、被写体200の正面かつフレーム150の中間位置にあるデジタルカメラ130(デジタルカメラ130Aと称す)によって撮影された映像である。写真Bは、デジタルカメラ130Aと正対するデジタルカメラ130(デジタルカメラ130Bと称す)によって撮影された映像である。また、写真Cは、デジタルカメラ130Aの上方に位置するデジタルカメラ130(デジタルカメラ130Cと称す)によって撮影された映像である。写真Dは、デジタルカメラ130Aの下方に位置するデジタルカメラ130(デジタルカメラ130Dと称す)によって撮影された映像である。複数のデジタルカメラ130は、被写体200の周囲にそれぞれ配置されているため、被写体200を様々な角度から撮影することが可能である。そのため、これらの複数の撮影画像を用いることで3Dモデルデータを作成することができる。
 以下、図面を用いて本開示に係る撮像部の実施の形態を説明する。
 [1-1-2.デジタルカメラ130の構成]
 図4は、実施の形態1におけるデジタルカメラ130の構成を示すブロック図である。実施の形態1に係るデジタルカメラ130の電気的構成について図4を用いて説明する。デジタルカメラ130は、1又は複数のレンズからなる光学系240により形成された被写体200の像をCCD(Charge Coupled Device)250で撮像する撮像装置である。CCD250で生成された画像データは、画像処理部260で各種処理が施され、メモリカード270に格納される。以下、デジタルカメラ130の構成を詳細に説明する。
 光学系240は、ズームレンズ280やフォーカスレンズ290を含む。ズームレンズ280を光軸に沿って移動させることにより、被写体200の像の拡大又は縮小をすることができる。また、フォーカスレンズ290を光軸に沿って移動させることにより、被写体200の像のピント(合焦状態)を調整することができる。
 レンズ駆動部300は、光学系240に含まれる各レンズ(例えばズームレンズ280及びフォーカスレンズ290)を駆動させる。レンズ駆動部300は、例えばズームレンズ280を駆動するズームモータや、フォーカスレンズ290を駆動するフォーカスモータを含む。
 絞り部310は、ユーザの設定に応じて又は自動で開口部の大きさを調整し、開口部を透過する光の量を調整する。
 シャッタ部320は、CCD250に透過させる光を遮光するための手段である。シャッタ部320は、光学系240及び絞り部310とともに、被写体200の像を示す光学情報を制御する光学系部を構成する。また、光学系240及び絞り部310はレンズ鏡筒内に収納される。
 CCD250は、光学系240で形成された被写体200の像を撮像して、画像データを生成する。CCD250は、カラーフィルタと、受光素子と、AGC(Auto Gain Controller)とを含む。受光素子は、光学系240によって集光された光学的信号を電気信号に変換し、画像情報を生成する。AGCは、受光素子から出力された電気信号を増幅する。
 ADC(A/Dコンバータ:アナログ-デジタル変換器)330は、CCD250で生成されたアナログ画像データをデジタル画像データに変換する。
 画像処理部260は、CCD250で生成され、変換されたデジタル画像データに対して、コントローラ340の制御を受け、各種処理を施す。画像処理部260は、表示モニタ350に表示するための画像データを生成したり、メモリカード270に格納するための画像データを生成したりする。例えば、画像処理部260は、CCD250で生成された画像データに対して、ガンマ補正、ホワイトバランス補正、傷補正などの各種処理を行う。また、画像処理部260は、CCD250で生成された画像データを、H.264規格やMPEG2規格に準拠した圧縮形式等により圧縮する。また、画像処理部260は、CCD250で生成された画像データに基づいて、例えば、素数4000×2000前後の動画の画像データ(4K動画データ)を生成することができる。画像処理部260は、生成した4K動画データに対して後述する種々の処理を行うことができる。
 コントローラ340は、デジタルカメラ130の全体を制御する制御手段である。コントローラ340は、半導体素子などで実現可能である。
 画像処理部260やコントローラ340は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ340は、マイクロコントローラ、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、FPGA(Field‐Programmable Gate Array)などで実現できる。
 バッファ360は、画像処理部260及びコントローラ340のワークメモリとして機能する。バッファ360は、例えば、DRAM(Dynamic Random Access Memory)、強誘電体メモリなどで実現できる。
 カードスロット370は、メモリカード270をデジタルカメラ130に装着するための手段である。カードスロット370は、機械的及び電気的にメモリカード270とデジタルカメラ130を接続可能である。
 メモリカード270は、フラッシュメモリや強誘電体メモリなどを内部に含み、画像処理部260で生成された画像ファイル等のデータを格納可能である。
 内蔵メモリ380は、フラッシュメモリや強誘電体メモリなどで構成される。内蔵メモリ380は、デジタルカメラ130全体を制御するための制御プログラムやデータ等を記憶している。
 操作部材390は、ユーザからの操作を受け付けるユーザーインターフェースの総称である。操作部材390は、ユーザからの操作を受け付けるボタン、レバー、ダイヤル、タッチパネル、スイッチ等を含む。また、操作部材390は、レンズ鏡筒の外周に設けられたフォーカスリングを含む。フォーカスリングは、フォーカスレンズ290を移動させるためにユーザにより回転操作される部材である。
 表示モニタ350は、CCD250で生成した画像データが示す画像(スルー画像)や、メモリカード270から読み出した画像データが示す画像を表示可能である。また、表示モニタ350は、デジタルカメラ130の各種設定を行うための各種メニュー画面等も表示可能である。表示モニタ350は、液晶表示デバイスや有機EL(Electro Luminescence)表示デバイスで構成される。
 [1-2.動作]
 以上のように構成された映像システム装置100について、その動作を以下説明する。映像システム装置100は、デジタルカメラ130の位置情報の取得、撮影画像の取得およびデジタルカメラ130の位置情報に基づく撮影画像ファイル名の生成の各動作を行う。以下、それぞれの動作について詳細に説明する。
 [1-2-1.デジタルカメラ130位置情報の取得]
 図5は、実施の形態1における映像システム装置100の構成を示す上面俯瞰図である。HUB11、HUB12、HUB13は同一の4ポートUSBハブであるHUB1に接続され、HUB21、HUB22、HUB23は同一の4ポートUSBハブであるHUB2に接続される。HUB11~HUB13及びHUB21~HUB23は、上面から見た場合に、同心円状に等間隔に配置される。フレーム150が設置される空間の正面扉400は、開閉する際にHUB11とHUB23に邪魔にならないように配置される。
 図6は、実施の形態1におけるデジタルカメラ130がどのUSBハブ120に取り付けられているかを示す図である。図6に示すように、デジタルカメラ130の物理的な位置とアドレス情報(USBハブ120の階層情報及びポート番号情報)とを対応させることで、デジタルカメラ130の位置情報をマトリックスとして表すことができる。なお、図1Aでは、10ポートUSBハブであるHUB11~HUB13及びHUB21~HUB23にそれぞれデジタルカメラ130を3台ずつ設置させたが、図6では、10ポートUSBハブであるHUB11~HUB13及びHUB21~HUB23にそれぞれデジタルカメラ130を6台ずつ設置させた際の各デジタルカメラ130の位置とアドレス情報との関係を表す。図6の横軸は、デジタルカメラ130がHUB11~HUB13及びHUB21~HUB23のどのハブに取り付けられているかを示している。たとえば図6の横軸の「1-1」はHUB11に対応し、「1-2」はHUB12、「1-3」はHUB13に対応する。横軸の「2-1」、「2-2」、「2-3」はそれぞれHUB21、HUB22、HUB23に対応する。図6の縦軸は、デジタルカメラ130がHUB11~HUB13及びHUB21~HUB23のどのポートに取り付けられているかを示している。尚、HUB11~HUB13及びHUB21~HUB23のポートには、それぞれ200、300、100、420、430、410・・・の10個の番号が振られている。
 図7は、実施の形態1における各々のデジタルカメラ130が撮影する映像(撮影画像)のファイル名を説明するための図である。尚、図7は、図6と同様にHUB11~HUB13及びHUB21~HUB23にそれぞれデジタルカメラ130を6台ずつ設置した際の、各デジタルカメラ130の撮影画像のファイル名に含まれる数字を示している。図7に示す数字から、各デジタルカメラ130が接続されているUSBハブ120の階層情報およびポート番号情報が特定できる。たとえば撮影画像のファイル名に「11200」が含まれる場合、10ポートUSBハブであるHUB11のポート「200」に接続されたデジタルカメラ130の撮影画像であることが特定できる。つまり各々のデジタルカメラ130から送信される撮影画像に、USBハブ120のアドレス情報を示すファイル名を付与しホストPC110に保存する。これによりオペレータ170は、ホストPC110に保存された撮影画像がどのデジタルカメラ130から送信された撮影画像かがわかる。
 図8は、実施の形態1におけるデジタルカメラ130の物理的な位置と取得した撮影画像の一覧を示す模式図である。ホストPC110は、デジタルカメラ130から撮影画像を取得する際、USBハブ120のアドレス情報を示すファイル名に基づいてデジタルカメラ130の物理的な位置を特定し、図8に示すような、各撮影画像がタイル上に配置された画像(以下タイル画像という)を新たに生成する。なお、各タイルは、デジタルカメラ130の物理的な位置に対応して配置されている。オペレータ170は、タブレット端末190のWebブラウザを通じて、生成したタイル画像を確認することが出来る。仮に特定のデジタルカメラ130が撮影或いは画像取得に失敗した場合、対応するデジタルカメラ130の撮影画像の欄を×印の画像へ差し替え、さらに対応するファイル名のテキストファイルを作成する。そのため、オペレータ170は生成されたタイル画像を確認するか、もしくは取得した撮影画像が保存されているWebサーバ内のフォルダを確認するだけで、どのデジタルカメラ130の画像が取得できていないか容易に特定することができる。また、そのテキストファイルには、デジタルカメラ130のエラーログが記載されている。つまり、テキストエディタ等でテキストファイルを開くと、デジタルカメラ130においてどのようなエラーが発生しているかを確認することが出来る。
 図9は、実施の形態1における映像システム装置100の動作を説明するためのフローチャートである。
 オペレータ170は、被写体200が映像システム装置100の中央に位置しているか否かを確認する(S100)。
 被写体200が中央に位置していない場合(S100でNo)、被写体200が中央に位置するように調整を行い、再度確認を行う。たとえばオペレータ170は、被写体200に対し、スピーカ180を介して中央に位置するように指示をしてもよい。
 被写体200が中央に位置している場合(S100でYes)、タブレット端末190は、オペレータ170がタブレット端末190を操作して撮影実施の指示をホストPC110に対して行ったか否かを確認する(S110)。
 タブレット端末190は、オペレータ170がタブレット端末190を操作して、撮影実施の指示をホストPC110に対して行っていないと判断した場合(S110でNo)、撮影指示があるまで待機する。
 タブレット端末190は、オペレータ170がタブレット端末190を操作して、撮影実施の指示をホストPC110に対して行っていると判断した場合(S110でYes)、撮影実施の指示に基づき、すべてのデジタルカメラ130にシャッター操作信号を送信する。シャッター操作信号を受信したすべてのデジタルカメラ130は、一斉に被写体200を同時に撮影する(S120)。撮影は続けて複数回実施されることも可能である。
 ホストPC110に接続されたデジタルカメラ130の数が多い場合、すべてのデジタルカメラ130の撮影画像を取得するには時間がかかる。そのため、はじめにサンプルとして数台のデジタルカメラ130からのみ撮影画像の受信を開始する(S130)。このようにすることにより、多数のデジタルカメラ130を備える映像システム装置100であっても、迅速に3Dモデルデータを作成するための撮影画像を決定することが出来る。
 ホストPC110は、各々のデジタルカメラ130から撮影画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名を生成し、そのファイル名を対応する撮影画像に付与して撮影画像を保存する(S140)。
 撮影回数が複数の場合は、初回の撮影タイミングでの撮影画像で3Dモデルデータを作成してもよいか否かを確認する。(S150)。別の撮影タイミングでの撮影画像が好ましい場合、再度サンプルとして数台のデジタルカメラ130のみから別の撮影タイミング(例えば2回目の撮影タイミング)での撮影画像を取得する(S150でYes)。
 ステップS150で、別の撮影タイミングの撮影画像を取得する必要はないと判断した場合(ステップS150でNo)、どのタイミングの撮影画像を用いるかが決定される(S160)。そして、サンプル以外の他のすべてのデジタルカメラ130から、決定されたタイミングの撮影画像を取得する(S170)。
 ホストPC110は、各々のデジタルカメラ130から撮影画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名を生成し、そのファイル名を対応する撮影画像に付与して撮影画像を保存する(S180)。
 すべてのデジタルカメラ130から撮影画像を取得し終えた後、異常なデジタルカメラ130があるか否かを特定する(S190)。
 次に、ステップS190で異常なデジタルカメラ130が特定されたか否かを確認する(S200)。
 ステップS190で異常なデジタルカメラ130が特定された場合(S200でYes)は、オペレータ170に対してどのデジタルカメラ130で異常が発生しているかを報知する(S210)。例えば実施の形態1では、異常なデジタルカメラ130の近傍にあるランプ140を点灯させることにより、オペレータ170に報知する。
 ステップS190で異常なデジタルカメラ130が特定されなかった場合(S200でNo)は、そのまま終了する。
 図10は、実施の形態1におけるファイル名を生成する動作を説明するためのフローチャートである。ファイル名の生成処理について、図10を参照して詳細説明する。図10は、図9のファイル名の生成処理(S140、S180)の詳細な処理フローを示すフローチャートである。
 ホストPC110は、ホストPC110にUSB接続された全デバイスを1つずつ探索する(S300)。
 そしてホストPC110は、図6に示すようにデジタルカメラ130が接続されているUSBハブ120の階層情報を取得する(S310)。
 取得した階層情報に基づいてUSBハブ120のポート番号を取得して保持する(S320)。
 次に接続されているデジタルカメラであるか否かを確認する(S330)。デバイスがデジタルカメラ130でない場合は(S330でNo)、ステップ(S300)に戻る。
 デバイスがデジタルカメラ130である場合は(S330でYes)、取得したUSBハブ120の階層情報及びポート番号情報に基づいてファイル名を生成する(S340)。例えば生成されるファイル名に番号「12200」が含まれる場合、上2桁の番号「12」は、デジタルカメラ130が、ホストPC110のUSBコネクタ220に接続され、4ポートUSBハブのHUB1の2番目のコネクタを介して10ポートUSBハブのHUB12に接続されていることを示す。また下3桁の番号「200」は、デジタルカメラ130が、ポート番号「200」のコネクタ(図6参照)に接続されていることを示す。
 ホストPC110は、すべてのデバイスの探索が完了しているか否かを判定し(S350)、完了していない場合(S350でNo)はステップS300に戻る。完了している場合(S350でYes)は終了する。
 図11は、実施の形態1における動作異常カメラを特定する動作を説明するためのフローチャートである。異常なデジタルカメラ130の特定処理について、図11を参照して詳細説明する。図11は、図9の異常カメラの特定(S190)の詳細な処理フローを示すフローチャートである。
 ホストPC110は、取得した撮像画像のファイル名と全てのデジタルカメラ130の位置情報とを照合する(S400)。そして受信できていない撮影画像があるか否かを確認する(S410)。つまり、ホストPC110は、保存しているどの撮影画像のファイル名にも特定のデジタルカメラ130の位置情報に基づくファイル名が無い場合、特定のデジタルカメラ130から撮影画像を受信できていないと判断する取得できていないデジタルカメラ130からの画像ファイルがあるか否かを確認する(S410でYes)。
 取得できていない撮影画像がある場合(S410でYes)は、その撮影画像がどのデジタルカメラ130の撮影画像であるかを特定する。つまりどのデジタルカメラ130において異常が発生しているかを特定する(S420)。そして特定したデジタルカメラ130の物理的な位置を、特定したデジタルカメラ130のアドレス情報に基づいて識別し、記録する(S430)。取得できていない撮影画像がない場合(S410でNo)は、異常なデジタルカメラ130がないことを記録しそのまま終了する。
 [1-3.効果等]
 以上のように、実施の形態1の映像システム装置100は、互いに異なる方向から特定の被写体200を撮影する複数のデジタルカメラ130と複数のデジタルカメラ130が撮影するタイミングを制御する撮影信号を複数のデジタルカメラ130に与える撮影信号送信部(タブレット端末190)と、複数のデジタルカメラ130のそれぞれの物理的な位置を示す位置情報を取得し、複数のデジタルカメラ130のそれぞれから映像を受信した場合に、対応する位置情報に基づくファイル名で映像を保存するホストPC110と、を備える。
 つまりホストPC110は、複数のデジタルカメラ130で撮影した画像を取得する際、各々のデジタルカメラ130の位置情報に基づいたファイル名で保存する。そのため、撮影画像とデジタルカメラ130の対応関係を容易に特定可能なため、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
 また実施の形態1では、複数のデジタルカメラ130により、映像システム装置100の鉛直方向に円弧状に配置された複数の映像ユニットが構成され、複数の映像ユニットには、それぞれ複数のデジタルカメラ130が鉛直方向に配置されている。
 これにより各デジタルカメラ130の物理的な位置と各デジタルカメラ130のアドレス情報とを容易に対応付けることができる。また各デジタルカメラがマトリックス状に配置され、被写体200を多方向から撮影できる。
 また実施の形態1では、複数のデジタルカメラ130にそれぞれ接続された複数の接続ポートをさらに備え、位置情報は、上記複数の接続ポートのそれぞれのアドレス情報と対応する。
 これによりホストPC110は、複数のデジタルカメラ130で撮影した画像を取得する際、各々のデジタルカメラ130の位置情報に基づいて、位置情報に対応するアドレス情報を示すファイル名を生成し、画像に付与できる。
 また実施の形態1では、報知部としてランプ140を備える。ランプ140は、複数のデジタルカメラ130のそれぞれの物理的な位置をオペレータに報知可能である。ランプ140は、ホストPC110が保存しているどの映像のファイル名にも複数のデジタルカメラ130のうちの特定のデジタルカメラ130の位置情報に基づくファイル名が無い場合、特定のデジタルカメラ130の物理的な位置を報知する。
 これによりオペレータ170は、異常なデジタルカメラ130を容易に特定できる。
 (実施の形態2)
 以下、図12を用いて、実施の形態2を説明する。
 [2-1.構成]
 図12は、実施の形態2における映像システム装置100の構成を示す模式図である。実施の形態2では、同一水平面上のデジタルカメラ130を一つの映像ユニットとしてグループ化する。実施の形態2の映像システム装置は、3つの映像ユニットで構成されている。各映像ユニットは、それぞれ10ポートUSBハブであるHUB31~HUB33に一つずつ接続されている。
 [2-2.動作]
 実施の形態1と同様に、実施の形態2の映像システム装置100では、デジタルカメラ130の位置情報に基づいてデジタルカメラ130の撮影画像のファイル名が生成される。つまりファイル名は、その撮影画像を撮影したデジタルカメラ130のアドレス情報(階層情報とポート番号情報)を示す。ホストPC110は、取得した撮影画像のファイル名とデジタルカメラの位置情報(アドレス情報)とを照合する。そしてホストPC110は、取得できない撮影画像があると判断すれば、そのファイル名から対応するデジタルカメラ130を特定する。特定したデジタルカメラ130に異常があると判断すれば報知する。
 [2-3.効果等]
 以上のように、実施の形態2の映像システム装置100も、実施の形態1と同様に、複数のデジタルカメラ130と撮影信号送信部となるタブレット端末(190)と、デジタルカメラ130の位置情報を取得し、位置情報に基づくファイル名で撮影画像を保存するホストPC110と、を備える。
 これにより、撮影画像とデジタルカメラ130の対応関係を容易に特定可能なため、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
 また実施の形態2では、複数のデジタルカメラ130は、同一水平面上に存在する一部のデジタルカメラ130毎にグループ化されている。したがって、撮影画像とデジタルカメラ130の対応関係を容易に特定可能になり、どのデジタルカメラ130において不具合が発生しているのか特定することが容易になる。
 尚、図12では、1台のホストPC110のUSBコネクタ220、230を使用して2階層構造でデジタルカメラ130を接続したがそれに限るものではなく、複数のホストPC110を用いてもよい。
 (他の実施の形態)
 上記実施の形態では、デジタルカメラ130の物理的な位置を示す位置情報を、USBハブのアドレス情報(階層情報及びポート番号情報)と対応させたが、例えば位置情報を、GPS(Global Positioning System)情報と対応させてもよい。つまり各々のデジタルカメラ130はGPS受信機を備え、撮影画像のデータにGPS情報を付与する。ホストPC110は、予め各々のデジタルカメラ130の位置情報を取得し、位置情報とGPS情報とを紐付けできる。したがって、デジタルカメラ130から撮影画像を取得する際に、撮影画像に含まれるGPS情報からデジタルカメラ130の物理的な位置を特定できる。これにより、さらにデジタルカメラ130の特定が容易になる。またホストPC110は、GPS情報を示すファイル名を生成し、撮影画像に付与して保存してもよい。これにより、画像を送信できていないデジタルカメラ130がある場合、容易に特定できる。
 また上記実施の形態では異常なデジタルカメラ130があった場合、ランプ140によりオペレータ170に報知を行う例を挙げたが、この報知の前にUSBハブ120のリセット動作を行い、デジタルカメラ130と再接続を行っても良い。
 また上記実施の形態では、ランプ140を報知部として用いたが、報知部はランプ140に限られない。例えば報知部はレーザポインタなどの一つの光源であってもよい。この光源は、対象となるデジタルカメラ130に光線を照射することで、オペレータ170に報知する。またホストPC110やタブレット端末190自体が報知部として機能し、ホストPC110あるいはタブレット端末190に備わる表示モニタに、対象となるデジタルカメラ130を報知できるように表示してもよい。さらに報知部はスピーカであり、デジタルカメラの物理的な位置を音声で報知してもよい。報知部としてのスピーカは、図1Aに示すスピーカ180と共通であってもよく、別個に設けられてもよい。
 また上記実施の形態では、タブレット端末190の通信部が撮影信号送信部として機能し、複数のデジタルカメラ130が撮影するタイミングを制御する撮影信号(シャッター操作信号)を出力する構成を説明したが、撮影信号送信部はタブレット端末190の通信部に限られない。撮影信号送信部をホストPC110の通信部や、ホストPC110あるいはデジタルカメラ130と接続可能な他の端末の通信部とし、他の端末やホストPC110の通信部から撮影信号を出力して各デジタルカメラ130の撮影タイミングを操作してもよい。あるいは撮影信号送信部を各デジタルカメラ130に外付けされたシャッター装置としてもよい。つまりオペレータ170が直接、各デジタルカメラ130のシャッター装置を操作して、各デジタルカメラ130の撮影タイミングを操作してもよい。
 また上記実施の形態では、ホストとしてホストPC110を用いたが、ホスト自体が携帯可能なタブレット端末であってもよい。
 また上記実施の形態では、オペレータ170はタブレット端末190を用いてホストPC110を操作したが、ホストPC110を直接オペレータ170が操作できるようにしてもよい。
 また上記実施の形態では、タブレット端末190として携帯型の板状コンピュータを想定して説明したが、いわゆるノートPCでも代用できる。
 また上記実施の形態では、撮像部としてデジタルカメラを例に挙げたが、デジタルカメラに限定されるものではない。撮像部としては、撮像機能を有していれば、カメラ付きのスマートフォンやタブレット端末などのカメラ機能以外を有する撮影装置も含む。
 以上のように、本出願において開示する技術の例示として、実施の形態1および実施の形態2を説明した。しかしながら、本開示における技術は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、上記実施の形態1~実施の形態2で説明した構成要素を組み合わせて、新たな実施の形態とすることも可能である。
 なお、上述の実施の形態は、本開示における技術を例示するためのものであるから、請求の範囲またはその均等の範囲において種々の変更、置き換え、付加、省略などを行うことができる。
 本開示は、デジタルカメラを複数用いて特定の被写体を撮影する装置に適用可能である。具体的には、デジタルカメラを複数用いて3Dモデリングに有用なデータを生成するシステムなどに、本開示は適用可能である。
 100 映像システム装置
 110 ホストPC(ホスト)
 120 USBハブ
 130 デジタルカメラ(撮像部)
 140 ランプ
 150 フレーム
 160 ストロボ
 170 オペレータ
 180 スピーカ
 190 タブレット端末
 191 操作部
 192 通信部(撮影信号送信部)
 193 コントローラ
 194 表示モニタ
 200 被写体
 210 無線ルーター
 220,230 USBコネクタ

Claims (4)

  1.  互いに異なる方向から特定の被写体を撮影する複数の撮像部と、
     前記複数の撮像部が撮影するタイミングを制御する撮影信号を前記複数の撮像部に与える撮影信号送信部と、
     前記複数の撮像部のそれぞれの物理的な位置を示す位置情報を取得し、前記複数の撮像部のそれぞれから映像を受信した場合に、対応する前記位置情報に基づくファイル名で前記映像を保存するホストと、
    を備える映像システム装置。
  2.  前記複数の撮像部により、前記映像システム装置の鉛直方向に円弧状に配置された複数の映像ユニットが構成され、
     前記複数の映像ユニットには、それぞれ前記複数の撮像部が一部ずつ前記軸に平行に配置されている、請求項1に記載の映像システム装置。
  3.  前記複数の撮像部にそれぞれ接続された複数の接続ポートをさらに備え、
     前記位置情報は、前記複数の接続ポートのそれぞれのアドレス情報と対応する、請求項2に記載の映像システム装置。
  4.  前記複数の撮像部のそれぞれの前記位置をオペレータに報知可能であり、前記ホストが保存しているどの前記映像の前記ファイル名にも前記複数の撮像部のうちの特定の撮像部の前記位置情報に基づく前記ファイル名が無い場合、前記特定の撮像部の前記位置を報知する報知部をさらに備える、請求項3に記載の映像システム装置。
PCT/JP2017/017446 2016-07-28 2017-05-09 映像システム装置 WO2018020769A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017560621A JPWO2018020769A1 (ja) 2016-07-28 2017-05-09 映像システム装置
US15/865,604 US10264172B2 (en) 2016-07-28 2018-01-09 Image system device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-148143 2016-07-28
JP2016148143 2016-07-28

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/865,604 Continuation US10264172B2 (en) 2016-07-28 2018-01-09 Image system device

Publications (1)

Publication Number Publication Date
WO2018020769A1 true WO2018020769A1 (ja) 2018-02-01

Family

ID=61015926

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/017446 WO2018020769A1 (ja) 2016-07-28 2017-05-09 映像システム装置

Country Status (3)

Country Link
US (1) US10264172B2 (ja)
JP (1) JPWO2018020769A1 (ja)
WO (1) WO2018020769A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125743A (ja) * 2020-02-03 2021-08-30 キヤノン株式会社 通信装置、通信装置の制御方法、及びプログラム

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3706411A1 (en) * 2019-03-05 2020-09-09 Carrier Corporation Early video equipment failure detection system

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173152A (ja) * 2002-11-22 2004-06-17 Sony Corp モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2014216774A (ja) * 2013-04-24 2014-11-17 株式会社バッファロー 情報処理装置、画像表示システム、画像表示方法及びプログラム
JP2015179377A (ja) * 2014-03-19 2015-10-08 大日本印刷株式会社 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム
JP2015186145A (ja) * 2014-03-25 2015-10-22 大日本印刷株式会社 画像印刷装置、画像印刷方法、プログラム、および画像印刷システム
JP2016082327A (ja) * 2014-10-14 2016-05-16 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002007307A (ja) 2000-06-23 2002-01-11 Fuji Photo Film Co Ltd 機器制御装置及び方法
US7823058B2 (en) * 2002-12-30 2010-10-26 The Board Of Trustees Of The Leland Stanford Junior University Methods and apparatus for interactive point-of-view authoring of digital video content
JP5571944B2 (ja) * 2009-01-16 2014-08-13 キヤノン株式会社 撮影装置およびその制御方法、並びにプログラム
US8825598B2 (en) * 2010-06-16 2014-09-02 Apple Inc. Media file synchronization
US20150306824A1 (en) * 2014-04-25 2015-10-29 Rememborines Inc. System, apparatus and method, for producing a three dimensional printed figurine

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004173152A (ja) * 2002-11-22 2004-06-17 Sony Corp モニタリングシステムおよび方法並びにプログラムおよび記録媒体
JP2014216774A (ja) * 2013-04-24 2014-11-17 株式会社バッファロー 情報処理装置、画像表示システム、画像表示方法及びプログラム
JP2015179377A (ja) * 2014-03-19 2015-10-08 大日本印刷株式会社 撮影画像編集装置、撮影画像編集方法、プログラム、および撮影画像編集システム
JP2015186145A (ja) * 2014-03-25 2015-10-22 大日本印刷株式会社 画像印刷装置、画像印刷方法、プログラム、および画像印刷システム
JP2016082327A (ja) * 2014-10-14 2016-05-16 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021125743A (ja) * 2020-02-03 2021-08-30 キヤノン株式会社 通信装置、通信装置の制御方法、及びプログラム
JP7483394B2 (ja) 2020-02-03 2024-05-15 キヤノン株式会社 通信装置、通信装置の制御方法、及びプログラム

Also Published As

Publication number Publication date
US20180131857A1 (en) 2018-05-10
JPWO2018020769A1 (ja) 2019-05-09
US10264172B2 (en) 2019-04-16

Similar Documents

Publication Publication Date Title
US9426379B2 (en) Photographing unit, cooperative photographing method, and recording medium having recorded program
TWI530182B (zh) 超廣角影像之處理系統與方法
US10237495B2 (en) Image processing apparatus, image processing method and storage medium
JP2015115839A5 (ja)
JP2015186021A (ja) 撮影機器、撮像観察機器、画像比較表示方法、画像比較表示プログラム及び画像比較表示システム
JP2011048674A (ja) 検査支援システム、助言者端末、検査支援方法および検査支援プログラム
WO2020107320A1 (zh) 相机标定方法、装置、设备及存储介质
WO2018020769A1 (ja) 映像システム装置
US8692879B2 (en) Image capturing system, image capturing device, information processing device, and image capturing method
Yu et al. Development of a Dundee Ground Truth imaging protocol for recording indoor crime scenes to facilitate virtual reality reconstruction
JP2017163301A (ja) 撮像装置
JP2020022036A (ja) 表示制御装置、表示制御方法、およびプログラム
JP6394958B2 (ja) 通信装置及び通信方法
CN114697570B (zh) 用于显示图像的方法、电子设备及芯片
JP7416231B2 (ja) 設置支援装置、設置支援方法、およびプログラム
JP2019029888A (ja) 撮像装置、情報処理方法及びプログラム
JP2015159460A (ja) 投影システム、投影装置、撮影装置、ガイド枠生成方法及びプログラム
JP2015106860A (ja) 監視撮影システム及びプログラム
KR20170000143U (ko) 영상장치
JP5137665B2 (ja) ディジタルカメラ装置及びディジタルカメラシステム
JP2009055094A (ja) 映像システム
JP2024098038A (ja) プログラム、記録媒体および情報処理装置
JP2022030485A (ja) カメラ装置
JP4507665B2 (ja) 電話機位置情報の登録方法
JP2024065683A (ja) 撮像装置、撮像装置の制御方法、プログラム

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017560621

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17833780

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17833780

Country of ref document: EP

Kind code of ref document: A1