WO2018008119A1 - 携帯情報端末装置およびそのシステム - Google Patents

携帯情報端末装置およびそのシステム Download PDF

Info

Publication number
WO2018008119A1
WO2018008119A1 PCT/JP2016/070078 JP2016070078W WO2018008119A1 WO 2018008119 A1 WO2018008119 A1 WO 2018008119A1 JP 2016070078 W JP2016070078 W JP 2016070078W WO 2018008119 A1 WO2018008119 A1 WO 2018008119A1
Authority
WO
WIPO (PCT)
Prior art keywords
information terminal
terminal device
portable information
mobile terminal
shooting
Prior art date
Application number
PCT/JP2016/070078
Other languages
English (en)
French (fr)
Inventor
清水 宏
橋本 康宣
吉澤 和彦
Original Assignee
マクセル株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by マクセル株式会社 filed Critical マクセル株式会社
Priority to PCT/JP2016/070078 priority Critical patent/WO2018008119A1/ja
Publication of WO2018008119A1 publication Critical patent/WO2018008119A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/38Releasing-devices separate from shutter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof

Definitions

  • the present invention relates to a portable information terminal device and a system thereof.
  • a digital camera that obtains a two-dimensional captured image by projecting an image of an object through a lens onto a camera sensor, which is an assembly of multiple pixels composed of semiconductors, and measuring the amount of light emitted for each pixel.
  • Cameras of the type and portable information terminal devices equipped with cameras have become widespread.
  • Japanese Patent Application Laid-Open Publication No. 2003-259542 discloses a technique for acquiring photographs of a person who has taken various poses from various angles by fixing a plurality of such cameras and photographing the same subject such as a person from a plurality of directions. 1 is disclosed.
  • panoramic photography was prevalent in the era of film cameras, especially in Europe and the United States around 1900, and the normal shooting range on film (for example, the general shooting size of 35 mm wide 135 film is 36 mm wide ⁇ 24 mm long)
  • the No. 4 Panoram Kodak camera sold at Eastman Kodak in 1899, using the lateral length of the roll film.
  • Patent Documents 2 to 4 disclose techniques for controlling an exposure amount so that a natural image quality is obtained before and after joining.
  • Patent Document 1 In an event such as a wedding, there is an opportunity to photograph the same subject with a plurality of digital cameras, but the technology for linking these cameras with different photographers is not disclosed in Patent Document 1.
  • Patent Document 1 In addition, there are opportunities to take panoramic pictures of landscapes at events such as trekking, but some digital cameras use CMOS sensors without using mechanical shutters. When such a camera is shaken, rolling shutter distortion occurs due to different shutter timings of the pixels constituting the sensor.
  • Patent Documents 2 to 4 Although there are opportunities to shoot landscapes with a plurality of cameras, techniques for linking these cameras with different photographers are not disclosed in Patent Documents 2 to 4.
  • the present invention has been made in view of the above problems, and an object thereof is to photograph a plurality of camera-equipped mobile information terminal devices in cooperation with each other.
  • a plurality of camera-equipped mobile information terminal devices can be photographed in cooperation.
  • FIG. 6 is a diagram illustrating an example of the operation of the mobile terminal according to the first embodiment.
  • FIG. 6 is a diagram illustrating a first example of shooting timing according to the first embodiment.
  • 3 is a block diagram illustrating an example of a mobile terminal according to Embodiment 1.
  • FIG. 6 is a diagram illustrating a first example of a shooting instruction signal according to the first embodiment.
  • FIG. 6 is a diagram illustrating a second example of the shooting instruction signal according to the first embodiment.
  • FIG. 6 is a diagram illustrating a second example of imaging timing according to the first exemplary embodiment. It is a figure which shows the example which synchronizes the internal time of each portable terminal of Example 1.
  • FIG. It is a figure which shows the example which increased the portable terminal of Example 1.
  • FIG. 6 is a diagram illustrating an example of shooting timing according to the second embodiment.
  • FIG. 10 is a diagram illustrating an example of the operation of the mobile terminal according to the third embodiment. It is a figure which shows the example of the screen display of the portable terminal of Example 3.
  • FIG. It is a figure which shows the example of the authentication operation
  • FIG. It is a figure which shows the example of the event guidance mail of Example 4.
  • FIG. It is a figure which shows the example of the operation display of participation of Example 4.
  • FIG. It is a figure which shows the example of the request
  • FIG. 10 is a diagram illustrating an example of joint shooting operation of the mobile terminal according to the sixth embodiment.
  • FIG. 10 is a diagram illustrating an example of joint shooting operation of the mobile terminal according to the sixth embodiment.
  • FIG. 10 is a diagram illustrating an example of a group of mobile terminals according to a seventh embodiment.
  • FIG. 10 is a diagram illustrating an example of a grouping operation of mobile terminals according to a seventh embodiment.
  • FIG. 10 is a diagram illustrating an example of a shooting operation after grouping mobile terminals according to a seventh embodiment.
  • FIG. 20 is a diagram illustrating an example of a code generated from an event guide mail according to an eighth embodiment.
  • FIG. 10 is a diagram illustrating an example of a grouping operation including authentication of mobile terminals according to an eighth embodiment. It is a figure which shows the example of the processing flow of the camera application of the portable terminal of Example 9.
  • FIG. FIG. 15 is a diagram illustrating an example of the operation of the mobile terminal according to the tenth embodiment.
  • FIG. 10 is a diagram illustrating an example of a panoramic photograph at the time of synthesis in Example 10. It is a figure which shows the example of the 1st screen display of the portable terminal of Example 10. FIG. It is a figure which shows the example of the 2nd screen display of the portable terminal of Example 10. FIG. It is a figure which shows the example of the 3rd screen display of the portable terminal of Example 10. FIG. It is a figure which shows the example of the 4th screen display of the portable terminal of Example 10.
  • FIG. 10 is a diagram illustrating an example of a panoramic photograph at the time of synthesis in Example 10. It is a figure which shows the example of the 1st screen display of the portable terminal of Example 10. FIG. It is a figure which shows the example of the 2nd screen display of the portable terminal of Example 10. FIG. It is a figure which shows the example of the 3rd screen display of the portable terminal of Example 10. FIG. It is a figure which shows the example of the 4th screen display of the portable terminal of Example 10.
  • FIG. 10 is a diagram
  • FIG. 1 is a diagram illustrating an example of the operation of the camera-equipped portable information terminal device according to the first embodiment.
  • a subject is taken as a person and a person as a subject is photographed using a plurality of camera-equipped mobile information terminal devices (hereinafter referred to as mobile terminals) is shown.
  • the portable terminal (1000) has a photographing optical axis (1031) and photographs the subject (1030) from the front.
  • the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) take an image of the subject (1030) from an angle different from that of the mobile terminal (1000).
  • each of the mobile terminal (1000), the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) is equipped with a communication function in addition to the camera function. It is a device having. Each of these devices has an owner, and a total of four users are involved in this shooting, except for the subject (1030). Figure 1 shows that each user has these devices in place. It is in a state of holding.
  • Each of the mobile terminal (1000), the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) has a wireless communication function such as a general wireless LAN or Bluetooth (registered trademark). And can communicate with each other. Using this wireless communication, the mobile terminal (1000) communicates with the mobile terminal A (1020) (1010), communicates with the mobile terminal C (1022) (1012), and the mobile terminal B (1021) Then, communication (1011) is performed via the mobile terminal A (1020).
  • a wireless communication function such as a general wireless LAN or Bluetooth (registered trademark).
  • the portable terminal (1000) transmits a photographing instruction signal to the portable terminal A (1020), the portable terminal B (1021), and the portable terminal C (1022), and the portable terminal A (1020)
  • the mobile terminal B (1021) and the mobile terminal C (1022) take an image of the subject (1030) with each camera.
  • each of the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) may transmit the captured image data to the mobile terminal (1000).
  • FIG. 2 is a diagram illustrating a first example of shooting timing according to the first embodiment.
  • Shooting is started when the portable terminal (1000) detects that a shutter button (not shown in FIG. 1) of the portable terminal (1000) is pressed at time t1 (2051).
  • the portable terminal (1000) transmits a photographing instruction signal by communication (1010) and communication (1012) during a period from time t2 (2052) to time t3 (2053).
  • the portable terminal A (1020) transfers a photographing instruction signal to the portable terminal B (1021) by communication (1011).
  • Mobile terminal A (1020), mobile terminal B (1021), and mobile terminal C (1022) perform shooting according to the received shooting instruction.
  • the mobile terminal (1000) captures a moving image
  • the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) can also capture a moving image. is there.
  • the mobile terminal (1000) is configured so that shooting of a moving image is started from time t4 (2054) at which exposure in FIG. 2 is started, and shooting of moving images is ended at time t5 (2055), which is the end of exposure.
  • the mobile terminal (1000), the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) take a moving image in the same time zone of the exposure time (2010).
  • FIG. 3 is a block diagram illustrating an example of the mobile terminal according to the first embodiment.
  • Each of the portable terminal (1000), portable terminal A (1020), portable terminal B (1021), and portable terminal C (1022) shown in FIG. 1 has the same structure as the portable terminal (3190) shown in FIG. Also good.
  • the mobile terminal (3190) may have a computer structure, for example.
  • the CPU (3000) is a central information processing apparatus, and various types of hardware are connected to the bus (3001).
  • Various hardware performs signal processing of the shutter button (3010) pressed when shooting with the camera, the camera sensor (3020) that converts the optical image collected by the lens (not shown) into an electrical signal, and the camera sensor (3020)
  • a signal processing DSP (3030) There is a signal processing DSP (3030), and an encoder / decoder (3040) that performs compression processing on the video signal composed of RGB obtained by the signal processing DSP (3030) by discrete cosine transform or Huffman coding.
  • Encoder / decoder (3040) may perform not only still image but also moving image compression processing.
  • the signal processing DSP (3030) and the encoder / decoder (3040) are not only connected to the bus (3001), but also output signals from the camera sensor (3020) to the encoder / decoder via the signal processing DSP (3030).
  • the video signal may be sent to the decoder (3040). In this case, since the video signal having a large size does not pass through the bus (3001), the video signal does not occupy the bus (3001).
  • the GPS unit (3050) that acquires the current position of the mobile terminal (3190) by GPS (Global Positioning System), the camera sensor (3020), that is, the direction of the shooting optical axis (1031) is specified.
  • G sensor (3060) that measures the gravitational acceleration of the camera, measures the acceleration generated by the movement and change of direction of the camera sensor (3020), Bluetooth I / F (3070) that performs short-range wireless communication with external devices ),
  • Bluetooth I / F (3070) that performs short-range wireless communication with external devices
  • the current position may be acquired using a signal with a wireless communication base station that transmits and receives wireless LAN IF (3080).
  • Various hardware includes programs that control the entire mobile terminal (3190), flash memory (3090) that stores basic constants, work memory for program execution, and GPS satellite orbit information that is updated sequentially. (3102) and GPS location information (3101) are saved in SD-RAM (3100), a clock used to add time code to image information saved during shooting, and used to measure GPS location information (3110).
  • various types of hardware display image data received by the camera sensor (3020) and converted into electrical signals at the time of shooting, making it a finder, or image data stored in the external memory (3141) described later LCD with backlight (3120) to display the settings of mobile terminal (3190), measure geomagnetism, and measure the direction of mobile terminal (3190) with the absolute value of the directional coordinate system on the earth
  • a geomagnetic sensor 3130 there is a geomagnetic sensor 3130.
  • various hardware includes infrared I / F (3160) that communicates with other devices using infrared, and NFC I / F (3170) that communicates by non-contact touch using NFC (Near Field Communication).
  • An external memory I / F (3180) for communicating with the Internet etc. through a mobile communication system of a mobile phone, and an external memory I / F (3141) for connecting an external memory (3141) for storing captured and compressed image data ( 3140) and a general-purpose external device I / F (3150) for connecting to the cradle (3151) by wire.
  • the camera sensor (3020), the signal processing DSP (3030), the encoder / decoder (3040), and the lens (not shown) may be collectively referred to as a camera.
  • Data and programs may be transferred between the flash memory (3090) and the SD-RAM (3100), and group list, mail, and schedule data, which will be described later, are stored in the flash memory (3090) or SD-RAM ( 3100).
  • Camera applications (programs) to be described later may also be stored in the flash memory (3090) or the SD-RAM (3100), and there may be one or more camera applications.
  • FIG. 4 is a diagram illustrating a first example of the shooting instruction signal according to the first embodiment.
  • the format of the shooting instruction signal is configured with a set of Si (Smart Terminal ID i) indicating the time ti at which shooting is performed and the ID of the terminal that is the transmission destination of the shooting instruction signal, for example, i, j, k It consists of shooting instructions to a plurality of mobile terminals (3190) to be identified.
  • the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) identified by i, j, and k transmit this shooting instruction signal by communication (1010 to 1012).
  • FIG. 5 is a diagram illustrating a second example of the shooting instruction signal according to the first embodiment.
  • the format of the shooting instruction signal is composed of a set of a time ti at which shooting is performed, a Si indicating the ID of the terminal to which the shooting instruction signal is transmitted, and Op i (Operand i) indicating the specific contents of the instruction.
  • it is composed of photographing instructions to a plurality of portable terminals (3190) identified by i, j, and k.
  • the specific contents of Op i are composed of, for example, an instruction relating to photographing such as an exposure time including an end time described later in FIG. 6 and a value necessary for executing the instruction.
  • FIG. 6 is a diagram illustrating a second example of photographing timing according to the first embodiment.
  • Shooting is started when the portable terminal (1000) detects that the shutter button (3010) of the portable terminal (1000) is pressed at time t1 (5031).
  • the mobile terminal (1000) sets the information that the exposure time is between the time t3 (5033) and the time t4 (5034) to the mobile terminal A (1020), the mobile terminal B (1021), the mobile terminal A shooting instruction signal is transmitted to C (1022).
  • this shooting instruction signal Op i, Op j, Op k in addition to the shooting instruction, information indicating that the exposure time in shooting is between time t3 (5033) and time t4 (5034) is included as a value. Yes.
  • Each of the mobile terminal A (1020), the mobile terminal B (1021), the mobile terminal C (1022), and the mobile terminal (1000) that has received this shooting instruction signal is from time t3 (5033) to time t4 (5034).
  • shooting is performed with the same exposure time, and the brightness of the lens that is different in mobile terminal A (1020), mobile terminal B (1021), and mobile terminal C (1022) changes the sensitivity of each camera sensor (3020). It is corrected by. Accordingly, since a plurality of still images photographed at the same time are photographed at the same timing including the amount of blurring, it is possible to obtain photographed images in which the same subject is viewed from a plurality of directions at the same timing.
  • the pose of the person who is the subject (1030) is a pose taken in a very short time, for example, in a jumped state, at the moment when the pose is taken, a plurality of mobile terminals (1000), mobile terminals A (1020), Since the mobile device B (1021) and the mobile device C (1022) capture the subject (1030) from multiple directions, the pose for maintaining only a short time is fixed by arranging the captured images continuously. Thus, it is possible to observe the pose from various directions.
  • the clock (3110) of each mobile terminal (3190) has a mutual time error, the shutter opening of the mobile terminal (3190) that needs to be adjusted to the accuracy in the unit of 1/10 second to 1/100 second specifically. Since there may be an error in the time (exposure time) and the exposure time of the other mobile terminal (3190), there is a possibility that shooting at the same timing will not be performed correctly, so the clock of each mobile terminal (3190) (3110) must be synchronized correctly.
  • FIG. 7 is a diagram illustrating an example of synchronizing the internal time of each mobile terminal (3190) according to the first embodiment.
  • the portable terminal (3190) that outputs a shooting instruction signal is a portable terminal (6000) having a digital camera shape mainly for shooting, but has the same structure as the portable terminal (3190).
  • the mobile terminal A (6050) and the mobile terminal B (6060) also have the same structure as the mobile terminal (3190), although the external shape is different from that of the mobile terminal (6000).
  • the mobile terminal (6000) instructs the mobile terminal A (6050) and the mobile terminal B (6060) the time of shooting
  • the clocks (3110) of the terminals B (6060) need to match each other with sufficient accuracy.
  • highly accurate time adjustment used for a communication function such as a CDMA (Code Division Multiple Access) system of the telephone line I / F (3180) may be used.
  • the storage format of the position coordinates is defined in the attribute information standard (Exif: Exchangeable image ⁇ file ⁇ format), which can be used for organizing and browsing photos after shooting. There is a tendency to increase in the future.
  • GPS time signals are used to synchronize the time between cells (base stations) for mobile phone communication.
  • the GPS obtains the current position using the difference in radio wave propagation speed between a plurality of artificial satellites and the GPS position measuring device.
  • each satellite has a high-accuracy atomic clock, and the time information is also transmitted along with the GPS information radio wave transmitted.
  • the mobile terminal (6000) receives GPS information from GPS satellite A (6040), GPS satellite B (6041), and GPS satellite C (6042) by a GPS unit (6020) corresponding to the GPS unit (3050). Receive radio waves. By receiving information of at least three GPS satellites, two-dimensional position coordinates on the earth, and by receiving information of four or more GPS satellites, three-dimensional position coordinates can be calculated.
  • the mobile terminal (6000) calibrates the time of the clock (3110) in the mobile terminal (6000), and the shutter button (6030) corresponding to the shutter button (3010)
  • the current position coordinates at the time of pressing are calculated, added to the captured image data, and stored in an external memory (3141) or the like.
  • the mobile terminal A (6050) and the mobile terminal B (6060) are also operated by the same operation as the mobile terminal (6000), and GPS information radio waves from the GPS satellite A (6040), GPS satellite B (6041), and GPS satellite C (6042). And calibrates the clock (3110) in each of the portable terminal A (6050) and portable terminal B (6060) devices.
  • time information is provided with an accuracy of 0.1 ⁇ sec or less in order to specify position information with an error of 30 m.
  • the clock (3110) has sufficient accuracy for timing setting.
  • the mobile terminal (6000), the mobile terminal A (6050), and the mobile terminal B (6060) are close to each other, the same GPS satellite A (6040), GPS satellite B (6041), GPS satellite C (6042) ), The difference in propagation delay due to the reception of radio waves from different satellites is virtually eliminated.
  • the clock (3110) may be calibrated by a clock synchronized with the base station in CDMA communication. Further, when the CDMA communication is out of service area, the clock (3110) may be calibrated by NTP (Network Time Protocol) using a communication line such as WiFi (registered trademark). If these calibrations are not performed, the mobile device (6000), mobile device A (6050), and mobile device B (6060) communicate directly via wireless LAN, etc., and correct each other's clock (3110) error. Also good.
  • NTP Network Time Protocol
  • FIG. 8 is a diagram illustrating an example in which the number of mobile terminals according to the first embodiment is increased.
  • the relationship between the subject (8200), the portable terminal (8000) to be operated, and the portable terminals (8010 to 8100) surrounding the subject (8200) is as follows: the subject (1030) shown in FIG. 1, the portable terminal (1000), and The mobile terminals A (1020) to C (1022) are the same.
  • the subject (8200) is photographed by eleven mobile terminals (8000 to 8100), for example, the subject (8200) is photographed at an interval of about 35 degrees in the outer peripheral direction.
  • the pose of the person who is the subject (8200) is a pose taken in a very short time, for example, in a jumped state, more portable terminals (8000 to 8100) than the first embodiment at the moment when the pose is taken. )
  • Shoots the subject (8200) so it is useful to fix the pose that is maintained for a short time by observing the pose from many directions by arranging the captured images continuously .
  • a plurality of mobile terminals can shoot in cooperation with time.
  • FIG. 9 is a diagram illustrating an example of photographing timing according to the second embodiment.
  • the subject (1030), the mobile terminal (1000), the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) are as described with reference to FIG. This is the same as the portable terminal (3190) described with reference to FIG.
  • the example of the shooting timing shown in FIG. 9 is an alternative to the shooting timing shown in FIG. Note that many portable terminals (8000 to 8100) may be used as shown in FIG.
  • Shooting is started when the portable terminal (1000) detects that the shutter button (3010) of the portable terminal (1000) is pressed at time t1 (9051).
  • the portable terminal (1000) transmits a photographing instruction signal by communication (1010) and communication (1012) during a period from time t2 (9052) to time t3 (9053).
  • the portable terminal A (1020) transfers a photographing instruction signal to the portable terminal B (1021) by communication (1011).
  • the photographing instruction signal includes information on the time when exposure is started and photographing is performed in addition to the photographing instruction.
  • the terminal ID of the portable terminal A (1020) is Si
  • the time ti is time t5 (9055)
  • the terminal ID of the portable terminal B (1021) is Sj
  • time tj is time t6 (9056)
  • the terminal ID of portable terminal C (1022) is Sk
  • time tk is time t7 (9057).
  • Each of the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) that has received this shooting instruction signal is a time t4 (9054), a time t5 (9055), and a time t6 (time different from each other). 9056), shooting is performed at time t7 (9057).
  • the clock (3110) of the mobile terminal (1000), the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022) has no mutual time error, specifically 1 /
  • the time of the clock (3110) may be synchronized by the operation described with reference to FIG.
  • the time of each shooting of the mobile terminal (1000), the mobile terminal A (1020), the mobile terminal B (1021), and the mobile terminal C (1022), that is, the order of shooting is determined by the GPS unit (3050).
  • a continuous still image is acquired so that the photographer can shoot around the subject by setting the time to advance in accordance with the shooting time that differs for each mobile device, especially the order of the mobile devices surrounding the subject. I can do it.
  • displaying these continuous still images continuously on the time axis, that is, moving image display there is no need to change the position of each mobile terminal for moving images in which the subject is viewed while moving around the subject. Can be obtained.
  • FIG. 10A is a diagram illustrating an example of the operation of the mobile terminal according to the third embodiment.
  • the periphery of the subject (8200) is surrounded by portable terminals (8000 to 8070), and the subject (8200) is photographed.
  • the example of 8 portable terminals (8000 to 8070) is shown, it may be 7 or less, or 9 or more.
  • the portable terminal (8030), the portable terminal (8040) also appears in the captured image of the mobile terminal (8000). Further, although there are reflections in the captured images of the mobile terminals (8010 to 8070), they are not shown in FIG. 10A.
  • FIG. 10B is a diagram illustrating an example of display on the LCD (3120) with backlight of the portable terminal (8000) according to the third embodiment.
  • an eraser 100000 is displayed and described, but general image editing software has a function of erasing a part of a photographed image. Further, there is also a function of interpolating using the image data around the erased location so that the erased portion is not whitened, and filling the erased location where the whitened portion is missing.
  • the mobile terminal (8030), the mobile terminal (8040), and the mobile terminal (8050) of FIG. 10B reflected in the photographed image may be deleted as shown by the dotted line.
  • FIG. 10B only the subject (8200) may be displayed.
  • Information on the current location acquired by the GPS unit (3050) provided in the mobile terminal (8010 to 8070) to identify the mobile terminal (8030), mobile terminal (8040), and mobile terminal (8050) to be deleted Is received by the mobile terminal (8000), and the mobile terminal (8000) receives the current position information acquired by the GPS unit (3050) of the mobile terminal (8000) and the geomagnetic sensor (3130) and G sensor (3060).
  • the range of the view angle (8001) may be calculated from the information and the angle information of the view angle (8001), and may be specified from the relationship between the received current position information and the calculated range. Alternatively, positional information that is more precise than GPS, or information that is more precise than geomagnetism may be used.
  • the mobile terminal (8030), mobile terminal (8040), and mobile terminal (8050) that participated in the shooting were acquired to obtain the shape, compared to the shape of the mobile terminal that was captured in the captured image, the mobile terminal (8030), the mobile terminal (8040), and the mobile terminal (8050) may be specified.
  • the photographer of the portable terminal (8030), portable terminal (8040), and portable terminal (8050) may be recognized and the recognized photographer may be deleted.
  • FIG. 11 is a diagram illustrating an example of the authentication operation of the mobile terminal according to the fourth embodiment.
  • mobile terminals (10000 to 10020) are the same fellow mobile terminals at an event venue, for example, which perform shooting in synchronization with the shooting instruction signals already described in the first to third embodiments.
  • Others' mobile terminals (10030-10050) also exist and need to be distinguished.
  • the mobile terminal (10000) activates its camera function (camera application) or before that, the presence of a similar mobile terminal (10010 to 10020) in the vicinity is detected, for example, wirelessly.
  • Scans the SSID (Service Set ID) of the LAN authenticates whether or not joint shooting is possible for each SSID, and puts it into a state where it can be linked during shooting.
  • a reply signal (10011) is transmitted from the mobile terminal (10010), and the cooperative operation between the mobile terminal (10000) and the mobile terminal A (10010) is authenticated.
  • the portable terminal (10020) is authenticated.
  • a joint shooting request signal is sent to the authenticated portable terminal (10010) and portable terminal (10020). Since the mobile terminals (10030 to 10050) are not authenticated, it is possible to shoot independently of the mobile terminals (10030 to 10050).
  • authentication is performed when there is specific information in the mobile terminal (10000 to 10020) and there is matching information between the mobile terminals (10000 to 10020).
  • the matching information registered in the address book is inappropriate as basic information for authentication because it may be acquaintances but may participate in another event at a close position.
  • FIG. 12 is a diagram illustrating an example of an event guide mail according to the fourth embodiment. Also, as shown in FIG. 13, when it is detected that the “ATTEND” button has been pressed for the event guide email, the mobile terminal (10010 to 10020) replies to the organizer or the sender of the email, The event is registered in the schedule table of the mobile terminal (10010 to 10020) itself.
  • the sender of the event guidance email authenticates the ID of the mobile terminal (10010 to 10020) of the attendee who has responded, and the authentication information may be distributed to the mobile terminal (10010 to 10020) .
  • the portable terminal (10000) and the portable terminals (10010 to 10020) can have the same information and can be used for authentication.
  • NFC I / F (3170) is used at the start of an event or at the time of shooting at a meeting place for event participation.
  • the mobile terminals (10000 to 10020) may be touched with each other to authenticate each other.
  • NFC NFC
  • authentication may be performed at the same time.
  • communication between portable terminals (10000 to 10020) such as short-range wireless or wired Authentication may be performed with any combination of either one of the information included in the mobile terminal (10000 to 10020).
  • FIG. 14 is a diagram illustrating an example of a request and participation operation of the mobile terminal according to the fifth embodiment.
  • a portable terminal (12000) and a portable terminal (12010) are the portable terminals already described in the first to fourth embodiments. Requests for participation from a mobile terminal (12000) to another mobile terminal (12010) should be easily operated so that they can be used instantly at any time during the event.
  • the “Sync Picture” button (12001) is displayed on the screen of the mobile terminal (12000) with the camera function (camera application) activated, as shown in FIG. ) Detects that this button (12001) has been pressed, and transmits a request for participation to the authenticated portable terminal (12010).
  • “2/5” is displayed on the button (12001), and it is displayed that two of the five mobile terminals that have been authenticated in advance and started operating as being able to participate in joint shooting. May be.
  • the mobile terminal (12010) that has received the request for participation normally displays the screen in a state where the power switch (12011) is pressed to release the backlight OFF, that is, the screen is locked by sliding.
  • the screen as shown in FIG. 14B is displayed, the screen is displayed as shown in FIG. That is, the “Sync Picture” button (12012) is displayed.
  • the portable terminal (12010) When the portable terminal (12010) detects that the button (12012) is pressed, the portable terminal (12010) operates to be able to participate in joint shooting and transmits information indicating that participation is possible to the portable terminal (12000).
  • the button (12012) may be displayed by a camera application that has been activated in advance, and when the pressing of the button (12012) is detected, the operation of the camera can be displayed on the screen of the mobile terminal (12010) as an operation that allows joint shooting participation.
  • the image of the finder may be displayed and shooting may be executed in accordance with a shooting instruction from the mobile terminal (12000). In this way, it is possible to participate in joint shooting with a simple operation of the buttons (12001, 12012).
  • the mobile terminal (12010) shoots after waiting for a shooting instruction from the mobile terminal (12000). Returning from the state where it is possible to participate in joint shooting after shooting and when shooting is not performed, detects that the power switch (12011) of the mobile device (12010) has been pressed, even after shooting or when shooting is not performed Alternatively, the process returns when the imaging instruction is not received for a predetermined time tsub from the imaging standby state.
  • This time tsub may be longer than, for example, a time-out time tout to be set to sleep, and the time tsub may be 5 minutes for one minute of the time tout.
  • the operation of the mobile terminal particularly the joint shooting will be described.
  • wireless LAN is used for communication between multiple mobile terminals that may be in a joint shooting relationship
  • one of the multiple mobile terminals becomes a router for Internet connection, and other than the mobile terminal that has become the router
  • the mobile terminal may use a wireless LAN for Internet connection.
  • the SSID scan described with reference to FIG. 11 is performed by a mobile terminal that is a router. Since a person moves after the start of an event at which the SSID is scanned, a wireless LAN space for Internet connection, that is, Not all mobile terminals are within the wireless LAN range of mobile terminals that have become routers.
  • the mobile terminal as a router distributes an IP address to the mobile terminal as a host. Enables direct communication between mobile terminals based on IP addresses. For example, direct communication between portable terminals may be possible only during the shooting period. Such direct communication between portable terminals can reduce the load on the portable terminal serving as a router.
  • the Internet connection is cut off during the shooting, but it is preferable for the joint shooting that the interruption such as the reception of mail by the Internet connection does not occur.
  • the mobile terminal can perform wireless communication over a telephone line, but also suppresses incoming calls associated with this communication.
  • the incoming mail display may be suppressed during the joint shooting.
  • it is desirable to immediately notify the user of extremely important information such as emergency earthquake information under any conditions including during joint shooting.
  • a plurality of portable terminals are connected simultaneously or have a one-to-many broadcast connection, it is possible to communicate with the plurality of portable terminals with a single connection, and the communication time is short.
  • the one-to-one connection is sequentially performed, and for example, the participation request described with reference to FIG. The connection is sequentially performed, and the photographing instructions shown in FIGS.
  • the time required for the communication conclusion and the time required for the communication conclusion cancellation are added to one connection, it takes a time obtained by multiplying these counted times by the total number of portable terminals performing joint shooting. .
  • FIG. 15 is a diagram illustrating an example of the joint photographing operation of the mobile terminal according to the sixth embodiment.
  • the portable terminals 13000, 13040, 13050, 13060 are the portable terminals already described in the first to fifth embodiments.
  • the mobile terminal (13000) On the mobile terminal (13000), the person who is the subject is framed and displayed as the screen (13001). When pressing of the shutter button (13002) is detected, shooting is performed after a certain time elapses like a self-timer.
  • the mobile terminal (13000) and the mobile terminals (13040, 13050, 13060) communicate with each other at this fixed time.
  • the mobile terminal (13000) detects pressing of the shutter button (13002), it sequentially performs a one-to-one connection to each of the other mobile terminals (13040, 13050, 13060) participating in the joint shooting,
  • the photographing instruction signals (13041, 13051, 13061) in the format described with reference to FIG. 5 are transmitted. In each of these transmissions, first, communication is concluded, then a shooting instruction signal is transmitted, and finally communication conclusion is released. This is performed for three portable terminals (13040, 13050, 13060) in the example of FIG.
  • the mobile terminal (13000) changes the screen (13001) to the screen (13010), changes the screen (13010) to the screen (13020) after a preset time, and changes the screen (13020) to the screen (13020) after the preset time.
  • 13020) is changed to a screen (13030), and a picture is taken after a preset time.
  • “3”, “2”, “1” and the countdown numerical value are displayed, and at the same time, “3”, “2”, “1” and the countdown are output by voice (13021).
  • a plurality of countdown sounds may be preset in the mobile terminal (13000), and arbitrary ones may be selected in advance, or different countdown sounds may be downloaded from the network. Alternatively, the user's voice may be directly recorded and used as a countdown voice.
  • the user when communicating for joint shooting, the user can use this waiting time effectively so that the user does not spend the waiting time unnecessarily.
  • a good-quality person can be counted by performing such a countdown, so that the person being shot does not close their eyes at the moment of shooting, and shows the best face. It has long been used as a method for taking pictures.
  • this method is applied, and the method of transmitting the shooting instruction information by using the countdown time and showing the method of effectively using the countdown time, which is the preparation time for shooting the person, is shown. It is.
  • This countdown time can be usefully used as time for each user to check the framing immediately before shooting for other mobile terminals participating in shooting.
  • Example 7 describes operations from grouping mobile terminals to photographing.
  • 16 and 17A are diagrams illustrating an example of the grouping operation of the mobile terminals according to the seventh embodiment.
  • the mobile terminal A2 (14020) participates in the mobile terminal group A (14000)
  • the mobile terminal A2 (14020) is connected to the mobile terminal group A (14000).
  • the mobile terminal A1 (14010) may be any mobile terminal belonging to the mobile terminal group A (14000). Further, the mobile terminal group A (14000) and the mobile terminal group B (14100) have different group lists to be described later.
  • the mobile terminal A1 (14010), the mobile terminal A2 (14020), and the like are the mobile terminals already described in the first to sixth embodiments.
  • FIG. 17A is used to explain the contents of operation and sequence examples related to communication (14011).
  • the mobile terminal A2 (14020) transmits the terminal ID of the mobile terminal A2 (14020) by manual operation by the user or non-contact proximity communication such as NFC, and the mobile terminal A1 (14010) receives this terminal ID. (Step 14201).
  • the mobile terminal A1 (14010) that has received the terminal ID transmits a group request to the mobile terminal A2 (14020) (step 14202) and inquires whether the mobile terminal A2 (14020) participates in the group. Receiving the group request, the mobile terminal A2 (14020) accepts the group request and returns a message of participation to the transmission source (step 14203).
  • the mobile terminal A1 (14010) that has received the participation notice adds the terminal ID of the mobile terminal A2 (14020) to the group list of the mobile terminal group A (14000), and the group list that has been generated is Is distributed to mobile terminals that are participating in the network, that is, registered in the group list (step 14204).
  • the group list not all information of the group list, but information of change differences of the group list may be distributed.
  • This group list is generated when a group is first generated by two mobile terminals. After the generation, since any mobile terminal belonging to the group has the same information in the group list, a group request can be transmitted to a newly participating mobile terminal.
  • the group list information may be stored in the flash memory (3090) or the SD-RAM (3100).
  • the communication (14011) between the mobile terminal A1 (14010) and the mobile terminal A2 (14020) is non-contact proximity communication such as NFC
  • the mobile terminal A1 (14010) and the mobile terminal A2 (14020) When the user explicitly performs a gesture of physically bringing the mobile device closer, a mobile terminal of a specific user such as an acquaintance or event participant can be selectively joined to the group.
  • FIG. 17B is a diagram illustrating an example of a content and sequence of operations related to photographing after grouping of mobile terminals according to the seventh embodiment. This sequence is a sequence following the sequence described with reference to FIG. 17A, and the portable terminal A2 (14020) is registered in the group list of the portable terminal group A (14000).
  • the mobile terminal A1 (14010) belongs to the group list. Communication for requesting joint photography to a portable terminal, that is, a portable terminal of the portable terminal group A (14000) is performed (step 14205).
  • the mobile terminal A2 (14020), one of the mobile terminals registered in the same group list that received the communication, has a normal standby screen or other screen or another application activated Displays a screen indicating a joint photographing request from the mobile terminal A1 (14010), superimposed on the application screen. On this screen, a button for selecting to receive a joint shooting request is displayed. When pressing of the button is detected, the portable terminal A2 (14020) indicates acceptance of the joint shooting request to the portable terminal A1 (14010). A message is returned (step 14206).
  • the mobile terminal A1 (14010) can receive a reply from the mobile terminals of the mobile terminal group A (14000) including the mobile terminal A2 (14020), and can shoot the subject, and the user of the mobile terminal A1 (14010) Enters the shooting system with the portable terminal A1 (14010) facing the subject.
  • each mobile terminal that has accepted the joint shooting is in a state where the subject can be photographed in the same manner, and each user adjusts the position so that the joint photographing can be performed well toward the subject.
  • mobile terminal A1 When mobile terminal A1 (14010) detects pressing of the shutter, it reads the group list of mobile terminal group A (14000) and shoots to mobile terminals belonging to mobile terminal group A (14000) including mobile terminal A2 (14020) An instruction signal is transmitted (step 14207), and the portable terminal including the portable terminal A2 (14020) performs photographing according to the received photographing instruction, that is, in accordance with photographing of the portable terminal A1 (14010) (step 14208).
  • the portable terminal including the portable terminal A2 (14020) transmits the image data photographed by the joint photographing to the portable terminal A1 (14010) (step 14209).
  • the portable terminal A1 (14010) receives the transmitted image data and stores it in the external memory (3141) via the external memory I / F (3140).
  • processing for processing image data may be performed.
  • the mobile terminal including the mobile terminal A2 (14020) cancels the shooting enabled state and returns to the normal standby screen or the application screen that was operating before the joint shooting. If the photographing instruction signal in step 14207 is not received after step 14206, the portable terminal including portable terminal A2 (14020) may detect a time-out for a preset time and execute step 14211.
  • FIG. 18 is a diagram illustrating an example in which a code for authentication is generated from an event holding mail.
  • the code uses a part of the body of the e-mail for generation, the sending terminal ID, the date of the event, and the number of characters indicating the part of the body, followed by the total character code numerical value generated from the part of the body. Consists of arranged packets. The 36 characters that are part of the text are shown in italic bold in the example of FIG. The total character code numerical value is calculated from the total of nine 4-byte character code strings, with the email body cut into 4 bytes from the beginning, and the lower 4 bytes.
  • FIG. 19 is a diagram showing an example of the contents and sequence of grouping operations including authentication.
  • the mobile terminal A1 (14010) and the mobile terminal A2 (14020) are the mobile terminals already described in the first to seventh embodiments, and the mobile terminal A1 (14010) belongs to the mobile terminal group A (14000). Thus, it has a group list in which mobile terminals belonging to the mobile terminal group A (14000) are registered. And it is an example of operation
  • Each of the mobile terminal A1 (14010) and the mobile terminal A2 (14020) stores the mail shown in FIG. 18 in advance.
  • the mobile terminal A2 (14020) transmits the terminal ID of the mobile terminal A2 (14020) by manual operation by the user or non-contact near field communication such as NFC, and this terminal ID is transmitted to the mobile terminal A1.
  • receives step 14301).
  • the mobile terminal A1 (14010) that has received the terminal ID transmits a code generated from a pre-stored mail in addition to the group request to the mobile terminal A2 (14020) (step 14302).
  • 14020) inquires whether to join the group.
  • the mobile terminal A2 (14020) that received the group request and code generates a code from the email stored in the mobile terminal A2 (14020) based on the number of characters included in the transmitted code, and transmits the generated code and the code A comparison is made by comparing the generated codes (step 14303).
  • step 14303 portable terminal A2 (14020) sets a different number of characters to generate a code, and returns a message of participation together with the generated code to the transmission source (step 14304).
  • the mobile terminal A1 (14010) which has received the participation and code from the mobile terminal A2 (14020), re-registers the code from the email stored in the mobile terminal A1 (14010) based on the number of characters included in the transmitted code.
  • the generated and re-generated code is compared with the transmitted code to determine a match. If it is determined to match, a group participation permission is transmitted (step 14305). In this way, even with the mobile terminal A2 (14020), it is possible to verify that the mobile terminal A2 (14020) is a mobile terminal called for the same event by performing authentication by comparing the generated code with the transmitted code. I can confirm.
  • the mobile terminal A2 (14020) receiving the group participation permission may display information on participation in the event on the schedule screen, for example (step 14306).
  • the terminal ID of the mobile terminal A2 (14020) is added to the group list, and the group list that has been generated is already joined to the group. In other words, it is distributed to the mobile terminals registered in the group list (step 14307).
  • the mobile terminal A1 may distribute the terminal ID of the mobile terminal A2 (14020) that transmitted the code as a non-participation list. Good. As a result, even if the mobile terminal A2 (14020) transmits the terminal ID to the other mobile terminals of the mobile terminal group A (14000), the other mobile terminals having the non-participation list receive the terminal ID. Since it can be determined, the operation from step 14302 becomes unnecessary.
  • the group list generated and distributed in step 14307 is sent to each mobile terminal at the time when the event end time included in the e-mail is reached or when communication with other mobile terminals of the mobile terminal group A (14000) is disabled. It may be deleted from. This eliminates the need to keep the group list for an indefinite period.
  • FIG. 20 is a diagram illustrating an example of the process flow of the camera application of the mobile terminal according to the ninth embodiment, which may be the process flow of the mobile terminal (13000) described with reference to FIG.
  • the mobile terminal (13000) in order to distinguish between the mobile terminal (13000) and the mobile terminals (13040, 13050, 13060), the mobile terminal (13000) is referred to as a photographing terminal, and the mobile terminals (13040, 13050, 13060) are referred to as a joint photographing terminal.
  • each is identified by i (i is a positive integer).
  • the number of joint photographing terminals is not limited to three, and in this example, there are n (n is a positive integer).
  • the mobile terminal (13000), that is, the photographing terminal starts the camera application, and receives a request for joint shooting from the user to the portable terminal (13040, 13050, 13060), that is, the joint photographing terminal.
  • the joint shooting mode is set (step 15001).
  • an instruction to start the joint photographing mode is transmitted to the joint photographing terminal (step 15002).
  • it is determined whether or not the camera application has been terminated step 15003, and steps 15006 to 15016 are repeated until it is determined that the camera application has been terminated, and a plurality of images are taken.
  • the photographing terminal determines that the camera application is terminated in step 15003
  • the photographing terminal transmits an instruction to end the joint photographing mode to the joint photographing terminal (step 15004), and ends the operation of the camera application of the photographing terminal (step 15005).
  • the transmission in step 15002 and step 15004 may be the same processing flow as transmission to each of the later-described joint photographing terminals, or may be simultaneously transmitted to a plurality of joint photographing terminals by broadcast communication.
  • the photographing terminal When the user presses the shutter button (13002), the photographing terminal substitutes a value 0 for a variable i for counting the number of joint photographing terminals and sets an initial value (step 15006). Then, the joint photographing timing is transmitted to each joint photographing terminal, and the processing is performed by sending the joint photographing timing to the joint photographing portable terminal i one by one until the number i of the joint photographing terminals that have been transmitted reaches the number n. (Step 15007).
  • step 15007 first utters the countdown voice (13021) shown in FIG. 15 (step 15009), transmits a one-to-one communication connection instruction command to the joint photographing terminal i (step 15010), and performs joint processing. Communication is concluded between the photographing terminal i and the photographing terminal (step 15011), and then the joint photographing timing is transmitted to the joint photographing terminal i (step 15012), and the communication conclusion is canceled (step 15013).
  • the photographing terminal adds 1 to the variable i for counting the joint photographing terminal and prepares for communication with the next joint photographing terminal (step 15014). These operations are continued until the variable i reaches n (step 15008).
  • the joint photographing timing is transmitted to all the joint photographing terminals, the utterance of the countdown voice is finished (step 15015) and the photographing by the photographing terminal itself is performed. (Step 15016).
  • This shooting is performed until the camera application of the shooting terminal is terminated, and until that time, each joint shooting terminal continues to be able to shoot the subject.
  • FIG. 21 is a diagram illustrating an example of the operation of the mobile terminal of the tenth embodiment. An example of an arrangement in which mobile terminals (8000 to 8100) are arranged on the circumference and all directions around 360 degrees are photographed. Show.
  • the panorama mode is set in the mobile terminal (8000) as the control source, and the mobile terminal (8010 to 8100) is instructed to shoot simultaneously.
  • the mobile terminal (8000) obtains field-of-view information from each of the mobile terminals (8010 to 8100) in real time by communication, and controls information to each of the mobile terminals (8010 to 8100) so that the respective field angles overlap. Send.
  • the information on the angle of view may be information on the position and orientation of the mobile terminal (8010 to 8100) and the focal length of the lens, or from the camera sensor (3020) through the signal processing DSP (3030) to the encoder / decoder (3040). It may be video information compressed in the above.
  • the control information may be information on zoom change control of the lens of the camera sensor (3020), or may be instruction information to the user displayed on the backlit LCD (3120). As a result, the angle of view (17000) overlaps, and a wide range of 360 degrees in the horizontal direction can be photographed without loss.
  • the mobile terminal (8110) is installed so as to photograph vertically upward.
  • a plurality of portable terminals that shoot in directions other than the horizontal direction may be installed.
  • the entire celestial sphere can be photographed from the horizontal direction by shooting with the angle of view overlapping in the upper direction.
  • the angle of view of the most used lens is about 50 degrees in the diagonal direction. According to this, if there are 8 mobile terminals, all 360 degrees in the horizontal direction can be photographed without loss. It will be possible. Actually, since it is the user of each mobile terminal that determines the direction in which each mobile terminal is directed, there is a possibility that the error in the direction may increase, and it is desirable to take a larger number of images. In addition, when shooting not only in the horizontal direction but also in the upward direction, a corresponding number of portable terminals are required.
  • the user may select a part of the mobile terminals (8010 to 8100) as another mobile terminal.
  • a part of the mobile terminals 8010 to 8100
  • FIG. 22 is a diagram illustrating an example of the data flow of the mobile terminal according to the tenth embodiment.
  • the portable terminal (8000) is a host terminal that issues a joint shooting instruction to the portable terminals (8010 to 8050) when the shutter button is pressed.
  • the portable terminal (8000) combines the transmitted image data (17010) and the image data taken by the portable terminal (8000) into a single panoramic photograph by the process described later with reference to FIGS.
  • the image data (17020) is combined, and the combined image data (17020) is transmitted to the mobile terminals (8010 to 8050).
  • the composite image data (17020) is acquired by the mobile terminal involved in the joint shooting.
  • an absolute three-dimensional direction vector called an azimuth axis on the earth is an imaging optical axis when each mobile terminal (8000 to 8050) takes an image, such as the imaging optical axis (1031) shown in FIG.
  • the storage location on the format may be defined in the standardized Exif attribute information and stored.
  • this information can be used when the mobile terminal (8000) synthesizes a panoramic picture.
  • the image data (17010) received from each of the mobile terminals (8010 to 8050) is arranged adjacent to each other in the shooting direction using the three-dimensional direction vector of the shooting optical axis included in the image data (17010).
  • the specified image data (17010) can be identified at high speed.
  • the 3D direction vector of the photographic optical axis includes not only the east, west, south, and north directions but also the elevation angle, so it is possible to specify the height direction of the 3D map information, and image data (17010 ) Can be expanded.
  • the composite image data (17020) is classified into areas corresponding to the pre-combination image data (17010), and the information on the photographing optical axis for each classified area is attributed to the composite image data (17020). It is desirable to store it as information.
  • FIG. 23 is a diagram illustrating an example of a panoramic photograph of the composite image data of the tenth embodiment.
  • the composite processed image (18000) is, for example, a composite of image data (1710) transmitted from each of two portable terminals (8010, 8020).
  • FIG. 24 is a diagram illustrating an example of a panoramic photograph at the time of synthesis according to the tenth embodiment.
  • Image data (17010) photographed by the portable terminal (8010) is a photographed image (18010)
  • image data (1710) photographed by the portable terminal (8020) is a photographed image (18020).
  • the contour of the photographed image (18010) is represented by a one-dot chain line
  • the contour of the photographed image (18020) is represented by a two-dot chain line.
  • the shooting optical axis calculated from the information of the geomagnetic sensor (3130) and G sensor (3060) of each portable terminal (8010, 8020) is stored as a three-dimensional direction vector, so panoramic shooting Is determined that the portable terminal (8010) has photographed the right side of the photographing optical axis of the portable terminal (8020) using the condition that the radial direction is photographed. Then, assuming that the right side of the photographed image (18020) is the photographed image (18010), a place where the shape (picture) of the right end portion of the photographed image (18020) and the left end portion of the photographed image (18010) match is calculated. Thus, the duplicate image (18040) is extracted. For easy viewing, the outline of the overlap image (18040) is represented by a dotted line.
  • the composite processed image data (17020) can be obtained by converting the composite processed image (18000) into data having a format such as JPEG.
  • the image data (1710) of the portable terminals (8010, 8020) has been described as a synthesis target.
  • the image data of the portable terminals (8000 to 8010) (1710) is an object to be combined
  • the image data (1710) of the portable terminal (8000 to 8100) is an object to be combined. If the matching part of the image data (17010) is unclear and the matching location cannot be calculated, the mobile terminal (8000) removes the image from the synthesis process. May be.
  • FIGS. 25 to 27 are diagrams showing examples of display on the portable terminal of the tenth embodiment.
  • portable terminals (8010 to 8100) are arranged so that the angles of view overlap each other. This is an example of instruction information to the user displayed on the backlit LCD (3120) based on the control information transmitted to each of (8010 to 8100).
  • the portable terminal (19000) shown in FIGS. 25 to 27 is one of portable terminals (8010 to 8100).
  • FIG. 25 is a diagram illustrating an example in which an arrow is displayed on the mobile terminal according to the tenth embodiment.
  • an arrow (19010) is displayed in the screen (19001), and the direction of the photographing optical axis is set to the lower right. Tell the user to correct in the direction.
  • This display is performed by real-time processing updated at least at intervals of seconds or less, and the arrow (19010) is deleted from the screen (19001) when the user points the photographing optical axis in an appropriate direction.
  • the arrow (19010) When the amount of correction of the optical axis of the image is large, the arrow (19010) is displayed larger, and when the amount of correction is small, the arrow (19010) is displayed smaller, and the direction correction operation assist information is displayed by the user. I can tell you. It is also useful to display the arrow (19010) only for a frame shape that is not colored or to be displayed semi-transparently even if it is colored.
  • FIG. 26 is a diagram illustrating an example of displaying a target icon on the mobile terminal according to the tenth embodiment.
  • the point where the photographing optical axis of the portable terminal (19000) shown in FIG. 26 is aligned is superimposed on the screen (19001) with the target icon (19021), and the center mark (19020) indicating the photographing optical axis is the target icon (19021).
  • Guide the user to overlap.
  • the center mark (19020) and the target icon (19021) may be displayed.
  • the center mark (19020) is detected to overlap the target icon (19021), or the portable terminal ( It is also possible to detect automatically that the posture of (19000) is stable and automatically perform photographing.
  • the mobile terminal (19000) When performing automatic shooting in this way, the mobile terminal (19000) needs to further determine whether the shooting optical axis is in a direction suitable for panoramic shooting. For this reason, the direction specified by information such as the geomagnetic sensor (3130) of the portable terminal (19000) is used, the angle of view calculated by information such as the lens focal length is used, and the backlight from the camera sensor (3020) is used.
  • the image is displayed on the attached LCD (3120) and is determined using the image on the screen (19001). This determination may be performed by collecting information by the mobile terminal (8000) that is the host terminal.
  • the mobile terminal (8000) may send a shooting instruction signal upon detection of the shutter button being pressed, and the mobile terminal (19000) may receive the shooting instruction signal and take a picture.
  • the portable terminal (19000) may shoot by detecting the pressing of the shutter button of the portable terminal (19000).
  • FIG. 27 is a diagram illustrating an example of displaying a guide on the mobile terminal according to the tenth embodiment.
  • one mobile terminal (19000) shown in FIG. 27 shoots a plurality of images constituting a panoramic picture under the condition that there is no problem even if a time delay occurs in the shooting timing, A guide (19030) indicating which angle of view has been taken is displayed on the screen (19001).
  • a guide (19030) indicating which angle of view is to be photographed in the example of FIG. 27, four consecutive images in the horizontal direction are displayed in a superimposed manner with a positional relationship indicating the angle of view facing slightly upward near the center.
  • the guide (19030) indicates the angle of view that has already been shot with a broken line, the angle of view to be taken next with a thick solid line, the angle of view to be taken next with a thin solid line, and the image taken after that. Corners are indicated by dotted lines. For this reason, there may be a plurality of angles of view indicated by broken lines and angles indicated by dotted lines.
  • the guidance display of the photographing optical axis for the field angle to be photographed next is as described with reference to FIGS.
  • a rightward arrow (19031) is also displayed so as to photograph the angle of view of the fine solid line on the right side. Note that the direction and order of the angle of view of the guide (19030) may be set in advance.
  • FIG. 28 is a diagram illustrating an example of displaying the target composition on the mobile terminal of the tenth embodiment.
  • the portable terminal (8000) transmits the composition to the portable terminal (19000) for display.
  • the mobile terminal (19000) shown in FIG. 28 displays the video signal converted by the camera sensor (3020) of the mobile terminal (19000) on the screen (19001) including the subject (19040).
  • a target composition (19041) previously photographed by the mobile terminal (8000) is superimposed and displayed as a guide for the position and direction for photographing by the mobile terminal (19000).
  • an arrow (19042) is also displayed, and in the example of FIG. 28, it is effective to instruct the user to go to the left of the subject (19040).
  • the target composition (19041) is the same as the arrow (19010) shown in FIG. 25, and the object (19040) is not disturbed because it is translucent or the contour is extracted. The display is valid.
  • each embodiment described above is not completely independent, and a part of each embodiment may be replaced with a part of another embodiment or may be added to another embodiment.
  • the processing of the mobile terminal may be executed by the CPU, or a part thereof may be executed by hardware other than the CPU.
  • the process executed by the CPU may be loaded as a program from outside the portable terminal.
  • Mobile terminal 1020 Mobile device A 1021: Mobile device B 1022: Mobile device C 1010, 1011, 1012: Communication 1030: Subject

Abstract

携帯情報端末装置において、カメラと、通信部と、記憶部と、を有し、前記カメラによる撮影の操作がされことを検出すると、前記記憶部に格納されたグループリストを読み出し、読み出されたグループリストに登録された携帯情報端末装置へ前記通信部により撮影指示を送信する。

Description

携帯情報端末装置およびそのシステム
 本発明は、携帯情報端末装置およびそのシステムに関するものである。
 被写体の画像を半導体により構成される多画素の集合体であるカメラセンサに、レンズを通して画像投射させ、画素毎に照射された光の量を測定することにより、二次元の撮像画像を取得するデジタル方式のカメラや、カメラを搭載した携帯情報端末装置が普及している。このようなカメラを複数固定設置し、人物などの同一の被写体を、複数の方向から撮影することで、色々なポーズをとった人物を、色々な角度から見た写真を取得する技術が特許文献1には開示されている。
 また、古くはフィルムカメラの時代、特に1900年頃に欧米ではパノラマ写真が流行しており、フィルム上における通常の撮影範囲(例えば35mm幅の135フィルムにおける一般的な撮影サイズは横36mm×縦24mmである)を越えて、ロールフィルムの横方向の長さを利用して、例えば1899年にイーストマン・コダックにて販売された4号パノラム・コダック(No.4 Panoram Kodak)というカメラのように、103フィルムを用いて横30.4cm×縦9cmという細長い撮影を行うカメラがあった。
 その後1983年に発売されたフジカパノラマG617プロフェッショナルのように、120フィルムを用いて画面サイズ6cm×17cmのパノラマ写真の撮影をすることが出来るカメラも発売されていた。
 デジタル方式のカメラにも、撮影時にカメラを横方向にゆっくりと振りながら連続撮影を行い、撮影した複数の画像を横方向につなぎ合わせることで、パノラマ写真の撮影を可能とするものもある。つなぎ合わせの前後で自然な画質となるように、露光量を制御する技術が、特許文献2~4には開示されている。
特開2000-81652号公報 特開2013-162188号公報 特開平8-136963号公報 特開2013-175827号公報
 結婚式などのイベントにおいて、複数のデジタル方式のカメラで同一の被写体を撮影する機会はあるが、撮影者の異なるこれらのカメラを連携する技術は、特許文献1には開示されていない。また、トレッキングなどのイベントにおいて、風景のパノラマ写真を撮影する機会もあるが、デジタル方式のカメラの中には、機械シャッターを使わずにCMOSセンサを用いており、パノラマ写真の撮影のために、このようなカメラを振ると、センサを構成する各画素のシャッタータイミングが異なることによるローリングシャッター歪が発生する。そして、複数のカメラで風景を撮影する機会もあるが、撮影者の異なるこれらのカメラを連携する技術は、特許文献2~4には開示されていない。
 本発明は、上記課題を鑑みてなされた発明であり、複数のカメラ付携帯情報端末装置を連携させて撮影することを目的とする。
 上記課題は、例えば請求の範囲に記載の発明により解決される。
 本発明によれば、複数のカメラ付携帯情報端末装置を連携させて撮影することができる。
実施例1の携帯端末の動作の例を示す図である。 実施例1の撮影タイミングの第1の例を示す図である。 実施例1の携帯端末の例を示すブロック図である。 実施例1の撮影指示信号の第1の例を示す図である。 実施例1の撮影指示信号の第2の例を示す図である。 実施例1の撮影タイミングの第2の例を示す図である。 実施例1の各携帯端末の内部時刻を同期する例を示す図である。 実施例1の携帯端末を増やした例を示す図である。 実施例2の撮影タイミングの例を示す図である。 実施例3の携帯端末の動作の例を示す図である。 実施例3の携帯端末の画面表示の例を示す図である。 実施例4の携帯端末の認証動作の例を示す図である。 実施例4のイベント案内メールの例を示す図である。 実施例4の参加の操作表示の例を示す図である。 実施例5の携帯端末の依頼と参加動作の例を示す図である。 実施例6の携帯端末の合同撮影動作の例を示す図である。 実施例7の携帯端末のグループの例を示す図である。 実施例7の携帯端末のグループ化動作の例を示す図である。 実施例7の携帯端末のグループ化後の撮影動作の例を示す図である。 実施例8のイベント案内メールから生成されるコードの例を示す図である。 実施例8の携帯端末の認証を含むグループ化動作の例を示す図である。 実施例9の携帯端末のカメラアプリの処理フローの例を示す図である。 実施例10の携帯端末の動作の例を示す図である。 実施例10の携帯端末のデータの流れの例を示す図である。 実施例10のパノラマ写真の例を示す図である。 実施例10の合成時点でのパノラマ写真の例を示す図である。 実施例10の携帯端末の第1の画面表示の例を示す図である。 実施例10の携帯端末の第2の画面表示の例を示す図である。 実施例10の携帯端末の第3の画面表示の例を示す図である。 実施例10の携帯端末の第4の画面表示の例を示す図である。
 以下、本発明の実施例について図面を用いて説明する。
 図1は、実施例1のカメラ付携帯情報端末装置の動作の例を示す図である。ここでは被写体を人物として、複数のカメラ付携帯情報端末装置(以下、携帯端末と称する)を用いて被写体となる人物を撮影する場合の例を示す。携帯端末(1000)は撮影光軸(1031)を有し、被写体(1030)を正面から撮影する。携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)は、携帯端末(1000)とは別な角度から被写体(1030)を撮影する。
 ここで、携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)のそれぞれは、カメラ機能に加えて通信機能などを搭載している、同等の機能を有する機器である。これらの機器にはそれぞれ所有者がいて、被写体(1030)の人物を除き、合計4名のユーザーがこの撮影に関わっており、図1はそれぞれのユーザーが所定の位置でこれらの機器を手に持って構えている状態である。
 携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)のそれぞれは、一般的な無線LANやBluetooth(登録商標)などの無線通信機能を有しており、相互に通信を行うことが出来る。この無線通信を用いて、携帯端末(1000)は、携帯端末A(1020)と通信(1010)を行い、携帯端末C(1022)と通信(1012)を行い、そして携帯端末B(1021)は、携帯端末A(1020)を経由して、通信(1011)を行う。
 この通信(1010~1012)により、携帯端末(1000)は、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)に撮影指示信号を送信し、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)は、各々のカメラにより被写体(1030)を撮影する。
 撮影指示信号の通信により、複数の携帯端末による撮影は、1台の携帯端末により指定されたタイミングで行われ、各々の携帯端末は各々のユーザーが保持することで被写体を囲んで、一斉に被写体を撮影することが出来るので、例えば被写体の全体像(あらゆる方向から見た被写体の記録)の取得が可能となる。
 また、人物である被写体が色々なポーズを取ったときに、1台の携帯端末の撮影者が位置を変えながら撮影する必要がなく、色々な方向から人物を撮影することが出来るので、良質かつ多彩なポートレートを撮影することが可能となる。なお、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)のそれぞれは撮影した画像データを携帯端末(1000)へ送信してもよい。
 図2は、実施例1の撮影タイミングの第1の例を示す図である。撮影は携帯端末(1000)の図1では図示を省略したシャッターボタンが押下されたことを、時刻t1(2051)に携帯端末(1000)が検出して開始される。携帯端末(1000)は、時刻t2(2052)から時刻t3(2053)の期間に通信(1010)と通信(1012)により撮影指示信号を送信する。また、携帯端末A(1020)は携帯端末B(1021)へ通信(1011)により撮影指示信号を転送する。
 携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)は、受信した撮影指示に従って撮影を行う。なお、この手順で、携帯端末(1000)が動画像を撮影するときに、携帯端末A(1020) 、携帯端末B(1021)、携帯端末C(1022)も動画像を撮影することも可能である。
 具体的には、図2の露光を開始する時刻t4(2054)から動画の撮影が開始され、露光の終了である時刻t5(2055)で動画の撮影が終了されるように携帯端末(1000)が制御し、携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)は、露光時間(2010)の同じ時間帯で動画像を撮影する。
 図3は、実施例1の携帯端末の例を示すブロック図である。図1に示した携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)のそれぞれは、図3に示す携帯端末(3190)と同じ構造であってもよい。また、携帯端末(3190)は、例えばコンピュータの構造を有してもよい。CPU(3000)が中央情報処理装置であり、そのバス(3001)に、各種のハードウェアが接続されている。
 各種ハードウェアには、カメラによる撮影時に押下されるシャッターボタン(3010)、図示しないレンズにより集光した光学映像を電気信号に変換するカメラセンサ(3020)、カメラセンサ(3020)の信号処理を行う信号処理DSP(3030)、信号処理DSP(3030)により得られたRGBで構成された映像信号を離散コサイン変換やハフマン符号化などで圧縮処理を行うエンコーダ/デコーダ(3040)がある。
 エンコーダ/デコーダ(3040)は静止画像のみならず、動画像の圧縮処理を行ってもよい。また、信号処理DSP(3030)とエンコーダ/デコーダ(3040)は、バス(3001)に接続されているだけでなく、カメラセンサ(3020)からの出力信号を信号処理DSP(3030)経由でエンコーダ/デコーダ(3040)に送ってもよく、この場合は、バス(3001)をサイズの大きい映像信号が通過しないため、バス(3001)を映像信号が占有することがない。
 また、各種ハードウェアには、携帯端末(3190)の現在位置をGPS(Global Positioning System)により取得するGPSユニット(3050)、カメラセンサ(3020)すなわち撮影光軸(1031)の方向を特定するための重力加速度を測定し、カメラセンサ(3020)の移動や方向の変化により発生する加速度などを測定するGセンサ(3060)、外部機器との間の短距離無線通信を行うBluetooth I/F(3070)、外部機器との間の無線通信を行う無線LAN I/F(3080)がある。なお、無線LAN IF(3080)の送受信する無線通信基地局との信号を用いて現在位置の取得を行ってもよい。
 また、各種ハードウェアには、携帯端末(3190)の全体を制御するプログラムや、基本定数が保存されるフラッシュメモリ(3090)、プログラム実行におけるワークメモリであって、逐次更新されるGPS衛星軌道情報(3102)やGPS位置情報(3101)などが保存されるSD-RAM(3100)、撮影時に保存する画像情報にタイムコードを付けるために利用され、GPSの位置情報測定のために利用される時計(3110)がある。
 また、各種ハードウェアには、撮影時にカメラセンサ(3020)で受光されて電気信号に変換された映像を表示することでファインダーとなったり、後述の外部メモリ(3141)に保存されている画像データを表示したり、携帯端末(3190)の設定内容を表示したりするバックライト付LCD(3120)、地磁気を測定し、携帯端末(3190)の方向を地球上の方向座標系という絶対値で測定する地磁気センサ3130がある。
 また、各種ハードウェアには、赤外線による他の機器との通信を行う赤外線I/F(3160)、NFC(Near Field Communication)を用いて非接触タッチすることで通信するNFC I/F(3170)、携帯電話の移動通信システムを通じてインターネットなどと通信する電話回線I/F(3180)、撮影されて圧縮された画像データが保存される外部メモリ(3141)を接続するための外部メモリI/F(3140)、有線にてクレードル(3151)に接続するための汎用外部機器I/F(3150)がある。
 なお、カメラセンサ(3020)と信号処理DSP(3030)とエンコーダ/デコーダ(3040)と図示を省略したレンズをまとめて、カメラと称してもよい。また、フラッシュメモリ(3090)とSD-RAM(3100)との間でデータやプログラムが転送されてもよく、後述するグループリスト、メール、スケジュールのデータが、フラッシュメモリ(3090)あるいはSD-RAM(3100)に格納されてもよい。後述するカメラアプリ(プログラム)もフラッシュメモリ(3090)あるいはSD-RAM(3100)に格納されてもよく、カメラアプリは1つでも複数でもよい。
 図4は、実施例1の撮影指示信号の第1の例を示す図である。この撮影指示信号のフォーマットは、撮影を実行する時刻tiと撮影指示信号の送信先となる端末のIDを示すSi(Smart Terminal ID i)のセットを単位として構成され、例えばi、j、kで識別される複数の携帯端末(3190)への撮影指示で構成されている。
 例えば図1、2において、i、j、kで識別される携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)は、この撮影指示信号を通信(1010~1012)によって受信し、受信した撮影指示信号に含まれるti=tj=tk=t4に従って時刻t4(2054)に撮影を開始する。
 図5は、実施例1の撮影指示信号の第2の例を示す図である。この撮影指示信号のフォーマットは、撮影を実行する時刻tiと撮影指示信号の送信先となる端末のIDを示すSiと、指示の具体的内容を示すOp i(Operand i)のセットを単位として構成され、例えばi、j、kで識別される複数の携帯端末(3190)への撮影指示で構成されている。Op iの具体的内容は、例えば、図6で後述する終了時刻を含む露光時間など、撮影に関する命令と、その命令の実行に必要な値で構成される。
 図6は、実施例1の撮影タイミングの第2の例を示す図である。撮影は携帯端末(1000)のシャッターボタン(3010)が押下されたことを、時刻t1(5031)に携帯端末(1000)が検出して開始される。携帯端末(1000)は、露光時間が時刻t3(5033)から時刻t4(5034)の間であるという情報を自身に設定するとともに、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)へ撮影指示信号を送信する。
 この撮影指示信号のOp i、Op j、Op kには、撮影指示の他に撮影における露光時間が、時刻t3(5033) から時刻t4(5034)の間であるという情報が値として含まれている。この撮影指示信号を受信した携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)のそれぞれと、携帯端末(1000)は、時刻t3(5033) から時刻t4(5034)までの露光時間で撮影を行う。
 ここでは同じ露光時間で撮影を行い、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)で異なるレンズの明るさは、それぞれのカメラセンサ(3020)の感度を変えることで補正される。従って一斉に撮影した複数の静止画は、そのブレ量も含めて同一のタイミングで撮影されるため、同一のタイミングで同一被写体を複数の方向から見た撮影画像を得ることが出来る。
 例えば被写体(1030)となる人物のポーズが、極めて短い時間、例えばジャンプした状態で取るポーズなどの場合、そのポーズを取った瞬間に、複数の携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)が被写体(1030)を複数の方向から撮影するので、撮影された複数の撮影画像を連続して並べることで、短い時間だけ維持するポーズを固定して、様々な方向からそのポーズを観察することが可能になる。
 ところで、各携帯端末(3190)の時計(3110)に相互の時間誤差があると、具体的に1/10秒~1/100秒単位で精度を合わせる必要のある携帯端末(3190)のシャッター開時間(露光時間)と、他の携帯端末(3190)の露光時間に誤差が生じ、正しく同じタイミングでの撮影が行われないという問題が生じる可能性があるため、各携帯端末(3190)の時計(3110)の同期を正確に行っておく必要がある。
 図7は、実施例1の各携帯端末(3190)の内部時刻を同期する例を示す図である。図7の例では、撮影指示信号を出す携帯端末(3190)として、撮影を主目的とするデジタルカメラ形状を有する携帯端末(6000)とするが、携帯端末(3190)と同じ構造である。また、携帯端末A(6050)と携帯端末B(6060)も、携帯端末(6000)と外形は異なるが、携帯端末(3190)と同じ構造である。
 既に説明したように、携帯端末(6000)は携帯端末A(6050)と携帯端末B(6060)に、撮影タイミングの時刻を指示するので、携帯端末(6000)、携帯端末A(6050)、携帯端末B(6060)それぞれの時計(3110)は、相互の時刻が十分な精度で一致している必要がある。このために、電話回線I/F(3180)のCDMA(Code Division Multiple Access)方式などの通信機能に用いられる高精度の時刻合わせが利用されてもよい。
 また、近年、撮影した場所を座標データとして、画像データの付随情報に追記したり、移動の足跡を記録したりするためにGPSが用いられ、普及している。特にデジタル画像データは、その属性情報の規格(Exif:Exchangeable image file format)に位置座標の保存フォーマットも定義されており、撮影後の写真の整理や閲覧に役立てることが出来るため、GPS機能をカメラが内蔵することは、今後増加していく傾向にある。
 そして、一部のCDMA方式では、携帯電話通信を行うためのセル(基地局)同士の時刻同期を取るために、GPSの時刻信号が用いられている。GPSは、複数の人工衛星とGPSによる位置測定器との間の電波の伝搬速度の差を用いて、現在位置を求める。そのために各人工衛星には高精度の原子時計を有しており、発信するGPS情報電波に、その時刻情報も付随して送信している。これにより、高精度の時刻同期を行うためには、GPSの情報を用いることが有用である。
 図7において、携帯端末(6000)は、GPSユニット(3050)に対応するGPSユニット(6020)により、GPS衛星A(6040)、GPS衛星B(6041)、GPS衛星C(6042)からGPS情報の電波を受信する。少なくとも3つのGPS衛星の情報を受信することにより地球上の二次元位置座標、4つ以上のGPS衛星の情報を受信することにより、三次元位置座標を算出することが出来る。
 GPS情報に含まれる時刻情報を用いて、携帯端末(6000)は、携帯端末(6000)内の時計(3110)の時刻を校正しつつ、シャッターボタン(3010)に対応するシャッターボタン(6030)が押下された時点の現在位置座標を算出して、撮影された画像データに付加し、外部メモリ(3141)などへ保存する。
 携帯端末A(6050)および携帯端末B(6060)も、携帯端末(6000)と同じ動作により、GPS衛星A(6040)、GPS衛星B(6041)、GPS衛星C(6042)からGPS情報の電波を受信し、携帯端末A(6050)と携帯端末B(6060)機器それぞれの内の時計(3110)を校正する。
 GPSによる現在位置座標を測定では、例えば位置情報を30mの誤差で特定するために、0.1μ秒以下の精度で時刻情報が提供される。この精度で時計(3110)を合わせることにより、1/8000秒などの高速シャッター速度や、ストロボの発光時間の1/10000秒=10μ秒に比べても十分に小さい誤差しか発生せず、同時撮影タイミングの設定に対して、時計(3110)の精度に十分余裕がある。
 さらに携帯端末(6000)、携帯端末A(6050)、携帯端末B(6060)は、お互いに近い位置にいるので、同じGPS衛星A(6040)、GPS衛星B(6041)、GPS衛星C(6042)の電波を受信するため、異なる人工衛星の電波を受信することによる伝搬遅延の差異は、事実上発生しないで済む。
 但し、GPS衛星の電波は、受信する場所により、特に屋内では十分に受信することが出来ないため、CDMA方式の通信で基地局と同期したクロックにより、時計(3110)が校正されてもよい。さらにCDMA方式の通信が圏外の場合、WiFi(登録商標)などの通信回線を用いてNTP(Network Time Protocol)により、時計(3110)が校正されてもよい。これらの校正が行われない場合、携帯端末(6000)、携帯端末A(6050)、携帯端末B(6060)は無線LANなどで直接通信し、互いの時計(3110)の誤差の修正を行ってもよい。
 図8は、実施例1の携帯端末を増やした例を示す図である。被写体(8200)と、操作する携帯端末(8000)、そして被写体(8200)を取り囲む携帯端末(8010~8100)の関係は、図1に示した被写体(1030)と、携帯端末(1000)、そして携帯端末A(1020)から携帯端末C(1022)と同一である。本実施例では11台の携帯端末(8000~8100)で被写体(8200)を撮影するため、例えば被写体(8200)の外周方向でおよそ35度の間隔で撮影する。
 これにより、例えば被写体(8200)となる人物のポーズが、極めて短い時間、例えばジャンプした状態で取るポーズなどの場合、そのポーズを取った瞬間に、実施例1より多くの携帯端末(8000~8100)が被写体(8200)を撮影するので、撮影された複数の画像を連続して並べることで、短い時間だけ維持するポーズを固定して、多くの方向からそのポーズを観察する場合に有用である。
 そして、以上で説明したように、複数の携帯端末は、時刻で連携して撮影することができる。
 実施例1とは異なるタイミングで撮影(露光)する実施例2を説明する。図9は、実施例2の撮影タイミングの例を示す図である。被写体(1030)、携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)は、図1を用いて説明したとおりであり、それぞれの構造は図3を用いて説明した携帯端末(3190)の通りである。そして、図9に示す撮影タイミングの例は、図2に示した撮影タイミングの代わりとなるものである。なお、図8に示したように多くの携帯端末(8000~8100)が使用されてもよい。
 撮影は、携帯端末(1000)のシャッターボタン(3010)が押下されたことを、時刻t1(9051)に携帯端末(1000)が検出して開始される。携帯端末(1000)は、時刻t2(9052)から時刻t3(9053)の期間に通信(1010)と通信(1012)により撮影指示信号を送信する。また、携帯端末A(1020)は携帯端末B(1021)へ通信(1011)により撮影指示信号を転送する。
 この撮影指示信号には、撮影の指示の他に露光を開始し撮影を実行する時刻の情報も含まれる。例えば図4、5を用いて説明したフォーマットにおいて、携帯端末A(1020)の端末のIDがSiであり、時刻tiが時刻t5(9055)であり、携帯端末B(1021)の端末のIDがSjであり、時刻tjが時刻t6(9056)であり、携帯端末C(1022)の端末のIDがSkであり、時刻tkが時刻t7(9057)である。
 この撮影指示信号を受信した携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)のそれぞれは、異なる時刻である時刻t4(9054)、時刻t5(9055)、時刻t6(9056)、時刻t7(9057)に撮影を行う。ここで、携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)の時計(3110)に相互の時間誤差がないように、具体的には1/10秒~1/100秒単位で精度を合わせるため、図7を用いて説明した動作により時計(3110)の時刻を同期してもよい。
 また、携帯端末(1000)、携帯端末A(1020)、携帯端末B(1021)、携帯端末C(1022)の各撮影の時刻の割当て、すなわち撮影の順番は、それぞれがGPSユニット(3050)により現在位置の情報を取得し、地磁気センサ(3130)の情報やGセンサ(3060)の情報ら撮影光軸の方向を算出して、これらの現在位置と撮影光軸の方向の情報を携帯端末(1000)に集めて、携帯端末(1000)により決定されてもよい。
 これにより、携帯端末毎に異なる撮影時刻、特に被写体を囲む携帯端末順に従って、時刻が進むように設定することにより、撮影者が被写体の周囲を回りながら撮影するような、連続した静止画像を取得することが出来る。これらの連続した静止画像を、時間軸に連続して表示する、すなわち動画像表示とすることで、被写体の周囲を回りながら被写体を見るという動画像を、各携帯端末の位置を変化させる必要なく得ることが出来る。
 実施例3では被写体周囲の画像処理について説明する。図10Aは、実施例3の携帯端末の動作の例を示す図である。図8と同様に被写体(8200)の周囲を携帯端末(8000~8070)で囲み、被写体(8200)を撮影する。なお、携帯端末(8000~8070)は8台の例を示すが、7台以下であってもよいし、9台以上であってもよい。
 この例では、携帯端末(8000)の撮影レンズの画角(8001)の範囲に含まれるものは、被写体(8200)以外のものも撮影されるため、携帯端末(8030)、携帯端末(8040)、携帯端末(8050)も携帯端末(8000)の撮影画像に写りこむことになる。また、携帯端末(8010~8070)の撮影画像にも写り込みはあるが、図10Aでは図示を省略する。
 次に撮影画像への写り込みに対する画像処理の例を説明する。図10Bは、実施例3の携帯端末(8000)のバックライト付LCD(3120)の表示の例を示す図である。ここでは消しゴム100000を表示して説明するが、一般の画像編集ソフトウェアでは、撮影画像の一部を消去する機能を有している。さらに消去した部分が白く抜けた状態にならないように、消去した場所の周囲の画像データを用いて補間して、白く抜けてしまう消去した場所を埋める機能を有するものもある。
 これにより、撮影画像に写り込んだ図10Bの携帯端末(8030)、携帯端末(8040)、携帯端末(8050)は点線で示すように消去されてもよい。そして、図10Bにおいて被写体(8200)のみが表示されてもよい。
 消去される携帯端末(8030)、携帯端末(8040)、携帯端末(8050)を特定するために、携帯端末(8010~8070)に備えられたGPSユニット(3050)で取得された現在位置の情報を携帯端末(8000)が受信し、携帯端末(8000)は、携帯端末(8000)のGPSユニット(3050)で取得された現在位置の情報と、地磁気センサ(3130)やGセンサ(3060)の情報と、画角(8001)の角度の情報から、画角(8001)の範囲を算出して、受信された現在位置の情報と算出された範囲との関係から特定してもよい。あるいは、GPSよりさらに精密な位置情報や、地磁気よりさらに精密な角度の情報が使用されてもよい。
 また、撮影に参加した携帯端末(8030)、携帯端末(8040)、携帯端末(8050)の型式を取得して形状を取得し、撮影画像に写った携帯端末の形状と比較して、携帯端末(8030)、携帯端末(8040)、携帯端末(8050)が特定されてもよい。携帯端末(8030)、携帯端末(8040)、携帯端末(8050)の撮影者が認識され、認識された撮影者が消去されてもよい。
 実施例4では撮影に参加する携帯端末の認証について説明する。図11は、実施例4の携帯端末の認証動作の例を示す図である。図11において、携帯端末(10000~10020)は実施例1~3で既に説明した撮影指示信号により同期して撮影を実行する、例えばイベント会場などでの同じ仲間の携帯端末であるが、近隣には他人の携帯端末(10030~10050)も存在し、区別される必要がある。
 このため、撮影に参加する携帯端末(10000~10020)間では認証を行い、認証された携帯端末(10000~10020)間でのみ撮影依頼信号を通信することで、不特定多数の携帯端末(10030~10050)に影響させない。
 具体的には、携帯端末(10000)が、そのカメラ機能(カメラアプリ)の起動時、もしくはそれ以前の場合は事前に、近隣にある同様な携帯端末(10010~10020)の存在を、例えば無線LANのSSID(Service Set ID)をスキャンし、SSID別に合同撮影が可能か否かを認証し、撮影時に連携が可能な状態にする。
 このために、例えば携帯端末(10010)からは返信信号(10011)を送信し、携帯端末(10000)と携帯端末A(10010)との連携動作を認証する。また、携帯端末(10020)においても同様である。そして、撮影時には、認証された携帯端末(10010)と携帯端末(10020)に対して、合同の撮影依頼信号を送る。携帯端末(10030~10050)は認証されないことにより、携帯端末(10030~10050)とは独立して撮影が出来る。
 以下では、同一のイベントに出席する人同士が、所有する携帯端末(10000~10020)を用いて、連携して撮影するために相互に利用するという原則に従い、携帯端末(10000~10020)同士の認証を行う動作を説明する。
 具体的には、携帯端末(10000~10020)内にある特定の情報であって、携帯端末(10000~10020)間で一致する情報がある場合に認証する。このとき、アドレス帳に登録された一致する情報では、知人同士でありながら、近接する位置にて別なイベントに参加していることもあり得るので認証の基礎情報としては不適切である。
 同一のイベントに参加する人の有する携帯端末(10010~10020)は、そのイベントの案内の同一のメールを受信し、保存する。図12は、実施例4のイベントの案内のメールの例を示す図である。また、図13に示すように、イベントの案内のメールに対して「ATTEND」ボタンが押されたことを検出すると、携帯端末(10010~10020)は、主催者あるいはメールの送信者に返信し、携帯端末(10010~10020)自身のスケジュール表にそのイベントを登録する。
 そして、返信した出席予定者の携帯端末(10010~10020)のIDを、イベントの案内メールの送信者が認証して、認証するための情報を携帯端末(10010~10020)に配信してもよい。これにより、携帯端末(10000)と携帯端末(10010~10020)とは一致する情報を持つことが出来て、認証に利用出来る。
 また、事前に通信された携帯端末(10000~10020)内の情報によって認証が行なわれる代わりに、イベント参加の待ち合わせ場所などでイベント開始時、もしくは撮影時に、NFC I/F(3170)を用いて、携帯端末(10000~10020)同士を非接触タッチすることで、お互いの認証を取ってもよい。
 これはNFCの利用で、例えばイベント開始時に会費を電子マネーで徴収する際に、同時に認証を行ってもよく、この他、短距離無線や有線などの携帯端末(10000~10020)同士の通信のいずれかと、携帯端末(10000~10020)が有する情報のいずれかとの任意の組み合わせで認証が行われてもよい。
 実施例5では、携帯端末の参加動作について説明する。図14は、実施例5の携帯端末の依頼と参加動作の例を示す図である。携帯端末(12000)と携帯端末(12010)は、実施例1~4で既に説明した携帯端末である。携帯端末(12000)から他の携帯端末(12010)への参加依頼は、イベント開催中のいつでも瞬時に使えるように簡単に操作出来るのが望ましい。
 そのため、携帯端末(12000)のカメラ機能(カメラアプリ)を起動した状態での画面には、図14(A)に示すように「Sync Picture」のボタン(12001)が表示され、携帯端末(12000)は、このボタン(12001)が押下されたことを検出して、認証された携帯端末(12010)へ参加の依頼を送信する。このときボタン(12001)の上に、「2/5」と表示され、予め認証された携帯端末が5台のうち、合同撮影参加可能として動作を始めた携帯端末は2台であることが表示されてもよい。
 次に、参加の依頼を受信した携帯端末(12010)は、電源スイッチ(12011)が押されてバックライトOFF解除をした状態、すなわちスライドにより解除される画面ロックがかかった画面において、通常は図14(B)で示すような画面を表示するところを、図14(C)に示すように画面を表示する。すなわち、「Sync Picture」のボタン(12012)を表示する。
 携帯端末(12010)は、ボタン(12012)の押下を検出すると、合同撮影参加可能として動作し、参加可能であるという情報を携帯端末(12000)に送信する。なお、ボタン(12012)は予め起動されたカメラアプリにより表示されてもよく、ボタン(12012)の押下が検出されると、合同撮影参加可能な動作として、携帯端末(12010)の画面にカメラのファインダーの映像が表示され、携帯端末(12000)からの撮影指示に従って撮影を実行してもよい。このように、ボタン(12001、12012)の簡単な操作で合同撮影への参加が可能になる。
 携帯端末(12010)は、携帯端末(12000)からの撮影指示を待って撮影する。撮影後および撮影をしなかった場合の合同撮影参加可能な状態からの復帰は、撮影後もしくは撮影が行われない場合でも、携帯端末(12010)の電源スイッチ(12011)が押されたことを検出するか、撮影待ち状態から所定の時間tsubだけ撮影指示を受信しなかった場合に復帰する。この時間tsubは、他に設定されている例えばスリープまでのタイムアウト時間toutよりは長い時間であってもよく、時間toutの1分に対して、時間tsubは5分などであってもよい。
 実施例6では、携帯端末の撮影、特に合同撮影の動作について説明する。合同撮影を行う関係になり得る複数の携帯端末間の通信に無線LANが利用される場合、複数の携帯端末の中の1台がインターネット接続のルータとなって、ルータとなった携帯端末以外の携帯端末は、インターネット接続のために無線LANを利用してもよい。
 図11を用いて説明したSSIDのスキャンは、ルータとなった携帯端末により行われるが、SSIDがスキャンされるイベント開始時点より以降は、人が移動するので、インターネット接続のための無線LAN空間すなわちルータとなった携帯端末の無線LANの範囲に、すべての携帯端末がいるとは限らない。
 このため、ルータとなる携帯端末経由ではなく、無線LANによる直接通信を行なえるように、イベント開始時点の認証では、ルータとなる携帯端末がホストとして、携帯端末にIPアドレスを配布し、配布されたIPアドレスに基づく携帯端末同士の直接通信を可能にする。例えば撮影の期間だけ、携帯端末同士の直接通信を可能にしてもよい。このような携帯端末同士の直接通信により、ルータとなる携帯端末の負荷を軽減することができる。
 また、撮影の間はインターネット接続が切られた状態となるが、合同撮影では、インターネット接続によるメール受信などの割り込みが発生しない状態の方が望ましいので、合同撮影の動作に都合がよい。また、携帯端末は無線LANの他に、電話回線の無線通信が可能であるが、この通信に伴う電話の着信も抑制する。
 具体的には、合同撮影中は電話が留守番電話モードに入り、また仮にメールが受信された場合であっても、合同撮影中はメールの着信表示が抑制されてもよい。但し、合同撮影中を含めていずれの条件下でも、緊急地震情報などの極めて重要な情報は、ユーザーに即時通知することが望ましい。
 複数の携帯端末が、同時に接続もしくは1対多の放送型接続を行うのであれば、1回の接続で複数の携帯端末と通信することが可能であり、通信時間が短い。これに対して、携帯端末同士の直接通信では、携帯端末間の通信の都度、1対1の接続を順次行って例えば図12を用いて説明した参加の依頼が送受信され、再度1対1の接続を順次行って図4、5に示した撮影指示が送受信される。
 そして、1回の接続には、通信締結に要する時間と、通信締結解除に要する時間が加算されるため、これらの可算された時間に、合同撮影を行う携帯端末の総数を乗じた時間がかかる。また、このような時間がかかるので、シャッターボタンが押下されてから、合同撮影のための通信が完了するまでの時間がわかりにくく、撮影が実行されるまでの時間がわかりにくい。
 ここでは、撮影の実行までをカウントダウンし、カウントダウンに通信時間を隠すとともに、撮影の実行タイミングをわかりやすくする例を説明する。図15は実施例6の携帯端末の合同撮影動作の例を示す図である。携帯端末(13000、13040、13050、13060)は実施例1~5で既に説明した携帯端末である。
 携帯端末(13000)には、被写体である人物がフレーミングされており、画面(13001)のように表示されている。シャッターボタン(13002)の押下が検出されると、セルフタイマーのように、一定の時間が経過してから撮影が行われる。この一定の時間に携帯端末(13000)と携帯端末(13040、13050、13060)は通信を行う。
 すなわち、携帯端末(13000)は、シャッターボタン(13002)の押下を検出すると、合同撮影に参加する他の携帯端末(13040、13050、13060)のそれぞれに、1対1の接続を順次行って、図5を用いて説明したフォーマットの撮影指示信号(13041、13051、13061)を送信する。この送信のそれぞれは、まず通信の締結を行い、次に撮影指示信号を送信し、最後に通信締結解除を行う。これを図15の例では3つの携帯端末(13040、13050、13060)に対して行う。
 一方、携帯端末(13000)は画面(13001)を画面(13010)に変更し、予め設定された時間の後に画面(13010)を画面(13020)に変更し、予め設定された時間の後に画面(13020)を画面(13030)に変更し、さらに予め設定された時間の後に撮影する。この画面の変更において、「3」「2」「1」とカウントダウン数値を表示し、同時にスピーカーより「3」「2」「1」とカウントダウンを音声(13021)にて出力する。
 カウントダウンの音声(13021)は、携帯端末(13000)内に複数プリセットされて、任意のものを予め選択されてもよく、異なるカウントダウンの音声がネットワークからダウンロードされてもよい。また、ユーザーの声を直接録音して、カウントダウン音声として用いられてもよい。
 以上で説明したように、合同撮影のための通信を行っている際に、ユーザーに不要に待ち時間を過ごさせることがないように、更にはユーザーにこの待ち時間を有効に利用出来るようにするものである。一般に集合写真などで人物を撮影するときは、このようなカウントダウンを行い、撮影される人物が撮影の瞬間に目をつぶらない、一番いい顔を見せるなどの工夫をすることで、良質の人物写真を撮影するための方法として古くから利用されている。
 また、近年の携帯端末に搭載されたカメラで自分自身を撮影するモードでも、同様なカウントダウンが行われており、撮影者(被写体の人物)がシャッターボタンを押してから、最適な向きにカメラを向けたり、前記人物写真のように撮影をされるための準備をしたりすることが出来、良質な自分自身の写真を撮影するために有効な方法として利用されている。
 本実施例ではこの方法を応用し、カウントダウンの時間を利用して、撮影指示情報を送信するという動作を行い、人物撮影のための準備時間であるカウントダウン時間を有効に利用する方法を示したものである。このカウントダウンの時間は、撮影に参加する他の携帯端末にとっても、撮影直前のフレーミングを各ユーザーが確認するための時間として有用に役立てることが出来る。
 従って、カウントダウンを行わなくてもよいくらいの短い時間で、各携帯端末間の通信を行うことが出来ても、複数の携帯端末による合同撮影では、カウントダウン音声や画面表示などの動作を行うことは有用となる。
 実施例7では、携帯端末のグループ化から撮影までの動作について説明する。図16、17Aは、実施例7の携帯端末のグループ化動作の例を示す図である。図16に示すように、例えばイベントなどにおいて、新たに参加した携帯端末A2(14020)が、携帯端末グループA(14000)に参加する場合、携帯端末A2(14020)は、携帯端末グループA(14000)に所属する携帯端末A1(14010)と通信(14011)を行う。
 なお、携帯端末A1(14010)は携帯端末グループA(14000)に属する携帯端末であれば、いずれでもよい。また、携帯端末グループA(14000)と携帯端末グループB(14100)とは、後述するグループリストが異なる。携帯端末A1(14010)、携帯端末A2(14020)などは、実施例1~6で既に説明した携帯端末である。
 図17Aを用いて、通信(14011)に関する動作の内容とシーケンスの例を説明する。まず、携帯端末A2(14020)は、ユーザーによる手動操作や、NFCなどの非接触近接通信により、携帯端末A2(14020)の端末IDを送信し、この端末IDを携帯端末A1(14010)が受信する(ステップ14201)。
 端末IDを受信した携帯端末A1(14010)は、携帯端末A2(14020)に対して、グループリクエストを送信し(ステップ14202)、携帯端末A2(14020)がグループに参加するかどうかを問い合わせる。グループリクエストを受信した携帯端末A2(14020)は、グループリクエストを受諾し、送信元に参加の旨を返信する(ステップ14203)。
 参加の旨を受信した携帯端末A1(14010)は、携帯端末A2(14020)の端末IDを携帯端末グループA(14000)のグループリストに追加し、続けて生成されているグループリストを、既にグループに参加している、すなわちグループリストに登録されている携帯端末に配信する(ステップ14204)。ここで、グループリストの全ての情報ではなく、グループリストの変更差分の情報が配信されてもよい。
 このグループリストは、2つの携帯端末により最初にグループが生成された段階で生成される。生成された以降は、グループに属するいずれの携帯端末も、グループリストの同じ情報を有しているため、新たに参加する携帯端末へグループリクエストを送信することが出来るようになる。グループリストの情報は、フラッシュメモリ(3090)あるいはSD-RAM(3100)に格納されてもよい。
 ここで、携帯端末A1(14010)と携帯端末A2(14020)の通信(14011)が、例えばNFCのような非接触近接通信であれば、携帯端末A1(14010)と携帯端末A2(14020)とを物理的に近づけるというジェスチャーをユーザーが明示的に行うことにより、知人やイベント参加者など、特定のユーザーの携帯端末を選択的にグループに参加させることが出来る。
 図17Bは、実施例7の携帯端末のグループ化後の撮影に関する動作の内容とシーケンスの例を示す図である。このシーケンスは、図17Aを用いて説明したシーケンスに続くシーケンスであり、携帯端末A2(14020)は携帯端末グループA(14000)のグループリストに登録された状態である。
 まず携帯端末A1(14010)のカメラアプリが起動され、自動的もしくはカメラアプリの画面内にて参加を依頼するボタンの押下が検出されると、携帯端末A1(14010)は、グループリストに所属する携帯端末すなわち携帯端末グループA(14000)の携帯端末に合同撮影を依頼する通信を行う(ステップ14205)。
 その通信を受信した、同じグループリストに登録された携帯端末の1つである携帯端末A2(14020)は、通常待ち受け画面などの一番表にある画面、もしくは別なアプリが起動されていた場合には、そのアプリ画面に重畳して、携帯端末A1(14010)からの合同撮影依頼を示す画面を表示する。この画面には合同撮影依頼を受けることを選択するボタンが表示され、そのボタンの押下が検出されると、携帯端末A2(14020)は携帯端末A1(14010)に、合同撮影依頼の承諾を示すメッセージを返信する(ステップ14206)。
 携帯端末A1(14010)は、携帯端末A2(14020)を含む携帯端末グループA(14000)の携帯端末から返信を受信しつつ、被写体を撮影できる状態となるとともに、携帯端末A1(14010)のユーザーは被写体に携帯端末A1(14010)を向けて撮影体制に入る。このとき、合同撮影を承諾した各携帯端末は、同様に被写体を撮影できる状態になるとともに、各ユーザーも、被写体に向けて、うまく合同撮影が出来るように、位置を調整する。
 そして、携帯端末A1(14010)がシャッターの押下を検出すると、携帯端末グループA(14000)のグループリストを読み出し、携帯端末A2(14020)を含む携帯端末グループA(14000)に属する携帯端末へ撮影指示信号を送信し(ステップ14207)、受信した撮影指示に従って、すなわち携帯端末A1(14010)の撮影にあわせて、携帯端末A2(14020)を含む携帯端末は撮影を行う(ステップ14208)。
 撮影が終了すると、携帯端末A2(14020)を含む携帯端末は、合同撮影にて撮影した画像データを、携帯端末A1(14010)に送信する(ステップ14209)。携帯端末A1(14010)は、送信された画像データを受信し、外部メモリI/F(3140)を介して外部メモリ(3141)に保存する。ここで、画像データを加工する処理が行われてもよい。
 携帯端末A2(14020)を含む携帯端末は、撮影できる状態を解除し、通常待ち受け画面もしくは合同撮影以前に動作させていたアプリ画面に戻る。ステップ14206の後でステップ14207の撮影指示信号を受信しなかった場合、携帯端末A2(14020)を含む携帯端末は、予め設定された時間のタイムアウトを検出し、ステップ14211を実行してもよい。
 実施例8では、携帯端末の認証を含むグループ化の動作について説明する。ここでは図11~13を用いて説明したように、イベント開催のメールやスケジュールデータを利用して、同じイベントに参加する携帯端末の認証を行う。図18は、イベント開催のメールから認証のためのコードを生成する例を示す図である。
 そのコードは、生成のためにメールの本文の一部が利用され、送信端末IDと開催日付、そして本文の一部を指し示す文字数に、本文の一部から生成した文字コード数値合計を連続して並べたパケットにより構成する。本文の一部である36文字を、図18の例では、斜体の太字で示す。文字コード数値合計は、メール本文が先頭から4byteずつに切り出され、合計9つの4byteずつの文字コード列の合計により計算され、そのうち下位4byteである。
 図19は、認証を含むグループ化の動作の内容とシーケンスの例を示す図である。ここで、携帯端末A1(14010)と携帯端末A2(14020)は、実施例1~7で既に説明した携帯端末であり、携帯端末A1(14010)は、携帯端末グループA(14000)に所属して、携帯端末グループA(14000)に所属する携帯端末が登録されたグループリストを有する。そして、携帯端末グループA(14000)に参加する携帯端末A2(14020)と携帯端末A1(14010)の動作の例である。
 携帯端末A1(14010)と携帯端末A2(14020)のそれぞれは、図18に示したメールを予め保存している。この状態で、まず、携帯端末A2(14020)は、ユーザーによる手動操作や、NFCなどの非接触近距離通信により、携帯端末A2(14020)の端末IDを送信し、この端末IDを携帯端末A1(14010)が受信する(ステップ14301)。
 端末IDを受信した携帯端末A1(14010)は、携帯端末A2(14020)に対して、グループリクエストに加えて、予め保存されたメールから生成したコードを送信し(ステップ14302)、携帯端末A2(14020)がグループに参加するどうかを問い合わせる。グループリクエストとコードを受信した携帯端末A2(14020)は、送信されたコードに含まれる文字数に基づいて携帯端末A2(14020)内に保存されたメールからコードを生成し、生成されたコードと送信されたコードとを比較して一致を判定する(ステップ14303)。
 生成されたコードと送信されたコードとの照合による認証を行うことで、グループリクエストを送信してきた携帯端末A1(14010)が、同じイベントに呼ばれている携帯端末であることを確認出来る。そして、携帯端末A2(14020)は、ステップ14303で一致と判定した場合、別の文字数を設定してコードを生成し、生成されたコードとともに参加の旨を送信元へ返信する(ステップ14304)。
 携帯端末A2(14020)から参加の旨とコードを受信した携帯端末A1(14010)は、送信されたコードに含まれる文字数に基づいて携帯端末A1(14010)内に保存されたメールからコードを再度生成し、再度生成されたコードと送信されたコードとを比較して一致を判定し、一致と判定した場合はグループ参加許可を送信する(ステップ14305)。このように携帯端末A2(14020)でも、生成されたコードと送信されたコードとの照合による認証を行うことで、携帯端末A2(14020)が同じイベントに呼ばれている携帯端末であることを確認出来る。
 グループ参加許可を受信した携帯端末A2(14020)は、例えばスケジュール画面にイベントへの参加の情報を表示してもよい(ステップ14306)。また、携帯端末A1(14010)は、一致と判定した場合、携帯端末A2(14020)の端末IDをグループリストに追加し、続けて生成されているグループリストを、既にグループに参加している、すなわちグループリストに登録されている携帯端末に配信する(ステップ14307)。
 ここで、グループリストの全ての情報ではなく、グループリストの変更差分の情報が配信されてもよい。また、メールからコードを生成する例を説明したが、メール以外に、図18を用いて説明した文字を含むスケジュールデータからコードが生成されてもよい。さらに、ステップ14304で携帯端末A2(14020)から携帯端末A1(14010)へ送信されたコードは、ステップ14301で端末IDとともに送信されてもよい。
 なお、携帯端末A1(14010)は、受信されたコードと生成されたコードとが一致しないと判定した場合、コードを送信した携帯端末A2(14020)の端末IDを非参加リストとして配信してもよい。これにより、携帯端末A2(14020)が携帯端末グループA(14000)の他の携帯端末へ端末IDを送信しても、非参加リストを有する他の携帯端末は、その端末IDを受信した時点で判定出来るので、ステップ14302からの動作が不要となる。
 また、ステップ14307で生成され配信されたグループリストは、メールに含まれるイベント終了時刻になった時点や、携帯端末グループA(14000)の他の携帯端末と通信出来なくなった時点で、各携帯端末から消去されてもよい。これにより、グループリストを期限不定で保有し続ける必要が無くなる。
 実施例9では、カメラアプリのプログラムの処理フローについて説明する。図20は、実施例9の携帯端末のカメラアプリの処理フローの例を示す図であり、図15を用いて説明した携帯端末(13000)の処理フローであってもよい。図20では携帯端末(13000)と携帯端末(13040、13050、13060)を区別するために、携帯端末(13000)を撮影用端末と称し、携帯端末(13040、13050、13060)を合同撮影端末と称してそれぞれをi(iは正の整数)で識別する。合同撮影端末は3台に限定されるものではなく、この例ではn台(nは正の整数)ある。
 まず、携帯端末(13000)すなわち撮影用端末は、カメラアプリが起動され、そのカメラアプリの中で、携帯端末(13040、13050、13060)すなわち合同撮影端末への合同撮影の依頼をユーザーから受け付けて、合同撮影モードが設定される(ステップ15001)。次に、合同撮影端末に合同撮影モードの起動指示を送信する(ステップ15002)。そして、カメラアプリが終了されたかを判定し(ステップ15003)、カメラアプリが終了されたと判定されるまでステップ15006~15016を繰り返して複数枚の撮影が行われる。
 撮影用端末は、ステップ15003でカメラアプリが終了されたと判定すると、合同撮影端末に合同撮影モードの終了指示を送信し(ステップ15004)、撮影用端末のカメラアプリの動作を終了する(ステップ15005)。ここで、ステップ15002とステップ15004の送信は、後述する合同撮影端末それぞれへの送信と同じ処理フローであってもよいし、複数の合同撮影端末に同報通信で一斉に送信してもよい。
 撮影用端末は、ユーザーによりシャッターボタン(13002)が押下されると、合同撮影端末の台数をカウントする変数iに値0を代入して初期値設定を行う(ステップ15006)。そして各合同撮影端末に合同撮影タイミングを送信するが、その処理は、送信の完了した合同撮影端末の台数iが台数nに達するまで、一台ずつ合同撮影用携帯端末iに合同撮影タイミングを送る(ステップ15007)。
 ステップ15007の具体的な処理は、まず図15に示したカウントダウンの音声(13021)を発声し(ステップ15009)、合同撮影端末iに1対1通信接続指示コマンドを送信し(ステップ15010)、合同撮影端末iと撮影用端末の間で通信締結を行い(ステップ15011)、その後、合同撮影端末iに合同撮影タイミングを送信し(ステップ15012)、通信締結を解除する(ステップ15013)。
 そして、撮影用端末は、合同撮影端末をカウントする変数iに1を加算し、次の合同撮影端末への通信準備を行う(ステップ15014)。これらの操作を、変数iがnに達するまで続け(ステップ15008)、すべての合同撮影端末に合同撮影タイミングを送信したところで、カウントダウン音声の発声を終了し(ステップ15015)、撮影用端末自身による撮影を行う(ステップ15016)。
 この撮影は、撮影用端末のカメラアプリが終了されるまで行われ、それまでは各合同撮影端末は、被写体を撮影できる状態を継続する。
 実施例10では、パノラマ撮影について説明する。すなわち、図1、8、10Aを用いて説明した複数の携帯端末が1つの被写体に向けられる代わりに、複数の携帯端末がそれぞれ異なる方向を向けられて、撮影された画像が合成されて、一枚のパノラマ写真が生成される例を説明する。図21は、実施例10の携帯端末の動作の例を示す図であり、携帯端末(8000~8100)が円周上に並べられて、周囲360度すべての方向が撮影される配置の例を示す。
 携帯端末(8010)の画角(17000)を含めて各画角は、遠方でそれぞれ重複するように携帯端末(8000~8100)の向きやレンズ焦点距離がズーム変更されることが望ましい。制御元となる携帯端末(8000)にパノラマモードが設定され、携帯端末(8010~8100)のそれぞれへ一斉に撮影を指示する。携帯端末(8000)は、携帯端末(8010~8100)のそれぞれからリアルタイムに画角の情報を通信で取得し、各々の画角が重なるように、携帯端末(8010~8100)のそれぞれへ制御情報を送信する。
 画角の情報は、携帯端末(8010~8100)の位置および向きとレンズ焦点距離の情報であってもよいし、カメラセンサ(3020)から信号処理DSP(3030)を経てエンコーダ/デコーダ(3040)で圧縮された映像情報であってもよい。制御情報は、カメラセンサ(3020)のレンズのズーム変更制御の情報であってもよいし、バックライト付LCD(3120)に表示するユーザーへの指示情報であってもよい。これにより画角(17000)が重複し、水平方向360度の広範囲を欠損なく撮影することが出来る。
 携帯端末(8110)は鉛直上方向を撮影するように設置されている。携帯端末(8110)以外に水平以外の方向を撮影する携帯端末が複数設置されてもよい。水平方向360度に加えて、上方向も画角が重複される撮影により、水平方向から上全体の全天球を撮影することが出来る。
 ちなみに、いわゆる標準レンズと呼ばれる最も使われるレンズの画角は、対角線方向で約50度であり、これによれば8台の携帯端末があれば、水平方向360度すべてを欠損なく撮影することが出来ることになる。実際には、各携帯端末を向ける方向を決めるのは、各携帯端末のユーザーであるので、方向の誤差が大きくなる可能性もあり、さらに多い台数での撮影が望ましい。また、水平方向だけでなく上方向もカバーする撮影を行う場合、相応の台数の携帯端末が必要になる。
 ここで被写体が、動く可能性のある人物や動物が入ったシーンではなく、図23に示すような風景である場合は、携帯端末(8010~8100)の一部の携帯端末をユーザーが他の携帯端末の画角に移動して撮影することで、より少ない携帯端末の撮影でも欠損なく撮影することが出来る。このような撮影でも、連続した画像を撮影するために携帯端末を振りながら撮影する必要はないので、通常のパノラマ写真撮影のように、1台の携帯端末を振りながら撮影することによるローリング歪の影響を受けることはない。
 図22は、実施例10の携帯端末のデータの流れの例を示す図である。なお、説明を簡単にするために、携帯端末(8010~8100)の中の携帯端末(8010~8050)について説明するが、携帯端末(8060~8100)も同じデータの流れである。携帯端末(8000)は、シャッターボタンが押下されて、携帯端末(8010~8050)に合同撮影指示を出すホスト端末である。携帯端末(8010~8050)は、携帯端末(8000)の指示を受けて撮影を行った後、それぞれが撮影した画像データ(17010)を携帯端末(8000)に送信する。
 携帯端末(8000)は、それぞれ送信された画像データ(17010)と携帯端末(8000)が撮影した画像データを、図23、24を用いて後述する処理により、1枚のパノラマ写真である合成処理画像データ(17020)に合成し、合成処理画像データ(17020)を携帯端末(8010~8050)に送信する。これにより、合同撮影に係わった携帯端末で合成処理画像データ(17020)が取得される。
 ところで、撮影した画像データ(17010)のフォーマットは、一般に静止画像のフォーマットとして扱われる例えばJPEG(Joint Photographic Experts Group)のようなフォーマットを用いるのが望ましい。このとき、図1に示した撮影光軸(1031)のような、携帯端末(8000~8050)それぞれが撮影した時の撮影光軸が、地球上での方位軸という絶対的な三次元方向ベクトルとして、例えば規格化されているExif属性情報の中に、フォーマット上の保存場所を規定された上で保存されてもよい。
 このようにすることで、携帯端末(8000)がパノラマ写真を合成するときに、この情報を利用することが出来る。具体的には、携帯端末(8010~8050)それぞれから受信した画像データ(17010)を、そこに含まれる撮影光軸の三次元方向ベクトルを用いて、撮影方向順に並べることで、隣接して撮影された画像データ(17010)の特定が高速化される。
 尚、パノラマ写真の合成以外に、画像データ(17010)に含まれる撮影光軸と位置の情報を用いて、画像データ(17010)の撮影画面の中心に何が写っているかを調べることが出来てもよい。撮影光軸の三次元方向ベクトルには、東西南北の方位だけでなく仰角も含まれるため、三次元の地図情報に対して、高さ方向のものを特定することが可能となり、画像データ(17010)の活用範囲を広げることが出来る。
 このために、合成処理画像データ(17020)の合成前の画像データ(17010)に対応する領域に分類し、分類された領域毎の撮影光軸の情報が、合成処理画像データ(17020)に属性情報として保存されることが望ましい。
 図23は、実施例10の合成処理画像データのパノラマ写真の例を示す図である。合成処理画像(18000)は、例えば2台の携帯端末(8010、8020)それぞれから送信された画像データ(1710)が合成されたものである。図24は、実施例10の合成時点でのパノラマ写真の例を示す図である。携帯端末(8010)の撮影した画像データ(17010)は撮影画像(18010)であり、携帯端末(8020)の撮影した画像データ(1710)は撮影画像(18020)である。図24では、見やすいように、撮影画像(18010)の輪郭を一点鎖線で表し、撮影画像(18020)の輪郭を二点鎖線で表す。
 画像データ(17010)には携帯端末(8010、8020)それぞれの地磁気センサ(3130)やGセンサ(3060)の情報から算出された撮影光軸が三次元方向ベクトルとして保存されているので、パノラマ撮影は放射状の方向を撮影するという条件を利用し、携帯端末(8020)の撮影光軸の右側を携帯端末(8010)が撮影したと判定される。そして、撮影画像(18020)の右側が撮影画像(18010)であるとして、撮影画像(18020)の右端部分と撮影画像(18010)の左端部分の画像の形状(絵柄)の一致する場所が算出されて、重複画像(18040)が抽出される。見やすいように、重複画像(18040)の輪郭は点線で表す。
 そして、撮影画像(18010)と撮影画像(18020)の重複画像(18040)で重ねられた画像が合成され、合成された画像から上下および左右で最大限の面積が取れる長方形部分(18030)を抽出し、図23に示した合成処理画像(18000)とする。合成処理画像(18000)を例えばJPEGのようなフォーマットのデータにして、合成処理画像データ(17020)を得ることが出来る。
 図23、24を用いた説明では、携帯端末(8010、8020)の画像データ(1710)を合成の対象に説明したが、図22に示した構成では、携帯端末(8000~8010)の画像データ(1710)が合成の対象となり、図21に示した構成では、携帯端末(8000~8100)の画像データ(1710)が合成の対象となる。なお、画像データ(17010)のうち、隣接する画像との絵柄の一致部分が不鮮明であって一致する場所が算出不可能な場合、携帯端末(8000)は、その画像を合成処理の対象から外してもよい。
 図25~27は、実施例10の携帯端末の表示の例を示す図であり、図21を用いて説明したように、携帯端末(8010~8100)それぞれの画角が重なるように、携帯端末(8010~8100)のそれぞれへ送信される制御情報に基づいて、バックライト付LCD(3120)に表示されるユーザーへの指示情報の例である。なお、図25~27に示す携帯端末(19000)は携帯端末(8010~8100)の1つである。
 図25は、実施例10の携帯端末に矢印を表示する例を示す図である。図25に示した携帯端末(19000)の撮影光軸の方向が少し左上方向に寄っている場合に、画面(19001)内に矢印(19010)を表示して、撮影光軸の方向を右下方向に修正するようにユーザーに伝達する。この表示は少なくとも秒単位以下の間隔で更新されるリアルタイム処理で行われ、ユーザーが適正な方向に撮影光軸を向けたところで矢印(19010)は画面(19001)から消去される。
 また、撮影光軸の向きを修正する量が大きい場合は矢印(19010)を大きく表示し、修正する量が小さい場合には矢印(19010)を小さく表示して、方向修正操作のアシスト情報をユーザーに伝えることが出来る。なお、矢印(19010)の表示は、色塗りされていないフレーム形状だけの表示や、色塗りされていても半透明で表示されるようにすることも有用である。
 図26は、実施例10の携帯端末にターゲットアイコンを表示する例を示す図である。図26に示した携帯端末(19000)の撮影光軸を合わせる先をターゲットアイコン(19021)で画面(19001)に重畳表示し、撮影光軸を示すセンターマーク(19020)が、ターゲットアイコン(19021)に重なるように、ユーザーを誘導する。ここで、ターゲットアイコン(19021)が画面(19001)の範囲内に表示されないほど撮影光軸の方向が大きくずれている場合は、図25に示した表示で予め撮影光軸の方向の修正を誘導する。
 そして、ターゲットアイコン(19021)が画面(19001)の範囲内に表示できるようになったら、センターマーク(19020)とターゲットアイコン(19021)が表示されてもよい。また、ホスト端末である携帯端末(8000)から撮影指示信号が出ない場合、センターマーク(19020)がターゲットアイコン(19021)に重なったことを検出し、または重なったことを検出した後に携帯端末(19000)の姿勢が安定したことも検出して、自動的に撮影を行ってもよい。
 このように自動的に撮影を行う際に、携帯端末(19000)は、撮影光軸がパノラマ撮影に適した方向であるかを、さらに判定する必要がある。このため、携帯端末(19000)の地磁気センサ(3130)などの情報により特定された方向が用いられ、レンズ焦点距離などの情報により算出された画角が用いられ、カメラセンサ(3020)からバックライト付LCD(3120)に表示される画像であって画面(19001)の画像が用いられて判定される。この判定は、ホスト端末である携帯端末(8000)により情報が収集されて行われてもよい。
 また、携帯端末(8000)がシャッターボタンの押下の検出により撮影指示信号を送信し、携帯端末(19000)は撮影指示信号を受信して撮影してもよいが、特に景色などの大きく動かない被写体で、必ずしも正確に撮影タイミングを同期させる必要がなければ、携帯端末(19000)のシャッターボタンの押下の検出により、携帯端末(19000)は撮影をしてもよい。
 この場合も、極端な時間の遅れ(例えば10分や1時間など)があると、雲の動きや日光の当たり方などの変化が発生するので、撮影場所や環境(屋外/屋内)、時刻などの情報を用いて、特定の時刻までに撮影するよう、カウントダウン数値を携帯端末(19000)の画面(19001)に重畳表示して、ユーザーに撮影タイミングを指示するのも有効である。
 図27は、実施例10の携帯端末にガイドを表示する例を示す図である。撮影タイミングに時間の遅れが発生しても問題ないという条件において、図27に示した1つの携帯端末(19000)がパノラマ写真を構成する画像を複数撮影する場合、複数の画角のすべてと、どの画角の撮影が終わったかを示すガイド(19030)が画面(19001)に表示される。
 どの画角を撮影するかを示すガイド(19030)として、図27の例では、水平方向に4枚連続し、中央付近は少し上を向けた画角を示す位置関係が重畳表示されている。ガイド(19030)は、既に撮影の終わった画角を破線で示し、次に撮影する画角を太実線で示し、次の次に撮影する画角を細実線で示し、それ以降に撮影する画角を点線で示す。このため、破線で示される画角と点線で示される画角は、複数存在してもよい。
 次に撮影する画角のための撮影光軸の誘導表示は、図25、26で説明したとおりである。太実線の画角の撮影を終了すると、さらに右側の細実線の画角を撮影するように、右向きの矢印(19031)も表示される。なお、ガイド(19030)の画角の方向や順序は、予め設定されていてもよい。
 図28は、実施例10の携帯端末に目標構図を表示する例を示す図である。ホスト端末である携帯端末(8000)以外の図28に示した携帯端末(19000)がどのような構図で撮影するかを、携帯端末(8000)が予め撮影しておき、実際の撮影のタイミングにおいて、携帯端末(8000)が携帯端末(19000)にその構図を送信して表示させる。
 図28に示した携帯端末(19000)は、その携帯端末(19000)のカメラセンサ(3020)が変換した映像信号を、被写体(19040)を含めて画面(19001)に表示する。そこに携帯端末(8000)が予め撮影した目標構図(19041)を重畳表示し、携帯端末(19000)で撮影する位置と方向の指針とする。
 このとき矢印(19042)が併せて表示され、図28の例では被写体(19040)の左に周ることをユーザーに指示すると有効である。ここで目標構図(19041)は、図25に示した矢印(19010)と同様で、半透明であったり、輪郭抽出されていたりして、被写体(19040)の表示をじゃますることがないような表示が有効である。
 以上で説明した各実施例は完全に独立したものではなく、実施例それぞれの一部が、他の実施例の一部に置き換えられてもよく、他の実施例に加えられてもよい。また、携帯端末の処理は、CPUにより実行されてもよいし、その一部がCPU以外にハードウェアで実行されてもよい。CPUにより実行される処理は、プログラムとして携帯端末の外からロードされてもよい。
1000:携帯端末
1020:携帯端末A
1021:携帯端末B
1022:携帯端末C
1010、1011、1012:通信
1030:被写体

Claims (15)

  1.  携帯情報端末装置において、
     カメラと、通信部と、記憶部と、を有し、
     前記カメラによる撮影の操作がされことを検出すると、
     前記記憶部に格納されたグループリストを読み出し、
     読み出されたグループリストに登録された携帯情報端末装置へ前記通信部により撮影指示を送信すること
    を特徴とする携帯情報端末装置。
  2.  請求項1に記載の携帯情報端末装置において、
     前記通信部により撮影指示を送信した後、前記通信部により画像データを受信すること
    を特徴とする携帯情報端末装置。
  3.  請求項2に記載の携帯情報端末装置において、
     前記通信部により送信される撮影指示は、読み出されたグループリストに登録された携帯情報端末装置の識別子と撮影開始時刻の組を含むこと
    を特徴とする携帯情報端末装置。
  4.  請求項3に記載の携帯情報端末装置において、
     前記通信部により送信される撮影指示は、読み出されたグループリストに登録された第1の携帯情報端末装置の第1の識別子と撮影開始時刻の第1の情報による第1の組と、読み出されたグループリストに登録された第2の携帯情報端末装置の第2の識別子と撮影開始時刻の第2の情報による第2の組を含み、
     第1の組と第2の組を含む撮影指示は、前記通信部により前記第1の携帯情報端末装置へ送信されること
    を特徴とする携帯情報端末装置。
  5.  請求項3に記載の携帯情報端末装置において、
     前記通信部により送信される撮影指示は、読み出されたグループリストに登録された第1の携帯情報端末装置の第1の識別子と撮影開始時刻の第1の情報による第1の組と、読み出されたグループリストに登録された第2の携帯情報端末装置の第2の識別子と撮影開始時刻の第2の情報による第2の組を含み、
     撮影指示に含まれる第1の情報の撮影開始時刻と第2の情報の撮影開始時刻は同じ時刻であること
    を特徴とする携帯情報端末装置。
  6.  請求項3に記載の携帯情報端末装置において、
     前記通信部により送信される撮影指示は、読み出されたグループリストに登録された第1の携帯情報端末装置の第1の識別子と撮影開始時刻の第1の情報による第1の組と、読み出されたグループリストに登録された第2の携帯情報端末装置の第2の識別子と撮影開始時刻の第2の情報による第2の組を含み、
     撮影指示に含まれる第1の情報の撮影開始時刻と第2の情報の撮影開始時刻は異なる時刻であること
    を特徴とする携帯情報端末装置。
  7.  請求項3に記載の携帯情報端末装置において、
     時計をさらに有し、
     前記時計は、前記携帯情報端末装置の外部からの信号に基づいて時刻を校正し、
     撮影指示に含まれる撮影開始時刻は、前記時計に基づく時刻であること
    を特徴とする携帯情報端末装置。
  8.  請求項3に記載の携帯情報端末装置において、
     読み出されたグループリストに登録された第1の携帯情報端末装置と通信を締結し、第1の撮影開始時刻を送信し、通信締結を解除した後、
     読み出されたグループリストに登録された第2の携帯情報端末装置と通信を締結し、第2の撮影開始時刻を送信し、通信締結を解除すること
    を特徴とする携帯情報端末装置。
  9.  請求項8に記載の携帯情報端末装置において、
     カウントダウンすること
    を特徴とする携帯情報端末装置。
  10.  請求項2に記載の携帯情報端末装置において、
     前記通信部により識別子を受信し、
     受信された識別子で特定される携帯情報端末装置へグループリクエストを前記通信部により送信し、
     送信されたグループリクエストの返信を前記通信部により受信し、
     受信された返信に基づき、受信された識別子を、前記記憶部に格納されたグループリストに登録し、
     前記記憶部に格納されたグループリストを、グループリストに登録された携帯情報端末装置へ前記通信部により配信すること
    を特徴とする携帯情報端末装置。
  11.  請求項10に記載の携帯情報端末装置において、
     文字列を受信し、
     受信された文字列からコードを生成してグループリクエストとともに前記通信部により送信し、
     送信されたコードおよびグループリクエストの返信を前記通信部により受信し、
     受信された返信に含まれる文字数に従って、受信された文字列からコードを生成して、受信された返信に含まれるコードと比較し、
     コードの比較結果が一致すると、受信された識別子を、前記記憶部に格納されたグループリストに登録すること
    を特徴とする携帯情報端末装置。
  12.  請求項11に記載の携帯情報端末装置において、
     メールを受信することにより、メールに含まれる文字列を受信すること
    を特徴とする携帯情報端末装置。
  13.  請求項10に記載の携帯情報端末装置において、
     合同撮影参加依頼の操作がされたことを検出すると、
     配信されたグループリストに登録された携帯情報端末装置に依頼を前記通信部により送信し、
     送信された依頼の返信を前記通信部により受信した後、
     前記カメラによる撮影の操作がされことを検出すると、
     前記記憶部に格納されたグループリストを読み出し、
     読み出されたグループリストに登録された携帯情報端末装置へ前記通信部により撮影指示を送信すること
    を特徴とする携帯情報端末装置。
  14.  請求項2に記載の携帯情報端末装置において、
     読み出されたグループリストに登録された携帯情報端末装置の方向に関する情報を前記通信部により受信し、
     受信された向きに関する情報に応じて、携帯情報端末装置の方向を補正する情報を前記通信部により送信し、
     前記通信部により複数の画像データを受信し、受信された複数の画像データから1つのパノラマ写真の画像データを合成すること
    を特徴とする携帯情報端末装置。
  15.  複数の携帯情報端末装置から構成されるシステムにおいて、
     複数の前記携帯情報端末装置の中の第1の携帯情報端末装置は、
     第1のカメラと、第1の通信部と、第1の記憶部と、を有し、
     前記第1のカメラによる撮影の操作がされことを検出すると、
     前記第1の記憶部に格納されたグループリストを読み出し、
     読み出されたグループリストに登録された携帯情報端末装置へ前記第1の通信部により撮影指示を送信し、
     複数の前記携帯情報端末装置の中の第2の携帯情報端末装置は、
     第2のカメラと、第2の通信部と、を有し、
     前記第1の通信部により送信された撮影指示を前記第2の通信部により受信し、
     受信された撮影指示に基づいて前記第2のカメラにより撮影し、
     複数の前記携帯情報端末装置の中の第3の携帯情報端末装置は、
     第3のカメラと、第3の通信部と、を有し、
     前記第1の通信部により送信された撮影指示を前記第3の通信部により受信し、
     受信された撮影指示に基づいて前記第3のカメラにより撮影すること
    を特徴とするシステム。
PCT/JP2016/070078 2016-07-07 2016-07-07 携帯情報端末装置およびそのシステム WO2018008119A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070078 WO2018008119A1 (ja) 2016-07-07 2016-07-07 携帯情報端末装置およびそのシステム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2016/070078 WO2018008119A1 (ja) 2016-07-07 2016-07-07 携帯情報端末装置およびそのシステム

Publications (1)

Publication Number Publication Date
WO2018008119A1 true WO2018008119A1 (ja) 2018-01-11

Family

ID=60912089

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/070078 WO2018008119A1 (ja) 2016-07-07 2016-07-07 携帯情報端末装置およびそのシステム

Country Status (1)

Country Link
WO (1) WO2018008119A1 (ja)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045398A (ja) * 2003-07-24 2005-02-17 Canon Inc 撮影支援方法、撮影支援装置及び撮影装置
JP2005252568A (ja) * 2004-03-03 2005-09-15 Japan Radio Co Ltd カメラシステム
JP2006048519A (ja) * 2004-08-06 2006-02-16 Sony Corp データ送信プログラム,パスワード発行システム及びデータ処理サービスシステム
JP2011050017A (ja) * 2009-08-28 2011-03-10 Canon Inc 制御装置、制御システム及びコマンド送信方法ならびにプログラム
JP2013093843A (ja) * 2011-10-05 2013-05-16 Sanyo Electric Co Ltd 電子機器および電子カメラ
JP2013187826A (ja) * 2012-03-09 2013-09-19 Jvc Kenwood Corp 撮像装置、撮像システム、及び撮像方法
JP2014233036A (ja) * 2013-05-30 2014-12-11 オリンパスイメージング株式会社 撮像機器及び電子機器の制御プログラム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045398A (ja) * 2003-07-24 2005-02-17 Canon Inc 撮影支援方法、撮影支援装置及び撮影装置
JP2005252568A (ja) * 2004-03-03 2005-09-15 Japan Radio Co Ltd カメラシステム
JP2006048519A (ja) * 2004-08-06 2006-02-16 Sony Corp データ送信プログラム,パスワード発行システム及びデータ処理サービスシステム
JP2011050017A (ja) * 2009-08-28 2011-03-10 Canon Inc 制御装置、制御システム及びコマンド送信方法ならびにプログラム
JP2013093843A (ja) * 2011-10-05 2013-05-16 Sanyo Electric Co Ltd 電子機器および電子カメラ
JP2013187826A (ja) * 2012-03-09 2013-09-19 Jvc Kenwood Corp 撮像装置、撮像システム、及び撮像方法
JP2014233036A (ja) * 2013-05-30 2014-12-11 オリンパスイメージング株式会社 撮像機器及び電子機器の制御プログラム

Similar Documents

Publication Publication Date Title
US9007464B2 (en) Photographing apparatus, photographing system, photographing method, and program stored in non-transitory medium in photographing apparatus
CN111050072B (zh) 一种异地合拍方法、设备以及存储介质
JP2016123137A (ja) 画像通信装置および撮像装置
WO2017221659A1 (ja) 撮像装置、表示装置、及び撮像表示システム
JP4396500B2 (ja) 撮像装置、画像の姿勢調整方法、及びプログラム
JP6398472B2 (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
JP5889441B2 (ja) 画像処理装置、撮像装置、画像処理方法及び画像処理プログラム
KR20180040656A (ko) 촬영 파라미터 설정 방법, 장치, 프로그램 및 기록매체
US20150189151A1 (en) Information processing apparatus, imaging apparatus, information processing method, information processing program, and imaging system
JP2018152787A (ja) 撮像装置、外部装置、撮像システム、撮像方法、操作方法およびプログラム
JP6950793B2 (ja) 電子機器およびプログラム
JP2018007041A (ja) 撮像装置、表示装置、及び撮像表示システム
KR101814714B1 (ko) 스마트폰 카메라 원격 제어 방법 및 시스템
CN114096984A (zh) 从通过拼接部分图像而创建的全向图像中去除图像捕获装置
CN107800954A (zh) 摄像控制装置、摄像装置、摄像控制方法、摄像方法以及记录介质
WO2018008119A1 (ja) 携帯情報端末装置およびそのシステム
JP5889690B2 (ja) 撮影システム及び撮影管理サーバ
JP2009111827A (ja) 撮影装置及び画像ファイル提供システム
JP2018061243A (ja) 通信端末、表示方法、及びプログラム
JP6610741B2 (ja) 画像表示システム、画像表示装置、画像表示方法、およびプログラム
JP2017184109A (ja) カメラ付携帯情報端末装置
KR101763938B1 (ko) 위치정보 기반의 영상데이터의 처리 방법 및 장치
JP6704301B2 (ja) 撮像装置、及び撮像表示システム
US11496685B2 (en) Information processing system, information processing method, medium, and management device
WO2016157406A1 (ja) 画像取得装置および画像ファイル生成方法ならびに画像ファイル生成プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16908163

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16908163

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP