WO2015194275A1 - 撮像システム、撮像装置、情報処理装置および方法とプログラム - Google Patents

撮像システム、撮像装置、情報処理装置および方法とプログラム Download PDF

Info

Publication number
WO2015194275A1
WO2015194275A1 PCT/JP2015/063125 JP2015063125W WO2015194275A1 WO 2015194275 A1 WO2015194275 A1 WO 2015194275A1 JP 2015063125 W JP2015063125 W JP 2015063125W WO 2015194275 A1 WO2015194275 A1 WO 2015194275A1
Authority
WO
WIPO (PCT)
Prior art keywords
disturbance
imaging
information processing
information
imaging device
Prior art date
Application number
PCT/JP2015/063125
Other languages
English (en)
French (fr)
Inventor
伊藤 亮吾
岡本 圭司
陽子 深田
和馬 赤松
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to EP15809852.5A priority Critical patent/EP3160126A4/en
Priority to US15/306,551 priority patent/US10044914B2/en
Priority to JP2016529158A priority patent/JP6493401B2/ja
Priority to CN201580030734.7A priority patent/CN106664352A/zh
Publication of WO2015194275A1 publication Critical patent/WO2015194275A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72448User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions
    • H04M1/72454User interfaces specially adapted for cordless or mobile telephones with means for adapting the functionality of the device according to specific conditions according to context-related or environment-related conditions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/81Camera processing pipelines; Components thereof for suppressing or minimising disturbance in the image signal generation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/0254Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets comprising one or a plurality of mechanically detachable modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0264Details of the structure or mounting of specific components for a camera module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/72Mobile telephones; Cordless telephones, i.e. devices for establishing wireless links to base stations without route selection
    • H04M1/724User interfaces specially adapted for cordless or mobile telephones
    • H04M1/72403User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality
    • H04M1/72409User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories
    • H04M1/72412User interfaces specially adapted for cordless or mobile telephones with means for local support of applications that increase the functionality by interfacing with external accessories using two-way short-range wireless interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/663Remote control of cameras or camera parts, e.g. by remote control devices for controlling interchangeable camera parts based on electronic image sensor signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/52Details of telephonic subscriber devices including functional features of a camera

Definitions

  • This technology relates to an imaging system, an imaging apparatus, an information processing apparatus, a method, and a program, and makes it possible to easily detect a low-quality part of a captured image.
  • imaging devices such as digital still cameras and digital video cameras that capture an image of a subject, generate image data, and record the image data as content have become widespread.
  • information processing devices for example, smartphones
  • Patent Document 1 For example, refer to Patent Document 1.
  • the imaging device is not limited to being used apart from the information processing device, but may be used fixed to the information processing device.
  • it is required to perform automatic editing or the like by automatically detecting a low-quality part of the captured image.
  • An object is to provide an imaging system, an imaging apparatus, an information processing apparatus and method, and a program.
  • the first aspect of this technology is A fixed state in which the information processing device and the imaging device are fixed to each other; and a separation state in which the information processing device and the imaging device are separated; Disturbance information indicating disturbance affecting image data or audio data generated by the imaging device is generated by the imaging device at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state.
  • the imaging system includes a control unit associated with image data.
  • the imaging system of this technology is configured to be used in a fixed state in which the information processing device and the imaging device are fixed to each other or in a separated state in which the information processing device and the imaging device are separated.
  • the separation determination unit determines whether the state is fixed or separated.
  • the determination result of the fixed separation determination unit is used to transfer to the imaging device related to the fixed state.
  • Disturbance information indicating the disturbance is associated with image data generated by the imaging device at the timing of the disturbance.
  • Disturbance information includes, for example, information regarding a transition from a fixed state to a separated state or a transition from a separated state to a fixed state as a disturbance, information regarding a notification given to the user in the information processing device as a disturbance, This is information with the interruption of the communication line as a disturbance, and includes information indicating the type of disturbance.
  • the notification given to the user is, for example, a notification related to the mobile phone function.
  • a control unit is provided in the imaging apparatus, a disturbance generated in the information processing apparatus is notified to the imaging apparatus.
  • the second aspect of this technology is A fixed state in which the information processing device and the imaging device are fixed to each other; and a separation state in which the information processing device and the imaging device are separated; Disturbance information indicating disturbance affecting image data or audio data generated by the imaging device is generated by the imaging device at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state.
  • An imaging control method including a step of associating with image data.
  • the third aspect of this technology is A program that causes a computer to execute control of the information processing apparatus or the imaging apparatus having a fixed state in which the information processing apparatus and the imaging apparatus are fixed to each other and a separated state in which the information processing apparatus and the imaging apparatus are separated Because Disturbance information indicating disturbance affecting image data or audio data generated by the imaging device is generated by the imaging device at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state.
  • the program of the present technology is, for example, a storage medium or a communication medium provided in a computer-readable format to a general-purpose computer that can execute various program codes, such as an optical disk, a magnetic disk, or a semiconductor memory. It is a program that can be provided by a medium or a communication medium such as a network. By providing such a program in a computer-readable format, processing corresponding to the program is realized on the computer.
  • the fourth aspect of this technology is A fixed state fixed to the information processing device, and a separated state separated from the information processing device, A controller is provided that associates disturbance information indicating disturbance affecting the generated image data or audio data with the image data generated at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state.
  • a controller is provided that associates disturbance information indicating disturbance affecting the generated image data or audio data with the image data generated at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state.
  • the fifth aspect of this technology is A fixed state fixed to the imaging device, and a separated state separated from the imaging device, Disturbance information indicating disturbance affecting image data or audio data generated by the imaging device is generated by the imaging device at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state.
  • the information processing apparatus includes a control unit associated with image data.
  • the information processing device and the imaging device have a fixed state in which the information processing device and the imaging device are fixed to each other, and a separation state in which the information processing device and the imaging device are separated, and are generated by the imaging device.
  • Disturbance information indicating a disturbance affecting image data or audio data is associated with image data generated by the imaging device at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separated state. Therefore, not only when the imaging apparatus and the information processing apparatus are separated from each other, but in a system that can be used in a fixed manner, it is possible to easily detect a portion with a low quality of the captured image.
  • the effects described in the present specification are merely examples and are not limited, and may have additional effects.
  • FIG. 1 is a perspective view illustrating an external configuration of an imaging system. It is the front view and side view of an imaging device. It is the block diagram which illustrated the functional composition of the imaging device. It is the block diagram which illustrated the functional composition of information processor (for example, smart phone). It is a sequence diagram which shows the operation
  • FIG. 1 illustrates a functional configuration of the imaging system of the present technology.
  • the imaging system 10 has a fixed state in which the information processing device and the imaging device are fixed to each other and a separated state in which the information processing device and the imaging device are separated.
  • the imaging system 10 includes a control unit 15 as illustrated in FIG. 1A, and the control unit 15 stores disturbance information indicating disturbance that affects image data or audio data generated by the imaging device. Based on the fixed separation information indicating the fixed state and the separation state, it has a function of associating with image data generated by the imaging device at the timing of the disturbance.
  • the control unit 15 may be provided in the imaging device or in the information processing device. Moreover, you may provide in the adapter used in order to fix an imaging device and information processing apparatus mutually.
  • the imaging system 10 illustrated in FIG. 1B has a function of associating disturbance information with image data generated by the imaging apparatus 20 at the timing of the disturbance, with respect to the control unit 45 that performs operation control of the imaging apparatus 20. This is illustrated as an example.
  • the imaging system 10 illustrated in FIG. 1C performs disturbance on the basis of the fixed separation information indicating the fixed state and the separated state with respect to the control unit 85 that performs operation control of the information processing device 60.
  • the imaging system 10 illustrated in FIG. 1D has a function of associating disturbance information with image data generated by the imaging apparatus 20 at the timing of the disturbance, independently of the imaging apparatus 20 and the information processing apparatus 60.
  • the case where the control part 95 is provided is illustrated.
  • the imaging system may be provided with a fixed separation determination unit that outputs fixed separation information indicating whether the imaging device and the information processing device are in a fixed state or a separated state.
  • a fixed separation determination unit 91 may be provided in the imaging apparatus 20 as illustrated in FIG. 1B, and a fixed separation determination unit 91 is provided in the information processing apparatus 60 as illustrated in FIG. May be.
  • a fixed separation determination unit 91 may be provided independently of the imaging device 20 and the information processing device 60.
  • the fixed separation determination unit 91 may be provided in an adapter or the like used to fix the imaging device and the information processing device to each other.
  • the fixed separation determination unit 91 may be provided in a device different from a device having a control unit that has a function of associating disturbance information with image data generated by the imaging device 20 at the timing of disturbance.
  • the controller 45 of the imaging device 20 has a function of associating disturbance information with image data generated by the imaging device 20 at the timing of the disturbance.
  • the fixed separation determination unit 91 may be provided in the information processing apparatus 60.
  • the imaging device 20 generates a captured image (a still image or a moving image).
  • the imaging device 20 has a wireless communication function, and communicates various information with the information processing device 60.
  • the imaging device 20 is not provided with a function for displaying a captured image generated by imaging or a function for outputting sound at the time of imaging, and transmits image data or audio data at the time of imaging to the information processing device.
  • display of the captured image and output of sound are performed by the information processing apparatus.
  • the imaging device 20 may be provided with a function for displaying a captured image and a function for outputting sound at the time of imaging.
  • the information processing device 60 is a device having a display function and a wireless communication function.
  • a mobile phone, a smartphone, a tablet terminal, a laptop computer, or the like can be used as the information processing device.
  • the information processing device 60 processes information supplied from the imaging device 20 by wireless communication.
  • the information processing device 60 displays a captured image and outputs a sound based on image data and sound data supplied from the image capturing device 20.
  • the imaging system 10 is not limited to the configuration shown in FIG.
  • the imaging system 10 may be a control unit 15 alone, a control unit 45 alone, an imaging device 20 alone, an information processing device 60 alone, or a combination thereof.
  • FIG. 2 is a diagram illustrating an external configuration of the imaging system
  • FIG. 3 is a perspective view illustrating an external configuration of the imaging system
  • FIG. 4 is a front view and a side view of the imaging apparatus. 2 and 3, for example, a smartphone is used as the information processing apparatus.
  • the imaging device 20 includes an imaging optical system, an imaging unit, a signal processing unit, a communication unit, a control unit, and the like, although not shown, inside the outer cylinder unit 21 formed in a cylindrical shape.
  • An annular control ring 22 is provided at the front end portion of the outer cylinder portion 21.
  • the imaging device 20 changes the focus position and the zoom position according to the rotation of the control ring 22. Therefore, if the control ring 22 is used, manual operations such as focus adjustment can be performed.
  • a zoom button 441 and a shutter button 442 are provided on the side surface of the outer cylinder portion 21. The imaging device 20 changes the zoom position to the wide-angle side or the telephoto side according to the operation of the zoom button 441.
  • the imaging device 20 performs processing for recording a still image when the shutter button 442 is operated by the user on a recording medium. Further, when in the moving image mode, the imaging device 20 starts or ends the recording of the moving image according to the operation of the shutter button 442.
  • the imaging device 20 is provided with a voice input unit 39.
  • the information processing apparatus 60 includes a signal processing unit, a communication unit, a control unit, and the like, not shown, inside an outer casing 61 formed in a substantially rectangular case shape.
  • a display panel 62 is provided on one surface (front surface) of the outer casing 61.
  • the display panel 62 is configured using a touch panel, and various functions are executed by operating predetermined positions on the display panel 62.
  • the imaging device 20 is provided with an attachment mechanism unit 50 for integrally attaching the imaging device 20 and the information processing device 60.
  • the attachment mechanism portion 50 is provided with attachment members 51 and 52, and is configured to be movable in the direction of the arrow FA as shown in FIG.
  • the user moves the mounting members 51 and 52 in the direction of the arrow FA in accordance with the shape, size, and the like of the information processing device 60 and locks the imaging device 20 on the outer casing 61 of the information processing device 60, thereby It fixes to 60 integrally.
  • 2A shows a state in which the imaging device 20 is integrally fixed to the back side of the information processing device 60
  • FIG. 2B shows the front side of the information processing device 60 ( The state where the imaging device 20 is integrally fixed to the display panel 62 side) is shown.
  • the user moves the attachment members 51 and 52 locked to the outer casing 61 of the information processing device 60 in the opposite direction to the locking direction to separate the imaging device 20 and the information processing device 60. .
  • the attachment mechanism unit 50 is not limited to being configured integrally with the imaging device 20, but is configured separately from the imaging device 20 as an adapter for integrally mounting the imaging device 20 and the information processing device 60. It may be.
  • FIG. 5 is a block diagram illustrating a functional configuration of the imaging apparatus.
  • the imaging device 20 includes an imaging optical system 31, an imaging unit 32, an image processing unit 33, a recording / reproducing unit 34, a power supply unit 35, a sensor unit 36, a storage unit 37, a display unit 38, a voice input unit 39, a communication unit 41, and an illumination.
  • the imaging device 20 is provided with a recording medium 46.
  • the recording medium 46 may be fixed to the imaging device 20 or may be detachably provided.
  • the imaging optical system 31 includes a lens group including a focus lens, a zoom lens, and the like, a diaphragm adjustment mechanism, and a drive unit that drives the lens group and the diaphragm adjustment mechanism. Further, the imaging optical system 31 may include a shutter mechanism, a camera shake correction mechanism, and the like.
  • the imaging unit 32 is configured using an imaging device such as a CCD (Charge-Coupled Device) or a CMOS (Complementary Metal-Oxide Semiconductor).
  • the imaging unit 32 converts the subject optical image formed by the imaging optical system 31 into image data.
  • the imaging unit 32 outputs image data generated by photoelectric conversion to the image processing unit 33.
  • the image processing unit 33 performs various signal processing on the image data output from the imaging unit 32. For example, the image processing unit 33 performs noise removal, color tone correction, edge detection, and the like as necessary. The image processing unit 33 outputs the processed image data to the recording / reproducing unit 34.
  • the recording / reproducing unit 34 uses the recording medium 46 to record a captured image and reproduce the recorded captured image.
  • the recording / reproducing unit 34 records still image or moving image image data generated by the imaging unit 32 and processed by the image processing unit 33 on the recording medium 46.
  • the recording / reproducing unit 34 reproduces still images and moving images recorded on the recording medium 46 and reads out image data.
  • the recording / reproducing unit 34 may record the image data before being processed by the image processing unit 33 on the recording medium 46. Further, the recording / reproducing unit 34 may perform an encoding process for compressing the data amount of image data to be recorded on the recording medium 46 and a decoding process for the encoded data recorded on the recording medium 46.
  • the power supply unit 35 includes a battery and a power supply circuit.
  • the power supply unit 35 supplies power to each unit of the imaging device 20 according to a control signal output from the control unit 45.
  • the sensor unit 36 detects the current position, posture, posture change, direction, and the like of the imaging device 20.
  • the sensor unit 36 includes a sensor for detecting a current position, a sensor for detecting a posture and a posture change, and a sensor for detecting an orientation such as an imaging direction, and sensor information indicating a detection result. Is output to the control unit 45.
  • the sensor unit 36 determines what inclination the imaging device 20 has with respect to the vertical direction and the horizontal direction, and what rotation direction the imaging device 20 uses with the optical axis of the imaging optical system 31 as a rotation axis.
  • the posture is detected such as whether it is a position. Further, the sensor unit 36 detects a change in posture of the imaging device 20 and the like.
  • the captured image can be displayed on the information processing apparatus 60 in consideration of the attitude of the imaging apparatus 20 and the like. For example, when the imaging device 20 is tilted with respect to the horizontal direction and a captured image is generated, the information processing device 60 corrects the tilt of the imaging device 20 based on the sensor information and displays an image. By performing image display in this way, it is possible to prevent a subject that is not inclined with respect to the horizontal direction from being displayed with an inclination.
  • the sensor unit 36 uses, for example, a GPS (Global Positioning System) positioning module as a sensor for detecting the current position.
  • GPS Global Positioning System
  • the sensor unit 36 uses, for example, a three-axis acceleration sensor, an inclination sensor, a gyro sensor, or the like as a sensor for detecting a posture or a change in posture, and a geomagnetic sensor or the like as a sensor for detecting the orientation in the imaging direction.
  • the sensor unit 36 may be configured to detect at least one of the current position, posture, posture change, direction, and the like of the imaging device 20.
  • the storage unit 37 is a recording medium such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the RAM is used as a work area of the control unit 45, for example.
  • the ROM stores, for example, programs for executing various controls by the control unit 45.
  • the ROM and RAM store control information and the like used for performing various controls by the control unit 45.
  • the display unit 38 is configured using, for example, a liquid crystal display element or the like, and displays a setting state and an operation state of the imaging device 20.
  • the voice input unit 39 is configured using a microphone.
  • the audio input unit 42 performs signal level adjustment of the audio signal generated by the microphone, A / D conversion processing for converting the audio signal into audio data, processing for compressing the data amount, and the like, and recording and reproduction of the processed audio data To the unit 34.
  • the communication unit 41 includes a first wireless communication unit 411, a first antenna 412, a second wireless communication unit 413, and a second antenna 414.
  • the first wireless communication unit 411 has an NFC (Near Field Communication) communication function.
  • the first wireless communication unit 411 transmits a wireless signal reaching a short distance of about 3 cm to 10 cm or about 7 mm depending on the design from the first antenna 412 according to control by the control unit 45, and is within the radio wave reachable range.
  • NFC communication is performed with the included external device (for example, the information processing device 60).
  • the first wireless communication unit 411 transmits, for example, connection information (Wi-Fi Configuration) for automatic Wi-Fi connection and AAR (Android Application Record) in accordance with a Check command from an external device.
  • the connection information includes an SSID (Service Set Identifier), PassKey (encryption key), etc. for Wi-Fi connection.
  • the second wireless communication unit 413 has a wireless LAN communication function.
  • the second wireless communication unit 413 communicates with an external device (for example, the information processing device 60) by transmitting a wireless signal corresponding to the IEEE 802.11 series communication standard from the second antenna 414 according to the control of the control unit 45.
  • the second wireless communication unit 413 performs Wi-Fi authentication in response to a Wi-Fi connection request from an external device, and performs Wi-Fi communication connection establishment processing with the external device.
  • the illumination unit 42 emits illumination light toward the subject based on a control signal from the control unit 45 so that a captured image having a desired brightness is obtained.
  • the operation input unit 44 detects an operation input by the user and outputs an operation signal corresponding to the user operation to the control unit 45.
  • the operation input unit 44 includes the zoom button 441 and the shutter button 442 described above, and has a configuration in which functions are assigned in advance to physical switches.
  • the control unit 45 executes the program recorded in the storage unit 37, the operation signal supplied from the operation input unit 44, the control information stored in the storage unit 37, the communication result with the information processing device 60, A control signal is generated based on fixed separation information, sensor information, and the like.
  • the control unit 45 outputs the generated control signal to each unit, and performs imaging control, image processing control, recording / reproduction control, and the like so that the operation according to the user operation is performed by the imaging device 20.
  • the control unit 45 performs processing for transmitting image data and audio data from the communication unit 41 to the information processing device 60 and processing for controlling the operation of the imaging device 20 based on a control signal from the information processing device 60.
  • the recording medium 46 is a memory card or the like in which captured images are written, and is detachably provided.
  • the fixed separation information output from the fixed separation determination unit 91 is transmitted to the control unit 85 of the information processing device 60 via the control unit 45 or the communication unit 41. Is output. Further, the processing of the fixed separation determination unit 91 may be performed by the control unit 45.
  • FIG. 6 is a block diagram illustrating a functional configuration of an information processing apparatus (for example, a smartphone).
  • the information processing apparatus 60 includes a communication unit 71, a voice input / output unit 72, an imaging block 73, an illumination unit 74, a recording / playback unit 75, a sensor unit 76, a storage unit 77, a power supply unit 78, a display unit 81, an operation input unit 82, It has a vibration generating mechanism 83 and a control unit 85.
  • the information processing apparatus 60 is provided with a recording medium 86 in a detachable manner.
  • the communication unit 71 includes a first wireless communication unit 711, a first antenna 712, a second wireless communication unit 713, a second antenna 714, a third wireless communication unit 715, and a third antenna 716.
  • the first wireless communication unit 711 has an NFC (Near Field Communication) communication function.
  • the first wireless communication unit 711 performs NFC communication with an external device (for example, the imaging device 20) by transmitting a radio wave from the first antenna 712 under the control of the control unit 85.
  • the second wireless communication unit 713 has a wireless LAN communication function.
  • the second wireless communication unit 713 communicates with an external device (for example, the imaging device 20) by transmitting a wireless signal corresponding to the IEEE 802.11 series communication standard from the second antenna 714 according to the control of the control unit 85.
  • the third wireless communication unit 715 has a mobile phone function such as a call function and an e-mail function.
  • the third radio communication unit 715 communicates with the base station by transmitting a radio signal corresponding to a communication standard such as LTE (Long Term Evolution) from the third antenna 716 under the control of the control unit 85.
  • LTE Long Term Evolution
  • the voice input / output unit 72 is configured using a speaker and a microphone.
  • the voice input / output unit 72 performs voice input / output of a voice call performed via the communication unit 71.
  • the voice input / output unit 72 performs voice output based on the voice data output from the imaging device 20 via the communication unit 71.
  • the audio input / output unit 72 outputs the reproduction sound of the music content and the moving image content recorded in the storage unit 77 and the recording medium 86.
  • the imaging block 73 includes an imaging optical system, an imaging device such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor), a driving unit that drives the imaging optical system and the imaging device, and the like.
  • the imaging block 73 generates image data of a captured image.
  • the illumination unit 74 emits illumination light toward the subject so that a captured image with a desired brightness is obtained based on a control signal from the control unit 85.
  • the recording / reproducing unit 75 uses the recording medium 86 to record various information and to read the recorded information.
  • the recording / playback unit 75 records, for example, music content, moving image content, captured images, mail information, address information of others used in wireless communication, and the like on the recording medium 86.
  • the recording / reproducing unit 75 reads various information recorded on the recording medium 86.
  • the sensor unit 76 detects the current position, posture, posture change, direction, and the like of the information processing device 60.
  • the sensor unit 76 includes a sensor for detecting a current position, a sensor for detecting a posture and a posture change, and a sensor for detecting an orientation such as an imaging direction, and sensor information indicating a detection result. Is output to the control unit 85.
  • the sensor unit 76 uses, for example, a GPS (Global Positioning System) positioning module as a sensor for detecting the current position.
  • GPS Global Positioning System
  • the sensor unit 76 uses, for example, a three-axis acceleration sensor, an inclination sensor, a gyro sensor, or the like as a sensor for detecting a posture or a posture change, and a geomagnetic sensor or the like as a sensor for detecting the orientation in the imaging direction.
  • the sensor unit 76 may be configured to detect at least one of the current position, posture, posture change, direction, and the like of the information processing device 60.
  • the storage unit 77 is a recording medium such as a RAM (Random Access Memory) and a ROM (Read Only Memory).
  • the RAM is used as a work area of the control unit 85, for example.
  • the ROM stores, for example, programs for executing various controls by the control unit 85.
  • the ROM and RAM store control information and the like used for performing various controls by the control unit 85. Further, music content, moving image content, various application programs, captured images supplied from the imaging device 20, mail information, and the like can be recorded in the RAM.
  • the power supply unit 78 includes a battery and a power supply circuit.
  • the power supply unit 78 supplies power to each unit of the information processing device 60 based on a control signal from the control unit 85.
  • the display unit 81 is configured using a display element such as a liquid crystal display or an organic EL display. Under the control of the control unit 85, the display unit 81 displays a GUI (Graphical User Interface) screen, characters and images corresponding to the operation of the application, and the like. Further, the display unit 81 performs image display based on the image data output from the imaging device 20 under the control of the control unit 85.
  • a display element such as a liquid crystal display or an organic EL display.
  • GUI Graphic User Interface
  • the operation input unit 82 is configured using operation switches and a touch panel.
  • the touch panel is provided on the display screen of the display unit 81 and is configured such that functions are assigned according to the display on the display screen.
  • the operation input unit 82 generates an operation signal corresponding to the user operation and outputs the operation signal to the control unit 85.
  • the above-described display panel 62 includes, for example, a display unit 81 and an operation input unit 82.
  • the vibration generating mechanism 83 is a mechanism for a vibrator function that vibrates the information processing apparatus itself.
  • the vibration generating mechanism 83 activates the vibrator function based on the control signal from the control unit 85 when receiving an incoming call when the mobile phone function is used, and notifies the user of the incoming call by the vibration of the information processing device 60.
  • the control unit 85 executes the program recorded in the storage unit 77 and generates a control signal based on the operation signal supplied from the operation input unit 82, the control information stored in the storage unit 77, and the like.
  • the control unit 85 outputs the generated control signal to each unit, and performs communication control, display control, recording / reproduction control, and the like so that the information processing apparatus 60 performs an operation according to the user operation.
  • the control unit 85 controls the communication unit 71 to perform wireless communication with the imaging device 20 and the base station.
  • the control unit 85 generates a control signal based on an operation signal, fixed separation information, and the like after transmitting a process for starting a predetermined application program based on communication with the imaging device 20 and starting the program. Process. Further, the control unit 85 performs a process of displaying the captured image supplied from the imaging device 20 on the display unit 81.
  • the fixed separation information output from the fixed separation determination unit 91 is output to the control unit 45 of the imaging device 20 via the control unit 85 or the communication unit 71.
  • the processing of the fixed separation determination unit 91 may be performed by the control unit 85.
  • the fixed separation determination unit 91 When the fixed separation determination unit 91 is provided in the adapter for fixing the imaging device 20 and the information processing device 60, the fixed separation determination unit 91 outputs the determination result to the control unit 45 or the information processing device 60 of the imaging device 20. To the control unit 85.
  • FIG. 7 is a sequence diagram illustrating an operation process until the cooperation function between the imaging apparatus and the information processing apparatus is started in the imaging system.
  • step ST1 the information processing apparatus 60 transmits a Polling Command by NFC communication.
  • the first wireless communication unit 411 of the communication unit 41 in the imaging device 20 in step ST2 Detects Polling Command transmission.
  • step ST3 the first wireless communication unit 411 sends a detection notification to the control unit 45 in response to detecting the NFC communication from the information processing device 60.
  • step ST4 the control unit 45 generates a control signal according to the detection notification from the first wireless communication unit 411, outputs the control signal to the power supply unit 35, and controls the power ON.
  • step ST5 the first wireless communication unit 411 transmits a Command Response by NFC communication in response to detection of NFC communication.
  • step ST6 the information processing device 60 detects a Command Response from the imaging device 20 to find an NFC communication partner and transmits a Check Command to acquire predetermined information.
  • step ST7 the first wireless communication unit 411 of the imaging device 20 outputs the Check command received by the NFC communication to the control unit 45.
  • step ST8 the control unit 45 outputs response data to the first wireless communication unit 411 in accordance with Check Command.
  • the response data includes, for example, the above-described Wi-Fi Config and AAR.
  • step ST9 the first wireless communication unit 411 transmits response data to the information processing apparatus 60 by NFC communication. Note that steps ST6 to ST9 described above may be performed a plurality of times, and the response data may be transmitted in a plurality of times.
  • the control unit 45 performs an imaging preparation operation.
  • the control unit 45 performs a preparation operation so that the imaging device 20 can perform imaging.
  • a preparatory operation may be performed that makes it possible to identify that the imaging device 20 is ready to capture an image.
  • the control unit 45 performs an operation of projecting the lens, an operation of outputting a startup sound, and the like.
  • the imaging preparation operation may be performed after the wireless LAN connection is completed.
  • step ST11 the information processing apparatus 60 starts a predetermined application according to the received AAR. For example, in a predetermined application, image data of a captured image transmitted from the imaging device 20 through wireless LAN communication is received, and processing for displaying the captured image is performed.
  • step ST12 the information processing apparatus 60 requests the imaging apparatus 20 for Wi-Fi connection using the received Wi-Fi Config.
  • step ST13 the second wireless communication unit 413 of the communication unit 41 in the imaging device 20 outputs the connection request received from the information processing device 60 to the control unit 45.
  • step ST14 the control unit 45 performs authentication. Note that the authentication may be performed by the second wireless communication unit 413.
  • step ST15 the control unit 45 outputs the authentication result to the second wireless communication unit 413.
  • step ST16 the second wireless communication unit 413 transmits the authentication result to the information processing apparatus 60.
  • step ST17 the information processing apparatus 60 completes the wireless LAN connection upon successful authentication. Thereafter, the imaging device 20 and the information processing device 60 perform wireless LAN communication.
  • the imaging device 20 and the information processing device 60 may be linked by wireless LAN communication or the like, and the processing until the cooperation function between the imaging device and the information processing device is performed is limited to the processing in the order shown in FIG. I can't.
  • the mounting mechanism 50 can be used by being fixed integrally. Further, the imaging device 20 and the information processing device 60 can be used even in a separated state as shown in FIG.
  • the imaging apparatus 20 or the information processing apparatus 60 configured as described above fixes disturbance information indicating disturbance to the imaging apparatus 20 related to the fixed state between the imaging apparatus 20 and the information processing apparatus 60 after performing the cooperation function. Based on the fixed separation information indicating the state and the separation state, it is associated with the image data generated by the imaging device 20 at the timing of the disturbance.
  • the fixed separation information indicating whether the imaging device 20 and the information processing device 60 are in the fixed state or the separation state may be generated by the attachment mechanism unit 50, or may be generated by the imaging device 20 or the information processing device 60.
  • a switch that is turned on when the attachment members 51 and 52 are locked to the information processing device 60 and is turned off when not locked is attached.
  • a signal generated by this switch can be used as fixed separation information.
  • the switch is turned on when the attachment mechanism unit 50 is attached to the imaging device 20 and turned off when the imaging device 20 is separated. Are provided in the imaging device 20.
  • a signal generated by this switch can be used as fixed separation information.
  • a detection mechanism for detecting whether or not the attachment members 51 and 52 are locked to the information processing device 60 is provided, and the detection result by this detection mechanism is displayed. It can be used as fixed separation information.
  • a detection mechanism a switch may be provided in the information processing apparatus 60, or a display panel 62 may be used. In accordance with the fixed separation information generated in this manner, it is possible to determine whether the imaging device 20 and the information processing device 60 are in a fixed state in which they are fixed or separated.
  • FIG. 9 is a flowchart showing the basic operation.
  • the imaging system 10 starts a cooperation function.
  • the imaging system 10 performs, for example, the process illustrated in FIG. 7 described above, starts a cooperation function between the imaging device 20 and the information processing device 60, and proceeds to step ST32.
  • step ST32 the imaging system 10 starts recording imaging information.
  • the imaging system 10 starts recording of still image or moving image data or the image data and audio data in response to a user operation, for example, and proceeds to step ST33.
  • step ST33 it is determined whether the imaging system 10 is in a fixed state.
  • the imaging system 10 determines whether the imaging device and the information processing device are in a fixed state based on the fixed separation information.
  • the imaging system 10 proceeds to step ST34 when determining that the imaging apparatus and the information processing apparatus are in the fixed state, and proceeds to step ST36 when determining that the imaging apparatus and the information processing apparatus are in the separated state.
  • step ST34 the imaging system 10 determines whether there is a disturbance.
  • the imaging system 10 proceeds to step ST35 when the occurrence of the disturbance is determined, and proceeds to step ST36 when the occurrence of the disturbance is not determined.
  • step ST35 the imaging system 10 performs disturbance association processing.
  • the imaging system 10 associates the disturbance information indicating the disturbance with the image data generated by the imaging apparatus at the timing of the disturbance based on the fixed separation information, and proceeds to step ST36.
  • step ST36 the imaging system 10 determines whether the recording is finished.
  • the imaging system 10 returns to step ST33 when determining that the recording end operation has not been performed, and ends the operation when determining that the recording end operation has been performed.
  • the disturbance information indicating the disturbance affecting the image data or audio data generated by the imaging device is In association with the image data generated by the imaging device at the timing, it is possible to easily detect a portion where the quality of the captured image is low based on disturbance information.
  • FIG. 10 is a flowchart showing the first operation.
  • the imaging system 10 starts a cooperation function.
  • the imaging system 10 starts a cooperation function between the imaging device 20 and the information processing device 60 and proceeds to step ST42.
  • step ST42 the imaging system 10 starts recording imaging information.
  • the imaging device 20 of the imaging system 10 starts recording moving image data or this image data and audio data in response to the recording start operation, and proceeds to step ST43.
  • step ST43 it is determined whether the imaging system 10 is in a fixed state.
  • the imaging system 10 determines whether the imaging device 20 and the information processing device 60 are in a fixed state based on the fixed separation information.
  • the imaging system 10 proceeds to step ST44 when it is determined that the imaging device 20 and the information processing device 60 are in the fixed state, and proceeds to step ST45 when it is determined that they are in the separated state.
  • step ST44 the imaging system 10 determines whether it is a transition to the separation state.
  • the imaging system 10 proceeds to step ST46 when the imaging device 20 and the information processing device 60 transition to the separated state, and proceeds to step ST47 when the fixed state is continued.
  • step ST45 the imaging system 10 determines whether it is a transition to the fixed state.
  • the imaging system 10 proceeds to step ST46 when the imaging device 20 and the information processing device 60 transition to the fixed state, and proceeds to step ST47 when the separation state is continued.
  • step ST46 the imaging system 10 performs disturbance association processing.
  • the imaging system 10 uses the transition from the fixed state to the separated state or the transition from the separated state to the fixed state as a disturbance, and the disturbance information indicating the disturbance is generated at the timing of the disturbance based on the fixed separation information.
  • the process proceeds to step ST47 in association with the image data.
  • step ST47 the imaging system 10 determines whether the recording is finished.
  • the imaging system 10 returns to step ST43 when determining that the recording end operation has not been performed, and ends the operation when determining that the recording end operation has been performed.
  • the transition from the fixed state to the separated state and the transition from the separated state to the fixed state may be determined by either the imaging device or the information processing device.
  • the state transition indicates from one stable state until the state changes to the other stable state.
  • the imaging device 20 and the information processing device 60 are integrally attached by the attachment mechanism unit 50
  • the attachment mechanism unit 50 is operated to change from the fixed state to the separated state or from the separated state to the fixed state.
  • the state may become unstable.
  • the operation of the attachment mechanism unit 50 from the fixed state to the separated state or from the separated state to the fixed state affects image data or audio data generated by the imaging apparatus. Therefore, the state transition is from the stable one state until the state changes to the stable other state.
  • the association of the disturbance information with the image data may be performed by either the imaging device or the information processing device.
  • the imaging device records the disturbance information as the auxiliary information on the recording medium together with the image data, for example.
  • the state information is notified from the information processing device to the imaging device by a wireless signal, so that the disturbance information is transmitted at the timing of the disturbance. Can be associated with the image data generated.
  • the information processing apparatus records the disturbance information, for example, as the auxiliary information on the recording medium of the information processing apparatus together with the image data.
  • the state information is notified from the imaging device to the information processing device by a wireless signal, so that the disturbance information is transmitted at the timing of the disturbance by the imaging device. It can be associated with the generated image data.
  • the relationship between the disturbance information and the image data is not limited to recording the disturbance information together with the image data on the recording medium on which the image data is recorded, and the disturbance information may be recorded on a recording medium different from the image data.
  • the device for recording image data and the device for recording disturbance information may be different. In this case, the time information of the image pickup device and the information processing device are matched, and the image data is recorded together with the time information by the image pickup device.
  • the disturbance information is recorded together with the time information at the timing of the disturbance in the information processing apparatus.
  • the disturbance information can be recorded in association with the image data generated by the imaging apparatus at the timing of the disturbance.
  • the relationship between the disturbance information and the image data is not limited to the case where the disturbance information is recorded together with the image data on the recording medium on which the image data is recorded, or the case where the disturbance information is recorded together with the time information.
  • the disturbance information and the image data may be associated by storing the disturbance information and the image data in the same folder.
  • the disturbance information and the image data may be related using a unique identifier (for example, UMID (Unique Material IDentifier) used as a material identifier).
  • UMID Unique Material IDentifier
  • the disturbance information and the image data may be stored in the same folder, or identification information unique to the disturbance information and the image data may be assigned and registered in an external device via a network or the like.
  • a telephone call or an incoming e-mail is notified by the vibration of the information processing apparatus itself.
  • a ringing tone, ringing tone, and vibration of the information processing apparatus itself are disturbances that affect image data or audio data generated by the imaging apparatus.
  • FIG. 11 is a flowchart showing the second operation.
  • the imaging system 10 starts a cooperation function. As described with reference to FIG. 7 described above, the imaging system 10 starts the cooperation function between the imaging device 20 and the information processing device 60 and proceeds to step ST52.
  • step ST52 the imaging system 10 starts recording imaging information.
  • the imaging device 20 of the imaging system 10 starts recording moving image data or this image data and audio data in response to the recording start operation, and proceeds to step ST53.
  • step ST53 it is determined whether the imaging system 10 is in a fixed state.
  • the imaging system 10 determines whether the imaging device 20 and the information processing device 60 are in a fixed state based on the fixed separation information.
  • the imaging system 10 proceeds to step ST54 when it is determined that the imaging device 20 and the information processing device 60 are in a fixed state, and proceeds to step ST56 when it is determined that they are in a separated state.
  • step ST54 the imaging system 10 determines whether a disturbance has occurred in the information processing apparatus.
  • the imaging system 10 determines that a disturbance has occurred and proceeds to step ST55, where notification using sound or vibration is performed. If not, it is determined that there is no disturbance and the process proceeds to step ST56.
  • step ST55 the imaging system 10 performs disturbance association processing.
  • the imaging system 10 proceeds to step ST56 by associating disturbance information indicating disturbance, that is, disturbance information indicating notification using sound or vibration to the user, with image data generated by the imaging apparatus at the timing of the disturbance.
  • step ST56 the imaging system 10 determines whether the recording is finished.
  • the imaging system 10 returns to step ST53 when determining that the recording end operation has not been performed, and ends the operation when determining that the recording end operation has been performed.
  • the determination of the fixed state may be performed by either the imaging device or the information processing device.
  • the association of disturbance information with image data may be performed by either the imaging device or the information processing device.
  • the imaging apparatus records the disturbance information as ancillary information on the recording medium together with the image data, for example.
  • the information processing apparatus transmits information indicating notification to the user to the imaging apparatus as a wireless signal.
  • the determination result of the fixed state is transmitted to the imaging device as a wireless signal.
  • the imaging apparatus can record the disturbance information in association with the image data generated by the imaging apparatus at the timing of the disturbance together with the image data on the recording medium.
  • the information processing apparatus records the disturbance information, for example, as the auxiliary information on the recording medium of the information processing apparatus together with the image data.
  • the determination result of the fixed state is transmitted to the information processing apparatus as a radio signal.
  • the time information of the imaging device and the information processing device for example, the time of the internal clock and the time code are matched, and the determination result of the fixed state by the device that records the disturbance information To get.
  • the image data and the disturbance information have the same time information, so the disturbance information is generated by the imaging device at the timing of the disturbance. Can be associated with image data.
  • the disturbance information may be information that not only indicates the occurrence of the disturbance but also can determine the type of the disturbance.
  • the disturbance information can determine what kind of disturbance (for example, vibration at the time of incoming call) that affects the image and what disturbance (for example, ringtone or call voice) affects the voice. It may be information.
  • the imaging device is set to the moving image mode, and processing for recording information acquired through the information processing device together with moving image data and transmission of the information are performed, and disturbance is generated in the information processing device.
  • the information to be recorded together with the image data is information obtained via a communication line, for example, position information obtained by receiving a positioning signal of a satellite positioning system, a message obtained via SNS (Social Networking Service), or the like.
  • Information is transmitted via a communication line, for example, information related to moving image recording, that is, notification that moving image recording is being performed, imaging conditions, imaging device setting status, imaging position information, etc.
  • the disturbance generated in the information processing apparatus is, for example, a disconnection of a communication line used for receiving or transmitting information with the telephone communication network (base station) via the information processing apparatus. If the position is out of the communication range, the information recorded together with the image data cannot be acquired via the communication line, resulting in disturbance. In addition, when wireless communication between the imaging apparatus and the information processing apparatus becomes impossible, for example, information acquired by the information processing apparatus together with image data cannot be recorded by the imaging apparatus, resulting in disturbance. Furthermore, when a plurality of users connected via a network are performing image capturing with synchronized time, image data can be edited by exchanging information indicating that the image is being captured with other users. At this time, it is possible to use image data acquired by other users by matching the times. However, if the communication line with another user is interrupted, information indicating that the image is being taken cannot be exchanged, so that editing processing using image data acquired by another user cannot be performed, resulting in disturbance. Become.
  • step ST51 to step ST53 are performed as in the second operation.
  • step ST54 the imaging system 10 determines whether a disturbance has occurred in the information processing apparatus.
  • the information processing apparatus of the imaging system 10 determines that a disturbance has occurred when the communication line used to acquire information to be supplied to the imaging apparatus is disconnected, proceeds to step ST55, and the communication line is disconnected. If not, it is determined that there is no disturbance and the process proceeds to step ST56. Thereafter, in the third operation, the operations from step ST55 to step ST56 are performed as in the second operation.
  • the determination of the fixed state may be performed by either the imaging device or the information processing device.
  • the association of disturbance information with image data may be performed by either the imaging device or the information processing device. For example, when the disturbance information is recorded together with the image data as the auxiliary information of the image data by the imaging device, the association is performed by the imaging device. At this time, the information processing apparatus transmits information indicating that the communication line has been disconnected to the imaging apparatus as a wireless signal. In addition, when the determination of the fixed state is performed by the information processing device, the determination result of the fixed state is transmitted to the imaging device as a wireless signal.
  • disturbance information can be associated with image data generated by the imaging device at the timing of the disturbance.
  • the information processing apparatus associates the disturbance information.
  • the determination result of the fixed state is transmitted to the information processing apparatus as a radio signal.
  • the times of the imaging device and the information processing device are synchronized so that the determination result of the fixed state can be obtained by the device that records the disturbance information.
  • the disturbance information is generated by the imaging apparatus at the timing of the disturbance when the imaging apparatus and the information processing apparatus are in a fixed state. Can be associated with image data.
  • the measurement of the separation distance between the imaging device and the information processing device may use, for example, signal strength in wireless communication between the imaging device and the information processing device, or a distance sensor using ultrasonic waves, light, or the like. It may be used.
  • imaging device 20 may produce
  • disturbance information associated with image data For example, when image data or audio data is edited or processed, disturbance information related to the image data or the like is used to determine the image data or audio data at the timing of the disturbance.
  • the disturbance affects the image data and the sound data, for example, the image data and the sound data in a predetermined time range based on the timing of the disturbance are deleted as unnecessary data.
  • FIG. 12 shows an example of deletion of image data and audio data.
  • FIG. 12A illustrates a case where the disturbance is a transition from the fixed state to the separated state.
  • the imaging apparatus and the information processing apparatus are separated at time ta and a disturbance occurs based on the fixed separation information.
  • disturbance information is associated with the image data at the time point ta.
  • the disturbance information indicates that the disturbance is a transition from the fixed state to the separated state.
  • a predetermined time range TW based on a position associated with the disturbance information is set as a deletion target.
  • the standard time TS from the start of operation until the fixed separation information indicates the separated state, and the fixed separation information is in the separated state.
  • a standard time TE from the time of displaying to the end of the operation is determined in advance.
  • a time range from the time point ta to the time TS in the past direction and a time range from the time point ta to the time TE in the future direction are defined as a predetermined time range TW.
  • FIG. 12 illustrates a case where a disturbance (for example, an incoming notification to the user) occurs in the information processing apparatus.
  • a disturbance for example, an incoming notification to the user
  • the notification of the incoming call to the user in the information processing apparatus starts at time tbs and ends at time tbe.
  • disturbance information is associated with the image data from time tbs to time tbe.
  • the disturbance information indicates that the disturbance is the start of incoming call notification or the end of incoming call notification.
  • a time range that may be affected by the disturbance that is, a time range from the time tbs that is the start of notification of incoming calls to the time tbe that is the end TW.
  • the image data and audio data during the period when the incoming call notification is performed. Furthermore, if the time tbe is set as the call end timing, the image data and the sound data during the period from the start of the incoming call notification to the end of the call can be deleted based on the disturbance information.
  • the digest content is created without using image data or audio data in a predetermined time range based on the position where disturbance information is associated. In this way, digest content that is not affected by disturbance can be created.
  • the disturbance information when performing the rating of the quality of the recorded image, by using whether or not the disturbance information is associated with the position in the rating determination, for example, a position that may be affected by the disturbance is determined. Can be automatically processed as low quality. Further, by using disturbance information, it is possible to automatically group images into groups that are not affected by disturbances and groups that may be affected by disturbances. Furthermore, if the disturbance information indicates what kind of disturbance, the grouping can be performed in more detail. For example, a group that may be affected only by image data, a group that may be affected only by audio data, a group that may be affected by both image data and audio data, etc. Can be classified.
  • the sound when performing a processing process, for example, by automatically muting a sound within a predetermined time range based on a position associated with disturbance information, the sound can be easily processed so that unnecessary sounds are not included. .
  • the series of processes described in the specification can be executed by hardware, software, or a combined configuration of both.
  • a program in which a processing sequence is recorded is installed and executed in a memory in a computer incorporated in dedicated hardware.
  • the program can be installed and executed on a general-purpose computer capable of executing various processes.
  • the program can be recorded in advance on a hard disk, SSD (Solid State Drive), or ROM (Read Only Memory) as a recording medium.
  • the program is a flexible disk, a CD-ROM (Compact Disc Read Only Memory), an MO (Magneto optical disc), a DVD (Digital Versatile Disc), a BD (Blu-Ray Disc (registered trademark)), a magnetic disk, or a semiconductor memory card. It can be stored (recorded) in a removable recording medium such as temporarily or permanently. Such a removable recording medium can be provided as so-called package software.
  • the program may be transferred from the download site to the computer wirelessly or by wire via a network such as a LAN (Local Area Network) or the Internet.
  • the computer can receive the program transferred in this way and install it on a recording medium such as a built-in hard disk.
  • the imaging system of this technique can also take the following structures. (1) It has a fixed state where the information processing device and the imaging device are fixed to each other, and a separation state where the information processing device and the imaging device are separated, Disturbance information indicating disturbance affecting image data or audio data generated by the imaging device is generated by the imaging device at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state.
  • An imaging system comprising a control unit associated with image data.
  • the control unit indicates that the fixed separation information is in the separation state, and associates the disturbance information with the image data when an interval between the information processing device and the imaging device is less than a predetermined distance.
  • the disturbance information includes information indicating a transition from the fixed state to the separated state or a transition from the separated state to the fixed state. system.
  • the imaging system according to any one of (1) to (6), wherein the disturbance information includes information indicating notification performed to a user in the information processing apparatus.
  • the information processing apparatus has a mobile phone function,
  • the information which shows the notification performed with respect to a user in the said information processing apparatus is an imaging system as described in (7) containing the information which shows the notification relevant to the said mobile telephone function.
  • the notification given to the user is the imaging system according to (7) or (8), which is a notification using sound or vibration.
  • the disturbance information indicates any one of (1) to (9) that indicates a disturbance affecting the quality of an image including a captured image acquired by the imaging device or an audio including sound acquired by the imaging device.
  • An imaging system according to any one of the above.
  • the information processing apparatus has a communication terminal function.
  • the control unit is provided in the imaging apparatus, and the information processing apparatus notifies the imaging apparatus of a disturbance generated in the information processing apparatus according to any one of (1) to (11). Imaging system.
  • the imaging system according to any one of (1) to (12), wherein the disturbance information includes information indicating a type of disturbance.
  • the imaging apparatus, the information processing apparatus, the method, and the program of this technology the information processing apparatus and the imaging apparatus are fixed to each other, and the information processing apparatus and the imaging apparatus are separated from each other.
  • the disturbance information indicating the disturbance that affects the image data or the sound data generated by the imaging device is generated by the imaging device at the timing of the disturbance based on the fixed separation information indicating the fixed state and the separation state. Associated with the image data to be processed. For this reason, not only when the imaging apparatus and the information processing apparatus are separated from each other, but in a system that can be used in a fixed manner, it is possible to easily detect a portion with a low quality of the captured image. .
  • an imaging device that does not have a display function can be fixed to or separated from an information processing device such as a smartphone, and communication between the imaging device and the information processing device is performed, for example, a captured image generated by the imaging device is processed. It is suitable for an imaging system configured so that it can be confirmed by an apparatus.
  • Display panel 72 ... Audio input / output unit 73 ... Imaging block 78 ... Power supply unit 83 ... Vibration generating mechanism 91 ... Fixed separation determination unit 411 ... First wireless communication unit 412 ... 1st antenna 413 ... 2nd wireless communication part 414 ... 2nd antenna 441 ... Zoom button 442 ... Shutter button 711 ... 1st wireless communication part 712 ... 1st antenna 713 ... Second wireless communication unit 714 ... second antenna 715 ... third wireless communication unit 716 ... third antenna

Abstract

 撮像システム10に制御部15を設ける。撮像装置20と情報処理装置60は、互いに固定された固定状態と互いに分離された分離状態を有する。制御部15は、撮像装置20で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、撮像装置20と情報処理装置60が固定状態と分離状態のいずれであるかを示す固定分離情報に基づいて、外乱のタイミングで撮像装置20で生成される画像データに関連付ける。したがって、画像データに関連付けられた外乱情報に基づき、撮像画像の品質が低い部分の検出を容易に行えるようになる。

Description

撮像システム、撮像装置、情報処理装置および方法とプログラム
 この技術は、撮像システム、撮像装置、情報処理装置および方法とプログラムに関し、撮像画像の品質が低い部分の検出を容易に行えるようにする。
 従来、被写体を撮像して画像データを生成し、この画像データをコンテンツとして記録するデジタルスチルカメラやデジタルビデオカメラ等の撮像装置が普及している。また、無線通信を利用して各種データのやり取りを行う情報処理装置(例えば、スマートフォン等)の普及により、情報処理装置を用いて撮像装置を離れた位置から無線で遠隔操作することが提案されている(例えば、特許文献1参照)。
特開2012-186698号公報
 ところで、撮像装置は、情報処理装置から離れて用いる場合に限らず、情報処理装置に固定して用いるようにしてもよい。また、撮像画像の品質が低い部分を自動的に検出することで、自動編集などを行うことが求められている。
 そこで、この技術では撮像装置と情報処理装置とが離れている場合に限らず、固定して用いることが可能であるシステムにおいて、撮像画像の品質が低い部分の検出を容易とすることが可能な撮像システム、撮像装置、情報処理装置および方法とプログラムを提供することを目的とする。
 この技術の第1の側面は、
 情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有し、
 前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける制御部を
備える撮像システムにある。
 この技術の撮像システムでは、情報処理装置と撮像装置とが互いに固定された固定状態、または情報処理装置と撮像装置とが分離された分離状態で用いることができるように構成されており、例えば固定分離判別部によって固定状態と分離状態のいずれであるか判別される。情報処理装置または撮像装置に設けられた制御部、あるいは情報処理装置と撮像装置とは別個に設けられた制御部では、固定分離判別部の判別結果を用いて、固定状態にかかわる撮像装置への外乱を示す外乱情報を、外乱のタイミングで撮像装置で生成される画像データに関連付ける。外乱情報は、例えば固定状態から分離状態への遷移または固定状態への分離状態からの遷移を外乱とした情報、情報処理装置においてユーザに対して行われる通知を外乱とした情報、情報処理装置における通信回線の途絶を外乱とした情報であり、外乱の種別を示す情報を含んでいる。ユーザに対して行われる通知は、例えば携帯電話機能に関係した通知等である。さらに、撮像装置に制御部が設けられている場合、情報処理装置で生じた外乱は撮像装置に通知される。
 この技術の第2の側面は、
 情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有し、
 前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける工程を
含む撮像制御方法にある。
 この技術の第3の側面は、
 情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有する前記情報処理装置または前記撮像装置の制御をコンピュータで実行させるプログラムであって、
 前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける手順を
前記コンピュータで実行させるプログラムにある。
 なお、本技術のプログラムは、例えば、様々なプログラム・コードを実行可能な汎用コンピュータに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体、例えば、光ディスクや磁気ディスク、半導体メモリなどの記憶媒体、あるいは、ネットワークなどの通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、コンピュータ上でプログラムに応じた処理が実現される。
 この技術の第4の側面は、
 情報処理装置に固定された固定状態と、前記情報処理装置から分離された分離状態とを有し、
 生成する画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで生成する前記画像データに関連付ける制御部を
備える撮像装置にある。
 この技術の第5の側面は、
 撮像装置に固定された固定状態と、前記撮像装置から分離された分離状態とを有し、
 前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける制御部を
備える情報処理装置にある。
 この技術によれば、情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有しており、撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報が、固定状態と分離状態を示す固定分離情報に基づいて、外乱のタイミングで撮像装置で生成される画像データに関連付けられる。したがって、撮像装置と情報処理装置とが離れている場合に限らず、固定して用いることが可能であるシステムにおいて、撮像画像の品質が低い部分の検出を容易に行うことができる。なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
撮像システムの機能構成を示す図である。 撮像システムの外観構成を例示した図である。 撮像システムの外観構成を例示した斜視図である。 撮像装置の正面図と側面図である。 撮像装置の機能構成を例示したブロック図である。 情報処理装置(例えばスマートフォン)の機能構成を例示したブロック図である。 撮像装置と情報処理装置との連携機能が開始されるまでの動作処理を示すシーケンス図である。 撮像装置と情報処理装置の固定分離状態を示した図である。 基本動作を示すフローチャートである。 第1の動作を示すフローチャートである。 第2の動作を示すフローチャートである。 画像データや音声データの削除例を示した図である。
 以下、本技術を実施するための形態について説明する。なお、説明は以下の順序で行う。
 1.撮像システムの機能構成
 2.撮像システムの外観
 3.撮像装置の機能構成
 4.情報処理装置の機能構成
 5.撮像システムの動作
  5-1.撮像装置と情報処理装置との連携について
  5-2.撮像装置と情報処理装置の固定/分離状態の判別について
  5-3.撮像システムの基本動作
  5-4.撮像システムの第1の動作
  5-5.撮像システムの第2の動作
  5-6.撮像システムの第3の動作
  5-7.撮像システムの他の動作
 6.外乱情報の利用について
 <1.撮像システムの機能構成>
 図1は、本技術の撮像システムの機能構成を例示している。撮像システム10では、情報処理装置と撮像装置とが互いに固定された固定状態と、情報処理装置と撮像装置とが分離された分離状態とを有している。撮像システム10は、図1の(A)に示すように制御部15を備えており、制御部15は、撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、固定状態と分離状態を示す固定分離情報に基づいて、外乱のタイミングで撮像装置で生成される画像データに関連付ける機能を有している。
 撮像システム10では、制御部15を撮像装置に設けてもよく、情報処理装置に設けてもよい。また、撮像装置と情報処理装置を互いに固定するために用いられるアダプタに設けてもよい。例えば図1の(B)に示す撮像システム10は、撮像装置20の動作制御を行う制御部45に対して、外乱情報を外乱のタイミングで撮像装置20で生成される画像データに関連付ける機能を持たせた場合を例示している。また、例えば図1の(C)に示す撮像システム10は、情報処理装置60の動作制御を行う制御部85に対して、外乱情報を固定状態と分離状態を示す固定分離情報に基づいて、外乱のタイミングで撮像装置20で生成される画像データに関連付ける機能を持たせた場合を例示している。また、図1の(D)に示す撮像システム10では、撮像装置20および情報処理装置60とは独立して、外乱情報を外乱のタイミングで撮像装置20で生成される画像データに関連付ける機能を有する制御部95を設けた場合を例示している。
 また、撮像システムには、撮像装置と情報処理装置が固定状態と分離状態のいずれであるかを示す固定分離情報を出力する固定分離判別部が設けられていてもよい。例えば、図1の(B)に示すように撮像装置20に固定分離判別部91が設けられてもよく、図1の(C)に示すように情報処理装置60に固定分離判別部91が設けられてもよい。さらに、図1の(D)に示すように、撮像装置20および情報処理装置60とは独立して固定分離判別部91が設けられてもよい。例えば、撮像装置と情報処理装置を互いに固定するために用いられるアダプタ等に固定分離判別部91を設ける構成としてもよい。また、固定分離判別部91は、外乱情報を外乱のタイミングで撮像装置20で生成される画像データに関連付ける機能を持たせた制御部を有する装置と異なる装置に設けてもよい。例えば図1の(B)に示す撮像システム10のように、撮像装置20の制御部45に対して、外乱情報を外乱のタイミングで撮像装置20で生成される画像データに関連付ける機能を持たせた場合、情報処理装置60に固定分離判別部91が設けられてもよい。
 撮像装置20は、撮像画像(静止画像や動画像)の生成を行う。また、撮像装置20は、無線通信機能を有しており情報処理装置60との間で種々の情報の通信を行う。また、撮像装置20は、撮像によって生成される撮像画像を表示する機能や撮像時の音声を出力する機能が設けられておらず、撮像時の画像データや音声データを情報処理装置へ送信することで、撮像画像の表示や音声の出力が情報処理装置で行われる。なお、撮像装置20に、撮像画像を表示する機能や撮像時の音声を出力する機能を設けても良い。
 情報処理装置60は、表示機能や無線通信機能を有した機器であり、例えば携帯電話機、スマートフォン、タブレット端末、ノートパソコン等を情報処理装置として用いることができる。情報処理装置60は、無線通信によって撮像装置20から供給された情報の処理を行う。例えば情報処理装置60は、撮像装置20から供給された画像データや音声データに基づき撮像画像の表示や音声出力を行う。
 なお、撮像システム10は、図1に示す構成に限られない。例えば撮像システム10は、制御部15単体、制御部45単体、撮像装置20単体、情報処理装置60単体、それらの組合せであっても良い。
 <2.撮像システムの外観>
 図2は、撮像システムの外観構成を例示した図であり、図3は、撮像システムの外観構成を例示した斜視図である。図4は、撮像装置の正面図と側面図である。なお、図2,図3では、情報処理装置として例えばスマートフォンを用いている。
 撮像装置20は、円筒状に形成された外筒部21の内部に図示せずも、撮像光学系、撮像部、信号処理部、通信部、制御部等を有している。外筒部21の前端部には円環状のコントロールリング22が設けられている。撮像装置20は、コントロールリング22の回転に応じてフォーカス位置やズーム位置を変更する。したがって、コントロールリング22を使用すれば、フォーカス調整等のマニュアル操作が可能となる。また、外筒部21の側面にはズームボタン441とシャッターボタン442が設けられている。撮像装置20は、ズームボタン441の操作に応じてズーム位置を広角側または望遠側に変更する。また、撮像装置20は、静止画モードである場合、シャッターボタン442がユーザによって操作されたときの静止画像を記録媒体に記録する処理を行う。さらに、撮像装置20は、動画モードである場合、シャッターボタン442の操作に応じて、動画像の記録を開始または終了する。また、撮像装置20には音声入力部39が設けられている。
 情報処理装置60は、略長方形のケース状に形成された外筐61の内部に図示せずも、信号処理部、通信部、制御部等を有している。また、外筐61の一方の面(表面)に表示パネル62が設けられている。表示パネル62はタッチパネルを用いて構成されており表示パネル62の所定の各位置を操作することにより各種機能が実行される。
 撮像装置20には、撮像装置20と情報処理装置60を一体的に取り付けるための取付機構部50が設けられている。取付機構部50には、取付部材51,52が設けられており、図4に示すように矢印FA方向に移動可能に構成されている。ユーザは、情報処理装置60の形状やサイズ等に応じて取付部材51,52を矢印FA方向に移動させて情報処理装置60の外筐61に係止させることで、撮像装置20を情報処理装置60に対して一体的に固定する。なお、図2の(A)は、情報処理装置60の裏面側に撮像装置20を一体的に固定された状態を示しており、図2の(B)は、情報処理装置60の表面側(表示パネル62側)に撮像装置20を一体的に固定された状態を示している。また、ユーザは、情報処理装置60の外筐61に係止されている取付部材51,52を、係止方向に対して逆方向に移動させて、撮像装置20と情報処理装置60を分離する。
 なお、取付機構部50は、撮像装置20と一体に構成されている場合に限らず、撮像装置20と情報処理装置60を一体的に取り付けるためのアダプタとして、撮像装置20とは別個に構成されていてもよい。
 <3.撮像装置の機能構成>
 次に、撮像装置の機能構成について説明する。図5は撮像装置の機能構成を例示したブロック図である。
 撮像装置20は、撮像光学系31、撮像部32、画像処理部33、記録再生部34、電源部35、センサ部36、記憶部37、表示部38、音声入力部39、通信部41、照明部42、操作入力部44、制御部45を有している。また、撮像装置20には、記録媒体46が設けられている。記録媒体46は、撮像装置20に固定されていてもよく、着脱可能に設けられもよい。
 撮像光学系31は、フォーカスレンズやズームレンズ等から構成されるレンズ群、絞り調整機構、レンズ群や絞り調整機構を駆動する駆動部を有している。また、撮像光学系31は、シャッター機構や手振れ補正機構等を有してもよい。
 撮像部32は、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像デバイスを用いて構成されている。撮像部32は、撮像光学系31によって形成された被写体光学像を画像データに変換する。撮像部32は、光電変換によって生成した画像データを画像処理部33へ出力する。
 画像処理部33は、撮像部32から出力された画像データに対して種々の信号処理等を行う。例えば、画像処理部33は、ノイズ除去、色調補正、エッジ検出等を必要に応じて行う。画像処理部33は、処理後の画像データを記録再生部34へ出力する。
 記録再生部34は、記録媒体46を用いて、撮像画像の記録および記録された撮像画像の再生を行う。記録再生部34は、撮像部32で生成されて画像処理部33で処理された静止画像や動画像の画像データを記録媒体46に記録する。また、記録再生部34は記録媒体46に記録されている静止画像や動画像の再生を行い、画像データを読み出す。なお、記録再生部34は、画像処理部33で処理する前の画像データを記録媒体46に記録してもよい。また、記録再生部34は、記録媒体46に記録する画像データのデータ量を圧縮する符号化処理、および記録媒体46に記録されている符号化データの復号処理を行うようにしてもよい。
 電源部35は、バッテリおよび電源回路で構成されている。電源部35は、制御部45から出力される制御信号に応じて撮像装置20の各部へ電力供給を行う。
 センサ部36は、撮像装置20の現在位置、姿勢や姿勢変化、方位等を検出する。センサ部36は、現在位置を検出するためのセンサ、姿勢や姿勢変化を検出するためのセンサ、撮像方向等の方位を検出するためのセンサを用いて構成されており、検出結果を示すセンサ情報を制御部45へ出力する。例えば、センサ部36は、撮像装置20が垂直方向や水平方向に対してどのような傾きを生じているか、また撮像装置20が撮像光学系31の光軸を回転軸としてどのような回転方向の位置であるか等の姿勢検出を行う。また、センサ部36は、撮像装置20の姿勢変化等を検出する。さらに、センサ情報を撮像画像の画像データと共に情報処理装置60へ出力すれば、撮像装置20の姿勢等を考慮して情報処理装置60で撮像画像を表示することができる。例えば、撮像装置20が水平方向に対して傾きを生じて撮像画像の生成が行われた場合、情報処理装置60では、センサ情報に基づき撮像装置20の傾きを補正して画像表示を行う。このように画像表示を行えば、水平方向に対して傾きを生じていない被写体が傾きを生じて表示されてしまうことを防止することが可能となる。なお、センサ部36は、現在位置を検出するためのセンサとして例えばGPS(Global Positioning System)測位モジュール等を用いる。また、センサ部36は、姿勢や姿勢変化を検出するためのセンサとして例えば3軸加速度センサや傾斜センサやジャイロセンサ等、撮像方向の方位を検出するためのセンサとして例えば地磁気センサ等を用いる。また、センサ部36は、撮像装置20の現在位置、姿勢や姿勢変化、方位等の少なくともいずれかを検出する構成であってもよい。
 記憶部37は、RAM(Random Access Memory)およびROM(Read Only Memory)などの記録媒体である。RAMは、例えば制御部45の作業領域として利用される。また、ROMには、例えば制御部45で種々の制御を実行するためのプログラム等が記憶されている。また、ROMやRAMには、制御部45で種々の制御を行うために用いられる制御情報等が記憶される。
 表示部38は、例えば液晶表示素子等を用いて構成されており、撮像装置20の設定状態や動作状態の表示を行う。
 音声入力部39はマイクロホンを用いて構成されている。音声入力部42は、マイクロホンで生成された音声信号の信号レベル調整や音声信号を音声データに変換するA/D変換処理やデータ量を圧縮する処理等を行い、処理後の音声データを記録再生部34に出力する。
 通信部41は、第1無線通信部411,第1アンテナ412,第2無線通信部413,第2アンテナ414を備えている。
 第1無線通信部411は、NFC(Near Field Communication)の通信機能を備えている。第1無線通信部411は、制御部45による制御に従い、第1アンテナ412から略3cm~10cm程度、または設計によっては略7mm程度の近距離に到達する無線信号を送信し、電波到達範囲内に含まれる外部装置(例えば情報処理装置60)とNFC通信を行う。第1無線通信部411は、例えばWi-Fiの自動接続を行うための接続情報(Wi-Fi Configuration)や、AAR(Android Application Record)を、外部装置からのCheck Commandに応じて送信する。接続情報には、Wi-Fi接続のためのSSID(Service Set Identifier)、PassKey(暗号化キー)等が含まれる。
 第2無線通信部413は、無線LANの通信機能を備えている。第2無線通信部413は、制御部45による制御に従い、第2アンテナ414からIEEE 802.11シリーズの通信規格に対応した無線信号を送信して外部装置(例えば情報処理装置60)と通信を行う。第2無線通信部413は、例えば外部装置からのWi-Fi接続要求に応じて、Wi-Fi認証を行い、外部装置とのWi-Fi通信接続確立処理等を行う。
 照明部42は、制御部45からの制御信号に基づき、所望の明るさの撮像画像が得られるように被写体に向けて照明光を出射する。
 操作入力部44は、ユーザによる操作入力を検出して、ユーザ操作に応じた操作信号を制御部45へ出力する。操作入力部44は、上述のズームボタン441やシャッターボタン442を有しており、物理的スイッチに予め機能を割り当てた構成とされている。
 制御部45は、記憶部37に記録されているプログラムを実行して、操作入力部44から供給された操作信号や記憶部37に記憶されている制御情報、情報処理装置60との通信結果、固定分離情報、センサ情報等に基づいて制御信号を生成する。制御部45は、生成した制御信号を各部へ出力して、ユーザ操作に応じた動作が撮像装置20で行われるように、撮像制御、画像処理制御、記録再生制御等を行う。また、制御部45は、通信部41から画像データや音声データを情報処理装置60に送信する処理や、情報処理装置60からの制御信号に基づいて撮像装置20の動作を制御する処理を行う。
 記録媒体46は、撮像画像等が書き込まれるメモリカード等であり着脱可能に設けられている。
 なお、撮像装置20に 固定分離判別部91が設けられた場合、固定分離判別部91から出力される固定分離情報は、制御部45または通信部41を介して情報処理装置60の制御部85へ出力される。また、固定分離判別部91の処理は、制御部45で行うようにしてもよい。
 <4.情報処理装置の機能構成>
 次に、情報処理装置の機能構成について説明する。図6は情報処理装置(例えばスマートフォン)の機能構成を例示したブロック図である。
 情報処理装置60は、通信部71、音声入出力部72、撮像ブロック73、照明部74、記録再生部75、センサ部76、記憶部77、電源部78、表示部81、操作入力部82、振動発生機構83、制御部85を有している。また、情報処理装置60には、記録媒体86が着脱可能に設けられている。
 通信部71は、第1無線通信部711,第1アンテナ712,第2無線通信部713,第2アンテナ714,第3無線通信部715,第3アンテナ716を備えている。
 第1無線通信部711は、NFC(Near Field Communication)の通信機能を備えている。第1無線通信部711は、制御部85による制御に従い、第1アンテナ712から電波を送信して外部装置(例えば撮像装置20)とNFC通信を行う。第2無線通信部713は、無線LANの通信機能を備えている。第2無線通信部713は、制御部85による制御に従い、第2アンテナ714からIEEE 802.11シリーズの通信規格に対応した無線信号を送信して外部装置(例えば撮像装置20)と通信を行う。第3無線通信部715は、携帯電話機能例えば通話機能や電子メール機能等を備えている。第3無線通信部715は、制御部85による制御に従い、第3アンテナ716から例えばLTE(Long Term Evolution)等の通信規格に対応した無線信号を送信して基地局と通信を行う。
 音声入出力部72は、スピーカおよびマイクロホンを用いて構成されている。音声入出力部72は、通信部71を介して行われる音声通話の音声入出力を行う。また、音声入出力部72は、通信部71を介して撮像装置20から出力した音声データに基づき音声出力を行う。さらに、音声入出力部72は、記憶部77や記録媒体86に記録されている音楽コンテンツや動画コンテンツの再生音を出力する。
 撮像ブロック73は、撮像光学系、CCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)などの撮像デバイス、撮像光学系や撮像デバイスを駆動する駆動部等で構成されている。撮像ブロック73は、撮像画像の画像データを生成する。
 照明部74は、制御部85からの制御信号に基づき、所望の明るさの撮像画像が得られるように被写体に向けて照明光を出射する。
 記録再生部75は、記録媒体86を用いて、各種情報の記録および記録された情報の読み出しを行う。記録再生部75は、例えば音楽コンテンツや動画コンテンツ、撮像画像、メール情報、無線通信で用いる他者のアドレス情報等を記録媒体86に記録する。また、記録再生部75は記録媒体86に記録されている種々の情報の読み出しを行う。
 センサ部76は、情報処理装置60の現在位置、姿勢や姿勢変化、方位等を検出する。センサ部76は、現在位置を検出するためのセンサ、姿勢や姿勢変化を検出するためのセンサ、撮像方向等の方位を検出するためのセンサを用いて構成されており、検出結果を示すセンサ情報を制御部85へ出力する。なお、センサ部76は、現在位置を検出するためのセンサとして例えばGPS(Global Positioning System)測位モジュール等を用いる。また、センサ部76は、姿勢や姿勢変化を検出するためのセンサとして例えば3軸加速度センサや傾斜センサやジャイロセンサ等、撮像方向の方位を検出するためのセンサとして例えば地磁気センサ等を用いる。また、センサ部76は、情報処理装置60の現在位置、姿勢や姿勢変化、方位等の少なくともいずれかを検出する構成であってもよい。
 記憶部77は、RAM(Random Access Memory)およびROM(Read Only Memory)などの記録媒体である。RAMは、例えば制御部85の作業領域として利用される。また、ROMには、例えば制御部85で種々の制御を実行するためのプログラム等が記憶されている。また、ROMやRAMには、制御部85で種々の制御を行うために用いられる制御情報等が記憶される。さらにRAMには、音楽コンテンツや動画コンテンツ、各種アプリケーションのプログラム、撮像装置20から供給された撮像画像、メール情報等も記録可能とされている。
 電源部78は、バッテリおよび電源回路で構成されている。電源部78は制御部85からの制御信号に基づき情報処理装置60の各部へ電力供給を行う。
 表示部81は、液晶ディスプレイや有機ELディスプレイなどの表示素子を用いて構成されている。表示部81は制御部85の制御により、GUI(Graphical User Interface)画面、アプリケーションの動作に応じた文字や画像等を表示する。また、表示部81は制御部85の制御により、撮像装置20から出力した画像データに基づいて画像表示を行う。
 操作入力部82は、操作スイッチやタッチパネルを用いて構成されている。タッチパネルは、表示部81の表示画面上に設けられており、表示画面の表示に応じて機能が割り当てられる構成とされている。操作入力部82は、ユーザ操作に応じた操作信号を生成して制御部85へ出力する。なお、上述の表示パネル62は、例えば表示部81と操作入力部82によって構成されている。
 振動発生機構83は、情報処理装置自体を振動させるバイブレータ機能のための機構である。振動発生機構83は、携帯電話機能が利用されているときの着信時に制御部85からの制御信号に基づきバイブレータ機能を働かせて、着信を情報処理装置60の振動でユーザに通知する。
 制御部85は、記憶部77に記録されているプログラムを実行して、操作入力部82から供給された操作信号や記憶部77に記憶されている制御情報等に基づいて制御信号を生成する。制御部85は、生成した制御信号を各部へ出力して、ユーザ操作に応じた動作が情報処理装置60で行われるように、通信制御、表示制御、記録再生制御等を行う。また、制御部85は、通信部71を制御して、撮像装置20や基地局と無線通信を行う。また、制御部85は、撮像装置20との通信に基づき所定のアプリケーションプログラムを起動させる処理、プログラムの起動後に、操作信号や固定分離情報等に基づき制御信号を生成して撮像装置20へ送信する処理を行う。さらに、制御部85は、撮像装置20から供給された撮像画像を表示部81に表示させる処理等を行う。
 情報処理装置60に固定分離判別部91が設けられた場合、固定分離判別部91から出力される固定分離情報は、制御部85または通信部71を介して撮像装置20の制御部45へ出力される。また、固定分離判別部91の処理は、制御部85で行うようにしてもよい。
 また、撮像装置20と情報処理装置60を固定するためのアダプタに固定分離判別部91が設けられた場合、固定分離判別部91は、判別結果を撮像装置20の制御部45または情報処理装置60の制御部85へ出力する。
 <5.撮像システムの動作>
 [5-1.撮像装置と情報処理装置との連携について]
 次に、撮像システムの動作について説明する。図7は、撮像システムにおいて、撮像装置と情報処理装置との連携機能が開始されるまでの動作処理を示すシーケンス図である。
 ステップST1で情報処理装置60は、NFC通信によりPolling Commandを発信する。ここで、情報処理装置60の第1アンテナから所定の電波到達範囲内に撮像装置20の第1アンテナが含まれると、ステップST2で撮像装置20における通信部41の第1無線通信部411は、Polling Commandの発信を検知する。
 ステップST3で第1無線通信部411は、情報処理装置60からのNFC通信を検知したことに応じて制御部45に検知通知を行う。
 ステップST4で制御部45は、第1無線通信部411による検知通知に応じて制御信号を生成して電源部35へ出力して電源ONの制御を行う。
 ステップST5で第1無線通信部411は、NFC通信の検知に応じて、Command ResponseをNFC通信により発信する。
 ステップST6で情報処理装置60は、撮像装置20からのCommand Responseを検知することで、NFC通信相手を発見し、所定の情報を取得するために、Check Commandを発信する。
 ステップST7で撮像装置20の第1無線通信部411は、NFC通信により受信したCheck Commandを制御部45に出力する。
 ステップST8で制御部45は、Check Commandに応じて、応答データを第1無線通信部411へ出力する。ここで、応答データには、例えば上述のWi-Fi ConfigとAARが含まれる。
 ステップST9で第1無線通信部411は、NFC通信により応答データを情報処理装置60に送信する。なお、上述のステップST6~ステップST9は、複数回行われて、応答データが複数回に分けて送信されてもよい。
 ステップST10で制御部45は、撮像準備動作を行う。制御部45は、撮像装置20で撮像が可能となるように準備動作を行う。また、準備動作では、撮像装置20が撮像可能な状態となったことを識別可能とする準備動作を行ってもよい。例えば、制御部45は、撮像光学系31として沈胴式レンズが用いられている場合にレンズを突出させる動作や起動音を出力する動作等を行う。なお、撮像準備動作は、無線LAN接続が完了してから行うようにしてもよい。
 ステップST11で情報処理装置60は、受信したAARに従い、所定のアプリケーションを起動する。例えば、所定のアプリケーションでは、撮像装置20から無線LAN通信で送信された撮像画像の画像データを受信して、撮像画像を表示する処理等を行う。
 ステップST12で情報処理装置60は、受信したWi-Fi Configを用いて、撮像装置20に対してWi-Fi接続を要求する。
 ステップST13で撮像装置20における通信部41の第2無線通信部413は、情報処理装置60から受信した接続要求を制御部45へ出力する。
 ステップST14で制御部45は、認証を行う。なお認証は、第2無線通信部413で行われてもよい。
 ステップST15で制御部45は、認証結果を第2無線通信部413へ出力する。
 ステップST16で第2無線通信部413は、認証結果を情報処理装置60へ送信する。ステップST17で情報処理装置60は、認証の成功により無線LAN接続が完了する。その後、撮像装置20と情報処理装置60は、無線LAN通信を行う。
 なお、撮像装置20と情報処理装置60は、無線LAN通信等によって連携されればよく、撮像装置と情報処理装置との連携機能が実施されるまでの処理は図7に示す順序の処理に限られない。
 [5-2.撮像装置と情報処理装置の固定/分離状態の判別について]
 上述の取付機構部50によって、図8の(A)に示すように一体的に固定して使用可能とされている。また、撮像装置20と情報処理装置60は、固定状態を解除して図8の(B)に示すように分離された状態でも使用可能とされている。このように構成されている撮像装置20または情報処理装置60は、連携機能の実施後、撮像装置20と情報処理装置60との固定状態にかかわる撮像装置20への外乱を示す外乱情報を、固定状態と分離状態を示す固定分離情報に基づいて、外乱のタイミングで撮像装置20で生成される画像データに関連付ける。
 撮像装置20と情報処理装置60が固定状態と分離状態のいずれであるかを示す固定分離情報は、取付機構部50で生成してもよく、撮像装置20や情報処理装置60で生成してもよい。例えば取付機構部50で固定分離情報を生成する場合、取付部材51,52が情報処理装置60に係止されているときにオン状態となり、係止されていないときにオフ状態となるスイッチを取付部材51,52に設ける。このようなスイッチを設けることで、このスイッチによって生成される信号を固定分離情報として用いることができる。また、例えば撮像装置20と取付機構部50が分離可能とされている場合、撮像装置20に取付機構部50が取り付けられているときにオン状態で、分離されているときにオフ状態となるスイッチを撮像装置20に設ける。このようなスイッチを設けることで、このスイッチによって生成される信号を固定分離情報として用いることができる。さらに、例えば情報処理装置60で固定分離情報を生成する場合、取付部材51,52が情報処理装置60に係止されているか否かを検出する検出機構を設けて、この検出機構による検出結果を固定分離情報として用いることができる。なお検出機構としては、情報処理装置60にスイッチを設けてもよく、表示パネル62を利用して構成してもよい。このようにして生成される固定分離情報に応じて、撮像装置20と情報処理装置60が互いに固定された固定状態と分離された分離状態のいずれにあるか判別できるようにする。
 [5-3.撮像システムの基本動作]
 次に撮像システムの基本動作について説明する。基本動作では、撮像装置で撮像時に外乱が生じた場合を示している。図9は、基本動作を示すフローチャートである。ステップST31で撮像システム10は連携機能を開始する。撮像システム10は、例えば上述の図7に示すような処理を行い、撮像装置20と情報処理装置60の連携機能を開始してステップST32に進む。
 ステップST32で撮像システム10は撮像情報の記録を開始する。撮像システム10は、撮像装置で例えばユーザ操作に応じて静止画や動画の画像データまたはこの画像データと音声データの記録を開始してステップST33に進む。
 ステップST33で撮像システム10は固定状態であるか判別する。撮像システム10は、固定分離情報に基づき、撮像装置と情報処理装置が固定状態であるか判別する。撮像システム10は、撮像装置と情報処理装置が固定状態であると判別した場合にステップST34に進み、分離状態であると判別した場合にステップST36に進む。
 ステップST34で撮像システム10は外乱の発生があるか判別する。撮像システム10は外乱の発生を判別した場合にステップST35に進み、外乱の発生を判別していない場合にステップST36に進む。
 ステップST35で撮像システム10は外乱関連付け処理を行う。撮像システム10は、外乱を示す外乱情報を、固定分離情報に基づいて外乱のタイミングで撮像装置で生成される画像データに関連付けてステップST36に進む。
 ステップST36で撮像システム10は記録の終了であるか判別する。撮像システム10は、記録の終了操作が行われていないと判別した場合にステップST33に戻り、記録の終了操作が行われたと判別した場合に動作を終了する。
 撮像システムは、以上のような基本動作を行い、固定分離情報が固定状態であることを示す場合、撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、外乱のタイミングで撮像装置で生成される画像データに関連付けて、外乱情報に基づき撮像画像の品質が低い部分の検出を容易に行えるようにする。
 [5-4.撮像システムの第1の動作]
 次に、撮像システムの第1の動作について説明する。第1の動作では、撮像装置で取得される撮像画自体または音声自体の品質に影響を及ぼす外乱を生じた場合の動作について説明する。第1の動作では、撮像装置20が動画モードとされており、外乱が例えば固定状態から分離状態への遷移または固定状態への分離状態からの遷移である場合を例示している。
 図10は、第1の動作を示すフローチャートである。ステップST41で撮像システム10は連携機能を開始する。撮像システム10は、上述の図7を用いて説明したように、撮像装置20と情報処理装置60との連携機能を開始してステップST42に進む。
 ステップST42で撮像システム10は撮像情報の記録を開始する。撮像システム10の撮像装置20は、記録開始操作が行われたことに応じて動画の画像データまたはこの画像データと音声データの記録を開始してステップST43に進む。
 ステップST43で撮像システム10は固定状態であるか判別する。撮像システム10は、固定分離情報に基づき、撮像装置20と情報処理装置60が固定状態であるか判別する。撮像システム10は、撮像装置20と情報処理装置60が固定状態であると判別した場合にステップST44に進み、分離状態であると判別した場合にステップST45に進む。
 ステップST44で撮像システム10は分離状態への遷移であるか判別する。撮像システム10は、撮像装置20と情報処理装置60が分離状態へ遷移した場合にステップST46に進み、固定状態が継続されている場合にステップST47に進む。
 ステップST45で撮像システム10は固定状態への遷移であるか判別する。撮像システム10は、撮像装置20と情報処理装置60が固定状態へ遷移した場合にステップST46に進み、分離状態が継続されている場合にステップST47に進む。
 ステップST46で撮像システム10は外乱関連付け処理を行う。撮像システム10は、固定状態から分離状態への遷移または固定状態への分離状態からの遷移を外乱として、この外乱を示す外乱情報を、固定分離情報に基づいて外乱のタイミングで撮像装置で生成される画像データに関連付けてステップST47に進む。
 ステップST47で撮像システム10は記録の終了であるか判別する。撮像システム10は、記録終了操作が行われていないと判別した場合にステップST43に戻り、記録終了操作が行われたと判別した場合に動作を終了する。
 第1の動作において、固定状態から分離状態への遷移および分離状態から固定状態への遷移の判別は、撮像装置または情報処理装置のいずれで行ってもよい。なお、状態の遷移は、安定した一方の状態から状態が変化して安定した他方の状態となるまでを示している。例えば、図3に示すように撮像装置20と情報処理装置60が取付機構部50によって一体的に取り付けられる場合、固定状態から分離状態または分離状態から固定状態とするために取付機構部50を操作している期間は、状態が不安定となるおそれがある。また、固定状態から分離状態または分離状態から固定状態とする取付機構部50の操作は、撮像装置で生成される画像データまたは音声データへ影響を及ぼす。したがって、安定した一方の状態から状態が変化して安定した他方の状態となるまでを状態の遷移とする。
 また、画像データに対する外乱情報の関連付けは、撮像装置または情報処理装置のいずれで行うようにしてもよい。撮像装置で外乱情報を画像データに関係付ける場合、撮像装置は、例えば外乱情報を付属情報として画像データとともに記録媒体に記録する。このとき、状態の遷移の判別が情報処理装置で行われる場合には、状態の遷移の判別結果を情報処理装置から撮像装置に無線信号で通知することにより、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けることができる。なお、情報処理装置で外乱情報を画像データに関係付ける場合、情報処理装置は、例えば外乱情報を付属情報として画像データとともに情報処理装置の記録媒体に記録する。このとき、状態の遷移の判別が撮像装置で行われる場合には、状態の遷移の判別結果を撮像装置から情報処理装置に無線信号で通知することにより、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けることができる。さらに、外乱情報と画像データの関係付けは、画像データが記録される記録媒体に画像データと共に外乱情報を記録する場合に限らず、画像データと異なる記録媒体に外乱情報を記録してもよい。また、画像データを記録する装置と外乱情報を記録する装置が異なっていてもよく、この場合は撮像装置と情報処理装置の時間情報を一致させて、撮像装置で画像データを時間情報と共に記録して、情報処理装置で外乱のタイミングで外乱情報を時間情報と共に記録する。このようにすれば、画像データの記録と外乱情報の記録が異なる装置で行われても、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けて記録できる。
 なお、外乱情報と画像データの関係付けは、上述のように、画像データが記録される記録媒体に画像データと共に外乱情報を記録する場合や外乱情報を時間情報と共に記録する場合に限られない。例えば外乱情報と画像データを同一フォルダに格納することで外乱情報と画像データの関係付けを行うようにしてもよい。また、固有の識別子(例えば素材の識別子として用いられるUMID(Unique Material IDentifier)等)を用いて、外乱情報と画像データを関係付けてもよい。さらに、外乱情報と画像データを同一フォルダに格納して、または、外乱情報と画像データに固有の識別情報を割り当てて、ネットワーク等を介して外部機器に登録してもよい。
 [5-5.撮像システムの第2の動作]
 次に、撮像システムの第2の動作について説明する。第2の動作では、撮像装置で取得される撮像画自体または音声自体の品質に影響を及ぼす外乱を生じた場合の動作について説明する。第2の動作では、撮像装置が動画モードとされており、情報処理装置で外乱が発生される場合を例示している。情報処理装置では、ユーザに対して音や振動を利用して通知が行われる。例えば情報処理装置で携帯電話機能を利用する場合、電話の呼出し音や電子メールの着信音が情報処理装置から出力される。また、情報処理装置に情報処理装置自体を振動させるバイブレータ機能が設けられている場合、電話の呼出しや電子メールの着信が情報処理装置自体の振動で通知される。このような呼出し音や着信音、情報処理装置自体の振動は、撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱となる。
 図11は、第2の動作を示すフローチャートである。ステップST51で撮像システム10は連携機能を開始する。撮像システム10は、上述の図7を用いて説明したように、撮像装置20と情報処理装置60との連携機能を開始してステップST52に進む。
 ステップST52で撮像システム10は撮像情報の記録を開始する。撮像システム10の撮像装置20は、記録開始操作が行われたことに応じて動画の画像データまたはこの画像データと音声データの記録を開始してステップST53に進む。
 ステップST53で撮像システム10は固定状態であるか判別する。撮像システム10は、固定分離情報に基づき、撮像装置20と情報処理装置60が固定状態であるか判別する。撮像システム10は、撮像装置20と情報処理装置60が固定状態であると判別した場合にステップST54に進み、分離状態であると判別した場合にステップST56に進む。
 ステップST54で撮像システム10は情報処理装置で外乱が発生しているか判別する。撮像システム10は、情報処理装置においてユーザに対して音や振動を利用して通知が行われた場合に外乱の発生と判別してステップST55に進み、音や振動を利用した通知が行われていない場合は外乱の発生がないとしてステップST56に進む。
 ステップST55で撮像システム10は外乱関連付け処理を行う。撮像システム10は、外乱を示す外乱情報すなわちユーザに対する音や振動を利用した通知を示す外乱情報を、外乱のタイミングで撮像装置で生成される画像データに関連付けてステップST56に進む。
 ステップST56で撮像システム10は記録の終了であるか判別する。撮像システム10は、記録終了操作が行われていないと判別した場合にステップST53に戻り、記録終了操作が行われたと判別した場合に動作を終了する。
 第2の動作において、固定状態の判別は、撮像装置または情報処理装置のいずれで行ってもよい。また、画像データに対する外乱情報の関連付けについても、撮像装置または情報処理装置のいずれで行うようにしてもよい。例えば、撮像装置で外乱情報を画像データに関係付ける場合、撮像装置は、例えば外乱情報を付属情報として画像データとともに記録媒体に記録する。このとき、情報処理装置は、ユーザに対する通知を行う旨の情報を撮像装置に無線信号として送信する。また、固定状態の判別が情報処理装置で行われる場合は、固定状態の判別結果を撮像装置に無線信号として送信する。このようにすれば、撮像装置と情報処理装置が固定状態であるとき、撮像装置は、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けて、画像データと共に記録媒体に記録できる。なお、情報処理装置で外乱情報を画像データに関係付ける場合、情報処理装置は、例えば外乱情報を付属情報として画像データとともに情報処理装置の記録媒体に記録する。このとき、固定状態の判別が撮像装置で行われる場合は、固定状態の判別結果を情報処理装置に無線信号として送信する。さらに、第1の動作と同様に撮像装置と情報処理装置の時間情報、例えば内部時計の時間や、タイムコードを一致させておき、さらに、外乱情報を記録する側の装置で固定状態の判別結果を得られるようにする。このようにすれば、画像データの記録と外乱情報の記録が異なる装置で行われても、画像データと外乱情報が同じ時間情報を持つことになるため外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けることができる。
 さらに、外乱情報は、外乱の発生を示すだけでなく、外乱の種別を判別できる情報としてもよい。例えば、外乱情報は、画像に影響を与えるどのような外乱(例えば着信時の振動等)であるか、音声に影響を与えるどのような外乱(例えば着信音や通話音声)であるかを判別できる情報としてもよい。
 [5-6.撮像システムの第3の動作]
 次に、撮像システムの第3の動作について説明する。上述の第1および第2の動作では、撮像装置で取得される撮像画自体または音声自体の品質に影響を及ぼす外乱を生じた場合の動作について説明したが、第3の動作では撮像装置で取得された撮像画を含む画像または撮像装置で取得された音声を含む音声の品質に影響を及ぼす外乱を生じた場合の動作について説明する。
 第3の動作では、撮像装置が動画モードとされて、動画の画像データと共に情報処理装置を介して取得した情報を合わせて記録する処理や情報の発信を行い、情報処理装置で外乱が発生される場合を例示している。画像データと共に記録する情報は、通信回線を介して取得される情報例えば衛星測位システムの測位信号等を受信して得られる位置情報、SNS(Social Networking Service)を介して得られたメッセージ等である。また、情報の発信は通信回線を介して行われて、例えば動画記録に関する情報、すなわち動画記録が行われている旨の通知、撮像条件や撮像装置の設定状態、撮像位置の情報等が発信される。情報処理装置で発生される外乱は、例えば情報処理装置を介した電話系の通信網(の基地局)との情報の受信または発信に用いる通信回線の途絶であり、情報処理装置が基地局の通信圏外の位置となると、画像データと共に記録する情報を通信回線を介して取得できなくなることから外乱の発生となる。また、撮像装置と情報処理装置で無線通信ができなくなった場合、例えば画像データと共に情報処理装置で取得した情報を撮像装置で記録することができなくなることから外乱の発生となる。さらに、ネットワークを介して接続されている複数のユーザが時間を同期させて撮像を行っている場合、撮像中であることを示す情報等を他のユーザ等と交換すれば、画像データを編集する際に時間を一致させて他のユーザで取得された画像データを利用できる。しかし、他のユーザとの通信回線が途絶すると、撮像中であることを示す情報等の交換ができないため、他のユーザで取得された画像データを利用した編集処理を行えなくなるため外乱の発生となる。
 第3の動作では、第2の動作と同様に図11に示す動作を行う。第3の動作では、第2の動作と同様にステップST51からステップST53の動作を行う。
 また、第3の動作ではステップST54で撮像システム10は情報処理装置で外乱が発生したか判別する。ここで、撮像システム10の情報処理装置は、撮像装置に供給する情報の取得に用いている通信回線が切断された場合に外乱の発生と判別してステップST55に進み、通信回線が切断されていない場合は外乱の発生がないとしてステップST56に進む。その後、第3の動作では、第2の動作と同様にステップST55からステップST56の動作を行う。
 第3の動作において、固定状態の判別は、撮像装置または情報処理装置のいずれで行ってもよい。また、画像データに対する外乱情報の関連付けについても、撮像装置または情報処理装置のいずれで行うようにしてもよい。例えば、撮像装置で外乱情報を画像データの付属情報として画像データとともに記録する場合は撮像装置で関連付けを行う。このとき、情報処理装置は、通信回線が切断されたことを示す情報を撮像装置に無線信号として送信する。また、固定状態の判別が情報処理装置で行われる場合は、固定状態の判別結果を撮像装置に無線信号として送信する。このようにすれば、撮像装置と情報処理装置が固定状態であるとき、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けることができる。また、情報処理装置で外乱情報を画像データの付属情報として画像データとともに記録する場合は情報処理装置で関連付けを行う。このとき、固定状態の判別が撮像装置で行われる場合は、固定状態の判別結果を情報処理装置に無線信号として送信する。このようにすれば、撮像装置と情報処理装置が固定状態であるとき、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けることができる。さらに、第1の動作と同様に撮像装置と情報処理装置の時間を同期させて、外乱情報を記録する装置で固定状態の判別結果を得られるようにする。このようにすれば、画像データの記録と外乱情報の記録が異なる装置で行われても、撮像装置と情報処理装置が固定状態であるとき、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けることができる。
 [5-7.撮像システムの他の動作]
 第1乃至第3の動作では、動画の画像データと音声データを記録する場合について説明したが、撮像装置で静止画の画像データを記録する場合に、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けてもよい。例えば、撮像装置で静止画の画像データと共に音声データを記憶する場合に外乱情報の関連付けを行えば、画像データに外乱情報が関連付けられているか否かによって、音声データが外乱による影響を受けたおそれがあるか否かを判別できる。また、撮像装置で連続して静止画の画像データを記憶する場合に外乱情報の関連付けを行えば、記録された連続する複数の静止画において、外乱による影響を受けたおそれがある静止画を判別できる。また、画像データの記録は、撮像装置に対するユーザ操作に限らず、撮像画像に対しての被写体認識によって認識された被写体の態様、例えば被写体の顔の表情等に応じて自動的に記録を行うようにしてもよい。
 また、外乱が撮像装置で画像データと共に生成される音声データに影響を与える場合、撮像装置と情報処理装置が分離状態であっても、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けるようにしてもよい。例えば、情報処理装置で行われたユーザに対する通知が着信音である場合、撮像装置と情報処理装置が分離状態であっても、撮像装置が情報処理装置に近接していると、撮像装置で着信音が記録されてしまう。したがって、外乱情報が音声データに影響を与える場合、外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付けることで、画像データに関連付けられた外乱情報に基づき外乱である着信音があったタイミングの画像データと音声データを判別できるようになる。
 さらに、撮像装置と情報処理装置との距離が遠いと、情報処理装置からの着信音が撮像装置で記録されることがない。したがって、撮像装置と情報処理装置の離間距離が所定距離未満である場合、撮像装置と情報処理装置が分離状態であっても外乱情報を外乱のタイミングで撮像装置で生成される画像データに関連付ける。このようにすれば、画像データと音声データに影響を与えない外乱が画像データに関連付けられてしまうことを防止できる。なお、撮像装置と情報処理装置の離間距離の測定は、例えば撮像装置と情報処理装置間の無線通信における信号強度等を利用してもよく、超音波や光等を用いた測距センサ等を用いてもよい。
 なお、上述の撮像装置20は、画像データと音声データを生成する場合を示したが、撮像装置20は、画像データのみを生成して、音声データは生成しない構成であってもよい。
 <6.外乱情報の利用について>
 次に、画像データに関連付けられた外乱情報の利用について説明する。例えば画像データや音声データの編集処理や加工処理等を行う場合、画像データ等に関係付けられている外乱情報を利用して、外乱のタイミングの画像データや音声データを判別する。ここで、外乱が画像データや音声データに影響を与えているおそれがある場合、例えば外乱のタイミングを基準とした所定時間範囲の画像データや音声データを不要なデータとして削除する。
 図12は、画像データや音声データの削除例を示している。図12の(A)は、外乱が固定状態から分離状態への遷移である場合を例示している。例えば、時点taで撮像装置と情報処理装置が分離されて、固定分離情報に基づき外乱が発生したとする。この場合、時点taの画像データに対して外乱情報が関連付けられる。また、外乱情報では、外乱が固定状態から分離状態への遷移であることを示す。外乱による影響を受けた画像データ(音声データ)を削除する場合、外乱情報が関連付けられている位置を基準とした所定の時間範囲TWを削除対象とする。ここで、撮像装置と情報処理装置を固定状態から分離状態へ遷移させる操作を行ったとき、操作開始から固定分離情報が分離状態を示すまでの標準的な時間TSと、固定分離情報が分離状態を示してから操作終了までの標準的な時間TEを予め決めておく。さらに、時点taから過去方向の時間TSまでの時間範囲と時点taから未来方向の時間TEまでの時間範囲を所定の時間範囲TWとする。このようにすれば、外乱情報に基づき、固定状態から分離状態への遷移の操作が行われている期間の画像データと音声データを削除できる。
 図12の(B)は、情報処理装置で外乱(例えばユーザに対する着信通知)が発生した場合を例示している。例えば、情報処理装置でユーザに対する着信の通知が時点tbsで開始されて時点tbeで終了したとする。この場合、時点tbsから時点tbeの画像データに対して外乱情報が関連付けられる。また、外乱情報では、外乱が着信の通知の開始または着信の通知の終了であることを示す。外乱による影響を受けた画像データ(音声データ)を削除する場合、外乱による影響を受けているおそれのある時間範囲、すなわち着信の通知の開始である時点tbsから終了である時点tbeまでの時間範囲TWとする。このようにすれば、外乱情報に基づき、着信の通知が行われている期間の画像データと音声データを削除できる。さらに、時点tbeを通話の終了のタイミングとすれば、外乱情報に基づき、着信の通知の開始から通話の終了までの期間の画像データと音声データを削除できる。
 また、編集処理でダイジェストコンテンツを作成する場合、外乱情報が関連付けられている位置を基準とした所定時間範囲の画像データや音声データを用いることなくダイジェストコンテンツを作成する。このようにすれば、外乱の影響を生じていないダイジェストコンテンツを作成できる。
 また、外乱情報が関連付けられている位置を基準とした所定時間範囲の画像データや音声データを抽出すれば、外乱の影響の確認を容易に行える。
 さらに、記録されている画像の品位のレーティングを行う場合、外乱情報が関連付けられている位置であるか否かをレーティングの判定に用いることで、例えば外乱による影響を受けているおそれのある位置を自動的に低品位として処理できる。また、外乱情報を利用することで、画像を外乱の影響のないグループと外乱による影響を受けているおそれのあるグループに、自動的にグルーピングを行うことができる。さらに、外乱情報でどのような外乱であるか示されていれば、グルーピングをさらに詳細に行うことができる。例えば、画像データのみが影響を受けているおそれのあるグループ、音声データのみが影響を受けているおそれのあるグループ、画像データと音声データが共に影響を受けているおそれのあるグループ等に、自動的に区分できる。
 さらに、加工処理を行う場合、例えば外乱情報が関連付けられている位置を基準とした所定時間範囲の音声を自動的にミュートすることで、不要な音が含まれないように音声を容易に加工できる。
 明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させる。または、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。
 例えば、プログラムは記録媒体としてのハードディスクやSSD(Solid State Drive)、ROM(Read Only Memory)に予め記録しておくことができる。あるいは、プログラムはフレキシブルディスク、CD-ROM(Compact Disc Read Only Memory),MO(Magneto optical)ディスク,DVD(Digital Versatile Disc)、BD(Blu-Ray Disc(登録商標))、磁気ディスク、半導体メモリカード等のリムーバブル記録媒体に、一時的または永続的に格納(記録)しておくことができる。このようなリムーバブル記録媒体は、いわゆるパッケージソフトウェアとして提供することができる。
 また、プログラムは、リムーバブル記録媒体からコンピュータにインストールする他、ダウンロードサイトからLAN(Local Area Network)やインターネット等のネットワークを介して、コンピュータに無線または有線で転送してもよい。コンピュータでは、そのようにして転送されてくるプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、本明細書に記載した効果はあくまで例示であって限定されるものではなく、記載されていない付加的な効果があってもよい。また、本技術は、上述した技術の実施の形態に限定して解釈されるべきではない。この技術の実施の形態は、例示という形態で本技術を開示しており、本技術の要旨を逸脱しない範囲で当業者が実施の形態の修正や代用をなし得ることは自明である。すなわち、本技術の要旨を判断するためには、請求の範囲を参酌すべきである。
 また、本技術の撮像システムは以下のような構成も取ることができる。
 (1) 情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有し、

 前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける制御部を
備える撮像システム。
 (2) 前記制御部は、前記固定分離情報が前記固定状態であることを示す場合、前記外乱情報を前記画像データに関連付ける(1)に記載の撮像システム。
 (3) 前記制御部は、前記固定分離情報が前記分離状態であることを示し、前記情報処理装置と前記撮像装置との間隔が所定距離未満である場合、前記外乱情報を前記画像データに関連付ける(2)に記載の撮像システム。
 (4) 前記固定状態と前記分離状態のいずれであるかを判別して前記固定分離情報を生成する固定分離判別部をさらに備える(1)乃至(3)のいずれかに記載の撮像システム。
 (5) 前記外乱情報は、前記撮像装置で取得される撮像画自体または音声自体の品質に影響を及ぼす外乱を示す(1)乃至(4)のいずれかに記載の撮像システム。
 (6) 前記外乱情報は、前記固定状態から前記分離状態への遷移、または前記固定状態への前記分離状態からの遷移を示す情報を含む(1)乃至(5)のいずれかに記載の撮像システム。
 (7)前記外乱情報は、前記情報処理装置においてユーザに対して行われる通知を示す情報を含む(1)乃至(6)のいずれかに記載の撮像システム。
 (8) 前記情報処理装置は携帯電話機能を有し、
 前記情報処理装置においてユーザに対して行われる通知を示す情報は、前記携帯電話機能に関係した通知を示す情報を含む(7)に記載の撮像システム。
 (9)
 前記ユーザに対して行われる通知は、音または振動を利用した通知である(7)または(8)に記載の撮像システム。
 (10) 前記外乱情報は、前記撮像装置で取得された撮像画を含む画像または前記撮像装置で取得された音声を含む音声の品質に影響を及ぼす外乱を示す(1)乃至(9)のいずれかに記載の撮像システム。
 (11) 前記情報処理装置は通信端末の機能を有し、
 前記外乱情報は、前記情報処理装置における前記通信端末の機能で用いる通信回線の途絶を示す情報である(1)乃至(10)のいずれかに記載の撮像システム。
 (12) 前記撮像装置に前記制御部が設けられており、前記情報処理装置は、当該情報処理装置で生じた外乱を前記撮像装置に通知する(1)乃至(11)のいずれかに記載の撮像システム。
 (13) 前記外乱情報は、外乱の種別を示す情報を含む(1)乃至(12)のいずれかに記載の撮像システム。
 (14) 前記撮像装置は、前記画像データまたは前記画像データと音声データの生成を行う(1)乃至(13)のいずれかに記載の撮像システム。
 この技術の撮像システム、撮像装置、情報処理装置および方法とプログラムでは、情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有しており、撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報が、固定状態と分離状態を示す固定分離情報に基づいて、外乱のタイミングで撮像装置で生成される画像データに関連付けられる。このため、撮像装置と情報処理装置とが離れている場合に限らず、固定して用いることが可能であるシステムにおいて、撮像画像の品質が低い部分の検出を容易に行うことができるようになる。したがって、表示機能を有していない撮像装置がスマートフォン等の情報処理装置に固定または分離可能であって、撮像装置と情報処理装置間で通信を行い例えば撮像装置で生成された撮像画像を情報処理装置で確認できるように構成された撮像システム等に適している。
 10・・・撮像システム
 15,45,85,95・・・制御部
 20・・・撮像装置
 21・・・外筒部
 22・・・コントロールリング
 31・・・撮像光学系
 32・・・撮像部
 33・・・画像処理部
 34,75・・・記録再生部
 35,78・・・電源部
 36,76・・・センサ部
 37,77・・・記憶部
 38,81・・・表示部
 39・・・音声入力部
 41,71・・・通信部
 42,74・・・照明部
 44,82・・・操作入力部
 46,86・・・記録媒体
 50・・・取付機構部
 51,52・・・取付部材
 60・・・情報処理装置
 61・・・外筐
 62・・・表示パネル
 72・・・音声入出力部
 73・・・撮像ブロック
 78・・・電源部
 83・・・振動発生機構
 91・・・固定分離判別部
 411・・・第1無線通信部
 412・・・第1アンテナ
 413・・・第2無線通信部
 414・・・第2アンテナ
 441・・・ズームボタン
 442・・・シャッターボタン
 711・・・第1無線通信部
 712・・・第1アンテナ
 713・・・第2無線通信部
 714・・・第2アンテナ
 715・・・第3無線通信部
 716・・・第3アンテナ

Claims (18)

  1.  情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有し、
     前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける制御部を
    備える撮像システム。
  2.  前記制御部は、前記固定分離情報が前記固定状態であることを示す場合、前記外乱情報を前記画像データに関連付ける
    請求項1記載の撮像システム。
  3.  前記制御部は、前記固定分離情報が前記分離状態であることを示し、前記情報処理装置と前記撮像装置との間隔が所定距離未満である場合、前記外乱情報を前記画像データに関連付ける
    請求項2記載の撮像システム。
  4.  前記固定状態と前記分離状態のいずれであるかを判別して前記固定分離情報を生成する固定分離判別部をさらに備える
    請求項1記載の撮像システム。
  5.  前記外乱情報は、前記撮像装置で取得される撮像画自体または音声自体の品質に影響を及ぼす外乱を示す
    請求項1記載の撮像システム。
  6.  前記外乱情報は、前記固定状態から前記分離状態への遷移、または前記固定状態への前記分離状態からの遷移を示す情報を含む
    請求項5記載の撮像システム。
  7.  前記外乱情報は、前記情報処理装置においてユーザに対して行われる通知を示す情報を含む
    請求項5記載の撮像システム。
  8.  前記情報処理装置は携帯電話機能を有し、
     前記情報処理装置においてユーザに対して行われる通知を示す情報は、前記携帯電話機能に関係した通知を示す情報を含む
    請求項7記載の撮像システム。
  9.  前記ユーザに対して行われる通知は、音または振動を利用した通知である
    請求項7記載の撮像システム。
  10.  前記外乱情報は、前記撮像装置で取得された撮像画を含む画像または前記撮像装置で取得された音声を含む音声の品質に影響を及ぼす外乱を示す
    請求項1記載の撮像システム。
  11.  前記情報処理装置は通信端末の機能を有し、
     前記外乱情報は、前記情報処理装置における前記通信端末の機能で用いる通信回線の途絶を示す情報である
    請求項10記載の撮像システム。
  12.  前記撮像装置に前記制御部が設けられており、前記情報処理装置は、当該情報処理装置で生じた外乱を前記撮像装置に通知する
    請求項1記載の撮像システム。
  13.  前記外乱情報は、外乱の種別を示す情報を含む
    請求項1記載の撮像システム。
  14.  前記撮像装置は、前記画像データまたは前記画像データと音声データの生成を行う
    請求項1記載の撮像システム。
  15.  情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有し、
     前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける工程を
    含む撮像制御方法。
  16.  情報処理装置と撮像装置とが互いに固定された固定状態と、前記情報処理装置と前記撮像装置とが分離された分離状態とを有する前記情報処理装置または前記撮像装置の制御をコンピュータで実行させるプログラムであって、
     前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける手順を
    前記コンピュータで実行させるプログラム。
  17.  情報処理装置に固定された固定状態と、前記情報処理装置から分離された分離状態とを有し、
     生成する画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで生成する前記画像データに関連付ける制御部を
    備える撮像装置。
  18.  撮像装置に固定された固定状態と、前記撮像装置から分離された分離状態とを有し、
     前記撮像装置で生成される画像データまたは音声データへ影響を及ぼす外乱を示す外乱情報を、前記固定状態と前記分離状態を示す固定分離情報に基づいて、前記外乱のタイミングで前記撮像装置で生成される画像データに関連付ける制御部を
    備える情報処理装置。
PCT/JP2015/063125 2014-06-17 2015-05-01 撮像システム、撮像装置、情報処理装置および方法とプログラム WO2015194275A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP15809852.5A EP3160126A4 (en) 2014-06-17 2015-05-01 Imaging system, imaging device, information processing device and method, and program
US15/306,551 US10044914B2 (en) 2014-06-17 2015-05-01 Imaging system, imaging device, information processing device, method, and program
JP2016529158A JP6493401B2 (ja) 2014-06-17 2015-05-01 撮像システム、撮像装置、情報処理装置および方法とプログラム
CN201580030734.7A CN106664352A (zh) 2014-06-17 2015-05-01 成像系统、成像装置、信息处理装置和方法以及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-124488 2014-06-17
JP2014124488 2014-06-17

Publications (1)

Publication Number Publication Date
WO2015194275A1 true WO2015194275A1 (ja) 2015-12-23

Family

ID=54935269

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/063125 WO2015194275A1 (ja) 2014-06-17 2015-05-01 撮像システム、撮像装置、情報処理装置および方法とプログラム

Country Status (5)

Country Link
US (1) US10044914B2 (ja)
EP (1) EP3160126A4 (ja)
JP (1) JP6493401B2 (ja)
CN (1) CN106664352A (ja)
WO (1) WO2015194275A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017145789A1 (ja) * 2016-02-26 2017-08-31 ソニー株式会社 測位装置、通信装置、および測位システム
CN106993073B (zh) * 2017-05-16 2020-08-18 奇酷互联网络科技(深圳)有限公司 移动终端及其双摄摄像头
RU2684943C1 (ru) * 2018-06-21 2019-04-16 федеральное государственное бюджетное образовательное учреждение высшего образования "Московский государственный технический университет имени Н.Э. Баумана (национальный исследовательский университет)" (МГТУ им. Н.Э. Баумана) Способ повышения надежности и качества функционирования партии гибридных и монолитных интегральных схем
US20230164254A1 (en) * 2021-11-24 2023-05-25 Visual Defence Inc. Hybrid smart phone smart camera system based on methods and system for modifying a smart phone

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205274A (ja) * 1992-12-28 1994-07-22 Canon Inc 通信システム
JP2007074276A (ja) * 2005-09-06 2007-03-22 Fujifilm Corp 撮像装置
JP2013160781A (ja) * 2012-02-01 2013-08-19 Nikon Corp 撮像録音装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975351B2 (en) * 1996-04-26 2005-12-13 Canon Kabushiki Kaisha Apparatus and system for camera head determination in an image sensing system
JP4328403B2 (ja) 1999-02-16 2009-09-09 キヤノン株式会社 カメラ及び交換レンズ
JP4383841B2 (ja) 2003-12-12 2009-12-16 キヤノン株式会社 交換レンズ
CN2763822Y (zh) * 2005-02-03 2006-03-08 恩得利工业股份有限公司 镜头模块结构
JP2008178062A (ja) 2006-12-22 2008-07-31 Nikon Corp カメラおよびカメラシステム
JP2009003334A (ja) * 2007-06-25 2009-01-08 Sony Corp 画像撮像装置、撮像制御方法
JP4636140B2 (ja) * 2008-08-25 2011-02-23 ソニー株式会社 静脈撮像装置、静脈撮像方法および静脈認証装置
US8830353B2 (en) * 2010-10-22 2014-09-09 Panasonic Corporation Camera body, and camera system
JP5677062B2 (ja) * 2010-12-10 2015-02-25 キヤノン株式会社 電子機器
JP2012186698A (ja) 2011-03-07 2012-09-27 Ricoh Co Ltd 画像撮影装置
JP5778469B2 (ja) * 2011-04-28 2015-09-16 日本アビオニクス株式会社 撮像装置、画像生成方法、赤外線カメラシステム及び交換可能なレンズシステム
JP5541430B1 (ja) 2013-08-19 2014-07-09 ソニー株式会社 撮像ユニット、装着装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06205274A (ja) * 1992-12-28 1994-07-22 Canon Inc 通信システム
JP2007074276A (ja) * 2005-09-06 2007-03-22 Fujifilm Corp 撮像装置
JP2013160781A (ja) * 2012-02-01 2013-08-19 Nikon Corp 撮像録音装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3160126A4 *

Also Published As

Publication number Publication date
US20170171434A1 (en) 2017-06-15
EP3160126A4 (en) 2018-04-25
JP6493401B2 (ja) 2019-04-03
CN106664352A (zh) 2017-05-10
US10044914B2 (en) 2018-08-07
EP3160126A1 (en) 2017-04-26
JPWO2015194275A1 (ja) 2017-04-20

Similar Documents

Publication Publication Date Title
JP6614143B2 (ja) 撮像システム、撮像装置、情報処理装置および方法とプログラム
US11509811B2 (en) Lens control apparatus, lens control method, image capturing apparatus, information processing apparatus, information processing method, image capturing system, and computer readable storage medium
WO2015076016A1 (ja) 撮像システム、撮像装置、情報処理装置および方法とプログラム
US20190025769A1 (en) Electronic device, time setting method, time setting system and program
JP6493401B2 (ja) 撮像システム、撮像装置、情報処理装置および方法とプログラム
JP2006086848A (ja) 携帯型情報処理装置、スライド表示起動方法およびスライド表示起動プログラム
US9883091B2 (en) Device control based on attachment/detachment information
KR101579735B1 (ko) 동기화 방법
JP6468194B2 (ja) 撮像システム、撮像装置、情報処理装置および方法とプログラム
JP4869574B2 (ja) 携帯型情報処理装置、情報提示方法および情報提示プログラム
JP2019193161A (ja) 通信装置およびその制御方法、並びにプログラム
US11178343B2 (en) Combining images from different devices according to a determined wipe shape

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15809852

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016529158

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 15306551

Country of ref document: US

REEP Request for entry into the european phase

Ref document number: 2015809852

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2015809852

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE