WO2020217835A1 - 情報処理装置、および情報処理方法、並びにプログラム - Google Patents

情報処理装置、および情報処理方法、並びにプログラム Download PDF

Info

Publication number
WO2020217835A1
WO2020217835A1 PCT/JP2020/013472 JP2020013472W WO2020217835A1 WO 2020217835 A1 WO2020217835 A1 WO 2020217835A1 JP 2020013472 W JP2020013472 W JP 2020013472W WO 2020217835 A1 WO2020217835 A1 WO 2020217835A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
information processing
communication
unit
alignment
Prior art date
Application number
PCT/JP2020/013472
Other languages
English (en)
French (fr)
Inventor
志郎 江下
Original Assignee
ソニー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソニー株式会社 filed Critical ソニー株式会社
Priority to JP2021515893A priority Critical patent/JP7414064B2/ja
Priority to CN202080029778.9A priority patent/CN113711582A/zh
Priority to US17/603,809 priority patent/US11641518B2/en
Publication of WO2020217835A1 publication Critical patent/WO2020217835A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/2628Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/80Services using short range communication, e.g. near-field communication [NFC], radio-frequency identification [RFID] or low energy communication

Definitions

  • This disclosure relates to an information processing device, an information processing method, and a program. More specifically, when short-range wireless communication is performed between two devices, an information processing device, an information processing method, and a program that enable highly accurate and easy positioning of the communication unit of each device. Regarding.
  • the following processing is executed.
  • Necessary for authentication processing and subsequent Wi-Fi communication by communication using the proximity communication unit of each of the two devices that execute communication for example, the proximity communication unit that performs short-range wireless communication such as NFC (Near Field Communication). Sends and receives various setting information such as password and encryption key information.
  • NFC Near Field Communication
  • a Wi-Fi communication session capable of transmitting a large amount of data is established between the two devices, and data such as an image is transmitted by Wi-Fi communication.
  • data such as an image is transmitted by Wi-Fi communication.
  • proximity communication units such as NFC.
  • the communicable range of the proximity communication unit such as NFC is several cm or less, and good communication cannot be executed in a device provided with a communication unit having a weak output unless it is in close contact.
  • devices such as cameras and smartphones have a mark indicating the position of the antenna of the proximity communication unit, but if the camera and the smartphone are brought into close contact with each other, the marks of both proximity communication units cannot be seen from the outside. As a result, it is easy for two devices to come into close contact with each other in a state where the antenna positions, which are the communication units of the camera and the smartphone, are displaced, and in this case, short-range wireless communication between the devices cannot be executed.
  • Patent Document 1 Japanese Unexamined Patent Publication No. 2015-005952.
  • Patent Document 1 describes short-range wireless communication between an electronic device such as a smartphone and an image forming device such as a copy device as a configuration example for easily aligning an antenna which is a communication unit for short-range wireless communication. The configuration to be performed is disclosed.
  • the smartphone is made to take an image showing the antenna position of the copy device and stored in the storage unit.
  • the live image taken by the smartphone is displayed on the display unit of the smartphone and brought closer to the proximity communication unit (antenna) of the copy device.
  • the antenna image of the display unit is highlighted.
  • the user who moves the smartphone can know the antenna position of the copy device based on the image displayed on the smartphone display unit.
  • the problem with this configuration is that the user cannot reliably know the antenna position on the smartphone side.
  • the mark indicating the antenna position of the smartphone is recorded on the back side of the smartphone, and when the back side of the smartphone is turned to the copy device side, the user cannot see the mark. Also, if a cover that covers the back of the smartphone is attached, the antenna mark cannot be confirmed even if the smartphone is turned over, so the user cannot know the antenna position of the smartphone, and as a result, the antenna of the smartphone. It may be difficult to match the position with the antenna position of the copy device.
  • the present disclosure has been made in view of the above-mentioned problems, for example, and when short-range wireless communication is performed between two information processing devices, it is easy to align the antenna position which is the communication unit of both devices.
  • an information processing device an information processing method, and a program capable of being executed with high accuracy.
  • the first aspect of the disclosure is It has a control unit that displays an image presented to the user when aligning the position of the communication unit of the own device that executes short-range wireless communication with the position of the communication unit of the communication partner device on the display unit.
  • the control unit An image for alignment taken by the camera of the own device at a position where short-range wireless communication between the own device and the communication partner device is possible, and It is in an information processing device that superimposes a live view image, which is an image currently taken by the camera of the own device, and displays it on the display unit.
  • the second aspect of the disclosure is It has a control unit that generates an image for alignment to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the control unit Information processing that generates an image taken by the camera of the own device or a partially cut-out image of the image as the alignment image at a position where short-range wireless communication between the own device and the communication partner device is possible. It is in the device.
  • the third aspect of the present disclosure is It is an information processing method executed in an information processing device.
  • the information processing device has a control unit that displays an image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the control unit An image for alignment taken by the camera of the own device at a position where short-range wireless communication between the own device and the communication partner device is possible, and
  • This is an information processing method in which a live view image, which is an image currently captured by the camera of the own device, is superimposed and displayed on the display unit.
  • the fourth aspect of the present disclosure is It is an information processing method executed in an information processing device.
  • the information processing device has a control unit that generates a positioning image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the control unit Information processing that generates an image taken by the camera of the own device or a partially cut-out image of the image as the alignment image at a position where short-range wireless communication between the own device and the communication partner device is possible. In the way.
  • the fifth aspect of the present disclosure is A program that executes information processing in an information processing device.
  • the information processing device has a control unit that displays an image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the program is sent to the control unit.
  • An image for alignment taken by the camera of the own device at a position where short-range wireless communication between the own device and the communication partner device is possible, and
  • the program is for superimposing a live view image, which is an image currently taken by the camera of the own device, and displaying it on the display unit.
  • the sixth aspect of the present disclosure is A program that executes information processing in an information processing device.
  • the information processing device has a control unit that generates a positioning image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the program is sent to the control unit.
  • a program for generating an image taken by the camera of the own device or a partially cut-out image of the image as the alignment image at a position where short-range wireless communication between the own device and the communication partner device is possible. is there.
  • the program of the present disclosure is, for example, a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an image processing device or a computer system that can execute various program codes.
  • a program that can be provided by a storage medium or a communication medium that is provided in a computer-readable format to an image processing device or a computer system that can execute various program codes.
  • system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • an apparatus and a method capable of easily and highly accurately performing positioning in communication for executing short-range wireless communication are realized.
  • a control unit that displays an image presented to the user when aligning the position of the communication unit of the own device that executes short-range wireless communication with the position of the communication unit of the communication partner device on the display unit.
  • the control unit is located at a position where short-range wireless communication between the own device and the communication partner device is possible, and the alignment image taken by the camera of the own device and the live view which is the current image taken by the camera of the own device. Images are superimposed and displayed on the display.
  • the control unit displays contour data or transparent data of the alignment image on the display unit.
  • the information processing device of the present disclosure is, for example, a device that executes short-range wireless communication such as NFC (Near Field Communication).
  • FIG. 1 shows an image pickup device 10 and a smartphone (smartphone) 20 as examples of the information processing device of the present disclosure.
  • the information processing devices of the present disclosure include tablet terminals, PCs, game devices, communication devices, image forming devices, speakers, in addition to these devices.
  • Various devices such as devices are included.
  • FIG. 1 shows the front surface and the back surface of each device as an external configuration of the image pickup device 10 and the smartphone 20.
  • a proximity communication unit as a communication unit including an antenna for performing short-range wireless communication is configured.
  • These proximity communication units are, for example, communication units that perform short-range wireless communication such as NFC (Near Field Communication).
  • NFC Near Field Communication
  • the communicable range of a proximity communication unit such as an NFC is several centimeters or less, and a device equipped with a communication unit having a weak output cannot perform good communication unless it is in close contact.
  • the smartphone 20 has a camera function, and an image taken through the camera lens 22 on the back surface of the smartphone 20 is displayed on the display unit 23 on the front surface of the smartphone 20.
  • Both the image pickup device 10 and the smartphone 20 include a communication unit that performs short-range wireless communication such as NFC, as well as a communication unit that performs communication such as Wi-Fi communication and Bluetooth (registered trademark) (BT) communication. ing.
  • step S01 it is necessary to execute communication via a proximity communication unit such as NFC provided in the two devices for executing communication to perform authentication processing and subsequent Wi-Fi communication (or BT communication). Sends and receives various setting information such as password and encryption key information.
  • a proximity communication unit such as NFC provided in the two devices for executing communication to perform authentication processing and subsequent Wi-Fi communication (or BT communication).
  • Sends and receives various setting information such as password and encryption key information.
  • step S02 a Wi-Fi communication (or BT communication) session capable of transmitting and receiving a large amount of data between the two devices is established.
  • step S03 an image is transmitted from the image imaging device 10 to the smartphone 20 by using Wi-Fi communication (or BT communication).
  • step S01 it is first necessary to perform the short-range wireless communication in step S01.
  • the communicable range of a proximity communication unit such as an NFC is several centimeters or less, and a device equipped with a communication unit having a weak output cannot perform good communication unless it is in close contact.
  • devices such as the imaging device 10 and the smartphone 20 have a mark indicating the antenna position of the proximity communication unit. Good communication is possible if the marks are brought into close contact with each other, but the user cannot perform alignment while looking at the marks.
  • the user holds the smartphone 20 as shown in FIG. 3, and brings the back surface having the mark indicating the antenna position of the proximity communication unit of the smartphone closer to the proximity communication unit 11 on the back surface of the imaging device 10 so as to bring them into close contact with each other. Performs the process of moving the antenna back and forth and left and right. In this state, the user cannot confirm the mark of the proximity communication unit 21 on the back surface of the smartphone 20. In addition, the mark position of the proximity communication unit 11 on the image pickup device 10 side covered by the smartphone 20 becomes unclear.
  • the state of FIG. 4 (2) is a setting in which the positional deviation between the proximity communication unit 11 of the imaging device 10 and the proximity communication unit 21 of the smartphone 20 is small and communication is possible. It is not easy to quickly move the smartphone 20 to the position shown in FIG. 4 (2).
  • FIG. 5 is a diagram illustrating a processing example executed by the smartphone 20 which is the information processing device of the present disclosure.
  • the process shown in FIG. 5 is a preparatory process for aligning the proximity communication unit in a short time.
  • the smartphone 20 and the imaging device 10 which is a short-range wireless communication partner device are aligned at positions where short-range wireless communication is possible.
  • an image is taken by the camera of the smartphone 20.
  • the camera lens 22 of the smartphone 20 is located on the back surface of the smartphone 20 like the proximity communication unit 21 of the smartphone 20, and an image is taken through the camera lens 22 on the back surface of the smartphone 20.
  • the image is displayed on the display unit 23 as a live view image.
  • the user turns on the camera function of the smartphone 20 and moves the smartphone 20 on the image pickup device 10.
  • a notification sound for example, "pip" informs that the control unit of the smartphone 20 can communicate.
  • the user operates the shutter of the smartphone 20 at this position to take a still image.
  • This process is the process of step S101 shown in FIG. That is, an image of a position where short-range wireless communication is possible is taken.
  • the alignment image 51 shown in FIG. 5 is captured.
  • the alignment image 51 is an image of a communication partner device at a position where short-range wireless communication can be executed.
  • the alignment image 51 is stored in the storage unit (memory) of the smartphone 20. These processes are preparatory processes for performing the subsequent alignment of the proximity communication unit in a short time.
  • the alignment image 51 is stored in the storage unit of the smartphone 20. After this pre-preparation process, the alignment image 51 stored in the storage unit can be used to easily and accurately align the positions of the proximity communication units of the smartphone 20 and the imaging device 10.
  • the formation surface of the proximity communication unit 11 of the image pickup device 10 and the formation surface of the proximity communication unit 21 of the smartphone 20 face each other, that is, the back surface of each device. They are arranged facing each other, and in step S111, the camera function of the smartphone 20 is turned on, and the shooting of an image (live view image) is started.
  • the image currently being shot that is, the moving image which is the live view image is displayed on the display unit 23 of the smartphone 20.
  • FIG. 6 state 2
  • an image currently being photographed for example, a part of an image on the back surface of the imaging device 10, is displayed on the display unit 23 of the smartphone 20.
  • step S112 the alignment image 51 stored in the storage unit (memory) of the smartphone 20 is read out.
  • step S113 both the currently captured image of the smartphone 20 and the alignment image 51 read from the storage unit are displayed on the display unit 23 of the smartphone 20.
  • FIG. 6 shows an example of a displayed image in which both the currently captured image of the smartphone 20 and the alignment image 51 read from the storage unit are superimposed.
  • the data shown by the dotted line is the alignment image 51 generated by the process described above with reference to FIG. 5 and stored in the storage unit.
  • the alignment image 51 may be displayed by superimposing it on the currently captured image (live view image), or may be converted into display data consisting of only contour data and displayed. Further, the background data may be converted into a transparent data format that can be seen through and displayed on the live view image. These data conversions are executed in the control unit of the smartphone 20.
  • the alignment image 51 is an image taken by the camera of the smartphone 20 in a state where short-range wireless communication is possible between the proximity communication unit 21 of the smartphone 20 and the proximity communication unit 11 of the imaging device 10. Therefore, if the currently captured image (live view image) of the smartphone 20 is moved so as to overlap the alignment image 51 indicated by the dotted line, the proximity communication unit 21 of the smartphone 20 and the proximity communication unit 11 of the imaging device 10 can be used. It is possible to set the position where short-range wireless communication is possible.
  • FIG. 7 shows arrangement examples 1 to 4 when the user moves the smartphone 20 to various positions on the imaging device 10, and an image displayed on the display unit 23 of the smartphone 20 in each arrangement example, that is, Examples 1 to 4 of superimposed image display examples 1 to 4 which are display examples of the superimposed image of the current photographed image and the alignment image 51 are shown.
  • Arrangement example 1 is a state in which a user holding a smartphone arranges the smartphone 20 at a position some distance from the image pickup device 10 and photographs the image pickup device 20 from a distance.
  • the display unit 23 of the smartphone 20 displays the entire image of the image pickup device 20 which is the currently captured image (live view image) at the center position of the display unit 23. This currently captured image (live view image) does not completely match the alignment image 51 shown by the dotted line on the display unit 23.
  • Arrangement example 2 is a state in which the user brings the smartphone 20 slightly closer to the image pickup device 10 to take an image of the image pickup device 20.
  • the display unit 23 of the smartphone 20 displays the image of the image pickup device 20 which is the currently captured image (live view image) on the entire display unit 23.
  • this currently captured image (live view image) also does not completely match the alignment image 51 shown by the dotted line on the display unit 23.
  • Arrangement example 3 is a state in which the user brings the smartphone 20 closer to the image pickup device 10 to take an image of the image pickup device 20.
  • the display unit 23 of the smartphone 20 displays an image of a part of the imaging device 20 which is a currently captured image (live view image) on the entire display unit 23.
  • this currently captured image live view image
  • this currently captured image also does not match the alignment image 51 shown by the dotted line on the display unit 23.
  • the user moves the smartphone 20 while looking at the alignment image 51 displayed on the display unit 23, and matches the currently captured image (live view image) with the alignment image 51. It is the state of the result set as. That is, as shown in (4b), the currently captured image (live view image) and the alignment image 51 match.
  • the proximity communication unit between the smartphone 20 and the image pickup device 10 is set to a position where communication is possible, and in this arranged state, communication via the proximity communication unit between the smartphone 20 and the image pickup device 10 can be executed. ..
  • an image in a state set to a position where communication between the smartphone 20 and the proximity communication unit of the imaging device 10 is possible is taken by the camera of one device (smartphone 20), and the image is captured. It is used as an image for alignment to align two proximity communication units.
  • the image currently being shot (live view image) by the camera of one device and the image for alignment are superimposed and displayed on the display unit, and one device (one device so as to match the currently captured image with the image for alignment).
  • one device one device so as to match the currently captured image with the image for alignment.
  • information such as image scale information, subject distance information, focal length information, etc. at the time of shooting the alignment image 50 is recorded as image attribute information in addition to the alignment image 50. You may leave it.
  • the alignment is executed, if the live view image is photographed under the conditions that match the conditions at the time of capturing the alignment image 50, the alignment can be performed with higher accuracy.
  • the alignment image stored in the storage unit of the smartphone 50 is the entire image captured by the smartphone 20, but only a part of the captured image is cut out. Then, a part of the cut-out image may be stored in the storage unit as an alignment image.
  • a specific example will be described with reference to FIG.
  • FIG. 8 is a preliminary preparation process for aligning the proximity communication unit in a short time, as in FIG. 5 described above.
  • the smartphone 20 and the imaging device 10 which is a short-range wireless communication partner device are aligned at positions where short-range wireless communication is possible.
  • the user turns on the camera function of the smartphone 20 and moves the smartphone 20 on the image pickup device 10.
  • a notification sound for example, "pip" informs that the control unit of the smartphone 20 can communicate.
  • Is output The user operates the shutter of the smartphone 20 at this position to take a still image.
  • This process is the process of step S121 shown in FIG. That is, an image of a position where short-range wireless communication is possible is taken.
  • the captured image 71 shown in FIG. 8 is captured.
  • the captured image 71 is an image of a communication partner device at a position where short-range wireless communication can be executed. Further, in step S122, a part of the captured image 71 is cut out and the cut-out image is used as the alignment image 72.
  • step S123 the alignment image 72 is stored in the storage unit (memory) of the smartphone 20.
  • the information indicating the cutout position is also stored in the storage unit together with the alignment image 72 as attribute information.
  • the cutout position information is used when determining the display position of the alignment image 72 with respect to the display unit 23. That is, the cutout position information is information that can be used as the display position information of the alignment image 72.
  • the alignment image 72 is stored in the storage unit of the smartphone 20.
  • the alignment image 72 is an image including a part of a captured image 71 which is an image of a communication partner device at a position where short-range wireless communication can be executed.
  • the alignment image 72 stored in the storage unit can be used to easily align the positions of the proximity communication units of the smartphone 20 and the imaging device 10.
  • processing using the alignment image 72 which is a partially cut-out image stored in the storage unit of the smartphone 20, that is, the position of the proximity communication unit position between the smartphone 20 and the imaging device 10.
  • the matching process will be described.
  • the formation surface of the proximity communication unit 11 of the imaging device 10 and the formation surface of the proximity communication unit 21 of the smartphone 20 face each other, that is, the back surface of each device. They are arranged so as to face each other, and in step S131, the camera function of the smartphone 20 is turned on, and image shooting is started.
  • the image currently being shot that is, the moving image as the live view image is displayed on the display unit 23 of the smartphone 20.
  • the image currently being photographed for example, a part of the image on the back surface of the imaging device 10, is displayed on the display unit 23 of the smartphone 20.
  • step S132 the alignment image 72 stored in the storage unit (memory) of the smartphone 20 is read out.
  • the alignment image 72 is a captured image 71 captured by the process described above with reference to FIG. 8, that is, a captured image captured at a position where short-range wireless communication between the smartphone 20 and the imaging device 10 is possible. It is an image cut out from a part of.
  • step S133 both the currently captured image of the smartphone 20 and the alignment image 72 read from the storage unit are displayed on the display unit 23 of the smartphone 20.
  • FIG. 9 shows an example of a displayed image in which both the currently captured image of the smartphone 20 and the alignment image 72 read from the storage unit are superimposed.
  • the data shown by the dotted line is the alignment image 72 generated by the process described above with reference to FIG. 8 and stored in the storage unit.
  • the display position of the alignment image 72 is determined based on the cutout position information stored in the storage unit together with the alignment image 72.
  • the alignment image 72 may be displayed by superimposing it on the currently captured image (live view image), or may be converted into display data consisting of only contour data and displayed. Further, the background data may be converted into a transparent data format that can be seen through and displayed on the live view image. These data conversions are executed in the control unit of the smartphone 20.
  • the alignment image 72 displayed on the display unit 23 is photographed by the camera of the smartphone 20 in a state where short-range wireless communication is possible between the proximity communication unit 21 of the smartphone 20 and the proximity communication unit 11 of the imaging device 10. It is a part of the image. Therefore, if the currently captured image of the smartphone 20 is moved so as to overlap the alignment image 72 shown by the dotted line, the short-range wireless communication between the proximity communication unit 21 of the smartphone 20 and the proximity communication unit 11 of the imaging device 10 can be performed. It is possible to set it in a possible position.
  • FIG. 10 shows arrangement examples 1 to 4 when the user moves the smartphone 20 to various positions on the imaging device 10, and an image displayed on the display unit 23 of the smartphone 20 in each arrangement example, that is, Superimposed image display examples 1 to 4 which are display examples of the superposed image of the current captured image and the alignment image 72 are shown.
  • Arrangement example 1 is a state in which a user holding a smartphone arranges the smartphone 20 at a position some distance from the image pickup device 10 and photographs the image pickup device 20 from a distance.
  • the display unit 23 of the smartphone 20 displays the entire image of the image pickup device 20 which is the currently captured image (live view image) at the center position of the display unit 23. This currently captured image (live view image) does not completely match the alignment image 72 shown by the dotted line on the display unit 23.
  • Arrangement example 2 is a state in which the user brings the smartphone 20 slightly closer to the image pickup device 10 to take an image of the image pickup device 20.
  • the display unit 23 of the smartphone 20 displays the image of the image pickup device 20 which is the currently captured image (live view image) on the entire display unit 23.
  • this currently captured image (live view image) also does not completely match the alignment image 72 shown by the dotted line on the display unit 23.
  • Arrangement example 3 is a state in which the user brings the smartphone 20 closer to the image pickup device 10 to take an image of the image pickup device 20.
  • the display unit 23 of the smartphone 20 displays an image of a part of the imaging device 20 which is a currently captured image (live view image) on the entire display unit 23.
  • this currently captured image live view image
  • this currently captured image also does not match the alignment image 72 shown by the dotted line on the display unit 23.
  • the user moves the smartphone 20 while looking at the alignment image 72 displayed on the display unit 23, and matches the currently captured image (live view image) with the alignment image 72. It is the state of the result set as. That is, as shown in (4b), the currently captured image (live view image) and the alignment image 72 match.
  • the proximity communication unit between the smartphone 20 and the image pickup device 10 is set to a position where communication is possible, and in this arranged state, communication via the proximity communication unit between the smartphone 20 and the image pickup device 10 can be executed. ..
  • FIGS. 8 to 10 are examples in which a partial area image of the image taken by the smartphone 20 is used as the alignment image 72. By performing such processing, it is possible to reduce the used capacity of the storage unit and also reduce the processing load of each processing such as image display processing.
  • the process according to the flow shown in FIG. 11 and below is a process that can be executed under the control of a CPU or the like having a program execution function according to a program stored in a storage unit of an information processing device such as a smartphone. ..
  • the processing of each step of the flow shown in FIG. 11 will be sequentially described.
  • Step S201 First, in step S201, a short-range wireless communication possible position is detected between the information processing device with a camera and the short-range wireless communication partner device. This process is executed by, for example, holding a smartphone, which is an information processing device with a camera, in the hand and moving the smartphone on a short-range wireless communication partner device, for example, an imaging device.
  • a smartphone which is an information processing device with a camera
  • the proximity communication unit of a smartphone continuously outputs a predetermined signal.
  • the control unit of the smartphone detects whether or not there is a response from the proximity communication unit of the image pickup device (near field communication partner device).
  • the control unit of the smartphone determines that the smartphone (information processing device with a camera) and the imaging device (near-field wireless communication partner device) are set to the short-range wireless communication possible position.
  • the control unit of the smartphone executes, for example, output of a notification sound or the like in response to the determination process that the two devices are set to the short-range wireless communication possible position.
  • Step S202 In step S201, when the short-range wireless communication possible position between the camera-equipped information processing device and the short-range wireless communication partner device is detected, in step S202, the camera-equipped information processing device moves at the short-range wireless communication possible position. , Take an image of the short-range wireless communication partner device using the camera of the information processing device with a camera.
  • Step S203 the image taken in step S202 or a partially cut-out image of the image is stored in the storage unit of the information processing apparatus with a camera as an alignment image.
  • the alignment image stored in the storage unit is a partially cut-out image
  • the data indicating the cut-out position is also stored. Further, information such as image scale information, subject distance information, focal length information, etc. at the time of image capture for alignment may be recorded together as image attribute information.
  • the process according to the flow shown in FIG. 11 is a preparatory process for performing the subsequent alignment of the proximity communication unit in a short time.
  • Step S221 First, in step S221, the camera of the information processing apparatus with a camera is activated.
  • the information processing device with a camera is, for example, a smartphone, and activates the camera of the smartphone.
  • Step S222 an image of the short-range wireless communication partner device is captured by using the camera of the information processing device with a camera, and the captured image is displayed on the display unit.
  • the camera of the smartphone starts taking a live view image of the imaging device (near field communication partner device) and displays it on the display unit of the smartphone.
  • Step S223) the alignment image stored in the storage unit of the smartphone (information processing device with a camera) is read out, output to the display unit, and superimposed on the live view image currently being photographed for display. For example, the superimposed image shown in FIG. 6 (state 3) and FIG. 9 (state 3) is displayed.
  • Step S224 is a process of moving a smartphone (information processing device with a camera) by the user.
  • the user moves the information processing device with a camera so that the captured image and the alignment image overlap.
  • Step S225 Was the control unit of the smartphone (information processing device with a camera) set to a position where short-range wireless communication between the smartphone (information processing device with a camera) and the imaging device (near-field wireless communication partner device) is possible in step S225? Judge whether or not.
  • the proximity communication unit of the smartphone (information processing device with a camera) continuously outputs a predetermined signal, and the control unit of the smartphone is from the proximity communication unit of the imaging device (near field communication partner device) during this signal output period. Detects the presence or absence of a response. When the response is detected, the control unit of the smartphone determines that the smartphone (information processing device with a camera) and the imaging device (near-field wireless communication partner device) are set to the short-range wireless communication possible position.
  • step S225 the processes of steps S224 to S225 are repeated until it is determined that the two devices are set to the short-range wireless communication possible position. If it is determined in step S225 that the two devices are set to the short-range wireless communication possible position, the process proceeds to step S226.
  • Step S226) If the control unit of the smartphone determines in step S225 that the smartphone (information processing device with a camera) and the imaging device (near-field wireless communication partner device) are set to the short-range wireless communication possible position, the process proceeds to step S226.
  • step S226 the control unit of the smartphone (information processing device with a camera) notifies the user that the two devices have been set to the short-range wireless communication possible position, for example, output or display a notification sound. Executes display processing, etc. during communication execution for the unit.
  • FIG. 13 is a diagram showing a configuration example of a smartphone, which is an example of the information processing device of the present disclosure.
  • the information processing device 100 includes a camera 101, an image processing unit 102, a display unit 103, a control unit 104, an input unit 105, a storage unit 106, a proximity communication unit 107, and a communication unit 108.
  • the camera 101 takes an image.
  • the image captured by the camera 101 is displayed on the display unit 103 after a predetermined image processing by the image processing unit 102. Further, a photographed image is recorded in the storage unit 106 in response to a user operation (shooting process) via the input unit 105.
  • the alignment image captured in the alignment process described above with reference to the flows of FIGS. 5, 8 and 11, and the alignment image captured during the storage process in the storage unit are stored in the storage unit 106. To.
  • the image processing unit 102 performs image processing on the image captured by the camera 101, for example, gamma correction, white balance adjustment, image data compression processing for storing in the storage unit 106, and displaying the image stored in the storage unit 106.
  • image processing for example, gamma correction, white balance adjustment, image data compression processing for storing in the storage unit 106, and displaying the image stored in the storage unit 106.
  • the decompression process or the like when displaying on 103 is executed.
  • the display unit 103 performs display processing of an image taken by the camera 101 and an image stored in the storage unit 106. For example, at the time of executing the alignment process of the proximity communication unit described above with reference to the flows of FIGS. 6 to 7, 9 to 10, and 12, the image captured by the camera 101 (live view image) and the image taken by the camera 101 are displayed. The superimposed image of the alignment image stored in the storage unit 106 is displayed.
  • the control unit 104 controls the processing executed by the information processing apparatus 100. For example, the process according to the program stored in the storage unit 106 is executed.
  • the control unit 104 is configured to include a processor such as a CPU having a program execution function.
  • the input unit 105 is an operation unit by the user, and is composed of an input unit for various information such as a shutter operation unit at the time of image shooting and other setting input.
  • the storage unit 106 stores an image captured by the camera 101, a program executed by the control unit 104, parameters of various processes, and the like.
  • the proximity communication unit 107 is a communication unit that executes short-range wireless communication such as NFC.
  • the communication unit 108 is a communication unit that executes communication by, for example, WiFi communication, Bluetooth (registered trademark) (BT) communication, or the like.
  • the user in the image capture and storage processing of the alignment unit, that is, the pre-processing, as described with reference to FIGS. 5, 8 and 11, the user is a short-range wireless communication partner. It was generated by detecting a position where short-range wireless communication is possible with an apparatus, for example, an imaging apparatus, and performing a process of capturing an image of that position.
  • an alignment image it is also possible to obtain, for example, an entire image of a short-range wireless communication partner device, for example, an image pickup device, detect a proximity communication unit determined from this overall image, and automatically generate it.
  • a short-range wireless communication partner device for example, an image pickup device
  • FIG. 14 is a diagram illustrating a process of generating an image for alignment by this application.
  • the application is stored in the smartphone 20.
  • the application of the smartphone 20 executes the processes of steps S301 to S303 shown in FIG. 14 or the processes of steps S302 to S303.
  • the process of step S301 is a process of capturing an image of the short-range wireless communication partner device, here, the image pickup device 10.
  • the captured image needs to include an image showing the position of the proximity communication unit 11 of the imaging device 10.
  • the mark (N) corresponds to an image indicating the position of the proximity communication unit 11.
  • step S301 the image pickup device 10 is photographed to acquire the image pickup device image 211.
  • this image capturing process may be executed as an application process or may be executed by the user.
  • the captured image is provided to the application, and the application executes the subsequent processing (steps S302 to).
  • the application executes the process of step S302 by using the image pickup device image 211.
  • the application utilizes the image pickup device image 211 in step S302.
  • the alignment image 212 is generated.
  • the application analyzes the image pickup device image 211 of the image pickup device 10 which is a short-range wireless communication partner device, and identifies the position of the proximity communication unit.
  • the position of the (N) mark indicating the position of the proximity communication unit 11 in the figure is identified.
  • the application acquires the position of the proximity communication unit and the position of the camera of the own device, that is, the smartphone 20 from the hardware configuration information stored in the memory inside the smartphone 20.
  • the application uses both the own device (smartphone) and the short-range wireless communication partner device (imaging device) based on the position of the proximity communication unit of the image pickup device 10 and the position of the proximity communication unit and the camera of the smartphone 20.
  • the image captured by the camera when set to a position where short-range wireless communication via the proximity communication unit is possible, that is, the alignment image 212 shown in the figure is estimated and generated.
  • the alignment image 212 is generated by the cutting process of the image pickup apparatus image 211.
  • the smartphone 20 when the position of the proximity communication unit of the image pickup device 10 and the position of the proximity communication unit of the smartphone 20 and the camera position can be acquired, the smartphone 20 when the position of the proximity communication unit of the image pickup device 10 and the position of the proximity communication unit of the smartphone 20 are substantially matched.
  • the shooting range of the camera can be analyzed, and an image of this shooting range or a partially cut-out image thereof is generated as an alignment image 212.
  • the cut-out position data is also set as the attribute data of the image.
  • step S303 the application stores the data generated in step S302, that is, the alignment image 212, in the storage unit of the smartphone 20.
  • the cut-out position data is also stored in the storage unit as the attribute data of the image.
  • the alignment image 212 is stored in the storage unit of the smartphone 20. After that, by using this alignment image, it is possible to easily align the proximity communication unit with high accuracy.
  • This alignment process is the same process as the flow described above with reference to FIG.
  • the entire image of the image pickup device 10 in step S301 can be acquired by a shooting process by the application or a shooting process by the user.
  • the manufacturer's server 251 Etc. you may obtain it from an external site and use it.
  • Step S321 the application acquires image data capable of confirming the position of the proximity communication unit of the short-range wireless communication partner device. This corresponds to the process of step S301 described with reference to FIG. 14, and in the example shown in FIG. 14, it is a process of capturing the image pickup apparatus image 211.
  • the image acquisition process in step S321 may be executed by the user. It may also be obtained from an external server.
  • step S322 the application acquires the proximity communication unit position and the camera position of the own device, for example, the smartphone 20 from the hardware configuration information stored in the memory inside the own device.
  • step S323 the application applies the own device (smartphone) and the short-range wireless communication partner device (smartphone) based on the proximity communication unit position of the short-range wireless communication partner device, the proximity communication unit position of the own device, and the camera position.
  • the image pickup device is set to a position where short-range wireless communication is possible via both proximity communication units, and an image captured by the camera is generated.
  • the alignment image 212 shown in FIG. 14 is generated.
  • the alignment image 212 is generated by the cutting process of the image pickup apparatus image 211.
  • the positions of the proximity communication units of the two devices are almost the same. It is possible to analyze the shooting range of the camera of the own device (smartphone) when the image is set, and an image of this shooting range or a partially cut-out image thereof is generated as an alignment image. When a partially cropped image is generated as an image for alignment, the cropped position data is also set as the attribute data of the image.
  • step S324 the application stores the data generated in step S323, that is, the alignment image, in the storage unit of the own device.
  • the cut-out position data is also stored in the storage unit as image attribute data.
  • the alignment image is stored in the storage unit of the own device, for example, the smartphone 20. After that, by using this alignment image, it is possible to easily align the proximity communication unit with high accuracy.
  • the CPU (Central Processing Unit) 301 functions as a control unit or a data processing unit that executes various processes according to a program stored in the ROM (Read Only Memory) 302 or the storage unit 308. For example, the process according to the sequence described in the above-described embodiment is executed.
  • the RAM (Random Access Memory) 303 stores programs and data executed by the CPU 301. These CPU 301, ROM 302, and RAM 303 are connected to each other by a bus 304.
  • the CPU 301 is connected to the input / output interface 305 via the bus 304, and the input / output interface 305 includes an input unit 306 including a camera, various switches, a keyboard, a mouse, a microphone, a sensor, and an output unit 307 including a display and a speaker. Is connected.
  • the CPU 301 executes various processes in response to a command input from the input unit 306, and outputs the process results to, for example, the output unit 307.
  • the storage unit 308 connected to the input / output interface 305 is composed of, for example, a hard disk or the like, and stores programs executed by the CPU 301 and various data.
  • the communication unit 309 is composed of a proximity communication unit such as NFC, Wi-Fi communication, Bluetooth (registered trademark) (BT) communication, and other communication units for data communication via a network such as the Internet or a local area network. Communicate with the device.
  • the drive 310 connected to the input / output interface 305 drives a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card, and records or reads data.
  • a removable medium 311 such as a magnetic disk, an optical disk, a magneto-optical disk, or a semiconductor memory such as a memory card
  • the technology disclosed in the present specification can have the following configuration. (1) It has a control unit that displays an image presented to the user when aligning the position of the communication unit of the own device that executes short-range wireless communication with the position of the communication unit of the communication partner device on the display unit.
  • the control unit An image for alignment taken by the camera of the own device at a position where short-range wireless communication between the own device and the communication partner device is possible, and An information processing device that superimposes a live view image, which is an image currently taken by the camera of the own device, and displays it on the display unit.
  • the control unit Processes (1) to (3) of storing the alignment image taken by the camera of the own device in the storage unit at a position where short-range wireless communication between the own device and the communication partner device is possible. ) The information processing device described in either.
  • the alignment image is The information processing device according to any one of (1) to (4), which is an image including the communication partner device taken by the camera of the own device.
  • the alignment image is The information processing device according to any one of (1) to (5), which is an image obtained by cutting out only a part of an image from an image including the communication partner device taken by the camera of the own device.
  • control unit The information processing device according to any one of (1) to (6), which generates the alignment image from the image of the communication partner device.
  • the image of the communication partner device is The information processing device according to (7), which is an image acquired from the outside.
  • the control unit The position of the communication unit of the communication partner device included in the image of the communication partner device, and The information processing device according to (7) or (8), which generates the alignment image based on the communication unit position and the camera position of the own device stored in the storage unit of the own device.
  • control unit that generates an alignment image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the control unit Information processing that generates an image taken by the camera of the own device or a partially cut-out image of the image as the alignment image at a position where short-range wireless communication between the own device and the communication partner device is possible. apparatus.
  • the control unit is The position of the communication unit of the communication partner device included in the image of the communication partner device, and The information processing device according to (10), which generates an image for alignment based on a communication unit position and a camera position of the own device stored in a storage unit of the own device.
  • the information processing device has a control unit that displays an image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the control unit An image for alignment taken by the camera of the own device at a position where short-range wireless communication between the own device and the communication partner device is possible, and An information processing method in which a live view image, which is an image currently captured by the camera of the own device, is superimposed and displayed on the display unit.
  • the information processing device has a control unit that generates a positioning image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device.
  • the control unit Information processing that generates an image taken by the camera of the own device or a partially cut-out image of the image as the alignment image at a position where short-range wireless communication between the own device and the communication partner device is possible.
  • a program that executes information processing in an information processing device has a control unit that displays an image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device. And The program is sent to the control unit. An image for alignment taken by the camera of the own device at a position where short-range wireless communication between the own device and the communication partner device is possible, and A program that superimposes a live view image, which is an image currently taken by the camera of the own device, and displays it on the display unit.
  • a program that executes information processing in an information processing device has a control unit that generates a positioning image to be presented to the user when the position of the communication unit of the own device that executes short-range wireless communication is aligned with the position of the communication unit of the communication partner device. And The program is sent to the control unit.
  • the series of processes described in the specification can be executed by hardware, software, or a composite configuration of both.
  • executing processing by software install the program that records the processing sequence in the memory in the computer built in the dedicated hardware and execute it, or execute the program on a general-purpose computer that can execute various processing. It can be installed and run.
  • the program can be pre-recorded on a recording medium.
  • LAN Local Area Network
  • the various processes described in the specification are not only executed in chronological order according to the description, but may also be executed in parallel or individually as required by the processing capacity of the device that executes the processes.
  • the system is a logical set configuration of a plurality of devices, and the devices having each configuration are not limited to those in the same housing.
  • an apparatus and a method capable of easily and highly accurately performing positioning in communication for executing short-range wireless communication are realized.
  • a control unit that displays an image presented to the user when aligning the position of the communication unit of the own device that executes short-range wireless communication with the position of the communication unit of the communication partner device on the display unit.
  • the control unit is located at a position where short-range wireless communication between the own device and the communication partner device is possible, and the alignment image taken by the camera of the own device and the live view which is the current image taken by the camera of the own device. Images are superimposed and displayed on the display.
  • the control unit displays contour data or transparent data of the alignment image on the display unit.
  • Imaging device 11 Proximity communication unit 20 Smartphone 21 Proximity communication unit 22 Camera lens 23 Display unit 51 Alignment image 72 Alignment image 100 Information processing device 101 Camera 102 Image processing unit 103 Display unit 104 Control unit 105 Input unit 106 Storage Part 107 Proximity communication part 108 Communication part 211 Imaging device image 212 Alignment image 251 Server 301 CPU 302 ROM 303 RAM 304 Bus 305 Input / output interface 306 Input unit 307 Output unit 308 Storage unit 309 Communication unit 310 Drive 311 Removable media

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Studio Devices (AREA)
  • Telephone Function (AREA)

Abstract

近距離無線通信を実行する通信での位置合わせを容易にかつ高精度に実行可能とした装置、方法を提供する。近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有する。制御部は、自装置と通信相手装置間との近距離無線通信が可能な位置で、自装置のカメラによって撮影された位置合わせ用画像と、自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して表示部に表示する。制御部は、位置合わせ用画像の輪郭データまたは透過データを表示部に表示する。

Description

情報処理装置、および情報処理方法、並びにプログラム
 本開示は、情報処理装置、および情報処理方法、並びにプログラムに関する。さらに詳細には、2つの装置間で近距離無線通信を行う場合に、各装置の通信部の位置合わせを高精度かつ容易に行うことを可能とした情報処理装置、および情報処理方法、並びにプログラムに関する。
 例えばカメラの撮影画像をスマホ(スマートフォン)やタブレット端末に転送する等の処理を行う場合、以下のような処理を実行する。
 通信を実行する2つの装置各々の近接通信部、例えば、NFC(Near Field Communication)等の近距離無線通信を行う近接通信部を利用した通信により、認証処理や、その後のWi-Fi通信に必要な設定情報、例えばパスワードや暗号鍵情報等の送受信を行う。
 その後、2つの装置間で大容量データの送信可能なWi-Fi通信のセッションを確立して、Wi-Fi通信により画像等のデータを送信する。
 このような2段階の通信を行うことで、Wi-Fi通信時に暗号化データやパスワードを設定したデータ送信が可能となり、第三者の装置へのデータ漏えいを防止できる。
 昨今のカメラや、スマホ、あるいはタブレット端末、さらにその他の情報処理装置には、NFC等の近接通信部が備えたものが増えている。
 しかし、このNFC等の近接通信部の通信可能範囲は数cm以下であり、出力の弱い通信部を備えた機器では、ほぼ密着状態でないと良好な通信が実行できない。
 例えば、カメラやスマホ等の機器には近接通信部のアンテナ位置を示すマークがあるが、カメラとスマホを密着させてしまうと、双方の近接通信部のマークが外部から見えなくなってしまう。
 結果として、カメラとスマホの通信部であるアンテナ位置がずれた状態で2つの機器を密着させてしまう事態が発生し易くなり、この場合、機器間の近距離無線通信が実行できなくなる。
 この問題を回避する従来技術として、例えば特許文献1(特開2015-005952号公報)に記載の技術がある。
 特許文献1には、近距離無線通信の通信部であるアンテナの位置合わせを容易に行う構成例として、スマホ等の電子機器と、コピー装置等の画像形成装置との間で近距離無線通信を行う構成を開示している。
 具体的には、スマホにコピー装置のアンテナ位置を示す画像を撮影させて記憶部に格納する。その後、スマホの撮影するライブ画像をスマホの表示部に表示させてコピー装置の近接通信部(アンテナ)に近づける。
 ライブ画像中に記憶部に格納済みのコピー装置のアンテナ位置を示す画像が検出された場合、表示部のアンテナ画像の強調表示を実行する。これらの処理によりユーザにコピー装置のアンテナ位置を確認可能として、双方の機器のアンテナ位置を一致させやすくする構成である。
 この構成により、スマホを移動させるユーザは、スマホ表示部に表示される画像に基づいて、コピー装置のアンテナ位置を知ることができる。しかし、この構成の問題点は、ユーザがスマホ側のアンテナ位置を確実に知ることができない点である。
 多くの場合、スマホのアンテナ位置を示すマークは、スマホ裏側に記録されており、スマホ裏側をコピー装置側に向けると、ユーザは、そのマークを見ることができない。また、スマホ裏面を覆うようなカバーを装着している場合、スマホを裏返してもアンテナマークを確認することができないため、ユーザはスマホのアンテナ位置を知ることができず、結果として、スマホのアンテナ位置とコピー装置のアンテナ位置を一致させることが困難になる場合がある。
特開2015-005952号公報
 本開示は、例えば、上述の問題点に鑑みてなされたものであり、2つの情報処理装置間で近距離無線通信を行う場合に、双方の機器の通信部であるアンテナ位置の位置合わせを容易にかつ高精度に実行することを可能とした情報処理装置、および情報処理方法、並びにプログラムを提供する。
 本開示の第1の側面は、
 近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
 前記制御部は、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
 前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示する情報処理装置にある。
 さらに、本開示の第2の側面は、
 近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
 前記制御部は、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成する情報処理装置にある。
 さらに、本開示の第3の側面は、
 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
 前記制御部が、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
 前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示する情報処理方法にある。
 さらに、本開示の第4の側面は、
 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
 前記制御部が、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成する情報処理方法にある。
 さらに、本開示の第5の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
 前記プログラムは、前記制御部に、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
 前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示させるプログラムにある。
 さらに、本開示の第6の側面は、
 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
 前記プログラムは、前記制御部に、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成させるプログラムにある。
 なお、本開示のプログラムは、例えば、様々なプログラム・コードを実行可能な画像処理装置やコンピュータ・システムに対して、コンピュータ可読な形式で提供する記憶媒体、通信媒体によって提供可能なプログラムである。このようなプログラムをコンピュータ可読な形式で提供することにより、画像処理装置やコンピュータ・システム上でプログラムに応じた処理が実現される。
 本開示のさらに他の目的、特徴や利点は、後述する本開示の実施例や添付する図面に基づくより詳細な説明によって明らかになるであろう。なお、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 本開示の一実施例の構成によれば、近距離無線通信を実行する通信での位置合わせを容易にかつ高精度に実行可能とした装置、方法が実現される。
 具体的には、例えば、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有する。制御部は、自装置と通信相手装置間との近距離無線通信が可能な位置で、自装置のカメラによって撮影された位置合わせ用画像と、自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して表示部に表示する。制御部は、位置合わせ用画像の輪郭データまたは透過データを表示部に表示する。
 本構成により、近距離無線通信を実行する通信での位置合わせを容易にかつ高精度に実行可能とした装置、方法が実現される。
 なお、本明細書に記載された効果はあくまで例示であって限定されるものではなく、また付加的な効果があってもよい。
情報処理装置の構成例について説明する図である。 情報処理装置が実行する処理の一例について説明する図である。 近接通信部の位置合せ例について説明する図である。 近接通信部の位置合せ例について説明する図である。 本開示の情報処理装置が実行する処理の一例について説明する図である。 本開示の情報処理装置が実行する処理の一例について説明する図である。 本開示の情報処理装置が実行する処理の一例について説明する図である。 本開示の画像処理装置が実行する処理の一例について説明する図である。 本開示の情報処理装置が実行する処理の一例について説明する図である。 本開示の情報処理装置が実行する処理の一例について説明する図である。 本開示の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置の構成例について説明する図である。 本開示の情報処理装置が実行する処理の一例について説明する図である。 本開示の情報処理装置が実行する処理の一例について説明する図である。 本開示の情報処理装置の実行する処理シーケンスについて説明するフローチャートを示す図である。 本開示の情報処理装置のハードウェア構成例について説明する図である。
 以下、図面を参照しながら本開示の情報処理装置、および情報処理方法、並びにプログラムの詳細について説明する。なお、説明は以下の項目に従って行なう。
 1.本開示の情報処理装置の例について
 2.本開示の情報処理装置の実行する処理について
 3.本開示の情報処理装置の実行する処理のシーケンスについて
 4.本開示の情報処理装置の構成例について
 5.近距離無線通信相手装置の画像に基づいて位置合わせ用画像を生成するアプリケーションを利用した実施例について
 6.情報処理装置のハードウェア構成例について
 7.本開示の構成のまとめ
  [1.本開示の情報処理装置の例について]
 まず、本開示の情報処理装置の例について説明する。
 本開示の情報処理装置は、例えば、NFC(Near Field Communication)等の近距離無線通信を実行する装置である。
 図1には、本開示の情報処理装置の例として、撮像装置10と、スマホ(スマートフォン)20を示している。
 ただし、これらは本開示の情報処理装置の一部の例に過ぎず、本開示の情報処理装置には、これらの装置の他、タブレット端末、PC、ゲーム機器、通信装置、画像形成装置、スピーカー装置等、様々な装置が含まれる。
 以下の実施例では、代表例として、撮像装置10と、スマホ(スマートフォン)20を利用した実施例について説明する。
 図1には、撮像装置10とスマホ20の外観構成として、各装置の表面と裏面を示している。
 撮像装置10、スマホ20各機器の裏面には、近距離無線通信を行うアンテナを含む通信部としての近接通信部が構成されている。
 撮像装置10の近接通信部11、スマホ20の近接通信部21である。
 これらの近接通信部は、例えば、NFC(Near Field Communication)等の近距離無線通信を実行する通信部である。
 前述したように、NFC等の近接通信部の通信可能範囲は数cm以下であり、出力の弱い通信部を備えた機器では、ほぼ密着状態でないと良好な通信が実行できない。
 スマホ20はカメラ機能を有しており、スマホ20裏面のカメラレンズ22を介して撮影された画像は、スマホ20表面の表示部23に表示される。
 撮像装置10と、スマホ20は、いずれも、NFC等の近距離無線通信を行う通信部の他、例えばWi-Fi通信やブルートゥース(登録商標)(BT)通信等の通信を行う通信部も備えている。
 例えば撮像装置10の撮影画像をスマホ20に送信する場合、図2のシーケンス図に示すような処理を実行する。
 まず、ステップS01において、通信を実行する2つの装置に備えられたNFC等の近接通信部を介した通信を実行して認証処理や、その後のWi-Fi通信(またはBT通信)の実行に必要な設定情報、例えばパスワードや暗号鍵情報等の送受信を行う。
 その後、ステップS02において、2つの装置間で大容量データの送受信可能なWi-Fi通信(またはBT通信)のセッションを確立する。
 最後に、ステップS03において、Wi-Fi通信(またはBT通信)を利用して、画像撮像装置10からスマホ20に画像を送信する。
 このような2段階の通信を行うことで、Wi-Fi通信(またはBT通信)時に暗号化データやパスワード設定情報を送受信することが可能となり、データ漏えいを防止できる。
 この図2に示す処理シーケンスを行うためには、まず、ステップS01の近距離無線通信を行うことが必要である。
 しかし、上述したように、NFC等の近接通信部の通信可能範囲は数cm以下であり、出力の弱い通信部を備えた機器では、ほぼ密着状態でないと良好な通信が実行できない。
 図1に示すように、撮像装置10やスマホ20等の機器には近接通信部のアンテナ位置を示すマークがある。マーク同士を密着させれば、良好な通信が可能であるが、ユーザは、マークを見ながら位置合わせを行うことができない。
 すなわち、ユーザは、例えば、図3に示すようにスマホ20を持ち、スマホの近接通信部のアンテナ位置を示すマークがある裏面を、撮像装置10の裏面の近接通信部11に近づけて密着させるように前後左右に移動させる処理を行う。
 この状態では、ユーザはスマホ20の裏面の近接通信部21のマークを確認することができない。また、スマホ20によって覆われた撮像装置10側の近接通信部11のマーク位置も不明確になる。
 結果として、カメラとスマホの通信部であるアンテナ位置がずれた状態で2つの機器を密着させてしまう事態が発生し易くなり、この場合、機器間の近距離無線通信が実行できなくなる。
 例えば、図4(1)の状態では、撮像装置10の近接通信部11とスマホ20の近接通信部21の位置ずれが大きく、通信が不可能な設定となる。
 図4(2)の状態は、撮像装置10の近接通信部11とスマホ20の近接通信部21の位置ずれが小さく、通信が可能な設定である。
 この図4(2)に示す位置にスマホ20を素早く移動させるのは簡単なことではない。
  [2.本開示の情報処理装置の実行する処理について]
 次に、本開示の情報処理装置の実行する処理について説明する。
 図5は、本開示の情報処理装置であるスマホ20の実行する処理例を説明する図である。
 図5に示す処理は、近接通信部の位置合わせを短時間で行うための事前準備処理である。
 まず、スマホ20とその近距離無線通信相手装置である撮像装置10とを近距離無線通信可能な位置に位置合わせを行う。
 この、近距離無線通信可能位置において、スマホ20のカメラにより画像撮影を行う。図1を参照して説明したように、スマホ20のカメラレンズ22はスマホ20の近接通信部21と同様、スマホ20の裏面にあり、このスマホ20裏面のカメラレンズ22を介した画像が撮影される。画像はライブビュー画像として表示部23に表示される。
 ユーザはスマホ20のカメラ機能をONにしてスマホ20を撮像装置10上で移動させる。ある地点で、スマホ20の近接通信部21と撮像装置10の近接通信部11が近づき、通信可能位置になると、スマホ20の制御部が通信可能となったことを知らせる通知音(例えば「ピッ」)が出力される。ユーザは、この位置でスマホ20のシャッタを操作して静止画像を撮影する。
 この処理が、図5に示すステップS101の処理である。すなわち、近距離無線通信可能位置の画像を撮影する。
 この画像撮影処理により、図5に示す位置合せ用画像51が撮影される。位置合せ用画像51は、近距離無線通信実行可能位置の通信相手装置の画像である。
 ステップS102において、この位置合せ用画像51をスマホ20の記憶部(メモリ)に格納する。
 これらの処理が、その後の近接通信部の位置合わせを短時間で行うための事前準備処理である。
 この事前準備処理によって、スマホ20の記憶部には、位置合せ用画像51が格納された状態になる。
 この事前準備処理後は、この記憶部に格納された位置合せ用画像51を利用して、スマホ20と撮像装置10の近接通信部位置の位置合せを容易にかつ高精度に行うことができる。
 図6、図7を参照して、スマホ20の記憶部に格納された位置合せ用画像51を利用した処理、すなわち、スマホ20と撮像装置10の近接通信部位置の位置合せ処理について説明する。
 まず、図6左上部の(状態1)に示すように、撮像装置10の近接通信部11の形成面と、スマホ20の近接通信部21の形成面を向き合わせた状態、すなわち各装置の裏面同士を向き合わせて配置し、ステップS111において、スマホ20のカメラ機能をONにして、画像(ライブビュー画像)の撮影を開始する。
 画像撮影を開始すると、スマホ20の表示部23には現在、撮影中の画像、すなわちライブビュー画像である動画像が表示される。
 図6(状態2)に示すように、スマホ20の表示部23に現在、撮影中の画像、例えば撮像装置10の裏面の一部の画像が表示される。
 さらに、ステップS112において、スマホ20の記憶部(メモリ)に格納済みの位置合せ用画像51を読み出す。
 次に、ステップS113において、スマホ20の現在の撮影画像と、記憶部から読み出した位置合せ用画像51の双方をスマホ20の表示部23に表示する。
 図6(状態3)には、スマホ20の現在の撮影画像と、記憶部から読み出した位置合せ用画像51の双方を重畳した表示した画像の例を示している。
 点線で示すデータが、先に図5を参照して説明した処理によって生成し記憶部に格納された位置合せ用画像51である。
 なお、位置合せ用画像51は、現在の撮影画像(ライブビュー画像)上に重ねて表示してもよいし、輪郭データのみからなる表示データに変換して表示してもよい。また、背景データが透けて見える透過データ形式に変換してライブビュー画像上に重ねて表示する構成としてもよい。
 これらのデータ変換は、スマホ20の制御部において実行される。
 この位置合せ用画像51は、スマホ20の近接通信部21と撮像装置10の近接通信部11による近距離無線通信が可能な位置にある状態で、スマホ20のカメラによって撮影された画像である。
 従って、スマホ20の現在の撮影画像(ライブビュー画像)を、点線で示す位置合せ用画像51に重なるように移動させれば、スマホ20の近接通信部21と撮像装置10の近接通信部11による近距離無線通信が可能な位置に設定することが可能となる。
 この位置合わせ処理について図7を参照して説明する。
 図7には、ユーザが撮像装置10上で、スマホ20を様々な位置に移動させた場合の配置例1~4と、各配置例において、スマホ20の表示部23に表示される画像、すなわち現在の撮影画像と位置合せ用画像51との重畳画像の表示例である重畳画像表示例1~4を示している。
 (1a)配置例1は、スマホを持つユーザが、スマホ20を撮像装置10からある程度、離れた位置に配置して遠くから撮像装置20を撮影している状態である。
 この場合、スマホ20の表示部23には、(1b)に示すように、表示部23の中心位置に現在撮影画像(ライブビュー画像)である撮像装置20の全体画像が表示される。
 この現在撮影画像(ライブビュー画像)は、表示部23に点線で示す位置合せ用画像51と全く一致していない。
 (2a)配置例2は、ユーザがスマホ20を撮像装置10にやや近づけて撮像装置20を撮影している状態である。
 この場合、スマホ20の表示部23には、(2b)に示すように、表示部23全体に現在撮影画像(ライブビュー画像)である撮像装置20の画像が表示される。
 しかし、この現在撮影画像(ライブビュー画像)も、表示部23に点線で示す位置合せ用画像51と全く一致していない。
 (3a)配置例3は、ユーザがスマホ20を撮像装置10にさらに近づけて撮像装置20を撮影している状態である。
 この場合、スマホ20の表示部23には、(3b)に示すように、表示部23全体に現在撮影画像(ライブビュー画像)である撮像装置20の一部領域の画像が表示される。
 しかし、この現在撮影画像(ライブビュー画像)も、表示部23に点線で示す位置合せ用画像51と一致していない。
 (4a)配置例4は、ユーザが、表示部23に表示されている位置合せ用画像51を見ながらスマホ20を移動させ、現在撮影画像(ライブビュー画像)を位置合せ用画像51に一致させるように設定した結果の状態である。
 すなわち、(4b)に示すように、現在撮影画像(ライブビュー画像)と位置合せ用画像51が一致している。
 この状態は、スマホ20と撮像装置10の近接通信部が通信可能な位置に設定された状態であり、この配置状態においてスマホ20と撮像装置10の近接通信部を介した通信が実行可能となる。
 このように、本開示の処理では、スマホ20と撮像装置10の近接通信部による通信が可能な位置に設定された状態における画像を一方の装置(スマホ20)のカメラによって撮影し、その画像を位置合わせ用画像として利用して2つの近接通信部の位置合せを行う。
 一方の装置のカメラによる現在撮影中の撮影画像(ライブビュー画像)と、位置合わせ用画像を表示部に重畳表示して、現在の撮影画像を位置合せ用画像に一致させるように
一方の装置(スマホ20)を移動させることで、容易に確実に2つの装置を近距離無線通信可能位置に位置合せすることができる。
 なお、スマホ20の記憶部には、位置合せ用画像50に併せて、位置合せ用画像50撮影時の画像縮尺情報や被写体距離情報、焦点距離情報等の情報を、画像属性情報として併せて記録しておいてもよい。
 位置合わせ実行時に、これら位置合せ用画像50撮影時の条件と一致させた条件でライブビュー画像の撮影処理を行えば、さらに精度の高い位置合わせが可能となる。
 なお、図5~図8を参照して説明した処理例では、スマホ50の記憶部に格納する位置合せ用画像をスマホ20によって撮影された画像全体としたが、撮影画像の一部のみを切り出して、切り出した一部画像を位置合わせ用画像として記憶部に格納する構成としてもよい。
 図8を参照して、具体例について説明する。
 図8は、先に説明した図5と同様、近接通信部の位置合わせを短時間で行うための事前準備処理である。まず、スマホ20とその近距離無線通信相手装置である撮像装置10とを近距離無線通信可能な位置に位置合わせを行う。
 ユーザはスマホ20のカメラ機能をONにしてスマホ20を撮像装置10上で移動させる。ある地点で、スマホ20の近接通信部21と撮像装置10の近接通信部11が近づき、通信可能位置になると、スマホ20の制御部が通信可能となったことを知らせる通知音(例えば「ピッ」)が出力される。ユーザは、この位置でスマホ20のシャッタを操作して静止画像を撮影する。
 この処理が、図8に示すステップS121の処理である。すなわち、近距離無線通信可能位置の画像を撮影する。
 この画像撮影処理により、図8に示す撮影画像71が撮影される。撮影画像71は、近距離無線通信実行可能位置の通信相手装置の画像である。
 さらに、ステップS122において、撮影画像71の一部を切り出して切り出し画像を位置合わせ用画像72とする。
 ステップS123において、この位置合せ用画像72をスマホ20の記憶部(メモリ)に格納する。
 なお、この位置合せ用画像72をスマホ20の記憶部(メモリ)に格納する際は、その切り出し位置を示す情報も属性情報として位置合せ用画像72に併せて記憶部に格納する。なお、切り出し位置情報は、表示部23に対する位置合せ用画像72の表示位置を決定する際に利用される。すなわち、切り出し位置情報は、位置合せ用画像72の表示位置情報として利用可能な情報である。
 これらの処理が、その後の近接通信部の位置合わせを短時間で行うための事前準備処理である。
 この事前準備処理によって、スマホ20の記憶部には、位置合せ用画像72が格納された状態になる。
 位置合せ用画像72は、近距離無線通信実行可能位置の通信相手装置の画像である撮影画像71の一部領域からなる画像である。
 このようにスマホ20の記憶部に格納する画像を撮影画像全体ではなく一部領域の切り出し画像とすることで、記憶部に対する記録容量を削減することが可能となる。
 この事前準備処理後は、この記憶部に格納された位置合せ用画像72を利用して、スマホ20と撮像装置10の近接通信部位置の位置合せを容易に行うことができる。
 図9、図10を参照して、スマホ20の記憶部に格納された一部切り出し画像である位置合せ用画像72を利用した処理、すなわち、スマホ20と撮像装置10の近接通信部位置の位置合せ処理について説明する。
 まず、図9左上部の(状態1)に示すように、撮像装置10の近接通信部11の形成面と、スマホ20の近接通信部21の形成面を向き合わせた状態、すなわち各装置の裏面同士を向き合わせて配置し、ステップS131において、スマホ20のカメラ機能をONにして、画像の撮影を開始する。
 画像の撮影を開始すると、スマホ20の表示部23には現在、撮影中の画像、すなわちライブビュー画像としての動画像が表示されることになる。
 図9に示す(状態2)のように、スマホ20の表示部23に現在、撮影中の画像、例えば撮像装置10の裏面の一部の画像が表示される。
 さらに、ステップS132において、スマホ20の記憶部(メモリ)に格納済みの位置合せ用画像72を読み出す。この位置合わせ用画像72は、先に図8参照して説明した処理によって撮影された撮影画像71、すなわち、スマホ20と撮像装置10との近距離無線通信が可能な位置で撮影された撮影画像の一部を切り出した画像である。
 次に、ステップS133において、スマホ20の現在の撮影画像と、記憶部から読み出した位置合せ用画像72の双方をスマホ20の表示部23に表示する。
 図9(状態3)には、スマホ20の現在の撮影画像と、記憶部から読み出した位置合せ用画像72の双方を重畳した表示した画像の例を示している。
 点線で示すデータが、先に図8を参照して説明した処理によって生成し記憶部に格納された位置合せ用画像72である。
 なお、この位置合せ用画像72の表示位置は、位置合せ用画像72に併せて記憶部に格納された切り出し位置情報に基づいて決定する。
 なお、位置合せ用画像72は、現在の撮影画像(ライブビュー画像)上に重ねて表示してもよいし、輪郭データのみからなる表示データに変換して表示してもよい。また、背景データが透けて見える透過データ形式に変換してライブビュー画像上に重ねて表示する構成としてもよい。
 これらのデータ変換は、スマホ20の制御部において実行される。
 表示部23に表示された位置合せ用画像72は、スマホ20の近接通信部21と撮像装置10の近接通信部11による近距離無線通信が可能な位置にある状態で、スマホ20のカメラによって撮影された画像の一部である。
 従って、スマホ20の現在の撮影画像を、点線で示す位置合せ用画像72に重なるように移動させれば、スマホ20の近接通信部21と撮像装置10の近接通信部11による近距離無線通信が可能な位置に設定することが可能となる。
 この位置合わせ処理について図10を参照して説明する。
 図10には、ユーザが撮像装置10上で、スマホ20を様々な位置に移動させた場合の配置例1~4と、各配置例において、スマホ20の表示部23に表示される画像、すなわち現在の撮影画像と位置合せ用画像72との重畳画像の表示例である重畳画像表示例1~4を示している。
 (1a)配置例1は、スマホを持つユーザが、スマホ20を撮像装置10からある程度、離れた位置に配置して遠くから撮像装置20を撮影している状態である。
 この場合、スマホ20の表示部23には、(1b)に示すように、表示部23の中心位置に現在撮影画像(ライブビュー画像)である撮像装置20の全体画像が表示される。
 この現在撮影画像(ライブビュー画像)は、表示部23に点線で示す位置合せ用画像72と全く一致していない。
 (2a)配置例2は、ユーザがスマホ20を撮像装置10にやや近づけて撮像装置20を撮影している状態である。
 この場合、スマホ20の表示部23には、(2b)に示すように、表示部23全体に現在撮影画像(ライブビュー画像)である撮像装置20の画像が表示される。
 しかし、この現在撮影画像(ライブビュー画像)も、表示部23に点線で示す位置合せ用画像72と全く一致していない。
 (3a)配置例3は、ユーザがスマホ20を撮像装置10にさらに近づけて撮像装置20を撮影している状態である。
 この場合、スマホ20の表示部23には、(3b)に示すように、表示部23全体に現在撮影画像(ライブビュー画像)である撮像装置20の一部領域の画像が表示される。
 しかし、この現在撮影画像(ライブビュー画像)も、表示部23に点線で示す位置合せ用画像72と一致していない。
 (4a)配置例4は、ユーザが、表示部23に表示されている位置合せ用画像72を見ながらスマホ20を移動させ、現在撮影画像(ライブビュー画像)を位置合せ用画像72に一致させるように設定した結果の状態である。
 すなわち、(4b)に示すように、現在撮影画像(ライブビュー画像)と位置合せ用画像72が一致している。
 この状態は、スマホ20と撮像装置10の近接通信部が通信可能な位置に設定された状態であり、この配置状態においてスマホ20と撮像装置10の近接通信部を介した通信が実行可能となる。
 図8~図10に示す例は、位置合せ用画像72として、スマホ20の撮影した画像の一部領域画像を利用した例である。
 このような処理を行うことで、記憶部の使用容量を削減し、また画像表示処理等、各処理の処理負荷も低減することが可能となる。
  [3.本開示の情報処理装置の実行する処理のシーケンスについて]
 次に、本開示の情報処理装置の実行する処理のシーケンスについて説明する。
 まず、図11に示すフローチャートを参照して事前処理の処理シーケンス、すなわち、先に図5や図8を参照して説明した位置合せ用画像の生成とメモリ格納処理を行う事前処理のシーケンスについて説明する。
 なお、図11以下に示すフローに従った処理は、例えば、スマホ等の情報処理装置の記憶部に格納されたプログラムに従って、プログラム実行機能を持つCPU等の制御の下に実行可能な処理である。
 図11に示すフローの各ステップの処理について、順次、説明する。
  (ステップS201)
 まず、ステップS201において、カメラ付き情報処理装置と、近距離無線通信相手装置との間で近距離無線通信可能位置を検出する。
 この処理は、例えばカメラ付き情報処理装置であるスマホをユーザが手に持ち、近距離無線通信相手装置、例えば撮像装置上でスマホを移動させて実行する。
 例えば、スマホ(カメラ付き情報処理装置)の近接通信部は継続的に所定の信号を出力する。
 スマホの制御部は、この信号出力期間中、撮像装置(近距離無線通信相手装置)の近接通信部からの応答の有無を検出する。
 スマホの制御部は、応答が検出された場合、スマホ(カメラ付き情報処理装置)と撮像装置(近距離無線通信相手装置)とが近距離無線通信可能位置に設定されたと判定する。
 なお、スマホの制御部は、2つの装置が近距離無線通信可能位置に設定されたとの判定処理に応じて、例えば通知音の出力等を実行する。
  (ステップS202)
 ステップS201において、カメラ付き情報処理装置と、近距離無線通信相手装置間の近距離無線通信可能位置が検出されると、ステップS202において、この近距離無線通信可能位置において、カメラ付き情報処理装置は、カメラ付き情報処理装置のカメラを用いて近距離無線通信相手装置の画像を撮影する。
  (ステップS203)
 次に、ステップS203において、ステップS202で撮影した画像、またはそまの一部切り出し画像を位置合わせ用画像として、カメラ付き情報処理装置の記憶部に格納する。
 なお、記憶部に格納する位置合せ用画像が一部切り出し画像である場合は切り出し位置を示すデータも併せて格納する。
 さらに、位置合せ用画像撮影時の画像縮尺情報や被写体距離情報、焦点距離情報等の情報を、画像属性情報として併せて記録してもよい。
 この図11に示すフローに従った処理が、その後の近接通信部の位置合わせを短時間で行うための事前準備処理である。
 次に、この事前準備処理によって位置合せ用画像を記憶部に格納した情報処理装置が実行する近接通信部の位置合せ処理のシーケンスについて図12に示すフローチャートを参照して説明する。
 図12に示すフローの各ステップの処理について、順次、説明する。
  (ステップS221)
 まず、ステップS221において、カメラ付き情報処理装置のカメラを起動する。具体的には、カメラ付き情報処理装置は、例えばスマホであり、スマホのカメラを起動する。
  (ステップS222)
 次に、ステップS222において、カメラ付き情報処理装置のカメラを用いて、近距離無線通信相手装置の画像を撮影し、撮影画像を表示部に表示する。
 例えばスマホのカメラによって、撮像装置(近距離無線通信相手装置)のライブビュー画像の撮影を開始して、スマホの表示部に表示させる。
  (ステップS223)
 次に、スマホ(カメラ付き情報処理装置)の記憶部に格納済みの位置合せ用画像を読み出して、表示部に出力して、現在撮影中のライブビュー画像に重畳して表示する。
 例えば図6の(状態3)や図9の(状態3)に示す重畳画像の表示を実行する。
  (ステップS224)
 ステップS224はユーザによるスマホ(カメラ付き情報処理装置)の移動処理である。
 ユーザは、カメラ付き情報処理装置を、撮影画像と位置合わせ用画像が重なるように移動させる。
  (ステップS225)
 スマホ(カメラ付き情報処理装置)の制御部は、ステップS225において、スマホ(カメラ付き情報処理装置)と撮像装置(近距離無線通信相手装置)との近距離無線通信が可能な位置に設定されたか否かを判定する。
 スマホ(カメラ付き情報処理装置)の近接通信部は継続的に所定の信号を出力し、スマホの制御部は、この信号出力期間中、撮像装置(近距離無線通信相手装置)の近接通信部からの応答の有無を検出する。
 スマホの制御部は、応答が検出された場合、スマホ(カメラ付き情報処理装置)と撮像装置(近距離無線通信相手装置)とが近距離無線通信可能位置に設定されたと判定する。
 ステップS225において、2つの装置が近距離無線通信可能位置に設定されたと判定されるまで、ステップS224~S225の処理が繰り返される。
 ステップS225において、2つの装置が近距離無線通信可能位置に設定されたと判定されるとステテップS226に進む。
  (ステップS226)
 ステップS225において、スマホの制御部が、スマホ(カメラ付き情報処理装置)と撮像装置(近距離無線通信相手装置)とが近距離無線通信可能位置に設定されたと判定した場合、ステップS226に進む。
 スマホ(カメラ付き情報処理装置)の制御部は、ステップS226において、2つの装置が近距離無線通信可能位置に設定されたことをユーザに通知するための通知処理、例えば通知音の出力、あるいは表示部に対する通信実行中の表示処理等を実行する。
  [4.本開示の情報処理装置の構成例について]
 次に、本開示の情報処理装置の構成例について説明する。
 図13は、本開示の情報処理装置の一例であるスマホの構成例を示す図である。
 図13に示すように、情報処理装置100は、カメラ101、画像処理部102、表示部103、制御部104、入力部105、記憶部106、近接通信部107、通信部108を有する。
 カメラ101は画像撮影を行う。カメラ101による撮影画像は、画像処理部102における所定の画像処理の後、表示部103に表示される。また入力部105を介したユーザ操作(撮影処理)に応じて、記憶部106に撮影画像が記録される。
 先に、図5、図8、および図11のフローを参照して説明した位置合せ用画像の撮影、と記憶部への格納処理時に撮影される位置合わせ用画像は、記憶部106に格納される。
 画像処理部102は、カメラ101において撮影された画像に対する画像処理、例えばガンマ補正、ホワイトバランス調整、記憶部106に格納するための画像データの圧縮処理、記憶部106に格納された画像を表示部103に表示する際の伸長処理等を実行する。
 表示部103はカメラ101によって撮影された画像や、記憶部106に格納された画像の表示処理を行う。
 例えば、先に図6~図7、図9~図10、及び図12のフローを参照して説明した近接通信部の位置合せ処理の実行時には、カメラ101による撮影画像(ライブビュー画像)と、記憶部106に格納された位置合せ用画像の重畳画像の表示を行う。
 制御部104は、情報処理装置100において実行する処理の制御を実行する。例えば記憶部106に格納されたプログラムに従った処理を実行する。
 制御部104は、プログラム実行機能を有するCPU等のプロセッサを備えた構成である。
 入力部105はユーザによる操作部であり、画像撮影時のシャッタ操作部、やその他設定入力等、様々な情報の入力部によって構成される。
 記憶部106は、カメラ101による撮影画像や、制御部104の実行するプログラム、各種処理のパラメータ等を格納する。
 近接通信部107は、例えばNFC等の近距離無線通信を実行する通信部である。
 通信部108は、例えばWiFi通信や、ブルートゥース(登録商標)(BT)通信等による通信を実行する通信部である。
  [5.近距離無線通信相手装置の画像に基づいて位置合わせ用画像を生成するアプリケーションを利用した実施例について]
 次に、近距離無線通信相手装置の画像に基づいて位置合わせ用画像を生成するアプリケーションを利用した実施例について説明する。
 先に説明した実施例では、位置合せ用画像の撮影と記憶部格納処理、すなわち事前処理においては、図5、図8、図11を参照して説明したように、ユーザが近距離無線通信相手装置、例えば撮像装置との近距離無線通信可能位置を検出して、その位置の画像を撮影する処理を行って生成していた。
 このような位置合せ用画像は、例えば近距離無線通信相手装置、例えば撮像装置の全体画像を入手し、この全体画像から判別される近接通信部を検出して自動生成することも可能である。
 以下では、近距離無線通信相手装置の画像に基づいて位置合わせ用画像を生成するアプリケーションを利用した実施例について説明する。
 図14は、このアプリケーションによる位置合わせ用画像を生成する処理を説明する図である。アプリケーションは、スマホ20に格納されている。
 スマホ20のアプリケーションは、図14に示すステップS301~S303の処理、またはステップS302~S303の処理を実行する。
 ステップS301の処理は、近距離無線通信相手装置、ここでは撮像装置10の画像を撮影する処理である。撮影画像には、撮像装置10の近接通信部11の位置を示す画像が含まれていることが必要である。図の例で(N)のマークが近接通信部11の位置を示す画像に相当する。
 ステップS301において、撮像装置10を撮影して撮像装置画像211を取得する。
 なお、この画像撮影処理は、アプリケーションの処理として実行してもよいし、ユーザが実行してもよい。ユーザが実行した場合、撮影画像をアプリケーションに提供し、その後の処理(ステップS302~)をアプリケーションが実行する。
 次に、アプリケーションはこの撮像装置画像211を利用して、ステップS302の処理を実行する。
 アプリケーションは、ステップS302において、撮像装置画像211を利用して、
位置合せ用画像212を生成する。
 アプリケーションは、近距離無線通信相手装置である撮像装置10の撮像装置画像211を解析して、近接通信部位置を識別する。図の近接通信部11の位置を示す(N)マークの位置を識別する。
 さらに、アプリケーションは、自装置、すなわちスマホ20の近接通信部位置とカメラ位置をスマホ20内部のメモリに格納されたハードウェア構成情報から取得する。
 さらに、アプリケーションは、撮像装置10の近接通信部位置と、スマホ20の近接通信部位置とカメラ位置に基づいて、自装置(スマホ)と近距離無線通信相手装置(撮像装置)とを、双方の近接通信部を介した近距離無線通信が可能な位置に設定した場合のカメラ撮影画像、すなわち図に示す位置合わせ用画像212を推定して生成する。
 この位置合わせ用画像212は、撮像装置画像211の切り出し処理によって生成する。
 撮像装置10の近接通信部位置と、スマホ20の近接通信部位置とカメラ位置が取得できれば、撮像装置10の近接通信部位置と、スマホ20の近接通信部位置をほぼ一致させた場合のスマホ20のカメラによる撮影範囲が解析可能であり、この撮影範囲の画像をあるいはその一部切り出し画像を位置合わせ用画像212として生成する。
 なお、一部切り出し画像を位置合わせ用画像212として生成する場合は、切り出し位置データも画像の属性データとして設定する。
 アプリケーションは、ステップS303において、ステップS302で生成したデータ、すなわち位置合わせ用画像212をスマホ20の記憶部に格納する。
 なお、一部切り出し画像を位置合わせ用画像212として生成した場合は、切り出し位置データも画像の属性データとして記憶部に格納する。
 これらの一連の処理により、スマホ20の記憶部には位置合わせ用画像212が格納される。その後は、この位置合わせ用画像を利用することで、容易に高精度な近接通信部の位置合せを行うことが可能となる。
 この位置合わせ処理は、先に図12を参照して説明したフローと同様の処理である。
 なお、ステップS301における撮像装置10の全体画像、すなわち撮像装置画像211は、アプリケーションによる撮影処理やユーザによる撮影処理によって取得することも可能であるが、例えば、図14に示すようにメーカーのサーバ251等、外部サイトから取得して利用してもよい。
 次に、この実施例の処理シーケンス、すなわちアプリケーションによる位置合わせ用画像の生成記録処理のシーケンスについて、図16に示すフローチャートを参照して説明する。
 図16に示すフローチャートの各ステップの処理について説明する。
  (ステップS321)
 まず、アプリケーションは、ステップS321において、近距離無線通信相手装置の近接通信部位置が確認可能な画像データを取得する。
 これは、図14を参照して説明したステップS301の処理に相当し、図14に示す例では、撮像装置画像211を撮影する処理である。
 なお、このステップS321の画像取得処理は、ユーザが実行してもよい。また外部サーバから取得してもよい。
  (ステップS322)
 次に、アプリケーションはステップS322において、自装置、例えばスマホ20の近接通信部位置とカメラ位置を自装置内部のメモリに格納されたハードウェア構成情報から取得する。
  (ステップS323)
 次に、アプリケーションは、ステップS323において、近距離無線通信相手装置の近接通信部位置と、自装置の近接通信部位置とカメラ位置に基づいて、自装置(スマホ)と近距離無線通信相手装置(撮像装置)とを、双方の近接通信部を介した近距離無線通信が可能な位置に設定した場合のカメラ撮影画像を生成する。
 例えば、図14に示す位置合わせ用画像212を生成する。
 この位置合わせ用画像212は、撮像装置画像211の切り出し処理によって生成する。
 前述したように、近距離無線通信相手装置(撮像装置)の近接通信部位置と、自装置(スマホ)の近接通信部位置とカメラ位置が取得できれば、2つの装置の近接通信部位置をほぼ一致させた場合の自装置(スマホ)のカメラによる撮影範囲が解析可能であり、この撮影範囲の画像をあるいはその一部切り出し画像を位置合わせ用画像として生成する。
 なお、一部切り出し画像を位置合わせ用画像として生成する場合は、切り出し位置データも画像の属性データとして設定する。
  (ステップS324)
 アプリケーションは、ステップS324において、ステップS323で生成したデータ、すなわち位置合わせ用画像を自装置の記憶部に格納する。
 なお、一部切り出し画像を位置合わせ用画像として生成した場合は、切り出し位置データも画像の属性データとして記憶部に格納する。
 これらの一連の処理により、自装置、例えばスマホ20の記憶部には位置合わせ用画像が格納される。その後は、この位置合わせ用画像を利用することで、容易に高精度な近接通信部の位置合せを行うことが可能となる。
  [6.情報処理装置のハードウェア構成例について]
 先に、図13を参照してスマホを想定した情報処理装置100の構成例について説明したが、本開示の情報処理装置には、スマホに限らず、PC、タブレット端末等、様々な装置が含まれる。
 本開示の情報処理装置のハードウェア構成例について図17を参照して説明する。図17に示すハードウェアは、本開示の情報処理装置の具体的なハードウェアの一構成例である。
 CPU(Central Processing Unit)301は、ROM(Read Only Memory)302、または記憶部308に記憶されているプログラムに従って各種の処理を実行する制御部やデータ処理部として機能する。例えば、上述した実施例において説明したシーケンスに従った処理を実行する。RAM(Random Access Memory)303には、CPU301が実行するプログラムやデータなどが記憶される。これらのCPU301、ROM302、およびRAM303は、バス304により相互に接続されている。
 CPU301はバス304を介して入出力インタフェース305に接続され、入出力インタフェース305には、カメラ、各種スイッチ、キーボード、マウス、マイクロホン、センサなどよりなる入力部306、ディスプレイ、スピーカーなどよりなる出力部307が接続されている。
 CPU301は、入力部306から入力される指令に対応して各種の処理を実行し、処理結果を例えば出力部307に出力する。
 入出力インタフェース305に接続されている記憶部308は、例えばハードディスク等からなり、CPU301が実行するプログラムや各種のデータを記憶する。通信部309は、NFC等の近接通信部や、Wi-Fi通信、ブルートゥース(登録商標)(BT)通信、その他インターネットやローカルエリアネットワークなどのネットワークを介したデータ通信の通信部によって構成され、外部の装置と通信する。
 入出力インタフェース305に接続されているドライブ310は、磁気ディスク、光ディスク、光磁気ディスク、あるいはメモリカード等の半導体メモリなどのリムーバブルメディア311を駆動し、データの記録あるいは読み取りを実行する。
  [7.本開示の構成のまとめ]
 以上、特定の実施例を参照しながら、本開示の実施例について詳解してきた。しかしながら、本開示の要旨を逸脱しない範囲で当業者が実施例の修正や代用を成し得ることは自明である。すなわち、例示という形態で本発明を開示してきたのであり、限定的に解釈されるべきではない。本開示の要旨を判断するためには、特許請求の範囲の欄を参酌すべきである。
 なお、本明細書において開示した技術は、以下のような構成をとることができる。
 (1) 近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
 前記制御部は、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
 前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示する情報処理装置。
 (2) 前記制御部は、
 前記ライブビュー画像に、前記位置合わせ用画像の輪郭データを重畳して前記表示部に表示する(1)に記載の情報処理装置。
 (3) 前記制御部は、
 前記ライブビュー画像に、前記位置合わせ用画像の透過データを重畳して前記表示部に表示する(1)に記載の情報処理装置。
 (4) 前記制御部は、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像を記憶部に格納する処理を実行する(1)~(3)いずれかに記載の情報処理装置。
 (5) 前記位置合わせ用画像は、
 前記自装置のカメラによって撮影された前記通信相手装置を含む画像である(1)~(4)いずれかに記載の情報処理装置。
 (6) 前記位置合わせ用画像は、
 前記自装置のカメラによって撮影された前記通信相手装置を含む画像から一部領域のみを切り出した画像である(1)~(5)いずれかに記載の情報処理装置。
 (7) 前記制御部は、
 前記通信相手装置の画像から前記位置合わせ用画像を生成する(1)~(6)いずれかに記載の情報処理装置。
 (8) 前記通信相手装置の画像は、
 外部から取得した画像である(7)に記載の情報処理装置。
 (9) 前記制御部は、
 前記通信相手装置の画像に含まれる前記通信相手装置の通信部位置と、
 自装置の記憶部に格納された自装置の通信部位置とカメラ位置に基づいて、前記位置合わせ用画像を生成する(7)または(8)に記載の情報処理装置。
 (10) 近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
 前記制御部は、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成する情報処理装置。
 (11) 前記制御部は、
 前記通信相手装置の画像に含まれる前記通信相手装置の通信部位置と、
 自装置の記憶部に格納された自装置の通信部位置とカメラ位置に基づいて、前記位置合わせ用画像を生成する(10)に記載の情報処理装置。
 (12) 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
 前記制御部が、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
 前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示する情報処理方法。
 (13) 情報処理装置において実行する情報処理方法であり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
 前記制御部が、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成する情報処理方法。
 (14) 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
 前記プログラムは、前記制御部に、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
 前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示させるプログラム。
 (15) 情報処理装置において情報処理を実行させるプログラムであり、
 前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
 前記プログラムは、前記制御部に、
 前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成させるプログラム。
 また、明細書中において説明した一連の処理はハードウェア、またはソフトウェア、あるいは両者の複合構成によって実行することが可能である。ソフトウェアによる処理を実行する場合は、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれたコンピュータ内のメモリにインストールして実行させるか、あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。例えば、プログラムは記録媒体に予め記録しておくことができる。記録媒体からコンピュータにインストールする他、LAN(Local Area Network)、インターネットといったネットワークを介してプログラムを受信し、内蔵するハードディスク等の記録媒体にインストールすることができる。
 なお、明細書に記載された各種の処理は、記載に従って時系列に実行されるのみならず、処理を実行する装置の処理能力あるいは必要に応じて並列的にあるいは個別に実行されてもよい。また、本明細書においてシステムとは、複数の装置の論理的集合構成であり、各構成の装置が同一筐体内にあるものには限らない。
 以上、説明したように、本開示の一実施例の構成によれば、近距離無線通信を実行する通信での位置合わせを容易にかつ高精度に実行可能とした装置、方法が実現される。
 具体的には、例えば、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有する。制御部は、自装置と通信相手装置間との近距離無線通信が可能な位置で、自装置のカメラによって撮影された位置合わせ用画像と、自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して表示部に表示する。制御部は、位置合わせ用画像の輪郭データまたは透過データを表示部に表示する。
 本構成により、近距離無線通信を実行する通信での位置合わせを容易にかつ高精度に実行可能とした装置、方法が実現される。
  10 撮像装置
  11 近接通信部
  20 スマホ
  21 近接通信部
  22 カメラレンズ
  23 表示部
  51 位置合せ用画像
  72 位置合せ用画像
 100 情報処理装置
  101 カメラ
  102 画像処理部
 103 表示部
 104 制御部
 105 入力部
 106 記憶部
 107 近接通信部
 108 通信部
 211 撮像装置画像
 212 位置合せ用画像
 251 サーバ
 301 CPU
 302 ROM
 303 RAM
 304 バス
 305 入出力インタフェース
 306 入力部
 307 出力部
 308 記憶部
 309 通信部
 310 ドライブ
 311 リムーバブルメディア

Claims (15)

  1.  近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
     前記制御部は、
     前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
     前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示する情報処理装置。
  2.  前記制御部は、
     前記ライブビュー画像に、前記位置合わせ用画像の輪郭データを重畳して前記表示部に表示する請求項1に記載の情報処理装置。
  3.  前記制御部は、
     前記ライブビュー画像に、前記位置合わせ用画像の透過データを重畳して前記表示部に表示する請求項1に記載の情報処理装置。
  4.  前記制御部は、
     前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像を記憶部に格納する処理を実行する請求項1に記載の情報処理装置。
  5.  前記位置合わせ用画像は、
     前記自装置のカメラによって撮影された前記通信相手装置を含む画像である請求項1に記載の情報処理装置。
  6.  前記位置合わせ用画像は、
     前記自装置のカメラによって撮影された前記通信相手装置を含む画像から一部領域のみを切り出した画像である請求項1に記載の情報処理装置。
  7.  前記制御部は、
     前記通信相手装置の画像から前記位置合わせ用画像を生成する請求項1に記載の情報処理装置。
  8.  前記通信相手装置の画像は、
     外部から取得した画像である請求項7に記載の情報処理装置。
  9.  前記制御部は、
     前記通信相手装置の画像に含まれる前記通信相手装置の通信部位置と、
     自装置の記憶部に格納された自装置の通信部位置とカメラ位置に基づいて、前記位置合わせ用画像を生成する請求項7に記載の情報処理装置。
  10.  近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
     前記制御部は、
     前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成する情報処理装置。
  11.  前記制御部は、
     前記通信相手装置の画像に含まれる前記通信相手装置の通信部位置と、
     自装置の記憶部に格納された自装置の通信部位置とカメラ位置に基づいて、前記位置合わせ用画像を生成する請求項10に記載の情報処理装置。
  12.  情報処理装置において実行する情報処理方法であり、
     前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
     前記制御部が、
     前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
     前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示する情報処理方法。
  13.  情報処理装置において実行する情報処理方法であり、
     前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
     前記制御部が、
     前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成する情報処理方法。
  14.  情報処理装置において情報処理を実行させるプログラムであり、
     前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する画像を表示部に表示する制御部を有し、
     前記プログラムは、前記制御部に、
     前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影された位置合わせ用画像と、
     前記自装置のカメラによる現在の撮影画像であるライブビュー画像を重畳して前記表示部に表示させるプログラム。
  15.  情報処理装置において情報処理を実行させるプログラムであり、
     前記情報処理装置は、近距離無線通信を実行する自装置の通信部の位置を、通信相手装置の通信部位置に位置合せする際にユーザに提示する位置合わせ用画像を生成する制御部を有し、
     前記プログラムは、前記制御部に、
     前記自装置と前記通信相手装置間との近距離無線通信が可能な位置で、前記自装置のカメラによって撮影した画像、または該画像の一部切り出し画像を前記位置合わせ用画像として生成させるプログラム。
PCT/JP2020/013472 2019-04-26 2020-03-25 情報処理装置、および情報処理方法、並びにプログラム WO2020217835A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2021515893A JP7414064B2 (ja) 2019-04-26 2020-03-25 情報処理装置、および情報処理方法、並びにプログラム
CN202080029778.9A CN113711582A (zh) 2019-04-26 2020-03-25 信息处理装置、信息处理方法和程序
US17/603,809 US11641518B2 (en) 2019-04-26 2020-03-25 Information processing apparatus and information processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019085061 2019-04-26
JP2019-085061 2019-04-26

Publications (1)

Publication Number Publication Date
WO2020217835A1 true WO2020217835A1 (ja) 2020-10-29

Family

ID=72942243

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/013472 WO2020217835A1 (ja) 2019-04-26 2020-03-25 情報処理装置、および情報処理方法、並びにプログラム

Country Status (4)

Country Link
US (1) US11641518B2 (ja)
JP (1) JP7414064B2 (ja)
CN (1) CN113711582A (ja)
WO (1) WO2020217835A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005026873A (ja) * 2003-06-30 2005-01-27 Casio Comput Co Ltd 撮影方法、撮像装置、及びプログラム
JP2008153998A (ja) * 2006-12-18 2008-07-03 Nikon Corp 電子カメラ
WO2012090494A1 (ja) * 2010-12-28 2012-07-05 パナソニック株式会社 通信装置及び通信方法
JP2015008374A (ja) * 2013-06-25 2015-01-15 日本電気株式会社 携帯端末、撮影方法及びプログラム

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7769345B2 (en) 2006-09-29 2010-08-03 Sony Ericsson Mobile Communications Ab Device and method for guiding a user to a communication position
US9706036B2 (en) * 2011-12-05 2017-07-11 Blackberry Limited Mobile wireless communications device providing guide direction indicator for near field communication (NFC) initiation and related methods
US20140168012A1 (en) * 2012-12-19 2014-06-19 Research In Motion Limited Method and System for Antenna Alignment
JP2015005952A (ja) 2013-06-24 2015-01-08 キヤノン株式会社 情報端末装置、情報端末装置の制御方法、及びプログラム
JP6918798B2 (ja) 2016-07-20 2021-08-11 フェリカネットワークス株式会社 情報処理装置、情報処理方法およびプログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005026873A (ja) * 2003-06-30 2005-01-27 Casio Comput Co Ltd 撮影方法、撮像装置、及びプログラム
JP2008153998A (ja) * 2006-12-18 2008-07-03 Nikon Corp 電子カメラ
WO2012090494A1 (ja) * 2010-12-28 2012-07-05 パナソニック株式会社 通信装置及び通信方法
JP2015008374A (ja) * 2013-06-25 2015-01-15 日本電気株式会社 携帯端末、撮影方法及びプログラム

Also Published As

Publication number Publication date
JPWO2020217835A1 (ja) 2020-10-29
US11641518B2 (en) 2023-05-02
JP7414064B2 (ja) 2024-01-16
CN113711582A (zh) 2021-11-26
US20220201198A1 (en) 2022-06-23

Similar Documents

Publication Publication Date Title
US9912859B2 (en) Focusing control device, imaging device, focusing control method, and focusing control program
EP3544286B1 (en) Focusing method, device and storage medium
US10237495B2 (en) Image processing apparatus, image processing method and storage medium
JP6103948B2 (ja) 撮像装置、遠隔操作端末、カメラシステム、撮像装置の制御方法およびプログラム、遠隔操作端末の制御方法およびプログラム
CN105208215A (zh) 定位控制方法、装置及终端
KR20160026251A (ko) 촬영 방법 및 전자 장치
CN105338399A (zh) 图像获取方法及装置
CN105554389A (zh) 拍摄方法及装置
JP2015115839A5 (ja)
CN111512255A (zh) 多设备机器人控制
KR20120118144A (ko) 촬영 장치에서 피사체를 촬영하기 위한 장치 및 방법
CN104156695A (zh) 一种人脸图像的校正方法及装置
KR102512839B1 (ko) 외부 장치의 자세 조정을 통해 복수의 카메라들을 이용하여 이미지를 획득하는 전자 장치 및 방법
KR20190101841A (ko) 시계(field of view)가 다른 복수의 카메라를 이용하여 생체 인증을 수행하는 방법 및 이를 위한 전자 장치
US9332142B2 (en) Cooperation system, image forming apparatus, portable information device, remote control method, and remote operation method
JP2009206774A (ja) 画像伝送システム、画像伝送装置及び制御方法
US20150189151A1 (en) Information processing apparatus, imaging apparatus, information processing method, information processing program, and imaging system
KR20200134804A (ko) 시선 전환이 가능한 카메라 모듈을 포함하는 전자 장치 및 그의 동영상을 기록하는 방법
US20140232920A1 (en) Photography guide method, device and storage medium using subject characteristic
CN106973275A (zh) 投影设备的控制方法和装置
US9801007B2 (en) Communication apparatus, method for controlling communication apparatus, and storage medium
KR101657377B1 (ko) 휴대용 단말기, 휴대용 단말기 케이스 및 그를 이용한 홍채 인식 방법
US10420152B2 (en) Wireless communication device, control method thereof, and wireless communication system
WO2020217835A1 (ja) 情報処理装置、および情報処理方法、並びにプログラム
KR20210037188A (ko) 외부 전자 장치를 확인하는 전자 장치와 이의 동작 방법

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20796017

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021515893

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 20796017

Country of ref document: EP

Kind code of ref document: A1