WO2013175803A1 - 情報通信方法 - Google Patents

情報通信方法 Download PDF

Info

Publication number
WO2013175803A1
WO2013175803A1 PCT/JP2013/003318 JP2013003318W WO2013175803A1 WO 2013175803 A1 WO2013175803 A1 WO 2013175803A1 JP 2013003318 W JP2013003318 W JP 2013003318W WO 2013175803 A1 WO2013175803 A1 WO 2013175803A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
luminance
user
communication method
signal
Prior art date
Application number
PCT/JP2013/003318
Other languages
English (en)
French (fr)
Inventor
大嶋 光昭
山田 和範
秀紀 青山
郁雄 渕上
秦 秀彦
務 向井
陽介 松下
恵大 飯田
幸司 中西
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to JP2013548699A priority Critical patent/JP5521125B2/ja
Priority to SI201331025T priority patent/SI2858269T1/en
Priority to EP13793777.7A priority patent/EP2858269B1/en
Priority to ES13793777.7T priority patent/ES2668904T3/es
Priority to LTEP13793777.7T priority patent/LT2858269T/lt
Priority to CN201380002096.9A priority patent/CN103650383B/zh
Priority to PCT/JP2013/006859 priority patent/WO2014103153A1/ja
Priority to PCT/JP2013/006871 priority patent/WO2014103159A1/ja
Priority to CN201380067423.9A priority patent/CN104871454B/zh
Priority to JP2014510572A priority patent/JP5603523B1/ja
Priority to PCT/JP2013/006863 priority patent/WO2014103156A1/ja
Priority to BR112015014762-3A priority patent/BR112015014762B1/pt
Priority to SG10201502498PA priority patent/SG10201502498PA/en
Priority to MX2016009594A priority patent/MX351882B/es
Priority to US14/087,630 priority patent/US8922666B2/en
Priority to US14/087,639 priority patent/US8988574B2/en
Priority to JP2014509963A priority patent/JP5606653B1/ja
Priority to EP13867192.0A priority patent/EP2940892B1/en
Priority to EP13867905.5A priority patent/EP2940894B1/en
Priority to MX2015008254A priority patent/MX342734B/es
Priority to SG11201504978WA priority patent/SG11201504978WA/en
Priority to SG11201400469SA priority patent/SG11201400469SA/en
Priority to AU2013368082A priority patent/AU2013368082B9/en
Priority to SG10201609857SA priority patent/SG10201609857SA/en
Priority to US14/087,665 priority patent/US9087349B2/en
Priority to EP13868118.4A priority patent/EP2940896B1/en
Priority to MX2016013242A priority patent/MX359612B/es
Priority to JP2014554089A priority patent/JPWO2014103156A1/ja
Priority to JP2014512214A priority patent/JP5607277B1/ja
Priority to CN201380066360.5A priority patent/CN104956608B/zh
Priority to EP13868307.3A priority patent/EP2940897B1/en
Priority to CN201380067611.1A priority patent/CN104919727B/zh
Priority to US14/087,620 priority patent/US9252878B2/en
Priority to PCT/JP2013/006861 priority patent/WO2014103155A1/ja
Priority to CN201380067468.6A priority patent/CN104871455B/zh
Publication of WO2013175803A1 publication Critical patent/WO2013175803A1/ja
Priority to JP2014049554A priority patent/JP6392525B2/ja
Priority to JP2014049553A priority patent/JP5525664B1/ja
Priority to JP2014049552A priority patent/JP5525663B1/ja
Priority to JP2014057292A priority patent/JP5603513B1/ja
Priority to JP2014057293A priority patent/JP2015119460A/ja
Priority to JP2014057291A priority patent/JP5603512B1/ja
Priority to JP2014064108A priority patent/JP5589200B1/ja
Priority to US14/226,982 priority patent/US9088362B2/en
Priority to US14/227,010 priority patent/US8965216B2/en
Priority to JP2014181789A priority patent/JP5683737B1/ja
Priority to US14/539,208 priority patent/US9184838B2/en
Priority to US14/616,091 priority patent/US9258058B2/en
Priority to US14/699,200 priority patent/US9462173B2/en
Priority to CL2015001828A priority patent/CL2015001828A1/es
Priority to US14/818,949 priority patent/US9331779B2/en
Priority to US14/959,264 priority patent/US9380227B2/en
Priority to US14/979,655 priority patent/US9407368B2/en
Priority to US15/086,944 priority patent/US9564970B2/en
Priority to US15/161,657 priority patent/US9918016B2/en
Priority to US15/227,362 priority patent/US9641766B2/en
Priority to US15/386,814 priority patent/US10225014B2/en
Priority to US15/464,424 priority patent/US9794489B2/en
Priority to US15/652,831 priority patent/US10165192B2/en
Priority to US15/860,060 priority patent/US10218914B2/en
Priority to JP2018156280A priority patent/JP6568276B2/ja
Priority to US16/163,874 priority patent/US10638051B2/en
Priority to US16/239,133 priority patent/US10334177B2/en
Priority to JP2019142553A priority patent/JP6970146B2/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N3/00Scanning details of television systems; Combination thereof with generation of supply voltages
    • H04N3/10Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical
    • H04N3/14Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices
    • H04N3/15Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices for picture signal generation
    • H04N3/1506Scanning details of television systems; Combination thereof with generation of supply voltages by means not exclusively optical-mechanical by means of electrically scanned solid-state devices for picture signal generation with addressing of the image-sensor elements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/53Control of the integration time
    • H04N25/531Control of the integration time by controlling rolling shutters in CMOS SSIS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/1143Bidirectional transmission
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/50Transmitters
    • H04B10/516Details of coding or modulation
    • H04B10/54Intensity modulation
    • H04B10/541Digital intensity or amplitude modulation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/73Circuitry for compensating brightness variation in the scene by influencing the exposure time
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/76Circuitry for compensating brightness variation in the scene by influencing the image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/50Service provisioning or reconfiguring
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/28Data switching networks characterised by path configuration, e.g. LAN [Local Area Networks] or WAN [Wide Area Networks]
    • H04L12/2803Home automation networks
    • H04L2012/284Home automation networks characterised by the type of medium used
    • H04L2012/2841Wireless
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/20Services signaling; Auxiliary data signalling, i.e. transmitting data via a non-traffic channel

Definitions

  • the present invention relates to a communication method between a mobile terminal such as a smartphone, a tablet, and a mobile phone, and a home appliance such as an air conditioner, a lighting device, and a rice cooker.
  • a mobile terminal such as a smartphone, a tablet, and a mobile phone
  • a home appliance such as an air conditioner, a lighting device, and a rice cooker.
  • Patent Document 1 in an optical space transmission apparatus for transmitting information to free space using light, limited transmission is performed by performing communication using a plurality of monochromatic light sources of illumination light.
  • the devices techniques for efficiently realizing communication between devices are described.
  • the conventional method is limited to the case where the applied device has a three-color light source such as illumination.
  • the present invention solves such problems, and provides an information communication method that enables communication between various devices including devices with less computing power.
  • An information communication method is an information communication method for acquiring information from an object, and an bright line corresponding to an exposure line included in the image sensor in an image obtained by imaging the object by an image sensor.
  • An exposure time setting step of setting an exposure time of the image sensor such that the image is generated according to a change in the brightness of the subject; and the image sensor imaging the subject whose brightness changes in the set exposure time.
  • FIG. 2 is a diagram showing an example of an in-home environment according to the first embodiment. It is a figure which shows the example of communication of the household appliances and a smart phone in Embodiment 1.
  • FIG. FIG. 2 is a diagram showing an example of a configuration of a transmission side apparatus according to Embodiment 1.
  • FIG. 2 is a diagram showing an example of a configuration of a reception side apparatus according to Embodiment 1.
  • FIG. 8 is a diagram showing a flow of processing for transmitting information to the reception side device by blinking of the LED of the transmission side device in the first embodiment.
  • FIG. 8 is a diagram showing a flow of processing for transmitting information to the reception side device by blinking of the LED of the transmission side device in the first embodiment.
  • FIG. 8 is a diagram showing a flow of processing for transmitting information to the reception side device by blinking of the LED of the transmission side device in the first embodiment.
  • FIG. 8 is a diagram showing a flow of processing for transmitting information to the reception side device by blinking of the LED of the transmission side device in the first embodiment.
  • FIG. 8 is a diagram showing a flow of processing for transmitting information to the reception side device by blinking of the LED of the transmission side device in the first embodiment.
  • FIG. 8 is a diagram showing a flow of processing for transmitting information to the reception side device by blinking of the LED of the transmission side device in the first embodiment.
  • FIG. 17 is a diagram for describing a procedure for communicating a device with a user using visible light according to Embodiment 2.
  • FIG. 17 is a diagram for describing a procedure for communicating a device with a user using visible light according to Embodiment 2.
  • FIG. 14 is a diagram for describing a procedure from the purchase of the device by the user in the second embodiment to the initial setting of the device.
  • FIG. 18 is a diagram for describing a service dedicated to a serviceperson when a device in the second embodiment fails. It is a figure for demonstrating the service for confirming the cleaning condition using the vacuum cleaner and visible light communication in Embodiment 2.
  • FIG. FIG. 21 is a schematic view of home delivery service support using optical communication in the third embodiment.
  • FIG. 16 is a flowchart for describing home delivery service support using optical communication in Embodiment 3.
  • FIG. FIG. 16 is a flowchart for describing home delivery service support using optical communication in Embodiment 3.
  • FIG. 16 is a flowchart for describing home delivery service support using optical communication in Embodiment 3.
  • FIG. 16 is a flowchart for describing home delivery service support using optical communication in Embodiment 3.
  • FIG. 16 is a flowchart for describing home delivery service support using optical communication in Embodiment 3.
  • FIG. 16 is a flowchart for describing home delivery service support using optical communication in Embodiment 3.
  • FIG. 16 is a flowchart for describing home delivery service support using optical communication in Embodiment 3.
  • FIG. FIG. 25 is a diagram for describing processing of registering a mobile phone in use with a user in the server in the fourth embodiment.
  • FIG. 18 is a diagram for describing a process of analyzing user voice characteristics in the fourth embodiment.
  • FIG. 18 is a diagram for describing a process of preparing for speech recognition in the fourth embodiment.
  • FIG. 17 is a diagram for describing processing to collect sound from a nearby sound collection device in the fourth embodiment.
  • FIG. 18 is a diagram for explaining analysis processing of environmental sound characteristics in the fourth embodiment.
  • FIG. 21 is a diagram for describing a process of canceling sound from an audio output device present in the periphery according to the fourth embodiment. It is a figure for demonstrating the process which performs the selection of the cooking menu in Embodiment 4, and the driving
  • FIG. 21 is a diagram for describing a process of adjusting notification sound of the microwave according to the fourth embodiment.
  • FIG. 21 is a diagram for describing a process of adjusting notification sound of the microwave according to the fourth embodiment.
  • FIG. 18 is a diagram showing an example of a waveform of notification sound set in a microwave according to the fourth embodiment.
  • FIG. 21 is a diagram for describing a process of displaying the contents of cooking in the fourth embodiment.
  • FIG. 18 is a diagram for describing a process of recognizing notification sound of the microwave according to the fourth embodiment.
  • FIG. 21 is a diagram for describing processing of collecting sound from a nearby sound collecting device and recognizing a microwave notification sound in the fourth embodiment.
  • FIG. 21 is a diagram for describing a process of notifying the user of the end of driving of the microwave according to the fourth embodiment.
  • FIG. 21 is a diagram for describing a process of confirming a mobile phone operation state according to the fourth embodiment.
  • FIG. 21 is a diagram for describing a process of confirming a mobile phone operation state according to the fourth embodiment.
  • FIG. 18 is a diagram for describing a process of tracking the position of the user in the fourth embodiment. While canceling the voice from the voice output device, recognize the notification sound of the home appliance, make the communicable electronic device recognize the current position of the user (operator), and based on the recognition result of the user position, It is the figure which showed that a certain apparatus performs notification to a user.
  • FIG. 18 is a diagram showing the contents of a database held in a server, a mobile phone, or a microwave according to a fourth embodiment. In the figure which shows that the user in Embodiment 4 cooks based on the cooking procedure displayed on the mobile telephone, and the user operates the display content of the mobile telephone by the voice of "next", "return”, etc. is there.
  • FIG. 18 is a diagram for describing a process of tracking the position of the user in the fourth embodiment. While canceling the voice from the voice output device, recognize the notification sound of the home appliance, make the communicable electronic device recognize the current position of the user (operator
  • 21 is a diagram showing that the user has moved to another place while starting operation of the microwave according to the fourth embodiment and waiting for the end of the operation or while boiling a simmered food;
  • a device connected to a mobile phone via a network and capable of recognizing the position of the user or recognizing that the user is present such as a camera, a microphone, or a human sensor
  • user detection in Embodiment 4 it is a figure showing that a camera attached to a television recognizes a user's face, and a human sensor of an air conditioner recognizes a user's movement and presence.
  • FIG. 21 is a diagram showing that a mobile phone recognizes a driving end sound of the microwave according to the fourth embodiment.
  • the mobile phone that recognizes the end of the operation of the microwave transmits an instruction to notify the end of the operation of the microwave to the device having the screen display function and the voice output function among the devices detecting the user
  • FIG. 21 is a diagram showing that the device that receives the command in the fourth embodiment notifies the user of the notification content. It is a figure which is connected with the mobile telephone via the network, the microphone which is connected with the mobile telephone via a network, and which the apparatus which exists in the vicinity of a microwave recognizes.
  • FIG. It is a figure which shows notifying the completion
  • FIG. It is a figure which shows notifying a user the completion
  • FIG. It is a figure which shows transmitting information, such as driving
  • FIG. 7 is a diagram showing that information can be transmitted to a mobile phone via a personal computer or the like when direct communication can not be performed from the microwave to the mobile phone serving as a hub. It is a figure which shows transmitting information, such as an operation command, to a microwave oven from a mobile telephone which received communication of FIG. 57, tracing back an information communication path
  • FIG. 7 is a diagram showing that the user is notified of information when direct communication from the air conditioner which is the information source device is not possible to the mobile phone serving as the hub. It is a figure for demonstrating the system using the communication apparatus using the electric wave of 700-900 MHz. It is a figure which shows that the mobile telephone of a remote place notifies a user of information.
  • FIG. 73 is a diagram showing a case where a television on the second floor plays the role of a relay device in place of the device relaying the notification recognition device and the information notification device in the same case as FIG. 62.
  • FIG. 18 is a diagram showing an example of the in-home environment in the fifth embodiment. It is a figure which shows the example of communication of the household appliances in Embodiment 5, and a smart phone.
  • FIG. 18 is a diagram showing a configuration of a transmission side apparatus in a fifth embodiment.
  • FIG. 16 is a diagram showing a configuration of a reception side apparatus in a fifth embodiment.
  • FIG. 64 is a sequence diagram in the case where a transmitting terminal (TV) performs wireless LAN authentication using optical communication with a receiving terminal (tablet).
  • FIG. 21 is a sequence diagram in the case of performing authentication in an application according to the fifth embodiment.
  • FIG. 20 is a flowchart showing an operation of a transmitting terminal in Embodiment 5.
  • FIG. 20 is a flowchart showing the operation of the receiving side terminal in the fifth embodiment.
  • FIG. 21 is a sequence diagram in which the mobile AV terminal 1 transmits data to the mobile AV terminal 2 in the sixth embodiment.
  • FIG. 21 is a screen transition diagram when mobile AV terminal 1 transmits data to mobile AV terminal 2 in the sixth embodiment.
  • FIG. 21 is a screen transition diagram when mobile AV terminal 1 transmits data to mobile AV terminal 2 in the sixth embodiment.
  • FIG. 21 is a schematic system diagram when mobile AV terminal 1 in the sixth embodiment is a digital camera.
  • FIG. 21 is a schematic system diagram when mobile AV terminal 1 in the sixth embodiment is a digital camera.
  • FIG. 21 is a schematic system diagram when mobile AV terminal 1 in the sixth embodiment is a digital camera.
  • FIG. 35 is a diagram showing an example of a method of observing the luminance of the light emitting unit in the seventh embodiment.
  • FIG. 35 is a diagram showing an example of a method of observing the luminance of the light emitting unit in the seventh embodiment.
  • FIG. 35 is a diagram showing an example of a method of observing the luminance of the light emitting unit in the seventh embodiment.
  • FIG. 35 is a diagram showing an example of a method of observing the luminance of the light emitting unit in the seventh embodiment.
  • FIG. 35 is a diagram showing an example of a method of observing the luminance of the light emitting unit in the seventh embodiment.
  • FIG. 35 is a diagram showing an example of a method of observing the luminance of the light emitting unit in the seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 34 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 33 is a diagram showing an example of a signal modulation scheme in a seventh embodiment.
  • FIG. 33 is a diagram showing an example of a light emitting unit detection method in a seventh embodiment.
  • FIG. 33 is a diagram showing an example of a light emitting unit detection method in a seventh embodiment.
  • FIG. 33 is a diagram showing an example of a light emitting unit detection method in a seventh embodiment.
  • FIG. 33 is a diagram showing an example of a light emitting unit detection method in a seventh embodiment.
  • FIG. 33 is a diagram showing an example of a light emitting unit detection method in
  • FIG. 33 is a diagram showing an example of a light emitting unit detection method in a seventh embodiment.
  • FIG. 24 is a diagram showing a timeline of a transmission signal in Embodiment 7 and an image obtained by capturing a light emitting unit.
  • FIG. 35 is a diagram showing an example of signal transmission by a position pattern in Embodiment 7.
  • 111 is a diagram illustrating an example of a reception device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 61 is a diagram illustrating an example of a transmission device in Embodiment 7.
  • FIG. 35 is a diagram showing an example of a structure of a light emitting unit in a seventh embodiment.
  • 45 is a diagram illustrating an example of a signal carrier in Embodiment 7.
  • FIG. 33 is a diagram showing an example of an imaging unit in Embodiment 7; 111 is a diagram illustrating an example of position estimation of a reception device in Embodiment 7. [FIG. 111 is a diagram illustrating an example of position estimation of a reception device in Embodiment 7. [FIG. 111 is a diagram illustrating an example of position estimation of a reception device in Embodiment 7. [FIG. 111 is a diagram illustrating an example of position estimation of a reception device in Embodiment 7. [FIG. 111 is a diagram illustrating an example of position estimation of a reception device in Embodiment 7. [FIG. FIG. 18 is a diagram showing an example of transmission information setting in Embodiment 7; FIG.
  • FIG. 18 is a diagram showing an example of transmission information setting in Embodiment 7;
  • FIG. 18 is a diagram showing an example of transmission information setting in Embodiment 7;
  • FIG. 31 is a block diagram showing an example of components of a receiving device in a seventh embodiment.
  • FIG. 32 is a block diagram showing an example of components of a transmission apparatus in a seventh embodiment.
  • 111 is a diagram illustrating an example of a reception procedure in Embodiment 7.
  • FIG. 34 is a diagram showing an example of a procedure of self-position estimation in the seventh embodiment.
  • 45 is a diagram illustrating an example of a transmission control procedure in Embodiment 7.
  • FIG. 45 is a diagram illustrating an example of a transmission control procedure in Embodiment 7.
  • FIG. 45 is a diagram illustrating an example of a transmission control procedure in Embodiment 7.
  • FIG. 45 is a diagram illustrating an example of a transmission control procedure in Embodiment 7.
  • FIG. 45 is a diagram illustrating
  • FIG. 45 is a diagram illustrating an example of a transmission control procedure in Embodiment 7.
  • FIG. 21 is a diagram showing an example of information provision on a station yard according to a seventh embodiment.
  • FIG. 33 is a diagram showing an example of a boarding service in a seventh embodiment.
  • FIG. 35 is a diagram showing an example of in-store service in the seventh embodiment.
  • FIG. 33 is a diagram illustrating an example of establishment of wireless connection in a seventh embodiment.
  • FIG. 35 is a diagram showing an example of adjustment of a communication range in a seventh embodiment.
  • FIG. 56 is a diagram showing an example of indoor use in the seventh embodiment.
  • FIG. 35 is a diagram showing an example of outdoor use in the seventh embodiment.
  • FIG. 33 is a diagram showing an example of route instructions in the seventh embodiment.
  • FIG. 111 is a diagram illustrating an example of use of a plurality of imaging devices in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of transmission device autonomous control in Embodiment 7.
  • FIG. 18 is a diagram showing an example of transmission information setting in Embodiment 7;
  • FIG. 18 is a diagram showing an example of transmission information setting in Embodiment 7;
  • FIG. 18 is a diagram showing an example of transmission information setting in Embodiment 7;
  • FIG. 35 is a diagram showing an example of a combination with a two-dimensional barcode in the seventh embodiment.
  • FIG. 21 is a diagram showing an example of creation and use of a map in a seventh embodiment.
  • FIG. 55 is a diagram illustrating an example of status acquisition and operation of the electronic device in Embodiment 7.
  • FIG. 35 is a diagram showing an example of recognition of an electronic device in a seventh embodiment.
  • FIG. 35 is a diagram showing an example of display of an augmented reality object in the seventh embodiment.
  • 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 111 is a diagram illustrating an example of a user interface in Embodiment 7.
  • FIG. 45 is a diagram illustrating an application example to ITS in Embodiment 8.
  • FIG. 45 is a diagram illustrating an application example to ITS in Embodiment 8.
  • FIG. 24 is a diagram showing an application example to a position information notification system and a facility system in an eighth embodiment.
  • FIG. 35 is a diagram showing an application example to a system of a supermarket in the eighth embodiment.
  • FIG. 35 is a diagram showing an application example to communication of a mobile phone terminal and a camera in an eighth embodiment.
  • FIG. 24 is a diagram showing an application example to underwater communication in the eighth embodiment.
  • 45 is a diagram for describing an example of service provision to a user in Embodiment 9.
  • FIG. 45 is a diagram for describing an example of service provision to a user in Embodiment 9.
  • FIG. 21 is a flowchart showing a case where a receiver in Embodiment 9 simultaneously processes a plurality of signals received from a transmitter.
  • FIG. FIG. 33 is a diagram illustrating an example of realizing communication between devices by mutual communication in Embodiment 9.
  • FIG. 35 is a diagram for illustrating a service that uses the characteristic of directivity in the ninth embodiment.
  • FIG. 35 is a diagram for illustrating another example of service provision to a user in the ninth embodiment.
  • FIG. 56 is a diagram illustrating an example of a format of a signal included in a light source emitted by a transmitter in Embodiment 9.
  • FIG. 18 is a diagram showing the principle of the tenth embodiment.
  • 61 is a diagram illustrating an example of operation of Embodiment 10. [FIG.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 61 is a diagram illustrating an example of operation of Embodiment 10.
  • FIG. 60 is a timing diagram of a transmission signal in the information communication apparatus of the eleventh embodiment.
  • FIG. 56 is a diagram showing a relationship between a transmission signal and a reception signal in Embodiment 11.
  • FIG. 56 is a diagram showing a relationship between a transmission signal and a reception signal in Embodiment 11.
  • FIG. 56 is a diagram showing a relationship between a transmission signal and a reception signal in Embodiment 11.
  • FIG. 56 is a diagram showing a relationship between a transmission signal and a reception signal in Embodiment 11.
  • FIG. 56 is a diagram showing a relationship between a transmission signal and a reception signal in Embodiment 11.
  • FIG. 56 is a diagram showing a relationship between a transmission signal and a reception signal in Embodiment 11.
  • 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 50 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12. [FIG.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12. [FIG.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 20 is a diagram illustrating the state of the receiver in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 20 is a diagram illustrating the state of the receiver in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 20 is a diagram illustrating the state of the receiver in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 20 is a diagram illustrating the state of the receiver in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. FIG. 20 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. FIG. 20 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 20 is a diagram illustrating the state of the receiver in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. FIG. 25 is a diagram showing a change in luminance of a transmitter in a twelfth embodiment.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 25 is a diagram showing a change in luminance of a transmitter in a twelfth embodiment.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 25 is a diagram showing a change in luminance of a transmitter in a twelfth embodiment.
  • 100 is a flowchart illustrating an example of processing operation of a transmitter in Embodiment 12.
  • FIG. FIG. 25 is a diagram showing a change in luminance of a transmitter in a twelfth embodiment.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 100 is a flowchart illustrating an example of processing operation of a transmitter in Embodiment 12.
  • FIG. Fig. 24 is a diagram illustrating an example of a configuration of a transmitter in a twelfth embodiment.
  • Fig. 24 is a diagram illustrating an example of a configuration of a transmitter in a twelfth embodiment.
  • Fig. 24 is a diagram illustrating an example of a configuration of a transmitter in a twelfth embodiment.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. FIG. 24 is a diagram illustrating an example of display and imaging by a receiver and a transmitter in Embodiment 12.
  • FIG. 100 is a flowchart illustrating an example of processing operation of a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. FIG. 20 is a diagram illustrating the state of the receiver in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. FIG. 20 is a diagram illustrating the state of the receiver in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of a wavelength of a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. FIG. 24 is a diagram illustrating a configuration example of a system including a receiver and a transmitter in Embodiment 12.
  • 55 is a flowchart illustrating an example of process operations of a system in Embodiment 12.
  • FIG. 12 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 24 is a diagram illustrating a configuration example of a system including a receiver and a transmitter in Embodiment 12.
  • 55 is a flowchart illustrating an example of process operations of a system in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 24 is a diagram illustrating a configuration example of a system including a receiver and a transmitter in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 28 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. FIG. 24 is a diagram illustrating a configuration example of a system including a receiver and a transmitter in Embodiment 12.
  • 55 is a flowchart illustrating an example of process operations of a system in Embodiment 12.
  • 51 is a flowchart illustrating an example of process operations of a receiver in Embodiment 12.
  • FIG. 110 is a diagram illustrating an example of a configuration of a transmitter in Embodiment 12.
  • FIG. FIG. 56 is a diagram illustrating another example of a configuration of a transmitter in Embodiment 12.
  • FIG. 51 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12.
  • FIG. 20 is a flowchart illustrating an example of processing operations relating to a receiver and a transmitter in Embodiment 13.
  • FIG. 20 is a flowchart illustrating an example of processing operations relating to a receiver and a transmitter in Embodiment 13.
  • FIG. 20 is a flowchart illustrating an example of processing operations relating to a receiver and a transmitter in Embodiment 13.
  • FIG. FIG. 20 is a flowchart illustrating an example of processing operations relating to a receiver and a transmitter in Embodiment 13.
  • FIG. FIG. FIG. 20 is a flowchart illustrating an example of processing operations relating to a receiver and a transmitter in Embodiment 13.
  • FIG. 20 is a flowchart illustrating an example of processing operations relating to a receiver and a transmitter in Embodiment 13.
  • FIG. 117 is a diagram illustrating an example of application of a transmitter in Embodiment 13.
  • FIG. 117 is a diagram illustrating an example of application of a transmitter in Embodiment 13.
  • FIG. 117 is a diagram illustrating an example of application of a transmitter in Embodiment 13.
  • FIG. 28 is a diagram illustrating an example of application of a transmitter and a receiver in Embodiment 13.
  • FIG. 28 is a diagram illustrating an example of application of a transmitter and a receiver in Embodiment 13.
  • FIG. 117 is a diagram illustrating an example of application of a transmitter and a receiver in Embodiment 13.
  • FIG. 28 is a diagram illustrating an example of application of a transmitter and a receiver in Embodiment 13.
  • FIG. 28 is a diagram illustrating an example of application of a transmitter and a receiver in Embodiment 13.
  • FIG. 36 is a diagram illustrating an example of a transmission signal in Embodiment 13.
  • 45 is a diagram illustrating another example of the transmission signal in Embodiment 13.
  • FIG. 36 is a diagram illustrating an example of a transmission signal in Embodiment 13.
  • FIG. 36 is a diagram illustrating an example of a transmission signal in Embodiment 13.
  • 45 is a diagram illustrating another example of the transmission signal in Embodiment 13.
  • FIG. FIG. 36 is a diagram illustrating an example of a transmission signal in Embodiment 13.
  • FIG. 36 is a diagram illustrating an example of a transmission signal in Embodiment 13.
  • FIG. 36 is a diagram illustrating an example of a transmission signal in Embodiment 13.
  • 117 is a diagram illustrating an example of application of a transmitter in Embodiment 13.
  • FIG. 117 is a diagram illustrating an example of application of a transmitter in Embodiment 13.
  • FIG. 55 is a diagram for describing an imaging device in Embodiment 13.
  • FIG. 55 is a diagram for describing an imaging device in Embodiment 13.
  • FIG. 55 is a diagram for describing an imaging device in Embodiment 13.
  • FIG. It is a flowchart which shows the processing operation of the receiver (imaging device) concerning the modification of each embodiment.
  • An information communication method is an information communication method for acquiring information from an object, and an bright line corresponding to an exposure line included in the image sensor in an image obtained by imaging the object by an image sensor.
  • An exposure time setting step of setting an exposure time of the image sensor such that the image is generated according to a change in the brightness of the subject; and the image sensor imaging the subject whose brightness changes in the set exposure time.
  • the information transmitted by the brightness change of the subject is acquired by the exposure of the exposure line of the image sensor, so, for example, between various devices without requiring a special communication device for performing wireless communication. Communication can be enabled.
  • the exposure line is a column or row of a plurality of simultaneously exposed pixels included in the image sensor.
  • the bright line is a line included in a captured image shown by, for example, FIG. 79 described later.
  • the plurality of exposure lines included in the image sensor are sequentially exposed at different timings.
  • the data specified by the pattern in the direction perpendicular to the exposure line may be demodulated among the patterns of the bright line.
  • the exposure time may be set shorter than 10 milliseconds.
  • the subject whose luminance changes at a frequency of 200 Hz or more may be imaged.
  • FIGS. 305A and 305B described later As a result, as shown in, for example, FIGS. 305A and 305B described later, a lot of information can be obtained from the subject without the person feeling flicker.
  • the image including a bright line parallel to the exposure line may be acquired.
  • 0 or 1 specified according to whether or not there is a bright line in each of the areas corresponding to each exposure line included in the image sensor in the acquired image is determined.
  • the data shown may be demodulated.
  • whether or not the bright line is present in the area may be specified for each of the areas depending on whether the luminance value of the area is equal to or greater than a threshold.
  • the imaging step the subject whose luminance changes at a constant frequency corresponding to the predetermined period is imaged in each predetermined period, and in the information acquisition step, the predetermined in each predetermined period.
  • the data specified by the pattern of the bright lines generated in response to a change in luminance of a constant frequency corresponding to a period may be demodulated.
  • the information acquisition step may demodulate the data which is a code associated with the time specified by the pattern of the bright line.
  • the subject may be imaged such that the luminance changes such that each luminance value when moving averaged with a width of 5 milliseconds or more with respect to the luminance change falls within a predetermined range. .
  • each luminance value when moving average is emitted It can be about 75% of the luminance value. As a result, it is possible to prevent people from feeling flicker.
  • the pattern of the bright line may differ depending on the exposure time of the image sensor, and the information acquisition step may demodulate the data specified by the pattern according to the set exposure time.
  • the information communication method further detects a state of an imaging device including the image sensor, and the information acquisition step acquires the information indicating the position of the subject, and the acquired information and The position of the imaging device may be calculated based on the detected state.
  • the position of the imaging device can be specified more accurately than when GPS or the like can not be used or compared to the case where GPS or the like is used.
  • the subject may be imaged, which includes a plurality of areas arranged along the exposure line and in which the luminance changes for each area.
  • the subject may be imaged which emits plural types of metameric light at different timings.
  • the information communication method further estimates a place where an imaging device including the image sensor is present, and in the information acquisition step, identification information of the subject is acquired as the information, and the place and the identification information Related information associated with may be obtained from the server.
  • a place (building) where an imaging device exists that is, Appropriate relevant information can be acquired according to the place (building) where the lighting apparatus exists.
  • the information communication method is an information communication method of transmitting a signal by a change in luminance, and determining the pattern of the change in luminance by modulating a signal to be transmitted; A first transmission step of transmitting the signal to be transmitted by the light emitter changing in luminance according to the determined pattern; and within 33 milliseconds after the light emitter transmits the signal to be transmitted And a second transmitting step of transmitting the same signal as the transmission target signal by changing the luminance according to the same pattern as the determined pattern, and in the determining step, changing the luminance change
  • the pattern is determined such that each luminance value obtained by moving average with a width of 5 milliseconds or more falls within a predetermined range.
  • the pattern of the luminance change is determined so that each luminance value when moving averaged with a width of 5 milliseconds or more with respect to the luminance change falls within a predetermined range, a person may feel flicker. If this is the case, it is possible to transmit the signal by a change in brightness. Furthermore, for example, as shown in FIG. 301B described later, since the same signal is transmitted within 33 milliseconds, the signal can be reliably transmitted to the receiver that receives the signal even if blanking occurs in the receiver. Can.
  • the determining step modulates each of the signals indicated by 2 bits into a signal indicated by 4 bits consisting of 3 bits indicating the same value and 1 bit indicating the other value.
  • the signal to be transmitted may be modulated.
  • each luminance value when moving average is It can be about 75% of the luminance value at the time of light emission. As a result, it is possible to more reliably prevent people from feeling flicker.
  • the brightness change is performed by adjusting a time between one change in brightness and a change in the next according to the signal to be transmitted. You may decide the pattern of
  • the imaging device including the image sensor according to the exposure time of the image sensor for imaging the light-emitting body whose luminance changes.
  • the brightness may be changed to
  • the plurality of light emitters transmit common information by synchronizing and changing the luminance of the plurality of light emitters, and the common information is transmitted. After being transmitted, different information may be transmitted for each light emitter by changing the luminance for each light emitter.
  • the plurality of light emitters when a plurality of light emitters transmit common information simultaneously, the plurality of light emitters can be regarded as one large light emitter, and the common information is received. Since the light emitter can be imaged largely by the imaging device, the information can be transmitted more quickly and even from a greater distance. Furthermore, for example, as shown in FIG. 186 described later, when the plurality of light emitters transmit common information, it is possible to suppress the information amount of the individual information transmitted for each light emitter.
  • the information communication method further includes an instruction receiving step of receiving an instruction of whether to modulate the signal to be transmitted, the determination being made when an instruction indicating that the modulation is to be performed is accepted. Step: performing the first transmission step and the second transmission step, and when an instruction indicating that the modulation is not performed is received, the determining step, the first transmission step, and the second transmission step.
  • the light emitter may be turned on or off without performing the transmitting step.
  • the light emitter includes a plurality of regions arranged along an exposure line of an image sensor that picks up the light emitter, and in the first transmission step and the second transmission step, the light emitter The brightness may be changed for each area of.
  • the light emitter may change in luminance by emitting plural types of metameric light at different timings.
  • identification information of the light emitter may be transmitted as the signal to be transmitted or the same signal.
  • the imaging device that has received the identification information since identification information of a light emitter is transmitted, the imaging device that has received the identification information communicates more information associated with the identification information, such as the Internet It can be acquired from a server or the like via a line.
  • an information communication method for transmitting a signal by a change in luminance, comprising: a determining step of determining a plurality of frequencies by modulating a signal to be transmitted; Transmitting the signal by changing the luminance according to any one of the determined plurality of frequencies, and transmitting the signal, the frequency used for the luminance change being determined among the plurality of determined frequencies And a changing step of sequentially changing to another frequency at a period of 33 milliseconds or more, and in the transmitting step, each of the luminances when the light emitter is moving averaged with a width of 5 milliseconds or more with respect to the luminance change.
  • the brightness may be changed so that the value falls within a predetermined range.
  • the pattern of the luminance change is determined so that each luminance value when moving averaged with a width of 5 milliseconds or more with respect to the luminance change falls within a predetermined range, a person may feel flicker. If this is the case, it is possible to transmit the signal by a change in brightness. Furthermore, many FM modulated signals can be transmitted. For example, as shown in FIG. 188 described later, appropriate information can be transmitted by changing the frequency (f1, f2, etc.) of luminance change at a cycle of 33 milliseconds or more.
  • Embodiment 1 In the following, the flow of processing for communication using a camera of a smart phone will be described by transmitting information as the blinking pattern of the LED included in the device.
  • FIG. 1 is a diagram showing an example of the in-home environment in the present embodiment.
  • a smartphone 1105 and the like are around the user with respect to the television 1101, the microwave 1106, and the air purifier 1107.
  • FIG. 2 is a diagram showing an example of communication between a home appliance and a smartphone in the present embodiment.
  • FIG. 2 is an example of information communication, and is a diagram showing a configuration for obtaining information by acquiring information output from each device such as the television 1101 and the microwave 1106 in FIG. 1 with the smartphone 1201 owned by the user. is there. As shown in FIG. 2, each device transmits information using the blinking pattern of the LED, and the smartphone 1201 receives the information using an imaging function by a camera or the like.
  • FIG. 3 is a diagram showing an example of a configuration of transmission side apparatus 1301 in the present embodiment.
  • the transmission side apparatus 1301 uses information as a blinking pattern of light by detecting a change in state such as a failure inside the apparatus by sending a transmission instruction by a user pressing a button, NFC (Near Field Communication) or the like. Send. At this time, transmission is repeated for a fixed time.
  • a shortened ID may be used as long as it is between devices registered in advance.
  • authentication information required for the connection can be transmitted as a blinking pattern.
  • the transmission speed determination unit 1309 grasps the performance of the clock generation device inside the device, and slows the transmission speed when the clock generation device is inexpensive and has low accuracy, and the transmission speed when high. It is possible to perform processing to speed up. In the case where the performance of the clock generation device is poor, it is also possible to reduce an error due to accumulation of a shift of the blinking interval in long-time communication by dividing the information itself to be short.
  • FIG. 4 shows an example of the configuration of reception side apparatus 1401 in the present embodiment.
  • the reception-side device 1401 determines an area in which light blinks can be seen from the frame image acquired by the image acquisition unit 1404. At this time, blinking may be performed by tracking an area in which high and low brightness levels are observed.
  • the blinking information acquisition unit 1406 acquires the transmitted information from the blinking pattern, and when the apparatus association such as the device ID is included in the information, the information is used to accompany the related server on the cloud Information is interrogated, or interpolation is performed using information stored in a device in a wireless communication area stored in advance or in the receiving device. As a result, it is possible to obtain an effect such as error correction due to noise when imaging a light emission pattern, or reducing the time for the user to hold the smartphone over the light emitting unit of the transmission side device in order to acquire already acquired information. .
  • FIG. 5 will be described.
  • FIG. 5 is a diagram showing a flow of processing for sending information to a receiving device such as a smartphone by blinking of the LED of the transmitting device in the present embodiment.
  • a transmitting device having a function of communicating with a smartphone by NFC and a light emission pattern of an LED embedded in a part of a communication mark for NFC possessed by the transmitting device.
  • step 1001a the user purchases an electric home appliance, and for the first time, the power is connected to the outlet to be in an energized state.
  • step 1001 b it is checked whether the initial setting information has been written. In the case of Yes, the process proceeds to circle 3 in the figure. On the other hand, in the case of No, the process proceeds to step 1001 c, and the mark blinks at a blink rate (eg, 1 to 2/5) that the user can easily understand.
  • a blink rate eg, 1 to 2/5
  • step 1001 d it is checked whether the user touches the smartphone with NFC communication to acquire the device information of the home appliance.
  • the process proceeds to step 1001 e where the smartphone receives the device information in the cloud server and registers it in the cloud.
  • step 1001 f the abbreviated ID associated with the account of the smartphone user is received from the cloud, transmitted to the home appliance, and the process proceeds to step 1001 g.
  • the process proceeds to step 1001 g.
  • step 1001 g it is confirmed whether there is registration by NFC. In the case of Yes, the process proceeds to step 1001j, and after blinking of blue twice, the blinking is finished in step 1001k.
  • step 1001 g the process proceeds to step 1001 h. Subsequently, in step 1001h, it is checked whether 30 seconds have passed.
  • step 1001i the LED part blinks the light and outputs the device information (device model number, registration process presence / absence with NFC, unique ID of the device), and to circle 2 in FIG. move on.
  • step 1001 h the process returns to step 1001 d.
  • FIG. 6 to FIG. 9 are diagrams showing a flow of processing of transmitting information to the reception side device by blinking of the LED of the transmission side device.
  • FIG. 6 will be described.
  • step 1002 a the user activates an application for acquiring light blink information of the smartphone.
  • step 1002b the image acquisition portion acquires the blinking of light. Then, the blinking area determination unit determines the blinking area from the time-series change of the image.
  • step 1002c the blink information acquisition unit determines the blink pattern of the blink area, and waits for preamble detection.
  • step 1002d when the preamble can be detected, information of the blinking area is acquired.
  • step 1002e when the device ID information can be acquired, the information is sent to the server on the cloud side even in the reception continuation state, and the information obtained from the cloud side by the information interpolation unit and the information on the blinking information acquisition unit Interpolate while comparing.
  • step 1002 f when all the information including the interpolated information is prepared, the smartphone or the user is notified. At this time, by displaying related sites and GUIs obtained from the cloud, rich and easy-to-understand notification becomes possible, and the process proceeds to circle 4 in FIG.
  • FIG. 7 will be described.
  • step 1003a when the home appliance generates a message such as a breakdown, the number of times of use notified to the user, or a room temperature, the information transmission mode is started.
  • step 1003 b the mark is blinked at 1/2 / s.
  • the LED will also start transmitting information.
  • step 1003c it is confirmed whether communication by NFC has been started. In the case of No, the process proceeds to circle 7 in FIG. In the case of Yes, the process proceeds to step 1003 d to stop the blinking of the LED.
  • step 1003e the smartphone accesses the cloud server to display related information.
  • step 1003f in the case of a failure that requires on-site response, the server side searches for a service person to support. Use home appliances, installation locations, and location information.
  • step 1003 g the service person enters the support mode by pressing the button of the home appliance in a predetermined order.
  • step 1003 h when the blinking of the marker is visible from the smartphone with LEDs of home appliances other than the marker, some or all of the LEDs that are simultaneously visible blink to interpolate information, and the process proceeds to circle 5 in FIG. 8.
  • FIG. 8 will be described.
  • step 1004a the serviceman presses the setting button when the performance of the owning receiving terminal can detect blinking at high speed (e.g. 1000 / s times).
  • step 1004 b the LED of the home appliance blinks in the high-speed mode and proceeds to circle 6.
  • FIG. 9 will be described.
  • step 1005a blinking continues.
  • step 1005b the user comes to obtain LED blink information on the smartphone.
  • step 1005 c the user activates an application for acquiring light blink information of the smartphone.
  • step 1005d the image acquisition portion acquires the blinking of light. Then, the blinking area determination unit determines the blinking area from the time-series change of the image.
  • step 1005e the blink information acquisition unit determines the blink pattern of the blink area, and waits for preamble detection.
  • step 1005f when the preamble can be detected, the information of the blinking area is acquired.
  • step 1005g when the device ID information can be acquired, the information is sent to the server on the cloud side even in the reception continuation state, and the information obtained from the cloud side by the information interpolation unit and the information on the blinking information acquisition unit Interpolate while comparing.
  • step 1005h when all the information including the interpolated information is prepared, the smartphone or the user is notified. At this time, by displaying related sites and GUIs obtained from the cloud, richer and easy-to-understand notification becomes possible.
  • a transmitting device such as a home appliance can transmit information to the smartphone by blinking the LED.
  • Even devices that do not have a wireless function or a communication means such as NFC can transmit information, and can also provide users with rich information in a server on the cloud via a smartphone.
  • both two-way communication for example, NFC communication
  • one-way communication for example, communication due to a change in luminance of LEDs
  • data transmission / reception is realized by two-way communication when data transmission / reception is performed by one-way communication from one device to the other device when having a function of transmitting / receiving data by a communication method It is possible to stop one-way communication. This is efficient because waste of power consumption required for one-way communication can be eliminated.
  • the information communication apparatus uses an information management unit that manages device information including its own unique ID and device status information, a light emitting element, and information as a blinking pattern of the light emitting element.
  • the optical transmission unit converts the device information into a blinking pattern of light and transmits the light when there is a change in the internal state of the device.
  • an activation history management unit for storing sensed information in the device such as its own activation state and user usage history is further provided, and the light transmission unit is registered in advance of the clock generation device to be used. Performance information may be acquired and transmission speed may be changed.
  • a second light emitting element is disposed around a first light emitting element for transmitting information by flickering of light, and the second light emitting element is the second light emitting element.
  • the information transmission by the blinking of one light emitting element is repeated a certain number of times, light may be emitted between the end and the start of the information transmission.
  • FIG. 10 and FIG. 11 are diagrams for explaining the procedure of communicating a device with a user using visible light in the present embodiment.
  • FIG. 10 will be described.
  • step 2001a the user turns on the power.
  • step 2001b it is checked whether initial setting such as installation setting and NW setting is performed as the start-up process.
  • step 2001 f the normal operation is started, and the process ends as indicated by circle 3.
  • step 2001 c the process proceeds to step 2001 c, and notifies the user that the initial setting is necessary by “LED normal light emission” and “buzzer sound”.
  • step 2001 d device information (product number and serial number) is collected to prepare for visible light communication.
  • step 2001e the device information (product number and serial number) visible light communication is possible to the user by "LED communication light emission” "icon display on display” "buzzer sound” "light multiple LEDs” Notice.
  • FIG. 11 will be described.
  • step 2002a the proximity sensor, the illuminance sensor, and the human sensor detect the approach of the visible light receiving terminal.
  • step 2002b visible light communication is started using the sensing as a trigger.
  • step 2002c the user acquires device information at the visible light receiving terminal.
  • step 2002f sensing by the "sensitivity sensor” and sensing that the room is turned off by "cooperation with the light control device” is stopped to stop the light emission of the device information, as shown by circle 5 finish.
  • step 2002g the visible light receiving terminal notifies that the device information has been sensed to be acquired by “NFC communication” and “NW communication”, and ends the process.
  • step 2002h the disconnection of the visible light receiving terminal is detected, the device information is stopped, and the process ends. In the case of proceeding to step 2002i, with a lapse of a fixed time, the light emission of the device information is stopped and the process is ended.
  • step 2002a if not detected, the process proceeds to step 2002d, and with a lapse of a fixed time, "brighten” a notification capable of visible light communication, "make loud”, “move an icon”, etc. Enhance and notify.
  • the process returns to step 2002d.
  • the process proceeds to step 2002e, and further proceeds to step 2002i after a predetermined time has elapsed.
  • FIG. 12 is a diagram for describing a procedure until the user in the present embodiment purchases the device and performs the initial setting of the device.
  • step 2003a position information of the smartphone that has received the device information is acquired by GPS (Global Positioning System).
  • GPS Global Positioning System
  • step 2003b if there is user information in the smartphone, user information such as a user name, a telephone number, and an e-mail address is collected in the terminal.
  • step 2003c if there is no user information in the smartphone, user information is collected from the peripheral device through the NW.
  • step 2003d the device information, the user information, and the position information are transmitted to the cloud server.
  • step 2003e information necessary for initial setting and activation information are collected using the device information and the position information.
  • step 2003 f linkage information such as IP, an authentication method, and available services necessary for setting for linkage with a user-registered device is collected.
  • step 2003g the device information and setting information are transmitted to the user-registered device through the NW to perform cooperation setting with the peripheral device.
  • step 2003h user setting is performed using the device information and the user information.
  • step 2003i initial setting information, activity information, and cooperation setting information are transmitted to the smartphone.
  • step 2003 j the initial setting information, the activation information, and the cooperation setting information are transmitted to the home appliance by NFC.
  • step 2003k the device is set by the initial setting information, the activation information, and the cooperation setting information.
  • FIG. 13 is a diagram for describing a service dedicated to a serviceman in the case where a device in this embodiment fails.
  • step 2004a history information such as an operation log generated during normal operation of the device and a user operation log is recorded on the local storage medium.
  • step 2004b simultaneously with the occurrence of a failure, error information such as an error code and an error detail is recorded, and notification that visible light communication is possible is notified by LED abnormal light emission.
  • step 2004c the serviceman's special command is executed to set the LED high-speed light emission mode to start high-speed communication of visible light.
  • step 2004d it is determined whether the terminal in proximity is a smartphone or a dedicated reception terminal of a serviceman.
  • the process proceeds to step 2004e, in the case of a smartphone, error information is acquired and the process ends.
  • step 2004f in the case of the serviceman, the dedicated receiving terminal acquires error information and history information.
  • step 2004g the device information, error information, and history information are transmitted to the cloud, and a repair method is acquired.
  • the LED high-speed light emission mode is canceled by the special command execution of the serviceman, and the process ends.
  • step 2004i the related product of the device information, the product information of the similar product, the sales price of the nearest store, and the new product information are acquired from the cloud server.
  • step 2004j user information is acquired through visible light communication with the smartphone of the user and the dedicated terminal of the serviceman, and an item is ordered from the nearest store through the cloud server.
  • FIG. 14 is a diagram for describing a service for confirming a cleaning state using the vacuum cleaner and the visible light communication according to the present embodiment.
  • step 2005a cleaning information during normal operation of the device is recorded.
  • step 2005b the stain information is created in combination with the room arrangement information, and encrypted and compressed.
  • the contamination information is recorded on the local storage medium using the compression of the contamination information as a trigger.
  • dirt information is transmitted to the lighting apparatus by visible light communication using a temporary stop of the cleaning (stop of the suction process) as a trigger.
  • the recording of the dirt information is used as a trigger to transmit the dirt information to the home local server and the cloud server via the NW.
  • step 2005f using the transmission and recording of the dirt information as a trigger, the device information, the storage location, and the decryption key are transmitted to the smartphone by visible light communication.
  • step 2005g dirt information is obtained and decoded through the NW and NFC.
  • the first embodiment it is possible to realize a visible light communication system including an information communication device that enables communication between various devices including devices having a small computing power.
  • the visible light communication system including the information communication apparatus of the present embodiment is a visible light transmission possibility determination unit for determining whether preparation for visible light transmission is completed, and visible light transmission
  • a visible light transmission notification unit for notifying the user that it is in the medium, and visible light communication for notifying the user visually and aurally when visible light communication becomes possible It is a system.
  • the convenience of the user can be improved by notifying the user of the situation where visible light can be received by "emission color”, “sound”, “icon display” and “multiple LED emission” to the light emission mode of the LED.
  • a terminal proximity sensing unit that senses the approach of the visible light receiving terminal, and a visible light transmission determination unit that determines start and stop of visible light transmission according to the position of the visible light receiving terminal;
  • the visible light communication system may be a visible light communication system in which visible light transmission is started triggered by sensing of the proximity of the visible light receiving terminal by the terminal proximity sensing unit.
  • the visible light communication system may be configured to stop visible light transmission when triggered by the detection of disconnection of the visible light receiving terminal by the terminal proximity sensing unit.
  • the peripheral illumination sensing unit that senses the turning off of the room is mounted, and the visible illumination sensing unit stops the visible light transmission when triggered by the sensing of the turning off of the room. It may be a visible light communication system.
  • a visible light communication time monitoring unit that measures a time during which visible light transmission is performed, and a visible light transmission notification unit that notifies the user that visible light transmission is in progress.
  • a visible light communication system that enhances visual and auditory notification to users, triggered by the fact that visible light communication is performed more than a certain amount but there is no approach of visible light receiving terminals. It is also good.
  • the visible light transmission time is longer than a certain time after the visible light transmission notification unit strengthens the notification, but the visible light receiving terminal is visible when triggered by the absence of the approach of the visible light receiving terminal. It may be a visible light communication system in which light transmission is stopped.
  • the user when the user does not receive the visible light even if the visible light transmission time exceeds a certain time, the user can receive the visible light and stop receiving, thereby preventing the user from forgetting the reception and forgetting to erase the user's convenience. It can improve.
  • the visible light communication system including the information communication apparatus of the present embodiment includes a visible light reception determination unit that determines that visible light communication has been received, and reception terminal position acquisition for acquiring a terminal position. And a device setting information collecting unit for acquiring device setting information by acquiring device information and position information, and acquiring the position of the receiving terminal by using visible light reception as a trigger to acquire the device setting It is good also as a visible light communication system which collects necessary information. As a result, acquisition of device information by visible light communication is a trigger to automatically collect and set device information and position information necessary for user registration and user information, thereby setting the user's input and registration procedure. Omission can improve convenience.
  • the device information management unit that manages device information the device relationship management unit that manages the similarity between devices, and store information management that manages store information that sells devices.
  • the nearest store search unit for searching the nearest store from the position information, and the nearest store and price at which similar equipment is sold triggered by receiving the device information and the position information It may be a visible light communication system to be acquired.
  • the convenience of the user can be improved by collecting the sales situation and sales stores of the related devices according to the device information and saving the time for searching for the devices.
  • the visible light communication system including the information communication apparatus of the present embodiment has a user information monitoring unit that monitors that user information is stored in the terminal, and user information from peripheral devices through NW.
  • a user information collection unit to collect and a user registration processing unit that acquires user information and device information and performs user registration are mounted, and user information can be accessed from peripheral devices that can be accessed triggered by the absence of user information. It is good also as a visible light communication system which collects and carries out user registration with apparatus information.
  • acquisition of device information by visible light communication is a trigger to automatically collect and set device information and position information necessary for user registration and user information, thereby setting the user's input and registration procedure. Omission can improve convenience.
  • the visible light communication system including the information communication apparatus of the present embodiment includes a command determination unit that receives a special command, a visible light communication frequency, and a visible light communication speed adjustment unit that operates multiple LED linkage.
  • a visible light communication system that accelerates visible light communication by adjusting the frequency of the visible light communication and the number of transmission LEDs by receiving a special command.
  • a terminal type determination unit that determines the type of the proximity terminal by NFC communication and a transmission information type determination unit that determines the information to be transmitted according to the terminal type are installed.
  • the visible light communication system may change the amount of information to be transmitted by the close terminals and the visible light communication speed.
  • the visible light communication system including the information communication apparatus of the present embodiment includes a cleaning information recording unit for recording cleaning information, a room arrangement information recording unit for recording room arrangement information, room arrangement information and cleaning information.
  • An information combining unit that generates dirty location information by superimposing and an operation monitoring unit that monitors the stop of normal operation are mounted, and the dirty location information is visible light by using the detection of the stop of the device as a trigger. It may be a visible light communication system that transmits.
  • the home delivery service will be taken as an example to explain Web information using optical communication and cooperation of devices.
  • FIG. 15 shows an outline of the present embodiment. That is, FIG. 15 is a schematic view of home delivery service support using optical communication in the present embodiment.
  • the orderer places an order for a product from the product purchase site using the mobile terminal 3001a.
  • an order number is issued from the product purchase site.
  • the mobile terminal 3001a having received the order number is transmitted to the door phone indoor unit 3001b by using the NFC communication.
  • the intercom indoor unit 3001b displays the order number received from the mobile terminal 3001a on the monitor of its own device or the like to indicate to the user that the transmission has been completed.
  • the intercom indoor unit 3001 b transmits, to the intercom outdoor unit 3001 c, a blink instruction and an ON / OFF pattern of an LED built in the intercom outdoor unit 3001 c.
  • the blinking pattern is generated by the intercom indoor unit 3001b according to the order number received from the mobile terminal 3001a.
  • the intercom outdoor unit 3001 c blinks the LED according to the blink pattern specified by the intercom indoor unit 3001 b.
  • a home network may be used besides NFC communication.
  • the mobile terminal 3001a may transmit the order number directly to the intercom outdoor unit 3001c without intermediating the intercom indoor unit 3001b.
  • the home delivery order reception server 3001 e transmits the order number to the home delivery mobile terminal 3001 f.
  • optical communication is performed using the LED blink pattern generated based on the order number in both directions of the home delivery mobile terminal 3001 f and the door phone outside device 3001 c.
  • FIGS. 16 to 21 are flowcharts for explaining home delivery service support using optical communication in the embodiment 3 of the invention.
  • FIG. 16 shows the flow from when the orderer places an order until the order number is issued. Hereinafter, FIG. 16 will be described.
  • the orderer mobile terminal 3001a implements home delivery reservation using the web browser or application of the smartphone. Then, the process proceeds to circle 1 in FIG.
  • step 3002c it is checked whether the order number transmission destination device has been touched. In the case of Yes, the process proceeds to step 3002 d where the order number is NFC-touched to the doorphone indoor unit and transmitted (if the doorphone is in the same network as the smartphone, there is also a method of transmitting via the network). On the other hand, in the case of No, the process returns to step 3002b.
  • step 3002 e the intercom indoor unit 3001 b waits for a request for LED blinking from the other terminal. Subsequently, in step 3002f, the order number is received from the smartphone. Subsequently, in step 3002 g, an instruction to blink the LED of the doorphone outdoor unit is issued according to the received order number. Then, the process proceeds to circle 3 in FIG.
  • step 3002 h the intercom outdoor unit 3001 c waits for an LED blink instruction from the intercom indoor unit. Then, the process proceeds to circle 7 in FIG.
  • the courier mobile terminal 3001f waits for an order notification.
  • step 3002j it is confirmed whether or not notification has been made from the order notification and the home delivery order server.
  • the process returns to step 3002i.
  • step 3002 k information such as an order number and a delivery address is received.
  • step 3002 n the process waits for the camera activation for the LED emission instruction of the order number received by the user or the LED emission recognition of another device. Then, the process proceeds to circle 5 in FIG.
  • FIG. 17 shows a flow until the orderer makes a delivery order on the orderer mobile terminal 3001a.
  • FIG. 17 will be described.
  • step 3003a the home delivery order server 3001e waits for an order number. Subsequently, in step 3003b, it is checked whether a home delivery order has been received. Here, in the case of No, the process returns to step 3003a. In the case of Yes, the process proceeds to step 3003c, and an order number is issued for the received home delivery order. Subsequently, in step 3003d, the home delivery person is notified that the home delivery order has been received, and the process ends.
  • the orderer mobile terminal 3001a selects the order contents from the menu presented by the home delivery order server in step 3003e following the circle 1 in FIG. Subsequently, in step 3003f, the order is confirmed and transmitted to the home delivery server. Subsequently, in step 3003g, it is confirmed whether or not the order number has been received. Here, in the case of No, the process returns to step 3003 f. In the case of Yes, the process proceeds to step 3003 h, and the received order number is displayed to display a message prompting a touch on the door phone indoor unit. Then, the process proceeds to circle 2 in FIG.
  • FIG. 18 shows a flow in which the delivery person performs optical communication with the door phone outdoor unit 3001 c of the delivery destination using the delivery person mobile terminal 3001 f.
  • FIG. 18 will be described.
  • the courier mobile terminal 3001 f checks in step 3004 a whether or not to activate the camera in order to recognize the LED of the door phone outdoor unit 3001 c of the delivery destination.
  • the process returns to circle 5 in FIG.
  • step 3004b the blinking of the LED on the doorphone home door of the delivery destination is confirmed by the camera of the courier mobile terminal.
  • step 3004c the LED emission of the door phone external unit is recognized and compared with the order number.
  • step 3004d it is checked whether the flashing of the LED on the door phone outdoor unit matches the order number.
  • the process proceeds to circle 6 in FIG.
  • FIG. 19 shows a flow for performing order number verification between the door phone indoor unit 3001 b and the door phone outdoor unit 3001 c. Hereinafter, FIG. 19 will be described.
  • the intercom outdoor unit 3001c checks in step 3005a whether or not an instruction to blink the LED has been issued from the intercom indoor unit. In the case of No, it returns to the circle of FIG. In the case of Yes, the process proceeds to step 3005b, where the LED blinks in accordance with the LED blinking instructed by the door phone indoor unit. Then, the process proceeds to circle 8 in FIG.
  • step 3005 c the door phone outdoor unit 3001 c notifies the door phone indoor unit of the blinking of the LED recognized by the camera of the door phone outdoor unit. Then, the process proceeds to circle 10 in FIG.
  • the door phone indoor unit 3001 c executes an LED blink instruction according to the order number to the door phone outdoor unit in step 3005 d following the circle 3 in FIG. 16.
  • step 3005e the camera of the door phone outdoor unit waits until it recognizes LED flashing of the courier mobile terminal.
  • step 3005 f it is checked whether the notification of the recognition of the LED blinking has been received from the door phone outdoor unit.
  • the process returns to step 3005e.
  • step 3005 g the LED flashing on the door phone outdoor unit and the order number are collated.
  • step 3005 h it is checked whether the LED flashing on the door phone outdoor unit and the order number match. In the case of Yes, it progresses to circle 11 of FIG.
  • step 3005i the door phone outdoor unit is instructed to cancel the LED blinking and the process is ended.
  • FIG. 20 shows a flow between the intercom indoor unit 3001 c and the courier mobile terminal 3001 f after order number verification.
  • FIG. 20 will be described.
  • the courier mobile terminal 3001 f starts LED blinking in step 3006 a in accordance with the order number held by the courier mobile terminal.
  • the LED blinking portion is arranged in a range where the camera can shoot from the door phone outdoor unit.
  • step 3006c whether the door phone blinks the LED blinks on the door phone's home terminal's camera and indicates whether the LED blinks on the courier mobile terminal and the order number held by the door phone on the door phone coincide. Check.
  • step 3006e the matching result is displayed on the courier mobile terminal and the processing is ended.
  • FIG. 21 shows a flow between the intercom indoor unit 3001 c and the courier mobile terminal 3001 f after order number verification. Hereinafter, FIG. 21 will be described.
  • step 11 in FIG. 19 the intercom outdoor unit 3001c confirms in step 3007a whether or not notification has been given as to whether the LED flashing notified by the intercom indoor unit matches the order number.
  • the process returns to circle 11 in FIG.
  • the process proceeds to step 3007b, in which the doorphone external unit performs LED blinking indicating whether or not the match is obtained, and the process ends.
  • the door phone indoor unit 3001b notifies the orderer of the indication that the delivery person has arrived at the door phone indoor unit at step 3007c following the circle 10 in FIG. Do.
  • the door phone indoor unit is instructed to stop the blinking of the LED and to blink the LED indicating that the order number is matched. And it ends.
  • a delivery box for storing the delivery item may be installed at the entrance or the like.
  • the delivery person stores the delivery item in the delivery box.
  • Embodiment 4 The fourth embodiment will be described below.
  • FIG. 22 is a diagram for describing a process of registering a mobile phone in use with a user in the server according to the present embodiment. Hereinafter, FIG. 22 will be described.
  • step 4001 b the user starts an application.
  • step 4001c the server is queried for information on this user and mobile phone.
  • step 4001 d it is checked whether the user information and the information of the mobile phone in use are registered in the DB of the server.
  • step 4001f the processing proceeds to step 4001f, and as parallel processing (processing a), analysis of user voice characteristics is started, and the processing proceeds to B in FIG.
  • FIG. 23 is a diagram for describing a process of analyzing user voice characteristics in the present embodiment. Hereinafter, FIG. 23 will be described.
  • step 4002a sound is collected from the microphone.
  • step 4002b it is checked whether the voice collected as a result of speech recognition is estimated to be the user's voice.
  • the process returns to step 4002a.
  • step 4002c the process proceeds to step 4002c, and it is confirmed whether the content of the occurrence is a keyword used in this application ("Next", "Return”, etc.).
  • step 4002 f voice data is registered in the user keyword voice table of the server, and the process proceeds to step 4002 d.
  • step 4002d the process proceeds to step 4002d.
  • step 4002d voice characteristics (frequency, sound pressure, speech rate) are analyzed.
  • step 4002e the analysis result is registered in the user voice characteristic table of the mobile phone and the server.
  • FIG. 24 is a diagram for explaining the process of preparing for the speech recognition process in the present embodiment. Hereinafter, FIG. 24 will be described.
  • step 4003a an operation to display a (user operation) cooking menu list is performed.
  • step 4003 b the cooking menu list is acquired from the server.
  • step 4003c the cooking menu list is displayed on the portable screen.
  • step 4004d sound collection is started from the microphone connected to the mobile phone.
  • step 4003e sound collection from sound collection devices in the vicinity is started as parallel processing (processing b).
  • step 4003 f analysis of environmental sound characteristics is started as parallel processing (processing c).
  • step 4003 g cancellation of voices from voice output devices present in the periphery is started as parallel processing (processing d).
  • step 4003h the user voice characteristic is acquired from the DB of the server.
  • step 4003i user speech recognition is started, and the process proceeds to C of FIG.
  • FIG. 25 is a diagram for describing a process of collecting sound from surrounding sound collecting devices in the present embodiment. Hereinafter, FIG. 25 will be described.
  • step 4004a a device (sound collecting device) that can communicate and collect sound from a mobile phone is searched.
  • step 4004b it is checked whether or not a sound collection device has been found.
  • step 4004c the position information of the sound collector and the microphone characteristic information are acquired from the server.
  • step 4004d it is checked whether the information exists in the server.
  • step 4004e the processing proceeds to step 4004e, and it is confirmed whether the installation position of the sound collection device is sufficiently close to the position of the mobile phone and it is possible to collect the user's voice. In the case of No at step 4004e, the process returns to step 4004a. On the other hand, if Yes in step 4004e, the process proceeds to step 4004f to cause the sound collection device to start sound collection. Subsequently, in step 4004 g, the sound collected by the sound collection device is transmitted to the mobile phone until an instruction to end the sound collection processing is received. Note that the collected voice may not be sent to the mobile phone as it is, but the result of voice recognition may be sent to the mobile phone. Also, the voice transmitted to the mobile phone is processed in the same manner as the voice collected from the microphone connected to the mobile phone, and the process returns to step 4004a.
  • step 4004d the process advances to step 4004h to cause the sound collection device to start sound collection.
  • step 4004i a signal sound is output from the mobile phone.
  • step 4004 j the sound collected by the sound collection device is transmitted to the mobile phone.
  • step 4004k it is checked whether the signal sound can be recognized from the sound sent from the sound collection device.
  • the process proceeds to step 4004g, and in the case of No, the process returns to step 4004a.
  • FIG. 26 is a diagram for explaining analysis processing of environmental sound characteristics in the present embodiment. Hereinafter, FIG. 26 will be described.
  • step 4005 f a list of devices excluding those whose position is far enough from the position of the microwave among the devices owned by the user is acquired. Data of sounds emitted by these devices are acquired from DB.
  • step 4005 g the characteristics (frequency, sound pressure, etc.) of the acquired sound data are analyzed and held as environmental sound characteristics.
  • the sound emitted from a rice cooker or the like in the vicinity of the microwave oven is particularly likely to be misrecognized, and is set and held at a high degree of importance.
  • step 4005a sound is collected from the microphone.
  • step 4005b it is confirmed whether the collected voice is the user's voice, and in the case of Yes, the process returns to step 4005a. In the case of No, the process proceeds to step 4005c, where the characteristic (frequency, sound pressure) of the collected sound is analyzed.
  • step 4005d the environmental sound characteristic is updated from the analysis result.
  • step 4005e it is checked whether the end flag is set, and if it is Yes, the process ends. In the case of No, the process returns to step 4005a.
  • FIG. 27 is a diagram for explaining the process of canceling the sound from the audio output device present in the periphery according to the present embodiment. Hereinafter, FIG. 27 will be described.
  • a communicable device is searched for a device (voice output device) capable of voice output.
  • step 4006b it is checked whether or not an audio output device has been found, and if No, the process ends. In the case of Yes, the process proceeds to step 4006c, and a signal sound including various frequencies is output to the audio output device.
  • step 4006d the mobile phone and the sound collection device (each sound collection device) of FIG. 25 collect sound, and the signal sound output from the voice output device is collected.
  • step 4006 e it is checked whether the signal sound can be collected and recognized. If the result is No, the process ends. In the case of Yes, the processing proceeds to step 4006f, and the transmission characteristics from the audio output device to each sound collecting device (the relationship between the output sound volume for each frequency and the sound volume collected and the delay time from the signal sound output to the sound collection) Analyze
  • step 4006 g it is checked whether the audio data output from the audio output device can be accessed from the mobile phone.
  • step 4006h the sound source, the output location, and the volume output from the audio output device are acquired until the cancel processing end instruction is given, and each sound collecting device Cancels the audio output from the collected audio on the audio output device. It returns to step 4006a.
  • step 4006i the voice output from the voice output device is acquired until the cancel processing end command is given, and voice output is performed from the voice collected by each sound collector while considering the transmission characteristics. The voice output from the device is canceled, and the process returns to step 4006a.
  • FIG. 28 is a diagram for describing processing of selecting a cooking menu and setting operation contents to a microwave according to the present embodiment. Hereinafter, FIG. 28 will be described.
  • step 4007a user operation
  • a menu to be cooked is selected.
  • step 4007b (user operation) recipe parameters (amount to be cooked, taste intensity, baking, etc.) are set.
  • step 4007c recipe data and microwave oven operation content setting command are acquired from the server according to the recipe parameters.
  • step 4007d the user is prompted to cause the non-contact IC tag embedded in the microwave to touch the mobile phone.
  • step 4007 e it is checked whether a touch on the microwave is to be detected.
  • step 4007e the process returns to step 4007e.
  • step 4007f the microwave setting command acquired from the server is transmitted to the microwave.
  • step 4007g (process e) a notification sound for a microwave is acquired from a DB such as a server and set in the microwave.
  • step 4007h (process f) adjustment of notification sound of the microwave is performed, and the process proceeds to D in FIG.
  • FIG. 29 is a diagram for describing a process of acquiring notification sound for the microwave according to the present embodiment from a DB of a server or the like and setting the notification sound to the microwave.
  • FIG. 29 will be described.
  • step 4008b the electronic oven is inquired as to whether notification sound data for the mobile phone (data of sound output at the time of operation or end of operation of the electronic oven) is registered in the microwave.
  • step 4008c it is checked whether notification sound data for the mobile phone is registered in the microwave.
  • step 4008d it is checked whether notification sound data for this mobile phone is registered in the mobile phone.
  • step 4008 h notification sound data registered in the mobile phone is registered in the microwave, and the process ends.
  • step 4008 e refers to the DB of the server or the mobile phone or the microwave.
  • step 4008 f if there is notification sound data for this mobile phone (data of notification sound that this mobile phone can easily recognize) in the DB, if there is no such data, a notification sound for general mobile phones Data (generally, notification sound data that a mobile phone can easily recognize) is acquired from DB.
  • step 4008 g the acquired notification sound data is registered in the mobile phone.
  • step 4008 h notification sound data registered in the mobile phone is registered in the microwave, and the process ends.
  • FIG. 30 is a diagram for describing a process of adjusting notification sound of the microwave according to the present embodiment. Hereinafter, FIG. 30 will be described.
  • step 4009a notification sound data of this microwave registered in the mobile phone is acquired.
  • step 4009b it is checked whether the overlap between the frequency of the notification sound for the terminal and the frequency of the environmental sound is equal to or more than a predetermined value.
  • step 4009c the volume of the notification sound is set to a sufficiently large volume compared to the environmental sound. Or change the frequency of notification sound.
  • the microwave oven can output the sound of (c) of FIG. 31, the notification sound is created with the pattern of (c), and the process ends. . If (c) is not possible and (b) is possible, a notification sound is created with the pattern of (b) and the process ends. (A) If possible, create a notification sound with the pattern of (a) and then exit.
  • FIG. 31 is a diagram showing an example of the waveform of notification sound set in the microwave according to the present embodiment.
  • the waveform shown in (a) of FIG. 31 is a simple rectangular wave and can be output by most audio output devices. As it is easy to be confused with voices other than notification sounds, it should be output several times, and if it is possible to recognize some of them, it should be recognized that the notification sounds are heard, etc.
  • the waveform shown in (b) of FIG. 31 is a waveform obtained by finely dividing the waveform of (a) by a rectangular wave for a short time, and can be output if the operation clock of the audio output device is sufficiently fast.
  • This sound sounds similar to the sound of (a) to the human ear, but in machine recognition, it has the property that the amount of information is larger than that of (a) and it is difficult to be confused with the sound other than the notification sound.
  • the waveform shown in (c) of FIG. 31 is obtained by changing the time length of the audio output portion, and is called a PWM waveform. Although it is more difficult to output than (b), the amount of information is larger than (b), and it is also possible to improve the recognition rate or to simultaneously transmit information to be transmitted from the microwave to the mobile phone.
  • the waveforms in (b) and (c) in FIG. 31 have a lower possibility of misrecognition than in (a) in FIG. 31, but the same waveform is repeated several times as in (a) in FIG. The recognition rate can be further improved.
  • FIG. 32 is a diagram showing an example of the waveform of notification sound set in the microwave according to the present embodiment. Hereinafter, FIG. 32 will be described.
  • step D in the figure the contents of cooking are displayed in step 4011a.
  • step 4011 b it is confirmed whether the cooking content is the operation of the microwave.
  • step 4011 c the process proceeds to step 4011 c, and the user is notified that the food is put in the microwave and the operation start button is pressed, and the process proceeds to E of FIG.
  • step 4011 d the cooking content is displayed, and the processing proceeds to F in the drawing or the processing proceeds to step 4011 e.
  • step 4011 e it is confirmed what the user's operation is. In case of application end, it ends.
  • step 4011f confirms whether cooking is finished as a result of display contents change Do.
  • the processing proceeds to step 4011 g, the user is notified of cooking completion, and the processing ends.
  • the process proceeds to step 4011a.
  • FIG. 33 is a diagram for describing a process of recognizing notification sound of the microwave according to the present embodiment. Hereinafter, FIG. 33 will be described.
  • step 4012a as parallel processing (processing g), collection of sound from sound collection devices in the vicinity and recognition of notification sound of microwave oven are started.
  • step 4012 f confirmation of the mobile phone operation state is started as parallel processing (processing i).
  • step 4012 g tracking of the user position is started as parallel processing (processing j).
  • step 4012 b the recognition content is confirmed.
  • step 4012 c the setting change is registered, and the process returns to step 4012 b.
  • step 4012 e the process proceeds to F in FIG.
  • step 4012 e the process proceeds to G in FIG.
  • step 4012 d stands by until the operation time elapses, proceeds to step 4012 e, and (process h) notifies the user of the end of operation of the microwave to the user.
  • FIG. 34 is a diagram for describing a process of performing sound collection from a nearby sound collection device and recognition of a microwave notification sound in the present embodiment. Hereinafter, FIG. 34 will be described.
  • step 4013a a device (sound collecting device) that can communicate with the mobile phone and can collect sound is searched.
  • step 4013b it is confirmed whether or not a sound collection device has been found.
  • step 4013c the position information of the sound collector and the microphone characteristic information are acquired from the server.
  • step 4013d it is checked whether the information exists in the server.
  • step 4013r the installation position of the sound collection device is close enough from the microwave to confirm whether or not notification sound can be collected.
  • step 4013r the process returns to step 4013a.
  • step 4013 s the computing device of the sound collection device checks whether voice recognition is possible.
  • step 4013 s in the case of Yes, in step 4013 u, information for recognizing notification sound of the microwave is transmitted to the sound collection device.
  • step 4013v the sound collection device starts sound collection and speech recognition, and the recognition result is transmitted to the mobile phone.
  • step 4013 q the notification sound of the microwave is recognized until it proceeds to the next cooking stage, and the recognition result is transmitted to the mobile phone.
  • step 4013t the sound collection device starts sound collection and transmits collected sound to the mobile phone.
  • step 4013j the collected sound is transmitted to the mobile phone until the next cooking stage is performed, and the notification sound of the microwave is recognized by the mobile phone.
  • step 4013d the processing proceeds to step 4013e, where the computing device of the sound collection device checks whether voice recognition is possible.
  • step 4013k the processing proceeds to step 4013k, and information for recognizing notification sound of the microwave is transmitted to the sound collection device.
  • step 4013 m the sound collection device is made to start sound collection and speech recognition, and the recognition result is transmitted to the mobile phone.
  • step 4013n the notification sound of the microwave is sounded.
  • step 4013p it is checked whether the notification sound has been recognized by the sound collection device. If YES at step 4013p, the process proceeds to 4013q, performs notification processing of notification sound of the microwave until the next cooking stage is performed, transmits a recognition result to the mobile phone, and returns to step 4013a. In the case of No at step 4013p, the process returns to step 4013a.
  • step 4013e the process advances to step 4013f to cause the sound collection device to start collecting sound and to transmit collected sound to the mobile phone.
  • step 4013 g the notification sound of the microwave is sounded.
  • step 4013h recognition processing is performed on the voice sent from the sound collection device.
  • step 4013i was the notification sound recognized? Check if.
  • the processing proceeds to 4013j, and the voice collected until the next cooking stage is transmitted to the mobile phone, the notification sound of the microwave is recognized by the mobile phone, and the processing returns to step 4013a. In the case of No, the process returns to step 4013a.
  • FIG. 35 is a diagram for describing a process of notifying the user of the end of the operation of the microwave according to the present embodiment. Hereinafter, FIG. 35 will be described.
  • step 4013a it is checked whether it can be determined that the mobile phone is in use or sensor data is moving. In the case of Yes, the process proceeds to step 4014 m, and the user is notified of the end of the operation of the microwave using screen display of the mobile phone, voice, vibration and the like, and the process ends.
  • step 4013a the process proceeds to step 4014b, and a device (user-in-operation device) being operated by the PC or the like to which the user is logging in is searched.
  • step 4014 c it is checked whether a device under user operation has been found. In the case of Yes, the user is notified of the end of the operation of the microwave using the screen display of the device being operated by the user, and the process is ended.
  • step 4014c the process proceeds to step 4014e, and a device (imaging device) capable of acquiring an image that can be communicated from the mobile phone is searched.
  • step 4014f it is checked whether the imaging device has been found.
  • the process proceeds to step 4014p, and the imaging device is caused to capture an image, the user's face data is transmitted to the imaging device, and the user's face is recognized.
  • the captured image is sent to a mobile phone or a server, and the user's face is recognized at the transmission destination of the image.
  • step 4014 q it is checked whether the user's face has been recognized. If No, the process returns to step 4014e. In the case of Yes, the processing proceeds to step 4014r, and it is confirmed whether the device (discovery device) which has found the user has a display device or an utterance device. In the case of Yes in step 4014r, the process proceeds to step 4014s, notifies the user of the end of the operation of the microwave using an apparatus attached to the device, and ends the process.
  • step 4014f the process advances to step 4014g to search for a device (sound collecting device) that can communicate with the mobile phone and can collect sound.
  • a device sound collecting device
  • step 4014h the process advances to step 4014i to find an apparatus that can specify the position of the user by means of operating another apparatus or walking vibration. Subsequently, the process proceeds to step 4014 m to notify the user of the end of the operation of the microwave using screen display of the mobile phone, voice, vibration and the like, and the process ends.
  • step 4014i the process advances to step 4014r to check whether there is a display device or an utterance device in the device (discovery device) which has found the user.
  • step 4014r the processing proceeds to step 4014t, and the location information of the discovery device is acquired from the server.
  • step 4014 u a device (notification device) which is near the discovery device and has a display device or a voice generation device is searched.
  • step 4014 v in consideration of the distance from the notification device to the user, the user is notified of the end of the operation of the microwave with screen display or a sound of sufficient volume, and the process ends.
  • FIG. 36 is a diagram for describing a process of confirming a mobile phone operation state in the present embodiment. Hereinafter, FIG. 36 will be described.
  • step 4015a the mobile phone is being operated, the mobile phone is moving, or there is an input / output to an input / output device connected to the mobile phone, or video or music is being played, or the mobile phone is Check if the device located near the phone is operating or the camera or various sensors of the device located near the mobile phone recognize the user.
  • step 4015b the process proceeds to step 4015b, and it is recognized that the position of the user is likely to be close to the mobile phone, and the process returns to step 4015a.
  • step 4015c the process proceeds to step 4015c, and the user is recognized by the camera or various sensors of the device in the position far from the mobile phone or the device in the position far from the mobile phone Check if it is.
  • step 4015c in the case of Yes, the process proceeds to step 4015d, recognizing that the position of the user is likely to be far from this mobile phone, and the process returns to step 4015a. In the case of No at step 4015c, the process returns to step 4015a.
  • FIG. 37 is a diagram for describing a process of tracking the position of the user in the present embodiment. Hereinafter, FIG. 37 will be described.
  • step 4016a it is checked whether or not the mobile phone is determined to be moved by the direction sensor, position sensor or acceleration sensor.
  • step 4016a If Yes in step 4016a, the process proceeds to step 4016b, where the positions of the mobile phone and the user are registered in DB, and the process returns to step 4016a.
  • step 4016a the process proceeds to step 4016c, and it is possible to communicate from the mobile phone, a device that can detect the position of the user such as a camera or microphone or a human sensor or the presence of the user (user Search for detection equipment).
  • a device that can detect the position of the user such as a camera or microphone or a human sensor or the presence of the user (user Search for detection equipment).
  • step 4016d it is confirmed whether or not the sound collecting device is to be found. In the case of No at step 4016d, the process returns to step 4016a.
  • step 4016d in the case of Yes, the process proceeds to step 4016e, in which it is confirmed whether the user detection device detects the user. If No in step 4016e, the process returns to step 4016a.
  • step 4016e If Yes in step 4016e, the process proceeds to step 4016f to transmit the user detection to the mobile phone.
  • step 4016 g the presence of the user near the user detection device is registered in the DB.
  • step 4016 h if there is position information of the user detection device in the DB, the position is acquired by identifying the position of the user, and the process returns to step 4016 a.
  • FIG. 38 recognizes the notification sound of the home appliance while canceling the voice from the voice output device, causes the communicable electronic device to recognize the current position of the user (operator), and recognizes the user position from the recognition result of the user position. It is the figure which showed that the apparatus in the position near is made to notify a user.
  • FIG. 39 is a diagram showing the contents of the database held in the server, the mobile phone, or the microwave according to the present embodiment.
  • the mobile phone recognizes the model of the microwave, data specifying the sound that can be output (speaker characteristics, modulation method, etc.), and various mobile phone types.
  • Notification sound data having an easy-to-use characteristic is associated with notification sound data that can be easily recognized on average by a general mobile phone.
  • each individual mobile phone, the model of the mobile phone, the user who uses the mobile phone, and data indicating the position of the mobile phone are stored in association with each other.
  • the mobile device type table 4040c the mobile device type and the sound collection characteristics such as the microphone attached to the mobile device type are associated and held.
  • the user and the acoustic characteristic of the user's voice are associated and held.
  • the user and the voice waveform data when the user utters a keyword such as “next” or “return” to be recognized by the mobile phone are associated and held.
  • This data may not be speech waveform data itself, but may be analyzed and transformed into a form that can be easily handled.
  • the user owned device position table 4040 f holds the user, the device owned by the user, and the position data of the device in association with each other.
  • the user owned device position table 4040 g holds the user, the device owned by the user, and the sound data such as notification sound and driving sound emitted by the device in association with each other.
  • the user and data of the position of the user are associated and held.
  • FIG. 40 the user according to the present embodiment performs cooking based on the cooking procedure displayed on the mobile phone, and the user operates the display contents of the mobile phone by voice such as “next” and “return”.
  • FIG. FIG. 41 shows that the user has moved to another location while starting operation of the microwave according to the present embodiment and waiting for the end of operation or while simmering boiled food.
  • FIG. FIG. 42 shows an apparatus connected to a mobile phone via a network, and capable of recognizing the position of the user and recognizing that the user is present, such as a camera, a microphone, and a human sensor. It is a figure which shows transmitting a command which detects a user from a mobile telephone.
  • FIG. 41 shows that the user has moved to another location while starting operation of the microwave according to the present embodiment and waiting for the end of operation or while simmering boiled food.
  • FIG. FIG. 42 shows an apparatus connected to a mobile phone via a network, and capable of recognizing the position of the user and recognizing that the user is present, such as
  • FIG. 43 is a diagram showing that as an example of user detection, a camera attached to a television recognizes a user's face, and a human sensor of an air conditioner recognizes movement and presence of the user.
  • the recognition process may be performed by a television or an air conditioner, or image data may be transmitted to a mobile phone or a server, and the recognition process may be performed at the transmission destination.
  • the user's data should not be sent to an external server.
  • FIG. 44 is a diagram showing that a device which has detected a user, that a user has been detected and a relative position from the detected device to the user are transmitted to a mobile phone.
  • the position information of the device that has detected the user is present in the DB, it is possible to specify the position of the user.
  • FIG. 45 is a diagram showing that the mobile phone recognizes the operation end sound of the microwave according to the present embodiment.
  • FIG. 46 shows an example of a device in which the mobile phone that recognizes the end of the operation of the microwave detects the user, the device having a screen display function and an audio output function (in the figure, a television in front of the user) It is a figure which shows transmitting the command which notifies a user of driving
  • FIG. 47 is a diagram showing that the device that has received the above-described command notifies the user of the notification content (in the figure, the screen of the television displays that the operation of the microwave has ended).
  • FIG. 48 is a diagram showing that the operation end sound of the microwave is connected to the mobile phone via the network, is equipped with a microphone, and is recognized by devices present in the vicinity of the microwave.
  • FIG. 49 is a diagram showing that the device which has recognized the end of the operation of the microwave is notified to the mobile phone.
  • the mobile phone receives the notification of the end of the operation of the microwave, if the mobile phone is in the vicinity of the user, it notifies the user of the end of the operation of the microwave using the screen display and voice output of the mobile phone.
  • FIG. 50 when the mobile phone receives the notification of the end of the operation of the microwave, if the mobile phone is in the vicinity of the user, it notifies the user of the end of the operation of the microwave using the screen display and voice output of the mobile phone.
  • FIG. 51 is a diagram showing that the user is notified of the end of the operation of the microwave.
  • the mobile phone receives the notification of the end of the operation of the microwave
  • the screen display function and the voice output function among the devices detecting the user Sends an instruction to notify the user of the end of the operation of the microwave to the device (in this figure, the television in front of the user), and the device receiving the instruction notifies the user of the end of the operation of the microwave FIG.
  • the mobile phone is often not present near the microwave oven or near the user, indicating that the situation shown in the figure is likely to occur.
  • FIG. 52 is a diagram showing that the user who has received the notification of the end of the operation of the microwave moves to the kitchen.
  • the mobile phone is displaying the next cooking contents.
  • the mobile phone may recognize that the user has moved to the kitchen by voice or the like, and may start explaining the next cooking procedure at just the right time.
  • FIG. 53 information such as driving completion is transmitted from the microwave to the mobile phone by wireless communication, the mobile phone issues a notification command to the television viewed by the user, and the user is notified by screen display of the television or voice. It is a figure which shows what is done.
  • Communication between the information source device (in the figure, the microwave) and the mobile phone, and communication between the mobile phone and the device that notifies the user (in the figure, the television) are LAN in the home and direct wireless communication.
  • wireless communication of 700 MHz to 900 MHz can be used.
  • a mobile phone is used as a hub here, other devices having communication capability may be used instead of the mobile phone.
  • FIG. 54 is a diagram showing that information such as driving completion is transmitted to the television viewed by the user from the microwave by wireless communication, and notification is given to the user using screen display of the television and sound. This shows the operation in the case of not via the mobile phone which plays a role as a hub in FIG.
  • FIG. 55 transmits information to the air conditioner on the second floor, transmits information to the mobile phone from the air conditioner on the second floor, and transmits the information from the mobile phone to the television viewed by the user when the air conditioner on the first floor performs some kind of information notification.
  • FIG. 56 is a diagram showing that information is notified to a user who is at a remote location. Specifically, FIG. 56 shows that information is notified to a user at a remote place through the Internet or carrier communication from a mobile phone notified of by a microwave via voice, light, wireless communication or the like. ing.
  • FIG. 57 is a diagram showing that information can be transmitted to a mobile phone via a personal computer or the like when direct communication can not be performed from the microwave to the mobile phone serving as a hub.
  • FIG. 58 is a diagram showing transmission of information such as an operation command to the microwave from the mobile phone which has received the communication of FIG. 57, by tracing back the information communication path.
  • the mobile phone may automatically transmit information upon reception of the information shown in FIG. 57, or may notify the user of the information and receive information on the notification and transmit information of an operation performed by the user. .
  • FIG. 59 is a diagram showing that the user is notified of information when direct communication is not possible from the air conditioner which is the information source device to the mobile phone serving as the hub.
  • the air conditioner which is the information source device when it is not possible to directly communicate with the mobile phone serving as the hub from the air conditioner which is the information source device, first, in step 1, communication steps for the mobile phone such as a personal computer etc.
  • the information is transmitted to the device to be the terminal, and the information is transmitted from the personal computer to the mobile phone through the Internet and a carrier communication network in circles 2 and 3, and the mobile phone processes the information automatically or holds the mobile phone.
  • the information is transmitted to the personal computer through the Internet and the carrier communication network in circle 4 and circle 5, and in circle 6, the personal computer can notify the user who wants to notify (TV in this figure)
  • the notification instruction is sent to the user, and the circle 7 indicates that the user is notified of the information using the screen display of the television and the voice.
  • communication between a personal computer and a mobile phone is via the Internet or a carrier communication network in this figure, communication may be performed by home LAN, direct communication, or the like.
  • FIG. 60 is a diagram for describing a system using a communication device using a radio wave of 700 to 900 MHz.
  • a system using a communication device hereinafter referred to as a G device
  • a radio wave of 700 to 900 MHz hereinafter referred to as a G radio signal
  • the information is transmitted from the range to the 3rd floor mobile phone with G device using G electric wave, and from the 3rd floor mobile phone with G device to the 2nd floor mobile phone without G device using the home network It is shown that information is sent, and the second floor mobile phone notifies the user of the information.
  • the method of using NFC attached to both apparatuses can be considered for registration / authentication of the communication between apparatuses with G apparatus.
  • the output of G radio waves is lowered so that communication can be performed only in a distance of about 10 to 20 cm as a registration mode, both devices are brought close, and communication succeeds.
  • a method of registering and authenticating communication between G devices can be considered.
  • the information source device may be any device other than the microwave oven as long as it has a G device.
  • devices that relay information source devices and information notification devices can be mobile phones if they can access G radio waves and home networks.
  • a device such as a personal computer, an air conditioner or a smart meter may be used.
  • the information notification device may be a device such as a personal computer or a television instead of a mobile phone, as long as it can access a home network and can notify a user using screen display or voice output.
  • FIG. 61 is a diagram showing that the mobile phone in the remote location notifies the user of the information. Specifically, FIG. 61 transmits information from an air conditioner with a G device to a mobile phone in a home with a G device, and from the mobile phone in the home to the mobile phone in a remote location through the Internet or a carrier communication network. It has been shown to transmit and notify the user of the remote mobile phone.
  • the information source device may be any device other than the microwave as long as it has a G device.
  • devices that relay information source devices and information notification devices can access G radio waves and the Internet or carrier communication network
  • a mobile phone a computer, an air conditioner, a smart meter, or other device may be used.
  • the information notification device can access the Internet and a carrier communication network, and can be a device such as a personal computer or a television instead of a mobile phone, as long as notification to the user is possible using screen display or voice output. .
  • FIG. 62 is a diagram showing that the mobile phone in the remote location notifies the user of the information. Specifically, FIG. 62 shows that the television with G device recognizes notification sound of the microwave oven without G device, and the television transmits information to the in-home mobile phone with G device via G radio wave, It is shown that information is transmitted from the mobile phone of the present invention to a mobile phone of a remote place via the Internet or a carrier communication network, and the mobile phone of the remote place notifies the user of the information.
  • the information source device in the figure, the microwave
  • the method by which the notification recognition device the television in the figure
  • the notification of the information source device is not voice but light emission status And so on.
  • the notification recognition device is the same even if it is another device with a G device. If the notification recognition device and the device for relaying the information notification device (mobile phone in a remote location in this figure) (mobile phone in the house in this figure) can access G radio waves and the Internet or carrier communication network, Instead of a mobile phone, a computer, an air conditioner, a smart meter, or other device may be used.
  • the information notification device can access the Internet and a carrier communication network, and can be a device such as a personal computer or a television instead of a mobile phone, as long as notification to the user is possible using screen display or voice output. .
  • FIG. 63 in the case similar to FIG. 62, a device (the house in FIG. 62) that relays the notification recognition device (the television on the second floor in the figure) and the information notification device (the mobile phone in the distant place in the diagram).
  • the second floor television plays a role of a relay device in place of the mobile phone of FIG.
  • the device of the present embodiment realizes the following functions.
  • the sound collected by the sound collection device can be used as it is or as a voice recognition result.
  • Function to perform setting to microwave oven ⁇ It is an apparatus that can communicate from mobile phone, using an apparatus that can detect the user such as camera, microphone and human sensor, search for the user, and the current position of the user to the mobile phone Function to be sent to or stored in DB • Function to notify user from nearby device using user position stored in DB • State of mobile phone (operation state, sensor value, charge state, Function to estimate whether the user exists near the mobile phone from the data link status etc.)
  • the microwave oven is used as an example, but the electronic device that emits a notification sound to be recognized is not a microwave oven, but a washing machine, a rice cooker, a vacuum cleaner, a refrigerator, an air cleaner, a pot, a dish washer / dryer
  • a washing machine a rice cooker, a vacuum cleaner, a refrigerator, an air cleaner, a pot, a dish washer / dryer
  • the same effect can be obtained by changing to an air conditioner, a personal computer, a mobile phone, a television, an automobile, a telephone, a mail receiving device, and the like.
  • the microwave oven, the mobile phone, and the device for notifying the user such as a television
  • the microwave oven, the mobile phone, and the device for notifying the user directly communicate, if there is a problem with the direct communication
  • another device may be used. Communication may be performed indirectly through
  • communication using a home LAN is mainly assumed, but the same applies to direct wireless communication between devices, communication via the Internet, and communication via a carrier communication network. Function can be realized.
  • the location of the user is identified by a TV camera or the like by the simultaneous inquiry from the mobile phone, and the personal information is encrypted and sent to the mobile phone of the person. It has the effect of preventing it. Even when there are multiple people in the house, by storing data of human sensors in air conditioners, air purifiers, and refrigerators in a position management database such as a mobile phone, it is possible to use sensors as the operator recognizes once. By tracking, the position of the operator can be estimated.
  • the movement of the physical sensor remains stationary for a certain period of time, which can be detected.
  • separation is detected using a human sensor of a home appliance or a lighting device, button operation, a camera such as a TV, a microphone of a portable phone, or the like. And the position is registered in the user position database of the portable or server in the house.
  • an information communication apparatus (recognition apparatus) that enables communication between devices can be realized.
  • the information communication apparatus searches for an electronic device (sound collecting device) having a sound collecting function among electronic devices that can be communicated from the operation terminal, and the sound collecting function of the sound collecting device May be included to recognize the notification sound of another electronic device.
  • an electronic device sound collecting device having a sound collecting function among electronic devices that can be communicated from the operation terminal, and the sound collecting function of the sound collecting device May be included to recognize the notification sound of another electronic device.
  • the recognition device may be a recognition device that uses the sound collection function of only the sound collection device capable of collecting the signal sound emitted from the operation terminal.
  • the information communication apparatus searches for an electronic device (voice output device) having an audio output function among electronic devices that can be communicated from the operation terminal, and detects the voice output device and the sound collection device. Analysis of voice transmission characteristics during the period, acquiring output voice data of the voice output device, and collecting the voice output characteristics from the voice output device from the voice transmission characteristics and the output voice data to cancel the voice output from the voice output device A device may be included.
  • the information communication apparatus of the present embodiment may include a recognition device that adjusts the notification sound of the electronic device that wants to recognize the notification sound so as not to be buried in the environmental sound.
  • the information communication apparatus holds in a database the data of the sound output from the electronic device (held electronic device) owned by the user and the owned electronic device and the position data of the owned electronic device.
  • a recognition device for adjusting the notification sound of the electronic device to be recognized may be included so that the voice to be output and the notification sound of the electronic device to be recognized can be easily distinguished.
  • the recognition device may further be a recognition device that adjusts the speech recognition process so as to easily distinguish between the sound output from the owned electronic device and the notification sound of the electronic device that wants to recognize the notification sound.
  • the positions of the operation terminal and the operator are close by using the operation state of the operation terminal, the sensor value of the physical sensor, the data link state, and the charge state.
  • a recognition device for recognizing whether or not it may be included.
  • the recognition device further uses an operation state of an electronic device that can be communicated from the operation terminal, a camera, a microphone, a human sensor, and position data of the electronic device held in a database. It may be a recognition device that recognizes the position of the user.
  • the recognition device further includes an electronic device (notification device) having a function capable of notifying the user by means such as screen display and voice output stored in the database as a result of recognition of the user position. It may be included in an information notification device that notifies a user of information using the notification device that can notify the user using position data.
  • an electronic device notification device having a function capable of notifying the user by means such as screen display and voice output stored in the database as a result of recognition of the user position. It may be included in an information notification device that notifies a user of information using the notification device that can notify the user using position data.
  • a push button method, a PIN input method, an NFC method, and the like are defined in WPS of a wireless LAN formulated by the Wi-Fi Alliance.
  • WPS Wi-Fi Alliance
  • the method of limiting time is not safe if there are malicious users within a close distance to some extent.
  • direct touch may be difficult or troublesome.
  • FIG. 64 is a diagram showing an example of the in-home environment in the present embodiment.
  • FIG. 65 is a diagram showing an example of communication between a home appliance and a smartphone in the present embodiment.
  • FIG. 66 is a diagram showing a configuration of a transmission side apparatus according to the present embodiment.
  • FIG. 67 is a diagram showing the configuration of the reception side apparatus according to the present embodiment. 64 to 67 are the same as FIGS. 1 to 4, and the detailed description will be omitted.
  • the indoor environment is considered to be an environment as shown in FIG. 64 that authenticates the tablet held by the user in the kitchen and the TV held in the living room. It is assumed that both terminals are terminals that can connect to a wireless LAN and that a WPS module is implemented.
  • FIG. 68 is a sequence diagram when the transmitting terminal (TV) performs wireless LAN authentication using optical communication with the receiving terminal (tablet) in FIG.
  • FIG. 68 will be described.
  • the transmitting side terminal as shown in FIG. 66 creates a random number (step 5001a). Then, it registers with the registrar of WPS (step 5001 b). Further, the light emitting element is caused to emit light according to the pattern of the random number registered in the registrar (Step 5001 c).
  • the reception side device activates the camera in the light authentication mode.
  • the light authentication mode is a mode in which it can be recognized that the light emitting element is illuminated for authentication, and refers to a moving image shooting mode capable of shooting along with the cycle on the light emitting side.
  • the user captures a light emitting element of the transmission side terminal (step 5001 d).
  • the receiving terminal receives a random number by photographing (step 5001 e).
  • the receiving side terminal receiving the random number inputs the random number as the PIN of WPS (step 5001 f).
  • the transmitting / receiving terminal in which both sides have shared the PIN performs an authentication process according to the definition of WPS (step 5001 g).
  • the transmitting terminal deletes the random number from the registrar, and does not accept authentication from a plurality of terminals (5001 h).
  • the present method is applicable not only to wireless LAN authentication but also to all wireless authentication methods using a shared key.
  • the present method is not limited to the wireless authentication method.
  • it is possible to adapt to authentication of an application installed on both the TV and the tablet.
  • FIG. 69 is a sequence diagram in the case of performing authentication by an application in the present embodiment. Hereinafter, FIG. 69 will be described.
  • the transmitting terminal creates a transmitting ID according to the state of the terminal (step 5002a).
  • the sender ID may be a random number or a key for encryption. Also, it may include the terminal ID (MAC address, IP address) of the transmitting side terminal. Subsequently, the transmitting terminal emits light according to the pattern of the transmitting ID (step 5002b).
  • the reception side apparatus receives the transmission side ID in the same procedure as in the case of wireless authentication (step 5002 f). Subsequently, when the reception side apparatus receives the transmission side ID, the reception side apparatus creates a reception side ID that can prove that the transmission side ID has been received (step 5002 g). For example, it may be the terminal ID of the receiving side terminal encrypted by the transmitting side ID. It may also include the process ID and password of the application running on the receiving terminal. Subsequently, the receiving terminal wirelessly broadcasts the receiving ID (step 5002 h). If the sender ID includes the terminal ID of the sender terminal, unicast may be performed.
  • the 5002c transmission side terminal that has received the reception side ID wirelessly performs authentication using the transmission side ID shared with the terminal that has sent the received reception side ID (step 5002 d).
  • FIG. 70 is a flow chart showing the operation of the transmitting side terminal in the present embodiment. Hereinafter, FIG. 70 will be described.
  • the transmitting terminal emits an ID according to the state of the terminal (step 5003a).
  • step 5003c it is checked whether there is a wireless response corresponding to the emitted ID (step 5003c). If there is a response (Yes in step 5003c), authentication processing is performed on the terminal that has made the response (step 5003d). If there is no response in step 5003c, the process waits for a timeout time (step 5003i), displays no response, and ends (step 5003j).
  • step 5003 e it is confirmed whether the authentication process is successful, and if the authentication process is successful (Yes in step 5003 e), if the emitted ID includes a command other than authentication (Yes in step 5003 f) ), Perform processing according to the command (step 5003 g).
  • step 5003e If the authentication fails in step 5003e, an authentication error is displayed (step 5003h), and the process ends.
  • FIG. 71 is a flowchart showing an operation of the receiving side terminal in the present embodiment. Hereinafter, FIG. 71 will be described.
  • the receiving terminal activates the camera in the light authentication mode (step 5004a).
  • step 5004b it is confirmed whether light can be received in a specific pattern (step 5004b), and if it can be confirmed (Yes in step 5004b), a receiver ID capable of proving that the transmitter ID has been received is created ( Step 5004 c). If the confirmation can not be made (No in step 5004b), the timeout time is waited (Yes in step 5004i), the timeout is displayed (step 5004j), and the process ends.
  • step 5004k it is checked whether the transmitting terminal includes the ID of the transmitting terminal (step 5004k). If it is included (Yes in step 5004k), the receiving ID is unicast to the terminal (step 5004) 5004d). On the other hand, when it is not included (No in step 5004k), broadcast is performed (step 5004l).
  • step 5004 e authentication processing is started from the transmitting terminal side (step 5004 e), and when the authentication processing is successful (Yes in step 5004 e), it is judged whether or not the received ID includes a command (step 5004 f) . If it is determined in step 5004 f that the information is included (YES in step 5004 f), processing according to the ID is performed (step 5004 g).
  • step 5004e If the authentication fails in step 5004e (No in step 5004e), an authentication error is displayed (step 5004h), and the process ends.
  • FIG. 72 is a sequence diagram in which the mobile AV terminal 1 transmits data to the mobile AV terminal 2 in the present embodiment. Specifically, FIG. 72 shows a sequence diagram of data transmission and reception using NFC and wireless LAN wireless communication. Hereinafter, FIG. 72 will be described.
  • the mobile AV terminal 1 first displays data to be transmitted to the mobile AV terminal 2 on the screen.
  • the mobile AV terminal 1 displays a confirmation screen as to whether or not to transmit data on the screen.
  • This confirmation screen may request the user to select “Yes / No” together with the text “Do you want to transmit data?” Or by touching the screen of the mobile AV terminal 1 again It may be an interface that starts data transmission.
  • the mobile AV terminal 1 and the mobile AV terminal 2 exchange information of data to be transmitted and information for establishing high-speed wireless communication by NFC.
  • Information on data to be transmitted may be performed by wireless LAN communication.
  • Information on establishment of wireless LAN communication may be a communication channel, SSID, encryption key information, or randomly generated ID information is exchanged to establish a secure communication path by this information. Also good.
  • the mobile AV terminal 1 and the mobile AV terminal 2 When the wireless LAN communication is established, the mobile AV terminal 1 and the mobile AV terminal 2 perform data communication by the wireless LAN communication, and transmit data to be transmitted of the mobile AV terminal 1 to the mobile AV terminal 2.
  • FIG. 73 is a screen transition diagram when the mobile AV terminal 1 transmits data to the mobile AV terminal 2 in the present embodiment.
  • FIG. 74 is a screen transition diagram when mobile AV terminal 1 transmits data to mobile AV terminal 2 in the present embodiment.
  • the user first activates an application for reproducing a moving image still image.
  • This application displays still image and video data in the mobile AV terminal 1.
  • NFC communication is performed by bringing the mobile AV terminal 1 and the mobile AV terminal 2 into quasi-contact.
  • This NFC communication is a process for starting exchange of still image and moving image data in the mobile AV terminal 1.
  • a confirmation screen as to whether data may be transmitted is displayed on the screen of the mobile AV terminal 1.
  • the confirmation screen may be an interface that allows the user to touch the screen to start data transmission, or may be an interface that allows the user to select whether data transmission is allowed or not by Yes / No.
  • Yes in the data transmission start determination that is, when the mobile AV terminal 1 transmits data to the mobile AV terminal 2, the mobile AV terminal 1 starts information on data exchanged with the mobile AV terminal 2 and high speed wireless communication by wireless LAN Send information about The information on the exchanged data may be performed using high-speed wireless communication.
  • the mobile AV terminal 1 and the mobile AV terminal 2 transmit and receive information related to the start of high-speed wireless communication by the wireless LAN
  • the mobile AV terminal 1 and the mobile AV terminal 2 perform processing for establishing a connection of wireless LAN communication.
  • This process includes what channel is used for communication, which is the parent terminal and which is the child terminal in the communication topology, password information, mutual exchange of SSID and terminal information, and the like.
  • the mobile AV terminal 1 and the mobile AV terminal 2 transmit data by wireless LAN communication.
  • the mobile AV terminal 1 displays the reproduction screen of the moving image as usual, and the mobile AV terminal 2 which is the data receiving side displays a screen indicating that the data is being received.
  • the mobile AV terminal 2 is receiving data, and by displaying a screen indicating that the data is being received on the screen so that the received data can be displayed immediately, it is possible to display the data received immediately upon completion of data reception. There is.
  • the mobile AV terminal 2 displays the received data on the screen.
  • FIGS. 75 to 77 are system schematic diagrams in the case where mobile AV terminal 1 in the present embodiment is a digital camera.
  • the present embodiment is applicable.
  • the mobile AV terminal 1 is a digital camera
  • a digital camera often has a means for accessing the Internet via a wireless LAN but does not have a means for accessing the Internet via mobile communication.
  • the digital camera transmits image data captured by a wireless LAN to the photo sharing service under an environment where wireless LAN communication can be performed.
  • data is first transmitted to the mobile AV terminal 2 using the wireless LAN, and the mobile AV terminal 2 is configured to transmit the received data as it is to the photo sharing service by mobile phone communication. Is desirable.
  • wireless LAN communication is faster than mobile phone communication, when wireless LAN communication is possible, it is possible to transmit photos to the photo sharing service at high speed by performing wireless LAN communication.
  • the mobile telephone communication network generally has a wider service area than the wireless LAN communication network, when there is no wireless LAN environment, data is transmitted to the photo sharing service by the mobile telephone communication by relaying the mobile AV terminal 2 With the ability to do that, it's possible to send photos to photo sharing services instantly in different places.
  • data can be exchanged using NFC communication and high-speed wireless communication.
  • each component may be configured by dedicated hardware or may be realized by executing a software program suitable for each component.
  • Each component may be realized by a program execution unit such as a CPU or a processor reading and executing a software program recorded in a recording medium such as a hard disk or a semiconductor memory.
  • An imaging element such as a CMOS sensor does not expose all pixels at one time, but performs exposure with a time difference for each line (exposure line) as shown in FIG. 78 to complete one captured image.
  • the imaging frame rate is determined depending on whether each exposure line projects the light of the light emitting unit as shown in FIG. It is possible to recognize how the light emitting unit blinks at a speed higher than.
  • the frame rate of imaging is 30 fps
  • the exposure time is set shorter than, for example, 10 milliseconds.
  • FIG. 79 shows a case where exposure of one exposure line is completed and then exposure of the next exposure line is started.
  • the information may be transmitted by transmitting information based on whether each exposure line receives light of a predetermined level or more.
  • the information can be transmitted at a rate of fl bits per second.
  • communication can be performed at higher speed when exposure is performed with a time difference for each pixel instead of for each line.
  • the transmission speed is at the maximum at flm bits per second.
  • the light emission time of the light emitting part is controlled by a unit time shorter than the exposure time of each exposure line. , Can transmit more information.
  • information can be transmitted at a rate of at most flElv bits per second.
  • the basic period of transmission can be recognized by causing the light emitting unit to emit light at a timing slightly shifted from the exposure timing of each exposure line.
  • FIG. 81 shows the case where the exposure of the next exposure line is started before the exposure of one exposure line is completed.
  • the exposure time is calculated from the brightness of each exposure line, and the light emission state of the light emitting unit is recognized.
  • the light emitting unit when the brightness of each exposure line is determined by the binary value of whether the luminance is equal to or more than the threshold value, the light emitting unit does not emit light in order to recognize the non-emitting state. It must continue for more than the exposure time.
  • the luminance of the light emitting unit at that time can not be observed.
  • the transmission loss due to blanking can be prevented by the light emitting unit repeatedly transmitting the same signal twice or more or adding an error correction code.
  • the light emitting unit transmits a signal at a cycle shorter than the cycle for capturing an image or shorter than the cycle for capturing an image.
  • the light emitting unit When visible light is used as the carrier wave, the light emitting unit is caused to emit light so as to keep the moving average value of the luminance of the light emitting unit constant when the time resolution of human vision (about 5 milliseconds to 20 milliseconds) is the window width.
  • the time resolution of human vision about 5 milliseconds to 20 milliseconds
  • the light emitting unit of the transmission device appears to emit light with uniform luminance to humans, and at the same time, the receiving device can observe the luminance change of the light emitting unit.
  • FIG. 84 There is a modulation method shown in FIG. 84 as a modulation method for causing the light emitting unit to emit light so as to keep the moving average value of the luminance of the light emitting unit constant when the time resolution of human vision is a window width.
  • the signal after modulation is 0, it does not emit light, and when it is 1, light is emitted, and if there is no bias in the transmission signal, the average value of the luminance of the light emitting part is about 50% of the luminance at the time of light emission.
  • modulation method shown in FIG. 85 As a modulation method that causes the light emitting unit to emit light so as to keep the moving average value of the luminance of the light emitting unit constant when the time resolution of human vision is a window width.
  • the signal after modulation is 0, it does not emit light, and when it is 1, light is emitted, and if there is no bias in the transmission signal, the average value of the luminance of the light emitting part is about 75% of the luminance at the time of light emission.
  • the encoding efficiency is equal to 0.5, but the average luminance can be increased.
  • FIG. 86 There is a modulation method shown in FIG. 86 as a modulation method for causing the light emitting unit to emit light so as to keep the moving average value of the luminance of the light emitting unit constant when the time resolution of human vision is a window width.
  • the signal after modulation is 0, it does not emit light, and when it is 1, light is emitted, and if there is no bias in the transmission signal, the average value of the luminance of the light emitting part is about 87.5% of the luminance at the time of light emission.
  • the coding efficiency is inferior to 0.375 as compared with the modulation scheme shown in FIGS. 84 and 85, the average luminance can be kept high.
  • modulation method shown in FIG. 87 is a modulation method that causes the light emitting unit to emit light so as to keep the moving average value of the luminance of the light emitting unit constant when the time resolution of human vision is a window width.
  • the signal after modulation When the signal after modulation is 0, it does not emit light, and when it is 1, light is emitted, and if there is no bias in the transmission signal, the average value of the luminance of the light emitting part is about 25% of the luminance at the time of light emission.
  • the light emitting unit can be made to appear to be blinking for a person or an imaging device having a long exposure time.
  • the modulation method it is possible for a human being or an imaging device having a long exposure time to make it appear that the light emitting unit emits light while performing any luminance change.
  • the light emitting unit When visible light is used as the carrier wave, the light emitting unit is caused to emit light so as to periodically change the moving average value of the luminance of the light emitting unit when the time resolution of human vision is the window width, as shown in FIG.
  • the receiver At the same time as the human being sees that the light emitting part of the light emitting device blinks or changes at an arbitrary rhythm, the receiver can observe the light emitting signal.
  • the same effect can be obtained by emitting light from the LED section of a liquid crystal TV using an LED light source as a backlight.
  • an LED light source as a backlight.
  • optical communication with a small error rate becomes possible.
  • the communication speed can be further increased if the entire screen or the screen portion used for communication is white.
  • the moving average value of the light emitting unit brightness is adjusted to the brightness of an image to be shown to a human when the time resolution of human vision is the window width.
  • the receiver can observe the light emission signal at the same time as a human being sees a television picture as usual.
  • the moving average value of the luminance of the light emitting unit when the window width is about the time per one frame of the captured image is adjusted to the value of the signal in the case of transmitting the signal for each imaging frame.
  • the image is taken from a short distance, the light emission state of the transmitter is observed for each exposure line, and when the image is taken from a long distance, the light emission state of the transmitter is observed for each imaging frame to obtain signals at two speeds. Propagation is possible.
  • FIG. 91 is a diagram showing how luminescence is observed at each exposure time.
  • the luminance of the imaged pixel is proportional to the average luminance of the imaging target during the time when the imaging device is exposed, so if the exposure time is short, the light emission pattern 2217a is observed as it is as 2217b, and if the exposure time is long, 2217c. , 2217d, and 2217e.
  • 2217a is a modulation scheme that repeatedly uses the modulation scheme shown in FIG. 85 in a fractal manner.
  • the reception device recognizes that 1 has been received if the luminance of the pixel at the estimated light emitting position is above a predetermined value or 0 if the luminance of a pixel at a predetermined light emission position is above a certain number of lines of the exposure line.
  • the transmitting apparatus may transmit different numbers when the same number continues in a fixed number.
  • a header part including 1 and 0 must be transmitted and a body part transmitting a signal may be transmitted separately. In this case, the same number does not appear in succession more than five times.
  • the image pickup device of the receiving apparatus When the light emitting unit is at a position where it does not appear in one of the exposure lines, or when blanking is present, it is not possible for the image pickup device of the receiving apparatus to capture all aspects of the light emitting unit.
  • FIG. 93 there is a method of collectively transmitting a data part and an address part indicating the position of data.
  • the length of the light emission pattern is the sum of the size of the data portion and the address portion so that the light emitting pattern is captured in one captured image by the receiving device. It is desirable to set short enough.
  • the transmitting device transmits the reference part and the data part, and the receiving device recognizes the position of data from the difference between the time when the reference part is received and the time.
  • the transmitting device transmits the reference portion, the address pattern portion and the data portion, and the receiving device obtains the pattern of the data of the data portion and its position from the address pattern portion next to the reference portion.
  • the light emission pattern of the header portion a pattern which does not appear in the address portion or the data portion is used.
  • the light emission pattern of the header portion can be set to “0011”.
  • the pattern of the header portion is "11110011"
  • the average luminance is equal to that of the other portions, and it is possible to suppress flicker when viewed by human eyes. Since this header part has high redundancy, it is possible to superimpose information here. For example, when the pattern of the header portion is “11101111”, it is possible to indicate that the content to be communicated between transmitting devices is being transmitted.
  • the light emitting pattern is a combination of the data portion, the address portion, and the header portion so that the light emitting pattern is captured in one captured image by the receiving device. It is desirable to set the length of the short enough.
  • the transmitting apparatus determines the transmission order of information according to the priority.
  • the number of transmissions is made proportional to the priority.
  • the reception device can not receive signals continuously when the light emitting unit of the transmission device is not fully captured in the imaging unit of the reception device or when there is blanking, so the higher the frequency of transmission, the easier it is for reception.
  • FIG. 98 shows a pattern in which a plurality of nearby transmitters tune and transmit information.
  • the transmitting device transmits the individual information in a time zone where the light emitting unit of the nearby transmitting device emits uniform light (the signal is not transmitted) so as not to be confused with the light emission pattern of the nearby transmitting device.
  • the transmission device may learn the light emission pattern of the transmission device present nearby by determining the light emission pattern of the transmission device present nearby by receiving the light emission pattern of the transmission signal present present nearby by the light receiving unit. In addition, the transmission device may determine its own emission pattern in accordance with an instruction of another transmission device by receiving a light emission pattern of a transmission signal existing nearby by the light receiving unit. Also, the transmission device may determine the light emission pattern according to the command of the central control device.
  • Detection of light emitting part As a method of determining which part of the captured image the light emitting part is captured in, as shown in FIG. 99, the number of lines in which the light emitting part is captured is counted in the direction perpendicular to the exposure line There is a method of making the selected row the row in which the light emitting parts exist.
  • the part near the end of the light emitting part has fluctuation in the degree of light reception, and it is easy to misjudge whether the light emitting part is imaged or not. Take the signal from the result.
  • the middle point of the part obtained by capturing the light emitting part for each exposure line is determined Or, there is a method of estimating that the light emitting part exists on the quadratic curve).
  • the estimated position of the light emitting unit in the previous frame may be a priori probability, and the estimated position of the light emitting unit may be updated from the information of the current frame.
  • the current estimated position of the light emitting unit may be updated from the values of the acceleration sensor and the gyro sensor during this period.
  • images such as imaged images 2212c, 2212d, and 2212e are imaged.
  • a composite image 2212 f is obtained, and the position of the light emitting unit in the captured image can be specified.
  • the receiving device detects on / off of light emission of the light emitting unit from the position of the specified light emitting unit.
  • the probability that the light emitting portion in the composite image 2212 f is seen to emit light when the sum of n images is calculated is 1 ⁇ It is 0.25 n .
  • this probability is approximately 0.984.
  • the attitude of the imaging unit is estimated from the sensor values of the gyro sensor, the acceleration sensor, and the magnetic sensor, the direction of the imaging is compensated, and the image is synthesized more accurately.
  • the imaging time is short, and thus no adverse effect is small even if the imaging direction is not compensated.
  • FIG. 103 is a diagram illustrating a case where the reception device captures a plurality of light emitting units.
  • FIG. 104 shows a timeline of the transmission signal at this time and an image obtained by capturing the light emitting unit.
  • the light emitting units 2216a, 2216c, and 2216e emit light uniformly, and the light emitting units 2216b, 2216d, and 2216f transmit signals according to light emission patterns. Note that the light emitting units 2216 b, 2216 d, and 2216 f may simply emit light so as to appear as a striped pattern if the receiving device captures an image for each exposure line.
  • the light emitting units 2216 a to 2216 f may be the light emitting units of the same transmitting device or separate transmitting devices.
  • the transmitting device expresses the signal to be transmitted by the position pattern (position pattern) of the light emitting unit transmitting the signal and the position of the light emitting unit not transmitting.
  • the transmitting device may transmit a signal according to a position pattern in a part of time zone and may transmit a signal in a light emission pattern in another time zone. For example, in some time zones, it is possible to tune all the light emitting units and transmit the ID and position information of the transmission device in the light emission pattern.
  • the receiving device is the ID and position information of the transmitting device transmitted by the transmitting device by the light emission pattern, the estimated position of the receiving device by the wireless base station, and the receiving device estimated by GPS, gyro sensor, acceleration sensor, or magnetic sensor.
  • the position information is the ID and position information of the transmitting device transmitted by the transmitting device by the light emission pattern, the estimated position of the receiving device by the wireless base station, and the receiving device estimated by GPS, gyro sensor, acceleration sensor, or magnetic sensor.
  • the signal represented by the position pattern does not need to be unique all over the world, and it is preferable that the same position pattern does not exist near (a few meters to 300 meters in radius), and the transmitter has few light emitting parts. Can solve the problem that the number of position patterns that can be expressed is small.
  • the size, shape, and position information of the light emitting unit can be acquired from the server, and the position of the receiving apparatus can be estimated from the information, the size and shape of the captured position pattern, and the lens characteristics of the imaging unit.
  • a mobile phone As a communication device mainly performing reception, as shown in FIG. 106, a mobile phone, a digital still camera, a digital video camera, a head mounted display, a robot (for cleaning, care, industrial, etc.), a surveillance camera, etc. can be considered. .
  • the receiving device is not limited to these.
  • the receiving device is a communication device that mainly receives a signal, and may transmit a signal according to the scheme of this embodiment or another scheme.
  • Lighting for home, for stores, for offices, for underground malls, for streets, etc.
  • flashlights home appliances, robots, and other electronic devices
  • the transmitter is not limited to these.
  • the transmission device is a communication device that mainly transmits a signal, and may receive a signal according to the method of this embodiment or another method.
  • the light emitting portion As the light emitting portion, as shown in FIG. 108, it is desirable that the light emitting / non-light emitting switching has a high speed, such as LED lighting and liquid crystal using an LED backlight.
  • the light emitting unit is not limited to these.
  • the light emitting unit may be illuminated with a fluorescent lamp, an incandescent lamp, a mercury lamp, or an organic EL display.
  • the transmitting apparatus may include a plurality of light emitting units that emit light synchronously as shown in FIG.
  • the light emitting units since the transmission efficiency is higher as the image is captured in the direction perpendicular to the exposure line of the imaging device, the light emitting units may be arranged in a line.
  • the light emitting units when the receiving apparatus is held naturally, may be arranged vertically to the exposure line.
  • the light emitting unit when it is expected that imaging is performed from a plurality of directions, as shown in FIG. 110, the light emitting unit may be arranged in a cross shape. Further, when it is expected that imaging is performed from a plurality of directions, as shown in FIG.
  • a circular light emitting unit may be used, or the light emitting units may be arranged in a circular shape.
  • the transmission apparatus may cover the light emitting unit with a light diffusion plate as shown in FIG.
  • the light emitting units that transmit different signals are separated by a distance so as not to be imaged simultaneously.
  • the light emitting units that transmit different signals have light emitting units that do not transmit signals between them so as not to be imaged simultaneously.
  • FIG. 115 is a diagram illustrating a desirable structure of the light emitting unit.
  • the light (electromagnetic wave) that carries the signal uses light (electromagnetic wave) in the near infrared band to visible light band to the near ultraviolet band frequency band shown in FIG. 116 that can be received by the receiving device.
  • Imaging unit In FIG. 117, the imaging unit of the receiving apparatus detects a light emitting unit 2310 b emitting pattern light in an imaging range 2310 a.
  • the imaging control unit acquires the captured image 2310 d by repeatedly using the exposure line 2310 c at the center position of the light emitting unit instead of using another exposure line.
  • the captured image 2310d is an image of the same place with different exposure times.
  • the light emission pattern of the light emitting unit can be observed by scanning the pixel in which the light emitting unit of the captured image 2310 d is taken in the direction perpendicular to the exposure line.
  • the signal can be read even when the light emitting unit or the light emitting unit is imaged from a distance.
  • this method makes it possible to observe all changes in luminance of the light emitting unit as long as the light emitting unit is visible even in a part of the imaging apparatus.
  • the same effect can be obtained by imaging using multiple exposure lines at the center of the light emitting part.
  • imaging is performed using only a point closest to the center of the light emitting unit or only a plurality of points in the vicinity thereof. At this time, by shifting the exposure start time of each pixel, it is possible to detect the light emission state of the light emitting unit with a finer cycle.
  • a sensor value such as a gyro sensor, an acceleration sensor, or a magnetic sensor
  • an image captured by an imaging device other than the imaging device capturing an image of the light-emitting unit for correction of camera shake. You can also.
  • the part closer to the center of the light emitting part is preferably used as the exposure line or the exposure pixel, since the light emitting part is less likely to come off the exposure line or the exposure pixel when the camera shakes when closer to the center than the end of the light emitting part.
  • the peripheral portion of the light emitting portion be as far as possible from the periphery of the light emitting portion and have a portion with high luminance be an exposure line or an exposure pixel.
  • the transmitting device transmits the installed position information, the size of the light emitting device, the shape of the light emitting device, and the ID of the transmitting device.
  • the position information includes the latitude, longitude, altitude, height from the floor surface, and the like of the central portion of the light emitting device.
  • the receiving device estimates the imaging direction based on the information obtained from the magnetic sensor, the gyro sensor, and the acceleration sensor.
  • the receiving device estimates the distance from the receiving device to the light emitting device from the size and shape of the light emitting device transmitted from the transmitting device, the size and the shape of the light emitting device in the captured image, and the information of the imaging device.
  • the information of the imaging device includes the focal length of the lens, the distortion of the lens, the size of the imaging device, the distance between the lens and the imaging device, the size in the captured image of the object of the reference size, and the imaging device A comparison table of the distance to the imaging object is included.
  • the receiving device estimates the positional information of the receiving device from the information transmitted from the transmitting device, the imaging direction, and the distance from the receiving device to the light emitting device.
  • the transmitting device transmits the position information where the transmitting device is installed, the size of the light emitting unit, the shape of the light emitting unit, and the ID of the transmitting device.
  • the position information includes the latitude, longitude, altitude, height from the floor surface, and the like of the central portion of the light emitting unit.
  • the receiving device estimates the imaging direction based on the information obtained from the magnetic sensor, the gyro sensor, and the acceleration sensor.
  • the receiving device estimates the distance from the receiving device to the light emitting unit from the size and shape of the light emitting unit transmitted from the transmitting device, the size and shape of the light emitting unit in the captured image, and the information of the imaging device.
  • the information of the imaging device includes the focal length of the lens, the distortion of the lens, the size of the imaging device, the distance between the lens and the imaging device, the size in the captured image of the object of the reference size, and the imaging device A comparison table of the distance to the imaging object is included.
  • the receiving device estimates the positional information of the receiving device from the information transmitted from the transmitting device, the imaging direction, and the distance from the receiving device to the light emitting unit.
  • the receiving device estimates the moving direction and the moving distance based on the information obtained from the magnetic sensor, the gyro sensor, and the acceleration sensor.
  • the receiver estimates the position information of the receiver using the position information estimated at a plurality of points and the positional relationship between the points estimated from the movement direction and the movement distance.
  • point Random field of the position information of the receiver estimated by point From point to The random field of the movement direction and movement distance estimated when moving to Then the random field of the position information finally estimated is It can be calculated.
  • the transmitting device may transmit the position information of its own and the ID of the transmitting device.
  • the position information includes the latitude, longitude, altitude, height from the floor surface, and the like of the central portion of the light emitting device.
  • the receiving device estimates the imaging direction based on the information obtained from the magnetic sensor, the gyro sensor, and the acceleration sensor.
  • the receiving device estimates positional information of the receiving device by a three-point survey method.
  • the transmitting device transmits the ID of the transmitting device.
  • the receiving device receives the ID of the transmitting device, and obtains the location information of the transmitting device from the Internet, the size of the light emitting device, the shape of the light emitting device, and the like.
  • the position information includes the latitude, longitude, altitude, height from the floor surface, and the like of the central portion of the light emitting device.
  • the receiving device estimates the imaging direction based on the information obtained from the magnetic sensor, the gyro sensor, and the acceleration sensor.
  • the receiving device estimates the distance from the receiving device to the light emitting device from the size and shape of the light emitting device transmitted from the transmitting device, the size and the shape of the light emitting device in the captured image, and the information of the imaging device.
  • the information of the imaging device includes the focal length of the lens, the distortion of the lens, the size of the imaging device, the distance between the lens and the imaging device, the size in the captured image of the object of the reference size, and the imaging device A comparison table of the distance to the imaging object is included.
  • the receiving device estimates the position information of the receiving device from the information obtained from the Internet, the imaging direction, and the distance from the receiving device to the light emitting device.
  • the transmitting device transmits the position information of its own and the ID of the transmitting device.
  • the position information includes the latitude, longitude, altitude, height from the floor surface, and the like of the central portion of the light emitting device.
  • the receiving device estimates the imaging direction based on the information obtained from the magnetic sensor, the gyro sensor, and the acceleration sensor.
  • the receiving device estimates positional information of the receiving device by a triangulation method.
  • the transmitting device transmits the position information of its own and the ID of the transmitting device.
  • the position information includes the latitude, longitude, altitude, height from the floor surface, and the like of the central portion of the light emitting device.
  • the receiving device estimates the imaging direction based on the information obtained from the magnetic sensor, the gyro sensor, and the acceleration sensor.
  • the receiving device estimates positional information of the receiving device by a triangulation method.
  • the receiving device estimates a posture change or movement of the receiving device from a gyro sensor, an acceleration sensor, or a magnetic sensor. Note that the receiving device may simultaneously perform zero adjustment and calibration of the magnetic sensor.
  • the reception device 2606c estimates the distance and direction of movement from changes in the captured image and sensor values of a magnetic sensor, an acceleration sensor, and a gyro sensor.
  • the receiving device captures an image of the light receiving unit of the transmitting device 2606a, estimates the center position of the light emitting unit, and transmits the position to the transmitting device.
  • the transmitting device should transmit the size information of the light emitting unit even if part of the information to be transmitted is missing. desirable. If the size of the light emitting unit is not known, the height of the ceiling is estimated from the distance between the transmitter 2606b and the receiver 2606c used for position estimation by the receiver, and the transmitter 2606a is used by using the result. And the distance between the receiver 2606c and the receiver 2606c.
  • the transmission may be transmission by a light emission pattern, transmission by a sound pattern, or a transmission method by a radio wave.
  • the light emission pattern of the transmission device and its time may be stored, and may be transmitted to the transmission device or the central control device later.
  • the transmitting device or the central control device specifies the transmitting device that the receiving device was imaging from the light emission pattern and its time, and stores the position information in the transmitting device.
  • the receiving device calculates the positional relationship from the position set point to the center of the light emitting unit of the transmitting device, and transmits the position obtained by adding the positional relationship to the position to be set to the transmitting device.
  • the reception device receives the transmitted signal by imaging the transmission device. It communicates with a server or an electronic device based on the received signal.
  • the receiving device acquires information of the transmitting device, the position / size of the transmitting device, service information related to the position, and the like from the server using the ID of the transmitting device included in the signal as a key.
  • the receiving device estimates the position of the receiving device from the position of the transmitting device included in the signal, and acquires map information, service information related to the position, and the like from the server.
  • the receiving device acquires the modulation scheme of the nearby transmitting device from the server using the current rough position as a key.
  • the receiving device may use the ID of the transmitting device included in the signal as a key to the server, position information of the receiving device or the transmitting device, nearby information, and information of processing performed by the receiving device in the vicinity. Register on
  • the receiving device operates the electronic device using the ID of the transmitting device included in the signal as a key.
  • FIG. 126 is a block diagram showing a receiving apparatus.
  • the receiving apparatus is configured by the whole or a part including an imaging unit and a signal analysis unit. Note that blocks having the same name in FIG. 126 may be the same as or different from each other.
  • the receiver device 2400af in a narrow sense is provided in a smartphone, a digital camera, or the like.
  • the input unit 2400 h includes all or part of the user operation input unit 2400 i, the illuminance sensor 2400 j, the microphone 2400 k, the timing unit 2400 n, the position estimation unit 2400 m, and the communication unit 2400 p.
  • the imaging unit 2400a includes all or part of the lens 2400b, the imaging device 2400c, the focus control unit 2400d, the imaging control unit 2400e, the signal detection unit 2400f, and the imaging information storage unit 2400g.
  • the imaging unit 2400a may be operated by the user, a change in illuminance, a sound or voice pattern, that a specific time has come, that the receiving apparatus has moved to a specific location, or the communication unit.
  • the imaging device is started to start imaging.
  • the focus control unit 2400d performs control such as focusing on the light emitting unit 2400ae of the transmission apparatus or focusing so that the light emitting unit 2400ae of the transmission apparatus may be largely projected.
  • the exposure control unit 2400ak sets an exposure time and an exposure gain.
  • the imaging control unit 2400e limits the position to be imaged to a specific pixel.
  • the signal detection unit 2400 f detects, from the captured image, pixels in which the light emitting unit 2400 ae of the transmission device is included and pixels in which signal transmission by light emission is included.
  • the imaging information storage unit 2400g stores control information of the focus control unit 2400d, control information of the imaging control unit 2400e, and information detected by the signal detection unit 2400f. When there are a plurality of imaging devices, imaging may be performed simultaneously, and one may be used to estimate the position and orientation of the receiving device.
  • the light emission control unit 2400 ad transmits a signal by controlling the light emission pattern of the light emitting unit 2400 ae based on an input from the input unit 2400 h.
  • the light emission control unit 2400 ad acquires the time when the light emitting unit 2400 ae emits light from the time measuring unit 2400 ac and records the time.
  • the captured image storage unit 2400 w stores the image captured by the imaging unit 2400 a.
  • the signal analysis unit 2400y Get the transmitted signal.
  • the received signal storage unit 2400 z stores the signal analyzed by the signal analysis unit 2400 y.
  • the sensor unit 2400 q includes all or part of the GPS 2400 r, the magnetic sensor 2400 t, the acceleration sensor 2400 s, and the gyro sensor 2400 u.
  • the position estimation unit estimates the position and orientation of the receiving device from the information from the sensor unit, the captured image, and the received signal.
  • Arithmetic unit 2400 aa displays on the display unit 2400 ab the received signal, the estimated position of the receiver, and information obtained from the network 2400 ah based on these (information related to a map or a place, information related to a transmitter, etc.)
  • the arithmetic unit 2400 aa controls the transmission device based on the received signal and the information input to the input unit 2400 h from the estimated position of the reception device.
  • the terminals communicate with each other without passing through the network 2400ah.
  • a peer-to-peer connection method blue or the like
  • the electronic device 2400 aj is controlled by the receiving device.
  • the server 2400 ai stores the information of the transmission device, the position of the transmission device, and the information related to the position of the transmission device in association with the ID of the transmission device.
  • the server 2400 ai stores the modulation scheme of the transmission device in association with the position.
  • FIG. 127 is a block diagram of a transmitter.
  • the transmission apparatus is configured by the whole of the configuration diagram or a part including the light emitting unit, the transmission signal storage unit, the modulation scheme storage unit, and the operation unit.
  • the transmitter 2401ab in a narrow sense is provided in a light, an electronic device, or a robot.
  • the lighting control switch 2401 n is a switch that switches on and off of lighting.
  • the light diffusion plate 2401p is a member attached near the light emitting unit 2401q in order to diffuse light of the light emitting unit 2401q.
  • the light emitting unit 2401 q performs lighting and extinguishing at a speed at which a light emission pattern is detected for each line, using the difference in exposure time for each line of the imaging device of the receiving device in FIG. 126.
  • the light emitting unit 2401 q is configured by a light source such as an LED or a fluorescent lamp that can be turned on and off at high speed.
  • the light emission control unit 2401 r controls lighting and extinguishing of the light emitting unit 2401 q.
  • the light receiving unit 2401 s is configured of a light receiving element or an imaging element.
  • the light receiving unit 2401 s converts the intensity of the received light into an electric signal.
  • an imaging unit may be used instead of the light receiving unit 2401s.
  • the signal analysis unit 2401 t acquires a signal from the pattern of light received by the light receiving unit 2401 s.
  • the operation unit 2401 u converts the transmission signal stored in the transmission signal storage unit 2401 d into a light emission pattern according to the modulation scheme stored in the modulation scheme storage unit 2401 e.
  • the arithmetic unit 2401 u controls communication by editing information in the storage unit 2401 a or controlling the light emission control unit 2401 r based on the signal obtained from the signal analysis unit 2401 t.
  • the calculation unit 2401 u controls communication by editing information in the storage unit 2401 a or controlling the light emission control unit 2401 r based on a signal from the attachment unit 2401 w.
  • the calculation unit 2401 u controls the light emission control unit 2401 r such as editing information in the storage unit 2401 a based on a signal from the communication unit 2401 v.
  • calculation unit 2401 u edits the information of the storage unit 2401 b of the attachment device 2401 h.
  • the calculation unit 2401 u copies the information of the storage unit 2401 b of the attachment device 2401 h to the storage unit 2401 a.
  • the arithmetic unit 2401 u controls the light emission control unit 2401 r at a predetermined time.
  • the arithmetic unit 2401 u controls the electronic device 2401 zz via the network 2401 aa.
  • the storage unit 2401a includes all or part of a transmission signal storage unit 2401d, a shape storage unit 2401f, a modulation scheme storage unit 2401e, and a device state storage unit 2401g.
  • the transmission signal storage unit 2401 d stores a signal to be transmitted from the light emitting unit 2401 q.
  • the modulation scheme storage unit 2401 e stores a modulation scheme for converting a transmission signal into a light emission pattern.
  • the shape storage unit 2401 f stores the shapes of the transmission device and the light emitting unit 2401 q.
  • the device state storage unit 2401 g stores the state of the transmission device.
  • the mounting portion 2401 w is configured of a mounting bracket or a power supply port.
  • the storage unit 2401 b of the attachment device 2401 h stores information to be stored in the storage unit 2401 a.
  • the storage unit 2401a is not provided, and the storage unit 2401b of the attachment device 2401h or the storage unit 2401c of the central control device 2401m may be used.
  • the terminals communicate with each other without passing through the network 2401 aa.
  • a peer-to-peer connection method blue or the like
  • the server 2401 y stores the information of the transmission device, the position of the transmission device, and the information related to the position of the transmission device in association with the ID of the transmission device. In addition, the server 2401 y stores the modulation scheme of the transmission device in association with the position.
  • step 2800a it is checked if there are multiple imaging devices in the receiving device. In the case of No, the processing proceeds to step 2800 b, the imaging device to be used is selected, and the processing proceeds to step 2800 c. On the other hand, in the case of Yes, the process proceeds to step 2800c.
  • step 2800d the exposure gain is set.
  • step 2800 e imaging is performed.
  • step 2800 f for each exposure line, a portion in which a predetermined number or more of pixels having a luminance exceeding a predetermined threshold continue is determined, and the center position of the portion is determined.
  • step 2800 g a linear or quadratic approximate line connecting the above center positions is calculated.
  • step 2800h the luminance value of the pixel on the approximation line of each exposure line is set as the signal value of each exposure line.
  • the assigned time per exposure line is calculated from imaging information configured by imaging frame rate, resolution, blanking time, and the like.
  • step 2800j if the blanking time is less than a predetermined time, it is considered that the exposure line following the last exposure line of a certain imaging frame is the first exposure line of the next frame. Otherwise, between the last exposure line of one imaging frame and the first exposure line of the next frame, the number of unobservable exposure lines obtained by dividing the blanking time by the charge time per one exposure line It considers it to exist.
  • step 2800k the reference position pattern and the address pattern are read from the decode information.
  • step 2800 m a pattern indicating the reference position of the signal is detected from the signal value of each exposure line.
  • step 2800 n the data part and the address part are calculated based on the detected reference position.
  • step 2800p a transmission signal is obtained.
  • step 2801a the probability map of the position recognized as the current position of the receiving apparatus or the probability map of the current position is used as the advance information of the self position.
  • step 2801 b the imaging unit of the receiving apparatus is directed to the light emitting unit of the transmitting apparatus.
  • step 2801 c the azimuth and elevation angle to which the imaging device is directed are calculated from the sensor values of the acceleration sensor, the gyro sensor, and the magnetic sensor.
  • step 2801 d the light emission pattern is imaged to obtain a transmission signal.
  • step 2801e the distance between the imaging device and the light emitting portion is calculated from the information on the size and shape of the light emitting portion included in the transmission signal, the size of the light emitting portion captured, and the imaging magnification of the imaging device. Do.
  • step 2801 f the relative angle between the direction from the imaging unit to the light emitting unit and the normal to the imaging surface is calculated from the position of the light emitting unit in the captured image and the lens characteristics.
  • step 2801 g the relative positional relationship between the imaging device and the light emitting unit is calculated from the numerical values calculated so far.
  • the position of the receiving device is calculated from the position of the light emitting unit included in the transmission signal and the relative positional relationship between the imaging device and the light emitting unit.
  • the position of the reception device can be calculated with high accuracy by calculating the coordinates of the imaging device from the signal included in each transmission device.
  • a triangulation method can be used.
  • step 2801i the probability map of the current position or the current position of the receiving device is updated from the advance information of the self position and the calculation result of the position of the receiving device.
  • step 2801 j the imaging apparatus is moved.
  • step 2801k the direction and distance of movement are calculated from the sensor values of the acceleration sensor, the gyro sensor, and the magnetic sensor.
  • step 2801 m the direction and distance of movement are calculated from the captured image and the attitude of the imaging device, and the process returns to step 2801 a.
  • step 2802a the user presses a button.
  • step 2802b the light emitting unit is made to emit light.
  • the signal may be represented by a light emission pattern.
  • step 2802c the light emission start time, the end time, and the time when a specific pattern is transmitted are recorded.
  • step 2802 d an image is captured by the imaging device.
  • step 2802e the light emission pattern of the transmission device present in the captured image is imaged, and the transmitted signal is acquired. Note that the light emission pattern may be analyzed synchronously using the recorded time. And it ends.
  • the light receiving device receives light or the image pickup device picks up an image.
  • step 2803b it is checked whether it is a specific pattern.
  • step 2803a the process returns to step 2803a.
  • step 2803c the start time at which the reception pattern is received or imaged, the end time, and the time at which the specific pattern appears are recorded.
  • step 2803d the transmission signal is read from the storage unit and converted into a light emission pattern.
  • step 2803e the light emitting unit is caused to emit light according to the light emission pattern, and the process is ended.
  • the light may be emitted after a predetermined time has elapsed from the recorded time, and the process may end.
  • step 2804a light is received by the light receiving device, and the received light energy is converted into electricity and stored.
  • step 2804 b it is checked whether the stored energy has reached a predetermined level or more.
  • step 2804a the process returns to step 2804a.
  • step 2804c the received light is analyzed, and the time when the specific pattern appears is recorded.
  • step 2804 d the transmission signal is read from the storage unit and converted into a light emission pattern.
  • step 2804 e the light emitting unit is caused to emit light according to the light emission pattern, and the process ends.
  • the light may be emitted after a predetermined time has elapsed from the recorded time, and the process may end.
  • FIG. 133 is a diagram for explaining a situation in which information provision is received in a station yard.
  • the reception device 2700a captures the illumination installed in the station facility and reads the light emission pattern and the position pattern to receive the information transmitted by the illumination device.
  • the receiving device 2700a acquires information on illumination and facilities from the server based on the received information, and further estimates the current position of the receiving device 2700a from the size and shape of the captured illumination.
  • the receiving device 2700a displays information obtained based on the facility ID and the position information (2700b).
  • the receiving device 2700a downloads the map of the facility based on the facility ID, and navigates to the boarding place from the ticket information purchased by the user (2700c).
  • FIG. 133 shows an example at a railway station, the same applies to facilities such as an airport, a port and a bus stop.
  • FIG. 134 is a view showing a state of use in a vehicle.
  • the reception device 2704a possessed by the passenger and the reception device 2704b possessed by the salesperson receive the signal transmitted by the illumination 2704e, and estimate their own current position.
  • Each receiving device may acquire information necessary for self-position estimation from the illumination 2704e, or may acquire information transmitted from the illumination 2704e from the server using a key, or the boarding station or ticket gate It may be acquired in advance based on position information and the like.
  • the receiving device 2704a may recognize that the current position is within the vehicle from the boarding time information of the ticket purchased by the user (passenger) and the current time, and may download the information associated with the vehicle. .
  • Each receiver notifies the server of its current position.
  • the reception device 2704a notifies the server of the user (passenger) ID, the ID of the reception device, and the information of the ticket purchased by the user (passenger), so that the server allows the person sitting in the seat to get in Confirm that you are the person with the reserved seat right.
  • the reception device 2704a displays the current position of the salesperson, so that the user (passenger) can consider the purchase timing of in-vehicle sales.
  • the reception device 2704a When the passenger places an order for in-vehicle sales via the reception device 2704a, the reception device 2704a notifies the salesperson's reception device 2704b or the server of the position, the order content, and the charging information of itself.
  • the sales clerk reception device 2704 b displays a map 2704 d indicating the position of the orderer.
  • the passenger can also purchase a designated seat ticket and a connecting ticket via the reception device 2704a.
  • the receiver 2704a displays the vacant seat information 2704c.
  • the reception device 2704a notifies the server of purchase information and charge information of the designated seat ticket and the connecting ticket from the boarding section information of the ticket purchased by the user (passenger) and the current position of the user.
  • FIG. 134 shows an example in a railway, the same applies to airplanes, ships, and vehicles such as bus stops.
  • FIG. 135 is a diagram showing a state of use in a store.
  • the reception devices 2707b, 2707c, and 2707d receive the signal transmitted by the illumination 2707a, estimate their own current position, and notify the server.
  • Each receiving device may acquire the information necessary for self-position estimation and the address of the server from the illumination 2707a, or may acquire the information transmitted from the illumination 2707a from another server using a key. , May be obtained from the accounting system.
  • the accounting system associates the accounting information with the receiving device 2707d, displays the current position of the receiving device 2707d (2707c), and delivers the ordered item.
  • the receiving device 2707 b displays the product information based on the information transmitted from the illumination 2707 a.
  • the receiving device 2707b notifies the server of the product information, the charging information, and the current position.
  • the seller can deliver the ordered product based on the position information of the reception device 2707b, and the purchaser can purchase the product while sitting at a seat.
  • FIG. 136 is a diagram showing a state in which a certificate of wireless connection is communicated and wireless connection is established.
  • the electronic device (digital camera) 2701 b operates as an access point for wireless connection, and transmits an ID and a password as light emission patterns as information necessary for the connection.
  • the electronic device (smartphone) 2701a acquires transmission information from the light emission pattern, and establishes a wireless connection.
  • connection to be established may be a wired connection network.
  • Communication between the two electronic devices may be performed via the third electronic device.
  • FIG. 137 is a diagram showing the range of communication based on the light emission pattern and the position pattern.
  • the radio waves In the communication method using radio waves, the radio waves reach the next room separated by the wall, and it is difficult to limit the communication range.
  • FIG. 138 is a diagram showing a state of indoor use in an underground mall or the like.
  • the receiver 2706a receives the signal transmitted by the light 2706b, and estimates its current position. In addition, the reception device 2706a displays the current position on the map to perform route guidance, and displays information on nearby stores.
  • the communication In an emergency, by transmitting disaster information and evacuation information from the lighting 2706b, the communication is congested, the communication base station fails, or the radio wave from the communication base station does not reach. You can also get these information. This is effective for hearing-impaired persons who can not listen to the emergency broadcast or can not listen to the emergency broadcast.
  • FIG. 139 is a diagram showing a state of outdoor use such as a street.
  • the receiving device 2705a receives the signal transmitted by the streetlight 2705b, and estimates its own current position. In addition, the reception device 2705a displays the current position on a map to perform route guidance, and displays information on nearby stores.
  • displaying movements of other vehicles or pedestrians on a map or notifying a user that there are vehicles or pedestrians approaching can help prevent an accident.
  • FIG. 140 is a diagram showing a state of direction indication.
  • the reception device 2703e can download a map in the vicinity, or estimate its own position with an accuracy of 1 cm to several tens of cm.
  • Knowing the exact position of the reception device 2703e enables automatic driving of the wheelchair 2703d and safe passage of blind people.
  • the receiving device in FIG. 141 includes an in-camera 2710 a, a touch panel 2710 b, a button 2710 c, an out-camera 2710 d, and a flash 2710 e.
  • the camera shake can be corrected by estimating the movement and posture of the reception device from the image taken by the in-camera.
  • the in-camera By receiving signals from other transmitting devices by the in-camera, it is possible to simultaneously receive signals from a plurality of devices or to improve the accuracy of self-position estimation of the receiving device.
  • the transmitting device 1 receives light emission of the light emitting unit of the transmitting device 2 by the light receiving unit, and acquires the signal transmitted by the transmitting device 2 and the timing of transmission.
  • the light emission is performed in the same pattern in synchronization with the light emission of the transmission device 2 to transmit the signal.
  • the common part with the transmission signal of the transmission device 2 is synchronized with the light emission of the transmission device 2 and emits light with the same pattern .
  • the part which is not common transmits at the time when the transmitter 2 is not transmitting a signal. If there is no time when the transmitter 2 does not transmit a signal, the cycle is appropriately determined, and the non-common part is transmitted according to the cycle. In this case, the transmitter 2 receives the light emission of the transmitter 1 by the light receiving unit, detects that different signals are transmitted at the same time, and is not common at the time when the transmitter 1 does not transmit a signal Send part of the signal.
  • CSMA / CD Carrier Sense Multiple Access with Collision Detection
  • the transmission device 1 causes the light emitting unit to emit light using its own information as a light emission pattern.
  • the transmitting device 2 acquires the information of the transmitting device 1 from the light receiving unit.
  • a transmitting device creates an arrangement map of transmitting devices by exchanging information with each other by communicable transmitting devices.
  • the transmission device obtains an optimum light emission pattern as a whole so that signal transmission by light emission does not collide.
  • the transmission device acquires information obtained by another transmission device by communication between the transmission devices.
  • the transmission device transmits the information stored in the storage unit of the attachment device when the transmission device is attached to the attachment device or when the information stored in the storage unit of the attachment device is changed. Store in the storage unit of the device.
  • the information stored in the storage unit of the attachment device or the transmission device includes the transmission signal and the timing of transmission.
  • the transmission device stores the information in the storage unit of the attachment device.
  • Information in the storage unit of the attachment device and the storage unit of the transmission device is edited from the central control unit and the switchboard. Power line communication is used for operation from the switchboard.
  • the shape storage unit of the transmission device stores the positional relationship between the attachment portion of the transmission device and the center position of the light emission unit.
  • the transmitting device When transmitting the position information, transmits the position information obtained by adding this positional relationship to the position information stored in the storage unit.
  • Information is stored in the storage unit of the mounting device at the time of construction of a building or the like.
  • the exact position is stored by using a design drawing of a building or CAD data.
  • the position can be confirmed, and can be used for automation of construction, confirmation of the use position of materials, and the like.
  • the attachment device notifies the central control device of the information of the transmission device.
  • the mounting device notifies the central control device that a device other than the transmitting device has been mounted.
  • the light receiving unit receives light
  • the signal analysis unit acquires information from the light pattern
  • the information is stored in the storage unit.
  • the transmission device converts the information stored in the storage unit into a light emission pattern and causes the light emission unit to emit light.
  • the transmission device stores the signal received by the communication unit in the storage unit. When received, the transmission device converts the information stored in the storage unit into a light emission pattern and causes the light emission unit to emit light.
  • the transmission device converts an appropriate signal into a light emission pattern and causes the light emission unit to emit light.
  • the receiving device acquires a signal transmitted by the transmitting device from the imaging unit, and transmits the signal and information to be stored in the transmitting device to the transmitting device or the central control device via the communication unit.
  • the transmitting device or the central control device stores the transmitted information in the storage unit of the transmitting device that has transmitted the same signal as the signal acquired from the imaging unit from the receiving device.
  • the receiving device transmits the time at which the signal transmitted by the transmitting device is captured, and the transmitting device and the central control device use the time to specify the transmitting device imaged by the receiving device. good.
  • the communication unit of the receiving device may be a light emitting unit
  • the communication unit of the transmitting device may be a light receiving unit or an imaging unit, and information may be transmitted from the receiving device to the transmitting device using a light emission pattern.
  • the communication unit of the receiving device may be a sound generation unit
  • the communication unit of the transmitting device may be a sound collecting unit
  • information may be transmitted from the receiving device to the transmitting device using an audio pattern.
  • FIG. 146 is a diagram showing a case where it is used in combination with a two-dimensional barcode.
  • the user causes the communication device 2714a to be opposite to the communication device 2714d.
  • the communication device 2714a causes the display to display the transmission information as a two-dimensional barcode 2714c.
  • the communication device 2714 d reads the two-dimensional barcode 2714 c with the two-dimensional barcode reader 2714 f.
  • the communication device 2714 d expresses transmission information as a light emission pattern of the light emitting unit 2714 e.
  • the communication device 2714a captures an image of the light emitting unit with the imaging unit 2714b and reads a signal. This method enables direct communication in both directions, and when the amount of data to be transmitted is small, communication can be performed at higher speed than communication via a server.
  • FIG. 147 is a figure which shows a mode of map preparation and its utilization.
  • the robot 2715a creates a map 2715f of a room by performing self-position estimation based on signals transmitted by the lighting 2715d and the electronic device 2715c, and creates map information, position information, and the ID of the lighting 2715d and the electronic device 2715c as a server. 2715e is stored.
  • the reception device 2715b creates a map 2715f of the room from the signals transmitted by the illumination 2715d and the electronic device 2715c, the captured image in motion, and the sensor values of the gyro sensor, the acceleration sensor and the magnetic sensor, and the map information
  • the position information and the ID of the lighting 2715 d and the electronic device 2715 c are stored in the server 2715 e.
  • the robot 2715a performs cleaning and layout efficiently based on the map 2715f acquired from the server 2715e.
  • the reception device 2715b Based on the map 2715f acquired from the server 2715e, the reception device 2715b instructs the robot 2715a on a cleaning place or a movement place, or operates an electronic device in the direction in which the reception device is directed.
  • FIG. 148 is a diagram showing the state acquisition and operation of the electronic device.
  • the communication device 2716a converts the control information into a light emission pattern, and causes the light emitting unit to emit light toward the light receiving unit 2716d of the electronic device 2716b.
  • the electronic device 2716b reads the control information from the light emission pattern, and operates according to the control information.
  • the electronic device 2716b converts information indicating the state of the electronic device into a light emission pattern, and causes the light emitting unit 2716c to emit light.
  • the electronic device 2716b converts the information into a light emission pattern, and causes the light emitting unit 2716c to emit light.
  • the communication device 2716a captures an image of the light emitting unit 2716c, and obtains the transmitted signal.
  • FIG. 149 shows how to recognize an electronic device being imaged.
  • the communication device 2717a has a communication path to the electronic device 2717b and the electronic device 2717e, and transmits an ID display instruction to each electronic device.
  • the electronic device 2717b receives the ID display command, and transmits the ID signal in the light emission pattern of the light emitting unit 2717c.
  • the electronic device 2717e receives the ID display command, and transmits an ID signal in a position pattern using the light emitting units 2717f, 2717g, 2717h, and 2717i.
  • the ID signal transmitted by each electronic device may be an ID held by the electronic device, or may be content instructed by the communication device 2717a.
  • the communication device 2717a recognizes the positional relationship between the electronic device being imaged and the electronic device and the receiving device from the light emission pattern and the position pattern of the light emitting unit present in the captured image.
  • the electronic device include three or more light emitting units.
  • FIG. 150 shows how an augmented reality object is displayed.
  • the stage 2718e for displaying the augmented reality transmits information of the augmented reality object and a reference position for displaying the augmented reality object in the light emission patterns and position patterns of the light emitting units 2718a, 2718b, 2718c, and 2718d.
  • the receiving device superimposes the augmented reality object 2718f on the captured image and displays it based on the received information.
  • the center of the imaging range is directed to the light emitting unit as shown in FIG. 151 in order to direct the center of the imaging range toward the light emitting unit. Display to prompt the user.
  • the center of the imaging range is directed to the light emitting unit as shown in FIG. 152 in order to direct the center of the imaging range toward the light emitting unit. Display to prompt the user.
  • a display for prompting the user to direct the center of the imaging range toward the light emitting unit is performed.
  • the size of the graphic to be displayed is adjusted according to the distance over which the imaging range is desired to be moved, as shown in FIG.
  • a display is provided to urge the user to come closer to the light emitting unit and to image the image, in order to obtain a larger image.
  • the user When the light emitting unit is out of the center of the imaging range and the size of the image is not sufficient, the user is urged to direct the center of the imaging range toward the light emitting unit as shown in FIG. And a display prompting the user to take images closer to the light emitting unit.
  • a display which urges the user to approach and capture an image, and prompts the user to rotate the imaging range.
  • the light emitting unit is out of the center of the imaging range, and the size of the image of the light emitting unit is not sufficient, and it is easy to receive the signal of the light emitting unit by changing the angle between the light emitting unit and the imaging range
  • the user is urged to direct the center of the imaging range toward the light emitting unit, and the user is urged to take images closer to the light emitting unit, and the imaging range is rotated. Display a message prompting the user to
  • an indication indicating that a signal is being received and an amount of information of the received signal are displayed.
  • the progress bar displays the percentage of the signal that has been completely received and the amount of information.
  • the progress bar displays the ratio of the signal that has been completely received, the location of reception, and the amount of information of the received signal.
  • the light emitting unit When the light emitting unit is detected, as shown in FIG. 165, for example, the light emitting unit is blinked to indicate that the object is the light emitting unit.
  • the light emitting unit is blinked to indicate that the signal is received from the light emitting unit.
  • the user when a plurality of light emitting units are detected, the user causes the user to designate a transmitting device which receives a signal or performs an operation by causing the user to tap one of the light emitting units.
  • ITS Intelligent Transport Systems: Intelligent Transport System
  • high-speed communication of visible light communication is realized, and adaptation to the ITS field is possible.
  • FIG. 168 is a diagram for explaining communication between a traffic system equipped with a visible light communication function and a vehicle or a pedestrian.
  • the traffic light 6003 is equipped with the visible light communication function of the present embodiment, and can communicate with the vehicle 6001 and the pedestrian 6002.
  • Information transmission from the vehicle 6001 and the pedestrian 6002 to the traffic light 6003 is performed by a headlight or a flash light emitting unit of a portable terminal held by the pedestrian.
  • Information transmission from the traffic light 6003 to the vehicle 6001 and the pedestrian 6002 is performed by lighting a signal with a camera sensor of the traffic light 6003 or a camera sensor of the vehicle 6001.
  • the traffic light 6003 provides road traffic information to the vehicle 6001.
  • the road traffic information is information that assists driving such as traffic congestion information, accident information, and information on the peripheral service area.
  • the traffic light 6003 is equipped with the LED lighting, communication with this LED lighting makes it possible to provide information to the vehicle 6001 without mounting a new device.
  • the vehicle 6001 since the vehicle 6001 generally travels at high speed, the amount of data that can be transmitted is small with the conventional visible light communication technology, but since the communication speed is improved according to the present embodiment, data that can be transmitted to the vehicle It has the effect of increasing the size.
  • the traffic light 6003 and the lighting 6004 different information can be provided for each signal and lighting. This makes it possible to transmit information according to the position of the vehicle, such as transmitting information only to the vehicle traveling on the right turn lane, for example.
  • the illumination distributing the current position information it is possible to provide position information to the vehicle 6001 and the pedestrian 6002 by the illumination distributing the current position information.
  • Facilities that have roofs on the roof such as shopping streets and tunnels, may have difficulty acquiring position information using GPS, but if visible light communication is used, it is possible to acquire position information even in such situations. There is a merit that there is.
  • the communication speed can be further increased as compared with the conventional case, so that information can be received while passing a specific spot such as a store or an intersection.
  • the present embodiment is intended to speed up visible light communication, so that it can be applied to all other ITS systems using visible light communication.
  • FIG. 169 is a schematic view of the case where the present invention is applied to inter-vehicle communication in which vehicles communicate with each other using visible light communication.
  • the vehicle 6001 transmits information to the rear vehicle 6001a through a brake lamp and other LED lighting. It is also possible to transmit data to the opposing vehicle 6001b through headlights or other lights that illuminate the front.
  • the communication speed of visible light communication has been improved by the present invention, there is an advantage that information can be transmitted while passing an oncoming vehicle.
  • the information transmission interval is shortened also for the rear vehicles, it becomes possible to transmit information to many vehicles in a shorter period.
  • by raising the communication speed it is also possible to send voice and image information. This enables richer information to be shared between vehicles.
  • FIG. 170 shows a schematic view of a position information notification system and a facility system using the visible light communication technology of the present embodiment.
  • a system will be described as a system for delivering a patient's medical chart, a transported object, medicine and the like by a robot.
  • the robot 6101 has a visible light communication function.
  • the lighting distributes location information.
  • the robot 6101 can deliver medicines and other articles to a specific hospital room by acquiring the position information of the illumination. This reduces the burden on the doctor. In addition, since the lighting does not leak to the next room, there is an effect that the robot 6101 does not mistake the room.
  • the system using visible light communication is not limited to a hospital, and can be applied to a system that distributes position information using a lighting fixture.
  • position and guidance information may be transmitted from illumination of a guidance display board, or may be used for moving a cart in an airport.
  • radio waves when transmitting information that is inside / outside a room, if location information is distributed using a wireless LAN, radio waves will leak to adjacent rooms and corridors, so radio waves do not fly outside the room It was necessary to have a function to block radio waves on the outer wall. If the radio wave is still blocked at the outer wall, there is a problem that devices that communicate with the outside such as a mobile phone can not be used.
  • position information is transmitted using visible light communication according to the present embodiment
  • communication is possible only within the reach of the illumination, so that it is easy to transmit position information of a specific room to the user, for example. is there. Also, since the outer wall usually shields light, there is an effect that no special device is required.
  • FIG. 171 illustrates a supermarket system in which a device equipped with the communication method of the present embodiment is mounted on a shopping cart in a store, and location information is acquired from illumination of a product rack or indoor illumination.
  • the cart 6201 is mounted with a visible light communication apparatus using the communication method of this embodiment.
  • the illumination 6100 distributes position information and information of its shelf by visible light communication.
  • the cart can receive the product information distributed from the lighting. Also, by receiving the position information, it is possible to know which shelf the user is in. For example, if the position information of the shelf is stored in the cart, the user simply designates the shelf to which the user wants to go or the product desired Then, it becomes possible to display on the cart where to go.
  • the cart transmits together with the cart information to the illumination using visible light communication, or transmits to the server using a wireless LAN or the like.
  • the cart is equipped with a memory, and data is collected after the store is closed, etc., thereby aggregating to the server what route the cart has passed.
  • FIG. 172 shows an application example using visible light communication according to this embodiment.
  • the mobile phone terminal 6301 transmits data to the camera 6302 using a flashlight.
  • the camera 6302 receives data transmitted from the mobile phone terminal 6301 from the light information received by the imaging unit.
  • shooting settings for the camera are set and transmitted to the camera 6302. This makes it possible to set the camera using the rich user interface of the mobile phone terminal.
  • the setting information may be transmitted from the mobile phone terminal to the camera without mounting a new communication device such as a wireless LAN. It becomes possible.
  • FIG. 173 shows a schematic view of the case where the communication system of this embodiment is applied to underwater communication. Since water does not transmit radio waves, underwater divers, ships on the sea and ships in the sea can not communicate via radio. The visible light communication of this embodiment can also be used in water.
  • the visible light communication method of the present embodiment it is possible to transmit data from an object or structure that emits light.
  • the light receiving unit is directed to a building, guide information and detailed information of the building can be acquired, and thus useful information can be provided to tourists.
  • the visible light communication method of the present embodiment is applicable to communication between a lighthouse and a ship. Since communication with a larger capacity can be performed than ever before, more detailed information can be exchanged.
  • communication control can be performed in units of rooms, such as communication in only a specific room.
  • communication control can be performed in units of rooms, such as communication in only a specific room.
  • actual communication is wireless using the communication method of the present embodiment or using the communication method of the present embodiment for exchange of key information
  • the present invention is applicable to applications such as communication using LAN and the like.
  • the communication method of the present embodiment can be diverted to all communication by LED and an imaging device provided with a MOS sensor, and can be applied to, for example, a digital camera and a smartphone.
  • FIG. 174 is a diagram for describing an example of service provision to a user in the ninth embodiment.
  • a net server 4000a, transmitters 4000b, 4000d, 4000e, receivers 4000c, 4000f, and a building 4000g are shown.
  • Services can be provided to the user by receiving and processing signals from the plurality of transmitters 4000b, 4000d, and 4000e located inside and outside the house by the receivers 4000c and 4000f.
  • the transmitter and the receiver may process signals independently and may be able to provide a service to the user, or in response to an instruction from the network in cooperation with the net server 4000a configuring the network, their behavior or transmission Services may be provided to the user while changing the
  • the transmitter and the receiver may be mounted on a moving object such as a person or a vehicle, may be mounted on a stationary object, or may be mounted on an existing object later. Good.
  • FIG. 175 is a diagram for describing an example of service provision to a user in the ninth embodiment.
  • a transmitter 4001a and a receiver 4001b are shown in FIG.
  • the receiver 4001b receives a signal transmitted from a plurality of transmitters 4001a, and processes information contained in the signal to provide a service to the user.
  • the contents included in the signal include the device ID uniquely indicating the device, location information, map, signs, tourist information, traffic information, regional services, coupons, advertisements, product descriptions, characters, music, videos, photos, voice , Menu, broadcast, emergency guide, timetable, guide, application, news, bulletin board, command to device, information identifying an individual, cash voucher, credit card, security, URL etc.
  • the user performs in advance registration processing and the like for utilizing the information contained in these signals on the net server, and the user actually sends these signals to the receiver 4001b at the place where the transmitter 4001a transmits the signal. It may be possible to receive the provision of the service by receiving the information at the time of receiving the request, or may be able to receive the provision of the service without intervention of the net server.
  • FIG. 176 is a flowchart showing a case where a receiver in this embodiment processes a plurality of signals received from a transmitter at the same time.
  • step 4002a starts.
  • step 4002b the receiver receives signals from multiple light sources.
  • step 4002 c the area in which each light source is displayed is determined, and a signal is extracted from each light source.
  • the process is repeated based on the information included in the signal in step 4002 e until the number becomes zero in the process for the number of signals acquired in step 4002 d.
  • the process ends at step 4002 f.
  • FIG. 177 is a diagram showing an example in the case of realizing communication between devices by mutual communication in the ninth embodiment.
  • FIG. 175 shows an example of the case where communication between devices is realized by the transmitter and the plurality of transceivers 4003a having receivers, the transceiver 4003b, and the transceiver 4003c communicating with each other.
  • the transmitter / receiver may be able to communicate only between the same devices as shown in FIG. 175, or may be able to communicate between different devices.
  • the application is distributed to a mobile phone, a smart phone, a personal computer, a game machine, etc. using communication means provided by the present embodiment, other networks, and removable storage, and those applications
  • communication means provided by the present embodiment, other networks, and removable storage, and those applications
  • LEDs, photodiodes, image sensors By providing the devices (LEDs, photodiodes, image sensors) of the devices already installed, it is possible to provide services to the user.
  • the application may be installed in the device from the beginning.
  • the present invention is applied to a public facility such as a movie theater, a concert hall, a museum, a hospital, a public hall, a school, a company, a shopping street, a department store, a government office, a food shop and the like.
  • the present invention can lower the directivity of the signal generated by the transmitter to the receiver as compared to conventional visible light communication, so that information can be simultaneously transmitted to a large number of receivers present in public facilities. Can.
  • FIG. 178 is a diagram for illustrating a service using the characteristic of directivity in the ninth embodiment.
  • a screen 4004a, a receiver 4004b, and an illumination 4004c are shown.
  • a device (a mobile phone, a smart phone, a personal computer, a game machine, etc.) that allows the user to block other users' comfortable viewing of movies while watching a movie.
  • the use of can be suppressed.
  • the transmitter uses, as a signal, light emitted from a light projected in a picture projected on a screen 4004a displaying a movie or in a facility as a signal, and includes a command for controlling the receiver 4004b.
  • the command for controlling the receiver 4004 b includes the sound emitted from the power supply or the reception, the communication function, the display of the LED, the ON / OFF of the vibration, the level adjustment, and the like.
  • the receiver can control the intensity of directivity by filtering the signal transmitted by the transmitter using the intensity of the light source or the like.
  • the directivity by setting the directivity low, it is possible to simultaneously transmit commands and information to receivers present in the facility.
  • the transmitter side may limit the amount of light source, or the receiver side may lower the sensitivity for receiving the light source or may process the amount of the received light source. You may impose restrictions.
  • the order sent from the transmitter at hand of the user Can be detected by a receiver located at a location overlooking the store, which receives the signal including the symbol “1” and which menu the user has ordered.
  • the service provider can provide a fair service to the user by setting the time axis and processing the order.
  • the transmission path between the transmitter and the receiver may use a protocol such as SSL, which is used as a standard in the Internet, to suppress interception of signals from other devices.
  • FIG. 179 is a diagram for illustrating another example of service provision to a user in the ninth embodiment. Specifically, FIG. 179 shows an example of a service in the case where the present embodiment is utilized using a camera 4005a mounted in a receiver such as a mobile phone, a smart phone, a game machine or the like. Here, FIG. 179 shows a camera 4005a, a light source 4005b, and contents 4005c to be superimposed.
  • Signals 4005d transmitted by the plurality of light sources 4005b are extracted from the imaging result of the camera 4005a, and information included in the signals 4005d is superimposed and displayed on the camera 4005a.
  • the content 4005c to be superimposed on the camera 4005a includes a character string, an image, a moving image, a character, an application, a URL, and the like. Note that not only the superposition with the camera but also voice, vibration and the like may be used to process the information contained in the signal.
  • FIG. 180 is a diagram showing an example format of a signal included in a light source emitted by a transmitter.
  • the light source characteristic 4006a, the service type 4006b, and the service related information 4006c are shown.
  • the information 4006c related to the service of superimposing the signal received by the receiver on the camera is obtained by filtering the information that can be acquired from the signal according to the information such as the service type 4006b included in the signal emitted by the transmitter and the distance from the camera to the light source It is a result.
  • the content to be filtered by the receiver may be in accordance with the setting of the receiver set in advance, or may be in accordance with the preference of the user set in the receiver by the user.
  • the receiver can estimate the distance to the transmitter that emits the signal and display the distance to the light source.
  • the receiver performs digital signal processing on the amount of light emitted from the transmitter captured by the camera to estimate the distance to the transmitter.
  • the amount of light of each transmitter imaged by the receiver with the camera varies depending on the position and intensity of the light source, and therefore, when the distance is estimated based on only the amount of light of the transmitter thus imaged, the distance may be significantly deviated.
  • the light source characteristic 4006 a indicating the intensity, color, type, etc. of the light source is included in the signal emitted by the transmitter.
  • the receiver can estimate the distance with high accuracy by performing digital signal processing in consideration of the characteristics of the light source included in the signal.
  • the distance is estimated by the light quantity of the light sources. If there is a transmitter whose intensity of the light source imaged by the receiver is not the same, the distance is not estimated only by the amount of light source, but combined with other distance measuring means to estimate the distance from the transmitter to the receiver.
  • the distance may be estimated using the parallax of the image captured by the two-lens lens, or the distance may be estimated using an infrared ray, a millimeter wave radar or the like.
  • the movement amount of the receiver may be acquired by capturing an image of an acceleration sensor or the like mounted on the receiver, and the moved distance may be combined with triangulation to estimate the distance.
  • the receiver not only filters and displays the signal using the strength and distance of the signal generated on the transmitter side, but also adjusts the directivity of the signal received by the receiver from the transmitter. You may use as a means.
  • FIG. 181 is a diagram showing the principle of the tenth embodiment.
  • 182 to 194 show an example of the operation of the tenth embodiment.
  • each line 1 has an overlapping portion in time, so light signals of the same time can not be determined because they are mixed in each line.
  • the shutter open time is shortened, when the exposure time is shortened below a certain shutter speed, the light signals do not overlap as shown in (a) of FIG. be able to.
  • a display such as the TV shown in FIG. 183 or the TV shown on the left in FIG. 184 or a light source divided into n vertically, for example, 10, with a camera of a mobile telephone
  • ten stripe patterns unique to the present embodiment can be detected independently of one another, resulting in a transfer rate of 10 times (n times).
  • HD video can be divided into 50 because it has 1980 pixels horizontally. Then, it will be 1.5 Mbps and video data of moving pictures can be received. With 200, HD video can be transmitted.
  • the longest exposure time that can be detected is T 0
  • the frame same wave number is fp as shown in the upper right of FIG. 181
  • two values can be detected if the shutter time is set to half or less of 1 / fp.
  • communication is initially asynchronous.
  • a scan line that is twice or more the optical signal clock and 2 to 10 times the specific scan line, compatible communication is realized although the information rate is lowered.
  • a lighting device that needs to prevent flickering, it emits light by turning off or reducing light in a four-value PPM, that is, one time zone of four bits. In this case, the bit rate drops to half, but since flickering is eliminated, it can be used for lighting equipment and can transmit light and data.
  • Figure 185 sends a common signal from the entire illumination device in the common time zone indoors, the individual time slot, a situation being sent individual sub-information from the individual lighting apparatus L 4, the situation of receiving an optical signal It shows. Since L 4 has a small area, it takes time to send a large amount of data. Therefore, in the individual time zone, only a few bit ID is sent, and in the common time zone, all of L 1 , L 2 , L 3 , L 4 and L 5 send common information having the same content.
  • time zone A “the position information of the reference position of the room, the position information of the individual devices of each ID (difference position information from the reference position), server 'S URL, data broadcasting, LAN transmission data' two lights of the main area M which is all lights in the room, and S 1 , S 2 , S 3 , S 4 in the part are all the same at the same time Send an optical signal. Since the room is illuminated with the same light signal, the portable camera unit can reliably receive data during the common time zone.
  • the main region M does not blink and continuously emits light at a normal 1 / n light amount.
  • the average light amount does not change and flickering can be prevented. There is no flicker if it blinks in a range where the average light amount does not change, but this is not preferable because it becomes noise for reception of the partial regions S 1 , S 2 , S 3 and S 4 in the time zone B.
  • S 1 , S 2 , S 3 and S 4 each transmit optical signals of different data content.
  • the main area M does not transmit a modulation signal, it is separated in position like the upper right hand-held screen.
  • the noise since the noise is small, it becomes easy to detect the stripes occurring in the region, stable data is obtained.
  • the individual IDs of L 1 , L 2 , L 3 , and L 4 to L 8 in (a) of FIG. 188 can be 3-bit demodulated.
  • the reception error can be reduced by allocating the signal so that the reciprocal or logarithm of the frequency becomes equal, rather than allocating the frequency to the signal at equal intervals.
  • transmission can be performed at 60 bits per second.
  • a general imaging device captures an image of 30 frames per second, so when transmitting a signal at the same frequency for 1/15 seconds, imaging is reliably performed even if the transmitter is only shown in a part of the captured image It can be performed.
  • the frequency of the transmission signal appears as a peak.
  • a plurality of frequencies are imaged in one frame, such as a frequency switching portion, a plurality of peaks can be obtained as weaker peaks than when a single frequency signal is subjected to Fourier transform.
  • a protection part may be provided in order to avoid mixing of the front and back frequencies.
  • the transmission frequency can be analyzed, and the time is shorter than 1/15 seconds or 1/30 seconds. Even if the frequency of the transmission signal is changed, it can be received.
  • Fourier transform may be performed within a range shorter than one screen.
  • the captured screens may be connected to perform Fourier transform in a range longer than one screen.
  • the luminance value of the imaging blanking time is treated as unknown.
  • the protection portion is a signal of a specific frequency or does not change in luminance (frequency 0 Hz).
  • an FM modulation signal of frequency f2 is transmitted, a PPM modulation signal is subsequently transmitted, and an FM modulation signal and a PPM modulation signal are alternately transmitted.
  • Even non-compatible receivers can receive information, and by assigning information of high importance to an FM modulation signal that is relatively easy to receive, information of high importance can be transmitted preferentially.
  • the time zone A as shown in FIG. 185, by sending compass of distance difference d between the light source and the reference position of each ID, it is found the exact position in cm of lighting L 4.
  • the position of the mobile phone can be determined with high accuracy.
  • transmitting the common optical signal to the time zone A and transmitting the individual optical signals to the time zone B it is possible to transmit large-capacity common information and small-capacity individual information such as ID almost simultaneously. The effect is obtained.
  • the area S 1 by camera shake is likely to deviate from the scanning range of the image sensor.
  • image stabilization as shown in FIG. 190 is important.
  • the gyro sensor built into the mobile phone can not usually detect a narrow fine rotation range such as hand movement.
  • the in-camera is turned on to detect camera shake from the in-camera image, and the scanning range or detection range can be corrected to reduce the influence of camera shake. This is because the camera shake of the face camera and the camera shake of the in-camera are the same.
  • the shutter speed of the scan area other than the light signal pattern of the face camera can be reduced to obtain a normal image from this area and shake correction can be performed from this image.
  • camera shake detection and signal detection can be performed with one camera. This has the same effect when using the in-camera shown in FIG.
  • light signal detection is performed by the face camera, and first, positional information of the terminal is obtained.
  • a face camera may detect the pattern of the ceiling.
  • FIG. 192 is a diagram showing a state in which a data broadcast which is common data is received from illumination on a ceiling in a station yard, and one's own position is obtained from individual data.
  • the light emitting unit of the terminal of the shop is made to emit light. It can be used to receive, mutually authenticate, and improve security. Authentication may be reversed.
  • the location information obtained is transmitted to the terminal of the store via a wireless LAN or the like, and the position of the customer is displayed on the terminal of the clerk, so the customer who ordered the ordered drink The clerk can carry to the table of position information.
  • the passenger knows his / her position in the train or aircraft using the method of the present embodiment, and orders goods such as food at the terminal.
  • the crew has the terminal of the present invention in the cart, and the ID number of the ordered item is displayed at the position of the ordered customer on the screen, so that the item of the ordered ID can be accurately delivered to the customer.
  • FIG. 184 is a diagram showing a case where the method or apparatus of the present embodiment is used for the backlight of a display such as a TV. Since the fluorescent light, the LED, and the organic EL can be subjected to the luminance modulation of the sluggishness, the transmission of this embodiment is possible. However, in terms of characteristics, the scanning direction is important. When used vertically as in a smartphone, scanning is performed in the horizontal direction, so a horizontally long light emitting area is provided at the bottom of the screen, and the contrast of the image such as a TV is lightened. There is.
  • the display of the vertical length as shown on the right side of the screen in FIG. 183 is provided.
  • the image sensor in either scanning direction can receive the signal.
  • the communication speed can be greatly increased.
  • bi-directional reception can be performed without adding components in the lighting device by using this also for reception.
  • the terminal side can transmit using a strobe light for a camera, or an inexpensive infrared light emitting unit may be separately provided. In this way, bi-directional communication is realized without adding much components.
  • FIG. 195 is a timing diagram of a transmission signal in the information communication apparatus of the eleventh embodiment.
  • a reference waveform (a) is a clock signal of period T, which serves as a reference of the timing of the transmission signal.
  • the transmission symbol (b) indicates a symbol string generated based on the data string to be transmitted.
  • the transmission waveform (c) is a transmission waveform phase-modulated according to the transmission symbol with respect to the reference waveform, and the transmission light source is driven according to this waveform.
  • the phase modulation is performed by shifting the phase of the reference waveform corresponding to the symbol, and in this example, symbol 0 is allocated at phase 0 ° and symbol 1 is allocated at phase 180 °.
  • FIG. 196 is a diagram showing a relationship between a transmission signal and a reception signal in Embodiment 11.
  • the transmission signal is the same as that in FIG. 195, and the light source emits light only during the period in which the transmission signal is 1, and this light emission period is indicated by the area of the lower right oblique line.
  • a band painted with a diagonally upper right represents a period during which the pixel of the image sensor is exposed (exposure time tE), and the signal charge of the pixel of the image sensor is generated in a region overlapping with the diagonally lower right Ru.
  • the pixel value p is proportional to the area of this overlapping area.
  • Equation 1 holds between the exposure time tE and the cycle T.
  • the received waveform indicates the pixel value p of each line.
  • the value of the pixel value axis is normalized with the amount of light received for one cycle as one.
  • the pixel value p since the exposure time tE has a section of T (n + 1/2), the pixel value p always exists in the range of n ⁇ p ⁇ n + 1, and 2 ⁇ p ⁇ 3 in the example of FIG. Become.
  • 197 to 199 are diagrams showing the relationship between transmission signals and reception signals for symbol sequences different from those in FIG.
  • the transmit signal has a preamble that includes consecutive identical symbol sequences (not shown) (e.g., a sequence of consecutive symbol 0), and the receiver uses the successive symbol sequences in this preamble as a reference for reception.
  • a signal is created and used as a timing signal for reading out a symbol string from the received waveform. Specifically, for the continuous symbol 0, as shown in FIG. 196, the reception waveform returns a constant waveform repeating 2.fwdarw.3.fwdarw.2, and the clock signal is output based on the timing when the pixel value 3 is output. Generate as a reference signal.
  • the reception signal in one section of the reference signal can be read out, and it can be read out as symbol 0 in the case of pixel value 3 and symbol 1 in the case of pixel value 2.
  • 197 to 199 show that symbols located in the fourth period are read out.
  • FIG. 200 is a diagram summarizing FIGS. 196 to 199. Since the lines are densely arranged, the pixel division in the line direction is omitted and drawn continuously. Here, symbol values in the fourth to eighth periods are read out.
  • the intensity of the optical signal when the intensity of the optical signal is averaged for a time sufficiently longer than the period of the reference wave, it is always constant. Then, if the frequency of the reference wave is set appropriately high, that time can be set shorter than the time for which a person perceives a change in light quantity, so when the transmission light source is observed from human eyes, the light source remains constant. It is perceived as glowing. Therefore, it is not perceived as flickering of the light source, and it has the advantage that it does not make people feel troublesome in the previous embodiment.
  • the frequency (symbol rate) of the signal is increased in the amplitude modulation (on-off modulation) in the above embodiment.
  • the rising and falling edges of the signal can be detected even in such a situation, so that the frequency of the signal can be increased. And a high signal transmission rate can be realized.
  • phase modulation means phase modulation with respect to the reference signal waveform.
  • the carrier wave is light, and since it is modulated by amplitude modulation (on / off modulation) and transmitted, the modulation scheme in this signal transmission is a type of amplitude modulation.
  • the above transmission signal is an example, and the number of bits per symbol can be set to 2 or more, and the correspondence between the symbol and the phase shift is not limited to 0 ° and 180 °, and the offset can be set. You may have.
  • FIG. 191 an example of receiving data such as position information from an optical signal from an illuminator using a face camera that is a camera on the display unit side of a mobile phone and an in-camera on the opposite side in FIG. showed that.
  • the vertical direction can be detected by gravity by using the acceleration sensor.
  • the present invention mainly generates an optical signal from a lighting device in a space indoors, and an optical signal from a camera unit of a portable terminal having a communication unit, an audio microphone, an audio speaker, a display unit, an in-camera and a camera unit of a face camera.
  • a camera unit of a portable terminal having a communication unit, an audio microphone, an audio speaker, a display unit, an in-camera and a camera unit of a face camera.
  • it receives and obtains position information etc., when it goes out from indoors to outdoor, it can detect position information by GPS using satellites. For this reason, there is an effect that the position detection can be performed seamlessly by acquiring the position information of the boundary from the light signal area, activating the signal reception from the GPS, and automatically performing this switching.
  • the boundary is detected by position information such as GPS and automatic switching to position information of the light signal is performed.
  • position information such as GPS
  • automatic switching to position information of the light signal is performed.
  • response time is required when using a server.
  • mutual authentication can be performed by transmitting an optical signal from the light emitting unit of the reader of the terminal such as POS to the face camera unit of the mobile phone using the present invention, thereby improving security.
  • Embodiment 12 In this embodiment, application examples using a receiver such as a smartphone and the transmitter that transmits information as a blinking pattern of an LED according to Embodiments 1 to 11 will be described.
  • FIG. 201 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • a transmitter 7001a which is a restaurant signage, transmits identification information (ID) of the transmitter 7001a to a receiver 7001b configured as a smartphone, for example.
  • ID identification information
  • the receiver 7001 b acquires information associated with the ID from the server and displays the information.
  • the information is, for example, a route to a restaurant, availability, and a coupon.
  • FIG. 202 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • a transmitter 7042b which is a movie signage, transmits identification information (ID) of the transmitter 7042b to a receiver 7042a configured as, for example, a smartphone.
  • ID identification information
  • the receiver 7042a acquires the information associated with the ID from the server and displays it.
  • the information is, for example, an image 7042c prompting to reserve a movie, an image 7042d indicating a movie show time, an image 7042e indicating a vacant seat status, and an image 7042f notifying of reservation completion.
  • FIG. 203 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • a transmitter 7043b which is a drama signage, transmits identification information (ID) of the transmitter 7043b to a receiver 7043a configured as, for example, a smartphone.
  • ID identification information
  • the receiver 7043a acquires information associated with the ID from the server and displays the information.
  • the information is, for example, an image 7043 c prompting for recording reservation of a drama, an image 7043 d prompting for selecting a recorder for recording a drama, and an image 7043 e notifying completion of the reservation.
  • FIG. 204 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • the transmitter 7044b or 7044c which is a signage configured as a roof signboard of a store or a billboard placed on the street transmits identification information (ID) of the transmitter 7044b or 7044c to a receiver 7044a configured as a smartphone, for example.
  • ID identification information
  • the receiver 7044a acquires information associated with the ID from the server and displays the information.
  • the information is, for example, an image 7044 b indicating the availability and coupon of the store.
  • FIG. 205 is a flowchart illustrating an example of process operations of a receiver and a transmitter in Embodiment 12. This flowchart corresponds to the application shown in FIGS. 201 to 204.
  • the ID of the transmitter and the information passed to the receiver that has received the ID are associated with each other and stored in the server (7101a).
  • the information passed to the receiver includes the store name, product name, map information to the store, vacant seat information, coupon information, inventory number of products, movie and play screening time, reservation information Also, it may include information such as the URL of a server that makes a reservation or purchase.
  • the transmitter transmits an ID (S7101 b).
  • the camera of the receiver is directed to the transmitter, and the ID is received (S 7101 c).
  • the receiver transmits the received ID to the server, and stores information related to the ID in the receiver (S 7101 d).
  • the receiver combines the terminal ID and the user ID, and saves them in the server (S7101 e). Furthermore, the receiver displays the information stored in the server as one to be displayed on the receiver (S 7101 f).
  • the receiver adjusts the display content based on the user profile stored in the receiver or the server (S7101 g). For example, control is performed such as changing the size of characters, hiding age-restricted content, or preferentially displaying content that is estimated to be preferred from the user's past behavior.
  • the receiver displays the route from the current position to the store or the merchandise counter (S7101).
  • the receiver appropriately acquires information from the server, and updates and displays vacant seat information and reservation information (S7101).
  • the receiver displays a button for saving the acquired information and a button for canceling saving of the display content (S7101 j).
  • the user taps a button for storing information acquired by the receiver (S7101 k).
  • the receiver stores the acquired information so as to be able to be displayed again by the operation of the user (S 7101 m).
  • the store reader reads the information transmitted by the receiver (S7101 n).
  • a transmission method there are visible light communication, communication via wifi or bluetooth, communication by two-dimensional bar code, and the like.
  • the transmission information may include the ID of the receiver and the user ID.
  • the store reader stores the read information and the store ID in the server (S7101 p).
  • the server associates and stores the transmitter, the receiver, and the store (S 7101 q). This makes it possible to analyze the advertising effect of signage.
  • FIG. 206 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • a transmitter 7002a which is a signage indicating a plurality of stores, transmits identification information (ID) of the transmitter 7002a to a receiver 7002b configured as, for example, a smartphone.
  • ID identification information
  • the receiver 7002 b acquires information associated with the ID from the server, and displays the same display content as the signage.
  • the receiver 7002b displays the content of the store.
  • FIG. 207 is a flowchart illustrating an example of process operations of the receiver 7002 b and the transmitter 7002 a in Embodiment 12.
  • the ID of the transmitter 7002a and the information passed to the receiver 7002b that has received the ID are associated with each other and stored in the server (7102a).
  • Information to be passed to the receiver 7002b includes store name, product name, map information to the store, vacant seat information, coupon information, inventory number of products, movie and play screening time, reservation information, It may include information such as the URL of a server that makes a reservation or purchase.
  • the positional relationship of the content to be displayed on the transmitter 7002a is stored in the server.
  • the ID is transmitted from the transmitter 7002a such as signage (7102b).
  • the camera of the receiver 7002b is directed to the transmitter 7002a, and an ID is received (7102c).
  • the receiver 7002b transmits the received ID to the server to obtain information related to the ID (7102d).
  • the receiver 7002b displays the information stored in the server for display on the receiver 7002b (7102e).
  • the image which is the information may be displayed on the receiver 7002b while maintaining the positional relationship of the images displayed on the transmitter 7002a.
  • the user selects the information displayed on the receiver 7002b by designation on the screen by tap or voice (7102f).
  • the receiver 7002b displays the details of the information designated by the user (7102g).
  • FIG. 208 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • a transmitter 7003a which is a signage indicating a plurality of stores, transmits identification information (ID) of the transmitter 7003a to a receiver 7003b configured as, for example, a smartphone.
  • ID identification information
  • the receiver 7003b acquires information associated with the ID from the server, and a portion (for example, the closest portion) to the center of the captured image of the camera of the receiver 7003b in the display content of the signage. Display the contents of).
  • FIG. 209 is a flowchart illustrating an example of process operations of the receiver 7003 b and the transmitter 7003 a in Embodiment 12.
  • the ID of the transmitter 7003a and the information passed to the receiver 7003b that has received the ID are associated with each other and stored in the server (7103a).
  • the information passed to the receiver 7003b includes the store name, product name, map information to the store, vacant information, coupon information, inventory number of products, movie and play screening time, reservation information, It may include information such as the URL of a server that makes a reservation or purchase.
  • the positional relationship of the content to be displayed on the transmitter 7003a is stored in the server.
  • the ID is transmitted from the transmitter 7003a such as signage (7103b).
  • the camera of the receiver 7003b is directed to the transmitter 7003a, and an ID is received (7103c).
  • the receiver 7003b transmits the received ID to the server to obtain information related to the ID (7103d).
  • the receiver 7003b displays the display content closest to the center of the captured image or the designated part in the display content of the signage (7103e).
  • FIG. 210 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 210 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • a transmitter 7004a which is a signage indicating a plurality of stores, transmits identification information (ID) of the transmitter 7004a to a receiver 7004b configured as, for example, a smartphone.
  • ID identification information
  • the receiver 7004b acquires the information associated with the ID from the server, and of the display contents of the signage, the contents of a portion close to the center of the photographed image of the camera of the receiver 7004b (for example, the store Display an image showing the contents of "B cafe".
  • the receiver 7004 b displays an image indicating the contents of the store “C bookstore” on the right side of the store “B cafe” with signage. That is, the receiver 7004 b displays an image of the same positional relationship as the transmission source signage.
  • FIG. 211 is a flowchart illustrating an example of process operations of the receiver 7004 b and the transmitter 7004 a in Embodiment 12.
  • the ID of the transmitter 7004a and the information passed to the receiver 7004b that has received the ID are associated with each other and stored in the server (7104a).
  • the information passed to the receiver 7004b includes the store name, product name, map information to the store, vacant seat information, coupon information, inventory number of products, movie and play screening time, reservation information, It may include information such as the URL of a server that makes a reservation or purchase.
  • the positional relationship of the content to be displayed on the transmitter 7004a is stored in the server.
  • the ID is transmitted from the transmitter 7004a such as signage (7104b).
  • the camera of the receiver 7004b is directed to the transmitter 7004a, and an ID is received (7104c).
  • the receiver 7004 b transmits the received ID to the server to obtain information related to the ID (7104 d).
  • the information stored in the server for display on the receiver 7004b is displayed (7104e).
  • the receiver 7004 b changes the display content so as to have the same positional relationship as the information displayed on the transmitter 7004 a according to the user operation (7104 g). For example, when the user flicks the screen left to display the right side of the currently displayed part, the display of the transmitter 7004a is displayed on the right of the contents currently displayed on the receiver 7004b. The contents are displayed on the receiver 7004b.
  • FIG. 212 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 212 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • the transmitter 7005a which is a signage indicating a plurality of stores, transmits identification information (ID) of the transmitter 7005a to a receiver 7005b configured as, for example, a smartphone.
  • ID identification information
  • the receiver 7005b acquires information associated with the ID from the server, and of the display contents of the signage, the contents of a portion near the center of the photographed image of the camera of the receiver 7005b (for example, the store Display an image showing the contents of "B cafe".
  • the receiver 7005b displays an image showing the contents of the shop "A restaurant" located on the left side of the shop "B cafe” with signage. Do.
  • the receiver 7005b displays an image showing the contents of the shop “E office” under the shop “B cafe” in signage. indicate.
  • the receiver 7005b displays an image showing the contents of the store "C bookstore” on the right side of the store “B cafe” in signage. . That is, the receiver 7004 b displays an image of the same positional relationship as the transmission source signage.
  • FIG. 213 is a flowchart illustrating an example of process operations of the receiver 7005 b and the transmitter 7005 a in Embodiment 12.
  • the ID of the transmitter 7005a and the information passed to the receiver 7005b that has received the ID are associated with each other and stored in the server (7105a).
  • the information passed to the receiver 7005b includes the store name, product name, map information to the store, vacant seat information, coupon information, inventory number of products, movie and play screening time, reservation information, It may include information such as the URL of a server that makes a reservation or purchase.
  • the positional relationship of the content to be displayed on the transmitter 7005a is stored in the server.
  • the ID is transmitted from the transmitter 7005a such as signage (7105b).
  • the camera of the receiver 7005b is directed to the transmitter 7005a, and an ID is received (7105c).
  • the receiver 7005 b transmits the received ID to the server to obtain information related to the ID (7105 d).
  • the information stored in the server for display on the receiver 7005b is displayed (7105e).
  • the user taps the end portion displayed on the receiver 7005 b or the portion indicating the upper, lower, left, and right directions displayed on the receiver 7005 b (7105 f).
  • the receiver 7005 b changes the display content so as to have the same positional relationship as the information displayed on the transmitter 7005 a according to the user operation (7105 g). For example, when the user taps the right end of the screen or a portion indicating the right direction, the receiver 7005b displays the content currently displayed on the receiver 7005b in the display of the transmitter 7005a. Display.
  • FIG. 214 is a diagram illustrating an example of application of a receiver and a transmitter in Embodiment 12.
  • FIG. 214 is a view of the car as seen from behind.
  • a transmitter (car) 7006a having two tail lamps (light emitting unit or light) of a car transmits identification information (ID) of the transmitter 7006a to a receiver configured as a smart phone, for example.
  • ID identification information
  • the receiver acquires information associated with the ID from the server.
  • the information may be the ID of the car or transmitter, the distance between the light emitters, the size of the light emitter, the size of the car, the size of the car, the shape of the car, the weight of the car, the car number, the appearance of the front, or the danger Is information indicating the presence or absence of
  • the receiver may obtain these pieces of information directly from the transmitter 7006a.

Abstract

 多様な機器で通信を可能とする情報通信方法は、イメージセンサによる被写体の撮像によって得られる画像に、そのイメージセンサに含まれる露光ラインに対応する輝線がその被写体の輝度変化に応じて生じるように、そのイメージセンサの露光時間を設定するステップ(SA11)と、イメージセンサが、輝度変化する被写体を、設定された露光時間で撮像することによって、輝線を含む画像を取得するステップ(SA12)と、取得された画像に含まれる輝線のパターンによって特定されるデータを復調することにより情報を取得するステップ(SA13)とを含む。

Description

情報通信方法
 本発明は、スマートフォン、タブレット、携帯電話等の携帯端末と、エアコン、照明機器、炊飯器などの家電機器との通信方法に関する。
 近年のホームネットワークでは、Ethernet(登録商標)や無線LAN(Local Area Network)でのIP(Internet Protocol)接続によるAV家電の連携に加え、環境問題に対応した電力使用量の管理や、宅外からの電源ON/OFFといった機能を持つホームエネルギーマネジメントシステム(HEMS)によって、多様な家電機器がネットワークに接続される家電連携機能の導入が進んでいる。しかしながら、通信機能を有するには、演算力が十分ではない家電や、コスト面で通信機能の搭載が難しい家電などもある。
 このような問題を解決するため、特許文献1では、光を用いて自由空間に情報を伝達する光空間伝送装置において、照明光の単色光源を複数用いた通信を行うことで、限られた送信装置のなかで、効率的に機器間の通信を実現する技術が記載されている。
特開2002-290335号公報
 しかしながら、前記従来の方式では、適用される機器が照明のような3色光源を持つ場合に限定される。本発明は、このような課題を解決し、演算力が少ないような機器を含む多様な機器間の通信を可能とする情報通信方法を提供する。
 本発明の一形態に係る情報通信方法は、被写体から情報を取得する情報通信方法であって、イメージセンサによる前記被写体の撮像によって得られる画像に、前記イメージセンサに含まれる露光ラインに対応する輝線が前記被写体の輝度変化に応じて生じるように、前記イメージセンサの露光時間を設定する露光時間設定ステップと、前記イメージセンサが、輝度変化する前記被写体を、設定された前記露光時間で撮像することによって、前記輝線を含む画像を取得する撮像ステップと、取得された前記画像に含まれる前記輝線のパターンによって特定されるデータを復調することにより情報を取得する情報取得ステップと、を含む。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明によれば、演算力が少ないような機器を含む多様な機器間の通信を可能とする情報通信方法を実現できる。
実施の形態1における宅内の環境の例を示す図である。 実施の形態1における家電機器とスマートフォンの通信の例を示す図である。 実施の形態1における送信側装置の構成の1例を示す図である。 実施の形態1における受信側装置の構成の1例を示す図である。 実施の形態1における送信側装置のLEDの点滅によって受信側装置に情報を送信する処理の流れを示す図である。 実施の形態1における送信側装置のLEDの点滅によって受信側装置に情報を送信する処理の流れを示す図である。 実施の形態1における送信側装置のLEDの点滅によって受信側装置に情報を送信する処理の流れを示す図である。 実施の形態1における送信側装置のLEDの点滅によって受信側装置に情報を送信する処理の流れを示す図である。 実施の形態1における送信側装置のLEDの点滅によって受信側装置に情報を送信する処理の流れを示す図である。 実施の形態2における可視光を用いてユーザと機器の通信を行う手順を説明するための図である。 実施の形態2における可視光を用いてユーザと機器の通信を行う手順を説明するための図である。 実施の形態2におけるユーザが機器を購入して、機器の初期設定を行うまでの手順を説明するための図である。 実施の形態2における機器が故障した場合の、サービスマン専用のサービスについて説明するための図である。 実施の形態2における掃除機と可視光通信を用いた、掃除状況を確認するためのサービスについて説明するための図である。 実施の形態3における光通信を用いた宅配サービス支援の概略図である。 実施の形態3における光通信を用いた宅配サービス支援を説明するためのフローチャートである。 実施の形態3における光通信を用いた宅配サービス支援を説明するためのフローチャートである。 実施の形態3における光通信を用いた宅配サービス支援を説明するためのフローチャートである。 実施の形態3における光通信を用いた宅配サービス支援を説明するためのフローチャートである。 実施の形態3における光通信を用いた宅配サービス支援を説明するためのフローチャートである。 実施の形態3における光通信を用いた宅配サービス支援を説明するためのフローチャートである。 実施の形態4におけるサーバへユーザと使用中の携帯電話を登録する処理を説明するための図である。 実施の形態4におけるユーザ音声特性の解析を行う処理を説明するための図である。 実施の形態4における音声認識処理の準備を行う処理を説明するための図である。 実施の形態4における周辺の集音機器からの集音を行う処理を説明するための図である。 実施の形態4における環境音特性の解析処理を説明するための図である。 実施の形態4における周辺に存在する音声出力機器からの音声をキャンセルする処理を説明するための図である。 実施の形態4における調理メニューの選択と電子レンジへの運転内容設定を行う処理を説明するための図である。 実施の形態4における電子レンジ用の通知音をサーバ等のDBから取得し電子レンジへ設定する処理を説明するための図である。 実施の形態4における電子レンジの通知音の調整を行う処理を説明するための図である。 実施の形態4における電子レンジに設定する通知音の波形の例を示す図である。 実施の形態4における調理内容の表示を行う処理を説明するための図である。 実施の形態4における電子レンジの通知音の認識を行う処理を説明するための図である。 実施の形態4における周辺の集音機器からの集音と電子レンジ通知音の認識を行う処理を説明するための図である。 実施の形態4における電子レンジの運転終了をユーザへ通知する処理を説明するための図である。 実施の形態4における携帯電話操作状態の確認を行う処理を説明するための図である。 実施の形態4におけるユーザ位置の追跡を行う処理を説明するための図である。 音声出力装置からの音声をキャンセルしつつ、家電の通知音を認識し、通信可能な電子機器にユーザ(操作者)の現在位置を認識させ、ユーザ位置の認識結果から、ユーザ位置に近い位置にある機器にユーザへの通知を行わせることを示した図である。 実施の形態4におけるサーバ、または、携帯電話、または、電子レンジに保持するデータベースの内容を示す図である。 実施の形態4におけるユーザが携帯電話に表示された調理手順を基に調理を行い、また、「次へ」「戻る」等の音声によって携帯電話の表示内容をユーザが操作することを示す図である。 実施の形態4における電子レンジの運転を開始し、運転終了を待っている間や、煮物を煮込んでいる間等の時間に、ユーザが他の場所へ移動していることを示す図である。 ネットワークを介して携帯電話と接続されており、かつ、カメラやマイクや人感センサ等の、ユーザの位置の認識やユーザが存在していることを認識することができる機器に対して、携帯電話からユーザを探知する命令を送信することを示す図である。 実施の形態4におけるユーザの探知の例として、テレビに付属したカメラでユーザの顔を認識し、また、エアコンの人感センサでユーザの移動や存在を認識していることを示す図である。 ユーザを探知した機器から、ユーザを探知したことや、探知した機器からユーザまでの相対位置を、携帯電話に送信することを示す図である。 実施の形態4における電子レンジの運転終了音を、携帯電話が認識することを示す図である。 電子レンジの運転終了を認識した携帯電話が、ユーザを探知している機器のうち、画面表示機能や音声出力機能を持った機器に、電子レンジの運転終了をユーザへ通知させる命令を送信することを示す図である。 実施の形態4における命令を受け取った機器が、通知内容をユーザへ通知することを示す図である。 電子レンジの運転終了音を、ネットワークを介して携帯電話と接続されており、マイクを備えており、電子レンジの付近に存在する機器が認識することを示す図である。 電子レンジの運転終了を、これを認識した機器から携帯電話へ通知することを示す図である。 携帯電話が電子レンジの運転終了の通知受け取ったとき、携帯電話がユーザの付近にあれば、携帯電話の画面表示や音声出力等を用いて、電子レンジの運転終了をユーザへ通知することを示す図である。 電子レンジの運転終了をユーザへ通知することを示す図である。 電子レンジの運転終了の通知を受けたユーザがキッチンに移動することを示す図である。 電子レンジから無線通信で携帯電話に、運転終了等の情報を送信し、携帯電話から、ユーザの見ているテレビに通知命令を行い、テレビの画面表示や音声でユーザに通知を行うことを示す図である。 電子レンジから無線通信で、ユーザの見ているテレビに運転終了などの情報を送信し、テレビの画面表示や音声を用いてユーザに通知を行うことを示す図である。 テレビの画面表示や音声でユーザに通知を行うことを示す図である。 遠隔地にいるユーザへ情報の通知を行うことを示す図である。 電子レンジから、ハブとなる携帯電話へ直接通信が行えない場合に、パソコン等を経由して、携帯電話に情報を送信することを示した図である。 図57の通信を受けた携帯電話から、情報通信経路を逆に辿って電子レンジに操作命令等の情報を送信することを示す図である。 情報ソース機器であるエアコンから、ハブとなる携帯電話に直接の通信が不可能である場合に、ユーザに情報の通知を行なうことを示した図である。 700~900MHzの電波を用いた通信装置を利用したシステムについて説明するための図である。 遠隔地の携帯電話がユーザに情報を通知することを示す図である。 遠隔地の携帯電話がユーザへ情報の通知を行うことを示す図である。 図62と同様の場合において、通知認識機器と情報通知機器の中継を行う機器に代わって、2階のテレビが中継機器の役割を果たした場合の図である。 実施の形態5における宅内の環境の例を示す図である。 実施の形態5における家電機器とスマートフォンの通信の例を示す図である。 実施の形態5における送信側装置の構成を示す図である。 実施の形態5における受信側装置の構成を示す図である。 図64において、送信側端末(TV)が受信側端末(タブレット)と光通信を用いて無線LAN認証を行う場合のシーケンス図である。 実施の形態5におけるアプリケーションでの認証を行う場合のシーケンス図である。 実施の形態5における送信側端末の動作を表すフローチャートである。 実施の形態5における受信側端末の動作を表すフローチャートである。 実施の形態6におけるモバイルAV端末1がモバイルAV端末2にデータを送信するシーケンス図である。 実施の形態6におけるモバイルAV端末1がモバイルAV端末2にデータを送信する場合の画面遷移図である。 実施の形態6におけるモバイルAV端末1がモバイルAV端末2にデータを送信する場合の画面遷移図である。 実施の形態6におけるモバイルAV端末1がデジタルカメラである場合のシステム概略図である。 実施の形態6におけるモバイルAV端末1がデジタルカメラである場合のシステム概略図である。 実施の形態6におけるモバイルAV端末1がデジタルカメラである場合のシステム概略図である。 実施の形態7における発光部の輝度の観測方法の一例を示す図である。 実施の形態7における発光部の輝度の観測方法の一例を示す図である。 実施の形態7における発光部の輝度の観測方法の一例を示す図である。 実施の形態7における発光部の輝度の観測方法の一例を示す図である。 実施の形態7における発光部の輝度の観測方法の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における信号変調方式の一例を示す図である。 実施の形態7における発光部の検出方法の一例を示す図である。 実施の形態7における発光部の検出方法の一例を示す図である。 実施の形態7における発光部の検出方法の一例を示す図である。 実施の形態7における発光部の検出方法の一例を示す図である。 実施の形態7における発光部の検出方法の一例を示す図である。 実施の形態7における送信信号のタイムラインと、発光部を撮像した画像を示す図である。 実施の形態7における位置パターンによる信号の伝送の一例を示す図である。 実施の形態7における受信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における送信装置の一例を示す図である。 実施の形態7における発光部の構造の一例を示す図である。 実施の形態7における信号搬送波の一例を示す図である。 実施の形態7における撮像部の一例を示す図である。 実施の形態7における受信装置の位置の推定の一例を示す図である。 実施の形態7における受信装置の位置の推定の一例を示す図である。 実施の形態7における受信装置の位置の推定の一例を示す図である。 実施の形態7における受信装置の位置の推定の一例を示す図である。 実施の形態7における受信装置の位置の推定の一例を示す図である。 実施の形態7における送信情報の設定の一例を示す図である。 実施の形態7における送信情報の設定の一例を示す図である。 実施の形態7における送信情報の設定の一例を示す図である。 実施の形態7における受信装置の構成要素の一例を示すブロック図である。 実施の形態7における送信装置の構成要素の一例を示すブロック図である。 実施の形態7における受信の手順の一例を示す図である。 実施の形態7における自己位置推定の手順の一例を示す図である。 実施の形態7における送信制御の手順の一例を示す図である。 実施の形態7における送信制御の手順の一例を示す図である。 実施の形態7における送信制御の手順の一例を示す図である。 実施の形態7における駅構内での情報提供の一例を示す図である。 実施の形態7における乗車サービスの一例を示す図である。 実施の形態7における店舗内サービスの一例を示す図である。 実施の形態7における無線接続の確立の一例を示す図である。 実施の形態7における通信範囲の調整の一例を示す図である。 実施の形態7における屋内での利用の一例を示す図である。 実施の形態7における屋外での利用の一例を示す図である。 実施の形態7における道順の指示の一例を示す図である。 実施の形態7における複数の撮像装置の利用の一例を示す図である。 実施の形態7における送信装置自律制御の一例を示す図である。 実施の形態7における送信情報の設定の一例を示す図である。 実施の形態7における送信情報の設定の一例を示す図である。 実施の形態7における送信情報の設定の一例を示す図である。 実施の形態7における2次元バーコードとの組み合わせの一例を示す図である。 実施の形態7における地図の作成と利用の一例を示す図である。 実施の形態7における電子機器の状態取得と操作の一例を示す図である。 実施の形態7における電子機器の認識の一例を示す図である。 実施の形態7における拡張現実オブジェクトの表示の一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態7におけるユーザインタフェースの一例を示す図である。 実施の形態8におけるITSへの応用例を示す図である。 実施の形態8におけるITSへの応用例を示す図である。 実施の形態8における位置情報報知システムおよび施設システムへの応用例を示す図である。 実施の形態8におけるスーパーマーケットのシステムへの応用例を示す図である。 実施の形態8における携帯電話端末とカメラの通信への応用例を示す図である。 実施の形態8における水中通信への応用例を示す図である。 実施の形態9におけるユーザへのサービス提供例を説明するための図である。 実施の形態9におけるユーザへのサービス提供例を説明するための図である。 実施の形態9における受信機が送信機から受信した複数の信号を同時に処理する場合を示すフローチャートである。 実施の形態9における相互通信により機器間のコミュニケーションを実現する場合の一例を示す図である。 実施の形態9における指向性の特性を利用したサービスを説明するための図である。 実施の形態9におけるユーザへのサービス提供例の別の例を説明するための図である。 実施の形態9における送信機が発する光源に含まれる信号のフォーマット例を示す図である。 実施の形態10の原理を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態10の動作の一例を示す図である。 実施の形態11の情報通信装置における送信信号のタイミング図である。 実施の形態11における送信信号と受信信号の関係を示す図である。 実施の形態11における送信信号と受信信号の関係を示す図である。 実施の形態11における送信信号と受信信号の関係を示す図である。 実施の形態11における送信信号と受信信号の関係を示す図である。 実施の形態11における送信信号と受信信号の関係を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の状態を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の状態を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の状態を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の状態を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の状態を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の輝度変化を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の輝度変化を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の輝度変化を示す図である。 実施の形態12における送信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の輝度変化を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の構成例を示す図である。 実施の形態12における送信機の構成例を示す図である。 実施の形態12における送信機の構成例を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機による表示と撮影の例を示す図である。 実施の形態12における送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の状態を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の状態を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の波長の一例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。 実施の形態12におけるシステムの処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。 実施の形態12におけるシステムの処理動作の一例を示すフローチャートである。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機の適用例を示す図である。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。 実施の形態12におけるシステムの処理動作の一例を示すフローチャートである。 実施の形態12における受信機の処理動作の一例を示すフローチャートである。 実施の形態12における送信機の構成の一例を示す図である。 実施の形態12における送信機の構成の他の例を示す図である。 実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。 実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。 実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。 実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。 実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。 実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。 実施の形態13における送信機の適用例を示す図である。 実施の形態13における送信機の適用例を示す図である。 実施の形態13における送信機の適用例を示す図である。 実施の形態13における送信機と受信機の適用例を示す図である。 実施の形態13における送信機と受信機の適用例を示す図である。 実施の形態13における送信機と受信機の適用例を示す図である。 実施の形態13における送信機と受信機の適用例を示す図である。 実施の形態13における送信信号の例を示す図である。 実施の形態13における送信信号の他の例を示す図である。 実施の形態13における送信信号の例を示す図である。 実施の形態13における送信信号の例を示す図である。 実施の形態13における送信信号の他の例を示す図である。 実施の形態13における送信信号の例を示す図である。 実施の形態13における送信信号の例を示す図である。 実施の形態13における送信信号の例を示す図である。 実施の形態13における送信機の適用例を示す図である。 実施の形態13における送信機の適用例を示す図である。 実施の形態13における撮像素子を説明するための図である。 実施の形態13における撮像素子を説明するための図である。 実施の形態13における撮像素子を説明するための図である。 各実施の形態の変形例に係る受信装置(撮像装置)の処理動作を示すフローチャートである。 各実施の形態の変形例に係る通常撮像モードとマクロ撮像モードとを対比して示す図である。 各実施の形態の変形例に係る、映像などを表示する表示装置を示す図である。 各実施の形態の変形例に係る表示装置の処理動作の一例を示す図である。 各実施の形態の変形例に係る表示装置における信号を送信する部分の例を示す図である。 各実施の形態の変形例に係る表示装置の処理動作の他の例を示す図である。 各実施の形態の変形例に係る表示装置における信号を送信する部分の他の例を示す図である。 各実施の形態の変形例に係る表示装置による処理動作のさらに他の例を示す図である。 各実施の形態の変形例に係る送信機および受信機を含む通信システムの構成を示す図である。 各実施の形態の変形例に係る通信システムの処理動作を示すフローチャートである。 各実施の形態の変形例に係る信号伝送の例を示す図である。 各実施の形態の変形例に係る信号伝送の例を示す図である。 各実施の形態の変形例に係る信号伝送の例を示す図である。 各実施の形態の変形例に係る信号伝送の例を示す図である。 各実施の形態の変形例に係る信号伝送の例を示す図である。 各実施の形態の変形例に係る信号伝送の例を示す図である。 各実施の形態の変形例に係る、ディスプレイまたはプロジェクタと受信機とを含む通信システムの処理動作を示すフローチャートである。 各実施の形態の変形例に係る送信信号の例を示す図である。 各実施の形態の変形例に係る送信信号の例を示す図である。 各実施の形態の変形例に係る送信信号の例を示す図である。 各実施の形態の変形例に係る受信機の撮像素子の一例を示す図である。 各実施の形態の変形例に係る受信機の撮像装置の内部回路の構成例を示す図である。 各実施の形態の変形例に係る送信信号の例を示す図である。 各実施の形態の変形例に係る送信信号の例を示す図である。 本発明の一態様に係る情報通信方法のフローチャートである。 本発明の一態様に係る情報通信装置のブロック図である。 本発明の一態様に係る情報通信方法によって得られる画像の一例を示す図である。 本発明の他の態様に係る情報通信方法のフローチャートである。 本発明の他の態様に係る情報通信装置のブロック図である。 本発明のさらに他の態様に係る情報通信方法のフローチャートである。 本発明のさらに他の態様に係る情報通信装置のブロック図である。
 本発明の一態様に係る情報通信方法は、被写体から情報を取得する情報通信方法であって、イメージセンサによる前記被写体の撮像によって得られる画像に、前記イメージセンサに含まれる露光ラインに対応する輝線が前記被写体の輝度変化に応じて生じるように、前記イメージセンサの露光時間を設定する露光時間設定ステップと、前記イメージセンサが、輝度変化する前記被写体を、設定された前記露光時間で撮像することによって、前記輝線を含む画像を取得する撮像ステップと、取得された前記画像に含まれる前記輝線のパターンによって特定されるデータを復調することにより情報を取得する情報取得ステップと、を含む。
 これにより、被写体の輝度変化によって送信される情報が、イメージセンサの露光ラインの露光によって取得されるため、例えば無線通信を行うための特別な通信デバイスを必要とすることなく、多様な機器間の通信を可能とすることができる。なお、露光ラインは、イメージセンサに含まれる、同時に露光する複数の画素からなる列または行である。また、輝線は、例えば後述の図79などによって示される撮像画像中に含まれる線である。
 例えば、前記撮像ステップでは、前記イメージセンサに含まれる複数の露光ラインのそれぞれを互いに異なるタイミングで順次露光する。
 これにより、ローリングシャッター方式の撮像が行われることによって生じる輝線が、画像内における各露光ラインに対応する位置に含まれるため、被写体から多くの情報を取得することができる。
 ここで、前記情報取得ステップでは、前記輝線のパターンのうち、前記露光ラインに垂直な方向のパターンによって特定される前記データを復調してもよい。
 これにより、輝度変化に対応する情報を適切に取得することができる。
 また、前記露光時間設定ステップでは、前記露光時間を10ミリ秒よりも短く設定してもよい。
 これにより、画像中に輝線をより確実に生じさせることができる。
 ここで、前記撮像ステップでは、200Hz以上の周波数で輝度変化する前記被写体を撮像してもよい。
 これにより、例えば後述の図305Aおよび図305Bに示すように、人がちらつきを感じることなく、多くの情報を被写体から取得することができる。
 また、前記撮像ステップでは、前記露光ラインに平行な輝線を含む前記画像を取得してもよい。
 これにより、輝度変化に対応する情報を適切に取得することができる。
 ここで、前記情報取得ステップでは、取得された前記画像内における、前記イメージセンサに含まれる各露光ラインに対応する領域ごとに、当該領域に輝線があるか否かによって特定される0または1を示す前記データを復調してもよい。
 これにより、PPM変調された多くの情報を被写体から取得することができる。例えば後述の図79に示すように、1秒あたりの画像の数(フレームレート)がf、1画像を構成する露光ライン数がlのとき、各露光ラインが一定以上の光を受光しているかどうかで情報を取得すると、最大でflビット毎秒の速度で情報を取得することができる。
 また、前記情報取得ステップでは、前記領域ごとに、当該領域の輝度値が閾値以上であるか否かに応じて、当該領域に輝線があるか否かを特定してもよい。
 これにより、被写体から適切に情報を取得することができる。
 ここで、前記撮像ステップでは、所定の期間ごとに、当該所定の期間に対応する一定の周波数で輝度変化する前記被写体を撮像し、前記情報取得ステップでは、前記所定の期間ごとに、当該所定の期間に対応する一定の周波数の輝度変化に応じて生成される前記輝線のパターンによって特定される前記データを復調してもよい。
 これにより、FM変調された多くの情報を被写体から取得することができる。例えば後述の図188に示すように、周波数f1に対応する輝線のパターンと、周波数f2に対応する輝線のパターンとによって、適切な情報を取得することができる。
 また、前記撮像ステップでは、輝度の立ち上がりおよび立ち下りのうちの一方の変化と次の前記一方の変化との間の時間を調整することによって信号を送信するように輝度変化する前記被写体を撮像し、前記情報取得ステップでは、前記輝線のパターンによって特定される、前記時間に対応付けられた符号である前記データを復調してもよい。
 これにより、例えば後述の図248に示すように、被写体から送信される情報の内容を変えることなく、PWM制御によって、人が感じる被写体(例えば照明機器)の明るさを調整することができる。
 ここで、前記撮像ステップでは、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化する前記被写体を撮像してもよい。
 これにより、人がちらつきを感じることなく、多くの情報を被写体から取得することができる。例えば後述の図85に示すように、変調後の信号が0のときは非発光、1のときは発光とし、送信信号に偏りはないとすると、移動平均したときの各輝度値を発光時の輝度値の約75%にすることができる。その結果、人がちらつきを感じることを防ぐことができる。
 また、前記輝線のパターンは前記イメージセンサの露光時間に応じて異なり、前記情報取得ステップでは、設定された前記露光時間に応じた前記パターンによって特定される前記データを復調してもよい。
 これにより、例えば後述の図91に示すように、露光時間に応じて異なる情報を被写体から取得することができる。
 ここで、前記情報通信方法は、さらに、前記イメージセンサを備える撮像装置の状態を検出し、前記情報取得ステップでは、前記被写体の位置を示す前記情報を取得し、さらに、取得された前記情報と、検出された前記状態とに基づいて、前記撮像装置の位置を算出してもよい。
 これにより、例えば後述の図185に示すように、GPSなどを使うことができなくても、またはGPSなどを使った場合よりも、撮像装置の位置を正確に特定することができる。
 また、前記撮像ステップでは、前記露光ラインに沿うように配列された複数の領域を含み、領域ごとに輝度変化する前記被写体を撮像してもよい。
 これにより、例えば後述の図258に示すように、多くの情報を被写体から取得することができる。
 ここで、前記撮像ステップでは、メタメリックな複数種の光を互いに異なるタイミングで発する前記被写体を撮像してもよい。
 これにより、例えば後述の図272に示すように、人がちらつきを感じることなく、多くの情報を被写体から取得することができる。
 また、前記情報通信方法は、さらに、前記イメージセンサを備える撮像装置が存在する場所を推定し、前記情報取得ステップでは、前記被写体の識別情報を前記情報として取得するとともに、前記場所および前記識別情報に関連付けられた関連情報をサーバから取得してもよい。
 これにより、例えば後述の図282および図283に示すように、複数の照明機器から同じ識別情報が輝度変化によって送信されるような場合であっても、撮像装置が存在する場所(建物)、つまり照明機器が存在する場所(建物)に応じて適切な関連情報を取得することができる。
 ここで、本発明の一態様に係る情報通信方法は、輝度変化によって信号を送信する情報通信方法であって、送信対象の信号を変調することによって、輝度変化のパターンを決定する決定ステップと、発光体が、決定された前記パターンにしたがって輝度変化することによって前記送信対象の信号を送信する第1の送信ステップと、前記発光体が、前記送信対象の信号を送信してから33ミリ秒以内に、決定された前記パターンと同一のパターンにしたがって輝度変化することによって前記送信対象の信号と同一の信号を送信する第2の送信ステップとを含み、前記決定ステップでは、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように前記パターンを決定する。
 これにより、輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化のパターンが決定されるため、人がちらつきを感じるのを防ぎならが、輝度変化によって信号を送信することができる。さらに、例えば後述の図301Bに示すように、33ミリ秒以内に同じ信号が送信されるため、信号を受信する受信機にブランキングがあっても、確実に信号をその受信機に送信することができる。
 また、前記決定ステップでは、2ビットによって示される信号のそれぞれを、同じ値を示す3つのビットと他の値を示す1つのビットとからなる4ビットによって示される信号に変調する方式にしたがって、前記送信対象の信号を変調してもよい。
 これにより、例えば後述する図85に示すように、変調後の信号が0のときは非発光、1のときは発光とし、送信信号に偏りはないとすると、移動平均したときの各輝度値を発光時の輝度値の約75%にすることができる。その結果、人がちらつきを感じることをより確実に防ぐことができる。
 ここで、前記決定ステップでは、輝度の立ち上がりおよび立ち下りのうちの一方の変化と次の前記一方の変化との間の時間を、前記送信対象の信号に応じて調整することによって、前記輝度変化のパターンを決定してもよい。
 これにより、例えば後述の図248に示すように、送信対象の信号の内容を変えることなく、PWM制御によって、人が感じる発光体(例えば照明機器)の明るさを調整することができる。
 また、前記第1の送信ステップおよび前記第2の送信ステップでは、輝度変化する前記発光体を撮像するイメージセンサの露光時間に応じて異なる信号が、前記イメージセンサを備える撮像装置に取得されるように輝度変化してもよい。
 これにより、例えば後述の図91に示すように、露光時間に応じて異なる信号を撮像装置に送信することができる。
 ここで、前記第1の送信ステップおよび前記第2の送信ステップでは、複数の発光体が同調して輝度変化することによって、前記複数の発光体が共通の情報を送信し、前記共通の情報が送信された後に、発光体ごとに輝度変化することによって、当該発光体ごとに異なる情報を送信してもよい。
 これにより、例えば後述の図98に示すように、複数の発光体が共通の情報を同時に送信することで、複数の発光体を一つの大きな発光体とみなすことができ、その共通の情報を受信する撮像装置で発光体を大きく撮像することができるため、情報をより速く、より遠くからでも送信することができる。さらに、例えば後述の図186に示すように、複数の発光体が共通の情報を送信することによって、発光体ごとに送信される個別の情報の情報量を抑えることができる。
 また、前記情報通信方法は、さらに、前記送信対象の信号の変調を行うか否かの指示を受け付ける指示受付ステップを含み、前記変調を行うことを示す指示が受け付けられた場合には、前記決定ステップ、前記第1の送信ステップおよび前記第2の送信ステップを実行し、前記変調を行わないことを示す指示が受け付けられた場合には、前記決定ステップ、前記第1の送信ステップおよび前記第2の送信ステップを実行することなく、前記発光体は点灯または消灯してもよい。
 これにより、例えば後述の図186に示すように、変調を行うか否かが切り替えられるため、他の発光体の輝度変化に対してノイズとして与える影響を抑えることができる。
 ここで、前記発光体は、当該発光体を撮像するイメージセンサの露光ラインに沿うように配列された複数の領域を含み、前記第1の送信ステップおよび前記第2の送信ステップでは、前記発光体の領域ごとに輝度変化してもよい。
 これにより、例えば後述の図258に示すように、多くの情報を送信することができる。
 また、前記第1の送信ステップおよび前記第2の送信ステップでは、前記発光体は、メタメリックな複数種の光を互いに異なるタイミングで発することによって輝度変化してもよい。
 これにより、例えば後述の図272に示すように、人がちらつきを感じることなく、多くの情報を送信することができる。
 ここで、前記第1の送信ステップおよび前記第2の送信ステップでは、前記送信対象の信号または前記同一の信号として前記発光体の識別情報を送信してもよい。
 これにより、例えば後述の図282に示すように、発光体の識別情報が送信されるため、その識別情報を受信した撮像装置は、その識別情報に関連付けられたより多くの情報を、インターネットなどの通信回線を介してサーバなどから取得することができる。
 また、本発明の一態様に係る情報通信方法は、輝度変化によって信号を送信する情報通信方法であって、送信対象の信号を変調することによって複数の周波数を決定する決定ステップと、発光体が、決定された前記複数の周波数のうちの何れかの一定の周波数にしたがって輝度変化することによって信号を送信する送信ステップと、前記輝度変化に用いられる周波数を、決定された複数の周波数のうちの他の周波数に33ミリ秒以上の周期で順に変更する変更ステップとを含み、前記送信ステップでは、前記発光体は、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化してもよい。
 これにより、輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化のパターンが決定されるため、人がちらつきを感じるのを防ぎならが、輝度変化によって信号を送信することができる。さらに、FM変調された多くの信号を送信することができる。例えば後述の図188に示すように、輝度変化の周波数(f1、f2など)が33ミリ秒以上の周期で変更されることによって、適切な情報を送信することができる。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 以下、実施の形態について、図面を参照しながら具体的に説明する。
 なお、以下で説明する実施の形態は、いずれも包括的または具体的な例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 以下では、機器が備えるLEDの点滅パターンとして情報を送信することで、スマートフォンのカメラを用いて通信する処理の流れについて述べる。
 図1は、本実施の形態における宅内の環境の例を示す図である。図1に示す環境では、テレビ1101や電子レンジ1106、空気清浄機1107に対して、スマートフォン1105などもユーザの回りにある。
 図2は、本実施の形態における家電機器とスマートフォンの通信の例を示す図である。図2は、情報通信の例であり、図1のテレビ1101や電子レンジ1106のような各機器の出力する情報をユーザが保有するスマートフォン1201で取得することで、情報を得る構成を示す図である。図2に示すとおり、各機器はLEDの点滅パターンを用いて情報を送信し、スマートフォン1201はカメラなどによる撮像機能を用いて情報を受け取る。
 図3は、本実施の形態における送信側装置1301の構成の1例を示す図である。
 この送信側装置1301は、ユーザがボタンを押したり、NFC(Near Field Communication)などによって送信指示を送ったり、装置内部の故障などのステートの変化を検知することで、情報を光の点滅パターンとして送信する。このとき一定時間送信を繰り返す。送信される情報は、あらかじめ登録されている機器間であれば、短縮IDを用いてもよい。また、無線LANや特定省電力無線といった無線通信部を有する場合は、その接続に必要な認証情報を点滅パターンとして送信することもできる。
 また、送信速度判定部1309は、機器内部のクロック発生装置の性能を把握することで、クロック発生装置が廉価なもので精度の悪い場合は、送信速度を遅くして、高い場合は送信速度を早くする処理を行うことができる。クロック発生装置の性能が悪い場合は、又は送信される情報自体を短く区切ることで長時間通信することでの点滅間隔のずれの蓄積によるエラーを減らすことも可能である。
 図4は、本実施の形態における受信側装置1401の構成の1例を示すである。
 この受信側装置1401は、画像取得部1404が取得したフレーム画像から、光の点滅が見られるエリアを判定する。このとき点滅は、一定以上の輝度の高低が観測されるエリアを追尾するような方法をとることもできる。
 点滅情報取得部1406は、点滅のパターンから、送信された情報を取得し、その中に機器IDなどの機器関連が含まれている場合は、その情報を用いてクラウド上の関連サーバに付随する情報を問い合わせるか、又は事前に保管されている無線通信エリア内の機器か又は受信側装置内部に保管されている情報を用いて補間する。これによって、光の発光パターンを撮像するときのノイズによるエラー補正や、すでに入手した情報を取得するために、ユーザがスマートフォンを送信側装置の発光部にかざす時間を削減するなどの効果が得られる。
 以下、図5を解説する。
 図5は、本実施の形態における送信側装置のLEDの点滅によってスマートフォンなどの受信側装置に情報を送る処理の流れを示す図である。ここでは、NFCによってスマートフォンと通信する機能を有する送信側装置と、その送信側装置が持つNFC用の通信マークの一部に埋め込まれたLEDの発光パターンによって情報を送信する状況を想定する。
 まず、ステップ1001aで、ユーザが家電機器を購入し初めてコンセントに電源を差し、通電状態になる。
 次に、ステップ1001bで、初期設定情報が書き込み済みかどうかを確認する。Yesの場合は図中の丸3に進む。一方、Noの場合はステップ1001cに進み、ユーザが理解しやすい点滅速度(例:1~2/5)で、マークが点滅する。
 次に、ステップ1001dで、ユーザがNFC通信よりスマートフォンをマークにタッチすることで家電の機器情報を取得するかどうかを確認する。ここで、Yesの場合は、ステップ1001eに進み、スマートフォンがクラウドのサーバに機器情報を受信し、クラウドに登録する。続いて、ステップ1001fで、クラウドからスマートフォンのユーザのアカウントに関連づけられた短縮IDを受信し、家電に送信し、ステップ1001gに進む。なお、ステップ1001dで、Noの場合はステップ1001gに進む。
 次に、ステップ1001gで、NFCでの登録があるかどうか確認する。Yesの場合は、ステップ1001jへ進み、青の点滅2回後、ステップ1001kで、点滅が終了する。
 一方、ステップ1001gで、Noの場合はステップ1001hへ進む。続いて、ステップ1001hで、30秒過ぎたかどうかを確認する。ここで、Yesの場合は、ステップ1001iへ進み、LED部分が光の点滅によって機器情報(機器の型番、NFCでの登録処理有無、機器の固有ID)を出力して、図6の丸2へ進む。
 なお、ステップ1001hで、Noの場合はステップ1001dへ戻る。
 次に、図6~図9を用いて、本実施の形態における送信側装置のLEDの点滅によって受信側装置に情報を送信する処理の流れを説明する。ここで、図6~図9は、送信側装置のLEDの点滅によって受信側装置に情報を送信する処理の流れを示す図である。
 以下、図6を解説する。
 まず、ステップ1002aで、ユーザがスマートフォンの光点滅情報を取得するアプリを起動する。
 次に、ステップ1002bで、画像取得部分が光の点滅を取得する。そして、点滅エリア判定部が画像の時系列上の変化から点滅しているエリアを判定する。
 次に、ステップ1002cで、点滅情報取得部が点滅エリアの点滅パターンを判定し、プリアンブル検出を待つ。
 次に、ステップ1002dで、プリアンブルの検出出来た場合、その点滅エリアの情報を取得する。
 次に、ステップ1002eで、機器IDの情報が取得出来た場合、受信継続状態においても、クラウド側のサーバに情報を送り情報補間部がクラウド側から入手した情報と点滅情報取得部の情報とを比べつつ補間する。
 次に、ステップ1002fで、補間した情報も含めて全ての情報がそろったらスマートフォンかユーザに通知する。この時クラウドから入手した関連サイトやGUIを表示する事でよりリッチで分かり易い通知が可能となり、図7の丸4へ進む。
 以下、図7を解説する。
 まず、ステップ1003aで、家電が故障やユーザに通知する使用回数、室温などのメッセージを生成した場合、情報送信モードを開始する。
 次に、ステップ1003bで、マークを1~2/sで点滅させる。同時にLEDも情報発信を始める。
 次に、ステップ1003cで、NFCでの通信が開始されたかどうかを確認する。なお、Noの場合は、図9の丸7へ進む。Yesの場合は、ステップ1003dへ進み、LEDの点滅を停止する。
 次に、ステップ1003eで、スマートフォンがクラウドのサーバにアクセスして、関連情報を表示する。
 次に、ステップ1003fで、現地対応が必要な故障の場合、サーバ側でサポートするサービスマンを検索。家電、設置場所、位置情報を利用する。
 次に、ステップ1003gで、サービスマンがあらかじめ決められた順に家電のボタンを押すことでサポートモードにする。
 次に、ステップ1003hで、マーカ以外の家電のLEDでマーカの点滅がスマートフォンから見える場合に同時に見えるLEDの一部または全てが情報を補間する様点滅し、図8の丸5へ進む。
 以下、図8を解説する。
 まず、ステップ1004aで、サービスマンは所有する受信端末の性能が高速(例:1000/s回)の点滅を検出可能な場合、その設定ボタンを押す。
 次に、ステップ1004bで、家電のLEDが高速モード点滅して、丸6に進む。
 以下、図9を解説する。
 まず、ステップ1005aで、点滅を継続する。
 次に、ステップ1005bで、ユーザがスマートフォンでLEDの点滅情報を取りに来る。
 次に、ステップ1005cで、ユーザがスマートフォンの光点滅情報を取得するアプリを起動する。
 次に、ステップ1005dで、画像取得部分が光の点滅を取得する。そして、点滅エリア判定部が画像の時系列上の変化から点滅しているエリアを判定する。
 次に、ステップ1005eで、点滅情報取得部が点滅エリアの点滅パターンを判定し、プリアンブル検出を待つ。
 次に、ステップ1005fで、プリアンブルの検出出来た場合、その点滅エリアの情報を取得する。
 次に、ステップ1005gで、機器IDの情報が取得出来た場合、受信継続状態においても、クラウド側のサーバに情報を送り情報補間部がクラウド側から入手した情報と点滅情報取得部の情報とを比べつつ補間する。
 次に、ステップ1005hで、補間した情報も含めて全ての情報がそろったらスマートフォンかユーザに通知する。この時クラウドから入手した関連サイトやGUIを表示する事でよりリッチで分かり易い通知が可能となる。
 そして、図7のステップ1003fへ進む。
 このようにして、家電機器などの送信装置が、LEDの点滅によってスマートフォンに情報を送信することができる。無線機能やNFCといった通信手段がないような機器でも、情報を発信することができて、スマートフォンを経由してクラウド上のサーバにあるリッチな情報をユーザに提供することもできる。
 また、本実施の形態に示すように、少なくとも一つの持ち運び可能な機器を含む2つの機器間で、双方向通信(例えばNFC通信)と片方向通信(例えばLEDの輝度変化による通信)の両方の通信方法でデータの送受信を行う機能を有する場合において、片方の機器からもう片方の機器に片方向通信にてデータの送信をしているときにおいて、双方向通信でデータ送受信が実現した場合に、片方向の通信をとめることが可能である。これにより、片方向通信に必要となる消費電力の無駄を省くことが出来るため効率的である。
 以上、実施の形態1によれば、演算力が少ないような機器を含む多様な機器間の通信を可能とする情報通信装置を実現することができる。
 具体的には、本実施の形態の情報通信装置は、自らのユニークなIDと機器の状態情報を含む機器情報を管理する情報管理部と、発光素子と、前記発光素子の点滅パターンとして情報を送信する光送信部とを有し、前記光送信部は、前記機器の内部の状態に変化があった場合に、前記機器情報を光の点滅パターンに変換して送信する。
 ここで、例えば、さらに、自らの起動状態やユーザの使用履歴といった機器内部のセンシングされた情報を保存する起動履歴管理部を備え、前記光送信部は、利用するクロック発生装置のあらかじめ登録された性能情報を取得し、送信速度を変更するとしてもよい。
 また、例えば、前記光送信部は、光の点滅によって情報を送信するための第一の発光素子の周囲に、第二の発光素子を配置されており、前記第二の発光素子は、前記第一の発光素子の点滅による情報発信が一定回数繰り返される場合に、情報発信の終了と開始の間に発光するとしてもよい。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 (実施の形態2)
 本実施の形態では、掃除機を例にとって、可視光通信を用いた機器とユーザの通信手順、及び、可視光通信を用いた初期設定から故障時の修理対応サービス、掃除機を用いたサービス連携について説明する。
 図10と図11は、本実施の形態における可視光を用いてユーザと機器の通信を行う手順を説明するための図である。
 以下、図10について解説する。
 まず、丸1において、開始する。
 次に、ステップ2001aで、ユーザが電源投入する。
 次に、ステップ2001bで、起動処理として、設置設定、NW設定等の初期設定がされているかを確認する。
 ここで、初期設定がされている場合は、ステップ2001fへ進み、通常動作を開始して、丸3に示すように終了する。
 一方、初期設定がされてない場合、ステップ2001cへ進み、「LED通常発光」「ブザー音」によってユーザに初期設定が必要なことを通知する。
 次に、ステップ2001dで、機器情報(製品番号と製造番号)を収集して可視光通信の準備をする。
 次に、ステップ2001eで、機器情報(製品番号と製造番号)可視光通信が可能な事を「LED通信発光」「ディスプレイへのアイコン表示」「ブザー音」「複数のLEDを発光」でユーザに通知する。
 そして、丸2に示すように終了する。
 続いて、図11について解説する。
 まず、丸2に示すように開始する。
 次に、ステップ2002aで、可視光受信端末の接近を「近接センサ」、「照度センサ」及び「人感センサ」で感知する。
 次に、ステップ2002bで、感知した事をトリガーとして可視光通信を開始する。
 次に、ステップ2002cで、ユーザは可視光受信端末で機器情報を取得する。
 続いて、丸4に示すように終了する。あるいは、ステップ2002f~ステップ2002iのいずれかに進む。
 ステップ2002fに進んだ場合、「感度センサ」による感知、及び、「調光機器との連携」で部屋が消灯された事を感知して機器情報の発光を停止して、丸5に示すように終了する。また、ステップ2002gに進んだ場合、可視光受信端末は機器情報を取得感感知した事を「NFC通信」及び「NW通信」で通知して、終了する。ステップ2002hに進んだ場合、可視光受信端末の離脱を感知して機器情報を停止して、終了する。ステップ2002iに進んだ場合、一定時間の経過を持って、機器情報の発光を停止して、終了する。
 なお、ステップ2002aで、感知しなかった場合は、ステップ2002dに進み、一定時間の経過を持って可視光通信が可能な通知を「明るくする」「音を大きくする」「アイコンを動かす」などで強化して通知する。ここで、ステップ2002dへ戻る。あるいは、ステップ2002eへ進み、さらに一定時間経過後に、ステップ2002iへ進む。
 図12は、本実施の形態におけるユーザが機器を購入して、機器の初期設定を行うまでの手順を説明するための図である。
 図12において、まず、丸4に示すように開始する。
 次に、ステップ2003aで、機器情報を受信したスマホの位置情報をGPS(Global Positioning System)で取得する。
 次に、ステップ2003bで、スマホにユーザ情報があれば、ユーザ名、電話番号、メールアドレスなどのユーザ情報を端末内で収集する。または、ステップ2003cで、スマホにユーザ情報がなければNWを通して周辺機器からユーザ情報を収集する。
 次に、ステップ2003dで、機器情報とユーザ情報と位置情報をクラウドサーバに送信する。
 次に、ステップ2003eで、機器情報と位置情報を用いて初期設定に必要な情報とアクティベーション情報を収集する。
 次に、ステップ2003fで、ユーザ登録済みの機器との連携に設定に必要なIPや認証方式や利用可能サービスといった連係情報を収集する。あるいは、ステップ2003gで、ユーザ登録済みの機器に対してNWを通して機器情報と設定情報を送信して周辺機器との連携設定を行う。
 次に、ステップ2003hで、機器情報とユーザ情報を用いてユーザ設定を行う。
 次に、ステップ2003iで、初期設定情報とアクティビティ情報と連携設定情報をスマホに送信する。
 次に、ステップ2003jで、初期設定情報とアクティベーション情報と連携設定情報をNFCで家電に送信する。
 次に、ステップ2003kで、初期設定情報とアクティベーション情報と連携設定情報で機器の設定をする。
 そして、丸6に示すように終了する。
 図13は、本実施の形態における機器が故障した場合の、サービスマン専用のサービスについて説明するための図である。
 図13において、まず、丸3に示すように開始する。
 次に、ステップ2004aで、機器の通常動作中に発生した動作ログ、ユーザ操作ログといった履歴情報をローカル記憶媒体に記録する。
 次に、ステップ2004bで、故障発生と同時に、エラーコード、エラー詳細といったエラー情報を記録し、可視光通信が可能なことをLED異常発光で通知する。
 次に、ステップ2004cで、サービスマンの特殊コマンド実行でLED高速発光モードとなり可視光の高速通信を開始する。
 次に、ステップ2004dで、近接した端末が通常スマホなのか、サービスマンの専用受信端末かを判別する。ここで、ステップ2004eに進んだ場合、スマホの場合はエラー情報を取得して終了する。
 一方、ステップ2004fに進んだ場合、サービスマンの場合は、専用受信端末では、エラー情報と履歴情報を取得する。
 次に、ステップ2004gで、クラウドに機器情報とエラー情報と履歴情報を送信し、修理方法を取得する。ここで、ステップ2004hに進んだ場合、サービスマンの特殊コマンド実行でLED高速発光モードを解除して、終了する。
 一方、ステップ2004iに進んだ場合、クラウドサーバから機器情報の関連商品、類似商品の商品情報、最寄店舗の販売価格、新商品情報を取得する。
 次に、ステップ2004jで、ユーザのスマホとサービスマンの専用端末で可視光通信を通して、ユーザ情報を取得して、クラウドサーバに通して最寄店舗に商品を発注する。
 そして、丸9に示すように終了する。
 図14は、本実施の形態における掃除機と可視光通信を用いた、掃除状況を確認するためのサービスについて説明するための図である。
 まず、丸3に示すように、開始する。
 次に、ステップ2005aで、機器の通常動作中の掃除情報を記録する。
 次に、ステップ2005bで、間取り情報と組み合わせて汚れ情報を作成し、暗号化圧縮する。
 ここで、ステップ2005cに進んだ場合、汚れ情報の圧縮をトリガーとして、汚れ情報をローカル記憶媒体に記録する。あるいは、ステップ2005dに進んだ場合、掃除の一時停止(吸込処理停止)をトリガーとして汚れ情報を照明器具に可視光通信で送信する。あるいは、ステップ2005eに進んだ場合、汚れ情報の記録をトリガーとして、汚れ情報を家庭内ローカルサーバ及びクラウドサーバにNWで送信する。
 次に、ステップ2005fで、汚れ情報の送信及び記録をトリガーとして、機器情報、保存箇所、復号キーを可視光通信でスマホに送信する。
 次に、ステップ2005gで、NW及びNFCを通して、汚れ情報を取得して復号する。
 そして、丸10に示すように終了する。
 以上のように、実施の形態1によれば、演算力が少ないような機器を含む多様な機器間の通信を可能とする情報通信装置を含む可視光通信システムを実現することができる。
 具体的には、本実施の形態の情報通信装置を含む可視光通信システム(図10)は、可視光送信の準備が完了したかを判定するための可視光送信可否判定部と、可視光送信中であることをユーザに通知する可視光送信通知部と、を搭載しており、可視光通信が可能な状態になったときに、ユーザに視覚的、及び、聴覚的に通知する可視光通信システムである。それにより、ユーザにLEDの発光モードを「発光色」「音」「アイコン表示」「複数LED発光」によって可視光受信が可能な状況を通知する事で、ユーザの利便性を向上できる。
 好ましくは、図11で説明したように、可視光受信端末の接近を感知する端末近接感知部と、可視光受信端末の位置によって可視光送信の開始と停止を判断する可視光送信判定部と、を搭載しており、端末近接感知部により可視光受信端末の近接を感知したことをトリガーにして可視光送信を開始する可視光通信システムであってもよい。
 ここで、例えば図11で説明したように、端末近接感知部により可視光受信端末の離脱を感知したことをトリガーにして可視光送信を停止する可視光通信システムとしてもよい。また、例えば図11で説明したように、部屋の消灯を感知する周辺照度感知部と、を搭載しており、周辺照度感知部により部屋の消灯を感知したことをトリガーにして可視光送信を停止する可視光通信システムとしてもよい。それにより、可視光受信端末の接近と離脱、及び、部屋の消灯を感知することで、可視光通信が可能な状況のみ可視光通信を開始することで、不必要な可視光通信を省いて省エネ化できる。
 さらに、例えば図11で説明したように、可視光送信を行っている時間を計測する可視光通信時間監視部と、可視光送信中であることをユーザに通知する可視光送信通知部と、を搭載しており、可視光通信が一定以上行われているが可視光受信端末の接近がないことをトリガーとして、ユーザへの視覚的、及び、聴覚的な通知をより強化する可視光通信システムとしてもよい。また、例えば図11で説明したように、可視光送信通知部が通知を強化してからも可視光送信時間が一定以上行われているが可視光受信端末の接近がないことをトリガーとして、可視光送信を停止する可視光通信システムとしてもよい。
 それにより、一定以上の可視光送信時間がたってもユーザによる受信がされなかった場合にユーザへの可視光受信を要求と停止を行うことで、受信し忘れと消し忘れを防ぎユーザの利便性を向上できる。
 また、本実施の形態の情報通信装置を含む可視光通信システム(図12)は、可視光通信を受信したことを判定する可視光受信判定部と、端末位置を取得するための受信端末位置取得部と、機器情報と位置情報を取得して機器設定情報を収集する機器設定情報収集部と、を搭載しており、可視光受信したことをトリガーとして受信端末の位置を取得して、機器設定に必要な情報を収集する可視光通信システムとしてもよい。それにより、可視光通信により機器情報を取得することをトリガーにして、機器設定、及び、ユーザ登録に必要な位置情報とユーザ情報を自動収集して設定することで、ユーザによる入力と登録手続きを省略して利便性を向上できる。
 ここで、さらに図14で説明したように、機器情報を管理する機器情報管理部と、機器と機器の類似性を管理する機器関係管理部と、機器を販売する店舗情報を管理する店舗情報管理部と、位置情報から最寄店舗を検索する最寄店舗検索部と、を搭載しており、機器情報と位置情報を受信することをトリガーとして類似機器が販売されている最寄店舗及び価格を取得する可視光通信システムとしてもよい。それにより、機器情報に応じて関連する機器の販売状況及び販売店舗を収集して、機器を検索する手間を省くことで、ユーザの利便性向上ができる。
 また、本実施の形態の情報通信装置を含む可視光通信システム(図12)は、ユーザ情報が端末内に保存されていることを監視するユーザ情報監視部と、NWを通して周辺機器からユーザ情報を収集するユーザ情報収集部と、ユーザ情報と機器情報を取得してユーザ登録をするユーザ登録処理部と、を搭載しており、ユーザ情報がないことをトリガーとしてアクセス可能な周辺機器からユーザ情報を収集し、機器情報と共にユーザ登録を行う可視光通信システムとしてもよい。それにより、可視光通信により機器情報を取得することをトリガーにして、機器設定、及び、ユーザ登録に必要な位置情報とユーザ情報を自動収集して設定することで、ユーザによる入力と登録手続きを省略して利便性を向上できる。
 また、本実施の形態の情報通信装置を含む可視光通信システム(図13)は、特殊コマンドを受け付けるコマンド判定部と、可視光通信の周波数、複数LED連携を操作する可視光通信速度調整部と、を搭載しており、特殊コマンドを受け付けることで可視光通信の周波数の調整と送信LED数をすることで可視光通信を高速化する可視光通信システムとしてもよい。ここで、例えば、図14で説明したように、近接端末の種別をNFC通信で判別する端末種別判定部と、端末種別によって送信する情報を判別する送信情報種別判定部と、を搭載しており、近接した端末によって送信する情報の量と可視光通信速度を変更する可視光通信システムとしてもよい。それにより、受信端末に応じて可視光通信の周波数や送信LED数を調整して可視光通信の速度と送信情報を変更することで、高速通信を可能にしてユーザの利便性を向上できる。
 また、本実施の形態の情報通信装置を含む可視光通信システム(図14)は、掃除情報を記録する掃除情報記録部と、間取り情報を記録する間取り情報記録部と、間取り情報と掃除情報を重畳することで汚れ箇所情報を生成する情報合成部と、通常動作の停止を監視する動作監視部と、を搭載しており、機器の停止の感知をトリガーとすることで汚れ箇所情報を可視光送信する可視光通信システムとしてもよい。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 (実施の形態3)
 本実施の形態では、宅配サービスを例に挙げて、光通信を用いたWeb情報、及び、機器の連携について説明する。
 図15に本実施の形態の概要を示す。すなわち、図15は、本実施の形態における光通信を用いた宅配サービス支援の概略図である。
 具体的には、注文者は、モバイル端末3001aを用いて商品購入サイトから商品の注文を行う。注文完了時に、商品購入サイトより注文番号が発行される。注文番号を受信したモバイル端末3001aをドアホン宅内器3001bに注文番号をNFC通信を用いて送信する。
 ドアホン宅内器3001bは、モバイル端末3001aより受信した注文番号を自機器のモニタに表示する等して、ユーザに送信完了した旨を示す。
 ドアホン宅内器3001bは、ドアホン宅外器3001cに対して、ドアホン宅外器3001cに内蔵されたLEDの点滅指示と点滅パターンを送信する。点滅パターンは、モバイル端末3001aより受信した注文番号に応じてドアホン宅内器3001bにより生成される。
 ドアホン宅外器3001cは、ドアホン宅内器3001bより指定された点滅パターンに応じてLEDを点滅させる。
 モバイル端末の代わりとして、PC等のWWW3001dにある商品購入サイトへアクセス可能な環境であっても良い。
 モバイル端末3001aからドアホン宅内器3001bへの送信手段としては、NFC通信の他に、宅内ネットワークを用いても良い。
 モバイル端末3001aは、ドアホン宅内器3001bを仲介せずに直接ドアホン宅外器3001cへ注文番号を送信しても良い。
 注文者より注文があった場合、宅配注文受信サーバ3001eから宅配者モバイル端末3001fに対して注文番号を送信する。宅配者が宅配先に到着した際、宅配者モバイル端末3001fとドアホン宅外器3001cの双方向で注文番号を基に生成されたLED点滅パターンを用いた光通信を行う。
 次に、図16~図21を用いて説明する。図16~図21は、発明の実施3の形態における光通信を用いた宅配サービス支援を説明するためのフローチャートである。
 図16は、注文者が注文を行い、注文番号が発行されるまでのフローを示している。以下、図16について解説する。
 注文者モバイル端末3001aは、ステップ3002aで、スマホのWebブラウザまたはアプリで宅配の予約を実施する。そして、図17の丸1へ進む。
 また、注文者モバイル端末3001aは、図17の丸2に続いて、ステップ3002bで、注文番号送信待ち状態で待機する。続いて、ステップ3002cで、注文番号送信先機器にタッチされたかを確認する。Yesの場合は、ステップ3002dへ進み、注文番号をドアホン室内器にNFCタッチして送信(ドアホンがスマホと同一ネットワークに存在する場合はネットワーク経由で送信する方法もある)する。一方、Noの場合は、ステップ3002bに戻る。
 ドアホン宅内器3001bは、まず、ステップ3002eで、他端末よりLED点滅の要求待つ。続いて、ステップ3002fで、スマホより注文番号を受信する。続いて、ステップ3002gで、受信した注文番号に応じてドアホン室外機のLED点滅指示を出する。そして、図19の丸3へ進む。
 ドアホン宅外器3001cは、まず、ステップ3002hで、ドアホン宅内器よりLED点滅指示待つ。そして、図19の丸7へ進む。
 宅配者モバイル端末3001fは、ステップ3002iで、注文通知待ち状態で待機する。続いて、ステップ3002jで、注文通知 宅配注文サーバより通知されたか否かを確認する。ここで、Noの場合は、ステップ3002iに戻る。Yesの場合は、ステップ3002kへ進み、注文番号、宅配先住所等の情報を受信する。続いて、ステップ3002nで、ユーザが受信した注文番号のLED発光指示または、他機器のLED発光認識のためにカメラ起動されるまで待機する。そして、図18の丸5へ進む。
 図17は、注文者が注文者モバイル端末3001aにて宅配注文を行うまでのフローを示している。以下、図17について解説する。
 宅配注文サーバ3001eは、まず、ステップ3003aで、受注番号待つ。続いて、ステップ3003bで、宅配注文受信したか否かを確認する。ここで、Noの場合は、ステップ3003aへ戻る。Yesの場合は、ステップ3003cへ進み、受信した宅配注文に対して注文番号を発行する。続いて、ステップ3003dで、宅配者に対して宅配注文受信したことを通知して、終了する。
 注文者モバイル端末3001aは、図16の丸1に続いてステップ3003eで、注文内容を宅配注文サーバが提示するメニューから選択する。続いて、ステップ3003fで、注文を確定して宅配サーバへ送信する。続いて、ステップ3003gで、注文番号を受信したか否かを確認する。ここで、Noの場合は、ステップ3003fに戻る。Yesの場合は、ステップ3003hへ進み、受信した注文番号を表示してドアホン宅内器へのタッチを促す表示を行う。そして、図16の丸2へ進む。
 図18は、宅配者が宅配者モバイル端末3001fを用いて、宅配先のドアホン宅外器3001cと光通信を行うフローを示している。以下、図18について解説する。
 宅配者モバイル端末3001fは、図16の丸5に続いて、ステップ3004aで、宅配先のドアホン宅外器3001cのLEDを認識するためにカメラを起動するか否かを確認する。ここで、Noの場合は、図16の丸5へ戻る。
 一方、Yesの場合は、ステップ3004bへ進み、宅配先ドアホン宅外器のLED点滅を宅配者モバイル端末のカメラにて確認する。
 次に、ステップ3004cで、ドアホン宅外器のLED発光を認識して注文番号と照合する。
 次に、ステップ3004dで、ドアホン宅外器のLED点滅が注文番号と合致するか否かを確認する。ここで、Yesの場合は、図20の丸6へ進む。
 なお、Noの場合は、カメラ内に他のLED点滅を確認できるか否かを確認する。そして、Yesの場合は、ステップ3004cへ戻り、Noの場合は、終了する。
 図19は、ドアホン宅内器3001bとドアホン宅外器3001c間の注文番号照合を行うフローを示している。以下、図19について解説する。
 ドアホン宅外器3001cは、図16の丸7に続いて、ステップ3005aで、LED点滅の指示がドアホン宅内器よりあったか否かを確認する。Noの場合は、図16の丸へ戻る。Yesの場合は、ステップ3005bへ進み、ドアホン宅内器より指示されるLED点滅に従ってLEDを点滅させる。そして、図20の丸8へ進む。
 また、ドアホン宅外器3001cは、図20の丸9に続いて、ステップ3005cで、ドアホン宅外器のカメラにて認識したLED点滅をドアホン宅内器へ通知する。そして、図21の丸10へ進む。
 ドアホン宅内器3001cは、図16の丸3に続いて、ステップ3005dで、ドアホン宅外器に対して注文番号に応じたLED点滅指示を実施する。次に、ステップ3005eで、ドアホン宅外器のカメラが宅配者モバイル端末のLED点滅を認識するまで待機する。次に、ステップ3005fで、ドアホン宅外器よりLED点滅を認識したことを通知されたか否かを確認する。ここで、Noの場合は、ステップ3005eへ戻る。Yesの場合は、ステップ3005gで、ドアホン宅外器のLED点滅と注文番号を照合する。次に、ステップ3005hで、ドアホン宅外器のLED点滅と注文番号が合致したか否かを確認する。Yesの場合は、図21の丸11へ進む。一方、Noの場合は、ステップ3005iで、ドアホン宅外器へLED点滅の中止を指示して、終了する。
 図20は、注文番号照合後におけるドアホン宅外器3001cと宅配者モバイル端末3001f間のフローを示している。以下、図20について解説する。
 宅配者モバイル端末3001fは、図18の丸6に続いて、ステップ3006aで、宅配者モバイル端末の保持する注文番号に応じてLED点滅を開始する。
 次に、ステップ3006bで、LED点滅部分をドアホン宅外器からカメラが撮影できる範囲に配置する。
 次に、ステップ3006cで、ドアホン宅外器のカメラが撮影した宅配者モバイル端末のLED点滅とドアホン宅内器の保持する注文番号が合致したかについてドアホン宅外器LED点滅が示しているか否かを確認する。
 ここで、Noの場合は、ステップ3006bへ戻る。一方、Yesの場合は、ステップ3006eへ進み、合致した是非を宅配者モバイル端末に表示して、終了する。
 また、図20に示すように、ドアホン宅外器3001cは、図19の丸8に続いて、ステップ3006fで、ドアホン宅外器のカメラにて宅配者モバイル端末のLED点滅を認識したか否かを確認する。ここで、Yesの場合は、図19の丸9へ進む。Noの場合は、図19の丸へ戻る。
 図21は、注文番号照合後におけるドアホン宅外器3001cと宅配者モバイル端末3001f間のフローを示している。以下、図21について解説する。
 ドアホン宅外器3001cは、図19の丸11に続いて、ステップ3007aで、ドアホン宅内器の通知したLED点滅が注文番号と合致したかについて通知あったか否かを確認する。ここで、Noの場合は図19の丸11へ戻る。一方、Yesの場合は、ステップ3007bへ進み、ドアホン宅外器にて合致の是非を示すLED点滅を行い、終了する。
 また、図21に示すように、ドアホン宅内器3001bは、図19の丸10に続いて、ステップ3007cで、ドアホン宅内器で配送者が到着したことの表示を呼出し音出力にて注文者に通知する。次に、ステップ3007dで、ドアホン宅外器へLED点滅の中止と注文番号と合致したことを示すLED点滅を指示する。そして、終了する。
 なお、マンションでは宅配先が不在の場合、宅配物を収納する宅配ボックスが玄関等に設置されることがある。宅配者は、宅配時に注文者が不在の場合、宅配ボックスに宅配物を収納する。宅配者モバイル端末3001fのLEDを用いてドアホン宅外器3001cのカメラに対して、光通信を行い宅配物のサイズを送信することで、ドアホン宅外器3001cが自動で宅配物のサイズに見合った宅配ボックスのみを利用可能にすることもできる。
 以上のように、実施の形態3によれば、光通信を用いたWeb情報、及び、機器の連携を実現することができる。
 (実施の形態4)
 以下、実施の形態4について説明する。
 (サーバへユーザと使用中の携帯電話を登録)
 図22は、本実施の形態におけるサーバへユーザと使用中の携帯電話を登録する処理を説明するための図である。以下、図22を解説する。
 まず、ステップ4001bで、ユーザがアプリケーションを起動する。
 次に、ステップ4001cで、このユーザと携帯電話の情報をサーバに照会する。
 次に、ステップ4001dで、ユーザ情報と使用中の携帯電話の情報がサーバのDBに登録されているかどうかを確認する。
 Yesの場合は、ステップ4001fへ進み、並行処理として(処理a)ユーザ音声特性の解析を開始し、図24のBへ進む。
 一方、Noの場合は4001eへ進み、DBの携帯電話テーブルに携帯電話IDとユーザIDを登録し、図24のBへ進む。
 (処理a:ユーザ音声特性の解析)
 図23は、本実施の形態におけるユーザ音声特性の解析を行う処理を説明するための図である。以下、図23を解説する。
 まず、ステップ4002aで、マイクから集音を行う。
 次に、ステップ4002bで、音声認識の結果集音した音声はユーザの声と推定されるかどうかを確認する。ここで、Noの場合はステップ4002aに戻る。
 Yesの場合はステップ4002cへ進み、発生内容はこのアプリケーションで使用するキーワードか(「次へ」「戻る」等)どうかを確認する。Yesの場合は、ステップ4002fへ進み、音声データをサーバのユーザキーワード音声テーブルに登録し、ステップ4002dへ進む。一方、Noの場合は、ステップ4002dへ進む。
 次に、ステップ4002dで、音声特性(周波数、音圧、発話速度)を解析する。
 次に、ステップ4002eで、解析結果を携帯電話とサーバのユーザ音声特性テーブルに登録する。
 (音声認識処理の準備)
 図24は、本実施の形態における音声認識処理の準備を行う処理を説明するための図である。以下、図24を解説する。
 まず、図中のBに続いて、ステップ4003aで、(ユーザ操作)調理メニュー一覧を表示させる操作を行う。
 次に、ステップ4003bで、調理メニュー一覧をサーバから取得する。
 次に、ステップ4003cで、調理メニュー一覧を携帯画面に表示する。
 次に、ステップ4004dで、携帯電話に接続されたマイクから集音を開始する。
 次に、ステップ4003eで、並行処理として(処理b)周辺の集音機器からの集音を開始する。
 次に、ステップ4003fで、並行処理として(処理c)環境音特性の解析を開始する。
 次に、ステップ4003gで、並行処理として(処理d)周辺に存在する音声出力機器からの音声のキャンセルを開始する。
 次に、ステップ4003hで、ユーザ音声特性をサーバのDBから取得する。
 最後に、ステップ4003iで、ユーザ音声の認識を開始し、図28のCへ進む。
 (処理b:周辺の集音機器からの集音)
 図25は、本実施の形態における周辺の集音機器からの集音を行う処理を説明するための図である。以下、図25を解説する。
 まず、ステップ4004aで、携帯電話から通信可能で、集音が可能な機器(集音機器)を探索する。
 次に、ステップ4004bで、集音機器を発見したかどうかを確認する。
 ここで、Noの場合は終了する。Yesの場合は、ステップ4004cへ進み、集音器機の位置情報とマイク特性情報をサーバから取得する。
 次に、ステップ4004dで、サーバに情報が存在するかどうかを確認する。
 Yesの場合は、ステップ4004eへ進み、集音機器の設置位置は携帯電話の位置から十分近くでありユーザの音声を集音できそうかどうかを確認する。なお、ステップ4004eでNoの場合は、ステップ4004aへ戻る。一方、ステップ4004eでYesの場合は、ステップ4004fへ進み、集音機器に集音を開始させる。続いて、ステップ4004gで、集音処理終了の命令があるまで集音機器で集音した音声を携帯電話に送信させる。なお、集音した音声をそのまま携帯電話に送信させず音声認識を行った結果を携帯電話に送信させるとしても良い。また、携帯に送信された音声は携帯電話に接続されたマイクから集音された音声と同様に処理して、ステップ4004aへ戻る。
 なお、ステップ4004dで、Noの場合は、ステップ4004hへ進み、集音機器に集音を開始させる。続いて、ステップ4004iで、携帯電話から信号音を出力する。続いて、ステップ4004jで、集音機器で集音した音声を携帯電話に送信させる。続いて、ステップ4004kで、集音機器から送られた音声から信号音を認識できたかどうかを確認する。ここで、Yesの場合は、ステップ4004gへ進み、Noの場合は、ステップ4004aへ戻る。
 (処理c:環境音特性の解析)
 図26は、本実施の形態における環境音特性の解析処理を説明するための図である。以下、図26を解説する。
 まず、ステップ4005fで、このユーザの所有する機器のうち位置が電子レンジの位置から十分遠いものを除いた機器のリストを取得する。これらの機器の発する音のデータをDBから取得する。
 次に、ステップ4005gで、取得した音データの特性(周波数、音圧等)を解析し環境音特性として保持する。なお、電子レンジの近くにある炊飯器等の発する音は特に誤認識が起こりやすいため高い重要度を設定して保持する。
 次に、ステップ4005aで、マイクから集音する。
 次に、ステップ4005bで、集音した音声はユーザの声かどうかを確認し、Yesの場合は、ステップ4005aへ戻る。Noの場合は、ステップ4005cへ進み、集音した音声の特性(周波数、音圧)を解析する。
 次に、ステップ4005dで、解析結果から環境音特性を更新する。
 次に、ステップ4005eで、終了フラグが立っているかどうかを確認し、Yesの場合は、終了する。Noの場合は、ステップ4005aへ戻る。
 (処理d:周辺に存在する音声出力機器からの音声をキャンセル)
 図27は、本実施の形態における周辺に存在する音声出力機器からの音声をキャンセルする処理を説明するための図である。以下、図27を解説する。
 まず、ステップ4006aで、通信可能な機器で、音声出力の可能な機器(音声出力機器)を探索する。
 次に、ステップ4006bで、音声出力機器を発見したかどうかを確認し、Noの場合は、終了する。Yesの場合は、ステップ4006cへ進み、様々な周波数を含んだ信号音を音声出力機器に出力させる。
 次に、ステップ4006dで、携帯電話、及び、図25の集音機器(各集音機器)で集音を行い音声出力機器から出力させた信号音を集音する。
 次に、ステップ4006eで、信号音を集音・認識できたかどうかを確認して、Noの場合は、終了する。Yesの場合は、ステップ4006fへ進み、音声出力機器から各集音機器までの伝送特性(周波数毎の出力音量と集音される音量の関係、及び、信号音出力から集音までの遅延時間)を解析する。
 次に、ステップ4006gで、音声出力機器が出力している音声データは携帯電話からアクセス可能かどうかを確認する。
 ここで、Yesの場合は、ステップ4006hへ進み、キャンセル処理終了の命令があるまで音声出力機器から出力している音声ソース、出力箇所、音量を取得し伝送特性を考慮しつつ各集音機器で集音した音声から音声出力機器で出力した音声をキャンセルする。ステップ4006aへ戻る。一方、Noの場合は、ステップ4006iへ進み、キャンセル処理終了の命令があるまで音声出力機器から出力している音声を取得し伝送特性を考慮しつつ各集音機器で集音した音声から音声出力機器で出力した音声をキャンセルして、ステップ4006aへ戻る。
 (調理メニューの選択と電子レンジへの運転内容設定)
 図28は、本実施の形態における調理メニューの選択と電子レンジへの運転内容設定を行う処理を説明するための図である。以下、図28を解説する。
 まず、図中のCに続いて、ステップ4007aで、(ユーザ操作)調理したいメニューを選択する。
 次に、ステップ4007bで、(ユーザ操作)レシピパラメータ(調理する分量、味の濃さ、焼き加減等)を設定する。
 次に、ステップ4007cで、レシピパラメータに合わせたレシピデータ、電子レンジ運転内容設定コマンドをサーバから取得する。
 次に、ステップ4007dで、電子レンジに埋め込まれた非接触ICタグに携帯電話をタッチさせるようユーザへ促す。
 次に、ステップ4007eで、電子レンジへのタッチを検知するかどうかを確認する。
 ここで、Noの場合は、ステップ4007eへ戻る。Yesの場合は、ステップ4007fへ進み、サーバから取得しておいた電子レンジの設定コマンドを電子レンジに送信する。これにより、このレシピに必要な電子レンジの設定は全て行われユーザは電子レンジの運転開始ボタンを押すだけで調理が可能となる。
 次に、ステップ4007gで、(処理e)電子レンジ用の通知音をサーバ等のDBから取得し電子レンジへ設定する。
 次に、ステップ4007hで、(処理f)電子レンジの通知音の調整し、図32のDへ進む。
 (処理e:電子レンジ用の通知音をサーバ等のDBから取得し電子レンジへ設定)
 図29は、本実施の形態における電子レンジ用の通知音をサーバ等のDBから取得し電子レンジへ設定する処理を説明するための図である。以下、図29を解説する。
 まず、ステップ4008aで、ユーザが、電子レンジに埋め込まれた非接触ICタグに携帯電話を近づける(=タッチする)。
 次に、ステップ4008bで、この携帯電話向けの通知音データ(電子レンジの操作時や運転終了時に出力する音のデータ)が電子レンジに登録されているかどうかを電子レンジに問い合わせる。
 次に、ステップ4008cで、この携帯電話向けの通知音データが電子レンジに登録されているかどうかを確認する。
 ここで、Yesの場合は、終了する。Noの場合は、ステップ4008dへ進み、この携帯電話向けの通知音データが携帯に登録されているかどうかを確認する。Yesの場合は、ステップ4008hへ進み、携帯電話に登録されている通知音データを電子レンジに登録して、終了する。一方、Noの場合は、ステップ4008eへ進み、サーバまたは携帯電話または電子レンジのDBを参照する。
 次に、ステップ4008fで、この携帯電話向けの通知音データ(この携帯電話が認識しやすい通知音のデータ)がDBにある場合そのデータを、ない場合は、一般的な携帯電話向けの通知音データ(一般的に携帯電話が認識しやすい通知音のデータ)をDBから取得する。
 次に、ステップ4008gで、取得した通知音データを携帯電話に登録する。
 次に、ステップ4008hで、携帯電話に登録されている通知音データを電子レンジに登録して、終了する。
 (処理f:電子レンジの通知音の調整)
 図30は、本実施の形態における電子レンジの通知音の調整を行う処理を説明するための図である。以下、図30を解説する。
 まず、ステップ4009aで、携帯電話に登録されているこの電子レンジの通知音データを取得する。
 次に、ステップ4009bで、この端末用の通知音の周波数と環境音の周波数との重なりが一定以上か どうかを確認する。
 ここで、Noの場合は、終了する。
 一方、Yesの場合は、ステップ4009cへ進み、通知音の音量を環境音に比べて十分大きな音量に設定する。または通知音の周波数を変更する。
 ここで、周波数を変更した通知音の作成方法の一例を挙げると、電子レンジが図31の(c)の音を出力可能であれば(c)のパターンで通知音を作成して、終了する。(c)が不可で(b)が可能であれば(b)のパターンで通知音を作成して、終了する。(a)のみ可能であれば(a)のパターンで通知音を作成して、終了する。
 図31は、本実施の形態における電子レンジに設定する通知音の波形の例を示す図である。
 図31の(a)に示す波形は単純な矩形波で、ほとんどの音声出力装置で出力可能である。通知音以外の音声と混同しやすいため、数回出力し、そのうちの幾つかを認識できれば、その通知音が鳴ったと認識する等の対応をすべきである。
 図31の(b)に示す波形は、短時間の矩形波により、(a)の波形を細かく区切ったような波形であり、音声出力装置の動作クロックが十分に速ければ出力可能である。この音は、人間の耳には(a)の音と同様に聞こえるが、機械認識においては、(a)よりも情報量が多く、通知音以外の音と混同しにくいという性質がある。
 図31の(c)に示す波形は、音声出力部分の時間的長さを変えたものであり、PWM波形と呼ばれる。(b)よりも出力することは難しいが、(b)よりも情報量が多く、認識率を向上させたり、電子レンジから携帯電話に伝えたい情報を同時に伝えることも可能である。
 なお、図31の(b)(c)の波形は、図31の(a)よりも誤認識の可能性は低いが、図31の(a)と同様に、同じ波形を数回繰り返すことで、より認識率を向上させることが出来る。
 (調理内容の表示)
 図32は、本実施の形態における電子レンジに設定する通知音の波形の例を示す図である。以下、図32を解説する。
 まず、図中のDに続いて、ステップ4011aで、調理内容を表示する。
 次に、ステップ4011bで、調理内容が電子レンジの運転かどうかを確認する。
 ここで、Yesの場合は、ステップ4011cへ進み、電子レンジに食材を入れ運転開始ボタンを押下するようユーザへ通知して、図33のEへ進む。
 一方、Noの場合は、ステップ4011dへ進み、調理内容を表示して、図中のFに進むか、ステップ4011eに進む。
 ステップ4011eでは、ユーザの操作がどうなのかを確認する。アプリケーション終了の場合は、終了する。
 一方、表示内容の変更操作・手入力(ボタン押下等)・音声入力(「次へ」「前へ」等)の場合は、ステップ4011fへ進み、表示内容変更の結果調理が終了かどうかを確認する。ここで、Yesの場合は、ステップ4011gへ進み、調理終了をユーザへ通知して、終了する。Noの場合は、ステップ4011aへ進む。
 (電子レンジの通知音の認識)
 図33は、本実施の形態における電子レンジの通知音の認識を行う処理を説明するための図である。以下、図33を解説する。
 まず、図中のEに続いて、ステップ4012aで、並行処理として(処理g)周辺の集音機器からの集音と電子レンジ通知音の認識を開始する。
 次に、ステップ4012fで、並行処理として(処理i)携帯電話操作状態の確認を開始する。
 次に、ステップ4012gで、並行処理として(処理j)ユーザ位置の追跡を開始する。
 次に、ステップ4012bで、認識内容について確認する。
 ここで、ボタン押下の通知音を認識した場合は、ステップ4012cへ進み、設定変更を登録し、ステップ4012bへ戻る。ユーザによる操作を認識した場合は、図32のFへ進む。電子レンジに食材を入れ運転開始ボタンを押下するように表示してから運転時間経過後に(運転終了の通知音または電子レンジの扉を開く音)を認識した場合は、ステップ4012eで、(処理h)電子レンジの運転終了をユーザへ通知し、図32のGへ進む。運転開始の通知音を認識した場合は、ステップ4012dへ進み、運転時間が経過するまで待機し、ステップ4012eへ進み、(処理h)電子レンジの運転終了をユーザへ通知して、図32のGへ進む。
 (処理g:周辺の集音機器からの集音と電子レンジ通知音の認識)
 図34は、本実施の形態における周辺の集音機器からの集音と電子レンジ通知音の認識を行う処理を説明するための図である。以下、図34を解説する。
 まず、ステップ4013aで、携帯電話から通信可能で、集音が可能な機器(集音機器)を探索する。
 次に、ステップ4013bで、集音機器を発見したかどうかを確認する。
 ここで、Noの場合は、終了する。一方、Yesの場合は、ステップ4013cへ進み、集音器機の位置情報とマイク特性情報をサーバから取得する。
 次に、ステップ4013dで、サーバに情報が存在するかどうかを確認する。
 Yesの場合は、ステップ4013rへ進み、集音機器の設置位置は電子レンジから十分近く通知音を集音できそうかどうかを確認する。
 ここで、ステップ4013rにおいて、Noの場合は、ステップ4013aへ戻る。Yesの場合は、ステップ4013sへ進み、集音機器の演算装置は音声認識が可能かどうかを確認する。ステップ4013sにおいて、Yesの場合は、ステップ4013uで、電子レンジの通知音認識のための情報を集音機器に送信する。続いて、ステップ4013vで、集音機器に集音と音声認識を開始させ認識結果を携帯電話に送信させる。続いて、ステップ4013qで、次の調理段階に進むまで電子レンジの通知音の認識処理を行わせ認識結果を携帯電話へ送信させる。一方、ステップ4013sで、Noの場合は、ステップ4013tへ進み、集音機器に集音を開始させ集音音声を携帯電話に送信させる。続いて、ステップ4013jで、次の調理段階に進むまで集音した音声を携帯電話へ送信させ、携帯電話で電子レンジの通知音を認識する。
 なお、ステップ4013dで、Noの場合は、ステップ4013eへ進み、集音機器の演算装置は音声認識が可能かどうかを確認する。
 Yesの場合は、ステップ4013kへ進み、電子レンジの通知音認識のための情報を集音機器に送信する。続いて、ステップ4013mで、集音機器に集音と音声認識を開始させ、認識結果を携帯電話に送信させる。続いて、ステップ4013nで、電子レンジの通知音を鳴らす。続いて、ステップ4013pで、集音機器で前記通知音を認識できたかどうかを確認する。ステップ4013pで、Yesの場合は、4013qへ進み、次の調理段階に進むまで電子レンジの通知音の認識処理を行わせ認識結果を携帯電話へ送信させて、ステップ4013aへ戻る。ステップ4013pでNoの場合は、ステップ4013aへ戻る。
 また、ステップ4013eで、Noの場合は、ステップ4013fへ進み、集音機器に集音を開始させ集音音声を携帯電話に送信させる。続いて、ステップ4013gで、電子レンジの通知音を鳴らす。続いて、ステップ4013hで、集音機器から送られた音声に認識処理を行う。続いて、ステップ4013iで、前記通知音を認識できたか?どうかを確認する。ここで、Yesの場合は、4013jへ進み、次の調理段階に進むまで集音した音声を携帯電話へ送信させ、携帯電話で電子レンジの通知音を認識して、ステップ4013aへ戻る。Noの場合は、ステップ4013aへ戻る。
 (処理h:電子レンジの運転終了をユーザへ通知)
 図35は、本実施の形態における電子レンジの運転終了をユーザへ通知する処理を説明するための図である。以下、図35を解説する。
 まず、ステップ4013aで、携帯電話を使用中またはセンサデータにより携帯電話が移動中と判断可能かどうかを確認する。なお、Yesの場合は、ステップ4014mへ進み、携帯電話の画面表示や音声や振動等を用いてユーザへ電子レンジの運転終了を通知して、終了する。
 一方、ステップ4013aで、Noの場合は、ステップ4014bへ進み、ユーザがログインしているPC等で操作中の機器(ユーザ操作中機器)を探索する。
 次に、ステップ4014cで、ユーザ操作中機器を発見したかどうかを確認する。なお、Yesの場合は、ユーザ操作中機器の画面表示等を用いてユーザへ電子レンジの運転終了を通知し、終了する。
 一方、ステップ4014cで、Noの場合は、ステップ4014eへ進み、携帯電話から通信可能で、画像取得が可能な機器(撮像機器)を探索する。
 次に、ステップ4014fで、撮像機器を発見したかどうかを確認する。
 ここで、Yesの場合は、ステップ4014pへ進み、撮像機器に撮像させ、撮像機器にユーザの顔データを送信しユーザの顔認識を行う。または撮像画像を携帯電話またはサーバへ送らせ画像の送信先でユーザの顔認識を行う。
 続いて、ステップ4014qで、ユーザの顔を認識したかどうかを確認する。Noの場合は、ステップ4014eへ戻る。Yesの場合は、ステップ4014rへ進み、ユーザを発見した機器(発見機器)に表示装置や発声装置があるかどうかを確認する。ステップ4014rでYesの場合は、ステップ4014sへ進み、機器に付属の装置を用いてユーザへ電子レンジの運転終了を通知して、終了する。
 また、ステップ4014fで、Noの場合は、ステップ4014gへ進み、携帯電話から通信可能で、集音が可能な機器(集音機器)を探索する。
 また、ステップ4014hで、Noの場合は、ステップ4014iへ進み、その他機器の操作や歩行振動等の手段でユーザの位置を特定可能な機器を発見する。続いて、ステップ4014mへ進み、携帯電話の画面表示や音声や振動等を用いてユーザへ電子レンジの運転終了を通知して、終了する。
 なお、ステップ4014iで、Yesの場合は、ステップ4014rへ進み、ユーザを発見した機器(発見機器)に表示装置や発声装置があるかどうかを確認する。ここで、Noの場合は、ステップ4014tへ進み、発見機器の位置情報をサーバから取得する。
 続いて、ステップ4014uで、発見機器の近くにあり、表示装置や発声装置のある機器(通知機器)を探索する。続いて、ステップ4014vで、通知機器からユーザまでの距離を考慮し、画面表示、または、十分な音量の音声でユーザへ電子レンジの運転終了を通知して、終了する。
 (処理i:携帯電話操作状態の確認)
 図36は、本実施の形態における携帯電話操作状態の確認を行う処理を説明するための図である。以下、図36を解説する。
 まず、ステップ4015aで、携帯電話を操作中か、または携帯電話が移動しているか、または携帯電話に接続された入出力装置に入出力があるか、または映像や音楽を再生中か、または携帯電話から近い位置にある機器が操作中か、または携帯電話から近い位置にある機器のカメラや各種センサでユーザが認識されているかどうかを確認する。
 ここで、Yesの場合は、ステップ4015bへ進み、ユーザの位置はこの携帯電話から近い確率が高いと認識して、ステップ4015aへ戻る。
 一方、Noの場合は、ステップ4015cへ進み、携帯電話から遠い位置にある機器が操作中か、または携帯電話から遠い位置にある機器のカメラや各種センサでユーザが認識されているか、または充電中かどうかを確認する。
 ステップ4015cにおいて、Yesの場合は、ステップ4015dへ進み、ユーザの位置はこの携帯電話から遠い確率が高いと認識して、ステップ4015aへ戻る。ステップ4015cにおいて、Noの場合は、ステップ4015aへ戻る。
 (処理j:ユーザ位置の追跡)
 図37は、本実施の形態におけるユーザ位置の追跡を行う処理を説明するための図である。以下、図37を解説する。
 まず、ステップ4016aで、方位センサや位置センサや加速度センサにより携帯電話が移動されていると判断されるかどうかを確認する。
 ステップ4016aでYesの場合は、ステップ4016bへ進み、携帯電話とユーザの位置をDBに登録し、ステップ4016aへ戻る。
 一方、ステップ4016aでNoの場合は、ステップ4016cへ進み、携帯電話から通信可能で、カメラやマイクや人感センサ等のユーザの位置やユーザが存在することを検知することが可能な機器(ユーザ探知機器)を探索する。
 次に、ステップ4016dで、集音機器を発見するかどうかを確認する。ステップ4016dで、Noの場合は、ステップ4016aへ戻る。
 ステップ4016dで、Yesの場合は、ステップ4016eへ進み、ユーザ探知機器でユーザを探知するかどうかを確認する。ステップ4016eでNoの場合は、ステップ4016aへ戻る。
 ステップ4016eでYesの場合は、ステップ4016fへ進み、ユーザの探知を携帯電話へ送信させる。
 次に、ステップ4016gで、ユーザ探知機器の付近にユーザが存在することをDBに登録する。
 次に、ステップ4016hで、DBにユーザ探知機器の位置情報があれば取得しユーザの位置を特定して、ステップ4016aへ戻る。
 図38は、音声出力装置からの音声をキャンセルしつつ、家電の通知音を認識し、通信可能な電子機器にユーザ(操作者)の現在位置を認識させ、ユーザ位置の認識結果から、ユーザ位置に近い位置にある機器にユーザへの通知を行わせることを示した図である。また、図39は、本実施の形態におけるサーバ、または、携帯電話、または、電子レンジに保持するデータベースの内容を示す図である。
 図39に示すように、電子レンジテーブル4040aには、電子レンジの機種と、出力可能な音を特定するデータ(スピーカ特性、変調方式等)と、各種携帯電話機種毎に、その携帯電話が認識しやすい特性を持った通知音のデータと、一般的な携帯電話が平均して認識しやすい通知音データとを対応付けて保持する。
 携帯テーブル4040bには、携帯電話の各個体と、その携帯電話の機種と、その携帯電話を使用するユーザと、その携帯電話の位置を示すデータとを対応付けて保持する。
 携帯機種テーブル4040cでは、携帯電話の機種と、その携帯電話機種に付属のマイク等の集音特性とを対応付けて保持する。
 ユーザ音声特性テーブル4040dでは、ユーザと、そのユーザの声の音響特性とを対応付けて保持する。
 ユーザキーワード音声テーブル4040eでは、ユーザと、「次へ」「戻る」などの携帯電話が認識しようとするキーワードをそのユーザが発声したときの音声波形データを対応づけて保持する。なお、このデータは、音声波形データそのものではなく、これを扱いやすい形に解析・変形したものとしても良い。
 ユーザ所有機器位置テーブル4040fでは、ユーザと、ユーザの所有する機器と、その機器の位置データとを対応付けて保持する。
 ユーザ所有機器位置テーブル4040gでは、ユーザと、ユーザの所有する機器と、その機器の発する通知音や運転音等の音のデータとを対応付けて保持する。
 ユーザ位置テーブル4040hでは、ユーザと、ユーザの位置のデータを対応付けて保持する。
 また、図40は、本実施の形態におけるユーザが携帯電話に表示された調理手順を基に調理を行い、また、「次へ」「戻る」等の音声によって携帯電話の表示内容をユーザが操作することを示す図である。図41は、本実施の形態における電子レンジの運転を開始し、運転終了を待っている間や、煮物を煮込んでいる間等の時間に、ユーザが他の場所へ移動していることを示す図である。図42は、ネットワークを介して携帯電話と接続されており、かつ、カメラやマイクや人感センサ等の、ユーザの位置の認識やユーザが存在していることを認識することができる機器に対して、携帯電話からユーザを探知する命令を送信することを示す図である。図43は、ユーザの探知の例として、テレビに付属したカメラでユーザの顔を認識し、また、エアコンの人感センサでユーザの移動や存在を認識していることを示す図である。なお、この認識処理は、テレビやエアコンで行なっても良いし、画像データ等を携帯電話やサーバに送信し、送信先で認識処理を行なっても良い。ただし、プライバシ保護の観点からは、ユーザのデータを外部サーバに送信すべきではない。
 図44は、ユーザを探知した機器から、ユーザを探知したことや、探知した機器からユーザまでの相対位置を、携帯電話に送信することを示す図である。
 このように、ユーザを探知した機器の位置情報がDBに存在すれば、ユーザの位置を特定することが可能である。
 図45は、本実施の形態における電子レンジの運転終了音を、携帯電話が認識することを示す図である。図46は、電子レンジの運転終了を認識した携帯電話が、ユーザを探知している機器のうち、画面表示機能や音声出力機能を持った機器(本図ではユーザの正面にあるテレビ)に、電子レンジの運転終了をユーザへ通知させる命令を送信することを示す図である。
 図47は、前記の命令を受け取った機器が、通知内容をユーザへ通知する(本図では、テレビの画面に、電子レンジの運転が終了したことを表示する)ことを示す図である。図48は、電子レンジの運転終了音を、ネットワークを介して携帯電話と接続されており、マイクを備えており、電子レンジの付近に存在する機器が認識することを示す図である。図49は、電子レンジの運転終了を、これを認識した機器から携帯電話へ通知することを示す図である。図50は、携帯電話が電子レンジの運転終了の通知受け取ったとき、携帯電話がユーザの付近にあれば、携帯電話の画面表示や音声出力等を用いて、電子レンジの運転終了をユーザへ通知することを示す図である。
 図51は、電子レンジの運転終了をユーザへ通知することを示す図である。具体的には、図51は、携帯電話が電子レンジの運転終了の通知受け取ったとき、携帯電話がユーザの付近になければ、ユーザを探知している機器のうち、画面表示機能や音声出力機能を持った機器(本図ではユーザの正面にあるテレビ)に、電子レンジの運転終了をユーザへ通知させる命令を送信し、その命令を受け取った機器が、電子レンジの運転終了をユーザへ通知することを示す図である。携帯電話が充電器に接続されているときは、携帯電話は電子レンジの近くにも、ユーザの近くにも存在しないことが多く、本図に示す状況が起こりやすいことを示している。
 図52は、電子レンジの運転終了の通知を受けたユーザがキッチンに移動することを示す図である。なお、このとき、携帯電話は次の調理内容を表示している。また、携帯電話は、音声等によりユーザがキッチンへ移動したことを認識し、ちょうど良いタイミングで次の調理手順の解説を始めても良い。
 図53は、電子レンジから無線通信で携帯電話に、運転終了等の情報を送信し、携帯電話から、ユーザの見ているテレビに通知命令を行い、テレビの画面表示や音声でユーザに通知を行うことを示す図である。
 なお、情報ソース機器(本図では電子レンジ)と携帯電話との通信、及び、携帯電話とユーザに通知を行う機器(本図ではテレビ)との通信は、家庭内LANや、直接の無線通信、特に、700MHz~900MHz台の無線通信等が利用できる。また、ここでは携帯電話をハブとして利用しているが、通信能力を持つ他の機器を携帯電話の代わりに利用しても良い。
 図54は、電子レンジから無線通信で、ユーザの見ているテレビに運転終了などの情報を送信し、テレビの画面表示や音声を用いてユーザに通知を行うことを示す図である。これは、図53でハブとしての役割を担っていた携帯電話を介さない場合の動作を示す。
 図55は、1階のエアコンが何らかの情報通知を行う場合に、2階のエアコンに情報を送信し、2階のエアコンから携帯電話に情報を送信し、携帯電話からユーザの見ているテレビに通知命令を行い、テレビの画面表示や音声でユーザに通知を行うことを示す図である。これは、情報ソース機器(本図では1階のエアコン)からハブとなる携帯電話に直接通信ができない場合に、通信が可能な他の機器に情報を送信し、携帯電話までの通信を行うことを示している。
 図56は、遠隔地にいるユーザへ情報の通知を行うことを示す図である。具体的には、図56は、電子レンジから音声や光や無線通信等を介して通知を受けた携帯電話から、インターネットやキャリア通信を通して、遠隔地にいるユーザへ情報の通知を行うことを示している。図57は、電子レンジから、ハブとなる携帯電話へ直接通信が行えない場合に、パソコン等を経由して、携帯電話に情報を送信することを示した図である。図58は、図57の通信を受けた携帯電話から、情報通信経路を逆に辿って電子レンジに操作命令等の情報を送信することを示す図である。
 なお、携帯電話は、図57の情報を受けて自動で情報を送信しても良いし、その情報をユーザに通知し、その通知を受けてユーザが行った操作の情報を送信しても良い。
 図59は、情報ソース機器であるエアコンから、ハブとなる携帯電話に直接の通信が不可能である場合に、ユーザに情報の通知を行なうことを示した図である。具体的には、図59は、情報ソース機器であるエアコンから、ハブとなる携帯電話に直接の通信が不可能である場合に、まず、丸1でパソコン等の、携帯電話への通信のステップとなる機器に情報を送信し、丸2と丸3で、インターネットやキャリア通信網を通じてパソコンから携帯電話へ情報を送信し、携帯電話は自動でその情報を処理し、或いは、携帯電話を持っているユーザの操作を受けて、丸4と丸5で、インターネットやキャリア通信網通じて情報をパソコンに送信し、丸6で、パソコンは通知したいユーザに通知が可能な機器(本図ではテレビ)に通知命令を送信し、丸7で、テレビの画面表示や音声を用いてユーザに情報の通知を行なうことを示している。
 このような状況は、エアコンからの通知情報を受取るべきユーザと、携帯電話を使用しているユーザが異なる場合に起こりやすい。
 なお、本図では、パソコンと携帯電話の間の通信にインターネットやキャリア通信網を介しているが、家庭内LANや直接通信等で通信を行なっても良い。
 図60は、700~900MHzの電波を用いた通信装置を利用したシステムについて説明するための図である。具体的には、図60の構成では、700~900MHzの電波(以下G電波と呼ぶ)を用いた通信装置(以下G装置と呼ぶ)を利用したシステムについて説明しており、G装置付きの電子レンジからG装置付きの3階の携帯電話にG電波を用いて情報を送信し、G装置付きの3階の携帯電話から、家庭内ネットワークを利用してG装置のない2階の携帯電話に情報を送信し、2階の携帯電話からユーザへ情報の通知を行うことを示している。
 なお、G装置付きの機器間の通信の登録・認証には、両機器に付属のNFCを用いた方法が考えられる。また、いずれかの機器にNFCがない場合には、登録モードとして、10~20cm程度の距離でのみ通信が可能となるようにG電波の出力を下げ、双方の機器を近づけ、通信が成功した場合に、G装置間の通信の登録・認証を行う方法が考えられる。
 また、情報ソース機器(本図では電子レンジ)は、G装置を備えていれば、電子レンジ以外の機器であっても良い。
 また、情報ソース機器と情報通知機器(本図では2階の携帯電話)の中継を行う機器(本図では3階の携帯電話)は、G電波と家庭内ネットワークにアクセス可能であれば、携帯電話ではなく、パソコンやエアコンやスマートメータ等の機器でも良い。
 また、情報通知機器は、家庭内ネットワークにアクセス可能であり、画面表示や音声出力等を用いてユーザへの通知が可能であれば、携帯電話ではなく、パソコンやテレビ等の機器でも良い。
 図61は、遠隔地の携帯電話がユーザに情報を通知することを示す図である。具体的には、図61は、G装置付きのエアコンからG装置付きの宅内の携帯電話に情報を送信し、宅内の携帯電話から、インターネットやキャリア通信網を通じて、遠隔地の携帯電話に情報を送信し、遠隔地の携帯電話でユーザに情報を通知することを示している。
 なお、情報ソース機器(本図ではエアコン)は、G装置を備えていれば、電子レンジ以外の機器であっても良い。
 また、情報ソース機器と情報通知機器(本図では遠隔地の携帯電話)の中継を行う機器(本図では宅内の携帯電話)は、G電波とインターネットやキャリア通信網にアクセス可能であれば、携帯電話ではなく、パソコンやエアコンやスマートメータ等の機器でも良い。
 なお、情報通知機器は、インターネットやキャリア通信網にアクセス可能であり、画面表示や音声出力等を用いてユーザへの通知が可能であれば、携帯電話ではなく、パソコンやテレビ等の機器でも良い。
 図62は、遠隔地の携帯電話がユーザへ情報の通知を行うことを示す図である。具体的には、図62は、G装置のない電子レンジの通知音をG装置付きのテレビが認識し、テレビがG電波を介してG装置付きの宅内の携帯電話に情報を送信し、宅内の携帯電話からインターネットやキャリア通信網を介して遠隔地の携帯電話に情報を送信し、遠隔地の携帯電話がユーザへ情報の通知を行うことを示している。
 なお、情報ソース機器(本図では電子レンジ)は、他の機器でも同様であり、情報ソース機器の通知を、通知認識機器(本図ではテレビ)が認識する方法は、音声ではなく、発光状態等であっても同様である。
 また、通知認識機器も、G装置付きの他の機器であっても同様である。また、通知認識機器と情報通知機器(本図では遠隔地の携帯電話)の中継を行う機器(本図では宅内の携帯電話)は、G電波とインターネットやキャリア通信網にアクセス可能であれば、携帯電話ではなく、パソコンやエアコンやスマートメータ等の機器でも良い。
 なお、情報通知機器は、インターネットやキャリア通信網にアクセス可能であり、画面表示や音声出力等を用いてユーザへの通知が可能であれば、携帯電話ではなく、パソコンやテレビ等の機器でも良い。
 また、図63は、図62と同様の場合において、通知認識機器(本図では2階のテレビ)と情報通知機器(本図では遠隔地の携帯電話)の中継を行う機器(図62では宅内の携帯電話)に代わって、2階のテレビが中継機器の役割を果たした場合の図である。
 以上により、本実施の形態の装置は、以下の機能を実現する。
・アプリケーションの利用を通じて、ユーザの音声特性を学習する機能
・携帯電話から通信可能で、集音機能を持つ機器のうち、携帯電話から発した音を集音可能な集音機器を見つけ出す機能
・携帯電話から通信可能で、集音機能を持つ機器のうち、電子機器から発した音を集音可能な集音機器を見つけ出す機能
・集音機器で集音した音声をそのまま、あるいは、音声認識結果を携帯電話に送信させる機能
・環境音の特性を解析し、音声認識の精度を向上させる機能
・ユーザの所有する機器から出力され得る音声をDBから取得し、音声認識の精度を向上させる機能
・携帯電話から通信可能で、音声出力機能を持つ機器のうち、その機器が発した音声を携帯電話や集音機器が集音可能な音声出力機器を見つけ出す機能
・音声出力機器から出力される音声データを取得し、伝送特性を考慮して集音音声から差し引くことで、集音音声から不要な音声をキャンセルする機能
・調理レシピのパラメータ入力を受け、ユーザに指示を行う調理手順と、調理機器をコントロールするためのコントロールデータをサーバから取得する機能
・機器の出力可能な音のデータを基に、機器の発する通知音を、携帯電話や集音機器が認識しやすいように設定する機能
・ユーザの音声特性を基に認識機能を調整することで、ユーザ音声の認識精度を向上させる機能
・複数の集音機器を用いてユーザの音声を認識する機能
・複数の集音機器を用いて電子機器の通知音を認識する機能
・携帯電話と電子機器の非接触ICカード等を介して、一度の操作だけで、一連の作業を行うために、電子機器から必要な情報を得、電子レンジに設定を行う機能
・携帯電話から通信可能な機器で、カメラやマイクや人感センサ等のユーザを探知することができる機器を用い、ユーザを探し、ユーザの現在位置を携帯電話へ送信させ、または、DBに保存させる機能
・DBに保存されたユーザ位置を用いて、近くに存在する機器からユーザに通知を行う機能
・携帯電話の状態(操作状態、センサ値、充電状態、データリンク状態等)から、携帯電話の付近にユーザが存在するかどうかを推定する機能
 なお、図22から図52の処理では、音データを発光データ(周波数や輝度等)、音声出力を発光、集音を受光とそれぞれ読み替えても同様の機能を実現可能である。
 また、本実施の形態では電子レンジを例としたが、認識する通知音を発する電子機器は、電子レンジではなく、洗濯機や炊飯器、掃除機、冷蔵庫、空気清浄機、ポット、食器洗い乾燥機、エアコン、パソコン、携帯電話、テレビ、自動車、電話、メール着信装置等に変えても、同様の効果がある。
 また、本実施の形態では、電子レンジと、携帯電話と、テレビ等のユーザへ通知を行う機器とは直接に通信を行なっているが、直接の通信に不都合がある場合には、他の機器を通して間接的に通信を行なっても良い。
 また、本実施の形態では、主に家庭LANを利用した通信を想定しているが、機器同士の直接無線通信や、インターネットや、キャリア通信網を介した通信の場合であっても、同様の機能を実現可能である。
 また、本実施の形態では、使用者の場所を、携帯電話からの一斉の問い合わせにより、TVのカメラ等で人物識別をして、本人の携帯電話に暗号化して送るため、個人情報の漏洩が防げるという効果がある。家の中に複数の人間がいる場合でも、エアコンや空気清浄機、冷蔵庫の人感センサのデータを携帯等の位置管理データベースにおくることにより、一回認識した操作者の移動に伴い、センサで追跡することにより、操作者の位置を推定することができる。
 なお、ユーザがジャイロや方位計を持つ携帯電話を所持する場合は、特定した位置データをユーザ位置データベースに登録すると良い。
 また、操作者が携帯を置いたきは、まず、物理センサの動きが一定期間静止することから、これを検知できる。次に離れたことは、家電や照明器具の人感センサやボタン操作、TV等のカメラ、携帯のマイク等を用いて検知する。そしてその位置は携帯もしくは、家内のサーバのユーザ位置データベースに登録する。
 以上のように、実施の形態4によれば、機器間の通信を可能とする情報通信装置(認識装置)を実現することができる。
 具体的には、本実施の形態の情報通信装置は、操作端末から通信可能な電子機器のうち、集音機能を持つ電子機器(集音機器)を探索し、前記集音機器の集音機能を利用して別の電子機器の通知音を認識する認識装置を含んでいてもよい。
 ここで、この認識装置は、さらに、操作端末から発した信号音を集音可能な集音機器のみの集音機能を利用する認識装置であってもよい。
 また、本実施の形態の情報通信装置は、操作端末から通信可能な電子機器のうち、音声出力機能を持つ電子機器(音声出力機器)を探索し、前記音声出力機器と前記集音機器との間の音声伝送特性を解析し、前記音声出力機器の出力音声データを取得し、前記音声伝送特性と前記出力音声データから、集音音声から前記音声出力機器から出力された音声をキャンセルする集音装置を含んでいてもよい。
 また、本実施の形態の情報通信装置は、環境音に埋もれないように、通知音を認識したい電子機器の通知音を調整する認識装置を含んでいてもよい。
 また、本実施の形態の情報通信装置は、ユーザの保有する電子機器(保有電子機器)と保有電子機器が出力する音のデータと保有電子機器の位置データをデータベースに保持し、保有電子機器の出力する音声と通知音を認識したい電子機器の通知音とを区別しやすいように、前記認識したい電子機器の前記通知音を調整する認識装置を含んでいてもよい。
 ここで、この認識装置は、さらに、保有電子機器の出力する音声と通知音を認識したい電子機器の通知音とを区別しやすいように、音声認識処理を調整する認識装置であってもよい。
 また、本実施の形態の情報通信装置は、操作端末の操作状態と、物理センサのセンサ値と、データリンク状態と、充電状態とを利用して、前記操作端末と操作者との位置が近いかどうかを認識する認識装置を含んでいてもよい。
 ここで、この認識装置は、さらに、前記操作端末から通信可能な電子機器の操作状態、カメラと、マイクと、人感センサと、データベースに保持された前記電子機器の位置データを利用して、ユーザの位置を認識する認識装置であってもよい。
 また、この前記認識装置は、さらに、前記ユーザ位置の認識結果と、データベースに保持された、画面表示や音声出力等の手段により前記ユーザに通知が可能な機能を持つ電子機器(通知機器)の位置データとを利用し、前記ユーザに通知が可能な前記通知機器を用いてユーザに情報の通知を行う情報通知装置に含まれていてもよい。
 なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたは記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
 (実施の形態5)
 現在、無線通信において様々な簡単認証方式が検討されている。例えば、Wi―Fiアライアンスで策定されている、無線LANのWPSにおいては、プッシュボタン方式、PIN入力方式、NFC方式などが規定されている。無線における様々な簡単認証方式では、機器を使用しているユーザが認証を行おうとしているかどうかを、時間を限定するか双方の機器に直接触れる事ができる距離にいるということを特定することで判断し、認証を行っている。
 しかし、時間を限定する方法はある程度近接した距離に悪意あるユーザがいた場合には、安全とはいえない。また、家電機器などの据え置き機器においては、直接ふれることが困難もしくは面倒な場合がある。
 そこで、本実施の形態においては、可視光を用いた通信を無線認証に使用することによって、認証をしようしているユーザが確実に部屋内にいることを特定し、家電機器の無線認証を簡単かつ安全に行う方法を説明する。
 図64は、本実施の形態における宅内の環境の例を示す図である。図65は、本実施の形態における家電機器とスマートフォンの通信の例を示す図である。図66は、本実施の形態における送信側装置の構成を示す図である。図67は、本実施の形態における受信側装置の構成を示す図である。図64~図67は、図1~図4と同様の図面であり詳細な説明は省略する。
 宅内環境は、図64に示したような、ユーザがキッチンにおいて持っているタブレットとリビングにおいているTVとを認証するような環境を考える。双方、無線LANに接続は可能な端末であり、WPSモジュールを実装していると仮定する。
 図68は、図64において、送信側端末(TV)が受信側端末(タブレット)と光通信を用いて無線LAN認証を行う場合のシーケンス図である。以下、図68について解説する。
 まず、例えば図66に示すような送信側端末は、乱数を作成する(ステップ5001a)。続いて、WPSのレジストラに登録する(ステップ5001b)。さらに、レジストラに登録した乱数のパターンどおりに発光素子を発光させる(ステップ5001c)。
 一方、送信側装置の発光素子が発光している間に、例えば図67に示すような受信側装置では光認証モードでカメラを起動させる。ここで、光認証モードとは発光素子が認証用に光っているということを認識できるモードであり、発光側の周期とあわせて撮影可能な動画撮影モードのことをいう。
 すなわち、まず、ユーザは送信側端末の発光素子を撮影する(ステップ5001d)。次に、受信側端末は撮影により、乱数を受光する(ステップ5001e)。続いて、乱数を受光した受信側端末は乱数をWPSのPINとして入力する(ステップ5001f)。
 ここで、双方でPINが共有された状態になった送受信端末はWPSでの規定にしたがい、認証処理を行う(ステップ5001g)。
 次に、認証が完了したら、送信側端末はレジストラから乱数を削除し、複数の端末からの認証を受け付けないようにする(5001h)。
 なお、本方式は無線LANの認証に限らず、共有鍵を用いた無線の認証方式すべてに適応可能である。
 また、本方式は無線の認証方式に限定されないものである。例えばTVとタブレット間の双方で搭載しているアプリケーションの認証にも適応することが可能である。
 図69は、本実施の形態におけるアプリケーションでの認証を行う場合のシーケンス図である。以下、図69を解説する。
 まず、送信側端末は端末の状態に応じて送信側IDを作成する(ステップ5002a)。ここで、送信側IDは乱数でもよいし、暗号化のための鍵でもよい。また、送信側端末の端末ID(MACアドレス、IPアドレス)を含んでもよい。続いて、送信側端末は送信側IDのパターンどおりに発光する(ステップ5002b)。
 一方、受信側装置は無線認証の場合と同じ手順で送信側IDを受光する(ステップ5002f)。続いて、受信側装置は送信側IDを受信すると、送信側IDを受信したことが証明可能な受信側IDを作成する(ステップ5002g)。例えば、送信側IDで暗号化されている受信側端末の端末IDであってもよい。また、受信側端末で起動しているアプリのプロセスIDやパスワードを含んでもよい。続いて、受信側端末は受信側IDを無線でブロードキャストする(ステップ5002h)。なお、送信側IDに送信側端末の端末IDが含まれていた場合には、ユニキャストしてもよい。
 次に、無線で受信側IDを受信した5002c送信側端末は、受信した受信側IDを送ってきた端末と相互に共有されている送信側IDを用いて認証を行う(ステップ5002d)。
 図70は、本実施の形態における送信側端末の動作を表すフローチャートである。以下、図70について解説する。
 まず、送信側端末は端末の状態に応じたIDを発光する(ステップ5003a)。
 次に、IDに応じたパターンで発光する(ステップ5003b)。
 次に、発光したIDに対応する無線応答があるかどうかを確認する(ステップ5003c)。応答があった場合には(ステップ5003cでYes)、応答してきた端末に対して認証処理を行う(ステップ5003d)。なお、ステップ5003cにおいて、応答が無かった場合には、タイムアウト時間待って(ステップ5003i)、応答無しを表示して終了する(ステップ5003j)。
 次に、ステップ5003eにおいて認証処理が成功したかを確認し、認証処理が成功した場合には(ステップ5003eでYes)、発光したIDに認証以外のコマンドが含まれていれば(ステップ5003fでYes)、コマンドに従った処理を行う(ステップ5003g)。
 なお、ステップ5003eで、認証が失敗した場合には、認証エラーを表示して(ステップ5003h)、終了する。
 図71は、本実施の形態における受信側端末の動作を表すフローチャートである。以下、図71について解説する。
 まず、受信側端末は光認証モードでカメラを起動する(ステップ5004a)。
 次に、特定パターンで光を受光できたかを確認し(ステップ5004b)、確認できた場合には(ステップ5004bでYes)、送信側IDを受信したことが証明可能な受信側IDを作成する(ステップ5004c)。なお、確認できなかった場合には(ステップ5004bでNo)、タイムアウト時間を待って(ステップ5004iでYes)、タイムアウトを表示し(ステップ5004j)、終了する。
 次に、送信側端末に送信端末のIDが含まれているかを確認する(ステップ5004k)、含まれている場合には(ステップ5004kでYes)、その端末に受信側IDをユニキャストする(ステップ5004d)。一方、含まれていない場合には(ステップ5004kでNo)、ブロードキャストする(ステップ5004l)。
 次に、送信端末側から認証処理が開始され(ステップ5004e)、認証処理が成功した場合には(ステップ5004eでYes)、受光したIDにコマンドが含まれているかどうかを判断する(ステップ5004f)。ステップ5004fで、含まれていたと判断した場合には(ステップ5004fでYES)、IDに応じた処理を行う(ステップ5004g)。
 なお、ステップ5004eで、認証に失敗した場合には(ステップ5004eでNo)、認証エラーを表示し(ステップ5004h)、終了する。
 以上、本実施の形態によれば、可視光を用いた通信を無線認証に使用することによって、認証をしようしているユーザが確実に部屋内にいることを特定し、家電機器の無線認証を簡単かつ安全に行うことができる。
 (実施の形態6)
 上述した実施の形態では、NFC通信、及び、高速無線通信を用いてデータ交換する際のフローを説明したがそれに限らない。本実施の形態は、例えば図72~図74に示されるようなフローにすることも当然可能である。
 図72は、本実施の形態におけるモバイルAV端末1がモバイルAV端末2にデータを送信するシーケンス図である。具体的には、図72は、NFC・無線LAN無線通信を用いたデータ送受信のシーケンス図を示している。以下、図72を解説する。
 モバイルAV端末1は、まず画面上にモバイルAV端末2へ送信する対象となるデータを表示する。
 ここで、モバイルAV端末1とモバイルAV端末2が互いの機器を接触させることによってNFC通信を行うと、モバイルAV端末1は、画面上にデータ送信を行うか否かの確認画面を出す。この確認画面は、「データを送信しますか?」という文字と共に、「Yes/No」の選択をユーザに要求するものであっても良いし、モバイルAV端末1の画面をもう一度タッチすることでデータ送信を開始するようなインターフェイスにしても良い。
 データ送信意思確認でOKの場合、モバイルAV端末1とモバイルAV端末2はNFC通信によって、送信するデータの情報および高速無線通信を確立するための情報をやりとりする。送信するデータの情報は無線LAN通信によって行なっても良い。無線LAN通信確立に関する情報は、通信チャネルやSSID、暗号キー情報をであっても良いし、ランダムに生成されたID情報を交換し、この情報によって、セキュアな通信路を確立する方式であっても良い。
 無線LAN通信が確立すると、モバイルAV端末1とモバイルAV端末2は無線LAN通信によるデータ通信を行い、モバイルAV端末1の送信対象のデータをモバイルAV端末2へ送信する。
 次に、図73、図74を用いて、モバイルAV端末1およびモバイルAV端末2の画面の遷移を中心にした説明を行う。図73は、本実施の形態におけるモバイルAV端末1がモバイルAV端末2にデータを送信する場合の画面遷移図である。図74は、本実施の形態におけるモバイルAV端末1がモバイルAV端末2にデータを送信する場合の画面遷移図である。
 図73および図74において、モバイルAV端末1においてユーザはまず動画静止画を再生するアプリを起動する。このアプリはモバイルAV端末1内にある静止画や動画データを表示する。
 ここで、モバイルAV端末1とモバイルAV端末2を準接触させることによってNFC通信を行う。このNFC通信はモバイルAV端末1で静止画や動画データの交換を開始するための処理である。
 まず、モバイルAV端末1とモバイルAV端末2がNFC通信によりデータ交換の開始を認識すると、モバイルAV端末1の画面にはデータ送信してもよいかどうかの確認画面が表示される。なお、この確認画面は図73のように、データ送信開始にはユーザに画面をタッチさせるようなインターフェイスにしてもよいし、データ送信可否をYes/Noでユーザに選択させるインターフェイスにしてもよい。データ送信開始判断でYesの場合、すなわちモバイルAV端末1がモバイルAV端末2へデータを送信する場合、モバイルAV端末1はモバイルAV端末2へ交換するデータの情報と、無線LANによる高速無線通信開始に関する情報を送信する。なお、この交換するデータの情報は高速無線通信を用いて行なっても良い。
 次に、モバイルAV端末1およびモバイルAV端末2は無線LANによる高速無線通信開始に関する情報を送受信すると、無線LAN通信のコネクションを確立するための処理を行う。この処理は、どのようなチャネルで通信を行うか、通信トポロジ上どちらが親端末になり、どちらが子端末になるか、パスワード情報やお互いのSSIDや端末情報の交換などが含まれる。
 次に、無線LAN通信のコネクションが確立すると、モバイルAV端末1およびモバイルAV端末2は無線LAN通信によるデータを送信する。データ送信中、モバイルAV端末1は通常通り動画の再生画面を表示し、データを受信する側であるモバイルAV端末2は、データ受信中を示す画面を表示させる。これは、モバイルAV端末1にとってデータ送信中の画面を表示すると、その他の処理ができなくなるため、データ送信はバックグラウンドで行うことで、ユーザの利便性が向上するというメリットがある。またモバイルAV端末2はデータを受信中であり、受信したデータをすぐさま表示できるように、画面にデータ受信中を示す画面を表示することで、データの受信完了時に直ちに受診したデータを表示できるメリットがある。
 最後に、モバイルAV端末2はデータの受信が完了すると、受診したデータを画面に表示させる。
 図75~図77は、本実施の形態におけるモバイルAV端末1がデジタルカメラである場合のシステム概略図である。
 図75に示すように、モバイルAV端末1がデジタルカメラであっても、本実施の携帯は適用可能であることは言うまでもない。
 また、モバイルAV端末1がデジタルカメラの場合、一般的にデジタルカメラは、無線LANによるインターネットアクセスの手段は持っていても、携帯通信によるインターネットアクセスの手段を持っていないことが多い。
 このため、図76や図77のように、デジタルカメラ(モバイルAV端末1)は、無線LAN通信が行うことができる環境下においては、無線LANによって撮影した画像データを写真共有サービスに送信し、無線LAN通信を行うことができない環境ではモバイルAV端末2へまず無線LANを用いてデータを送信し、モバイルAV端末2は受診したデータをそのまま携帯電話通信によって写真共有サービスに送信する構成にすることが望ましい。
 無線LAN通信は携帯電話通信と比較して高速であるため、無線LAN通信が可能である場合は無線LAN通信を行うことで高速に写真を写真共有サービスに送信することができる。また、携帯電話通信網は、無線LAN通信網より、サービスエリアが一般的に広いため、無線LAN環境がない場合は、モバイルAV端末2を中継して携帯電話通信によって写真共有サービスにデータを送信することができる機能を持たせることで、さまざまな場所で即座に写真を写真共有サービスに送信することが可能となる。
 以上、本実施の形態によれば、NFC通信、及び、高速無線通信を用いてデータ交換することができる。
 以上、本発明の一つまたは複数の態様に係る情報通信装置等について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本発明の一つまたは複数の態様の範囲内に含まれてもよい。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
 (実施の形態7)
 以下、実施の形態7について説明する。
 (発光部の輝度の観測)
 CMOSセンサ等の撮像素子は、1度に全ての画素の露光を行うのではなく、図78のように、ライン(露光ライン)ごとに時間差で露光を行い、1枚の撮像画像を完成させる。
 撮像素子の全面に発光部が写されている状態で、点滅する発光部を撮像している場合、図79のように、各露光ラインが発光部の光を写しているかどうかによって、撮像フレームレートを上回る速度で点滅する発光部の点滅の様子を認識することができる。
 この方法によって、撮像フレームレートを超える速度で情報の伝送を行う。
 一枚の撮像画像中に、露光時間が重ならない露光ラインが20ラインあり、撮像のフレームレートが30fpsのときは、1ミリ秒周期の輝度変化を認識できる。露光時間が重ならない露光ラインが1000ラインある場合は、3万分の1秒(約33マイクロ秒)周期の輝度変化を認識できる。なお、露光時間は例えば10ミリ秒よりも短く設定される。
 図79は、一つの露光ラインの露光が完了してから次の露光ラインの露光が開始される場合を示している。
 この場合、1秒あたりのフレーム数(フレームレート)がf、1画像を構成する露光ライン数がlのとき、各露光ラインが一定以上の光を受光しているかどうかで情報を伝送すると、最大でflビット毎秒の速度で情報を伝送することができる。
 なお、ラインごとではなく、画素ごとに時間差で露光を行う場合は、さらに高速で通信が可能である。
 このとき、露光ラインあたりの画素数がm画素であり、各画素が一定以上の光を受光しているかどうかで情報を伝送する場合には、伝送速度は最大でflmビット毎秒となる。
 図80のように、発光部の発光による各露光ラインの露光状態を複数のレベルで認識可能であれば、発光部の発光時間を各露光ラインの露光時間より短い単位の時間で制御することで、より多くの情報を伝送することができる。
 露光状態をElv段階で認識可能である場合には、最大でflElvビット毎秒の速度で情報を伝送することができる。
 また、各露光ラインの露光のタイミングと少しずつずらしたタイミングで発光部を発光させることで、発信の基本周期を認識することができる。
 図81は、一つの露光ラインの露光が完了する前に次の露光ラインの露光が開始される場合を示している。
 この場合は、各露光ラインの明るさから露光時間を算出し、発光部の発光の状態を認識する。
 なお、各露光ラインの明るさを、輝度が閾値以上であるかどうかの2値で判別する場合には、発光していない状態を認識するために、発光部は発光していない状態を各ラインの露光時間以上の時間継続しなければならない。
 図82のように、撮像装置によっては、露光を行わない時間(ブランキング)が存在することがある。
 ブランキングが存在する場合には、その時間の発光部の輝度は観察できない。
 発光部が同じ信号を2回以上繰り返して送信する、または、誤り訂正符号を付加することで、ブランキングによる伝送損失を防ぐことができる。
 発光部は、同じ信号が常にブランキングの間に送信されることを防ぐために、画像を撮像する周期と互いに素となる周期、または、画像を撮像する周期より短い周期で信号を送信する。
 (信号変調方式)
 搬送波に可視光を用いる場合、人間の視覚の時間分解能(5ミリ秒から20ミリ秒程度)を窓幅としたときの発光部の輝度の移動平均値を一定に保つように発光部を発光させることで、図83のように、人間には送信装置の発光部が一様な輝度で発光しているように見えると同時に、受信装置は発光部の輝度変化を観察することができる。
 人間の視覚の時間分解能を窓幅としたときの発光部の輝度の移動平均値を一定に保つように発光部を発光させるような変調方式として、図84に示す変調方法がある。変調後の信号が0のときは非発光、1のときは発光とし、送信信号に偏りはないとすると、発光部の輝度の平均値は、発光時の輝度の約50%になる。
 なお、発光/非発光の切り替えは人間の視覚の時間分解能と比べて十分に高速であるとする。
 人間の視覚の時間分解能を窓幅としたときの発光部の輝度の移動平均値を一定に保つように発光部を発光させるような変調方式として、図85に示す変調方法がある。変調後の信号が0のときは非発光、1のときは発光とし、送信信号に偏りはないとすると、発光部の輝度の平均値は発光時の輝度の約75%になる。
 図84の変調方式と比較して、符号化効率は0.5で同等であるが、平均輝度を高くすることができる。
 人間の視覚の時間分解能を窓幅としたときの発光部の輝度の移動平均値を一定に保つように発光部を発光させるような変調方式として、図86に示す変調方法がある。変調後の信号が0のときは非発光、1のときは発光とし、送信信号に偏りはないとすると、発光部の輝度の平均値は発光時の輝度の約87.5%になる。
 図84、図85に示す変調方式と比較して、符号化効率は0.375と劣るが、平均輝度を高く保つことができる。
 以下同様にして、符号化効率とトレードオフで平均輝度を高くする変調が可能である。
 人間の視覚の時間分解能を窓幅としたときの発光部の輝度の移動平均値を一定に保つように発光部を発光させるような変調方式として、図87に示す変調方法がある。
 変調後の信号が0のときは非発光、1のときは発光とし、送信信号に偏りはないとすると、発光部の輝度の平均値は発光時の輝度の約25%になる。
 図85に示す変調方式等と組み合わせ、周期的に変調方式を交代することで、人間や露光時間が長い撮像装置にとっては、発光部が点滅しているように見せることができる。
 同様に、変調方法を変化させることで、人間や露光時間が長い撮像装置にとっては、発光部が任意の輝度変化をしながら発光しているように見せることができる。
 搬送波に可視光を用いる場合、人間の視覚の時間分解能を窓幅としたときの発光部の輝度の移動平均値を周期的に変化させるように発光部を発光させることで、図88のように、人間には発信装置の発光部が点滅、または、任意のリズムで変化しているように見えると同時に、受信装置は発光信号を観察することができる。
 LED光源をバックライトに使用した液晶TVのLED部を発光させても同様の効果が得られる。この場合、少なくとも、光通信部の画面部分のコントラストを落とし、白色に近づけることにより、誤り率の少ない光通信が可能となる。全面、もしくは、通信に使用する画面部分を白色にするとより通信速度を上げられる。
 テレビのディスプレイ等を発光部として用いる場合、人間の視覚の時間分解能を窓幅としたときの発光部の輝度の移動平均値を人間に見せたい画像の輝度になるように調整することで、図89のように、人間には通常通りのテレビの映像が見えると同時に、受信装置は発光信号を観察することができる。
 撮像画像1フレームあたりの時間程度の窓幅としたときの発光部の輝度の移動平均値を、撮像フレーム毎に信号を伝送する場合の信号の値に調節することで、図90のように、近距離から撮像した場合には露光ライン毎に送信装置の発光状態を観察し、遠距離から撮像した場合には撮像フレーム毎に送信装置の発光状態を観察することで、2種類の速度で信号伝搬が可能である。
 なお、近距離から撮像した場合には、遠距離から撮像した場合に受信可能な信号も受信可能である。
 図91は、露光時間ごとに発光がどのように観察されるかを示す図である。
 撮像した画素の輝度は、撮像素子を露光していた時間の撮像対象の平均輝度に比例するため、露光時間が短ければ2217bのように発光パターン2217aがそのまま観察され、露光時間が長ければ、2217c、2217d、2217eのように観察される。
 なお、2217aは、図85に示す変調方式をフラクタル的に繰り返し用いた変調方式となっている。
 このような発光パターンを利用することで、露光時間が短い撮像装置を持つ受信装置には多くの情報を、露光時間が長い撮像装置を持つ受信装置には少ない情報を同時に送信することができる。
 受信装置は、露光ラインの1ラインまたは一定数のラインにわたって、発光部推定位置の画素の輝度が一定以上であれば1、一定以下であれば0を受信したと認識する。
 1が続く場合は通常の(信号を送信しておらず常に光っている)発光部と区別がつかず、0が続く場合は発光部が存在していない場合と区別がつかない。
 そのため、送信装置は、同じ数字が一定数連続した場合は異なる数字を送信しても良い。
 また、図92のように、必ず1と0を含むヘッダ部と、信号を送信するボディ部に分けて送信しても良い。この場合、同じ数字は5回を超えて連続では現れない。
 発光部が1部の露光ラインに映らない位置にある場合や、ブランキングが存在する場合は、発光部の全ての様子を受信装置の撮像装置で捉えることはできない。
 そのため、その信号が全体のどの部分の信号であるかを示す必要がある。
 それには、図93のように、データ部と、データの位置を示すアドレス部をまとめて送信する方法がある。
 なお、受信装置で信号の受信を容易にするためには、発光パターンが受信装置で一枚の撮像画像中に撮像されるように、データ部とアドレス部を合わせた大きさ発光パターンの長さを十分に短く設定することが望ましい。
 図94のように、送信装置は基準部とデータ部を送信し、受信装置は基準部を受信したときの時刻との差からデータの位置を認識する方法がある。
 図95のように、送信装置は基準部とアドレスパターン部とデータ部を送信し、受信装置は基準部の次にあるアドレスパターン部から、データ部のデータとその位置のパターンを得、そのパターンと、基準部を受信した時刻と各データを受信したときの時刻との差からデータの位置を認識する方法がある。
 複数の種類のアドレスパターンが利用できることで、一様にデータを送信するだけではなく、重要性が高いデータや先に処理すべきデータを先に送信したり、他のデータより繰り返し回数を増やしたりすることができる。
 発光部が全部の露光ラインには映らない場合や、ブランキングが存在する場合は、発光部の全ての様子を受信装置の撮像装置で捉えることはできない。
 図96のように、ヘッダ部を付加することで、信号の区切りを検出し、アドレス部やデータ部を検出することができる。
 ヘッダ部の発光パターンには、アドレス部やデータ部に現れないパターンを用いる。
 例えば、表2200.2aの変調方式を用いる場合には、ヘッダ部の発光パターンを「0011」とすることができる。
 また、ヘッダ部のパターンを「11110011」とすると、平均輝度が他の部分と等しくなり、人間の目で見た時のチラツキを抑えることができる。このヘッダ部は冗長性が高いため、ここにも情報を重畳することが可能である。例えば、ヘッダ部のパターンが「11100111」の場合は、送信装置間で通信する内容を送信していることを示すことなどが可能である。
 なお、受信装置で信号の受信を容易にするためには、発光パターンが受信装置で一枚の撮像画像中に撮像されるように、データ部とアドレス部とヘッダ部を合わせた大きさ発光パターンの長さを十分に短く設定することが望ましい。
 図97では、送信装置は、優先度によって情報の送信順序を決定する。
 例えば、送信回数を優先度に比例させる。
 受信装置は、送信装置の発光部が受信装置の撮像部いっぱいに写っていない場合やブランキングがある場合には信号を連続して受信できないため、送信される頻度が高いほど早く受信されやすい。
 図98は、近くに存在する複数の送信装置が同調して情報を送信するパターンを示す。
 複数の送信装置が共通情報を同時に送信することで、一つの大きな送信装置とみなすことができ、受信装置の撮像部で大きく撮像することができるため、情報をより速く、より遠くからでも受信可能となる。
 送信装置は、近くに存在する送信装置の発光パターンと混同されないように、近くの送信装置の発光部が一様発光(信号を送信していない)時間帯に、個別情報を送信する。
 送信装置は、近くに存在する送信信号の発光パターンを受光部で受光することで、近くに存在する送信装置の発光パターンを学習し、自身の発光パターンを定めるとしても良い。また、送信装置は、近くに存在する送信信号の発光パターンを受光部で受光することで、他の送信装置の命令によって自身の発光パターンを定めるとしても良い。また、送信装置は、集中制御装置の命令に従って、発光パターンを定めるとしても良い。
 (発光部の検出)
 撮像画像のどの部分に発光部が撮像されているかを判断する方法として、図99のように、露光ラインに垂直な方向に、発光部が撮像されたライン数を数え、最も多く発光部が撮像された列を発光部の存在する列とする方法がある。
 発光部の端に近い部分は、受光の度合いにゆらぎがあり、発光部が撮像されているかどうかの判断を誤りやすいため、最も多く発光部が撮像された列の中でも中央の列の画素の撮像結果から信号を取り出す。
 撮像画像のどの部分に発光部が撮像されているかを判断する方法として、図100のように、露光ライン毎に発光部を撮像した部分の中点を求め、求めた点を結ぶ近似線(直線、または、二次曲線)上に発光部が存在すると推定する方法がある。
 図101のように、前のフレームにおける発光部の推定位置を事前確率とし、現在のフレームの情報から発光部の推定位置を更新しても良い。
 なお、この間の加速度センサやジャイロセンサの値から、現在の発光部の推定位置を更新しても良い。
 図102を解説すると、撮像範囲が2212aのとき、発光部2212bを撮像すると、撮像画像2212c、2212d、2212eのような画像が撮像される。
 撮像画像2212c、2212d、2212eの発光部分の和を取ると、合成画像2212fが得られ、撮像画像中の発光部位置を特定することができる。
 受信装置は、特定した発光部の位置から、発光部の発光のオンオフを検出する。
 なお、図85に示す調方式を用いる場合、発光確率は0.75であるため、n枚の画像の和をとった時に、合成画像2212f中の発光部が発光して見える確率は、1-0.25である。ここで、例えば、n=3のとき、この確率は約0.984となる。
 なお、ジャイロセンサや加速度センサや磁気センサのセンサ値から撮像部の姿勢を推定し、撮像方向の補償を行った上で画像を合成したほうが精度は高くなる。しかし、合成画像数が少ない場合は撮像時間が短いため、撮像方向の補償を行わなくても悪影響は少ない。
 図103は、受信装置が複数の発光部を撮像した場合を示す図である。
 複数の発光部が同じ信号を発している場合は、両方の発光パターンから一つの送信信号を取得する。複数の発光部が異なる信号を発している場合は、別々の発光パターンから別々の送信信号を取得する。
 送信信号の同じアドレスのデータ値が異なる場合は、異なる信号が送信されている。なお、送信信号のヘッダ部のパターンによって、近くの送信装置と同じ、または、異なる信号を送信していると判断しても良い。
 発光部がほぼ隣接している場合は、同じ信号を送信しているとみなしても良い。
 図104に、このときの送信信号のタイムラインと、発光部を撮像した画像を示す。
 (位置パターンによる信号の伝送)
 図105で、発光部2216a、2216c、2216eは一様に発光しており、発光部2216b、2216d、2216fは、発光パターンにより信号を発信している。なお、発光部2216b、2216d、2216fは、単純に、受信装置が露光ラインごとに撮像すれば縞模様に見えるように発光しているだけでも良い。
 図105では、発光部2216a~2216fは、同一の送信装置の発光部でも、別々の送信装置でも良い。
 送信装置は、信号を送信している発光部の位置と、送信していない発光部の位置のパターン(位置パターン)によって、送信する信号を表現する。
 図105では、6個の発信部があるため、2の6乗=64値の信号を送信可能である。異なる方向から見れば同一に見える位置パターンは使用するべきではないが、受信装置の磁気センサなどにより撮像方向を特定することで、上記のようなパターンを識別することもできる。なお、どの発光部が信号を送信しているかを時刻によって変化させることで、より多くの信号を送信しても良い。
 送信装置は、一部の時間帯に位置パターンによる信号送信を行い、別の時間帯には発光パターンで信号を送信することもできる。例えば、一部の時間帯で、全ての発光部を同調させて送信装置のIDや位置情報を発光パターンで送信することができる。
 発光部の配置パターンはほぼ無限に存在するため、受信装置が全ての位置パターンを予め記憶しておくことは困難である。
 そこで、受信装置は、送信装置が発光パターンによって送信した送信装置のIDや位置情報や、無線基地局による受信装置の推定位置や、GPSやジャイロセンサや加速度センサや磁気センサによって推定した受信装置の位置情報をキーに、サーバから、付近に存在する位置パターンのリストを取得し、そのリストを基に位置パターンを解析する。
 この方式によれば、位置パターンで表現する信号は全世界でユニークである必要はなく、同じ位置パターンが近く(半径数メートルから300メートル程度)に存在しなければ良く、発光部が少ない送信装置は表現できる位置パターンの数が少ないという問題を解決できる。
 発光部の大きさや形状や位置情報をサーバから取得し、これらの情報と、撮像した位置パターンの大きさや形状と、撮像部のレンズ特性から、受信装置の位置を推定することができる。
 (受信装置)
 主に受信を行う通信装置としては、図106のように、携帯電話やデジタルスチルカメラやデジタルビデオカメラやヘッドマウントディスプレイやロボット(掃除用、介護用、産業用等)や監視カメラ等が考えられる。ただし、受信装置はこれらに限定されない。
 なお、受信装置とは、主に信号を受信する通信装置であって、本実施の形態の方式やその他の方式によって信号の送信を行うこともある。
 (送信装置)
 主に送信を行う通信装置としては、図107のように、照明(家庭用、店舗用、オフィス用、地下街用、街路用等)、懐中電灯、家電、ロボット、その他電子機器が考えられる。ただし、送信装置はこれらに限定しない。
 なお、送信装置とは、主に信号を送信する通信装置であって、本実施の形態の方式やその他の方式によって信号の受信を行うこともある。
 発光部は、図108に示すように、LED照明やLEDバックライトを用いた液晶等のように、発光/非発光のスイッチングが高速であるものが望ましい。ただし、発光部はこれらに限定するものではない。
 発光部には、上記の他、蛍光灯や白熱電灯や水銀灯や有機ELディスプレイなどの照明が考えられる。
 なお、発光部が大きく撮像されるほうが、伝送効率が高くなるため、送信装置は、図109のように、同期して発光する発光部を複数備えても良い。また、撮像素子の露光ラインと垂直の方向に大きく映るほど伝送効率は高くなるため、発光部は一列に並べて設置しても良い。また、受信装置を自然に構えた場合に露光ラインと垂直に発光部を並べても良い。また、複数の向きから撮像されることが予想される場合には、図110のように、十字形に発光部を配置しても良い。また、複数の向きから撮像されることが予想される場合には、図111のように、円形の発光部を用いたり、円形に発光部を配置したりしても良い。また、大きく撮像するほうが、伝送効率が高くなるため、送信装置は、図112のように、発光部に散光板をかぶせても良い。
 図113のように、異なる信号を送信する発光部は、同時に撮像されないように距離を離して配置する。また、図114のように、異なる信号を送信する発光部は、同時に撮像されないように、間に信号を送信しない発光部を配置する。
 (発光部の構造)
 図115は、発光部の望ましい構造を示す図である。
 2311aのように、発光部とその周囲の素材を反射率の低いものにすることで、発光部周辺に光があたっている場合でも、受信装置が発光の様子を認識することを容易にすることができる。また、2311bのように、外光を妨げるかさを設けることで、発光部周辺に光が当たらす、受信装置が発光の様子を認識することを容易にすることができる。また、2311cのように、奥まった部分に発光部を設けることで、発光部周辺に光が当たらす、受信装置が発光の様子を認識することを容易にすることができる。
 (信号搬送波)
 信号を搬送する光(電磁波)は、受信装置が受光可能な、図116に示す近赤外線帯~可視光帯~近紫外線帯の周波数帯の光(電磁波)を用いる。
 (撮像部)
 図117では、受信装置の撮像部は、撮像範囲2310aの中にパターン発光をしている発光部2310bを検出する。
 撮像制御部は、他の露光ラインを用いる代わりに、発光部の中心位置の露光ライン2310cを繰り返し用いて撮像画像2310dを取得する。
 撮像画像2310dは、露光時間の異なる同じ場所の画像となる。撮像画像2310dの発光部が写っている画素を露光ラインと垂直方向に走査することで、発光部の発光パターンを観察できる。
 この方法により、発光部が撮像画像中の一部分にしか存在しない場合でも、発光部の輝度変化をより長い時間観察できる。そのため、小さな発光部や、発光部を遠くから撮像した場合でも信号を読み取ることが可能となる。
 ブランキングがない場合には、この方法により、撮像装置の一部分にでも発光部が写っていれば、発光部の輝度変化を全て観察することができる。
 一つのラインを露光する時間が、次のラインを露光し始めるまでの時間より長い場合は、発光部の中心の複数の露光ラインを用いて撮像することで、同様の効果が得られる。
 なお、画素単位での制御が可能である場合は、発光部の中心に最も近い点のみ、あるいはその付近の複数の点のみを用いて撮像を行う。このとき、各画素の露光開始時刻をずらすことで、さらに細かい周期で発光部の発光状態を検出することができる。
 なお、主に2310cの露光ラインを使用しつつ、まれに別の露光ラインを使用して撮像し、撮像画像を合成することで、通常より解像度やフレームレートは劣るものの、通常通り撮像した撮像画像と類似した画像(映像)を合成できる。この合成画像をユーザに表示することでユーザに受信装置を操作させたり、手振れの補正に利用したりすることができる。
 なお、手振れの補正には、ジャイロセンサや加速度センサや磁気センサなどのセンサ値を利用したり、発光部を撮影している撮像装置とは別の撮像装置で撮像した画像を利用したりすることもできる。
 なお、発光部の端よりも中心に近いほうが、手振れ時に発光部が露光ラインや露光画素から外れにくいため、発光部の中心に近い部分を露光ラインや露光画素とすることが望ましい。
 なお、発光部の辺縁部は発光輝度が低いため、なるべく発光部の周囲から遠く、輝度が高い部分を露光ラインや露光画素とすることが望ましい。
 (受信装置の位置の推定)
 図118では、送信装置は自身の設置されている位置情報と、発光装置の大きさと、発光装置の形状と、送信装置のIDとを送信する。ここで、位置情報には、発光装置の中心部分の緯度や、経度や、標高や、床面からの高さ等が含まれる。
 受信装置は、磁気センサとジャイロセンサと加速度センサから得た情報により撮像方向を推定する。受信装置は、送信装置から送信された発光装置の大きさと形状と、撮像された画像中の発光装置の大きさと形状と、撮像装置の情報から、受信装置から発光装置までの距離を推定する。ここで、撮像装置の情報には、レンズの焦点距離や、レンズの歪みや、撮像素子の大きさや、レンズと撮像素子間の距離や、基準サイズの物体の撮像画像中の大きさと撮像装置から撮像物体までの距離の対照表等が含まれる。
 また、受信装置は、送信装置から送信された情報と、撮像方向と、受信装置から発光装置までの距離とから、受信装置の位置情報を推定する。
 図119では、送信装置は自身の設置されている位置情報と、発光部の大きさと、発光部の形状と、送信装置のIDとを送信する。ここで、位置情報には、発光部の中心部分の緯度や、経度や、標高や、床面からの高さ等が含まれる。
 受信装置は、磁気センサとジャイロセンサと加速度センサから得た情報により撮像方向を推定する。受信装置は、送信装置から送信された発光部の大きさと形状と、撮像された画像中の発光部の大きさと形状と、撮像装置の情報から、受信装置から発光部までの距離を推定する。ここで、撮像装置の情報には、レンズの焦点距離や、レンズの歪みや、撮像素子の大きさや、レンズと撮像素子間の距離や、基準サイズの物体の撮像画像中の大きさと撮像装置から撮像物体までの距離の対照表等が含まれる。
 また、受信装置は、送信装置から送信された情報と、撮像方向と、受信装置から発光部までの距離とから、受信装置の位置情報を推定する。受信装置は、磁気センサとジャイロセンサと加速度センサから得た情報により、移動方向と移動距離を推定する。受信装置は、複数の地点で推定した位置情報と、移動方向と移動距離から推定したその地点間の位置関係を用いて、受信装置の位置情報を推定する。
 例えば、地点
Figure JPOXMLDOC01-appb-M000001
で推定した受信装置の位置情報の確率場を
Figure JPOXMLDOC01-appb-M000002
地点
Figure JPOXMLDOC01-appb-M000003
から地点
Figure JPOXMLDOC01-appb-M000004
へ移動したときに推定した移動方向と移動距離の確率場を
Figure JPOXMLDOC01-appb-M000005
とすると、最終的に推定される位置情報の確率場は
Figure JPOXMLDOC01-appb-M000006
と計算できる。
 また、図119では、送信装置は自身の設置されている位置情報と、送信装置のIDとを送信してもよい。ここで、位置情報には、発光装置の中心部分の緯度や、経度や、標高や、床面からの高さ等が含まれる。
 この場合、受信装置は、磁気センサとジャイロセンサと加速度センサから得た情報により撮像方向を推定する。受信装置は、三点測量の方法で受信装置の位置情報を推定する。
 図120では、送信装置は送信装置のIDを送信する。
 受信装置は送信装置のIDを受信し、インターネットから送信装置の設置されている位置情報と、発光装置の大きさと、発光装置の形状等を得る。ここで、位置情報には、発光装置の中心部分の緯度や、経度や、標高や、床面からの高さ等が含まれる。
 受信装置は、磁気センサとジャイロセンサと加速度センサから得た情報により撮像方向を推定する。受信装置は、送信装置から送信された発光装置の大きさと形状と、撮像された画像中の発光装置の大きさと形状と、撮像装置の情報から、受信装置から発光装置までの距離を推定する。ここで、撮像装置の情報には、レンズの焦点距離や、レンズの歪みや、撮像素子の大きさや、レンズと撮像素子間の距離や、基準サイズの物体の撮像画像中の大きさと撮像装置から撮像物体までの距離の対照表等が含まれる。
 また、受信装置は、インターネットから得た情報と、撮像方向と、受信装置から発光装置までの距離とから、受信装置の位置情報を推定する。
 図121では、送信装置は自身の設置されている位置情報と、送信装置のIDとを送信する。ここで、位置情報には、発光装置の中心部分の緯度や、経度や、標高や、床面からの高さ等が含まれる。
 受信装置は、磁気センサとジャイロセンサと加速度センサから得た情報により撮像方向を推定する。受信装置は、三角測量の方法で受信装置の位置情報を推定する。
 図122では、送信装置は自身の設置されている位置情報と、送信装置のIDとを送信する。位置情報には、発光装置の中心部分の緯度や、経度や、標高や、床面からの高さ等が含まれる。
 受信装置は、磁気センサとジャイロセンサと加速度センサから得た情報により撮像方向を推定する。受信装置は、三角測量の方法で受信装置の位置情報を推定する。また、受信装置は、ジャイロセンサや加速度センサや磁気センサから、受信装置の姿勢変化や移動を推定する。なお、受信装置は、同時に、磁気センサの零点調整やキャリブレーションを行なっても良い。
 (送信情報の設定)
 図123では、受信装置2606cで送信装置2606bの発光パターンを撮像して送信された信号を取得し、受信装置の位置を推定する。
 受信装置2606cは、移動されている間に、撮像画像の変化や、磁気センサや加速度センサやジャイロセンサのセンサ値から、移動の距離と方向を推定する。
 受信装置は、送信装置2606aの受光部を撮像し、発光部の中心位置を推定し、その位置を送信装置に送信する。
 発光部の位置推定には、発光装置の大きさの情報が必要であるため、送信装置は、送信する情報の一部が欠けている場合でも、発光部の大きさ情報を送信しているほうが望ましい。なお、発光部の大きさがわからない場合は、受信装置に位置推定に利用した送信装置2606bと受信装置2606cとの間の距離から天井の高さを推定し、その結果を利用して送信装置2606aと受信装置2606cとの間の距離を推定する。
 送信には、発光パターンによる送信や、音のパターンによる送信や、無線電波による送信方式がある。送信装置の発光パターンとその時刻を記憶しておき、あとで送信装置や集中制御装置へ送信するとしても良い。
 送信装置や集中制御装置は、発光パターンとその時刻から、受信装置が撮像していた送信装置を特定し、位置情報を送信装置へ記憶させる。
 図124では、受信装置の撮像した画像中の点として送信装置の一点を指定することで、位置を設定する点を指定する。
 受信装置は、位置設定点から送信装置の発光部の中心への位置関係を計算し、設定する位置にその位置関係を加えた位置を送信装置へ送信する。
 図125では、受信装置は、送信装置を撮像することで、送信された信号を受信する。受信した信号を基に、サーバや電子機器と通信を行う。
 例えば、受信装置は、信号に含まれる送信装置のIDをキーに、サーバから、送信装置の情報や、送信装置の位置・大きさや、その位置に関連するサービス情報等を取得する。
 また、例えば、受信装置は、信号に含まれる送信装置の位置から受信装置の位置を推定し、サーバから、地図情報や、その位置に関連するサービス情報等を取得する。
 また、例えば、受信装置は、現在の大まかな位置をキーに、サーバから、付近の送信装置の変調方式を取得する。
 また、例えば、受信装置は、信号に含まれる送信装置のIDをキーに、サーバに、受信装置や送信装置の位置情報や、付近の情報や、受信装置が付近で行った処理の情報をサーバに登録する。
 また、例えば、受信装置は、信号に含まれる送信装置のIDをキーに、電子機器の操作を行う。
 (受信装置のブロック図)
 図126は、受信装置を示す構成図である。受信装置はこの全部、または、撮像部と信号解析部を含む一部から構成される。なお、図126で同じ名称のブロックは、同一のものが兼ねても良いし、異なるものであっても良い。
 狭義の受信装置2400afは、スマートフォンやデジタルカメラ等に備えられる。入力部2400hは、ユーザ操作入力部2400iや、照度センサ2400jや、マイクロフォン2400kや、計時部2400nや、位置推定部2400mや、通信部2400pの全部、または、一部から構成される。
 撮像部2400aは、レンズ2400bや、撮像素子2400cや、フォーカス制御部2400dや、撮像制御部2400eや、信号検出部2400fや、撮像情報記憶部2400gの全部、または、一部から構成される。撮像部2400aは、ユーザの操作や、照度の変化や、音や声のパターンや、特定の時刻になったことや、特定の場所に受信装置が移動してきたことや、通信部を介して他の装置に命令されることで、撮像を開始する。
 フォーカス制御部2400dは、送信装置の発光部2400aeにフォーカスを合わせたり、送信装置の発光部2400aeが大きく映るようにぼかすようにフォーカスを合わせたりといった制御を行う。
 露光制御部2400akは、露光時間と露光ゲインを設定する。
 撮像制御部2400eは、撮像する位置を特定の画素に限定する。
 信号検出部2400fは、撮像画像中から、送信装置の発光部2400aeが含まれる画素や、発光による信号送信が含まれる画素を検出する。
 撮像情報記憶部2400gは、フォーカス制御部2400dの制御情報や、撮像制御部2400eの制御情報や、信号検出部2400fで検出した情報を記憶する。撮像装置が複数ある場合には、同時に撮像を行い、一方を受信装置の位置や姿勢の推定に利用しても良い。
 発光制御部2400adは、入力部2400hからの入力により、発光部2400aeの発光パターンを制御することで、信号を送信する。発光制御部2400adは、発光部2400aeを発光させた時刻を計時部2400acから取得して記録する。
 撮像画像記憶部2400wは、撮像部2400aで撮像した画像を記憶する。
 信号解析部2400yは、撮像素子のラインごとの露光時間の違いを利用して、撮像された送信装置の発光部2400aeの発光パターンから、変調方式記憶部2400afに記憶された変調方式を基に、送信された信号を取得する。
 受信信号記憶部2400zは、信号解析部2400yで解析された信号を記憶する。
 センサ部2400qは、GPS2400rや、磁気センサ2400tや、加速度センサ2400sや、ジャイロセンサ2400uの全部、または一部から構成される。
 位置推定部は、センサ部からの情報や、撮像画像や、受信した信号から、受信装置の位置や姿勢を推定する。
 演算部2400aaは、受信した信号や、受信装置の推定位置や、これらを基にネットワーク2400ahから得た情報(地図や場所に関連した情報や送信装置に関連した情報等)を表示部2400abに表示させる。
 演算部2400aaは、受信した信号や、受信装置の推定位置から、入力部2400hに入力された情報を基に、送信装置の制御を行う。
 通信部2400agは、ピアツーピアで接続する方式(bluetoothなど)を用いる場合は、ネットワーク2400ahを介さずに端末同士で通信を行う。
 電子機器2400ajは、受信装置に制御される。
 サーバ2400aiは、送信装置の情報や送信装置の位置や送信装置の位置に関連した情報を、送信装置のIDと紐付けて記憶している。
 サーバ2400aiは、送信装置の変調方式を、位置に紐付けて記憶している。
 (送信装置のブロック図)
 図127は、送信装置を構成するブロック図である。
 送信装置は、本構成図の全部、または、発光部と送信信号記憶部と変調方式記憶部と演算部を含めた一部で構成される。
 狭義の送信装置2401abは、電灯や電子機器やロボットに備えられる。
 照明制御スイッチ2401nは、照明のオンオフを切り替えるスイッチである。
 散光板2401pは、発光部2401qの光を散光させるために発光部2401qの近くに取り付けられる部材である。
 発光部2401qは、図126の受信装置の撮像素子のラインごとの露光時間の違いを利用して、ラインごとに発光パターンが検出される速度で点灯・消灯を行う。
 発光部2401qは、高速に点灯・消灯が可能なLEDや蛍光灯等の光源で構成される。
 発光制御部2401rは、発光部2401qの点灯と消灯を制御する。
 受光部2401sは、受光素子や撮像素子で構成される。受光部2401sは、受光した光の強さを電気信号に変換する。なお、受光部2401sの代わりに、撮像部を用いても良い。
 信号解析部2401tは、受光部2401sが受光した光のパターンから信号を取得する。
 演算部2401uは、送信信号記憶部2401dに記憶されている送信信号を、変調方式記憶部2401eに記憶されている変調方式に従って発光パターンに変換する。演算部2401uは、信号解析部2401tから得た信号を基に、記憶部2401aの情報を編集したり、発光制御部2401rを制御したりして通信の制御を行う。演算部2401uは、取り付け部2401wからの信号を基に、記憶部2401aの情報を編集したり、発光制御部2401rを制御したりして通信の制御を行う。演算部2401uは、通信部2401vからの信号を基に、記憶部2401aの情報を編集するなど発光制御部2401rの制御を行う。
 また、演算部2401uは、取り付け装置2401hの記憶部2401bの情報を編集する。演算部2401uは、取り付け装置2401hの記憶部2401bの情報を、記憶部2401aにコピーする。
 演算部2401uは、定められた時刻に発光制御部2401rを制御する。演算部2401uは、ネットワーク2401aaを介して電子機器2401zzの制御を行う。
 記憶部2401aは、送信信号記憶部2401d、形状記憶部2401f、変調方式記憶部2401e、機器状態記憶部2401gの全部、または、一部から構成される。
 送信信号記憶部2401dは、発光部2401qから送信する信号を記憶する。
 変調方式記憶部2401eは、送信信号を発光パターンに変換する変調方式を記憶する。
 形状記憶部2401fは、送信装置と発光部2401qの形状を記憶する。
 機器状態記憶部2401gは、送信装置の状態を記憶する。
 取り付け部2401wは、取付金具や電力供給口で構成される。
 取り付け装置2401hの記憶部2401bは、記憶部2401aに記憶する情報を記憶する。記憶部2401aは備えず、取り付け装置2401hの記憶部2401bや、集中制御装置2401mの記憶部2401cを用いても良い。
 通信部2401vは、ピアツーピアで接続する方式(bluetoothなど)を用いる場合は、ネットワーク2401aaを介さずに端末同士で通信を行う。
 サーバ2401yは、送信装置の情報や送信装置の位置や送信装置の位置に関連した情報を、送信装置のIDと紐付けて記憶している。また、サーバ2401yは、送信装置の変調方式を、位置に紐付けて記憶している。
 (受信の手順)
 図128を解説すると、ステップ2800aで、受信装置に撮像装置が複数あるかどうかを確認する。Noの場合はステップ2800bへ進み、使用する撮像装置を選択し、ステップ2800cへ進む。一方、Yesの場合はステップ2800cへ進む。
 ステップ2800cでは、露光時間(=シャッタースピード)を設定(なお、露光時間は短いほうが望ましい)する。
 次に、ステップ2800dで、露光ゲインを設定する。
 次に、ステップ2800eで、撮像する。
 次に、ステップ2800fで、露光ライン毎に、輝度が一定の閾値を超える画素が一定数以上続く部分を判定し、その部分の中心位置を求める。
 次に、ステップ2800gで、上記の中心位置を結ぶ、1次または2次の近似線を計算する。
 次に、ステップ2800hで、各露光ラインの近似線上の画素の輝度値を、各露光ラインの信号値とする。
 次に、ステップ2800iで、撮像フレームレート、解像度、ブランキング時間等によって構成される撮像情報から、露光ライン1ラインあたりの担当時間を計算する。
 次に、ステップ2800jで、ブランキング時間が一定以下であれば、ある撮像フレームの最後の露光ラインの次の露光ラインはその次のフレームの最初の露光ラインであるとみなす。そうでない場合は、ある撮像フレームの最後の露光ラインとその次のフレームの最初の露光ラインの間には、ブランキング時間を1露光ラインあたりの担当時間で除した数の、観測できない露光ラインが存在するとみなす。
 次に、ステップ2800kで、デコード情報から、基準位置パターン、アドレスパターンを読み込む。
 次に、ステップ2800mで、各露光ラインの信号値から、信号の基準位置を示すパターンを検出する。
 次に、ステップ2800nで、検出した基準位置を基に、データ部、アドレス部を計算する。
 次に、ステップ2800pで、送信信号を得る。
 (自己位置推定の手順)
 図129を解説すると、まず、ステップ2801aで、受信装置の現在位置として認識している位置または現在位置の確率マップを、自己位置の事前情報とする。
 次に、ステップ2801bで、受信装置の撮像部を送信装置の発光部へ向ける。
 次に、ステップ2801cで、加速度センサとジャイロセンサと磁気センサのセンサ値から、撮像装置が向けられている方位と仰角を計算する。
 次に、ステップ2801dで、発光パターンを撮像し、送信信号を取得する。
 次に、ステップ2801eで、送信信号に含まれる発光部の大きさや形状の情報と、撮像した発光部の大きさと、撮像装置の撮像の倍率とから、撮像装置と発光部の間の距離を計算する。
 次に、ステップ2801fで、撮像画像中の発光部の位置と、レンズ特性から、撮像部から発光部への方向と撮像面の法線との相対角度を計算する。
 次に、ステップ2801gで、これまでに計算した数値から、撮像装置と発光部の相対位置関係を計算する。
 次に、ステップ2801hで、送信信号に含まれる発光部の位置と、撮像装置と発光部の相対位置関係から、受信装置の位置を計算する。なお、送信装置が複数観察できる場合は、各送信装置に含まれる信号から撮像装置の座標を計算することで、受信装置の位置を高精度に計算できる。なお、送信装置が複数観察できる場合は、三角測量の手法を用いることができる。
 次に、ステップ2801iで、自己位置の事前情報と、受信装置の位置の計算結果から、受信装置の現在位置または現在位置の確率マップを更新する。
 次に、ステップ2801jで、撮像装置を移動させる。
 次に、ステップ2801kで、加速度センサとジャイロセンサと磁気センサのセンサ値から、移動の方向と距離を計算する。
 次に、ステップ2801mで、撮像画像と撮像装置の姿勢とから、移動の方向と距離を計算し、ステップ2801aへ戻る。
 (送信制御の手順1)
 図130を解説すると、まず、ステップ2802aで、ユーザがボタン押下する。
 次に、ステップ2802bで、発光部を発光させる。なお、発光パターンで信号を表しても良い。
 次に、ステップ2802cで、発光開始時刻や、終了時刻や、特定のパターンを送信した時刻を記録する。
 次に、ステップ2802dで、撮像装置で撮像する。
 次に、ステップ2802eで、撮像画像中に存在する送信装置の発光パターンを撮像し、送信された信号を取得する。なお、記録した時刻を利用して同期的に発光パターンを解析しても良い。そして、終了する。
 (送信制御の手順2)
 図131を解説すると、まず、ステップ2803aで、受光装置で受光、または、撮像装置で撮像する。
 次に、ステップ2803bで、特定のパターンであったかどうかを確認する。
 Noの場合は、ステップ2803aへ戻る。一方、Yesの場合は、ステップ2803cへ進み、受信パターンを受光または撮像した開始時刻や、終了時刻や、特定のパターンが現れた時刻を記録する。
 次に、ステップ2803dで、記憶部から送信信号を読み出し、発光パターンへ変換する。
 次に、ステップ2803eで、前記発光パターンに従って発光部を発光させ、終了する。なお、記録した時刻から一定時間が経過してから発光させ、終了するとしても良い。
 (送信制御の手順3)
 図132を解説すると、まず、ステップ2804aで、受光装置で受光し、受光した光エネルギーを電気に変換して蓄電する。
 次に、ステップ2804bで、蓄電エネルギーが一定以上となったかどうかを確認する。
 Noの場合は、ステップ2804aへ戻る。一方、Yesの場合は、ステップ2804cへ進み、受光した光を解析し、特定のパターンが現れた時刻を記録する。
 次に、ステップ2804dで、記憶部から送信信号を読み出し、発光パターンへ変換する。
 次に、ステップ2804eで、上記発光パターンに従って発光部を発光させ、終了する。なお、記録した時刻から一定時間が経過してから発光させ、終了するとしても良い。
 (駅構内での情報提供)
 図133は、駅構内で情報提供を受ける状況を説明する図である。
 受信装置2700aは、駅施設に設置された照明を撮像し、発光パターンや位置パターンを読み取ることで、照明装置が送信している情報を受信する。
 受信装置2700aは、受信した情報を基にサーバから照明や施設の情報を取得し、さらに、撮像された照明の大きさや形から、受信装置2700aの現在位置を推定する。
 例えば、受信装置2700aは、施設IDや位置情報にもとづいて得た情報を表示する(2700b)。受信装置2700aは、施設IDを基に施設の地図をダウンロードし、ユーザが購入した乗車券情報から、乗車場所へのナビゲートを行う(2700c)。
 なお、図133は鉄道の駅での例を示しているが、空港や港やバス停等の施設でも同様である。
 (乗車サービス)
 図134は、乗り物内での利用の様子を示す図である。
 乗客の持つ受信装置2704aと、販売員の持つ受信装置2704bは、照明2704eが送信する信号を受信し、自身の現在位置を推定する。
 なお、各受信装置は、自己位置推定に必要な情報を、照明2704eから取得しても良いし、照明2704eから送信された情報をキーにサーバから取得しても良いし、乗車駅や改札の位置情報等を基に事前に取得しても良い。
 なお、受信装置2704aは、ユーザ(乗客)が購入した乗車券の乗車時間情報と現在時刻から、現在位置が乗り物内であることを認識し、その乗り物と関連付けられた情報をダウンロードしても良い。
 各受信装置は、自身の現在の位置をサーバへ通知する。受信装置2704aは、ユーザ(乗客)IDや、受信装置のIDや、ユーザ(乗客)が購入した乗車券の情報をサーバへ通知することで、サーバは、座席に座っている人物が乗車権利や指定席権利を持つ人物であることを確認する。
 受信装置2704aは、販売員の現在位置を表示することで、ユーザ(乗客)は、車内販売の購入タイミングを検討できる。
 乗客が受信装置2704aを介して車内販売の注文を行ったとき、受信装置2704aは、自身の位置と注文内容と課金情報を販売員の受信装置2704bやサーバに通知する。販売員の受信装置2704bは、注文者の位置を示す地図2704dを表示させる。
 なお、乗客は受信装置2704aを介して、指定席券や乗り継ぎ乗車券の購入もできる。
 受信装置2704aは空席情報2704cを表示する。受信装置2704aは、ユーザ(乗客)が購入した乗車券の乗車区間情報と、自身の現在位置から、指定席券や乗り継ぎ乗車券の購入情報や課金情報をサーバへ通知する。
 なお、図134は鉄道内での例を示しているが、飛行機や船やバス停等の乗り物でも同様である。
 (店舗内サービス)
 図135は、店舗内での利用の様子を示す図である。
 受信装置2707b、2707c、2707dは、照明2707aが送信する信号を受信し、自身の現在位置を推定し、サーバへ通知する。
 なお、各受信装置は、自己位置推定に必要な情報やサーバのアドレスを、照明2707aから取得しても良いし、照明2707aから送信された情報をキーに別のサーバから取得しても良いし、会計システムから取得しても良い。
 会計システムは、会計情報と受信装置2707dとを関連付け、受信装置2707dの現在位置を表示させて(2707c)注文された商品を届ける。
 受信装置2707bは、照明2707aから送信された情報を基に商品情報を表示する。購入者が表示された商品情報から注文を行うと、受信装置2707bは、商品情報と課金情報と現在位置をサーバへ通知する。
 このように、販売者は受信装置2707bの位置情報を基に注文された商品を届けることが可能であり、購入者は席に座ったままで商品の購入が可能である。
 (無線接続の確立)
 図136は、無線接続の認証状を通信し、無線接続を確立する状況を示している図である。
 電子機器(デジタルカメラ)2701bは、無線接続のアクセスポイントとして動作し、その接続に必要な情報として、IDやパスワードを発光パターンとして送信する。
 電子機器(スマートフォン)2701aは、発光パターンから送信情報を取得し、無線接続を確立する。
 なお、ここでは無線接続としたが、確立するコネクションは有線接続ネットワークであっても良い。
 なお、二つの電子機器との間の通信は、第3の電子機器を介して行なっても良い。
 (通信範囲の調整)
 図137は、発光パターンや位置パターンによる通信の範囲を示す図である。
 電波を利用した通信方式では、壁で区切られた隣室にも電波が到達してしまい、通信範囲を制限することが難しい。
 一方、発光パターンや位置パターンを用いた通信では、可視光とその周辺領域の波長を利用するため、遮蔽物を用いて通信範囲を区切ることが容易である。また、可視光を使う場合、通信範囲が人間の目でも確認できるという利点がある。
 (屋内での利用)
 図138は、地下街等の屋内での利用の様子を示す図である。
 受信装置2706aは、照明2706bの送信する信号を受信し、自身の現在位置を推定する。また、受信装置2706aは、地図上に現在位置を表示して道案内を行ったり、付近の店舗の情報を表示したりする。
 緊急時には照明2706bから災害情報や避難情報を送信することで、通信が混雑している場合や、通信基地局が故障した場合や、通信基地局からの電波が届かない場所にいる場合であっても、これらの情報を得ることができる。これは、緊急放送を聞き逃した場合や、緊急放送を聞くことができない聴覚障害者に有効である。
 (屋外での利用)
 図139は、街路などの屋外での利用の様子を示す図である。
 受信装置2705aは、街灯照明2705bの送信する信号を受信し、自身の現在位置を推定する。また、受信装置2705aは、地図上に現在位置を表示して道案内を行ったり、付近の店舗の情報を表示したりする。
 緊急時には照明2705bから災害情報や避難情報を送信することで、通信が混雑している場合や、通信基地局が故障した場合や、通信基地局からの電波が届かない場所にいる場合であっても、これらの情報を得ることができる。
 また、他の車両や歩行者の移動を地図上に表示したり、向かってくる車両や歩行者が存在することをユーザに知らせることで、事故防止に役立てることができる。
 (道順の指示)
 図140は、道順の指示の様子を示す図である。
 送信装置2703a、2703b、2703cから送信された情報を利用して、受信装置2703eは、付近の地図をダウンロードしたり、自身の位置を誤差1cmから数10cmの精度で推定したりすることができる。
 受信装置2703eの正確な位置がわかることで、車椅子2703dを自動運転したり、視覚障害者が安全に通行を行ったりすることができる。
 (複数の撮像装置の利用)
 図141の受信装置は、インカメラ2710aと、タッチパネル2710bと、ボタン2710cと、アウトカメラ2710dと、フラッシュ2710eを備える。
 アウトカメラで送信装置を撮像するとき、インカメラの撮像画像から、受信装置の移動や姿勢を推定することで、手ブレの補正を行うことができる。
 インカメラで他の送信装置からの信号を受信することで、複数の装置からの信号を同時に受信したり、受信装置の自己位置推定の精度を高めたりすることができる。
 (送信装置自律制御)
 図142では、送信装置1は、送信装置2の発光部の発光を受光部で受光し、送信装置2の送信している信号と送信のタイミングを取得する。
 送信装置1の記憶部に、送信する信号が記憶されていない場合は、送信装置2の発光と同調して同じパターンで発光して信号を送信する。
 一方、送信装置1の記憶部に、送信する信号が記憶されている場合は、送信装置2の送信信号と共通部分は送信装置2の発光と同調して同じパターンで発光して信号を送信する。共通でない部分は、送信装置2が信号を送信していない時間に送信する。送信装置2が信号を送信していない時間がない場合は、適当に周期を定め、その周期に従って共通でない部分を送信する。この場合、送信装置2は、受光部で送信装置1の発光を受光し、同じ時刻に異なる信号が送信されていることを検知し、送信装置1が信号を送信していない時刻に、共通でない部分の信号を送信する。
 発光による信号送信の衝突の回避には、CSMA/CD (Carrier Sense Multiple Access with Collision Detection)の方式を利用する。
 送信装置1は、自身の情報を発光パターンとして発光部を発光させる。
 送信装置2は、送信装置1の情報を受光部から取得する。
 送信装置は、通信可能な送信装置同士で互いの情報を交換することで、送信装置の配置地図を作成する。また、送信装置は、発光による信号送信が衝突しないように全体として最適な発光パターンを求める。また、送信装置は、他の送信装置が得た情報を、送信装置間の通信によって取得する。
 (送信情報の設定)
 図143では、送信装置は、送信装置が取り付け装置に取り付けられたときや、取り付け装置の記憶部に記憶された情報が変更されたときに、取り付け装置の記憶部に記憶されている情報を送信装置の記憶部に記憶する。取り付け装置や送信装置の記憶部に記憶されている情報には、送信信号や送信のタイミングが含まれる。
 送信装置は、記憶部に記憶されている情報が変更された場合には、取り付け装置の記憶部にその情報を記憶させる。集中制御装置や配電盤から、取り付け装置の記憶部や送信装置の記憶部の情報を編集する。配電盤からの操作では、電力線通信を用いる。
 送信装置の形状記憶部は、送信装置の取り付け部と発光部の中心位置の位置関係が記憶している。
 送信装置は、位置情報を送信するときには、記憶部に記憶された位置情報にこの位置関係を加えた位置情報を送信する。
 取り付け装置の記憶部には、建造物の施工時等に、情報を記憶させる。位置情報を記憶させる場合は、建造物の設計図やCADデータを利用することで、正確な位置を記憶させる。建造物の建造時には、送信装置から位置情報を送信させることで、位置を確認することができ、建造の自動化や、材料の利用位置の確認等に利用することができる。
 取り付け装置は、送信装置の情報を集中制御装置に通知する。取り付け装置は、送信装置以外の機器が取り付けられたことを集中制御装置に通知する。
 図144では、送信装置は、受光部で光を受光し、信号解析部で光のパターンから情報を取得し、記憶部に記憶する。送信装置は、受光したときに、記憶部に記憶した情報を発光パターンに変換して発光部を発光させる。
 送信装置の形状に関する情報は、形状記憶部に記憶する。
 図145では、送信装置は、通信部で受信した信号を記憶部に記憶する。送信装置は、受信したときに、記憶部に記憶した情報を発光パターンに変換して発光部を発光させる。
 送信装置の形状に関する情報は、形状記憶部に記憶する。
 送信装置は、記憶部に送信信号が記憶されていない場合は、適当な信号を発光パターンに変換して発光部を発光させる。
 受信装置は、送信装置が送信している信号を撮像部から取得し、その信号と送信装置に記憶させたい情報とを、通信部を介して送信装置や集中制御装置に伝える。
 送信装置や集中制御装置は、受信装置から撮像部から取得した信号と同一の信号を送信した送信装置の記憶部に、送信された情報を記憶する。
 なお、受信装置は、送信装置が送信している信号を撮像した時刻を合わせて送信し、送信装置や集中制御装置は、その時刻を利用して受信装置が撮像した送信装置を特定しても良い。
 なお、受信装置の通信部を発光部とし、送信装置の通信部を受光部または撮像部とし、発光パターンを用いて受信装置から送信装置へ情報を送信しても良い。
 なお、受信装置の通信部を発音部とし、送信装置の通信部を収音部とし、音声パターンを用いて受信装置から送信装置へ情報を送信しても良い。
 (2次元バーコードとの組み合わせ)
 図146は、2次元バーコードと組み合わせて利用する場合を示す図である。
 ユーザは、通信機器2714aと通信機器2714dを相対させる。
 通信機器2714aは、ディスプレイに2次元バーコード2714cとして送信情報を表示させる。
 通信機器2714dは、2次元バーコード読取部2714fで、2次元バーコード2714cを読み取る。通信機器2714dは、発光部2714eの発光パターンとして送信情報を表現する。
 通信機器2714aは、撮像部2714bで発光部を撮像し、信号を読み取る。この方式により、双方向の直接通信が可能となり、伝送するデータ量が少ない場合にはサーバを介した通信よりも高速で通信が可能である。
 (地図の作成と利用)
 図147は、地図作成とその利用の様子を示す図である。
 ロボット2715aは、照明2715dや電子機器2715cの送信する信号を基に自己位置推定を行うことで、部屋の地図2715fを作成し、地図情報と位置情報と照明2715dや電子機器2715cのIDとをサーバ2715eへ記憶させる。
 受信装置2715bも同様に、照明2715dや電子機器2715cの送信する信号や、移動中の撮像画像や、ジャイロセンサや加速度センサや磁気センサのセンサ値から、部屋の地図2715fを作成し、地図情報と位置情報と照明2715dや電子機器2715cのIDとをサーバ2715eへ記憶させる。
 ロボット2715aは、サーバ2715eから取得した地図2715fを基に、効率良く掃除や配膳を行う。
 受信装置2715bは、サーバ2715eから取得した地図2715fを基に、ロボット2715aへ掃除場所や移動場所を指示したり、受信装置を向けている方向にある電子機器を操作したりする。
 (電子機器の状態取得と操作)
 図148は、電子機器の状態取得と操作の様子を示す図である。
 通信装置2716aは、制御情報を発光パターンに変換し、発光部を電子機器2716bの受光部2716dへ向けて発光させる。
 電子機器2716bは、その発光パターンから制御情報を読み取り、制御情報通りに動作を行う。電子機器2716bは、受光部2716dで受光したときに、電子機器の状態を示す情報を発光パターンに変換し、発光部2716cを発光させる。また、電子機器2716bは、運転終了時やエラー発生時など、ユーザへ通知したい情報がある場合に、その情報を発光パターンに変換し、発光部2716cを発光させる。
 通信装置2716aは、発光部2716cを撮像し、送信された信号を取得する。
 (電子機器の認識)
 図149は、撮像している電子機器を認識する様子を示す図である。
 通信装置2717aは、電子機器2717bと電子機器2717eへの通信路を持ち、各電子機器へID表示命令を送信する。
 電子機器2717bは、ID表示命令を受信して、発光部2717cの発光パターンでID信号を送信する。
 電子機器2717eは、ID表示命令を受信して、発光部2717f、2717g、2717h、2717iを用いて位置パターンでID信号を送信する。
 なお、ここで各電子機器が送信するID信号は、電子機器の持つIDであっても良いし、通信装置2717aに指示された内容であっても良い。
 通信装置2717aは、撮像画像中に存在する発光部の発光パターンや位置パターンから、撮像されている電子機器と、その電子機器と受信装置との位置関係を認識する。
 なお、電子機器と受信装置との位置関係を認識するためには、電子機器は発光部を3点以上備えることが望ましい。
 (拡張現実オブジェクトの表示)
 図150は、拡張現実オブジェクトを表示する様子を示す図である。
 拡張現実を表示させる舞台2718eは、発光部2718a、2718b、2718c、2718dの発光パターンや位置パターンで、拡張現実オブジェクトの情報や、拡張現実オブジェクトを表示させる基準位置を送信する。
 受信装置は、受信した情報を基に、拡張現実オブジェクト2718fを撮像画像に重畳して表示させる。
 (ユーザインタフェース)
 発光部が撮像範囲の中央付近から外れている場合には、撮像範囲の中心を発光部のほうへ向けさせるため、図151のように、撮像範囲の中心を発光部のほうへ向けさせるようにユーザを促すような表示を行う。
 発光部が撮像範囲の中央付近から外れている場合には、撮像範囲の中心を発光部のほうへ向けさせるため、図152のように、撮像範囲の中心を発光部のほうへ向けさせるようにユーザを促すような表示を行う。
 撮像範囲に発光部が確認できない場合であっても、それ以前の撮像結果や撮像端末に付属の加速度センサやジャイロセンサやマイクロフォンや位置センサ等の情報から発光部の位置が推定可能な場合には、図153のように、撮像範囲の中心を発光部のほうへ向けさせるようにユーザを促すような表示を行う。
 撮像範囲の中心を発光部のほうへ向けさせるため、図154のように、撮像範囲を移動させたい距離に応じて表示する図形の大きさを調整する。
 発光部の写りが小さい場合には、より大きく撮像させるために、図155のように、より発光部に近づいて撮像するようにユーザを促すような表示を行う。
 発光部が撮像範囲の中央から外れており、かつ、写りの大きさが十分でない場合には、図156のように、撮像範囲の中心を発光部のほうへ向けさせるようにユーザを促し、かつ、より発光部に近づいて撮像するようにユーザを促すような表示を行う。
 発光部と撮像範囲のなす角度を変化させることで発光部の信号を受信しやすくなる場合には、図157のように、撮像範囲を回転させるようにユーザを促すような表示を行う。
 発光部が撮像範囲の中央から外れており、かつ、発光部と撮像範囲のなす角度を変化させることで発光部の信号を受信しやすくなる場合には、図158のように、撮像範囲の中心を発光部のほうへ向けさせるようにユーザを促し、かつ、撮像範囲を回転させるようにユーザを促すような表示を行う。
 発光部の写りの大きさが十分ではなく、かつ、発光部と撮像範囲のなす角度を変化させることで発光部の信号を受信しやすくなる場合には、図159のように、より発光部に近づいて撮像するようにユーザを促し、かつ、撮像範囲を回転させるようにユーザを促すような表示を行う。
 発光部が撮像範囲の中央から外れており、かつ、発光部の写りの大きさが十分ではなく、かつ、発光部と撮像範囲のなす角度を変化させることで発光部の信号を受信しやすくなる場合には、図160のように、撮像範囲の中心を発光部のほうへ向けさせるようにユーザを促し、かつ、より発光部に近づいて撮像するようにユーザを促し、かつ、撮像範囲を回転させるようにユーザを促すような表示を行う。
 信号を受信中には、図161のように、信号を受信していることを伝える表示や、受信した信号の情報量を表示する。
 受信する信号のサイズが判明している場合には、信号を受信中には、図162のように、プログレスバーで受信が完了した信号の割合や情報量を表示する。
 信号を受信中には、図163のように、プログレスバーで受信が完了した信号の割合や受信箇所や受信した信号の情報量を表示する。
 信号を受信中には、図164のように、発光部に重畳するようにして受信が完了した信号の割合や情報量を表示する。
 発光部が検出された場合には、図165のように、例えば、発光部を点滅させる等の表示により、その物体が発光部であることを表示する。
 発光部からの信号を受信中には、図166のように、例えば、発光部を点滅させる等の表示により、その発光部から信号を受信していることを表示する。
 図167では、複数の発光部が検出された場合に、いずれかの発光部をユーザにタップさせることで、信号を受信したり、操作をおこなったりする送信装置をユーザに指定させる。
 (実施の形態8)
 (ITSへの応用)
 以下、本発明の適用例として、ITS(Intelligent Transport
 Systems:高度道路交通システム)を説明する。本実施の形態では、可視光通信の高速通信を実現しており、ITS分野への適応が可能である。
 図168は、可視光通信機能を搭載した交通システムと車両や歩行者との通信を説明している図である。信号機6003は、本実施の形態の可視光通信機能を搭載し、車両6001および歩行者6002との通信が可能である。
 車両6001および歩行者6002から信号機6003との情報送信は、ヘッドライトや歩行者が持つ携帯端末のフラッシュ発光部などで行う。信号機6003から車両6001および歩行者6002への情報送信は、信号の照明を、信号機6003が持つカメラセンサーや、車両6001が持つカメラセンサーで行う。
 なお、以降も道路照明や道路情報板など、路上に設置された交通支援の物体と車両6001や歩行者6002と通信を行うことによる機能を説明するが通信方式に関しては同じ物が適用できるため、説明は割愛する。
 図168に示すように、信号機6003は、車両6001へ道路交通情報を提供する。ここで、道路交通情報とは渋滞情報や事故情報、周辺サービスエリアの情報など、運転を補助するような情報のことである。
 信号機6003は、LED照明を搭載しているため、このLED照明による通信を行うことで新たな装置を搭載することなく車両6001への情報提供が可能になる。また、車両6001は一般的に高速移動しているため、従来の可視光通信技術では送信できるデータ量が少なかったが、本実施の形態により通信速度が向上したため、車両に送信することができるデータサイズが多くなるという効果がある。
 また、信号機6003や、照明6004では、信号や照明ごとに異なる情報を提供することが可能である。これによって、例えば右折レーンを走行している車両に対してのみ情報送信を行うなど、車両の位置に応じた情報を送信することが可能である。
 また、同様に歩行者6002に対しても、特定のスポットにいる歩行者6002に対してのみ情報を提供することが可能になるため、例えば特定の交差点の横断歩道で信号待ちをしている歩行者のみ、例えば事故が多い交差点であるとった情報や、街中スポット情報などを送信することができる。
 さらに、信号機6003と別の信号機6005も通信することが可能である。これによって、例えば信号機6003が提供する情報を変更する場合に、新たに信号機に信号線や通信機を通すことなく、信号機同士の通信のリレーによって、信号機が配信する情報を変更することが可能である。本方式によって、可視光通信の通信速度が大きく向上するため、より短時間での配信情報の変更が可能になる。これによって、例えば1日に数回配信情報を変更することができるようになる。また、積雪や降雨情報などを即座に配信することが可能になる。
 さらに、照明が現在の位置情報を配信することで、車両6001や歩行者6002に対して、位置情報を提供することも可能である。商店街やトンネルなど屋上に屋根がある施設は、GPSを用いた位置情報取得が困難である場合があるが、可視光通信を用いれば、このような状況でも位置情報を取得することが可能であるというメリットがある。また、本実施の形態により通信速度が従来と比較してより高速化することが可能であるため、例えば店舗や交差点など特定のスポットを通過する間に情報を受信することが可能となる。
 なお、本実施の形態は可視光通信を高速化するものであるため、その他の可視光通信を用いたITSシステム全般に応用可能であることは言うまでもない。
 図169は、車両同士が可視光通信を用いて通信を行う、車車間通信に本発明を適用した場合の概略図である。
 車両6001はブレーキランプやその他LED照明を通じて後方の車両6001aへ情報を伝達する。また、ヘッドライトやその他前方を照らすライトを通じて対向する車両6001bへデータを送信することも可能である。
 このように、車両間を可視光で通信することで車両同士の情報を共有することが可能である。例えば、前方交差点での事故情報を後方車両にリレー形式で伝達することによって、渋滞情報や注意喚起の情報を後方車両に伝えることが可能である。
 また、同様に対向する車両に渋滞情報やブレーキのセンサ情報から取得した急ブレーキ情報を伝えることで対向車に対しても、運転を補助する情報を伝えることが可能である。
 本発明により可視光通信の通信速度が向上したため、対向車とすれ違いながら情報を送信することができるという利点がある。また、後方車両に対しても情報送信の間隔が短くなるためより短い期間で多くの車両に情報を伝達することが可能となる。また、通信速度があがることで、音声や画像情報を送ることも可能である。これによって、より豊かな情報を車車間で共有することが出来る。
 (位置情報報知システムおよび施設システム)
 図170に、本実施の形態の可視光通信技術を用いた位置情報報知システムおよび施設システムの概略図を示す。例えば病院内で、患者のカルテや搬送物、薬品などをロボットで配送するシステムを代表として説明する。
 ロボット6101は、可視光通信機能を搭載している。照明は位置情報を配信している。ロボット6101は、照明の位置情報を取得することで特定の病室に薬やその他物品を届けることが可能となる。これによって、医師の負担が減る。また、照明は隣の部屋に漏れることがないため、ロボット6101が部屋を間違えることが無いという効果がある。
 なお、本実施の形態の可視光通信を用いたシステムは、病院内に限定されるものではなく、照明器具を用いて位置情報を配信するシステムに適応可能である。例えば、屋内のショッピングモールにおいて、案内表示板の照明から位置および案内情報をホ送信する仕組みにしても良いし、空港内でのカートの移動に用いても良い。
 また、店舗の照明に可視光通信技術を搭載することで、クーポン情報やセール情報を配信することも可能である。可視光に情報を重畳することで、ユーザはその店舗の光から情報を貰っているということが直感的に理解できるため、ユーザの利便性が向上するという効果がある。
 また、部屋の中/外である情報を送信する場合、無線LANを用いて位置情報を配信すると、隣接する部屋や廊下に電波が漏れてしまうため、部屋の外に電波が飛ばないようにするように外壁に電波を遮断する機能が必要であった。まだ外壁で電波を遮断すると、携帯電話等の外部と通信する機器が使えないという課題があった。
 本実施の形態の可視光通信を用いて位置情報を送信すると、照明の届く範囲のみで通信可能であるため、例えば特定の部屋の位置情報を利用者に送信することが容易であるという効果がある。また、外壁は通常光を遮るため、特別な装置が必要ないという効果がある。
 また、ビルや大規模施設、一般家屋において、通常照明の位置は変わることが無いため、各照明が送信する位置情報は頻繁に変わることが無い。各照明の位置情報のデータベースの更新頻度が低いので、位置情報管理のメンテナンスコストが低いという効果がある。
 (スーパーマーケットのシステム)
 図171に、商店において、本実施の形態の通信方式を搭載した機器をショッピングカートに搭載し、商品だなの照明もしくは、屋内照明から位置情報を取得するスーパーマーケットのシステムを説明する。
 カート6201は本実施の形態の通信方式を用いたした可視光通信機器を搭載している。照明6100は、可視光通信によって、位置情報をおよびその棚の情報を配信している。カートは、照明から配信される商品情報を受け取る事ができる。また位置情報を受け取る事で、自分がどの棚にいるか把握することができるため、例えば、カートに棚の位置情報を記憶させておけば、ユーザが行きたい棚もしくは欲しい商品をカートに指定するだけで、どこの方向に行けば良いかカートに表示させることが可能となる。
 可視光通信によって、棚の位置が分かる程度の高精度な位置情報を得ることができるため、カートの移動情報を取得し、活用することができる。例えば、カートが照明から取得した位置情報を、データベース化することも可能である。
 可視光通信を用いて照明にカートの情報と共に送信する、あるいは無線LAN等を用いてサーバに送信する。あるいは、カートにメモリを搭載しておき、店舗の閉店後にデータを集める等によって、カートがどの様な経路を通ったかということをサーバに集約する。
 カートの移動情報を集めることで、どの棚に人気があるか、どの通路が最も通られているかを把握することができるため、マーケティングに使えるという効果がある。
 (携帯電話端末とカメラの通信)
 図172に、本実施の形態の可視光通信を用いた応用例を示す。
 携帯電話端末6301は、フラッシュライトを用いて、カメラ6302にデータを送信する。カメラ6302は撮像部で受信した光情報から携帯電話端末6301が送信したデータを受信する。
 あらかじめ、携帯電話端末6301において、カメラの撮影設定をしておき、カメラ6302に送信する。これによって、携帯電話端末の豊かなユーザインターフェースを利用して、カメラの設定を行うことができる。
 また、カメラの撮影センサを利用することで、カメラと携帯電話端末を通信する際に、無線LAN等の新たな通信機器を搭載することなく、携帯電話端末からカメラに設定情報を送信することが可能となる。
 (水中通信)
 図173に、本実施の形態の通信方式を水中通信に適応した場合の概略図を示す。水は電波を通さないため、水中のダイバー同士や海上の船と海中の船は無線を通じて通信をすることができない。本実施の形態の可視光通信では水中でも利用可能である。
 なお、本実施の形態の可視光通信方式は、光を発するオブジェや建造物からデータを送信することが可能となる。建物に対して受光部を向けるとその建物の案内情報や詳細情報を取得することができるため、観光客に有益な情報を提供することができる。
 なお、本実施の形態の可視光通信方式は、灯台から船舶との通信に適用可能である。従来より大容量の通信を行うことができるため、より詳細な情報をやり取りすることができる。
 なお、本実施の形態の可視光通信は、光を用いるため、特定の部屋のみで通信を行うといった部屋単位での通信制御を行うことができる。例えば図書館で特定の部屋のみで閲覧可能な情報へアクセスする場合に本実施の形態の通信方式を用いる、または本実施の形態の通信方式を鍵情報のやりとりに、用いて、実際の通信は無線LAN等の通信を用いて行うなどの用途に適用可能である。
 なお、本実施の形態の通信方式はLEDによる通信及びMOSセンサを備える撮像装置すべてに転用可能であり、例えばデジタルカメラやスマートフォンに適用可能であることは言うまでもない。
 (実施の形態9)
 (サービス提供例)
 以下、本実施の形態では、本発明の適用例として、図174を用いて、ユーザへのサービス提供例を説明する。図174は、実施の形態9におけるユーザへのサービス提供例を説明するための図である。図174には、ネットサーバ4000aと、送信機4000b、4000d、4000eと、受信機4000c、4000fと、建物4000gとが示されている。
 受信機4000c、4000fが家屋内外にある複数の送信機4000b、4000d、4000eから信号を受信し、処理することでユーザへサービスを提供できる。なお、送信機、および、受信機は単独で信号を処理し、ユーザへサービスを提供できてもよいし、ネットワークを構成するネットサーバ4000aと連携してネットワークからの指示に従い、それらの挙動や発信する信号を変化させながら、ユーザへサービスを提供できてもよい。
 なお、送信機、および、受信機は人や車両など動く物体に備え付けられていてもよいし、静止している物体に備え付けられてもよいし、既存する物体にあとから備え付けることができてもよい。
 図175は、実施の形態9におけるユーザへのサービス提供例を説明するための図である。図175には、送信機4001aと、受信機4001bとが示されている。
 図175のように、受信機4001bは複数の送信機4001aが発信した信号を受信し、信号に含まれる情報を処理することでユーザへサービスを提供する。なお、信号に含まれる内容には、機器を一意に示す機器ID、位置情報、地図、標識、観光情報、交通情報、地域サービス、クーポン、広告、商品説明、キャラクター、音楽、動画、写真、音声、メニュー、放送、緊急案内、時刻表、ガイド、アプリケーション、ニュース、掲示板、機器へのコマンド、個人を識別する情報、金券、クレジットカード、セキュリティ、URLなどに関する情報がある。
 ユーザは、これら信号に含まれる情報を利用するための登録処理などを事前にネットサーバ上で実施しておき、実際に送信機4001aが信号を発信する場所でこれらの信号をユーザが受信機4001bで受信することでサービスの提供を受けることができてもよいし、ネットサーバを介在せずにサービスの提供を受けることができてもよい。
 図176は、本実施の形態における受信機が送信機から受信した複数の信号を同時に処理する場合を示すフローチャートである。
 まず、ステップ4002aで開始する。次に、ステップ4002bで受信機が複数の光源からの信号を受信する。次に、ステップ4002cで受信した結果から、それぞれの光源が表示される領域を判定し、それぞれの光源から信号を抽出する。
 ステップ4002dで取得した信号の数分の処理を数が0個になるまでステップ4002eで信号に含まれる情報を元に処理を繰り返す。処理すべき数が0個になった段階で、ステップ4002fで終了する。
 図177は、実施の形態9における相互通信により機器間のコミュニケーションを実現する場合の一例を示す図である。図175には送信機、および、受信機を持つ複数の送受信機4003a、送受信機4003b、送受信機4003cが相互に通信することにより機器間のコミュニケーションを実現する場合の一例が示されている。なお、送受信機は図175のように同一機器間でのみ通信できてもよいし、異なる機器間で通信できてもよい。
 また、本実施の形態はアプリケーションを本実施の形態が提供する通信手段や他のネットワーク、着脱式のストレージを利用して、携帯電話、スマートフォン、パソコン、ゲーム機などへアプリケーションを配信し、それらアプリケーションから既に備え付けてある機器のデバイス(LED、フォトダイオード、イメージセンサー)を利用することで、ユーザへサービスを提供することができる。なお、アプリケーションははじめから機器に搭載されていてもよい。
 (指向性を利用したサービスの例)
 また、本発明の適用例として、本実施の形態の指向性の特性を利用したサービスについて説明する。具体的には、映画館、コンサートホール、博物館、病院、公民館、学校、会社、商店街、デパート、役所、フードショップなどのような公共施設で本発明を利用する場合の例である。本発明は、従来の可視光通信と比較して、送信機が受信機へ発生する信号の指向性を低くすることができるため、公共施設に存在する多数の受信機へ情報を同時に発信することができる。
 図178は、実施の形態9における指向性の特性を利用したサービスを説明するための図である。図178には、スクリーン4004aと、受信機4004bと、照明4004cとが示されている。
 図178のように、映画館で本実施の形態を利用することで、映画の上映中にユーザが他のユーザの快適な映画の視聴妨害に繋がる機器(携帯電話、スマートフォン、パソコン、ゲーム機など)の利用を抑制することができる。送信機は、映画を表示するスクリーン4004aに投影される映像内や施設に備え付けてある照明4004cなどが発する光を信号とし、それら信号内に受信機4004bを制御するコマンドを含ませる。受信機4004bがこのコマンドを受信することで、受信機4004bの動作を制御し、他のユーザの映画視聴を阻害するような行為を防止することができる。受信機4004bを制御するコマンドは電源や受信が発する音、通信機能、LEDの表示、バイブレーションなどのON、OFF、レベル調整などがある。
 また、受信機が、送信機の送信する信号を光源の強さなどを利用して、フィルタリングすることで、指向性の強さを制御することができる。本実施の形態では、指向性を低く設定することで、施設に存在する受信機へ一斉にコマンドや情報を送信することかできる。
 なお、指向性を高くしたい場合は、送信機側が光源の量を制限してもよいし、受信機側で光源を受光する感度を下げたり、受光した光源の量を信号処理したりすることで、制約をかけてもよい。
 なお、本実施の形態をフードショップ、役所などのようにユーザからの注文を受け、その場で注文を処理するような店舗などで利用する場合は、ユーザの手元にある送信機で発信した注文を含む信号を、店舗を見渡せる場所に配置してある受信機が受信することで、どの席のユーザが何のメニューを注文したかを検出することができる。サービス提供者は時間軸を設けて注文を処理することで、ユーザへ公平性の高いサービスを提供できる。
 なお、発信機と受信機間であらかじめ設定された秘密鍵や公開鍵を利用し、信号に含まれる情報を暗号化・復号化することで、信号を送信できる送信機、信号を受信できる受信機を制約してもよい。また、送信機、および、受信機間の送信路をインターネットにおいて標準で利用されるSSLなどのプロトコルを利用して、他の機器からの信号の傍受を抑制してもよい。
 (実世界とインターネット上の世界の融合によるサービス例)
 また、本発明の適用例として、カメラに撮像された実世界とインターネット上の世界の情報を重畳してユーザへサービスを提供するサービスについて説明する。
 図179は、実施の形態9におけるユーザへのサービス提供例の別の例を説明するための図である。具体的には、図179は、携帯電話、スマートフォン、ゲーム機などに受信機に搭載されたカメラ4005aを利用して本実施の形態を活用する場合のサービスの一例を示している。ここで、図179には、カメラ4005aと、光源4005bと、重畳する内容4005cとが示されている。
 カメラ4005aの撮像結果から複数の光源4005bが発信する信号4005dを抽出し、それらの信号4005dに含まれる情報をカメラ4005aへ重畳して表示する。なお、カメラ4005aに重畳する内容4005cは文字列、画像、動画、キャラクター、アプリケーション、URLなどがある。なお、カメラとの重畳だけでなく、音声、バイブレーションなどを利用して、信号に含まれる情報を処理してもよい。
 図180は、送信機が発する光源に含まれる信号のフォーマット例を示す図である。図180には、光源の特性4006aと、サービス種別4006bと、サービスに関する情報4006cとが示されている。
 受信機が受信した信号をカメラに重畳するサービスに関する情報4006cは、送信機が発する信号に含まれるサービス種別4006bなどの情報やカメラから光源までの距離に応じて、信号から取得できる情報をフィルタリングした結果である。なお、受信機がフィルタリングする内容は、あらかじめ設定された受信機の設定に従ってもよいし、ユーザが受信機に設定したユーザの嗜好に従ってもよい。
 また、受信機は、信号を発する発信機までの距離を推定し、光源までの距離を表示できる。受信機がカメラに撮像された発信機が発する光量をデジタル信号処理することで発信機までの距離を推定する。
 しかし、受信機がカメラで撮像したそれぞれの発信機の光量は、光源の位置や強さにより異なるため、撮像した発信機の光量のみで距離を推定すると、大幅にずれる場合がある。
 これを解決するために、発信機が発する信号内に、光源の強さや色、種類などを示す光源の特性4006aを含ませる。受信機は信号に含まれる光源の特性を加味したデジタル信号処理を行うことで、精度の高い距離を推定することができる。受信機が撮像した発信機の光源が複数ある場合、全ての光源の強さが同一である場合は、光源の光量で距離を推定する。受信機が撮像した光源の強さが同一でない送信機がある場合は、光源量のみで距離を推測せず、その他の距離測定手段と組み合わせ、送信機から受信機までの距離を推測する。
 その他の距離測定手段としては、二眼レンズで撮像される映像の視差を利用して距離を推定してもよいし、赤外線やミリ波レーダなどを用いて、距離を推定してもよいし、受信機の移動量を加速度センサや受信機に搭載されている撮像したなどで取得し、移動した距離と三角測量とを組み合わせ距離を推定してもよい。
 なお、受信機が、送信機側で発生する信号の強さや距離を利用して、信号をフィルタリングし、表示するだけでなく、受信機が送信機から受信する信号の指向性を調整するための手段として利用してもよい。
 (実施の形態10)
 図181は、実施の形態10の原理を示す図である。図182~図194は、実施の形態10の動作の一例を示す図である。
 図181の(a)に示すようにカメラ用のCMOS型等のイメージセンサは、各ライン1の露光時間はライン毎に遅れを生じる。通常のシャッタ速度では時間的に各ラインは重なる部分を持つため、同一時間の光信号は各ラインに混合されるため判別できない。ここでシャッタの開時間を短くする場合、ある一定のシャッタ速度以下に露光時間が短くなると図181の(a)のように重ならなくなるため、ライン毎に光信号を時間的に分離して読むことができる。
 この状態で図181の(a)の上部のような「1011011」の光信号を与えると、最初の「1」の光信号はライン1のシャッタ開時間に入光するためライン1で光電変換され、図181の(b)の電気信号2aの「1」として出力される。同様にして次の光信号「0」は(b)の電気信号「0」となり、7bitの「1011011」の光信号は正確に電気信号に変換される。
 実際には、図181の(b)のように垂直ブランキング時間により不感時間があるため、一部の時間帯の光信号は取り出せない。これを解決するため、本実施の形態では「通常の撮影モード」から「光信号の読み出しモード」に切り換わった時にCMOS等の撮像デバイスのアクセスアドレスを変更して一番下にある最後の読み出しライン1hの次に、最初の読み出しライン1aを読み出すことによりブランク期間の問題を解決している。画質に若干悪い影響を与えるが、連続的に(シームレスに)読み出せるという効果が得られ伝送効効率が大幅に向上する。
 本実施の形態では1ラインに最高で1個のシンボルを割り当てることができるため、後に述べるような同期方式をとった場合、1000ラインで30fpsの撮像素子を用いたとき、最大で30kbpsの伝送が理論上可能となる。
 なお、同期をとる場合は、図182のようにカメラの受光素子の信号を見て、最もコントラストが得られるように、もしくは、データのエラーレートが低くなるようにラインのアクセス用のクロックを上下に変更することにより同期をとることができる。光信号よりイメージセンサのラインのクロックが速い場合は、図182のように2ラインもしくは3ラインのnラインで光信号の1シンボルを受信することにより、同期をとることができる。
 また、図183のTVや図184の左図のTVのようなディスプレイや、縦にn個例えば10個分割された光源を、携帯電話のカメラで本発明の高速電子シャッタやブランキング無し等の検出モードに切り替えて撮影すると、図184の右図のように本実施の形態特有のストライプ状のパターンがそれぞれ独立して10本検出できるため、10倍(n倍)の転送レートとなる。
 例えば30fps1000ラインのイメージセンサを10分割した場合、300kbpsとなる。HD映像では水平に1980ピクセルあるため、50本に分割できる。すると1.5Mbpsとなり、動画の映像データが受信可能となる。200本ならHD映像が伝送できる。
 本実施の形態での効果を得るためには、検出できる最も長い露出時間をTとすると、T以下にシャッタ時間を短くする必要がある。図181の右上図のようにフレーム同波数をfpとすると、シャッタ時間は1/fpの半分以下にすれば、2値を検出できる。
 しかし、チラツキを抑えるためには4値PPM等が必要なため、1(fp×2×4)分の1、つまり、8fp分の1となる。通常の携帯電話のカメラはfp=30、60であるため、1/240、1/480、つまり、1/480以下のシャッタ速度に設定すれば、互換性を保ちながら、本実施の形態の可視光の光通信が携帯電話等のカメラを用いて受信できる。
 実際には、本実施の形態での同期方式を採用していない携帯電話が世の中に数多く存在するため、当初は非同期型の通信となる。この場合は、光信号のクロックの2倍以上、具体的な2~10倍の走査ラインを用いて1シンボルを受信することにより、情報レートは落ちるが互換性のある通信が実現する。
 チラツキを防ぐ必要がある照明機器の場合、4値PPM、つまり4つのbitのうち1つの時間帯に消灯もしくは減光して発光させる。この場合ビットレートは半分に落ちるが、チラツキがなくなるため、照明機器に使用でき明かりとデータを送ることができる。
 図185は屋内で共通時間帯に全体の照明機から共通信号をおくり、個別時間帯に、個別の照明機Lから個別の副情報が送られている状況で、光信号を受信する状況を示している。Lは面積が狭いため大量のデータを送るには時間がかかる。従って個別時間帯に数ビットのIDだけ送り、共通時間帯にL、L、L、L、Lの全てが同じ内容の共通情報を送る。
 図186を用いて詳しく説明すると、図186下の時間帯Aでは共通情報である、「部屋の基準位置の位置情報、各IDの個別機器の配置情報(基準位置からの差分位置情報)、サーバのURL、データ放送、LAN送信データ」を部屋の中の全ての照明である主領域Mの2本の照明と、その一部にあるS、S、S、Sが一斉に同じ光信号を発信させる。部屋中が同一の光信号で照らされるため、共通時間帯に、携帯のカメラ部が確実にデータ受信できるという効果がある。
 一方、時間帯Bでは、右上の上面図に示すように、主領域Mは点滅しないで、通常の1/nの光量で連続的に発光する。4値PPMの場合、通常の3/4つまり75%で発光すると平均光量が変わらないためチラツキが防げる。平均光量が変わらない範囲で点滅すればチラツキはないが、時間帯Bにおける部分領域S、S、S、Sの受信にノイズとなるため好ましくない。時間帯Bにおいては、S、S、S、Sが各々別のデータ内容の光信号を送る。主領域Mは変調信号を送らないため、右上の携帯の画面のように、位置的に分離されている。このため、例えばSの領域の画像を取り出した場合、ノイズが少ないため、領域の中に発生するストライプを検出することが容易になるため、安定してデータが得られる。
 例えば、図187に示すようにカメラが横方向(水平方向)の走査をしている時は4値PPMの場合、照明Lがフェースカメラにより撮影され、右側のように3本のストライプが見えると「0101」つまりフレームあたり4bitのデータが復調できる。この中にIDのデータがあるため、共通データの基準位置情報と、個別データの各IDとの距離差情報もしくは配置情報を演算することにより、高速つまり短時間に携帯端末の位置を検出できるという効果がある。このように例えば2bitのIDを送るだけで4つの光源のデータと位置を1枚のフレーム情報で瞬時に認識できる。
 図188を用いて、この個別光源の低ビットのID情報を使った例を説明する。
 本実施の形態では図188の共通データ101で、図に示すように基準位置、サーバのURL、各IDの配置情報。エリア別データ放送の大容量データが全ての照明を用いて共通時間帯に送られる。
 前述のように図188の(a)のL、L、L、L~Lの個別IDが3bit復調できる。
 図188の(b)のように周波数f1と周波数f2の信号を送っても各照明部に本発明特有のストライプが検出され、周波数に対応したIDや変調データに対応したIDデータに変換される。このパターンを、配置情報を用いて演算するとどの位置から撮影したかわかる。つまり、L0から各IDの配置情報と基準位置情報が得られるため、端末の位置を特定できる。
 図188の(b)のように、周波数f1,f2を各IDに割り当て、例えば、f1=1000Hz,f2=1100Hz,…,f16=2500Hzとすることで、16値つまり4ビットの値を周波数によって表現できる。送信周波数を一定時間ごとに変化させることで、さらに多くの信号を送信することができる。周波数を変更する際や変調を開始/終了する際には、変更の前後で平均輝度を一定に保つことで、人間の目にちらつきを感じさせないという効果を得る。
 なお、受信機は信号の周期から周波数を求めるため、周波数を等間隔に信号に割り当てるよりも、周波数の逆数や対数が等間隔になるように信号を割り当てるほうが、受信エラーを低減できる。
 例えば、1/15秒ごとに信号を変化させると、60ビット毎秒で送信できる。一般的な撮像装置は、1秒間に30フレームの画像を撮影するため、1/15秒間同じ周波数で信号を送信すると、送信機が撮像画像の1部にしか写っていなくても、確実に撮像を行うことができる。
 また、1/15秒間同じ周波数で信号を送信することで、受信機の負荷が高く処理できないフレームがある場合や、1秒間に15フレームの画像しか撮影できない撮像装置の場合でも、信号を受信することができる。
 露光ラインに垂直な方向に輝度値をフーリエ変換等により周波数解析を行うと、送信信号の周波数がピークとして現れる。周波数の切替部分など、複数の周波数が1フレーム内に撮像された場合は、単一周波数信号をフーリエ変換した場合よりも弱いピークとして、複数のピークが得られる。周波数の切替部分には、前後の周波数がまじりあうことをさけるために、保護部分を設けても良い。
 この方法によれば、一つの画面内に複数の周波数で順次送信している光を撮像した場合でも、送信周波数を解析することができ、1/15秒や、1/30秒より短い時間で送信信号の周波数を変更しても、受信することができる。
 送信信号の順序を認識するためには、1画面よりも短い範囲でフーリエ変換を行えば良い。また、撮像した画面を連結して、1画面より長い範囲でフーリエ変換を行なっても良い。この場合は、撮像のブランキング時間の輝度値は不明として扱う。保護部分は、特定の周波数の信号とするか、輝度変化をさせない(周波数0Hz)とする。
 図188の(b)のように、周波数f2のFM変調信号を送信し、続けてPPM変調信号を送信し、FM変調信号とPPM変調信号を交互に送信することで、どちらかの方法にしか対応していない受信機でも受信が可能になり、また、重要度の高い情報を比較的受信の容易なFM変調信号に割り当てることで、重要度の高い情報を優先的に送信することができる。
 本実施の形態では、各機器のIDと画面上の位置が同時に得られるため、照明とリンクしたURLにあるクラウド型のサーバのデータベースの中の、照明の各IDにリンクした画像情報、位置情報やアプリプログラムをダウンロードし、ARの手法を用いて関連した商品等の画像をIDの照明を持つ機器の映像上に重ねて表示することができる。この場合、本実施の形態の復調モードを撮影モードに切り替えることにより美しい映像の上に重量されたAR画像が得られるという効果がある。
 さて、図185に示すように時間帯Aに、各IDの光源と基準位置との東西南北の距離差dを送ることにより、照明Lのcm単位の正確な位置がわかる。次に天井の高さH、携帯電話の持ち主の身長より高さhを求め、携帯電話の姿勢情報を磁気センサ、加速度センサ、角速度センサにより補正して、正確なカメラ方向の角度θ2と照明と携帯電話との角度θを求め、d=(H-h)×arctan・θ等の演算により、dを算出する。
 こうして、携帯電話の位置を高い精度で求めることができる。このように時間帯Aに共通光信号を送り、時間帯Bに個別光信号を送ることにより、確実に大容量の共通情報と、ID等の小容量の個別情報を、ほぼ同時に送ることができるという効果が得られる。
 図186の右上部の携帯端末のように個別光源S~Sが撮影される。図186の下のタイムチャートのように、時間Cでは、Sのみが光信号を送る。図189のt=Cのように1つだけストライプが発生するため、ノイズの影響を受けることなく検出できるという効果がある。
 また、t=D、Eのように2つの個別データを送ってもよい。t=H、Iのように、最も空間的に離れた個別データを送ることにより画面上で分離しやすいためエラー率が低くなるという効果がある。
 図189のt=Cの状況下においては、Sだけ復調すればよいため、他の領域のイメージセンサの走査は不要である。従ってt=CのようSの領域が入るように走査本数を減少させることにより、S領域だけ走査され、データを復調できる。このため、高速化するだけでなくSの狭い領域だけで大容量のデータを復調することができるという効果がある。
 ただし、この場合、手振れにより領域Sがイメージセンサの走査範囲内からはずれる恐れがある。
 従って、図190に示すような手振れ補正が重要となる。携帯電話に内蔵されているジャイロセンサは手振れのような範囲の狭い微細な回転は通常検出できない。
 従って、図190の左図のようにLの光信号をフェースカメラで受信する場合は、走査を限定した場合など、フェースカメラからの画像を使って画像から手振れを検出することは難しい。従ってインカメラをONにしてインカメラの画像から手振れを検出し、走査範囲もしくは検出範囲を補正することにより手振れの影響を軽減できる。これはフェースカメラの手振れとインカメラの手振れは同一だからである。
 フェースカメラの光信号パターン以外の走査領域のシャッタ速度を遅くして、正常な画像をこの領域から得て、この画像から手振れ補正することができる。この場合、1つのカメラで手振れ検出と信号検出ができる。このことは図190、右図のインカメラを使った場合にも同様の効果がある。
 図191は、フェースカメラで光信号検出を行ない、まず、端末の位置情報を入手する。
 この時の地点から移動距離lを求める場合、携帯電話用の加速度センサは精度が悪いため、実用的でない。この場合、フェースカメラと反対のインカメラを使って、端末の姿勢と床面の模様の変化から図191のようにして移動距離lを求めることができる。フェースカメラで天井の模様を検出してもよい。
 以下、実際の応用例を説明する。
 図192は駅の構内で天井の照明から共通データであるデータ放送を受信し、個別データから自分の位置を入手している様子を示す図である。
 図193に示すように、コーヒー店でバーコードの表示された携帯端末から認証情報を表示して、店の端末が読みとった後、店の端末の発光部から発光させ、携帯端末が本発明を用いて受信し、相互認証を行ない、セキュリティを向上させることができる。認証は逆に行っても良い。
 その携帯端末を持った客がテーブルに座ると入手した位置情報を店の端末に無線LAN等で送信するため、店員の端末に客の位置が表示されるため、注文した飲物を注文した客の位置情報のテーブルへと店員は運搬することができる。
 図194は、列車や航空機の中で乗客は自分の位置を、本実施の形態の方法を用いて知り、端末で食物等の商品を注文する。搭乗員はカートに本発明の端末があり、画面の注文した客の位置に注文した商品のIDナンバーが表示されるため客のところへ注文したIDの商品が的確に配達される。
 図184はTV等のディスプレイのバックライトに本実施の形態の方法または装置を用いた場合を示す図である。蛍光灯やLEDや有機ELは低迷の輝度変調をかけることができるため、本実施の形態の送信が可能である。ただし、特性上、走査方向が重要である。スマートフォンのように縦で使う場合は水平方向に走査されるため、画面の下部に横長の発光領域を設け、TV等の映像のコントラストをうすく、白色に近づけることにより容易に信号を受信できるという効果がある。
 デジタルカメラのように垂直方向に走査される場合は、図183の画面右側のようなタテ長の表示を設ける。
 これらの2つをひとつの画面内に設け、両者から同一の光信号を発光させることにより、どちらの走査方向のイメージセンサでも信号を受信することができる。
 なお、水平方向に走査するイメージセンサで垂直方向の発光部を受信しようとした場合、端末の画面に「横方向に回転させて撮影して下さい」のような表示を出すことにより、より的確で高速に受信することを使用者に促すことができる。
 なお、図182のように発光部の発光パターンにカメラのイメージセンサの走査ライン読み取りクロックを制御して同期をとることにより通信速度を大幅に上げることができる。
 図182の(a)のように発光パターンの1シンボルを2ラインで検出する場合、左のようなパターンでは同期している。中図のようなパターンの場合、イメージセンサの読み取りが早いため、映像素子の読み出しクロックを低速化して同期させる。右図のようなパターンの場合、高速化し同期させる。
 図182の(b)の1シンボルを3つのラインで検出する場合は中図のようなパターンでは低速化し、右図では高速化させる。
 こうして高速な光通信が可能となる。
 なお、双方向通信する場合は、発光部の照明機器に人感センサとして赤外線受光部が設けられているので、これを受信に兼用することにより照明機において双方向受信が部品の追加なしでできる。端末側は、カメラ用のストロボライトを用いて送信することもできるし、別途安価な赤外発光部を設けても良い。こうして部品をあまり追加することなしに双方向通信が実現する。
 (実施の形態11)
 (位相変調による信号伝送)
 図195は、実施の形態11の情報通信装置における送信信号のタイミング図である。
 図195において、基準波形(a)は周期Tのクロック信号であり、送信信号のタイミングの基準となる。送信シンボル(b)は、送信するデータ列に基づいて作成されるシンボル列を示している。ここでは、一例として1シンボル当たり1ビットの場合を示しているため、送信データのバイナリと同一となっている。送信波形(c)は、基準波形に対して送信シンボルに従って位相変調した送信波形であり、この波形に従って送信光源が駆動される。位相変調は、基準波形についてシンボルに対応して位相をずらすことで実施されており、この例においては、シンボル0は位相0°、シンボル1は位相180°の割り当てとなっている。
 図196は、実施の形態11における送信信号と受信信号の関係を示す図である。
 送信信号は図195と同様であり、送信信号が1の期間だけ光源が発光しており、この発光期間が右下がり斜線の領域で示されている。右上がり斜線で塗られた帯は、イメージセンサの画素が露光される期間(露光時間tE)を表しており、発光期間を示す右下がり斜線と重なる領域でイメージセンサの画素の信号電荷が生成される。画素値pは、この重複領域の面積に比例している。ここで、露光時間tEと周期Tとの間には、式1の関係が成り立つ。
 tE=T/2×(2n+1)  n:自然数  (式1)
 なお、図196~図200は、n=2の場合を示す。即ちtE=2.5T。
 受信波形は、各ラインの画素値pを示している。ここで画素値軸の値は、1周期分の受光量を1として正規化されている。上述の通り露光時間tEは、T(n+1/2)の区間を持つため、画素値pは、常にn≦p≦n+1の範囲に存在し、図196の例については、2≦p≦3となる。
 図197~図199は、図196とはそれぞれ異なるシンボル列について送信信号と受信信号の関係を示した図である。
 送信信号は、(図示されていない)連続する同一のシンボル列(例えば連続するシンボル0の列)を含むプリアンブルを持ち、受信側は、このプリアンブル中の連続するシンボル列により、受信のための基準信号を作成して、受信波形からシンボル列を読み出すタイミング信号としている。具体的には、連続するシンボル0について、図196で示している通り、受信波形は2→3→2を繰り返す一定の波形を返し、この画素値3が出力されるタイミングを基にクロック信号を基準信号として生成する。
 次に、受信波形からのシンボルの読み出しは、上記基準信号の1区間における受信信号を読み出して、画素値3の場合はシンボル0、画素値2の場合はシンボル1として読み出すことができる。図197~図199においては、第4周期に位置するシンボルが読み出される様子を示している。
 図200は、図196~図199をまとめた図であり、ラインが密に並んだ状態であるため、ライン方向の画素の区切りは省略して連続化して作図されている。ここでは、第4周期から第8周期のシンボル値が読み出される様子を示している。
 かかる構成により、本実施の形態においては、基準波の周期より十分長い時間について光信号の強度の平均を取った場合、常に一定となる。そして、基準波の周波数を適度に高く設定すれば、その時間を人が光量変化を知覚する時間より短く設定することができるため、人の目から送信発光源を観察した場合、光源は一定に光っているように知覚される。そのため、光源のちらつきとして知覚されることはなく、前実施の形態における人に煩わしさを感じさせることがなくなる利点を持つ。
 また、各ラインの露光時間が長く、隣接ラインの露光期間と重複する時間が長くなる状況において、前述の実施の形態における振幅変調(オンオフ変調)では、信号の周波数(シンボルレート)を高めることができずに十分な信号伝送速度が得られない課題が生じるが、本実施の形態においては、このような状況においても信号の立ち上がり、立ち下りエッジを検出可能であるため、信号の周波数を高めることができ、高い信号伝送速度を実現することができる。
 なお、ここで記述している「位相変調」は、基準信号波形に対する位相変調を意味している。本来の意味では、搬送波は光であり、これを振幅変調(オンオフ変調)して伝送しているため、この信号伝送における変調方式は振幅変調の一種である。
 また、上述の送信信号は一例であり、シンボル当りのビット数は2以上に設定することも可能であり、また、シンボルと位相シフトの対応も0°、180°に限るものではなく、オフセットを有してもよい。
 なお、上記では説明を省略したが、図1~図77で説明した実施の形態1~6で説明した光信号発生手段と光信号受信手段の構成および動作、効果は、図78以降の図面を用いて、実施の形態7以降で説明した、高速型の光発光手段と光信号受信手段と置き換えて構成し動作させても、同様の効果があることは言うまでもない。また、逆に実施の形態7以降の高速型の光発光手段や受信手段を低速型の光発光手段や受信手段に置き換えても同様である。
 例えば、図191、で、携帯電話の表示部側のカメラであるフェースカメラと、図190では反対側にあるインカメラを使って照明機からの光信号からの位置情報等のデータを受信する例を示した。この場合、加速度センサを使うことにより、重力で上下方向を検出できる。
 図193のように、レストランでテーブルの上にある携帯電話で光信号を受信する場合、加速度センサの信号に応じて携帯電話の表側が上を向いている場合は、フェースカメラを作動させ、下を向いている場合は、インカメラに切り替えて光信号を受信することにより、電力消費を削減したり、迅速に光信号を受信したりすることができ、無駄なカメラの動作を停止することができる。この場合、カメラの明るさから、テーブルの上にあるカメラの向きを検知し同様の動作をさせることもできる。また、カメラが撮影モードから光信号の受信モード時に切り替わるときにシャッタ速度を早くするコマンドを送るとともに、撮像素子の感度を高めるコマンドを撮像回路部に送ると感度があがり、画像が明るくなるという効果がある。感度を高めるとノイズが増えるがホワイトノイズである。一方、光信号は特定の周波数域にあるため、周波数フィルターで分離もしくは除去することにより、検出感度を高めることができる。このため、暗い照明機器からの光信号を検出することができる。
 本発明は主に屋内にある空間の照明機器から光信号を発生させ、通信部と音声マイクと音声スピーカーと表示部とインカメラとフェースカメラのカメラ部を持つ携帯端末のカメラ部により光信号を受信し、位置情報等を得るが、屋内から屋外に出ると、衛星を利用したGPSにより位置情報を検知できる。このため、光信号領域からの境界の位置情報を得て、GPSからの信号受信を起動し、この切り替えを自動的に行うことにより、シームレスに位置検知ができるという効果がある。
 屋外から屋内に移動する時は、GPS等の位置情報により境界を検知して光信号の位置情報への自動切り替えを行う。また、携帯電話の表示部にバーコードを表示させ商店や、航空機の搭乗口のPOS端末で認証を行う場合、サーバを使うと応答時間がかかるため、現実的でないため片方向の認証しかできない。
 しかし、本発明を用いてPOS等の端末の読み取り機の発光部から携帯電話のフェースカメラ部に光信号を送信することにより相互認証が行えるため、セキュリティが向上する。
 (実施の形態12)
 本実施の形態では、上記実施の形態1~11におけるスマートフォンなどの受信機と、LEDの点滅パターンとして情報を送信する送信機とを用いた各適用例について説明する。
 図201は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばレストランのサイネージである送信機7001aは、送信機7001aの識別情報(ID)を例えばスマートフォンとして構成される受信機7001bに送信する。受信機7001bは、そのIDに対応付けられた情報をサーバから取得して表示する。その情報は、例えばレストランまでの経路、空席状況、およびクーポンなどである。
 図202は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば映画のサイネージである送信機7042bは、送信機7042bの識別情報(ID)を例えばスマートフォンとして構成される受信機7042aに送信する。受信機7042aは、そのIDに対応付けられた情報をサーバから取得して表示する。その情報は、例えば、映画の予約を促す画像7042c、映画の上映時刻を示す画像7042d、空席状況を示す画像7042e、および予約完了を通知する画像7042fである。
 図203は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばドラマのサイネージである送信機7043bは、送信機7043bの識別情報(ID)を例えばスマートフォンとして構成される受信機7043aに送信する。受信機7043aは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得して表示する。その情報は、例えば、ドラマの録画予約を促す画像7043c、ドラマを録画するレコーダの選択を促す画像7043d、および予約完了を通知する画像7043eである。
 図204は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば店舗の屋根看板または路上に置かれた看板として構成されるサイネージである送信機7044bまたは7044cは、送信機7044bまたは7044cの識別情報(ID)を例えばスマートフォンとして構成される受信機7044aに送信する。受信機7044aは、そのIDに対応付けられた情報をサーバから取得して表示する。その情報は、例えば、その店舗の空席状況およびクーポンなどを示す画像7044bである。
 図205は、実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図201~図204に示す適用例に対応するものである。
 まず、送信機のIDと、IDを受信した受信機に渡す情報とを関連付けてサーバに記憶する(7101a)。ここで、受信機に渡す情報には、店舗名や、商品名や、店舗への地図情報や、空席情報や、クーポン情報や、商品の在庫数や、映画や劇の上映時刻や、予約情報や、予約や購入を行うサーバのURLなどの情報を含んでも良い。
 次に、送信機からIDを送信する(S7101b)。受信機のカメラを送信機に向け、IDを受信する(S7101c)。
 受信機は受信したIDをサーバに送信し、IDに関連する情報を受信機に記憶する(S7101d)。
 受信機は、端末IDやユーザIDを合わせてサーバへ保存する(S7101e)。さらに、受信機は、受信機に表示するものとしてサーバに記憶されていた情報を表示する(S7101f)。
 受信機は、受信機やサーバに保存されたユーザプロファイルに基いて、表示内容を調整する(S7101g)。例えば、文字の大きさを変更したり、年齢制限コンテンツを非表示としたり、過去のユーザの行動から好まれると推定されたコンテンツを優先的に表示したりといった制御を行う。
 受信機は、現在位置から店舗や商品売場までの道順を表示する(S7101h)。受信機は、適宜サーバから情報を取得し、空席情報や予約情報を更新して表示する(S7101i)。受信機は、取得した情報を保存するためのボタンや、表示内容を保存することを取りやめるためのボタンを表示する(S7101j)。
 ユーザは、受信機が取得した情報を保存するためのボタンをタップする(S7101k)。受信機は、ユーザの操作によって再表示できるように、取得した情報を保存する(S7101m)。店舗の読み取り機は、受信機の送信する情報を読取る(S7101n)。送信方法としては、可視光通信、wifiやbluetoothを介した通信、2次元バーコードによる通信などがある。送信情報には、受信機のIDやユーザIDを含めても良い。
 店舗の読取り装置は、読み取った情報と店舗のIDをサーバへ保存する(S7101p)。サーバは、送信機と、受信機と、店舗とを関連付けて保存する(S7101q)。これにより、サイネージの広告効果を分析することが可能となる。
 図206は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば複数の店舗を示すサイネージである送信機7002aは、送信機7002aの識別情報(ID)を例えばスマートフォンとして構成される受信機7002bに送信する。受信機7002bは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得して、サイネージと同一の表示内容を表示する。ユーザが所望の店舗を選択するためのタップ選択や音声入力を行なうと、受信機7002bはその店舗の内容を表示する。
 図207は、実施の形態12における受信機7002bと送信機7002aの処理動作の一例を示すフローチャートである。
 送信機7002aのIDと、IDを受信した受信機7002bに渡す情報とを関連付けてサーバに記憶する(7102a)。受信機7002bに渡す情報には、店舗名や、商品名や、店舗への地図情報や、空席情報や、クーポン情報や、商品の在庫数や、映画や劇の上映時刻や、予約情報や、予約や購入を行うサーバのURLなどの情報を含んでも良い。送信機7002aに表示する内容の位置関係をサーバに記憶する。
 サイネージなどの送信機7002aからIDを送信する(7102b)。受信機7002bのカメラを送信機7002aに向け、IDを受信する(7102c)。受信機7002bは受信したIDをサーバに送信し、IDに関連する情報を得る(7102d)。受信機7002bは、受信機7002bに表示するものとしてサーバに記憶されていた情報を表示する(7102e)。その情報である画像は、送信機7002aに表示された画像の位置関係を保ったまま受信機7002bに表示されてもよい。
 ユーザは、画面のタップや音声による指定で、受信機7002bに表示された情報を選択する(7102f)。受信機7002bは、ユーザに指定された情報の詳細を表示する(7102g)。
 図208は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば複数の店舗を示すサイネージである送信機7003aは、送信機7003aの識別情報(ID)を例えばスマートフォンとして構成される受信機7003bに送信する。受信機7003bは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得し、サイネージの表示内容のうち、受信機7003bのカメラの撮影画像の中心に近い部分(例えば最も近い部分)の内容を表示する。
 図209は、実施の形態12における受信機7003bと送信機7003aの処理動作の一例を示すフローチャートである。
 送信機7003aのIDと、IDを受信した受信機7003bに渡す情報とを関連付けてサーバに記憶する(7103a)。受信機7003bに渡す情報には、店舗名や、商品名や、店舗への地図情報や、空席情報や、クーポン情報や、商品の在庫数や、映画や劇の上映時刻や、予約情報や、予約や購入を行うサーバのURLなどの情報を含んでも良い。送信機7003aに表示する内容の位置関係をサーバに記憶する。
 サイネージなどの送信機7003aからIDを送信する(7103b)。受信機7003bのカメラを送信機7003aに向け、IDを受信する(7103c)。受信機7003bは受信したIDをサーバに送信し、IDに関連する情報を得る(7103d)。受信機7003bは、サイネージの表示内容のうち、撮像画像の中心または指定部分と位置的に最も近い内容を表示する(7103e)。
 図210は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば複数の店舗を示すサイネージである送信機7004aは、送信機7004aの識別情報(ID)を例えばスマートフォンとして構成される受信機7004bに送信する。受信機7004bは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得し、サイネージの表示内容のうち、受信機7004bのカメラの撮影画像の中心に近い部分の内容(例えば店舗「Bカフェ」の内容を示す画像)を表示する。ここで、ユーザが左方向にフリックすると、受信機7004bは、サイネージで店舗「Bカフェ」の右側にある店舗「C書店」の内容を示す画像を表示する。つまり、受信機7004bは、送信元のサイネージと同じ位置関係の画像を表示する。
 図211は、実施の形態12における受信機7004bと送信機7004aの処理動作の一例を示すフローチャートである。
 送信機7004aのIDと、IDを受信した受信機7004bに渡す情報とを関連付けてサーバに記憶する(7104a)。受信機7004bに渡す情報には、店舗名や、商品名や、店舗への地図情報や、空席情報や、クーポン情報や、商品の在庫数や、映画や劇の上映時刻や、予約情報や、予約や購入を行うサーバのURLなどの情報を含んでも良い。送信機7004aに表示する内容の位置関係をサーバに記憶する。
 サイネージなどの送信機7004aからIDを送信する(7104b)。受信機7004bのカメラを送信機7004aに向け、IDを受信する(7104c)。受信機7004bは受信したIDをサーバに送信し、IDに関連する情報を得る(7104d)。受信機7004bに表示するとしてサーバに記憶されていた情報を表示する(7104e)。
 ユーザは、受信機7004bに対してフリック操作を行う(7104f)。受信機7004bは、ユーザ操作に応じて、送信機7004aに表示された情報と同じ位置関係となるように表示内容を変更する(7104g)。例えば、ユーザが画面を左方向にフリックして現在表示している部分の右側を表示しようとした場合は、送信機7004aの表示において、現在受信機7004bに表示している内容の右側に表示されている内容を、受信機7004bに表示させる。
 図212は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば複数の店舗を示すサイネージである送信機7005aは、送信機7005aの識別情報(ID)を例えばスマートフォンとして構成される受信機7005bに送信する。受信機7005bは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得し、サイネージの表示内容のうち、受信機7005bのカメラの撮影画像の中心に近い部分の内容(例えば店舗「Bカフェ」の内容を示す画像)を表示する。ここで、ユーザが受信機7005bの画面の左端(または左向きの矢印)をタップすると、受信機7005bは、サイネージで店舗「Bカフェ」の左側にある店舗「Aレストラン」の内容を示す画像を表示する。また、ユーザが受信機7005bの画面の下端(または下向きの矢印)をタップすると、受信機7005bは、サイネージで店舗「Bカフェ」の下側にある店舗「E事務所」の内容を示す画像を表示する。また、ユーザが受信機7005bの画面の右端(または右向きの矢印)をタップすると、受信機7005bは、サイネージで店舗「Bカフェ」の右側にある店舗「C書店」の内容を示す画像を表示する。つまり、受信機7004bは、送信元のサイネージと同じ位置関係の画像を表示する。
 図213は、実施の形態12における受信機7005bと送信機7005aの処理動作の一例を示すフローチャートである。
 送信機7005aのIDと、IDを受信した受信機7005bに渡す情報とを関連付けてサーバに記憶する(7105a)。受信機7005bに渡す情報には、店舗名や、商品名や、店舗への地図情報や、空席情報や、クーポン情報や、商品の在庫数や、映画や劇の上映時刻や、予約情報や、予約や購入を行うサーバのURLなどの情報を含んでも良い。送信機7005aに表示する内容の位置関係をサーバに記憶する。
 サイネージなどの送信機7005aからIDを送信する(7105b)。受信機7005bのカメラを送信機7005aに向け、IDを受信する(7105c)。受信機7005bは受信したIDをサーバに送信し、IDに関連する情報を得る(7105d)。受信機7005bに表示するとしてサーバに記憶されていた情報を表示する(7105e)。
 ユーザは、受信機7005bに表示された端の部分、または、受信機7005bに表示された上下左右の方向を示す部分をタップする(7105f)。受信機7005bは、ユーザ操作に応じて、送信機7005aに表示された情報と同じ位置関係となるように表示内容を変更する(7105g)。例えば、ユーザが画面の右端や右方向を示す部分をタップした場合は、送信機7005aの表示において、現在受信機7005bに表示している内容の右側に表示されている内容を、受信機7005bに表示させる。
 図214は、実施の形態12における受信機と送信機の適用例を示す図である。なお、図214は自動車を後ろから見た図である。
 例えば車の2つのテールランプ(発光部またはライト)を有する送信機(車)7006aは、送信機7006aの識別情報(ID)を例えばスマートフォンとして構成される受信機に送信する。受信機は、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得する。例えば、その情報は、その車または送信機のID、発光部間の距離、発光部の大きさ、車の大きさ、車の形状、車の重さ、車のナンバー、前方の様子、または危険の有無を示す情報である。また、受信機はこれらの情報を送信機7006aから直接取得してもよい。
 図215は、実施の形態12における受信機と送信機7006aの処理動作の一例を示すフローチャートである。
 送信機7006aのIDと、IDを受信した受信機に渡す情報とを関連付けてサーバに記憶する(7106a)。受信機に渡す情報には、送信機7006aとなる発光部の大きさや、発光部間の距離や、送信機7006aを構成要素の一部とする物体の形状や、重量や、車体ナンバー等の識別番号や、受信機から観察しづらい場所の様子や危険の有無などの情報を含めても良い。
 送信機7006aは、IDを送信する(7106b)。送信内容には、前記サーバのURLや、前記サーバに記憶させるとした情報を含めても良い。
 受信機は、送信されたID等の情報を受信する(7106c)。受信機は、受信したIDに紐付いた情報をサーバから取得する(7106d)。受信機は、受信した情報やサーバから取得した情報を表示する(7106e)。
 受信機は、発光部の大きさ情報と撮像した発光部の見えの大きさから、または、発光部間の距離情報と撮像した発光部間の距離から三角測量の要領で、受信機と発光部との距離を計算する(7106f)。受信機は、受信機から観察しづらい場所の様子や危険の有無などの情報を基に、危険の警告などを行う(7106g)。
 図216は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば車の2つのテールランプ(発光部またはライト)を有する送信機(車)7007bは、送信機7007bの情報を例えば駐車場の送受信装置として構成される受信機7007aに送信する。送信機7007bの情報は、送信機7007bの識別情報(ID)、車のナンバー、車の大きさ、車の形状、または車の重さを示す。受信機7007aは、その情報を受信すると、駐車の可否、課金情報、または駐車位置を送信する。なお、受信機7007aは、IDを受信して、ID以外の情報をサーバから取得してもよい。
 図217は、実施の形態12における受信機7007aと送信機7007bの処理動作の一例を示すフローチャートである。なお、送信機7007bは、送信だけでなく受信も行なうとため、車載送信機と車載受信機とを備える。
 送信機7007bのIDと、IDを受信した受信機7007aに渡す情報とを関連付けてサーバ(駐車場管理サーバ)に記憶する(7107a)。受信機7007aに渡す情報には、送信機7007bを構成要素の一部とする物体の形状や、重量や、車体ナンバー等の識別番号や、送信機7007bのユーザの識別番号や支払いのための情報を含めても良い。
 送信機7007b(車載送信機)は、IDを送信する(7107b)。送信内容には、前記サーバのURLや、前記サーバに記憶させる情報を含めても良い。駐車場の受信機7007a(駐車場の送受信装置)は、受信した情報を、駐車場を管理するサーバ(駐車場管理サーバ)に送信する(7107c)。駐車場管理サーバは、送信機7007bのIDをキーに、IDに紐付けられた情報を取得する(7107d)。駐車場管理サーバは、駐車場の空き状況を調査する(7107e)。
 駐車場の受信機7007a(駐車場の送受信装置)は、駐車の可否や、駐車位置情報、または、これらの情報を保持するサーバのアドレスを送信する(7107f)。または、駐車場管理サーバは、これらの情報を別のサーバに送信する。送信機(車載受信機)7007bは、上記で送信された情報を受信する(7107g)。または、車載システムは、別のサーバからこれらの情報を取得する。
 駐車場管理サーバは、駐車を行いやすいように駐車場の制御を行う(7107h)。例えば、立体駐車場の制御を行う。駐車場の送受信装置は、IDを送信する(7107i)。車載受信機(送信機7007b)は、車載受信機のユーザ情報と受信したIDとを基に、駐車場管理サーバに問い合わせを行う(7107j)。
 駐車場管理サーバは、駐車時間等に応じて課金を行う(7107k)。駐車場管理サーバは、駐車された車両にアクセスしやすいように駐車場の制御を行う(7107m)。例えば、立体駐車場の制御を行う。車載受信機(送信機7007a)は、駐車位置への地図を表示し、現在地からのナビゲーションを行う(7107n)。
 図218は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば店舗の屋根看板または路上に置かれた看板として構成されるサイネージである送信機7008aまたは7008bは、送信機7008aまたは7008bの識別情報(ID)を例えばスマートフォンとして構成される受信機7008cに送信する。受信機7008cは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得して表示する。その情報は、例えば、その店舗の空席状況、クーポンおよび2次元バーコードなどを示す画像である。
 図219は、実施の形態12における受信機7008cと送信機7008aまたは7008bの処理動作の一例を示すフローチャートである。なお、以下、送信機7008aおよび7008bのうち、送信機7008aを例にあげて説明するが、送信機7008bの処理動作も送信機7008aの処理動作と同じである。
 まず、送信機7008aのIDと、IDを受信した受信機7008cに渡す情報とを関連付けてサーバに記憶する(7108a)。受信機7008cに渡す情報には、店舗名や、商品名や、店舗への地図情報や、空席情報や、クーポン情報や、商品の在庫数や、映画や劇の上映時刻や、予約情報や、予約や購入を行うサーバのURLなどの情報を含んでも良い。
 サイネージなどの送信機7008aからIDを送信する(7108b)。受信機7008cのカメラを送信機7008aに向け、IDを受信する(7108c)。受信機7008cは受信したIDをサーバに送信し、IDに関連する情報を受信機7008cに記憶する(7108d)。受信機7008cは、端末IDやユーザIDを合わせてサーバへ保存する(7108e)。
 受信機7008cは、受信機7008cに表示するものとしてサーバに記憶されていた情報を表示する(7108f)。受信機7008cは、現在位置から店舗や商品売場までの道順を表示する(7108g)。受信機7008cは、適宜サーバから情報を取得し、空席情報や予約情報を更新して表示する(7108h)。
 受信機7008cは、座席や商品を予約、または、注文するボタンを表示する(7108i)。ユーザは、受信機7008cに表示された予約ボタンや注文ボタンをタップする(7108j)。受信機7008cは、予約や注文の情報を、これらを管理するサーバへ送信する(7108k)。
 図220は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばスマートフォンとして構成される受信機(端末)7009bは、例えば店舗の座席の前のテーブルに置かれる。このとき、例えば照明機器である送信機7009aは、送信機7009aの識別情報(ID)を受信機7009bに送信する。受信機7009bは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得する。そして、受信機7009bは、その座席の予約、仮予約の確認、または予約時間の延長などを行なう。
 図221は、実施の形態12における受信機と送信機の適用例を示す図である。
 サーバから情報を取得した受信機7009bは、例えば、店舗の空席状況と、「お会計」、「延長」および「追加注文」の何れかを選択させるためのボタンとを表示する。
 図222は、実施の形態12における受信機7009bと送信機7009aの処理動作の一例を示すフローチャートである。
 送信機7009aのIDと、IDを受信した受信機7009bに渡す情報とを関連付けてサーバに記憶する(7109a)。受信機7009bに渡す情報には、送信機7009aの位置や形状の情報を含んでも良い。天井照明などの送信機7009aからIDを送信する(7109b)。
 ユーザは受信機7009bをテーブル等へ置く(7109c)。受信機7009bは、ジャイロセンサ、磁気センサ、加速度センサの情報から受信機7009bがテーブル等に置かれたことを認識して受信処理を開始する(7109d)。受信機7009bは、加速度センサの上方から上方を向いているカメラを判断し、そのカメラを使用してIDを受信する。
 受信機7009bのカメラを送信機7009aに向け、IDを受信する(7109e)。受信機7009bは受信したIDをサーバに送信し、IDに関連する情報を受信機7009bに記憶する(7109f)。受信機7009bは、受信機7009bの位置を推定する(7109g)。
 受信機7009bは、受信機7009bの位置を店舗管理サーバへ送信する(7109h)。店舗管理サーバは、受信機7009bの置かれた座席を特定する(7109i)。店舗管理サーバは、座席番号を受信機7009bへ送信する(7109j)。
 図223は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば天井照明である送信機7011aは、送信機7011aの識別情報(ID)を例えばスマートフォンとして構成される受信機7011bに送信する。受信機7011bは、そのIDを受信すると、そのIDに対応付けられた情報をサーバから取得して自己位置を推定(確認)する。そして、その受信機7011bが電子機器7011cに置かれると、受信機7011bは電子機器7011cの操作端末として機能する。これにより、タッチパネルや音声出力などのリッチなインタフェースで電子機器7011cを操作することができる。
 図224は、実施の形態12における受信機7011bと送信機7011aの処理動作の一例を示すフローチャートである。
 電子機器の位置をサーバに記憶する(7110a)。電子機器のIDや、型式や、保有する機能や、操作のためのインタフェース情報(画面、入出力音声、対話モデル)を、位置情報に関連付けて記憶しても良い。
 送信機7011aのIDと、IDを受信した受信機7011bに渡す情報とを関連付けてサーバに記憶する(7110b)。受信機7011bに渡す情報には、送信機7011aの位置や形状の情報を含んでも良い。
 天井照明などの送信機7011aからIDを送信する(7110c)。受信機7011bのカメラを送信機7011aに向け、IDを受信する(7110d)。受信機7011bは受信したIDをサーバに送信し、IDに関連する情報を受信機7011bに記憶する(7110e)。受信機7011bは、受信機7011bの位置を推定する(7110f)。
 ユーザは受信機7011bを電子機器に置く(7110g)。受信機7011bは、ジャイロセンサ、磁気センサ、加速度センサの情報から受信機7011bが静止したことを認識して以下の処理を開始する(7110h)。受信機7011bは、最後に受信機7011bの位置を推定してから一定時間以上経過している場合には、上記の方法で自己位置を推定する(7110i)。
 受信機7011bは、ジャイロセンサ、磁気センサ、加速度センサの情報から、最後に自己位置推定を行なってからの移動を推定し、現在位置を推定する(7110j)。受信機7011bは、現在位置に最も近い電子機器の情報をサーバから取得する(7110k)。受信機7011bは、電子機器の情報を、bluetoothやwifiを介して電子機器から取得する(7110m)。または、サーバに保存された電子機器の情報を取得する。
 受信機7011bは、電子機器の情報を表示する(7110n)。受信機7011bは、電子機器の操作端末として入力を受け付ける(7110p)。受信機7011bは、電子機器の操作情報を、bluetoothやwifiを介して電子機器へ送信する(7110q)。または、サーバを介して電子機器へ送信する。
 図225は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばスマートフォンとして構成される受信機7012aのカメラが、テレビ受像機(TV)などの電子機器として構成される送信機7012bに向けられる。このとき、受信機7012aは、送信機7043bから送信される送信機7043bの識別情報(ID)を受信する。受信機7043aは、そのIDに対応付けられた情報をサーバから取得する。これにより、受信機7012aは、カメラが向けられた方向にある電子機器の操作端末として機能する。つまり、受信機7012aは、bluetoothやwifiなどによって送信機7012bと無線接続する。
 図226は、実施の形態12における受信機7012aと送信機7012bの処理動作の一例を示すフローチャートである。
 送信機7012bのIDと、IDを受信した受信機7012aに渡す情報とを関連付けてサーバに記憶する(7111a)。受信機7012aに渡す情報には、電子機器のIDや、型式や、保有する機能や、操作のためのインタフェース情報(画面、入出力音声、対話モデル)を含んでも良い。
 電子機器に搭載された、あるいは、電子機器に関連付けられた送信機7012bからIDを送信する(7111b)。受信機7012aのカメラを送信機7012bに向け、IDを受信する(7111c)。受信機7012aは受信したIDをサーバに送信し、IDに関連する情報を受信機7012aに記憶する(7111d)。受信機7012aは、受信したIDをキーに電子機器の情報をサーバから取得する(7111e)。
 受信機7012aは、電子機器の情報を、bluetoothやwifiを介して電子機器から取得する(7111f)。または、サーバに保存された電子機器の情報を取得する。受信機7012aは、電子機器の情報を表示する(7111g)。
 受信機7012aは、電子機器の操作端末として入力を受け付ける(7111h)。受信機7012aは、電子機器の操作情報を、bluetoothやwifiを介して電子機器へ送信する(7111i)。または、サーバを介して電子機器へ送信する。
 図227は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばスマートフォンとして構成される受信機7013bは、ユーザから入力される目的地を受け付ける。そして、この受信機7013bのカメラが、照明機器(明かり)として構成される送信機7013aに向けられる。このとき、受信機7013bは、送信機7013aから送信される送信機7013aの識別情報(ID)を受信する。受信機7013bは、そのIDに対応付けられた情報をサーバから取得する。その取得された情報に基づいて、受信機7013bは自己位置の推定(確認)を行なう。そして、受信機7013bは、音声などでユーザを目的地へナビゲートする。また、ユーザが視覚障害者の場合は、受信機7013bは障害物を詳細にユーザへ報告する。
 図228は、実施の形態12における受信機7013bと送信機7013aの処理動作の一例を示すフローチャートである。
 ユーザは、目的地を受信機7013bに入力する(7112a)。ユーザは、受信機7013bを明かり(送信機7013a)へ向ける(7112b)。視覚に障害があるユーザでも、強い明かりを認識可能であれば、受信機7013bをそちらへ向けることができる。
 受信機7013bは、明かりに重畳された信号を受信する(7112c)。受信機7013bは、受信した信号をキーにサーバから情報を取得する(7112d)。受信機7013bは、現在地から目的地までの地図をサーバから取得する(7112e)。受信機7013bは、地図を表示し、現在地から目的地までのナビゲーションを行う(7112f)。
 図229は、実施の形態12における受信機の状態を示す図である。
 例えばスマートフォンとして構成される受信機(端末)7014aは、フェイスカメラ7014bを備えている。そして、受信機7014aは、そのフェイスカメラ7014bの撮像方向が地平面に対して一定角度以上上に向いているときに、そのフェイスカメラ7014bによる信号受信の処理(送信機からの信号を撮像によって受信する処理)を行なう。また、受信機7014aは、フェイスカメラ7014b以外の他のカメラも備えている場合には、そのフェイスカメラ7014bの優先度を他のカメラよりも上げる。
 図230は、実施の形態12における受信機7014aの処理動作の一例を示すフローチャートである。
 フェイスカメラ7014bの撮像方向が地平面に対して一定角度以上上に向いているか判断する(7113a)。判断結果が真(Y)であれば、フェイスカメラ7014bによる受信を開始する(7113b)。または、フェイスカメラ7014bによる受信処理の優先度を上げる。そして、一定時間経過すると(7113c)、フェイスカメラ7014bによる受信を終了する(7113d)。または、フェイスカメラ7014bによる受信処理の優先度を下げる。
 図231は、実施の形態12における受信機の状態を示す図である。
 例えばスマートフォンとして構成される受信機(端末)7015aは、アウトカメラ7015bを備えている。そして、受信機7014aは、そのアウトカメラ7015bの撮像方向の地平面に対する角度が一定角度以下のときに、そのアウトカメラ7015bによる信号受信の処理(送信機からの信号を撮像によって受信する処理)を行なう。また、受信機7015aは、アウトカメラ7015b以外の他のカメラも備えている場合には、そのアウトカメラ7015bの優先度を他のカメラよりも上げる。
 なお、アウトカメラ7015bの撮像方向の地平面に対する角度が一定角度以下のときには、受信機7015aは縦にされている状態であって、受信機7015aにおけるアウトカメラ7015bが備えられた面の地平面に対する角度は一定角度以上になっている。
 図232は、実施の形態12における受信機7015aの処理動作の一例を示すフローチャートである。
 アウトカメラ7015bの撮像方向が地平面に対して一定角度以下であるかを判断する(7114a)。判断結果が真(Y)であれば、アウトカメラ7015bによる受信を開始する(7114b)。または、アウトカメラ7015bによる受信処理の優先度を上げる。そして、一定時間経過すると(7114c)、アウトカメラ7015bによる受信を終了する(7114d)。または、アウトカメラ7015bによる受信処理の優先度を下げる。
 図233は、実施の形態12における受信機の状態を示す図である。
 例えばスマートフォンとして構成される受信機(端末)7016aは、アウトカメラを備えている。そして、受信機7016aは、そのアウトカメラの撮像方向に移動された(突き出された)ときに、そのアウトカメラによる信号受信の処理(送信機からの信号を撮像によって受信する処理)を行なう。また、受信機7016aは、アウトカメラ以外の他のカメラも備えている場合には、そのアウトカメラの優先度を他のカメラよりも上げる。
 なお、アウトカメラの撮像方向に移動されたときには、移動方向と(移動終了時点での)撮像方向との間の角度が一定角度以下になっている。
 図234は、実施の形態12における受信機7016aの処理動作の一例を示すフローチャートである。
 受信機7016aが移動され、移動方向と、移動終了時点でのアウトカメラの撮像方向が一定角度以下であるかを判断する(7115a)。判断結果が真(Y)であれば、アウトカメラによる受信を開始する(7115b)。または、アウトカメラによる受信処理の優先度を上げる。そして、一定時間経過すると(7115c)、アウトカメラによる受信を終了する(7115d)。または、アウトカメラによる受信処理の優先度を下げる。
 図235は、実施の形態12における受信機の状態を示す図である。
 例えばスマートフォンとして構成される受信機(端末)7017aは、所定のカメラを備えている。そして、受信機7017aは、所定のカメラに対応するディスプレイ操作または専用ボタンの押下が行なわれたときに、その所定のカメラによる信号受信の処理(送信機からの信号を撮像によって受信する処理)を行なう。また、受信機7017aは、所定のカメラ以外の他のカメラも備えている場合には、その所定のカメラの優先度を他のカメラよりも上げる。
 図236は、実施の形態12における受信機7017aの処理動作の一例を示すフローチャートである。
 受信機7017aに対してディスプレイ操作または専用ボタンの押下が行なわれたかを判断する(7115h)。判断結果が真(Y)であれば、ディスプレイ操作または専用ボタンの押下に対応するカメラによる受信を開始する(7115i)。または、そのカメラによる受信処理の優先度を上げる。そして、一定時間経過すると(7115j)、ディスプレイ操作または専用ボタンの押下に対応するカメラによる受信を終了する(7115k)。または、そのカメラによる受信処理の優先度を下げる。
 図237は、実施の形態12における受信機の状態を示す図である。
 例えばスマートフォンとして構成される受信機(端末)7018aは、フェイスカメラ7018bを備えている。そして、受信機7018aは、そのフェイスカメラ7018bの撮像方向が地平面に対して一定角度以上上に向き、且つ地平面に対して一定角度以下にある方向に沿って受信機7014aが移動しているときに、そのフェイスカメラ7018bによる信号受信の処理(送信機からの信号を撮像によって受信する処理)を行なう。また、受信機7018aは、フェイスカメラ7018b以外の他のカメラも備えている場合には、そのフェイスカメラ7018bの優先度を他のカメラよりも上げる。
 図238は、実施の形態12における受信機7018aの処理動作の一例を示すフローチャートである。
 フェイスカメラ7018bの撮像方向が地平面に対して一定角度以上上に向けられており、地平面に対して一定角度以下で平行移動されているかを判断する(7116a)。判断結果が真(Y)であれば、フェイスカメラ7018bによる受信を開始する(7116b)。または、フェイスカメラ7018bによる受信処理の優先度を上げる。そして、一定時間経過すると(7116c)、フェイスカメラ7018bによる受信を終了する(7116d)。または、フェイスカメラ7018bによる受信処理の優先度を下げる。
 図239は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばスマートフォンとして構成される受信機7019bのカメラが、テレビ受像機(TV)などの電子機器として構成される送信機7019aに向けられる。このとき、受信機7019bは、送信機7019a(送信機7019aのディスプレイ)から送信される、視聴中のチャンネルの識別情報(ID)を受信する。受信機7019bは、そのIDに対応付けられた情報をサーバから取得する。これにより、受信機7019bは、テレビ番組の関連商品の購入ページ、またはテレビ番組の関連情報を表示する。また、受信機7019bは、投票、またはプレゼントに応募することによってテレビ番組に参加する。なお、送信機(TV)7019aは、ユーザの住所を記憶している住所記憶部を備え、その住所記憶部に記憶された住所に関連する情報を送信してもよい。
 図240は、実施の形態12における受信機と送信機の適用例を示す図である。
 送信機7019aおよび受信機7019bは、図240の(a)に示すように、図239に示す適用例を実現するために必要な情報を直接送受信してもよい。
 また、図240の(b)に示すように、送信機7019aは、視聴中のチャンネルのIDを受信機7019bに送信する。受信機7019bは、そのIDに対応付けられた情報、つまり、図239に示す適用例を実現するために必要な情報をサーバから取得する。
 また、図240の(c)に示すように、送信機7019aは、送信機(TV)7019aのIDまたは無線接続に必要な情報を受信機7019bに送信してもよい。この場合、受信機7019bは、そのIDまたは情報を受信し、そのIDまたは情報に基づいて、送信機7019aまたはレコーダに対して、視聴中のチャンネルを問い合わせる。さらに、受信機7019bは、問い合わせによって得られたチャンネルに関する情報、つまり、図239に示す適用例を実現するために必要な情報をサーバから取得する。
 図241は、実施の形態12における受信機と送信機の適用例を示す図である。
 送信機7019bは、TV2021bとレコーダ2021aを備えていてもよい。この送信機7019bでは、レコーダ2021aが、図239に示す適用例を実現するために必要な情報を保存している。そして、再生時には、TV2021bは、そのレコーダ2021aに保存されている情報の一部または全部を受信機7019bに送信する。また、TV2021bとレコーダ2021aの少なくとも一方はサーバの役割を行なってもよい。レコーダ2021aがサーバの役割を行なうときには、レコーダ2021aは、サーバのアドレスをレコーダ2021aのアドレスに置き換え、そのアドレスをTV202bから受信機7019bへ送信させる。
 図242は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばスマートフォンとして構成される受信機7022cのカメラが、テレビ受像機(TV)などの電子機器として構成される送信機7022bに向けられる。このとき、受信機7022cは、送信機7022b(送信機7022bのディスプレイ)から送信される情報を受信する。受信機7022cは、その情報に基づいて送信機7022bと無線通信を行なう。ここで、送信機7022bは、受信機7022cに表示させる画像などを含む情報をサーバ7022aから取得して受信機7022cに送信する際、その情報に含まれるサーバ7022aのアドレスを、送信機7022bのアドレスに書き換える。
 図243は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばレコーダ7023bは、テレビ番組の録画時には、図239に示す適用例を実現するために必要な情報をサーバ7023aからまとめて取得する。
 テレビ番組の再生時には、レコーダ7023bは、再生画面と、図239に示す適用例を実現するために必要な情報とを送信機であるテレビ7023cに送信する。テレビ7023cは、その再生画面と情報を受信して、再生画像を表示するとともに、その情報をディスプレイから送信する。例えばスマートフォンとして構成される受信機7023dは、その情報を受信すると、その情報に基づいてテレビ7023cと無線通信を行なう。
 または、テレビ番組の再生時には、レコーダ7023bは、再生画面と、レコーダ7023bのアドレスなどの、無線通信を行なうために必要な情報とを送信機であるテレビ7023cに送信する。テレビ7023cは、その再生画面と情報を受信して、再生画像を表示するとともに、その情報をディスプレイから送信する。例えばスマートフォンとして構成される受信機7023dは、その情報を受信すると、その情報に基づいてレコーダ7023bと無線通信を行なう。
 図244は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えばスマートフォンとして構成される受信機7045aのカメラが、テレビ受像機(TV)などの電子機器として構成される送信機7045bに向けられる。送信機7045bは、歌番組などのテレビ番組の映像を表示するとともに、ディスプレイから情報を送信している。このとき、受信機7045aは、送信機7045b(送信機7045bのディスプレイ)から送信される情報を受信する。そして、受信機7045aは、その情報に基づいて、その歌番組で視聴されている曲の購入を促す画面7045cを表示する。
 図245は、実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図239~図244に示す適用例に対応するものである。
 テレビや録画機などに搭載された送信機は、サーバから、放映中の番組に関連する情報として、受信機に伝えたい情報を取得する(7117a)。送信機は、ディスプレイのバックライトに信号を重畳して送信する(7117b)。送信する信号には、送信機のURLや、送信機のSSIDや、送信機にアクセスするためのパスワードを含めても良い。
 図246は、実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図239~図244に示す適用例に対応するものである。
 受信機は、ディスプレイから情報を受信する(7118a)。受信した情報に視聴中のチャンネル情報が含まれているかを判断する(7118b)。その判断結果が偽(N)であれば、受信した情報に含まれるIDを持つ電子機器から、視聴中のチャンネル情報を取得する(7118c)。
 一方、上記判断結果が真(Y)であれば、サーバから、視聴中の画面に関連した情報を取得する(7118d)。テレビや録画機がサーバの役割を果たしても良い。受信機は、サーバから取得した情報を表示する(7118e)。受信機は、受信機やサーバに保存されたユーザプロファイルに基いて、表示内容を調整する(7118f)。例えば、文字の大きさを変更したり、年齢制限コンテンツを非表示としたり、過去のユーザの行動から好まれると推定されたコンテンツを優先的に表示したりといった制御を行う。
 図247は、実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図239~図244に示す適用例に対応するものである。
 録画機は、番組録画と同時に、サーバから番組に関連する情報を取得して保存する(7119a)。関連する情報が時刻によって変化する場合は、その時刻も合わせて保存する。
 録画機は、録画した画像を再生する際に、前記保存した情報をディスプレイに送信する(7119b)。前記保存した情報の中の前記サーバのアクセス情報(URLやパスワード)をディスプレイのアクセス情報に置き換えても良い。
 録画機は、録画した画像を再生する際に、前記保存した情報を受信機に送信する(7119c)。前記保存した情報の中の前記サーバのアクセス情報(URLやパスワード)を録画機のアクセス情報に置き換えても良い。
 図248は、実施の形態12における送信機の輝度変化を示す図である。
 送信機は、輝度が急に上がるときから次に輝度が急に上がるときまでの間の時間の長さを符号(0または1)ごとに異ならせることによって、受信機に送信される情報を符号化する。これにより、送信される情報の内容を変えずに、PWM(Pulse Width Modulation)制御によって、人間が感じる明るさの調節を行なうことができる。なお、輝度の波形は正確な矩形波でなくてもよい。
 図249は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図248に示す輝度変化を伴う送信機に対応する受信機の処理動作を示す。
 受信機は、送信機の発する光の輝度を観測する(7120a)。前に輝度が急激に上がってから、次に輝度が急激に上がるまでの時間を計測する(7120b)。あるいは、前に輝度が急激に下がってから、次に輝度が急激に下がるまでの時間を計測する。上記時間によって信号の値を認識する(7120c)。例えば、上記時間が300マイクロ秒以下のとき0、以上の時1と認識する。
 図250は、実施の形態12における送信機の輝度変化を示す図である。
 送信機は、輝度の増減を示す波長を変化させることにより、受信機に送信される情報の開始点を表現する。または、送信機は、その波長を変化させることにより、1つの情報に別の情報を重畳する。
 図251は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図250に示す輝度変化を伴う送信機に対応する受信機の処理動作を示す。
 受信機は、送信機の発する光の輝度を観測する(7121a)。輝度が急激に変化する間の時間幅の最低値を求める(7121b)。上記最低値の整数倍ではない輝度変化幅を探す(7121c)。前記整数倍ではない輝度変化幅を信号の開始点として信号を解析する(7121d)。前記整数倍ではない輝度変化幅を持つ部分間の時間幅を求める(7121e)。
 図252は、実施の形態12における送信機の輝度変化を示す図である。
 送信機は、受信機の露光時間よりも短い間隔で輝度を変化させることにより、人間の目に見える明るさを調整することができる。また、時間経過に伴って蓄積された輝度変化をリセットすることができる。
 図253は、実施の形態12における送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図252に示す輝度変化を伴う送信機に対応する受信機の処理動作を示す。
 輝度、または、輝度を制御する電流が、一定値を下回ったとき、受信機の露光時間より十分短い時間幅で電流のオフオンを行う(S7125a)。これにより、電流を初期値に戻し、発光部の輝度が下がるのを防ぐことができる。また、輝度、または、輝度を制御する電流が、一定値を上回ったとき、受信機の露光時間より十分短い時間幅で電流のオンオフを行う(S7125b)。これにより、電流を初期値に戻し、発光部の輝度が上がるのを防ぐことができる。
 図254は、実施の形態12における送信機の輝度変化を示す図である。
 送信機は、輝度のキャリア周波数を異ならせることによって、異なる信号(情報)を表現する。受信機は信号内容よりもキャリア周波数を早い時点で認識することができる。したがって、キャリア周波数を異ならせることは、送信機のIDなど、優先的に認識すべき内容を表現するのに適している。
 図255は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図254に示す輝度変化を伴う送信機に対応する受信機の処理動作を示す。
 受信機は、送信機の発する光の輝度を観測する(7122a)。輝度が急激に変化する間の時間幅の最低値を求める(7122b)。上記最低値をキャリア周波数として認識する(7122c)。キャリア周波数をキーとして、サーバから情報を取得する(7122d)。
 図256は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図254に示す輝度変化を伴う送信機に対応する受信機の処理動作を示す。
 受信機は、送信機の発する光の輝度を観測する(7123a)。輝度変化をフーリエ変換し、最大成分をキャリア周波数として認識する(7123b)。キャリア周波数をキーとして、サーバから情報を取得する(7123c)。
 図257は、実施の形態12における送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図254に示す輝度変化を伴う送信機の処理動作を示す。
 送信信号を輝度変化として表現する(7124a)。輝度変化をフーリエ変換した最大成分をキャリア周波数となるような輝度変化を作成する(7124b)。作成した輝度変化の通りに発光部を発光させる(7124c)。
 図258は、実施の形態12における送信機の構成例を示す図である。
 送信機7028aは、信号Aを送信する部分7028bと、信号Bを送信する部分7028dと、信号Cを送信する部分7028fとを有する。このように、受信機の撮像部(カメラ)が同時に露光する方向に沿って、互いに異なる信号を送信する部分があることによって、受信機は同時に複数の信号を受信することができる。なお、それぞれの部分7028b、7028d、7028fの間には、信号を発しない部分、または特別な信号を発する緩衝部分7028c,7028eを設けてもよい。
 図259は、実施の形態12における送信機の構成例を示す図である。なお、この送信機の構成による発光の方式は、図258に示す構成による発光の方式を発展させたものである。
 送信機には、図258に示す各信号を送信する部分7029aをそれぞれ図259に示すように配置してもよい。これにより、受信機を傾けた場合にも、受信機の撮像部(カメラ)は、信号A、BおよびCの多くの部分を同時に受信(撮像)することができる。
 図260は、実施の形態12における送信機の構成例を示す図である。なお、この送信機の構成による発光の方式は、図258に示す構成による発光の方式を発展させたものである。
 送信機の円形の発光部は、同心円状に配列された、各信号を送信する複数の円環状の部分7030a,7030b,7030cを備える。部分7030aは信号Cを送信し、部分7030bは信号Bを送信し、部分7030cは信号Aを送信する。このように、送信機の発光部が円形の場合には、上述のように各信号を送信する部分を配列することで、受信機は、各部分から発せられる信号A、BおよびCの多くの部分を同時に受信(撮像)することができる。
 図261は、実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図258~図260の何れかに示す発光装置を備えた送信機と受信機の処理動作を示す。
 受信機は、同時に受光するラインのそれぞれの位置の輝度を計測する(7126a)。同時受光ラインと垂直方向に、別々に送信された信号を受信することで、高速に信号を受信する(7126b)。
 図262は、実施の形態12における受信機と送信機による表示と撮影の例を示す図である。
 送信機は、受信機の受像部(カメラ)が同時に露光する方向と垂直な方向に一様な画像として構成される複数の1次元バーコードを、それぞれフレーム1(7031a)、フレーム2(7031b)およびフレーム3(7031c)として順に表示する。なお、1次元バーコードは、上記同時に露光する方向と垂直な方向に沿う線(バー)からなる。受信機は、送信機に表示される画像を、上記各実施の形態のように撮像することによって、フレーム1(7031d)およびフレーム2(7031e)を取得する。受信機は,1次元バーコードのバーが途切れている部分で1次元バーコードを分割することで、連続的に表示された1次元バーコードを順に認識することができる。この場合、送信機による表示と受信機による撮像のタイミングを同期させる必要はなく、受信機は送信機で表示された内容を全て認識することができる。また、送信機による表示のフレームレートは、受信機による撮像のフレームレートより速くても良い。ただし,送信機による表示の1フレームの表示時間が、受信機によって撮像されるフレーム間のブランキング時間より長い必要がある。
 図263は、実施の形態12における送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図262に示す表示を行なう送信機が備える表示装置の処理動作を示す。
 表示装置は、1次元バーコードを表示する(7127a)。表示装置は、受信機の撮像のブランキング時間より長い間隔で、バーコード表示を変化させる(7127b)。
 図264は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図262に示す撮影を行なう受信機の処理動作を示す。
 受信機は、表示装置に表示された1次元バーコードを撮影する(7128a)。バーコードのラインが途切れたところで、表示装置が次のバーコードを表示したと認識する(7128b)。この方法により、表示と撮像の同期を行わなくとも全ての表示内容を受信機が受信することができる。また、受信機の撮像フレームレートよりも速いフレームレートで表示された信号も受信可能となる。
 図265は、実施の形態12における受信機と送信機の適用例を示す図である。
 例えば照明機器である送信機7032aは、送信機7032aの暗号化された識別情報(ID)を送信する。例えばスマートフォンとして構成される受信機7032bは、その暗号化されたIDを受信すると、その暗号化されたIDをサーバ7032cに送信する。サーバ7032cはその暗号化されたIDを受信すると、その暗号化されたIDを復号する。または、受信機7032bは、その暗号化されたIDを受信すると、その暗号化されたIDを復号してサーバ7032cに送信する。
 図266は、実施の形態12における受信機7032bと送信機7032aの処理動作の一例を示すフローチャートである。
 送信機7032aは、一部または全部が暗号化された情報を保持する(7129a)。受信機7032bは、送信機7032aから送信されたその情報を受信し、受信した情報を復号する(7129b)。または、受信機7032bは、暗号化されたままの情報をサーバ7032cへ送信する。暗号化されたままの情報が送信された場合、サーバ7032cは、その暗号化されたままの情報を復号する(7129c)。
 図267は、実施の形態12における受信機の状態を示す図である。
 ユーザは、電話するために、例えばスマートフォンとして構成される受信機7033aを耳に当てる。このとき、受信機7033aのスピーカ付近に備えられた照度センサは、低い照度を示す照度値を検出する。その結果、受信機7033aは、受信機7033aの状態を通話中と推定し、送信機からの情報の受信を停止する。
 図268は、実施の形態12における受信機7033aの処理動作の一例を示すフローチャートである。
 受信機7033aは、照度センサのセンサ値などから、通話中と推定されるか判断する(7130a)。その判断結果が真(Y)の場合、受信機7033aは、フェイスカメラによる受信を終了する(7130b)。または、受信機7033aは、フェイスカメラによる受信処理の優先度を下げる。
 図269は、実施の形態12における受信機の状態を示す図である。
 例えばスマートフォンとして構成される受信機7034aは、送信機からの情報を受信(撮像)するための撮像装置であるカメラ(例えばフェイスカメラ)付近に照度センサ7034bを備えている。この照度センサ7034bによって、一定値以下の低い照度を示す照度値が検出されると、受信機7034aは、送信機からの情報の受信を中止する。または、受信機7034aが他のカメラを備えている場合には、その照度センサ7034b付近のカメラ(例えばフェイスカメラ)の優先度を他のカメラよりも下げる。
 図270は、実施の形態12における受信機7034a処理動作の一例を示すフローチャートである。
 受信機7034aは、照度センサ7034bのセンサ値が一定値以下か判断する(7131a)。その判断結果が真(Y)の場合、受信機7034aは、フェイスカメラによる受信を終了する(7131b)。または、受信機7034aは、フェイスカメラによる受信処理の優先度を下げる。
 図271は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。
 受信機は、照度センサのセンサ値から、照度変化を計測する(7132a)。撮像装置(カメラ)で輝度変化を計測して信号を受信したように、受信機は、照度値の変化から信号を受信する(7132b)。撮像装置よりも照度センサのほうが安価であるため、受信機を安価に製造可能である。
 図272は、実施の形態12における送信機の波長の一例を示す図である。
 送信機は、図272の(a)および(b)に示すように、メタメリックな光7037a,7037bを出力することによって、受信機に送信する情報を表現する。
 図273は、実施の形態12における受信機と送信機の処理動作の一例を示すフローチャートである。なお、このフローチャートは、図272に示す波長の光を出力する送信機と受信機の処理動作を示す。
 送信機は、人間には等色と認識されるが分光分布の異なる光(メタメリックな光)で異なる信号を表現し、発光部を発光させる(7135a)。受信機は、分光分布を計測し、信号を受信する(7135b)。この方式によれば、チラツキを気にすることなく信号を送信することが可能となる。
 図274は、実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。
 このシステムは、ID解決サーバ7038a、中継サーバ7038b、受信機7038c、送信機7038dおよび送信機側制御装置7038eを備えている。
 図275は、実施の形態12におけるシステムの処理動作の一例を示すフローチャートである。
 ID解決サーバ7038aは、送信機7038dのIDと、送信機側制御装置7038eと受信機7038cが通信する方法を関連付けて記憶する(7136a)。受信機7038cは、送信機7038dのIDを受信し、送信機側制御装置7038eとの通信方法をID解決サーバ7038aから取得する(7136b)。受信機7038cは、受信機7038cと送信側制御装置7038eが直接通信可能か判断する(7136c)。その判断結果が偽(N)の場合、受信機7038cは、中継サーバ7038bを介して送信側制御装置7038eと通信する(7136d)。一方、その判断結果が真(Y)の場合、受信機7038cは、送信側制御装置7038eと直接通信する(7136e)。
 図276は、実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。
 このシステムは、サーバ7039g、店舗側機器7039aおよび携帯機器7039bを備えている。店舗側機器7039aは送信機7039cと撮像部7039dとを備える。携帯機器7039bは受信機7039eと表示部7039fとを備える。
 図277は、実施の形態12におけるシステムの処理動作の一例を示すフローチャートである。
 携帯機器7039bは、表示部7039fに2次元バーコード等の形で情報を表示する(7137a)。店舗側機器7039aは、表示部7039fに表示された内容を撮像部7039dで撮像し、情報を取得する(7137b)。店舗側機器7039aは、何らかの情報を送信機7039cから送信する(7137c)。
 携帯機器7039bは、送信された情報を受信機7039eで受信する(7137d)。携帯機器7039bは、受信した情報を基に、表示部7039fの表示内容を変化させる(7137e)。表示部7039fに表示する内容は、携帯機器7039bが決定しても良いし、受信した内容を基にサーバ7039gが決定しても良い。
 店舗側機器7039aは、表示部7039fに表示された内容を撮像部7039dで撮像し、情報を取得する(7137f)。店舗側機器7039aは、取得した情報と、送信した情報との整合性を判断する(7137g)。この判断は、店舗側機器7039aが行なっても良いし、サーバ7039gが行なっても良い。整合している場合、正常に取引が完了する(7137h)。
 この方法により、表示部7039fに表示するクーポン情報をコピーし、不正に使用することを防ぐことができる。また、この方法で暗号鍵交換を行うことも可能である。
 図278は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。
 受信機は、受信処理を開始する(7138a)。受信機は、撮像装置の露光時間を設定する(7138b)。受信機は、撮像装置のゲインを設定する(7138c)。受信機は、撮像画像の輝度から情報を受信する(7138d)。
 図279は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。
 露光時間を設定する(7139a)。露光時間を変化させるAPI(Application Program Interface)が存在するか判断する(7139b)。その判断結果が偽(N)の場合、光源など輝度が高い物体に撮像装置を向ける(7139c)。自動露光設定を行う(7139d)。自動露光設定値の変化が十分小さくなれば露光設定値を固定する(7139e)。
 一方、上記判断結果が真(Y)の場合、APIを利用して露光時間の設定を開始する(7139f)。
 図280は、実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。
 このシステムは、サーバ7036a、受信機7036b、および、少なくとも1つの送信機7036cを備える。受信機7036bは、受信機7036bの付近に存在する少なくとも1つの送信機7036cに関する情報をサーバから取得する。
 図281は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。
 受信機7036bは、GPSや基地局などの情報から、自己位置推定を行う(7133a)。受信機7036bは、推定した自己位置と、推定誤差範囲をサーバ7036aに送信する(7133b)。受信機7036bは、受信機7036bの位置付近に存在する送信機7036cのIDと、そのIDに関連付けられた情報をサーバ7036aから取得し、記憶する(7133c)。受信機7036bは、送信機7036cからIDを受信する(7133d)。
 受信機7036bは、受信したIDに関連付けられた情報を記憶しているか判断する(7133e)。その判断結果が偽(N)の場合、受信機7036bは、受信したIDをキーにサーバ7036aから情報を取得する(7133f)。受信機7036bは、サーバ7036aから受信した情報と、送信機7036bcの位置関係とから自己位置推定を行い、付近の他の送信機7036cのIDと、そのIDに関連付けられた情報をサーバ7036aから取得し、記憶する(7133g)。
 上記ステップ7133eで真(Y)と判断された後、または、上記ステップ7133gが行なわれた後には、受信機7036bは、受信したIDに関連付けられた情報を表示する(7133h)。
 図282は、実施の形態12における受信機と送信機の適用例を示す図である。
 建造物a(7040a)には、例えば照明機器として構成される送信機7040cおよび7040dが配設され、建造物b(7040b)には、例えば照明機器として構成される送信機7040eおよび7040fが配設されている。送信機7040cおよび7040eは信号Aを送信し、送信機7040dおよび7040fは信号Bを送信する。例えばスマートフォンとして構成される受信機(端末)7040gは、何れかの送信機から送信される信号を受信する。
 図283は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。
 受信機7040gは、建造物に入ったことを検出する(7134a)。受信機7040gは、推定した自己位置と、推定誤差範囲と、受信機7040gが存在すると推定する建造物の名称等とをサーバに送信する(7134b)。受信機7040gは、受信機7040gが存在する建造物中に存在する送信機のIDと、そのIDに関連付けられた情報をサーバから取得し、記憶する(7134c)。受信機7040gは、送信機からIDを受信する(7134d)。
 受信機7040gは、受信したIDに関連付けられた情報を記憶しているか判断する(7134e)。その判断結果が偽(N)の場合、受信機7040gは、受信したIDをキーにサーバから情報を取得する(7134f)。受信機7040gは、IDを受信した送信機が存在する建造物と同一の建造物内に存在する他の送信機のIDと、そのIDに関連付けられた情報をサーバから取得し、記憶する(7134g)。
 上記ステップ7134eで真(Y)と判断された後、または、ステップS7134gが行なわれた後には、受信機7040gは、受信したIDに関連付けられた情報を表示する(7134h)。
 図284は、実施の形態12における受信機と送信機を含むシステムの構成例を示す図である。
 例えば照明機器として構成される送信機7041aは信号Aを送信し、送信機7041bは信号Bを送信し、送信機7041cは信号Cを送信し、送信機7041dは信号Bを送信する。例えばスマートフォンとして構成される受信機(端末)7041eは、何れかの送信機から送信される信号を受信する。ここで、GPSや基地局などの情報(他手段)に基づいて推定される受信機7041eの自己位置の誤差範囲には、送信機7041a,7041b,7041cがある。
 図285は、実施の形態12におけるシステムの処理動作の一例を示すフローチャートである。
 受信機7041eは、送信機からIDを受信する(7140a)。受信機7041eは、自己位置推定を行う(7140b)。受信機7041eは自己位置推定に成功したか判断する(7140c)。その判断結果が偽(N)の場合、受信機7041eは、地図や入力フォームを表示し、ユーザに現在位置を入力させる(7140d)。
 受信機7041eは、受信したIDと、推定した自己位置と、自己位置推定の誤差範囲とをサーバに送信する(7140e)。
 サーバは、受信機7041eの推定自己位置から推定誤差範囲(推定誤差半径)以内に、受信機7041eが受信したIDを送信する送信機がひとつだけ存在するか判断する(7140f)。その判断結果が偽(N)の場合、受信機7041eはステップ7140dからの処理を繰り返し実行する。一方、その判断結果が真(Y)の場合には、サーバは、その送信機に関連付けられた情報を受信機7041eに送信する(7140g)。
 図286は、実施の形態12における受信機の処理動作の一例を示すフローチャートである。
 まず、受信機は、信号を発している発光装置(送信機)を検出し(7141a)、信号を受信する(7141b)。そして、受信機は、受信状況、受信済みデータ量、送信データ量、送信データ量に対する受信済みデータ量の割合を表示する(7141c)。
 次に、受信機は、送信データを全て受信したかどうかを確認する(7141d)。受信したことを確認した場合(7141dのY)、受信機は、受信処理を中止し(7141e)、受信完了の表示を行う(7141f)。さらに、受信機は通知音を鳴らし(7141g)、バイブレーションを行なう(7141h)。
 ステップ7141dで、受信していないことを確認した場合(7141dのN)、受信機は、受信機の撮像装置(カメラ)によって得られる映像において送信機がフレームアウトしてから一定時間経過したかどうかを確認する(7141i)。ここで、一定時間経過したことを確認した場合(7141iのY)、受信機は、受信済データを破棄して受信処理を停止する(7141m)。さらに、受信機は、通知音を鳴らし(7141n)、バイブレーションを行なう(7141p)。
 ステップ7141iで、一定時間経過していないことを確認した場合(7141iのN)、受信機は、受信機の加速度センサによって得られるセンサ値が一定値以上の大きさで変化したか、または、受信機を別方向へ向けたと推定できるかどうかを確認する(7141j)。ここで、一定値以上の大きさで変化した、または、別方向へ向けたと推定できることを確認すると(7141iのY)、上述のステップ7141m以降の処理を行なう。
 一方、一定値以上の大きさで変化していない、または、別方向へ向けたと推定できないことを確認すると(7141iのN)、受信機は、受信機の加速度センサのセンサ値が一定のリズムで変化したか、または、受信機がシェイクされていると推定できるかどうかを確認する(7141k)。ここで、一定のリズムで変化した、または、シェイクされていると推定できることを確認すると、受信機は、上述のステップ7141m以降の処理を行なう。一方、一定のリズムで変化していない、または、シェイクされていると推定できないことを確認すると(7141kのN)、受信機は、ステップ7141bからの処理を繰り返し実行する。
 図287Aは、実施の形態12における送信機の構成の一例を示す図である。
 送信機7046aは、発光部7046bと2次元バーコード7046cとNFCチップ7046dとを備える。発光部7046bは、2次元バーコード7046cおよびNFCチップ7046dの少なくとも一方と共通の情報を、上記各実施の形態の方法で送信する。または、発光部7046bは、2次元バーコード7046cおよびNFCチップ7046dの少なくとも一方と異なる情報を、上記各実施の形態の方法で送信してもよい。この場合、受信機は、発光部7046bから送信される情報の内容をキーとして、2次元バーコード7046cおよびNFCチップ7046dの少なくとも一方と共通の情報をサーバから取得してもよい。また、受信機は、発光部7046bから情報を受信する場合と、2次元バーコード7046cおよびNFCチップ7046dの少なくとも一方から情報を受信する場合とで、共通の処理を行なってもよい。上述のどちらの場合でも、受信機は、共通のサーバにアクセスして共通の情報を表示する。
 図287Bは、実施の形態12における送信機の構成の他の例を示す図である。
 送信機7046eは、発光部7046fを備え、その発光部7046fに2次元バーコード7046gを表示させる。つまり、この発光部7046fは、図287Aに示す発光部7046bおよび2次元バーコード7046cのそれぞれの機能を兼ね備える。
 ここで、発光部7046b,7046fは、発光部7046b,7046fの大きさを示す情報を送信することで、受信機から送信機7046a,7046eまでの距離を受信機に推定させてもよい。これにより、受信機は2次元バーコード7046c,7046gをより簡単に、または鮮明に撮影することができる。
 図288は、実施の形態12における受信機と送信機7046a,7046eの処理動作の一例を示すフローチャートである。なお、以下、送信機7046aおよび送信機7046eのうち、送信機7046aを例にあげて説明するが、送信機7046eの処理動作も送信機7046aの処理動作と同じである。
 送信機7046aは、発光部7046bの大きさを示す情報を送信する(ステップ7142a)。なお、発光部7046bにおける任意の2点間の距離の最大値を、発光部7046bの大きさとする。なお、この一連の処理は速度が重要であるため、送信機7046aは、送信機7046aの発光部7046bの大きさを示す情報を直接送信し、受信機はサーバ通信を介さずに、この大きさを示す情報を取得することが望ましい。また、送信機7046aの明暗変化の周波数など、素早く受信できる方法で送信することが望ましい。
 次に、受信機は、上述の情報である信号を受信し、送信機7046aの発光部7046bの大きさを取得する(ステップ7142b)。そして、受信機は、発光部7046bの大きさと、撮像された発光部7046bの画像の大きさと、受信機の撮像部(カメラ)の特性とに基づいて、受信機から発光部7046bまでの距離を計算する(ステップ7142c)。次に、受信機は、計算した距離に撮像部の焦点距離をあわせて撮影する(ステップ7142d)。受信機は、2次元バーコードを撮影した場合はその内容を取得する(ステップ7142e)。
 (実施の形態13)
 本実施の形態では、上記実施の形態1~12におけるスマートフォンなどの受信機と、LEDや有機ELの点滅パターンとして情報を送信する送信機とを用いた各適用例について説明する。
 図289は、実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。
 ステップ7201aで、送信機は、特定の周波数の音、または、特定のパターンで変化する音を発する(この周波数は、例えば2kHzから20kHzなど、人間には聞き取りづらく、一般的な集音器で集音可能な周波数の音であることが望ましい。また、一般的な集音器はサンプリング周波数が44.1kHz程度であるため、サンプリング定理により、その半分の周波数までしか正確には認識できないが、送信信号がわかっていれば、その信号を集音しているかどうかを高精度で推定することは可能である。そこで、この性質を利用して、20kHz以上の周波数の信号を利用しても良い。)。
 ステップ7201bで、ユーザは、受信機のボタンを押し、電源OFF状態やスリープ状態から電源オン状態にする。ステップ7201cで、受信機は、集音部を起動する。ステップ7201dで、受信機は、送信機の発する音を集音する。ステップ7201eで、受信機は、近辺に送信機が存在することを、画面に表示したり、音を鳴らしたり、バイブレーションさせることで、ユーザに通知する。ステップ7201fで、受信機は、受信を開始して、終了する。
 図290は、実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。
 ステップ7202aで、ユーザは、受信機のボタンを押し、電源OFF状態やスリープ状態から電源オン状態にする。ステップ7202bで、受信機は、照度センサを起動する。ステップ7202cで、受信機は、照度センサから、照度の変化を認識する。ステップ7202dで、受信機は、照度センサから、送信信号を受信する。ステップ7202eで、受信機は、近辺に送信機が存在することを、画面に表示したり、音を鳴らしたり、バイブレーションさせることで、ユーザに通知する。ステップ7202fで、受信機は、受信を開始して、終了する。
 図291は、実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。
 ステップ7203aで、ユーザが、受信機を操作して、受信を開始させる。または、何らかのトリガで受信機が自動的に受信を開始する。ステップ7203bで、画面全体の平均輝度、または、輝度最大点の輝度が、明るい撮像部を優先的に受信させて、終了する。
 図292は、実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。
 ステップ7204aで、撮像部は、同時撮像ラインまたは画素中に送信機が写っていない同時撮像ラインまたは画素の撮像は行わないことで、送信機が写っている同時撮像ラインまたは画素を高速に撮影する。ステップ7204bで、受信機は、ジャイロや加速度センサで受信機の動きや手振れを検出し、電子補正によって、常に送信機が映るように調整して、終了する。
 図293は、実施の形態13における受信機と送信機に関する処理動作の一例を示すフローチャートである。
 ステップ7205aで、受信機は、2次元バーコードAを表示する。ステップ7205bで、送信機は、2次元バーコードAを読み取る。ステップ7205cで、送信機は、表示変更命令を送信する。ステップ7205dで、受信機は、2次元バーコードBを表示する。ステップ7205eで、送信機は、2次元バーコードBを読み取り、終了する。
 図294は、実施の形態13における送信機の適用例を示す図である。
 送信機7211aは、送信機であることを示すマーク7211bを備える。人間は、送信信号と通常の光を区別することはできないが、これにより、7211aが送信機であることを認識することができる。同様に、送信機7211cは、送信機であることを示すマーク7211dを備える。同様に、送信機7211eは、信号を送信している間のみ、送信機であることを示すマーク7211fを表示する。
 図295は、実施の形態13における送信機の適用例を示す図である。
 テレビなどの送信機7212aは、バックライトや画面7212bの輝度を変化させて、信号を送信する。テレビなどの送信機7212cは、画面以外の部分、例えばベゼル7212dやロゴマークなどの輝度を変化させて信号を送信する。
 図296は、実施の形態13における送信機の適用例を示す図である。
 テレビなどの送信機7213aは、画面7213bに、緊急ニュースや字幕やオンスクリーンディスプレイ7213cを表示する際に、信号を送信する。また、7213cは、暗い色の文字に明るい色の背景とし、画面の横方向に大きく表示することで、受信機が信号を受信しやすくすることができる。
 図297は、実施の形態13における送信機と受信機の適用例を示す図である。
 ユーザが、受信機またはテレビなどのリモコン7214aの操作を行ったときに、7214aから送信機7214bに開始信号を送信し、送信機7214bは、開始信号を受け取った後の一定時間信号を送信する。送信機7214bは、送信中であることを示す表示7214cを表示する。これにより、テレビ本来の表示が暗い場合でも、受信機が信号を受信しやすくなる。表示7214cは、明るい部分が多く、横に広いほど、受信機が信号を受信しやすくなる。
 なお、送信機7214bは、テレビの映像を表示する領域とは別に、信号送信のための領域7214cを備えても良い。なお、送信機7214bは、ユーザの動きやリモコン7214aの動きをカメラ7214dやマイク7214eで認識し、信号送信を開始しても良い。
 図298は、実施の形態13における送信機と受信機の適用例を示す図である。
 送信機7215a、7215bは、送信機のID番号を送信する。送信機のIDは、完全にユニークなものであっても良いし、地域内や建物内や部屋内でユニークなIDであっても良い。後者の場合は、数10m以内に同一IDが存在しないようにすることが望ましい。受信機7215cは、受信したIDをサーバ7215dへ送信する。サーバへは、GPSなどの位置センサで認識した7215cの位置情報や、7215cの端末IDやユーザIDやセッションIDなどを同時に送信するとしても良い。
 データベース7215eは、送信機が送信するIDと関連付けて、別のIDや、送信機の位置情報(緯度、経度、高度、部屋番号)や、送信機の型番や形や大きさや、文字や画像や映像や音楽などのコンテンツや、受信機に実行させる命令やプログラムや、他のサーバのURLや、送信機の所有者情報や、IDの登録日や有効期限などを保持する。
 サーバ7215dは、受信したIDに関連付けられた情報をデータベースから読み出し、受信機7215cに送信する。受信機7215cは、受信した情報を表示したり、受信した情報をもとに別のサーバにアクセスしたり、受信した命令を実行したりといった処理を行う。
 図299は、実施の形態13における送信機と受信機の適用例を示す図である。
 図298の場合と同様に、送信機7216a,7216bは、送信機のID1を送信する。受信機7216cは、 受信したID1をサーバA7216dへ送信する。サーバAは、ID1に関連付けられた、ID2と別のサーバBにアクセスするための情報(URLやパスワードなど)を送信する。受信機7216cは、ID2をサーバB7216fへ送信する。サーバB7216fは、ID2に関連付けられた情報を受信機7216cへ送信したり、ID2に関連付けられた処理を行う。
 図300は、実施の形態13における送信機と受信機の適用例を示す図である。
 図298の場合と同様に、送信機7217a,7217bは、送信機のID1を送信する。受信機7217cは、受信したID1をサーバA7217dへ送信する。サーバAは、ID1に関連付けられた情報と、ランダムに生成した鍵情報をサーバBに送信する。鍵情報は、サーバBが生成し、サーバAに送信するとしても良い。サーバAは、受信機に、鍵情報と、サーバBへアクセスするための情報(URLやパスワードなど)を送信する。受信機7217cは、鍵情報をサーバB7217fへ送信する。サーバB7217fは、ID2に関連付けられた情報を受信機7217cへ送信し、ID2に関連付けられた処理を行う。
 図301Aは、実施の形態13における送信信号の例を示す図である。
 信号は、ヘッダ部7218a、データ部7218b、パディング部7218c、End of Data部7218eで構成される。信号は、同じデータを1/15秒間繰り返して送信する。これにより、信号の1部だけ受信した場合でも、信号を復号することができる。受信機は、受信した信号からヘッダ部を抽出し、2つのヘッダ部の間の部分をデータ部としてデータを復号する。1フレームのデータ部を短くすれば、受信機の撮像部に送信機が小さく写っている場合でも復号が可能になり、データ部を長くすれば、通信速度を速くすることができる。同じデータが1/15秒繰り返されることで、1秒間に30フレーム撮影する受信機では、ブランキングがあっても確実にデータ部の信号を撮像することができる。また、隣接するどちらかのフレームでは同じ信号を受信するため、受信結果の確認に用いることができる。また、他のアプリケーションの動作によって連続しないフレームの処理がされなかった場合や、1秒間に15フレームしか撮影できない受信機であっても、信号を受信することができる。また、ヘッダ部に近いほどデータを受信しやすいため、ヘッダ部に近い部分に重要度の高いデータを配置するとしても良い。
 図301Bは、実施の形態13における送信信号の他の例を示す図である。
 信号は、図301Aの例と同様に、ヘッダ部7218a、データ部7218b、パディング部7218c、End of Data部7218eで構成される。信号は、同じデータを1/30秒間繰り返して送信する。これにより、信号の1部だけ受信した場合でも、信号を復号することができる。データ部を短くすれば、受信機の撮像部に送信機が小さく写っている場合でも復号が可能になり、データ部を長くすれば、通信速度を速くすることができる。同じデータが1/30秒繰り返されることで、1秒間に30フレーム撮影する受信機では、ブランキングがあっても確実にデータ部の信号を撮像することができる。また、隣接するどちらかのフレームでは同じ信号を受信するため、受信結果の確認に用いることができる。また、ヘッダ部に近いほどデータを受信しやすいため、ヘッダ部に近い部分に重要度の高いデータを配置するとしても良い。
 図302は、実施の形態13における送信信号の例を示す図である。
 2ビットの信号を5ビットの信号に変調する7219aの変調方式は、2ビットの信号を4ビットの信号に変調する2200.2aなどの変調方式よりも変調効率が劣るが、データ部分と同じ形式でヘッダパターンを表現できるため、異なる形式のヘッダパターンを挿入するよりもちらつきを抑えることができる。End of Dataは、データ部にヘッダを用いることで表現しても良い。
 図303Aは、実施の形態13における送信信号の例を示す図である。
 信号は、データ部7220a、バッファ部7220b、End of Data部7220dで構成される。バッファ部はなくても良い。信号は、同じデータを1/15秒間繰り返して送信する。発光周波数によって信号を伝送するFM変調などを用いる場合は、7218aのようなヘッダは不要となる。
 図303Bは、実施の形態13における送信信号の他の例を示す図である。
 信号は、図303Aの例と同様に、データ部7220a、バッファ部7220b、End of Data部7220dで構成される。バッファ部はなくても良い。信号は、同じデータを1/30秒間繰り返して送信する。発光周波数によって信号を伝送するFM変調などを用いる場合は、7218aのようなヘッダは不要となる。
 図304は、実施の形態13における送信信号の例を示す図である。
 周波数によって信号を割り当てる。受信機は信号の周期から周波数を求めるため、周波数を等間隔に信号に割り当てるよりも、周波数の逆数や対数が等間隔になるように信号を割り当てるほうが、受信エラーを低減できる。受信機の撮像部で、データ1とデータ2を送信している光を一つの画面内に撮像した場合は、露光ラインに垂直な方向に輝度値をフーリエ変換すると、データ1とデータ2の周波数に、一つのデータを送信している光を撮像した場合よりも弱いピークが現れる。
 この方法によれば、一つの画面内に複数の周波数で順次送信している光を撮像した場合でも、送信周波数を解析することができ、1/15秒や、1/30秒より短い時間で送信信号の周波数を変更しても、受信することができる。
 送信信号の順序を認識するためには、1画面よりも短い範囲でフーリエ変換を行えば良い。また、撮像した画面を連結して、1画面より長い範囲でフーリエ変換を行なっても良い。この場合は、撮像のブランキング時間の輝度値は不明として扱うと良い。
 図305Aおよび図305Bは、実施の形態13における送信信号の例を示す図である。
 送信信号の周波数が200Hz以下である場合、人間には点滅して感じられるが、それ以上の周波数であれば、連続して光っているように感じられる。カメラでは、500Hz(条件によっては1kHz)程度までの周波数では点滅が撮影される。そのため、信号周波数(搬送波の周波数)は1kHz以上であることが望ましい。カメラにちらつきが撮影されることによる影響が低い場合は、信号周波数は200Hz以上としても良い。照明装置の高調波ノイズは20kHz以上でおおきくなるため、これを避ける場合は、信号周波数は20kHz以下とすれば良い。また、500Hzから3kHzの範囲では、コイルの振動による音が発生するため、信号周波数を3kHz以上とするか、コイルを固定化するなどの対策を行う必要がある。信号周波数を1kHz(1ミリ秒周期)としたとき、非同期でこの信号を認識するためには、撮像装置の露光時間を半分の0.5ミリ秒(=1/2000秒)以下とする必要がある。信号の変調方式に周波数変調を用いる場合は、サンプリング定理により、同様に、撮像装置の露光時間は信号周期の半分以下とする必要がある。ただし、図304のように、周波数そのもので値を表現する変調方式の場合は、複数の時点での信号の値から周波数を推定できるため、撮像装置の露光時間は信号周期の4倍程度以下で良い。
 図306は、実施の形態13における送信機の適用例を示す図である。
 照明などの送信機7223aは、IDを送信する。パソコンなどの受信機7223bはIDを受信し、サーバ7223dへIDとファイル7223eを送信する。サーバ7223dは、ファイル7223eとIDを関連付けて記憶し、同一のIDを送信してきたパソコンに対して、ファイルへのアクセス許可を行う。この際、読み取りのみの許可や、読み書きの許可など、IDによって複数のアクセスコントロールを行なっても良い。パソコンなどの受信機7223cはIDを受信し、サーバ7223dへIDを送信し、サーバ上のファイル7223eへアクセスする。サーバ7223dは、ファイルへ最後にアクセスがあってから一定時間経過した場合や、パソコン7223bが異なるIDを送信してきた場合に、ファイルを削除、または、アクセスコントロールを初期化する。なお、パソコン7223bまたはパソコン7223cがIDを送信するとしても良い。
 図307は、実施の形態13における送信機の適用例を示す図である。
 送信機7224bは、自身のID情報をサーバ7224dに登録する。受信機7224aは、クーポンや入場チケットや会員情報やプリペイド情報を画面に表示する。送信機7224bは、IDを送信する。受信機7224aは、IDを受信し、受信したIDと、ユーザIDと、端末IDと、画面に表示している情報をサーバ7224dへ送信する。サーバ7224dは、受信機7224aが表示している内容が有効であることを確認し、その結果を表示装置7224cへ送信する。なお、サーバ7224dが時間によって変化する鍵情報を送信機7224bへ送信し、送信機7224bはその鍵情報を送信しても良い。なお、サーバ7224dは、送信機7224bや表示装置7224cと同一の装置として実装しても良い。受信機7224aは、クーポンや入場チケットや会員情報やプリペイド情報を2次元バーコードなどの形式で画面に表示し、それを読み取る方式では、画面をコピーした画像を表示することで容易に偽装できるが、この方式を用いることで、画面をコピーすることによる偽装を防ぐことができる。
 図308~図310は、実施の形態13における撮像素子を説明するための図である。
 図308は、本発明の撮像素子800の前面図を示す。前の実施例の図を用いて説明したように、本発明の光通信速度を向上させるためには、図310のように、光信号発生部830をトラッキングさせながら、その領域の830aの走査ライン、例えば、n=4~n=7の間のラインのデータのみを垂直アクセス手段802に走査ライン選択信号を送り、反復スキャンし、取得すれば、図310の下段の図のように連続的に本発明の光信号を取り出すことができる。具体的には4、5、6、7 そしてブランク期間、4、5、6、7 ブランク期間との連続的な信号が得られる。現在の撮像素子の工程ではこのブランキングは2μs以下に収めることができる。2μs以下にすれば、30fpsで1フレーム33ms、1000ラインで33μs/ラインであるので、データをほぼ連続的にデータを復調できる。
 本発明では、ローリングシャッター方式の撮像素子(イメージセンサ)において、まずシャッタ速度を速くして、本発明のラインを表示させた後、信号を得るが、この後、光源の画像830はカメラの撮影者の手振れにより、上下左右に移動する。するとラインn=4~7の中から画像830が一部でてしまう。信号が途切れてエラーが発生する。このため、まず、手振れ補正検出補正手段832を用いて補正すると画像830が固定される。もしくは/かつ、画像830の位置のラインNoを検出する手段834を用いて、画像830のライン番号nを特定し、ライン選択部835により、垂直アクセス手段を制御して、所望のラインn(例えば、n=7~10)に変更すれば、画像830が得られ、連続的な信号が得られるため、エラーの少ないデータとなり、高速データ受信が可能となる。
 図308に戻り、撮像素子800を説明すると、水平の画素はa~kまであり、水平アクセス手段801により、アクセス可能となっている。垂直方向の画素は、n=1からn=12まで12列あり、803a~803nまで列毎に読み出され、読み出し時にラインメモリ805に読み出されて、出力部808から出力される。
 図309の示すように、本発明では、まず、通常撮影モードでは、(a)に示すように順次読み出されていく。通常のフレームとフレームの間には、ブランク期間821が設けてあり、この間に色等の映像信号に関する様々な調整作業が行なわれる。
 撮像素子により異なるが、5%~20%の時間帯は信号の信号を得ることができない。本発明特有の受信パターンが得られないため、ステップ820cにおいてデータ信号受信モードになった場合、まずシャッタ速度を高速にして、ゲインを上げてデータを受信する。Yesの場合、前記の色や明るさや感度などの映像撮影作業の一部を中止することにより、ブランク期間821を短縮したブランク期間821aとする。このことにより、調整作業を省略する短縮により、現在の工程で2μs以下にブランク期間821aを下げることができるため、入力信号のバーストエラーを大巾に少なくすることができるため、伝送速度を大きく上げることができる。
 次に、図310のように画像の一部しか映像830が撮影されない時、n=4~8以外のラインの情報が得られないため、大きなバーストエラーとなり、受信効率が低下し、伝送量が大巾に低下する。
 図310の画像位置検出手段834により画像830の位置と大きさを検出し、画像が小さい場合は、ステップ820dで高速読みとりモードに切り替えて、画像830を撮影しているライン(n=4~7)のみをスキャンする。(c)のようにライン信号803d、803e、803f、803gが何回も繰り返し読みとられ、本発明特有のパターンがシームレスに読みとられる。このため、バーストエラーの殆んどない連続的なデータ受信となり、大巾なデータレートの向上が可能となる。
 具体的には現在の撮像素子で搬送波を4.8KHzとすると2400bps程度の伝送レートが得られる。将来的には撮像素子の高速化に伴ない、数十kbpsの伝送レートが得られる。
 なお、ステップ820eでデータの読みとりが完了すると、シャッタ速度を低速化させ、ブランク期間を長くして(a)の通常撮影モードに戻る。
 上記のブランク期間の短縮と特定ラインの繰り返し読み出しにより、同期信号やアドレスの読み出しが確実になり、本発明のパターン伝送方式の伝送速度を大巾に上げることができる。
 (変形例)
 ここで、上記各実施の形態についての変形例または補足について説明する。
 図311Aは、受信装置(撮像装置)の処理動作を示すフローチャートである。なお、この図311Aは、図128の処理動作よりも詳細な処理動作を示す。
 ここで、受信機の撮像部は、すべての受光素子を同時に露光させる方式(グローバルシャッター方式)ではなく、時間差をおいて受光素子の一部分ずつを順次露光させる方式(ローリングシャッター方式、フォーカルプレーンシャッター方式)を用いる。なお、本発明の解説で用いる「露光」とは、物理的なシャッターによって撮像素子に光があたる時間を制御する露光方式と、電子シャッターによって特定の時間内の撮像素子の出力のみを取り出す露光方式とを含む。
 まず、ステップ7340aで、撮像モードがグローバルシャッターモードである場合は、ローリングシャッターモードに変更する。次にステップ7340bでは、5ミリ秒以上の時間幅の移動平均輝度が変化せず、5ミリ秒以下の領域では輝度を変化させている被写体を写した時に輝線が撮影されるように、シャッター速度を設定する。
 ステップ7340cで、前記輝線の明るい部分と暗い部分の差が大きくなるように受光素子の感度を設定する。次にステップ7340dでは、撮像モードをマクロ撮像モードにする。または、送信機に焦点を合わせるよりも焦点距離を短く設定する。これにより、送信機がぼやけて大きく撮像されることで、輝線が撮像される露光ラインを増やすことができる。
 ステップ7340eで、露光ラインに垂直な方向に、輝線の輝度の変化を観察する。次にステップ7340fでは、前記輝度が他の場所よりも急に高くなっている箇所の間隔、あるいは、急に低くなっている箇所の間隔を求め、この間隔から送信信号を読み取る。または、輝度変化の周期を求め、その周期から送信信号を読み取る。
 図311Bは、通常撮像モードにより得られる画像と、マクロ撮像モードにより得られる画像とを対比して示す図である。この図311Bに示すように、発光する被写体をマクロ撮像モードで撮像することによって得られる画像7307bは、同じ被写体を通常撮像モードで撮像することによって得られる画像7307aよりも、明るい領域を多く含む。その結果、マクロ撮像モードでは、その被写体に対して輝線を生成することが可能な露光ラインの数を増やすことができる。
 図312は、映像などを表示する表示装置を示す図である。
 例えば液晶ディスプレイなどを備える表示装置7300aは、映像領域7300bに映像を表示し、情報表示領域7300cに各種情報を表示する。そして、表示装置7300aは、送信機(送信装置)として構成され、バックライトの輝度を変化させることで信号を送信する。
 図313は、表示装置7300aの処理動作の一例を示す図である。
 まず、ステップ7350aで、信号送信モードにする。次にステップ7350bでは、情報表示領域7300cのバックライトの輝度を変化させることで信号を送信する。
 図314は、表示装置7300aにおける信号を送信する部分の例を示す図である。
 表示装置7300aは、バックライトがオンになっている部分(7301d,7301f,7301g,7301i)の輝度を変化させることで信号を送信し、他の部分(7301c,7301e,7301h,7301j)からは信号を送信しない。
 図315は、表示装置7300aの処理動作の他の例を示す図である。
 まず、ステップ7351aで、信号送信モードにする。次にステップ7351bでは、動解像度の向上のために、画面切り替え時にバックライトをオフにする場合は、バックライトがオンになっている部分のみで信号を送信する。そして、ステップ7351cで、画面の全ての部分のバックライトがオフになっている間は、信号を送信しない。
 図316は、表示装置7300aにおける信号を送信する部分の他の例を示す図である。
 表示装置7300aは、各部分(7302b、7302e、7302g、7202j)の動解像度向上のためのバックライト制御をオフにして、これらの部分から信号を送信する。一方、表示装置7300aは、他の各部分(7302c,7302d,7302h,7301i)の動解像度向上のためのバックライト制御をオンにする。
 図317は、表示装置による処理動作のさらに他の例を示す図である。
 まず、ステップ7352aで、信号送信モードにする。次にステップ7352bでは、画面の一部(7302b、7302e、7302g、7202j)の動解像度向上のためのバックライト制御をオフにし、その部分から信号を送信する。
 そして、ステップ7352cで、信号を送信している部分の明るさと信号を送信していない部分のバックライトの平均輝度が同等となるように、バックライトの平均輝度を調整する。この調整は、信号送信時のバックライトの明滅時間の比の調整によって行なっても良いし、バックライトの最大輝度の調整によって行なっても良い。
 図318は、送信機および受信機を含む通信システムの構成を示す図である。
 この通信システムは、送信機7303a,7303bと、制御装置7303cと、ネットワーク7303dと、ID管理サーバ7303eと、無線アクセスポイント7303fと、受信機7303g,7303hとを備える。
 図319は、図318の通信システムの処理動作を示すフローチャートである。
 まず、ステップ7353aで、ID管理サーバ7303eに、送信機のIDと、無線アクセスポイント7303fの情報(SSID、パスワード、無線アクセスポイントのID、無線周波数、アクセスポイントの位置情報、接続可能な位置情報など)と、制御装置7303cの情報(IPアドレスなど)とを関連付けて記憶させる。次にステップ7353bで、送信機7303aまたは7303bは、送信機7303aまたは7303bのIDを送信する。なお、送信機7303aまたは7303bは、さらに、無線アクセスポイント7303fの情報と制御装置7303cの情報を送信しても良い。そして、ステップ7353cで、受信機7303gまたは7303hは、送信機7303aまたは7303bのIDを受信し、無線アクセスポイント7303fの情報と制御装置7303cの情報をID管理サーバ7303eから取得する。あるいは、受信機7303gまたは7303hは、送信機7303aまたは7303bのIDと無線アクセスポイント7303fの情報を受信する。
 次にステップ7353dで、送信機7303aまたは7303bは、無線アクセスポイント7303fに接続する。そして、ステップ7353eで、送信機7303aまたは7303bは、ネットワーク上のID管理サーバ7303eのアドレスと、そのID管理サーバ7303eへの命令と、送信機7303aまたは7303bのIDを、制御装置7303cへ送信する。
 さらに、ステップ7353fで、制御装置7303cは、受付IDを受信機7303gまたは7303hへ送信する。次にステップ7353gで、制御装置7303cは、ネットワーク上のID管理サーバ7303eへの命令を行い、レスポンスを得る。このとき、制御装置7303cは、プロキシサーバとして動作する。
 さらに、ステップ7353hで、制御装置7303cは、前記レスポンスと前記受付IDとを、送信機IDの示す送信機7303aまたは7303bから送信する。この送信は、受信機7303gまたは7303hから受信完了通知が送られるまで、または、一定時間が経過するまで繰り返しても良い。
 次にステップ7353iで、受信機7303gまたは7303hは、前記レスポンスを受信する。さらに、ステップ7353jで、受信機7303gまたは7303hは、前記受付IDを制御装置7303cへ送信し、受信完了を通知する。
 そして、ステップ7353kで、なお、受信機7303gまたは7303hは、送信機7303aまたは7303bの信号が受信できない位置にいる場合には、無線アクセスポイント7303fを経由してレスポンスを返すように制御装置7303cに通知しても良い。
 図320は、上記各実施の形態における信号伝送の変形例を示す図である。
 本発明の受信方式では、受信機の撮像部に送信機の発光部が大きく撮像されるほど信号伝送効率が高いため、小さな電球や高い天井に備え付けられた照明を送信機の発光部とすると信号伝送効率が悪い。そこで、送信機7313aの照明光を、壁や、天井や、床や、照明の傘などに当て、その反射光7313bを受信機7313cで撮像することで、信号伝送の効率を高めることができる。
 図321は、上記各実施の形態における信号伝送の変形例を示す図である。
 送信機7314dは展示品7314aに送信信号を含んだ照明光を投影し、その反射光7314bを受信機7314cで撮像することで、信号伝送を行う。
 図322は、上記各実施の形態における信号伝送の変形例を示す図である。
 送信機7315aが送信した信号を、照度センサを備えた受信機7315bで受信する。受信機7315bは、撮像素子ではなく照度センサを用いて信号を受信するため、消費電力が低く、常時信号を受信することに適しており、軽量で、安価に製造可能である。
 受信機7315bは、眼鏡や、イヤリングや、髪飾りや、腕時計や、補聴器や、ネックレスや、杖や、手押し車や、ショッピングカートの一部として構成される。受信機7315bは、受信した信号に従って、映像表示や、音声再生や、振動を行う。また、受信機7315bは、受信した信号を携帯情報端末7315cに無線または有線伝送路を通じて送信する。
 図323Aは、上記各実施の形態における信号伝送の変形例を示す図である。
 プロジェクタ7316aは投影光を送信信号として信号を送信する。受信機7316cは、スクリーン7316bからの反射光を撮像して信号を受信する。受信機7316cは、プロジェクタ7316aが投影しているコンテンツとその付帯情報を画面7316dに表示する。画面7316dに表示するコンテンツは、送信信号として伝送されても良いし、送信信号に含まれるIDをもとにサーバ7316eから取得しても良い。
 図323Bは、上記各実施の形態における信号伝送の変形例を示す図である。
 受信機7317bは送信機7317aから送信された信号を受信する。受信機7317bは、受信機7317bに登録されているイヤホンまたは補聴器7317cへ音声を送信する。受信機7317bに登録されたユーザプロファイルに視覚障碍が含まれている場合には、受信機7317bは、視覚障碍者用の解説音声をイヤホン7317cに送信する。
 図323Cは、上記各実施の形態における信号伝送の変形例を示す図である。
 送信機7318a、7318bから送信された信号を、受信機7318cで受信する。受信機7318cは、照度センサを用いて信号を受信するとしても良い。受信機7318cは、指向性の高い照度センサを備えることで、送信機がある方向を精度よく推定できる。また、受信機7318cは、複数の照度センサを備えることで、送信信号を受信できる範囲を広くすることができる。受信機7318cは、受信した信号をイヤホン7318dや、ヘッドマウントディスプレイ7318eへ送信する。
 図323Dは、ディスプレイまたはプロジェクタと受信機とを含む通信システムの処理動作を示すフローチャートである。なお、このフローチャートは、図323A~図323Cに示す信号伝送の例に対応する処理動作を示す。
 まず、ステップ7357aで、送信機のIDと、表示内容IDと、ディスプレイやプロジェクタに表示するコンテンツとを関連付けて、ID管理サーバに記録する。次にステップ7357bで、送信機は、ディスプレイやプロジェクタにコンテンツを表示するとともに、ディスプレイのバックライトやプロジェクタの投影光をもちいて信号を送信する。送信信号は、送信機のIDや、表示内容IDや、表示内容が格納されているURLや、表示内容そのものを含んでも良い。
 さらに、ステップ7357cで、受信機は、前記送信信号を受信する。そして、ステップ7357dで、受信機は、受信した信号をもとに、送信機がディスプレイやプロジェクタに表示しているコンテンツを取得する。
 次に、ステップ7357eで、受信機にユーザプロファイルが設定されている場合は、そのプロファイルに適したコンテンツを取得する。例えば、聴力が悪いというプロファイルが設定されている場合は字幕データや手元再生用の音声コンテンツを取得し、視力が悪いというプロファイルが設定されている場合は、音声解説用のコンテンツを取得する。
 さらに、ステップ7357fで、受信機は、取得した画像コンテンツを受信機のディスプレイに表示させ、取得した音声コンテンツを受信機のスピーカやイヤフォンや補聴器から再生させる。
 図324は、実施の形態12における送信信号の例を示す図である。なお。この図324は、図250の送信信号を詳細に説明したものである。
 送信信号を図84~87、302などの方法で符号化した場合、受信機は、輝度値が急に高くなる点7308c、7308d、7308eを検出すれば、送信信号を復号できる。このとき、送信信号7308aと7308bは等価であり、同一の信号を表現することになる。
 そのため、送信信号7308aと7308bのように、輝度を下げる時間を調節することで、平均輝度を変化させることができる。送信機の輝度を変化させる必要がある場合には、このように平均輝度を調節することで、送信信号の内容に変化を加えることなく輝度の調節を行うことができる。
 図325は、実施の形態7における送信信号の例を示す図である。なお、この図325は、図91の送信信号を詳細に説明したものである。
 送信信号7309aや7309bは、7309d程度の長さの平均輝度をとると、送信信号7309cと等価とみなすことができる。送信信号7309aや7309bのように、他の受信機では観察できない時間幅で輝度を変化させることで、別の信号を重畳することができる。
 図326は、実施の形態7における送信信号の他の例を示す図である。なお、この図326は、図91の送信信号を詳細に説明したものである。
 送信信号7310aに、他の受信機では観察できない時間幅での輝度変化を加えて7310cとすることで、別の信号を重畳する。送信信号7310aで輝度が下がった区間で信号が重畳できない場合には、高速変調部分に7310eのようなスタート信号とエンド信号を加えることで、高速変調信号を断続的に送信することができる。
 図327Aは、上記各実施の形態における受信機の撮像素子の一例を示す図である。
 多くの撮像素子は、7311aのような配置になっているため、オプティカルブラックを撮像している間は送信機を撮像することはできない。しかし、撮像素子の配置を7311bのようにすることで、送信機をより長い時間撮像することができる。
 図327Bは、上記各実施の形態における受信機の撮像装置の内部回路の構成例を示す図である。
 撮像装置7319aは、グローバルシャッターモードとローリングシャッターモードを切り替えるシャッターモード変更部7319bを備える。受信機は、受信を開始するときに、シャッターモードをローリングシャッターモードに変更し、受信終了時に、シャッターモードをグローバルシャッターモードに変更する、または、受信開始前の設定に戻す。
 図327Cは、上記各実施の形態における送信信号の例を示す図である。
 カメラにちらつきが映らない周波数として、搬送波を1kHzとする場合、1スロットが1ミリ秒となる(7320a)。このとき、図85の変調方式(4PPM変調)では、1シンボル(4スロット)の平均が75%となる(7320b)。4ミリ秒間の移動平均の値域は、75%±変調度/4となる。変調度は小さいほうがちらつきは小さくなる。1シンボルを1周期として考えた場合は、人間がちらつきを感じない周波数として200Hz以上とする場合は、搬送波は800Hz以上となり、カメラにちらつきが映らない周波数として1kHz以上とする場合は、搬送波は4kHz以上となる。
 同様に、搬送波が1kHzのとき、図302の変調方式(5PPM変調)では、1シンボル(5スロット)の平均が80%となる(7320c)。5ミリ秒間の移動平均の値域は、80%±変調度/5となる。変調度は小さいほうがちらつきは小さくなる。1シンボルを1周期として考えた場合は、人間がちらつきを感じない周波数として200Hz以上とする場合は、搬送波は1kHz以上となり、カメラにちらつきが映らない周波数として1kHz以上とする場合は、搬送波は5kHz以上となる。
 図327Dは、上記各実施の形態における送信信号の例である。
 ヘッダパターンは、データを表すパターンと異なっており、かつ、ちらつきをなくすためにはデータを表すパターンと平均輝度が等しくなければならない。2200.2aの変調方式のデータパターンと平均輝度が等しくなるパターンとしては、7321b、7321c、7321d、7321eなどのパターンがある。輝度値を段階的に制御可能な場合は、7321bが望ましい。7321eのように、受信機の撮像装置の露光時間に比べて輝度の変化が十分速い場合には、受信機には7321bのように観察される。7219aの変調方式では、ヘッダパターンを含んだ形で変調方式を定めている。
 以上、一つまたは複数の態様に係る情報通信方法について、実施の形態に基づいて説明したが、本発明は、この実施の形態に限定されるものではない。本発明の趣旨を逸脱しない限り、当業者が思いつく各種変形を本実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、一つまたは複数の態様の範囲内に含まれてもよい。
 図328Aは、本発明の一態様に係る情報通信方法のフローチャートである。
 本発明の一態様に係る情報通信方法は、被写体から情報を取得する情報通信方法であって、ステップSA11、SA12、およびSA13を含む。
 つまり、この情報通信方法は、イメージセンサによる前記被写体の撮像によって得られる画像に、前記イメージセンサに含まれる露光ラインに対応する輝線が前記被写体の輝度変化に応じて生じるように、前記イメージセンサの露光時間を設定する露光時間設定ステップ(SA11)と、前記イメージセンサが、輝度変化する前記被写体を、設定された前記露光時間で撮像することによって、前記輝線を含む画像を取得する撮像ステップ(SA12)と、取得された前記画像に含まれる前記輝線のパターンによって特定されるデータを復調することにより情報を取得する情報取得ステップ(SA13)とを含む。
 図328Bは、本発明の一態様に係る情報通信装置のブロック図である。
 本発明の一態様に係る情報通信装置A10は、被写体から情報を取得する情報通信装置であって、構成要素A11、A12、およびA13を備える。
 つまり、この情報通信装置A10は、イメージセンサによる前記被写体の撮像によって得られる画像に、前記イメージセンサに含まれる露光ラインに対応する輝線が前記被写体の輝度変化に応じて生じるように、前記イメージセンサの露光時間を設定する露光時間設定部A11と、輝度変化する前記被写体を、設定された前記露光時間で撮像することによって、前記輝線を含む画像を取得する前記イメージセンサである撮像部A12と、取得された前記画像に含まれる前記輝線のパターンによって特定されるデータを復調することにより情報を取得する復調部A13とを備える。
 なお、上述の輝線のパターンは、各輝線の間隔の違いと同義である。
 図329は、本発明の一態様に係る情報通信方法によって得られる画像の一例を示す図である。
 例えば、200Hz以上の周波数で輝度変化する被写体に対して、露光時間が10ミリ秒よりも短く設定される。ここで、イメージセンサに含まれる複数の露光ラインのそれぞれは互いに異なるタイミングで順次露光される。このような場合には、図329に示すように、イメージセンサによって得られる画像には、幾つかの輝線が生じる。つまり、その画像は露光ラインに平行な輝線を含む。また、情報取得ステップ(SA13)では、その輝線のパターンのうち、露光ラインに垂直な方向のパターンによって特定されるデータを復調する。
 このような図328Aおよび図328Bによって示される情報通信方法および情報通信装置A10では、被写体の輝度変化によって送信される情報が、イメージセンサの露光ラインの露光によって取得されるため、例えば無線通信を行うための特別な通信デバイスを必要とすることなく、多様な機器間の通信を可能とすることができる。
 図330Aは、本発明の他の態様に係る情報通信方法のフローチャートである。
 本発明の他の態様に係る情報通信方法は、輝度変化によって信号を送信する情報通信方法であって、ステップSB11、SB12およびSB13を含む。
 つまり、この情報通信方法は、送信対象の信号を変調することによって、輝度変化のパターンを決定する決定ステップ(SB11)と、発光体が、決定された前記パターンにしたがって輝度変化することによって前記送信対象の信号を送信する第1の送信ステップ(SB12)と、前記発光体が、前記送信対象の信号を送信してから33ミリ秒以内に、決定された前記パターンと同一のパターンにしたがって輝度変化することによって前記送信対象の信号と同一の信号を送信する第2の送信ステップ(SB13)とを含む。そして、前記決定ステップ(SB11)では、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように前記パターンを決定する。
 図330Bは、本発明の他の態様に係る情報通信装置のブロック図である。
 本発明の他の態様に係る情報通信装置B10は、輝度変化によって信号を送信する情報通信装置であって、構成要素B11およびB12を備える。
 つまり、この情報通信装置B10は、送信対象の信号を変調することによって、輝度変化のパターンを決定する輝度変化パターン決定部B11と、決定された前記パターンにしたがって輝度変化することによって前記送信対象の信号を送信し、前記送信対象の信号を送信してから33ミリ秒以内に、決定された前記パターンと同一のパターンにしたがって輝度変化することによって前記送信対象の信号と同一の信号を送信する発光体B12とを備える。そして、前記輝度変化パターン決定部B11は、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように前記パターンを決定する。
 このような図330Aおよび図330Bによって示される情報通信方法および情報通信装置B10では、輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化のパターンが決定されるため、人がちらつきを感じるのを防ぎならが、輝度変化によって信号を送信することができる。さらに、33ミリ秒以内に同じ信号が送信されるため、信号を受信する受信機にブランキングがあっても、確実に信号をその受信機に送信することができる。
 図331Aは、本発明のさらに他の態様に係る情報通信方法のフローチャートである。
 本発明のさらに他の態様に係る情報通信方法は、輝度変化によって信号を送信する情報通信方法であって、ステップSC11、SC12、SC13およびSC14を含む。
 つまり、この情報通信方法は、送信対象の信号を変調することによって複数の周波数を決定する決定ステップ(SC11)と、発光体が、決定された前記複数の周波数のうちの何れかの一定の周波数にしたがって輝度変化することによって信号を送信する送信ステップ(SC12)と、前記輝度変化に用いられる周波数を、決定された複数の周波数のうちの他の周波数に33ミリ秒以上の周期で順に変更する変更ステップ(SC14)とを含む。なお、送信ステップSC12が実行された後には、決定された全ての周波数が輝度変化に用いられたか否かが判断され(SC13)、全ての周波数が用いられていないと判断された場合に(SC13でN)、更新ステップSC14が実行されてもよい。また、前記送信ステップ(SC12)では、前記発光体は、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化する。
 図331Bは、本発明のさらに他の態様に係る情報通信装置のブロック図である。
 本発明のさらに他の態様に係る情報通信装置C10は、輝度変化によって信号を送信する情報通信装置であって、構成要素C11、C12およびC13を備える。
 つまり、この情報通信装置C10は、送信対象の信号を変調することによって複数の周波数を決定する周波数決定部C11と、決定された前記複数の周波数のうちの何れかの一定の周波数にしたがって輝度変化することによって信号を送信する発光体C13と、前記輝度変化に用いられる周波数を、決定された複数の周波数のうちの他の周波数に33ミリ秒以上の周期で順に変更する周波数変更部C12とを備える。また、前記発光体C13は、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化する。
 このような図331Aおよび図331Bによって示される情報通信方法および情報通信装置C10では、輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化のパターンが決定されるため、人がちらつきを感じるのを防ぎならが、輝度変化によって信号を送信することができる。さらに、FM変調された多くの信号を送信することができる。
 また、情報通信装置は、自らのユニークなIDと機器の状態情報とを含む機器情報を管理する情報管理部と、発光素子と、前記発光素子の点滅パターンとして情報を送信する光送信部とを有し、前記光送信部は、前記機器の内部の状態に変化があった場合に、前記機器情報を光の点滅パターンに変換して送信してもよい。
 また、前記情報通信装置は、さらに、自らの起動状態、またはユーザの使用履歴を示す、機器内部のセンシングされた情報を保存する起動履歴管理部を備え、前記光送信部は、利用するクロック発生装置のあらかじめ登録された性能情報を取得し、送信速度を変更してもよい。
 また、前記発光素子は、第一および第2の発光素子を備え、光の点滅によって情報を送信するための前記第一の発光素子の周囲に、前記第二の発光素子が配置されており、前記第二の発光素子は、前記第一の発光素子の点滅による情報発信が一定回数繰り返される場合に、情報発信の終了と開始の間に発光してもよい。
 また、前記情報通信装置は、時間差をおいて各撮像素子を露光させる撮像部と、前記各撮像素子の露光時間の違いを利用して、被撮像物の1ミリ秒以下の時間平均輝度の変化を、1枚の撮像画像中から読み取る信号解析部とを備えてもよい。
 また、前記時間平均輝度は、3万分の1秒以上の時間平均輝度であってもよい。
 前記情報通信装置は、さらに、送信情報を発光パターンに変調し、発光パターンによって情報を送信してもよい。
 前記情報通信装置は、送信信号を1ミリ秒以下の時間平均輝度の変化で表現し、かつ、60ミリ秒以上の時間平均輝度は一様であるように発光部の輝度を変化させてもよい。
 前記情報通信装置は、前記送信信号を3万分の1秒以上の時間平均輝度の変化で表現してもよい。
 また、前記送信信号と、近接する同種の情報通信装置が時間平均輝度で表現している信号との共通部分は、前記同種の情報通信装置の発光部と同じタイミングで発光部を発光させることで送信されてもよい。
 さらに、前記送信信号と、近接する同種の情報通信装置が時間平均輝度で表現している信号との非共通部分は、前記同種の情報通信装置が時間平均輝度で信号を表現していない時間帯に、発光部の時間平均輝度によって表現されてもよい。
 また、前記情報通信装置は、前記送信信号を時間平均輝度の変化で表現している第1の発光部と、前記送信信号を時間平均輝度の変化で表現していない第2の発光部を備え、第1の発光部と第2の発光部の位置関係によって信号を送信してもよい。
 また、集中制御装置は、上述の何れかの情報通信装置を集中制御する制御部を備えてもよい。
 また、建造物は、上述の何れかの情報通信装置、または、上述の集中制御装置を備えてもよい。
 また、列車は、上述の何れかの情報通信装置、または、上述の集中制御装置を備えてもよい。
 また、撮像装置は、2次元画像を撮像する撮像装置であって、全ての撮像素子を露光させて撮像するよりも高速に、任意の撮像素子のみを露光させて撮像してもよい。
 また、前記任意の撮像素子は、1ミリ秒以下の時間平均輝度の変化が最も大きい画素を撮像する撮像素子、または、その撮像素子を含む1列の撮像素子であってもよい。
 なお、上記各実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。例えばプログラムは、図328A、図330Aおよび図331Aのうちの何れかのフローチャートによって示される情報通信方法をコンピュータに実行させる。
 本発明は、情報通信装置等に利用でき、特に、スマートフォン、タブレット、携帯電話等の携帯端末と、エアコン、照明機器、炊飯器などの家電機器との通信方法に利用される情報通信装置等に利用することができる。
 1101 テレビ
 1105 スマートフォン
 1106 電子レンジ
 1107 空気清浄機
 1201 スマートフォン
 1301 送信側装置
 1309 送信速度判定部
 1401 受信側装置
 1404 画像取得部
 1406 点滅情報取得部
 3001a モバイル端末
 3001b ドアホン宅内器
 3001c ドアホン宅外器
 3001e 宅配注文サーバ
 3001f 宅配者モバイル端末
 4040a 電子レンジテーブル
 4040b 携帯テーブル
 4040c 携帯機種テーブル
 4040d ユーザ音声特性テーブル
 4040e ユーザキーワード音声テーブル
 4040f ユーザ所有機器位置テーブル
 4040h ユーザ位置テーブル
 A10,B10,C10 情報通信装置
 A11 露光時間設定部
 A12 撮像部
 A13 復調部
 B11 輝度変化パターン決定部
 B12,C13 発光体
 C11 周波数決定部
 C12 周波数変更部

Claims (28)

  1.  被写体から情報を取得する情報通信方法であって、
     イメージセンサによる前記被写体の撮像によって得られる画像に、前記イメージセンサに含まれる露光ラインに対応する輝線が前記被写体の輝度変化に応じて生じるように、前記イメージセンサの露光時間を設定する露光時間設定ステップと、
     前記イメージセンサが、輝度変化する前記被写体を、設定された前記露光時間で撮像することによって、前記輝線を含む画像を取得する撮像ステップと、
     取得された前記画像に含まれる前記輝線のパターンによって特定されるデータを復調することにより情報を取得する情報取得ステップと、
     を含む情報通信方法。
  2.  前記撮像ステップでは、
     前記イメージセンサに含まれる複数の露光ラインのそれぞれを互いに異なるタイミングで順次露光する
     請求項1に記載の情報通信方法。
  3.  前記情報取得ステップでは、
     前記輝線のパターンのうち、前記露光ラインに垂直な方向のパターンによって特定される前記データを復調する
     請求項1または2に記載の情報通信方法。
  4.  前記露光時間設定ステップでは、
     前記露光時間を10ミリ秒よりも短く設定する
     請求項1~3の何れか1項に記載の情報通信方法。
  5.  前記撮像ステップでは、
     200Hz以上の周波数で輝度変化する前記被写体を撮像する
     請求項1~4の何れか1項に記載の情報通信方法。
  6.  前記撮像ステップでは、
     前記露光ラインに平行な輝線を含む前記画像を取得する
     請求項1~5の何れか1項に記載の情報通信方法。
  7.  前記情報取得ステップでは、
     取得された前記画像内における、前記イメージセンサに含まれる各露光ラインに対応する領域ごとに、当該領域に輝線があるか否かによって特定される0または1を示す前記データを復調する
     請求項1~6の何れか1項に記載の情報通信方法。
  8.  前記情報取得ステップでは、
     前記領域ごとに、当該領域の輝度値が閾値以上であるか否かに応じて、当該領域に輝線があるか否かを特定する
     請求項7に記載の情報通信方法。
  9.  前記撮像ステップでは、
     所定の期間ごとに、当該所定の期間に対応する一定の周波数で輝度変化する前記被写体を撮像し、
     前記情報取得ステップでは、
     前記所定の期間ごとに、当該所定の期間に対応する一定の周波数の輝度変化に応じて生成される前記輝線のパターンによって特定される前記データを復調する
     請求項1~6の何れか1項に記載の情報通信方法。
  10.  前記撮像ステップでは、
     輝度の立ち上がりおよび立ち下りのうちの一方の変化と次の前記一方の変化との間の時間を調整することによって信号を送信するように輝度変化する前記被写体を撮像し、
     前記情報取得ステップでは、
     前記輝線のパターンによって特定される、前記時間に対応付けられた符号である前記データを復調する
     請求項1~6の何れか1項に記載の情報通信方法。
  11.  前記撮像ステップでは、
     前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化する前記被写体を撮像する
     請求項1~10の何れか1項に記載の情報通信方法。
  12.  前記輝線のパターンは前記イメージセンサの露光時間に応じて異なり、
     前記情報取得ステップでは、
     設定された前記露光時間に応じた前記パターンによって特定される前記データを復調する
     請求項1~11の何れか1項に記載の情報通信方法。
  13.  前記情報通信方法は、さらに、
     前記イメージセンサを備える撮像装置の状態を検出し、
     前記情報取得ステップでは、
     前記被写体の位置を示す前記情報を取得し、さらに、取得された前記情報と、検出された前記状態とに基づいて、前記撮像装置の位置を算出する
     請求項1~12の何れか1項に記載の情報通信方法。
  14.  前記撮像ステップでは、
     前記露光ラインに沿うように配列された複数の領域を含み、領域ごとに輝度変化する前記被写体を撮像する
     請求項1に記載の情報通信方法。
  15.  前記撮像ステップでは、
     メタメリックな複数種の光を互いに異なるタイミングで発する前記被写体を撮像する
     請求項1に記載の情報通信方法。
  16. 前記情報通信方法は、さらに、
     前記イメージセンサを備える撮像装置が存在する場所を推定し、
     前記情報取得ステップでは、
     前記被写体の識別情報を前記情報として取得するとともに、前記場所および前記識別情報に関連付けられた関連情報をサーバから取得する
     請求項1に記載の情報通信方法。
  17.  輝度変化によって信号を送信する情報通信方法であって、
     送信対象の信号を変調することによって、輝度変化のパターンを決定する決定ステップと、
     発光体が、決定された前記パターンにしたがって輝度変化することによって前記送信対象の信号を送信する第1の送信ステップと、
     前記発光体が、前記送信対象の信号を送信してから33ミリ秒以内に、決定された前記パターンと同一のパターンにしたがって輝度変化することによって前記送信対象の信号と同一の信号を送信する第2の送信ステップとを含み、
     前記決定ステップでは、
     前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように前記パターンを決定する
     情報通信方法。
  18.  前記決定ステップでは、
     2ビットによって示される信号のそれぞれを、同じ値を示す3つのビットと他の値を示す1つのビットとからなる4ビットによって示される信号に変調する方式にしたがって、前記送信対象の信号を変調する
     請求項17に記載の情報通信方法。
  19.  前記決定ステップでは、
     輝度の立ち上がりおよび立ち下りのうちの一方の変化と次の前記一方の変化との間の時間を、前記送信対象の信号に応じて調整することによって、前記輝度変化のパターンを決定する
     請求項17に記載の情報通信方法。
  20.  前記第1の送信ステップおよび前記第2の送信ステップでは、
     輝度変化する前記発光体を撮像するイメージセンサの露光時間に応じて異なる信号が、前記イメージセンサを備える撮像装置に取得されるように輝度変化する
     請求項17~19の何れか1項に記載の情報通信方法。
  21.  前記第1の送信ステップおよび前記第2の送信ステップでは、
     複数の発光体が同調して輝度変化することによって、前記複数の発光体が共通の情報を送信し、
     前記共通の情報が送信された後に、発光体ごとに輝度変化することによって、当該発光体ごとに異なる情報を送信する
     請求項17~20の何れか1項に記載の情報通信方法。
  22.  前記情報通信方法は、さらに、
     前記送信対象の信号の変調を行うか否かの指示を受け付ける指示受付ステップを含み、
     前記変調を行うことを示す指示が受け付けられた場合には、
     前記決定ステップ、前記第1の送信ステップおよび前記第2の送信ステップを実行し、
     前記変調を行わないことを示す指示が受け付けられた場合には、
     前記決定ステップ、前記第1の送信ステップおよび前記第2の送信ステップを実行することなく、前記発光体は点灯または消灯する
     請求項17~21の何れか1項に記載の情報通信方法。
  23.  前記発光体は、当該発光体を撮像するイメージセンサの露光ラインに沿うように配列された複数の領域を含み、
     前記第1の送信ステップおよび前記第2の送信ステップでは、
     前記発光体の領域ごとに輝度変化する
     請求項17~22の何れか1項に記載の情報通信方法。
  24.  前記第1の送信ステップおよび前記第2の送信ステップでは、
     前記発光体は、メタメリックな複数種の光を互いに異なるタイミングで発することによって輝度変化する
     請求項17~23の何れか1項に記載の情報通信方法。
  25.  前記第1の送信ステップおよび前記第2の送信ステップでは、
     前記送信対象の信号または前記同一の信号として前記発光体の識別情報を送信する
     請求項17~24の何れか1項に記載の情報通信方法。
  26.  輝度変化によって信号を送信する情報通信方法であって、
     送信対象の信号を変調することによって複数の周波数を決定する決定ステップと、
     発光体が、決定された前記複数の周波数のうちの何れかの一定の周波数にしたがって輝度変化することによって信号を送信する送信ステップと、
     前記輝度変化に用いられる周波数を、決定された複数の周波数のうちの他の周波数に33ミリ秒以上の周期で順に変更する変更ステップとを含み、
     前記送信ステップでは、
     前記発光体は、前記輝度変化に対して5ミリ秒以上の幅で移動平均したときの各輝度値が予め定められた範囲に収まるように輝度変化する
     情報通信方法。
  27.  請求項1~16の何れか1項に記載の情報通信方法に用いられる被写体。
  28.  請求項1~26の何れか1項に記載の情報通信方法を実行する情報通信装置。
PCT/JP2013/003318 2012-05-24 2013-05-24 情報通信方法 WO2013175803A1 (ja)

Priority Applications (63)

Application Number Priority Date Filing Date Title
JP2013548699A JP5521125B2 (ja) 2012-05-24 2013-05-24 情報通信方法
SI201331025T SI2858269T1 (en) 2012-05-24 2013-05-24 Procedure for transmitting information
EP13793777.7A EP2858269B1 (en) 2012-05-24 2013-05-24 Information communication method
ES13793777.7T ES2668904T3 (es) 2012-05-24 2013-05-24 Procedimiento de comunicación de información
LTEP13793777.7T LT2858269T (lt) 2012-05-24 2013-05-24 Informacinio ryšio būdas
CN201380002096.9A CN103650383B (zh) 2012-05-24 2013-05-24 信息通信方法
PCT/JP2013/006859 WO2014103153A1 (ja) 2012-12-27 2013-11-22 情報通信方法
PCT/JP2013/006871 WO2014103159A1 (ja) 2012-12-27 2013-11-22 情報通信方法
CN201380067423.9A CN104871454B (zh) 2012-12-27 2013-11-22 信息通信方法和信息通信装置
JP2014510572A JP5603523B1 (ja) 2012-12-27 2013-11-22 制御方法、情報通信装置およびプログラム
PCT/JP2013/006863 WO2014103156A1 (ja) 2012-12-27 2013-11-22 情報通信方法
BR112015014762-3A BR112015014762B1 (pt) 2013-04-10 2013-11-22 Método, dispositivo e meio de gravação não transitório de comunicação de informações para obter informações de um sujeito
SG10201502498PA SG10201502498PA (en) 2012-12-27 2013-11-22 Information communication method
MX2016009594A MX351882B (es) 2012-12-27 2013-11-22 Método de comunicación de información.
US14/087,630 US8922666B2 (en) 2012-12-27 2013-11-22 Information communication method
US14/087,639 US8988574B2 (en) 2012-12-27 2013-11-22 Information communication method for obtaining information using bright line image
JP2014509963A JP5606653B1 (ja) 2012-12-27 2013-11-22 情報通信方法
EP13867192.0A EP2940892B1 (en) 2012-12-27 2013-11-22 Information communication method
EP13867905.5A EP2940894B1 (en) 2012-12-27 2013-11-22 Information communication method
MX2015008254A MX342734B (es) 2012-12-27 2013-11-22 Método de comunicación de información.
SG11201504978WA SG11201504978WA (en) 2012-12-27 2013-11-22 Information communication method
SG11201400469SA SG11201400469SA (en) 2012-12-27 2013-11-22 Information communication method
AU2013368082A AU2013368082B9 (en) 2012-12-27 2013-11-22 Information communication method
SG10201609857SA SG10201609857SA (en) 2012-12-27 2013-11-22 Information communication method
US14/087,665 US9087349B2 (en) 2012-12-27 2013-11-22 Information communication method
EP13868118.4A EP2940896B1 (en) 2012-12-27 2013-11-22 Information communication method
MX2016013242A MX359612B (es) 2012-12-27 2013-11-22 Metodo de comunicacion de informacion.
JP2014554089A JPWO2014103156A1 (ja) 2012-12-27 2013-11-22 情報通信方法
JP2014512214A JP5607277B1 (ja) 2012-12-27 2013-11-22 情報通信方法
CN201380066360.5A CN104956608B (zh) 2012-12-27 2013-11-22 信息通信方法
EP13868307.3A EP2940897B1 (en) 2012-12-27 2013-11-22 Information communication method
CN201380067611.1A CN104919727B (zh) 2012-12-27 2013-11-22 信息通信方法、信息通信装置、以及记录介质
US14/087,620 US9252878B2 (en) 2012-12-27 2013-11-22 Information communication method
PCT/JP2013/006861 WO2014103155A1 (ja) 2012-12-27 2013-11-22 情報通信方法
CN201380067468.6A CN104871455B (zh) 2012-12-27 2013-11-22 信息通信方法
JP2014049554A JP6392525B2 (ja) 2012-12-27 2014-03-12 プログラム、制御方法、情報通信装置
JP2014049553A JP5525664B1 (ja) 2012-12-27 2014-03-12 情報通信方法
JP2014049552A JP5525663B1 (ja) 2012-12-27 2014-03-12 情報通信方法
JP2014057292A JP5603513B1 (ja) 2012-12-27 2014-03-19 制御方法、情報通信装置およびプログラム
JP2014057293A JP2015119460A (ja) 2012-12-27 2014-03-19 情報通信方法
JP2014057291A JP5603512B1 (ja) 2012-12-27 2014-03-19 制御方法、情報通信装置およびプログラム
JP2014064108A JP5589200B1 (ja) 2012-12-27 2014-03-26 情報通信方法
US14/226,982 US9088362B2 (en) 2012-12-27 2014-03-27 Information communication method for obtaining information by demodulating bright line pattern included in an image
US14/227,010 US8965216B2 (en) 2012-12-27 2014-03-27 Information communication method
JP2014181789A JP5683737B1 (ja) 2012-12-27 2014-09-05 制御方法、情報通信装置、およびプログラム
US14/539,208 US9184838B2 (en) 2012-12-27 2014-11-12 Information communication method for obtaining information using ID list and bright line image
US14/616,091 US9258058B2 (en) 2012-12-27 2015-02-06 Signal transmitting apparatus for transmitting information by bright line pattern in image
US14/699,200 US9462173B2 (en) 2012-12-27 2015-04-29 Information communication method
CL2015001828A CL2015001828A1 (es) 2012-12-27 2015-06-24 Método de comunicación de información de obtención de información a partir de un sujeto, que comprende obtener una imagen, en que en la obtención de una imagen de líneas brillantes, una exposición comienza de forma secuencial para la pluralidad de líneas de exposición cada una en un instante diferente, y una exposición de cada una de la pluralidad de líneas de exposición comienza después de que haya transcurrido un tiempo en blanco; dispositivo.
US14/818,949 US9331779B2 (en) 2012-12-27 2015-08-05 Information communication method for obtaining information using ID list and bright line image
US14/959,264 US9380227B2 (en) 2012-12-27 2015-12-04 Information communication method for obtaining information using bright line image
US14/979,655 US9407368B2 (en) 2012-12-27 2015-12-28 Information communication method
US15/086,944 US9564970B2 (en) 2012-12-27 2016-03-31 Information communication method for obtaining information using ID list and bright line image
US15/161,657 US9918016B2 (en) 2012-12-27 2016-05-23 Information communication apparatus, method, and recording medium using switchable normal mode and visible light communication mode
US15/227,362 US9641766B2 (en) 2012-12-27 2016-08-03 Information communication method
US15/386,814 US10225014B2 (en) 2012-12-27 2016-12-21 Information communication method for obtaining information using ID list and bright line image
US15/464,424 US9794489B2 (en) 2012-12-27 2017-03-21 Information communication method
US15/652,831 US10165192B2 (en) 2012-12-27 2017-07-18 Information communication method
US15/860,060 US10218914B2 (en) 2012-12-20 2018-01-02 Information communication apparatus, method and recording medium using switchable normal mode and visible light communication mode
JP2018156280A JP6568276B2 (ja) 2012-12-27 2018-08-23 プログラム、制御方法、および情報通信装置
US16/163,874 US10638051B2 (en) 2012-12-27 2018-10-18 Information communication method
US16/239,133 US10334177B2 (en) 2012-12-27 2019-01-03 Information communication apparatus, method, and recording medium using switchable normal mode and visible light communication mode
JP2019142553A JP6970146B2 (ja) 2012-12-27 2019-08-01 プログラム、制御方法、および情報通信装置

Applications Claiming Priority (14)

Application Number Priority Date Filing Date Title
JP2012-119082 2012-05-24
JP2012119082 2012-05-24
US201261746315P 2012-12-27 2012-12-27
JP2012286339 2012-12-27
JP2012-286339 2012-12-27
US61/746,315 2012-12-27
US201361805978P 2013-03-28 2013-03-28
JP2013-070740 2013-03-28
US61/805,978 2013-03-28
JP2013070740 2013-03-28
US201361810291P 2013-04-10 2013-04-10
US61/810,291 2013-04-10
JP2013-082546 2013-04-10
JP2013082546 2013-04-10

Publications (1)

Publication Number Publication Date
WO2013175803A1 true WO2013175803A1 (ja) 2013-11-28

Family

ID=49623509

Family Applications (2)

Application Number Title Priority Date Filing Date
PCT/JP2013/003319 WO2013175804A1 (ja) 2012-05-24 2013-05-24 情報通信方法
PCT/JP2013/003318 WO2013175803A1 (ja) 2012-05-24 2013-05-24 情報通信方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
PCT/JP2013/003319 WO2013175804A1 (ja) 2012-05-24 2013-05-24 情報通信方法

Country Status (9)

Country Link
US (8) US8823852B2 (ja)
EP (2) EP2858268B1 (ja)
JP (10) JP5395293B1 (ja)
CN (9) CN103650384B (ja)
ES (1) ES2668904T3 (ja)
LT (1) LT2858269T (ja)
PT (1) PT2858269T (ja)
SI (1) SI2858269T1 (ja)
WO (2) WO2013175804A1 (ja)

Cited By (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015075937A1 (ja) * 2013-11-22 2015-05-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理プログラム、受信プログラムおよび情報処理装置
WO2015098108A1 (ja) * 2013-12-27 2015-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理プログラム、受信プログラムおよび情報処理装置
WO2015132894A1 (ja) * 2014-03-05 2015-09-11 日立アプライアンス株式会社 機器診断装置及び機器診断方法
US9184838B2 (en) 2012-12-27 2015-11-10 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
JP2015534316A (ja) * 2012-09-10 2015-11-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光検出システム及び方法
US9203515B2 (en) 2012-12-27 2015-12-01 Panasonic Intellectual Property Corporation Of America Information communication method
US9247180B2 (en) 2012-12-27 2016-01-26 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9252878B2 (en) 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9262954B2 (en) 2012-12-27 2016-02-16 Panasonic Intellectual Property Corporation Of America Visible light communication signal display method and apparatus
WO2016059860A1 (ja) * 2014-10-15 2016-04-21 ソニー株式会社 情報処理システム、情報処理装置、および情報処理端末
US9341014B2 (en) 2012-12-27 2016-05-17 Panasonic Intellectual Property Corporation Of America Information communication method using change in luminance
JP2016136356A (ja) * 2015-01-23 2016-07-28 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP2016177763A (ja) * 2015-03-20 2016-10-06 株式会社リコー 電子情報処理システム及び電子情報処理方法
CN106068678A (zh) * 2014-02-14 2016-11-02 飞利浦灯具控股公司 编码光
JP2016197552A (ja) * 2015-04-03 2016-11-24 パナソニックIpマネジメント株式会社 看板装置および看板システム
US9560284B2 (en) 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
JP2017507614A (ja) * 2013-12-16 2017-03-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated 高周波可視光通信信号を復号するための画像センサーを構成するための方法および装置
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
JP2017511034A (ja) * 2014-02-14 2017-04-13 フィリップス ライティング ホールディング ビー ヴィ 符号化光の休止期間を用いたシグナリング
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
JP2017519184A (ja) * 2014-03-28 2017-07-13 フィリップス ライティング ホールディング ビー ヴィ 符号化光に基づく携帯装置の位置特定
JP2018524836A (ja) * 2015-04-28 2018-08-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated 可視光通信(vlc)信号のコヒーレント復号
US10105844B2 (en) 2016-06-16 2018-10-23 General Electric Company System and method for controlling robotic machine assemblies to perform tasks on vehicles
US10142020B2 (en) 2014-11-14 2018-11-27 Panasonic Intellectual Property Corporation Of America Reproduction method for reproducing contents
US10171165B2 (en) 2015-11-06 2019-01-01 Panasonic Intellectual Property Corporation Of America Visible light signal generating method, signal generating apparatus, and program
US10263701B2 (en) 2015-11-12 2019-04-16 Panasonic Intellectual Property Corporation Of America Display method, non-transitory recording medium, and display device
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10504584B2 (en) 2015-12-17 2019-12-10 Panasonic Intellectual Property Corporation Of America Display method and display device
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
JPWO2019013023A1 (ja) * 2017-07-11 2020-06-18 大学共同利用機関法人情報・システム研究機構 情報伝送システム
US10819428B2 (en) 2016-11-10 2020-10-27 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
CN112152715A (zh) * 2019-06-28 2020-12-29 Oppo广东移动通信有限公司 通信控制方法、装置、存储介质及电子设备
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter

Families Citing this family (121)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9497172B2 (en) * 2005-05-23 2016-11-15 Litera Corp. Method of encrypting and transferring data between a sender and a receiver using a network
USD838288S1 (en) * 2009-02-24 2019-01-15 Tixtrack, Inc. Display screen or portion of a display screen with a computer generated venue map and a pop-up window appearing in response to an electronic pointer
EP2538584B1 (en) * 2011-06-23 2018-12-05 Casio Computer Co., Ltd. Information Transmission System, and Information Transmission Method
SI2858269T1 (en) * 2012-05-24 2018-06-29 Panasonic Intellectual Property Corporation Of America Procedure for transmitting information
JP5954106B2 (ja) * 2012-10-22 2016-07-20 ソニー株式会社 情報処理装置、情報処理方法、プログラム、及び情報処理システム
JP6075756B2 (ja) 2012-12-07 2017-02-08 株式会社Pfu 照明装置及び撮像システム
JP5997601B2 (ja) 2012-12-17 2016-09-28 株式会社Pfu 撮像システム
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
CN107360340A (zh) * 2012-12-27 2017-11-17 松下电器产业株式会社 电子设备以及记录介质
CN104885381B (zh) 2012-12-27 2017-12-19 松下电器(美国)知识产权公司 信息通信方法
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US10523876B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Information communication method
US9413950B2 (en) * 2013-01-25 2016-08-09 Hewlett-Packard Development Company, L.P. Determining a device identifier from a light signal emitted by a device
US20140211018A1 (en) * 2013-01-29 2014-07-31 Hewlett-Packard Development Company, L.P. Device configuration with machine-readable identifiers
KR20140104610A (ko) * 2013-02-20 2014-08-29 한국전자통신연구원 조명 통신을 이용한 실시간 이동 경로 추정 장치 및 방법
US9391966B2 (en) * 2013-03-08 2016-07-12 Control4 Corporation Devices for providing secure remote access
KR20140118667A (ko) * 2013-03-29 2014-10-08 삼성전자주식회사 디스플레이장치 및 그 제어방법
CN203574655U (zh) * 2013-04-09 2014-04-30 北京半导体照明科技促进中心 利用可见光传输信息的装置和系统以及光源
US9407367B2 (en) * 2013-04-25 2016-08-02 Beijing Guo Cheng Wan Tong Information Co. Ltd Methods and devices for transmitting/obtaining information by visible light signals
JP2017123696A (ja) * 2013-06-04 2017-07-13 ユニバーリンク株式会社 可視光受信方法
JP6183802B2 (ja) * 2013-06-04 2017-08-23 ユニバーリンク株式会社 可視光受信方法及びその装置
US20150036016A1 (en) * 2013-07-30 2015-02-05 Qualcomm Incorporated Methods and apparatus for determining the orientation of a mobile phone in an indoor environment
US9288652B2 (en) * 2013-08-16 2016-03-15 AZAPA R&D Americas, Inc. Method for establishing high-speed communication protocol and device thereof
JP5847781B2 (ja) * 2013-09-25 2016-01-27 シャープ株式会社 機器操作管理装置、遠隔操作システム、機器操作管理装置の制御方法、制御プログラム、端末装置
US20150113364A1 (en) * 2013-10-21 2015-04-23 Tata Consultancy Services Limited System and method for generating an audio-animated document
JP5698823B1 (ja) * 2013-10-31 2015-04-08 株式会社Pfu 照明装置、撮像システム及び照明制御方法
JP6371158B2 (ja) * 2013-11-14 2018-08-08 ルネサスエレクトロニクス株式会社 Ledランプ、プロジェクタ、データ処理方法、及び衝突防止装置
CN105723632B (zh) * 2013-11-21 2019-03-22 松下电器(美国)知识产权公司 信息通信方法、装置及计算机可读存储介质
JP2015126317A (ja) * 2013-12-26 2015-07-06 アイホン株式会社 インターホンシステム
US9294666B2 (en) * 2013-12-27 2016-03-22 Panasonic Intellectual Property Corporation Of America Communication method
CN105830367B (zh) * 2013-12-27 2018-12-11 松下电器(美国)知识产权公司 可见光通信方法、识别信号及接收装置
CN105900010B (zh) * 2014-01-17 2019-12-06 索尼公司 成像系统、报警生成设备和方法、成像设备和方法以及程序
KR102135764B1 (ko) * 2014-02-11 2020-07-20 한국전자통신연구원 가시광 통신을 이용한 데이터 제공 방법 및 상기 방법을 수행하는 가시광 통신 시스템
US10298326B2 (en) * 2014-02-14 2019-05-21 Signify Holding B.V. Coded light
US9929807B2 (en) 2014-03-14 2018-03-27 Univerlink Inc. Visible light receiving method
CN106456373A (zh) * 2014-03-21 2017-02-22 弗鲁特创新有限公司 用于提供导航信息的信息和方法
US10178506B2 (en) * 2014-03-25 2019-01-08 Osram Sylvania Inc. Augmenting light-based communication receiver positioning
WO2015148696A1 (en) * 2014-03-25 2015-10-01 Osram Sylvania Inc. Techniques for position-based actions using light-based communication
US9948391B2 (en) 2014-03-25 2018-04-17 Osram Sylvania Inc. Techniques for determining a light-based communication receiver position
US9680571B2 (en) 2014-03-25 2017-06-13 Osram Sylvania Inc. Techniques for selective use of light-sensing devices in light-based communication
JP6331571B2 (ja) * 2014-03-28 2018-05-30 日本電気株式会社 情報通知装置及び情報通知方法、情報通知システム、並びにコンピュータ・プログラム
KR102328283B1 (ko) * 2014-05-08 2021-11-19 소니그룹주식회사 통신 장치, 통신 방법 및 프로그램
WO2015173024A1 (en) * 2014-05-12 2015-11-19 Koninklijke Philips N.V. Detection of coded light
JP6653128B2 (ja) * 2014-05-16 2020-02-26 株式会社Gocco. 可視光通信システム
US9648452B1 (en) 2014-06-05 2017-05-09 ProSports Technologies, LLC Wireless communication driven by object tracking
US10592924B1 (en) 2014-06-05 2020-03-17 ProSports Technologies, LLC Managing third party interactions with venue communications
US9635506B1 (en) 2014-06-05 2017-04-25 ProSports Technologies, LLC Zone based wireless player communications
CN104135753B (zh) * 2014-06-11 2016-01-20 腾讯科技(深圳)有限公司 一种无线网络接入方法、装置、终端及服务器
CN106663312B (zh) * 2014-06-12 2021-02-02 杜克大学 用于改善计算成像的系统和方法
WO2016001972A1 (ja) 2014-06-30 2016-01-07 富士通株式会社 送信装置、受信装置、通信システム、及び送信方法ならびに受信方法
WO2016001339A1 (en) * 2014-07-03 2016-01-07 Koninklijke Philips N.V. Communicating barcode data
KR102301231B1 (ko) * 2014-07-31 2021-09-13 삼성전자주식회사 영상 제공 방법 및 이를 위한 장치
WO2016017987A1 (en) 2014-07-31 2016-02-04 Samsung Electronics Co., Ltd. Method and device for providing image
CN104197299A (zh) * 2014-08-21 2014-12-10 浙江生辉照明有限公司 照明装置及基于该装置的语音播报系统及方法
WO2016032714A1 (en) 2014-08-25 2016-03-03 ProSports Technologies, LLC Disposable connectable wireless communication receiver
WO2016047030A1 (ja) * 2014-09-26 2016-03-31 パナソニックIpマネジメント株式会社 表示装置及び表示方法
JP6485767B2 (ja) * 2014-12-26 2019-03-20 パナソニックIpマネジメント株式会社 照明器具及び可視光通信システム
US10462073B2 (en) * 2015-01-06 2019-10-29 The Boeing Company Aircraft control domain communication framework
US9806810B2 (en) * 2015-01-28 2017-10-31 Abl Ip Holding Llc Auto-discovery of neighbor relationships and lighting installation self-mapping via visual light communication
WO2016133285A1 (ko) * 2015-02-17 2016-08-25 국민대학교산학협력단 롤링 셔터 변조를 이용한 이미지 센서 통신 시스템 및 통신 방법
US10560188B2 (en) 2015-02-17 2020-02-11 Kookmin University Industry Academy Cooperation Foundation Image sensor communication system and communication method using rolling shutter modulation
KR101625534B1 (ko) 2015-02-17 2016-05-30 국민대학교산학협력단 롤링 셔터 카메라를 이용한 광학 카메라 통신시스템
JP6425173B2 (ja) 2015-03-06 2018-11-21 パナソニックIpマネジメント株式会社 照明装置及び照明システム
JP6582478B2 (ja) * 2015-03-23 2019-10-02 日本電気株式会社 会計装置、会計方法、及び、プログラム
US10412173B2 (en) 2015-04-22 2019-09-10 Panasonic Avionics Corporation Passenger seat pairing system
TWI558148B (zh) * 2015-05-07 2016-11-11 緯創資通股份有限公司 位址資訊檢視方法及應用其之電子裝置
WO2016186539A1 (en) * 2015-05-19 2016-11-24 Telefonaktiebolaget Lm Ericsson (Publ) A communications system, a station, a controller of a light source, and methods therein for authenticating the station to access a network.
CN105357368B (zh) * 2015-09-30 2019-02-19 小米科技有限责任公司 提醒方法及装置
US9698908B2 (en) * 2015-09-30 2017-07-04 Osram Sylvania Inc. Sub-sampling raster lines in rolling shutter mode for light-based communication
CN108353154B (zh) 2015-10-27 2020-11-20 麦克赛尔株式会社 投影仪、影像显示装置以及影像显示方法
WO2017096360A1 (en) * 2015-12-03 2017-06-08 Osram Sylvania Inc. Light-based vehicle positioning for mobile transport systems
CN108474929B (zh) 2015-12-30 2022-06-21 艾伦神火公司 光学窄播
US20170244482A1 (en) * 2016-02-24 2017-08-24 Qualcomm Incorporated Light-based communication processing
CN105897968A (zh) * 2016-05-31 2016-08-24 京东方科技集团股份有限公司 移动终端
US20180012318A1 (en) 2016-07-06 2018-01-11 Panasonic Intellectual Property Management Co., Ltd. Method and system for remote order submission via a light identifier
US10411898B2 (en) * 2016-08-19 2019-09-10 Futurewei Technologies, Inc. Method and device for providing a key for internet of things (IoT) communication
JP2018031607A (ja) 2016-08-23 2018-03-01 ソニーセミコンダクタソリューションズ株式会社 測距装置、電子装置、および、測距装置の制御方法
CN108476286B (zh) * 2016-10-17 2020-09-08 华为技术有限公司 一种图像输出方法以及电子设备
EP3529978B1 (en) 2016-10-20 2022-05-18 Spookfish Innovations Pty Ltd. An image synthesis system
KR102576159B1 (ko) * 2016-10-25 2023-09-08 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
US10545092B2 (en) 2016-11-07 2020-01-28 Alarm.Com Incorporated Automated optical device monitoring
CN109740718B (zh) * 2016-11-19 2022-01-28 哈尔滨理工大学 一种基于条纹灰度信息隐藏功能的包装系统
CA3053004C (en) * 2017-03-07 2020-09-22 8259402 Canada Inc. Method to control a virtual image in a display
DE102018105113A1 (de) * 2017-03-13 2018-09-13 Panasonic Avionics Corporation Passagiersitzpaarbildungssysteme und -verfahren
JP6705411B2 (ja) * 2017-03-28 2020-06-03 カシオ計算機株式会社 情報処理装置、情報処理方法及びプログラム
KR102032421B1 (ko) * 2017-05-12 2019-10-15 주식회사 팬라이트 복수의 사용자 단말들을 제어하는 군중 제어 시스템
US9853740B1 (en) 2017-06-06 2017-12-26 Surefire Llc Adaptive communications focal plane array
CN107274438B (zh) * 2017-06-28 2020-01-17 山东大学 支持移动虚拟现实应用的单Kinect多人跟踪系统及方法
JPWO2019017262A1 (ja) 2017-07-20 2020-05-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 通信システム、端末、制御方法、及び、プログラム
US11240854B2 (en) * 2017-08-22 2022-02-01 AI Incorporated Methods and systems for pairing mobile robotic device docking stations with a wireless router and cloud service
JP7019798B2 (ja) * 2017-08-30 2022-02-15 シャンシー ホワイハウ インフォメーション テクノロジー カンパニー リミテッド 光通信装置及びシステム、並びに対応する情報伝送及び受信の方法
CN107919909B (zh) * 2017-10-10 2020-02-14 深圳大学 一种多通道同色异谱可见光通信方法及系统
CN110121882B (zh) * 2017-10-13 2020-09-08 华为技术有限公司 一种图像处理方法及装置
JP6970376B2 (ja) * 2017-12-01 2021-11-24 オムロン株式会社 画像処理システム、及び画像処理方法
WO2019111421A1 (ja) 2017-12-04 2019-06-13 パナソニックIpマネジメント株式会社 表示装置および受信端末
US10250948B1 (en) 2018-01-05 2019-04-02 Aron Surefire, Llc Social media with optical narrowcasting
US10236986B1 (en) 2018-01-05 2019-03-19 Aron Surefire, Llc Systems and methods for tiling free space optical transmissions
US10473439B2 (en) 2018-01-05 2019-11-12 Aron Surefire, Llc Gaming systems and methods using optical narrowcasting
KR102351498B1 (ko) * 2018-01-09 2022-01-14 삼성전자주식회사 데이터 처리 방법 및 그에 따른 전자 장치
CN111801033B (zh) 2018-03-08 2021-10-15 美的集团股份有限公司 能够进行混合谷物烹饪和异常情况检测的智能电饭煲
JP7054362B2 (ja) * 2018-05-07 2022-04-13 キヤノン株式会社 撮像装置、発光装置およびそれらの制御方法、プログラム
CN108766277A (zh) * 2018-06-07 2018-11-06 南京云睿航天科技有限公司 一种基于光携能通信的电子价签
WO2019244226A1 (ja) * 2018-06-19 2019-12-26 三菱電機株式会社 プログラム実行支援装置、プログラム実行支援方法、およびプログラム実行支援プログラム
CN110943778B (zh) * 2018-09-25 2021-12-07 北京外号信息技术有限公司 光通信装置以及用于传输和接收信息的方法
JP7212500B2 (ja) 2018-10-31 2023-01-25 ダイキン工業株式会社 遠隔管理装置及び遠隔管理システム
CN113196742B (zh) 2018-11-26 2023-04-25 Oppo广东移动通信有限公司 计算机实现的方法、系统和计算机可读介质
US10755065B2 (en) * 2018-12-03 2020-08-25 Novatek Microelectronics Corp. Sensor device and flicker noise mitigating method
JPWO2020145311A1 (ja) 2019-01-11 2021-11-25 株式会社Joled 光通信システム
US10970902B2 (en) * 2019-03-26 2021-04-06 At&T Intellectual Property I, L.P. Allocating and extrapolating data for augmented reality for 6G or other next generation network
EP3716502A1 (en) 2019-03-28 2020-09-30 Panasonic Intellectual Property Management Co., Ltd. Device, system and method for visible light communication using a display device
US10855371B2 (en) 2019-03-28 2020-12-01 Panasonic Intellectual Property Management Co., Ltd. Device, system and method for visible light communication, and display device
WO2021001938A1 (ja) * 2019-07-02 2021-01-07 日本電信電話株式会社 通信システム、基地局、及び通信方法
JP7184194B2 (ja) * 2019-07-04 2022-12-06 日本電信電話株式会社 無線通信システム、無線通信方法及び無線端末装置
WO2021002023A1 (ja) * 2019-07-04 2021-01-07 日本電信電話株式会社 通信システム、端末、通信方法、及びプログラム
JP7294428B2 (ja) * 2019-08-07 2023-06-20 日本電信電話株式会社 無線通信システム、無線端末装置、無線基地局装置及び無線通信方法
WO2021065691A1 (ja) 2019-10-03 2021-04-08 正佳 近藤 真空圧密工法及び真空圧密浚渫工法と鉛直ドレーン
US11418956B2 (en) 2019-11-15 2022-08-16 Panasonic Avionics Corporation Passenger vehicle wireless access point security system
WO2021150206A1 (en) * 2020-01-21 2021-07-29 Hewlett-Packard Development Company, L.P. Data packets for controlling light sources
CN111835419B (zh) * 2020-07-14 2021-08-27 长安大学 一种cmos摄像头可见光通信的数据保密传输方法
TWI769497B (zh) * 2020-08-17 2022-07-01 美商美國未來科技公司 隨著音樂節奏產生動作之方法
TWI769498B (zh) * 2020-08-17 2022-07-01 美商美國未來科技公司 隨著音樂轉場而改變動作之方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002144984A (ja) * 2000-11-17 2002-05-22 Matsushita Electric Ind Co Ltd 車載用電子機器
JP2004072365A (ja) * 2002-08-06 2004-03-04 Sony Corp 光通信装置、光通信データ出力方法、および光通信データ解析方法、並びにコンピュータ・プログラム
JP2006121466A (ja) * 2004-10-22 2006-05-11 Nec Corp 撮像素子、撮像モジュール及び携帯端末
WO2007004530A1 (ja) * 2005-06-30 2007-01-11 Pioneer Corporation 照明光通信装置および照明光通信方法
JP2008124922A (ja) * 2006-11-14 2008-05-29 Matsushita Electric Works Ltd 照明装置、および照明システム
JP2008292397A (ja) * 2007-05-28 2008-12-04 Shimizu Corp 可視光通信を用いた位置情報提供システム
JP2010278573A (ja) * 2009-05-26 2010-12-09 Panasonic Electric Works Co Ltd 点灯制御装置、盗撮防止システム、映写機
WO2011086517A1 (en) * 2010-01-15 2011-07-21 Koninklijke Philips Electronics N.V. Data detection for visible light communications using conventional camera sensor

Family Cites Families (164)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH087567B2 (ja) 1986-08-12 1996-01-29 株式会社日立製作所 画像表示装置
JPH08509582A (ja) 1993-05-03 1996-10-08 ピンジャロー プロプライエタリー リミテッド サブリミナル・メッセージ表示システム
JPH07200428A (ja) 1993-12-28 1995-08-04 Canon Inc 通信装置
EP0824821B1 (en) 1995-05-08 2002-04-17 Digimarc Corporation Steganographical embedding of auxiliary data and calibration data in image data
JP3949679B2 (ja) 1995-05-08 2007-07-25 ディジマーク コーポレイション ステガノグラフィシステム
US5765176A (en) 1996-09-06 1998-06-09 Xerox Corporation Performing document image management tasks using an iconic image having embedded encoded information
US5974348A (en) 1996-12-13 1999-10-26 Rocks; James K. System and method for performing mobile robotic work operations
EP1285503A2 (en) 2000-05-31 2003-02-26 Optinetix, Inc. Systems and methods for distributing information through broadcast media
JP2002290335A (ja) 2001-03-28 2002-10-04 Sony Corp 光空間伝送装置
US6831643B2 (en) 2001-04-16 2004-12-14 Lucent Technologies Inc. Method and system for reconstructing 3D interactive walkthroughs of real-world environments
US20030026422A1 (en) 2001-06-19 2003-02-06 Usa Video Interactive Corporation Method and apparatus for digitally fingerprinting videos
JP3861113B2 (ja) 2001-08-30 2006-12-20 株式会社日立プラズマパテントライセンシング 画像表示方法
JP2003179556A (ja) 2001-09-21 2003-06-27 Casio Comput Co Ltd 情報伝送方式、情報伝送システム、撮像装置、および、情報伝送方法
JP3918813B2 (ja) 2001-10-23 2007-05-23 ソニー株式会社 データ通信システム、データ送信装置、並びにデータ受信装置
US8054357B2 (en) 2001-11-06 2011-11-08 Candela Microsystems, Inc. Image sensor with time overlapping image output
JP3829743B2 (ja) 2002-03-22 2006-10-04 株式会社デンソーウェーブ 光学的情報記録媒体及び光学的情報読取装置
US7465298B2 (en) * 2002-06-28 2008-12-16 Mercator Medsystems, Inc. Methods and systems for delivering liquid substances to tissues surrounding body lumens
JP4200435B2 (ja) 2002-09-10 2008-12-24 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
EP1865631B1 (en) 2002-10-24 2011-04-13 Nakagawa Laboratories, Inc. Illumination light communication device
US20040101309A1 (en) * 2002-11-27 2004-05-27 Beyette Fred R. Optical communication imager
JP4233371B2 (ja) 2003-04-10 2009-03-04 株式会社京三製作所 踏切障害物検知装置
WO2005001593A2 (ja) 2003-06-27 2005-01-06 Nippon Kogaku Kk 基準パターン抽出方法とその装置、パターンマッチング方法とその装置、位置検出方法とその装置及び露光方法とその装置
JP4082689B2 (ja) 2004-01-23 2008-04-30 株式会社 日立ディスプレイズ 液晶表示装置
KR101110009B1 (ko) 2004-02-27 2012-02-06 교세라 가부시키가이샤 촬상 장치 및 화상 생성 방법
EP1744475B1 (en) 2004-05-31 2017-07-26 Casio Computer Co., Ltd. Information reception device, information transmission system, and information reception method
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
CN1989716B (zh) * 2004-07-28 2010-05-05 松下电器产业株式会社 影像显示装置及影像显示系统
US7715723B2 (en) 2004-08-05 2010-05-11 Japan Science And Technology Agency Information-processing system using free-space optical communication and free-space optical communication system
US8254791B2 (en) 2004-09-22 2012-08-28 Kyocera Corporation Optical transmitting apparatus and optical communication system
JP2006092486A (ja) 2004-09-27 2006-04-06 Nippon Signal Co Ltd:The Led信号灯器
WO2006048987A1 (ja) * 2004-11-02 2006-05-11 Japan Science And Technology Agency 撮像装置及びその信号読み出し方法
JP2006148549A (ja) * 2004-11-19 2006-06-08 Konica Minolta Opto Inc 撮像素子及び撮像装置
US7689130B2 (en) 2005-01-25 2010-03-30 Koninklijke Philips Electronics N.V. Method and apparatus for illumination and communication
KR20060087744A (ko) 2005-01-31 2006-08-03 삼성전자주식회사 이동통신 단말기에서 잔상효과를 이용한 데이터 표시장치및 방법
JP3939327B2 (ja) 2005-02-03 2007-07-04 三菱電機株式会社 データ送信及び受信方法、データ送信及び受信装置
JP4789481B2 (ja) 2005-02-16 2011-10-12 シャープ株式会社 画像表示装置及びデータ伝達システム
WO2006109829A1 (ja) 2005-04-12 2006-10-19 Pioneer Corporation 通信システム、通信装置及び方法、並びにコンピュータプログラム
JP2006319545A (ja) 2005-05-11 2006-11-24 Fuji Photo Film Co Ltd ディスプレイ装置および可視光送受信システム
JP4692991B2 (ja) 2005-05-20 2011-06-01 株式会社中川研究所 データ送信装置及びデータ受信装置
JP4660818B2 (ja) 2005-06-03 2011-03-30 清水建設株式会社 照明システム
US20080290988A1 (en) 2005-06-18 2008-11-27 Crawford C S Lee Systems and methods for controlling access within a system of networked and non-networked processor-based systems
JP2007019936A (ja) 2005-07-08 2007-01-25 Fujifilm Holdings Corp 可視光通信システム、撮像装置、可視光通信準備方法及び可視光通信準備プログラム
JP2007036833A (ja) 2005-07-28 2007-02-08 Sharp Corp 電子透かし埋め込み方法及び埋め込み装置、電子透かし検出方法及び検出装置
JP4765027B2 (ja) 2005-07-29 2011-09-07 国立大学法人 奈良先端科学技術大学院大学 情報処理装置及び情報処理システム
US7570246B2 (en) 2005-08-01 2009-08-04 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Method and apparatus for communication using pulse-width-modulated visible light
JP2007049584A (ja) 2005-08-12 2007-02-22 Casio Comput Co Ltd 宣伝支援システム及びプログラム
JP4643403B2 (ja) 2005-09-13 2011-03-02 株式会社東芝 可視光通信システム及びその方法
JP2007082098A (ja) 2005-09-16 2007-03-29 Nakagawa Kenkyusho:Kk 送信データ割り当て方法および光通信システム
JP4939024B2 (ja) 2005-09-27 2012-05-23 京セラ株式会社 光通信装置、及び光通信方法
JP4325604B2 (ja) 2005-09-30 2009-09-02 日本電気株式会社 可視光制御装置、可視光通信装置、可視光制御方法及びプログラム
JP4739914B2 (ja) 2005-10-28 2011-08-03 京セラ株式会社 通信装置、通信システム及び通信方法
JP4371108B2 (ja) * 2005-12-27 2009-11-25 ソニー株式会社 撮像装置および方法、記録媒体、並びにプログラム
JP4600297B2 (ja) 2006-01-11 2010-12-15 ソニー株式会社 オブジェクトの関連情報の記録システム,オブジェクトの関連情報の記録方法,テレビジョン受像機及び表示制御方法
JP4868217B2 (ja) 2006-01-25 2012-02-01 ソニー株式会社 撮像装置および方法、記録媒体、並びにプログラム
US20060242908A1 (en) 2006-02-15 2006-11-02 Mckinney David R Electromagnetic door actuator system and method
JP2007221570A (ja) 2006-02-17 2007-08-30 Casio Comput Co Ltd 撮像装置及びそのプログラム
JP2007228512A (ja) 2006-02-27 2007-09-06 Kyocera Corp 可視光通信システムおよび情報処理装置
JP4980633B2 (ja) 2006-03-16 2012-07-18 エヌ・ティ・ティ・コミュニケーションズ株式会社 画像表示装置、受信装置、画像表示制御方法およびデータ受信方法
JP2007256496A (ja) 2006-03-22 2007-10-04 Fujifilm Corp 液晶表示装置
JP4767747B2 (ja) 2006-04-27 2011-09-07 京セラ株式会社 可視光通信のための発光装置およびその制御方法
DE102006024421B3 (de) 2006-05-24 2007-10-25 Siemens Ag Verfahren und Anordnung zur Übertragung von Daten mit wenigstens zwei Strahlungsquellen
JP5162850B2 (ja) 2006-07-10 2013-03-13 セイコーエプソン株式会社 プロジェクタ及び画像表示システム
JP4873623B2 (ja) 2006-07-28 2012-02-08 Kddi株式会社 カラー画像へのバーコード埋め込み方法および装置、およびコンピュータプログラム
JP4996175B2 (ja) 2006-08-29 2012-08-08 株式会社東芝 入室管理システムおよび入室管理方法
US20100020970A1 (en) 2006-11-13 2010-01-28 Xu Liu System And Method For Camera Imaging Data Channel
US20080122994A1 (en) 2006-11-28 2008-05-29 Honeywell International Inc. LCD based communicator system
JP5288579B2 (ja) 2006-12-13 2013-09-11 ルネサスエレクトロニクス株式会社 表示装置及び、コントローラドライバ
JP2008187615A (ja) 2007-01-31 2008-08-14 Canon Inc 撮像素子、撮像装置、制御方法、及びプログラム
US20080205848A1 (en) 2007-02-28 2008-08-28 Victor Company Of Japan, Ltd. Imaging apparatus and reproducing apparatus
JP2008252466A (ja) 2007-03-30 2008-10-16 Nakagawa Kenkyusho:Kk 光通信システム、送信装置および受信装置
JP5031427B2 (ja) 2007-03-30 2012-09-19 三星電子株式会社 可視光送信装置、可視光受信装置、可視光通信システム、及び可視光通信方法
JP2008269486A (ja) 2007-04-24 2008-11-06 Olympus Corp 撮像機器及びその認証方法
JP4935492B2 (ja) 2007-05-11 2012-05-23 株式会社豊田中央研究所 光通信装置
JP2009033338A (ja) * 2007-07-25 2009-02-12 Olympus Imaging Corp 撮像装置
JP4867874B2 (ja) * 2007-09-12 2012-02-01 富士通株式会社 画像処理プログラム、画像処理装置、および画像処理方法
JP5048440B2 (ja) 2007-09-27 2012-10-17 株式会社豊田中央研究所 光通信システム
JP4998232B2 (ja) 2007-11-27 2012-08-15 セイコーエプソン株式会社 撮像装置及び映像記録装置
JP5285301B2 (ja) 2008-02-26 2013-09-11 パナソニック株式会社 光伝送システム
JP2009212768A (ja) 2008-03-04 2009-09-17 Victor Co Of Japan Ltd 可視光通信光送信装置、情報提供装置、及び情報提供システム
JP5541153B2 (ja) 2008-03-10 2014-07-09 日本電気株式会社 通信システム、送信装置及び受信装置
JP5488457B2 (ja) 2008-03-10 2014-05-14 日本電気株式会社 通信システム及び受信装置
JP2009232083A (ja) 2008-03-21 2009-10-08 Mitsubishi Electric Engineering Co Ltd 可視光通信システム
JP5171393B2 (ja) 2008-05-27 2013-03-27 パナソニック株式会社 可視光通信システム
WO2009144853A1 (ja) 2008-05-30 2009-12-03 シャープ株式会社 照明装置、表示装置、並びに導光板
CA2727711A1 (en) 2008-06-12 2009-12-17 Ryan Steelberg Barcode advertising
JP2010103746A (ja) 2008-10-23 2010-05-06 Hoya Corp 撮像装置
JP2010117871A (ja) 2008-11-13 2010-05-27 Sony Ericsson Mobile Communications Ab パターン画像の読み取り方法、パターン画像の読み取り装置、情報処理方法およびパターン画像の読み取りプログラム
JP5185087B2 (ja) 2008-11-25 2013-04-17 三星電子株式会社 可視光通信システム、及び信号伝送方法
KR20100059502A (ko) 2008-11-26 2010-06-04 삼성전자주식회사 가시광 통신 시스템에서 브로드캐스팅 서비스 방법 및 시스템
GB2465793A (en) 2008-11-28 2010-06-02 Sony Corp Estimating camera angle using extrapolated corner locations from a calibration pattern
JP5307527B2 (ja) 2008-12-16 2013-10-02 ルネサスエレクトロニクス株式会社 表示装置、表示パネルドライバ、及びバックライト駆動方法
US8571217B2 (en) 2008-12-18 2013-10-29 Nec Corporation Display system, control apparatus, display method, and program
JP2010152285A (ja) 2008-12-26 2010-07-08 Fujifilm Corp 撮像装置
JP5282899B2 (ja) 2009-03-19 2013-09-04 カシオ計算機株式会社 情報復元装置及び情報復元方法
JP2010232912A (ja) 2009-03-26 2010-10-14 Panasonic Electric Works Co Ltd 照明光伝送システム
JP5193124B2 (ja) 2009-04-23 2013-05-08 株式会社日立情報制御ソリューションズ 電子透かし埋め込み方法及び装置
JP2010268264A (ja) * 2009-05-15 2010-11-25 Panasonic Corp 撮像素子及び撮像装置
KR20100133806A (ko) 2009-06-12 2010-12-22 삼성전자주식회사 이미지 디스플레이 방법 및 장치
JP5537841B2 (ja) 2009-06-15 2014-07-02 ビーコア株式会社 発光体及び受光体及び関連する方法
JP5515472B2 (ja) 2009-07-13 2014-06-11 カシオ計算機株式会社 撮像装置、撮像方法及びプログラム
CN101959016B (zh) * 2009-07-14 2012-08-22 华晶科技股份有限公司 图像撷取装置的省电方法
JP5394843B2 (ja) 2009-07-24 2014-01-22 三星電子株式会社 送信装置、受信装置、可視光通信システム、及び可視光通信方法
KR101621095B1 (ko) 2009-09-16 2016-05-16 삼성전자주식회사 디스플레이를 통한 부가 정보 제공 방법 및 장치
US8731406B2 (en) 2009-09-16 2014-05-20 Samsung Electronics Co., Ltd. Apparatus and method for generating high resolution frames for dimming and visibility support in visible light communication
KR101615762B1 (ko) 2009-09-19 2016-04-27 삼성전자주식회사 다중 통신 모드를 제공하는 가시광 통신 시스템에서 가시 프레임을 출력하기 위한 방법 및 장치
TWI441512B (zh) * 2009-10-01 2014-06-11 Sony Corp 影像取得裝置及照相機系統
JP2011097141A (ja) * 2009-10-27 2011-05-12 Renesas Electronics Corp 撮像装置、撮像装置の制御方法、及びプログラム
US8831279B2 (en) 2011-03-04 2014-09-09 Digimarc Corporation Smartphone-based methods and systems
US8175617B2 (en) 2009-10-28 2012-05-08 Digimarc Corporation Sensor-based mobile search, related methods and systems
KR101654934B1 (ko) 2009-10-31 2016-09-23 삼성전자주식회사 가시광 통신 방법 및 장치
US8855496B2 (en) 2010-01-05 2014-10-07 Samsung Electronics Co., Ltd. Optical clock rate negotiation for supporting asymmetric clock rates for visible light communication
US8217997B2 (en) 2010-03-16 2012-07-10 Interphase Corporation Interactive display system
JP5802997B2 (ja) 2010-05-05 2015-11-04 ディジマーク コーポレイション 隠された画像のシグナリング
JP5750837B2 (ja) 2010-05-28 2015-07-22 カシオ計算機株式会社 情報伝送システム、情報伝送方法、受光装置、受光方法、及び、プログラム
JP2011254317A (ja) 2010-06-02 2011-12-15 Sony Corp 送信装置、送信方法、受信装置、受信方法、通信システムおよび通信方法
WO2011155130A1 (ja) 2010-06-08 2011-12-15 パナソニック株式会社 情報表示装置、表示制御用集積回路、及び表示制御方法
JP5635312B2 (ja) 2010-06-28 2014-12-03 株式会社アウトスタンディングテクノロジー 可視光通信送信機
JP5561860B2 (ja) 2010-08-19 2014-07-30 西日本電信電話株式会社 広告配信装置及び方法、ならびに、プログラム
CN102484678B (zh) * 2010-08-20 2017-03-01 松下电器(美国)知识产权公司 接收显示装置、信息发送装置、光无线通信系统、接收显示用集成电路、信息发送用集成电路、接收显示程序、信息发送程序及光无线通信方法
JP5472471B2 (ja) 2010-08-27 2014-04-16 富士通株式会社 電子透かし埋め込み装置、電子透かし埋め込み方法及び電子透かし埋め込み用コンピュータプログラムならびに電子透かし検出装置
US8891977B2 (en) 2010-09-29 2014-11-18 Supreme Architecture Ltd. Receiver chip and method for on-chip multi-node visible light communication
US8523075B2 (en) 2010-09-30 2013-09-03 Apple Inc. Barcode recognition using data-driven classifier
US8634725B2 (en) 2010-10-07 2014-01-21 Electronics And Telecommunications Research Institute Method and apparatus for transmitting data using visible light communication
JP2012095214A (ja) 2010-10-28 2012-05-17 Canon Inc 撮像装置
US8553146B2 (en) 2011-01-26 2013-10-08 Echostar Technologies L.L.C. Visually imperceptible matrix codes utilizing interlacing
US9571888B2 (en) 2011-02-15 2017-02-14 Echostar Technologies L.L.C. Selection graphics overlay of matrix code
JP2012169189A (ja) 2011-02-15 2012-09-06 Koito Mfg Co Ltd 発光モジュールおよび車両用灯具
CN103415881B (zh) 2011-03-04 2015-08-26 国立大学法人德岛大学 信息提供方法及信息提供装置
WO2012123572A1 (en) 2011-03-16 2012-09-20 Siemens Aktiengesellschaft A method and device for notification in a system for visible-light communication
EP2503852A1 (en) 2011-03-22 2012-09-26 Koninklijke Philips Electronics N.V. Light detection system and method
JP2012205168A (ja) 2011-03-28 2012-10-22 Toppan Printing Co Ltd 映像処理装置、映像処理方法及び映像処理プログラム
US8256673B1 (en) 2011-05-12 2012-09-04 Kim Moon J Time-varying barcode in an active display
US9667823B2 (en) 2011-05-12 2017-05-30 Moon J. Kim Time-varying barcode in an active display
JP2012244549A (ja) 2011-05-23 2012-12-10 Nec Commun Syst Ltd イメージセンサ通信装置と方法
JP2013029816A (ja) 2011-06-20 2013-02-07 Canon Inc 表示装置
EP2538584B1 (en) 2011-06-23 2018-12-05 Casio Computer Co., Ltd. Information Transmission System, and Information Transmission Method
US8334901B1 (en) 2011-07-26 2012-12-18 ByteLight, Inc. Method and system for modulating a light source in a light based positioning system using a DC bias
US9287976B2 (en) 2011-07-26 2016-03-15 Abl Ip Holding Llc Independent beacon based light position system
JP2013042221A (ja) 2011-08-11 2013-02-28 Panasonic Corp 通信端末、通信方法、マーカ装置及び通信システム
KR101961887B1 (ko) 2011-11-30 2019-03-25 삼성전자주식회사 무선 광통신 시스템 및 이를 이용한 무선 광통신 방법
KR20130093699A (ko) 2011-12-23 2013-08-23 삼성전자주식회사 광정보 전송장치 및 광정보 수신장치
US20130169663A1 (en) 2011-12-30 2013-07-04 Samsung Electronics Co., Ltd. Apparatus and method for displaying images and apparatus and method for processing images
JP2013197849A (ja) 2012-03-19 2013-09-30 Toshiba Corp 可視光通信送信装置、可視光通信受信装置および可視光通信システム
US9450671B2 (en) 2012-03-20 2016-09-20 Industrial Technology Research Institute Transmitting and receiving apparatus and method for light communication, and the light communication system thereof
JP2013201541A (ja) 2012-03-23 2013-10-03 Toshiba Corp 受信装置、送信装置、及び通信システム
JP2013223043A (ja) 2012-04-13 2013-10-28 Toshiba Corp 受光装置および伝送システム
JP5936902B2 (ja) 2012-04-13 2016-06-22 株式会社東芝 伝送システム、送信装置および受信装置
JP2013223209A (ja) 2012-04-19 2013-10-28 Panasonic Corp 撮像処理装置
JP5902995B2 (ja) 2012-05-10 2016-04-13 株式会社フジクラ Ledチューブを用いた移動システム、移動方法及びledチューブ
WO2013171954A1 (ja) 2012-05-17 2013-11-21 パナソニック株式会社 撮像装置、半導体集積回路および撮像方法
SI2858269T1 (en) * 2012-05-24 2018-06-29 Panasonic Intellectual Property Corporation Of America Procedure for transmitting information
DE112013004582T5 (de) 2012-10-09 2015-06-25 Panasonic intellectual property Management co., Ltd Leuchte und System zur Kommunikation durch sichtbares Licht, das diese verwendet
US9667865B2 (en) 2012-11-03 2017-05-30 Apple Inc. Optical demodulation using an image sensor
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
CN104885381B (zh) 2012-12-27 2017-12-19 松下电器(美国)知识产权公司 信息通信方法
US8922666B2 (en) 2012-12-27 2014-12-30 Panasonic Intellectual Property Corporation Of America Information communication method
US9088360B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
CN104885382B (zh) 2012-12-27 2017-08-22 松下电器(美国)知识产权公司 可视光通信信号显示方法以及显示装置
US8913144B2 (en) 2012-12-27 2014-12-16 Panasonic Intellectual Property Corporation Of America Information communication method
JP5715301B2 (ja) 2012-12-27 2015-05-07 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 表示方法および表示装置
SG10201610410WA (en) 2012-12-27 2017-01-27 Panasonic Ip Corp America Information communication method
US9560284B2 (en) 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002144984A (ja) * 2000-11-17 2002-05-22 Matsushita Electric Ind Co Ltd 車載用電子機器
JP2004072365A (ja) * 2002-08-06 2004-03-04 Sony Corp 光通信装置、光通信データ出力方法、および光通信データ解析方法、並びにコンピュータ・プログラム
JP2006121466A (ja) * 2004-10-22 2006-05-11 Nec Corp 撮像素子、撮像モジュール及び携帯端末
WO2007004530A1 (ja) * 2005-06-30 2007-01-11 Pioneer Corporation 照明光通信装置および照明光通信方法
JP2008124922A (ja) * 2006-11-14 2008-05-29 Matsushita Electric Works Ltd 照明装置、および照明システム
JP2008292397A (ja) * 2007-05-28 2008-12-04 Shimizu Corp 可視光通信を用いた位置情報提供システム
JP2010278573A (ja) * 2009-05-26 2010-12-09 Panasonic Electric Works Co Ltd 点灯制御装置、盗撮防止システム、映写機
WO2011086517A1 (en) * 2010-01-15 2011-07-21 Koninklijke Philips Electronics N.V. Data detection for visible light communications using conventional camera sensor

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2858269A4 *

Cited By (60)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015534316A (ja) * 2012-09-10 2015-11-26 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. 光検出システム及び方法
US9646568B2 (en) 2012-12-27 2017-05-09 Panasonic Intellectual Property Corporation Of America Display method
US9608725B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9184838B2 (en) 2012-12-27 2015-11-10 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US10951310B2 (en) 2012-12-27 2021-03-16 Panasonic Intellectual Property Corporation Of America Communication method, communication device, and transmitter
US9203515B2 (en) 2012-12-27 2015-12-01 Panasonic Intellectual Property Corporation Of America Information communication method
US9247180B2 (en) 2012-12-27 2016-01-26 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9635278B2 (en) 2012-12-27 2017-04-25 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9262954B2 (en) 2012-12-27 2016-02-16 Panasonic Intellectual Property Corporation Of America Visible light communication signal display method and apparatus
US10530486B2 (en) 2012-12-27 2020-01-07 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US9331779B2 (en) 2012-12-27 2016-05-03 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9341014B2 (en) 2012-12-27 2016-05-17 Panasonic Intellectual Property Corporation Of America Information communication method using change in luminance
US10521668B2 (en) 2012-12-27 2019-12-31 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US10447390B2 (en) 2012-12-27 2019-10-15 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US9407368B2 (en) 2012-12-27 2016-08-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9450672B2 (en) 2012-12-27 2016-09-20 Panasonic Intellectual Property Corporation Of America Information communication method of transmitting a signal using change in luminance
US10361780B2 (en) 2012-12-27 2019-07-23 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9467225B2 (en) 2012-12-27 2016-10-11 Panasonic Intellectual Property Corporation Of America Information communication method
US10354599B2 (en) 2012-12-27 2019-07-16 Panasonic Intellectual Property Corporation Of America Display method
US10303945B2 (en) 2012-12-27 2019-05-28 Panasonic Intellectual Property Corporation Of America Display method and display apparatus
US9560284B2 (en) 2012-12-27 2017-01-31 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information specified by striped pattern of bright lines
US9564970B2 (en) 2012-12-27 2017-02-07 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US9571191B2 (en) 2012-12-27 2017-02-14 Panasonic Intellectual Property Corporation Of America Information communication method
US10225014B2 (en) 2012-12-27 2019-03-05 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using ID list and bright line image
US10148354B2 (en) 2012-12-27 2018-12-04 Panasonic Intellectual Property Corporation Of America Luminance change information communication method
US9608727B2 (en) 2012-12-27 2017-03-28 Panasonic Intellectual Property Corporation Of America Switched pixel visible light transmitting method, apparatus and program
US9998220B2 (en) 2012-12-27 2018-06-12 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
US9859980B2 (en) 2012-12-27 2018-01-02 Panasonic Intellectual Property Corporation Of America Information processing program, reception program, and information processing apparatus
US9613596B2 (en) 2012-12-27 2017-04-04 Panasonic Intellectual Property Corporation Of America Video display method using visible light communication image including stripe patterns having different pitches
US9252878B2 (en) 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9871587B2 (en) 2013-11-22 2018-01-16 Panasonic Intellectual Property Corporation Of America Information processing method for generating encoded signal for visible light communication
WO2015075937A1 (ja) * 2013-11-22 2015-05-28 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理プログラム、受信プログラムおよび情報処理装置
JP2017507614A (ja) * 2013-12-16 2017-03-16 クゥアルコム・インコーポレイテッドQualcomm Incorporated 高周波可視光通信信号を復号するための画像センサーを構成するための方法および装置
WO2015098108A1 (ja) * 2013-12-27 2015-07-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理プログラム、受信プログラムおよび情報処理装置
CN105637783A (zh) * 2013-12-27 2016-06-01 松下电器(美国)知识产权公司 信息处理程序、接收程序和信息处理装置
JPWO2015098108A1 (ja) * 2013-12-27 2017-03-23 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 情報処理プログラム、受信プログラムおよび情報処理装置
JP2017512399A (ja) * 2014-02-14 2017-05-18 フィリップス ライティング ホールディング ビー ヴィ 符号化光
JP2017511034A (ja) * 2014-02-14 2017-04-13 フィリップス ライティング ホールディング ビー ヴィ 符号化光の休止期間を用いたシグナリング
CN106068678A (zh) * 2014-02-14 2016-11-02 飞利浦灯具控股公司 编码光
JPWO2015132894A1 (ja) * 2014-03-05 2017-03-30 日立アプライアンス株式会社 機器診断装置及び機器診断方法
WO2015132894A1 (ja) * 2014-03-05 2015-09-11 日立アプライアンス株式会社 機器診断装置及び機器診断方法
JP2017519184A (ja) * 2014-03-28 2017-07-13 フィリップス ライティング ホールディング ビー ヴィ 符号化光に基づく携帯装置の位置特定
US10409968B2 (en) 2014-10-15 2019-09-10 Sony Corporation Information processing system, information processing device, and information processing terminal
WO2016059860A1 (ja) * 2014-10-15 2016-04-21 ソニー株式会社 情報処理システム、情報処理装置、および情報処理端末
US10389446B2 (en) 2014-11-14 2019-08-20 Panasonic Intellectual Property Corporation Of America Reproduction method for reproducing contents
US10142020B2 (en) 2014-11-14 2018-11-27 Panasonic Intellectual Property Corporation Of America Reproduction method for reproducing contents
US10211918B2 (en) 2015-01-23 2019-02-19 Sony Corporation Device, system, and method for displaying an image together with a superimposed light component representing a code
JP2016136356A (ja) * 2015-01-23 2016-07-28 ソニー株式会社 情報処理装置、情報処理方法、並びにプログラム
JP2016177763A (ja) * 2015-03-20 2016-10-06 株式会社リコー 電子情報処理システム及び電子情報処理方法
JP2016197552A (ja) * 2015-04-03 2016-11-24 パナソニックIpマネジメント株式会社 看板装置および看板システム
JP2018524836A (ja) * 2015-04-28 2018-08-30 クゥアルコム・インコーポレイテッドQualcomm Incorporated 可視光通信(vlc)信号のコヒーレント復号
US10171165B2 (en) 2015-11-06 2019-01-01 Panasonic Intellectual Property Corporation Of America Visible light signal generating method, signal generating apparatus, and program
US10951309B2 (en) 2015-11-12 2021-03-16 Panasonic Intellectual Property Corporation Of America Display method, non-transitory recording medium, and display device
US10263701B2 (en) 2015-11-12 2019-04-16 Panasonic Intellectual Property Corporation Of America Display method, non-transitory recording medium, and display device
US10504584B2 (en) 2015-12-17 2019-12-10 Panasonic Intellectual Property Corporation Of America Display method and display device
US10105844B2 (en) 2016-06-16 2018-10-23 General Electric Company System and method for controlling robotic machine assemblies to perform tasks on vehicles
US10819428B2 (en) 2016-11-10 2020-10-27 Panasonic Intellectual Property Corporation Of America Transmitting method, transmitting apparatus, and program
JPWO2019013023A1 (ja) * 2017-07-11 2020-06-18 大学共同利用機関法人情報・システム研究機構 情報伝送システム
JP7213494B2 (ja) 2017-07-11 2023-01-27 大学共同利用機関法人情報・システム研究機構 情報伝送システム
CN112152715A (zh) * 2019-06-28 2020-12-29 Oppo广东移动通信有限公司 通信控制方法、装置、存储介质及电子设备

Also Published As

Publication number Publication date
JP2014212504A (ja) 2014-11-13
US20130330088A1 (en) 2013-12-12
PT2858269T (pt) 2018-05-28
JP5521128B1 (ja) 2014-06-11
US20130337787A1 (en) 2013-12-19
JP5395293B1 (ja) 2014-01-22
US20140192226A1 (en) 2014-07-10
CN107196703B (zh) 2019-09-03
CN103650383B (zh) 2017-04-12
CN103650383A (zh) 2014-03-19
EP2858269A4 (en) 2015-07-01
CN103650384A (zh) 2014-03-19
CN106888357B (zh) 2019-09-17
JP2014212503A (ja) 2014-11-13
JP2014220783A (ja) 2014-11-20
CN106877927B (zh) 2019-04-26
EP2858268B1 (en) 2018-09-26
CN107317625A (zh) 2017-11-03
JP2014220791A (ja) 2014-11-20
US9166810B2 (en) 2015-10-20
JP2014220789A (ja) 2014-11-20
JPWO2013175804A1 (ja) 2016-01-12
CN106972887B (zh) 2019-07-09
US8994841B2 (en) 2015-03-31
US20140192185A1 (en) 2014-07-10
CN107104731A (zh) 2017-08-29
CN106877927A (zh) 2017-06-20
WO2013175804A1 (ja) 2013-11-28
US20130335592A1 (en) 2013-12-19
US9083543B2 (en) 2015-07-14
US20140232896A1 (en) 2014-08-21
CN106877926B (zh) 2019-05-21
CN103650384B (zh) 2017-07-18
US20140186047A1 (en) 2014-07-03
EP2858268A1 (en) 2015-04-08
CN106972887A (zh) 2017-07-21
JP2014220787A (ja) 2014-11-20
JP5521125B2 (ja) 2014-06-11
US9143339B2 (en) 2015-09-22
CN107104731B (zh) 2019-09-03
US9083544B2 (en) 2015-07-14
SI2858269T1 (en) 2018-06-29
EP2858269A1 (en) 2015-04-08
US8823852B2 (en) 2014-09-02
JPWO2013175803A1 (ja) 2016-01-12
LT2858269T (lt) 2018-05-10
US9300845B2 (en) 2016-03-29
JP5525661B1 (ja) 2014-06-18
CN106877926A (zh) 2017-06-20
JP2014220790A (ja) 2014-11-20
JP2014220788A (ja) 2014-11-20
EP2858268A4 (en) 2015-06-24
EP2858269B1 (en) 2018-02-28
CN107196703A (zh) 2017-09-22
ES2668904T3 (es) 2018-05-23
JP5525662B1 (ja) 2014-06-18
CN107317625B (zh) 2019-10-18
JP5405695B1 (ja) 2014-02-05
US9456109B2 (en) 2016-09-27
JP5602966B1 (ja) 2014-10-08
US20140037296A1 (en) 2014-02-06
JP5393917B1 (ja) 2014-01-22
CN106888357A (zh) 2017-06-23

Similar Documents

Publication Publication Date Title
JP5521128B1 (ja) 情報通信方法
JP6568276B2 (ja) プログラム、制御方法、および情報通信装置
JP5848846B2 (ja) 制御方法、情報通信装置、およびプログラム
JP6382542B2 (ja) 情報通信方法
WO2014103153A1 (ja) 情報通信方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2013548699

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2013793777

Country of ref document: EP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 13793777

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE