WO2015097924A1 - 通信方法 - Google Patents

通信方法 Download PDF

Info

Publication number
WO2015097924A1
WO2015097924A1 PCT/JP2014/002327 JP2014002327W WO2015097924A1 WO 2015097924 A1 WO2015097924 A1 WO 2015097924A1 JP 2014002327 W JP2014002327 W JP 2014002327W WO 2015097924 A1 WO2015097924 A1 WO 2015097924A1
Authority
WO
WIPO (PCT)
Prior art keywords
information
camera
unit
visible light
exposure
Prior art date
Application number
PCT/JP2014/002327
Other languages
English (en)
French (fr)
Inventor
大嶋 光昭
幸司 中西
秀紀 青山
伸輔 緒方
Original Assignee
パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ filed Critical パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ
Priority to JP2015554491A priority Critical patent/JP6298831B2/ja
Priority to CN201480070122.6A priority patent/CN105850061B/zh
Publication of WO2015097924A1 publication Critical patent/WO2015097924A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems
    • H04B10/116Visible light communication
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Definitions

  • the present invention relates to a communication method between a mobile terminal such as a smartphone, a tablet, and a mobile phone and home appliances such as an air conditioner, a lighting device, and a rice cooker.
  • Patent Literature 1 in an optical space transmission device that transmits information to free space using light, limited transmission is performed by performing communication using a plurality of monochromatic light sources of illumination light. A technology for efficiently realizing communication between devices is described in the apparatus.
  • the conventional method is limited to a case where a device to be applied has a three-color light source such as illumination.
  • the present invention solves such problems and provides an information communication method that enables communication between various devices including a device having a small computing power.
  • a communication method is a communication method for a terminal including an in-camera that is a first imaging unit and an out-camera that is a second imaging unit, and the in-camera and the out-camera are connected to the terminal. And a visible light communication step of performing visible light communication using the in-camera or the out-camera switched in the switching step.
  • FIG. 1 is an image diagram showing a usage scene of the mobile terminal in the first embodiment.
  • FIG. 2 is a diagram illustrating an example of an overview of the mobile terminal according to the first embodiment.
  • FIG. 3 is an image diagram when the mobile terminal according to Embodiment 1 is held horizontally.
  • FIG. 4 is an image diagram when the portable terminal according to Embodiment 1 is held vertically.
  • FIG. 5 is a diagram illustrating an example of an in-store map presented by the mobile terminal according to the first embodiment.
  • FIG. 6 is an image diagram of a product UI presented by the mobile terminal according to the first embodiment.
  • FIG. 7 is an image diagram when the product UI presented by the mobile terminal in the first embodiment is operated.
  • FIG. 1 is an image diagram showing a usage scene of the mobile terminal in the first embodiment.
  • FIG. 2 is a diagram illustrating an example of an overview of the mobile terminal according to the first embodiment.
  • FIG. 3 is an image diagram when the mobile terminal according to Embodiment 1 is held horizontally.
  • FIG. 8 is a diagram illustrating an operation in which the user swings the portable terminal from right to left in the first embodiment.
  • FIG. 9 is an image diagram showing a usage scene of the watch-type device in the first embodiment.
  • FIG. 10 is a diagram showing an overall configuration of the communication system in the first embodiment.
  • FIG. 11 is a diagram illustrating an example of a structure of information stored in the product information storage unit according to the first embodiment.
  • FIG. 12 is a diagram illustrating an example of a layout image of the product UI presented by the mobile terminal according to the first embodiment.
  • FIG. 13 is a diagram illustrating an example of a structure of information stored in the map information storage unit in the first embodiment.
  • FIG. 14 is a diagram illustrating an example of a structure of information managed by the state management unit according to the first embodiment.
  • FIG. 15 is a flowchart illustrating the operation of the lighting device according to the first embodiment.
  • FIG. 16 is a flowchart showing the operation of the mobile terminal in the first embodiment.
  • FIG. 17 is a flowchart showing ceiling light related processing in the first embodiment.
  • FIG. 18 is a flowchart showing the base light related processing in the first embodiment.
  • FIG. 19 is a flowchart showing UI-related processing in the first embodiment.
  • FIG. 20 is a flowchart showing a map information UI process according to the first embodiment.
  • FIG. 21 is a flowchart showing the product information UI process according to the first embodiment.
  • FIG. 22 is a flowchart showing the entire display process in the first embodiment.
  • FIG. 23 is a flowchart showing display update pre-processing in the first embodiment.
  • FIG. 24 is a flowchart showing display update processing according to the first embodiment.
  • FIG. 25 is a diagram illustrating a detailed configuration of the light reception control unit according to the second embodiment.
  • FIG. 26 is a flowchart showing the illuminance pattern detection process of the light reception control unit in the second embodiment.
  • FIG. 27 is a diagram illustrating a detailed configuration of the light reception control unit according to the third embodiment.
  • FIG. 28 is a flowchart showing the illuminance pattern detection process of the light reception control unit in the third embodiment.
  • FIG. 29 is an image diagram when using the mobile terminal that detects the movement of the line of sight according to the fourth embodiment.
  • FIG. 30 is a diagram illustrating an example of a configuration of a mobile terminal in Embodiment 4.
  • FIG. 30 is a diagram illustrating an example of a configuration of a mobile terminal in Embodiment 4.
  • FIG. 31 is a flowchart at the time of a server inquiry in the fourth embodiment.
  • FIG. 32 is a diagram illustrating an example of a structure of information managed by the shelf identifier DB according to the fourth embodiment.
  • FIG. 33 is a diagram illustrating a detailed configuration of the light reception control unit according to the fifth embodiment.
  • FIG. 34 is a diagram illustrating a detailed configuration of the light reception control unit according to the sixth embodiment.
  • FIG. 35 is a diagram illustrating an example in which the imaging devices arranged in one row in the seventh embodiment are exposed at the same time and the exposure start time is shifted in the order of closer rows.
  • FIG. 36 is a diagram showing a case where the exposure of the next exposure line is started after the exposure of one exposure line in the seventh embodiment is completed.
  • FIG. 37 is a diagram showing a case where the exposure of the next exposure line is started after the exposure of one exposure line in the seventh embodiment is completed.
  • FIG. 38 is a diagram showing a case where the exposure of the next exposure line is started before the exposure of one exposure line in the seventh embodiment is completed.
  • FIG. 39 is a diagram showing the influence of the difference in exposure time when the exposure start times of the exposure lines in the seventh embodiment are equal.
  • FIG. 40 is a diagram illustrating an influence due to a difference in exposure start time of each exposure line when the exposure times in the seventh embodiment are equal.
  • FIG. 41 is a diagram showing an advantage when the exposure time is short when the exposure times of the exposure lines in Embodiment 7 do not overlap.
  • FIG. 42 is a diagram showing the relationship between the minimum change time of the light source luminance, the exposure time, the time difference between the exposure start times of the exposure lines, and the captured image in the seventh embodiment.
  • FIG. 43 is a diagram showing the relationship between the transition time of the light source luminance and the time difference between the exposure start times of the exposure lines in the seventh embodiment.
  • FIG. 44 is a diagram showing the relationship between the high frequency noise of the light source luminance and the exposure time in the seventh embodiment.
  • FIG. 45 is a graph showing the relationship between the exposure time and the magnitude of the high frequency noise when the high frequency noise of the light source luminance in the seventh embodiment is 20 microseconds.
  • FIG. 46 is a diagram showing the relationship between the exposure time t E and the recognition success rate in the seventh embodiment.
  • FIG. 47 is a diagram illustrating an example of an observation method of luminance of a light emitting unit in Embodiment 7.
  • FIG. 48 is a diagram illustrating an example of each mode of the reception device in the seventh embodiment.
  • FIG. 49 is a diagram showing a service providing system according to the eighth embodiment.
  • FIG. 50 is a flowchart of service provision in the eighth embodiment.
  • FIG. 51 is a flowchart of service provision in another example of the eighth embodiment.
  • FIG. 52 is a service provision flowchart in another example of the eighth embodiment.
  • a communication method is a communication method for a terminal including an in-camera that is a first imaging unit and an out-camera that is a second imaging unit, and the in-camera and the out-camera are connected to the terminal. And a visible light communication step of performing visible light communication using the in-camera or the out-camera switched in the switching step.
  • a communication method of a terminal having an in-camera that is a first imaging unit and an out-camera that is a second imaging unit, the switching step of switching the in-camera and the out-camera at predetermined time intervals, and the switching And a visible light communication step of performing visible light communication using the in-camera or the out-camera switched in the step.
  • the first device when the orientation of the terminal is substantially perpendicular to the ground, the first device is located in front of the user using the out camera switched in the switching step.
  • product information of a product shelf in which the first device is installed is acquired, and the acquired product information is displayed on a display unit of the terminal.
  • the second device located above the user using the in-camera switched in the switching step is visible light.
  • the position information where the second device is installed is acquired, and the acquired position information is used as the current position of the user before Together with the map information of the area the user is present is displayed on the display unit of the terminal.
  • the terminal is mounted on a wristwatch
  • the in-camera is mounted on a front surface of the wristwatch having a display unit for displaying the time of the wristwatch
  • the out-camera is mounted on a side surface of the wristwatch
  • the visible In the optical communication step when the display unit of the wristwatch is substantially horizontal with respect to the ground, a second device that emits visible light using the in-camera is located above the user.
  • position information where the second device is installed is acquired, and using the out-camera, the first device located in front of the user emits visible light.
  • product information of a product shelf in which the first device is installed is acquired, and the acquired position information is set as the current position of the user by the user's selection.
  • the map information of the area the user is present is displayed on the display unit of the terminal, or displays the acquired the item information to the display unit of the terminal.
  • the device associated with the identifier is obtained by inquiring a server about an identifier uniquely given to the device obtained by performing visible light communication with a device that emits visible light.
  • the visible light communication step if there is no information associated with the identifier by querying the server, an error notification indicating that there is no information on the device is sent to the terminal. Display on the display.
  • the method further includes a change step of changing the product information displayed on the display unit of the terminal.
  • the change step the product is displayed on the display unit by flicking the display unit.
  • Product information is changed.
  • the method further includes a change step of changing the map information displayed on the display unit of the terminal.
  • the map information is displayed on the display unit when the user performs a flick operation on the display unit. Map information is changed.
  • the product shelf in which the first device is installed When acquiring product information, the offset given to the map information is initialized, and in the visible light communication step, the product information is displayed on the display unit of the terminal, and then the input switched in the switching step.
  • the position information is acquired as the current position of the user using a camera, an offset given to the product information is initialized.
  • it further includes a line-of-sight detection step for detecting the line of sight of the user.
  • a line-of-sight detection step for detecting the line of sight of the user.
  • the switching step when the orientation of the terminal is substantially perpendicular to the ground, the camera is switched to the out-camera.
  • the visual line of the user is detected using an in-camera, and in the visible light communication step, the first device located in front of the user is visible using the out-camera switched in the switching step.
  • the product information of the first product shelf on which the first device is installed is obtained, and the point of view of the user detected in the detection step is obtained.
  • the product information of the second product shelf is displayed instead of the product information of the first product shelf.
  • the terminal includes an image sensor having a plurality of exposure lines, and the communication method further starts exposure of each exposure line of the image sensor sequentially at different times, and the exposure time of each exposure line.
  • the visible light communication step of acquiring the identification information of the subject by demodulating the bright line pattern corresponding to each exposure line that appears in the image data, and the service information associated with the identification information of the subject A service presentation step to be presented to the user.
  • the communication method further includes a request receiving step for performing a process of receiving a request for information distribution from a requester, and the information requested by the requester as information corresponding to the data obtained by the visible light.
  • the communication device is a communication device including an in-camera that is a first imaging unit and an out-camera that is a second imaging unit, and the in-camera and the out-camera are connected to the terminal. And a visible light communication unit that performs visible light communication using the in-camera or the out-camera switched in the switching step.
  • the communication device in the present embodiment is mounted on a mobile terminal such as a smartphone.
  • FIG. 1 is an image diagram showing a usage scene of the mobile terminal in the first embodiment.
  • FIG. 2 is a diagram illustrating an example of an overview of the mobile terminal according to the first embodiment.
  • the communication device used by the user receives visible light communication with the ceiling light A1101 installed on the ceiling, thereby receiving the ID emitted by the ceiling light A1101, or visible with the baselight A1103 installed in front of the user. By receiving optical communication, an ID emitted from the base light A1103 is received.
  • This communication apparatus has a plurality of light receiving units (imaging units) that receive visible light, and receives a plurality of IDs through visible light communication with a plurality of devices having different arrangement positions such as the ceiling light A1101 and the base light A1103.
  • imaging units that receive visible light
  • IDs through visible light communication
  • devices having different arrangement positions such as the ceiling light A1101 and the base light A1103.
  • the most suitable light receiving unit for light reception among the plurality of light receiving units is selected according to the attitude of the mobile terminal.
  • the communication apparatus includes an in camera that is a first imaging unit and an out camera that is a second imaging unit. More specifically, for example, as shown in FIG. 2, a portable terminal A1201 in which the communication apparatus is mounted has an in-camera A1202 (first imaging unit) on the front and an out-camera A1203 (second imaging unit) on the back.
  • the touch panel unit A1204 is provided on the front surface.
  • the in-camera A 1202 (first image capturing unit) and the out-camera A 1203 (second image capturing unit) are switched according to the orientation of the terminal (mobile terminal) on which the communication apparatus is mounted, and the switched in-camera A 1202 is switched. Visible light communication is performed using the (first imaging unit) or the out-camera A 1203 (second imaging unit).
  • FIG. 3 is an image diagram when the mobile terminal in Embodiment 1 is held horizontally.
  • FIG. 4 is an image diagram when the portable terminal according to Embodiment 1 is held vertically.
  • the mobile terminal A1201 when the display surface of the mobile terminal A1201 is held by the user so as to face the ceiling (substantially parallel to the ground), the mobile terminal A1201 is connected to the mobile terminal A1201 by an acceleration sensor built in itself. Is horizontal with respect to the ceiling (ground), and the in-camera A 1202 is activated. At this time, the operation of the out camera A 1203 may be interrupted in order to reduce power consumption.
  • visible light communication is performed by changing the light amount of the lighting according to a specific pattern (light emission pattern). For example, as shown in a region A1301, when the in-camera A1202 in operation detects light emission of the ceiling light A1101, visible light communication is performed by imaging. That is, the portable terminal A 1201 acquires the ID associated with the light emission pattern of the ceiling light A 1101 by performing visible light communication with the ceiling light A 1101, and changes the operation (behavior) according to the type of ID.
  • the mobile terminal A 1201 when the mobile terminal A 1201 is held by a user so as to be perpendicular to the ground, the mobile terminal A 1201 is connected to the ceiling by an acceleration sensor built in the mobile terminal A 1201. It is determined that the light is not directed to the ceiling light and is directed to the base light A1103 installed on the wall or shelf A1102, and the out camera A1203 is activated. At this time, the operation of the in-camera A 1202 may be interrupted in order to reduce power consumption.
  • visible light communication is performed by changing the light amount of the lighting according to a specific pattern (light emission pattern).
  • visible light communication is performed by imaging. That is, the mobile terminal A 1201 obtains an ID associated with the light emission pattern of the base light A 1103 by performing visible light communication with the base light A 1103, and changes the behavior according to the type of ID.
  • FIG. 5 is a diagram illustrating an example of an in-store map presented by the mobile terminal according to the first embodiment.
  • the mobile terminal A 1201 determines that the mobile terminal A 1201 is horizontal with respect to the ceiling (ground) as shown in FIG. 3, the mobile terminal A 1201 is associated with the light emission pattern acquired by performing visible light communication using the in-camera A 1202. Send the ID to the server.
  • the server searches the location information associated with the ID and notifies the mobile terminal A 1201 of the searched location information.
  • the mobile terminal A 1201 acquires the position information from the server, the acquired position information is used as the current position of the user, and a map (map information) indicating the position where the user is present, for example, a map in the store as illustrated in FIG. 5 is used. Present to the person.
  • the ceiling light A1101 (second device) that emits visible light that is positioned above the user is used with the in-camera A1202.
  • position information where the ceiling light A1101 (second device) is installed is acquired.
  • the portable terminal A 1201 displays the acquired position information as the current position of the user on the display unit of the portable terminal A 1201 together with the map information of the area where the user exists.
  • the map information displayed on the display unit of the mobile terminal A 1201 can be changed by a flick operation. For example, when the user performs a flick operation on the display unit of the mobile terminal A 1201, the offset position of the map information displayed on the display unit is changed.
  • FIG. 6 is an image diagram of the product UI presented by the mobile terminal according to the first embodiment.
  • FIG. 7 is an image diagram when the product UI presented by the mobile terminal in the first embodiment is operated.
  • the mobile terminal A1201 transmits the ID acquired by performing visible light communication using the in-camera A1202 to the server. .
  • the server searches the database for the product type and stock of the product shelf associated with the ID, and generates an image indicating the stock amount of the product from the searched product type and stock.
  • the server generates an image in which an image of a product in stock is superimposed on an image of a product displayed on the product shelf. Then, the server transmits the generated image to the mobile terminal A1201.
  • the mobile terminal A 1201 presents an image received from the server, that is, an image indicating the stock amount of the product on the display unit.
  • the visible light communication is performed with the base light A1103 (first device) that emits visible light that is located in front of the user using the out camera A1203.
  • the product information of the product shelf in which the base light A1103 (first device) is installed is acquired.
  • the mobile terminal A 1201 displays the acquired product information on the display unit of the mobile terminal A 1201.
  • the image indicating the stock quantity of the product displayed on the display unit of the mobile terminal A 1201 can be changed by a flick operation.
  • the offset of the image indicating the inventory amount of the product displayed on the display unit is changed, or the inventory of the product displayed on the display unit
  • the product information displayed on the display unit is changed.
  • the server may transmit a plurality of images (a plurality of image data) to the mobile terminal A 1201 when sending the generated image (image data) to the mobile terminal A 1201.
  • the server sequentially transmits a shelf image A1701 with a small stock amount and a shelf image A1703 with a large stock amount
  • the portable terminal A1201 displays a shelf image A1701 with a small stock amount.
  • the portable terminal A1201 displays a shelf image A1703 with a large inventory amount from a shelf image A1701 with a small inventory amount through an image A1702 indicating the progress of scrolling such as an image A1702 in accordance with a user's screen operation such as a flick operation. Are displayed in order. In this way, the user can check the product inventory more intuitively and easily.
  • FIG. 8 is a diagram illustrating an operation in which the user swings the mobile terminal from right to left in the first embodiment.
  • the mobile terminal A 1201 can switch the presentation content according to the received ID as described above, for example, as shown in FIG. 8, the product information of the shelf A 1801 and the shelf A 1802 visually recognized by the user can be switched. That is, when the user points the portable terminal A 1201 from the shelf A 1801 to the shelf A 1802, the portable terminal A 1201 receives the ID received from the base light A 1803 and the ID received from the base light A 1804 in order. Therefore, the mobile terminal A 1201 can sequentially display the product information corresponding to the ID received from the base light A 1803 and the ID received from the base light A 1804.
  • the mobile terminal A 1201 can present the user with information corresponding to the ID acquired through visible light communication with the device selected according to its own posture.
  • the terminal on which the communication terminal is mounted is not limited to the portable terminal A 1201 in which the imaging units are arranged on the front surface and the back surface, but may be a wristwatch.
  • the terminal on which the communication terminal is mounted is a wristwatch (a wristwatch type device) will be described with reference to FIG.
  • FIG. 9 is an image diagram showing a usage scene of the watch-type device in the first embodiment.
  • the wristwatch type device A1901 shown in FIG. 9 includes a light receiving portion A1902 installed on the upper surface portion and a light receiving portion A1903 installed on the side surface portion.
  • the light receiving unit A1902 corresponds to the in-camera A1202 (first imaging unit), and the light receiving unit A1903 corresponds to the out-camera A1203 (second imaging unit).
  • the wristwatch type device A 1901 includes an acceleration sensor.
  • the wristwatch-type device A1901 operates the light-receiving unit A1902 and the light-receiving unit A1903, for example, when the upper surface portion is parallel to the ground, and receives the light emitted from the ceiling light A1904.
  • Light received by A1902 and light emitted from the base light A1905 is received by the light receiving unit A1903.
  • the wristwatch-type device A1901 uses the light receiving unit A1902 to perform visible light communication with a ceiling light A1904 (second device) that is positioned above the user and emits visible light, whereby the ceiling light A1904 is obtained.
  • the position information where the (second device) is installed is acquired.
  • the wristwatch-type device A 1901 uses the light receiving unit A 1903 to perform visible light communication with a base light A 1905 (first device) that is positioned in front of the user and emits visible light, whereby the base light A 1905 (first device). ) Is acquired. Then, by the user's selection, the acquired position information is displayed on the display unit together with the map information of the area where the user exists as the current position of the user, or the acquired product information is displayed on the display unit.
  • the wristwatch type device A1901 may switch between the light receiving unit A1902 and the light receiving unit A1903 every predetermined time, and perform visible light communication using the switched light receiving unit A1902 or the light receiving unit A1903.
  • a portable terminal or wristwatch equipped with this communication device is used.
  • FIG. 10 is a diagram showing an overall configuration of the communication system in the first embodiment.
  • a mobile terminal A11001, an illumination device A11002, an illumination device A11003, and a server device A11015 are provided.
  • the illumination device A11002 includes an ID storage unit A11004, an encoding unit A11005, an illuminance pattern storage unit A11006, and a light emitting unit A11007.
  • the illumination device A11002 corresponds to a second device such as the ceiling light A1101 shown in FIG. 1 or the ceiling light A1904 shown in FIG.
  • the ID storage unit A11004 is a memory area, in which an identifier such as a MAC address that can uniquely determine an individual is written in advance.
  • the encoding unit A11005 When power is supplied to the lighting device A11002, the encoding unit A11005 reads the ID from the ID storage unit A11004, converts the ID into an illumination illuminance pattern, that is, an illumination illuminance at each timing, and converts the illumination pattern to the illuminance pattern. Store in the storage unit A11006.
  • the light emitting unit A11007 performs light emission control while updating the illuminance at high speed based on the pattern indicated by the illuminance pattern storage unit A11006. Accordingly, the illumination device A11002 performs illuminance control (visible light communication) based on the ID.
  • the illumination device A11003 includes an ID storage unit A11008, an encoding unit A11009, an illuminance pattern storage unit A11010, and a light emitting unit A11011.
  • the illumination device A11003 corresponds to a first device such as the baselight A1103 shown in FIG. 1 or the baselight A1905 shown in FIG.
  • the ID storage unit A11008 is a memory area in which an identifier such as a MAC address that can uniquely determine an individual is written in advance.
  • the encoding unit A11009 When power is supplied to the lighting device A11003, the encoding unit A11009 reads the ID from the ID storage unit A11008, converts the ID into an illumination illuminance pattern, that is, an illumination illuminance at each timing, and the illumination pattern is converted into an illuminance pattern. Store in the storage unit A11010.
  • the light emitting unit A11011 When the activation phase is completed, the light emitting unit A11011 performs light emission control while updating the illuminance at high speed based on the pattern indicated by the illuminance pattern storage unit A11010. Thereby, the illumination device A11003 performs illuminance control based on the ID (visible light communication).
  • the mobile terminal A11001 includes a light reception control unit A11012, an ID storage unit A11013, a DB management unit A11014, a product information storage unit A11016, a map information storage unit A11017, a display unit A11018, a state management unit A11019, UI unit A11020.
  • the portable terminal A11001 corresponds to a terminal such as the portable terminal A1201 shown in FIG. 2 or the wristwatch type device shown in FIG.
  • the light reception control unit A11012 When detecting the illuminance pattern of the light emitting unit A11007 and the light emitting unit A11011, the light reception control unit A11012 converts the detected pattern into an ID and stores it in the ID storage unit A11013. In the present embodiment, since the illuminance pattern of the light emitting unit A11007 or the light emitting unit A11011 is detected, the ID stored in the ID storage unit A11013 is stored in either the ID storage unit A11004 or the ID storage unit A11008. Is equal to the ID.
  • FIG. 11 is a diagram illustrating an example of a structure of information stored in the product information storage unit according to the first embodiment.
  • FIG. 12 is a diagram illustrating an example of a layout image of the product UI presented by the mobile terminal according to the first embodiment.
  • the product information storage unit A11016 stores information including a valid flag A11101, a shelf appearance A11102, a shelf interior A11103, product type information A11104, and product inventory information A11105, for example, as shown in FIG.
  • the valid flag A11101 indicates whether or not the merchandise inventory information is to be rendered, and takes a value of either TRUE or FALSE. When this value is TRUE, the product inventory information rendering process is performed by the display unit A11018.
  • the shelf appearance A11102 indicates the appearance of the shelf to be drawn, and stores the height and width of the actual size of the shelf. Based on the actual size information, the display unit A11018 performs a rendering process so that the shelf is settled in the screen. For example, the display unit A11018 renders the outer frame of the shelf with a layout as shown in FIG.
  • Shelf interior A11103 indicates the number of shelves and the height ratio of each shelf to the entire shelf.
  • the display unit A11018 renders the inner plate of the shelf at intervals as shown in FIG. 12 based on these pieces of information.
  • the product type information A11104 stores information on the number of product variations and the image data body of each product. For example, when the format of the image data received from the server apparatus A11015 is PNG data, the PNG data itself is arranged in the product type image data corresponding to the product type information A11104.
  • the display unit A11018 expands the PNG data in a cache area (not shown) immediately before rendering, renders the contents of the cache area, and presents the product image to the user.
  • the product inventory information A11105 stores information on the number of products in stock, the type of product for which the stock should be rendered, and coordinates.
  • the x-coordinate is “the number from the left of the product shelf”
  • the y-coordinate is “the number of the shelf from the top of the product shelf”
  • the z-coordinate is “of the shelves arranged in the back , And what number shelf from the front.
  • the display unit A11018 performs a rendering process on the product image indicated by the product type number at coordinates that match the coordinate information.
  • map information storage unit A11017 Next, the map information storage unit A11017 will be described.
  • FIG. 13 is a diagram illustrating an example of a structure of information stored in the map information storage unit A11017 in the first embodiment.
  • the map information storage unit A11017 stores information including a valid flag A11301, a map image data length A11302, and a map image A11303 as shown in FIG.
  • the valid flag A11301 indicates whether or not map information is to be rendered, and takes either TRUE or FALSE value. When this value is TRUE, map information rendering processing is performed by the display unit A11018.
  • the map image A11303 stores information on the image data body of the map. For example, when the format of the image data received from the server apparatus A11015 is PNG data, the PNG data itself is stored in the map image A11303.
  • the map image data length A 11302 indicates the data length of the map image A 11303.
  • the display unit A11018 expands the PNG data in a cache area (not shown) immediately before rendering, renders the contents of the cache area, and displays the product image. Present to the user.
  • FIG. 14 is a diagram illustrating an example of a structure of information managed by the state management unit according to the first embodiment.
  • the state management unit A11019 manages information including an abnormality flag A11601, a previous frame drawing type A11602, a display shelf depth A11603, a map offset XA11604, a map offset YA11605, and a previously acquired IDA11606. .
  • the previous acquisition IDA 11606 sets the initial value as an invalid value.
  • invalid value ⁇ 1.
  • the abnormal flag A11601 stores a value of TRUE or FALSE.
  • the state management unit A11019 sets the abnormality flag A11601 to TRUE when the ID sent to the server device A11015 is an invalid ID that is not related to any lighting device (lighting device A11002, lighting device A11003).
  • the display unit A11018 presents to the user (user) that reception has failed.
  • the values managed by the display shelf depth A11603, the map offset XA11604, and the map offset YA11605 are updated by the UI unit A11020 when the user operates the touch panel unit A1204.
  • the DB management unit A11014 When the DB management unit A11014 reads the ID from the ID storage unit A11013, the DB management unit A11014 inquires the server apparatus A11015 and collates the recorded ID.
  • the DB management unit A11014 displays the map information as shown in FIG. 5, that is, the corresponding ceiling light and the surrounding map image.
  • a request is sent to server apparatus A 11015 to transmit.
  • the DB management unit A11014 acquires a map image (map information method) as shown in FIG. 5 and stores it in the map information storage unit A11017.
  • the DB management unit A11014 sets the validity flag A11301 of the map information storage unit A11017 to TRUE, sets the validity flag of the product information storage unit A11016 to FALSE, and sets the abnormality flag A11601 to FALSE.
  • the DB management unit A11014 transmits the product information shown in FIG. 11 to the server device A11015 if the ID that has been read can be verified as, for example, the ID of any baselight installed on the product shelf as a result of the verification.
  • the DB management unit A11014 stores the acquired product information in the product information storage unit A11016.
  • the DB management unit A11014 sets the validity flag A11301 of the map information storage unit A11017 to FALSE, sets the validity flag of the product information storage unit A11016 to TRUE, and sets the abnormality flag A11601 to FALSE.
  • the DB management unit A 11014 sets the validity flag A 11301 of the map information storage unit A 11017. Is set to FALSE, the validity flag of the product information storage unit A11016 is set to FALSE, and the abnormality flag A11601 is set to TRUE.
  • UI unit A11020 is linked with touch panel unit A1204.
  • the UI unit A11020 updates the values managed by the map offset XA11604 and the map offset YA11605.
  • the UI unit A11020 increases the value of the map offset XA11604 according to the flick amount, and the touch panel unit A1204 is flicked to the left. And the value of the map offset XA11604 is decreased.
  • the UI unit A11020 decreases the value of the map offset YA11605 when the touch panel unit A1204 is flicked up by the user, and the value of the map offset YA11605 when the touch panel unit A1204 is flicked down. Increase.
  • UI part A11020 updates the value of display shelf depth A11603, for example, when effective flag A11301 of map information storage part A11017 is TRUE.
  • the UI unit A11020 for example, increases the value of the display shelf depth A11603 when the touch panel unit A1204 is flicked rightward by the user, and the display shelf depth A11603 is operated when the touch panel unit A1204 is flicked leftward. Decrease the value of.
  • the UI unit A11020 resets the value of the display shelf depth A11603 to 0 when the value of the display shelf depth A11603 becomes larger than the maximum value among the z coordinates of the products in the product inventory information A11105. In addition, when the value of the display shelf depth A11603 becomes smaller than 0, the UI unit A11020 resets the display shelf depth A11603 to (the maximum value among the z coordinates of the products in the product inventory information A11105).
  • Display A11018 The display unit A11018 renders and displays the above map information or product information. In addition, the display unit A11018 updates the display content based on the above-described processing.
  • the display unit A11018 determines that the state of the shelf to be displayed needs to be initialized once, and the display shelf depth A11603. Set the value of to 0 again.
  • product information is displayed on the display unit A11018 of the mobile terminal A11001, and the position information is acquired as the current position of the user using the switched first imaging unit (for example, the in-camera A1202), product information Initialize the offset given to.
  • switched first imaging unit for example, the in-camera A1202
  • the display unit A11018 determines that the state of the map to be displayed needs to be initialized once when the validity flag A11301 of the map information storage unit A11017 is TRUE and the previous frame drawing type A11602 is other than map information.
  • the values of the offset XA 11604 and the map offset YA 11605 are reset to 0. That is, after the map information is displayed on the display unit A11018 of the mobile terminal A11001, the product shelf in which the first device (the lighting device A11003) is installed using the switched second imaging unit (for example, the out camera A1203). When the product information is acquired, the offset given to the map information is initialized.
  • the display unit A11018 determines that the display state needs to be initialized when the previous acquisition ID of the state management unit A11019 and the ID storage unit A11013 hold different values, and the map offset XA11604 and the map offset YA11605 and display shelf depth A11603 may be set to 0 again. In this case, the contents of the ID storage unit A11013 are copied to the previous acquisition ID of the state management unit A11019.
  • the previous frame drawing type A11602 is set to “product information”, and the validity flag A11301 of the map information storage unit A11017 is set.
  • the previous frame drawing type A11602 is set to “map information”.
  • the abnormality flag A11601 is TRUE, the previous frame drawing type A11602 is set to “abnormal”.
  • the display unit A11018 executes a rendering process for displaying map information as shown in FIG. 5 when the valid flag A11301 of the map information storage unit A11017 is TRUE. Further, the display unit A11018 executes a rendering process for displaying the product inventory status as shown in FIG. 12 when the validity flag of the product information storage unit A11016 is TRUE. On the other hand, when the abnormality flag A11601 is TRUE, the display unit A11018 updates the display content to indicate that an illegal ID has been received.
  • FIG. 15 is a flowchart illustrating the operation of the lighting device according to the first embodiment.
  • the encoding unit A11005 reads the ID from the ID storage unit A11004 (SA11402).
  • the encoding unit A11005 converts the ID into an illumination illuminance pattern, that is, an illumination illuminance at each timing by an encoding process (SA11403).
  • the encoding unit A11005 stores the illuminance pattern in the first illuminance pattern storage unit A11006 (SA11404).
  • the light emitting unit A11007 reads the illuminance pattern from the illuminance pattern storage unit A11006 (SA11405), and performs light emission control while updating the illuminance at high speed based on the pattern indicated by the illuminance pattern. (SA11406).
  • the lighting device A11002 performs illuminance control (visible light communication) based on the ID.
  • the encoding unit A11009 reads the ID from the ID storage unit A11008 (SA11402), converts the ID into the illumination illuminance pattern, that is, the illumination illuminance at each timing by the encoding process (SA11403), and converts the illumination pattern into the illuminance pattern storage unit. It stores in A11010 (SA11404).
  • the light emitting unit A11011 reads the illuminance pattern from the illuminance pattern storage unit A11010 (SA11405), and performs light emission control while updating the illuminance at high speed based on the pattern indicated by the illuminance pattern (SA11406). .
  • the lighting device A11003 performs illuminance control based on the ID.
  • FIG. 16 is a flowchart showing the operation of the mobile terminal in the first embodiment.
  • the light reception control unit A11012 first switches the shutter speed to a high speed setting (SA11500).
  • the light receiving control unit A11012 converts the pattern detected by the decoding process into an ID (SA11501) and stores it in the ID storage unit A11013 (SA11502).
  • the DB management unit A11014 reads the ID from the ID storage unit A11013, it makes an inquiry to the server device A11015 (SA11503) and collates the recorded ID (SA11504, SA11506).
  • the DB management unit A11014 executes processing related to the ceiling light (SA11505).
  • SA11506 if the ID is one of the baselight IDs installed on the product shelf as a result of the collation (Yes in SA11506), the DB management unit A11014 executes baselight-related processing (SA11507). .
  • the DB management unit A11014 sets the valid flag A11301 of the map information storage unit A11017 to FALSE.
  • the validity flag of the information storage unit A11016 is set to FALSE, and the abnormality flag A11601 is set to TRUE.
  • the display unit A11018 displays an error notification indicating that there is no information regarding the lighting device (SA11508). That is, the portable terminal A11001 inquires of the server device A11015 for an identifier uniquely given to the illumination device acquired by performing visible light communication with the illumination device that emits visible light, thereby associating the illumination device associated with the identifier. Get information about. However, the portable terminal A11001 displays on the display unit A11018 an error notification indicating that there is no information regarding the lighting device when there is no information associated with the identifier even when the server apparatus A11015 is inquired.
  • FIG. 17 is a flowchart showing ceiling light related processing in the first embodiment.
  • the DB management unit A11014 sends a request to the server apparatus A11015 to transmit a corresponding ceiling light and its surrounding map image as shown in FIG. 5 (SA11701).
  • the DB management unit A11014 acquires the map image shown in FIG. 5 and stores it in the map information storage unit A11017 (SA11702).
  • the DB management unit A11014 sets the validity flag A11301 of the map information storage unit A11017 to TRUE, and sets the validity flag of the product information storage unit A11016 to FALSE (SA11703).
  • FIG. 18 is a flowchart showing the base light related processing in the first embodiment.
  • the DB management unit A11014 requests the product information shown in FIG. 11 from the server apparatus A11015 (SA11801).
  • the DB management unit A11014 stores the acquired product information in the product information storage unit A11016 (SA11802).
  • the DB management unit A11014 sets the validity flag A11301 of the map information storage unit A11017 to FALSE and sets the validity flag of the product information storage unit A11016 to TRUE (SA11803).
  • FIG. 19 is a flowchart showing UI related processing in the first embodiment.
  • the UI unit A11020 is linked to the touch panel unit A1204 as described above.
  • the UI unit A11020 executes a UI process for product information (S11904).
  • FIG. 20 is a flowchart showing the UI process for map information in the first embodiment.
  • the UI unit A11020 determines whether or not the touch panel unit A1204 is flicked rightward by the user (SA12001). In SA12001, the UI unit A11020 increases the value of the map offset XA11604 in accordance with the flick amount when the user touches the touch panel unit A1204 in the right direction (Yes in SA12001) (SA12002).
  • SA12003 if the touch panel A1204 is flicked leftward by the user (yes in SA12003), the UI unit A11020 decreases the value of the map offset XA11604 (SA12004).
  • the UI unit A11020 reduces the value of the map offset YA11605 (SA12006) when the touch panel unit A1204 is flicked upward by the user (yes in SA1205).
  • the UI unit A11020 increases the value of the map offset YA11605 (SA12008) when the touch panel unit A1204 is flicked downward by the user (yes in SA12007).
  • the UI unit A11020 updates the values of the map offset XA11604 and the map offset YA11605.
  • FIG. 21 is a flowchart showing the product information UI process in the first embodiment.
  • the UI unit A11020 determines whether the touch panel unit A1204 is flicked rightward by the user (SA12101). In SA12101, when the touch panel unit A1204 is flicked to the right by the user (Yes in SA12101), the UI unit A11020 increases the value of the display shelf depth A11603 (SA12102).
  • SA12103 when the touch panel unit A1204 is flicked leftward by the user (yes in SA12103), the UI unit A11020 decreases the value of the display shelf depth A11603 (SA12104).
  • the UI unit A11020 sets the display shelf depth A11603 to 0 when the value of the display shelf depth A11603 is larger than the maximum value among the z coordinates of the products in the product inventory information A11105 (Yes in SA12105).
  • the setting is reset (SA12106).
  • the UI unit A11020 sets the value of the display shelf depth A11603 to the largest z coordinate of the product in the product inventory information A11105.
  • the value is reset (SA12108).
  • the UI unit A11020 updates the display shelf depth A11603.
  • FIG. 22 is a flowchart showing the entire display process in the first embodiment.
  • FIG. 23 is a flowchart showing display update pre-processing in the first embodiment, and
  • FIG. 24 is a flowchart showing display update processing in the first embodiment.
  • the display unit A11018 executes a display update pre-process before performing the display update process (SA12201). Then, the display unit A11018 executes the display update process after executing the display update pre-process (SA12202).
  • the display unit A11018 confirms whether or not the product information is valid as shown in FIG. 23 (SA12301).
  • the display unit A11018 needs to initialize the state of the shelf to be displayed. It is determined that there is, and the value of the display shelf depth A11603 is reset to 0 (SA12303).
  • the display unit A11018 confirms whether the map information is valid (SA12304).
  • the display unit A11018 needs to initialize the state of the map to be displayed when the validity flag A11301 of the map information storage unit A11017 is TRUE (yes in SA12304) and the previous frame drawing type A11602 is other than map information (no in SA12305). It is determined that there is a map offset XA11604 and map offset YA11605 are reset to 0 (SA12306).
  • the display unit A11018 confirms whether or not the ID has been updated (SA12307).
  • the display unit A11018 determines that the display state needs to be initialized, and the map The values of the offset XA11604, map offset YA11605, and display shelf depth A11603 are reset to 0 (SA12308).
  • the display unit A11018 updates the old ID by copying the content of the ID storage unit A11013 to the previous acquisition ID of the state management unit A11019 (SA12309).
  • the display unit A11018 updates the previous frame drawing type (SA12310). Specifically, when the validity flag A11101 of the product information storage unit A11016 is TRUE, the display unit A11018 displays the previous frame drawing type A11602 as “product information”, and when the validity flag A11301 of the map information storage unit A11017 is TRUE. The previous frame drawing type A 11602 is set to “map information”. Also, the display unit A11018 sets the previous frame drawing type A11602 to “abnormal” when the abnormality flag A11601 is TRUE.
  • the display unit A11018 confirms whether the map information is valid as shown in FIG. 24 (SA12301).
  • the display unit A11018 reads the value of the map offset XA11604 and the value of the map offset YA11606 (SA12402), and shifts by the value of each offset.
  • the map information rendering process as shown in FIG. 5 is executed (SA12403).
  • the display unit A11018 reads the value of the display shelf depth A11603 (SA12404) and presents the shelf image indicated by the display shelf depth A11603. Then, the rendering process of the commodity inventory status as shown in FIG. 12 is executed (SA12406).
  • the display unit A11018 updates the display content to display that an invalid ID has been received when the validity flag of the product information is invalid (no in SA12404) and when the abnormality flag A11601 is TRUE. (SA12407).
  • FIG. 25 is a diagram illustrating a detailed configuration of the light reception control unit according to the second embodiment.
  • the light reception control unit A11012 in the second embodiment includes a light reception unit A12501, a light reception unit A12502, a selector A12503, an acceleration detection unit A12504, a light reception signal storage unit A12505, a decoding unit A12506, And a threshold storage unit A12507.
  • the light receiving unit A12501 corresponds to, for example, the in-camera A 1202 (first imaging unit) of the first embodiment
  • the light receiving unit A 12502 corresponds to, for example, the out-camera A 1203 (second imaging unit) of the first embodiment.
  • the selector A12503 is a selector for selecting which of the two light receiving units is to be operated.
  • the acceleration detection unit A12504 supplies information necessary for the selection process in the selector A12503 by detecting the acceleration of the mobile terminal A11011.
  • the light reception signal storage unit A12505 stores the light reception signal obtained from the light reception unit A12501 or the light reception unit A12502 via the selector A12503.
  • the decoding unit A12506 reads the received light signal from the received light signal storage unit A12505, performs decoding processing to generate an ID, and stores the generated ID in the ID storage unit A11013.
  • the threshold storage unit A12507 stores in advance a first threshold and a second threshold for determining whether or not the mobile terminal A11011 equipped with the light reception control unit A11012 is horizontal with respect to the acceleration acquired by the selector A12503. To do.
  • FIG. 26 is a flowchart showing the illuminance pattern detection process of the light reception control unit in the second embodiment.
  • the light reception control unit A11012 detects acceleration generated in the back direction of the mobile terminal A11011 from the acceleration detection unit A12504 (SA12601).
  • the light reception control unit A11012 compares the acquired acceleration with the threshold value stored in the threshold value storage unit A12507, and checks whether the light reception unit A12501 (in-camera) is facing upward (SA12602).
  • the light reception control unit A11012 determines that the light reception unit A12501 (in camera) is upward with respect to the ground (yes in SA12602), and the light reception unit A12501 (in camera). (SA12603). If the acceleration is greater than the first threshold value, the light reception control unit A11012 has a greater acceleration, that is, a gravitational acceleration, in the back direction of the mobile terminal A11011. Therefore, the mobile terminal A11011 is horizontal to the ground, and It can be determined that the light receiving unit A12501 (in-camera) is facing upward with respect to the ground. Then, the light reception control unit A11012 switches to or operates the light reception unit A12501.
  • the light reception control unit A11012 determines that the light reception unit A12501 (in-camera) is not upward with respect to the ground (no in SA12602) and the light reception unit A12502 (out) even if the acceleration is equal to or less than the second threshold value. Switch to (camera) (SA12604). If the acceleration is equal to or less than the second threshold value, the light reception control unit A11012 does not generate a large gravitational acceleration in the back direction of the mobile terminal A11011. Therefore, the mobile terminal A11011 is not horizontal with respect to the ground, and the light reception unit A12502 ( It is determined that the (out-camera) is facing the wall or shelf. Then, the light reception control unit A11012 switches to or operates the light reception unit A12502 (out camera).
  • the light reception control unit A11012 acquires a still image capture (SA12605). Specifically, the light reception control unit A11012 acquires a photographed image from the light receiving unit A12501 (in camera) or the light receiving unit A12502 (out camera) by the above processing.
  • the light reception control unit A11012 acquires a change in illumination illuminance from the captured image, that is, executes a decoding process (SA12606).
  • the light reception control unit A11012 stores the ID obtained by the decoding process in the ID storage unit A11013 (SA12607).
  • the light reception control unit A11012 can select the light reception unit (imaging unit) according to the attitude of the mobile terminal A11011. This makes it ideal for lighting equipment that looks into the mobile device from the top (overlooking the floor plan of the building) and selects the light receiving unit (in-camera) that best suits the lighting equipment, and to look into the front shelf and other subjects horizontally. It is possible to select a light receiving unit (out camera).
  • FIG. 27 is a diagram illustrating a detailed configuration of the light reception control unit according to the third embodiment.
  • the light reception control unit A11012 in the third embodiment includes a first light reception unit A12701, a second light reception unit A12702, a selector A12703, a timer control unit A12704, a light reception signal storage unit A12705, a decoding unit A12706, and a threshold value.
  • the light receiving unit A12701 corresponds to, for example, the in-camera A 1202 (first imaging unit) of the first embodiment
  • the light receiving unit A12702 corresponds to, for example, the out-camera A 1203 (second imaging unit) of the first embodiment.
  • the selector A12703 is a selector for selecting which of these two light receiving units is to be operated.
  • Timer control unit A12704 supplies information necessary for selection processing in selector A12703.
  • the light reception signal storage unit A12705 stores the light reception signal obtained from the first light reception unit A12701 or the second light reception unit A12702 via the selector A12703.
  • the decoding unit A12706 reads the received light signal from the received light signal storage unit A12705, performs decoding processing to generate an ID, and stores the generated ID in the ID storage unit A11013.
  • the threshold storage unit A12707 stores in advance a threshold value 1 of a time required for the selector A12703 to start receiving light from the first light receiving unit A12701 and to switch to the light receiving of the second light receiving unit A12702.
  • the threshold value storage unit A12507 further stores in advance a threshold value 2 of a time required for the selector A12703 to start receiving light from the second light receiving unit A12702 and switch to the light reception of the first light receiving unit A12701.
  • FIG. 28 is a flowchart showing the illuminance pattern detection process of the light reception control unit in the third embodiment.
  • the light reception control unit A11012 confirms whether the timer control unit A12704 is stopped (SA12801).
  • SA12801 if the timer control unit A12704 is not in operation (Yes in SA12801), the light reception control unit A11012 operates the timer control unit A12704 and operates the first light reception unit A12701 (SA12802).
  • SA12803 if the first light receiving unit A12701 is in operation (Yes in SA12803), the light reception control unit A11012 has passed the first threshold time since the first light receiving unit A12701 started to operate. If this is the case (Yes in SA12804), the first light receiving unit A12701 is stopped and the second light receiving unit A12702 is operated in order to operate each light receiving unit with good balance (SA12806).
  • the second threshold time elapses after the second light receiving unit A12702 is operated. If so (Yes in SA12805), the second light receiving unit A12702 is stopped and the first light receiving unit A12701 is operated in order to operate each light receiving unit with good balance (SA12807).
  • the light reception control unit A11012 acquires a still image capture (SA12608). Specifically, the light reception control unit A11012 acquires a captured image from the activated first light receiving unit A12501 or the second light receiving unit A12502 by the above processing.
  • the light reception control unit A11012 obtains a change in illumination illuminance from the captured image, that is, executes a decoding process (SA12609).
  • the light reception control unit A11012 stores the ID obtained by the decoding process in the ID storage unit A11013 (SA12610).
  • the light reception control unit A11012 performs selection of the light reception unit (imaging unit) at predetermined time intervals, for example, when a wristwatch type device as shown in FIG.
  • the ID obtained from A1904 and the ID obtained from the base light A1905 installed on the shelf can be acquired in a balanced manner.
  • the light reception control unit A11012 may further include an acceleration detection unit. In this case, if the display surface of the wristwatch-type device is not horizontal with respect to the ground, that is, if it is expected that the user is not looking at the display surface of the wristwatch-type device, the light reception control unit A11012 and the first light reception unit A12501 The second light receiving unit A 12502 may be stopped to reduce power consumption.
  • FIG. 29 is an image diagram when using the mobile terminal that detects the movement of the line of sight according to the fourth embodiment.
  • the mobile terminal A12901 can detect the user's line of sight by image recognition processing. Then, it is determined that “the user is looking at the shelf A12905 installed on the right side of the shelf A12901, not the shelf A12901”, and information on the shelf A12905 is displayed on the display unit of the portable terminal A12901.
  • the intention of a user is reflected more by selecting the display object in consideration of a user's (user's) gaze.
  • the confirmed information can be confirmed.
  • FIG. 30 is a diagram illustrating an example of the configuration of the mobile terminal according to the fourth embodiment.
  • the same reference numerals are used for components that are the same as those in the first embodiment, that is, the same components as those shown in FIG.
  • the mobile terminal A12901 is connected to the server device A13004 by wireless communication.
  • the light reception control unit A13002 When the light reception control unit A13002 detects the illuminance pattern of the light emitting unit A11007 and the light emitting unit A11011, it converts the detected pattern into an ID and stores it in the ID storage unit A11013. In the case of the present embodiment, since the light reception control unit A13002 detects the illuminance pattern of the light emitting unit A11007 or the light emitting unit A11011, the ID stored in the ID storage unit A11013 is either the ID storage unit A11004 or the ID storage unit A11008. Is equal to the ID stored in.
  • the light reception control unit A13002 detects line-of-sight classification information indicating whether the user's line of sight is classified as “front, right, left” or not by the internal light reception function incorporated therein. The result is stored in the line-of-sight information storage unit A13001.
  • FIG. 31 is a flowchart showing inquiry processing of the DB management unit in the fourth embodiment.
  • FIG. 32 is a diagram illustrating an example of a structure of information managed by the DB of the server device in the fourth embodiment.
  • the DB management unit A13003 starts processing for making a product image transmission request to the server device A11015 (SA11801).
  • the DB management unit A13003 inquires of the server device about the ID and the line-of-sight classification information (SA13201). Specifically, the DB management unit A13003 reads the ID from the ID storage unit A11013, and further reads the line-of-sight classification information from the line-of-sight information storage unit A13001. In addition, the DB management unit A13003 requests product information from the server device A11015. At this time, the base light ID is transmitted to the server apparatus A11015, and the line-of-sight classification information stored in the line-of-sight information storage unit A13001 is also transmitted to the server apparatus A11015.
  • the server device A 11015 searches for the ID from the held DB (SA 13202). Specifically, the server apparatus A11015 holds a DB as shown in FIG. 32, and searches from the A13102 column of the DB holding the received ID.
  • the server apparatus A11015 searches the DB row corresponding to the ID and the line-of-sight classification information (SA13205) when the ID corresponding to the held DB exists (YES in SA13203), and the shelf corresponding to the line-of-sight classification information. It is confirmed whether the identifier exists (SA13206). Specifically, when a row corresponding to the A13102 column of the stored DB is retrieved, the server device A11015 extracts a shelf identifier from the row.
  • the A13101 column is referred to, when the line-of-sight classification information is “left”, the A13103 column is referred to, and when the line-of-sight classification information is “right”, the A13104 column is referred to.
  • Get shelf identifier when the line-of-sight classification information is the front, the A13101 column is referred to, when the line-of-sight classification information is “left”, the A13103 column is referred to, and when the line-of-sight classification information is “right”, the A13104 column is referred to.
  • the server device A11015 searches for the line corresponding to the obtained shelf identifier (SA13208), and notifies the shelf information of the corresponding line (SA13209). Specifically, the server device A11015 searches the obtained shelf identifier from the A13101 column, and notifies the DB management unit A13003 of the portable terminal A12901 of the shelf information A13105 of the corresponding row. For example, when the ID value 200 is received and the line-of-sight classification information is “right”, when the ID 200 is searched from the illumination IDA 13102, it exists in the first row and the shelf identifier A13104 on the right in the first row. Is 101, shelf information A13105 in the row where the shelf identifier A13101 is 101, that is, shelf information 2, is sent to the portable terminal A12901.
  • the DB management unit A13003 of the mobile terminal A12901 stores the acquired product information in the product information storage unit A11016, sets the validity flag A11301 of the map information storage unit A11017 to FALSE, and also sets the validity flag of the product information storage unit A11016. Is set to TRUE and the abnormality flag A11601 is set to FALSE.
  • SA13206 if the received ID is detected from the A13102 column but the shelf identifier cannot be extracted from the ID and line-of-sight classification information (no in SA13206), the server apparatus A11015 has searched the received ID.
  • the row shelf information A13105 is notified to the DB management unit A13003 of the portable terminal A12901 (SA13207).
  • the server apparatus A11015 In SA13203, if the received ID cannot be detected from the A13102 column (no in SA13203), the server apparatus A11015 notifies the DB management unit A13003 of the portable terminal A12901 that there is no corresponding ID (SA13204).
  • the DB management unit A13003 sets the validity flag A11301 of the map information storage unit A11017 to FALSE.
  • the validity flag of the product information storage unit A11016 is set to FALSE, and the abnormality flag A11601 is set to TRUE.
  • the mobile terminal equipped with the communication device can further detect the user's line of sight. More specifically, when the orientation of the mobile terminal is substantially perpendicular to the ground, the user switches to the out camera, performs visible light communication with the first device that emits visible light with the out camera, and uses the inner camera to perform the user. Detect gaze of
  • the product information of the first product shelf in which the first device is installed is obtained by performing visible light communication with the first device that is located in front of the user and emits visible light. If the second product shelf at the tip of the detected user's line of sight is different from the first product shelf, the product information on the second product shelf is displayed instead of the product information on the first product shelf. Can do.
  • the present embodiment is based on the fourth embodiment and clarifies the configuration of the light reception control unit A11012.
  • FIG. 33 is a diagram illustrating a detailed configuration of a light reception control unit according to the fifth embodiment.
  • the light reception control unit A11012 in the fifth embodiment includes a light reception unit A12501, a light reception unit A12502, a selector A12503, an acceleration detection unit A12504, a light reception signal storage unit A12505, a decoding unit A12506, A threshold storage unit A12507 and a line-of-sight detection unit A13301 are provided. Elements similar to those in FIG. 25 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the light receiving unit A12501 corresponds to, for example, the in-camera A 1202 (first imaging unit) of the first embodiment, and the light receiving unit A 12502 corresponds to, for example, the out-camera A 1203 (second imaging unit) of the first embodiment.
  • the light receiving unit A12501 is a video imaging device such as a camera device.
  • the selector A12503 is a selector for selecting which of the two light receiving units is to be operated.
  • the acceleration detection unit A12504 supplies information necessary for the selection process in the selector A12503 by detecting the acceleration of the mobile terminal A12901.
  • the light reception signal storage unit A12505 stores the light reception signal obtained from the light reception unit A12501 or the light reception unit A12502 via the selector A12503.
  • the decoding unit A12506 reads the received light signal from the received light signal storage unit A12505, performs decoding processing to generate an ID, and stores the generated ID in the ID storage unit A11013.
  • the threshold storage unit A12507 stores in advance a first threshold value and a second threshold value for determining whether or not the mobile terminal A12901 equipped with the light reception control unit A11012 is level with respect to the ground from the acceleration acquired by the selector A12503. To do.
  • the line-of-sight detection unit A13301 receives the video signal from the light receiving unit A12501, detects the user's line-of-sight position, and stores the line-of-sight classification information in the line-of-sight information storage unit A13001.
  • the present embodiment is based on the fourth embodiment and clarifies the configuration of the light reception control unit A11012.
  • FIG. 34 is a diagram illustrating a detailed configuration of the light reception control unit according to the sixth embodiment.
  • the light reception control unit A11012 in the sixth embodiment includes a light reception unit A12501, a light reception unit A12502, a selector A12503, an acceleration detection unit A12504, a light reception signal storage unit A12505, a decoding unit A12506, A threshold storage unit A12507, an imaging unit A13401, and a line-of-sight detection unit A13402 are provided. Elements similar to those in FIG. 25 are denoted by the same reference numerals, and detailed description thereof is omitted.
  • the light receiving unit A12501 is a sensor device such as an illuminance sensor.
  • the light receiving unit A12502 corresponds to, for example, the out camera A1203 (second imaging unit) of the first embodiment.
  • the selector A12503 is for selecting which of these two light receiving units is to be operated.
  • the acceleration detection unit A12504 supplies information necessary for the selection process in the selector A12503 by detecting the acceleration of the mobile terminal A12901.
  • the light reception signal storage unit A12505 stores the light reception signal obtained from the light reception unit A12501 or the light reception unit A12502 via the selector A12503.
  • the decoding unit A12506 reads the received light signal from the received light signal storage unit A12505, performs decoding processing to generate an ID, and stores the generated ID in the ID storage unit A11013.
  • the threshold storage unit A12507 stores in advance a first threshold value and a second threshold value for determining whether or not the mobile terminal A12901 equipped with the light reception control unit A11012 is level with respect to the ground from the acceleration acquired by the selector A12503. To do.
  • the imaging unit A 1401 is a video imaging device such as a camera device.
  • the line-of-sight detection unit A13402 receives the video signal from the imaging unit A13401, detects the user's line-of-sight position, and stores the line-of-sight classification information in the line-of-sight information storage unit A13001.
  • FIG. 35 shows an example in which imaging devices arranged in one row are exposed simultaneously, and imaging is performed by shifting the exposure start time in the order of closer rows.
  • the exposure line of the image sensor that exposes simultaneously is called an exposure line
  • the pixel line on the image corresponding to the image sensor is called a bright line.
  • this image capturing method When this image capturing method is used to capture an image of a blinking light source on the entire surface of the image sensor, bright lines (light and dark lines of pixel values) along the exposure line are generated on the captured image as shown in FIG. .
  • bright lines light and dark lines of pixel values
  • the light source luminance change By recognizing the bright line pattern, it is possible to estimate the light source luminance change at a speed exceeding the imaging frame rate. Thereby, by transmitting a signal as a change in light source luminance, communication at a speed higher than the imaging frame rate can be performed.
  • LO low
  • HI high
  • Low may be in a state where the light source is not shining, or may be shining weaker than high.
  • the imaging frame rate is 30 fps
  • a change in luminance with a period of 1.67 milliseconds can be recognized.
  • the exposure time is set shorter than 10 milliseconds, for example.
  • FIG. 36 shows a case where the exposure of the next exposure line is started after the exposure of one exposure line is completed.
  • the transmission speed is a maximum of flm bits per second.
  • the light emission time of the light emitting unit is controlled by a unit time shorter than the exposure time of each exposure line. More information can be transmitted.
  • information can be transmitted at a maximum rate of flElv bits per second.
  • the basic period of transmission can be recognized by causing the light emitting unit to emit light at a timing slightly different from the exposure timing of each exposure line.
  • FIG. 38 shows a case where the exposure of the next exposure line is started before the exposure of one exposure line is completed. That is, the exposure times of adjacent exposure lines are partially overlapped in time.
  • the S / N ratio can be improved.
  • the exposure time of adjacent exposure lines has a partial overlap in time, and a configuration in which some exposure lines have no partial overlap. It is also possible. By configuring a part of the exposure lines so as not to partially overlap in time, it is possible to suppress the generation of intermediate colors due to the overlap of exposure times on the imaging screen, and to detect bright lines more appropriately. .
  • the exposure time is calculated from the brightness of each exposure line, and the light emission state of the light emitting unit is recognized.
  • the brightness of each exposure line is determined by a binary value indicating whether the luminance is equal to or higher than a threshold value, in order to recognize the state where no light is emitted, the state where the light emitting unit does not emit light is indicated for each line. It must last longer than the exposure time.
  • FIG. 39 shows the influence of the difference in exposure time when the exposure start times of the exposure lines are equal.
  • 7500a is the case where the exposure end time of the previous exposure line is equal to the exposure start time of the next exposure line
  • 7500b is the case where the exposure time is longer than that.
  • the exposure time of adjacent exposure lines is partially overlapped in time, so that the exposure time can be increased. That is, the light incident on the image sensor increases and a bright image can be obtained.
  • the imaging sensitivity for capturing images with the same brightness can be suppressed to a low level, an image with less noise can be obtained, so that communication errors are suppressed.
  • FIG. 40 shows the influence due to the difference in the exposure start time of each exposure line when the exposure times are equal.
  • 7501a is the case where the exposure end time of the previous exposure line is equal to the exposure start time of the next exposure line
  • 7501b is the case where the exposure of the next exposure line is started earlier than the end of exposure of the previous exposure line.
  • the sample interval ( difference in exposure start time) becomes dense, the change in the light source luminance can be estimated more accurately, the error rate can be reduced, and the change in the light source luminance in a shorter time is recognized. be able to.
  • the exposure time overlap it is possible to recognize blinking of the light source that is shorter than the exposure time by using the difference in exposure amount between adjacent exposure lines.
  • the exposure time is set to be longer than that in the normal photographing mode.
  • the communication speed can be dramatically improved.
  • the exposure time needs to be set as exposure time ⁇ 1/8 ⁇ f. Blanking that occurs during shooting is at most half the size of one frame. That is, since the blanking time is less than half of the shooting time, the actual shooting time is 1 / 2f at the shortest time.
  • the exposure time since it is necessary to receive quaternary information within a time of 1 / 2f, at least the exposure time needs to be shorter than 1 / (2f ⁇ 4). Since the normal frame rate is 60 frames / second or less, it is possible to generate an appropriate bright line pattern in the image data and perform high-speed signal transmission by setting the exposure time to 1/480 seconds or less. Become.
  • FIG. 41 shows an advantage when the exposure times are short when the exposure times of the exposure lines do not overlap.
  • the exposure time is long, even if the light source has a binary luminance change as in 7502a, the captured image has an intermediate color portion as in 7502e, and it becomes difficult to recognize the luminance change of the light source.
  • the free time (predetermined waiting time) t D2 not predetermined exposure start exposure of the next exposure line, the luminance variation of the light source Can be easily recognized. That is, a more appropriate bright line pattern such as 7502f can be detected.
  • an exposure time t E can be realized to be smaller than the time difference t D of the exposure start time of each exposure line.
  • the exposure time is set shorter than the normal shooting mode until a predetermined idle time occurs. This can be realized. Further, even when the normal photographing mode is the case where the exposure end time of the previous exposure line and the exposure start time of the next exposure line are equal, by setting the exposure time short until a predetermined non-exposure time occurs, Can be realized.
  • the exposure time of adjacent exposure lines has a partial overlap in time, and a configuration in which some exposure lines have no partial overlap. It is also possible. Further, in all exposure lines, it is not necessary to provide a configuration in which an idle time (predetermined waiting time) in which a predetermined exposure is not performed is provided after the exposure of one exposure line is completed until the exposure of the next exposure line is started. It is also possible to have a configuration in which the lines partially overlap in time. With such a configuration, it is possible to take advantage of the advantages of each configuration.
  • the same readout method is used in the normal shooting mode in which shooting is performed at a normal frame rate (30 fps, 60 fps) and in the visible light communication mode in which shooting is performed with an exposure time of 1/480 second or less in which visible light communication is performed.
  • a signal may be read by a circuit.
  • FIG. 42 shows the relationship between the minimum change time t S of the light source luminance, the exposure time t E , the time difference t D of the exposure start time of each exposure line, and the captured image.
  • Figure 43 is a transition and time t T of the light source luminance, which shows the relationship between the time difference t D of the exposure start time of each exposure line.
  • t D is larger than the t T, exposure lines to be neutral is reduced, it is easy to estimate the light source luminance.
  • the exposure line of the intermediate color is continuously 2 or less, which is desirable.
  • t T the light source is less than 1 microsecond in the case of LED, light source for an approximately 5 microseconds in the case of organic EL, a t D by 5 or more microseconds, to facilitate estimation of the light source luminance be able to.
  • Figure 44 shows a high frequency noise t HT of light source luminance, the relationship between the exposure time t E.
  • t E is larger than t HT , the captured image is less affected by high frequency noise, and light source luminance is easily estimated.
  • t E is an integral multiple of t HT , the influence of high frequency noise is eliminated, and the light source luminance is most easily estimated.
  • t E > t HT .
  • the main cause of high frequency noise derived from the switching power supply circuit since many of the t HT in the switching power supply for the lamp is less than 20 microseconds, by the t E and 20 micro-seconds or more, the estimation of the light source luminance It can be done easily.
  • Figure 45 is when t HT is 20 microseconds, which is a graph showing the relationship between the size of the exposure time t E and the high frequency noise.
  • t HT is considered that there is variation by the light source
  • t E is the value becomes equal to the value when the amount of noise takes a maximum, 15 microseconds or more, or, 35 microseconds or more, or, It can be confirmed that the efficiency is good when it is set to 54 microseconds or more, or 74 microseconds or more. From the viewpoint of reducing high-frequency noise, it is desirable that t E be large.
  • t E when the light source luminance change period is 15 to 35 microseconds, t E is 15 microseconds or more, and when the light source luminance change period is 35 to 54 microseconds, t E is 35 microseconds or more.
  • t E is 54 microseconds or more when the cycle is 54 to 74 microseconds of change, t E when the period of the change in light source luminance is 74 microseconds or more may be set as 74 microseconds or more.
  • FIG. 46 shows the relationship between the exposure time t E and the recognition success rate. Since the exposure time t E has a relative meaning with respect to the time when the luminance of the light source is constant, the value (relative exposure time) obtained by dividing the period t S in which the light source luminance changes by the exposure time t E is taken as the horizontal axis. Yes. From the graph, it can be seen that if the recognition success rate is desired to be almost 100%, the relative exposure time should be 1.2 or less. For example, when the transmission signal is 1 kHz, the exposure time may be about 0.83 milliseconds or less.
  • the relative exposure time may be set to 1.25 or less, and when the recognition success rate is set to 80% or more, the relative exposure time may be set to 1.4 or less. Recognize. Also, the recognition success rate drops sharply when the relative exposure time is around 1.5, and becomes almost 0% at 1.6, so it can be seen that the relative exposure time should not be set to exceed 1.5. . It can also be seen that after the recognition rate becomes 0 at 7507c, it rises again at 7507d, 7507e, and 7507f.
  • the transmission loss due to blanking can be prevented by repeatedly transmitting the same signal twice or more, or adding an error correction code.
  • the light emitting unit transmits a signal with a period that is relatively prime to the period for capturing an image or a period shorter than the period for capturing an image.
  • FIG. 49 is a diagram showing a service providing system using the reception method described in the embodiment already described.
  • the company A ex8000 managing the server ex8002 requests another company B or an individual ex8001 to distribute information to the mobile terminal.
  • the mobile terminal that has made visible light communication with signage is requested to distribute detailed advertisement information, coupon information, or map information.
  • the company A ex8000 that manages the server manages information distributed to the mobile terminal in correspondence with arbitrary ID information.
  • the portable terminal ex8003 acquires ID information from the subject ex8004 by visible light communication, and transmits the acquired ID information to the server ex8002.
  • the server ex8002 transmits information corresponding to the ID information to the portable terminal and counts the number of times the information corresponding to the ID information is transmitted.
  • the company A ex8000 managing the server charges the requested company B and the individual ex8001 for a charge corresponding to the counted number. For example, the larger the count number, the larger the amount to be charged.
  • FIG. 50 is a flowchart showing a service provision flow.
  • step ex8000 company A managing the server receives a request for information distribution from other company B.
  • Step ex8001 information received in the distribution request is associated with specific ID information in the server managed by company A.
  • the mobile terminal receives specific ID information from the subject by visible light communication, and transmits it to a server managed by the company A.
  • the details of the visible light communication method have already been described in other embodiments, and will be omitted.
  • the server transmits information corresponding to the specific ID information transmitted from the mobile terminal to the mobile terminal.
  • Step ex8003 the server counts the number of times information is distributed.
  • Step ex8004 the company B is charged a fee according to the count number of information distribution. In this way, by charging according to the count number, it becomes possible to charge Company B with an appropriate fee according to the advertising effect of information distribution.
  • FIG. 51 is a flowchart showing service provision in another example. The description of the same steps as those in FIG. 50 is omitted.
  • Step ex8008 it is determined whether or not a predetermined time has elapsed since the start of information distribution. If it is determined that the time is within the predetermined time period, the company B is not charged in Step ex8011. On the other hand, if it is determined that the predetermined period has elapsed, Step ex8009 counts the number of times the information has been distributed. In step ex8010, the company B is charged a fee corresponding to the information distribution count. Thus, since information is distributed free of charge within a predetermined period, company B can receive a billing service after confirming the advertising effect and the like.
  • FIG. 52 is a flowchart showing service provision in another example. The description of the same steps as those in FIG. 51 is omitted.
  • Step ex8014 the number of times information is distributed is counted. If it is determined in Step ex8015 that the predetermined period has not elapsed since the start of information distribution, charging is not performed in Step ex8016. On the other hand, if it is determined that the predetermined period has elapsed, in Step ex8017, it is determined whether or not the number of times information has been distributed is equal to or greater than a predetermined value. When the number of times of distributing information is less than a predetermined value, the count number is reset and the number of times of distributing information is counted again. In this case, the company B is not charged for a predetermined period in which the number of times information is distributed is less than a predetermined value.
  • Step ex8017 if the count number is equal to or larger than the predetermined value, in Step ex8018, the count number is reset once and restarted again.
  • Step ex8019 the company B is charged a fee corresponding to the number of counts.
  • the company B can receive the billing service at an appropriate timing by providing a period of free distribution again.
  • the company A has a small number of counts, the information content is analyzed. For example, when the information does not correspond to the season, the company A may propose to the company B to change the information content. It becomes possible.
  • the burden on the company A can be reduced. Moreover, it is good also as a structure which provides a free delivery period again after a fixed period. For example, in the case of information affected by the season, a free delivery period can be provided again after a certain period until the season changes.
  • the billing fee may be changed according to the amount of data regardless of the number of times of information distribution.
  • a certain amount of data may be distributed free of charge, and a predetermined amount of data or more may be charged. Further, the billing fee may be increased as the amount of data increases.
  • a management fee may be charged when managing information in association with specific ID information. By charging as a management fee, it is possible to determine the fee when the information distribution is requested.
  • the communication method according to the present invention can safely and actively acquire information other than images, not only devices such as televisions, PCs, and tablets at home, but also signage on the go, information terminals,
  • the information display device can be applied to various uses such as transfer of image-accompanying information and information transmission in every scene in the sense that necessary information can be obtained safely because of its activeness.

Abstract

 本開示の通信方法は、第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する端末の通信方法であって、前記インカメラと前記アウトカメラとを前記端末の向きに応じて切り替える切り替えステップと、前記切り替えステップにおいて切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信ステップと、を含む。

Description

通信方法
 本発明は、スマートフォン、タブレット、携帯電話等の携帯端末と、エアコン、照明機器、炊飯器などの家電機器との通信方法に関する。
 近年のホームネットワークでは、Ethernet(登録商標)や無線LAN(Local Area Network)でのIP(Internet Protocol)接続によるAV家電の連携に加え、環境問題に対応した電力使用量の管理や、宅外からの電源ON/OFFといった機能を持つホームエネルギーマネジメントシステム(HEMS)によって、多様な家電機器がネットワークに接続される家電連携機能の導入が進んでいる。しかしながら、通信機能を有するには、演算力が十分ではない家電や、コスト面で通信機能の搭載が難しい家電などもある。
 このような問題を解決するため、特許文献1では、光を用いて自由空間に情報を伝達する光空間伝送装置において、照明光の単色光源を複数用いた通信を行うことで、限られた送信装置のなかで、効率的に機器間の通信を実現する技術が記載されている。
特開2002-290335号公報
 しかしながら、前記従来の方式では、適用される機器が照明のような3色光源を持つ場合に限定される。本発明は、このような課題を解決し、演算力が少ないような機器を含む多様な機器間の通信を可能とする情報通信方法を提供する。
 本発明の一態様に係る通信方法は、第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する端末の通信方法であって、前記インカメラと前記アウトカメラとを前記端末の向きに応じて切り替える切り替えステップと、前記切り替えステップにおいて切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信ステップと、を含む。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムおよび記録媒体の任意な組み合わせで実現されてもよい。
 本発明によれば、演算力が少ないような機器を含む多様な機器間の通信を可能とする情報通信方法を実現できる。
図1は、実施の形態1における携帯端末の使用風景を示したイメージ図である。 図2は、実施の形態1における携帯端末の概観の一例を示す図である。 図3は、実施の形態1における携帯端末を水平に持ったときのイメージ図である。 図4は、実施の形態1における携帯端末を垂直に持ったときのイメージ図である。 図5は、実施の形態1における携帯端末が提示する店内マップの一例を示す図である。 図6は、実施の形態1における携帯端末が提示する商品UIのイメージ図である。 図7は、実施の形態1における携帯端末の提示する商品UIが操作されたときのイメージ図である。 図8は、実施の形態1における使用者が携帯端末を右から左に振りかざす動作を示す図である。 図9は、実施の形態1におけるウォッチ型デバイスの使用風景を示すイメージ図である。 図10は、実施の形態1における通信システムの全体構成を示す図である。 図11は、実施の形態1における商品情報格納部が格納する情報の構造の一例を示す図である。 図12は、実施の形態1における携帯端末の提示する商品UIのレイアウトイメージの一例を示す図である。 図13は、実施の形態1における地図情報格納部が格納する情報の構造の一例を示す図である。 図14は、実施の形態1における状態管理部が管理する情報の構造の一例を示す図である。 図15は、実施の形態1における照明機器の動作を示すフローチャートである。 図16は、実施の形態1における携帯端末の動作を示すフローチャートである。 図17は、実施の形態1におけるシーリングライト関連処理を示すフローチャートである。 図18は、実施の形態1におけるベースライト関連処理を示すフローチャートである。 図19は、実施の形態1におけるUI関連処理を示すフローチャートである。 図20は、実施の形態1における地図情報向けUI処理を示すフローチャートである。 図21は、実施の形態1における商品情報向けUI処理を示すフローチャートである。 図22は、実施の形態1における表示処理全体を示すフローチャートである。 図23は、実施の形態1における表示更新前処理を示すフローチャートである。 図24は、実施の形態1における表示更新処理を示すフローチャートである。 図25は、実施の形態2における受光制御部の詳細構成を示す図である。 図26は、実施の形態2における受光制御部の照度パターン検知処理を示すフローチャートである。 図27は、実施の形態3における受光制御部の詳細構成を示す図である。 図28は、実施の形態3における受光制御部の照度パターン検知処理を示すフローチャートである。 図29は、実施の形態4における視線の動きを検出する携帯端末を使用する際のイメージ図である。 図30は、実施の形態4における携帯端末の構成の一例を示す図である。 図31は、実施の形態4におけるサーバ問い合わせ時のフローチャートである。 図32は、実施の形態4における棚識別子のDBが管理する情報の構造の一例を示す図である。 図33は、実施の形態5における受光制御部の詳細構成を示す図である。 図34は、実施の形態6における受光制御部の詳細構成を示す図である。 図35は、実施の形態7における1列に並んだ撮像素子は同時に露光させ、列が近い順に露光開始時刻をずらして撮像する場合の例を示す図である。 図36は、実施の形態7における一つの露光ラインの露光が完了してから次の露光ラインの露光が開始される場合を示す図である。 図37は、実施の形態7における一つの露光ラインの露光が完了してから次の露光ラインの露光が開始される場合を示す図である。 図38は、実施の形態7における一つの露光ラインの露光が完了する前に次の露光ラインの露光が開始される場合を示す図である。 図39は、実施の形態7における各露光ラインの露光開始時刻が等しい場合に、露光時間の違いによる影響を示す図である。 図40は、実施の形態7における露光時間が等しい場合に、各露光ラインの露光開始時刻の違いによる影響を示す図である。 図41は、実施の形態7における各露光ラインの露光時間が重なっていない場合に、露光時間が短い場合の利点を示す図である。 図42は、実施の形態7における光源輝度の最小変化時間と、露光時間と、各露光ラインの露光開始時刻の時間差と、撮像画像との関係を示す図である。 図43は、実施の形態7における光源輝度の遷移時間と、各露光ラインの露光開始時刻の時間差との関係を示す図である。 図44は、実施の形態7における光源輝度の高周波ノイズと、露光時間との関係を示す図である。 図45は、実施の形態7における光源輝度の高周波ノイズが20マイクロ秒の場合の、露光時間と高周波ノイズの大きさとの関係を表すグラフである。 図46は、実施の形態7における露光時間tと認識成功率との関係を示す図である。 図47は、実施の形態7における発光部の輝度の観測方法の一例を示す図である。 図48は、実施の形態7における受信装置の各モードの一例を示す図である。 図49は、実施の形態8におけるサービス提供システムを示す図である。 図50は、実施の形態8におけるサービス提供のフローチャートである。 図51は、実施の形態8における他の例におけるサービス提供のフローチャートである。 図52は、実施の形態8における他の例におけるサービス提供のフローチャートである。
 本発明の一態様に係る通信方法は、第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する端末の通信方法であって、前記インカメラと前記アウトカメラとを前記端末の向きに応じて切り替える切り替えステップと、前記切り替えステップにおいて切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信ステップと、を含む。
 例えば、第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する端末の通信方法であって、前記インカメラと前記アウトカメラとを所定時間ごとに切り替える切り替えステップと、前記切り替えステップにおいて切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信ステップと、を含む。
 例えば、前記可視光通信ステップでは、前記端末の向きが地面に対して略垂直の場合、前記切り替えステップにおいて切り替えられた前記アウトカメラを用いて、使用者の前方に位置する第1機器であって可視光を発する第1機器と可視光通信を行うことにより、前記第1機器が設置されている商品棚の商品情報を取得し、取得した前記商品情報を前記端末の表示部に表示し、前記可視光通信ステップでは、前記端末の向きが地面に対して略水平の場合、前記切り替えステップにおいて切り替えられた前記インカメラを用いて、前記使用者の上方に位置する第2機器であって可視光を発する第2機器と可視光通信を行うことにより、前記第2機器が設置されている位置情報を取得し、取得した前記位置情報を前記使用者の現在位置として前記使用者が存在するエリアの地図情報とともに前記端末の表示部に表示する。
 例えば、前記端末は、腕時計に実装され、前記インカメラは、前記腕時計の時間を表示する表示部を有する前記腕時計の前面に搭載され、前記アウトカメラは、前記腕時計の側面に搭載され、前記可視光通信ステップでは、前記腕時計の前記表示部が地面に対して略水平の場合、前記インカメラを用いて、前記使用者の上方に位置する第2機器であって可視光を発する第2機器と可視光通信を行うことにより、前記第2機器が設置されている位置情報を取得し、かつ、前記アウトカメラを用いて、前記使用者の前方に位置する第1機器であって可視光を発する第1機器と可視光通信を行うことにより、前記第1機器が設置されている商品棚の商品情報を取得し、前記使用者の選択により、取得した前記位置情報を前記使用者の現在位置として前記使用者が存在するエリアの地図情報とともに前記端末の表示部に表示し、または、取得した前記商品情報を前記端末の表示部に表示する。
 例えば、前記可視光通信ステップでは、可視光を発する機器と可視光通信を行うことにより取得した前記機器に一意に与えられた識別子を、サーバに問い合わせることで、前記識別子に対応付けられた前記機器に関する情報を取得し、前記可視光通信ステップでは、さらに、前記サーバに問い合わせて前記識別子に対応付けられた情報がない場合には、前記機器に関する情報がない旨を示すエラー通知を、前記端末の表示部に表示する。
 例えば、さらに、前記端末の表示部に表示した前記商品情報を変更する変更ステップを含み、前記変更ステップでは、前記使用者が前記表示部に対してフリック操作することにより、前記表示部に表示される商品情報が変更される。
 例えば、さらに、前記端末の表示部に表示した前記地図情報を変更する変更ステップを含み、前記変更ステップでは、前記使用者が前記表示部に対してフリック操作することにより、前記表示部に表示される地図情報が変更される。
 例えば、前記可視光通信ステップでは、前記端末の表示部に前記地図情報が表示された後、前記切り替えステップにおいて切り替えられた前記アウトカメラを用いて、前記第1機器が設置されている商品棚の商品情報を取得する場合、前記地図情報に付与されたオフセットを初期化し、前記可視光通信ステップでは、前記端末の表示部に前記商品情報が表示された後、前記切り替えステップにおいて切り替えられた前記インカメラを用いて、前記位置情報を前記使用者の現在位置として取得する場合、前記商品情報に付与されたオフセットを初期化する。
 例えば、さらに、前記使用者の視線を検知する視線検知ステップを含み、前記切り替えステップにおいて、前記端末の向きが地面に対して略垂直の場合、前記アウトカメラに切り替え、前記視線検知ステップにおいて、前記インカメラを用いて前記使用者の視線を検知し、前記可視光通信ステップでは、前記切り替えステップにおいて切り替えられた前記アウトカメラを用いて、前記使用者の前方に位置する第1機器であって可視光を発する第1機器と可視光通信を行うことにより、前記第1機器が設置されている第1商品棚の商品情報を取得し、前記検知ステップで検知された前記使用者の視線の先にある第2商品棚が前記第1商品棚と異なる場合には、前記第1商品棚の商品情報に代えて前記第2商品棚の商品情報を表示する。
 例えば、前記端末は、複数の露光ラインを有するイメージセンサを備え、前記通信方法は、さらに、前記イメージセンサの各露光ラインの露光を順次異なる時刻で開始し、かつ、前記各露光ラインの露光時間が、隣接する露光ラインとの間で、部分的に時間的な重なりを持つように、1/480秒以下の露光時間で被写体の撮影を行うことにより画像データを取得する画像取得ステップと、前記画像データに現れる、前記各露光ラインに対応する輝線パターンを復調することにより、前記被写体の識別情報を取得する可視光通信ステップと、前記被写体の識別情報に関連付けられているサービス情報を前記端末の使用者に提示するサービス提示ステップと、を含む。
 例えば、前記通信方法は、さらに、依頼者から情報の配信の依頼を受け付ける処理を行う依頼受け付けステップと、前記可視光で得たデータに対応する情報として、前記依頼者より依頼された前記情報を配信する配信ステップと、前記情報の配信に応じて、前記依頼者に課金するための情報処理を行う課金ステップとを含む。
 また、本発明の一態様に係る通信装置は、第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する通信装置であって、前記インカメラと前記アウトカメラとを前記端末の向きに応じて切り替える切り替え部と、前記切り替えステップにおいて切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信部と、を備える。
 なお、これらの包括的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
 以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
 また、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
 (実施の形態1)
 本実施の形態では、可視光通信の受光部切り替えを行う通信装置について説明する。
 本実施の形態における通信装置は例えばスマートフォンのような携帯端末に搭載することを想定している。
 以下、本実施の形態における通信装置を搭載した携帯端末を使用するときのシーンについて説明する。
 図1は、実施の形態1における携帯端末の使用風景を示したイメージ図である。図2は、実施の形態1における携帯端末の概観の一例を示す図である。
 使用者が使用する本通信装置は、天井に設置されたシーリングライトA1101と可視光通信することで、シーリングライトA1101の発するIDを受信したり、使用者の正面に設置されたベースライトA1103と可視光通信することで、ベースライトA1103の発するIDを受信したりする。
 本通信装置は、可視光を受光する受光部(撮像部)を複数有し、上記シーリングライトA1101およびベースライトA1103のように配置位置の異なる複数の機器と可視光通信して複数のIDを受信するときに、複数の受光部のうち受光に最適な受光部を携帯端末の姿勢に応じて選択することに特徴がある。
 本実施の形態では、本通信装置は、第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する。より具体的には、例えば、図2に示すように、本通信装置が搭載される携帯端末A1201は前面にインカメラA1202(第1撮像部)を、背面にアウトカメラA1203(第2撮像部)を、前面にタッチパネル部A1204を備える。本通信装置は、インカメラA1202(第1撮像部)とアウトカメラA1203(第2撮像部)とを通信装置が搭載される端末(携帯端末)の向きに応じて切り替え、切り替えられたインカメラA1202(第1撮像部)またはアウトカメラA1203(第2撮像部)を用いて、可視光通信を行う。
 以下、本通信装置が搭載される携帯端末の向きに応じて撮像部を切り替えて可視光通信を行うシーンについて説明する。
 図3は、実施の形態1における携帯端末を水平に持ったときのイメージ図である。図4は、実施の形態1における携帯端末を垂直に持ったときのイメージ図である。
 例えば図3に示すように、使用者により携帯端末A1201の表示面が天井と向かい合うように(地面と略平行に)持たれた場合、携帯端末A1201は自身に内蔵された加速度センサによって携帯端末A1201が天井(地面)に対して水平であることを判定し、インカメラA1202を稼動する。このとき、電力消費を抑えるためにアウトカメラA1203の稼動を中断させるとよい。
 シーリングライトA1101は点灯している状況において、特定のパターンによって点灯の光量を変更すること(発光パターン)で可視光通信を行う。例えば領域A1301に示すように、稼動中のインカメラA1202がシーリングライトA1101の発光を検知すると、撮像することで可視光通信を行う。つまり、携帯端末A1201は、シーリングライトA1101と可視光通信することでシーリングライトA1101の発光パターンに関連付けられたIDを取得し、IDの種別に応じて動作(振る舞い)を変更する。
 また、例えば図4に示すように、使用者により携帯端末A1201が地面に対して垂直になるように持たれた場合、携帯端末A1201は、自身に内蔵された加速度センサによって携帯端末A1201が天井のシーリングライトには向けられておらず、壁や棚A1102などに設置されたベースライトA1103に向けられているものと判定し、アウトカメラA1203を稼動する。このとき、電力消費を抑えるためにインカメラA1202の稼動を中断させるとよい。
 ベースライトA1103は点灯している状況において、特定のパターンによって点灯の光量を変更すること(発光パターン)で可視光通信を行う。稼働中のアウトカメラA1203がベースライトA1103の発光を検知すると、撮像することで可視光通信を行う。つまり、携帯端末A1201は、ベースライトA1103と可視光通信することでベースライトA1103の発光パターンに関連付けられたIDを取得し、IDの種別に応じて振る舞いを変更する。
 次に、IDの種類に応じた動作(振る舞い)の例について説明する。
 図5は、実施の形態1における携帯端末が提示する店内マップの一例を示す図である。
 携帯端末A1201は、図3に示すように携帯端末A1201が天井(地面)に対して水平であると判定した場合、インカメラA1202を用いて可視光通信することで取得した発光パターンに関連付けられたIDをサーバに送信する。サーバは、そのIDに対応付けられた位置情報を検索し、携帯端末A1201に検索した位置情報を通知する。
 携帯端末A1201は、サーバから位置情報を取得すると、取得した位置情報を使用者の現在位置として、使用者のいる位置を示すマップ(地図情報)、例えば図5に示すような店内のマップを使用者に提示する。
 このようにして、携帯端末A1201の向きが天井(地面)に対して略水平の場合、インカメラA1202を用いて、使用者の上方に位置し可視光を発するシーリングライトA1101(第2機器)と可視光通信を行うことにより、シーリングライトA1101(第2機器)が設置されている位置情報を取得する。携帯端末A1201は、取得した当該位置情報を使用者の現在位置として使用者が存在するエリアの地図情報とともに携帯端末A1201の表示部に表示する。
 なお、携帯端末A1201の表示部に表示された地図情報はフリック操作により変更可能である。例えば、使用者が携帯端末A1201の表示部に対してフリック操作することにより、当該表示部に表示される地図情報のオフセット位置が変更される。
 図6は、実施の形態1における携帯端末が提示する商品UIのイメージ図である。図7は、実施の形態1における携帯端末の提示する商品UIが操作されたるときのイメージ図である。
 また、携帯端末A1201は、図4に示すように携帯端末A1201が地面に対して垂直になるように判定した場合、インカメラA1202を用いて可視光通信することで取得したIDをサーバに送信する。サーバは、そのIDに関連付けられた商品棚の商品種別及び在庫をデータベースから検索し、検索した商品種別及び在庫から、商品の在庫量を示す画像を生成する。ここで、サーバは例えば図6に示すように商品棚に陳列されている商品の画像に在庫の商品の画像を重畳した画像を生成する。そして、サーバは、生成された画像を携帯端末A1201に送信する。
 携帯端末A1201は、サーバから受信した画像、即ち商品の在庫量を示す画像を表示部で提示する。
 このようにして、携帯端末A1201の向きが地面に対して略垂直の場合、アウトカメラA1203を用いて、使用者の前方に位置し可視光を発するベースライトA1103(第1機器)と可視光通信を行うことにより、ベースライトA1103(第1機器)が設置されている商品棚の商品情報を取得する。携帯端末A1201は、取得した前記商品情報を携帯端末A1201の表示部に表示する。
 なお、携帯端末A1201の表示部に表示された商品の在庫量を示す画像はフリック操作により変更可能である。例えば、使用者が携帯端末A1201の表示部に対してフリック操作することにより、当該表示部に表示される商品の在庫量を示す画像のオフセットが変更されたり、表示部に表示される商品の在庫量を示す画像が変更されたりと、表示部に表示される商品情報が変更される。
 また、サーバは、携帯端末A1201に生成した画像(画像データ)を送る際、携帯端末A1201に複数の画像(複数の画像データ)を送信するとしてもよい。例えばサーバは、例えば図7に示すように、在庫量が少ない棚の画像A1701と在庫量が多い棚の画像A1703とを順に送信し、携帯端末A1201は在庫量が少ない棚の画像A1701を表示しているとする。携帯端末A1201は、フリック操作など使用者の画面操作にあわせて、在庫量が少ない棚の画像A1701から、画像A1702のようなスクロール途中経過を示す画像A1702を経て、在庫量が多い棚の画像A1703を順に表示する。このようにして、使用者は、より直感的で分かりやすい商品在庫の確認が可能となる。
 図8は、実施の形態1における使用者が携帯端末を右から左に振りかざす動作を示す図である。
 携帯端末A1201は、上記のように、受信したIDによって提示内容を切り替えることができることから、例えば図8に示すように、使用者が視認した棚A1801および棚A1802の商品情報を切り替えることができる。つまり、使用者が携帯端末A1201を棚A1801から棚A1802に向けた場合、携帯端末A1201はベースライトA1803から受信したIDとベースライトA1804から受信したIDとをそれぞれ順に受信する。そのため、携帯端末A1201は、ベースライトA1803から受信したIDとベースライトA1804から受信したIDとに対応する商品情報を順に表示することができる。
 以上のようにして、携帯端末A1201は、自身の姿勢に応じて選択した機器と可視光通信して取得したIDに対応する情報を使用者に提示することができる。
 なお、本通信端末が搭載される端末としては、前面と背面にそれぞれ撮像部が配置される携帯端末A1201に限らない、腕時計であってもよい。以下、本通信端末が搭載される端末が腕時計(腕時計型デバイス)である場合の例を、図9を用いて説明する。
 図9は、実施の形態1におけるウォッチ型デバイスの使用風景を示したイメージ図である。
 図9に示す腕時計型デバイスA1901は、上面部分に設置される受光部A1902と、側面部に設置される受光部A1903とを備える。受光部A1902は、上記のインカメラA1202(第1撮像部)に対応し、受光部A1903は、上記のアウトカメラA1203(第2撮像部)に対応する。
 また、腕時計型デバイスA1901は、加速度センサを備えている。
 腕時計型デバイスA1901は、図9に示すように例えば上面部が地面と水平な方向を向いている場合、受光部A1902と受光部A1903とを稼動させ、シーリングライトA1904から発せられた光を受光部A1902によって受光し、ベースライトA1905から発せられた光を受光部A1903によって受光する。
 より具体的には、腕時計型デバイスA1901は、受光部A1902を用いて、使用者の上方に位置し可視光を発するシーリングライトA1904(第2機器)と可視光通信を行うことにより、シーリングライトA1904(第2機器)が設置されている位置情報を取得する。また、腕時計型デバイスA1901は、受光部A1903を用いて、使用者の前方に位置し可視光を発するベースライトA1905(第1機器)と可視光通信を行うことにより、ベースライトA1905(第1機器)が設置されている商品棚の商品情報を取得する。そして、使用者の選択により、取得した位置情報を使用者の現在位置として使用者が存在するエリアの地図情報とともに表示部に表示し、または、取得した商品情報を表示部に表示する。
 なお、腕時計型デバイスA1901は、受光部A1902と受光部A1903とを所定時間ごとに切り替え、切り替えられた受光部A1902または受光部A1903を用いて、可視光通信を行うとしてもよい。
 以上のようにして本通信装置を搭載した携帯端末または腕時計は使用される。
 続いて、本通信装置の構成について説明する。
 図10は、実施の形態1における通信システムの全体構成を示す図である。
 本実施の形態における通信システムの最小構成要素として、携帯端末A11001と、照明機器A11002と、照明機器A11003と、サーバ装置A11015とを備える。
 [照明機器A11002の構成]
 照明機器A11002は、ID格納部A11004と、エンコード部A11005と、照度パターン格納部A11006と、発光部A11007とを備える。照明機器A11002は、図1に示すシーリングライトA1101や図9に示すシーリングライトA1904など第2機器に対応する。
 ID格納部A11004は、メモリ領域であり、例えばMACアドレスのような、個体を一意に決定可能な識別子がそれぞれ予め書き込まれているものである。
 エンコード部A11005は、照明機器A11002に電力が供給されると、ID格納部A11004からIDを読み込み、当IDを照明の照度パターン、即ち各タイミングにおける照明の照度に変換し、当照度パターンを照度パターン格納部A11006に格納する。
 発光部A11007は、上記の起動フェーズが完了すると、照度パターン格納部A11006で示されるパターンに基づき、照度を高速に更新しながら発光制御を行う。これにより、照明機器A11002はIDに基づいた照度制御(可視光通信)を行う。
 [照明機器A11003の構成]
 同様に、照明機器A11003は、ID格納部A11008と、エンコード部A11009と、照度パターン格納部A11010と、発光部A11011とを備える。照明機器A11003は、図1に示すベースライトA1103や図9に示すベースライトA1905などの第1機器に対応する。
 ID格納部A11008は、メモリ領域であり、例えばMACアドレスのような、個体を一意に決定可能な識別子がそれぞれ予め書き込まれているものである。
 エンコード部A11009は、照明機器A11003に電力が供給されると、ID格納部A11008からIDを読み込み、当IDを照明の照度パターン、即ち各タイミングにおける照明の照度に変換し、当照度パターンを照度パターン格納部A11010に格納する。
 発光部A11011は、上記の起動フェーズが完了すると、照度パターン格納部A11010で示されるパターンに基づき、照度を高速に更新しながら発光制御を行う。これにより、照明機器A11003はIDに基づいた照度制御を行う(可視光通信)。
 [携帯端末A11001の構成]
 続いて、携帯端末A11001の構成について説明する。
 また、携帯端末A11001は、受光制御部A11012と、ID格納部A11013と、DB管理部A11014と、商品情報格納部A11016と、地図情報格納部A11017と、表示部A11018と、状態管理部A11019と、UI部A11020とを備える。携帯端末A11001は、図2に示す携帯端末A1201や図9に示す腕時計型デバイスなどの端末に対応する。
 [受光制御部A11012]
 受光制御部A11012は、発光部A11007及び発光部A11011の照度パターンを検知すると、検知したパターンをIDに変換し、ID格納部A11013へ格納する。本実施の形態の場合、発光部A11007又は発光部A11011の照度パターンを検知したものであるから、ID格納部A11013に格納されるIDはID格納部A11004またはID格納部A11008のいずれかに格納されているIDと等しくなる。
 [商品情報格納部A11016]
 続いて、商品情報格納部A11016について説明する。
 図11は、実施の形態1における商品情報格納部が格納する情報の構造の一例を示す図である。図12は、実施の形態1における携帯端末の提示する商品UIのレイアウトイメージの一例を示す図である。
 商品情報格納部A11016は、例えば図11に示すように、有効フラグA11101と、棚外観A11102と、棚内観A11103と、商品種別情報A11104と、商品在庫情報A11105とを含む情報を格納する。
 有効フラグA11101は、商品在庫情報をレンダリングするか否かを示したものであり、TRUE又はFALSEのいずれかの値をとる。この値がTRUEの時に、商品在庫情報のレンダリング処理が表示部A11018によって行われる。
 棚外観A11102は、描画する棚の外観を示したものであり、棚の実寸による高さ・幅が格納される。これらの実寸情報に基づいて、棚が画面内に治まるように表示部A11018はレンダリング処理を行う。例えば、表示部A11018は、図12のようなレイアウトで棚の外枠をレンダリングする。
 棚内観A11103は、棚の数と、棚全体に対する各棚の高さ割合とを示したものである。表示部A11018は、これらの情報に基づいて、図12に示すような間隔で棚の内板をレンダリングする。
 商品種別情報A11104は、商品のバリエーション数と各商品の画像データ本体とについての情報を格納する。例えば、サーバ装置A11015から受信する画像データのフォーマットをPNGデータとした場合、商品種別情報A11104に対応する商品種画像データにはPNGデータそのものが配置される。そして、表示部A11018はレンダリング直前にPNGデータを図示しないキャッシュ領域に展開し、本キャッシュ領域の内容をレンダリングし、商品の画像を使用者に提示する。
 商品在庫情報A11105は、商品の在庫数及びその在庫をレンダリングすべき商品の種別、座標の情報を格納する。図11における座標の情報のうちx座標は「商品棚の左から何番目か」、y座標は「商品棚のうち上から何番目の棚か」、z座標は「奥へと並ぶ棚のうち、手前から何番目の棚か」をそれぞれ示す。表示部A11018は、これらの座標情報と整合するような座標に、商品種別番号で示される商品画像をレンダリング処理を行う。
 [地図情報格納部A11017]
 続いて、地図情報格納部A11017について説明する。
 図13は、実施の形態1における地図情報格納部A11017が格納する情報の構造の一例を示す図である。
 地図情報格納部A11017は、例えば図13に示すように、有効フラグA11301と、地図画像のデータ長A11302と、地図画像A11303とを含む情報を格納する。
 有効フラグA11301は、地図情報をレンダリングするか否かを示したものであり、TRUE又はFALSEのいずれかの値をとる。この値がTRUEの時に、地図情報のレンダリング処理が表示部A11018によって行われる。
 地図画像A11303は、地図の画像データ本体の情報を格納する。例えば、サーバ装置A11015から受信する画像データのフォーマットをPNGデータとした場合、地図画像A11303にはPNGデータそのものが格納される。
 地図画像のデータ長A11302は、地図画像A11303のデータ長を示す。例えば、サーバ装置A11015から受信する画像データのフォーマットをPNGデータとした場合、表示部A11018はレンダリング直前にPNGデータを図示しないキャッシュ領域に展開し、本キャッシュ領域の内容をレンダリングし、商品の画像を使用者に提示する。
 [状態管理部A11019]
 続いて、状態管理部A11019について説明する。
 図14は、実施の形態1における状態管理部が管理する情報の構造の一例を示す図である。
 状態管理部A11019は、図14に示すように、異常フラグA11601、前フレーム描画種別A11602と、表示棚奥行きA11603と、地図オフセットXA11604と、地図オフセットYA11605と、前回取得IDA11606とを含む情報を管理する。
 前回取得IDA11606は、初期値を無効値とする。本実施の形態では、無効値=-1としている。
 異常フラグA11601は、TRUEまたはFALSEの値を格納する。状態管理部A11019は、例えば、サーバ装置A11015へ送出したIDがいずれの照明機器(照明機器A11002、照明機器A11003)にも関連しない無効なIDであった場合に、異常フラグA11601をTRUEに設定する。また、例えば異常フラグA11601がTRUEであった場合、表示部A11018は受信に失敗した旨使用者(ユーザ)に提示する。
 表示棚奥行きA11603、地図オフセットXA11604、地図オフセットYA11605で管理される値は、使用者がタッチパネル部A1204を操作した際に、UI部A11020によって更新される。
 [DB管理部A11014]
 続いて、DB管理部A11014について説明する。
 DB管理部A11014は、ID格納部A11013からIDを読み込むと、サーバ装置A11015に対して問い合わせを行い、記録されたIDの照合を行う。
 DB管理部A11014は、照合の結果、読み込んだIDが例えば天井に設置されたシーリングライトのIDであると照合できれば、図5に示すような地図情報すなわち該当するシーリングライトとその周辺の地図画像を送信するようサーバ装置A11015にリクエストを送る。DB管理部A11014は、リクエストの結果、図5に示すような地図画像(地図情法)を取得して地図情報格納部A11017に格納する。そして、DB管理部A11014は、地図情報格納部A11017の有効フラグA11301をTRUEに設定すると共に、商品情報格納部A11016の有効フラグをFALSEに、異常フラグA11601をFALSEに設定する。
 一方、DB管理部A11014は、照合の結果、読み込んだIDが例えば商品棚に設置されたいずれかのベースライトのIDであると照合できれば、サーバ装置A11015に対して図11に示す商品情報を送信するようリクエストを送る。DB管理部A11014は、リクエストの結果、取得した商品情報を商品情報格納部A11016へ格納する。そして、DB管理部A11014は、地図情報格納部A11017の有効フラグA11301をFALSEに設定すると共に、商品情報格納部A11016の有効フラグをTRUEに、異常フラグA11601をFALSEに設定する。
 なお、DB管理部A11014は、サーバ装置A11015へ送出したIDがいずれのシーリングライト・ベースライトにも関連しない無効なIDであった場合に、DB管理部A11014は地図情報格納部A11017の有効フラグA11301をFALSEに、商品情報格納部A11016の有効フラグをFALSEに、異常フラグA11601をTRUEに設定する。
 [UI部A11020]
 続いてUI部A11020について説明する。
 UI部A11020は、タッチパネル部A1204と連動している。
 UI部A11020は、例えば商品情報格納部A11016の有効フラグA11101がTRUEであり、使用者がタッチパネル部A1204に対してフリック操作をした場合、地図オフセットXA11604、地図オフセットYA11605で管理される値を更新する。ここで、UI部A11020は、例えば使用者によりタッチパネル部A1204が右方向にフリック操作されると、地図オフセットXA11604の値をフリック量にあわせて増加させ、タッチパネル部A1204が左方向にフリック操作されると地図オフセットXA11604の値を減少させる。また、例えば、UI部A11020は、使用者によりタッチパネル部A1204が上方向にフリック操作されると地図オフセットYA11605の値を減少させ、タッチパネル部A1204が下方向にフリック操作されると地図オフセットYA11605の値を増加させる。
 一方、UI部A11020は、例えば地図情報格納部A11017の有効フラグA11301がTRUEの場合、表示棚奥行きA11603の値を更新する。ここで、UI部A11020は、例えば使用者によりタッチパネル部A1204が右方向にフリック操作されると表示棚奥行きA11603の値を増加させ、タッチパネル部A1204が左方向にフリック操作されると表示棚奥行きA11603の値を減少させる。
 なお、UI部A11020は、表示棚奥行きA11603の値が商品在庫情報A11105の商品のz座標のうち最大の値より大きくなった場合には表示棚奥行きA11603の値を0に設定しなおす。また、UI部A11020は、表示棚奥行きA11603の値が0より小さくなった場合には表示棚奥行きA11603を(商品在庫情報A11105の商品のz座標のうち最大の値)に設定しなおす。
 [表示部A11018]
 表示部A11018は、上記の地図情報または商品情報をレンダリング処理して表示する。また、表示部A11018は、上述した処理を踏まえて表示内容を更新する。
 表示部A11018は、表示内容を更新する処理(更新処理)を行う際、まず次に説明する表示更新前処理を実行する。
 表示部A11018は、商品情報格納部A11016の有効フラグA11101がTRUEかつ前フレーム描画種別A11602が商品情報以外の場合、表示する棚の状態を一旦初期化する必要があると判断し、表示棚奥行きA11603の値を0に設定しなおす。
 つまり、携帯端末A11001の表示部A11018に商品情報が表示された後、切り替えられた第1撮像部(例えばインカメラA1202)を用いて、位置情報を使用者の現在位置として取得する場合、商品情報に付与されたオフセットを初期化する。
 同様に、表示部A11018は、地図情報格納部A11017の有効フラグA11301がTRUEかつ前フレーム描画種別A11602が地図情報以外の場合、表示する地図の状態を一旦初期化する必要があると判断し、地図オフセットXA11604と地図オフセットYA11605との値を0に設定しなおす。つまり、携帯端末A11001の表示部A11018に地図情報が表示された後、切り替えられた第2撮像部(例えばアウトカメラA1203)を用いて、第1機器(照明機器A11003)が設置されている商品棚の商品情報を取得する場合、上記地図情報に付与されたオフセットを初期化する。
 また、表示部A11018は、状態管理部A11019の前回取得IDとID格納部A11013とが異なる値を保持している場合、表示状態を初期化する必要があると判断し、地図オフセットXA11604と地図オフセットYA11605と表示棚奥行きA11603と0に設定しなおすとしてもよい。この場合、状態管理部A11019の前回取得IDにID格納部A11013の内容がコピーされる。
 更に、表示更新前処理として、状態管理部A11019において、商品情報格納部A11016の有効フラグA11101がTRUEの場合は前フレーム描画種別A11602を「商品情報」に、地図情報格納部A11017の有効フラグA11301がTRUEの場合は前フレーム描画種別A11602を「地図情報」に設定される。異常フラグA11601がTRUEの場合は前フレーム描画種別A11602を「異常」に設定される。
 以上の表示更新前処理が完了し、地図情報格納部A11017の有効フラグA11301と商品情報格納部A11016の有効フラグのうちいずれか一方がTRUEとなったとする。
 この場合、表示部A11018は、地図情報格納部A11017の有効フラグA11301がTRUEのとき、図5に示すような地図情報を表示するためのレンダリング処理を実行する。また、表示部A11018は、商品情報格納部A11016の有効フラグがTRUEのとき、図12に示すような商品在庫状況を表示するためのレンダリング処理を実行する。一方、表示部A11018は、異常フラグA11601がTRUEであるときは、不正なIDを受信した旨を示すように表示内容を更新する。
 [通信システムの動作フロー]
 続いて、本実施の形態の通信システムの動作フローについて説明する。
 [照明機器の動作フロー]
 図15は、実施の形態1における照明機器の動作を示すフローチャートである。
 以下、照明機器A11002の動作フローについて図15を用いて説明する。
 まず、照明機器A11002に電力が供給され、動作フローが開始するとする(SA11401)。
 次に、エンコード部A11005は、ID格納部A11004からIDを読み込む(SA11402)。
 次に、エンコード部A11005は、エンコード処理により当IDを照明の照度パターン、即ち各タイミングにおける照明の照度に変換する(SA11403)。
 次に、エンコード部A11005は、当該照度パターンを第1の照度パターン格納部A11006に格納する(SA11404)。
 次に、発光部A11007は、以上の起動フェーズが完了したため、照度パターン格納部A11006から照度パターンを読み込み(SA11405)、当照度パターンで示されるパターンに基づき、照度を高速に更新しながら発光制御を行う(SA11406)。
 以上の動作フローにより、照明機器A11002はIDに基づいた照度制御(可視光通信)を行う。
 次に、照明機器A11003についても説明する。
 まず、照明機器A11003に電力が供給され、動作フローが開始するとする(SA11401)。エンコード部A11009は、ID格納部A11008からIDを読み込み(SA11402)、エンコード処理により当IDを照明の照度パターン、即ち各タイミングにおける照明の照度に変換し(SA11403)、当照度パターンを照度パターン格納部A11010に格納する(SA11404)。
 以上の起動フェーズが完了すると、発光部A11011は照度パターン格納部A11010から照度パターンを読み込み(SA11405)、当照度パターンで示されるパターンに基づき、照度を高速に更新しながら発光制御を行う(SA11406)。
 以上の動作フローにより、照明機器A11003はIDに基づいた照度制御を行う。
 [携帯端末A11001の動作フロー]
 続いて、携帯端末A11001のフローについて、図16を用いて説明する。
 図16は、実施の形態1における携帯端末の動作を示すフローチャートである。
 まず、受光制御部A11012は、最初にシャッター速度を高速な設定に切り替える(SA11500)。
 次に、受光制御部A11012は、発光部A11007または発光部A11011の照度パターンを検知すると、デコード処理により検知したパターンをIDに変換し(SA11501)、ID格納部A11013へ格納する(SA11502)。
 次に、DB管理部A11014は、ID格納部A11013からIDを読み込むと、サーバ装置A11015に対して問い合わせを行い(SA11503)、記録されたIDの照合を行う(SA11504、SA11506)。
 SA11504において、DB管理部A11014は、照合の結果、読み込んだIDが天井に設置されたいずれかのシーリングライトのIDであれば(SA11504でYes)、シーリングライト関連の処理を実行する(SA11505)。
 一方、SA11506において、DB管理部A11014は、照合の結果、IDが商品棚に設置されたいずれかのベースライトのIDであれば(SA11506でYes)、ベースライト関連の処理を実行する(SA11507)。
 なお、DB管理部A11014は、サーバ装置A11015へ送出したIDがシーリングライトにもベースライトにも関連しない無効なIDであった場合には、地図情報格納部A11017の有効フラグA11301をFALSEに、商品情報格納部A11016の有効フラグをFALSEに、異常フラグA11601をTRUEに設定する。表示部A11018は、照明機器に関する情報がない旨を示すエラー通知を表示する(SA11508)。つまり、携帯端末A11001は、可視光を発する照明機器と可視光通信を行うことにより取得した照明機器に一意に与えられた識別子を、サーバ装置A11015に問い合わせることで、識別子に対応付けられた照明機器に関する情報を取得する。しかし、携帯端末A11001は、サーバ装置A11015に問い合わせても当該識別子に対応付けられた情報がない場合には照明機器に関する情報がない旨を示すエラー通知を、表示部A11018に表示する。
 [シーリングライト関連処理のフロー]
 続いて、シーリングライト関連処理(SA11505)について説明する。
 図17は、実施の形態1におけるシーリングライト関連処理を示すフローチャートである。
 まず、DB管理部A11014は、図5に示すような、該当するシーリングライトとその周辺の地図画像を送信するようサーバ装置A11015にリクエストを送る(SA11701)。
 次に、DB管理部A11014は、図5に示す地図画像を取得して地図情報格納部A11017に格納する(SA11702)。
 次に、DB管理部A11014は、地図情報格納部A11017の有効フラグA11301をTRUEに設定すると共に、商品情報格納部A11016の有効フラグをFALSEに設定する(SA11703)。
 [ベースライト関連処理のフロー]
 続いて、ベースライト関連処理(SA11507)について説明する。
 図18は、実施の形態1におけるベースライト関連処理を示すフローチャートである。
 まず、DB管理部A11014は、サーバ装置A11015に対して図11に示す商品情報をリクエストする(SA11801)。
 次に、DB管理部A11014は、取得した商品情報を商品情報格納部A11016へ格納する(SA11802)。
 次に、DB管理部A11014は、地図情報格納部A11017の有効フラグA11301をFALSEに設定すると共に、商品情報格納部A11016の有効フラグをTRUEに設定する(SA11803)。
 [UI部A11020の動作フロー]
 続いてUI部A11020について図19を用いて説明する。
 図19は、実施の形態1におけるUI関連処理を示すフローチャートである。
 UI部A11020は、上述したようにタッチパネル部A1204と連動している。
 SA119001において、UI部A11020は、地図情報格納部A11017の有効フラグA11301がTRUEの場合(S11901でyes)、地図情報向けUI処理を実行する(S11902)。
 一方、SA119003において、UI部A11020は、商品情報格納部A11016の有効フラグA11101がTRUEの場合(S11903でyes)、商品情報向けUI処理を実行する(S11904)。
 [地図情報向けUI処理のフロー]
 続いて、地図情報向けUI処理(S11802)について説明する。
 図20は、実施の形態1における地図情報向けUI処理を示すフローチャートである。
 まず、地図情報向けUI処理を開始すると(SA11902)、UI部A11020は、使用者によりタッチパネル部A1204が右方向にフリック操作されたか否かを判断する(SA12001)
 SA12001において、UI部A11020は、使用者によりタッチパネル部A1204が右方向にフリック操作されると(SA12001でyes)地図オフセットXA11604の値をフリック量にあわせて増加させ(SA12002)る。
 SA12003において、UI部A11020は、使用者によりタッチパネル部A1204が左方向にフリック操作されると(SA12003でyes)、地図オフセットXA11604の値を減少させる(SA12004)。
 SA12005において、UI部A11020は、使用者によりタッチパネル部A1204が上方向にフリック操作されると(SA12005でyes)、地図オフセットYA11605の値を減少させる(SA12006)。
 SA12007において、UI部A11020は、使用者によりタッチパネル部A1204が下方向にフリック操作されると(SA12007でyes)、地図オフセットYA11605の値を増加させる(SA12008)。
 このように、使用者がタッチパネル部A1204に対してフリック操作をすると、UI部A11020によって地図オフセットXA11604および地図オフセットYA11605の値が更新される。
 [商品情報向けUI処理のフロー]
 続いて、商品情報向けUI処理(S11804)について説明する。
 図21、実施の形態1における商品情報向けUI処理を示すフローチャートである。
 まず、商品情報向けUI処理を開始すると(SA11904)、UI部A11020は、使用者によりタッチパネル部A1204が右方向にフリック操作されたか否かを判断する(SA12101)
 SA12101において、UI部A11020は、使用者によりタッチパネル部A1204が右方向にフリック操作されると(SA12101でyes)、表示棚奥行きA11603の値を増加させる(SA12102)。
 SA12103において、UI部A11020は、使用者によりタッチパネル部A1204が左方向にフリック操作されると(SA12103でyes)、表示棚奥行きA11603の値を減少させる(SA12104)。
 なお、SA12105において、UI部A11020は、表示棚奥行きA11603の値が商品在庫情報A11105の商品のz座標のうち最大の値より大きくなった場合は(SA12105でyes)、表示棚奥行きA11603を0に設定しなおす(SA12106)。
 また、SA12107において、UI部A11020は、表示棚奥行きA11603の値が0より小さくなった場合は(SA12107でyes)、表示棚奥行きA11603の値を商品在庫情報A11105の商品のz座標のうち最大の値に設定しなおす(SA12108)。
 このようにして、UI部A11020は、表示棚奥行きA11603を更新する。
 [表示部A11018の処理フロー]
 続いて、表示部A11018の処理フローについて説明する。
 図22は、実施の形態1における表示処理全体を示すフローチャートである。図23は実施の形態1における表示更新前処理を示すフローチャートであり、図24は実施の形態1における表示更新処理を示すフローチャートである。
 表示部A11018は、図22に示すように、表示処理を開始すると、表示更新処理を行う前に表示更新前処理を実行する(SA12201)。そして、表示部A11018は、表示更新前処理を実行後に表示更新処理を実行する(SA12202)。
 ここで、表示更新前処理(SA12201)について図23を用いて詳細に説明する。
 表示部A11018は、表示更新前処理を開始すると、図23に示すように、商品情報が有効か否かを確認する(SA12301)。
 表示部A11018は、商品情報格納部A11016の有効フラグA11101がTRUE(SA12301でyes)かつ前フレーム描画種別A11602が商品情報以外の場合(SA12302でno)、表示する棚の状態を初期化する必要があると判断し、表示棚奥行きA11603の値を0に設定しなおす(SA12303)。
 次に、SA12304において、表示部A11018は、地図情報が有効か否かを確認する(SA12304)。
 表示部A11018は、地図情報格納部A11017の有効フラグA11301がTRUE(SA12304でyes)かつ前フレーム描画種別A11602が地図情報以外の場合(SA12305でno)、表示する地図の状態を初期化する必要があると判断し、地図オフセットXA11604および地図オフセットYA11605の値を0に設定しなおす(SA12306)。
 次に、SA12307において、表示部A11018は、IDが更新されたか否かを確認する(SA12307)。
 表示部A11018は、状態管理部A11019の前回取得IDとID格納部A11013のIDとが異なる値を保持している場合(SA12307でyes)、表示状態を初期化する必要があると判断し、地図オフセットXA11604、地図オフセットYA11605および表示棚奥行きA11603の値を0に設定しなおす(SA12308)。
 次に、SA12309において、表示部A11018は、状態管理部A11019の前回取得IDにID格納部A11013の内容をコピーすることで旧IDを更新する(SA12309)。
 次に、表示部A11018は、前フレーム描画種別を更新する(SA12310)。具体的には、表示部A11018は、商品情報格納部A11016の有効フラグA11101がTRUEの場合は前フレーム描画種別A11602を「商品情報」に、地図情報格納部A11017の有効フラグA11301がTRUEの場合は前フレーム描画種別A11602を「地図情報」に設定する。また、表示部A11018は、異常フラグA11601がTRUEの場合は前フレーム描画種別A11602を「異常」に設定する。
 続いて、表示更新処理(SA12202)について図24を用いて説明する。
 表示部A11018は、表示更新処理を開始すると、図24に示すように、地図情報が有効か否かを確認する(SA12301)。
 表示部A11018は、地図情報格納部A11017の有効フラグA11301がTRUEの場合は(SA12401でyes)、地図オフセットXA11604の値と地図オフセットYA11606の値とを読み込み(SA12402)、各オフセットの値分だけずらしながら図5に示すような地図情報のレンダリング処理を実行する(SA12403)。
 S12401において、表示部A11018は、地図情報の有効フラグが無効の場合、商品情報が有効か否かを確認する(SA12304)。
 表示部A11018は、商品情報格納部A11016の有効フラグがTRUEの場合は(SA12404でyes)、表示棚奥行きA11603の値を読み込み(SA12404)、表示棚奥行きA11603で示される棚の画像を提示するように、図12に示すような商品在庫状況のレンダリング処理を実行する(SA12406)。
 S12404において、表示部A11018は、商品情報の有効フラグが無効の場合(SA12404でno)で、さらに異常フラグA11601がTRUEの場合は、不正なIDを受信した旨を表示するように表示内容を更新する(SA12407)。
 (実施の形態2)
 本実施の形態では、受光制御部A11012の構成及びフローの詳細について説明する。その他の構成については実施の形態1と同じであるため説明を省略する。
 [受光制御部A11012の詳細構成]
 まず、実施の形態2における受光制御部A11012の詳細構成について説明する。
 図25は、実施の形態2における受光制御部の詳細構成を示す図である。
 実施の形態2における受光制御部A11012は、図25に示すように、受光部A12501と、受光部A12502と、セレクタA12503と、加速度検知部A12504と、受光信号格納部A12505と、デコード部A12506と、閾値格納部A12507とを備える。
 受光部A12501は、例えば実施の形態1のインカメラA1202(第1撮像部)に対応し、受光部A12502は、例えば実施の形態1のアウトカメラA1203(第2撮像部)に対応する。
 セレクタA12503は、2つの受光部のどちらを稼動させるかを選択するためのセレクタである。
 加速度検知部A12504は、携帯端末A11011の加速度を検知することで、セレクタA12503における選択処理に必要な情報を供給する。
 受光信号格納部A12505は、セレクタA12503を経由して受光部A12501又は受光部A12502より得られた受光信号を格納する。
 デコード部A12506は、受光信号格納部A12505から受光信号を読み取り、デコード処理を行ってIDを生成し、生成したIDをID格納部A11013に格納する。
 閾値格納部A12507は、セレクタA12503が取得した加速度から、受光制御部A11012を搭載した携帯端末A11011が地面に対して水平か否かを判定するための第1の閾値と第2の閾値を予め格納する。
 [受光制御部の処理]
 続いて、実施の形態2における受光制御部A11012の処理フローについて説明する。
 図26は、実施の形態2における受光制御部の照度パターン検知処理を示すフローチャートである。
 まず、受光制御部A11012は、起動後(SA11501)、加速度検知部A12504より携帯端末A11011の背面方向に生じる加速度を検知する(SA12601)。
 次に、受光制御部A11012は、取得した加速度と閾値格納部A12507に格納されている閾値とを比較し、受光部A12501(インカメラ)が上向きか否かを確認する(SA12602)。
 SA12602において、受光制御部A11012は、加速度が第1の閾値よりも大きければ、受光部A12501(インカメラ)が地面に対して上向きであると判定し(SA12602でyes)、受光部A12501(インカメラ)に切り替える(SA12603)。受光制御部A11012は、加速度が第1の閾値よりも大きければ、より大きな加速度、即ち重力加速度が携帯端末A11011の背面方向に生じていることから、携帯端末A11011が地面に対して水平で、かつ受光部A12501(インカメラ)が地面に対して上向きであると判定できる。そして、受光制御部A11012は、受光部A12501に切り替えるまたはを稼動させる。
 一方、SA12602において、受光制御部A11012は、加速度が第2の閾値以下であれ、受光部A12501(インカメラ)が地面に対して上向きではないと判定し(SA12602でno)、受光部A12502(アウトカメラ)に切り替える(SA12604)。受光制御部A11012は、加速度が第2の閾値以下であれば、重力加速度が携帯端末A11011の背面方向に大きく生じていないことから、携帯端末A11011が地面に対して水平ではなく、受光部A12502(アウトカメラ)が壁や棚に向けられていると判定する。そして、受光制御部A11012は、受光部A12502(アウトカメラ)に切り替えるまたはを稼動させる。
 次に、受光制御部A11012は、静止画キャプチャを取得する(SA12605)。具体的には、受光制御部A11012は、上記の処理により、受光部A12501(インカメラ)又は受光部A12502(アウトカメラ)より撮影画像を取得する。
 次に、受光制御部A11012は、撮影画像から照明の照度変化を取得、即ちデコード処理を実行する(SA12606)。
 次に、受光制御部A11012は、デコード処理によって得られたIDをID格納部A11013に格納する(SA12607)。
 以上のように、受光制御部A11012は、携帯端末A11011の姿勢に応じて受光部(撮像部)の選択を行うことができる。それにより、携帯端末を上から覗き込む(建物の見取り図を俯瞰する)照明機器に最適な受光部(インカメラ)の選択や、正面にある棚やその他被写体を水平方向に覗き込む照明機器に最適な受光部(アウトカメラ)の選択をすることができる。
 (実施の形態3)
 受光制御部A11012の構成及びフローの詳細は、実施の形態2で説明したものに限らない。本実施の形態では、実施の形態2と異なる受光制御部A11012の構成及びフローの詳細について説明する。その他の構成については実施の形態1と同じであるため説明を省略する。
 [受光制御部A11012の詳細構成]
 まず、実施の形態3における受光制御部A11012の詳細構成について説明する。
 図27は、実施の形態3における受光制御部の詳細構成を示す図である。
 実施の形態3における受光制御部A11012は、第1の受光部A12701と、第2の受光部A12702と、セレクタA12703と、タイマ制御部A12704と、受光信号格納部A12705と、デコード部A12706と、閾値格納部A12707とを備える。
 受光部A12701は、例えば実施の形態1のインカメラA1202(第1撮像部)に対応し、受光部A12702は、例えば実施の形態1のアウトカメラA1203(第2撮像部)に対応する。
 セレクタA12703は、これら2つの受光部のどちらを稼動させるかを選択するためのセレクタである。
 タイマ制御部A12704は、セレクタA12703における選択処理に必要な情報を供給する。
 受光信号格納部A12705は、セレクタA12703を経由して第1の受光部A12701又は第2の受光部A12702より得られた受光信号を格納する。
 デコード部A12706は、受光信号格納部A12705から受光信号を読み取り、デコード処理を行ってIDを生成し、生成したIDをID格納部A11013に格納する。
 閾値格納部A12707は、セレクタA12703が第1の受光部A12701から受光を始めて第2の受光部A12702の受光への切り替えに要する時間の閾値1を予め格納する。閾値格納部A12507は、更にセレクタA12703が第2の受光部A12702から受光を始めて第1の受光部A12701の受光への切り替えに要する時間の閾値2を予め格納する。
 [受光制御部の処理]
 続いて、実施の形態3における受光制御部A11012の処理フローについて説明する。
 図28は、実施の形態3における受光制御部の照度パターン検知処理を示すフローチャートである。
 まず、受光制御部A11012は、起動後(SA11501)、タイマ制御部A12704が停止しているか確認する(SA12801)。
 SA12801において、受光制御部A11012は、タイマ制御部A12704が稼動していなければ(SA12801のyes)、タイマ制御部A12704を稼動させるとともに、第1の受光部A12701を稼動させる(SA12802)。
 次に、SA12803において、受光制御部A11012は、第1の受光部A12701が稼働中の場合(SA12803のyes)、第1の受光部A12701が稼動し始めてから第1の閾値の時間が経過していれば(SA12804のyes)、各受光部をバランスよく稼動させるため、第1の受光部A12701を停止すると共に、第2の受光部A12702を稼動させる(SA12806)。
 一方、第1の受光部A12701が停止中、即ち第2の受光部A12702が稼働中である場合(SA12803でno)、第2の受光部A12702が稼動してから第2の閾値の時間が経過していれば(SA12805のyes)、各受光部をバランスよく稼動させるため、第2の受光部A12702を停止すると共に、第1の受光部A12701を稼動させる(SA12807)。
 次に、受光制御部A11012は、静止画キャプチャを取得する(SA12608)。具体的には、受光制御部A11012は、上記の処理により、稼動した第1の受光部A12501又は第2の受光部A12502より撮影画像を取得する。
 次に、受光制御部A11012は、撮影画像から照明の照度変化を取得、即ちデコード処理を実行する(SA12609)。
 次に、受光制御部A11012は、デコード処理によって得られたIDをID格納部A11013に格納する(SA12610)。
 以上のように、受光制御部A11012は、所定時間ごとに受光部(撮像部)の選択を行うことで、例えば図9に示すような腕時計型デバイスを水平に構えた場合において、天井のシーリングライトA1904から得られるIDと、棚に設置されたベースライトA1905から得られるIDとをそれぞれバランスよく取得することが可能となる。
 なお、本実施の形態では、受光制御部A11012は加速度検知部を更に有するとしてもよい。この場合、受光制御部A11012は、腕時計型デバイスの表示面が地面に水平でない、即ち使用者が腕時計型デバイスの表示面を見ていないと予想される場合は、第1の受光部A12501と第2の受光部A12502を停止し、消費電力の削減を図るようにしても良い。
 (実施の形態4)
 本実施の形態では、実施の形態1をベースに、視線検出の技術を応用して、使用者(ユーザ)の意思をより的確に表示部A11018に反映させる場合の例について説明する。
 図29は、実施の形態4における視線の動きを検出する携帯端末を使用する際のイメージ図である。
 図29に示すように、使用者が携帯端末A12901を手に持って、棚A12903に携帯端末A12901の背面部分を向けている場合、携帯端末A12901の表示部には棚A12903の情報が表示される。本実施の形態では、この状態で使用者の視線が棚A12901の右側を向いた場合、携帯端末A12901は使用者の視線を画像認識処理によって検知することができる。そして、「使用者が見ているものは棚A12901ではなく、棚A12901の右隣に設置されている棚A12905である」と判定し、携帯端末A12901の表示部に棚A12905に関する情報を表示する。
 このように、本実施の形態では、携帯端末A12901の正面に存在する照明に加え、使用者(ユーザ)の視線を考慮して表示する対象物を選択することで、より使用者の意図を反映させた情報確認が可能となる。
 [携帯端末A12901の構成]
 続いて、実施の形態25における携帯端末A12901の構成について、説明する。
 図30は、実施の形態4における携帯端末の構成の一例を示す図である。なお、図30では、実施の形態1と重複している構成要素、すなわち図10に示す構成要素と同様の構成には同じ番号を使用する。
 図30に示す携帯端末A12901は、受光制御部A13002と、ID格納部A11013と、DB管理部A13003と、商品情報格納部A11016と、地図情報格納部A11017と、表示部A11018と、状態管理部A11019と、UI部A11020と、視線情報格納部A13001とを備える。また、携帯端末A12901は、サーバ装置A13004に無線通信により接続されている。
 受光制御部A13002は、発光部A11007及び発光部A11011の照度パターンを検知すると、検知したパターンをIDに変換し、ID格納部A11013へ格納する。本実施の形態の場合、受光制御部A13002は、発光部A11007又は発光部A11011の照度パターンを検知するため、ID格納部A11013に格納されるIDはID格納部A11004またはID格納部A11008のいずれかに格納されているIDと等しくなる。
 更に、受光制御部A13002は、自身が内蔵している内受光機能により、使用者の視線が「正面・右・左」のどれに分類されるかを示す視線分類情報を検出し、検出した分類結果を視線情報格納部A13001に格納する。
 その他の構成については、図10で説明したものと同様であるため、詳細な説明は省略する。
 [DB管理部A13003の動作フロー]
 続いて、DB管理部A13003のフローについて説明する。本実施の形態では、実施の形態1における図18のSA11801が詳細化され、その他の動作は同様であるため、以下ではSA11801の詳細フローについて主に説明する。
 図31は、実施の形態4におけるDB管理部の問い合わせ処理を示すフローチャートである。図32は、実施の形態4におけるサーバ装置のDBが管理する情報の構造の一例を示す図である。
 まず、DB管理部A13003は、サーバ装置A11015に対して商品画像送信要求を行う処理を開始する(SA11801)。
 すると、DB管理部A13003は、IDおよび視線分類情報をサーバ装置に問い合わせる(SA13201)。具体的には、DB管理部A13003は、ID格納部A11013からIDを読み込み、更に視線情報格納部A13001から視線分類情報を読み込む。また、DB管理部A13003は、サーバ装置A11015に対して商品情報をリクエストする。この時、ベースライトのIDをサーバ装置A11015に送出すると共に、視線情報格納部A13001に格納された視線分類情報もサーバ装置A11015に送出する。
 次に、サーバ装置A11015は、保持するDBからIDを検索する(SA13202)。具体的には、サーバ装置A11015は、図32に示すようなDBを保持しており、受信したIDを保持するDBのA13102列から検索する。
 SA13202において、サーバ装置A11015は、保持するDBに該当するIDが存在した場合(SA13203でyes)、IDおよび視線分類情報に対応するDBの行を検索し(SA13205)、視線分類情報に対応する棚識別子が存在するか確認する(SA13206)。具体的には、サーバ装置A11015は、保持するDBのA13102列に該当する行が検索された場合、その行から棚識別子を抽出する。この時、視線分類情報が正面の場合はA13101列を、視線分類情報が「左」の場合はA13103列を、視線分類情報が「右」の場合はA13104列を参照し、該当行の参照によって棚識別子を得る。
 次に、サーバ装置A11015は、得られた棚識別子に対応する行を検索し(SA13208)、該当行の棚情報を通知する(SA13209)。具体的には、サーバ装置A11015は、得られた棚識別子をA13101列から検索し、該当行の棚情報A13105を携帯端末A12901のDB管理部A13003に通知する。例えば、IDの値が200、視線分類情報が「右」のものを受信した場合、IDが200のものを照明IDA13102から検索すると1行目に存在し、1行目の右隣の棚識別子A13104は101であるから、携帯端末A12901には棚識別子A13101が101である行における棚情報A13105、即ち棚情報2が送出される。
 そして、携帯端末A12901のDB管理部A13003は、取得した商品情報を商品情報格納部A11016へ格納し、地図情報格納部A11017の有効フラグA11301をFALSEに設定すると共に、商品情報格納部A11016の有効フラグをTRUEに、異常フラグA11601をFALSEに設定する。
 なお、SA13206において、サーバ装置A11015は、受信したIDがA13102列から検出されたものの、IDと視線分類情報とから棚識別子を抽出できなかった場合(SA13206でno)、受信したIDが検索された行の棚情報A13105を携帯端末A12901のDB管理部A13003に通知する(SA13207)。
 また、SA13203において、サーバ装置A11015は、受信したIDをA13102列から検出できなかった場合(SA13203でno)、該当ID無しの旨を携帯端末A12901のDB管理部A13003に通知する(SA13204)。ここで、例えばサーバ装置A11015へ送出したIDがいずれのシーリングライト・ベースライトにも関連しない無効なIDであった場合、DB管理部A13003は、地図情報格納部A11017の有効フラグA11301をFALSEに、商品情報格納部A11016の有効フラグをFALSEに、異常フラグA11601をTRUEに設定する。
 以上のように、本実施の形態によれば、通信装置を搭載する携帯端末はさらに使用者の視線を検知することができる。より具体的には、携帯端末の向きが地面に対して略垂直の場合、アウトカメラに切り替え、アウトカメラで可視光を発する第1機器と可視光通信を行うとともに、インナーカメラを用いて使用者の視線を検知する。
 それにより、アウトカメラを用いて、使用者の前方に位置し可視光を発する第1機器と可視光通信を行うことにより、第1機器が設置されている第1商品棚の商品情報を取得し、検知された使用者の視線の先にある第2商品棚が当該第1商品棚と異なる場合には、当該第1商品棚の商品情報に代えて第2商品棚の商品情報を表示することができる。
 (実施の形態5)
 本実施の形態は、実施の形態4をベースにしたものであって、受光制御部A11012の構成を明確化したものである。
 図33は、実施の形態5における受光制御部の詳細構成を示す図である。
 実施の形態5における受光制御部A11012は、図33に示すように、受光部A12501と、受光部A12502と、セレクタA12503と、加速度検知部A12504と、受光信号格納部A12505と、デコード部A12506と、閾値格納部A12507と、視線検出部A13301とを備える。なお、図25と同様の要素には同一の符号を付しており、詳細な説明は省略する。
 受光部A12501は、例えば実施の形態1のインカメラA1202(第1撮像部)に対応し、受光部A12502は、例えば実施の形態1のアウトカメラA1203(第2撮像部)に対応する。なお、本実施の形態において、受光部A12501はカメラデバイスのような映像撮像装置とする。
 セレクタA12503は、2つの受光部のどちらを稼動させるかを選択するためのセレクタである。
 加速度検知部A12504は、携帯端末A12901の加速度を検知することで、セレクタA12503における選択処理に必要な情報を供給する。
 受光信号格納部A12505は、セレクタA12503を経由して受光部A12501又は受光部A12502より得られた受光信号を格納する。
 デコード部A12506は、受光信号格納部A12505から受光信号を読み取り、デコード処理を行ってIDを生成し、生成したIDをID格納部A11013に格納する。
 閾値格納部A12507は、セレクタA12503が取得した加速度から、受光制御部A11012を搭載した携帯端末A12901が地面に対して水平か否かを判定するための第1の閾値と第2の閾値を予め格納する。
 視線検出部A13301は、受光部A12501から映像信号を受け、使用者の視線位置を検出し、視線分類情報を視線情報格納部A13001に格納する。
 (実施の形態6)
 本実施の形態は、実施の形態4をベースにしたものであって、受光制御部A11012の構成を明確化したものである。
 図34は、実施の形態6における受光制御部の詳細構成を示す図である。
 実施の形態6における受光制御部A11012は、図34に示すように、受光部A12501と、受光部A12502と、セレクタA12503と、加速度検知部A12504と、受光信号格納部A12505と、デコード部A12506と、閾値格納部A12507と、撮像部A13401と、視線検出部A13402とを備える。なお、図25と同様の要素には同一の符号を付しており、詳細な説明は省略する。
 受光部A12501は、本実施の形態において、受光部A12501は照度センサのようなセンサデバイスとする。受光部A12502は、例えば実施の形態1のアウトカメラA1203(第2撮像部)に対応する。
 セレクタA12503は、これら2つの受光部のどちらを稼動させるかを選択するためのである。
 加速度検知部A12504は、携帯端末A12901の加速度を検知することで、セレクタA12503における選択処理に必要な情報を供給する。
 受光信号格納部A12505は、セレクタA12503を経由して受光部A12501又は受光部A12502より得られた受光信号を格納する。
 デコード部A12506は、受光信号格納部A12505から受光信号を読み取り、デコード処理を行ってIDを生成し、生成したIDをID格納部A11013に格納する。
 閾値格納部A12507は、セレクタA12503が取得した加速度から、受光制御部A11012を搭載した携帯端末A12901が地面に対して水平か否かを判定するための第1の閾値と第2の閾値を予め格納する。
 撮像部A13401は、カメラデバイスのような映像撮像装置である。
 視線検出部A13402は、撮像部A13401から映像信号を受け、使用者の視線位置を検出し、視線分類情報を視線情報格納部A13001に格納する。
 以上のように、本実施の形態によれば、携帯端末の姿勢に応じて、使用者の現在位置及び意図をより反映した情報の提示が可能となる通信端末および通信方法を実現できる。
 (実施の形態7)
 以下、実施の形態7について説明する。
 (発光部の輝度の観測)
 1枚の画像を撮像するとき、全ての撮像素子を同一のタイミングで露光させるのではなく、撮像素子ごとに異なる時刻に露光を開始・終了する撮像方法を提案する。図35は、1列に並んだ撮像素子は同時に露光させ、列が近い順に露光開始時刻をずらして撮像する場合の例である。ここでは、同時に露光する撮像素子の露光ラインと呼び、その撮像素子に対応する画像上の画素のラインを輝線と呼ぶ。
 この撮像方法を用いて、点滅している光源を撮像素子の全面に写して撮像した場合、図36のように、撮像画像上に露光ラインに沿った輝線(画素値の明暗の線)が生じる。この輝線のパターンを認識することで、撮像フレームレートを上回る速度の光源輝度変化を推定することができる。これにより、信号を光源輝度の変化として送信することで、撮像フレームレート以上の速度での通信を行うことができる。光源が2種類の輝度値をとることで信号を表現する場合、低い方の輝度値をロー(LO),高い方の輝度値をハイ(HI)と呼ぶ。ローは光源が光っていない状態でも良いし、ハイよりも弱く光っていても良い。
 この方法によって、撮像フレームレートを超える速度で情報の伝送を行う。
 一枚の撮像画像中に、露光時間が重ならない露光ラインが20ラインあり、撮像のフレームレートが30fpsのときは、1.67ミリ秒周期の輝度変化を認識できる。露光時間が重ならない露光ラインが1000ラインある場合は、3万分の1秒(約33マイクロ秒)周期の輝度変化を認識できる。なお、露光時間は例えば10ミリ秒よりも短く設定される。
 図36は、一つの露光ラインの露光が完了してから次の露光ラインの露光が開始される場合を示している。
 この場合、1秒あたりのフレーム数(フレームレート)がf、1画像を構成する露光ライン数がlのとき、各露光ラインが一定以上の光を受光しているかどうかで情報を伝送すると、最大でflビット毎秒の速度で情報を伝送することができる。
 なお、ラインごとではなく、画素ごとに時間差で露光を行う場合は、さらに高速で通信が可能である。
 このとき、露光ラインあたりの画素数がm画素であり、各画素が一定以上の光を受光しているかどうかで情報を伝送する場合には、伝送速度は最大でflmビット毎秒となる。
 図37のように、発光部の発光による各露光ラインの露光状態を複数のレベルで認識可能であれば、発光部の発光時間を各露光ラインの露光時間より短い単位の時間で制御することで、より多くの情報を伝送することができる。
 露光状態をElv段階で認識可能である場合には、最大でflElvビット毎秒の速度で情報を伝送することができる。
 また、各露光ラインの露光のタイミングと少しずつずらしたタイミングで発光部を発光させることで、発信の基本周期を認識することができる。
 図38は、一つの露光ラインの露光が完了する前に次の露光ラインの露光が開始される場合を示している。即ち、隣接する露光ラインの露光時間が、部分的に時間的な重なりを持つ構成となっている。このような構成により、(1)一つの露光ラインの露光時間の終了を待って次の露光ラインの露光を開始する場合に比べ、所定の時間内におけるサンプル数を多くすることができる。所定時間内におけるサンプル数が多くなることにより、被写体である光送信機が発生する光信号をより適切に検出することが可能となる。即ち、光信号を検出する際のエラー率を低減することが可能となる。更に、(2)一つの露光ラインの露光時間の終了を待って次の露光ラインの露光を開始する場合に比べ、各露光ラインの露光時間を長くすることができるため、被写体が暗い場合であっても、より明るい画像を取得することが可能となる。即ち、S/N比を向上させることが可能となる。なお、全ての露光ラインにおいて、隣接する露光ラインの露光時間が、部分的に時間的な重なりを持つ構成となる必要はなく、一部の露光ラインについて部分的に時間的な重なりを持たない構成とすることも可能である。一部の露光ラインについて部分的に時間的な重なりを持たないように構成するにより、撮像画面上における露光時間の重なりによる中間色の発生を抑制でき、より適切に輝線を検出することが可能となる。
 この場合は、各露光ラインの明るさから露光時間を算出し、発光部の発光の状態を認識する。
 なお、各露光ラインの明るさを、輝度が閾値以上であるかどうかの2値で判別する場合には、発光していない状態を認識するために、発光部は発光していない状態を各ラインの露光時間以上の時間継続しなければならない。
 図39は、各露光ラインの露光開始時刻が等しい場合に、露光時間の違いによる影響を示している。7500aは前の露光ラインの露光終了時刻と次の露光ラインの露光開始時刻とが等しい場合であり、7500bはそれより露光時間を長くとった場合である。7500bのように、隣接する露光ラインの露光時間が、部分的に時間的な重なりを持つ構成とすることにより、露光時間を長くとることが可能となる。即ち、撮像素子に入射する光が増大し、明るい画像を得ることができる。また、同一の明るさの画像を撮像するための撮像感度を低く抑えられることで、ノイズの少ない画像が得られるため、通信エラーが抑制される。
 図40は、露光時間が等しい場合に、各露光ラインの露光開始時刻の違いによる影響を示している。7501aは前の露光ラインの露光終了時刻と次の露光ラインの露光開始時刻とが等しい場合であり、7501bは前の露光ラインの露光終了より早く次の露光ラインの露光を開始する場合である。7501bのように、隣接する露光ラインの露光時間が、部分的に時間的な重なりを持つ構成とすることにより、時間あたりに露光できるラインを増やすことが可能となる。これにより、より解像度が高くなり、多くの情報量が得られる。サンプル間隔(=露光開始時刻の差)が密になることで、より正確に光源輝度の変化を推定することができ、エラー率が低減でき、更に、より短い時間における光源輝度の変化を認識することができる。露光時間に重なりを持たせることで、隣接する露光ラインの露光量の差を利用して、露光時間よりも短い光源の点滅を認識することができる。
 図39、図40で説明したように、隣接する露光ラインの露光時間が、部分的に時間的な重なりをもつように、各露光ラインを順次露光する構成において、露光時間を通常撮影モードよりも短く設定することにより発生する輝線パターンを信号伝送に用いることにより通信速度を飛躍的に向上させることが可能になる。ここで、可視光通信時における露光時間を1/480秒以下に設定することにより適切な輝線パターンを発生させることが可能となる。ここで、露光時間は、フレーム周波数=fとすると、露光時間<1/8×fと設定する必要がある。撮影の際に発生するブランキングは、最大で1フレームの半分の大きさになる。即ち、ブランキング時間は、撮影時間の半分以下であるため、実際の撮影時間は、最も短い時間で1/2fとなる。更に、1/2fの時間内において、4値の情報を受ける必要があるため、少なくとも露光時間は、1/(2f×4)よりも短くする必要が生じる。通常フレームレートは、60フレーム/秒以下であることから、1/480秒以下の露光時間に設定することにより、適切な輝線パターンを画像データに発生させ、高速の信号伝送を行うことが可能となる。
 図41は、各露光ラインの露光時間が重なっていない場合、露光時間が短い場合の利点を示している。露光時間が長い場合は、光源は7502aのように2値の輝度変化をしていたとしても、撮像画像では7502eのように中間色の部分ができ、光源の輝度変化を認識することが難しくなる傾向がある。しかし、7502dのように、一つの露光ラインの露光終了後、次の露光ラインの露光開始まで所定の露光しない空き時間(所定の待ち時間)tD2を設ける構成とすることにより、光源の輝度変化を認識しやすくすることが可能となる。即ち、7502fのような、より適切な輝線パターンを検出することが可能となる。7502dのように、所定の露光しない空き時間を設ける構成は、露光時間tを各露光ラインの露光開始時刻の時間差tよりも小さくすることにより実現することが可能となる。通常撮影モードが、隣接する露光ラインの露光時間が、部分的に時間的な重なりを持つ構成である場合において、露光時間を通常撮影モード時よりも、所定の露光しない空き時間が生じるまで短く設定することにより、実現することができる。また、通常撮影モードが、前の露光ラインの露光終了時刻と次の露光ラインの露光開始時刻とが等しい場合であっても、所定の露光しない時間が生じるまで露光時間を短く設定することにより、実現することができる。また、7502gのように、各露光ラインの露光開始時刻の間隔tを大きくすることによっても、一つの露光ラインの露光終了後、次の露光ラインの露光開始まで所定の露光しない空き時間(所定の待ち時間)tD2を設ける構成をとることができる。この構成では、露光時間を長くすることができるため、明るい画像を撮像することができ、ノイズが少なくなることからエラー耐性が高い。一方で、この構成では、一定時間内に露光できる露光ラインが少なくなるため、7502hのように、サンプル数が少なくなるという欠点があるため、状況によって使い分けることが望ましい。例えば、撮像対象が明るい場合には前者の構成を用い、暗い場合には後者の構成を用いることで、光源輝度変化の推定誤差を低減することができる。
 なお、全ての露光ラインにおいて、隣接する露光ラインの露光時間が、部分的に時間的な重なりを持つ構成となる必要はなく、一部の露光ラインについて部分的に時間的な重なりを持たない構成とすることも可能である。また、全ての露光ラインにおいて、一つの露光ラインの露光終了後、次の露光ラインの露光開始まで所定の露光しない空き時間(所定の待ち時間)を設ける構成となる必要はなく、一部の露光ラインについて部分的に時間的な重なりを持つ構成とすることも可能である。このような構成とすることにより、それぞれの構成における利点を生かすことが可能となる。また、通常のフレームレート(30fps、60fps)にて撮影を行う通常撮影モードと、可視光通信を行う1/480秒以下の露光時間にて撮影を行う可視光通信モードとにおいて、同一の読み出し方法または回路にて信号の読み出しを行ってもよい。同一の読み出し方法または回路にて信号を読み出すことにより、通常撮影モードと、可視光通信モードとに対して、それぞれ別の回路を用いる必要がなくなり、回路規模を小さくすることが可能となる。
 図42は、光源輝度の最小変化時間tと、露光時間tと、各露光ラインの露光開始時刻の時間差tと、撮像画像との関係を示している。t+t<tとした場合は、必ず一つ以上の露光ラインが露光の開始から終了まで光源が変化しない状態で撮像するため、7503dのように輝度がはっきりとした画像が得られ、光源の輝度変化を認識しやすい。2t>tとした場合は、光源の輝度変化とは異なるパターンの輝線が得られる場合があり、撮像画像から光源の輝度変化を認識することが難しくなる。
 図43は、光源輝度の遷移時間tと、各露光ラインの露光開始時刻の時間差tとの関係を示している。tに比べてtが大きいほど、中間色になる露光ラインが少なくなり、光源輝度の推定が容易になる。t>tのとき中間色の露光ラインは連続で2ライン以下になり、望ましい。tは、光源がLEDの場合は1マイクロ秒以下、光源が有機ELの場合は5マイクロ秒程度となるため、tを5マイクロ秒以上とすることで、光源輝度の推定を容易にすることができる。
 図44は、光源輝度の高周波ノイズtHTと、露光時間tとの関係を示している。tHTに比べてtが大きいほど、撮像画像は高周波ノイズの影響が少なくなり、光源輝度の推定が容易になる。tがtHTの整数倍のときは高周波ノイズの影響がなくなり、光源輝度の推定が最も容易になる。光源輝度の推定には、t>tHTであることが望ましい。高周波ノイズの主な原因はスイッチング電源回路に由来し、多くの電灯用のスイッチング電源ではtHTは20マイクロ秒以下であるため、tを20マイクロ秒以上とすることで、光源輝度の推定を容易に行うことができる。
 図45は、tHTが20マイクロ秒の場合の、露光時間tと高周波ノイズの大きさとの関係を表すグラフである。tHTは光源によってばらつきがあることを考慮すると、グラフより、tは、ノイズ量が極大をとるときの値と等しくなる値である、15マイクロ秒以上、または、35マイクロ秒以上、または、54マイクロ秒以上、または、74マイクロ秒以上として定めると効率が良いことが確認できる。高周波ノイズ低減の観点からはtは大きいほうが望ましいが、前述のとおり、tが小さいほど中間色部分が発生しづらくなるという点で光源輝度の推定が容易になるという性質もある。そのため、光源輝度の変化の周期が15~35マイクロ秒のときはtは15マイクロ秒以上、光源輝度の変化の周期が35~54マイクロ秒のときはtは35マイクロ秒以上、光源輝度の変化の周期が54~74マイクロ秒のときはtは54マイクロ秒以上、光源輝度の変化の周期が74マイクロ秒以上のときはtは74マイクロ秒以上として設定すると良い。
 図46は、露光時間tと認識成功率との関係を示す。露光時間tは光源の輝度が一定である時間に対して相対的な意味を持つため、光源輝度が変化する周期tを露光時間tで割った値(相対露光時間)を横軸としている。グラフより、認識成功率をほぼ100%としたい場合は、相対露光時間を1.2以下にすれば良いことがわかる。例えば、送信信号を1kHzとする場合は露光時間を約0.83ミリ秒以下とすれば良い。同様に、認識成功率を95%以上としたい場合は相対露光時間を1.25以下に、認識成功率を80%以上としたい場合は相対露光時間を1.4以下にすれば良いということがわかる。また、相対露光時間が1.5付近で認識成功率が急激に下がり、1.6でほぼ0%となるため、相対露光時間が1.5を超えないように設定すべきであることがわかる。また、認識率が7507cで0になった後、7507dや、7507e、7507fで、再度上昇していることがわかる。そのため、露光時間を長くして明るい画像を撮像したい場合などは、相対露光時間が1.9から2.2、2.4から2.6、2.8から3.0となる露光時間を利用すれば良い。例えば、図48の中間モードとして、これらの露光時間を使うと良い。
 図47のように、撮像装置によっては、露光を行わない時間(ブランキング)が存在することがある。
 ブランキングが存在する場合には、その時間の発光部の輝度は観察できない。
 発光部が同じ信号を2回以上繰り返して送信する、または、誤り訂正符号を付加することで、ブランキングによる伝送損失を防ぐことができる。
 発光部は、同じ信号が常にブランキングの間に送信されることを防ぐために、画像を撮像する周期と互いに素となる周期、または、画像を撮像する周期より短い周期で信号を送信する。
 (実施の形態8)
 図49は、既に説明した実施の形態に記載の受信方法を用いたサービス提供システムを示す図である。
 まず、サーバex8002を管理する企業A ex8000に対して、他の企業Bや個人ex8001が、携帯端末への情報の配信を依頼する。例えば、サイネージと可視光通信した携帯端末に対して、詳細な広告情報や、クーポン情報、または、地図情報などの配信を依頼する。サーバを管理する企業A ex8000は、任意のID情報に対応させて携帯端末へ配信する情報を管理する。携帯端末ex8003は、可視光通信により被写体ex8004からID情報を取得し、取得したID情報をサーバex8002へ送信する。サーバex8002は、ID情報に対応する情報を携帯端末へ送信するとともに、ID情報に対応する情報を送信した回数をカウントする。サーバを管理する企業A ex8000は、カウントした回数に応じた料金を、依頼した企業Bや個人ex8001に対して課金する。例えば、カウント数が大きい程、課金する額を大きくする。
 図50は、サービス提供のフローを示すフローチャートである。
 Step ex8000において、サーバを管理する企業Aが、他企業Bより情報配信の依頼を受ける。次に、Step ex8001において、企業Aが管理するサーバにおいて、配信依頼を受けた情報を、特定のID情報と関連付ける。Step ex8002では、携帯端末が、可視光通信により、被写体から特定のID情報を受信し、企業Aが管理するサーバへ送信する。可視光通信方法の詳細については、他の実施の形態において既に説明しているため省略する。サーバは、携帯端末から送信された特定のID情報に対応する情報を携帯端末に対して送信する。Step ex8003では、サーバにおいて、情報配信した回数をカウントする。最後に、Step ex8004において、情報配信したカウント数に応じた料金を企業Bに対して課金する。このように、カウント数に応じて、課金を行うことにより、情報配信の宣伝効果に応じた適切な料金を企業Bに課金することが可能となる。
 図51は、他の例におけるサービス提供を示すフローチャートである。図50と重複するステップについては説明を省略する。
 Step ex8008において、情報配信の開始から所定時間が経過したか否か判断する。所定時間内と判断されれば、Step ex8011において、企業Bに対しての課金は行わない。一方、所定期間が経過していると判断された場合には、Step ex8009において、情報を配信した回数をカウントする。そして、Step ex8010において、情報配信したカウントに応じた料金を企業Bに対して課金する。このように、所定期間内は無料で情報配信を行うことから、企業Bは宣伝効果などを確認した上で、課金サービスを受けることができる。
 図52は、他の例におけるサービス提供を示すフローチャートである。図51と重複するステップについては説明を省略する。
 Step ex8014において、情報を配信した回数をカウントする。Step ex8015において、情報配信開始から所定期間が経過していないと判断された場合には、Step ex8016において課金は行わない。一方、所定期間が経過していると判断された場合には、Step ex8017において、情報を配信した回数が所定値以上か否か判断を行う。情報を配信した回数が所定値に満たない場合には、カウント数をリセットし、再度、情報を配信した回数をカウントする。この場合、情報を配信した回数が所定値未満だった、所定期間については企業Bに対して課金は行わない。Step ex8017において、カウント数が所定値以上であれば、Step ex8018においてカウント数を一度リセットし、再度カウントを再開する。Step ex8019において、カウント数に応じた料金を企業Bに対して課金する。このように、無料で配信を行った期間内におけるカウント数が少なかった場合に、再度、無料配信の期間を設けることで、企業Bは適切なタイミングで課金サービスを受けることができる。また、企業Aもカウント数が少なかった場合に、情報内容を分析し、例えば、季節と対応しない情報になっているような場合に、情報内容を変更するように企業Bに対し提案することが可能となる。なお、再度、無料の情報配信期間を設ける場合には、初回の所定の期間よりも短い期間としてもよい。初回の所定の期間よりも短くすることにより、企業Aに対する負担を小さくすることができる。また、一定期間を空けて、無料の配信期間を再度設ける構成としてもよい。例えば、季節の影響を受ける情報であれば、季節が変わるまで一定期間を空けて、再度、無料の配信期間を設けることができる。
 なお、情報の配信回数によらず、データ量に応じて、課金料金を変更するとしてもよい。一定のデータ量の配信は無料として、所定のデータ量以上は、課金する構成としてもよい。また、データ量が大きくなるにつれて、課金料金も大きくしてもよい。また、情報を特定のID情報に対応付けて管理する際に、管理料を課金してもよい。管理料として課金することにより、情報配信を依頼した時点で、料金を決定することが可能となる。
 本発明にかかる通信方法等は、画像以外の情報を安全にしかも能動的に取得できるため、家庭でのテレビ、PC、及びタブレットなどの機器は勿論のこと、外出先でのサイネージ、情報端末、及び情報表示機器においてもその能動性ゆえに安全に必要な情報を必要なだけ得られるという意味で、あらゆる場面での画像付帯情報の転送、及び情報発信などのさまざまな用途に適用可能である。
 A1101、A1904 シーリングライト
 A1102、A1801、A1802 棚
 A1103、A1803、A1804、A1905 ベースライト
 A1201、A11001、A12901 携帯端末
 A1202 インカメラ
 A1203 アウトカメラ
 A1204 タッチパネル部
 A1301 領域
 A1701、A1702、A1703 画像
 A1901 腕時計型デバイス
 A1902、A1903 受光部
 A11002、A11003 照明機器
 A11004、A11008 ID格納部
 A11005、A11009 エンコード部
 A11006、A11010 照度パターン格納部
 A11007、A11011 発光部
 A11012、A13002 受光制御部
 A11013 ID格納部
 A11014、A13003 DB管理部
 A11015、A13004 サーバ装置
 A11016 商品情報格納部
 A11017 地図情報格納部
 A11018 表示部
 A11019 状態管理部
 A11020 UI部
 A11101、A11301 有効フラグ
 A11102 棚外観
 A11103 棚内観
 A11104 商品種別情報
 A11105 商品在庫情報
 A11302 データ長
 A11303 地図画像
 A11601 異常フラグ
 A11602 前フレーム描画種別
 A12501、A12502、A12701、A12702 受光部
 A12503、A12703 セレクタ
 A12504 加速度検知部
 A12505、A12705 受光信号格納部
 A12506、A12706 デコード部
 A12507、A12707 閾値格納部
 A12704 タイマ制御部
 A13001 視線情報格納部
 A13101、A13104 棚識別子
 A13105 棚情報
 A13301、A13402 視線検出部
 A13401 撮像部

Claims (13)

  1.  第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する端末の通信方法であって、
     前記インカメラと前記アウトカメラとを前記端末の向きに応じて切り替える切り替えステップと、
     前記切り替えステップにおいて切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信ステップと、を含む
     通信方法。
  2.  第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する端末の通信方法であって、
     前記インカメラと前記アウトカメラとを所定時間ごとに切り替える切り替えステップと、
     前記切り替えステップにおいて切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信ステップと、を含む
     通信方法。
  3.  前記可視光通信ステップでは、前記端末の向きが地面に対して略垂直の場合、前記切り替えステップにおいて切り替えられた前記アウトカメラを用いて、使用者の前方に位置する第1機器であって可視光を発する第1機器と可視光通信を行うことにより、前記第1機器が設置されている商品棚の商品情報を取得し、取得した前記商品情報を前記端末の表示部に表示し、
     前記可視光通信ステップでは、前記端末の向きが地面に対して略水平の場合、前記切り替えステップにおいて切り替えられた前記インカメラを用いて、前記使用者の上方に位置する第2機器であって可視光を発する第2機器と可視光通信を行うことにより、前記第2機器が設置されている位置情報を取得し、取得した前記位置情報を前記使用者の現在位置として前記使用者が存在するエリアの地図情報とともに前記端末の表示部に表示する
     請求項1に記載の通信方法。
  4.  前記端末は、腕時計に実装され、
     前記インカメラは、前記腕時計の時間を表示する表示部を有する前記腕時計の前面に搭載され、前記アウトカメラは、前記腕時計の側面に搭載され、
     前記可視光通信ステップでは、前記腕時計の前記表示部が地面に対して略水平の場合、前記インカメラを用いて、前記使用者の上方に位置する第2機器であって可視光を発する第2機器と可視光通信を行うことにより、前記第2機器が設置されている位置情報を取得し、かつ、前記アウトカメラを用いて、前記使用者の前方に位置する第1機器であって可視光を発する第1機器と可視光通信を行うことにより、前記第1機器が設置されている商品棚の商品情報を取得し、前記使用者の選択により、取得した前記位置情報を前記使用者の現在位置として前記使用者が存在するエリアの地図情報とともに前記端末の表示部に表示し、または、取得した前記商品情報を前記端末の表示部に表示する
     請求項2に記載の通信方法。
  5.  前記可視光通信ステップでは、可視光を発する機器と可視光通信を行うことにより取得した前記機器に一意に与えられた識別子を、サーバに問い合わせることで、前記識別子に対応付けられた前記機器に関する情報を取得し、
     前記可視光通信ステップでは、さらに、前記サーバに問い合わせて前記識別子に対応付けられた情報がない場合には、前記機器に関する情報がない旨を示すエラー通知を、前記端末の表示部に表示する
     請求項1~4のいずれか1項に記載の通信方法。
  6.  さらに、前記端末の表示部に表示した前記商品情報を変更する変更ステップを含み、
     前記変更ステップでは、前記使用者が前記表示部に対してフリック操作することにより、前記表示部に表示される商品情報が変更される
     請求項3に記載の通信方法。
  7.  さらに、前記端末の表示部に表示した前記地図情報を変更する変更ステップを含み、
     前記変更ステップでは、前記使用者が前記表示部に対してフリック操作することにより、前記表示部に表示される地図情報が変更される
     請求項3に記載の通信方法。
  8.  前記可視光通信ステップでは、前記端末の表示部に前記地図情報が表示された後、前記切り替えステップにおいて切り替えられた前記アウトカメラを用いて、前記第1機器が設置されている商品棚の商品情報を取得する場合、前記地図情報に付与されたオフセットを初期化し、
     前記可視光通信ステップでは、前記端末の表示部に前記商品情報が表示された後、前記切り替えステップにおいて切り替えられた前記インカメラを用いて、前記位置情報を前記使用者の現在位置として取得する場合、前記商品情報に付与されたオフセットを初期化する
     請求項3に記載の通信方法。
  9.  さらに、前記使用者の視線を検知する視線検知ステップを含み、
     前記切り替えステップにおいて、前記端末の向きが地面に対して略垂直の場合、前記アウトカメラに切り替え、
     前記視線検知ステップにおいて、前記インカメラを用いて前記使用者の視線を検知し、
     前記可視光通信ステップでは、前記切り替えステップにおいて切り替えられた前記アウトカメラを用いて、前記使用者の前方に位置する第1機器であって可視光を発する第1機器と可視光通信を行うことにより、前記第1機器が設置されている第1商品棚の商品情報を取得し、前記検知ステップで検知された前記使用者の視線の先にある第2商品棚が前記第1商品棚と異なる場合には、前記第1商品棚の商品情報に代えて前記第2商品棚の商品情報を表示する
     請求項3に記載の通信方法。
  10.  前記端末は、複数の露光ラインを有するイメージセンサを備え、
     前記通信方法は、さらに、
     前記イメージセンサの各露光ラインの露光を順次異なる時刻で開始し、かつ、前記各露光ラインの露光時間が、隣接する露光ラインとの間で、部分的に時間的な重なりを持つように、1/480秒以下の露光時間で被写体の撮影を行うことにより画像データを取得する画像取得ステップと、
     前記画像データに現れる、前記各露光ラインに対応する輝線パターンを復調することにより、前記被写体の識別情報を取得する可視光通信ステップと、
     前記被写体の識別情報に関連付けられているサービス情報を前記端末の使用者に提示するサービス提示ステップと、を含む
     請求項1~9のいずれか1項に記載の通信方法。
  11.  前記通信方法は、さらに、
     依頼者から情報の配信の依頼を受け付ける処理を行う依頼受け付けステップと、
     前記可視光で得たデータに対応する情報として、前記依頼者より依頼された前記情報を配信する配信ステップと、
     前記情報の配信に応じて、前記依頼者に課金するための情報処理を行う課金ステップと、を含む
     請求項1~10のいずれか1項に記載の通信方法。
  12.  請求項1~11のいずれか1項に記載の通信方法をコンピュータに実行させる
     プログラム。
  13.  第1撮像部であるインカメラと第2撮像部であるアウトカメラとを有する通信装置であって、
     前記インカメラと前記アウトカメラとを前記端末の向きに応じて切り替える切り替え部と、
     前記切り替え部において切り替えられた前記インカメラまたは前記アウトカメラを用いて、可視光通信を行う可視光通信部と、を備える
     通信装置。
PCT/JP2014/002327 2013-12-27 2014-04-25 通信方法 WO2015097924A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2015554491A JP6298831B2 (ja) 2013-12-27 2014-04-25 通信方法
CN201480070122.6A CN105850061B (zh) 2013-12-27 2014-04-25 通信方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US201361921132P 2013-12-27 2013-12-27
US61/921,132 2013-12-27

Publications (1)

Publication Number Publication Date
WO2015097924A1 true WO2015097924A1 (ja) 2015-07-02

Family

ID=53477849

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/002327 WO2015097924A1 (ja) 2013-12-27 2014-04-25 通信方法

Country Status (4)

Country Link
US (2) US9294666B2 (ja)
JP (2) JP6298831B2 (ja)
CN (1) CN105850061B (ja)
WO (1) WO2015097924A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635591A (zh) * 2016-03-11 2016-06-01 深圳还是威健康科技有限公司 一种基于可穿戴设备的拍照控制方法及终端

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2957555C (en) 2014-08-12 2019-12-03 Abl Ip Holding Llc System and method for estimating the position and orientation of a mobile communications device in a beacon-based positioning system
JP6485767B2 (ja) * 2014-12-26 2019-03-20 パナソニックIpマネジメント株式会社 照明器具及び可視光通信システム
US10412173B2 (en) 2015-04-22 2019-09-10 Panasonic Avionics Corporation Passenger seat pairing system
WO2017026555A1 (ko) * 2015-08-12 2017-02-16 엘지전자 주식회사 이동 단말기
WO2017026554A1 (ko) * 2015-08-12 2017-02-16 엘지전자 주식회사 이동 단말기
KR102521805B1 (ko) 2015-11-10 2023-04-14 삼성전자주식회사 카메라 전환 방법 및 이를 지원하는 전자 장치
US10270528B1 (en) * 2016-06-30 2019-04-23 Google Llc Serial communication to device through lighting control
US11418956B2 (en) 2019-11-15 2022-08-16 Panasonic Avionics Corporation Passenger vehicle wireless access point security system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242205A (ja) * 1995-03-06 1996-09-17 Nec Corp 赤外線通信機能付携帯型電子機器
JPH09305277A (ja) * 1996-05-14 1997-11-28 Toshiba Corp ポータブルコンピュータ
WO2005086375A1 (ja) * 2004-03-03 2005-09-15 Nec Corporation 測位システム、即位方法、及びそのプログラム
JP2011254317A (ja) * 2010-06-02 2011-12-15 Sony Corp 送信装置、送信方法、受信装置、受信方法、通信システムおよび通信方法
WO2013175804A1 (ja) * 2012-05-24 2013-11-28 パナソニック株式会社 情報通信方法
WO2013187494A1 (ja) * 2012-06-15 2013-12-19 シャープ株式会社 情報配信方法、コンピュータプログラム、情報配信装置及び携帯通信機

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002290335A (ja) 2001-03-28 2002-10-04 Sony Corp 光空間伝送装置
JP3979090B2 (ja) * 2001-12-28 2007-09-19 日本電気株式会社 カメラ付き携帯型電子機器
US7671916B2 (en) * 2004-06-04 2010-03-02 Electronic Arts Inc. Motion sensor using dual camera inputs
US7711200B2 (en) * 2005-09-29 2010-05-04 Apple Inc. Video acquisition with integrated GPU processing
KR20110088914A (ko) * 2010-01-29 2011-08-04 삼성전자주식회사 휴대용 단말기에서 카메라 기능을 제공하기 위한 장치 및 방법
US20120281129A1 (en) * 2011-05-06 2012-11-08 Nokia Corporation Camera control
FR2993997B1 (fr) * 2012-07-26 2014-08-22 Acep France Systeme d'eclairage photographique pour tablette tactile
US8988574B2 (en) 2012-12-27 2015-03-24 Panasonic Intellectual Property Corporation Of America Information communication method for obtaining information using bright line image
WO2014103157A1 (ja) 2012-12-27 2014-07-03 パナソニック株式会社 映像表示方法
US8922666B2 (en) 2012-12-27 2014-12-30 Panasonic Intellectual Property Corporation Of America Information communication method
CN104885382B (zh) 2012-12-27 2017-08-22 松下电器(美国)知识产权公司 可视光通信信号显示方法以及显示装置
CN104871452B (zh) 2012-12-27 2018-04-27 松下电器(美国)知识产权公司 可视光通信方法及可视光通信装置
US9088360B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
CN103116846A (zh) * 2012-12-27 2013-05-22 重庆濯晖科技有限公司 基于可见光通信的移动支付
US9252878B2 (en) 2012-12-27 2016-02-02 Panasonic Intellectual Property Corporation Of America Information communication method
US9087349B2 (en) 2012-12-27 2015-07-21 Panasonic Intellectual Property Corporation Of America Information communication method
SG10201609857SA (en) 2012-12-27 2017-01-27 Panasonic Ip Corp America Information communication method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08242205A (ja) * 1995-03-06 1996-09-17 Nec Corp 赤外線通信機能付携帯型電子機器
JPH09305277A (ja) * 1996-05-14 1997-11-28 Toshiba Corp ポータブルコンピュータ
WO2005086375A1 (ja) * 2004-03-03 2005-09-15 Nec Corporation 測位システム、即位方法、及びそのプログラム
JP2011254317A (ja) * 2010-06-02 2011-12-15 Sony Corp 送信装置、送信方法、受信装置、受信方法、通信システムおよび通信方法
WO2013175804A1 (ja) * 2012-05-24 2013-11-28 パナソニック株式会社 情報通信方法
WO2013187494A1 (ja) * 2012-06-15 2013-12-19 シャープ株式会社 情報配信方法、コンピュータプログラム、情報配信装置及び携帯通信機

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105635591A (zh) * 2016-03-11 2016-06-01 深圳还是威健康科技有限公司 一种基于可穿戴设备的拍照控制方法及终端

Also Published As

Publication number Publication date
CN105850061B (zh) 2019-02-19
JPWO2015097924A1 (ja) 2017-03-23
JP6622828B2 (ja) 2019-12-18
JP2018117368A (ja) 2018-07-26
US20160149641A1 (en) 2016-05-26
US9294666B2 (en) 2016-03-22
US9413460B2 (en) 2016-08-09
US20150189149A1 (en) 2015-07-02
CN105850061A (zh) 2016-08-10
JP6298831B2 (ja) 2018-03-20

Similar Documents

Publication Publication Date Title
JP6622828B2 (ja) 通信方法、通信装置およびプログラム
JP6483879B2 (ja) 情報通信方法、情報通信装置、およびプログラム
JP6345697B2 (ja) 情報処理プログラム、受信プログラムおよび情報処理装置
EP2748950B1 (en) Coded light detector
JP6429288B2 (ja) 送信機、送信方法およびプログラム
US9569892B2 (en) Image capture input and projection output
CN105830367B (zh) 可见光通信方法、识别信号及接收装置
US9438340B2 (en) Communication method
JP6434724B2 (ja) 情報通信方法
US20160371859A1 (en) Image display system and image display method
US10677448B2 (en) Lighting device
JP2018032885A (ja) 情報処理プログラム、受信プログラムおよび情報処理装置
CN101542550A (zh) 遥控指向技术
JP2018032884A (ja) 受信プログラムおよび受信装置
KR20140067484A (ko) 디지털 이미지 필터를 이용한 조명장치 및 그 조명 방법
CN107592987B (zh) 照明控制设备及其方法
US20100162145A1 (en) Object information providing apparatus, object awareness apparatus, and object awareness system
JP2015219547A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
KR20150089736A (ko) 동작인식 센서가 구비된 디아이디 장치
JP2015219546A (ja) 機器制御システム、機器制御プログラムおよび機器制御装置
JP2011237678A (ja) プロジェクターおよび投写方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14875477

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015554491

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14875477

Country of ref document: EP

Kind code of ref document: A1