WO2017013811A1 - 画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラム - Google Patents

画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラム Download PDF

Info

Publication number
WO2017013811A1
WO2017013811A1 PCT/JP2015/077136 JP2015077136W WO2017013811A1 WO 2017013811 A1 WO2017013811 A1 WO 2017013811A1 JP 2015077136 W JP2015077136 W JP 2015077136W WO 2017013811 A1 WO2017013811 A1 WO 2017013811A1
Authority
WO
WIPO (PCT)
Prior art keywords
light emitting
emitting device
image processing
pattern
data
Prior art date
Application number
PCT/JP2015/077136
Other languages
English (en)
French (fr)
Inventor
葉 田中
哲哉 岡田
Original Assignee
ビーコア株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ビーコア株式会社 filed Critical ビーコア株式会社
Publication of WO2017013811A1 publication Critical patent/WO2017013811A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04BTRANSMISSION
    • H04B10/00Transmission systems employing electromagnetic waves other than radio-waves, e.g. infrared, visible or ultraviolet light, or employing corpuscular radiation, e.g. quantum communication
    • H04B10/11Arrangements specific to free-space transmission, i.e. transmission through air or vacuum
    • H04B10/114Indoor or close-range type systems

Definitions

  • the present invention relates to an image processing system, a light emitting device, an image processing device, an image processing method, a light emitting method, and a program.
  • a route (hereinafter referred to as a flow line) for moving a person in a specific space is managed (hereinafter referred to as a flow line management).
  • a flow line management for example, the flow line management of a worker in a factory can be used when improving a work process or the like for the purpose of realizing efficient work in the factory.
  • a technique for detecting the person A technique is known in which a code (tag) representing a person ID for identifying a person is attached to the person, and the code attached to the person moving in a specific space is read by an imaging device (camera). .
  • the person to whom the code is attached can be detected on the image.
  • an object of the present invention is to provide an image processing system, a light emitting device, an image processing device, an image processing method, and a light emitting method capable of continuously detecting the person with high accuracy without increasing the burden on the person. And providing a program.
  • an image processing system including a light emitting device worn by a person and an image processing device connected to an imaging device.
  • the light-emitting device includes a light-emitting unit and a control unit that repeatedly controls lighting and extinguishing of the light-emitting unit every predetermined unit time in accordance with a data pattern representing identification data for identifying a person wearing the light-emitting device.
  • the image processing device includes an image acquisition unit that acquires an image including the light emitting device captured by the imaging device, and the lighting unit included in the light emitting device included in the acquired image.
  • Reading means for reading a data pattern
  • data acquisition means for acquiring identification data represented by the read data pattern, and adding the acquired identification data to the vicinity of the light emitting device included in the acquired image Image processing means.
  • the light emitting means is not turned off continuously.
  • the present invention provides an image processing system, a light emitting device, an image processing device, an image processing method, a light emitting method, and a program capable of continuously detecting the person with high accuracy without increasing the burden on the person. There is to do.
  • FIG. 1 is a diagram illustrating an example of a functional configuration of a light emitting device provided in an image processing system according to an embodiment.
  • 1 is a diagram illustrating an example of a functional configuration of an image processing apparatus provided in an image processing system according to an embodiment.
  • region at the time of tracking the position of the light-emitting device which blinks.
  • the figure which shows an example of a 3rd data pattern The figure which shows an example of a 1st loop division
  • 5 is a flowchart illustrating an example of a processing procedure of an image processing apparatus provided in the image processing system according to the present embodiment.
  • FIG. 1 is a diagram illustrating an example of a functional configuration of an image processing apparatus provided in an image processing system according to an embodiment.
  • the image processing system according to the present embodiment is used to manage a route (hereinafter referred to as a flow line) along which a person in a specific space moves.
  • the person in the specific space includes a person (worker) who works in a work area such as a factory.
  • FIG. 1 is a diagram for explaining a usage example of the image processing system according to the present embodiment.
  • the image processing system includes a light emitting device 10 attached to a person 100 working in a work area, and an image processing device 20 connected to a camera (imaging device) 200.
  • a camera imaging device
  • the light emitting device 10 has a shape like a tag so that it can be attached to, for example, work clothes worn by the person 100. Since the light emitting device 10 needs to be imaged by the camera 200 as will be described later, even if the person 100 moves in the work area or changes direction, the person 100 wears the image so that the image is captured by the camera 200, for example. It is preferable to be attached to a hat or the like (that is, the head). Note that the light emitting device 10 may be mounted on the chest or shoulder of the person 100 as long as the camera 200 can capture an image.
  • the camera 200 is fixedly provided at a position where the person 100 working in the work area (the light emitting device 10 attached thereto) can be imaged. Since the image processing system according to the present embodiment is used to manage flow lines, the camera 200 is installed at a relatively high position with respect to the person 100 or the like so that the entire work area can be imaged. Is preferred. In the present embodiment, it is assumed that the camera 200 has a configuration capable of detecting infrared (band) in, for example, a general night mode. An image (moving image) including the person 100 (the light emitting device 10 attached thereto) captured by the camera 200 is passed to the image processing device 20.
  • infrared band
  • the image processing device 20 executes processing for detecting the person 100 working in the work area on the image (that is, tracking the position of the person) based on the image delivered from the camera 200.
  • FIG. 1 only one person 100 is shown for convenience, but a plurality of persons 100 may be working in the work area.
  • the light emitting device 10 is attached to each of the persons 100.
  • FIG. 2 shows an example of a functional configuration of the light emitting device 10 provided in the image processing system according to the present embodiment.
  • the light emitting device 10 includes a light emitting unit 11, a storage unit 12, and a control unit 13.
  • the light emitting unit 11 is an infrared light source such as an infrared LED, for example, and is configured to emit infrared light (light) under the control of the control unit 13.
  • the wavelength of the infrared rays emitted by the light emitting unit 11 is, for example, 850 nm. This is because, for example, the spectral sensitivity characteristic of the Bayer color of the camera (sensor) 200 has a light receiving sensitivity at 850 nm.
  • a bandpass filter of 850 nm is used as the infrared transmission filter in accordance with the wavelength of the infrared LED, it can be made less susceptible to external light.
  • the storage unit 12 stores a predetermined pattern for causing the light emitting unit 11 to emit light to the light emitting device 10 (the person 100 wearing the light emitting device 10) (hereinafter referred to as a light emission pattern of the light emitting device 10).
  • the light emission pattern of the light emitting device 10 stored in the storage unit 12 includes a data pattern representing identification data (hereinafter referred to as a person ID) for identifying the person 100 wearing the light emitting device 10. That is, when there are a plurality of persons 100 working in the work area as described above, the light emitting device 10 is attached to each of the persons 100, but the light emission of the light emitting apparatus 10 attached to each of the persons 100 is performed. Each pattern (data pattern) is different.
  • the light emission pattern includes a loop delimiter pattern and a data delimiter pattern in addition to the data pattern. Details of the data pattern, the loop delimiter pattern, and the data delimiter pattern will be described later.
  • the control unit 13 is a functional unit realized by, for example, a microcomputer.
  • the control unit 13 controls (repetitively) lighting and extinguishing of the light emitting unit 11 at predetermined unit times according to the light emission pattern of the light emitting device 10 stored in the storage unit 12. That is, in the present embodiment, the light emitting device 10 (the light emitting unit 11 included therein) emits light so as to blink according to the light emission pattern of the light emitting device 10 stored in the storage unit 12.
  • the light emitting device 10 is driven by electric power supplied from a battery.
  • FIG. 3 shows an example of a functional configuration of the image processing apparatus 20 provided in the image processing system according to the present embodiment.
  • the image processing apparatus 20 includes an image acquisition unit 21, a storage unit 22, a pattern reading unit 23, a data acquisition unit 24, and an image processing unit 25.
  • the image processing apparatus 20 includes, for example, a CPU and a nonvolatile memory as a hardware configuration.
  • the image acquisition unit 21, the pattern reading unit 23, the data acquisition unit 24, and the image processing unit 25 illustrated in FIG. 3 are programs stored in a nonvolatile memory by a CPU (computer of the image processing apparatus 20). It shall be realized by executing.
  • This program can be stored in advance in a computer-readable storage medium and can be distributed. For example, the program may be downloaded to the image processing apparatus 20 via a network.
  • the storage unit 22 is assumed to be stored in a nonvolatile memory or the like.
  • the image acquisition unit 21 acquires, from the camera 200, an image including the person 100 (the light emitting device 10 attached thereto) captured by the camera 200 shown in FIG.
  • the image acquisition unit 21 sequentially acquires images (frames) according to the frame rate set in the camera 200 (the number of frames that can be processed per unit time in a moving image).
  • the storage unit 22 stores the light emission pattern of the light emitting device 10 (the light emission pattern stored in the storage unit 12).
  • the storage unit 22 stores a person ID represented by a data pattern included in the light emission pattern in association with the light emission pattern of the light emitting device 10.
  • the pattern reading unit 23 refers to the light emission pattern of the light emitting device 10 stored in the storage unit 22, and the light emitting device 10 included in the image sequentially acquired by the image acquiring unit 21 (the light emitting unit 11 included in the light emitting device 11). A light emission pattern (a repeated pattern of turning on and off) is read.
  • the data acquisition unit 24 refers to the storage unit 22 and acquires the person ID represented by the data pattern included in the light emission pattern read by the pattern reading unit 23.
  • the image processing unit 25 adds the person ID acquired by the data acquisition unit 24 in the vicinity of the light emitting device 10 (the person 100 wearing the image) included in the images sequentially acquired by the image acquisition unit 21. According to this, the person 100 wearing the light emitting device 10 can be identified (recognized) on the image.
  • the image processing system according to the present embodiment is used to manage the flow line as described above, the person 100 (the light emitting device 10 attached thereto) on the image acquired from the camera 200 is used. It is necessary to track the position (detect the person 10). Thus, when tracking the position of the light emitting device 10 attached to the person 100 on the image, it is important to cut out an area (space) including the light emitting device 10.
  • the position of the light emitting device 10 can be specified on the image 301.
  • a region 301 a centering on the position of 10 is cut out from the image 301.
  • This area 301 a is used for tracking the light emitting device 10 in the image 302 acquired next to the image 301.
  • the light emitting device 10 (the person 100 wearing the device) has moved. To do.
  • the image 302 acquired after the image 301 is acquired the light emitting device 10 is searched for within the area 301 a cut out in the image 301. That is, if the moved light emitting device 10 exists in the region 301a, the light emitting device 10 can be found and tracked in the image 302. In this case, as shown in the lower diagram of FIG. 4, a region 302 a centered on the position of the light emitting device 10 is cut out from the image 302.
  • the light emitting device 10 can be tracked on an image (moving image) acquired from the camera 200.
  • the other light emitting devices 10 are included in the regions 301a and 302a cut out in the images 301 and 302, it becomes difficult to distinguish the light emitting device 10 to be tracked from the other light emitting devices 10. Therefore, it is preferable to narrow the regions 301a and 302a in order to prevent the other light emitting device 10 from entering.
  • the moved light emitting device 10 does not exist in the region 301a (or 302a), the light emitting device 10 cannot be tracked. Therefore, the regions 301a and 302a need to have an appropriate size (width).
  • the region (size) cut out from the image for tracking the light emitting device 10 is the person 100 wearing the light emitting device 10 between frames (images) at the frame rate set in the camera 200. ) Is set based on the distance assumed to move.
  • the light emitting device 10 emits light so as to blink (repeat on and off) as described above.
  • the position of the light emitting device 10 can be specified on the image 401.
  • a region 401a centering on the position of 10 is cut out.
  • the light emitting device 10 (the person 100 wearing the light emitting device 10) is turned off. It has been moved.
  • the light emitting device 10 is searched for within the area 401a cut out in the image 401, but the light emitting device 10 is turned off in the image 402. Therefore, the light emitting device 10 cannot be found.
  • the light emitting device 10 (the person 100 wearing the device) is further moved. To do. In this case, since the light emitting device 10 cannot be found (tracked) in the image 402, the light emitting device 10 is searched in the range of the region 401a cut out in the image 401 in the image 403. At this time, even if the light emitting device 10 is emitting light in the image 403, the light emitting device 10 does not exist in the region 401a, and thus the light emitting device 10 cannot be found and As a result, the light emitting device 10 cannot be tracked.
  • the light-emitting device 10 since the light-emitting device 10 emits light so as to blink, the light-emitting device 10 can be tracked by moving the light-emitting device 10 in the off state as described in FIG. It may disappear.
  • the light emission pattern of the light emitting device 10 according to the present embodiment is configured to shorten the period during which the light emitting device 10 is turned off (hereinafter referred to as a light-off period) as short as possible. That is, in this embodiment, the light emitting device 10 described in FIG. 5 cannot be tracked by shortening the light extinguishing period of the light emitting device 10 to shorten the moving distance of the light emitting device 10 during the extinguishing period. It tries to avoid the situation. Further, the light emission pattern (coding) needs to be resistant to temporal fluctuation in consideration of the time required for image processing and the instability of the frame rate of the camera 200.
  • the light emission pattern of the light emitting device 10 includes a data pattern, a loop delimiter pattern, and a data delimiter pattern.
  • the light emission pattern (data pattern, loop delimiter pattern, and data delimiter pattern) of the light emitting device 10 is a repeating pattern of turning on and off the light emitting device 10 (the light emitting unit 11 included therein) every predetermined unit time. .
  • each of these patterns will be described.
  • the data pattern represents a person ID (for example, an identification number) for identifying the person 100 wearing the light emitting device 10 as described above.
  • FIG. 6 shows a first example of a data pattern (hereinafter referred to as a first data pattern).
  • a first data pattern a data pattern
  • the light-emitting device 10 is turned on or off for each unit time is referred to as one turn-on or turn-off, in the first data pattern shown in FIG.
  • This is a repeating pattern of lighting and extinguishing in which the lighting is turned off three times and the lighting is turned off once.
  • FIG. 7 shows a second example of the data pattern (hereinafter referred to as a second data pattern).
  • a second data pattern In the second data pattern shown in FIG. 7, one turn-on, one turn-off, three turn-on, one turn-off, three turn-on, one turn-off are turned on and off. It is a repeating pattern.
  • FIG. 8 shows a third example of the data pattern (hereinafter referred to as a third data pattern).
  • a third data pattern shows a third example of the data pattern (hereinafter referred to as a third data pattern).
  • the data pattern is assumed to start from turning on and end with turning off, and there is no turn-off period longer than the unit time in the data pattern (ie, turn-off is not continuous).
  • the number of long lighting is limited to two.
  • the person ID can also be represented by a plurality of data patterns.
  • the loop delimiter pattern represents the start or end of the light emission pattern (that is, the light emission pattern delimiter).
  • the loop delimiter pattern may include a check digit for confirming the validity of the person ID represented by the data pattern.
  • the check digit is a remainder obtained by dividing the value of the person ID (identification number) represented by the data pattern by 6.
  • first to sixth loop delimiter patterns are prepared.
  • FIG. 9 shows a first loop delimiter pattern.
  • the first loop segmentation pattern shown in FIG. 9 is a repeating pattern of lighting and extinguishing in which lighting is performed three times and lighting is performed once. Note that the check digit included in the first loop delimiter pattern represents “0”.
  • FIG. 10 shows a second loop delimiter pattern.
  • the second loop delimiter pattern shown in FIG. 10 is a repeating pattern of lighting and extinguishing in which one turn-on, one turn-off, three turns on, and one turn-off are continuously performed. Note that the check digit included in the second loop delimiter pattern represents “1”.
  • FIG. 11 shows a third loop delimiter pattern.
  • the third loop delimiter pattern shown in FIG. 11 is a repeating pattern of lighting and extinguishing in which three times of lighting, one time of extinction, one time of lighting, and one time of lighting are continuously performed. It is assumed that the check digit included in the third loop delimiter pattern represents “2”.
  • FIG. 12 shows a fourth loop delimiter pattern.
  • the fourth loop delimiter pattern shown in FIG. 12 is one turn-on, one turn-off, one turn-on, one turn-off, three turns-on, one turn-off and turn-on and turn-off. It is a repeating pattern. Note that the check digit included in the fourth loop delimiter pattern represents “3”.
  • FIG. 13 shows a fifth loop delimiter pattern.
  • the fifth loop delimiter pattern shown in FIG. 13 is one turn-on, one turn-off, three turn-on, one turn-off, one turn-on, one turn-off and turn-on and turn-off. It is a repeating pattern. Note that the check digit included in the fifth loop delimiter pattern represents “4”.
  • FIG. 14 shows a sixth loop delimiter pattern.
  • the sixth loop delimiter pattern shown in FIG. 14 is a repeating pattern in which three lightings, one lighting, one lighting, one lighting, one lighting, and one lighting are continuously performed. is there. It is assumed that the check digit included in the sixth loop delimiter pattern represents “5”.
  • the loop delimiter pattern starts from lighting and ends by extinguishing, and even in the loop delimiter pattern, there is no extinction period (two or more extinctions) longer than the unit time ( That is, the lights are not turned off continuously).
  • the number of long lighting is limited to one.
  • the check digit included in the loop delimiter pattern has been described as the remainder of dividing the value of the person ID represented by the data pattern by 6, but the check digit is an example, and other check digits are used. It does not matter.
  • loop delimiter pattern has been described as including a check digit, but the loop delimiter pattern only needs to indicate the start or end of the light emission pattern, and does not necessarily include the check digit. Good.
  • one type of loop delimiter pattern for example, one of the first to sixth loop delimiter patterns may be prepared.
  • the data delimiter pattern is arranged between the data pattern and the loop delimiter pattern in order to distinguish the data pattern boundaries. As described above, when a person ID is represented by combining a plurality of data patterns, a data delimiter pattern is also arranged between the plurality of data patterns.
  • FIG. 15 shows an example of a data delimiter pattern.
  • the data delimiter pattern shown in FIG. 15 is a repeating pattern of lighting and extinguishing in which lighting is performed 5 times and light is turned off once.
  • FIG. 15 shows an example of the data delimiter pattern.
  • the data delimiter pattern can be easily distinguished from other patterns, thereby improving the reading rate for the data pattern and the loop delimiter pattern. be able to.
  • the person ID (identification number) represented by the first data pattern shown in FIG. 6 is 0, the person ID represented by the second data pattern shown in FIG. 7 is 1, and FIG. It is assumed that the person ID represented by the third data pattern shown is 2 and the person ID for identifying the person wearing the light emitting device 10 is 0.
  • the storage unit 12 included in the light emitting device 10 includes, as the light emission pattern of the light emitting device 10, the first data pattern shown in FIG. 6, the first loop division pattern shown in FIG. 9, and the loop division shown in FIG. A pattern is stored.
  • control unit 13 included in the light emitting device 10 turns on and off the light emitting unit 11 in the order of the first data pattern, the data delimiter pattern, the loop delimiter pattern, and the data delimiter pattern stored in the storage unit 12.
  • the light emitting unit 11 is controlled to repeat the above.
  • control unit 13 repeatedly controls lighting and extinguishing of the light emitting unit 11 every predetermined unit time according to the first data pattern, and the light emitting unit 11 every predetermined unit time according to the data delimiter pattern. Is repeatedly controlled to turn on and off the light emitting unit 11 repeatedly at a predetermined unit time according to the first loop delimiter pattern, and light emitting unit at a predetermined unit time according to the data delimiter pattern. 11 is repeatedly controlled to turn on and off.
  • Such a light emission pattern is emitted by the light emitting unit 11 so as to loop (repeat) under the control of the control unit 13.
  • the light emission pattern of the light emitting device 10 stored in the storage unit 12 can be rewritten (changed) when the person 100 wearing the light emitting device 10 is changed, for example.
  • the process shown in FIG. 16 is a process executed in a state where the image acquisition unit 21 included in the image processing apparatus 20 sequentially acquires images (frames) from the camera 200.
  • the camera 200 images a person (worker) 100 wearing the light emitting device 10 working in the work area.
  • the storage unit 22 stores a data pattern representing a person ID for identifying the person 100 working in the work area, all loop delimiter patterns, and data delimiter patterns. Further, the storage unit 22 stores a person ID represented by the data pattern in association with the data pattern. Similarly, the storage unit 22 stores the block ID or loop delimiter information of the data pattern of each block. Further, the storage unit 22 stores check digits included in the loop delimiter pattern in association with the loop delimiter pattern.
  • the pattern reading unit 23 reads a data delimiter pattern included in the light emission pattern of the light emitting device 10 based on images (that is, moving images) sequentially acquired by the image acquisition unit 21 (step S1).
  • the pattern reading unit 23 reads the light emission pattern (block) following the data delimiter pattern read in step S1. In this case, the pattern reading unit 23 reads a light emission pattern between the data delimiter pattern read in step S1 and the data delimiter pattern next to the data delimiter pattern (step S2).
  • the pattern reading unit 23 determines whether or not the light emission pattern read in step S2 is a data pattern based on the data pattern and loop delimiter pattern stored in the storage unit 22 (step S3). If the light emission pattern read in step S2 matches the data pattern stored in the storage unit 22, the pattern reading unit 23 determines that the light emission pattern is a data pattern. On the other hand, when the light emission pattern read in step S2 matches the loop break pattern stored in the storage unit 22, it is determined that the light emission pattern read in step S2 is not a data pattern (that is, a loop break pattern). To do.
  • the data acquisition unit 24 refers to the storage unit 22 and associates it with the light emission pattern (data pattern).
  • the person ID stored in the storage unit 22 is acquired (step S4).
  • step S3 when it is determined that the light emission pattern read in step S2 is not a data pattern (that is, a loop separation pattern) (NO in step S3), the data acquisition unit 24 refers to the storage unit 22 and The check digit stored in the storage unit 22 in association with the light emission pattern (loop delimiter pattern) is acquired (step S5).
  • step S6 it is determined whether or not the reading of the light emission pattern is completed. Specifically, for example, it is assumed that the number of data patterns included in the light emission pattern of the light emitting device 10 in the image processing device 20 is predetermined. In this case, when a predetermined number of data patterns and loop delimiter patterns are read (that is, the light emission pattern for one round is read), the light emission pattern reading is completed in step S6. It is determined.
  • the determination process in step S6 may be executed with the light emission pattern for one round until the next loop break pattern is read.
  • step S6 If it is determined that the reading of the light emission pattern has not been completed (NO in step S6), the process returns to step S1 and is repeated. In step S1 in this case, the data delimiter pattern following the light emission pattern read in step S2 is read.
  • step S6 when it is determined that the reading of the light emission pattern is completed (YES in step S6), the data acquisition unit 24 compares the check digit with a value (hereinafter, determination) based on the person ID acquired in step S4. (Denoted as a value) is calculated (step S7).
  • a value is calculated (step S7).
  • the check digit is, for example, the remainder obtained by dividing the value of the person ID (identification number) by 6
  • the data acquisition unit 24 determines the remainder obtained by dividing the value of the person ID acquired in step S4 by 6. Calculate as a value.
  • the data acquisition unit 24 determines whether or not the person ID acquired in step S4 is valid based on the check digit acquired in step S5 and the determination value calculated in step S7 (step S8). In this case, if the check digit matches the determination value, it is determined that the person ID is valid. On the other hand, if the check digit does not match the determination value, it is determined that the person ID is not valid.
  • the image processing unit 25 wears the light emitting device 10 (attached to the light emitting device 10 included in images (moving images) sequentially acquired by the image acquisition unit 21. ) Is executed to add (display) the person ID in the vicinity of () (step S9).
  • this light-emitting device 10 is the light-emitting device 10 tracked on the image as described with reference to FIG.
  • the image to which the person ID is added (hereinafter referred to as a flow line management image) is accumulated in the image processing apparatus 20, for example.
  • the flow line management image stored in the image processing apparatus 20 can be viewed later by an administrator who performs flow line management by displaying it on a display or the like. According to such a flow line management image, the administrator can easily specify the person 100 included in the flow line management image based on the person ID added to the flow line management image. Yes, the flow line of the person 100 can be managed (understood).
  • the flow line (movement path) of the light emitting device 10 (the person 100 wearing) tracked on the above-described image is displayed. You may make it draw on a flow line management image.
  • the flow line management image has been described as being stored in the image processing apparatus 20, but the flow line management image may be stored in a server apparatus outside the image processing apparatus 20.
  • step S8 determines that the person ID is not valid (step S9)
  • the process of step S9 is not executed.
  • the light emitting device 10 attached to the person 100 continuously (repetitively) emits light according to the above-described light emission pattern while the person 100 is working in the work area. That is, in the present embodiment, the process shown in FIG. 16 is repeatedly executed while tracking the light emitting device 10 (the person 100 wearing the device) as described above.
  • step S ⁇ b> 9 is not executed when it is determined in step S ⁇ b> 8 that the person ID is not valid.
  • the process is executed before it is determined that the person ID is not valid.
  • the person ID may be continuously added to the flow line management image.
  • step S8 if it is determined in step S8 that the person ID is not valid, the person ID determined to be valid in the process shown in FIG. 16 is not acquired before it is determined that the person ID is not valid.
  • a character string or a mark indicating that analysis is in progress may be added (displayed) to the flow line management image.
  • the light emitting device 10 attached to the person 100 may be hidden and the light emitting device 10 may not be captured by the camera 200.
  • the light emission pattern of the light emitting device 10 is interrupted in the images sequentially acquired by the image acquisition unit 21 (that is, when a light extinction period longer than the unit time is detected in the light emission pattern described above), It is assumed that the pattern is once processed as unread and the process is executed again from step S1.
  • the data pattern is limited to two long lightings, and the loop delimiter pattern is limited to one long lighting. According to this, for example, when an instantaneous interruption occurs while reading a data pattern, there is a possibility that the data pattern is erroneously read as a loop delimiter pattern, but the data pattern is a loop delimiter pattern. Even if it is mistakenly read, there is no progress to misreading such that an incorrect person ID is acquired and added to the image.
  • the processing shown in FIG. 16 may be started in the middle of the light emission pattern, but in this embodiment, even in such a case, the data pattern and the loop delimiter pattern By reading from a data partition pattern that can be easily distinguished by comparison, misreading and the like can be prevented.
  • the frame rate of the camera 200 is 30 fps and the light emission pattern of the light emitting device 10 includes one data pattern, one loop delimiter pattern, and two data delimiter patterns.
  • the data pattern is the first data pattern shown in FIG. 6, the loop delimiter pattern is the first loop delimiter pattern shown in FIG. 9, and the data delimiter pattern is the data delimiter pattern shown in FIG.
  • the light emission pattern including the first data pattern, the first loop delimiter pattern, and the two data delimiter patterns can be read in a time of about 1.5 seconds even in the slowest combination.
  • the image processing system includes the light emitting device 10 attached to the person 100 and the image processing device 20 connected to the camera (imaging device) 200.
  • the light emitting device 10 repeatedly controls lighting and extinguishing of the light emitting unit 11 every predetermined unit time in accordance with a data pattern representing a person ID (identification data) for identifying the person 100 wearing the light emitting device 10.
  • the image processing apparatus 20 acquires an image including the light emitting device 10 attached to the person 100 captured by the camera 200, turns on the light emitting device 10 (the light emitting unit 11 included) included in the acquired image, and The data pattern is read based on the turn-off, the person ID represented by the read data pattern is acquired, and the acquired person ID is added (displayed) in the vicinity of the light emitting device 10 included in the image.
  • the light emitting unit 11 is not continuously turned off and blinks so that the light emitting unit 11 is turned off.
  • the person in the light-off period of the light-emitting device 10 (the light-emitting unit 11 included). Since it is possible to reduce the possibility that the 100 cannot be tracked, the person 100 can be detected (tracked) with high accuracy. In the present embodiment, since it is sufficient that the light emission pattern of the light emitting device 10 can be read on an image, even if the range of the work area subject to flow line management is widened, the light emission is more than necessary.
  • the device 10 need not be large. Therefore, in this embodiment, the person 100 only needs to wear the small light emitting device 10, and does not increase the burden on the person 100.
  • the light emission pattern of the light emitting device 10 includes a loop delimiter pattern including a check digit in addition to the data pattern described above. According to the check digit, since it is possible to confirm the validity of the person ID represented by the data pattern, it is possible to prevent misreading. In addition, by arranging the data delimiter pattern between the data pattern and the loop delimiter pattern, it is possible to improve the reading accuracy (reading rate) of the data pattern and the loop delimiter pattern.
  • this embodiment does not perform simple optical communication using the light emitting device 10 attached to the person 100, but manages the flow line of the person 100 in the work area.
  • Pattern is recognized as a person ID for identifying the person 100, so that the light-emitting device 10 is turned off in order to improve the detection accuracy (tracking performance) of the person 100. Is.
  • the length of the unit time for turning on and off the light emitting device 10 may be longer than the time required to process one frame at the frame rate of the camera 200, but as described above, the light emitting device.
  • the length of the unit time is preferably set to a time required for processing 2 to 3 frames.
  • the length of this unit time can be appropriately set (changed) in accordance with the environment in the work area (work content, flow line of the person 100, etc.), the frame rate of the camera 200, and the like.
  • the light emitting device 10 attached to the person 100 is hidden from the camera 200 and the light emission pattern is interrupted on the image, the light emission pattern is temporarily processed as unread. Thereby, in this embodiment, the possibility of misreading can be further reduced.
  • the tracking performance is improved by shortening the extinguishing period of the light emitting device 10, but if the frame rate of the camera 200 can be increased, it is further improved. It is also possible to improve the tracking performance. Such an improvement in the frame rate is an important factor that not only improves the tracking accuracy but also greatly contributes to a reduction in the time until the light emission pattern is read.
  • a high resolution is not required for the image. That is, if the light emitting device 10 emits strong light (infrared rays), high recognition (detection) performance can be realized even when the resolution of the image is low.
  • a method in which a person 100 is equipped with a light emitting device (light source) that is configured to emit light of a plurality of colors and represents a person ID with the transition (order) of the plurality of colors may be considered. Then, if the intensity of light emitted from the light source is too strong, the color transition may not be read on the image.
  • this method there is a possibility of misreading due to, for example, flickering of colors, so it is necessary to adjust the light intensity (brightness) according to the environment in the work area, the distance to the person 100, and the like. It is.
  • the intensity of infrared rays emitted from the light source (light emitting device 10) is higher than a certain level by using infrared rays.
  • improvement of distance characteristics and simplification of calibration can be expected in particular, compared to the case where a plurality of colors (colors) described above are used.
  • the light emitted from the light emitting device 10 may be monochromatic visible light.
  • the work is performed in a work area such as dazzling. The influence on the person 100 or the like can be reduced.
  • the image processing apparatus 20 may be connected to each camera 200, or one image processing apparatus 20 may be connected to all the cameras 200.
  • the image processing system according to the present embodiment has been mainly described as being used for managing the flow lines of the person 100 working in the work area, the flow lines of the persons existing in a specific space are described. It may be used in other environments as long as it manages the above.
  • the image processing system includes a light emitting device attached to a person 100 working in a work area and an image processing device connected to the camera 200, as in the first embodiment described above. Prepare.
  • This embodiment is different from the first embodiment described above in that the light emitting device and the camera 200 are configured to be able to perform wireless communication.
  • FIG. 17 shows an example of a functional configuration of the light emitting device 500 provided in the image processing system according to the present embodiment.
  • the same parts as those in FIG. 2 described above are denoted by the same reference numerals, and detailed description thereof is omitted.
  • parts different from FIG. 2 will be mainly described.
  • the light emitting device 500 includes a communication unit 501 and a control unit 502 in addition to the light emitting unit 11 and the storage unit 12 in the first embodiment described above.
  • the communication unit 501 is a functional unit realized by a device configured to execute wireless communication with the camera 200.
  • the communication unit 501 performs wireless communication based on, for example, Bluetooth (registered trademark) Low Energy (hereinafter referred to as BLE) standard.
  • BLE is a communication standard with higher power saving performance than Bluetooth.
  • the control unit 502 is a functional unit realized by, for example, a microcomputer. Similarly to the control unit 13 in the first embodiment described above, the control unit 502 turns on and off the light emitting unit 11 at predetermined unit times according to the light emission pattern of the light emitting device 500 stored in the storage unit 12. Controls turning off repeatedly. In the present embodiment, the control unit 502 controls lighting and extinguishing of the light emitting unit 11 when the light emitting device 500 is communicable with the camera 200 via the communication unit 501.
  • FIG. 18 shows an example of the functional configuration of the image processing apparatus 600 provided in the image processing system according to the present embodiment.
  • the same parts as those in FIG. 3 described above are denoted by the same reference numerals, and detailed description thereof is omitted.
  • parts different from FIG. 3 will be mainly described.
  • the image processing device 600 includes a control unit 601 in addition to the image acquisition unit 21, the storage unit 22, the pattern reading unit 23, the data acquisition unit 24, and the image processing unit 25 in the first embodiment described above.
  • the control unit 602 transmits an instruction to the light emitting device 500 via the camera 200 when the light emitting device 500 is communicable with the camera 200.
  • the communication range of the above BLE is about several meters to several tens of meters.
  • the light emitting device 500 and the camera 200 include, for example, the light emitting device 500 (the person 100 wearing the light device) in the work area (that is, at a position where the camera 200 can capture an image). In this case, it is possible to communicate with each other.
  • wireless communication based on the BLE standard is executed between the light emitting device 500 and the camera 200, thereby further improving the characteristics of the image processing system.
  • first to seventh processes will be described as processes executed in the image processing system in order to realize further improvement in characteristics of the image processing system.
  • the first process will be described. Similarly to the light emitting device 10 in the first embodiment described above, if the light emitting device 500 is driven by the power supplied from the battery, it is preferable to reduce the power consumption in the light emitting device 500. For this reason, the first processing is aimed at realizing power saving of the light emitting device 500.
  • control unit 502 included in the light emitting device 500 is in a state where the light emitting device 500 can communicate with the camera 200 (that is, the light emitting device 500 exists in the work area).
  • the lighting unit 11 is repeatedly turned on and off according to the light emission pattern of the light emitting device 500).
  • the light emitting device 500 when the person 100 wearing the light emitting device 500 is not working in the work area, the light emitting device 500 does not emit light (that is, only when the flow line needs to be managed). Therefore, power saving of the light emitting device 500 can be realized.
  • the second process will be described.
  • the image processing system according to the first embodiment described above for example, when two data patterns are combined, it has been described that it is possible to represent about 1000 kinds of person IDs. It is also possible to represent a larger number of person IDs (identification data) by combining three or more data patterns.
  • the second process aims to improve the reading speed (recognition speed) in the image processing apparatus 600.
  • identification data (hereinafter referred to as “reading ID”) represented by a data pattern to be read by the image processing apparatus 600 and a person ID for identifying the person 100 wearing the light emitting device 500 are obtained.
  • the control unit 502 included in the light-emitting device 500 passes through the camera 200.
  • the person ID for identifying the person 100 wearing the light emitting device 500 is transmitted to the image processing apparatus 600.
  • the control unit 601 included in the image processing apparatus 600 transmits a reading ID (a light emission instruction according to a data pattern representing the reading ID) to the light emitting apparatus 500 via the camera 200.
  • the control unit 502 included in the light emitting device 500 controls the light emitting unit 11 to emit light according to the data pattern representing the reading ID based on the instruction transmitted by the image processing device 600.
  • the control unit 601 included in the image processing device 600 is sequentially acquired by the image acquisition unit 21.
  • the person ID transmitted by the light emitting device 500 is added in the vicinity of the light emitting device 500 (the person 100 wearing the image) included in the image (moving image). Note that the data pattern representing the reading ID is shorter than the data pattern representing the person ID.
  • the image processing apparatus 600 reads a data pattern representing a reading ID shorter than the data pattern representing a person ID. As a result, the reading speed of the image processing apparatus 600 is increased. Can be improved.
  • the reading ID only needs to be able to identify a plurality of light emitting devices 500 (the person 100 wearing the images) that are simultaneously imaged by the camera 200. That is, in the second process, various person IDs (identification data) can be detected (recognized) with a small number of reading IDs.
  • the second process it is possible to change the light emission pattern of the light emitting device 500 for each imaged camera 200 (where the camera is installed), thereby preventing forgery of the person ID and the like. You can also.
  • the person ID for identifying the person 100 wearing the light emitting device 500 can be recognized (acquired) in advance by the image processing apparatus 600 by wireless communication. It is also possible to adopt a configuration in which only the light emitting device 500 attached to 100 emits light.
  • the third process will be described.
  • the tracking performance is improved by shortening the extinguishing period of the light emitting device 10, but as long as the extinguishing period of the light emitting device 10 exists, for example, the light emitting device 10
  • the image processing apparatus 600 may not be able to track the light emitting device 10.
  • the third process aims to improve the tracking performance in the image processing apparatus 600.
  • the control unit 601 included in the image processing device 600 has read the light emission pattern of the light emitting device 500. (That is, the person ID is acquired by the data acquisition unit 24) is notified to the light emitting device 500 via the camera 200.
  • the control unit 502 included in the light emitting device 500 causes the light emitting unit 11 to be constantly (continuously) lit in response to a notification from the control unit 601.
  • the tracking performance for the light emitting device 500 can be improved by not turning off the light emitting device 500 once recognized.
  • the plurality of light emitting devices 500 may be confused.
  • the image processing apparatus 600 notifies the light emitting apparatus 500 through the camera 200 that the tracking cannot be performed due to the confusion, and thereby the data pattern (ID) representing the person ID wearing the light emitting apparatus 500 ( It is possible to resume control such that the light emitting device 500 emits light according to the light emission pattern. According to this, the tracking of the light emitting device 500 can be started again.
  • the fourth processing is intended to notify the person 100 wearing the light emitting device 500 that the light emission pattern of the light emitting device 500 has been read in the image processing device 600.
  • the control unit 601 included in the image processing apparatus 600 has read the light emission pattern of the light emitting apparatus 500 ( That is, the light acquisition device 500 is notified via the camera 200 that the person ID has been acquired by the data acquisition unit 24.
  • the light emitting device 500 notifies the person 100 wearing the light emitting device 500 that the light emission pattern of the light emitting device 500 has been read.
  • the notification to the person 100 (hereinafter referred to as a reading notification) is performed by, for example, outputting a buzzer sound in the light emitting device 500 or vibrating the light emitting device 500.
  • the person 100 can enter the work area after receiving the reading notification.
  • the person 100 enters the work area at a stage where the light emission pattern of the light emitting device 500 is not read, and the person 100 is removed even though the person 100 exists in the work area. Eliminate time zones that are not tracked.
  • the unit time of turning on and off that is repeatedly controlled in the light emission pattern of the light emitting device 10 is constant.
  • the person 100 wearing the light emitting device 10 may be captured by the plurality of cameras 200, and
  • the performance (for example, frame rate) of the camera 200 is not necessarily the same.
  • the unit time of turning on and off in the light emitting device 10 is not appropriate for the frame rate of the camera 200 that captures the light emitting device 10 (the person 100 wearing the light emitting device 10).
  • the reading speed at 20 may be reduced (that is, the reading speed can be further improved). For this reason, the fifth process aims to improve the reading speed in the image processing apparatus 600.
  • the control unit 601 included in the image processing device 600 causes the camera 200 to Then, the frame rate of the camera 200 is transmitted to the light emitting device 500.
  • the control unit 502 included in the light emitting device 500 changes the setting of the unit time of turning on and off in the light emitting device 500 based on the frame rate of the camera 200 transmitted by the control unit 601 (that is, the frame Optimize for a blink rate that matches the rate). Specifically, the unit time of turning on and off in the light emitting device 500 is changed to a time necessary for processing, for example, two to three frames at the frame rate of the camera 200 transmitted by the control unit 601.
  • the light emitting device 500 can be turned on and off in a unit time suitable for the frame rate of the camera 200, the length of the light emitting pattern can be shortened. As a result, the reading speed of the image processing apparatus 600 can be improved.
  • the sixth process will be described.
  • the light emission intensity (infrared intensity) of the light emitting unit 11 included in the light emitting device 10 is constant.
  • the reading (recognition) rate of the light emission pattern in the image processing device 600 is improved by increasing the intensity of infrared rays.
  • the sixth process aims to improve the reading accuracy in the image processing apparatus 600.
  • the distance to the communication partner can be calculated (estimated) from the strength of the communication radio wave. Therefore, in the sixth process, the control unit 502 included in the light emitting device 500 calculates the distance to the camera 200 from the intensity of radio communication radio waves based on the BLE standard, and the light emission intensity by the light emitting unit 11 based on the distance. Change (correct). Specifically, when the distance to the camera 200 is far, the control unit 502 performs correction so as to increase the light emission intensity by the light emitting unit 11.
  • the light emitting unit 11 it is possible to cause the light emitting unit 11 to emit light with an appropriate light emission intensity according to the distance to the camera 200, and thus the reading accuracy in the image processing apparatus 600 can be improved.
  • the sixth process when the distance to the camera 200 is short, it is possible to perform correction so as to reduce the light emission intensity by the light emitting unit 11, so that it is possible to save power in the light emitting device 500. Is possible.
  • the seventh process will be described.
  • the image processing device 20 cannot grasp the start timing of the light emission pattern of the light emitting unit 11 included in the light emitting device 10, and therefore the data pattern and the loop delimiter pattern. May be misread.
  • the seventh process aims to prevent misreading in the image processing apparatus 600.
  • the control unit 502 included in the light emitting device 10 transmits the start timing of the light emission pattern of the light emitting unit 11 via the camera 200 (that is, the light emission).
  • the timing of repeatedly controlling the turning on and off of the unit 11) is notified to the image processing apparatus 600.
  • the pattern reading unit 23 included in the image processing apparatus 600 can read the light emission pattern (data pattern, loop delimiter pattern) based on the notification from the control unit 502.
  • the image processing apparatus 600 can grasp the start timing of the light emission pattern of the light emitting unit 11, the order of the predetermined data pattern, loop delimiter pattern, and the like is determined. By considering it, it is possible to reduce the possibility of misreading.
  • the first to seventh processes described above are merely examples, and other processes may be executed based on wireless communication between the light emitting device 500 and the camera 200.
  • At least one of the first to seventh processes is executed. For example, two or more of the first to seventh processes are performed. You may perform it combining a process.
  • the wireless communication based on the BLE standard is executed between the light emitting device 500 and the camera 200.
  • the wireless communication based on a standard for example, Wi-Fi (registered trademark) or the like may be executed.

Landscapes

  • Signal Processing (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Emergency Management (AREA)
  • Business, Economics & Management (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Alarm Systems (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

発光装置(10)は、発光部(11)と、発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に発光部の点灯及び消灯を繰り返し制御する制御部(13)とを含む。画像処理装置(20)は、カメラ(200)によって撮像された発光装置を含む画像を取得する画像取得部(21)と、取得された画像に含まれる発光装置に含まれる発光部の点灯及び消灯に基づいてデータパターンを読み取る読取部(23)と、読み取られたデータパターンによって表される識別データを取得するデータ取得部(24)と、取得された識別データを、取得された画像に含まれる発光装置の近傍に付加する画像処理部(25)とを含む。データパターンにおいて、発光部の消灯は連続しない。

Description

画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラム
 本発明は、画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラムに関する。
 近年では、特定の空間内の人物が移動する経路(以下、動線と表記)を管理すること(以下、動線管理と表記)が行われている。例えば工場内での作業員の動線管理は、当該工場内での効率的な作業の実現を目的として、作業工程等を改善する際に利用することができる。
 ところで、上記した動線管理を行うためには特定の空間内に存在する人物を検出する(つまり、人物の位置を追跡する)必要があるが、当該人物を検出する技術の一例としては、例えば人物を識別するための人物IDを表すコード(タグ)を当該人物に付しておき、特定の空間内を移動する人物に付されたコードを撮像装置(カメラ)で読み取る技術が知られている。
 このような技術によれば、撮像装置によって撮像されたコードを読み取ることによって、当該コードが付された人物を画像上で検出することができる。
特開2009-033366号公報
 しかしながら、上述した技術を用いる場合、動線管理の対象となる空間の範囲を広くするためには、読み取り精度の関係により人物に付されるコード(つまり、タグのサイズ)を拡大する必要がある。しかし人物にコードを付することはサイズ的に限界があり実用性がない。
 一方、このようなコードを用いることなく人物を検出するために、例えば顔認識等の認識技術を利用することが考えられる。しかしながら、このような認識技術は、特定の条件下でのみ人物を特定可能である場合が多く、特定の空間内における複数の人物の移動を連続的に精度高く検出することができない。
 そこで、本発明の目的は、人物への負担を増加させることなく、高い精度で当該人物を連続的に検出することが可能な画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラムを提供することにある。
 本発明の1つの態様によれば、人物に装着される発光装置と、撮像装置と接続される画像処理装置とを備える画像処理システムが提供される。前記発光装置は、発光手段と、前記発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を繰り返し制御する制御手段とを含む。前記画像処理装置は、前記撮像装置によって撮像された前記発光装置を含む画像を取得する画像取得手段と、前記取得された画像に含まれる発光装置に含まれる発光手段の点灯及び消灯に基づいて前記データパターンを読み取る読取手段と、前記読み取られたデータパターンによって表される識別データを取得するデータ取得手段と、前記取得された識別データを、前記取得された画像に含まれる発光装置の近傍に付加する画像処理手段とを含む。前記データパターンにおいて、前記発光手段の消灯は連続しない。
 本発明は、人物への負担を増加させることなく、高い精度で当該人物を連続的に検出することが可能な画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラムを提供することにある。
本発明の第1の実施形態に係る画像処理システムの使用例について説明するための図。 本実施形態に係る画像処理システムに備えられる発光装置の機能構成の一例を示す図。 本実施形態に係る画像処理システムに備えられる画像処理装置の機能構成の一例を示す図。 画像上で発光装置の位置を追跡する際の領域の切り出しについて説明するための図。 点滅する発光装置の位置を追跡する際の領域の切り出しについて説明するための図。 第1のデータパターンの一例を示す図。 第2のデータパターンの一例を示す図。 第3のデータパターンの一例を示す図。 第1のループ区切りパターンの一例を示す図。 第2のループ区切りパターンの一例を示す図。 第3のループ区切りパターンの一例を示す図。 第4のループ区切りパターンの一例を示す図。 第5のループ区切りパターンの一例を示す図。 第6のループ区切りパターンの一例を示す図。 データ区切りパターンの一例を示す図。 本実施形態に係る画像処理システムに備えられる画像処理装置の処理手順の一例を示すフローチャート。 本発明の第2の実施形態に係る画像処理システムに備えられる発光装置の機能構成の一例を示す図。 本実施形態に係る画像処理システムに備えられる画像処理装置の機能構成の一例を示す図。
 以下、図面を参照して、本発明の各実施形態について説明する。
 (第1の実施形態)
 まず、本発明の第1の実施形態について説明する。本実施形態に係る画像処理システムは、特定の空間内の人物が移動する経路(以下、動線と表記)を管理するために使用される。なお、特定の空間内の人物には、工場等の作業エリア内で作業する人物(作業員)等が含まれる。
 図1は、本実施形態に係る画像処理システムの使用例について説明するための図である。図1に示すように、画像処理システムは、作業エリア内で作業する人物100に装着される発光装置10と、カメラ(撮像装置)200と接続される画像処理装置20とを備える。
 発光装置10は、例えば人物100が着用する作業服等に装着可能なようにタグのような形状を有している。発光装置10は、後述するようにカメラ200によって撮像される必要があるため、人物100が作業エリア内を移動したり向きを変えたりしたとしてもカメラ200によって撮像されるように例えば人物100が着用する帽子等(つまり、頭部)に装着されることが好ましい。なお、カメラ200によって撮像可能であれば、発光装置10は、人物100の胸部または肩部等に装着されても構わない。
 カメラ200は、作業エリア内で作業する人物100(に装着された発光装置10)を撮像可能な位置に固定されて設けられる。本実施形態に係る画像処理システムは動線を管理するために使用されることから、カメラ200は、作業エリア全体を撮像可能なように人物100等に対して比較的高い位置に設置されることが好ましい。なお、本実施形態において、カメラ200は、例えば一般的なナイトモード等により赤外線(の帯域)を検知することが可能な構成であるものとする。カメラ200によって撮像された人物100(に装着された発光装置10)を含む画像(動画像)は、画像処理装置20に渡される。
 画像処理装置20は、カメラ200から渡された画像に基づいて、作業エリア内で作業する人物100を当該画像上で検出する(つまり、当該人物の位置を追跡する)ための処理を実行する。
 なお、図1においては便宜的に1人の人物100のみが示されているが、作業エリア内では複数の人物100が作業していても構わない。作業エリア内で複数の人物100が作業している場合には、当該人物100の各々に発光装置10が装着される。
 図2は、本実施形態に係る画像処理システムに備えられる発光装置10の機能構成の一例を示す。図2に示すように、発光装置10は、発光部11、格納部12及び制御部13を含む。
 発光部11は、例えば赤外線LEDのような赤外光源であり、制御部13の制御の下、赤外線(光)を発するように構成されている。なお、発光部11によって発せられる赤外線の波長は、例えば850nmとする。これは、例えばカメラ(センサ)200のベイヤーカラーの分光感度特性で850nmに受光感度を持っているためである。また、赤外線LEDの波長に合わせて赤外透過フィルタに850nmのバンドパスフィルタを用いると、外光の影響を受けにくくすることができる。
 格納部12には、発光装置10(を装着する人物100)に対して予め定められている発光部11を発光させるパターン(以下、発光装置10の発光パターンと表記)が格納されている。
 なお、格納部12に格納されている発光装置10の発光パターンは、当該発光装置10を装着する人物100を識別するための識別データ(以下、人物IDと表記)を表すデータパターンを含む。すなわち、上記したように作業エリア内で作業する人物100が複数存在する場合には当該人物100の各々に発光装置10が装着されるが、当該人物100の各々に装着された発光装置10の発光パターン(データパターン)はそれぞれ異なる。なお、発光パターンには、データパターン以外に、ループ区切りパターン及びデータ区切りパターンが含まれる。データパターン、ループ区切りパターン及びデータ区切りパターンの詳細については後述する。
 制御部13は、例えばマイクロコンピュータ等によって実現される機能部である。制御部13は、格納部12に格納されている発光装置10の発光パターンに従って、予め定められた単位時間毎に発光部11の点灯及び消灯を(繰り返し)制御する。すなわち、本実施形態において、発光装置10(に含まれる発光部11)は、格納部12に格納されている発光装置10の発光パターンに従って点滅するように発光する。
 なお、発光装置10は、電池から供給される電力で駆動されるものとする。
 図3は、本実施形態に係る画像処理システムに備えられる画像処理装置20の機能構成の一例を示す。
 図3に示すように、画像処理装置20は、画像取得部21、格納部22、パターン読取部23、データ取得部24及び画像処理部25を含む。
 ここで、画像処理装置20は、ハードウェア構成として、例えばCPU及び不揮発性メモリ等を備える。本実施形態において、図3に示す画像取得部21、パターン読取部23、データ取得部24及び画像処理部25は、CPU(画像処理装置20のコンピュータ)が不揮発性メモリに格納されているプログラムを実行することにより実現されるものとする。このプログラムは、コンピュータ読み取り可能な記憶媒体に予め格納して頒布可能であるし、例えばネットワークを介して画像処理装置20にダウンロードされても構わない。また、格納部22は、不揮発性メモリ等に格納されているものとする。
 画像取得部21は、図1に示すカメラ200によって撮像された人物100(に装着される発光装置10)を含む画像を当該カメラ200から取得する。画像取得部21は、カメラ200において設定されているフレームレート(動画像において単位時間に処理可能なフレーム数)に応じて画像(フレーム)を順次取得する。
 格納部22には、発光装置10の発光パターン(格納部12に格納されている発光パターン)が格納されている。また、格納部22には、発光装置10の発光パターンに対応づけて当該発光パターンに含まれるデータパターンによって表される人物IDが格納されている。
 パターン読取部23は、格納部22に格納されている発光装置10の発光パターンを参照して、画像取得部21によって順次取得される画像に含まれる発光装置10(に含まれる発光部11)の発光パターン(点灯及び消灯の繰り返しパターン)を読み取る。
 データ取得部24は、格納部22を参照して、パターン読取部23によって読み取られた発光パターンに含まれるデータパターンによって表される人物IDを取得する。
 画像処理部25は、画像取得部21によって順次取得される画像に含まれる発光装置10(を装着する人物100)の近傍にデータ取得部24によって取得された人物IDを付加する。これによれば、発光装置10を装着する人物100を画像上で識別(認識)することができる。
 次に、本実施形態における発光装置10の発光パターンの概要について説明する。
 まず、本実施形態に係る画像処理システムは、上述したように動線を管理するために使用されることから、カメラ200から取得される画像上で人物100(に装着された発光装置10)の位置を追跡する(人物10を検出する)必要がある。このように画像上で人物100に装着された発光装置10の位置を追跡する場合、当該発光装置10を含む領域(空間)の切り出しが重要である。
 ここで、図4を参照して、画像上で発光装置10の位置を追跡する際の領域の切り出しについて説明する。ここでは、カメラ200に設定されているフレームレートに応じて画像(フレーム)301及び302がカメラ200から順次取得されたものとする。なお、図4に示す画像301及び302は、便宜的に、画像中の発光装置10の部分を拡大して示している。
 図4の上段の図に示すように、画像301において発光装置10が発光している状態である場合、当該画像301上では発光装置10の位置を特定することが可能であるため、当該発光装置10の位置を中心とする領域301aが画像301から切り出される。この領域301aは、画像301の次に取得される画像302において発光装置10を追跡するために用いられる。
 ここで、図4の中段の図に示すように、画像301が取得された後、次の画像302が取得されるまでの間に、発光装置10(を装着した人物100)が移動したものとする。この場合、画像301が取得された後に取得された画像302においては、画像301において切り出された領域301aの範囲内で発光装置10が探索される。すなわち、移動後の発光装置10が領域301a内に存在すれば、画像302において当該発光装置10を発見して追跡することができる。この場合、図4の下段の図に示すように、発光装置10の位置を中心とする領域302aが画像302から切り出される。
 このような処理を繰り返すことにより、カメラ200から取得される画像(動画像)上で発光装置10を追跡することができる。
 ところで、画像301及び302において切り出される領域301a及び302a内に他の発光装置10が含まれてしまうと、追跡すべき発光装置10と当該他の発光装置10とを区別することが難しくなる。したがって、領域301a及び302aは、他の発光装置10の進入を避けるために狭くすることが好ましい。
 一方、移動後の発光装置10が領域301a(または302a)内に存在しない場合には、当該発光装置10を追跡することはできない。このため、領域301a及び302aは適度な大きさ(広さ)を有する必要がある。
 以上のことから、発光装置10を追跡するために画像から切り出される領域(の大きさ)は、カメラ200に設定されているフレームレートにおけるフレーム(画像)間で発光装置10(を装着する人物100)が移動すると想定される距離等に基づいて設定される。
 ここで、本実施形態に係る画像処理システムにおいて、発光装置10は、上記したように点滅する(点灯及び消灯を繰り返す)ように発光する。
 以下、図5を参照して、上記したように点滅する発光装置10の位置を追跡する際の領域の切り出しについて説明する。ここでは、カメラ200に設定されているフレームレートに応じて画像(フレーム)401~403がカメラ200から順次取得されたものとする。なお、図5に示す画像401~403は、便宜的に、画像中の発光装置10の部分を拡大して示している。
 図5の上段の図に示すように、画像401において発光装置10が発光している状態である場合、当該画像401上では発光装置10の位置を特定することが可能であるため、当該発光装置10の位置を中心とする領域401aが切り出される。
 ここで、図5の中段の図に示すように、画像401が取得された後、次の画像402が取得されるまでの間に、消灯した状態で発光装置10(を装着した人物100)が移動したものとする。この場合、画像401が取得された後に取得された画像402においては、画像401において切り出された領域401aの範囲内で発光装置10が探索されるが、画像402において発光装置10は消灯しているため、当該発光装置10を発見することはできない。
 また、図5の下段の図に示すように、画像402が取得された後、次の画像403が取得されるまでの間に、発光装置10(を装着した人物100)が更に移動したものとする。この場合、画像402においては発光装置10を発見(追跡)することができていないため、画像403においては、画像401において切り出された領域401aの範囲内で発光装置10が探索される。このとき、画像403において発光装置10が発光している状態であったとしても、発光装置10は領域401a内には存在していないため、当該発光装置10を発見してすることはできず、結果として発光装置10を追跡することはできない。
 すなわち、本実施形態においては発光装置10が点滅するように発光するため、図5において説明したように消灯した状態で発光装置10が移動してしまうことにより、発光装置10を追跡することができなくなる場合がある。このため、本実施形態における発光装置10の発光パターンは、発光装置10が消灯した状態の期間(以下、消灯期間と表記)を可能な限り短くするように構成される。すなわち、本実施形態は、発光装置10の消灯期間を短くすることによって当該消灯期間中の発光装置10の移動距離を短くすることで、図5において説明した発光装置10を追跡することができなくなる事態を回避しようとするものである。また、発光パターン(コーディング)は、画像処理に時間がかかること及びカメラ200のフレームレートの不安定さを考慮して、時間的な揺らぎに強いことが必要である。
 ここで、上記したように発光装置10の発光パターンには、データパターン、ループ区切りパターン及びデータ区切りパターンが含まれる。なお、発光装置10の発光パターン(データパターン、ループ区切りパターン及びデータ区切りパターン)は、予め定められた単位時間毎に発光装置10(に含まれる発光部11)の点灯及び消灯の繰り返しパターンである。以下、これらの各パターンについて説明する。
 データパターンは、上記したように発光装置10を装着する人物100を識別するための人物ID(例えば、識別番号)を表す。
 図6は、データパターンの第1の例(以下、第1のデータパターンと表記)を示す。なお、以下の説明において単位時間毎の発光装置10の点灯または消灯を1回の点灯または消灯と称するものとすると、図6に示す第1のデータパターンにおいては、3回の点灯、1回の消灯、3回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。
 図7は、データパターンの第2の例(以下、第2のデータパターンと表記)を示す。図7に示す第2のデータパターンにおいては、1回の点灯、1回の消灯、3回の点灯、1回の消灯、3回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。
 図8は、データパターンの第3の例(以下、第3のデータパターンと表記)を示す。図8に示す第3のデータパターンにおいては、3回の点灯、1回の消灯、1回の点灯、1回の消灯、3回の点灯、1回の消灯、1回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。
 このようにデータパターンは例えば点灯から開始して消灯で終了するものとし、当該データパターンにおいて単位時間よりも長い消灯期間(2回以上の消灯)はない(つまり、消灯は連続しない)。また、データパターンのルールとして、例えば長い点灯(3回の点灯)は2つまでとする。
 なお、ここでは第1~第3のデータパターンについてのみ説明したが、少なくとも発光装置10を装着する人物100を識別するための全ての人物IDを表すことが可能な程度の数のデータパターンが用意されているものとする。なお、人物IDは、複数のデータパターンによって表すことも可能である。
 ループ区切りパターンは、発光パターンの開始または終了(つまり、発光パターンの区切り)を表す。なお、ループ区切りパターンは、上記したデータパターンによって表される人物IDの正当性を確認するためのチェックデジットを含んでいてもよい。チェックデジットは、例えばデータパターンによって表される人物ID(識別番号)の値を6で除算した余りであるものとする。この場合、第1~第6のループ区切りパターンが用意されている。
 図9は、第1のループ区切りパターンを示す。図9に示す第1のループ区切りパターンは、3回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。なお、第1のループ区切りパターンに含まれるチェックデジットは、「0」を表しているものとする。
 図10は、第2のループ区切りパターンを示す。図10に示す第2のループ区切りパターンは、1回の点灯、1回の消灯、3回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。なお、第2のループ区切りパターンに含まれるチェックデジットは、「1」を表しているものとする。
 図11は、第3のループ区切りパターンを示す。図11に示す第3のループ区切りパターンは、3回の点灯、1回の消灯、1回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。なお、第3のループ区切りパターンに含まれるチェックデジットは、「2」を表しているものとする。
 図12は、第4のループ区切りパターンを示す。図12に示す第4のループ区切りパターンは、1回の点灯、1回の消灯、1回の点灯、1回の消灯、3回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。なお、第4のループ区切りパターンに含まれるチェックデジットは、「3」を表しているものとする。
 図13は、第5のループ区切りパターンを示す。図13に示す第5のループ区切りパターンは、1回の点灯、1回の消灯、3回の点灯、1回の消灯、1回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。なお、第5のループ区切りパターンに含まれるチェックデジットは、「4」を表しているものとする。
 図14は、第6のループ区切りパターンを示す。図14に示す第6のループ区切りパターンは、3回の点灯、1回の消灯、1回の点灯、1回の消灯、1回の点灯、1回の消灯が連続的に行われる繰り返しパターンである。なお、第6のループ区切りパターンに含まれるチェックデジットは、「5」を表しているものとする。
 このようにループ区切りパターンは、データパターンと同様に、例えば点灯から開始して消灯で終了するものとし、当該ループ区切りパターンにおいても単位時間よりも長い消灯期間(2回以上の消灯)はない(つまり、消灯は連続しない)。また、ループ区切りパターンのルールとして、例えば長い点灯(3回の点灯)は1つまでとする。
 ここでは、ループ区切りパターンに含まれるチェックデジットがデータパターンによって表される人物IDの値を6で除算した余りであるものとして説明したが、当該チェックデジットは一例であり、他のチェックデジットが用いられても構わない。
 また、ループ区切りパターンにはチェックデジットが含まれているものとして説明したが、当該ループ区切りパターンは、発光パターンの開始または終了を表すものであればよく、必ずしもチェックデジットを含むものでなくてもよい。ループ区切りパターンがチェックデジットを含まない場合には、1種類のループ区切りパターン(例えば、第1~第6のループ区切りパターンのいずれか)が用意されていればよい。
 データ区切りパターンは、データパターンの境界を区別するために当該データパターンとループ区切りパターンとの間に配置される。なお、上記したように複数のデータパターンを組み合わせて人物IDを表すような場合、当該複数のデータパターンの間にもデータ区切りパターンが配置される。
 図15は、データ区切りパターンの一例を示す。図15に示すデータ区切りパターンは、5回の点灯、1回の消灯が連続的に行われる点灯及び消灯の繰り返しパターンである。図15はデータ区切りパターンの一例であるが、このようにデータ区切りパターンについては他のパターンと比較して容易に区別可能な構成とすることにより、データパターン及びループ区切りパターンに対する読み取り率を向上させることができる。
 ここで、本実施形態における発光装置10の発光パターンの具体例について説明する。ここでは、図6に示す第1のデータパターンによって表される人物ID(識別番号)が0であり、図7に示す第2のデータパターンによって表される人物IDが1であり、図8に示す第3のデータパターンによって表される人物IDが2であり、発光装置10を装着する人物を識別するための人物IDが0である場合を想定する。
 この場合、発光装置10に含まれる格納部12には、発光装置10の発光パターンとして、図6に示す第1のデータパターン、図9に示す第1のループ区切りパターン及び図15に示すループ区切りパターンが格納されている。
 これによれば、発光装置10に含まれる制御部13は、格納部12に格納されている第1のデータパターン、データ区切りパターン、ループ区切りパターン、データ区切りパターンの順に発光部11が点灯及び消灯を繰り返すように当該発光部11を制御する。
 換言すれば、制御部13は、第1のデータパターンに従って予め定められた単位時間毎に発光部11の点灯及び消灯を繰り返し制御し、データ区切りパターンに従って予め定められた単位時間毎に発光部11の点灯及び消灯を繰り返し制御し、第1のループ区切りパターンに従って予め定められた単位時間毎に発光部11の点灯及び消灯を繰り返し制御し、データ区切りパターンに従って予め定められた単位時間毎に発光部11の点灯及び消灯を繰り返し制御する。
 なお、このような発光パターンは、制御部13による制御の下、ループする(繰り返す)ように発光部11によって発光される。
 また、格納部12に格納されている発光装置10の発光パターンは、例えば発光装置10を装着する人物100が変更される場合等に書き換える(変更する)ことも可能である。
 次に、図16のフローチャートを参照して、本実施形態に係る画像処理システムに備えられる画像処置装置20の処理手順について説明する。
 図16に示す処理は、画像処理装置20に含まれる画像取得部21がカメラ200から画像(フレーム)を順次取得している状態において実行される処理である。ここでは、カメラ200は、作業エリア内で作業している発光装置10を装着した人物(作業員)100を撮像しているものとする。
 また、格納部22には、作業エリア内で作業する人物100を識別するための人物IDを表すデータパターン、全てのループ区切りパターン及びデータ区切りパターンが格納されている。更に、格納部22には、データパターンに対応づけて当該データパターンによって表される人物IDが格納されている。同様に、格納部22には、各ブロックのデータパターンのブロックIDかループ区切り情報が格納されている。更に、格納部22には、ループ区切りパターンに対応づけて当該ループ区切りパターンに含まれるチェックデジットが格納されている。
 まず、パターン読取部23は、画像取得部21によって順次取得される画像(つまり、動画像)に基づいて、発光装置10の発光パターンに含まれるデータ区切りパターンを読み取る(ステップS1)。
 パターン読取部23は、ステップS1において読み取られたデータ区切りパターンに続く発光パターン(のブロック)を読み取る。この場合、パターン読取部23は、ステップS1において読み取られたデータ区切りパターンと、当該データ区切りパターンの次のデータ区切りパターンとの間の発光パターンを読み取る(ステップS2)。
 パターン読取部23は、格納部22に格納されているデータパターン及びループ区切りパターンに基づいて、ステップS2において読み取られた発光パターンがデータパターンであるか否かを判定する(ステップS3)。ステップS2において読み取られた発光パターンが格納部22に格納されているデータパターンと一致する場合、パターン読取部23は、当該発光パターンがデータパターンであると判定する。一方、ステップS2において読み取られた発光パターンが格納部22に格納されているループ区切りパターンと一致する場合、ステップS2において読み取られた発光パターンがデータパターンでない(つまり、ループ区切りパターンである)と判定する。
 ステップS2において読み取られた発光パターンがデータパターンであると判定された場合(ステップS3のYES)、データ取得部24は、格納部22を参照して、当該発光パターン(データパターン)に対応づけて格納部22に格納されている人物IDを取得する(ステップS4)。
 一方、ステップS2において読み取られた発光パターンがデータパターンでない(つまり、ループ区切りパターンである)と判定された場合(ステップS3のNO)、データ取得部24は、格納部22を参照して、当該発光パターン(ループ区切りパターン)に対応づけて格納部22に格納されているチェックデジットを取得する(ステップS5)。
 ステップS4またはS5の処理が実行されると、発光パターンの読み取りが完了したか否かが判定される(ステップS6)。具体的には、例えば画像処理装置20において発光装置10の発光パターンに含まれるデータパターンの数が予め定められているものとする。この場合、予め定められている数のデータパターン及びループ区切りパターンが読み取られている(つまり、1周分の発光パターンが読み取られている)場合には、ステップS6において発光パターンの読み取りが完了したと判定される。なお、発光装置10の発光パターンに含まれるデータパターンの数が予め定められていない場合には、当該発光パターンに含まれるループ区切りパターンは1つであるため、例えばループ区切りパターンが読み取られた後、次にループ区切りパターンが読み取られるまでを1周分の発光パターンとしてステップS6における判定処理を実行しても構わない。
 発光パターンの読み取りが完了していないと判定された場合(ステップS6のNO)、ステップS1に戻って処理が繰り返される。この場合におけるステップS1においては、ステップS2において読み取られた発光パターンの次に続くデータ区切りパターンが読み取られる。
 一方、発光パターンの読み取りが完了したと判定された場合(ステップS6のYES)、データ取得部24は、ステップS4において取得された人物IDに基づいて、チェックデジットと比較される値(以下、判定値と表記)を算出する(ステップS7)。上記したようにチェックデジットが例えば人物ID(識別番号)の値を6で除算した余りである場合、データ取得部24は、ステップS4において取得された人物IDの値を6で除算した余りを判定値として算出する。
 データ取得部24は、ステップS5において取得されたチェックデジット及びステップS7において算出された判定値に基づいて、ステップS4において取得された人物IDが正当であるか否かを判定する(ステップS8)。この場合、チェックデジットが判定値と一致する場合には、人物IDが正当であると判定される。一方、チェックデジットが判定値と一致しない場合には、人物IDが正当でないと判定される。
 人物IDが正当であると判定された場合(ステップS8のYES)、画像処理部25は、画像取得部21によって順次取得される画像(動画像)に含まれる発光装置10(を装着する人物100)の近傍に当該人物IDを付加(表示)する処理を実行する(ステップS9)。なお、この発光装置10は、図4等を用いて説明したように画像上で追跡されている発光装置10である。
 このように人物IDが付加された画像(以下、動線管理画像と表記)は、例えば画像処理装置20内に蓄積される。画像処理装置20内に蓄積された動線管理画像は、後にディスプレイ等に表示して動線管理を行う管理者等が閲覧することが可能である。このような動線管理画像によれば、管理者は、当該動線管理画像に付加されている人物IDに基づいて当該動線管理画像に含まれる人物100を容易に特定することが可能とであり、当該人物100の動線を管理(把握)することができる。
 また、動線管理画像を用いた人物100の動線管理を効率化するために、上記した画像上で追跡されている発光装置10(を装着する人物100)の動線(移動する経路)が動線管理画像上に描画されるようにしてもよい。
 ここでは、動線管理画像が画像処理装置20内に蓄積されるものとして説明したが、当該動線管理画像は、画像処理装置20の外部のサーバ装置等に蓄積されても構わない。
 一方、ステップS8において人物IDが正当でないと判定された場合(ステップS9)、ステップS9の処理は実行されない。
 なお、人物100に装着される発光装置10は、当該人物100が作業エリア内で作業している間、上述した発光パターンに従って継続的に(繰り返し)発光する。すなわち、本実施形態において、図16に示す処理は、上述したように発光装置10(を装着する人物100)を追跡している間は繰り返し実行される。
 また、図16に示す処理ではステップS8において人物IDが正当でないと判定された場合にステップS9の処理が実行されないものとして説明したが、当該人物IDが正当でないと判定されるより前に実行された図16に示す処理において正当であると判定された人物IDが取得されている場合には、当該人物IDが動線管理画像に継続して付加されてもよい。一方、ステップS8において人物IDが正当でないと判定された場合において、当該人物IDが正当でないと判定されるより前に図16に示す処理において正当であると判定された人物IDが取得されていない場合には、解析中を表す文字列またはマーク等が動線管理画像に付加(表示)されてもよい。
 また、作業エリア内で作業する人物100の動作によっては、当該人物100に装着される発光装置10が隠れてしまい、当該発光装置10がカメラ200によって撮像できない場合がある。このように画像取得部21によって順次取得される画像において発光装置10の発光パターンが途切れた場合(つまり、上述した発光パターンにおいて単位時間よりも長い消灯期間が検出された場合)には、当該発光パターンについては一旦不読として処理し、再度ステップS1から処理が実行されるものとする。
 更に、本実施形態においては、上記したようにデータパターンは長い点灯は2つまでであり、ループ区切りパターンは長い点灯は1つまでとしている。これによれば、例えばデータパターンを読み取っている際に一瞬の途切れが発生した場合は、当該データパターンがループ区切りパターンであると誤って読み取られる可能性があるが、データパターンがループ区切りパターンであると誤って読み取られたとしても、誤った人物IDが取得されて画像に付加されるといった誤読にまでは発展しない。
 なお、図16に示す処理(つまり、発光パターンの読み取り)は発光パターンの途中から開始される場合があるが、本実施形態においては、このような場合であってもデータパターン及びループ区切りパターンと比較して容易に区別可能なデータ区切りパターンから読み取ることによって誤読等を防止することができる。
 また、図16に示す処理においてはループ区切りパターンにチェックデジットが含まれている場合について説明したが、当該ループ区切りパターンにチェックデジットが含まれていない場合には、ステップS5、S7及びS8の処理は省略されるものとする。
 ここで、画像処理装置20における発光装置10の発光パターンの読み取り時間とカメラ200のフレームレートについて説明する。
 ここでは、カメラ200のフレームレートが30fpsであり、発光装置10の発光パターンが1つのデータパターンと1つのループ区切りパターンと2つのデータ区切りパターンとを含む場合を想定する。データパターンは図6に示す第1のデータパターンであり、ループ区切りパターンは図9に示す第1のループ区切りパターンであり、データ区切りパターンは図15に示すデータ区切りパターンであるものとする。
 この場合、上記した第1のデータパターン、第1のループ区切りパターン及び2つのデータ区切りパターンを含む発光パターンは、最も遅くなる組み合わせであっても1.5秒程度の時間で読み取ることができる。
 上記したように本実施形態において、画像処理システムは、人物100に装着される発光装置10と、カメラ(撮像装置)200と接続される画像処理装置20とを備える。発光装置10は、発光装置10を装着する人物100を識別するための人物ID(識別データ)を表すデータパターンに従って、予め定められた単位時間毎に発光部11の点灯及び消灯を繰り返し制御する。画像処理装置20は、カメラ200によって撮像された人物100に装着される発光装置10を含む画像を取得し、当該取得された画像に含まれる発光装置10(に含まれる発光部11)の点灯及び消灯に基づいてデータパターンを読み取り、当該読み取られたデータパターンによって表される人物IDを取得し、当該取得された人物IDを画像に含まれる発光装置10の近傍に付加(表示)する。なお、データパターンにおいては、発光部11の消灯が連続することはなく、発光部11の消灯期間が短くなるような点滅をする。
 本実施形態においては、このような構成により、例えば作業エリア内で作業する人物100の動線を管理するような場合において、発光装置10(に含まれる発光部11)の消灯期間中に当該人物100を追跡することができなくなるような可能性を低減することが可能となるため、高い精度で人物100を検出(追跡)することが可能となる。また、本実施形態においては、発光装置10の発光パターンを画像上で読み取ることができればよいため、動線管理の対象となる作業エリアの範囲を広くするような場合であっても必要以上に発光装置10を大きくする必要はない。したがって、本実施形態において、人物100は小型の発光装置10を装着するのみでよく、当該人物100への負担を増加させることはない。
 また、本実施形態において、発光装置10の発光パターンは、上記したデータパターン以外に、チェックデジットを含むループ区切りパターンを含む。チェックデジットによれば、データパターンによって表される人物IDの正当性を確認することが可能となるため、誤読を防止することが可能となる。また、データ区切りパターンをデータパターン及びループ区切りパターンの間に配置することにより、当該データパターン及びループ区切りパターンの読み取り精度(読み取り率)を向上させることも可能である。
 なお、ループ区切りパターン及びデータ区切りパターンにおいても発光部11の消灯は連続しない構成により、上記した高い精度での人物100の検出を実現することができる。
 すなわち、本実施形態は、人物100に装着される発光装置10を用いて単なる光通信を行うのではなく、作業エリア内の人物100の動線を管理するという状況において当該発光装置10(の発光パターン)を当該人物100を識別するための人物IDとして認識するものであるから、当該人物100の検出精度(追跡性能)を向上させるために発光装置10の消灯期間を短くするという構成を採用したものである。
 本実施形態において、発光装置10の点灯及び消灯の単位時間の長さはカメラ200のフレームレートにおいて1フレームを処理するために必要な時間より長い時間であればよいが、上記したように発光装置10の消灯期間が短くなるようにするという観点によれば当該単位時間の長さは2~3フレームを処理するために必要な時間等とすることが好ましい。この単位時間の長さは、作業エリア内の環境(作業内容及び人物100の動線等)やカメラ200のフレームレート等に応じて適宜設定(変更)可能であるものとする。
 なお、本実施形態においては、上記したようにデータパターンを2つ組み合わせることによって例えば約1000種類の人物IDを表すことも可能であり、このようなデータパターンを含む発光パターンであっても数秒程度で読み取ることができる。
 更に、本実施形態においては、例えば人物100に装着された発光装置10がカメラ200から隠れてしまい、画像上で発光パターンが途切れた場合には、当該発光パターンについては一旦不読として処理する。これにより、本実施形態において誤読の可能性を更に低減することができる。
 また、上記したように本実施形態においては、発光装置10の消灯期間を短くすることにより追跡性能(トラッキング精度)を向上させているが、カメラ200のフレームレートを上げることが可能であれば更に追跡性能を向上させることも可能である。このようなフレームレートの向上は、追跡精度の向上だけでなく、発光パターンを読み取るまでの時間の短縮にも大きく寄与する重要なファクターである。本実施形態においては、発光装置10(に含まれる発光部11)の点滅が画像上で認識できればよいため、当該画像に対して高い解像度は要求されない。すなわち、発光装置10が強い光(赤外線)を発していれば、画像の解像度が低い場合であっても高い認識(検知)性能を実現することができる。
 なお、例えば複数の色彩の光を発するように構成され、当該複数の色彩の遷移(順番)で人物IDを表す発光装置(光源)を人物100に装着する手法も考えられるが、このような手法では、光源から発せられる光の強度が強すぎると画像上で色彩の遷移を読み取ることができない場合がある。また、この手法の場合には、例えば色彩のちらつきによる誤読の可能性があるため、作業エリア内の環境や人物100までの距離等に応じて光の強度(明るさ)を調整することが必要である。これに対して、本実施形態においては、赤外線を利用することにより、光源(発光装置10)から発せられる赤外線の強度は一定より大きければよい。このため、本実施形態においては、上記した複数の色彩(カラー)を利用した場合よりも、特に距離特性の向上とキャリブレーションの簡易化が期待できる。
 また、本実施形態において、発光装置10から発せられる光は単色の可視光であってもよいが、人の目で見ることができない赤外線を用いることにより、例えば眩しい等の作業エリア内で作業する人物100等に与える影響を低減することができる。
 なお、本実施形態においては便宜的にカメラ200が1つであるものとして説明したが、作業エリアの広さ等に応じて当該カメラ200が複数設けられていても構わない。この場合には、各カメラ200に画像処理装置20が接続されていてもよいし、当該全てのカメラ200に対して1つの画像処理装置20が接続されていてもよい。
 また、本実施形態に係る画像処理システムは、作業エリア内で作業する人物100の動線を管理するために使用されるものとして主に説明したが、特定の空間内に存在する人物の動線を管理するものであれば他の環境において使用されても構わない。
 (第2の実施形態)
 次に、本発明の第2の実施形態について説明する。なお、本実施形態に係る画像処理システムは、前述した第1の実施形態と同様に、作業エリア内で作業する人物100に装着される発光装置と、カメラ200と接続される画像処理装置とを備える。
 本実施形態は、発光装置とカメラ200とが無線通信を実行可能に構成されている点で、前述した第1の実施形態とは異なる。
 図17は、本実施形態に係る画像処理システムに備えられる発光装置500の機能構成の一例を示す。なお、前述した図2と同様の部分には同一参照符号を付してその詳しい説明を省略する。ここでは、図2と異なる部分について主に述べる。
 発光装置500は、前述した第1の実施形態における発光部11及び格納部12に加えて、通信部501及び制御部502を含む。
 通信部501は、カメラ200との無線通信を実行するように構成されたデバイスによって実現される機能部である。通信部501は、例えばBluetooth(登録商標) Low Energy(以下、BLEと表記)規格に基づく無線通信を実行する。BLEは、Bluetoothと比較して、より省電力性の高い通信規格である。
 制御部502は、例えばマイクロコンピュータ等によって実現される機能部である。制御部502は、上述した第1の実施形態における制御部13と同様に、格納部12に格納されている発光装置500の発光パターンに従って、予め定められた単位時間毎に発光部11の点灯及び消灯を繰り返し制御する。本実施形態において、制御部502は、通信部501を介して発光装置500がカメラ200と通信可能な状態である場合に、発光部11の点灯及び消灯を制御する。
 図18は、本実施形態に係る画像処理システムに備えられる画像処理装置600の機能構成の一例を示す。なお、前述した図3と同様の部分には同一参照符号を付してその詳しい説明を省略する。ここでは、図3と異なる部分について主に述べる。
 画像処理装置600は、前述した第1の実施形態における画像取得部21、格納部22、パターン読取部23、データ取得部24及び画像処理部25に加えて、制御部601を含む。
 制御部602は、発光装置500がカメラ200と通信可能な状態である場合に、カメラ200を介して発光装置500に対する指示を送信する。
 なお、上記したBLEの通信範囲は数m~数十m程度である。本実施形態に係る画像処理システムにおいて、発光装置500及びカメラ200は、例えば発光装置500(を装着する人物100)が作業エリア内に存在する(つまり、カメラ200によって撮像可能な位置に存在する)場合に互いに通信可能であるものとする。
 以下、本実施形態に係る画像処理システム(に備えられる発光装置500及び画像処理装置600)の動作について説明する。本実施形態においては、発光装置500及びカメラ200間でBLE規格に基づく無線通信が実行されることにより、画像処理システムの更なる特性の向上を実現する。
 ここでは、画像処理システムの更なる特性の向上を実現するために画像処理システムにおいて実行される処理として、第1~第7の処理について説明する。
 まず、第1の処理について説明する。前述した第1の実施形態における発光装置10と同様に、発光装置500が電池から供給される電力で駆動されるものとすると、当該発光装置500における電力消費量を削減することが好ましい。このため、第1の処理は、発光装置500の省電力化を実現することを目的とする。
 この第1の処理において、発光装置500に含まれる制御部502は、発光装置500がカメラ200と通信可能な状態である(つまり、発光装置500が作業エリア内に存在する)場合に発光部11を発光させる(発光装置500の発光パターンに従って発光部11の点灯及び消灯を繰り返し制御する)ものとする。
 この第1の処理によれば、発光装置500を装着する人物100が作業エリア内で作業していない場合には当該発光装置500は発光しない(つまり、動線を管理する必要がある場合にのみ発光する)ため、当該発光装置500の省電力化を実現することができる。
 次に、第2の処理について説明する。前述した第1の実施形態に係る画像処理システムにおいて、例えば2つのデータパターンを組み合わせた場合には約1000種類の人物IDを表すことが可能であると説明したが、データパターンを更に長くするまたは3つ以上のデータパターンを組み合わせることにより、更に多数の人物ID(識別データ)を表すことも可能である。しかしながら、この場合には画像処理装置20における当該データパターンを含む発光パターンの読み取り(認識)に時間がかかるため、動線管理に影響を及ぼす可能性がある。このため、第2の処理は、画像処理装置600における読み取り速度(認識速度)を向上させることを目的とする。
 この第2の処理では、画像処理装置600において読み取るためのデータパターンによって表される識別データ(以下、読取用IDと表記)と発光装置500を装着する人物100を識別するための人物IDとを分けて使用する。具体的には、発光装置500が画像処理装置600と通信可能である(つまり、発光装置500が作業エリア内に存在する)場合に、発光装置500に含まれる制御部502は、カメラ200を介して当該発光装置500を装着する人物100を識別するための人物IDを画像処理装置600に送信する。一方、画像処理装置600に含まれる制御部601は、読取用ID(を表すデータパターンに従った発光指示)をカメラ200を介して発光装置500に送信する。この場合、発光装置500に含まれる制御部502は、画像処理装置600によって送信された指示に基づいて読取用IDを表すデータパターンに従って発光するように発光部11を制御する。発光装置500(発光部11)の発光に基づいて読取用IDを表すデータパターンが画像処理装置600によって読み取られると、当該画像処理装置600に含まれる制御部601は、画像取得部21によって順次取得される画像(動画像)に含まれる発光装置500(を装着する人物100)の近傍に発光装置500によって送信された人物IDを付加する。なお、読取用IDを表すデータパターンは、人物IDを表すデータパターンと比較して短いものとする。
 このような第2の処理によれば、人物IDを表すデータパターンよりも短い読取用IDを表すデータパターンを画像処理装置600が読み取ることになるため、結果として当該画像処理装置600における読み取り速度を向上させることができる。
 なお、画像処理システムにおいて動線を管理する対象となる人物100が多数存在する場合であっても、1つのカメラ200によって同時に撮像される人物100の総数は多くはない。また、読取用IDは、カメラ200によって同時に撮像される複数の発光装置500(を装着する人物100)を識別可能であればよい。すなわち、第2の処理では、少ない読取用IDで様々な人物ID(識別データ)を検出(認識)ことが可能となる。
 また、第2の処理においては、撮像されるカメラ200(が設置される場所)毎に発光装置500の発光パターンを変更するようなことも可能であるため、人物IDの偽造等を防止することもできる。また、第2の処理においては、無線通信により発光装置500を装着する人物100を識別するための人物IDを画像処理装置600において事前に認識(取得)すること可能であるため、例えば特定の人物100に装着される発光装置500のみを発光させるような構成とすることも可能である。
 次に、第3の処理について説明する。前述した第1の実施形態に係る画像処理システムにおいては、発光装置10の消灯期間を短くすることで追跡性能を向上させているが、発光装置10の消灯期間が存在する以上、例えば発光装置10を装着する人物100の移動速度等によっては画像処理装置600において当該発光装置10を追跡することができない場合がある。このため、第3の処理は、画像処理装置600における追跡性能を向上させることを目的とする。
 この第3の処理では、画像処理装置600において一旦発光装置500の発光パターンが読み取られた場合に、画像処理装置600に含まれる制御部601は、当該発光装置500の発光パターンが読み取られたこと(つまり、データ取得部24によって人物IDが取得されたこと)をカメラ200を介して発光装置500に通知する。この場合、発光装置500に含まれる制御部502は、制御部601からの通知に応じて発光部11が常時(連続)点灯させる。
 この第3の処理によれば、一旦認識された発光装置500を消灯させないことにより、当該発光装置500に対する追跡性能を向上させることが可能となる。
 なお、上述した図4等において説明した発光装置500の位置を追跡する際に切り出される領域内に複数の発光装置500が位置する場合(例えば、画像上で複数の発光装置500が交差するような場合)には、当該複数の発光装置500の混同が発生してしまう。この場合には、画像処理装置600は混同が発生したために追跡ができなくなった旨をカメラ200を介して発光装置500に通知することにより、当該発光装置500を装着する人物IDを表すデータパターン(発光パターン)に従って当該発光装置500が発光するような制御を再開することができる。これによれば、再度発光装置500の追跡を開始することができる。
 次に、第4の処理について説明する。前述した第1の実施形態に係る画像処理システムにおいて、発光装置10を装着する人物100は、当該発光装置10の発光パターンが画像処理装置20によって読み取られているか否かを把握することはできない。このため、第4の処理は、画像処理装置600において発光装置500の発光パターンが読み取られていることを当該発光装置500を装着する人物100に通知することを目的とする。
 この第4の処理では、画像処理装置600において発光装置500の発光パターンが読み取られた場合、当該画像処理装置600に含まれる制御部601は、当該発光装置500の発光パターンが読み取られたこと(つまり、データ取得部24によって人物IDが取得されたこと)をカメラ200を介して発光装置500に通知する。この場合、発光装置500は、発光装置500の発光パターンが読み取られたことを当該発光装置500を装着する人物100に通知する。この人物100への通知(以下、読取通知と表記)は、例えば発光装置500においてブザー音を出力するまたは当該発光装置500を振動させる等によって行われる。
 なお、このような第4の処理によれば、例えば人物100が読取通知を受けてから作業エリア内に進入するようにすることができる。換言すれば、第4の処理によれば、発光装置500の発光パターンが読み取られていない段階で人物100が作業エリア内に進入し、当該作業エリア内に存在するにもかかわらず当該人物100を追跡できていないような時間帯をなくすことができる。
 次に、第5の処理について説明する。前述した第1の実施形態に係る画像処理システムにおいては、発光装置10の発光パターンにおいて繰り返し制御される点灯及び消灯の単位時間は一定である。しかしながら、各作業エリアを撮像するように複数のカメラ200が設置されているような場合には発光装置10を装着する人物100は当該複数のカメラ200によって撮像される可能性があり、当該複数のカメラ200の性能(例えば、フレームレート)が同一であるとは限らない。換言すれば、発光装置10における点灯及び消灯の単位時間が当該発光装置10(を装着する人物100)を撮像するカメラ200のフレームレートに対して適切でない場合があり、この場合には画像処理装置20における読み取り速度が低下してしまう(つまり、更に読み取り速度を向上できる)場合がある。このため、第5の処理は、画像処理装置600における読み取り速度を向上させることを目的とする。
 この第5の処理では、発光装置500がカメラ200と通信可能である(つまり、カメラ200によって撮像可能な位置に存在する)場合に、画像処理装置600に含まれる制御部601は、当該カメラ200を介して当該カメラ200のフレームレートを発光装置500に送信する。この場合、発光装置500に含まれる制御部502は、制御部601によって送信されたカメラ200のフレームレートに基づいて、発光装置500における点灯及び消灯の単位時間の設定を変更する(つまり、当該フレームレートに合わせた点滅間隔になるように最適化する)。具体的には、発光装置500における点灯及び消灯の単位時間は、制御部601によって送信されたカメラ200のフレームレートにおいて例えば2~3フレームを処理するために必要な時間に変更される。
 このような第5の処理によれば、カメラ200のフレームレートに適した単位時間で発光装置500の点灯及び消灯を制御することができるため、発光パターンの長さを短縮することができ、結果として画像処理装置600における読み取り速度を向上させることができる。
 次に、第6の処理について説明する。前述した第1の実施形態に係る画像処理システムにおいては、発光装置10に含まれる発光部11の発光強度(赤外線の強度)は一定である。しかしながら、発光装置10からカメラ200までの距離が遠い場合には、赤外線の強度を上げた方が画像処理装置600における発光パターンの読み取り(認識)率は向上する。このため、第6の処理は、画像処理装置600における読み取り精度を向上させることを目的とする。
 ここで、本実施形態におけるBLE規格に基づく無線通信の場合、通信の電波の強度から通信相手先までの距離を算出(試算)することができる。したがって、第6の処理において、発光装置500に含まれる制御部502は、BLE規格に基づく無線通信の電波の強度からカメラ200までの距離を算出し、当該距離に基づいて発光部11による発光強度を変更(補正)する。具体的には、制御部502は、カメラ200までの距離が遠い場合には発光部11による発光強度を上げるような補正を行う。
 このような第6の処理によれば、カメラ200までの距離に応じた適切な発光強度で発光部11を発光させることが可能となるため、画像処理装置600における読み取り精度を向上させることができる。また、第6の処理においては、カメラ200までの距離が近い場合には発光部11による発光強度を下げるような補正を行うことも可能であるので、発光装置500の省電力化を図ることも可能である。
 次に、第7の処理について説明する。前述した第1の実施形態に係る画像処理システムにおいて、画像処理装置20は、発光装置10に含まれる発光部11の発光パターンの開始タイミング等を把握することはできないため、データパターン及びループ区切りパターンについて誤読してしまう可能性がある。このため、第7の処理は、画像処理装置600における誤読を防止することを目的とする。
 この第7の処理では、発光装置10において発光部11を発光させる際に、当該発光装置10に含まれる制御部502は、カメラ200を介して発光部11の発光パターンの開始タイミング(つまり、発光部11の点灯及び消灯を繰り返し制御するタイミング)等を画像処理装置600に通知する。この場合、画像処理装置600に含まれるパターン読取部23は、制御部502からの通知に基づいて発光パターン(データパターン、ループ区切りパターン)を読み取ることができる。
 このような第7の処理によれば、画像処理装置600は発光部11の発光パターンの開始タイミング等を把握すること可能であるため、予め定められているデータパターン及びループ区切りパターン等の順序を考慮することによって誤読の可能性を低減させることが可能となる。
 上記したように本実施形態においては、発光装置500及びカメラ200間でBLE規格に基づく無線通信を実行することにより、画像処理システムの更なる特性の向上を実現することができる。
 上記した第1~第7の処理は一例であり、発光装置500及びカメラ200間の無線通信に基づいて他の処理が実行されても構わない。
 また、本実施形態に係る画像処理装置600においては、第1~第7の処理のうちの少なくとも1つの処理が実行されるが、例えば当該第1~第7の処理のうちの2つ以上の処理を組み合わせて実行しても構わない。
 なお、本実施形態においては発光装置500及びカメラ200間でBLE規格に基づく無線通信が実行されるものとして説明したが、当該発光装置500及びカメラ200間で相互通信可能であれば、他の通信規格(例えば、Wi-Fi(登録商標))等に基づく無線通信が実行されても構わない。
 なお、本願発明は、上記実施形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化できる。また、上記実施形態に開示されている複数の構成要素の適宜な組合せにより種々の発明を形成できる。例えば、実施形態に示される全構成要素から幾つかの構成要素を削除してもよい。更に、異なる実施形態に亘る構成要素を適宜組合せてもよい。 
 10,500…発光装置、20,600…画像処理装置、100…人物、200…カメラ(撮像装置)、11…発光部、12…格納部、13,502…制御部、21…画像取得部、22…格納部、23…パターン読取部、24…データ取得部、25…画像処理部、501…通信部、601…制御部。

Claims (19)

  1.  人物に装着される発光装置と、撮像装置と接続される画像処理装置とを備える画像処理システムにおいて、
     前記発光装置は、
     発光手段と、
     前記発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を繰り返し制御する制御手段と
     を含み、
     前記画像処理装置は、
     前記撮像装置によって撮像された前記発光装置を含む画像を順次取得する画像取得手段と、
     前記取得された画像に含まれる発光装置に含まれる発光手段の点灯及び消灯に基づいて前記データパターンを読み取る読取手段と、
     前記読み取られたデータパターンによって表される識別データを取得するデータ取得手段と、
     前記取得された識別データを、前記取得された画像に含まれる発光装置の近傍に付加する画像処理手段と
     を含み、
     前記データパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とする画像処理システム。
  2.  前記制御手段は、前記データ取得手段によって取得される識別データの正当性を確認するためのチェックデジットを含むループ区切りパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を更に繰り返し制御し、
     前記読取手段は、前記取得された画像に含まれる発光装置に含まれる発光装置の点灯及び消灯に基づいて前記ループ区切りパターンを更に読み取り、
     前記画像処理装置は、前記読み取られたループ区切りパターンに含まれるチェックデジットに基づいて前記取得された識別データの正当性を確認するチェック処理手段を更に含み、
     前記ループ区切りパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とする請求項1記載の画像処理システム。
  3.  前記制御手段は、前記データパターンに従った前記発光手段の点灯及び消灯の繰り返し制御と、前記ループ区切りパターンに従った前記発光手段の点灯及び消灯の繰り返し制御との間に、当該データパターンと当該ループ区切りパターンとを区別するためのデータ区切りパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を更に繰り返し制御し、
     前記読取手段は、前記取得された画像に含まれる発光装置に含まれる発光装置の点灯及び消灯に基づいて前記データ区切りパターンを更に読み取り、
     前記データ区切りパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とする請求項2記載の画像処理システム。
  4.  前記データパターンに従った前記発光手段の点灯及び消灯の繰り返し制御、前記ループ区切りパターンに従った前記発光手段の点灯及び消灯の繰り返し制御、及び前記データ区切りパターンに従った前記発光手段の点灯及び消灯の繰り返し制御は、ループするように繰り返されることを特徴とする請求項3記載の画像処理システム。
  5.  前記発光手段は、赤外光を発光することを特徴とする請求項1~4のいずれか1項に記載の画像処理システム。
  6.  前記予め定められた単位時間は、前記撮像装置のフレームレートに基づいて定められていることを特徴とする請求項1~5のいずれか1項に記載の画像処理システム。
  7.  前記発光装置は、前記撮像装置との無線通信を実行する通信手段を更に含み、
     前記制御手段は、前記発光装置が前記撮像装置と通信可能な状態である場合に、前記発光手段の点灯及び消灯を繰り返し制御する
     ことを特徴とする請求項1記載の画像処理システム。
  8.  前記発光装置は、前記撮像装置との無線通信を実行する通信手段を含み、
     前記通信手段は、前記撮像装置を介して前記発光装置を装着する人物を識別するための識別データを前記画像処理装置に送信し、
     前記制御手段は、前記発光装置を装着する人物を識別するための識別データの代わりに、前記撮像装置を介して前記画像処理装置によって指示された読取用の識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を繰り返し制御し、
     前記画像処理手段は、前記データ取得手段によって前記読取用の識別データが取得された場合、前記送信された識別データを、前記取得された画像に含まれる発光装置の近傍に付加する
     ことを特徴とする請求項1記載の画像処理システム。
  9.  前記発光装置は、前記撮像装置との無線通信を実行する通信手段を含み、
     前記画像処理装置は、前記撮像装置を介して前記データ取得手段によって識別データが取得されたことを前記発光装置に通知し、
     前記制御手段は、前記画像処理装置からの通知に応じて、前記発光手段を連続点灯させる
     ことを特徴とする請求項1記載の画像処理システム。
  10.  前記発光装置は、前記撮像装置との無線通信を実行する通信手段を含み、
     前記画像処理装置は、前記撮像装置を介して前記データ取得手段によって識別データが取得されたことを前記発光装置に通知し、
     前記制御手段は、前記画像処理装置からの通知に応じて、前記データ取得手段によって識別データが取得されたことを前記発光装置を装着する人物に通知する
     ことを特徴とする請求項1記載の画像処理システム。
  11.  前記発光装置は、前記撮像装置との無線通信を実行する通信手段を含み、
     前記画像処理装置は、前記撮像装置を介して当該撮像装置のフレームレートを前記発光装置に送信し、
     前記制御手段は、前記送信されたフレームレートに基づいて、前記単位時間を変更する
     ことを特徴とする請求項1記載の画像処理システム。
  12.  前記発光装置は、前記撮像装置との無線通信を実行する通信手段を含み、
     前記制御手段は、前記無線通信の電波の強度から前記撮像装置までの距離を算出し、当該距離に基づいて前記発光手段による発光強度を変更する
     ことを特徴とする請求項1記載の画像処理システム。
  13.  前記発光装置は、前記撮像装置との無線通信を実行する通信手段を含み、
     前記制御手段は、前記撮像装置を介して前記発光手段の点灯及び消灯を繰り返し制御するタイミングを前記画像処理装置に通知し、
     前記読取手段は、前記制御手段からの通知に基づいて前記データパターンを読み取る
     ことを特徴とする請求項1記載の画像処理システム。
  14.  前記発光装置と前記撮像装置との間の無線通信は、Bluetooth Low Energy規格に基づく通信を含むことを特徴とする請求項7~13のいずれか1項に記載の画像処理システム。
  15.  人物に装着される発光装置において、
     発光手段と、
     前記発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を繰り返し制御する制御手段と
     を具備し、
     前記データパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とする発光装置。
  16.  人物に装着される発光装置であって、発光手段と、前記発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を繰り返し制御する制御手段とを含む発光装置を撮像可能な撮像装置と接続される画像処理装置において、
     前記撮像装置によって撮像された前記発光装置を含む画像を順次取得するデータ取得手段と、
     前記取得された画像に含まれる発光装置に含まれる発光手段の点灯及び消灯に基づいて前記データパターンを読み取る読取手段と、
     前記読み取られたデータパターンによって表される識別データを取得するデータ取得手段と、
     前記取得された識別データを、前記取得された画像に含まれる発光装置の近傍に付加する画像処理手段と
     を具備し、
     前記データパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とする画像処理装置。
  17.  人物に装着される発光装置と、撮像装置と接続される画像処理装置とを備える画像処理システムが実行する画像処理方法であって、
     前記発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光装置に含まれる発光手段の点灯及び消灯を繰り返し制御するステップと、
     前記撮像装置によって撮像された前記発光装置を含む画像を順次取得するステップと、 前記取得された画像に含まれる発光装置に含まれる発光手段の点灯及び消灯に基づいて前記データパターンを読み取るステップと、
     前記読み取られたデータパターンによって表される識別データを取得するステップと、 前記取得された識別データを、前記取得された画像に含まれる発光装置の近傍に付加するステップと
     を具備し、
     前記データパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とする画像処理方法。
  18.  人物に装着される発光装置が実行する発光方法であって、
     前記発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光装置に含まれる発光手段の点灯及び消灯を繰り返し制御するステップを具備し、
     前記データパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とする発光方法。
  19.  人物に装着される発光装置であって、発光手段と、前記発光装置を装着する人物を識別するための識別データを表すデータパターンに従って、予め定められた単位時間毎に前記発光手段の点灯及び消灯を繰り返し制御する制御手段とを含む発光装置を撮像可能な撮像装置と接続される画像処理装置のコンピュータによって実行されるプログラムであって、
     前記コンピュータに、
     前記撮像装置によって撮像された前記発光装置を含む画像を順次取得するステップと、
     前記取得された識別データを、前記取得された画像に含まれる発光装置の近傍に付加するステップと
     を実行させ、
     前記データパターンにおいて、前記発光手段の消灯は連続しない
     ことを特徴とするプログラム。
PCT/JP2015/077136 2015-07-22 2015-09-25 画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラム WO2017013811A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-144943 2015-07-22
JP2015144943A JP5928969B1 (ja) 2015-07-22 2015-07-22 画像処理システム、発光装置、画像処理方法及び発光方法

Publications (1)

Publication Number Publication Date
WO2017013811A1 true WO2017013811A1 (ja) 2017-01-26

Family

ID=56089787

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/077136 WO2017013811A1 (ja) 2015-07-22 2015-09-25 画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラム

Country Status (2)

Country Link
JP (1) JP5928969B1 (ja)
WO (1) WO2017013811A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7404809B2 (ja) 2019-11-25 2023-12-26 Toppanホールディングス株式会社 位置検出システム、位置検出装置及び位置検出方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6874734B2 (ja) * 2018-04-23 2021-05-19 オムロン株式会社 タグ通信装置およびその制御方法、ならびに制御プログラム
JP7452072B2 (ja) 2020-02-19 2024-03-19 富士フイルムビジネスイノベーション株式会社 発光装置認識システムおよび発光装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916859A (ja) * 1995-06-28 1997-01-17 Tec Corp 状態表示装置
JP2005182340A (ja) * 2003-12-18 2005-07-07 Nec Infrontia Corp 進入者管理システム及び不審進入者の検出方法
JP2006033329A (ja) * 2004-07-15 2006-02-02 Advanced Telecommunication Research Institute International 光学マーカシステム
JP2007240295A (ja) * 2006-03-08 2007-09-20 Advanced Telecommunication Research Institute International 位置推定装置、位置推定方法及び位置推定プログラム
JP2008269507A (ja) * 2007-04-25 2008-11-06 Totoku Electric Co Ltd 通過管理方法およびシステム
JP2009065586A (ja) * 2007-09-10 2009-03-26 Hitachi Ltd 車載カメラ
JP2010015258A (ja) * 2008-07-01 2010-01-21 Sony Corp 監視システム、情報処理装置及び情報処理方法、並びにプログラム
JP2010081101A (ja) * 2008-09-24 2010-04-08 Toshiba Tec Corp 機器使用制限システム
JP2012093837A (ja) * 2010-10-25 2012-05-17 Takenaka Komuten Co Ltd 監視支援システム及びプログラム
JP2013029668A (ja) * 2011-07-28 2013-02-07 Nikon Corp 照明制御装置、照明機器および照明制御装置の制御プログラム

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0916859A (ja) * 1995-06-28 1997-01-17 Tec Corp 状態表示装置
JP2005182340A (ja) * 2003-12-18 2005-07-07 Nec Infrontia Corp 進入者管理システム及び不審進入者の検出方法
JP2006033329A (ja) * 2004-07-15 2006-02-02 Advanced Telecommunication Research Institute International 光学マーカシステム
JP2007240295A (ja) * 2006-03-08 2007-09-20 Advanced Telecommunication Research Institute International 位置推定装置、位置推定方法及び位置推定プログラム
JP2008269507A (ja) * 2007-04-25 2008-11-06 Totoku Electric Co Ltd 通過管理方法およびシステム
JP2009065586A (ja) * 2007-09-10 2009-03-26 Hitachi Ltd 車載カメラ
JP2010015258A (ja) * 2008-07-01 2010-01-21 Sony Corp 監視システム、情報処理装置及び情報処理方法、並びにプログラム
JP2010081101A (ja) * 2008-09-24 2010-04-08 Toshiba Tec Corp 機器使用制限システム
JP2012093837A (ja) * 2010-10-25 2012-05-17 Takenaka Komuten Co Ltd 監視支援システム及びプログラム
JP2013029668A (ja) * 2011-07-28 2013-02-07 Nikon Corp 照明制御装置、照明機器および照明制御装置の制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7404809B2 (ja) 2019-11-25 2023-12-26 Toppanホールディングス株式会社 位置検出システム、位置検出装置及び位置検出方法

Also Published As

Publication number Publication date
JP2017028495A (ja) 2017-02-02
JP5928969B1 (ja) 2016-06-01

Similar Documents

Publication Publication Date Title
US20210153746A1 (en) Systems and methods for video-based monitoring of a patient
EP3192328B1 (en) Method determining the suitable lighting for an activity.
JP5928969B1 (ja) 画像処理システム、発光装置、画像処理方法及び発光方法
WO2014108784A2 (en) Enabling a user to control coded light sources
CN108292357B (zh) 图像处理系统
KR101189209B1 (ko) 위치 인식 장치 및 그 방법
JP2011192236A (ja) タグ認識システム、タグ認識装置およびタグ認識方法
KR101906671B1 (ko) 어신감지기능을 갖는 전자케미 및 이를 이용한 어신감지시스템
JP2017028673A (ja) 画像処理システム、発光装置、画像処理装置、画像処理方法、発光方法及びプログラム
CN103793045A (zh) 瞳孔追踪装置
JP6612853B2 (ja) 遠隔制御装置、ユーザ装置、システム、方法、コンピュータ・プログラム、識別信号
CN110024307A (zh) 可见光通信检测和/或解码
GB2589080A (en) Surveillance system
US10389444B2 (en) Image processing apparatus, image processing system, image processing method, and recording medium
US11877098B2 (en) Information processing apparatus, lighting device, and non-transitory computer readable medium storing program
US20160253888A1 (en) Smoke detection device, method for detecting at least one smoke detection feature, and computer program
JP7452072B2 (ja) 発光装置認識システムおよび発光装置
JP2022003183A (ja) 衣類用装備および方法
JP6747390B2 (ja) 撮影制御装置、車両用撮影装置、撮影制御方法およびプログラム
JP2005252399A (ja) 光学タグシステム
JP6888250B2 (ja) 画像処理装置、測定装置、画像処理システム、画像処理方法及びプログラム
KR102654351B1 (ko) 피난 유도 시스템
JPWO2016051468A1 (ja) 列車監視システム
TWI640222B (zh) 燈光調節系統及方法
WO2023242337A1 (en) System and method for detecting a fall of a person

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15898969

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15898969

Country of ref document: EP

Kind code of ref document: A1