WO2017022435A1 - 画像認識システム - Google Patents

画像認識システム Download PDF

Info

Publication number
WO2017022435A1
WO2017022435A1 PCT/JP2016/070630 JP2016070630W WO2017022435A1 WO 2017022435 A1 WO2017022435 A1 WO 2017022435A1 JP 2016070630 W JP2016070630 W JP 2016070630W WO 2017022435 A1 WO2017022435 A1 WO 2017022435A1
Authority
WO
WIPO (PCT)
Prior art keywords
image recognition
image
recognition system
camera
room
Prior art date
Application number
PCT/JP2016/070630
Other languages
English (en)
French (fr)
Inventor
和田 滋
木戸 稔人
塩田 奈津子
楠田 将之
Original Assignee
コニカミノルタ株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by コニカミノルタ株式会社 filed Critical コニカミノルタ株式会社
Priority to JP2017502278A priority Critical patent/JP6119946B1/ja
Publication of WO2017022435A1 publication Critical patent/WO2017022435A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/67Focus control based on electronic image sensor signals
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B25/00Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems
    • G08B25/01Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium
    • G08B25/04Alarm systems in which the location of the alarm condition is signalled to a central station, e.g. fire or police telegraphic systems characterised by the transmission medium using a single signalling line, e.g. in a closed loop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Definitions

  • the present invention relates to an image recognition system used for indoor motion detection.
  • a monitoring system has been proposed to detect abnormalities in the health status of people spending time in nursing homes and hospitals.
  • a person (caregiver) who spends in a care facility or a hospital may easily cause an abnormality such as a fall in a room or a fall from a bed.
  • the watching system captures a room including a cared person with a camera and recognizes the state and operation of the cared person through image recognition.
  • An image recognition camera used in the watching system may be installed on the ceiling with a super wide angle lens or fisheye lens attached. Such a camera can take a picture of the entire room including the cared person from above, without blind spots.
  • An example of a conventional technique related to a camera for recognizing an image from a viewpoint directly above is disclosed in Patent Document 1.
  • the human body detection apparatus described in Patent Document 1 includes a camera that is attached to the ceiling of a room and images a floor surface, and a detection area determination unit that detects the presence and operation of a monitored person. Then, when it is recognized that the monitored person is in a predetermined state in a predetermined area based on the detection result, a notification that an abnormality has occurred is issued. Thereby, it becomes possible to cope with various behavior patterns of the monitored person.
  • the ceiling height of a general residence is, for example, 2.4 m.
  • the size of the nursing care facility is regulated by laws and regulations.
  • the nursing care room in the pay nursing home is a private room of 13m 2 or more (equivalent to 10 tatami mats), the multi-bed room in the nursing home is 10.65m 2 , and the care house is 21. and it has a 6m 2.
  • the distance to the corner of the floor of the room will be about 4m. This is the maximum subject distance, and the field angle covering the floor is required to be 127 °.
  • Super wide-angle lenses and fish-eye lenses that satisfy this angle of view have a wide angle of view, so that the image quality at the periphery of a normal image tends to deteriorate compared to the center.
  • the image captured by the overhead viewpoint camera has an actual distance of the subject at the periphery on the screen that is farther than the center, there is a difference that the same subject appears small and dark.
  • the camera for image recognition is different in characteristics and specifications from general surveillance cameras and network cameras.
  • a surveillance camera or a network camera it is a good image that it looks good for human eyes and is regarded as important.
  • an image that can obtain high image recognition accuracy is regarded as important.
  • an image that emphasizes the image quality at the center of the screen is required, but for image recognition cameras, high recognition accuracy is obtained regardless of the position on the screen. Images to be created.
  • image recognition is shape recognition.
  • the contour of an object is extracted and the shape is determined by a technique such as pattern matching.
  • SNR signal-to-noise ratio
  • illumination related to imaging since a general surveillance camera is usually installed at a corner of a ceiling that can secure a field of view with a narrow viewing angle and is inconspicuous, the illumination is often distributed around the center of the optical axis of the camera. However, in this case, a blind spot occurs below the camera.
  • the focus range of general surveillance cameras and network cameras is often in the range from about 0.5 m to infinity, and the focus is in a wide range from near to far. desired. In many cases, the best focus position is set to a distance of about 1 m.
  • the present invention has been made in view of the above points, and provides an image recognition system capable of improving image recognition accuracy by devising lighting light distribution in an image recognition system used for indoor moving object detection.
  • the purpose is to do.
  • the present invention provides an image recognition system used for indoor moving object detection, a camera that is arranged on a ceiling of a room and that captures an image of a viewpoint directly above the viewing direction, and the camera captures the image.
  • An image recognition unit that performs image recognition processing on the image data, and the camera captures an image suitable for the image recognition processing at a peripheral portion of the floor of the room in the image data.
  • the present invention it is possible to project a recognition target object relatively large in the center portion of the image directly above the viewpoint, and shape recognition is easy. Furthermore, it is possible to improve the shape recognition accuracy of the recognition target object that appears relatively small in the peripheral portion of the image at the viewpoint directly above. Therefore, it is possible to improve the image recognition accuracy as a whole with respect to the image of the viewpoint immediately above.
  • 1 is a schematic configuration diagram of a watching system that is an application example of an image recognition system according to a first embodiment of the present invention.
  • 1 is a perspective view of a room in which a moving object detection device equipped with an image recognition system according to a first embodiment of the present invention is arranged.
  • 1 is a block diagram of a moving object detection device equipped with an image recognition system according to a first embodiment of the present invention.
  • 1 is a block diagram of an image recognition system according to a first embodiment of the present invention. It is explanatory drawing which shows the image which the image recognition system concerning 1st Embodiment of this invention imaged. It is an indoor perspective view which shows the light distribution of the illumination of the image recognition system which concerns on 1st Embodiment of this invention.
  • FIG. 1 is a schematic configuration diagram of a watching system.
  • 2 and 3 are a perspective view of a room in which a moving object detection device equipped with an image recognition system is arranged, and a block diagram of the moving object detection device.
  • the watching system 1 is installed in a nursing facility as shown in FIG. 1, for example.
  • the care facility includes a staff station 100, a living room 101, and a wired LAN (Local Area Network) 300, for example.
  • LAN Local Area Network
  • the living room 101 shown in FIG. 1 is two rooms, you may provide many more living rooms.
  • the staff station 100 is a so-called stuffing station for caregivers who support the lives of the cared people who spend at the care facilities.
  • a bed 102 used by a care recipient is installed in the living room 101.
  • one bed 102 is installed in each of the living rooms 101 shown in FIG. 1, when two or more care recipients move into the living room 101, a plurality of beds 102 corresponding to each of the care receivers are installed. Is done.
  • the wired LAN 300 is installed for communication between the staff station 100 and the living room 101.
  • a wireless LAN may be installed instead of the wired LAN 300.
  • the watching system 1 includes a server device 2 and a moving object detection device 10.
  • the server device 2 is installed in the staff station 100 and connected to the wired LAN 300 so as to be communicable.
  • the server device 2 can also be controlled remotely.
  • the server device 2 receives various signals from the moving body detection device 10 and performs signal processing to notify the caregivers and nurses of the facility of the health status of the care recipient.
  • the server device 2 includes a display unit 5 as an example of a notification unit.
  • the display unit 5 includes a display device used in a computer such as a display.
  • the display unit 5 displays the indoor image of the living room 101 received from the moving object detection apparatus 10, the biological information of the care recipient, and the like.
  • the display unit 5 may be a display device such as a portable terminal that is owned by a caregiver and linked to the server device 2.
  • the moving object detection apparatus 10 is installed in the ceiling part 101a of each living room 101 as shown in FIGS. 1 and 2, and is communicably connected to the wired LAN 300. As shown in FIG. 3, the moving body detection apparatus 10 includes an image recognition system 20, a radio wave detection unit 11, and a main control unit 12.
  • the image recognition system 20 includes an optical detection unit 30, an image recognition unit 21, and an illumination unit 22 for detecting the state of the care recipient by video.
  • the image recognition unit 21 is configured to belong to the main control unit 12, but may be configured separately from the main control unit 12. Details of the image recognition system 20 will be described later.
  • the radio wave detection unit 11 is composed of a microwave Doppler sensor for individually detecting biological information of a cared person by emitting and receiving radio waves.
  • the radio wave detection unit 11 includes a radiation unit and a reception unit (not shown).
  • the radio wave detection unit 11 radiates a microwave of 24 GHz toward the bed in each room, and receives the Doppler-shifted reflected wave reflected by the care recipient.
  • the radio wave detector 11 detects the care recipient's breathing state and heart rate from the reflected wave.
  • the main control unit 12 includes a calculation unit, a storage unit, and other electronic components (not shown), and receives information from the image recognition system 20 and the radio wave detection unit 11 based on programs and data stored and input in advance in the storage unit. In addition, the image processing and signal processing related to the detection of the state of the cared person are realized by controlling the operation of these components.
  • the main control unit 12 includes an information processing unit 13 and an interface unit 14.
  • the information processing unit 13 receives outputs from the image recognition system 20 and the radio wave detection unit 11.
  • the information processing unit 13 performs information processing on the shape data received from the image recognition system 20 and detects the state of the care recipient from the video.
  • the information processing unit 13 performs signal processing on the microwave data received from the radio wave detection unit 11, and detects the state of the care recipient from the microwave.
  • a network cable (not shown) of the wired LAN 300 is electrically connected to the interface unit 14.
  • Information relating to the status of the cared person detected by the moving object detection device 10 based on the video and microwaves is transmitted to the management server 2 via the interface unit 14 and the wired LAN 300.
  • the management server 2 displays information related to the status of the cared person received from the motion detection device 10 on the display unit 5 that the management server 2 has, or transmits the information to a mobile terminal (not shown) owned by the carer. .
  • FIG. 4 is a block diagram of the image recognition system 20.
  • FIG. 5 is an explanatory diagram showing an image captured by the image recognition system 20.
  • FIG. 6 is an indoor perspective view showing the light distribution of the illumination of the image recognition system 20.
  • the image recognition system 20 includes an optical detection unit 30, an image recognition unit 21, and an illumination unit 22 shown in FIG.
  • the optical detection unit 30 is configured by a camera for detecting the state of the care recipient by video.
  • the optical detection unit 30 is located in the center of the ceiling 101a of the living room 101 and captures an image of a viewpoint directly above the viewing direction (see FIG. 5), and detects the care receiver's getting up, getting out of bed, falling, etc. by video. To do.
  • the optical detection unit 30 includes a lens 31, an imaging unit 32, an AD conversion unit 33, an image processing unit 34, and a control calculation unit 35.
  • the lens 31 is composed of, for example, a general super wide angle lens or a fisheye lens.
  • the lens 31 is a fixed focus lens, for example, and is composed of a super wide angle lens having a diagonal field angle of 150 ° or more. Thereby, as shown in FIG. 5, it is possible to image the entire living room 101.
  • the imaging unit 32 includes an imaging element such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
  • the IR cut filter is removed from the imaging unit 32 so that the state of the cared person can be detected as an image even in a dark environment.
  • a signal output from the imaging unit 32 is input to the AD conversion unit 33.
  • the AD conversion unit 33 receives an analog image signal of the image captured by the imaging unit 32. Then, the AD conversion unit 33 converts the analog image signal into a digital image signal. The digital image signal output from the AD conversion unit 33 is input to the image processing unit 34.
  • the image processing unit 34 receives the digital image signal converted by the AD conversion unit 33. Then, the image processing unit 34 performs image processing such as black correction, noise correction, color interpolation, and white balance on the digital image signal. A signal after image processing output from the image processing unit 34 is input to the image recognition unit 21.
  • the control calculation unit 35 executes calculation such as AE (Automatic Exposure) related to the control of the imaging unit 32 and controls the imaging unit 32 such as exposure time and gain. Further, calculations such as suitable light amount setting and light distribution setting are executed for the illumination unit 22 and control is executed.
  • AE Automatic Exposure
  • the image recognition unit 21 receives a signal after the image processing unit 34 executes the image processing. Then, the image recognition unit 21 executes, for example, an image recognition process for extracting the contour of the object and recognizing the shape by a method such as pattern matching. The shape data recognized by the image recognition unit 21 is sent to the information processing unit 13, and the state of the care recipient is detected based on the shape data.
  • the illumination unit 22 includes, for example, a near infrared light LED (LightLEDEmitting Diode) or the like, and is disposed adjacent to the optical detection unit 30.
  • the illumination unit 22 is provided with a plurality of different light irradiation directions. Thereby, the illumination part 22 is arrange
  • the illumination part 22 illuminates over the whole area of the floor surface 101b of the living room 101 as shown in FIG.5 and FIG.6, and the illumination optical axis 22x extends toward the peripheral part Ra of the floor surface 101b.
  • the peripheral portion Ra of the floor surface 101b is not limited to the region shown in FIGS. 5 and 6 and may be a wider region.
  • the illuminating unit 22 illuminates so that the region where the maximum illuminance can be obtained is a region directly below the optical detection unit 30, that is, not the central portion Rc of the floor surface 101b.
  • the dynamic range of the image sensor may be narrowed.
  • the amount of light by illumination is appropriate on the floor surface 101b of the living room 101, in the case of the living room 101 having a size equivalent to 10 tatami mats, the illuminance becomes higher than necessary at the height of the bed 102, and the influence of noise is affected. May be easier to receive.
  • the illuminating unit 22 illuminates so that the illuminance difference on the floor surface 101b is within 1/3 of the dynamic range of the image sensor that constitutes the image capturing unit 32.
  • the dynamic range of a general CMOS image sensor is about 60 dB
  • FIG. 7 is a perspective view of the room showing the light distribution of the illumination of the image recognition system. Since the basic configuration of this embodiment is the same as that of the first embodiment described above, the same reference numerals or the same names as those in the first embodiment are assigned to the same constituent elements as those of the first embodiment, and the description thereof is omitted. May be omitted.
  • the illumination unit 22 is arranged at the center of the ceiling 101a of the living room 101 to illuminate the entire area of the floor surface 101b and to the peripheral portion Ra of the floor surface 101b.
  • the illumination optical axis 22x extends toward the front.
  • the illumination optical axis 22x means the central axis of the spread of light irradiated by the illumination unit 22.
  • the height from the floor surface 101b of the living room 101 to the ceiling 101a is H
  • the distance from the lighting unit 22 to the nearest side wall 101c of the living room 101 is W
  • the illumination optical axis 22x with respect to the perpendicular V passing through the lighting unit 22 The inclination angle is ⁇ , and arctan (H / W) ⁇ ⁇ ⁇ 90 °.
  • the illumination optical axis 22x of the illumination part 22 may extend toward the side wall 101c of the living room 101.
  • the image recognition system 20 includes the optical detection unit 30 that is a camera that is arranged on the ceiling 101a of the living room 101 and captures an image of a viewpoint directly above the viewing direction.
  • An image recognition unit 21 that performs image recognition processing on image data captured by the detection unit 30.
  • the optical detection unit 30 captures an image suitable for image recognition processing in the peripheral portion Ra of the floor surface 101b of the living room 101 in the image data.
  • the image recognition system 20 is disposed on the ceiling 101a of the living room 101 and covers the entire area of the floor surface 101b of the living room 101.
  • An illuminating unit 22 is provided that illuminates and has an illumination optical axis 22x extending toward the peripheral portion Ra of the floor surface 101b.
  • the illuminance decreases in the central portion Rc of the floor surface 101b, but the illuminance increases in the peripheral portion Ra, as compared with the case where illumination is performed toward the central portion of the floor surface 101b. Since the recognition target object is relatively large in the central portion Rc of the image directly above, the shape can be easily recognized even if some noise is generated. On the other hand, although the recognition target object appears relatively small in the peripheral portion Ra in the image directly above, the generation of noise can be suppressed by increasing the illuminance, and the shape recognition accuracy can be improved. Therefore, it is possible to improve the image recognition accuracy as a whole with respect to the image of the viewpoint immediately above.
  • the illumination unit 22 of the first and second embodiments illuminates so that the region where the maximum illuminance is obtained is a region that is not directly under the optical detection unit 30.
  • the illumination optical axis 22x of the illumination unit 22 can extend toward the peripheral portion Ra of the floor surface 101b. Therefore, a configuration capable of improving the image recognition accuracy in the peripheral portion Ra of the floor surface 101b can be easily obtained.
  • the height from the floor surface 101b of the living room 101 to the ceiling 101a is H
  • the distance from the lighting unit 22 to the nearest side wall 101c of the living room 101 is W
  • the inclination angle of the illumination optical axis 22x with respect to the perpendicular V passing through 22 is ⁇
  • the illumination optical axis 22x of the illumination unit 22 can extend toward the side wall 101c which is the peripheral portion Ra of the floor surface 101b. Therefore, a configuration capable of improving the image recognition accuracy in the peripheral portion Ra of the floor surface 101b can be easily obtained.
  • the illumination unit 22 of the first and second embodiments illuminates so that the illuminance difference on the floor surface 101b is within 1/3 of the dynamic range of the image sensor that constitutes the image capture unit 32 of the optical detection unit 30.
  • FIG. 8 is a block diagram of the image recognition system.
  • FIG. 9 is an explanatory diagram showing an image captured by the image recognition system.
  • FIG. 10 is an indoor perspective view showing the best focus position of the optical detection unit of the image recognition system.
  • FIG. 11 is an explanatory diagram showing the relationship between the recognition object existence range, the focusing range, and the best focus position of the image recognition system. Since the basic configuration of this embodiment is the same as that of the first embodiment described above, the same reference numerals or the same names as those in the first embodiment are assigned to the same constituent elements as those of the first embodiment, and the description thereof is omitted. May be omitted.
  • the image recognition system 20 of the third embodiment includes an optical detection unit 30, an image recognition unit 21, and an illumination unit 22 shown in FIG.
  • the optical detection unit 30 is configured by a camera for detecting the state of the care recipient by video.
  • the optical detection unit 30 is located in the center of the ceiling 101a of the living room 101 and captures an image of a viewpoint directly above (see FIG. 9) whose viewing direction is directly below, and detects the care receiver's rising, getting out of bed, falling, etc. by video. To do.
  • the optical detection unit 30 includes a visible light cut member 36, a lens 31, an imaging unit 32, an AD conversion unit 33, an image processing unit 34, and a control calculation unit 35.
  • the visible light cut member 36 is provided outside the lens 31 in the optical axis direction and is provided in the housing of the optical detection unit 30.
  • the imaging unit 32 receives light that becomes an indoor image via the visible light cut member 36 and the lens 31.
  • the visible light cut member 36 is formed of a visible light cut filter that absorbs light in a wavelength band of about 400 nm to 700 nm and blocks transmission, for example. That is, visible light from the room does not reach the lens 31.
  • the lens 31 is composed of, for example, a general super wide angle lens or a fisheye lens.
  • the lens 31 is a fixed focus lens whose focus position can be adjusted, for example, and is composed of a super wide angle lens having a diagonal angle of view of 150 ° or more. Thereby, as shown in FIG. 9, it is possible to image the whole living room 101.
  • FIG. 9 it is possible to image the whole living room 101.
  • the imaging unit 32 includes an imaging element such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
  • an imaging element such as a CCD (Charge-Coupled Device) image sensor or a CMOS (Complementary Metal-Oxide Semiconductor) image sensor.
  • a monochrome imaging element or a color imaging element can be employed.
  • an IR (Infrared Rays) cut filter is removed so that the state of the cared person can be detected as an image even in a dark environment.
  • the illuminating unit 22 described later irradiates near-infrared light (for example, a wavelength of about 890 nm).
  • the near-infrared rays from the illumination unit 22 reach the lens 31 by the action of the visible light cut member 36.
  • the focus position corresponding to near-infrared rays is set for the lens 31 so that the focus is not shifted under the influence of visible light.
  • the illumination unit 22 includes, for example, a near infrared light LED (LightLEDEmitting Diode) or the like, and is disposed adjacent to the optical detection unit 30.
  • the illumination unit 22 is provided with a plurality of different light irradiation directions. Thereby, the illumination part 22 is arrange
  • the optical detection unit 30 which is a camera of the image recognition system 20 sets the best focus position P inside the living room 101 as shown in FIGS.
  • the height from the floor surface 101b of the living room 101 to the ceiling 101a is Da
  • the distance from the optical detection unit 30 to the farthest part of the floor surface 101b is Db
  • the optical detection unit 30 performs optical detection.
  • the distance from the portion 30 to the best focus position P is Dp
  • a relationship of Da ⁇ Dp ⁇ Db is established.
  • FIG. 11 shows an example of the relationship between the recognition object existence range, the focusing range, and the best focus position of the image recognition system 20.
  • the focusing range is from about 1.75 m to infinity.
  • FIG. 12 is an explanatory diagram illustrating an image captured by the image recognition system
  • FIG. 13 is a perspective view of the room showing the best focus position of the optical detection unit of the image recognition system. Since the basic configuration of this embodiment is the same as that of the third embodiment described above, the same reference numerals or the same names as the previous components are assigned to the same components as those of the third embodiment, and the description thereof is omitted. May be omitted.
  • the optical detection unit 30 that is a camera sets the best focus position P in the peripheral portion Ra of the floor surface 101 b of the living room 101.
  • the distance Dp from the optical detection unit 30 to the best focus position P is For example, it is set to 3.5 m to 4 m.
  • the image recognition system 20 includes the optical detection unit 30 that is a camera that is arranged on the ceiling 101a of the living room 101 and captures an image of a viewpoint directly above the viewing direction.
  • An image recognition unit 21 that performs image recognition processing on image data captured by the detection unit 30.
  • the optical detection unit 30 captures an image suitable for image recognition processing in the peripheral portion Ra of the floor surface 101b of the living room 101 in the image data.
  • the image recognition system 20 includes a lens 31 whose optical detection unit 30 can adjust the focus position.
  • the height from the floor surface 101b to the ceiling 101a is Da
  • the distance from the optical detection unit 30 to the farthest part of the floor surface 101b is Db
  • from the optical detection unit 30 to the best focus position P of the optical detection unit 30 Is a relationship of Da ⁇ Dp ⁇ Db.
  • the floor is compared with the case where the best focus position P is set at the center of the floor 101b.
  • the focus level at the center of the surface 101b decreases, but the focus level at the area outside the center increases. Since the recognition target object appears relatively large in the central portion of the image from the viewpoint directly above, shape recognition is possible even if the focus is not a little in focus.
  • the object to be recognized appears relatively small in the area outside the center portion.
  • the contrast is increased and the shape recognition accuracy can be improved. Therefore, it is possible to improve the image recognition accuracy as a whole with respect to the image of the viewpoint immediately above.
  • the best focus position P of the optical detection unit 30 that is a camera is set in the peripheral portion Ra of the floor surface 101b of the living room 101.
  • the lens 31 of the optical detection unit 30 is composed of a fixed focus lens having a field angle of 150 ° or more diagonally.
  • the entire living room 101 can be imaged. Therefore, the cared person can be detected as an image regardless of where the cared person as the recognition target is in the living room 101.
  • the image recognition system 20 of the third and fourth embodiments includes an illumination unit 22 that emits near-infrared light.
  • the status of the cared person can be detected as an image even in a dark environment.
  • the optical detection unit 30 of the image recognition system 20 of the third and fourth embodiments includes a monochrome imaging device as the imaging unit 32.
  • the optical detection part 30 of the image recognition system 20 of 3rd and 4th embodiment is provided with the color image pick-up element from which the infrared cut filter was removed as the imaging part 32.
  • the imaging unit 32 of the optical detection unit 30 can receive visible light and infrared light. Therefore, imaging can be performed with respect to light in a wide wavelength band.
  • optical detection unit 30 of the third and fourth embodiments is provided with a visible light cut member 36 outside the lens 31 in the optical axis direction.
  • the near infrared rays from the illumination unit 22 can reach the lens 31.
  • a focus position corresponding to the near infrared ray is set for the lens 31, it is possible to prevent the focus from being shifted under the influence of visible light.
  • the present invention can be used in an image recognition system used for detecting a moving object in a room for detecting an abnormality or the like of a health condition of a person spending at a care facility.

Abstract

画像認識システム20は、居室101の天井101aに配置されて視野方向が直下である直上視点の画像を撮像するカメラである光学検出部30と、光学検出部30が撮像した画像データに対して画像認識処理を行う画像認識部21と、を備える。光学検出部30は、画像データにおける居室101の床面101bの周辺部Raが画像認識処理に適した画像を撮像する。

Description

画像認識システム
 本発明は、室内の動体検知に用いられる画像認識システムに関する。
 近年、介護施設や病院等で過ごす人の健康状態の異常などを検出するために見守りシステムが提案されている。介護施設や病院等で過ごす人(被介護者)は室内における転倒やベッドからの転落などの異常を起こし易い場合がある。見守りシステムはカメラで被介護者を含む室内を撮影し、画像認識によって被介護者の状態、動作を認識している。
 見守りシステムで利用される画像認識用のカメラには超広角レンズや魚眼レンズが取り付けられて天井に設置されることがある。このようなカメラは直上視点によって被介護者を含む部屋全体を死角無しで撮影できるようになっている。直上視点の画像認識用カメラに係る従来技術の一例が特許文献1に開示されている。
 特許文献1に記載された人体検知装置は部屋の天井に取り付けられて床面を撮像するカメラと被監視者の存在及び動作を検知する検知領域判断部とを備える。そして、その検知結果に基づいて被監視者が所定の領域で所定の状態にあることを認識すると、異常発生の旨の発報を行うようにしている。これにより、被監視者の様々な行動パターンに対処することが可能になる。
特開2001-307246号公報
 ここで、一般的な住居の天井高さは例えば2.4mである。介護施設の広さは法令で規制されており、有料老人ホームの介護居室は個室で13m2以上(10畳相当)、特別養護老人ホームの多床室は10.65m2、ケアハウスは21.6m2となっている。
 平均的な10畳の部屋を想定し、部屋の天井の中央部にカメラを取り付けた場合、部屋の床面の隅までの距離は約4mとなる。これが最大被写体距離となり床面をカバーする画角は127°が必要となる。この画角を満足する超広角レンズや魚眼レンズは画角が広いために通常画像の周辺部の画質が中央部と比較して劣化し易い。さらに、直上視点カメラによって撮像した画像は画面上の周辺部が中央部よりも被写体の実距離が遠いので、同じ被写体でも小さく、暗く映るという差異が生じる。
 また、画像認識用のカメラは一般的な監視カメラやネットワークカメラとその特徴や仕様に違いがある。監視カメラやネットワークカメラの場合、人間の目にきれいに見えるということが良い画像であって重要視される。一方、画像認識用のカメラの場合、高い画像認識精度を得られる画像が重要視される。具体的に言えば、監視カメラやネットワークカメラについては画面上の中央部の画質を重視した画像が必要とされるが、画像認識用のカメラについては画面上の位置に関わらず高い認識精度が得られる画像が必要とされる。
 なお、画像認識とは形状認識であり、例えば対象物の輪郭を抽出してパターンマッチング等の手法で形状を判断するものである。画像認識精度を向上させるためには画像のコントラストやSN比(signal-to-noise ratio)は高い方が望ましい。一般的に、画面上の対象物が大きい場合はコントラストやSN比の影響を受け難いが、画面上の対象物が小さくなるとコントラストやSN比の影響が大きくなって認識精度が低下し易い。
 撮像に係る照明に関して、一般的な監視カメラは通常狭い視野角で視野を確保できて目立ち難い天井の角部に設置されるため、照明がカメラの光軸中心に配光されるものが多い。しかしながらこの場合、カメラの下方に死角が生じる。
 これに対して、直上視点の画像認識用カメラにおいては、照明にも超広角が求められる。この場合、拡散光源若しくはそれに近い光源を用いることになるが、照度は部屋の周辺部に向かうに従ってcos4乗則で低下する。その結果、直上視点の画像認識用カメラが撮像した画像の周辺部においてノイズが増加し、輪郭抽出が適正ではなくなり、認識精度が低下するといった課題があった。
 また、カメラのピントに関して、一般的な監視カメラやネットワークカメラの合焦範囲は0.5m程度の距離から無限大の場合が多く、近距離から遠距離にかけての広範囲でピントが合っていることが望まれる。そして、ベストピント位置は1m程度の距離に設定されているものが多い。
 これに対して、直上視点の画像認識用カメラの場合、前述のように撮像した画像の中央部から周辺部へ向かうに従って被写体が小さくなり、より暗く映る。その結果、直上視点の画像認識用カメラが撮像した画像の中央部よりも外側の領域において好適にピントを合わさなければ画像の周辺部でコントラストが低下し、輪郭抽出が適正ではなくなり、認識精度が低下するといった課題があった。
 このようにして直上視点の画像認識用カメラにおいては、画面上の周辺部が中央部と比較して小さく、暗く映るという点を考慮して照明の配光及びカメラのピントについても配慮する必要があるが、特許文献1に記載の従来技術では照明の配光及びカメラのピントについて十分な配慮がなされていない。
 本発明は上記の点に鑑みなされたものであり、室内の動体検知に用いられる画像認識システムにおいて、照明の配光について工夫を凝らして画像認識精度を向上させることが可能な画像認識システムを提供することを目的とする。
 上記の課題を解決するため、本発明は室内の動体検知に用いられる画像認識システムにおいて、部屋の天井に配置されて視野方向が直下である直上視点の画像を撮像するカメラと、前記カメラが撮像した画像データに対して画像認識処理を行う画像認識部と、を備え、前記カメラが、前記画像データにおける前記部屋の床面の周辺部が前記画像認識処理に適した画像を撮像する。
 本発明によると、直上視点の画像の中央部において認識対象物を比較的大きく映すことができ、形状認識が容易である。さらに、直上視点の画像の周辺部において比較的小さく映る認識対象物の形状認識精度を向上させることができる。したがって、直上視点の画像に対してその全体として画像認識精度を向上させることが可能になる。
本発明の第1実施形態に係る画像認識システムの適用例である見守りシステムの概略構成図である。 本発明の第1実施形態に係る画像認識システムを搭載した動体検知装置が配置された室内の斜視図である。 本発明の第1実施形態に係る画像認識システムを搭載した動体検知装置のブロック図である。 本発明の第1実施形態に係る画像認識システムのブロック図である。 本発明の第1実施形態に係る画像認識システムが撮像した画像を示す説明図である。 本発明の第1実施形態に係る画像認識システムの照明の配光を示す室内の斜視図である。 本発明の第2実施形態に係る画像認識システムの照明の配光を示す室内の斜視図である。 本発明の第3実施形態に係る画像認識システムのブロック図である。 本発明の第3実施形態に係る画像認識システムが撮像した画像を示す説明図である。 本発明の第3実施形態に係る画像認識システムの光学検出部のベストピント位置を示す室内の斜視図である。 本発明の第3実施形態に係る画像認識システムの認識対象物存在範囲、合焦範囲及びベストピント位置の関係を示す説明図である。 本発明の第4実施形態に係る画像認識システムが撮像した画像を示す説明図である。 本発明の第4実施形態に係る画像認識システムの光学検出部のベストピント位置を示す室内の斜視図である。
 以下、本発明の実施形態を図面に基づき説明する。
<第1実施形態>
 最初に、本発明の第1実施形態に係る画像認識システムの適用例である見守りシステムの構成について、図1~図3を用いて説明する。図1は見守りシステムの概略構成図である。図2及び図3は画像認識システムを搭載した動体検知装置が配置された室内の斜視図及び動体検知装置のブロック図である。
 見守りシステム1は、例えば図1に示すように介護施設に設置される。介護施設は例えばスタッフステーション100、居室101及び有線LAN(Local Area Network)300を備える。なお、図1に示した居室101は2室であるが、さらに多くの居室を備えていても良い。
 スタッフステーション100は介護施設で過ごす被介護者の生活をサポートする介護者の所謂詰め所である。
 居室101には被介護者が使用するベッド102が設置される。なお、図1に示した居室101には各々ベッド102が1台設置されているが、居室101に被介護者が二人以上入居する場合、被介護者各々に対応する複数のベッド102が設置される。
 有線LAN300はスタッフステーション100と居室101との間の通信のために設置されている。なお有線LAN300に代えて無線LANが設置されている場合もある。
 見守りシステム1はサーバ装置2及び動体検知装置10を備える。
 サーバ装置2はスタッフステーション100に設置され、有線LAN300に通信可能に接続される。サーバ装置2はリモートで制御することも可能である。サーバ装置2は動体検知装置10から各種信号を受信してその信号処理を行い、施設の介護者、看護者に被介護者の健康状態等を報知する。サーバ装置2は報知部の例として表示部5を備える。
 表示部5は例えばディスプレイなどといったコンピュータで使用される表示装置から成る。表示部5は動体検知装置10から受信した居室101の室内画像や被介護者の生体情報などを表示する。なお、表示部5は介護者が所有してサーバ装置2にリンクする携帯端末等の表示装置であっても良い。
 動体検知装置10は、図1及び図2に示すように各居室101の天井部101aに設置され、有線LAN300に通信可能に接続される。動体検知装置10は、図3に示すように画像認識システム20、電波検出部11及び主制御部12を備える。
 画像認識システム20は映像により被介護者の状態を検出するための光学検出部30、画像認識部21及び照明部22を備える。画像認識部21は主制御部12に属する構成としているが、主制御部12と別個の構成としても良い。画像認識システム20の詳細については後述する。
 電波検出部11は電波を放射及び受信して被介護者の生体情報を個別に検出するためのマイクロ波ドップラーセンサによって構成される。電波検出部11は不図示の放射部及び受信部を備え、例えば24GHz帯のマイクロ波を各居室のベッドに向けて放射し、被介護者で反射したドップラーシフトした反射波を受信する。電波検出部11はその反射波から被介護者の呼吸状態や心拍数を検出する。
 主制御部12は不図示の演算部や記憶部、その他の電子部品で構成され、記憶部等に予め記憶、入力されたプログラム、データに基づき、画像認識システム20及び電波検出部11から情報を得るとともにそれら構成要素の動作を制御して被介護者の状態の検出に係る画像処理や信号処理を実現する。主制御部12は情報処理部13及びインタフェース部14を備える。
 情報処理部13には画像認識システム20及び電波検出部11からの出力が入力される。情報処理部13は画像認識システム20から受信した形状データに対して情報処理を実行し、映像から被介護者の状態を検出する。情報処理部13は電波検出部11から受信したマイクロ波データに対して信号処理を実行し、マイクロ波から被介護者の状態を検出する。
 インタフェース部14には有線LAN300のネットワークケーブル(不図示)が電気的に接続される。動体検知装置10が映像やマイクロ波に基づき検出した被介護者の状態に係る情報はインタフェース部14及び有線LAN300を介して管理サーバ2に送信される。なお、管理サーバ2は動体検知装置10から受信した被介護者の状態に係る情報を自身が有する表示部5に表示したり、介護者が所有する携帯端末等(不図示)に送信したりする。
 続いて、画像認識システム20の詳細な構成を、図3に加えて図4~図6を用いて説明する。図4は画像認識システム20のブロック図である。図5は画像認識システム20が撮像した画像を示す説明図である。図6は画像認識システム20の照明の配光を示す室内の斜視図である。
 画像認識システム20は、図4に示す光学検出部30、画像認識部21及び照明部22を備える。
 光学検出部30は映像により被介護者の状態を検出するためのカメラによって構成される。光学検出部30は居室101の天井101aの中央部に配置されて視野方向が直下である直上視点の画像(図5参照)を撮像し、被介護者の起床や離床、転倒などを映像によって検出する。光学検出部30はレンズ31、撮像部32、AD変換部33、画像処理部34及び制御演算部35を備える。
 レンズ31は例えば一般的な超広角レンズや魚眼レンズから成る。レンズ31は例えば固定焦点レンズであり、対角画角が150°以上の超広角レンズから成る。これにより、図5に示すように居室101の全体を撮影することが可能である。
 撮像部32は例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサといった撮像素子から成る。撮像部32は真っ暗な環境でも被介護者の状態が映像として検出できるようにIRカットフィルタが除去されている。撮像部32が出力する信号はAD変換部33に入力される。
 AD変換部33は撮像部32が撮像した画像のアナログの画像信号を受信する。そして、AD変換部33はそのアナログ画像信号をデジタル画像信号に変換する。AD変換部33が出力するデジタル画像信号は画像処理部34に入力される。
 画像処理部34はAD変換部33が変換したデジタル画像信号を受信する。そして、画像処理部34はそのデジタル画像信号に関して、例えば黒補正やノイズ補正、色補間、ホワイトバランスなどの画像処理を実行する。画像処理部34が出力する画像処理後の信号は画像認識部21に入力される。
 制御演算部35は撮像部32の制御に関する例えばAE(Automatic Exposure)などの演算を実行するとともに、撮像部32に対して露光時間やゲインなどの制御を実行する。また、照明部22に対しても好適な光量設定や配光設定などの演算を実行するとともに、制御を実行する。
 画像認識部21は画像処理部34が画像処理を実行した後の信号を受信する。そして、画像認識部21は例えば対象物の輪郭を抽出してパターンマッチング等の手法で形状を認識する画像認識処理を実行する。画像認識部21が認識した形状データは情報処理部13に送られ、その形状データに基づいて被介護者の状態が検出される。
 照明部22は例えば近赤外線光のLED(Light Emitting Diode)等から成り、光学検出部30に隣接して配置される。照明部22は光の照射方向が異なる複数が設けられる。これにより、照明部22は居室101の天井101aの中央部に配置されて居室101の室内を照明する。
 そして、照明部22は、図5及び図6に示すように居室101の床面101bの全域にわたって照明するとともに床面101bの周辺部Raに向かって照明光軸22xが延びる。なお、床面101bの周辺部Raは図5及び図6に示した領域に限定されるわけではなく、さらに広い領域であっても良い。言い換えれば、照明部22は最大照度が得られる領域が光学検出部30の直下、すなわち床面101bの中央部Rcではない領域となるように照明する。
 ここで、照明による光量が比較的少ない場合、撮像素子のダイナミックレンジは狭くなる虞がある。一方、照明による光量が居室101の床面101bで適正であったとしても、10畳相当の広さの居室101の場合、ベッド102の高さにおいて照度が必要以上に高くなってノイズの影響を受け易くなる可能性がある。
 このような理由により、照明部22は床面101bにおける照度差が撮像部32を構成する撮像素子のダイナミックレンジの1/3以内となるように照明する。一般的なCMOSイメージセンサのダイナミックレンジが60dB程度であるとすると、床面101bのすべての領域に対する明暗差がダイナミックレンジの中間の20dBに入ることが望ましい。すなわち、床面101bのすべての領域に対する明暗差が、ノイズが発生し易いとされる撮像素子のダイナミックレンジの上側の1/3の範囲と下側の1/3の範囲とに入らないようにすることが望ましい。
<第2実施形態>
 次に、本発明の第2実施形態に係る画像認識システムについて、図7を用いて説明する。図7は画像認識システムの照明の配光を示す室内の斜視図である。なお、この実施形態の基本的な構成は先に説明した第1実施形態と同じであるので、第1実施形態と共通する構成要素には前と同じ符号または同じ名称を付してその説明を省略する場合がある。
 第2実施形態の画像認識システム20は、図7に示すように照明部22が居室101の天井101aの中央部に配置されて床面101bの全域にわたって照明するとともに床面101bの周辺部Raに向かって照明光軸22xが延びる。なお、照明光軸22xは照明部22が照射する光の拡がりの中心軸線を意味する。
 そして、居室101の床面101bから天井101aまでの高さをHとし、照明部22から居室101の最も近い側壁101cまでの距離をWとし、照明部22を通る垂線Vに対する照明光軸22xの傾斜角度をθとして、arctan(H/W)≦θ<90°の関係を有する。これにより、照明部22の照明光軸22xが居室101の側壁101cに向かって延びる場合がある。
 以上のとおり、第1及び第2実施形態の画像認識システム20は、居室101の天井101aに配置されて視野方向が直下である直上視点の画像を撮像するカメラである光学検出部30と、光学検出部30が撮像した画像データに対して画像認識処理を行う画像認識部21と、を備える。光学検出部30は、画像データにおける居室101の床面101bの周辺部Raが画像認識処理に適した画像を撮像する。床面101bの周辺部Raが画像認識処理に適した画像を撮像するための具体的な構成として、画像認識システム20は、居室101の天井101aに配置されて居室101の床面101bの全域にわたって照明するとともに床面101bの周辺部Raに向かって照明光軸22xが延びる照明部22を備える。
 この構成によると、床面101bの中央部に向けて照明した場合と比較して、床面101bの中央部Rcは照度が低下するが、周辺部Raは照度が上昇する。直上視点の画像ではその中央部Rcにおいて認識対象物が比較的大きく映るので、ノイズが多少生じても容易に形状認識が可能である。一方、直上視点の画像ではその周辺部Raにおいて認識対象物が比較的小さく映るが、照度を上昇させることでノイズの発生が抑制することが可能であり、形状認識精度を向上させることができる。したがって、直上視点の画像に対してその全体として画像認識精度を向上させることが可能になる。
 また、第1及び第2実施形態の照明部22は最大照度が得られる領域が光学検出部30の直下ではない領域となるように照明する。
 この構成によると、照明部22の照明光軸22xが床面101bの周辺部Raに向かって延びるようにすることができる。したがって、床面101bの周辺部Raにおいて画像認識精度を向上させることが可能な構成を容易に得ることができる。
 また、第2実施形態の画像認識システム20は、居室101の床面101bから天井101aまでの高さをHとし、照明部22から居室101の最も近い側壁101cまでの距離をWとし、照明部22を通る垂線Vに対する照明光軸22xの傾斜角度をθとして、arctan(H/W)≦θ<90°の関係を有する。
 この構成によると、照明部22の照明光軸22xが床面101bの周辺部Raである側壁101cに向かって延びるようにすることができる。したがって、床面101bの周辺部Raにおいて画像認識精度を向上させることが可能な構成を容易に得ることができる。
 また、第1及び第2実施形態の照明部22は床面101bにおける照度差が光学検出部30の撮像部32を構成する撮像素子のダイナミックレンジの1/3以内となるように照明する。
 この構成によると、撮像素子のダイナミックレンジの上側の1/3の範囲で発生し易いノイズと、下側の1/3の範囲で発生し易いノイズとを除外することができる。したがって、直上視点の画像に対してその全体として画像認識精度を向上させることが可能になる。
<第3実施形態>
 次に、本発明の第3実施形態に係る画像認識システムについて、図8~図11を用いて説明する。図8は画像認識システムのブロック図である。図9は画像認識システムが撮像した画像を示す説明図である。図10は画像認識システムの光学検出部のベストピント位置を示す室内の斜視図である。図11は画像認識システムの認識対象物存在範囲、合焦範囲及びベストピント位置の関係を示す説明図である。なお、この実施形態の基本的な構成は先に説明した第1実施形態と同じであるので、第1実施形態と共通する構成要素には前と同じ符号または同じ名称を付してその説明を省略する場合がある。
 第3実施形態の画像認識システム20は、図8に示す光学検出部30、画像認識部21及び照明部22を備える。
 光学検出部30は映像により被介護者の状態を検出するためのカメラによって構成される。光学検出部30は居室101の天井101aの中央部に配置されて視野方向が直下である直上視点の画像(図9参照)を撮像し、被介護者の起床や離床、転倒などを映像によって検出する。光学検出部30は可視光カット部材36、レンズ31、撮像部32、AD変換部33、画像処理部34及び制御演算部35を備える。
 可視光カット部材36はレンズ31の光軸方向の外側であって、光学検出部30の筐体に設けられる。撮像部32は可視光カット部材36及びレンズ31を介して室内の映像となる光を受ける。可視光カット部材36は例えば400nm~700nm程度の波長帯域の光を吸収して透過を阻止する可視光カットフィルタから成る。すなわち、レンズ31には室内からの可視光線が到達しないようになっている。
 レンズ31は例えば一般的な超広角レンズや魚眼レンズから成る。レンズ31は例えばピント位置が調整可能な固定焦点レンズであって、対角画角が150°以上の超広角レンズから成る。これにより、図9に示すように居室101の全体を撮像することが可能である。
 撮像部32は例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサといった撮像素子から成る。撮像部32としてはモノクロの撮像素子或いはカラーの撮像素子を採用することができる。カラーの撮像素子の場合、真っ暗な環境でも被介護者の状態が映像として検出できるようにIR(Infrared Rays:赤外線)カットフィルタが除去されている。
 ここで、後述する照明部22は近赤外線(例えば波長約890nm)の光を照射する。そして、可視光カット部材36の作用により、レンズ31には照明部22による近赤外線が到達する。このため、レンズ31については近赤外線に対応したピント位置が設定され、可視光線の影響を受けてピントがずれないようになっている。
 照明部22は例えば近赤外線光のLED(Light Emitting Diode)等から成り、光学検出部30に隣接して配置される。照明部22は光の照射方向が異なる複数が設けられる。これにより、照明部22は居室101の天井101aの中央部に配置されて居室101の室内を照明する。
 そして、画像認識システム20のカメラである光学検出部30は、図9及び図10に示すように居室101の内部にベストピント位置Pを設定する。ベストピント位置Pについては、居室101の床面101bから天井101aまでの高さをDaとし、光学検出部30から床面101bの最も遠い箇所までの距離をDbとし、光学検出部30から光学検出部30のベストピント位置Pまでの距離をDpとして、Da<Dp≦Dbの関係を有する。
 なお、この関係は光学検出部30からベストピント位置Pまでの距離Dpに関するものであって、合焦範囲を規定するものではない。図11は画像認識システム20の認識対象物存在範囲、合焦範囲及びベストピント位置の関係の一例を表している。
 居室101の床面101bから天井101aまでの高さDaが例えば2.4mである場合、合焦範囲は1.75m程度から無限大とすることが望ましい。そして、居室101の広さが例えば10畳であって、光学検出部30から床面101bの最も遠い箇所までの距離をDbが4mである場合、光学検出部30からベストピント位置Pまでの距離Dpについては、2.4m<Dp≦4mとなる。
<第4実施形態>
 次に、本発明の第4実施形態に係る画像認識システムについて、図12及び図13を用いて説明する。図12は画像認識システムが撮像した画像を示す説明図であり、図13は画像認識システムの光学検出部のベストピント位置を示す室内の斜視図である。なお、この実施形態の基本的な構成は先に説明した第3実施形態と同じであるので、第3実施形態と共通する構成要素には前と同じ符号または同じ名称を付してその説明を省略する場合がある。
 第4実施形態の画像認識システム20は、図12及び図13に示すようにカメラである光学検出部30が居室101の床面101bの周辺部Raにベストピント位置Pを設定する。居室101の広さが例えば10畳であって、光学検出部30から床面101bの最も遠い箇所までの距離をDbが4mである場合、光学検出部30からベストピント位置Pまでの距離Dpは例えば3.5m~4mに設定される。
 以上のとおり、第3及び第4実施形態の画像認識システム20は、居室101の天井101aに配置されて視野方向が直下である直上視点の画像を撮像するカメラである光学検出部30と、光学検出部30が撮像した画像データに対して画像認識処理を行う画像認識部21と、を備える。光学検出部30は、画像データにおける居室101の床面101bの周辺部Raが画像認識処理に適した画像を撮像する。床面101bの周辺部Raが画像認識処理に適した画像を撮像するための具体的な構成として、画像認識システム20は、光学検出部30がピント位置が調整可能なレンズ31を有し、居室101の床面101bから天井101aまでの高さをDaとし、光学検出部30から床面101bの最も遠い箇所までの距離をDbとし、光学検出部30から光学検出部30のベストピント位置Pまでの距離をDpとして、Da<Dp≦Dbの関係を有する。
 この構成によると、画像認識システム20を備える動体検知装置10を居室101の天井101aの中央部に配置したとき、床面101bの中央部にベストピント位置Pを設定した場合と比較して、床面101bの中央部はピントの合焦レベルが低下するが、中央部よりも外側の領域はピントの合焦レベルが上昇する。直上視点の画像ではその中央部において認識対象物が比較的大きく映るので、ピントが多少合っていなくても形状認識が可能である。一方、直上視点の画像では中央部よりも外側の領域において認識対象物が比較的小さく映るが、ピントを好適に合わせることでコントラストが大きくなって形状認識精度を向上させることができる。したがって、直上視点の画像に対してその全体として画像認識精度を向上させることが可能になる。
 また、第4実施形態の画像認識システム20は、カメラである光学検出部30のベストピント位置Pが居室101の床面101bの周辺部Raに設定される。
 この構成によると、床面101bの周辺部Raにおいて認識対象物が比較的小さく映るが、ピントを好適に合わせることでコントラストが大きくなって形状認識精度を向上させることができる。したがって、直上視点の画像に対してその全体として画像認識精度を向上させることが可能になる。
 また、第3及び第4実施形態では、光学検出部30のレンズ31が対角150°以上の画角を有する固定焦点レンズから成る。
 この構成によると、居室101の全体を撮像することが可能である。したがって、認識対象物である被介護者が居室101のどこにいても被介護者を映像として検出することができる。
 また、第3及び第4実施形態の画像認識システム20は近赤外線の光を照射する照明部22を備える。
 この構成によると、真っ暗な環境でも被介護者の状態が映像として検出できる。
 また、第3及び第4実施形態の画像認識システム20の光学検出部30は撮像部32としてモノクロの撮像素子を備える。或いは、第3及び第4実施形態の画像認識システム20の光学検出部30は撮像部32として赤外線カットフィルタが除去されたカラーの撮像素子を備える。
 これらの構成によると、光学検出部30の撮像部32は可視光線と赤外線とを受光することができる。したがって、広範囲にわたる波長帯域の光に関して撮像が可能である。
 また、第3及び第4実施形態の光学検出部30にはレンズ31の光軸方向の外側に可視光カット部材36が設けられる。
 この構成によると、レンズ31に照明部22による近赤外線を到達させることができる。そして、レンズ31に関して近赤外線に対応したピント位置を設定すると、可視光線の影響を受けてピントがずれないようにすることが可能である。
 以上、本発明の実施形態につき説明したが、本発明の範囲はこれに限定されるものではなく、発明の主旨を逸脱しない範囲で種々の変更を加えて実施することができる。
 本発明は、介護施設等で過ごす人の健康状態の異常等を検出するための室内の動体検知に用いられる画像認識システムにおいて利用可能である。
   1  見守りシステム
   2  サーバ装置
   10  動体検知装置
   11  電波検出部
   12  主制御部
   20  画像認識システム
   21  画像認識部
   22  照明部
   22x  照明光軸
   30  光学検出部(カメラ)
   31  レンズ
   32  撮像部(撮像素子)
   36  可視光カット部材

Claims (12)

  1.  室内の動体検知に用いられる画像認識システムにおいて、
     部屋の天井に配置されて視野方向が直下である直上視点の画像を撮像するカメラと、
     前記カメラが撮像した画像データに対して画像認識処理を行う画像認識部と、
    を備え、
     前記カメラが、前記画像データにおける前記部屋の床面の周辺部が前記画像認識処理に適した画像を撮像する画像認識システム。
  2.  部屋の天井に配置されて部屋の床面の全域にわたって照明するとともに床面の周辺部に向かって照明光軸が延びる照明部を備える請求項1に記載の画像認識システム。
  3.  前記照明部は最大照度が得られる領域が前記カメラの直下ではない領域となるように照明する請求項2に記載の画像認識システム。
  4.  部屋の床面から天井までの高さをHとし、前記照明部から部屋の最も近い側壁までの距離をWとし、前記照明部を通る垂線に対する照明光軸の傾斜角度をθとして、
    arctan(H/W)≦θ<90°の関係を有する請求項2または請求項3に記載の画像認識システム。
  5.  前記照明部は床面における照度差が前記カメラに設けられた撮像素子のダイナミックレンジの1/3以内となるように照明する請求項2~請求項4のいずれかに記載の画像認識システム。
  6.  前記カメラはピント位置が調整可能なレンズを有し、
     部屋の床面から天井までの高さをDaとし、前記カメラから部屋の床面の最も遠い箇所までの距離をDbとし、前記カメラから前記カメラのベストピント位置までの距離をDpとして、Da<Dp≦Dbの関係を有する請求項1に記載の画像認識システム。
  7.  前記カメラのベストピント位置が部屋の床面の周辺部に設定される請求項6に記載の画像認識システム。
  8.  前記カメラの前記レンズが対角150°以上の画角を有する固定焦点レンズから成る請求項6または請求項7に記載の画像認識システム。
  9.  近赤外線の光を照射する照明部を備える請求項6~請求項8のいずれかに記載の画像認識システム。
  10.  前記カメラはモノクロの撮像素子を備える請求項6~請求項9のいずれかに記載の画像認識システム。
  11.  前記カメラは赤外線カットフィルタが除去されたカラーの撮像素子を備える請求項6~請求項9のいずれかに記載の画像認識システム。
  12.  前記カメラの前記レンズの光軸方向の外側に可視光カット部材を設けた請求項9~請求項11のいずれかに記載の画像認識システム。
PCT/JP2016/070630 2015-08-04 2016-07-13 画像認識システム WO2017022435A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017502278A JP6119946B1 (ja) 2015-08-04 2016-07-13 画像認識システム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2015154372 2015-08-04
JP2015-154372 2015-08-04
JP2015-154870 2015-08-05
JP2015154870 2015-08-05

Publications (1)

Publication Number Publication Date
WO2017022435A1 true WO2017022435A1 (ja) 2017-02-09

Family

ID=57943277

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/070630 WO2017022435A1 (ja) 2015-08-04 2016-07-13 画像認識システム

Country Status (2)

Country Link
JP (1) JP6119946B1 (ja)
WO (1) WO2017022435A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186042A1 (ja) * 2017-04-06 2018-10-11 コニカミノルタ株式会社 行動検知装置および行動検知方法ならびに被監視者監視支援システム
WO2019013104A1 (ja) * 2017-07-14 2019-01-17 オムロン株式会社 見守り支援システム及びその制御方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002373388A (ja) * 2001-06-14 2002-12-26 Matsushita Electric Works Ltd 人体検知装置
JP2011086286A (ja) * 2009-09-17 2011-04-28 Shimizu Corp ベッド上及び室内の見守りシステム
JP2012048507A (ja) * 2010-08-26 2012-03-08 Panasonic Corp 画像処理装置、方法、集積回路

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002373388A (ja) * 2001-06-14 2002-12-26 Matsushita Electric Works Ltd 人体検知装置
JP2011086286A (ja) * 2009-09-17 2011-04-28 Shimizu Corp ベッド上及び室内の見守りシステム
JP2012048507A (ja) * 2010-08-26 2012-03-08 Panasonic Corp 画像処理装置、方法、集積回路

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018186042A1 (ja) * 2017-04-06 2018-10-11 コニカミノルタ株式会社 行動検知装置および行動検知方法ならびに被監視者監視支援システム
JPWO2018186042A1 (ja) * 2017-04-06 2020-02-13 コニカミノルタ株式会社 行動検知装置および行動検知方法ならびに被監視者監視支援システム
WO2019013104A1 (ja) * 2017-07-14 2019-01-17 オムロン株式会社 見守り支援システム及びその制御方法
JP2019021000A (ja) * 2017-07-14 2019-02-07 オムロン株式会社 見守り支援システム及びその制御方法

Also Published As

Publication number Publication date
JPWO2017022435A1 (ja) 2017-08-03
JP6119946B1 (ja) 2017-04-26

Similar Documents

Publication Publication Date Title
WO2019231861A1 (en) Area monitoring and communication
US10140832B2 (en) Systems and methods for behavioral based alarms
WO2011083733A1 (ja) 画像判定装置
WO2018216363A1 (ja) ケアサポートシステムおよび電波制御方法
JP6784213B2 (ja) 被監視者監視システム
JP2004246252A (ja) 画像情報収集装置及び方法
JP6119946B1 (ja) 画像認識システム
US20150317516A1 (en) Method and system for remote controlling
US11074715B2 (en) Image processing apparatus and method
KR20180036861A (ko) 열화상 영상을 이용한 관심대상 감지 방법 및 그를 위한 장치
JP5760315B2 (ja) 画像判定装置
JP2015138427A (ja) 監視装置
EP3502738A1 (en) Care support system
JP6380290B2 (ja) 画像認識システム
JP6978080B2 (ja) 個室見守り装置
WO2017217286A1 (ja) 通話機器およびケアサポートシステム
JP2023548886A (ja) カメラを制御するための装置及び方法
JP5179132B2 (ja) 人体検出装置
JP6904342B2 (ja) 画像認識システム、動体検知ユニットおよびケアサポートシステム
JP6984601B2 (ja) 動体検知ユニットおよびケアサポートシステム
JPWO2019021742A1 (ja) ケアサポートシステムおよび情報通知制御方法
JP6733668B2 (ja) 見守りシステム
JP6791246B2 (ja) ケアサポートシステム
WO2017203986A1 (ja) 情報処理装置、情報処理方法、プログラム、および見守りシステム
WO2019216055A1 (ja) ケアサポートシステム及び情報処理方法

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2017502278

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16832714

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16832714

Country of ref document: EP

Kind code of ref document: A1