CN107925748B - 显示控制装置、显示控制系统、显示控制方法、记录介质 - Google Patents

显示控制装置、显示控制系统、显示控制方法、记录介质 Download PDF

Info

Publication number
CN107925748B
CN107925748B CN201780002917.7A CN201780002917A CN107925748B CN 107925748 B CN107925748 B CN 107925748B CN 201780002917 A CN201780002917 A CN 201780002917A CN 107925748 B CN107925748 B CN 107925748B
Authority
CN
China
Prior art keywords
posture
image
display control
image data
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780002917.7A
Other languages
English (en)
Other versions
CN107925748A (zh
Inventor
田中纯一
大场正利
相田富实二
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Publication of CN107925748A publication Critical patent/CN107925748A/zh
Application granted granted Critical
Publication of CN107925748B publication Critical patent/CN107925748B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0469Presence detectors to detect unsafe condition, e.g. infrared sensor, microphone
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/117Identification of persons
    • A61B5/1171Identification of persons based on the shapes or appearances of their bodies or parts thereof
    • A61B5/1176Recognition of faces
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/0415Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting absence of activity per se
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6889Rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/744Displaying an avatar, e.g. an animated cartoon character
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61GTRANSPORT, PERSONAL CONVEYANCES, OR ACCOMMODATION SPECIALLY ADAPTED FOR PATIENTS OR DISABLED PERSONS; OPERATING TABLES OR CHAIRS; CHAIRS FOR DENTISTRY; FUNERAL DEVICES
    • A61G12/00Accommodation for nursing, e.g. in hospitals, not covered by groups A61G1/00 - A61G11/00, e.g. trolleys for transport of medicaments or food; Prescription lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0407Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis
    • G08B21/043Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons based on behaviour analysis detecting an emergency event, e.g. a fall
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0446Sensor means for detecting worn on the body to detect changes of posture, e.g. a fall, inclination, acceleration, gait
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B21/00Alarms responsive to a single specified undesired or abnormal condition and not otherwise provided for
    • G08B21/02Alarms for ensuring the safety of persons
    • G08B21/04Alarms for ensuring the safety of persons responsive to non-activity, e.g. of elderly persons
    • G08B21/0438Sensor means for detecting
    • G08B21/0476Cameras to detect unsafe condition, e.g. video cameras
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/11Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths for generating image signals from visible and infrared light wavelengths
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10048Infrared image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19686Interfaces masking personal details for privacy, e.g. blurring faces, vehicle license plates
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19691Signalling events for better perception by user, e.g. indicating alarms by making display brighter, adding text, creating a sound

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Gerontology & Geriatric Medicine (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Signal Processing (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Biophysics (AREA)
  • Pathology (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Psychiatry (AREA)
  • Psychology (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Dentistry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Nursing (AREA)
  • Alarm Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Accommodation For Nursing Or Treatment Tables (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Emergency Alarm Devices (AREA)
  • Image Analysis (AREA)

Abstract

显示控制装置(10)具有图像获取部(11)、姿势推定部(12)、控制部(13)。图像获取部(11)获取由设置在室内的红外线阵列传感器(21a、21b)检测的红外线图像(G1)。姿势推定部(12)基于图像获取部(11)中获取的红外线图像(G1),推定在室内(30)的被护理者(P1)的姿势。控制部(13)控制显示装置(22),使得虚拟图像(D1)叠加显示在红外线图像(G1)上,该虚拟图像(D1)简易地示出姿势推定部(12)中推定的被护理者(P1)的姿势。

Description

显示控制装置、显示控制系统、显示控制方法、记录介质
技术领域
本发明涉及例如利用在室内设置的图像传感器中的检测结果将被护理者需要护理的状况显示在显示装置上的显示控制装置、显示控制系统、显示控制方法、显示控制程序、记录介质。
背景技术
近年来,监视老人等需要护理的人(被护理者)在室内的行为,并显示是否为需要护理的状况的装置得到使用。
例如,专利文献1中公开了一种姿势推定装置,该姿势推定装置参照表示人体姿势的变换模型的信息和表示在变换模型的各姿势的情况下的图像数据的检查区域的检查信息,计算图像数据的检查区域中的统计量,并基于该统计量进行姿势推定。
根据该姿势推定装置,能够以比利用图像处理的传统装置少的数据处理量推定人体的姿势。
但是,上述传统的姿势推定装置中,存在如下所示的问题。
即,上述公报所公开的姿势推定装置中,虽然能以较少的数据处理量推定被护理者等的人体的姿势,但难以准确地识别被护理者是否处于需要护理的状态。
现有技术文献
专利文献
专利文献1:日本特开2015-231517号公报
发明内容
本发明的课题在于提供例如能有效地使护理者识别被护理者需要护理的状况的显示控制装置、显示控制系统、显示控制方法、显示控制程序、记录介质。
用于解决课题的手段
第一发明的显示控制装置具有图像获取部、姿势推定部、控制部。图像获取部获取由设置在室内的图像传感器检测出的图像数据。姿势推定部基于图像获取部所获取的图像数据,推定在室内的人体的姿势。控制部以使第一虚拟图像叠加显示于图像数据上的方式控制显示装置,该第一虚拟图像简易地示出姿势推定部所推定的人体的姿势。
此处,例如,为了进行对被护理者的状态进行确认的看护,利用从设置在室内的图像传感器中获取的图像数据推定在室内的人(被护理者等)的姿势,并将简易地示出该姿势的第一虚拟图像叠加显示于图像数据上。
此处,作为看护显示控制的对象的室内的人体不仅包括例如老人、残疾人等这样的在日常生活中需要护理的被护理者,还包括健康的人、宠物(动物)等。
此外,设置在室内的图像传感器可以是一个,也可以是多个。而且,考虑能够检测在室内的被护理者等的位置作为图像传感器的设置场所,例如天花板、墙面等。此外,作为图像传感器,可以使用监控照相机等拍摄装置,也可以使用红外线传感器、距离传感器等。
此外,利用了图像数据的姿势推定,例如,可以利用如下的公知方法(参照专利文献1):利用人体姿势的变换模型计算图像数据的检查区域中的统计量,并基于该统计量,根据上一个时刻的人体姿势推定当前时刻的人体姿势。
第一虚拟图像简易地示出与推定的人的姿势对应的人的外形,例如,准备与站立、坐下、躺下等多个姿势对应的多种图像。此外,在与各姿势进行关联的状态下,各第一虚拟图像可以保存在装置内的存储单元中,也可以保存在外部装置(服务器、客户端等)中。
此外,作为受控制部的显示控制的显示装置,例如,在用于护理设施、医院等中时,可以使用护理者、护士常驻的集中管理室的显示器或者护理者、护士携带的便携终端等。
由此,控制部能够控制显示装置,使得与姿势推定部所推定的姿势对应的第一虚拟图像叠加显示于图像获取部所获取的图像数据中。
因此,例如,观察到显示装置的显示内容的护理者等通过观察显示装置上显示的简易地示出被护理者等的姿势的第一虚拟图像,能够有效且高精度地识别被护理者是否为需要护理的状态。
第二发明的显示控制装置根据第一发明的显示控制装置,该显示控制装置还具有存储部,所述存储部以与人体的各姿势建立对应的状态来保存多个第一虚拟图像。
此处,在装置内设置有用于保存多个第一虚拟图像的存储部。
由此,控制部能够从在装置内的存储部中保存的多个第一虚拟图像中获取与姿势推定部所推定的姿势对应的第一虚拟图像,并将该第一虚拟图像与图像数据叠加显示。
第三发明的显示控制装置根据第一或第二发明的显示控制装置,控制部以图像数据中包括的人体的头部或面部的位置为基准,将第一虚拟图像的头部或面部的部分进行叠加显示。
此处,将虚拟图像叠加在图像数据上时,以图像数据所检测出的人体的头部或面部的位置为基准,将第一虚拟图像的头部或面部的位置进行叠加显示。
此处,能够将对图像数据中的头部或面部的检测设定为,例如,若是照相机图像则检测眼睛的位置,若是红外线图像则检测温度较高的位置等。
由此,能够以头部或面部的部分为基准,将结合人体的姿势而选择出的第一虚拟图像叠加显示于图像数据。
第四发明的显示控制装置根据第一至第三发明的任意一个的显示控制装置,显示控制装置还具有判定部,该判定部参照图像获取部所连续获取的多个图像数据,根据图像数据中的人体附近的图像的闪烁(flickering),判定护理的紧急程度。
此处,利用图像获取部中连续获取的动图等图像数据,根据图像数据中的人体附近的图像的闪烁的大小,判定图像数据中包括的人(被护理者)是否需要护理。
此处,是否需要护理的判定,例如,对于坐姿的被护理者,能够根据在连续获取的图像数据的人体附近的图像在基本不存在闪烁的状态下经过了规定时间以上等来进行判定。
反之,例如,对于坐姿的被护理者,在发现连续获取的图像数据的人体附近的图像有闪烁的情况下,能够判定为被护理者正在更衣、操作便携终端等不需要护理的状态。
由此,通过参照动图等连续获取的图像数据中的图像的闪烁,与基于被护理者姿势的判定相比,能够更准确地判定被护理者是否需要护理。
第五发明的显示控制装置根据第四发明的显示控制装置,图像传感器是获取热图像的红外线传感器。判定部根据红外线传感器所连续获取的热图像中的人体附近的区域中的热重心位置的波动程度来进行判定。
此处,当利用红外线传感器作为图像传感器时,在基于上述的连续获取的图像数据中的图像的闪烁进行判定时,根据由红外线传感器获取的热图像中的热重心位置的波动来进行判定。
由此,即使在利用红外线传感器作为图像传感器的情况下,运用热图像的特性,例如,在热重心位置的变化小于规定阈值的情况下,能够判定为需要护理的状态。
反之,在热重心位置的变化大于规定阈值的情况下,例如,能够判定为被护理者正在更衣、操作便携终端等不需要护理的状态。
第六发明的显示控制装置根据第四发明的显示控制装置,图像传感器是获取热图像的红外线传感器。判定部检测红外线传感器所连续获取的热图像中的人体附近的区域中的热源扩大来进行判定。
由此,例如,能够利用由红外线传感器连续获取的热图像,使护理者识别被护理者处于呕吐的状态。
第七发明的显示控制装置根据第一至第六发明的任意一个显示控制装置,该显示控制装置还具有人数推定部,该人数推定部推定图像获取部所获取的图像数据中包括的人数。
此处,由人数推定部来推定由图像传感器检测出的在室内的人数。
由此,例如,在被护理者住在单间内的情况下,能够推定在室内是否有除被护理者以外的其他人。
或者,例如,在多个被护理者居住在房间内的情况下,能够推定人数是否多于居住人数。
第八发明的显示控制装置根据第七发明的显示控制装置,控制部在人数推定部的推定结果是判定为图像数据中的人数为一个人的情况下,对显示装置进行显示控制。
此处,例如,在被护理者住在单间内的情况下,当推定为除被护理者以外有其他人在室内时,假定被护理者的家人、朋友、护理者与被护理者一起在室内。
因此,由于推定为有能够护理被护理者的人,因此在该情况下,能够将其排除在看护显示控制的对象以外。
第九发明的显示控制装置根据第一至第八发明的任意一个显示控制装置,控制部根据姿势推定部的推定结果,使显示装置改变第一虚拟图像的颜色。
此处,作为姿势推定部的推定的结果,例如,当推定为被护理者躺在室内床以外的位置时,判断为需要护理,并使第一虚拟图像的颜色变为与平时不同的颜色,来表示紧急时刻。
此处,作为第一虚拟图像的颜色,例如,优选,平时为黑白显示,而在需要护理这样的紧急时刻时变为红色、黄色等。
由此,观察到显示装置上的显示内容的护理者等能够容易地识别是否为紧急时刻。
第十发明的显示控制装置根据第一至第九发明的任意一个显示控制装置,控制部根据姿势推定部的推定结果,使显示装置将第一虚拟图像进行闪光(flash)显示。
此处,在姿势推定部的推定的结果例如是推定为被护理者躺在室内床以外的位置的情况下,判断为需要护理,使第一虚拟图像进行闪光显示,来表示紧急时刻。
由此,观察到显示装置上的显示内容的护理者等能够容易地识别是否为紧急时刻。
第十一发明的显示控制装置根据第一至第十发明的任意一个显示控制装置,控制部根据姿势推定部的推定结果,使第一虚拟图像叠加于图像数据上并显示在显示装置上,并且使紧急消息显示在显示装置上。
此处,当使通过姿势推定而选择的第一虚拟图像叠加显示于图像数据上时,例如,在判定为需要护理状态的情况下,将紧急消息与图像数据一同显示在显示装置上。
由此,通过图像信息和文字信息,能够使护理者等识别紧急时刻。
第十二发明的显示控制装置根据第一至第十一发明的任意一个显示控制装置,姿势推定部利用从不同方向检测在室内的人体的多个图像传感器的检测结果来推定姿势。
此处,作为设置在室内的图像传感器,利用从不同方向(例如,上方、侧方等)分别检测室内的多个图像传感器。
由此,由于能够利用检测方向不同的多个图像数据作为用于姿势推定的图像数据,因此能够更准确地推定被护理者等的人体姿势。
第十三发明的显示控制装置根据第一至第十二发明的任意一个显示控制装置,控制部将与人体的站立姿势、坐姿、仰卧姿势、侧卧姿势、俯卧姿势、弯腰姿势中的至少一个对应的第一虚拟图像叠加于图像数据,并显示在显示装置上。
此处,利用与姿势推定部所推定的人体姿势中的站立姿势、坐姿、仰卧姿势、侧卧姿势、俯卧姿势、弯腰姿势中的至少一个对应的第一虚拟图像。
由此,例如,能够在将被护理者等的姿势细分的状态下进行推定,并将与被护理者等的姿势对应的第一虚拟图像以叠加于图像数据的方式显示。
第十四发明的显示控制装置根据第一至第十三发明的任意一个显示控制装置,控制部将与设置在所述室内的家具、室内设备对应的第二虚拟图像以叠加于所述图像数据中的所述家具、所述室内设备的位置的方式进行显示。
此处,不仅利用与人体的各姿势对应的多个第一虚拟图像,还利用与设置在室内的家具、设备对应的第二虚拟图像,将其叠加于图像数据并显示在显示装置上。
由此,例如,通过将第二虚拟图像叠加显示于设置在室内的床、被子、橱柜、桌子、椅子、简易厕所等位置,能够容易地推定在室内的被护理者在哪个位置正在做什么。
第十五发明的显示控制系统具有第一至第十四发明的任意一个的显示控制装置,和向图像获取部提供图像数据的图像传感器。
此处,构成显示控制系统,该显示控制系统包括上述的显示控制装置和设置在室内的图像传感器。
由此,如上所述,能够构建例如,通过护理者等观察在显示装置上显示的表示被护理者等的姿势的第一虚拟图像,从而可以有效且高精度地识别被护理者是否处于需要护理的状态的系统。
第十六发明的显示控制系统根据第十五发明的显示控制系统,显示控制系统还具有显示装置,由显示控制装置的控制部对该显示装置进行显示控制。
此处,构成显示控制系统,该显示控制系统包括上述的显示控制装置、图像传感器、显示装置。
由此,如上所述,能够构建例如,通过护理者等在显示装置上确认在显示装置上显示的表示护理者等的姿势的第一虚拟图像,从而可以有效且高精度地识别被护理者是否处于需要护理的状态的系统。
第十七发明的显示控制系统根据第十六发明的显示控制系统,显示装置包括:护理在所述室内的人的护理者所使用的主终端的显示装置,或者护理者所持有的便携终端。
此处,作为由控制部进行显示控制的显示装置,例如,利用护理者所使用的设置在集中管理室的主终端,或者护理者所持有的便携终端。
由此,例如,护理者等通过在主终端或便携终端等观察叠加有第一虚拟图像的图像数据,能够容易地识别在室内的被护理者是否处于需要护理的状态。
第十八发明的显示控制系统根据第十五至第十七发明的任意一个显示控制系统,图像传感器包括从室内的上方检测人体的第一图像传感器以及从室内的侧方检测人体的第二图像传感器。
此处,利用分别从上方、侧方检测室内的两个图像传感器作为设置在室内的图像传感器。
由此,由于能够利用检测方向不同的两种图像数据作为用于姿势推定的图像数据,因此可以更准确地推定被护理者等的人体姿势。
第十九发明的显示控制系统根据第十五至第十八发明的任意一个显示控制系统,图像传感器是红外线阵列传感器、距离传感器中的任一种。
此处,利用红外线线阵列照相机、距离传感器中的任一种作为设置在室内的图像传感器。
由此,与利用监控照相机等拍摄装置作为图像传感器的情况相比,能够减轻姿势推定、叠加第一虚拟图像时的处理负担。
此外,由于难以识别由图像传感器检测的被护理者、护理者等个人,因此也可以解决被护理者、护理者等的隐私问题。
第二十发明的显示控制方法具有图像获取步骤、姿势推定步骤和控制步骤。在图像获取步骤中,获取由设置在室内的图像传感器检测出的图像数据。在姿势推定步骤中,基于在图像获取步骤中获取的图像数据,推定在室内的人体的姿势。在控制步骤中,以使第一虚拟图像叠加显示于图像数据上的方式对显示装置进行控制,该第一虚拟图像简易地示出在姿势推定步骤中推定的人体的姿势。
此处,例如,为了确认被护理者的状态,利用从设置在室内的图像传感器获取的图像数据推定在室内的人(被护理者等)的姿势,并将简易地示出该姿势的第一虚拟图像叠加显示在图像数据上。
此处,设置在室内的图像传感器可以是一个,也可以是多个。此外,考虑能够检测在室内的被护理者等的位置作为图像传感器的设置场所,例如,天花板、墙面等。此外,作为图像传感器,可以使用监控照相机等拍摄装置,也可以使用红外线传感器、距离传感器等。
此外,利用了图像数据的姿势推定例如可以使用如下的公知方法(参照专利文献1),即,利用人体姿势的变换模型来计算图像数据的检查区域中的统计量,并基于该统计量根据上一个时刻的人体姿势推定当前时刻的人体姿势。
第一虚拟图像简易地示出与推定的人的姿势对应的人的外形,例如,准备了与站立、坐下、躺下等多个姿势对应的多种图像。而且,各第一虚拟图像可以在与各姿势建立关联的状态下保存在装置内的存储单元中,也可以在与各姿势建立关联的状态下保存在外部装置(服务器、客户端等)中。
此外,作为控制步骤中被进行显示控制的显示装置,例如,当用于护理设施、医院等时,能够使用护理者、护士常驻的集中管理室的显示器或者护理者、护士携带的便携终端等。
由此,控制步骤中,能够控制显示装置,以使与在姿势推定步骤中推定的姿势对应的第一虚拟图像叠加显示于在图像获取步骤中获取的图像数据。
因此,例如,观察到显示装置上的显示内容的护理者等通过观察在显示装置上显示的简易地示出被护理者等的姿势的第一虚拟图像,能够有效且高精度识别被护理者是否处于需要护理的状态。
第二十一发明的显示控制程序使计算机执行具有图像获取步骤、姿势推定步骤和控制步骤的显示控制方法。在图像获取步骤中,获取由设置在室内的图像传感器检测出的图像数据。在姿势推定步骤中,基于在图像获取步骤中获取的图像数据,推定在室内的人体的姿势。在控制步骤中,以使第一虚拟图像叠加显示于图像数据上对显示装置进行控制,该第一虚拟图像简易地示出在姿势推定步骤中推定的人体的姿势。
此处,显示控制程序使计算机执行上述显示控制方法,例如,为了确认被护理者的状态,利用从设置在室内的图像传感器中获取的图像数据来推定在室内的人(被护理者等)的姿势,并将简易地示出该姿势的第一虚拟图像叠加显示于图像数据上。
此处,设置在室内的图像传感器可以是一个,也可以是多个。而且,考虑能够检测在室内的被护理者等的位置作为图像传感器的设置场所,例如,天花板、墙面等。此外,作为图像传感器,可以利用监控照相机等拍摄装置,也可以利用红外线传感器、距离传感器等。
此外,利用了图像数据的姿势推定例如可以使用如下的公知方法(参照专利文献1),即,利用人体姿势的变换模型计算图像数据的检查区域中的统计量,并基于该统计量根据上一个时刻的人体姿势来推定当前时刻的人体姿势。
第一虚拟图像简易地示出与推定出的人的姿势对应的人的外形,例如,准备了与站立、坐下、躺下等多个姿势对应的多种图像。而且,各第一虚拟图像可以在与各姿势建立关联的状态下保存在装置内的存储单元中,也可以在与各姿势建立关联的状态下保存在外部装置(服务器、客户端等)中。
此外,作为在控制步骤中被进行显示控制的显示装置,例如,当用于护理设施、医院等时,能够使用护理者、护士常驻的集中管理室的显示器或者护理者、护士携带的便携终端等。
由此,在控制步骤中,能够控制显示装置,以使与在姿势推定步骤中推定的姿势对应的第一虚拟图像叠加显示于在图像获取步骤中获取的图像数据。
因此,例如,观察显示装置上的显示内容的护理者等通过观察在显示装置上显示的简易地示出被护理者等的姿势的第一虚拟图像,能够有效且高精度识别被护理者是否处于需要护理的状态。
第二十二发明的记录介质存储有使计算机执行显示控制方法的显示控制程序,该显示控制方法包括图像获取步骤、姿势推定步骤和控制步骤的。在图像获取步骤中,获取由设置在室内的图像传感器检测出的图像数据。在姿势推定步骤中,基于在图像获取步骤中获取的图像数据,推定在室内的人体的姿势。在控制步骤中,以使第一虚拟图像叠加显示于图像数据上对显示装置进行控制,该第一虚拟图像简易地示出在姿势推定步骤中推定的人体的姿势。
此处,记录介质中保存有显示控制程序,该显示控制程序使计算机执行上述显示控制方法,例如,为了确认被护理者的状态,利用从设置在室内的图像传感器获取的图像数据来推定在室内的人(被护理者等)的姿势,并将简易地示出该姿势的第一虚拟图像叠加显示于图像数据上。
此处,设置在室内的图像传感器可以是一个,也可以是多个。而且,考虑能够检测在室内的被护理者等的位置作为图像传感器的设置场所,例如,天花板、墙面等。此外,作为图像传感器,可以利用监控照相机等拍摄装置,也可以利用红外线传感器、距离传感器等。
此外,利用了图像数据的姿势推定例如可以使用如下的公知方法(参照专利文献1),即,利用人体姿势的变换模型来计算图像数据的检查区域中的统计量,并基于该统计量根据上一个时刻的人体姿势推定当前时刻的人体姿势。
第一虚拟图像简易地示出与推定的人的姿势对应的人的外形,例如,准备了与站立、坐下、躺下等多个姿势对应的多种图像。而且,各第一虚拟图像可以在与各姿势建立关联的状态下保存在装置内的存储单元中,也可以在与各姿势建立关联的状态下保存在外部装置(服务器、客户端等)中。
此外,作为在控制步骤中被进行显示控制的显示装置,例如,当用于护理设施、医院等时,能够使用护理者、护士常驻的集中管理室的显示器或者护理者、护士携带的便携终端等。
由此,控制步骤中,能够控制显示装置,以使与在姿势推定步骤中推定的姿势对应的第一虚拟图像叠加显示于在图像获取步骤中获取的图像数据。
因此,例如,观察显示装置上的显示内容的护理者等通过观察在显示装置上显示的简易地示出被护理者等的姿势的第一虚拟图像,能够有效且高精度识别被护理者是否处于需要护理的状态。
(发明的效果)
根据本发明的显示控制装置,例如,能够有效地使护理者识别被护理者需要护理的状况。
附图说明
图1是示出包括本发明的一个实施方式的显示控制装置的显示控制系统的结构的框图。
图2是示出由图1的显示控制系统获取显示装置上显示的图像的室内结构的立体图。
图3(a)是示出图2所示的安装在室内天花板上的红外线阵列传感器的图。图3(b)是示出图2所示的安装在室内架子上的红外线阵列传感器的图。
图4(a)及图4(b)是示出构成图1的显示控制系统的显示装置的一例 (主计算机、便携终端)的图。
图5是用于说明构成图1的显示控制装置的姿势推定部进行的姿势推定所使用的第一图像数据及其检查区域的图。
图6是用于说明构成图1的显示控制装置的姿势推定部进行的姿势推定所使用的第二图像数据及其检查区域的图。
图7是用于说明构成图1的显示控制装置的姿势推定部进行的姿势推定所使用的第一、第二图像数据的检查区域的图。
图8是用于说明构成图1的显示控制装置的姿势推定部进行的姿势推定所使用的第一、第二图像数据的检查区域的图。
图9是示出由构成图1的显示控制装置的姿势推定部推定的姿势的变换模型的图。
图10是示出图9的变换模型信息的图。
图11是示出表示与图9的变换模型中的各姿势对应的第一、第二图像数据的检查区域的区域信息以及用于判定是否变换为各姿势的基准值的基准值信息的图。
图12是示出构成图1的显示控制系统的显示装置上显示的图像的图。
图13是示出图1的显示控制装置进行的显示控制的流程的流程图。
图14是示出图1的显示控制装置进行的姿势推定的流程的流程图。
图15(a)、图15(b)是示出利用图2所示的设置在室内的两个红外线阵列传感器(天花板、侧方)拍摄的站姿图像的图。
图16(a)、图16(b)是示出利用图2所示的设置在室内的两个红外线阵列传感器(天花板、侧方)拍摄的坐姿图像的图。
图17(a)、图17(b)是示出利用图2所示的设置在室内的两个红外线阵列传感器(天花板、侧方)拍摄的卧姿图像(有被子)的图。
图18(a)、图18(b)是示出利用图2所示的设置在室内的两个红外线阵列传感器(天花板、侧方)拍摄的卧姿图像(掀开被子)的图。
图19(a)、图19(b)是示出利用图2所示的设置在室内的两个红外线阵列传感器(天花板、侧方)拍摄的跌倒卧姿图像(发生异常)的图。
图20(a)、图20(b)是示出利用图2所示的设置在室内的两个红外线阵列传感器(天花板、侧方)拍摄的跌倒坐姿图像(发生异常)的图。
图21(a)是示出利用图2所示的设置在室内天花板上的红外线阵列传感器拍摄的卧姿图像(无闪烁)的图。图21(b)是示出利用图2所示的设置在室内天花板上的红外线阵列传感器拍摄的卧姿图像(头部附近的热源扩大)的图。
图22(a)是示出利用图2所示的设置在室内天花板上的红外线阵列传感器拍摄的卧姿图像(有剧烈闪烁)的图。图22(b)是示出利用图2所示的设置在室内天花板上的红外线阵列传感器拍摄的卧姿图像(掀开被子、有剧烈闪烁)的图。
图23是示出利用图2所示的设置在室内侧墙的红外线阵列传感器拍摄的坐姿图像(有剧烈闪烁)的图。
图24是示出本发明的其他实施方式的显示控制装置以及具有该显示控制装置的显示控制系统的结构的框图。
图25(a)、图25(b)是示出由本发明的又一实施方式的显示控制装置进行显示控制的显示装置将跌倒卧姿图像(发生异常)与文字信息组合显示的图。
具体实施方式
关于本发明的一个实施方式的显示控制装置10以及具有该显示控制装置10的显示控制系统20,利用图1~图23进行如下的说明。
1.显示控制系统20的结构
例如,如护理设施、医院等,本实施方式的显示控制系统20用于对日常生活中需要护理的被护理者进行监视,并使护理者准确地识别被护理者的状态。而且,如图1所示,显示控制系统20具有显示控制装置10、红外线阵列传感器21a、21b和显示装置22。
此处,为了对身处室内30的被护理者(人体)P1进行看护,如图2所示,本实施方式的显示控制系统20中利用可以从室内30的上方及侧方拍摄被护理者P1的两个红外线阵列传感器21a、21b。
室内30中设置有床31、轮椅32等室内设备,并形成被护理者P1的居住空间。需要说明的是,室内的坐标系X-Y-Z如图2所示。
显示控制装置10利用由红外线阵列传感器21a、21b拍摄的红外线图像 G1(参照图12),判定身处室内30的被护理者P1是否处于需要护理的状态,并显示在显示装置22上。需要说明的是,显示控制装置10的详细结构将在后文进行详细叙述。
此处,为了对室内30的被护理者P1进行看护,本实施方式的显示控制装置10中利用了红外线图像G1(参照图12)。由此,例如,与利用监控照相机图像进行看护的情况相比,可以在看护的同时保护被护理者P1的隐私。
需要说明的是,红外线传感器21a、21b被设置为拍摄的红外线图像G1 中人的面部的部分是2~6个像素。由此,即使是利用图像中面部的部分的个人认证技术等也不能对个人进行确定,由此能够在看护的同时保护被护理者 P1的隐私。
如图2所示,红外线阵列传感器21a、21b安装于室内30的天花板30a,并从上方拍摄身处室内30的被护理者P1。
需要说明的是,如图3(a)所示,红外线阵列传感器(第一图像传感器) 21a直接固定于室内30的天花板30a。
如图2所示,红外线阵列传感器21b(第二图像传感器)安装于室内30 的墙面30b,并从侧方拍摄身处室内30的被护理者P1。
需要说明的是,如图3(b)所示,红外线阵列传感器21b可以被设置为嵌入架子33等室内设备中,而不是设置在墙面30b上。
红外线阵列传感器21a、21b所获取的红外线图像数据被发送给显示控制装置10的图像获取部11。
需要说明的是,红外线阵列传感器21a、21b所拍摄的红外线图像数据具有像素值越高拍摄区域的温度就越高、像素值越低拍摄区域的温度就越低的特征。即,由于人体所在的区域的温度较高,因此拍摄人体的区域的像素值较高。因此,根据红外线图像数据找到像素值较高的区域,由此能够确定人体所在的区域(温度较高的区域)。
显示装置22例如是设置在护理设施内的主计算机22a(参照图4(a)) 的显示器、便携终端22b(参照图4(b))等,并对拍摄得到的被护理者P1 的红外线图像G1(参照图12)进行显示。而且,显示装置22由显示控制装置10进行显示控制。
主计算机22a例如设置于护理设施中的护理者的办公室等。由此,护理者能够远程确认多个被护理者P1的状况。
需要说明的是,便携终端22b包括护理者所持有的便携电话、智能手机、平板终端等。
由此,即使护理者身处其他被护理者P1的房间时或正在移动中,也能够通过对便携终端22b发送图像,而使护理者在紧急时立即赶到被护理者P1 的地点。
2.显示控制装置10的结构
如图1所示,本实施方式的显示控制装置10具有图像获取部11、姿势推定部12、控制部13、存储部14、判定部15和人数推定部16。
图像获取部11从红外线阵列传感器21a、21b获取由两个红外线阵列传感器21a、21b拍摄的红外线图像数据。
姿势推定部12利用图像获取部11所获取的红外线图像数据来推定身处室内30的被护理者P1的姿势。
需要说明的是,姿势推定部12进行的姿势推定是通过利用了变换模型的公知方法(参照专利文献1)来进行的(后文中说明)。而且,作为姿势推定部12所推定的被护理者P1的姿势,例如包括站立姿势、坐姿、仰卧姿势、侧卧姿势、俯卧姿势、弯腰姿势等。
控制部13基于姿势推定部12所推定的被护理者P1的姿势,选择与存储部14中保存的各姿势对应的虚拟图像(第一虚拟图像)D1(参照图12)。然后,使选择的虚拟图像D1以叠加于红外线图像G1的状态显示在显示装置 22上。
此处,虚拟图像D1是指简易地示出进行了姿势推定而得到的被护理者P1的姿势、外形的图像,准备了与多种姿势对应的图像。本实施方式中,为了可以与从上方、侧方拍摄被护理者P1而得到的图像重合,准备了与各方向对应的虚拟图像D1。
需要说明的是,后文将详细说明控制部13对显示装置22进行的显示控制。
存储部14将图像获取部11所获取的红外线图像数据进行保存,并且将与姿势推定部12所推定的被护理者P1的多种姿势对应的多个虚拟图像D1 建立关联并保存。
需要说明的是,作为与存储部14所保存的被护理者P1的姿势对应的虚拟图像D1,例如包括与站姿姿势、坐姿、仰卧姿势、侧卧姿势、俯卧姿势、弯腰姿势等对应的图像。
这些虚拟图像D1只分与从上方拍摄室内30的红外线图像G1以及从侧方拍摄室内30的红外线图像G1各自的姿势对应的两种保存在存储部14中。
例如,对于站姿姿势,设置有用于叠加在从上方拍摄到的红外线图像G1 上的虚拟图像D1、用于叠加在从侧方拍摄到的红外线图像G1上的虚拟图像 D1即可。其他的姿势也是同样,与从上方拍摄的红外线图像G1以及从侧方拍摄的红外线图像G1对应的虚拟图像D1被保存在存储部14中。
判定部15基于图像获取部11所获取的红外线图像数据,判定身处室内 30的被护理者P1的护理紧急程度。
具体而言,例如,判定部15参照连续获取的多个红外线图像G1(动态图像),检测图像中的闪烁的变化、热源的扩大等,并判定护理的紧急程度。
例如,当姿势推定部12所推定的被护理者P1的姿势为坐姿,并且图像获取部11所连续获取的多个图像中的闪烁的变化较小时,存在被护理者P1 可能正无力地坐着的危险。
相反,当被护理者P1的姿势为坐姿,并且图像获取部11所连续获取的多个图像中的闪烁的变化较大时,推测被护理者P1正在坐着更衣,或者操作便携终端等。
因此,当连续获取的多个红外线图像G1中保持相同姿势长时间没有闪烁时,判定部15判定为护理的紧急程度为高,控制部13使显示装置22进行警告显示。
此外,当姿势推定部12所推定的被护理者P1的姿势为卧姿,并且图像获取部11所连续获取的多个图像中的热源扩大时,被护理者P1呕吐的可能性较高(参照图21(b))。
因此,在该情况下,判定部15判定为护理的紧急程度高,控制部13使显示装置22进行警告显示。
此处,作为警告显示的例子,考虑在显示装置22中使用虚拟图像D1的闪光显示、改变颜色的显示、兼用文字信息的警告等。在改变颜色的情况下,例如,使虚拟图像D1从通常的显示色变为红色即可。此外,作为兼用文字信息的警告显示,例如,可以兼用“被护理者需要护理!”等文字显示。此外,也可以与显示一起使用蜂鸣声等警告音。
人数推定部16利用图像获取部11所获取的红外线图像数据推定在室内 30中的人数。
具体而言,人数推定部16通过检测红外线图像G1中包括的被推定为人的头部的高温部分,并计算其数量,由此推定在室内30中的人的数量。
需要说明的是,人数推定部16所推定的室内30的人数被发送给控制部 13。当人数推定部16所推定的室内30的人数为两人以上时,控制部13不对显示装置22进行显示控制。
即,本实施方式的显示控制装置10中,例如,假定当居住在室内30的被护理者P1的人数通常为一人时,或当被护理者P1以外的人(例如,护理者或亲戚、朋友等)在室内30中时,看护的必要性较低。
因此,本实施方式的显示控制装置10中,当室内30中有被护理者P1 以外的人时,即,当人数推定部16推定为两人以上时,不对显示装置22进行显示控制。
3.显示控制的内容
3-1.姿势推定
如上所述,本实施方式的显示控制装置10中,图像获取部11获取分别由两个红外线阵列传感器21a、21b拍摄的红外线图像数据。然后,姿势推定部12利用图像获取部11所获取的从上方拍摄室内30的红外线图像G1和从侧方拍摄室内30的红外线图像G1,推定被护理者P1的姿势。
姿势推定部12按照如下的顺序对被护理者P1进行姿势推定。
即,姿势推定部12利用检查信息进行姿势推定,该检查信息包括表示人体姿势的变换模型中的各姿势的红外线图像数据(上方及侧方)的检查区域的区域信息,和表示用于判定是否变换到各姿势的基准值的基准值信息。
需要说明的是,变换模型信息及检查信息用于推定当前时刻的人体姿势。
图5及图6是用于说明由红外线阵列传感器21a从天花板30a(上方) 拍摄到的红外线图像数据及其检查区域的图。红外线图像数据由X方向的16 个像素、Y方向的16个像素构成。
区域RV1是红外线图像数据的整个区域,即0≦X≦15、0≦Y≦15的范围的区域。
区域RV2是离与床31(参照图2)的对应区域的长度方向的边界相邻接的位置相距规定宽度(3像素)的区域,即7≦X≦9、3≦Y≦10的范围的区域。
区域RV3是与床31对应的区域,即3≦X≦6、3≦Y≦10的范围的区域。
区域RV4是除区域RV3以外的区域,由四个区域构成。第一区域是0 ≦X≦2、0≦Y≦15的范围的区域。第二区域是7≦X≦15、0≦Y≦15的范围的区域。第三区域是3≦X≦6、0≦Y≦2的范围的区域。第四区域是3≦X ≦6、11≦Y≦15的范围的区域。
图7及图8是用于说明由红外线阵列传感器21b从墙面30b(侧方)拍摄的红外线图像数据及其检查区域的图。红外线图像数据由X方向的16个像素、Z方向的16个像素构成。
区域RH1是第二图像数据的整个区域,即0≦X≦15、0≦Z≦15的范围的区域。
区域RH2在铅直方向(Z方向)上的范围是整个范围。区域RH2在水平方向(X方向)上的范围是离与床31的对应范围(11≦X≦15)相邻接的位置相距规定宽度(3个像素)的范围。因此,区域RH2是8≦X≦10、0≦ Z≦15的范围的区域。
区域RH3在铅直方向(Z方向)上的范围是离与床31的对应范围的上方边界相邻接的位置相距规定的宽度(5个像素)的范围。区域RH3的水平方向(X方向)的范围与床31的对应范围相同。因此,区域RH3是11≦X ≦15、5≦Z≦9的范围的区域。
区域RH4在铅直方向(Z方向)上的范围是离与床31的对应范围的上方边界邻接的位置相距规定宽度(3个像素)的范围。区域RH4在水平方向 (X方向)上的范围与床31的对应范围相同。因此,区域RH4是11≦X≦ 15、7≦Z≦9的范围的区域。
区域RH5在水平方向上的范围是整个范围中除了与床31对应的范围以外的范围。区域RH5在铅直方向上的范围是离最低位置(Z=15)向上方相距规定宽度(6个像素)的范围。因此,区域RH5是0≦X≦10、10≦Z≦15 的范围的区域。
区域RH6在水平方向上的范围是整个范围中除了与床31对应的范围以外的范围。区域RH6在铅直方向上的范围是离规定位置(Z=12)向上方相距规定宽度(3个像素)的范围。因此,区域RH6是0≦X≦10、10≦Z≦12 的范围的区域。
图9是表示被护理者(人体)P1的姿势的变换模型的图。图10是表示变换模型信息的图。
将作为监视对象的被护理者P1不在室内30(A)的姿势当作初始状态。
姿势(A)的下一姿势是在室内停留(B)或原来的姿势(A)中的任一者。
姿势(B)的下一姿势是在床31旁边站立(C)、跌倒(X)、不在室内(A)或原来的姿势(B)中的任一者。
姿势(C)的下一姿势是躺在床31上(D)、坐在床31上(E)、坐在床31边(F)、跌倒(X)、在室内停留(B)或原来的姿势(C)中的任一者。
姿势(D)的下一姿势是坐在床31上(E)、坐在床31边(F)、在床 31旁边站立(C)、从床31上跌落(第一模式)(Y1)或原来的姿势(D) 的任一者。
姿势(E)的下一姿势是躺在床31上(D)、坐在床31边(F)、在床 31旁边站立(C)、从床31上跌落(第一模式)(Y1)或原来的姿势(E) 中的任一者。
姿势(F)的下一姿势是躺在床31上(D)、坐在床31上(E)、在床 31旁边站立(C)、从床31上跌落(第二模式)(Y2)或原来的姿势(F) 中的任一者。
图11是表示区域信息和基准值信息的图,该区域信息表示变换模型中的各姿势的红外线图像数据的检查区域和红外线图像数据的检查区域,基准值信息表示用于判定是否变换到各姿势的基准值。
当判定是否变换到了不在室内30(A)时,计算由红外线阵列传感器21a、 21b从上方拍摄的红外线图像数据的区域RV1的统计量与从侧方拍摄的红外线图像数据的区域RH1的统计量之和。当该统计量之和为基准值THA以上时,判定为变换到了姿势(A)。
当判定是否变换到了在室内30停留(B)时,计算由红外线阵列传感器 21a、21b从上方拍摄的红外线图像数据的区域RV1的统计量与从侧方拍摄的红外线图像数据的区域RH1的统计量之和。当该统计量之和为基准值THB 以上时,判定为变换到了姿势(B)。
当判定是否变换到了在床31旁边站立(C)时,计算由红外线阵列传感器21a、21b从上方拍摄的红外线图像数据的区域RV2的统计量与从侧方拍摄的红外线图像数据的区域RH2的统计量之和。当该统计量之和为基准值 THC以上时,判定为变换到了姿势(C)。
当判定是否变换到了躺在床31上(D)时,计算由红外线阵列传感器21a、 21b从上方拍摄的红外线图像数据的区域RV3的统计量与从侧方拍摄设置的红外线图像数据的区域RH4的统计量之和。当该统计量之和为基准值THD 以上时,判定为变换到了姿势(D)。
当判定是否变换到了坐在床31上(E)时,计算由红外线阵列传感器21a、 21b从上方拍摄的红外线图像数据的区域RV3的统计量与从侧方拍摄的红外线图像数据的区域RH3的统计量之和。当该统计量之和为基准值THE以上时,判定为变换到了姿势(E)。
当判定是否变换到了坐在床31边(F)时,计算由红外线阵列传感器21a、 21b从上方拍摄的红外线图像数据的区域RV3的统计量与从侧方拍摄的红外线图像数据的区域RH2的统计量之和。当该统计量之和为基准值THF以上时,判定为变换到了姿势(F)。
当判定是否变换到了跌倒(X)时,计算由红外线阵列传感器21a、21b 从上方拍摄的红外线图像数据的区域RV4的统计量与从侧方拍摄的红外线图像数据的区域RH5的统计量之和。当该统计量之和为基准值THX以上时,判定为变换到了姿势(X)。
此处,当判定是否变换到了从床31上跌落(第一模式)(Y1)时,计算由红外线阵列传感器21a、21b从上方拍摄的红外线图像数据的区域RV2 的统计量与从侧方拍摄的红外线图像数据的区域RH6的统计量之和。当该统计量之和为基准值THY1以上时,判定为变换到了姿势(Y1)。
需要说明的是,在该判定中利用区域RH6的理由是,在区域RH6中,设置有红外线阵列传感器21b的位置与被护理者P1从床31上跌落的位置之间的距离较短,因此从侧方拍摄的红外线图像数据中,拍摄到跌落的被护理者P1的部分在比最低线(Y=15)更高的位置。
此外,当判定是否变换到了从床31上跌落(第二模式)(Y2)时,计算由红外线阵列传感器21a、21b从上方拍摄的红外线图像数据的区域RV2 的统计量与从侧方拍摄的红外线图像数据的区域RH6的统计量之和。当该统计量之和为基准值THY2以上时,判定为变换到了姿势(Y2)。
需要说明的是,在该判定中利用区域RH6的理由与从床31上跌落(第一模式)相同。
3-2.显示控制
本实施方式的显示控制装置10中,作为上述的姿势推定的结果,基于推定出的被护理者P1的姿势来控制显示装置22,使得将与存储部14中保存的各姿势对应的虚拟图像D1与红外线图像G1叠加显示。
即,存储部14中保存有与姿势推定部12所推定的被护理者P1的姿势对应的多个虚拟图像D1。因此,如图12所示,控制部13基于姿势推定部 12所的姿势推定的结果,从存储部14中读取与红外线图像G1中的被护理者 P1的姿势对应的适合的虚拟图像D1,并与红外线图像G1叠加显示。
此处,在将与推定的姿势对应的虚拟图像D1叠加显示在红外线图像G1 上时,以被护理者P1的头部的位置为基准进行叠加。
更具体而言,在红外线图像G1中,由于多数情况下头部、面部的部分位于人体的较高位置,且通常露出,因此头部、面部的部分被表示为温度较高的部分。因此,以被推定为红外线图像G1中的头部、面部的部分的位置为基准,将虚拟图像D1的头部、面部的部分叠加以进行位置对准,并显示在显示装置22上。
3-3.显示控制的流程
本实施方式的显示控制装置10按照图13所示的流程图进行显示控制。
即,步骤S11中,图像获取部11获取由两个红外线阵列传感器21a、21b 从上方及侧方拍摄室内30的红外线图像G1。
接着,步骤S12中,人数推定部16利用获取的红外线图像G1推定在室内30的人数。
接着,步骤S13中,判定人数推定部16所推定的在室内30的人数是否为一个人。此处,当为一个人时,则进行步骤S14。反之,当为两个人以上时,判断为在室内30有被护理者P1以外的人可以进行护理的状态,并结束显示控制处理。
接着,步骤S14中,姿势推定部12对在步骤S13中被判定为一个人在室内30的被护理者P1的姿势进行推定。
接着,步骤S15中,控制部13从存储部14中读取与在步骤S14中推定的被护理者P1的姿势(例如,站立等)对应的虚拟图像D1。
接着,步骤S16中,控制部13以红外线图像G1中包括的被护理者P1 的头部或面部的部分为基准,将从存储部14中读取的虚拟图像D1进行叠加显示。
由此,护理者能够识别显示装置22上显示的被护理者P1的姿势,并且容易地判断有无异常。
3-4.姿势推定的流程
本实施方式的显示控制装置10中,图13的流程图的步骤S14中的姿势推定根据图14所示的流程图来进行。
即,在步骤S11中,从两个红外线阵列传感器21a、21b获取了红外线图像G1后,在步骤S21中,判定红外线图像G1中的被护理者P1的姿势是否为跌倒或跌落。此处,当判定为跌倒或跌落时,则进行步骤S22。反之,当判定为没有跌倒或跌落时,由于是除跌倒或跌落以外的姿势,因此进行步骤 S23。
接着,步骤S22中,作为步骤S21中的判定结果,姿势推定部12判定为被护理者P1为跌倒或跌落的姿势。
接着,步骤S23中,判定红外线图像G1中的被护理者P1是否在床边。此处,当判定为被护理者P1在床边时,则进行步骤S24。反之,当判定为被护理者P1不在床边时,则进行步骤S25。
接着,步骤S24中,作为步骤S23中的判定结果,姿势推定部12判定为在床边。
接着,步骤S25中,判定红外线图像G1中的被护理者P1是否在床上。此处,当判定为被护理者P1在床上时,则进行步骤S26。反之,当判定为被护理者P1不在床上时,则进行步骤S29。
接着,步骤S26中,判定红外线图像G1中的被护理者P1是否坐在床上。此处,当判定为被护理者P1坐在床上时,则进行步骤S27。反之,当判定为被护理者P1未坐在床上时,则进行步骤S28。
接着,步骤S27中,作为步骤S26中的判定结果,姿势推定部12判定为被护理者P1坐在床上。
接着,步骤S28中,作为步骤S26中的判定结果,姿势推定部12判定为被护理者P1躺在床上。
接着,步骤S29中,由于被护理者P1既不在床边也不在床上,因此判定是否在红外线图像G1内的测定区域内。此处,当判定为被护理者P1在测定区域内时,则进行步骤S30。反之,当判定为被护理者P1测定区域外时,则进行步骤S31。
接着,步骤S30中,判定为被护理者P1正在床边、床上以外的室内30 的位置上移动。
接着,步骤S31中,这次确认被护理者P1是否在床上。此处,若判定为被护理者P1在床上,则进行步骤S33。反之,若判定为不在床上,则进行步骤S32。
接着,步骤S32中,作为利用红外线图像G1判定的结果,由于被护理者P1未跌倒、跌落,也不在床边、床上、测定区域内,因此判定为在测定区域外。
接着,由于步骤S31中判定为被护理者P1在床上,因此在步骤S33中,例如,判定为盖着被子躺下的状态。
4.各姿势对应的虚拟图像的显示例
4-1.站立姿势
如图15(a)及图15(b)所示,当被护理者P1为站立姿势时,将表示被护理者P1为站立状态的虚拟图像D1与红外线图像G1叠加显示。
具体而言,如图15(a)所示,由于在红外线图像G1中从头上拍摄被护理者P1,因此使用俯视时显示头部和肩的部分的虚拟图像D1,该红外线图像G1是从在上方拍摄室内30的红外线阵列传感器21a中获取的。
另一方面,如图15(b)所示,由于在红外线图像G1中从旁边拍摄被护理者P1,因此使用显示被护理者P1的全身的虚拟图像D1,该红外线图像 G1是从在侧方拍摄室内30的红外线阵列传感器21b中获取的。
需要说明的是,图15(a)及图15(b)所示的红外线图像G1上显示了表示作为室内设备的床31的虚拟图像(第二虚拟图像)D2。
由此,护理者能够参照床31等室内设备的位置来识别被护理者P1在室内30中的哪个位置。
4-2.坐姿
如图16(a)及图16(b)所示,当被护理者P1为坐姿时,表示被护理者P1坐在轮椅或椅子上的状态的虚拟图像D1与红外线图像G1叠加显示。
具体而言,如图16(a)所示,由于在红外线图像G1中从头上拍摄被护理者P1,因此使用在俯视时不仅显示头部和肩的部分也显示腿的部分的虚拟图像D1,该红外线图像G1是从在上方拍摄室内30的红外线阵列传感器21a 中获取的。
另一方面,如图16(b)所示,由于在红外线图像G1中从旁边拍摄被护理者P1,因此使用显示被护理者P1的身体弯曲的姿势的虚拟图像D1,该红外线图像G1是从在侧方拍摄室内30的红外线阵列传感器21b中获取的。
4-3.卧姿(有被子)
如图17(a)及图17(b)所示,当被护理者P1为在床31上躺下的卧姿时,表示被护理者P1在床31上躺下的状态的虚拟图像D1与红外线图像G1 叠加显示。
具体而言,如图17(a)所示,由于在红外线图像G1中从上方拍摄躺下的被护理者P1,因此使用显示被护理者P1的全身的虚拟图像D1,该红外线图像G1是从上方拍摄室内30的红外线阵列传感器21a中获取的。
需要说明的是,如图17(a)所示,当在床31上躺下的被护理者P1盖着被子(虚拟图像D3)时,红外线图像G1中盖着被子的部分作为温度较低的部分进行显示,仅头部作为温度较高的部分进行显示。
另一方面,如图17(b)所示,由于在红外线图像G1中从旁边拍摄被护理者P1,因此使用显示被护理者P1在床31上躺下的卧姿的虚拟图像D1,该红外线图像G1是从在侧方拍摄室内30的红外线阵列传感器21b中获取的。
需要说明的是,与图17(a)同样地,如图17(b)所示,当在床31上躺下的被护理者P1盖着被子时,红外线图像G1中盖着被子的部分作为温度较低的部分进行显示,仅头部作为温度较高的部分进行显示。
4-4.卧姿(掀开被子)
如图18(a)及图18(b)所示,当被护理者P1为在床31上躺下的卧姿并且掀开被子(虚拟图像D3)时,表示被护理者P1在床31上躺下的状态的虚拟图像D1与红外线图像G1叠加显示。
具体而言,如图18(a)所示,由于在红外线图像G1中从上方拍摄躺下的被护理者P1,因此使用显示被护理者P1的上半身的虚拟图像D1,该红外线图像G1是从在上方拍摄室内30的红外线阵列传感器21a中获取的。
需要说明的是,如图18(a)所示,当在床31上躺下的被护理者P1用被子(虚拟图像D3)盖着下半身时,红外线图像G1中盖着被子的部分作为温度较低的部分进行显示,仅上半身作为温度较高的部分进行显示。
另一方面,如图18(b)所示,由于在红外线图像G1中从旁边拍摄被护理者P1,因此使用显示被护理者P1在床31上躺下的卧姿的虚拟图像D1,该红外线图像G1是从在侧方拍摄室内30的红外线阵列传感器21b中获取的。
需要说明的是,与图18(a)同样地,如图18(b)所示,当在床31上躺下的被护理者P1用被子盖着下半身时,红外线图像G1中盖着被子的部分作为温度较低的部分进行显示,仅上半身作为温度较高的部分进行显示。
4-5.卧姿(跌倒)
如图19(a)及图19(b)所示,当被护理者P1为在床31的旁边跌倒的卧姿时,表示被护理者P1在床31(虚拟图像D2)旁边跌倒的状态的虚拟图像D1与红外线图像G1叠加显示。
具体而言,如图19(a)所示,由于在红外线图像G1中从上方拍摄在床 31的旁边跌倒的被护理者P1,因此使用显示被护理者P1的全身的虚拟图像 D1,该红外线图像G1是从在上方拍摄室内30的红外线阵列传感器21a中获取的。
需要说明的是,该情况下,由于被护理者P1在与表示床31的虚拟图像 D2不同的位置躺下,并假定为跌倒,因此虚拟图像D1例如将颜色变为与通常颜色不同的红色、黄色等,或者闪光显示。
另一方面,如图19(b)所示,由于在红外线图像G1中从旁边拍摄被护理者P1,因此使用显示被护理者P1在床31下躺下的卧姿的虚拟图像D1,该红外线图像G1是从在侧方拍摄室内30的红外线阵列传感器21b中获取的。
另外,与图19(a)同样地,当被护理者P1在床31下躺下时,由于假定为跌倒,因此虚拟图像D1例如将颜色变为与通常颜色不同的红色、黄色等,或者闪光显示。
由此,护理者能够确认图19(a)及图19(b)所示的红外线图像G1,从而识别为需要立即进行紧急护理的状态。
4-6.坐姿(跌倒)
如图20(a)及图20(b)所示,当被护理者P1在床31的旁边坐下时,表示被护理者P1在床31(虚拟图像D2)旁边跌倒并软弱无力的状态的虚拟图像D1与红外线图像G1叠加显示。
具体而言,如图20(a)所示,由于在红外线图像G1中从上方拍摄在床 31的旁边坐下的被护理者P1,因此使用俯视时显示被护理者P1的头部、肩、腿的部分的虚拟图像D1,该红外线图像G1是从在上方拍摄室内30的红外线阵列传感器21a中获取的。
需要说明的是,该情况下,由于假定被护理者P1在表示床31的虚拟图像D2的旁边跌倒并坐下,因此虚拟图像D1例如将颜色变为与通常颜色不同的红色、黄色等,或者闪光显示。
另一方面,如图20(b)所示,由于在红外线图像G1中从旁边拍摄被护理者P1,因此使用显示被护理者P1在床31的旁边软弱无力地坐下的坐姿的虚拟图像D1,该红外线图像G1是从在侧方拍摄室内30的红外线阵列传感器21b中获取的。
另外,与图20(a)同样地,当被护理者P1在床31的旁边坐下时,由于假定被护理者P1跌倒并瘫坐,因此虚拟图像D1例如将颜色变为与通常颜色不同的红色、黄色等,或者闪光显示。
由此,护理者能够确认图20(a)及图20(b)所示的红外线图像G1,从而识别为需要立即进行紧急护理的状态。
需要说明的是,可以通过确认连续获取的红外线图像G1,并根据移动是否被确认来判断在床31的旁边坐姿的被护理者P1的紧急程度。
4-7.卧姿(有闪烁)
如图21(a)所示,当被护理者P1为卧姿并且在连续获取的红外线图像中闪烁较小时,被护理者P1躺下的可能性较高。
因此,该情况下,判定部15判定为被护理者P1不需要护理的状态。
此外,如图22(a)所示,被护理者P1为卧姿,在连续获取的红外线图像中,当检测在被护理者P1的上半身附近闪烁较大的闪烁区域G1a时,被护理者P1正在进行将要起身的动作的可能性较高。
此外,如图22(b)所示,被护理者P1为卧姿,在连续获取的红外线图像中,当检测在掀开被子的状态下被护理者P1的上半身附近闪烁较大的闪烁区域G1a时,被护理者P1正在进行将要起身的动作的可能性较高。
该情况下,由于被护理者P1需要起身辅助,因此判定部15判定为需要护理的状态。
此处,利用了红外线图像G1中的像素的闪烁的判定如下地进行。
即,在基于连续获取的红外线图像中的图像的闪烁进行判定时,判定部 15根据图像中的热重心位置的波动来进行判定。
具体而言,例如,截取红外线图像G1中的比室温高出规定值以上温度的区域,对截取的区域内的像素的XY方向上的位置取平均值并求出热重心的位置。然后,根据与规定阈值相比该热重心的位置是否移动(波动),判定为需要护理的紧急程度即可。
由此,即使在利用红外线传感器作为图像传感器的情况下,运用红外线图像(热图像)的特性,例如当热重心位置的变化小于规定阈值时,也能判定为被护理者P1需要护理的状态。
反之,当热重心位置的变化大于规定阈值时,例如,被护理者正在更衣、操作便携终端等,能够判断为不需要护理的状态。
结果,护理者能够通过看显示装置22上显示的被护理者P1的图像来准确地判断是否需要护理。
4-8.卧姿(热源扩大)
如图21(b)所示,被护理者P1为卧姿,当检测在连续获取的红外线图像中头部附近的热源扩大的热源扩大区域G1b时,被护理者P1在躺下的状态下呕吐的可能性较高。
因此,该情况下,判定部15判定为被护理者P1需要紧急的护理的状态。
如图21(b)所示,控制部13根据姿势推定部12的姿势推定的结果及判定部15中的护理紧急程度的判定结果,进行虚拟图像D1的颜色改变、或闪光等显示控制。
由此,护理者能够确认显示装置22上显示的画面,从而容易地识别被护理者P1为卧姿、并且需要紧急护理的状态。
4-9.坐姿(有闪烁)
如图23所示,被护理者P1为坐在轮椅的虚拟图像(第二虚拟图像)D4 上的姿势,在连续获取的红外线图像中,当检测在表示轮椅32的虚拟图像 D4上的被护理者P1的上半身附近闪烁较大的闪烁区域G1a时,被护理者P1 正在进行更衣的动作的可能性较高。
因此,该情况下,判定部15判定为被护理者P1不需要护理的状态。
相反地,被护理者P1为坐在轮椅32的姿势,在连续获取的红外线图像中,当在被护理者P1的上半身附近经过规定时间以上几乎没有闪烁时,被护理者P1有可能瘫坐在轮椅上。
因此,该情况下,判定部15判定为被护理者P1需要护理的状态。
该情况下,控制部13根据姿势推定部12的姿势推定的结果及判定部15 中的护理紧急程度的判定结果,进行虚拟图像D1的颜色改变、或闪光等显示控制。
由此,护理者能够识别被护理者P1长时间处于静止在轮椅上的状态,从而赶往被护理者P1的房间。
[其他的实施方式]
以上,说明了本发明的一个实施方式,但本发明并不限定于上述实施方式,在不脱离发明主旨的范围内可以进行各种变更。
(A)
上述实施方式中,作为实施上述显示控制方法的显示控制装置10以及具有该显示控制装置10的显示控制系统20,举出并说明了实现本发明的例子。但是,本发明不限于此。
例如,作为上述的显示控制方法,也可以实现本发明。
或者,作为使计算机执行上述显示控制方法的显示控制程序,也可以实现本发明。此外,作为存储该显示控制程序的记录介质,也可以实现本发明。
通过任一实现方法都能获得与上述同样的效果。
(B)
如图1所示,上述实施方式中,举出并说明了具有将与被护理者P1的各姿势对应的虚拟图像D1进行保存的存储部14的显示控制装置10的例子。但是,本发明不限于此。
例如,如图24所示,作为保存虚拟图像的存储单元,可以利用在显示控制装置110及显示控制系统120的外部设置的云空间114等。
即,若本发明的显示控制装置是从外部的存储单元(云空间、服务器装置等)读取并使用虚拟图像的结构,则可以是在装置内不具有存储部的结构。
(C)
上述实施方式中,对于显示装置22,举出并说明了将虚拟图像D1叠加于红外线图像G1上进行显示的例子。但是,本发明不限于此。
例如,如图25(a)及图25(b)所示,可以将“○○○号房XX发生异常”等文字信息与图像信息一并显示。
该情况下,可以更清楚地向护理者显示护理的紧急程度。
另外,这些文字信息中,与判定被护理者的护理的紧急程度的判定部中的判定结果对应的多个文字信息可以被预先保存在存储部14等。
(D)
如图2所示,上述实施方式中,作为第一、第二图像传感器,举出并说明了将红外线阵列传感器21a、21b设置在天花板和侧面的例子。但是,本发明不限于此。
例如,可以是将图像传感器仅设置在天花板、或者仅设置在侧面的结构,也可以利用倾斜地拍摄人体的图像传感器。
但是,为了准确地判定人体的姿势,如上述实施方式,优选分别在天花板和侧面设置有图像传感器的结构。
(E)
上述实施方式中,作为对图像获取部11发送图像的图像传感器,举出并说明了利用了检测温度分布的红外线阵列传感器21a、21b的例子。但是,本发明不限于此。
例如,作为图像传感器,也可以利用监控照相机、距离传感器等其他图像传感器。
(F)
上述实施方式中,作为护理多个被护理者P1的护理设施等中的护理方法,举出并说明了应用了本发明的显示控制装置10及显示控制系统20的例子。但是,本发明不限于此。
例如,可以将本发明应用于护理设施以外的老人或残疾人生活的医院等设施。
或者,可以将本发明应用于独居老人的护理。
该情况下,通过将与老人分开生活的孩子的便携终端作为显示装置,就能从远程进行护理。
工业可用性
由于本发明的显示控制装置例如起到能够使护理者有效地识别被护理者需要护理的状况的效果,因此也可以广泛适用于对老人或孩子、宠物等进行护理的各种装置。
附图标记说明
10 显示控制装置
11 图像获取部
12 姿势推定部
13 控制部
14 存储部
15 判定部
16 人数推定部
20 显示控制系统
21a 红外线阵列传感器(第一图像传感器)(天花板)
21b 红外线阵列传感器(第二图像传感器)(侧方)
22 显示装置
22a 主计算机(显示装置)
22b 便携终端(显示装置)
30 室内
30a 天花板
30b 墙面
31 床
32 轮椅
33 架子
110 显示控制装置
114 云空间
120 显示控制系统
G1 红外线图像(图像)
G1a 闪烁区域
G1b 热源扩大区域
D1 虚拟图像(被护理者)(第一虚拟图像)
D2 虚拟图像(床)(第二虚拟图像)
D3 虚拟图像(被子)(第二虚拟图像)
D4 虚拟图像(轮椅)(第二虚拟图像)
P1 被护理者(人体)

Claims (20)

1.一种显示控制装置,具有:
图像获取部,获取由设置在室内的图像传感器检测出的图像数据;
姿势推定部,基于所述图像获取部所获取的所述图像数据,推定在所述室内的人体的姿势;
控制部,以使第一虚拟图像叠加显示于所述图像数据上的方式对显示装置进行控制,所述第一虚拟图像简易地示出所述姿势推定部所推定的所述人体的姿势,
所述控制部以所述图像数据中包括的所述人体的头部或面部的位置为基准,将所述第一虚拟图像的头部或面部的部分进行叠加显示。
2.根据权利要求1所述的显示控制装置,其中,
所述显示控制装置还具有存储部,所述存储部以与所述人体的各姿势建立对应的状态来保存多个所述第一虚拟图像。
3.根据权利要求1或2所述的显示控制装置,其中,
所述显示控制装置还具有判定部,所述判定部参照所述图像获取部所连续获取的多个所述图像数据,根据所述图像数据中的所述人体附近的图像的闪烁,判定护理的紧急程度。
4.根据权利要求3所述的显示控制装置,其中,
所述图像传感器是获取热图像的红外线传感器,
所述判定部根据所述红外线传感器所连续获取的所述热图像中的所述人体附近的区域中的热重心位置的波动程度来进行判定。
5.根据权利要求3所述的显示控制装置,其中,
所述图像传感器是获取热图像的红外线传感器,
所述判定部检测所述红外线传感器所连续获取的所述热图像中的所述人体附近的区域中的热源扩大来进行判定。
6.根据权利要求1或2所述的显示控制装置,其中,
所述显示控制装置还具有人数推定部,所述人数推定部推定所述图像获取部所获取的所述图像数据中包括的人数。
7.根据权利要求6所述的显示控制装置,其中,
所述控制部在所述人数推定部的推定结果是判定为所述图像数据中的人数为一个人的情况下,对所述显示装置进行显示控制。
8.根据权利要求1或2所述的显示控制装置,其中,
所述控制部根据所述姿势推定部的推定结果,使所述显示装置改变所述第一虚拟图像的颜色。
9.根据权利要求1或2所述的显示控制装置,其中,
所述控制部根据所述姿势推定部的推定结果,使所述显示装置将所述第一虚拟图像进行闪光显示。
10.根据权利要求1或2所述的显示控制装置,其中,
所述控制部根据所述姿势推定部的推定结果,使所述第一虚拟图像叠加于所述图像数据上并显示在所述显示装置上,并且使紧急消息显示在所述显示装置上。
11.根据权利要求1或2所述的显示控制装置,其中,
所述姿势推定部利用从不同方向检测在所述室内的人体的多个所述图像传感器的检测结果来推定所述姿势。
12.根据权利要求1或2所述的显示控制装置,其中,
所述控制部将与所述人体的站立姿势、坐姿、仰卧姿势、侧卧姿势、俯卧姿势、弯腰姿势中的至少一个对应的所述第一虚拟图像叠加于所述图像数据,并显示在所述显示装置上。
13.根据权利要求1或2所述的显示控制装置,其中,
所述控制部将与设置在所述室内的家具、室内设备对应的第二虚拟图像以叠加于所述图像数据中的所述家具、所述室内设备的位置的方式进行显示。
14.一种显示控制系统,具有:
权利要求1至13中的任一项所述的显示控制装置;
向所述图像获取部提供所述图像数据的图像传感器。
15.根据权利要求14所述的显示控制系统,其中,
所述显示控制系统还具有显示装置,由所述显示控制装置的所述控制部对所述显示装置进行显示控制。
16.根据权利要求15所述的显示控制系统,其中,
所述显示装置包括护理在所述室内的人的护理者所使用的主终端的显示装置或者所述护理者所持有的便携终端。
17.根据权利要求14至16中任一项所述的显示控制系统,其中,
所述图像传感器包括从所述室内的上方检测所述人体的第一图像传感器以及从所述室内的侧方检测所述人体的第二图像传感器。
18.根据权利要求14至16中任一项所述的显示控制系统,其中,
所述图像传感器是红外线阵列传感器、距离传感器中的任一种。
19.一种显示控制方法,包括:
图像获取步骤,获取由设置在室内的图像传感器检测出的图像数据;
姿势推定步骤,基于在所述图像获取步骤中获取的所述图像数据,推定在所述室内的人体的姿势;
控制步骤,控制显示装置,以使第一虚拟图像叠加显示于所述图像数据上,并且,以所述图像数据中包括的所述人体的头部或面部的位置为基准,将所述第一虚拟图像的头部或面部的部分进行叠加显示,所述第一虚拟图像简易地示出在所述姿势推定步骤中推定的所述人体的姿势。
20.一种记录介质,存储有使计算机执行显示控制方法的显示控制程序,所述显示控制方法包括:
图像获取步骤,获取由设置在室内的图像传感器检测出的图像数据;
姿势推定步骤,基于在所述图像获取步骤中获取的所述图像数据,推定在所述室内的人体的姿势;
控制步骤,对显示装置进行控制,以使第一虚拟图像叠加显示于所述图像数据上的方式,并且,以所述图像数据中包括的所述人体的头部或面部的位置为基准,将所述第一虚拟图像的头部或面部的部分进行叠加显示,所述第一虚拟图像简易地示出在所述姿势推定步骤中推定的所述人体的姿势。
CN201780002917.7A 2016-06-07 2017-02-21 显示控制装置、显示控制系统、显示控制方法、记录介质 Active CN107925748B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016-113457 2016-06-07
JP2016113457A JP6520831B2 (ja) 2016-06-07 2016-06-07 表示制御装置、表示制御システム、表示制御方法、表示制御プログラム、記録媒体
PCT/JP2017/006350 WO2017212690A1 (ja) 2016-06-07 2017-02-21 表示制御装置、表示制御システム、表示制御方法、表示制御プログラム、記録媒体

Publications (2)

Publication Number Publication Date
CN107925748A CN107925748A (zh) 2018-04-17
CN107925748B true CN107925748B (zh) 2020-04-28

Family

ID=60578449

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780002917.7A Active CN107925748B (zh) 2016-06-07 2017-02-21 显示控制装置、显示控制系统、显示控制方法、记录介质

Country Status (6)

Country Link
US (1) US10973441B2 (zh)
EP (1) EP3468180B1 (zh)
JP (1) JP6520831B2 (zh)
KR (1) KR101999934B1 (zh)
CN (1) CN107925748B (zh)
WO (1) WO2017212690A1 (zh)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7210872B2 (ja) * 2017-07-19 2023-01-24 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
US10553099B2 (en) * 2017-08-07 2020-02-04 Ricoh Company, Ltd. Information providing apparatus and information providing system
JP7340771B2 (ja) * 2018-05-28 2023-09-08 パナソニックIpマネジメント株式会社 生体検知装置、生体検知方法、記録媒体、およびプログラム
JP2019219903A (ja) * 2018-06-20 2019-12-26 株式会社三陽電設 トイレ使用状態監視装置
JP7199086B2 (ja) * 2018-10-10 2023-01-05 ファミリーイナダ株式会社 防犯システム及びこの防犯システムを備えたマッサージ機
JP7289664B2 (ja) 2019-02-04 2023-06-12 旭化成ホームズ株式会社 位置特定システム、携帯端末、位置特定システムの利用方法、位置特定方法およびプログラム
CN110123272A (zh) * 2019-04-24 2019-08-16 佛山市宝瑞通光电科技有限公司 基于人体感知的人员监测方法及装置
JP2021096627A (ja) * 2019-12-17 2021-06-24 グローバルマイクロニクス株式会社 対象者状態検知装置及び対象者状態検知方法
CN113034849A (zh) * 2019-12-25 2021-06-25 海信集团有限公司 婴儿看护设备、看护方法及存储介质
US20210334983A1 (en) * 2020-04-27 2021-10-28 Industrial Technology Research Institute Image monitoring apparatus and method
JP6797344B1 (ja) * 2020-07-10 2020-12-09 三菱電機株式会社 学習装置、活用装置、プログラム、学習方法及び活用方法
JP7142955B2 (ja) * 2020-07-15 2022-09-28 アルスデザインアソシエイツ株式会社 監視システム、監視方法、及びプログラム
US20220400979A1 (en) * 2021-06-22 2022-12-22 Hill-Rom Services, Inc. Three-mode patient chair exit sensing
US20230230379A1 (en) * 2022-01-19 2023-07-20 Target Brands, Inc. Safety compliance system and method

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850219A (zh) * 2014-02-19 2015-08-19 北京三星通信技术研究有限公司 估计附着物体的人体姿势的设备和方法
JP2015210547A (ja) * 2014-04-23 2015-11-24 博司 佐久田 遠隔見守りシステム

Family Cites Families (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5455287A (en) 1977-10-11 1979-05-02 Toshiba Corp Assembly tool for fuel assembly
US6400374B2 (en) * 1996-09-18 2002-06-04 Eyematic Interfaces, Inc. Video superposition system and method
JP2000251078A (ja) * 1998-12-22 2000-09-14 Atr Media Integration & Communications Res Lab 人物の3次元姿勢推定方法および装置ならびに人物の肘の位置推定方法および装置
US6486473B2 (en) * 2000-03-02 2002-11-26 Mine Safety Applicances Company Thermal imaging camera
JP3918530B2 (ja) * 2001-11-28 2007-05-23 カシオ計算機株式会社 画像出力装置、画像出力処理プログラム、及び画像出力方法
US8675059B2 (en) * 2010-07-29 2014-03-18 Careview Communications, Inc. System and method for using a video monitoring system to prevent and manage decubitus ulcers in patients
JP4581512B2 (ja) * 2004-07-02 2010-11-17 オムロン株式会社 3次元画像処理装置、光軸調整方法、光軸調整支援方法
WO2007097738A2 (en) * 2005-01-26 2007-08-30 Wollf Robin Q Eye tracker/head tracker/camera tracker controlled camera/weapon positioner control system
JP2006259930A (ja) * 2005-03-15 2006-09-28 Omron Corp 表示装置およびその制御方法、表示装置を備えた電子機器、表示装置制御プログラム、ならびに該プログラムを記録した記録媒体
JP2007153035A (ja) * 2005-12-01 2007-06-21 Auto Network Gijutsu Kenkyusho:Kk 乗員着座判定システム
US20080244978A1 (en) * 2007-04-05 2008-10-09 Rahmi Soyugenc Motorized security revolving door
US8374438B1 (en) * 2007-10-04 2013-02-12 Redshift Systems Corporation Visual template-based thermal inspection system
EP2327061A4 (en) * 2008-08-15 2016-11-16 Univ Brown METHOD AND DEVICE FOR ESTIMATING BODY SHAPES
US8525833B2 (en) * 2008-10-13 2013-09-03 George Papaioannou Dynamic biplane roentgen stereophotogrammetric analysis
TWI388205B (zh) * 2008-12-19 2013-03-01 Ind Tech Res Inst 目標追蹤之方法與裝置
JP2010237873A (ja) * 2009-03-30 2010-10-21 Sogo Keibi Hosho Co Ltd 姿勢変化検出装置、姿勢変化検出方法、及び姿勢変化検出プログラム
US8339583B2 (en) * 2009-07-17 2012-12-25 The Boeing Company Visual detection of clear air turbulence
US8121472B2 (en) * 2009-09-10 2012-02-21 Babak Forutanpour Signal measurements employed to affect photographic parameters
JP5648840B2 (ja) 2009-09-17 2015-01-07 清水建設株式会社 ベッド上及び室内の見守りシステム
EP2394710B1 (en) * 2010-06-11 2020-06-10 BANDAI NAMCO Entertainment Inc. Image generation system, image generation method, and information storage medium
JP5771778B2 (ja) * 2010-06-30 2015-09-02 パナソニックIpマネジメント株式会社 監視装置、プログラム
JP2012065263A (ja) * 2010-09-17 2012-03-29 Olympus Imaging Corp 撮影機器
US9031286B2 (en) * 2010-12-09 2015-05-12 Panasonic Corporation Object detection device and object detection method
US9412161B2 (en) * 2011-01-25 2016-08-09 Novartis Ag Systems and methods for medical use of motion imaging and capture
CN103493112B (zh) * 2011-02-22 2016-09-21 菲力尔系统公司 红外传感器系统及方法
US9259289B2 (en) * 2011-05-13 2016-02-16 Intuitive Surgical Operations, Inc. Estimation of a position and orientation of a frame used in controlling movement of a tool
KR20130042844A (ko) * 2011-10-19 2013-04-29 인하대학교 산학협력단 자세 보정 시스템
JP5877053B2 (ja) * 2011-12-14 2016-03-02 パナソニック株式会社 姿勢推定装置および姿勢推定方法
DE102012201591A1 (de) * 2012-02-03 2013-08-08 Robert Bosch Gmbh Auswertevorrichtung für ein Überwachungssystem sowie Überwachungssystem mit der Auswertevorrichtung
US9510799B2 (en) * 2012-06-11 2016-12-06 Konica Minolta, Inc. Medical imaging system and medical image processing apparatus
CN102855470B (zh) * 2012-07-31 2015-04-08 中国科学院自动化研究所 基于深度图像的人体姿态估计方法
JP6167563B2 (ja) * 2013-02-28 2017-07-26 ノーリツプレシジョン株式会社 情報処理装置、情報処理方法、及び、プログラム
US20140287395A1 (en) * 2013-03-25 2014-09-25 Vcom3D, Inc. Method and system for medical skills training
JP6141079B2 (ja) * 2013-04-08 2017-06-07 キヤノン株式会社 画像処理システム、画像処理装置、それらの制御方法、及びプログラム
US20160217326A1 (en) * 2013-07-03 2016-07-28 Nec Corporation Fall detection device, fall detection method, fall detection camera and computer program
US20150123966A1 (en) * 2013-10-03 2015-05-07 Compedia - Software And Hardware Development Limited Interactive augmented virtual reality and perceptual computing platform
JP6351285B2 (ja) * 2014-02-13 2018-07-04 キヤノン株式会社 画像形成装置、及び画像形成装置の制御方法
US9779508B2 (en) * 2014-03-26 2017-10-03 Microsoft Technology Licensing, Llc Real-time three-dimensional reconstruction of a scene from a single camera
US10198813B2 (en) 2014-05-13 2019-02-05 Omron Corporation Posture estimation device, posture estimation system, posture estimation method, posture estimation program, and computer-readable recording medium on which posture estimation program is recorded
JP2016103237A (ja) * 2014-11-28 2016-06-02 クラリオン株式会社 見守りシステム
CN105865636B (zh) * 2015-02-06 2022-01-11 松下知识产权经营株式会社 红外线检测装置
US10076840B2 (en) * 2015-04-03 2018-09-18 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and program
JP2016202252A (ja) * 2015-04-15 2016-12-08 キヤノン株式会社 放射線撮影システム、放射線撮影システムの制御方法およびプログラム
JP6508626B2 (ja) * 2015-06-16 2019-05-08 オリンパス株式会社 撮像装置、処理プログラム、撮像方法
US20190206036A1 (en) * 2017-12-20 2019-07-04 Al Analysis, Inc. Method and system that use super flicker to facilitate image comparison

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104850219A (zh) * 2014-02-19 2015-08-19 北京三星通信技术研究有限公司 估计附着物体的人体姿势的设备和方法
JP2015210547A (ja) * 2014-04-23 2015-11-24 博司 佐久田 遠隔見守りシステム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
基于近红外TOF传感器的姿势识别研究;张金权 等;《传感器与微系统》;20150720(第7期);第33-35、39页 *

Also Published As

Publication number Publication date
WO2017212690A1 (ja) 2017-12-14
JP6520831B2 (ja) 2019-05-29
JP2017220779A (ja) 2017-12-14
KR101999934B1 (ko) 2019-07-12
EP3468180A4 (en) 2019-10-09
EP3468180A1 (en) 2019-04-10
US10973441B2 (en) 2021-04-13
CN107925748A (zh) 2018-04-17
KR20180033270A (ko) 2018-04-02
US20200221977A1 (en) 2020-07-16
EP3468180B1 (en) 2020-06-24

Similar Documents

Publication Publication Date Title
CN107925748B (zh) 显示控制装置、显示控制系统、显示控制方法、记录介质
US20150281659A1 (en) Image transmission or recording triggered by bed event
JP6806145B2 (ja) 被監視者監視システムおよび被監視者監視方法
JP6852733B2 (ja) 生体監視装置及び生体監視方法
EP3466336A1 (en) Breathing abnormality detection device and breathing abnormality detection method
JP2022165483A (ja) 検出装置、検出システム、検出方法、および検出プログラム
JP2018163644A (ja) ベッド出口監視システム
JP6292283B2 (ja) 行動検知装置および行動検知方法ならびに被監視者監視装置
JP2017126372A (ja) 被監視者監視システム、被監視者監視装置および被監視者監視方法
JP7120238B2 (ja) 発報制御システム、検知ユニット、ケアサポートシステムおよび発報制御方法
WO2017183603A1 (ja) 被監視者監視システムおよび被監視者監視方法
JP7183788B2 (ja) 行動判定装置及び行動判定方法
JP7314939B2 (ja) 画像認識プログラム、画像認識装置、学習プログラム、および学習装置
JP6908028B2 (ja) 被監視者監視装置、該方法、該システムおよびプログラム
US20230412919A1 (en) Device and method for controlling a camera
JP7259540B2 (ja) 判定装置、判定装置の制御プログラム、および判定方法
JP7327396B2 (ja) 制御プログラム、レポート出力方法、およびレポート出力装置
JP2022010581A (ja) 検知装置、検知方法、画像処理方法、およびプログラム
JP2020140418A (ja) 携帯端末の制御プログラム、携帯端末および見守りシステム
WO2016199506A1 (ja) 対象物検出装置および対象物検出方法ならびに被監視者監視装置
JP2024126783A (ja) 離床状態報知システム
WO2019163561A1 (ja) 情報処理装置
JP2023133838A (ja) 情報処理装置、情報処理システム、情報処理方法、および制御プログラム
JP2023051148A (ja) ナースコールシステム、および状態判断システム
JP2004078344A (ja) 画像による安全確認方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant