JP6815104B2 - 映像表示装置及び映像表示方法 - Google Patents

映像表示装置及び映像表示方法 Download PDF

Info

Publication number
JP6815104B2
JP6815104B2 JP2016116538A JP2016116538A JP6815104B2 JP 6815104 B2 JP6815104 B2 JP 6815104B2 JP 2016116538 A JP2016116538 A JP 2016116538A JP 2016116538 A JP2016116538 A JP 2016116538A JP 6815104 B2 JP6815104 B2 JP 6815104B2
Authority
JP
Japan
Prior art keywords
image
specific target
target person
person
student
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016116538A
Other languages
English (en)
Other versions
JP2017120366A (ja
Inventor
石川 雅彦
雅彦 石川
貴司 折目
貴司 折目
好星 根来
好星 根来
吏 中野
吏 中野
康夫 高橋
康夫 高橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Daiwa House Industry Co Ltd
Original Assignee
Daiwa House Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daiwa House Industry Co Ltd filed Critical Daiwa House Industry Co Ltd
Priority to US16/066,488 priority Critical patent/US20190150858A1/en
Priority to PCT/JP2016/088629 priority patent/WO2017115740A1/ja
Publication of JP2017120366A publication Critical patent/JP2017120366A/ja
Application granted granted Critical
Publication of JP6815104B2 publication Critical patent/JP6815104B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/7425Displaying combinations of multiple images regardless of image source, e.g. displaying a reference anatomical image with a live image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/74Details of notification to user or communication with user or patient ; user input means
    • A61B5/742Details of notification to user or communication with user or patient ; user input means using visual displays
    • A61B5/743Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0077Devices for viewing the surface of the body, e.g. camera, magnifying lens
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/02Detecting, measuring or recording pulse, heart rate, blood pressure or blood flow; Combined pulse/heart-rate/blood pressure determination; Evaluating a cardiovascular condition not otherwise provided for, e.g. using combinations of techniques provided for in this group with electrocardiography or electroauscultation; Heart catheters for measuring blood pressure
    • A61B5/024Detecting, measuring or recording pulse rate or heart rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H10/00ICT specially adapted for the handling or processing of patient-related medical or healthcare data
    • G16H10/60ICT specially adapted for the handling or processing of patient-related medical or healthcare data for patient-specific data, e.g. for electronic patient records
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/30ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/07Home care
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2505/00Evaluating, monitoring or diagnosing in the context of a particular type of medical care
    • A61B2505/09Rehabilitation or training
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/37Details of the operation on graphic patterns
    • G09G5/377Details of the operation on graphic patterns for mixing or overlaying two or more graphic patterns

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Cardiology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)

Description

本発明は、映像表示装置及び映像表示方法に係り、所定の状態にある対象者の映像とその者の生体情報を確認するための映像表示装置及び映像表示方法に関する。
ある対象者の映像をディスプレイに表示する際、その者の生体情報を併せて表示することは、既に知られている。その一例としては、特許文献1に記載の技術が挙げられる。特許文献1に記載された遠隔患者監視システムでは、患者の生体情報をバイタルセンサにて測定し、患者の映像をビデオカメラにて撮影し、バイタルセンサの測定結果に応じたイメージを患者の映像にはめ込んで合成した合成映像を表示する。これにより、遠隔地に居る患者の挙動及び生体情報を簡易に確認することが可能となる。
特開平11−151210号公報
ところで、特許文献1に記載のシステムでは、合成映像における生体情報(バイタルセンサの測定結果)の表示位置が固定されている。このように生体情報の表示位置が固定されていると、例えば複数の患者の映像を映す場合には、表示されている生体情報が誰に関する情報であるかが判別し難くなる。
また、例えば、患者の容態が急変したり患者が運動等したりすることで当該患者の生体情報が急激に変化した場合には、その変化を可及的速やかに捉える必要がある。一方で、生体情報を取得する時間間隔(取得スパン)が長くなるほど、生体情報の変化に気付き難くなる。
さらに、複数人分の映像及び生体情報を表示するときには、各人の生体情報を当該各人の映像(人物映像)と対応付けて表示する必要がある。すなわち、複数人分の映像及び生体情報を表示する場合には、生体情報と人物映像との対応関係、具体的には、取得した生体情報が誰に関する情報であるのか、また、その者の人物映像が何処に表示されているのかを特定することになる。そして、生体情報と人物映像との対応関係については、当然ながら適切に特定する必要がある。
そこで、本発明は、上記の課題に鑑みてなされたものであり、その目的とするところは、所定の状態にある対象者の映像と共にその者の生体情報を確認する際に、より適切に当該生体情報を確認することが可能な映像表示装置及び映像表示方法を提供することである。
また、本発明の他の目的は、複数の対象者の各々の人物映像及び生体情報を表示するにあたり、生体情報と人物映像との対応関係を適切に特定することである。
前記課題は、本発明の映像表示装置によればセンサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得する生体情報取得部と撮影装置が撮影している映像を、ディスプレイに表示する映像表示部と前記映像中に含まれている人物映像の、前記映像における位置を特定する位置特定部と所定の状態にある前記対象者である特定対象者を検知する検知部と、を有し前記映像表示部は、前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記特定対象者の前記人物映像について前記位置特定部が特定した前記位置に応じた領域に、前記生体情報取得部が前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、前記ディスプレイの前に居て前記ディスプレイにて前記特定対象者の前記人物映像を確認する映像確認者の顔位置、顔の向き及び視線のうち、少なくとも一つの変化を検出する変化検出部を有し、該変化検出部が前記変化を検出すると、前記撮影装置が撮影した前記映像のうち、前記映像表示部によって前記ディスプレイに表示される範囲が前記変化に応じて切り替わることにより解決される。
上記のように構成された本発明の映像表示装置では、特定対象者の人物映像を含む映像をディスプレイに表示する際に、当該映像中、特定対象者の人物映像について特定した位置に応じた領域に、特定対象者の生体情報に応じた情報が重ねて表示される。これにより、ディスプレイに表示されている生体情報が誰に関する情報であるのかを把握し易くなる
また上記の構成では、撮影装置の撮影映像のうち、ディスプレイに表示される範囲が映像確認者の顔位置、顔の向き及び視線の変化に連動して切り替わる。これにより、例えば多くの特定対象者が検知された場合において一度にディスプレイに表示し得る特定対象者の人数が限られていても、映像確認者が顔位置や向き、あるいは視線を変えることで特定対象者全員の映像や生体情報を確認することが可能となる。
また前記課題は、本発明の映像表示装置によれば、センサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得する生体情報取得部と、撮影装置が撮影している映像を、ディスプレイに表示する映像表示部と、前記映像中に含まれている人物映像の、前記映像における位置を特定する位置特定部と、所定の状態にある前記対象者である特定対象者を検知する検知部と、を有し、前記映像表示部は、前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記特定対象者の前記人物映像について前記位置特定部が特定した前記位置に応じた領域に、前記生体情報取得部が前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、前記検知部が複数の前記特定対象者を検知したときに、前記生体情報取得部は、前記特定対象者別に用意されており前記センサが搭載された発信器の各々から、前記センサにより計測された前記特定対象者の前記生体情報、及び、前記特定対象者に関する他の情報を取得し、前記位置特定部は、所定の動作を行った前記特定対象者の前記人物映像の前記位置を特定する第一処理と、前記特定対象者別の前記発信器のうち、前記所定の動作を行った前記特定対象者に関する前記他の情報を送った前記発信器を特定する第二処理と、を実行し、前記映像表示部は、前記所定の動作を行った前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記位置特定部が前記第一処理にて特定した前記位置に応じた領域に、前記位置特定部が前記第二処理にて特定した前記発信器から前記生体情報取得部が取得した前記生体情報に応じた情報を前記映像に重ねて表示することにより解決される。
上記の構成では、複数の特定対象者のうち、所定の動作を行った特定対象者について、その者の人物映像がディスプレイに表示された映像中の何処に表示されているのか(すなわち、表示位置)を特定する。また、特定対象者別に用意された発信器のうち、所定の動作を行った特定対象者に関する情報(他の情報)を送った発信器を特定する。これにより、所定の動作を行った特定対象者の人物映像と、当該特定対象者の生体情報との対応関係を特定することが可能となる。このようにして人物映像と生体情報との対応関係が特定される結果、所定の動作を行った特定対象者の人物映像の位置に応じた領域に、当該特定対象者の生体情報が表示されるようになる。以上により、複数の特定対象者が居る場合であっても、各特定対象者の生体情報をその者の人物映像と対応付けて表示することが可能となる。
また、上記の映像表示装置において、前記検知部が前記特定対象者を検知している間、前記生体情報取得部は、通常時の前記時間間隔である第1時間間隔よりも短い第2時間間隔にて前記特定対象者の前記生体情報を取得し、前記映像表示部は、前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記生体情報取得部が前記第2時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示すると、より好適である。
上記の構成では、検知部が特定対象者を検知している間、通常時の時間間隔よりも短い時間間隔にて特定対象者の生体情報を取得する。これにより、特定対象者の生体情報が変化した際には、その変化をより速やかに捉えることが可能となる。
また、上記の映像表示装置において、前記映像表示部は、前記特定対象者の前記生体情報に応じた情報として前記映像に重ねて表示する情報の内容を、前記生体情報取得部が前記特定対象者の前記生体情報を取得する度に更新すると、好適である。
上記の構成では、ディスプレイには最新の生体情報に応じた情報が表示されるため、特定対象者の生体情報が変化した際には、その変化を更に速やかに捉えることが可能となる。
また、上記の映像表示装置において、前記センサは、該センサを装着している前記対象者の活動度合いに応じて大きさが変化する前記生体情報を計測し、前記映像表示装置と通信可能であり、前記検知部が検知した前記特定対象者を識別する識別部と、前記対象者が装着している前記センサの識別情報を、前記対象者毎に記憶している記憶部と、を有し、前記生体情報取得部は、前記識別部によって識別された前記特定対象者と対応付けられた前記センサの前記識別情報を前記記憶部から読み出し、読み出した前記識別情報によって特定される前記センサと通信することで前記特定対象者の前記生体情報を取得すると、より好適である。
上記の構成では、特定対象者を検知すると、当該特定対象者を識別する。その後、識別された特定対象者に装着されたセンサと通信することにより、当該特定対象者の生体情報を取得する。このような手順によれば、検知された特定対象者の生体情報を、より確実に取得することが可能となる。
また、上記の映像表示装置において、前記検知部は、所定の場所に居る前記特定対象者を検知し、前記映像表示部は、前記所定の場所から離れた場所に設置された前記ディスプレイに前記映像を表示すると、更に好適である。
上記の構成では、ある場所に居る対象者の映像及び生体情報を、その場所から離れた遠隔地にて確認することが可能となる。
また、上記の映像表示装置において、前記映像表示部は、前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示する際、前記特定対象者の前記生体情報が予め設定された条件を満たしているか否かを判定し、判定結果に応じた表示態様にて、前記特定対象者の前記生体情報に応じた情報を表示すると、益々好適である。
上記の構成では、特定対象者の生体情報が予め設定された条件を満たしているか否かを判定し、判定結果に応じた表示態様にて、特定対象者の生体情報に応じた情報を表示する。これにより、特定対象者の生体情報が所定の条件を満たしているとき(例えば、生体情報が異常時の内容となっているとき)、かかる事態を容易に気付かせることが可能となる。
また、上記の映像表示装置において、前記生体情報取得部が通常時に前記時間間隔にて取得した前記生体情報を、前記対象者別に集計して前記対象者別に解析する情報解析部を更に有し、前記映像表示部は、前記情報解析部の解析結果に応じて前記対象者別に設定された前記条件のうち、前記特定対象者と対応する前記条件を前記特定対象者の前記生体情報が満たしているかを判定すると、一段と好適である。
上記の構成では、特定対象者の生体情報について成否が判定される条件を、通常時に取得した生体情報に基づいて対象者別に設定する。このように条件を設定すれば、特定対象者の生体情報が当該条件を満たすか否かを判定する際に、特定対象者の通常時の生体情報を加味することが可能となる。つまり、例えば特定対象者の生体情報が異常時の内容となっているかどうかを判断する上で、当該特定対象者の個人差を考慮することが可能となる。
また、上記の映像表示装置において、前記生体情報取得部は、前記特定対象者別に用意された前記発信器の各々から、前記発信器に搭載された動作検出器が前記特定対象者の動作を検出した際に生成する動作情報を前記他の情報として取得し、前記位置特定部は、前記第二処理において、前記特定対象者別の前記発信器のうち、前記動作検出器が前記所定の動作を検出した際に生成した前記動作情報を送った前記発信器を特定すると、より好適である。
上記の構成では、発信器に搭載された動作検出器が特定対象者の動作を検出した際に生成する動作情報を、特定対象者に関する他の情報として取得する。かかる構成では、ある特定対象者が所定の動作を行うと、その者に対して用意された発信器から、動作検出器が所定の動作を検出した際に生成した動作情報が送られるようになる。これにより、所定の動作を行った特定対象者の発信器を、より的確に特定することが可能となる。この結果、各特定対象者の人物映像と生体情報との対応関係をより適切に特定することが可能となる。
また、上記の映像表示装置において、複数の前記特定対象者が居る場所に設置された機器を制御するための制御情報を送信する制御情報送信部を有し、該制御情報送信部は、複数の前記特定対象者のうちの一人に対して前記所定の動作の実施を促すように前記機器を制御するための前記制御情報を送信し、前記生体情報取得部は、前記特定対象者別に用意された前記発信器の各々から、前記特定対象者の名前を前記他の情報として取得し、前記制御情報送信部は、前記一人に対して前記所定の動作の実施を促すように前記機器を制御するための前記制御情報として、前記一人の名前を示す音声を前記機器に発生させるための前記制御情報を送信し、前記位置特定部は、前記第一処理において、前記音声への応答動作を行った前記特定対象者の前記人物映像の前記位置を特定すると、更に好適である。
上記の構成では、複数の特定対象者のうちの一人に対して所定の動作を促すことが可能となる。これにより、所定の動作を行っている特定対象者の人物映像の位置を特定することや、所定の動作を行っている特定対象者の発信器を特定することがより容易になる。
また上記の構成では、複数の特定対象者のうちの一人に対して所定の動作を促すために、その者の名前を示す音声を発生させる。そして、この音声への応答動作を所定の動作とすれば、当該所定の動作を行っている特定対象者の人物映像の位置を特定することや、所定の動作を行っている特定対象者の発信器を特定することが一段と容易になる。
また、上記の映像表示装置において、前記位置特定部は、前記第一処理において、前記映像中に前記人物映像が映っている前記特定対象者の身体各部と前記特定対象者が居る場所において設定された基準位置との間の距離を示すデータに基づいて、前記所定の動作を行っている前記特定対象者の前記人物映像の前記位置を特定すると、益々好適である。
上記の構成では、位置特定部が、ディスプレイに表示されている映像中に人物映像が映っている特定対象者の身体各部についての深度(深度については後述する)を示すデータに基づいて、所定の動作を行っている特定対象者の人物映像の位置を特定する。これにより、所定の動作を行っている特定対象者の人物映像の位置を的確に特定することが可能となる。
また、前述した課題は、本発明の映像表示方法によればコンピュータが、センサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得することとコンピュータが、撮影装置が撮影している映像を、ディスプレイに表示することとコンピュータが、前記映像中に含まれている人物映像の、前記映像における位置を特定することとコンピュータが、所定の状態にある前記対象者である特定対象者を検知することと、を有し前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際には、前記特定対象者の前記人物映像について特定した前記位置に応じた領域に、前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、前記ディスプレイの前に居て前記ディスプレイにて前記特定対象者の前記人物映像を確認する映像確認者の顔位置、顔の向き及び視線のうち、少なくとも一つの変化を検出することを有し、該変化を検出すると、前記撮影装置が撮影した前記映像のうち、前記ディスプレイに表示される範囲が前記変化に応じて切り替わることにより解決される。
また、前述した課題は、本発明の映像表示方法によれば、コンピュータが、センサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得することと、コンピュータが、撮影装置が撮影している映像を、ディスプレイに表示することと、コンピュータが、前記映像中に含まれている人物映像の、前記映像における位置を特定することと、コンピュータが、所定の状態にある前記対象者である特定対象者を検知することと、を有し、前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際には、前記特定対象者の前記人物映像について特定した前記位置に応じた領域に、前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、複数の前記特定対象者を検知したときには、前記特定対象者別に用意されており前記センサが搭載された発信器の各々から、前記センサにより計測された前記特定対象者の前記生体情報、及び、前記特定対象者に関する他の情報を取得し、所定の動作を行った前記特定対象者の前記人物映像の前記位置を特定する第一処理と、前記特定対象者別の前記発信器のうち、前記所定の動作を行った前記特定対象者に関する前記他の情報を送った前記発信器を特定する第二処理と、を実行し、前記所定の動作を行った前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際には、前記第一処理にて特定した前記位置に応じた領域に、前記第二処理にて特定した前記発信器から取得した前記生体情報に応じた情報を前記映像に重ねて表示することにより解決される。
上記の方法であれば、所定の状態にある対象者の映像と共にその者の生体情報を確認する際に、誰の生体情報であるかを容易に把握することができ、また、生体情報が変化した際には、その変化をより速やかに捉えることが可能となる。

本発明によれば、所定の状態にある対象者の映像と共にその者の生体情報を確認する際に、誰の生体情報であるかを容易に把握することができる。これにより、例えば、複数人の特定対象者の映像を表示する状況において各特定対象者が移動したとしても、移動後の位置に応じて生体情報の表示位置も変化するため、移動後の各対象者の生体情報を容易に確認することが可能となる。
また、本発明によれば、特定対象者の容態が急変したり特定対象者が運動等したりすることで生体情報が変化した際、その変化をより速やかに捉えることが可能となる。この結果、生体情報の変化に対して速やかな対応を採ることができ、特定対象者の状態(例えば、健康状態等)を良好に保つことが可能となる。
また、本発明によれば、複数の対象者の各々の人物映像及び生体情報を表示するにあたり、所定の動作を行っている特定対象者の生体情報と人物映像とを対応付けることにより、生体情報と人物映像との対応関係を適切に特定することが可能となる。
本発明の映像表示装置を含む通信システムの説明図である。 本発明の映像表示装置を含む通信システムの機器構成を示す図である。 対象者側に設置された映像表示用ユニットを示す図である。 深度データの説明図である。 映像確認者側に設置された映像表示用ユニットを示す図である。 映像確認者の動作に応じて表示映像が切り替わった様子を示す図である。 本発明の映像表示装置の構成を機能面から示す図である。 センサID記憶テーブルを示す図である。 平均心拍数記憶テーブルを示す図である。 運動指導用フローの流れを示す図である。 映像表示処理の流れを示す図である(その1)。 映像表示処理の流れを示す図である(その2)。 本発明の第二実施形態に係る映像表示装置を含む通信システムの機器構成を示す図である。 本発明の第二実施形態に係る映像表示装置の構成を示す図である。 第二実施形態における各種情報のやりとりを示す図である。 複数の特定対象者の一人が所定の動作を行っている様子を示す図である。 所定の動作を行っている特定対象者について人物映像の位置を特定する手順を示す図である。 対応付け工程の流れを示す図である。
以下、本発明の一実施形態(以下、本実施形態)について説明する。なお、以下に説明する実施形態は、本発明の理解を容易にするための一例であり、本発明を限定するものではない。すなわち、本発明は、その趣旨を逸脱することなく、変更、改良され得ると共に、本発明にはその等価物が含まれることは勿論である。
<<本実施形態に係る映像表示装置の用途>>
本実施形態に係る映像表示装置(以下、映像表示装置)は、映像確認者が遠隔地に居る対象者の映像を確認するために用いられる。特に、本実施形態では、運動指導用の通信システム(以下、運動指導用システム1)を構築するために映像表示装置が利用される。
上記の運動指導用システム1について図1を参照しながら説明すると、運動指導用システム1は、映像確認者としてのインストラクターI及び対象者としての受講者Jによって利用される。そして、運動指導用システム1により、インストラクターIと受講者Jとは、互いに異なる場所(室)に居ながら互いの映像をリアルタイムで確認することができる。
具体的に説明すると、図1に示すように、受講者Jは、ジムP1に設置されたディスプレイ11にてインストラクターIの映像を見ながら、インストラクターIの指導(レッスン)を受けることが可能である。一方、同図に示すように、インストラクターIは、専用ブースP2に設置されたディスプレイ11にてレッスン受講中の受講者Jの映像を確認し、受講者Jの状態(例えば、指導に対する理解度合い、疲労度、適切に身体を動かせているか等)を監視することが可能である。
なお、ジムP1は、本発明における「所定の場所」に相当し、専用ブースP2は、「所定の場所から離れた場所」に相当する。上記2つの場所は、互いに異なる建物に在る場所であってもよく、同一の建物内において互いに離れた部屋であってもよい。
また、運動指導用システム1の機能により、インストラクターIは、レッスン受講中の受講者Jについてリアルタイムの映像とともに現在の生体情報を確認することが可能である。ここで、「生体情報」とは、受講者Jの状態(健康状態)や体調に応じて変化する特徴量であり、本実施形態では、活動度合い(厳密には運動量)に応じて大きさが変化する情報、具体的には心拍数である。ただし、これに限定されるものではなく、例えば呼吸量やカロリー消費量若しくは体温変化量を生体情報として確認してもよい。
本実施形態では、受講者Jの生体情報を計測するセンサとしてウェアラブルセンサ20が用いられている。このウェアラブルセンサ20は、受講者Jが装着可能であり、例えばリストバンド型の外観を呈している。そして、受講者Jは、普段からウェアラブルセンサ20を着用している。このため、受講者Jの生体情報(具体的には心拍数)については、レッスン受講中のみならず、それ以外の期間においても計測されることになる。また、ウェアラブルセンサ20の計測結果は、通信ネットワークを介して所定の送信先に向けて送信されることになっている。なお、ウェアラブルセンサ20の計測結果の送信については、ウェアラブルセンサ20から直接行われてもよく、受講者Jが携帯するスマートフォンや携帯電話等の通信機器を経由する形で行われてもよい。
<<運動指導用システムの機器構成について>>
次に、運動指導用システム1の機器構成について図2を参照しながら説明する。運動指導用システム1は、図2に図示されているように、通信ネットワーク(以下、ネットワークW)に接続された複数の機器によって構成されている。具体的に説明すると、主に受講者Jによって利用される映像表示用ユニット(以下、受講者側ユニット2)と、主にインストラクターIによって利用される映像表示用ユニット(以下、インストラクター側ユニット3)と、が運動指導用システム1の主要構成機器である。
また、図2に示すように、運動指導用システム1の構成機器の中には、前述したウェアラブルセンサ20と生体情報記憶サーバ30とが含まれている。ウェアラブルセンサ20は、受講者J毎に用意されており、換言すると、各受講者Jは、各自専用のウェアラブルセンサ20を装着している。そして、ウェアラブルセンサ20は、これを装着している受講者Jの心拍数を定期的に計測し、その計測結果を出力する。生体情報記憶サーバ30は、ネットワークWを経由して各ウェアラブルセンサ20の計測結果を受信し、受信した計測結果を受講者J別に記憶するデータベースサーバである。
なお、ウェアラブルセンサ20及び生体情報記憶サーバ30は、それぞれ、ネットワークWに接続されており、ネットワークWに接続された機器(例えば、後述する第2のデータ処理端末5)と通信可能である。
以下、受講者側ユニット2及びインストラクター側ユニット3のそれぞれの詳細構成について説明する。先ず、受講者側ユニット2の構成について説明すると、受講者側ユニット2は、ジムP1において使用され、ジムP1に設置されたディスプレイ11にインストラクターIの映像を表示すると共に、ジムP1に居る受講者Jの映像を撮影する。
受講者側ユニット2は、図2に示すように、第1のデータ処理端末4と、ディスプレイ11と、スピーカ12と、カメラ13と、マイク14と、赤外線センサ15と、を構成要素として有する。ディスプレイ11は、映像表示用の画面を構成するものである。なお、本実施形態に係るディスプレイ11は、図3に示すように、インストラクターIの人物映像を等身大サイズにて表示するのに十分な画面サイズとなっている。
スピーカ12は、映像中に組み込まれた音声を再生したときの再生音を発する機器であり、公知のスピーカによって構成される。
カメラ13は、撮像範囲(画角)内にある被写体の映像を撮像する撮像装置であり、公知のネットワークカメラからなる。ここで、「映像」とは、連続している複数のフレーム画像の集合体によって構成されたもの、すなわち、動画を意味する。また、本実施形態において、受講者側ユニット2が有するカメラ13は、図3に示すように、ディスプレイ11の直上位置に設置されている。このため、受講者側ユニット2が有するカメラ13は、起動中、ディスプレイ11の手前位置にある被写体の映像を撮像することになる。
また、受講者側ユニット2が有するカメラ13に関して言うと、画角が比較的幅広に設定されている。つまり、受講者側ユニット2が有するカメラ13は、横方向(水平方向)に広い範囲で撮影することができ、ディスプレイ11の前に複数(例えば3〜4人)の受講者Jが居る場合には当該複数の受講者Jを同時に撮影することが可能である。
マイク14は、マイク14が設置された部屋内の音声を集音するものである。
赤外線センサ15は、所謂デプスセンサであり、赤外線方式にて計測対象物の深度を計測するためのセンサである。具体的に説明すると、赤外線センサ15は、計測対象物に向けて赤外線を照射し、その反射光を受光することで計測対象物各部の深度を計測する。ここで、「深度」とは、基準位置から計測対象物までの距離(すなわち、奥行距離)のことである。ちなみに、本実施形態では、受講者Jが居るジムP1において予め設定された位置、より具体的には、ジムP1に設置されたディスプレイ11の映像表示面(画面)の位置が基準位置に該当する。つまり、赤外線センサ15は、深度として、ディスプレイ11の画面と計測対象物の間の距離、より厳密にはディスプレイ11の画面の法線方向(換言すると、ディスプレイ11を貫く方向)における距離を計測することになる。
なお、本実施形態に係る赤外線センサ15は、カメラ13が撮影した映像を所定数の画素に分割したときの当該画素毎に深度を計測する。そして、画素毎に得られた深度の計測結果を映像単位でまとめると、当該映像についての深度データが得られるようになる。深度データについて図4を参照しながら説明すると、深度データは、カメラ13の撮像映像(厳密には、各フレーム画像)について画素別に深度を規定している。具体的に説明すると、図中の黒塗りの画素が、背景映像に属する画素に相当し、白抜きの画素が、背景よりも前方に位置する被写体の映像(例えば、人物映像)に属する画素に相当する。したがって、人物映像を含む映像についての深度データは、当該人物映像が映っている人物の身体各部の深度(基準位置からの距離)を示すデータとなる。
第1のデータ処理端末4は、受講者側ユニット2の中枢をなす装置であり、コンピュータによって構成されている。この第1のデータ処理端末4の構成については、公知であり、CPU、ROMやRAM等のメモリ、通信用インタフェース及びハードディスクドライブ等によって構成されている。また、第1のデータ処理端末4には、映像表示に関する一連の処理を実行するためのコンピュータプログラム(以下、第1のプログラム)がインストールされている。
第1のプログラムが起動することにより、第1のデータ処理端末4は、カメラ13及びマイク14を制御してジムP1内の映像を撮影したり音声を集音したりする。そして、第1のデータ処理端末4は、マイク14が集音した音声をカメラ13の撮影映像中に組み込んだ上で、当該映像をインストラクター側ユニット3に向けて送信する。この際、第1のデータ処理端末4は、赤外線センサ15の深度計測によって得られた深度データを併せて送信する。
また、第1のプログラムが起動することにより、第1のデータ処理端末4は、インストラクター側ユニット3から送信されてくる映像を受信した際にディスプレイ11及びスピーカ12を制御する。これにより、ジムP1内のディスプレイ11には、インストラクターIの人物映像を含む専用ブースP2内の映像が表示されるようになる。また、ジムP1内のスピーカ12からは、専用ブースP2内で集音された音声(具体的には、インストラクターIの音声)の再生音が発せられるようになる。
次に、インストラクター側ユニット3の構成について説明する。インストラクター側ユニット3は、専用ブースP2において使用され、専用ブースP2に設置されたディスプレイ11にレッスン受講中の受講者Jの映像を表示すると共に、専用ブースP2に居るインストラクターIの映像を撮影する。
インストラクター側ユニット3は、図2に示すように、第2のデータ処理端末5と、ディスプレイ11と、スピーカ12と、カメラ13と、マイク14とを構成要素として有する。ディスプレイ11、スピーカ12、カメラ13及びマイク14の構成については、受講者側ユニット2が有するものと略同様である。なお、本実施形態に係るディスプレイ11は、図5に示すように、受講者Jの人物像を等身大サイズにて表示するのに十分な画面サイズとなっている。また、本実施形態において、インストラクター側ユニット3が有するディスプレイ11は、幾分横長な画面を形成しており、図5に示すように、例えば横に並んでいる2人の受講者Jの全身像を同時に表示することが可能である。
第2のデータ処理端末5は、インストラクター側ユニット3の中枢をなす装置であり、コンピュータによって構成されている。そして、この第2のデータ処理端末5が本実施形態に係る映像表示装置として機能する。なお、第2のデータ処理端末5の構成については、公知であり、CPU、ROMやRAM等のメモリ、通信用インタフェース及びハードディスクドライブ等によって構成されている。また、第2のデータ処理端末5には、映像表示に関する一連の処理を実行するためのコンピュータプログラム(以下、第2のプログラム)がインストールされている。
第2のプログラムが起動することにより、第2のデータ処理端末5は、カメラ13及びマイク14を制御して専用ブースP2内の映像を撮影したり音声を集音したりする。そして、第2のデータ処理端末5は、マイク14が集音した音声をカメラ13の撮影映像中に組み込んだ上で、当該映像を受講者側ユニット2に向けて送信する。
また、第2のプログラムが起動することにより、第2のデータ処理端末5は、受講者側ユニット2から送信されてくる映像を受信した際にディスプレイ11及びスピーカ12を制御する。これにより、専用ブースP2内のディスプレイ11には、受講者Jの人物映像を含むジムP1内の映像が表示されるようになる。また、専用ブースP2内のスピーカ12からは、ジムP1で集音された音声(具体的には、受講者Jの音声)の再生音が発せられるようになる。
また、第2のデータ処理端末5は、受講者側ユニット2から映像と共に深度データを受信する。この深度データを解析することで、第2のデータ処理端末5は、受講者側ユニット2から受信した映像中に人物映像が含まれている場合に、当該受信映像における人物映像の位置を特定することが可能である。
より具体的に説明すると、レッスン受講中の受講者Jの人物映像を含む映像が受講者側ユニット2から送信されてきたとき、第2のデータ処理端末5は、その映像と併せて受信した深度データを解析する。かかる解析において、第2のデータ処理端末5は、深度の相違に基づき、深度データを構成する画素を背景映像の画素とそれ以外の映像の画素とに分ける。その後、第2のデータ処理端末5は、図4に図示の人物の骨格モデルを適用し、背景映像以外の映像の画素から人物映像の画素を抽出する。骨格モデルとは、人物の身体中、頭部、肩、肘、手首、上半身中心、腰、膝、足首に関する位置関係を簡易的に示したモデルである。なお、骨格モデルの取得方法については、公知の方法が利用可能である。
そして、深度データの中から抽出した人物映像の画素に基づき、当該画素と対応する映像を、受信映像(受講者側ユニット2のカメラ13が撮影した映像)において特定し、かかる映像を人物映像とする。この結果、受信映像における人物映像の位置が特定されることとなる。
なお、人物映像の位置の特定方法としては、深度データを用いた特定方法に限定されるものではなく、例えば、カメラ13の撮影映像に対して画像解析を行うことで人物映像の位置を特定してもよい。
また、第2のデータ処理端末5は、受信映像から特定した人物映像と深度データと骨格モデルとに基づいて、当該人物映像が映し出されている人(具体的には受講者J)の姿勢変化や動作の有無を検出することが可能である。
さらにまた、インストラクター側ユニット3が有するカメラ13がインストラクターIを撮影している間、第2のデータ処理端末5は、その撮影映像を解析することで、インストラクターIの顔位置の変化を検出する。そして、第2のデータ処理端末5は、インストラクターIの顔位置の変化を検出すると、その変化後の顔位置に応じて、専用ブースP2に設置されたディスプレイ11に表示させる映像を遷移させる。かかる映像遷移について、以下、図5及び6を参照しながら説明する。
第2のデータ処理端末5が受講者側ユニット2から受信する映像は、ジムP1に設置されたカメラ13が撮影した映像である。また、ジムP1に設置されたカメラ13が撮影した映像は、前述したように、横方向(水平方向)に広い範囲で撮影された映像となっており、そのサイズは、専用ブースP2に設置されたディスプレイ11の画面よりも幾分幅広となっている。このため、専用ブースP2に設置されたディスプレイ11には、受講者側ユニット2から受信した映像の一部が表示されることとなる。
一方、インストラクターIの顔位置がディスプレイ11の幅方向(すなわち、横方向)に移動したとき、第2のデータ処理端末5は、その移動量と移動向きを算出する。その後、第2のデータ処理端末5は、算出した移動量と移動向きに応じて、専用ブースP2に設置されたディスプレイ11に表示する映像を、インストラクターIの顔位置が移動する前に表示されていた映像から遷移させる。具体例を挙げて説明すると、専用ブースP2に設置されたディスプレイ11に図5に図示の映像が表示されているときに、インストラクターIの顔位置が右向きに距離Lだけ移動したとする。かかる場合、第2のデータ処理端末5は、左向きに距離Lに応じた分だけ図5に図示の映像をずらした映像、すなわち、図6に図示された映像をディスプレイ11に表示するようになる。
以上のように本実施形態では、専用ブースP2でディスプレイ11に表示されている映像を確認しているインストラクターIの顔が横移動すると、それに伴って、上記のディスプレイ11に表示される映像が横方向にずれる。つまり、インストラクターIの顔が横移動することで、受講者側ユニット2から受信した映像のうち、ディスプレイ11に表示される範囲を切り替わる。この結果、インストラクターIは、受講者側ユニット2から受信した映像のうち、ある範囲の映像(例えば、図5に図示された映像)を見ているときに顔を移動させることで、その時点ではディスプレイ11に表示されていなかった範囲の映像(例えば、図6に図示された映像)を見ること、いわゆる覗き込みが可能となる。これにより、レッスン受講中の受講者JがジムP1に多く居る場合において、そのうち、一度にディスプレイ11に表示し得る人数が限られていても、インストラクターIが顔位置を変えることでレッスン受講中の受講者J全員の映像を確認することが可能となる。
さらに、第2のデータ処理端末5は、各受講者Jの生体情報、すなわち、各受講者Jが装着しているウェアラブルセンサ20によって計測される心拍数を取得する。受講者Jの心拍数を取得する方法について説明すると、通常時の取得方法と、ジムP1にてレッスンを受講している受講者Jの心拍数を取得する際の方法と、が異なっている。
具体的に説明すると、第2のデータ処理端末5は、通常時、定期的に生体情報記憶サーバ30と通信することで、生体情報記憶サーバ30に記憶されている各受講者Jの心拍数を取得する。なお、生体情報記憶サーバ30から生体情報を取得する時間間隔(以下、第1時間間隔t1)については、任意に設定することが可能であるが、本実施形態では3〜10分の範囲で設定されている。
一方、第2のデータ処理端末5は、レッスン受講中の受講者Jの心拍数を取得する場合には、レッスン受講中の受講者Jが装着しているウェアラブルセンサ20と直接通信することで、当該受講者Jの心拍数を取得する。なお、ウェアラブルセンサ20から生体情報を取得する時間間隔(以下、第2時間間隔t2)については、第1時間間隔t1よりも短い時間に設定されており、本実施形態では1〜5秒の範囲で設定されている。これは、レッスン受講中の受講者Jの心拍数が通常時(レッスンを受講していない時)に比べて顕著に変化することを反映している。
さらにまた、第2のデータ処理端末5は、レッスン受講中の受講者Jの人物映像をディスプレイ11に表示させる際、当該人物映像の位置に応じた領域に、心拍数に応じた情報を当該人物映像に重ねて表示する。より具体的に説明すると、図5及び6に示すように、レッスン受講中の受講者Jの胸部が映っている領域に、心拍数の数値(厳密には、ウェアラブルセンサ20の計測結果を示す数値)が記載されたハート型のテキストボックスTxをポップアップ表示する。
また、テキストボックスTxに記載されている心拍数の数値は、第2のデータ処理端末5が新たに心拍数を取得する度に更新される。つまり、テキストボックスTxに記載されている心拍数の数値は、第2のデータ処理端末5がウェアラブルセンサ20からレッスン受講中の受講者Jの心拍数を取得する時間間隔、すなわち第2時間間隔t2にて更新されることになる。この結果、ディスプレイ11にてレッスン受講中の受講者Jの映像を確認しているインストラクターIは、レッスン受講中の受講者Jの現在の心拍数を併せて確認することが可能となる。
なお、本実施形態では、心拍数に応じた情報として、ウェアラブルセンサ20の計測結果を示す数値を表示することとしたが、これに限定されるものではなく、これに準じた内容、例えばウェアラブルセンサ20の計測結果に応じて決まる記号や図形若しくは文字を表示してもよい。
また、レッスン受講中の受講者Jの映像と共に表示する情報について言うと、心拍数に応じた情報以外の情報が含まれてもよい。ちなみに、本実施形態では、図5や図6に示すように、心拍数に応じた情報に加えて、レッスン受講中の受講者Jの属性(個人情報)やレッスン受講開始時からのカロリー消費量が記載されたテキストボックスTyを、当該受講者Jの頭部が映っている領域の真上にポップアップ表示することになっている。ただし、これに限定されるものではなく、レッスン受講中の受講者Jの状態(現状)を把握する上で有用な情報であれば、更に追加することも可能である。
<<第2のデータ処理端末の構成について>>
次に、第2のデータ処理端末5の構成を機能面から改めて説明する。第2のデータ処理端末5をなすコンピュータは、前述した第2のプログラムが実行されることにより本発明の映像表示装置として機能する。換言すると、第2のデータ処理端末5は、複数の機能部を備えており、具体的には、図7に示すように、生体情報取得部51と、情報解析部52と、映像送信部53と、映像表示部54と、検知部55と、識別部56と、位置特定部57と、変化検出部58、記憶部59とを有する。これらは、第2のデータ処理端末5を構成するハードウェア機器(具体的にはCPU、メモリ、通信用インタフェース及びハードディスクドライブ)と第2のプログラムとが協働することで構成されている。以下、各機能部について説明する。
(生体情報取得部51)
生体情報取得部51は、ウェアラブルセンサ20によって計測された受講者Jの心拍数を、予め設定された時間間隔にて取得するものである。より詳しく説明すると、通常時、生体情報取得部51は、第1時間間隔t1にて生体情報記憶サーバ30と通信することで、生体情報記憶サーバ30に記憶されている各受講者Jの心拍数を取得する。なお、このときに取得した各受講者Jの心拍数は、第2のデータ処理端末5において受講者J別に記憶される。
また、第2のデータ処理端末5は、ジムP1にてレッスン受講中の受講者Jが居る場合には、レッスン受講中の受講者Jが装着しているウェアラブルセンサ20と通信することで、当該受講者Jの心拍数を取得する。より詳しく説明すると、後述の検知部55がレッスン受講中の受講者Jを検知して当該受講者Jの識別情報(受講者ID)を特定すると、生体情報取得部51は、図8に図示したセンサID記憶テーブルを参照し、検知部55が特定した受講者IDと対応するセンサIDを特定する。センサID記憶テーブルとは、受講者Jに割り当てられた受講者IDと、当該受講者Jが装着しているウェアラブルセンサ20の識別情報であるセンサIDと、の対応関係を規定したものであり、記憶部59に記憶されている。
そして、生体情報取得部51は、特定したセンサIDが割り当てられたウェアラブルセンサ20と通信することで、レッスン受講中の受講者Jの心拍数を取得する。また、本実施形態において、生体情報取得部51は、レッスン受講中の受講者Jがレッスンを受講している間(換言すると、検知部55がレッスン受講中の受講者Jを検知している間)、第2時間間隔t2にて当該受講者Jの心拍数を取得する。
(情報解析部52)
情報解析部52は、生体情報取得部51が通常時に第1時間間隔t1にて取得した各受講者Jの心拍数を、受講者J別に集計して受講者J別に解析するものである。より具体的に説明すると、情報解析部52は、第1時間間隔t1にて取得した各受講者Jの心拍数を受講者J別に平均し、受講者J毎の平均心拍数を算出する。なお、本実施形態では、過去に取得した数十個分の心拍数を平均して平均心拍数を算出することになっているが、平均心拍数を算出する際の対象として設定される心拍数の範囲については、任意に決めてよい。
また、情報解析部52が算出した受講者J毎の平均心拍数については、受講者IDと紐付けられた状態で記憶部59に記憶され、具体的には、図9に図示した平均心拍数記憶テーブルとして記憶される。
(映像送信部53)
映像送信部53は、専用ブースP2内でインストラクターIが所定の動作を行うこと(例えば、専用ブースP2内のディスプレイ11の手前位置に立つこと)を契機として、専用ブースP2に設置されたカメラ13及びマイク14を制御して専用ブースP2内での撮影や集音を行わせる。その後、映像送信部53は、マイク14が集音した音声をカメラ13の撮影映像に組み込み、その上で当該撮影映像を受講者側ユニット2に向けて送信する。なお、本実施形態では、音声を組み込んだ状態の映像を送信する形となっているが、これに限定されるものではなく、映像と音声とを分離して個別に送信してもよい。
(映像表示部54)
映像表示部54は、受講者側ユニット2から受信した映像、すなわち、ジムP1に設置されたカメラ13が撮影しているリアルタイムの映像をディスプレイ11に表示する。また、映像表示部54は、受信映像に組み込まれている音声を再生した際の再生音を、スピーカ12を通じて発する。
また、映像表示部54は、後述の変化検出部58がインストラクターIの顔位置の変化を検出した場合に、受講者側ユニット2から受信した映像のうち、専用ブースP2に設置されたディスプレイ11に表示する範囲を、変化後の顔位置に応じて切り替える。つまり、インストラクターIの顔が横移動したとき、映像表示部54は、その移動距離に応じた分だけ、現在表示されている映像からずらした映像をディスプレイ11に表示する。
さらに、受講者側ユニット2から受信した映像中にレッスン受講中の受講者Jの人物映像が含まれている場合、映像表示部54は、その映像を表示する際に、レッスン受講中の受講者Jの心拍数に応じた情報を上記の映像に重ねて表示する。より具体的に説明すると、映像表示部54は、レッスン受講中の受講者Jの人物映像の位置(厳密には、位置特定部57が特定した位置)に応じた領域に、当該受講者Jが装着しているウェアラブルセンサ20の計測結果を示すテキストボックスTxをポップアップ表示する。
また、映像表示部54は、上記のテキストボックスTxの表示内容(すなわち、レッスン受講中の受講者Jの心拍数)を、生体情報取得部51がレッスン受講中の受講者Jの心拍数を取得する度に更新する。
さらに、本実施形態において、映像表示部54は、テキストボックスTxにてレッスン受講中の受講者Jの心拍数を表示するにあたり、当該心拍数が予め設定された条件を満たしているか否かを判定する。具体的に説明すると、映像表示部54は、レッスン受講中の受講者Jについて、心拍数の現在値が閾値を超えているか否かを判定する。
ここで、「閾値」とは、レッスン受講中の受講者Jについて異常の有無(具体的には、レッスンにおいて行っている運動を中断すべき状態であるか否か)を判定する際の条件として用いられる値であり、受講者J毎に設定される。また、本実施形態において、受講者J毎の閾値は、情報解析部52が受講者J別に算出した平均心拍数に応じて設定される。設定された受講者J毎の閾値は、記憶部59に記憶される。さらに、閾値の設定は、平均心拍数が更新される度に行われる。
なお、平均心拍数に応じて閾値を設定する際の具体的な方法については特に限定されるものではない。また、本実施形態では、平均心拍数に応じて閾値を設定することとしたが、平均心拍数以外のパラメータ(例えば、年齢や性別、若しくは心拍数以外の生体情報)に応じて設定してもよい。また、本実施形態では、受講者J毎に閾値を設定することとしたが、これに限定されるものではなく、単一の閾値を設定し、当該閾値を受講者J間で共通の閾値として用いてもよい。
そして、映像表示部54は、テキストボックスTxにてレッスン受講中の心拍数を表示する際、上記の判定結果に応じた表示態様にて表示する。具体的には、現在の心拍数が閾値を超えていない受講者Jについては、当該心拍数を通常時の表示態様にて表示することになる。一方で、現在の心拍数が閾値を超えていない受講者Jについては、当該心拍数を異常報知用の表示態様にて表示することになる。このように心拍数の現在値と閾値との大小関係を判定し、その判定結果に応じた表示態様にて心拍数を表示することで、心拍数の現在値が異常値となったときに、その状況をインストラクターIに速やかに知らせることが可能となる。
なお、「表示態様」としては、心拍数を示す文字の色、テキストボックスTxの背景色、テキストボックスTxのサイズ、テキストボックスTxの形状、テキストボックスTxの点滅の有無、警告音の有無等が挙げられる。
(検知部55)
検知部55は、所定の状態にある受講者J、具体的にはジムP1にてレッスンを受講している状態の受講者Jを特定するものである。すなわち、レッスン受講中の受講者Jは、検知部55の検知対象である「特定対象者」に相当する。
検知部55がレッスン受講中の受講者Jを検知する方法について説明すると、受講者側ユニット2から受信した映像と深度データとに基づいて、当該受信映像中に人物映像が含まれているか否かを判定する。人物映像が含まれている場合には、当該人物映像と骨格モデルとに基づいて、その人物映像の動き(つまり、人物映像が映し出されている人の動き)を検出する。そして、検出した動きが所定の動き(具体的には、インストラクターIの動作とのマッチング度合いが一定以上となる動き)である場合、当該人物映像が映し出されている人をレッスン受講中の受講者Jとして検出する。
なお、レッスン受講中の受講者Jを検出する方法については、上記の方法に限定されるものではない。例えば、ジムP1に位置センサを設置し、かかる位置センサが、ジムP1に設置されたディスプレイ11の手前位置に立っている受講者Jを検出したときに信号を出力し、検知部55が当該信号を受信することでレッスン受講中の受講者Jを検知してもよい。
(識別部56)
識別部56は、検知部55がレッスン受講中の受講者Jを検知した場合に、当該受講者Jを認識するものである。識別部56は、検知部55がレッスン受講中の受講者Jを検知したときに、当該受講者Jの人物映像を解析する。具体的に説明すると、識別部56は、検知部55により検知されたレッスン受講中の受講者Jの顔部分の映像と、事前に登録された受講者Jの顔画像とを照合(マッチング)する画像解析を実施する。これにより、識別部56は、レッスン受講中の受講者Jが誰であるかを特定する。さらに、識別部56は、特定結果に基づき、レッスン受講中の受講者Jの識別情報(受講者ID)を特定する。
(位置特定部57)
位置特定部57は、受講者側ユニット2から受信した映像中にレッスン受講中の受講者Jの人物映像が含まれているときに、当該人物映像の位置(厳密には、専用ブースP2に設置されたディスプレイ11に表示される映像における位置)を特定するものである。位置特定部57は、受講者側ユニット2から受信した映像と深度データとを受信すると、先に説明した手順に従ってレッスン受講中の受講者Jの人物映像の位置を特定する。
なお、位置特定部57による位置の特定は、検知部55がレッスン受講中の受講者Jを検知している期間中、逐次行われる。このため、レッスン受講中の受講者Jの位置が運動のために移動したとき、位置特定部57は、移動後の位置(移動した受講者Jを示す人物映像の位置)を直ちに特定するようになる。
(変化検出部58)
変化検出部58は、専用ブースP2でディスプレイ11の表示映像を確認しているインストラクターIの顔位置が移動したとき、当該位置の変化を検出するものである。変化検出部58がインストラクターIの顔位置の変化を検出すると、前述したように、受講者側ユニット2から受信した映像のうち、映像表示部54によって専用ブースP2のディスプレイ11に表示される範囲が、インストラクターIの顔位置の変化に応じて切り替わる。つまり、変化検出部58は、前述した覗き込み処理を開始する契機として、インストラクターIの顔位置の変化を検知する。
なお、本実施形態において、変化検出部58は、ディスプレイ11の前方に立っているインストラクターIの顔位置の変化を検出することとした。ただし、検出対象については顔位置の変化に限定されるものではなく、顔位置以外の内容、例えば、インストラクターIの顔の向きやインストラクターIの視線の変化を検出してもよい。すなわち、変化検出部58は、覗き込み処理を開始する契機として、インストラクターIの顔位置、顔の向き及び視線のうちの少なくとも一つの変化を検出すればよい。
(記憶部59)
記憶部59は、図8に図示のセンサID記憶テーブル、及び、図9に図示の平均心拍数記憶テーブルを記憶している。また、記憶部59は、レッスン受講中の受講者Jの心拍数が異常値であるかどうかを判定するために設定された閾値を、受講者J毎に記憶している。その他、記憶部59には、受講者Jに関する個人情報やレッスン開始からの経過時間やカロリー消費量(具体的には、図5や6に図示したテキストボックスTyに表示する情報)を記憶している。
<<運動指導の流れについて>>
次に、運動指導用システム1を用いた運動指導の流れについて図10を参照しながら説明する。なお、以下に説明する運動指導用フローでは、本発明の映像表示方法が採用されている。すなわち、以下では、本発明の映像表示方法に関する説明として、当該映像表示方法を適用した運動指導用フローの手順を説明することとする。換言すると、以下に述べる運動指導用フロー中の各ステップは、本発明の映像表示方法の構成要素に相当することになる。
運動指導用フローは、図10に示すように大きく2つの流れに分かれている。一つは、インストラクター側ユニット3が受講者側ユニット2から映像を受信したときの流れである。もう一つは、インストラクター側ユニット3が受講者側ユニット2から映像を受信していないときの流れ、すなわち通常時の流れである。なお、受講者側ユニット2では、ジムP1において受講者Jが所定の動作(例えば、ジムP1内のディスプレイ11の手前位置に立つこと)を行うことをトリガーとして、ジムP1での撮影及び集音が開始され、インストラクター側ユニット3に向けた映像送信が行われるようになる。
先ず、インストラクター側ユニット3が受講者側ユニット2から映像を受信していない通常時の流れ(S001でNoのケース)について説明する。インストラクター側ユニット3が受講者側ユニット2から映像を受信していないとき、すなわち、ジムP1にレッスンを受講している受講者Jが居ないとき、インストラクター側ユニット3が有するコンピュータ(すなわち、第2のデータ処理端末5)は、定期的に生体情報記憶サーバ30と通信して各受講者Jの心拍数を取得する。
より具体的に説明すると、第2のデータ処理端末5は、第1時間間隔t1にて生体情報記憶サーバ30と通信する。換言すると、第2のデータ処理端末5は、前回の心拍数取得時からt1が経過した時点で(S002)、生体情報記憶サーバ30と通信して各受講者Jの心拍数、すなわちウェアラブルセンサ20の計測結果を取得する(S003)。
各受講者Jの心拍数を取得した後、第2のデータ処理端末5は、今回取得した心拍数と前回以前に取得した心拍数とに基づいて平均心拍数を算出する(S004)。本ステップS004において、第2のデータ処理端末5は、受講者J別に平均心拍数を算出する。そして、第2のデータ処理端末5は、算出した受講者J毎の平均心拍数を記憶し、具体的には、平均心拍数記憶テーブルに格納する。
次に、インストラクター側ユニット3が映像受信を開始したときの流れ(S001でYesのケース)について説明する。第2のデータ処理端末5は、受講者側ユニット2から送られてくる映像を受信すると(S005)、これをトリガーとして映像表示処理を実行するようになる(S006)。
以下、映像表示処理の流れについて図11及び図12を参照しながら説明する。映像表示処理において、第2のデータ処理端末5は、先ず、インストラクター側ユニット3から受信した映像(すなわち、ジムP1に設置されたカメラ13が撮影している映像)を、専用ブースP2に設置されたディスプレイ11に表示する(S011)。本実施形態では、受信映像のサイズがディスプレイ11の画面サイズよりも大きくなっているため、第2のデータ処理端末5は、受信映像の一部(部分映像)をディスプレイ11に表示することになる。
次に、第2のデータ処理端末5は、受講者側ユニット2からの受信映像、及び受信映像と共に受信した深度データに基づいて、ジムP1にレッスン受講中の受講者Jが居るか否かを判定する(S012)。そして、第2のデータ処理端末5は、レッスン受講中の受講者Jを検知した場合(すなわち、ジムP1にレッスン受講中の受講者Jが居ると判定した場合)、その受講者Jの人物映像を解析して当該受講者Jを識別する(S013)。本ステップにより、第2のデータ処理端末5は、識別された受講者Jの識別情報(受講者ID)を特定する。
また、第2のデータ処理端末5は、レッスン受講中の受講者Jの人物映像について、当該人物映像を含む表示映像(ディスプレイ11に表示される映像)における位置を特定する(S014)。なお、本実施形態では、受講者側ユニット2から受信した映像及び深度データ、並びに骨格モデルに基づき、先に説明した方法によって人物映像の位置を特定する。
また、第2のデータ処理端末5は、その内部に記憶しているセンサID記憶テーブルの中から、ステップS013にて識別されたレッスン受講中の受講者Jと対応付けられたウェアラブルセンサ20の識別情報(センサID)を読み出す。その後、第2のデータ処理端末5は、読み出したセンサIDにて特定されるウェアラブルセンサ20と通信することで、レッスン受講中の受講者Jの心拍数を取得する(S015)。
レッスン受講中の受講者Jの心拍数を取得した後、第2のデータ処理端末5は、前述した平均心拍数記憶テーブルの中から、ステップS013にて識別されたレッスン受講中の受講者Jと対応付けられた平均心拍数を読み出す。その後、第2のデータ処理端末5は、読み出した平均心拍数に応じて閾値を設定し、当該閾値とステップS015にて取得した心拍数との大小関係を判定する(S016)。なお、本ステップS016において設定される閾値は、レッスン受講中の受講者Jと対応する閾値(条件)である。
そして、第2のデータ処理端末5は、レッスン受講中の受講者Jの人物映像を含む映像に加えて、ステップS015にて取得した心拍数を示すテキストボックスTxを、専用ブースP2に設置されたディスプレイ11に表示する。この際、第2のデータ処理端末5は、ステップS014にて特定した位置に応じた領域に、前ステップS016での判定結果に応じた表示態様にて上記のテキストボックスTxを上記の映像に重ねて表示する。
より具体的に説明すると、取得した心拍数が閾値を下回る場合(S016でNo)、第2のデータ処理端末5は、ディスプレイ11の表示画面中、レッスン受講中の受講者Jの胸部が映っている領域に、上記のテキストボックスTxを第1表示態様にてポップアップ表示する(S017)。他方、取得した心拍数が閾値を上回る場合(S016でYes)、第2のデータ処理端末5は、ディスプレイの表示画面中、レッスン受講中の受講者Jの胸部が映っている領域に、上記のテキストボックスTxを第2表示態様にてポップアップ表示する(S018)。ここで、第1表示態様と第2表示態様とは、互いに異なる表示態様であり、例えば、テキストボックスTxの背景色のことである。
ところで、本実施形態において、第2のデータ処理端末5は、レッスン受講中の受講者Jを検知している間、第1時間間隔t1よりも短い第2時間間隔t2にて、レッスン受講中の受講者Jの心拍数を取得する。換言すると、第2のデータ処理端末5は、レッスン受講中の受講者Jを検知している間、t2に相当する時間が経過する度に(S019)、レッスン受講中の受講者Jが装着しているウェアラブルセンサ20と通信して、当該受講者Jの心拍数を取得する(S020)。
そして、第2のデータ処理端末5は、新たに心拍数を取得する度にステップS016〜S018を繰り返し、テキストボックスTxの表示内容(すなわち、心拍数の現在値)を更新する。つまり、レッスン受講中の受講者Jが検知されている間、映像に重ねて表示されるテキストボックスTxには、第2のデータ処理端末5がt2にて取得したレッスン受講中の受講者Jの心拍数が示されるようになる。なお、第2のデータ処理端末5は、テキストボックスTxの表示内容を更新する際には、毎回、新たに取得した心拍数と閾値との大小関係を判定し、その判定結果に応じた表示態様にて上記のテキストボックスTxを表示する。
一方、前回の心拍数取得時からt2が経過するまでの期間中に、ディスプレイ11の前に居るインストラクターIが顔を横移動させると、第2のデータ処理端末5がインストラクターIの顔位置の変化を検出する(S021)。これをトリガーとして、第2のデータ処理端末5は、覗き込み処理を実行する。かかる処理では、専用ブースP2内のディスプレイ11に表示されている映像の範囲を、インストラクターIの顔の変化に応じて切り替える(S022)。具体的には、受講者側ユニット2から受信した映像のうち、ディスプレイ11に表示する範囲を、インストラクターIの顔の移動向きとは反対の向きに、当該顔の移動量に応じた量だけずらす。
なお、覗き込み処理を実行して表示映像を切り替えた場合、第2のデータ処理端末5は、ステップS012まで戻り、切り替え後の表示映像に含まれているレッスン受講中の受講者Jの人物映像から当該受講者Jを識別する。その後、第2のデータ処理端末5は、前述した手順と同じ手順にて、以降のステップ(ステップS013以降のステップ)を繰り返し行う。
そして、第2のデータ処理端末5は、インストラクターIが所定の終了操作(例えば、専用ブースP2内のディスプレイ11から所定距離以上離れる操作)を行うまでの間(S023)、上述した一連のステップを繰り返し行う。最終的にインストラクターIが上記の終了操作を行った時点で、第2のデータ処理端末5が映像表示処理を終了する。
<<本実施形態の有効性について>>
以上までに説明してきたように、本実施形態では、ジムP1にてレッスンを受講している受講者Jが居る場合、当該受講者Jの人物映像を含んだ映像が、専用ブースP2に設置されたディスプレイ11に表示される。このとき、レッスン受講中の受講者Jの心拍数に応じた情報(具体的には、心拍数の現在値を示すテキストボックスTx)が映像に重ねて表示される。このようにレッスン受講中の受講者Jについて映像とともに心拍数を確認することにより、当該受講者Jの状態(例えば、指導に対する理解度合い、疲労度、適切に身体を動かせているか等)を監視することが可能となる。
また、本実施形態では、ディスプレイ11の表示画面中、レッスン受講中の受講者Jの人物映像の位置に応じた領域に上記のテキストボックスTxが表示される。このため、例えば、レッスン受講中の受講者Jの位置がレッスンの中で動いたとしても、上記のテキストボックスTxは、その動きに連動し、当該受講者Jの人物映像との相対位置関係を保つように移動する。これにより、例えば、複数の受講者Jがレッスンを受講している状況において、それぞれの受講者Jが動いた後であっても、ディスプレイ11に表示されているテキストボックスTxが誰の心拍数を示しているのかを容易に把握することが可能となる。
また、本実施形態では、レッスン受講中の受講者Jを検知している間、通常時よりも短い時間間隔(すなわち、第2時間間隔t2)にて当該受講者Jの心拍数を取得する。このようにレッスン受講中の受講者Jの心拍数を取得する時間間隔が、レッスンを受講していない受講者Jの心拍数を取得する時間間隔(すなわち、第1時間間隔t1)よりも短くすることで、レッスン受講中の受講者Jの心拍数が変化したときには当該心拍数の変化をより速やかに捉えることが可能となる。この結果、例えばレッスン受講中にある受講者Jの心拍数が急激に上昇した場合、インストラクターIは、その状況を逸早く気付くことが可能となる。
さらに、本実施形態では、レッスン受講中の受講者Jの心拍数を示すテキストボックスTxをディスプレイ11に表示するにあたり、当該心拍数と閾値との大小関係を判定する。そして、その判定結果に応じた表示態様にて上記のテキストボックスTxを表示する。これにより、レッスン受講中の受講者Jの心拍数が閾値以上となっているとき(すなわち、心拍数が異常に高い状態になっているとき)、かかる事態をインストラクターIにより容易に気付かせることが可能となる。
<<第二実施形態>>
以上までに説明してきた実施形態(以下、第一実施形態)では、ウェアラブルセンサ20と受講者Jとの対応関係が予め決まっており、具体的には、図8に図示したセンサID記憶テーブルとして上記の対応関係が規定されていることとした。このため、第一実施形態では、あるウェアラブルセンサ20から心拍数の情報を取得した場合、上記のセンサID記憶テーブルを参照することで、どの受講者Jの心拍数であるかを特定することが可能である。また、第一実施形態では、受講者側ユニット2から受信した映像中に受講者Jの人物映像が含まれているとき、識別部56による画像識別機能(厳密には、顔画像識別機能)により、誰の映像であるのかを特定する。
以上のように第一実施形態では、ウェアラブルセンサ20から取得した心拍数が誰の心拍数であるかを特定し、及び、受信した映像中に映っている人物映像が誰の映像であるかを特定することにより、同じ受講者Jの心拍数と人物映像とを対応付けておくことが可能となる。この結果、対応付けられた心拍数及び人物映像は、その対応関係が明らかとなるように表示されるようになる。より具体的に説明すると、ある受講者Jの心拍数に応じた情報が、同じ受講者Jの人物映像の位置に応じた領域に表示されるようになる。
一方、第一実施形態のようにウェアラブルセンサ20と受講者Jとの対応関係が予め決まっていないケースが考えられる。例えば、ウェアラブルセンサ20が受講者J間で交換可能なケースや、ウェアラブルセンサ20の装着者がレッスン毎に変わるケースでは、ウェアラブルセンサ20と受講者Jとの対応関係を予め把握しておくことは困難である。また、第一実施形態では、映像中の人物映像が誰の映像であるかを画像識別処理によって特定することとしたが、かかる場合には、特定される人物が画像識別の精度によって変わる可能性がある。例えば、人物映像のサイズが画像識別処理を行うのに十分なサイズとなっていない場合には、正確な特定がなされない可能性がある。
そして、人物映像及び心拍数の対応関係が適切に把握されないと、人物映像及び心拍数の双方を確認する者(具体的にはインストラクターI)にとって、各受講者Jの状況を正しく把握することが困難となる。特に、複数の受講者Jがレッスンを受講している場合には上記の問題がより顕著に生じる。
そこで、以下では、第一実施形態とは異なる手順にて各受講者Jの心拍数と人物映像とを対応付けるケース(以下、第二実施形態)について説明することとする。なお、第二実施形態は、各受講者Jの人物映像と心拍数とを対応付ける方法を除き、第一実施形態と共通する。以下では、第二実施形態のうち、第一実施形態とは異なる内容についてのみ説明することとする。また、以下では、説明を分かり易くするため、3人の受講者J(具体的には、Aさん、Bさん及びCさん)がレッスンを受講するケースを例に挙げて説明する。
先ず、第二実施形態に係る運動指導用の通信システム(以下、運動指導用システム100)について図13を参照しながら説明する。図13に示すように、第二実施形態に係る運動指導用システム100では、ウェアラブルセンサ20の代わりにスマートバンド40が用いられる。このスマートバンド40は、リストバンド型の発信器であり、受講者J別に用意されている。
スマートバンド40について詳しく説明すると、各受講者Jは、レッスン受講に際してスマートバンド40を手首に装着し、例えばレッスン受講日の数日前から装着する。また、スマートバンド40は、心拍センサ41と加速度センサ42とを搭載しており、これらのセンサの各々の計測結果を第2のデータ処理端末5に向けて送信するように構成されている。心拍センサ41は、センサの一例であり、ウェアラブルセンサ20と同様、装着者である受講者Jの心拍を定期的に計測する。
加速度センサ42は、動作検出器の一例であり、受講者Jの動作(厳密には、スマートバンド40が装着されている方の手を動かす動作)を検出し、その検出結果として動作情報を生成する。この動作情報とは、受講者Jの動作を検知した際に生成され、動作の度合い(例えば、手の移動量)に応じた情報を示す。また、加速度センサ42は、受講者Jが所定の動作(具体的には、後述の応答動作)を行うと、通常時の動作情報とは異なる動作情報を生成する。なお、第二実施形態では動作検出器として加速度センサ42を用いているが、受講者Jの動作を検知して当該動作に応じた情報を出力するものであれば、動作検出器として利用することが可能である。
さらに、スマートバンド40は、装着者である受講者Jの個人情報、具体的には受講者Jの名前を取得し、当該名前を心拍センサ41及び加速度センサ42の各々の計測結果と共に第2のデータ処理端末5に向けて送信する。なお、本実施形態において、スマートバンド40は、受講者Jの名前を取得するにあたり、当該受講者Jが携帯しているスマートフォン等の携帯端末(不図示)と通信する。これにより、スマートバンド40は、携帯端末が記憶している受講者Jの名前を取得するようになる。ただし、名前の取得方法については特に限定されるものではなく、例えば、スマートバンド40には入力手段(不図示)が搭載されており、当該スマートバンド40を装着している者が自ら上記入力手段を操作して自己の名前を入力してもよい。
なお、スマートバンド40が心拍数と共に送信する情報、すなわち、加速度センサ42が受講者Jの動作を検出して生成する動作情報、及び、スマートバンド40が取得する受講者Jの名前は、受講者Jに関する「他の情報」に相当する。また、スマートバンド40から送信される情報については、上記の情報に限定されず、上記の情報以外の情報が更に含まれていてもよい。
次に、図14を参照しながら、第2のデータ処理端末5の機能のうち、第二実施形態特有の内容について説明する。第二実施形態では、図14に示すように、第2のデータ処理端末5が識別部56を備えない一方で、点呼用情報送信部60及びリスト作成部61を有する。点呼用情報送信部60は、制御情報送信部に相当し、制御情報としての点呼用情報を生成し、第1のデータ処理端末4に向けて送信する。第1のデータ処理端末4は、点呼用情報を受信すると、当該情報を解析し、その解析結果に従って受講者側ユニット2のスピーカ12、すなわち、複数の受講者Jが居る場所に設置されたスピーカ12(機器)を制御する。具体的に説明すると、第1のデータ処理端末4は、点呼用情報から一人の受講者Jの名前を特定し、その名前を示す音声を発生させるようにスピーカ12を制御する。
リスト作成部61は、後述する受講者リストLJを作成する。この受講者リストLJは、上述の点呼用情報送信部60が点呼用情報を生成する際に参照される。
次に、第二実施形態における第2のデータ処理端末5の機能について、図15を参照しながら説明する。図15は、第2のデータ処理端末5を中心とした情報のやりとりを模式的に図示したものである。第二実施形態では、各受講者Jが装着したスマートバンド40が、図15に図示したように発信情報D1を発信する。この発信情報D1は、心拍センサ41によって計測された心拍数、加速度センサ42が各受講者Jの動きを検出して生成した動作情報、及び、各受講者Jの名前を含む情報である。
第2のデータ処理端末5の生体情報取得部51は、各受講者Jのスマートバンド40から発信情報D1を受信することで各受講者Jの心拍数、名前及び動作情報を取得する。この結果、第2のデータ処理端末5には心拍数、名前及び動作情報が受講者J別に通知されることになる。一方、第2のデータ処理端末5のリスト作成部61は、受講者J毎に取得された発信情報D1に基づいて受講者リストLJを作成する。受講者リストLJについて説明すると、図15に示すように、受講者リストLJには、各スマートバンド40の識別情報であるバンドIDと、当該各スマートバンド40から送られてきた受講者Jの名前、心拍数及び動作情報と、がテーブル形式で集録されている。
なお、図15に図示のケースでは、3人の受講者J(Aさん、Bさん及びCさん)の名前等を示した受講者リストLJが作成されることになる。そして、受講者リストLJが作成されると、第2のデータ処理端末5の点呼用情報送信部60が当該受講者リストLJを参照し、リスト化された複数人の受講者Jの名前のうち、一人の受講者Jの名前を特定する。その上で、点呼用情報送信部60は、特定した一人の受講者Jの名前を呼ぶ点呼用情報D2を生成し、第1のデータ処理端末4に向けて送信する。
第1のデータ処理端末4は、点呼用情報D2を受信すると、当該点呼用情報D2が示す受講者Jの名前を特定した後に、特定した受講者Jの名前を示す音声を発生させるようにスピーカ12を制御する。これにより、スピーカ12の前に居る受講者Jのうち、名前が呼ばれた受講者J(以下、対象受講者)は、その音声に反応して応答動作を行うようになる。具体的に説明すると、対象受講者は、図16に示すように、自分の名前を示す音声がスピーカ12から発せられると、スマートバンド40が装着されている側の手を挙げて返事をする動作を応答動作として行う。図16は、複数の受講者Jの一人(同図が示すケースではBさん)が応答動作を行っている様子を示す図である。
以上のように点呼用情報D2に従ってスピーカ12が制御されることで、一人の受講者J(対象受講者)に対して上記の応答動作を促すようになる。かかる意味で、点呼用情報D2は、複数人の受講者Jのうちの一人に対して応答動作を促すように受講者側ユニット2のスピーカ12を制御するための制御情報であると言える。
一方、対象受講者が上記の応答動作を行っている間、受講者側ユニット2のカメラ13が当該対象受講者の人物映像を含む映像を撮影し、マイク14が当該対象受講者の声(具体的には、スピーカ12から発せられた音声に対して返事するときの声)を含む音声を集音する。また、受講者側ユニット2の赤外線センサ15が上記映像について所定の画素単位で深度を計測し、第1のデータ処理端末4が赤外線センサ15の計測結果に基づいて上記映像についての深度データを取得する。そして、第1のデータ処理端末4は、マイク14により集音された音声が重畳された映像と深度データとを受講者側ユニット2に向けて送信する。第2のデータ処理端末5は、受講者側ユニット2から送られてくる映像及び深度データを受信する。
そして、第二実施形態では、第2のデータ処理端末5が上記映像及び深度データを受信すると、位置特定部57が受信映像における対象受講者の人物映像の位置を特定する処理(以下、位置特定処理)を実行する。位置特定処理は、本発明の「第一処理」に相当する。この位置特定処理において、応答動作を行った受講者J(すなわち、対象受講者)の人物映像の、受信映像における位置(以下、単に「位置」と呼ぶ)が特定される。
また、第二実施形態に係る位置特定部57は、位置特定処理において、第2のデータ処理端末5が映像と共に受信した深度データに基づいて、対象受講者の人物映像の位置を特定する。図17を参照しながら説明すると、位置特定部57は、上述した手順と同様の手順に従って、深度データを構成する画素の中から人物映像の画素を抽出する。このとき、位置特定部57は、人間の骨格モデル、厳密には、片手を挙げる動作を行っている人の骨格モデルを適用する。これにより、位置特定部57は、深度データを構成する画素の中から上記の骨格モデルと対応する画素、すなわち、応答動作を行った対象受講者の人物映像と対応する画素を抽出する。図17に示す深度データでは、白抜きの画素群(すなわち、人物映像の画素群)が2つ存在し、そのうち、より左側に位置する画素群が対象受講者の人物映像の画素に相当する。
そして、位置特定部57は、深度データの中から抽出した対象受講者の画素に基づき、当該画素と対応する映像を、受信映像(受講者側ユニット2のカメラ13が撮影した映像)において特定し、かかる映像を対象受講者の人物映像とする。この結果、対象受講者の人物映像の位置が特定されることとなる。
なお、対象受講者の人物映像の位置を特定する方法については、上記のように深度データに基づいて特定する方法に限定されるものではない。例えば、映像と共に再生される音声を解析することで対象受講者の人物映像の位置を特定してもよい。具体的に説明すると、対象受講者の人物映像を含む映像には、対象受講者が応答動作時に発生した声を含む音声が組み込まれている。この音声を解析することで上記声の発生位置を特定し、当該発生位置に最も近い位置に表示された人物映像を対象受講者の人物映像として捉え、当該人物映像の位置を特定してもよい。また、映像中に含まれた人物映像中の所定部分を解析することで対象受講者の人物映像の位置を特定してもよい。具体的に説明すると、対象受講者が応答動作時に返事のために発声する際、対象受講者の人物映像中、口元部分が動くため、口元の動きが認められた人物映像を対象受講者の人物映像として捉え、当該人物映像の位置を特定してもよい。
対象受講者が上記の応答動作を行った時点で、生体情報取得部51が各受講者Jのスマートバンド40から発信情報D1を再度取得する。この際、生体情報取得部51が対象受講者のスマートバンド40から取得する発信情報D1に含まれている動作情報は、通常時の動作情報とは異なった内容となっており、具体的には、加速度センサ42が応答動作を検出したときにのみ出力する内容(数値)となっている。
そして、位置特定部57は、生体情報取得部51が取得した発信情報D1に基づき、受講者J別のスマートバンド40のうち、対象受講者のスマートバンド40を特定する処理(以下、バンド特定処理)を実行する。バンド特定処理は、本発明の「第二処理」に相当する。バンド特定処理では、加速度センサ42が応答動作を検出したときに生成する動作情報(具体的には、加速度センサ42が応答動作を検出したときにのみ出力する情報)を含む発信情報D1を送ったスマートバンド40を、対象受講者のスマートバンド40として特定する。
以上のように対象受講者の人物映像の位置と対象受講者のスマートバンド40とが特定される結果、対象受講者の人物映像及び生体情報としての心拍数が互いに対応付けられるようになる。より具体的に説明すると、第二実施形態では、複数の受講者Jが検知部55によって検知されたとき、一人の受講者J(すなわち、対象受講者)に対して所定の動作(具体的には応答動作)を行わせることにより、映像及び動作情報の双方の観点から当該動作を行った受講者Jを特定(判定)する。これにより、特定された受講者Jの人物映像と、特定された受講者Jの動作情報と同じスマートバンド40から送信される心拍数と、が対応付けられるようになる。
そして、位置特定部57が上記の手順(すなわち、位置特定処理及びバンド特定処理)を受講者J毎に繰り返すことにより、すべての受講者Jについて、各々の人物映像と心拍数とが対応付けられるようになる。
さらに、人物映像と心拍数とが対応付けられる結果、心拍数に応じた情報が表示される位置が、当該心拍数と対応する人物映像の位置との関係で決定されるようになる。具体的に説明すると、ある受講者J(例えば、Bさん)の心拍数に応じた情報は、当該心拍数と対応付けられた人物映像(すなわち、Bさんの人物映像)の位置に応じた領域、詳しくは、ある受講者J(Bさん)の胸部が映っている領域に表示されるようになる。
次に、各受講者Jの心拍数及び人物映像を対応付ける工程(以下、対応付け工程)の流れについて、図18を参照しながら説明する。対応付け工程は、既に説明した映像表示処理の中で第2のデータ処理端末5によって実施される。より具体的に説明すると、第二実施形態では、図11にて図示した映像表示処理の各ステップ中、レッスン受講中の受講者Jを識別するステップS013、及びレッスン受講中の受講者Jの位置を特定するステップS014の代わりに、対応付け工程が実施される。なお、対応付け工程は、一回の映像表示処理において一回のみ実施されてもよく、あるいは、インストラクターIが顔位置を動かしてディスプレイ11の表示映像を切り替える度に実施されてもよい。
対応付け工程では、先ず、ジムP1内において複数の受講者Jが検知部55によって検知されたかどうかを判断する(S031)。本ステップS031で複数の受講者Jが検知された場合には対応付け工程を続行し、複数の受講者Jが検知されない場合(すなわち、受講者Jが一人のみである場合)には対応付け工程が終了する。
ステップS031の後、第2のデータ処理端末5の生体情報取得部51が複数の受講者Jの各々のスマートバンド40から発信情報D1を取得する(S032)。これにより、各受講者Jが装着しているスマートバンド40の識別ID(バンドID)、各受講者Jの名前、心拍数及び動作情報が受講者J別に取得されるようになる。
その後、第2のデータ処理端末5のリスト作成部61が、前ステップS032にて取得した発信情報D1に基づき、受講者リストLJを作成する(S033)。受講者リストLJの作成後、第2のデータ処理端末5の点呼用情報送信部60が当該受講者リストLJを参照して複数の受講者Jのうちの一人(対象受講者)を選択し、当該対象受講者に対する点呼用情報D2を生成し、当該情報D2を第1のデータ処理端末4に向けて送信する(S034)。本ステップS034について詳しく説明すると、受講者リストLJから対象受講者の名前を特定し、その名前を呼ぶ音声を発生させるための制御情報として上記点呼用情報D2を生成する。
一方、第1のデータ処理端末4は、点呼用情報D2を受信すると、当該点呼用情報D2が示す対象受講者の名前を特定し、当該名前を示す音声を発するように受講者側ユニット2のスピーカ12を制御する。これにより、ジムP1内のスピーカ12から対象受講者の名前を呼ぶ音声が発せられるようになる。そして、対象受講者に該当する受講者Jは、その音声への応答動作を行い、具体的には、スマートバンド40が装着されている方の手を挙げると共に返事のために発声する。これに伴い、対象受講者が装着しているスマートバンド40に搭載された加速度センサ42が、当該対象受講者の応答動作を検知し、その検知結果に応じた動作情報を生成するようになる。
第2のデータ処理端末5は、点呼用情報D2を送信してから間もなく、各受講者Jのスマートバンド40から発信情報D1を再度取得する(S035)。この時点で取得される発信情報D1のうち、対象受講者(すなわち、応答動作を行った受講者J)のスマートバンド40から送信された発信情報D1には、加速度センサ42が応答動作を検知することで生成した動作情報が含まれている。
そして、第2のデータ処理端末5の位置特定部57は、バンド特定処理を実行し、前ステップS035で取得された発信情報D1に基づいて対象受講者のスマートバンド40を特定する(S036)。より具体的に説明すると、バンド特定処理では、加速度センサ42が応答動作を検知することで生成した動作情報を含む発信情報D1を特定した上で、当該発信情報D1の送信元であるスマートバンド40を対象受講者のスマートバンド40として特定する。
また、対応付け工程の実施期間中、第2のデータ処理端末5は、第1のデータ処理端末4から送られてくるジムP1内の映像、及び、当該映像の深度データを受信する。そして、第2のデータ処理端末5の位置特定部57は、位置特定処理を実行して対象受講者の人物映像の位置を特定する(S037)。より具体的に説明すると、映像と共に受信した深度データ中、応答動作を行った対象受講者の人物映像と対応する画素を抽出した上で、抽出した画素と対応する人物映像(すなわち、対象受講者の人物映像)を受信映像において特定し、当該人物映像の位置を特定する。
なお、第二実施形態では、位置の特定精度を高める目的から、上述した方法にて対象受講者の人物映像の位置を特定することに加え、第二の方法及び第三の方法にて対象受講者の人物映像の位置を別途特定している。第二の方法とは、受信映像に組み込まれた音声情報を解析することで、対象受講者が応答動作時に発生した声の発生位置を特定し、特定した発生位置に最も近い位置に表示された人物映像を対象受講者の人物映像として捉えて当該人物映像の位置を特定する方法である。第三の方法とは、受信映像中に含まれた各受講者Jの口元部分の映像を解析することで、応答動作時に返事するために口元が動いた受講者Jの人物映像を対象受講者の人物映像として捉えて当該人物映像の位置を特定する方法である。
以上のように第二実施形態では、上述した三種類の特定方法にて対象受講者の人物映像の位置を特定したが、これに限定されるものではなく、上記三種類の特定方法のうち、少なくとも一つの特定方法を採用して対象受講者の人物映像の位置を特定してもよい。また、上述した特定方法以外の方法にて対象受講者の人物映像の位置を特定してもよい。
そして、第2のデータ処理端末5の位置特定部57は、対象受講者の人物映像の位置とスマートバンド40とを特定する結果、当該対象受講者の人物映像及び生体情報としての心拍数を対応付ける(S038)。すなわち、位置特定部57は、複数の受講者Jの一人について、その者の人物映像と、その者が装着しているスマートバンド40から送られてくる心拍数とを対応付ける。
以上までに説明してきたステップS032以降のステップについては、ジムP1に居る複数の受講者Jの全員に対して行われる。つまり、ジムP1に居る複数の受講者Jの中に、人物映像と心拍数との対応付けが未実施の受講者Jが残っている限り、上述したステップS032〜038が繰り返し実施される(S039)。これにより、ジムP1に居る各受講者Jについて人物映像と心拍数との対応付けが順次なされるようになる。最終的に、ジムP1に居る複数の受講者Jの全員について人物映像と心拍数との対応付けが実施された時点で対応付け工程が終了する。
以上までに説明してきた対応付け工程が実施されることにより、第二実施形態では、受講者J別に用意されたスマートバンド40の各々から送られてくる心拍数が、受信映像中に人物映像が映っている複数の受講者Jのうち、どの受講者Jの心拍数であるのかを的確に特定することが可能となる。そして、第二実施形態では、上記の効果を実現するにあたり、第一実施形態のようにスマートバンド40と受講者Jとの対応関係を事前に決めておく必要がなく、また、受講者Jの顔画像から当該受講者Jを識別する必要もない。つまり、第二実施形態では、スマートバンド40と受講者Jとの対応関係が変化する場合にも柔軟に対応することができる。また、第二実施形態では、ある受講者J(例えば、Bさん)のスマートバンド40から心拍数を取得したとき、顔画像識別を用いなくとも、当該受講者Jの人物映像(Bさんの人物映像)を受信映像から的確に見つけることが可能となる。
さらに、第二実施形態では、心拍数と人物映像とが対応付けられることにより、心拍数に応じた情報が表示される位置が、当該心拍数と対応付けられた人物映像の位置との関係で決定されるようになる。この結果、映像表示処理中、対応付け工程後のステップにおいて心拍数に応じた情報を受講者J別に表示する際には、心拍数に応じた情報が当該心拍数と対応付けられた人物映像の位置に応じた領域に表示されるようになる。これにより、インストラクターIは、レッスン受講中の複数の受講者Jの各々について、現在の受講者Jの様子を示す人物映像と現在の心拍数とを対応付けながら確認することが可能となる。
なお、第二実施形態では、各受講者Jが所定の動作として自分の名前を呼ぶ音声への応答動作、具体的には、挙手して返事する動作を行うこととした。そして、第二実施形態では、応答動作を契機として、当該応答動作を行った受講者J(すなわち、対象受講者)の人物映像と心拍数との対応付けを行うこととした。ただし、人物映像と心拍数との対応付けの契機とする動作については、特に限定されるものではなく、上述した応答動作以外の動作であってもよい。
また、第二実施形態では、上記の応答動作を促すために第2のデータ処理端末5が制御情報としての点呼用情報D2を生成して第1のデータ処理端末4に向けて送信し、第1のデータ処理端末4が点呼用情報D2に基づいてスピーカ12を制御することとした。そして、第1のデータ処理端末4がスピーカ12を制御することにより、対象受講者の名前を示す音声を発して上記の応答動作を促すこととした。ただし、応答動作を促す処理については、第1のデータ処理端末4及びスピーカ12を通じて行うケースに限られず、例えば、インストラクターIが行ってもよい。すなわち、インストラクターIが受講者リストLJを参照し、同リストに掲載された受講者Jの名前を順次呼ぶことにより、上記の実施形態と同様に応答動作を促すことが可能である。なお、かかる場合、インストラクターIは、受講者リストLJの中から受講者Jを一人ずつ選択し、その都度、選択結果を入力する。そして、第2のデータ処理端末5は、インストラクターIの入力操作を受け付けて、選択された受講者Jを特定する。
また、第二実施形態では、対象受講者(応答動作を行った受講者J)のスマートバンド40を特定する際に、スマートバンド40に搭載された加速度センサ42が出力する動作情報を手懸りとして特定することとした。すなわち、受講者Jが応答動作を行うと、その者が装着しているスマートバンド40の加速度センサ42が当該応答動作を検出し、当該応答動作に応じた動作情報を出力する。そして、上記の実施形態では、この動作情報を基にして対象受講者のスマートバンド40を特定することとした。ただし、対象受講者のスマートバンド40を特定する方法については、上記の方法に限定されず、加速度センサ42から出力される動作情報を用いずに特定する方法も考えられる。以下、動作情報を用いずに対象受講者のスマートバンド40を特定するケース(変形例)について説明する。
変形例では、各受講者Jのスマートバンド40から発信される発信情報D1に、スマートバンド40の識別用ID(バンドID)、各受講者Jの名前及び心拍数が含まれている一方で、動作情報が含まれていない。また、変形例では、上記の実施形態と同様に、第2のデータ処理端末5が各受講者Jのスマートバンド40から発信情報D1を受信すると、受講者リストLJを作成し、同リストに掲載された受講者Jのうちの一人を選択して、選択した受講者Jの名前を呼ぶ点呼用情報D2を生成する。
そして、第2のデータ処理端末5が点呼用情報D2を送信した後、第1のデータ処理端末4が点呼用情報D2を受信し、点呼用情報D2が示す受講者Jの名前を特定し、特定した名前を示す音声を発するようにスピーカ12を制御する。この制御において名前が呼ばれた受講者J(すなわち、対象受講者)は、応答動作を行う。その後、第2のデータ処理端末5が、対象受講者が応答動作を行った時点での映像と当該映像の深度データに基づいて、対象受講者の人物映像の位置を特定する。これにより、対象受講者の人物映像と名前とが対応付けられるようになる。一方、受講者Jの名前とスマートバンド40との対応関係は、受講者リストLJによって規定されている。以上により、対象受講者の人物映像とスマートバンド40とが対応付けられるようになり、結果として、対象受講者の人物映像と心拍数とが対応付けられるようになる。
以上の手順により、変形例では、動作情報を用いずに対象受講者のスマートバンド40を特定することが可能となり、結果として、よりシンプルな構成のシステム(運動指導用システム100)を構築することが可能となる。
<<その他の実施形態>>
以上までに本発明の映像表示装置及び映像表示方法について一例を挙げて説明してきたが、上記の実施形態では、あくまでも本発明の一実施形態に過ぎず、他の例も考えられる。具体的に説明すると、上記の実施形態では、レッスン受講中の受講者Jの心拍数を取得する際、当該受講者Jが装着しているウェアラブルセンサ20やスマートバンド40と直接通信することでレッスン受講中の受講者Jの心拍数を取得することとした。ただし、これに限定されるものではなく、レッスン受講中の受講者Jの心拍数についても、ウェアラブルセンサ20やスマートバンド40から直接受信するのではなく、生体情報記憶サーバ30と通信することで生体情報記憶サーバ30から取得してもよい。
また、上記の実施形態では、レッスン受講中の受講者Jの心拍数を示すテキストボックスTxを表示するにあたり、当該心拍数の現在値と閾値との大小関係を判定し、判定結果に応じた表示態様にて上記のテキストボックスTxを表示することとした。ただし、表示態様を決定するにあたって行われる判定の内容については、上記の内容に限定されるものではない。例えば、心拍数の変化率(変化速度)を算出する一方で、変化速度の標準値を予め決めておき、変化速度の算出結果と標準値との大小関係を判定することとしてもよい。
また、上記の実施形態では、レッスン受講中の受講者Jの心拍数の現在値が閾値以上となると、現在の心拍数が異常値であることをインストラクターIに知らせるために、通常の表示態様とは異なる表示態様にて上記のテキストボックスTxを表示することとした。ただし、異常状態をインストラクターIに知らせる方法については、上記の方法に限定されるものではなく、例えば、受講者Jが異常状態にある旨のメッセージをディスプレイ11に表示してもよい。あるいは、専用ブースP2に設置されたスピーカ12から警告音を発してもよい。
また、上記の実施形態では、ジムP1にてレッスンを受講している受講者J(厳密には、インストラクターIと同様の動きを行っている受講者J)を「特定対象者」として検知することとした。ただし、「特定対象者」については、レッスン受講中の受講者Jに限定されるものではなく、例えば、ジムP1において所定の恰好をしている受講者J、所定の衣服を着用している受講者J、ディスプレイ11からの距離が所定距離未満となる範囲内に居る受講者J、ジムP1内の所定の部屋に入室している受講者J、若しくは、レッスン受講中の受講者Jの中で所定の条件を満たす者(例えば、高齢者や女性)を「特定対象者」として検知してもよい。
また、上記の実施形態では、本発明の映像表示装置を運動指導用に用いることとしたが、本発明の映像表示装置の用途については特に限定されるものではない。遠隔地に居る対象者の生体情報と映像(リアルタイムの映像)を同時に確認することが必要な状況、特に、生体情報が変化し易いために当該生体情報を監視する必要がある状況において、本発明の映像表示方法は有意義に利用され得るものである。
また、上記の実施形態では、本発明の映像表示装置が一台のコンピュータによって構成されていることとした。すなわち、上記の実施形態では、本発明の映像表示装置の機能が一台のコンピュータによって実現されるケースを例に挙げて説明した。ただし、本発明の映像表示装置については、複数台のコンピュータによって構成されるものであってもよい。つまり、上記の機能のうちの一部が別のコンピュータによって実現されてもよく、例えば、インストラクター側ユニット3と通信可能なサーバコンピュータが記憶部59を構成してもよい。
1 運動指導用システム
2 受講者側ユニット
3 インストラクター側ユニット
4 第1のデータ処理端末
5 第2のデータ処理端末(映像表示装置)
11 ディスプレイ
12 スピーカ(機器)
13 カメラ
14 マイク
15 赤外線センサ
20 ウェアラブルセンサ(センサ)
30 生体情報記憶サーバ
40 スマートバンド(発信器)
41 心拍センサ(センサ)
42 加速度センサ(動作検出器)
51 生体情報取得部
52 情報解析部
53 映像送信部
54 映像表示部
55 検知部
56 識別部
57 位置特定部
58 変化検出部
59 記憶部
60 点呼用情報送信部
61 リスト作成部
100 運動指導用システム
D1 発信情報
D2 点呼用情報
I インストラクター(映像確認者)
J 受講者(対象者)
LJ 受講者リスト
P1 ジム
P2 専用ブース
Tx,Ty テキストボックス

Claims (13)

  1. センサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得する生体情報取得部と、
    撮影装置が撮影している映像を、ディスプレイに表示する映像表示部と、
    前記映像中に含まれている人物映像の、前記映像における位置を特定する位置特定部と、
    所定の状態にある前記対象者である特定対象者を検知する検知部と、を有し
    前記映像表示部は、前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記特定対象者の前記人物映像について前記位置特定部が特定した前記位置に応じた領域に、前記生体情報取得部が前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、
    前記ディスプレイの前に居て前記ディスプレイにて前記特定対象者の前記人物映像を確認する映像確認者の顔位置、顔の向き及び視線のうち、少なくとも一つの変化を検出する変化検出部を有し、
    該変化検出部が前記変化を検出すると、前記撮影装置が撮影した前記映像のうち、前記映像表示部によって前記ディスプレイに表示される範囲が前記変化に応じて切り替わることを特徴とする映像表示装置。
  2. センサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得する生体情報取得部と、
    撮影装置が撮影している映像を、ディスプレイに表示する映像表示部と、
    前記映像中に含まれている人物映像の、前記映像における位置を特定する位置特定部と、
    所定の状態にある前記対象者である特定対象者を検知する検知部と、を有し
    前記映像表示部は、前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記特定対象者の前記人物映像について前記位置特定部が特定した前記位置に応じた領域に、前記生体情報取得部が前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、
    前記検知部が複数の前記特定対象者を検知したときに、
    前記生体情報取得部は、前記特定対象者別に用意されており前記センサが搭載された発信器の各々から、前記センサにより計測された前記特定対象者の前記生体情報、及び、前記特定対象者に関する他の情報を取得し、
    前記位置特定部は、
    所定の動作を行った前記特定対象者の前記人物映像の前記位置を特定する第一処理と、
    前記特定対象者別の前記発信器のうち、前記所定の動作を行った前記特定対象者に関する前記他の情報を送った前記発信器を特定する第二処理と、を実行し、
    前記映像表示部は、前記所定の動作を行った前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記位置特定部が前記第一処理にて特定した前記位置に応じた領域に、前記位置特定部が前記第二処理にて特定した前記発信器から前記生体情報取得部が取得した前記生体情報に応じた情報を前記映像に重ねて表示することを特徴とする映像表示装置。
  3. 前記検知部が前記特定対象者を検知している間、前記生体情報取得部は、通常時の前記時間間隔である第1時間間隔よりも短い第2時間間隔にて前記特定対象者の前記生体情報を取得し、
    前記映像表示部は、前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際、前記生体情報取得部が前記第2時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示することを特徴とする請求項1又は2に記載の映像表示装置。
  4. 前記映像表示部は、前記特定対象者の前記生体情報に応じた情報として前記映像に重ねて表示する情報の内容を、前記生体情報取得部が前記特定対象者の前記生体情報を取得する度に更新することを特徴とする請求項1乃至3のいずれか一項に記載の映像表示装置。
  5. 前記センサは、該センサを装着している前記対象者の活動度合いに応じて大きさが変化する前記生体情報を計測し、前記映像表示装置と通信可能であり、
    前記検知部が検知した前記特定対象者を識別する識別部と、
    前記対象者が装着している前記センサの識別情報を、前記対象者毎に記憶している記憶部と、を有し、
    前記生体情報取得部は、前記識別部によって識別された前記特定対象者と対応付けられた前記センサの前記識別情報を前記記憶部から読み出し、読み出した前記識別情報によって特定される前記センサと通信することで前記特定対象者の前記生体情報を取得することを特徴とする請求項1乃至4のいずれか一項に記載の映像表示装置。
  6. 前記検知部は、所定の場所に居る前記特定対象者を検知し、
    前記映像表示部は、前記所定の場所から離れた場所に設置された前記ディスプレイに前記映像を表示することを特徴とする請求項1乃至のいずれか一項に記載の映像表示装置。
  7. 前記映像表示部は、前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示する際、前記特定対象者の前記生体情報が予め設定された条件を満たしているか否かを判定し、判定結果に応じた表示態様にて、前記特定対象者の前記生体情報に応じた情報を表示することを特徴とする請求項1乃至のいずれか一項に記載の映像表示装置。
  8. 前記生体情報取得部が通常時に前記時間間隔にて取得した前記生体情報を、前記対象者別に集計して前記対象者別に解析する情報解析部を更に有し、
    前記映像表示部は、前記情報解析部の解析結果に応じて前記対象者別に設定された前記条件のうち、前記特定対象者と対応する前記条件を前記特定対象者の前記生体情報が満たしているかを判定することを特徴とする請求項に記載の映像表示装置。
  9. 前記生体情報取得部は、前記特定対象者別に用意された前記発信器の各々から、前記発信器に搭載された動作検出器が前記特定対象者の動作を検出した際に生成する動作情報を前記他の情報として取得し、
    前記位置特定部は、前記第二処理において、前記特定対象者別の前記発信器のうち、前記動作検出器が前記所定の動作を検出した際に生成した前記動作情報を送った前記発信器を特定することを特徴とする請求項に記載の映像表示装置。
  10. 複数の前記特定対象者が居る場所に設置された機器を制御するための制御情報を送信する制御情報送信部を有し、
    該制御情報送信部は、複数の前記特定対象者のうちの一人に対して前記所定の動作の実施を促すように前記機器を制御するための前記制御情報を送信し、
    前記生体情報取得部は、前記特定対象者別に用意された前記発信器の各々から、前記特定対象者の名前を前記他の情報として取得し、
    前記制御情報送信部は、前記一人に対して前記所定の動作の実施を促すように前記機器を制御するための前記制御情報として、前記一人の名前を示す音声を前記機器に発生させるための前記制御情報を送信し、
    前記位置特定部は、前記第一処理において、前記音声への応答動作を行った前記特定対象者の前記人物映像の前記位置を特定することを特徴とする請求項又は9に記載の映像表示装置。
  11. 前記位置特定部は、前記第一処理において、前記映像中に前記人物映像が映っている前記特定対象者の身体各部と前記特定対象者が居る場所において設定された基準位置との間の距離を示すデータに基づいて、前記所定の動作を行っている前記特定対象者の前記人物映像の前記位置を特定することを特徴とする請求項2、9、10のいずれか一項に記載の映像表示装置。
  12. コンピュータが、センサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得することと、
    コンピュータが、撮影装置が撮影している映像を、ディスプレイに表示することと、
    コンピュータが、前記映像中に含まれている人物映像の、前記映像における位置を特定することと、
    コンピュータが、所定の状態にある前記対象者である特定対象者を検知することと、を有し
    前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際には、前記特定対象者の前記人物映像について特定した前記位置に応じた領域に、前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、
    前記ディスプレイの前に居て前記ディスプレイにて前記特定対象者の前記人物映像を確認する映像確認者の顔位置、顔の向き及び視線のうち、少なくとも一つの変化を検出することを有し、
    該変化を検出すると、前記撮影装置が撮影した前記映像のうち、前記ディスプレイに表示される範囲が前記変化に応じて切り替わることを特徴とする映像表示方法。
  13. コンピュータが、センサによって計測された対象者の生体情報を、予め設定された時間間隔にて取得することと、
    コンピュータが、撮影装置が撮影している映像を、ディスプレイに表示することと、
    コンピュータが、前記映像中に含まれている人物映像の、前記映像における位置を特定することと、
    コンピュータが、所定の状態にある前記対象者である特定対象者を検知することと、を有し
    前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際には、前記特定対象者の前記人物映像について特定した前記位置に応じた領域に、前記時間間隔にて取得した前記特定対象者の前記生体情報に応じた情報を前記映像に重ねて表示し、
    複数の前記特定対象者を検知したときには、
    前記特定対象者別に用意されており前記センサが搭載された発信器の各々から、前記センサにより計測された前記特定対象者の前記生体情報、及び、前記特定対象者に関する他の情報を取得し、
    所定の動作を行った前記特定対象者の前記人物映像の前記位置を特定する第一処理と、
    前記特定対象者別の前記発信器のうち、前記所定の動作を行った前記特定対象者に関する前記他の情報を送った前記発信器を特定する第二処理と、を実行し、
    前記所定の動作を行った前記特定対象者の前記人物映像を含む前記映像を前記ディスプレイに表示する際には、前記第一処理にて特定した前記位置に応じた領域に、前記第二処理にて特定した前記発信器から取得した前記生体情報に応じた情報を前記映像に重ねて表示することを特徴とする映像表示方法。
JP2016116538A 2015-12-28 2016-06-10 映像表示装置及び映像表示方法 Active JP6815104B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US16/066,488 US20190150858A1 (en) 2015-12-28 2016-12-26 Image display device and image display method
PCT/JP2016/088629 WO2017115740A1 (ja) 2015-12-28 2016-12-26 映像表示装置及び映像表示方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015256875 2015-12-28
JP2015256875 2015-12-28

Publications (2)

Publication Number Publication Date
JP2017120366A JP2017120366A (ja) 2017-07-06
JP6815104B2 true JP6815104B2 (ja) 2021-01-20

Family

ID=59271902

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016116538A Active JP6815104B2 (ja) 2015-12-28 2016-06-10 映像表示装置及び映像表示方法

Country Status (2)

Country Link
US (1) US20190150858A1 (ja)
JP (1) JP6815104B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6458782B2 (ja) * 2016-07-28 2019-01-30 カシオ計算機株式会社 表示制御装置、表示制御方法及びプログラム
JP7034808B2 (ja) * 2018-04-03 2022-03-14 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 情報処理方法、情報処理装置及び情報処理システム
CN113040752A (zh) * 2019-12-26 2021-06-29 周萌 一种基于心率的运动量监测方法和系统
JP7388199B2 (ja) 2020-01-14 2023-11-29 コニカミノルタ株式会社 生体情報収集システム、生体情報収集方法及びプログラム
WO2023105887A1 (ja) * 2021-12-07 2023-06-15 株式会社Abelon 情報処理装置、情報処理方法、および記録媒体

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002042279A (ja) * 2000-07-27 2002-02-08 Seiko Precision Inc 自動緊急警報装置及び自動緊急警報出力方法
JP2007265032A (ja) * 2006-03-28 2007-10-11 Fujifilm Corp 情報表示装置、情報表示システムおよび情報表示方法
US9171221B2 (en) * 2010-07-18 2015-10-27 Spatial Cam Llc Camera to track an object
US9025024B2 (en) * 2011-09-28 2015-05-05 Xerox Corporation System and method for object identification and tracking
US9621684B2 (en) * 2013-02-07 2017-04-11 Under Armour, Inc. Method and arrangement for monitoring physiological data
JP6182917B2 (ja) * 2013-03-15 2017-08-23 ノーリツプレシジョン株式会社 監視装置
JP5506989B1 (ja) * 2013-07-11 2014-05-28 パナソニック株式会社 追跡支援装置、追跡支援システムおよび追跡支援方法
JP6253311B2 (ja) * 2013-08-28 2017-12-27 キヤノン株式会社 画像処理装置、画像処理方法
JP2015233250A (ja) * 2014-06-10 2015-12-24 キヤノン株式会社 画像処理装置及びその制御方法

Also Published As

Publication number Publication date
JP2017120366A (ja) 2017-07-06
US20190150858A1 (en) 2019-05-23

Similar Documents

Publication Publication Date Title
JP6815104B2 (ja) 映像表示装置及び映像表示方法
CN108289613B (zh) 用于生理监测的系统、方法和计算机程序产品
JP6253311B2 (ja) 画像処理装置、画像処理方法
US9436277B2 (en) System and method for producing computer control signals from breath attributes
CN112584753A (zh) 基于视频的患者监测系统以及用于检测和监测呼吸的相关方法
TW201820279A (zh) 訓練並監測吸入器藥物投與之系統及方法
CN107077214A (zh) 用于在医院中使用的通信的方法和系统
KR102632408B1 (ko) 웨어러블 디바이스 기반의 운동 관리 시스템
CN107667398A (zh) 心肺复苏指导方法、计算机程序产品和系统
CN107257651A (zh) 医学监测的场景检测
KR100822476B1 (ko) 원격 응급상황 모니터링 시스템 및 방법
JP6579411B1 (ja) 介護設備又は病院用の監視システム及び監視方法
WO2017115740A1 (ja) 映像表示装置及び映像表示方法
KR102211723B1 (ko) 스마트 관리 시스템
Khawandi et al. Integrated monitoring system for fall detection in elderly
JP6583953B1 (ja) 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法
US20230397877A1 (en) Swallowing capture and remote analysis systems including motion capture
WO2022019001A1 (ja) 評価装置、評価方法及びプログラム
ES2890715B2 (es) Sistema para analizar una practica de actividad motora con participantes
WO2023026738A1 (ja) 情報処理装置、表示システム、表示制御方法及びプログラムが格納された非一時的なコンピュータ可読媒体
JP6621127B1 (ja) 医療用装身器具の自己抜去監視システム及び医療用装身器具の自己抜去監視方法
JP2016147011A (ja) 所定の空間における生体情報取得装置、生体情報取得方法及び生体情報取得プログラム
JP2023000524A (ja) 情報管理システム
Meinich-Bache Automatic Video Analysis in Resuscitation
JP2015202120A (ja) 解析装置、解析方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200512

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200618

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201201

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201222

R150 Certificate of patent or registration of utility model

Ref document number: 6815104

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250