WO2023002604A1 - Behavior assistance system - Google Patents

Behavior assistance system Download PDF

Info

Publication number
WO2023002604A1
WO2023002604A1 PCT/JP2021/027332 JP2021027332W WO2023002604A1 WO 2023002604 A1 WO2023002604 A1 WO 2023002604A1 JP 2021027332 W JP2021027332 W JP 2021027332W WO 2023002604 A1 WO2023002604 A1 WO 2023002604A1
Authority
WO
WIPO (PCT)
Prior art keywords
user
action
support system
control device
detection device
Prior art date
Application number
PCT/JP2021/027332
Other languages
French (fr)
Japanese (ja)
Inventor
旭洋 山田
覚 岡垣
勝重 諏訪
智英 森本
宗晴 桑田
邦子 小島
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to PCT/JP2021/027332 priority Critical patent/WO2023002604A1/en
Priority to JP2022575720A priority patent/JP7313583B2/en
Publication of WO2023002604A1 publication Critical patent/WO2023002604A1/en
Priority to JP2023064776A priority patent/JP2023086792A/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Systems or methods specially adapted for specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • G06Q50/22Social work
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H20/00ICT specially adapted for therapies or health-improving plans, e.g. for handling prescriptions, for steering therapy or for monitoring patient compliance

Landscapes

  • Business, Economics & Management (AREA)
  • Health & Medical Sciences (AREA)
  • Primary Health Care (AREA)
  • Engineering & Computer Science (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Child & Adolescent Psychology (AREA)
  • Theoretical Computer Science (AREA)
  • Epidemiology (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Circuit Arrangement For Electric Light Sources In General (AREA)

Abstract

This behavior assistance system provides assistance with an activity of a user and comprises: a detection device that detects the state of the user; a projection device that performs display or illumination of an image; and a control device that controls the projection device on the basis of the results of the detection by the detection device such that the projection device performs display or illumination of an image relating to a behavior item defined in association with the activity to be assisted.

Description

行動支援システムAction support system
 本開示は、ユーザの行動を支援する行動支援システムに関する。 The present disclosure relates to an action support system that supports actions of users.
 近年、健康の維持及び増進が益々望まれている。そこで、運動又は睡眠等の日常生活における特定の活動をユーザに促すことで、健康の維持及び増進を実現するための種々の方法が開示されている。特許文献1には、ユーザの身体に装着されるセンサによって検知された生体情報と、ユーザの行動に関連する情報とを利用して、ユーザに運動を促すためのメッセージを通知することで、ユーザの行動の管理及び支援を行うシステムが開示されている。 In recent years, there has been an increasing desire to maintain and improve health. Accordingly, various methods have been disclosed for maintaining and improving health by encouraging users to engage in specific activities in their daily lives, such as exercise or sleep. Japanese Patent Laid-Open No. 2002-200000 discloses that a message for encouraging exercise is sent to a user by using biometric information detected by a sensor attached to the user's body and information related to the user's behavior. Disclosed is a system for managing and assisting the behavior of
特開2004-318503号公報JP-A-2004-318503
 しかしながら、特許文献1に開示された行動管理支援システムは、ユーザに対して直接的な指示内容を伴うメッセージを通知するため、ユーザによっては義務感及びそれによるストレスを感じてしまうことがある。 However, since the behavior management support system disclosed in Patent Document 1 notifies the user of a message with direct instruction content, some users may feel a sense of duty and stress due to it.
 本開示は、上記のような課題を解決するためになされたもので、ユーザに自発的な活動を促すことができる行動支援システムを提供するものである。 The present disclosure has been made to solve the problems described above, and provides an action support system that can encourage users to take voluntary actions.
 本開示に係る行動支援システムは、ユーザの活動を支援する行動支援システムであって、ユーザの状態を検知する検知装置と、映像の表示又は照明を行う投射装置と、検知装置が検知した結果に基づいて、支援対象とされる活動に対応して定められた行動項目に関連する映像の表示又は照明を行うように、投射装置を制御する制御装置と、を備える。 An action support system according to the present disclosure is an action support system that supports user activities, and includes a detection device that detects the user's state, a projection device that displays or illuminates an image, and a result detected by the detection device. and a control device for controlling the projection device so as to display or illuminate an image related to the action item determined corresponding to the activity to be supported based on the projection device.
 本開示の行動支援システムは、検知装置が検知した結果に基づいて、行動項目に関連する映像の表示又は照明を行う。このため、ユーザに対して特定の活動を行うことを直接的に指示することなく、間接的に促すことができる。したがって、ユーザに自発的な活動を促すことができる。 The action support system of the present disclosure displays or illuminates images related to action items based on the results detected by the detection device. Therefore, it is possible to indirectly prompt the user to perform a specific activity without directly instructing the user to perform the specific activity. Therefore, it is possible to encourage the user to act spontaneously.
実施の形態1に係る行動支援システム1を示す概略構成図である。1 is a schematic configuration diagram showing an action support system 1 according to Embodiment 1; FIG. 実施の形態1に係る行動支援システム1を説明するための図である。1 is a diagram for explaining action support system 1 according to Embodiment 1. FIG. 実施の形態1に係る行動支援システム1を説明するための図である。1 is a diagram for explaining action support system 1 according to Embodiment 1. FIG. 実施の形態1に係る行動支援システム1を説明するための図である。1 is a diagram for explaining action support system 1 according to Embodiment 1. FIG. 実施の形態1に係る制御装置13の動作を示すフローチャートである。4 is a flow chart showing the operation of the control device 13 according to Embodiment 1. FIG. 実施の形態1に係る行動支援システム1を説明するための図である。1 is a diagram for explaining action support system 1 according to Embodiment 1. FIG. 実施の形態1に係る行動支援システム1を説明するための図である。1 is a diagram for explaining action support system 1 according to Embodiment 1. FIG. 実施の形態1に係る行動支援システム1を説明するための図である。1 is a diagram for explaining action support system 1 according to Embodiment 1. FIG. 実施の形態2に係る行動支援システム1Aを示す機能ブロック図である。FIG. 10 is a functional block diagram showing an action support system 1A according to Embodiment 2; 実施の形態2に係る制御装置13の動作を示すフローチャートである。9 is a flowchart showing the operation of control device 13 according to Embodiment 2. FIG. 実施の形態3に係る行動支援システム1Bを示す機能ブロック図である。FIG. 11 is a functional block diagram showing an action support system 1B according to Embodiment 3; 実施の形態3に係る第2出力部51を説明するための図である。FIG. 11 is a diagram for explaining a second output section 51 according to Embodiment 3; 実施の形態3に係るプロジェクタ12aにより表示される評価映像G5を示す図である。FIG. 10 is a diagram showing an evaluation image G5 displayed by a projector 12a according to Embodiment 3; FIG. 実施の形態3に係るプロジェクタ12aにより表示される評価映像G6を示す図である。FIG. 11 is a diagram showing an evaluation image G6 displayed by a projector 12a according to Embodiment 3; FIG. 実施の形態3に係るプロジェクタ12aにより表示される評価映像G7を示す図である。FIG. 13 is a diagram showing an evaluation image G7 displayed by a projector 12a according to Embodiment 3; FIG. 実施の形態3に係るプロジェクタ12aにより表示される評価映像G8を示す図である。FIG. 11 is a diagram showing an evaluation image G8 displayed by a projector 12a according to Embodiment 3; FIG. 実施の形態3に係る制御装置13の動作を示すフローチャートである。10 is a flow chart showing the operation of the control device 13 according to Embodiment 3. FIG.
 実施の形態1.
 実施の形態1の行動支援システム1について、図面を用いて説明する。行動支援システム1は、例えば、高齢者向け施設等に設置されている。この場合、施設に滞在する高齢者が行動支援システム1のユーザに相当する。行動支援システム1は、ユーザが、行動項目として定められた活動を行うことを支援するものである。行動項目は、施設に滞在するユーザが日常生活の中で行う活動を項目として分類したものであり、例えば、散歩、体操、階段昇降、食事、会話、趣味、入浴、起床、及び就寝である。つまり、行動項目は、支援対象とされる活動に対応して定められている。行動支援システム1は、施設の態様等に応じて、ユーザが少なくとも1つの行動項目として定められた活動を行うことを支援する。
Embodiment 1.
Action support system 1 of Embodiment 1 will be described with reference to the drawings. The action support system 1 is installed, for example, in a facility for the elderly. In this case, an elderly person staying at the facility corresponds to the user of the action support system 1 . The action support system 1 assists a user in carrying out activities defined as action items. The activity items are items that are classified as activities that users staying at the facility perform in their daily lives, such as walking, exercise, climbing stairs, eating, talking, hobbies, bathing, getting up, and going to bed. In other words, the action items are determined corresponding to the activities to be supported. The action support system 1 supports the user in performing at least one action defined as an action item according to the mode of the facility or the like.
 図1は、実施の形態1に係る行動支援システム1を示す概略構成図である。図1に示すように、行動支援システム1は、検知装置11、投射装置12及び制御装置13を有する。制御装置13は、検知装置11及び投射装置12と有線又は無線によって通信可能に接続されている。 FIG. 1 is a schematic configuration diagram showing an action support system 1 according to Embodiment 1. FIG. As shown in FIG. 1 , the action support system 1 has a detection device 11 , a projection device 12 and a control device 13 . The control device 13 is communicably connected to the detection device 11 and the projection device 12 by wire or wirelessly.
 検知装置11は、ユーザの存在又は動作等の状態を検知する装置を総称したものである。検知装置11としては、ビーコン、動体検知装置、赤外線センサ、音声センサ及び睡眠センサ等、種々のものが採用される。検知装置11は、行動項目として定められた活動に応じて、施設内の複数の箇所に設置される。具体的に何れの機器が検知装置11として採用され、何れの場所に取り付けられるかは、行動項目の種別及びそれぞれの行動項目の態様に基づいて決定される。具体的な機器の詳細については、行動項目ごとに後述する。 The detection device 11 is a general term for devices that detect the state of a user's presence or motion. As the detection device 11, various devices such as a beacon, a moving body detection device, an infrared sensor, an audio sensor, and a sleep sensor are adopted. The detection devices 11 are installed at a plurality of locations within the facility according to activities defined as action items. Specifically, which device is adopted as the detection device 11 and where it is attached is determined based on the type of action item and the mode of each action item. Specific device details will be described later for each action item.
 投射装置12は、映像又は光の投射、つまり映像の表示又は照明を行う装置を総称したものである。投射装置12としては、プロジェクタ、ディスプレイ、及び照明機器等、種々のものが採用される。投射装置12は、行動項目として定められた活動に応じて、施設内の複数の箇所に取り付けられる。具体的に何れの機器が投射装置12として採用され、何れの場所に取り付けられるかは、行動項目の種別及びそれぞれの行動項目の態様に基づいて決定される。具体的な機器の詳細については、行動項目ごとに検知装置11の説明と併せて後述する。 The projection device 12 is a general term for devices that project images or light, that is, display or illuminate images. As the projection device 12, various devices such as a projector, a display, and lighting equipment are employed. Projection devices 12 are attached to a plurality of locations within the facility according to activities defined as action items. Specifically, which device is adopted as the projection device 12 and where it is attached is determined based on the type of action item and the mode of each action item. Specific device details will be described later together with the description of the detection device 11 for each action item.
 制御装置13は、例えば、CPU(Central Processing Unit、中央処理装置、処理装置、演算装置、マイクロプロセッサ、又はプロセッサともいう)を有するサーバ装置である。制御装置13は、施設内の一室又は施設外に設置されている。制御装置13は、検知装置11及び投射装置12を集中的に管理及び制御する。詳しくは、制御装置13は、検知装置11が検知した結果に基づいて、行動項目に関連する映像の表示又は照明を行うように、投射装置12を制御する。また、制御装置13は、ユーザが行動項目として定められた活動を行っている際に、検知装置11が検知した結果に基づいて、投射装置12を制御する。換言すると、ユーザが行っている動作に応じて、具体的な映像の内容又は照明方法を変化させる。なお、ここでは、照明方法とは、調光及び調色の設定内容、並びに照明の向き等によって定まる照明の態様を意味するものである。 The control device 13 is, for example, a server device having a CPU (Central Processing Unit, also referred to as a central processing unit, a processing unit, an arithmetic unit, a microprocessor, or a processor). The control device 13 is installed in one room in the facility or outside the facility. The control device 13 centrally manages and controls the detection device 11 and the projection device 12 . Specifically, the control device 13 controls the projection device 12 to display or illuminate an image related to the action item based on the detection result of the detection device 11 . Further, the control device 13 controls the projection device 12 based on the result detected by the detection device 11 while the user is performing an activity defined as an action item. In other words, the specific video content or lighting method is changed according to the action the user is performing. Here, the lighting method means a mode of lighting that is determined by the setting details of dimming and toning, the direction of lighting, and the like.
 制御装置13は、制御部及び記憶部22を有する。制御部の各機能は、ソフトウェア、ファームウェア、又はソフトウェアとファームウェアとの組み合わせにより実現される。ソフトウェア及びファームウェアはプログラムとして記述され、記憶部22に格納される。 The control device 13 has a control section and a storage section 22 . Each function of the control unit is implemented by software, firmware, or a combination of software and firmware. Software and firmware are written as programs and stored in the storage unit 22 .
 制御部は、種別決定部31、分析部32、及び第1出力部33を有する。種別決定部31は、検知装置11の検知結果に基づいて、ユーザが行おうとしている行動項目の種別を決定する。つまり、種別決定部31は、検知装置11の検知結果に基づいて、ユーザの活動が、予め設定された複数の行動項目のうち、どの行動項目に対応するかを判別する。なお、行動項目が1つのみ定められている場合、ユーザの活動が当該行動項目に対応するものであるかを判別する。分析部32は、行動項目が決定された上で、検知装置11の検知結果を分析し、ユーザの動作及び周囲の環境等を測定する。ユーザの動作及び周囲の環境等の分析方法は、周知の映像分析方法によるため、説明は省略する。第1出力部33は、分析部32の測定結果に基づいて、投射装置12に表示させる映像データ又は照明制御信号を生成し、投射装置12に出力する。なお、映像データは、具体的な映像の内容を定める出力用のデータである。また、制御部の具体的な動作については、それぞれの行動項目の態様に基づいて決定される。具体的な制御部の動作の説明については、行動項目ごとに検知装置11及び投射装置12の説明と併せて後述する。 The control unit has a type determination unit 31, an analysis unit 32, and a first output unit 33. The type determination unit 31 determines the type of action item that the user is going to perform based on the detection result of the detection device 11 . In other words, based on the detection result of the detection device 11, the type determination unit 31 determines which action item the user's activity corresponds to among a plurality of preset action items. If only one action item is defined, it is determined whether the user's activity corresponds to the action item. After the action items are determined, the analysis unit 32 analyzes the detection results of the detection device 11 and measures the user's actions, the surrounding environment, and the like. The method of analyzing the user's motion, the surrounding environment, etc. is based on a well-known video analysis method, so the explanation is omitted. The first output unit 33 generates video data or a lighting control signal to be displayed on the projection device 12 based on the measurement result of the analysis unit 32 and outputs the data to the projection device 12 . Note that the image data is data for output that defines specific contents of the image. Further, the specific operation of the control unit is determined based on the mode of each action item. A detailed description of the operation of the control unit will be given later together with descriptions of the detection device 11 and the projection device 12 for each action item.
 記憶部22は、例えば、RAM、ROM、フラッシュメモリ、EPROM、EEPROM等の不揮発性又は揮発性の半導体メモリである。記憶部22には、検知装置11及び投射装置12の機器の種類及び設置位置等の行動支援システム1の設置時に定まる情報が記憶されている。また、記憶部22には、検知装置11から受信したユーザの動作及び周囲の環境等の検知結果、並びに検知装置11及び投射装置12の動作状態等の行動支援システム1の稼働時に通信される情報が累積的に記憶されている。また、記憶部22には、ユーザを識別するユーザIDに、ユーザの身体特徴、及びユーザ又は管理者が支援を行うように設定した行動項目の種別等が対応して記憶されたユーザテーブル等が記憶されている。記憶部22に記憶されている情報のうち、各行動項目に特有のものについては、行動項目ごとに検知装置11、投射装置12、及び制御部の動作の説明と併せて後述する。 The storage unit 22 is, for example, non-volatile or volatile semiconductor memory such as RAM, ROM, flash memory, EPROM, and EEPROM. The storage unit 22 stores information determined when the action support system 1 is installed, such as the types and installation positions of the detection device 11 and the projection device 12 . In addition, the storage unit 22 stores the detection result of the user's motion and the surrounding environment received from the detection device 11, and information communicated when the action support system 1 is in operation, such as the operating states of the detection device 11 and the projection device 12. are stored cumulatively. In the storage unit 22, a user table or the like is stored in which a user ID for identifying a user is associated with a physical feature of the user, a type of action item set by the user or an administrator for support, and the like. remembered. Of the information stored in the storage unit 22, information specific to each action item will be described later together with the description of the operations of the detection device 11, the projection device 12, and the control unit for each action item.
 管理端末14は、制御装置13と有線又は無線によって通信可能に接続されている。管理端末14は、例えば、施設内の管理室等に設置された汎用的なPC(Personal Computer)、又は施設の管理人等が所持するスマートフォン若しくはCPUを備えた専用の端末である。管理端末14は、利用者が制御装置13を介して、行動取得装置及び投射装置12を管理又は制御するために用いる。例えば、管理人等は、管理端末14を介して、検知装置11の検知結果によらずに、ユーザテーブルに記憶された行動項目を指定することができる。また、管理人等は、行動項目の指定をスケジュール化するように設定してもよい。 The management terminal 14 is communicably connected to the control device 13 by wire or wirelessly. The management terminal 14 is, for example, a general-purpose PC (Personal Computer) installed in a facility management room or the like, or a smartphone owned by a facility manager or the like, or a dedicated terminal equipped with a CPU. The management terminal 14 is used by the user to manage or control the action acquisition device and the projection device 12 via the control device 13 . For example, a manager or the like can designate an action item stored in the user table via the management terminal 14 regardless of the detection result of the detection device 11 . In addition, the manager or the like may set the designation of the action items to be scheduled.
 (行動項目ごとの制御)
 以下では、具体的な行動項目に対応した行動支援システム1の態様について説明する。先ずは、行動支援システム1による支援の対象とされている行動項目の種別に散歩が含まれる場合について、行動支援システム1の詳細を説明する。図2は、実施の形態1に係る行動支援システム1を説明するための図である。図2に示すように、行動支援システム1は、支援対象の行動項目に散歩が含まれる場合、制御装置13、ビーコンタグ11a、受信機11b、動体検知装置11c、プロジェクタ12a及び照明装置12bを有している。制御装置13と、受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bは、例えば、Web又は専用の通信網を介して、通信可能に接続されている。行動支援システム1は、支援対象の行動項目に散歩が含まれる場合、散歩を快適に感じさせて、散歩に対するモチベーションの向上を行うこと、及び歩行の補助を行うことを目的としている。
(Control for each action item)
In the following, aspects of the action support system 1 corresponding to specific action items will be described. First, details of the action support system 1 will be described for a case where walking is included in the types of action items targeted for support by the action support system 1 . FIG. 2 is a diagram for explaining the action support system 1 according to the first embodiment. As shown in FIG. 2, the action support system 1 includes a control device 13, a beacon tag 11a, a receiver 11b, a moving object detection device 11c, a projector 12a, and a lighting device 12b when walking is included in the action items to be supported. are doing. The control device 13, the receiver 11b, the moving object detection device 11c, the projector 12a, and the lighting device 12b are communicably connected via, for example, the Web or a dedicated communication network. The action support system 1 is intended to make the user feel comfortable with the walk, to improve the motivation for the walk, and to assist the user in walking when the action items to be supported include the walk.
 ビーコンタグ11aは、ユーザ(図2では人P1)が身に着けている。ビーコンタグ11aは、受信機11bに対してBluetooth(登録商標)等の無線信号を送信するものである。ビーコンタグ11aから受信機11bに送られる信号には、ビーコンタグ11aを身に着けているユーザを識別するID情報が含まれている。 The beacon tag 11a is worn by the user (person P1 in FIG. 2). The beacon tag 11a transmits wireless signals such as Bluetooth (registered trademark) to the receiver 11b. A signal sent from the beacon tag 11a to the receiver 11b contains ID information for identifying the user wearing the beacon tag 11a.
 受信機11bは、施設の廊下Cの天井等に取り付けられている。廊下Cは、ユーザが散歩を行う場合の散歩場所として事前にユーザテーブルに設定された施設内の場所の例である。受信機11bは、ビーコンタグ11aから受信したID情報によって特定されるユーザが検知範囲に存在していることを検知する。受信機11bは、ユーザが検知範囲に存在していること、及び、検知されているユーザのID情報が含まれる検知信号を制御装置13に送信する。受信機11bは、ユーザが検知範囲に存在していることを検知している間、検知信号を一定の周期で制御装置13に送信する。受信機11bは、ビーコンタグ11aと共に動作する検知装置11の一例である。 The receiver 11b is attached to the ceiling, etc. of the hallway C of the facility. Corridor C is an example of a place in the facility set in advance in the user table as a walking place for the user to take a walk. The receiver 11b detects that the user specified by the ID information received from the beacon tag 11a exists within the detection range. The receiver 11b transmits to the control device 13 a detection signal that indicates that the user is present within the detection range and includes ID information of the detected user. The receiver 11b transmits a detection signal to the control device 13 at regular intervals while detecting that the user exists within the detection range. Receiver 11b is an example of sensing device 11 that operates in conjunction with beacon tag 11a.
 動体検知装置11cは、廊下Cにおいてユーザである動体を検知している間は、映像を録画し、制御装置13に録画映像を送信するものである。具体的には、例えば、動体検知装置11cは、廊下Cを一定時間撮影した場合の情報量が増加した場合等に動体を検知し、録画を開始して、録画映像を制御装置13に送信するものである。また、例えば、動体検知装置11cを赤外線センサ及びビデオカメラからなる構成として、赤外線を放射する熱源を感知した場合に、廊下Cにおいてユーザである動体を検知したとして、録画映像を制御装置13に送信するようにしてもよい。動体検知装置11cは、検知装置11の一例である。 The moving body detection device 11 c records video while detecting a moving body, which is the user, in the corridor C, and transmits the recorded video to the control device 13 . Specifically, for example, the moving object detection device 11c detects a moving object when the amount of information increases when the corridor C is photographed for a certain period of time, starts recording, and transmits the recorded video to the control device 13. It is. Further, for example, when the moving object detection device 11c is composed of an infrared sensor and a video camera, and detects a heat source that emits infrared rays, it detects a moving object, which is the user, in the corridor C, and transmits a recorded image to the control device 13. You may make it The moving body detection device 11 c is an example of the detection device 11 .
 記憶部22には、後述する風景の映像、及び歩行経路の映像等のような、投影される映像データを生成するための情報が記憶されている。 The storage unit 22 stores information for generating image data to be projected, such as an image of scenery and an image of a walking route, which will be described later.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が散歩であることを決定する。決定条件は、例えば、次の2つの条件である。1つ目の条件は、廊下Cに設置された受信機11bから、支援対象に散歩を設定しているユーザの検知信号を受信したことである。2つ目の条件は、動体検知装置11cから録画映像を受信したことである。なお、これらの条件はAND条件でもよいし、OR条件でもよい(以下、他の行動項目についても同様)。 When the determination condition is satisfied, the type determination unit 31 of the control device 13 determines that the action item for which assistance is to be started is walking. The decision conditions are, for example, the following two conditions. The first condition is that the receiver 11b installed in the corridor C has received a detection signal of a user who has set walking as a support target. The second condition is that a recorded image has been received from the moving object detection device 11c. These conditions may be AND conditions or OR conditions (the same applies to other action items hereinafter).
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、散歩の支援を完了する。完了条件は、例えば、廊下Cに設置された受信機11bから、支援対象に散歩を設定しているユーザの検知信号の受信がない状態で、予め定められた時間が経過することである。 Also, if the completion condition is satisfied after the determination condition is satisfied, the type determination unit 31 completes the walk assistance. The completion condition is, for example, that the receiver 11b installed in the corridor C does not receive the detection signal of the user who has set walking as the support target, and a predetermined time has passed.
 分析部32は、行動項目が決定された上で、動体検知装置11cから受信した録画映像に基づいて、ユーザの身体部位及び動作を連続的に分析する。具体的な身体部位としては、足元の位置である。また、具体的なユーザの動作としては、歩行姿勢、歩行速度、及び歩幅等である。歩幅は、足位置の測位を行って算出してもよい。歩幅は、ユーザの身長に対して、0.45~0.50の値を乗じることで算出するようにしてもよい。 After the action items are determined, the analysis unit 32 continuously analyzes the user's body parts and actions based on the recorded video received from the moving body detection device 11c. A specific body part is the position of the feet. Further, specific user actions include walking posture, walking speed, stride length, and the like. The stride length may be calculated by positioning the foot position. The stride length may be calculated by multiplying the height of the user by a value between 0.45 and 0.50.
 制御装置13の第1出力部33は、分析部32の測定結果に基づいて、映像データを生成し、プロジェクタ12aに出力するものである。映像データは、表示される映像に対応した出力用のデータである。プロジェクタ12aは、第1出力部33から出力された映像データを壁面又は床面等に映像Gとして表示する。プロジェクタ12aは、投射装置12の一例であり、廊下Cの壁又は天井等に取り付けられている。 The first output unit 33 of the control device 13 generates video data based on the measurement result of the analysis unit 32 and outputs it to the projector 12a. The video data is data for output corresponding to the video to be displayed. The projector 12a displays the image data output from the first output unit 33 as an image G on a wall surface, a floor surface, or the like. The projector 12a is an example of the projection device 12, and is attached to the wall of the corridor C, the ceiling, or the like.
 制御装置13の第1出力部33は、分析部32の測定結果に基づいて、照明制御信号を生成し、照明装置12bに出力するものである。照明制御信号は、照明装置12bに動作させる照明方法を示す情報が含まれた信号である。照明装置12bは、照明制御信号を受信すると、照明制御信号によって示された照明方法を行う。照明装置12bは、投射装置12の一例である。照明装置12bは、例えば、LED(Light Emitting Diode)を利用したスポットライトであり、廊下Cの壁又は天井等に取り付けられている。 The first output unit 33 of the control device 13 generates a lighting control signal based on the measurement result of the analysis unit 32 and outputs it to the lighting device 12b. The lighting control signal is a signal containing information indicating a lighting method to operate the lighting device 12b. Upon receiving the lighting control signal, the lighting device 12b performs the lighting method indicated by the lighting control signal. The lighting device 12 b is an example of the projection device 12 . The lighting device 12b is, for example, a spotlight using LEDs (Light Emitting Diodes), and is attached to the wall or ceiling of the corridor C or the like.
 第1出力部33は、次の4種類のうち少なくとも1種類以上の映像の表示又は照明を行うように、プロジェクタ12a又は照明装置12bに映像データ又は照明制御信号を出力する。何れの種類の表示内容を表示するかは、ユーザ又は管理者によって事前に決められている。 The first output unit 33 outputs video data or lighting control signals to the projector 12a or lighting device 12b so as to display or illuminate at least one of the following four types of video. The type of display content to be displayed is determined in advance by the user or administrator.
 1種類目としては、第1出力部33は、プロジェクタ12aによって、ハイキング等を行っている際の風景映像の表示を行う。風景映像は、例えば、所定の長さの映像であって、風景が歩行に合わせて変化していく様子が記録されたものである。第1出力部33は、記憶部22に記憶された風景映像を利用者の歩行動作に応じて変化させてプロジェクタ12aに表示させる。具体的には、ユーザが歩行をすると、歩幅の分だけ前方に進んだことをユーザが体感できるように、風景映像を歩幅に対応した分だけ、コマ送りして再生する。これにより、ユーザに散歩を快適に感じさせて、散歩に対するモチベーションの向上を行うことができる。 As a first type, the first output unit 33 displays a landscape image during hiking or the like using the projector 12a. The scenery image is, for example, an image of a predetermined length, and records how the scenery changes as the person walks. The first output unit 33 changes the scenery image stored in the storage unit 22 according to the user's walking motion and causes the projector 12a to display the image. Specifically, when the user walks, the scenery image is frame-advanced and played back by the amount corresponding to the stride so that the user can feel that the user has moved forward by the stride. As a result, the user can be made to feel comfortable walking, and motivation for walking can be improved.
 2種類目としては、第1出力部33は、プロジェクタ12aによって、歩行経路を表示する。図3は、実施の形態1に係る行動支援システム1を説明するための図である。図4は、実施の形態1に係る行動支援システム1を説明するための図である。図3及び図4は、行動項目が散歩である場合を示している。図4は、実施の形態1に係る行動支援システム1において、行動項目が散歩である場合を説明するための図である。図3に示すように、第1出力部33は、ユーザの姿勢及び足位置に基づいて、人P1の前方側の歩行経路Tを表示させる。歩行経路は、廊下C上の経路であって、プロジェクタ12aの設置方向に合わせて事前に設定されている。また、図4に示すように、第1出力部33は、ユーザの姿勢及び足位置に基づいて、人P1の前方側の歩行経路Tのみを出力するように、ユーザが既に歩行を終えた歩行経路を映像データから削除する。これにより、ユーザの歩行の補助を行うことができる。 As a second type, the first output unit 33 displays the walking route using the projector 12a. FIG. 3 is a diagram for explaining the action support system 1 according to the first embodiment. FIG. 4 is a diagram for explaining the action support system 1 according to the first embodiment. 3 and 4 show the case where the action item is a walk. FIG. 4 is a diagram for explaining a case where the action item is a walk in the action support system 1 according to the first embodiment. As shown in FIG. 3, the first output unit 33 displays the walking path T in front of the person P1 based on the user's posture and foot position. The walking route is a route on the corridor C and is set in advance according to the installation direction of the projector 12a. Further, as shown in FIG. 4, the first output unit 33 outputs only the walking path T on the front side of the person P1 based on the user's posture and foot position. Delete the route from the video data. Thereby, the user's walking can be assisted.
 3種類目としては、第1出力部33は、照明装置12bによって、歩行マークを表示する。歩行マークは、次に踏み出す足の置くべき位置を示す。図2では、歩行マークを、歩行マークL1として示している。第1出力部33は、足位置、歩行速度、及び歩幅等に応じて、歩行マークを表示させる。具体的に、左足が前にある場合は、右足が前に動くよりも早く、右足の歩行マークを表示する。同様に、右足が前にある場合は、左足が前に動くよりも早く、左足の歩行マークを表示する。歩行マークを表示させるタイミングは、例えば、一方の足の歩行マークが他方の足が接地した直後である。歩行マークの表示位置は、例えば、前述した歩行経路において、対象の足の歩幅の距離にある位置である。これにより、ユーザの歩行の補助を行うことができる。なお、歩行速度を考慮して、右足と左足の歩行マークをそれぞれシームレスに移動しても良い。一例として、左足が着地した直後に右足の先端から歩幅までの間、円形パターン又は足跡のパターンを、パターンの形状を維持したまま左右それぞれの歩行経路上に、歩行速度で移動させるようにしてもよい。このようにしても、ユーザが適切な歩行速度で歩行する補助を行うことができる。また、照明装置12bの出射側に特定の図形のパターンを形成した遮光シートを設置する等して、歩行マークを、例えば、特定の記号又は足跡等の特定の形状にしてもよい。 As a third type, the first output unit 33 displays a walking mark using the illumination device 12b. The walking mark indicates the position where the next foot should be placed. In FIG. 2, the walking mark is shown as walking mark L1. The first output unit 33 displays walking marks according to the foot position, walking speed, step length, and the like. Specifically, when the left foot is in front, the right foot walking mark is displayed earlier than the right foot moves forward. Similarly, if the right foot is in front, display the left foot gait mark earlier than the left foot moves forward. The timing for displaying the walking mark is, for example, immediately after the walking mark of one foot touches the ground of the other foot. The display position of the walking mark is, for example, a position at a distance of the stride length of the target foot on the walking path described above. Thereby, the user's walking can be assisted. In consideration of the walking speed, the walking marks for the right foot and the left foot may be moved seamlessly. As an example, immediately after the left foot lands, a circular pattern or a pattern of footprints may be moved from the tip of the right foot to the stride length on the left and right walking paths at the walking speed while maintaining the shape of the pattern. good. Even in this way, the user can be assisted to walk at an appropriate walking speed. Alternatively, the walking mark may be formed in a specific shape such as a specific symbol or footprint, for example, by installing a light-shielding sheet having a pattern of a specific figure on the exit side of the illumination device 12b.
 4種類目としては、第1出力部33は、照明装置12bによって、視線マークを表示する。視線マークは、ユーザの視線を誘導するマークである。図2では、視線マークを、視線マークL2として示している。第1出力部33は、ユーザの姿勢及び足位置に基づいて、足元より遠方に視線マークを表示させる。視線マークは、円形等の形状であって、ユーザの注意を引くように、明るく表示させるとよい。また、第1出力部33は、視線マークの表示位置を、利用者の歩行に追従させる。これにより、ユーザの視線を足元より遠方に誘導することができ、歩行姿勢の改善を促すことができる。 As a fourth type, the first output unit 33 displays a line-of-sight mark using the illumination device 12b. The line-of-sight mark is a mark that guides the user's line of sight. In FIG. 2, the line-of-sight mark is shown as a line-of-sight mark L2. The first output unit 33 displays the line-of-sight mark farther than the user's feet based on the user's posture and foot position. The line-of-sight mark has a shape such as a circle, and is preferably displayed brightly so as to attract the user's attention. Further, the first output unit 33 causes the display position of the line-of-sight mark to follow the walking of the user. As a result, the user's line of sight can be guided further away from the feet, and improvement of the walking posture can be encouraged.
 なお、プロジェクタ12aの代わりにディスプレイを用いて行うようにしてもよい。また、歩行経路の表示は、照明装置12bを用いて行うようにしてもよい。照明装置12bを用いて、歩行経路の表示を行う場合、例えば、廊下Cに照明装置12bを点在させて、前方の歩行経路に対応する位置のみに対応させて点灯を行うようにすればよい。また、歩行マーク、及び視線マークの表示は、プロジェクタ12aを用いて行うようにしてもよい。この場合、例えば、歩行マークを足跡の形状にしてもよい。 Note that a display may be used instead of the projector 12a. Also, the walking route may be displayed using the illumination device 12b. When the walking route is displayed using the lighting device 12b, for example, the lighting devices 12b are scattered in the corridor C, and only the positions corresponding to the walking route ahead are illuminated. . Also, the display of the walking mark and the line-of-sight mark may be performed using the projector 12a. In this case, for example, the walking mark may be in the shape of a footprint.
 また、図2では、天井を有する廊下Cを例示しているが、天井又は壁の一部がない開放的な空間であってもよい。受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bは、機能が発揮できれば、管理者等の任意の位置に取り付けることができる。 In addition, although FIG. 2 illustrates the corridor C having a ceiling, it may be an open space without a ceiling or a part of the wall. The receiver 11b, the moving body detection device 11c, the projector 12a, and the illumination device 12b can be installed at arbitrary positions of the administrator or the like as long as they can exhibit their functions.
 図5は、実施の形態1に係る制御装置13の動作を示すフローチャートである。図5を用いて、制御装置13の動作を説明する。先ず、種別決定部31は、決定条件を満たすか否かを判定する(S1)。決定条件が満たされていない場合(S1:NO)、決定条件が満たされるまで、制御装置13は待機する。決定条件が満たされた場合(S1:YES)、種別決定部31は、支援を開始する行動項目として散歩を決定する(S2)。 FIG. 5 is a flow chart showing the operation of the control device 13 according to the first embodiment. The operation of the control device 13 will be described with reference to FIG. First, the type determination unit 31 determines whether or not a determination condition is satisfied (S1). If the determination condition is not satisfied (S1: NO), the controller 13 waits until the determination condition is satisfied. If the determination condition is satisfied (S1: YES), the type determination unit 31 determines a walk as an action item for which support is to be started (S2).
 次に、分析部32は、動体検知装置11cから受信した録画映像を分析し、ユーザの身体部位及び動作を測定する(S3)。続いて、第1出力部33は、分析部32の測定結果に基づいて、映像データ又は照明制御信号を生成し(S4)、投射装置12に映像の表示又は照明を行わせる(S5)。 Next, the analysis unit 32 analyzes the recorded video received from the moving object detection device 11c and measures the user's body parts and actions (S3). Subsequently, the first output unit 33 generates image data or a lighting control signal based on the measurement result of the analysis unit 32 (S4), and causes the projection device 12 to display or illuminate the image (S5).
 そして、種別決定部31は、完了条件を満たすか否かを判定する(S6)。完了条件が満たされていない場合(S6:NO)、完了条件が満たされるまで、制御装置13はS3~S5の制御を継続する。完了条件が満たされた場合(S6:YES)、制御装置13は、行動項目として散歩が行われている場合の制御を完了する。 Then, the type determination unit 31 determines whether or not the completion condition is satisfied (S6). If the completion condition is not satisfied (S6: NO), the control device 13 continues the control of S3-S5 until the completion condition is satisfied. When the completion condition is satisfied (S6: YES), the control device 13 completes the control when taking a walk as an action item.
 このように、行動支援システム1は、検知装置11が検知した結果に基づいて、散歩を快適に感じさせて、散歩に対するモチベーションの向上を行うこと、及び歩行の補助を行うことができる。 In this way, the action support system 1 can make the walk feel comfortable, improve the motivation for the walk, and assist the walk based on the results detected by the detection device 11 .
 また、特に、映像の内容及び照明方法がユーザの散歩に合わせて変化することから、映像の内容及び照明方法が自身の動作と連動する感覚をユーザに体験させ、自発的な活動をより強くユーザに促すことができる。 In particular, since the content of the image and the lighting method change according to the user's walk, the user can experience the feeling that the content of the image and the lighting method are linked to the user's own movement, and the user's spontaneous activity becomes stronger. can be encouraged to
 行動支援システム1による支援の対象とされている行動項目の種別に階段昇降が含まれる場合について、行動支援システム1の詳細を説明する。行動支援システム1は、制御装置13、ビーコンタグ11a、受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bを有している。支援対象の行動項目の種別に階段昇降が含まれる場合、行動支援システム1は、階段昇降に対するモチベーションの向上を行うこと、及び階段昇降の補助を行うことを目的としている。 The details of the action support system 1 will be described in the case where the type of action item targeted for support by the action support system 1 includes climbing stairs. The action support system 1 has a control device 13, a beacon tag 11a, a receiver 11b, a moving object detection device 11c, a projector 12a, and an illumination device 12b. When the type of action item to be supported includes stair climbing, the action support system 1 aims to improve motivation for stair climbing and to assist stair climbing.
 行動支援システム1の有するそれぞれの機器自体は、階段昇降を支援する場合の行動支援システム1の各機器と同様であるため、説明を省略する。ただし、受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bは、例えば、施設内の階段付近の壁又は天井等に取り付けられている。階段は、ユーザによって階段昇降を行う場所として事前に設定されている場所の例である。なお、踏み台昇降を階段昇降に相当する活動とみなして、踏み台昇降を行う場所を階段昇降が行われる場所として設定されていてもよい。 Each device of the action support system 1 itself is the same as each device of the action support system 1 for assisting climbing stairs, so descriptions thereof will be omitted. However, the receiver 11b, the moving body detection device 11c, the projector 12a, and the lighting device 12b are attached to, for example, the wall or ceiling near the stairs in the facility. A staircase is an example of a place preset by the user as a place to go up and down the stairs. Note that stepping up and down may be regarded as an activity corresponding to stepping up and down, and a place where stepping up and down is performed may be set as a place where the stepping up and down is performed.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が階段昇降であることを決定する。決定条件は、例えば、次の2つの条件である。1つ目の条件は、階段付近に設置された受信機11bから、支援対象に階段昇降を設定しているユーザの検知信号を受信したことである。2つ目の条件は、動体検知装置11cから録画映像を受信したことである。 When the determination condition is satisfied, the type determination unit 31 of the control device 13 determines that the action item for which assistance is to be started is climbing stairs. The decision conditions are, for example, the following two conditions. The first condition is that a detection signal of a user who has set climbing up and down stairs as a support target is received from the receiver 11b installed near the stairs. The second condition is that a recorded image has been received from the moving object detection device 11c.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、階段昇降の支援を完了する。完了条件は、例えば、階段付近に設置された受信機11bから、支援対象に階段昇降を設定しているユーザの検知信号の受信がない状態で、予め定められた時間が経過することである。 Also, if the completion condition is satisfied after the determination condition is satisfied, the type determination unit 31 completes the support for climbing stairs. The completion condition is, for example, that a predetermined time elapses without receiving a detection signal from the receiver 11b installed near the stairs for the user who has set climbing up and down the stairs as a support target.
 分析部32は、行動項目が決定された上で、動体検知装置11cから受信した映像の分析を連続的に行い、ユーザの身体部位及び動作を連続的に測定する。具体的な身体部位としては、足元である。また、具体的なユーザの動作としては、昇降姿勢、及び昇降速度等を測定する。 After the action items are determined, the analysis unit 32 continuously analyzes the video received from the moving body detection device 11c, and continuously measures the user's body parts and actions. A specific body part is the feet. Further, as specific user actions, the elevation posture, elevation speed, and the like are measured.
 第1出力部33は、分析部32の測定結果に基づいて、映像データを生成し、プロジェクタ12aに出力する。また、制御装置13の第1出力部33は、分析部32の測定結果に基づいて、照明制御信号を生成し、照明装置12bに出力する。第1出力部33は、次の2種類のうち少なくとも何れかの映像の表示又は照明を行うように、プロジェクタ12a又は照明装置12bに映像データ又は照明制御信号を出力する。 The first output unit 33 generates video data based on the measurement result of the analysis unit 32 and outputs it to the projector 12a. Also, the first output unit 33 of the control device 13 generates a lighting control signal based on the measurement result of the analysis unit 32 and outputs it to the lighting device 12b. The first output unit 33 outputs video data or a lighting control signal to the projector 12a or lighting device 12b so as to display or illuminate at least one of the following two types of video.
 1種類目としては、第1出力部33は、例えば、登山を行っている際の風景映像をプロジェクタ12aに表示させる。風景映像は、例えば、所定の長さの動画であって、風景が徐々に変化していく様子が記録されたものである。これにより、階段昇降に対するモチベーションの向上を行うことができる。 As a first type, the first output unit 33 causes the projector 12a to display, for example, a landscape image during mountain climbing. A scenery image is, for example, a moving image of a predetermined length, and is a recorded image of a gradual change in scenery. As a result, it is possible to improve the motivation for climbing stairs.
 2種類目としては、第1出力部33は、ユーザの足元を明るくする照明を、ユーザの階段昇降に追従して行う。これにより、ユーザの階段昇降の補助を行うことができる。 As a second type, the first output unit 33 provides lighting that brightens the user's feet, following the user's ascending and descending of the stairs. As a result, it is possible to assist the user in ascending and descending stairs.
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、階段昇降を快適に感じさせて、階段昇降に対するモチベーションの向上を行うこと、及び歩行の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of assistance, so the explanation is omitted. As described above, based on the results detected by the detection device 11, the action support system 1 can make climbing stairs feel comfortable, improve motivation for climbing stairs, and assist walking. .
 また、特に、映像の内容及び照明方法がユーザの階段昇降に合わせて変化することから、自身の動作と連動する感覚をユーザに体験させ、自発的な活動をより強くユーザに促すことができる。 In addition, in particular, since the content of the video and the lighting method change according to the user's climbing up and down the stairs, the user can experience the feeling of being linked to his or her own movement, and the user can be strongly encouraged to take spontaneous action.
 行動支援システム1による支援の対象とされている行動項目の種別に体操が含まれる場合について、行動支援システム1の詳細を説明する。制御装置13、ビーコンタグ11a、受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bを有している。支援対象の行動項目の種別に体操が含まれる場合、行動支援システム1は、体操に対するモチベーションの向上を行うこと、及び体操の補助を行うことを目的としている。 The details of the action support system 1 will be described in the case where gymnastics is included in the types of action items targeted for support by the action support system 1. It has a control device 13, a beacon tag 11a, a receiver 11b, a moving object detection device 11c, a projector 12a, and an illumination device 12b. When the type of activity item to be supported includes gymnastics, the action support system 1 aims to improve motivation for gymnastics and to assist in gymnastics.
 行動支援システム1の有するそれぞれの機器自体は、散歩を支援する場合の行動支援システム1の各機器と同様であるため、説明を省略する。ただし、受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bは、例えば、施設内のホール等の壁又は天井等に取り付けられている。ホールは、ユーザによって体操を行う場所として事前に設定されている場所の例である。 Each device of the action support system 1 itself is the same as each device of the action support system 1 when supporting a walk, so a description thereof will be omitted. However, the receiver 11b, the moving body detection device 11c, the projector 12a, and the lighting device 12b are attached to the wall or ceiling of the hall in the facility, for example. A hall is an example of a place preset by the user as a place to exercise.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が体操であることを決定する。決定条件は、例えば、次の2つの条件である。1つ目の条件は、ホールに設置された受信機11bから、支援対象に体操を設定しているユーザの検知信号を受信したことである。2つ目の条件は、ホールに設置された動体検知装置11cから録画映像を受信したことである。 When the determination condition is satisfied, the type determination unit 31 of the control device 13 determines that the action item for which support is to be started is gymnastics. The decision conditions are, for example, the following two conditions. The first condition is that a detection signal of a user who has set gymnastics as a support target is received from the receiver 11b installed in the hall. The second condition is that a recorded video has been received from the moving body detection device 11c installed in the hall.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、体操の支援を完了する。完了条件は、例えば、ホールに設置された受信機11bから、支援対象に体操を設定しているユーザの検知信号の受信がない状態で、予め定められた時間が経過することである。 Further, the type determination unit 31 completes the support for gymnastics when the completion condition is satisfied after the determination condition is satisfied. The completion condition is, for example, that a predetermined period of time elapses without receiving a detection signal from the receiver 11b installed in the hall for a user who has set gymnastics as a support target.
 分析部32は、行動項目が決定された上で、動体検知装置11cから受信した映像の分析を連続的に行い、ユーザの身体部位及び動作を連続的に測定する。 After the action items are determined, the analysis unit 32 continuously analyzes the video received from the moving body detection device 11c, and continuously measures the user's body parts and actions.
 第1出力部33は、分析部32の測定結果に基づいて、映像データを生成し、プロジェクタ12aに出力する。また、制御装置13の第1出力部33は、分析部32の測定結果に基づいて、照明制御信号を生成し、照明装置12bに出力する。第1出力部33は、次の2種類のうち少なくとも何れかの映像の表示又は照明を行うように、プロジェクタ12a又は照明装置12bに映像データ又は照明制御信号を出力する。 The first output unit 33 generates video data based on the measurement result of the analysis unit 32 and outputs it to the projector 12a. Also, the first output unit 33 of the control device 13 generates a lighting control signal based on the measurement result of the analysis unit 32 and outputs it to the lighting device 12b. The first output unit 33 outputs video data or a lighting control signal to the projector 12a or lighting device 12b so as to display or illuminate at least one of the following two types of video.
 1種類目としては、第1出力部33は、例えば、体操を行っている人物等の映像をプロジェクタ12aに表示させる。この映像は、例えば、所定の長さの動画であって、人がラジオ体操などの一連の流れが記録されたものである。これにより、体操を行うことに対する抵抗感を減らし、体操に対するモチベーションの向上を行うことができる。 As a first type, the first output unit 33 causes the projector 12a to display an image of, for example, a person doing gymnastics. This video is, for example, a moving picture of a predetermined length, in which a series of movements such as radio calisthenics of a person are recorded. As a result, resistance to exercise can be reduced, and motivation for exercise can be improved.
 2種類目としては、第1出力部33は、体操のテンポに合わせて照明の色又は明るさ等を変化させる。これにより、ユーザの体操の補助を行うことができる。 As a second type, the first output unit 33 changes the color or brightness of the lighting according to the tempo of the exercise. As a result, it is possible to assist the user's exercise.
 また、第1出力部33は、分析部32の分析結果が、ユーザの動作が体操に相当する動作ではないことを示す場合、体操を行う素振りがないと判断し、映像の表示又は照明を停止させる。 Further, when the analysis result of the analysis unit 32 indicates that the user's motion is not a motion corresponding to gymnastics, the first output unit 33 determines that there is no practice swing for gymnastics, and stops displaying the image or lighting. Let
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、体操を行うことに対する抵抗感を減らし、体操に対するモチベーションの向上を行うこと、及び体操の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of assistance, so the explanation is omitted. As described above, the action support system 1 can reduce resistance to exercise, improve motivation for exercise, and assist exercise based on the results detected by the detection device 11 . .
 行動支援システム1による支援の対象とされている行動項目の種別に食事が含まれる場合について、行動支援システム1の詳細を説明する。図6は、実施の形態1に係る行動支援システム1を説明するための図である。図6に示すように、行動支援システム1は、制御装置13、ビーコンタグ11a、受信機11b、動体検知装置11c、及び照明装置12bを有している。支援対象の行動項目の種別に食事が含まれる場合、行動支援システム1は、食事に対するモチベーションの向上を行うこと、及び食事の補助を行うことを目的としている。 The details of the action support system 1 will be explained for the case where meals are included in the types of action items targeted for support by the action support system 1. FIG. 6 is a diagram for explaining the action support system 1 according to the first embodiment. As shown in FIG. 6, the action support system 1 has a control device 13, a beacon tag 11a, a receiver 11b, a moving body detection device 11c, and a lighting device 12b. When eating is included in the types of action items to be supported, the action support system 1 aims to improve motivation for eating and to assist with eating.
 行動支援システム1の有するそれぞれの機器自体は、支援対象の行動項目に散歩が含まれる場合の行動支援システム1の各機器と同様であるため、説明を省略する。ただし、受信機11b、動体検知装置11c、及び照明装置12bは、例えば、施設内の部屋R1の壁又は天井等に取り付けられている。部屋R1は、例えば、食堂等、食事を行う場所として事前に設定されている場所の例である。 Each device of the action support system 1 itself is the same as each device of the action support system 1 when walking is included in the action item to be supported, so description thereof will be omitted. However, the receiver 11b, the moving body detection device 11c, and the lighting device 12b are attached, for example, to the wall or ceiling of the room R1 in the facility. The room R1 is an example of a place set in advance as a place to eat, such as a dining room.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が食事であることを決定する。決定条件は、例えば、次の2つの条件である。1つ目の条件は、部屋R1に設置された受信機11bから、支援対象に食事を設定しているユーザの検知信号を受信したことである。2つ目の条件は、部屋R1に設置された動体検知装置11cから録画映像を受信したことである。 When the determination condition is satisfied, the type determination unit 31 of the control device 13 determines that the action item for which support is to be started is meal. The decision conditions are, for example, the following two conditions. The first condition is that a detection signal of a user who has set a meal as a support target is received from the receiver 11b installed in the room R1. The second condition is that a recorded video has been received from the moving object detection device 11c installed in the room R1.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、食事の支援を完了する。完了条件は、例えば、部屋R1に設置された受信機11bから、支援対象に食事を設定しているユーザの検知信号の受信がない状態で、予め定められた時間が経過することである。 In addition, the type determination unit 31 completes the meal assistance when the completion condition is satisfied after the determination condition is satisfied. The completion condition is, for example, that a predetermined time elapses without receiving a detection signal from the receiver 11b installed in the room R1 for the user who has set meal as a support target.
 分析部32は、行動項目が決定された上で、動体検知装置11cから受信した録画映像の分析を連続的に行い、ユーザの咀嚼回数、食事ペース又はユーザの前に配膳されているメニュー等を分析する。 After the action items are determined, the analysis unit 32 continuously analyzes the recorded video received from the moving object detection device 11c, and determines the number of chews of the user, the meal pace, the menu served in front of the user, and the like. analyse.
 また、制御装置13の第1出力部33は、分析部32の分析結果に基づいて、照明制御信号を生成し、照明装置12bに出力する。第1出力部33は、次の3種類のうち、少なくとも何れかの照明を行うように、照明制御信号を照明装置12bに出力する。なお、制御装置13は、食べ残し状況を分析し、ユーザと紐づけてデータを蓄積することで、個人の嗜好や健康状態を把握しても良い。 Also, the first output unit 33 of the control device 13 generates a lighting control signal based on the analysis result of the analysis unit 32, and outputs it to the lighting device 12b. The first output unit 33 outputs a lighting control signal to the lighting device 12b so as to perform at least one of the following three types of lighting. Note that the control device 13 may analyze the state of leftover food and accumulate data in association with the user, thereby ascertaining individual preferences and health conditions.
 1種類目としては、第1出力部33は、テーブルに暖色の光の照明を行わせる。これにより、食事を行う場を快適にして、食事に対するモチベーションの向上を行うことができる。 As the first type, the first output unit 33 illuminates the table with warm light. As a result, it is possible to make the eating place comfortable and improve the motivation for eating.
 2種類目としては、第1出力部33は、特定の料理に対して、スポットライトを照射する。図6では、例えば、人P2の前に配膳されている食事Fから特定の料理に対して、スポットライトL3を照射している。特定の料理は、例えば、野菜である。支援を開始してから、野菜を最初に照らすことで、食事の始めに野菜を食べることを促して、血糖値の上昇を抑制することができる。また、特定の料理は、食べ残している量が多い料理であってもよい。 As a second type, the first output unit 33 irradiates a spotlight on a specific dish. In FIG. 6, for example, a spotlight L3 is illuminating a specific dish from a meal F served in front of a person P2. A particular dish is, for example, vegetables. By illuminating the vegetables first after starting the support, it is possible to encourage eating vegetables at the beginning of the meal and suppress the increase in blood sugar level. Also, the specific dish may be a dish with a large amount of leftovers.
 3種類目としては、第1出力部33は、食事ペースに合わせて、照明の色又は明るさ等を変化させる。具体的には、例えば、第1出力部33は、食事ペースが速すぎる場合は、照明の照度及び色温度が緩やかに揺らぐようにする。これにより、食事ペースを落とすように、ユーザに促すことができる。 As a third type, the first output unit 33 changes the color or brightness of lighting according to the meal pace. Specifically, for example, when the eating pace is too fast, the first output unit 33 gently fluctuates the illuminance and color temperature of the lighting. Thereby, the user can be urged to slow down the meal pace.
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、食事に対するモチベーションの向上を行うこと、及び食事の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of assistance, so the explanation is omitted. As described above, the action support system 1 can improve motivation for eating and assist eating based on the results detected by the detection device 11 .
 行動支援システム1による支援の対象とされている行動項目の種別に会話が含まれる場合について、行動支援システム1の詳細を説明する。図7は、実施の形態1に係る行動支援システム1を説明するための図である。図7に示すように、行動支援システム1は、制御装置13、ビーコンタグ11a、受信機11b、動体検知装置11c、プロジェクタ12a、及び音声センサ11dを有している。支援対象の行動項目の種別に会話が含まれる場合、行動支援システム1は、会話に対するモチベーションの向上を行うことを目的としている。 The details of the action support system 1 will be described in the case where conversation is included in the types of action items targeted for support by the action support system 1. FIG. 7 is a diagram for explaining the action support system 1 according to the first embodiment. As shown in FIG. 7, the action support system 1 has a control device 13, a beacon tag 11a, a receiver 11b, a moving object detection device 11c, a projector 12a, and an audio sensor 11d. When conversation is included in the type of action item to be supported, the action support system 1 aims to improve motivation for conversation.
 制御装置13、ビーコンタグ11a、受信機11b、動体検知装置11c、プロジェクタ12aは、散歩を支援する場合の行動支援システム1の各機器と同様であるため、説明を省略する。ただし、受信機11b、動体検知装置11c、及び照明装置12bは、例えば、施設内の部屋R2の壁又は天井等に取り付けられている。部屋R2は、会話を行う場所として事前に設定されている場所の例である。音声センサ11dは、例えばマイクロフォンであり、部屋R2のテーブル等に取り付けられている。 The control device 13, the beacon tag 11a, the receiver 11b, the moving body detection device 11c, and the projector 12a are the same as the devices of the action support system 1 for supporting walking, so descriptions thereof will be omitted. However, the receiver 11b, the moving body detection device 11c, and the lighting device 12b are attached to, for example, the wall or ceiling of the room R2 in the facility. Room R2 is an example of a place set in advance as a place for conversation. The audio sensor 11d is, for example, a microphone, and is attached to a table or the like in the room R2.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が会話であることを決定する。決定条件は、例えば、次の2つの条件である。1つ目の条件は、部屋R2に設置された受信機11bから、支援対象に会話を設定しているユーザの検知信号を受信したことである。2つ目の条件は、部屋R2に設置された動体検知装置11cから録画映像を受信したことである。 When the determination condition is satisfied, the type determination unit 31 of the control device 13 determines that the action item for starting support is conversation. The decision conditions are, for example, the following two conditions. The first condition is that a detection signal of a user setting a conversation as a support target is received from the receiver 11b installed in the room R2. The second condition is that a recorded image has been received from the moving object detection device 11c installed in the room R2.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、会話の支援を完了する。完了条件は、例えば、部屋R2に設置された受信機11bから、支援対象に会話を設定しているユーザの検知信号の受信がない状態で、予め定められた時間が経過することである。 In addition, the type determination unit 31 completes conversation support when the completion condition is satisfied after the determination condition is satisfied. The completion condition is, for example, that a predetermined time elapses without receiving a detection signal from the receiver 11b installed in the room R2 for the user who has set conversation as the support target.
 分析部32は、行動項目が決定された上で、動体検知装置11cから受信した映像の分析を連続的に行い、ユーザの動作を連続的に測定する。具体的には、ユーザの動作は、ユーザの表情、及び会話内容を測定する。また、分析部32は、音声センサの音声を分析して、会話に含まれるキーワード等を抽出する。また、分析部32は、記憶部22に記憶された映像から、抽出したキーワードから連想される事柄に該当するものを抽出する。つまり、分析部32は、ユーザの会話内容を拡張するような映像を抽出する。 After the action items are determined, the analysis unit 32 continuously analyzes the video received from the moving body detection device 11c and continuously measures the user's actions. Specifically, the user's behavior measures the user's facial expression and conversation content. Also, the analysis unit 32 analyzes the voice of the voice sensor and extracts keywords and the like included in the conversation. In addition, the analysis unit 32 extracts from the video stored in the storage unit 22 those corresponding to matters associated with the extracted keywords. In other words, the analysis unit 32 extracts video that expands the content of the user's conversation.
 制御装置13の第1出力部33は、分析部32の測定結果に基づいて、分析部32が抽出した映像を映像データとして生成し、プロジェクタ12aに出力する。図7では、人P3に対して、映像G2を表示し、人P4に対して、映像G3を表示している。 The first output unit 33 of the control device 13 generates image data extracted by the analysis unit 32 based on the measurement result of the analysis unit 32, and outputs the image data to the projector 12a. In FIG. 7, the image G2 is displayed for the person P3, and the image G3 is displayed for the person P4.
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、会話を行うことに対する抵抗感を減らし、会話に対するモチベーションの向上を行うこと、及び会話の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of assistance, so the explanation is omitted. As described above, the action support system 1 can reduce resistance to conversation, improve motivation for conversation, and assist conversation based on the results detected by the detection device 11. .
 行動支援システム1による支援の対象とされている行動項目の種別に趣味が含まれる場合について、行動支援システム1の詳細を説明する。図8は、実施の形態1に係る行動支援システム1を説明するための図である。図8に示すように、行動支援システム1は、制御装置13、ビーコンタグ11a、受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bを有している。支援対象の行動項目に趣味が含まれる場合、行動支援システム1は、趣味に対するモチベーションの向上を行うこと、及び趣味を行っている際にユーザをリラックスさせることを目的としている。 The details of the action support system 1 will be explained in the case where the types of action items targeted for support by the action support system 1 include hobbies. FIG. 8 is a diagram for explaining the action support system 1 according to the first embodiment. As shown in FIG. 8, the action support system 1 has a control device 13, a beacon tag 11a, a receiver 11b, a moving body detection device 11c, a projector 12a, and an illumination device 12b. When hobbies are included in the action items to be supported, the action support system 1 aims to improve the motivation for the hobbies and to relax the user during the hobbies.
 行動支援システム1の有するそれぞれの機器自体は、行動項目が散歩である場合と同様であるため、説明を省略する。ただし、受信機11b、動体検知装置11c、プロジェクタ12a、及び照明装置12bは、例えば、施設内の部屋R3の壁又は天井等に取り付けられている。部屋R3は、居室等、ユーザによって趣味を行う場所として事前に設定されている場所の例である。 The devices themselves of the action support system 1 are the same as when the action item is a walk, so the explanation is omitted. However, the receiver 11b, the moving body detection device 11c, the projector 12a, and the lighting device 12b are attached, for example, to the wall or ceiling of the room R3 in the facility. The room R3 is an example of a place set in advance by the user as a place for hobbies, such as a living room.
 制御装置13の種別決定部31は、決定条件が満たされた場合、行動項目が趣味であることを決定する。決定条件は、例えば、部屋R3に設置された動体検知装置11cから受信した映像を分析し、動体検知装置11cから受信した映像にユーザが趣味として指定した活動を行っていることを判断することである。趣味としては、例えば、手芸、読書、麻雀、及び習字等であり、ユーザテーブルに記憶されている。 The type determination unit 31 of the control device 13 determines that the action item is a hobby when the determination condition is satisfied. The determination condition is, for example, analyzing the image received from the moving body detection device 11c installed in the room R3, and judging that the user is performing an activity specified as a hobby in the image received from the moving body detection device 11c. be. Hobbies include, for example, handicrafts, reading, mahjong, calligraphy, etc., and are stored in the user table.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、趣味の支援を完了する。完了条件は、例えば、部屋R3に設置された動体検知装置11cから受信した映像を分析し、予め定められた時間、動体検知装置11cから受信した映像にユーザが趣味として指定した活動を行っていないことを判断することである。 Also, if the completion condition is satisfied after the determination condition is satisfied, the type determining unit 31 completes the hobby support. The completion condition is, for example, analyzing the video received from the moving body detection device 11c installed in the room R3, and not performing the activity specified by the user as a hobby in the video received from the moving body detection device 11c for a predetermined time. It is to judge
 分析部32は、行動項目が決定された上で、動体検知装置11cから受信した映像の分析を連続的に行い、ユーザの動作を連続的に測定する。分析部32は、ユーザの活動時間等を測定する。 After the action items are determined, the analysis unit 32 continuously analyzes the video received from the moving body detection device 11c and continuously measures the user's actions. The analysis unit 32 measures the user's activity time and the like.
 第1出力部33は、分析部32の測定結果に基づいて、映像データを生成し、プロジェクタ12aに出力する。また、第1出力部33は、分析部32の測定結果に基づいて、照明制御信号を生成し、照明装置12bに出力する。第1出力部33は、次の3種類のうち、少なくとも何れか1つの映像の表示又は照明を行うように、映像データ又は照明制御信号をプロジェクタ12a又は照明装置12bに出力する。 The first output unit 33 generates video data based on the measurement result of the analysis unit 32 and outputs it to the projector 12a. Also, the first output unit 33 generates a lighting control signal based on the measurement result of the analysis unit 32 and outputs it to the lighting device 12b. The first output unit 33 outputs video data or a lighting control signal to the projector 12a or lighting device 12b so as to display or illuminate at least one of the following three types of video.
 1種類目としては、第1出力部33は、趣味として指定された事柄に関連する映像を表示させる。例えば、趣味として手芸が指定されていれば、編み物の編み方、又は完成品の映像を示す。これにより、趣味に対するモチベーションの向上を行うことができる。図8では、人P5に対して、G4が表示されている。 As the first type, the first output unit 33 displays images related to matters designated as hobbies. For example, if handicraft is specified as a hobby, a video of how to knit or a finished product is displayed. As a result, the motivation for the hobby can be improved. In FIG. 8, G4 is displayed for person P5.
 2種類目としては、第1出力部33は、ユーザの活動時間が予め定められた時間よりも長くなった場合、風景の映像、又は趣味との関連性が低い映像等を表示させ、ユーザに休憩を促す。これにより、ユーザが趣味に過度に集中し、かえって疲れてしまうことを抑制することができる。 As a second type, when the user's activity time is longer than a predetermined time, the first output unit 33 displays an image of scenery or an image that is less relevant to the user's hobby. encourage rest. As a result, it is possible to prevent the user from concentrating excessively on his/her hobbies and getting tired.
 3種類目としては、第1出力部33は、ユーザの手元を明るく照らすように照明を行わせる。これにより、ユーザが手芸等の手元作業を行う場合は、手元作業を快適に感じさせて、趣味に対するモチベーションの向上を行うことができる。 As a third type, the first output unit 33 causes illumination to brightly illuminate the user's hand. As a result, when the user performs manual work such as handicrafts, it is possible to make the user feel comfortable with the manual work and improve motivation for his/her hobbies.
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、趣味に対するモチベーションの向上を行うこと、及び趣味の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of assistance, so the explanation is omitted. As described above, the action support system 1 can improve the motivation for the hobby and assist the hobby based on the result detected by the detection device 11 .
 行動支援システム1による支援の対象とされている行動項目の種別に入浴が含まれる場合について、行動支援システム1の詳細を説明する。行動支援システム1は、制御装置13、ビーコンタグ11a、受信機11b、及びプロジェクタ12aを有している。支援対象の行動項目に入浴が含まれる場合、行動支援システム1は、入浴に対するモチベーションの向上を行うこと、及び入浴の補助を行うことを目的としている。 The details of the action support system 1 will be described for a case where bathing is included in the types of action items targeted for support by the action support system 1. The action support system 1 has a control device 13, a beacon tag 11a, a receiver 11b, and a projector 12a. When the action items to be supported include bathing, the action support system 1 aims to improve motivation for bathing and to assist in bathing.
 行動支援システム1の有するそれぞれの機器自体は、散歩を支援する場合の行動支援システム1の各機器と同様であるため、説明を省略する。ただし、受信機11bは、浴室の脱衣場等に取り付けられている。また、プロジェクタ12aは、浴室近くの廊下の壁又は天井等、及び浴室内の壁又は天井等に取り付けられている。 Each device of the action support system 1 itself is the same as each device of the action support system 1 when supporting a walk, so a description thereof will be omitted. However, the receiver 11b is installed in a dressing room or the like in the bathroom. In addition, the projector 12a is attached to the wall or ceiling of the corridor near the bathroom and the wall or ceiling of the bathroom.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が入浴であることを決定する。決定条件は、例えば、予め設定された入浴予定の時間帯になることである。 When the determination condition is satisfied, the type determination unit 31 of the control device 13 determines that the action item for which assistance is to be started is bathing. The determination condition is, for example, that the bathing schedule set in advance comes.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、入浴の支援を完了する。完了条件は、例えば、次の2つの条件の何れか一方を満たすことである。1つ目の条件は、予め設定された入浴予定の時間帯を経過することである。2つ目の条件は、ユーザの入浴が完了したことが行動種別決定に通信されることである。ユーザの入力の完了は、例えば、制御装置13と通信可能なスマートフォン等の端末装置等によって入力されればよい。 Further, if the completion condition is satisfied after the determination condition is satisfied, the type determination unit 31 completes the bathing assistance. The completion condition is, for example, satisfying one of the following two conditions. The first condition is that the preset bathing schedule time period has elapsed. The second condition is that the action type determination is communicated that the user's bathing is complete. The completion of user input may be input by a terminal device such as a smartphone capable of communicating with the control device 13, for example.
 分析部32は、行動項目が決定された上で、浴室の脱衣場に設定された受信機11bから、支援対象に入浴を設定しているユーザの検知信号を受信することで、ユーザが浴室の脱衣場又は浴室にいることを判断する。 After the action item is determined, the analysis unit 32 receives the detection signal of the user who has set bathing as a support target from the receiver 11b set in the dressing room of the bathroom. Determine if you are in the dressing room or bathroom.
 第1出力部33は、分析部32の処理結果に基づいて、映像データを生成し、プロジェクタ12aに出力する。第1出力部33は、次の2種類のうち、少なくとも何れかの映像の表示を行うように、映像データをプロジェクタ12aに出力する。 The first output unit 33 generates video data based on the processing result of the analysis unit 32 and outputs it to the projector 12a. The first output unit 33 outputs video data to the projector 12a so as to display at least one of the following two types of video.
 1種類目としては、第1出力部33は、浴室近くの廊下に設けられたプロジェクタ12aに、浴室までの経路を示す矢印等を表示させる。これにより、ユーザを浴室にスムーズに導くことができる。 As a first type, the first output unit 33 causes the projector 12a provided in the corridor near the bathroom to display an arrow or the like indicating the route to the bathroom. Thereby, the user can be smoothly guided to the bathroom.
 2種類目として、ユーザが浴室の脱衣場にいる場合に、例えば、浴室の天井、又は壁面に森林又は海等の映像を表示する。これにより、ユーザに対して、開放感を与えることで、入浴を快適に感じさせ、入浴に対するモチベーションの向上を行うことができる。 As a second type, when the user is in the dressing room of the bathroom, for example, an image of the forest or the sea is displayed on the ceiling or wall of the bathroom. As a result, by giving the user a sense of openness, it is possible to make bathing feel comfortable and improve motivation for bathing.
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、入浴に対するモチベーションの向上を行うこと、及び入浴の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of assistance, so the explanation is omitted. As described above, the action support system 1 can improve motivation for bathing and assist bathing based on the result detected by the detection device 11 .
 行動支援システム1による支援の対象とされている行動項目の種別に起床が含まれる場合について、行動支援システム1の詳細を説明する。行動支援システム1は、制御装置13、プロジェクタ12a、照明装置12b、及び睡眠センサ(図示せず)を有している。支援対象の行動項目に起床が含まれる場合、行動支援システム1は、起床の補助を行うことを目的としている。 The details of the action support system 1 will be described in the case where the type of action item targeted for support by the action support system 1 includes waking up. The action support system 1 has a control device 13, a projector 12a, a lighting device 12b, and a sleep sensor (not shown). When the action item to be supported includes getting up, the action support system 1 aims to assist the user in getting up.
 制御装置13、プロジェクタ12a、及び照明装置12bは、散歩を支援する場合の行動支援システム1の各機器と同様であるため、説明を省略する。ただし、プロジェクタ12a、及び照明装置12bは、例えば、施設内の寝室等の壁又は天井等に取り付けられている。睡眠センサは、例えば、ユーザが就寝するベッド又は布団等に敷かれたマットタイプのセンサである。睡眠センサは、マットにかかる圧力に応じた電気信号を出力するものである。 The control device 13, the projector 12a, and the lighting device 12b are the same as the devices of the action support system 1 for assisting walking, so descriptions thereof will be omitted. However, the projector 12a and the lighting device 12b are attached, for example, to the wall or ceiling of a bedroom in the facility. The sleep sensor is, for example, a mat-type sensor laid on a bed or futon on which the user sleeps. A sleep sensor outputs an electric signal according to the pressure applied to the mat.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が起床であることを決定する。決定条件は、例えば、予め設定された起床予定の時間帯になることである。 When the determination condition is satisfied, the type determining unit 31 of the control device 13 determines that the action item for which support is to be started is getting up. The determination condition is, for example, that the wake-up scheduled time set in advance comes.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、起床の支援を完了する。完了条件は、例えば、予め設定された起床予定の時間帯を経過することである。 Also, if the completion condition is satisfied after the determination condition is satisfied, the type determining unit 31 completes the wake-up assistance. The completion condition is, for example, passing a preset wake-up time slot.
 分析部32は、行動項目が決定された上で、睡眠センサから受信した結果の分析を連続的に行い、ユーザの眠りの深さを時間的に分析する。 After the action items are determined, the analysis unit 32 continuously analyzes the results received from the sleep sensor, and temporally analyzes the depth of sleep of the user.
 第1出力部33は、次の2種類のうち、少なくとも何れかの映像の表示又は照明を行うように、映像データ又は照明制御信号を生成し、プロジェクタ12a又は照明装置12bに出力する。 The first output unit 33 generates video data or a lighting control signal so as to display or illuminate at least one of the following two types of video, and outputs it to the projector 12a or lighting device 12b.
 1種類目としては、第1出力部33は、ユーザの眠りが浅くなったタイミングで、寝室に設けられたプロジェクタ12aに、周囲の人間が起床している様子を模した映像を表示させる。 As a first type, the first output unit 33 causes the projector 12a provided in the bedroom to display an image simulating the appearance of surrounding people waking up at the timing when the user's sleep becomes light.
 2種類目としては、第1出力部33は、ユーザの眠りが浅くなったタイミングで、例えば、500Lux以上の照度(ベッドあるいは布団上)、かつ4000Kより色温度が高くなるように、調光及び調色された照明を寝室全体に行わせる。 As a second type, the first output unit 33 adjusts the light intensity so that the illuminance (on the bed or futon) is 500 Lux or more and the color temperature is higher than 4000 K at the timing when the user's sleep becomes light. Have toned lighting throughout the bedroom.
 なお、照明装置12bが窓側に設置され、寝床方向に光が照射されるようにするとよい。これにより、太陽の光が寝室に差し込むようにユーザに感じさせ、曇又は雨の日でも心地よく目覚めさせることができる。また、照明装置12bにスポットライトを用いることで、平行光に近い光を寝床に照射してもよい。 It should be noted that the lighting device 12b may be installed on the window side so that light is emitted in the direction of the bed. This allows the user to feel as if the sun's rays are shining into the bedroom and wake up comfortably even on cloudy or rainy days. Further, by using a spotlight for the illumination device 12b, the bed may be irradiated with light that is close to parallel light.
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、起床の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of assistance, so the explanation is omitted. As described above, the action support system 1 can assist the user in getting up based on the result detected by the detection device 11 .
 行動支援システム1による支援の対象とされている行動項目の種別に就寝が含まれる場合について、行動支援システム1の詳細を説明する。行動支援システム1は、制御装置13、プロジェクタ12a、照明装置12b、及び睡眠センサを有している。支援対象の行動項目に就寝が含まれる場合、行動支援システム1は、就寝の補助を行うことを目的としている。 The details of the action support system 1 will be described for the case where sleeping is included in the types of action items targeted for support by the action support system 1. The action support system 1 has a control device 13, a projector 12a, a lighting device 12b, and a sleep sensor. When going to bed is included in the action items to be supported, the action support system 1 aims to assist the user in going to bed.
 制御装置13、プロジェクタ12a、及び睡眠センサの機器自体、及び設置場所は、起床を支援する場合の行動支援システム1の各機器と同様であるため、説明を省略する。 The control device 13, the projector 12a, and the sleep sensor devices themselves and installation locations are the same as the devices of the action support system 1 when assisting waking up, so descriptions thereof will be omitted.
 制御装置13の種別決定部31は、決定条件が満たされた場合、支援を開始する行動項目が就寝であることを決定する。決定条件は、例えば、予め設定された就寝予定の時間帯になることである。 When the determination condition is satisfied, the type determination unit 31 of the control device 13 determines that the action item for which support is to be started is going to bed. The determination condition is, for example, that the preset bedtime is reached.
 また、種別決定部31は、決定条件を満たした後に、完了条件が満たされた場合、就寝の支援を完了する。完了条件は、例えば、予め設定された就寝予定の時間帯を経過することである。 Also, if the completion condition is satisfied after the determination condition is satisfied, the type determination unit 31 completes the assistance for going to bed. The completion condition is, for example, that a preset time slot for going to bed has passed.
 分析部32は、行動項目が決定された上で、睡眠センサから受信した結果の分析を連続的に行い、ユーザが寝床に横たわったタイミング及び眠りの深さを分析する。 After the action items are determined, the analysis unit 32 continuously analyzes the results received from the sleep sensor, and analyzes the timing at which the user lies in bed and the depth of sleep.
 第1出力部33は、次の2種類のうち、少なくとも何れかの映像の表示又は照明を行うように、映像データ又は照明制御信号を生成し、プロジェクタ12a又は照明装置12bに出力する。 The first output unit 33 generates video data or a lighting control signal so as to display or illuminate at least one of the following two types of video, and outputs it to the projector 12a or lighting device 12b.
 1種類目としては、第1出力部33は、ユーザが寝床に横たわったタイミングで、寝室に設けられたプロジェクタ12aに、寝室の壁面に月等の夜を連想させる映像を表示させる。また、第1出力部33は、分析部32の分析結果から、ユーザが入眠したことが判断されると、映像の表示を終了させる。 As a first type, the first output unit 33 causes the projector 12a provided in the bedroom to display an image reminiscent of the night such as the moon on the wall surface of the bedroom at the timing when the user lies on the bed. Further, when it is determined from the analysis result of the analysis unit 32 that the user has fallen asleep, the first output unit 33 terminates the display of the image.
 2種類目としては、第1出力部33は、ユーザが寝床に横たわったタイミングで、寝室に設けられた照明装置12bに、例えば、10Lux以下の月明かり程度の照明を行わせる。また、第1出力部33は、分析部32の分析結果から、ユーザが入眠したことが判断されると、映像の表示を終了させる。 As for the second type, the first output unit 33 causes the lighting device 12b provided in the bedroom to perform, for example, moonlight illumination of 10 Lux or less at the timing when the user lies on the bed. Further, when it is determined from the analysis result of the analysis unit 32 that the user has fallen asleep, the first output unit 33 terminates the display of the image.
 制御装置13の動作は、散歩を支援対象とした場合の処理と同等であるため、説明を省略する。以上のように、行動支援システム1は、検知装置11が検知した結果に基づいて、就寝の補助を行うことができる。 The operation of the control device 13 is the same as the process when walking is the target of support, so the explanation is omitted. As described above, the action support system 1 can assist in going to bed based on the results detected by the detection device 11 .
 以上説明したように、実施の形態1によれば、検知装置11が検知した結果に基づいて、行動項目に関連する映像の表示又は照明を行う。このため、ユーザに対して特定の活動を行うことを直接的に指示することなく、間接的に促すことができる。したがって、ユーザに自発的な活動を促すことができる。 As described above, according to Embodiment 1, images related to action items are displayed or illuminated based on the results detected by the detection device 11 . Therefore, it is possible to indirectly prompt the user to perform a specific activity without directly instructing the user to perform the specific activity. Therefore, it is possible to encourage the user to act spontaneously.
 実施の形態2.
 図9は、実施の形態2に係る行動支援システム1Aを示す機能ブロック図である。図9に示すように、実施の形態2の制御装置13は、第1出力部33及び投射装置12を有しておらず、評価部41、加算部42及び通信部43を有する点で実施の形態1と相違する。実施の形態2では、実施の形態1と同一の部分は同一の符合を付して説明を省略し、実施の形態1との相違点を中心に説明する。
Embodiment 2.
FIG. 9 is a functional block diagram showing action support system 1A according to the second embodiment. As shown in FIG. 9, the control device 13 of Embodiment 2 does not have the first output unit 33 and the projection device 12, but has an evaluation unit 41, an addition unit 42, and a communication unit 43. It differs from form 1. In the second embodiment, the same reference numerals are assigned to the same parts as in the first embodiment, and the description thereof is omitted.
 実施の形態2の行動支援システム1Aは、実施の形態1とは異なり映像の表示又は照明を行わない。実施の形態2の行動支援システム1Aは、散歩、階段昇降、又は体操等のような身体の運動を主目的とする行動項目の活動を行ったユーザに社会貢献ポイントを付与するものである。制御装置13は、保有する社会貢献ポイントとの交換によって、植林、発展途上国の学校建設、又はワクチン接種等の社会課題の解決につながる活動を行う外部のシステムと通信可能に接続されている。つまり、ユーザは、自身の活動によって貯めた社会貢献ポイントによって、社会貢献活動に寄与することができる。 Unlike the first embodiment, the action support system 1A of the second embodiment does not display images or perform lighting. The action support system 1A according to the second embodiment gives social contribution points to users who have performed actions whose main purpose is physical exercise, such as walking, climbing stairs, or doing gymnastics. The control device 13 is communicatively connected to an external system that conducts activities leading to solving social issues such as tree planting, school construction in developing countries, or vaccination by exchanging social contribution points. In other words, the user can contribute to social contribution activities with the social contribution points accumulated through his/her own activities.
 制御装置13の記憶部22には、ユーザを識別するIDと、保有する社会貢献ポイントが記憶されたポイントテーブルが記憶されている。 The storage unit 22 of the control device 13 stores an ID for identifying the user and a point table that stores the social contribution points owned by the user.
 制御装置13の評価部41は、行動項目が散歩、階段昇降、又は体操であって、これらの行動項目が完了した後に、運動姿勢及び運動量を評価する。例えば、散歩の場合であれば、運動姿勢は、測定された歩行姿勢、歩行速度、及び歩幅から総合的に評価されればよい。また、運動量は、例えば、分析部32の測定時間、即ち決定条件が満たされてから完了条件が満たされるまでの時間と、歩行速度の平均とを乗じることで算出された歩行距離を運動量とすればよい。評価基準には、種々のものが採用される。例えば、ユーザの動作の検知結果の履歴に基づいて、改善が見られた場合に、高い数値の評価を与え、改善が見られなかった場合に、低い数値の評価を与えるようにしてもよい。また、同程度の年齢、性別又は体格等を有する人の歩行姿勢、歩行速度、及び歩幅等の測定結果をもとに予め定められた基準をどの程度満たしているかによって段階的に高中低等の評価を与えるようにしてもよい。 The evaluation unit 41 of the control device 13 evaluates the exercise posture and the amount of exercise after the action items are walking, climbing stairs, or gymnastics. For example, in the case of walking, the exercise posture may be comprehensively evaluated from the measured walking posture, walking speed, and stride length. Also, the amount of exercise is, for example, the walking distance calculated by multiplying the measurement time of the analysis unit 32, that is, the time from when the determination condition is satisfied until the completion condition is satisfied, by the average walking speed. Just do it. Various evaluation criteria are adopted. For example, based on the history of user motion detection results, a high numerical evaluation may be given when an improvement is observed, and a low numerical evaluation may be given when no improvement is observed. In addition, based on the measurement results of walking posture, walking speed, stride length, etc. of people of similar age, gender, physique, etc., it will be graded in stages, such as high, medium and low, depending on how well it satisfies predetermined standards. An evaluation may be given.
 加算部42は、評価結果の高低に応じて異なる値の社会貢献ポイントをポイントテーブルに加算する。例えば、運動姿勢及び運動量の評価が高ければ、より高い値の社会貢献ポイントをポイントテーブルに加算する。 The adding unit 42 adds different values of social contribution points to the point table depending on the evaluation result. For example, if the exercise posture and amount of exercise are highly evaluated, a higher social contribution point is added to the point table.
 なお、行動項目が散歩である場合を主に説明を行ったが、階段昇降、及び体操についても、運動姿勢及び運動量を算出し、評価するようにしてもよい。例えば、行動項目が階段昇降である場合、運動姿勢は、昇降姿勢及び昇降速度から算出されればよく、運動量は、昇降ステップ数等を用いればよい。また、行動項目が体操であれば、体操を行った時間、及び表示した体操のメニューから運動量のみを算出してもよい。 In addition, although the case where the action item is a walk has been mainly explained, the exercise posture and the amount of exercise may be calculated and evaluated for climbing stairs and gymnastics. For example, when the action item is ascending and descending stairs, the exercise posture may be calculated from the ascending and descending posture and the ascending and descending speed, and the amount of exercise may be calculated using the number of ascending and descending steps. Also, if the action item is gymnastics, only the amount of exercise may be calculated from the time the exercise was performed and the displayed exercise menu.
 制御装置13の通信部43は、ポイントテーブルに記憶されたユーザが保有するポイントを減算すると共に、外部システムSに対してポイントの交換を申請する情報を送信する。外部システムSがポイントの交換を実行することで、利用者は、社会貢献活動を実現することができる。 The communication unit 43 of the control device 13 subtracts the points owned by the user stored in the point table, and transmits to the external system S information requesting exchange of points. As the external system S exchanges points, the user can realize social contribution activities.
 図10は、実施の形態2に係る制御装置13の動作を示すフローチャートである。図10を用いて、制御装置13の動作を説明する。S1~S3までの処理は、実施の形態1で説明した処理と同様であるため、説明を省略する。ユーザの動作等の分析及び測定が行われる(S3)と、種別決定部31は、完了条件を満たすか否かを判定する(S11)。完了条件が満たされていない場合(S11:NO)、完了条件が満たされるまで、分析部32はユーザの動作等の分析及び測定を継続する。完了条件が満たされた場合(S11:YES)、評価部41は、ユーザの運動量及び運動姿勢を算出し、評価を行う(S12)。そして、評価部41が行った評価結果に基づいて、ポイントテーブルに社会貢献ポイントを加算する(S13)。 FIG. 10 is a flow chart showing the operation of the control device 13 according to the second embodiment. The operation of the control device 13 will be described with reference to FIG. Since the processing from S1 to S3 is the same as the processing described in the first embodiment, the description is omitted. After analysis and measurement of the user's motion and the like are performed (S3), the type determining unit 31 determines whether or not the completion condition is satisfied (S11). If the completion condition is not satisfied (S11: NO), the analysis unit 32 continues analyzing and measuring the user's motion and the like until the completion condition is satisfied. If the completion condition is satisfied (S11: YES), the evaluation unit 41 calculates and evaluates the user's exercise amount and exercise posture (S12). Then, the social contribution points are added to the point table based on the evaluation result performed by the evaluation unit 41 (S13).
 実施の形態2によれば、検知装置11が検知した結果に基づいて、社会貢献ポイントを付与する。このため、ユーザに対して特定の活動を行うことを直接的に指示することなく、間接的に促すことができる。したがって、ユーザに自発的な活動を促すことができる。 According to Embodiment 2, social contribution points are given based on the results detected by the detection device 11 . Therefore, it is possible to indirectly prompt the user to perform a specific activity without directly instructing the user to perform the specific activity. Therefore, it is possible to encourage the user to act spontaneously.
 実施の形態3.
 図11は、実施の形態3に係る行動支援システム1Bを示す機能ブロック図である。図11に示すように、実施の形態3は、制御装置13が、実施の形態1の構成に加えて、実施の形態2で説明した評価部41、加算部42及び通信部43、並びに実施の形態1及び実施の形態2が有していない第2出力部51を有する。実施の形態3では、実施の形態1及び実施の形態2と同一の部分は同一の符合を付して説明を省略し、実施の形態1及び実施の形態2との相違点を中心に説明する。
Embodiment 3.
FIG. 11 is a functional block diagram showing action support system 1B according to the third embodiment. As shown in FIG. 11, in the third embodiment, in addition to the configuration of the first embodiment, the control device 13 includes the evaluation unit 41, the addition unit 42, and the communication unit 43 described in the second embodiment, and the It has a second output section 51 that the first and second embodiments do not have. In Embodiment 3, the same parts as those in Embodiments 1 and 2 are given the same reference numerals and their description is omitted, and the description will focus on the differences from Embodiments 1 and 2. .
 実施の形態3の行動支援システム1Bは、実施の形態1で説明したように、映像の表示又は照明を行う。加えて、実施の形態2で説明したように、散歩、階段昇降、又は体操等のような身体の運動を主目的とする行動項目の活動を行ったユーザに社会貢献ポイントを付与するものである。更に、実施の形態3の行動支援システム1Bは、付与された社会貢献ポイントに関する情報を映像によって表示する。以下では、例えば、行動項目が散歩である場合を例にして説明する。 The action support system 1B of the third embodiment performs video display or lighting as described in the first embodiment. In addition, as described in the second embodiment, social contribution points are given to users who have performed activity items whose main purpose is physical exercise, such as walking, climbing stairs, or doing gymnastics. . Furthermore, the action support system 1B of Embodiment 3 displays information about the given social contribution points by video. Below, for example, a case where the action item is a walk will be described as an example.
 上述したように、実施の形態3の制御装置13の種別決定部31、分析部32、及び第1出力部33は、実施の形態1の種別決定部31、分析部32、及び第1出力部33と同様である。同じく、実施の形態3の制御装置13の評価部41、及び加算部42も、実施の形態2の評価部41、及び加算部42と同様である。 As described above, the type determination unit 31, the analysis unit 32, and the first output unit 33 of the control device 13 of the third embodiment are the type determination unit 31, the analysis unit 32, and the first output unit of the first embodiment. 33. Similarly, the evaluation unit 41 and the addition unit 42 of the control device 13 of the third embodiment are similar to the evaluation unit 41 and the addition unit 42 of the second embodiment.
 制御装置13の第2出力部51は、完了条件が満たされた場合、評価映像データを生成し、投射装置12に出力することで、評価映像を表示させる。なお、評価映像データは、具体的な評価映像の内容を定める出力用のデータである。評価映像は、評価部41の評価結果を内容に含む映像である。 When the completion condition is satisfied, the second output unit 51 of the control device 13 generates evaluation video data and outputs it to the projection device 12 to display the evaluation video. Note that the evaluation video data is data for output that defines specific content of the evaluation video. The evaluation video is a video including the evaluation result of the evaluation unit 41 in its content.
 図12は、実施の形態3に係る第2出力部51を説明するための図である。図12では、人P6が運動姿勢の評価結果が高い場合を示し、人P7が運動姿勢の評価結果が低い場合を示している。図13は、実施の形態3に係るプロジェクタ12aにより表示される評価映像G5を示す図である。図13には、人P6が散歩を完了した後にプロジェクタ12aによって壁面等に表示される評価映像が示されている。図13の破線M1で示すように、第2出力部51は、評価部41の評価結果に基づいて、今回の活動によって付与された社会貢献ポイントを表示させる。また、破線M2で示すように、第2出力部51は、ポイントテーブルに記憶されたユーザが保有する社会貢献ポイントを参照して、累計の社会貢献ポイントを表示させる。また、破線M3で示すように、第2出力部51は、通信部43を介して外部システムSと通信することで、予めユーザが設定した使途に必要な社会貢献ポイントを表示する。また、破線M4で示すように、予め記憶部22に記憶されたコメントのリストから運動姿勢及び運動量の評価に応じたコメントを参照することで、改善点等についてのコメントを表示させる。また、第2出力部51は、破線Ic1で示すように、予め記憶に記憶された記号データのリストから、運動姿勢又は運動量の評価に応じた記号データを参照し、評価を示す記号を表示する。人P6は、運動姿勢の評価が高かったため、「晴れ」の記号が表示される。評価結果のランクが高い評価から「晴れ」、「曇り」、「雨」等の記号が用いられる。 FIG. 12 is a diagram for explaining the second output section 51 according to the third embodiment. FIG. 12 shows the case where the evaluation result of the exercise posture is high for the person P6, and the case where the evaluation result of the exercise posture is low for the person P7. FIG. 13 shows an evaluation image G5 displayed by the projector 12a according to the third embodiment. FIG. 13 shows an evaluation image displayed on the wall or the like by the projector 12a after the person P6 completes the walk. As indicated by the dashed line M1 in FIG. 13 , the second output unit 51 displays the social contribution points given by the current activity based on the evaluation result of the evaluation unit 41 . Further, as indicated by the dashed line M2, the second output unit 51 refers to the social contribution points owned by the user stored in the point table, and displays the accumulated social contribution points. In addition, as indicated by the dashed line M3, the second output unit 51 communicates with the external system S via the communication unit 43 to display the social contribution points necessary for the usage set in advance by the user. In addition, as indicated by the dashed line M4, by referring to the comments according to the evaluation of the exercise posture and the amount of exercise from the list of comments stored in advance in the storage unit 22, comments about improvement points and the like are displayed. In addition, as indicated by the dashed line Ic1, the second output unit 51 refers to the symbol data corresponding to the evaluation of the exercise posture or the amount of exercise from the list of symbol data stored in advance, and displays the symbol indicating the evaluation. . Since the evaluation of the exercise posture of the person P6 is high, the symbol "sunny" is displayed. Symbols such as “sunny”, “cloudy”, and “rainy” are used in descending order of the rank of the evaluation results.
 図14は、実施の形態3に係るプロジェクタ12aにより表示される評価映像G6を示す図である。図14には、人P7が散歩を完了した後にプロジェクタ12aによって壁面等に表示される評価映像が示されている。図14で示す評価映像にも、破線M5で示すように、今回の活動によって獲得された社会貢献ポイントが示されている。また、破線M6で示すように、累計の社会貢献ポイントが表示されている。また、破線M7で示すように、予めユーザが設定した使途に必要な社会貢献ポイントが表示されている。また破線M8で示すように、改善点についてのコメントが表示されている。人P7は、運動姿勢の評価結果が低かったため、今回の活動によって獲得された社会貢献ポイントが人P6よりも低く、破線Ic2で示すように、評価結果が中程度のため、「曇り」の記号が表示される。 FIG. 14 is a diagram showing an evaluation image G6 displayed by the projector 12a according to the third embodiment. FIG. 14 shows an evaluation image displayed on the wall or the like by the projector 12a after the person P7 has completed the walk. The evaluation video shown in FIG. 14 also shows the social contribution points obtained through this activity, as indicated by the dashed line M5. Further, as indicated by a dashed line M6, cumulative social contribution points are displayed. Further, as indicated by a dashed line M7, the social contribution points necessary for the usage preset by the user are displayed. Also, as indicated by a dashed line M8, comments about points to be improved are displayed. Since person P7 had a low evaluation result for exercise posture, the social contribution points obtained by this activity were lower than those of person P6. is displayed.
 また、次のような評価映像を追加又は代替して表示させてもよい。図15は、実施の形態3に係るプロジェクタ12aにより表示される評価映像G7を示す図である。図15は、ユーザが社会貢献ポイントの使途として、例えば「植林及び自然保護」を選択していた場合、森の木が増え、育つ様子を映像で表示する。また、評価映像G7には、破線E1で囲まれた領域で示すように、今回の活動によって付与された社会貢献ポイントに相当する、植林可能な木の量を表示する。これにより、今回の活動によって付与された社会貢献ポイントによってどの程度の社会貢献を行うことができるのかをユーザに視覚的に認識させることができる。 Also, the following evaluation video may be displayed in addition or alternatively. FIG. 15 shows an evaluation image G7 displayed by the projector 12a according to the third embodiment. In FIG. 15, when the user selects, for example, "planting trees and protecting nature" as the use of social contribution points, the number of trees in the forest increases and the state of growth is displayed as an image. Also, in the evaluation video G7, as indicated by the area surrounded by the broken line E1, the amount of trees that can be planted, which corresponds to the social contribution points given by this activity, is displayed. This allows the user to visually recognize how much social contribution can be made with the social contribution points given by this activity.
 図16は、実施の形態3に係るプロジェクタ12aにより表示される評価映像G8を示す図である。図16に示すように、ユーザが社会貢献ポイントの使途として、例えば「人道支援」を選択していた場合、世界の子供たちが笑顔になっていくことを表現した映像を表示する。また、評価映像G8には、破線E2で囲まれた領域で示すように、今回の活動によって付与された社会貢献ポイントに相当する、学校の一部分を表示する。これにより、今回の活動によって付与された社会貢献ポイントによってどの程度の社会貢献を行うことができるのかをユーザに視覚的に認識させることができる。 FIG. 16 is a diagram showing an evaluation image G8 displayed by the projector 12a according to the third embodiment. As shown in FIG. 16, when the user selects, for example, "humanitarian assistance" as the use of the social contribution points, an image showing children all over the world smiling is displayed. Also, in the evaluation video G8, a part of the school corresponding to the social contribution points given by the current activity is displayed as indicated by the area surrounded by the dashed line E2. This allows the user to visually recognize how much social contribution can be made with the social contribution points given by this activity.
 また、その他にも、社会貢献ポイントの使途として選択された内容に合わせて様々な種類の映像が用いられる。例えば「海洋保全」が社会貢献ポイントの使途として選択された場合は海がきれいになっていく様子の映像を表示し、例えば「動物保護」が社会貢献ポイントの使途として選択された場合は動物が増え、元気になる様子の映像を投影する。 In addition, various types of images are used according to the content selected as the use of social contribution points. For example, if "conservation of the ocean" is selected as the use of social contribution points, a video showing how the sea becomes cleaner is displayed. , Projecting an image of the person getting well.
 図17は、実施の形態3に係る制御装置13の動作を示すフローチャートである。図17を用いて、制御装置13の動作を説明する。S1~S6までの処理は、実施の形態1で説明した処理と同様であるため、説明を省略する。完了条件が満たされた場合(S6:YES)、評価部41は、ユーザの運動量及び運動姿勢に基づいて評価を行う(S21)。加算部42は、評価部41の評価結果に基づいて、社会貢献ポイントをポイントテーブルに加算する(S22)。次に、第2出力部51は、評価映像データを生成し(S23)、映像の表示を行わせる(S24)。そして、制御装置13は、行動項目として散歩が行われている場合の動作を完了する。 FIG. 17 is a flow chart showing the operation of the control device 13 according to the third embodiment. The operation of the control device 13 will be described with reference to FIG. Since the processing from S1 to S6 is the same as the processing described in the first embodiment, the description is omitted. If the completion condition is satisfied (S6: YES), the evaluation unit 41 performs evaluation based on the user's exercise amount and exercise posture (S21). The addition unit 42 adds the social contribution points to the point table based on the evaluation result of the evaluation unit 41 (S22). Next, the second output unit 51 generates evaluation video data (S23), and displays the video (S24). Then, the control device 13 completes the operation when taking a walk as an action item.
 実施の形態3によれば、検知装置11が検知した結果に基づいて、社会貢献ポイントを付与し、貢献の度合を映像で表示する。このため、ユーザに対して特定の活動を行うことを直接的に指示することなく、間接的に促すことができる。したがって、ユーザに自発的な活動を促すことができる。 According to Embodiment 3, social contribution points are given based on the results detected by the detection device 11, and the degree of contribution is displayed by video. Therefore, it is possible to indirectly prompt the user to perform a specific activity without directly instructing the user to perform the specific activity. Therefore, it is possible to encourage the user to act spontaneously.
 また、映像を表示させることによって、高齢者向けの施設のユーザである高齢者にとっても、感覚的に情報を伝えることができる。 Also, by displaying images, it is possible to convey information intuitively to the elderly who are users of facilities for the elderly.
 以上が本開示の行動支援システム1、1A及び1Bの説明であるが、開示内容の趣旨の範囲内で種々の変形を行うことができる。例えば、実施の形態1及び3で説明した第1出力部33で出力される映像データ、及び第2出力部51で出力される評価映像データの色調を補正するようにしてもよい。例えば、表示される映像の青色の明るさをより明るくし、黄色の明るさをより暗くするようにしてもよい。これにより、加齢によって青色が見え難くなったユーザであっても、映像の臨場感を感じることができる。 Although the action support systems 1, 1A, and 1B of the present disclosure have been described above, various modifications can be made within the spirit of the disclosure. For example, the color tone of the image data output from the first output section 33 and the evaluation image data output from the second output section 51 described in the first and third embodiments may be corrected. For example, the brightness of blue in the displayed image may be made brighter and the brightness of yellow may be made darker. As a result, even a user who has difficulty seeing blue due to aging can feel the presence of the image.
 また、実施の形態1及び3において、ユーザが体操を行う場合、第1出力部33は、映像に含まれる人物の手、足等の端部又は関節部を明るくして強調するように、映像データを補正してもよい。更に、ユーザが身体の運動を主目的とする行動項目の活動を行う場合、第1出力部33は、ユーザの身体の手、足等の端部又は関節部を照明装置12bによって明るくしてもよいし、映像を表示することで強調するようにしてもよい。これにより、ユーザと、ユーザの周囲の人又は物との衝突を回避しやすくすることができる。 Further, in Embodiments 1 and 3, when the user does gymnastics, the first output unit 33 outputs the image so as to brighten and emphasize the ends or joints of the person's hands, feet, etc. included in the image. Data may be corrected. Furthermore, when the user engages in an action item whose main purpose is to exercise the body, the first output unit 33 may illuminate the ends or joints of the user's body, such as hands and feet, using the illumination device 12b. Alternatively, it may be emphasized by displaying an image. This makes it easier to avoid collisions between the user and people or objects around the user.
 また、実施の形態1及び3において、ユーザの視線が動くように、第1出力部33は、ランダムな位置に照明を行なったり、図形がランダムに移動する映像を行ったりしてもよい。映像は、例えば、円形等の図形を表示するものであり、床面又は壁面等に表示される。概して、加齢によって、視野が狭くなったユーザは、壁、又は床等に設置された物にぶつかったり、つまずいたりする等、歩行が困難になることがある。映像又は照明によってランダムな種類を表示させることで、ユーザの視線を誘導させ、視野の改善を行うことができる。これにより、ユーザの歩行機能の維持及び増進につながる。 Further, in Embodiments 1 and 3, the first output unit 33 may illuminate random positions or display images in which graphics move randomly so that the user's line of sight moves. The image is, for example, a figure such as a circle, and is displayed on a floor surface, a wall surface, or the like. In general, a user whose visual field has narrowed due to aging may have difficulty walking, such as colliding with objects installed on the wall or the floor, tripping, and the like. By displaying random types with images or lighting, it is possible to guide the user's line of sight and improve the field of view. This leads to maintenance and enhancement of the walking function of the user.
 また、実施の形態1及び3において、会話又は趣味等の行動項目の活動を行う場合、ユーザにゆかりのある映像を表示するようにしてもよい。これにより、ユーザの物忘れの抑制を図ることができる。映像の出力するためのデータは、例えば、施設に入居する際等に、ユーザ本人又は家族等から写真又はハードディスク等の記憶媒体の提供を受けることで、記憶部22のユーザテーブルにユーザIDと紐づけて記憶しておくとよい。 Also, in Embodiments 1 and 3, when an action item such as a conversation or a hobby is performed, an image related to the user may be displayed. As a result, it is possible to prevent the user from forgetting things. The data for outputting the video is stored in the user table of the storage unit 22 with the user ID by receiving a photo or a storage medium such as a hard disk from the user or his/her family when moving into a facility, for example. It is good to keep it in mind.
 また、実施の形態1及び3において、就寝の行動項目の活動を行う場合、一日の活動のダイジェストを表示するようにしてもよい。これにより、ユーザの物忘れの抑制又は短期記憶の強化を図ることができる。ダイジェストの出力するためのデータは、ユーザが行動項目として定められた活動を行う際に、撮影された映像であってもよし、会話又は趣味等の行動項目の活動を行った場合は、その際に表示された映像を表示することとしてもよい。 Also, in Embodiments 1 and 3, when the activity of the sleep action item is performed, a digest of the activity for the day may be displayed. As a result, the user's forgetfulness can be suppressed or short-term memory can be strengthened. The data for outputting the digest may be a video taken when the user performs an activity specified as an action item. It is also possible to display the image displayed on the .
 また、実施の形態1及び3において、ユーザに近づく人物が現れた場合、その人物がいる方向を照明によって照らすようにしてもよい。更に、ユーザと、壁又は床等に設置された物との距離が予め定められた距離より小さくなった場合、壁又は床等に設置された物を照明によって照らすようにしてもよい。これにより、ユーザに対して、人又は物との衝突をしないように注意喚起を行うことができる。また、特に、ユーザに近づく人物がいる方向を照明によって照らす場合は、ユーザに話をかけようとしていることが考えられることから、呼びかけられる可能性があることをユーザに知らせることができる。 Also, in Embodiments 1 and 3, when a person approaches the user, the direction in which the person is may be illuminated by lighting. Furthermore, when the distance between the user and the object installed on the wall, floor, or the like becomes smaller than a predetermined distance, the object installed on the wall, floor, or the like may be illuminated by lighting. Accordingly, it is possible to alert the user not to collide with a person or an object. In particular, when illuminating the direction in which a person approaching the user is, it is conceivable that the person is trying to talk to the user, so the user can be notified of the possibility of being called out.
 また、実施の形態1及び3において、ユーザに近づく人物が現れた場合、照明装置12bによって光を照射する場合、照射する光をユーザごとの好みの色などにしてもよい。 Further, in Embodiments 1 and 3, when a person approaches the user and the illumination device 12b emits light, the emitted light may be a color of preference for each user.
 なお、これまでに説明した変形例で示された投射装置12の制御は、ユーザが行動項目として定めた活動を行っている際に行われてもよいし、行動項目として定めた活動を行っていない際に独立して行われてもよい。 Note that the control of the projection device 12 shown in the modifications described so far may be performed while the user is performing the activity defined as the action item, or may be performed while the user is performing the activity defined as the action item. may be performed independently when not
 また、実施の形態3において、評価映像を表示させる際に、外部システムSにアクセスして、累計の社会貢献ポイントに最も近い社会貢献活動に関連する映像を表示しても良い。 Also, in the third embodiment, when displaying the evaluation video, the external system S may be accessed to display the video related to the social contribution activity closest to the accumulated social contribution points.
 実施の形態1~3において、制御装置13は、サーバ装置である場合を例に説明したが、制御装置13は、例えば管理端末14の機能として実現されてもよい。また、投射装置12、又は検知装置11の機能として実現されてもよい。 In Embodiments 1 to 3, the case where the control device 13 is a server device has been described as an example, but the control device 13 may be realized as a function of the management terminal 14, for example. Moreover, it may be implemented as a function of the projection device 12 or the detection device 11 .
 また、実施の形態1で説明した行動項目は、一例であり、9項目に限定される必要はない。例えば、会話を親族との会話、及び友人との会話、趣味を、手芸、読書、麻雀、及び習字のように、行動項目を更に分類しても良い。更に、運動の行動項目を設けて、運動に属する行動項目として、散歩、体操、ダンス、及び階段昇降等を分類しても良い。 Also, the action items described in Embodiment 1 are an example and need not be limited to nine items. For example, the activity items may be further classified into conversations with relatives and friends, hobbies such as handicrafts, reading, mahjong, and calligraphy. Furthermore, action items for exercise may be provided, and walking, gymnastics, dancing, climbing stairs, and the like may be classified as action items belonging to exercise.
また、実施の形態2及び3で説明した社会貢献ポイントではなく、社会貢献以外を使途にできるポイントを用いるようにしてもよい。この場合も、ユーザの活動とポイントの付与とを結びつけることで、ユーザの活動のモチベーションを促進することができる。 Also, instead of the social contribution points described in the second and third embodiments, points that can be used for purposes other than social contribution may be used. In this case as well, by linking the user's activity with the awarding of points, it is possible to promote the motivation of the user's activity.
 また、実施の形態3において、第1出力部33は、評価部41の評価に基づいて、歩行マーク又は視線マークを青色又は緑色で表示させてもよい。第1出力部33は、歩行姿勢の評価が低い場合、歩行マーク又は視線マークを黄色又は赤色で表示させてもよい。これにより、ユーザの歩行姿勢の改善の効果を高めることができる。 Further, in Embodiment 3, the first output unit 33 may display the walking mark or the line-of-sight mark in blue or green based on the evaluation by the evaluation unit 41. When the evaluation of the walking posture is low, the first output unit 33 may display the walking mark or the line-of-sight mark in yellow or red. As a result, the effect of improving the walking posture of the user can be enhanced.
 また、実施の形態1で説明した投射装置12及び検知装置11は一例に過ぎない。例えば、支援映像又は評価映像を表示する場所が床面、壁面、又は天井等の空間以外であった場合は、投射装置12としてプロジェクタ12aの代わりにディスプレイを用いて行うようにしてもよい。また、投射装置12として、VR機器を用いてもよい。これにより、映像に臨場感を出すことができる。また、検知装置11として、LIDAR(Laser Imaging Detection and Ranging)を利用してもよい。これにより、例えば、ユーザの足位置の測位等をより高精度に行うことができる。また、各実施の形態でビーコンタグ11aによって、ユーザを特定できることとした。しかしながら、Wifi等の他の屋内測位技術を用いても良い。また、動体検知装置11cの録画映像から、ユーザの身体特徴を分析することで、ユーザを特定できれば、ビーコンタグ11a及び受信機11bの設置又は利用を省略してもよい。 Also, the projection device 12 and the detection device 11 described in Embodiment 1 are merely examples. For example, when the support image or the evaluation image is displayed in a space other than the floor surface, wall surface, or ceiling, a display may be used as the projection device 12 instead of the projector 12a. Also, a VR device may be used as the projection device 12 . This makes it possible to give a sense of realism to the video. Also, as the detection device 11, LIDAR (Laser Imaging Detection and Ranging) may be used. Thereby, for example, positioning of the user's foot position can be performed with higher accuracy. Further, in each embodiment, the beacon tag 11a is used to specify the user. However, other indoor positioning technologies such as Wifi may be used. Also, if the user can be identified by analyzing the user's physical characteristics from the video recorded by the moving object detection device 11c, the installation or use of the beacon tag 11a and the receiver 11b may be omitted.
 1 行動支援システム、1A 行動支援システム、1B 行動支援システム、11 検知装置、11a ビーコンタグ、11b 受信機、11c 動体検知装置、11d 音声センサ、12 投射装置、12a プロジェクタ、12b 照明装置、13 制御装置、14 管理端末 21 制御部、22 記憶部、31 種別決定部、32 分析部、33 第1出力部、41 評価部、42 加算部、43 通信部、51 第2出力部。 1 action support system, 1A action support system, 1B action support system, 11 detection device, 11a beacon tag, 11b receiver, 11c moving body detection device, 11d audio sensor, 12 projection device, 12a projector, 12b lighting device, 13 control device , 14 management terminal 21 control unit, 22 storage unit, 31 type determination unit, 32 analysis unit, 33 first output unit, 41 evaluation unit, 42 addition unit, 43 communication unit, 51 second output unit.

Claims (13)

  1.  ユーザの活動を支援する行動支援システムであって、
     ユーザの状態を検知する検知装置と、
     映像の表示又は照明を行う投射装置と、
     前記検知装置が検知した結果に基づいて、支援対象とされる前記活動に対応して定められた行動項目に関連する映像の表示又は照明を行うように、前記投射装置を制御する制御装置と、を備える
     行動支援システム。
    An action support system that supports user activities,
    a detection device for detecting a user's state;
    a projection device that displays or illuminates an image;
    a control device that controls the projection device so as to display or illuminate an image related to an action item determined corresponding to the activity to be supported, based on the result detected by the detection device; an action support system.
  2.  前記制御装置は、前記検知装置が検知した結果に基づいて、前記行動項目のうち、ユーザの前記活動が何れの前記行動項目に対応するかを判別し、判別した前記行動項目に関する映像の表示又は照明を行うように、前記投射装置を制御する
     請求項1に記載の行動支援システム。
    The control device determines which of the action items the activity of the user corresponds to based on the result detected by the detection device, and displays or displays an image related to the determined action item. The action support system according to claim 1, wherein said projection device is controlled to provide illumination.
  3.  前記制御装置は、ユーザが前記行動項目として定められた前記活動を行っている際に、前記検知装置が検知した結果に基づいて、前記投射装置を制御する
     請求項1又は2に記載の行動支援システム。
    The action support according to claim 1 or 2, wherein the control device controls the projection device based on the result detected by the detection device when the user is performing the activity defined as the action item. system.
  4.  前記制御装置は、前記行動項目が散歩である場合、前記検知装置が検知した結果からユーザの姿勢及び足の位置を分析し、
     ユーザの前記姿勢及び前記足の位置に基づいて、予め定められた歩行経路のうち、ユーザの前方の歩行経路を示す映像の表示又は照明を行うように、前記投射装置を制御する
     請求項1~3の何れか1項に記載の行動支援システム。
    When the action item is a walk, the control device analyzes the user's posture and foot positions from the results detected by the detection device,
    Based on the user's posture and the position of the feet, the projection device is controlled so as to display or illuminate an image showing a walking path in front of the user, out of predetermined walking paths. 4. The action support system according to any one of 3.
  5.  前記制御装置は、前記行動項目が散歩である場合、前記検知装置が検知した結果からユーザの足の位置、歩行速度及び歩幅を分析し、
     ユーザの前記足の位置、前記歩行速度、及び前記歩幅に基づいて、ユーザの一方の足が接地した直後に、ユーザの他方の足を踏み出す位置である歩行マークを示す映像の表示又は照明を行うように、前記投射装置を制御する
     請求項1~4の何れか1項に記載の行動支援システム。
    When the action item is a walk, the control device analyzes the user's foot position, walking speed and stride length from the results detected by the detection device,
    Based on the position of the user's feet, the walking speed, and the stride length, immediately after one foot of the user touches the ground, an image is displayed or illuminated showing a walking mark that is the position where the other foot of the user steps. 5. The action support system according to any one of claims 1 to 4, wherein the projection device is controlled such that
  6.  前記制御装置は、前記投射装置がランダムな位置に映像の表示又は照明を行うように制御する
     請求項1~5の何れか1項に記載の行動支援システム。
    6. The action support system according to any one of claims 1 to 5, wherein the control device controls the projection device to display or illuminate images at random positions.
  7.  前記投射装置は、照明を行う照明装置である
     請求項1~6の何れか1項に記載の行動支援システム。
    The action support system according to any one of claims 1 to 6, wherein the projection device is a lighting device that performs lighting.
  8.  前記制御装置は、前記行動項目が階段昇降である場合、前記検知装置が検知した結果からユーザの足の位置を分析し、
     ユーザの足元を追従して照明を行うように前記投射装置を制御する
     請求項7に記載の行動支援システム。
    If the action item is climbing stairs, the control device analyzes the position of the user's feet from the results detected by the detection device,
    The action support system according to claim 7, wherein the projection device is controlled so as to follow the feet of the user and perform lighting.
  9.  ユーザの活動を支援する行動支援システムであって、
     ユーザの状態を検知する検知装置と、
     ユーザの保有するポイントが記憶されたポイントテーブルを有する制御装置と、を備え、
     前記制御装置は、ユーザが支援対象とされる前記活動を行っている際に、前記検知装置が検知した結果に基づいて、前記ポイントテーブルにポイントを加算する
     行動支援システム。
    An action support system that supports user activities,
    a detection device for detecting a user's state;
    a control device having a point table in which the points owned by the user are stored;
    The action support system, wherein the control device adds points to the point table based on the result detected by the detection device while the user is performing the activity targeted for support.
  10.  前記制御装置は、ユーザの前記活動が、定められた行動項目のいずれに対応するかを判別し、判別された前記行動項目が階段昇降、散歩又は体操であった場合、ユーザが前記行動項目として定められた前記活動を行っている際に、前記検知装置が検知した結果に基づいて、ユーザの運動姿勢又は運動量を評価し、前記ポイントテーブルに、評価の高低に応じて異なった値のポイントを加算する
     請求項9に記載の行動支援システム。
    The control device determines which of the determined action items the activity of the user corresponds to, and if the determined action item is climbing stairs, walking, or gymnastics, the user selects Based on the result detected by the detection device while performing the predetermined activity, the user's exercise posture or amount of exercise is evaluated, and points with different values are added to the point table according to the evaluation. The action support system according to claim 9, which is added.
  11.  映像の表示を行う投射装置を更に備え、
     前記制御装置は、前記ポイントテーブルに加算されたポイントを前記投射装置によって表示させる
     請求項9又は10に記載の行動支援システム。
    further comprising a projection device for displaying images,
    11. The action support system according to claim 9, wherein the control device causes the projection device to display the points added to the point table.
  12.  前記制御装置は、ユーザの運動姿勢又は運動量の評価の高低に応じて異なった内容の映像を前記投射装置によって表示させる
     請求項11に記載の行動支援システム。
    12. The action support system according to claim 11, wherein the control device causes the projection device to display images with different contents according to the user's exercise posture or exercise amount evaluation.
  13.  前記制御装置は、ポイントとの交換により社会貢献活動を行う外部システムと通信可能に接続されており、
     前記ポイントテーブルに記憶された、ユーザが保有するポイントを減算すると共に、前記外部システムに対してポイントの交換を申請する情報を送信する
     請求項10~12の何れか1項に記載の行動支援システム。
    The control device is communicably connected to an external system that performs social contribution activities by exchanging points,
    13. The action support system according to any one of claims 10 to 12, wherein points held by the user stored in the point table are subtracted, and information requesting exchange of points is transmitted to the external system. .
PCT/JP2021/027332 2021-07-21 2021-07-21 Behavior assistance system WO2023002604A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2021/027332 WO2023002604A1 (en) 2021-07-21 2021-07-21 Behavior assistance system
JP2022575720A JP7313583B2 (en) 2021-07-21 2021-07-21 Action support system
JP2023064776A JP2023086792A (en) 2021-07-21 2023-04-12 Action support system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/027332 WO2023002604A1 (en) 2021-07-21 2021-07-21 Behavior assistance system

Publications (1)

Publication Number Publication Date
WO2023002604A1 true WO2023002604A1 (en) 2023-01-26

Family

ID=84979058

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/027332 WO2023002604A1 (en) 2021-07-21 2021-07-21 Behavior assistance system

Country Status (2)

Country Link
JP (2) JP7313583B2 (en)
WO (1) WO2023002604A1 (en)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345785A (en) * 2001-05-22 2002-12-03 Hitachi Kiden Kogyo Ltd Footprint analyzing apparatus
JP2003024469A (en) * 2001-07-13 2003-01-28 Namco Ltd Gait training device
JP2013515995A (en) * 2009-12-28 2013-05-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Biofeedback for program guidance in respiratory rehabilitation
WO2016047258A1 (en) * 2014-09-26 2016-03-31 日本電気株式会社 Information-processing device, information-processing system, information-processing method, and program
JP2019024580A (en) * 2017-07-25 2019-02-21 パナソニックIpマネジメント株式会社 Rehabilitation support system, rehabilitation support method, and program
JP2020021233A (en) * 2018-07-31 2020-02-06 オムロンヘルスケア株式会社 Information management apparatus and action activation system
JP2020057082A (en) * 2018-09-28 2020-04-09 株式会社リモハブ Rehabilitation support system, user device and information terminal device
JP2021094299A (en) * 2019-12-19 2021-06-24 リーフ株式会社 Physical function training device, physical function training method, program, and recording medium

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016004215A (en) 2014-06-18 2016-01-12 東芝ライテック株式会社 Projection device
WO2018163637A1 (en) 2017-03-09 2018-09-13 ソニー株式会社 Information-processing device, information-processing method, and recording medium

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002345785A (en) * 2001-05-22 2002-12-03 Hitachi Kiden Kogyo Ltd Footprint analyzing apparatus
JP2003024469A (en) * 2001-07-13 2003-01-28 Namco Ltd Gait training device
JP2013515995A (en) * 2009-12-28 2013-05-09 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Biofeedback for program guidance in respiratory rehabilitation
WO2016047258A1 (en) * 2014-09-26 2016-03-31 日本電気株式会社 Information-processing device, information-processing system, information-processing method, and program
JP2019024580A (en) * 2017-07-25 2019-02-21 パナソニックIpマネジメント株式会社 Rehabilitation support system, rehabilitation support method, and program
JP2020021233A (en) * 2018-07-31 2020-02-06 オムロンヘルスケア株式会社 Information management apparatus and action activation system
JP2020057082A (en) * 2018-09-28 2020-04-09 株式会社リモハブ Rehabilitation support system, user device and information terminal device
JP2021094299A (en) * 2019-12-19 2021-06-24 リーフ株式会社 Physical function training device, physical function training method, program, and recording medium

Also Published As

Publication number Publication date
JP2023086792A (en) 2023-06-22
JPWO2023002604A1 (en) 2023-01-26
JP7313583B2 (en) 2023-07-24

Similar Documents

Publication Publication Date Title
JP6654715B2 (en) Information processing system and information processing apparatus
US9247884B2 (en) Biometric monitoring device having a body weight sensor, and methods of operating same
WO2016021236A1 (en) Information processing system, information processing device, information processing program, and information processing method
KR101353195B1 (en) Method for Lighting Control using Mobile Device
JP2009087074A (en) Equipment control system
WO2023002604A1 (en) Behavior assistance system
CN117492562A (en) Exhibition hall control method, system and storage medium combined with intelligent wearing

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2022575720

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21950954

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE