JP7467300B2 - システム、電子機器、電子機器の制御方法、及びプログラム - Google Patents
システム、電子機器、電子機器の制御方法、及びプログラム Download PDFInfo
- Publication number
- JP7467300B2 JP7467300B2 JP2020156780A JP2020156780A JP7467300B2 JP 7467300 B2 JP7467300 B2 JP 7467300B2 JP 2020156780 A JP2020156780 A JP 2020156780A JP 2020156780 A JP2020156780 A JP 2020156780A JP 7467300 B2 JP7467300 B2 JP 7467300B2
- Authority
- JP
- Japan
- Prior art keywords
- person
- coordinates
- monitored
- monitored subject
- subject
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 19
- PWPJGUXAGUPAHP-UHFFFAOYSA-N lufenuron Chemical compound C1=C(Cl)C(OC(F)(F)C(C(F)(F)F)F)=CC(Cl)=C1NC(=O)NC(=O)C1=C(F)C=CC=C1F PWPJGUXAGUPAHP-UHFFFAOYSA-N 0.000 title 1
- 230000006399 behavior Effects 0.000 claims description 141
- 238000003384 imaging method Methods 0.000 claims description 117
- 238000000605 extraction Methods 0.000 claims description 74
- 238000010801 machine learning Methods 0.000 claims description 71
- 239000000284 extract Substances 0.000 claims description 35
- 238000013459 approach Methods 0.000 claims description 7
- 210000000707 wrist Anatomy 0.000 claims description 6
- 230000009471 action Effects 0.000 description 37
- 238000004891 communication Methods 0.000 description 23
- 230000000474 nursing effect Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 230000001568 sexual effect Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 8
- 238000012544 monitoring process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 6
- 238000010606 normalization Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 5
- 210000001217 buttock Anatomy 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000012545 processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000003862 health status Effects 0.000 description 4
- 230000003542 behavioural effect Effects 0.000 description 3
- 230000001413 cellular effect Effects 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 230000007774 longterm Effects 0.000 description 3
- 206010012289 Dementia Diseases 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 210000003423 ankle Anatomy 0.000 description 2
- 230000005611 electricity Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 210000003127 knee Anatomy 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 210000000038 chest Anatomy 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000003414 extremity Anatomy 0.000 description 1
- 210000002683 foot Anatomy 0.000 description 1
- 210000004247 hand Anatomy 0.000 description 1
- 210000001624 hip Anatomy 0.000 description 1
- 210000002414 leg Anatomy 0.000 description 1
- 238000012417 linear regression Methods 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 210000002832 shoulder Anatomy 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Landscapes
- Closed-Circuit Television Systems (AREA)
- Emergency Alarm Devices (AREA)
- Alarm Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
Description
被監視対象及び他の人物を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標及び他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備える。
被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
前記被監視対象を含んで撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習するコントローラと、
を備える。
被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備える。
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を含む。
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を含む。
コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を実行させる。
コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を実行させる。
10 電子機器
11 抽出部
13 記憶部
132 機械学習データ
15 コントローラ
17 警告部
19 通信部
20 撮像部
Claims (20)
- 被監視対象及び他の人物を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習するコントローラと、
を備えるシステム。 - 前記コントローラは、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点以外の時点を含むタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する、請求項1に記載のシステム。
- 前記抽出部は、前記撮像部によって撮像された秒間所定数の各フレームの画像から、前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標を2次元的に抽出する、請求項1又は2に記載のシステム。
- 前記抽出部は、2次元的に抽出された前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化する、請求項1から3のいずれかに記載のシステム。
- 前記タイミング情報において、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の終了時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物から所定距離以上離れたタイミングを示す、請求項1から4のいずれかに記載のシステム。
- 前記タイミング情報において、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象が前記他の人物から所定距離以内に近づいたタイミングを示す、請求項1から5のいずれかに記載のシステム。
- 前記タイミング情報において、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点は、前記撮像部によって撮像された経時的な画像において前記被監視対象の手首が前記他の人物に近づき始めたタイミングを示す、請求項1から6のいずれかに記載のシステム。
- 被監視対象及び他の人物を撮像する撮像部と、
前記撮像部によって撮像された画像から前記被監視対象の所定部位の座標及び他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備えるシステム。 - 前記抽出部は、前記撮像部によって撮像された単位時間当たり所定数のフレームの画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出し、
前記コントローラは、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する、請求項8に記載のシステム。 - 前記コントローラは、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定したら、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始前に、所定の警告信号を出力する、請求項8又は9に記載のシステム。
- 前記コントローラは、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定したら、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の終了前に、所定の警告信号を出力する、請求項8又は9に記載のシステム。
- 前記抽出部は、前記撮像部によって撮像された秒間所定数の各フレームの画像から、前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標を2次元的に抽出する、請求項8から11のいずれかに記載のシステム。
- 前記抽出部は、2次元的に抽出された前記被監視対象の身体における所定数の関節点の座標及び前記他の人物の身体における所定数の関節点の座標の各方向成分を、当該各方向成分の最大値及び最小値に基づいて正規化する、請求項12に記載のシステム。
- 前記コントローラは、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始の推定の妥当性が所定以上になるように、前記フレームの数及び前記関節点の数の少なくとも一方を決定する、請求項12又は13に記載のシステム。
- 被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
前記被監視対象を含んで撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習するコントローラと、
を備える電子機器。 - 被監視対象及び他の人物を含んで撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出部と、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出部によって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定するコントローラと、
を備える電子機器。 - 被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を含む、電子機器の制御方法。 - 被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を含む、電子機器の制御方法。 - コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
前記撮像ステップによって撮像された経時的な画像において前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始時点及び終了時点を示すタイミング情報に基づいて、前記開始時点と前記終了時点との間における前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標と、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始との関係を機械学習する機械学習ステップと、
を実行させる、プログラム。 - コンピュータに、
被監視対象及び他の人物を撮像する撮像ステップと、
前記撮像ステップによって撮像された画像から前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標を抽出する抽出ステップと、
人間が他の人間に対して嫌がらせを行う動作の開始時点と終了時点との間における前記人間の所定部位の座標及び前記他の人間の所定部位の座標と、前記人間が前記他の人間に対して嫌がらせを行う動作の開始との関係が機械学習された機械学習データに基づいて、前記抽出ステップによって抽出された前記被監視対象の所定部位の座標及び前記他の人物の所定部位の座標から、前記被監視対象が前記他の人物に対して嫌がらせを行う動作の開始を推定する推定ステップと、
を実行させる、プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156780A JP7467300B2 (ja) | 2020-09-17 | 2020-09-17 | システム、電子機器、電子機器の制御方法、及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020156780A JP7467300B2 (ja) | 2020-09-17 | 2020-09-17 | システム、電子機器、電子機器の制御方法、及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2022050269A JP2022050269A (ja) | 2022-03-30 |
JP7467300B2 true JP7467300B2 (ja) | 2024-04-15 |
Family
ID=80854380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020156780A Active JP7467300B2 (ja) | 2020-09-17 | 2020-09-17 | システム、電子機器、電子機器の制御方法、及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7467300B2 (ja) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007251556A (ja) | 2006-03-15 | 2007-09-27 | Omron Corp | 監視装置および方法、画像処理装置および方法、並びにプログラム |
JP2016163328A (ja) | 2015-03-05 | 2016-09-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018163555A1 (ja) | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2019144830A (ja) | 2018-02-20 | 2019-08-29 | Kddi株式会社 | 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法 |
CN111553229A (zh) | 2020-04-21 | 2020-08-18 | 清华大学 | 基于三维骨骼与lstm的工人动作识别方法及装置 |
JP2021077295A (ja) | 2019-11-13 | 2021-05-20 | 尚範 伊達 | 監視装置、監視方法、及びプログラム |
-
2020
- 2020-09-17 JP JP2020156780A patent/JP7467300B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007251556A (ja) | 2006-03-15 | 2007-09-27 | Omron Corp | 監視装置および方法、画像処理装置および方法、並びにプログラム |
JP2016163328A (ja) | 2015-03-05 | 2016-09-05 | キヤノン株式会社 | 情報処理装置、情報処理方法、およびプログラム |
WO2018163555A1 (ja) | 2017-03-07 | 2018-09-13 | コニカミノルタ株式会社 | 画像処理装置、画像処理方法、及び画像処理プログラム |
JP2019144830A (ja) | 2018-02-20 | 2019-08-29 | Kddi株式会社 | 複数の認識エンジンを用いて人物の行動を認識するプログラム、装置及び方法 |
JP2021077295A (ja) | 2019-11-13 | 2021-05-20 | 尚範 伊達 | 監視装置、監視方法、及びプログラム |
CN111553229A (zh) | 2020-04-21 | 2020-08-18 | 清华大学 | 基于三维骨骼与lstm的工人动作识别方法及装置 |
Non-Patent Citations (3)
Title |
---|
Yanghao Li et al.,Online Human Action Detection using Joint ClassificationRegression Recurrent Neural Networks,arXiv.org[online],arXiv(Cornell University Library),2016年07月26日,pp.1-21,[検索日 2024.3.12], インターネット:<URL:https://arxiv.org/pdf/1604.05633.pdf> |
Yong Du et al.,"Hierarchical recurrent neural network for skeleton based action recognition",2015 IEEE Conference on Computer Vision and Pattern Recognition (CVPR),米国,IEEE,2015年,pp.1110-1118,https://ieeexplore.ieee.org/document/7298714,DOI: 10.1109/CVPR.2015.7298714 |
鈴木智之 外1名,行動遷移映像における姿勢特徴を中心とする学習を用いた時系列行動認識,第23回画像センシングシンポジウムSSII2017[USB],日本,画像センシング技術研究会,2017年12月31日 |
Also Published As
Publication number | Publication date |
---|---|
JP2022050269A (ja) | 2022-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9972187B1 (en) | Biomechanical parameter determination for emergency alerting and health assessment | |
US11819344B2 (en) | Systems for automatic assessment of fall risk | |
US20230222887A1 (en) | Machine learning based monitoring system | |
US10600204B1 (en) | Medical environment bedsore detection and prevention system | |
CN108877914A (zh) | 基于物联网的患者的行为监控方法及装置、存储介质、终端 | |
EP3432772B1 (en) | Using visual context to timely trigger measuring physiological parameters | |
US20210219873A1 (en) | Machine vision to predict clinical patient parameters | |
JPWO2017183602A1 (ja) | 被監視者監視システムおよび被監視者監視方法 | |
Lam et al. | SmartMind: activity tracking and monitoring for patients with Alzheimer's disease | |
US10475206B1 (en) | Medical environment event parsing system | |
CN116945156A (zh) | 一种基于计算机视觉技术的老年人智能陪护系统 | |
JP7467300B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7314939B2 (ja) | 画像認識プログラム、画像認識装置、学習プログラム、および学習装置 | |
JP7465773B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7518699B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
Safarzadeh et al. | Real-time fall detection and alert system using pose estimation | |
JP7276336B2 (ja) | コンピュータで実行されるプログラム、情報処理システム、および、コンピュータで実行される方法 | |
JP2022039814A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7449212B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
WO2020003952A1 (ja) | コンピューターで実行されるプログラム、情報処理装置、および、コンピューターで実行される方法 | |
JP2021174189A (ja) | サービスのメニューの作成を支援する方法、サービスの利用者の評価を支援する方法、当該方法をコンピューターに実行させるプログラム、および、情報提供装置 | |
JP2022050271A (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7449211B2 (ja) | システム、電子機器、電子機器の制御方法、及びプログラム | |
JP7483486B2 (ja) | 監視システム、監視装置、監視方法、及びプログラム | |
Richard et al. | Design and Implementation of Smart Old Age Home |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230417 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20240228 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240319 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240403 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7467300 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |