JPWO2021005750A1 - Behavior type estimation device, behavior type estimation method, and behavior type estimation program - Google Patents
Behavior type estimation device, behavior type estimation method, and behavior type estimation program Download PDFInfo
- Publication number
- JPWO2021005750A1 JPWO2021005750A1 JP2020510616A JP2020510616A JPWO2021005750A1 JP WO2021005750 A1 JPWO2021005750 A1 JP WO2021005750A1 JP 2020510616 A JP2020510616 A JP 2020510616A JP 2020510616 A JP2020510616 A JP 2020510616A JP WO2021005750 A1 JPWO2021005750 A1 JP WO2021005750A1
- Authority
- JP
- Japan
- Prior art keywords
- user
- place
- action
- action type
- behavior
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 48
- 230000009471 action Effects 0.000 claims abstract description 258
- 238000004891 communication Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 23
- 230000007704 transition Effects 0.000 claims description 4
- 230000006399 behavior Effects 0.000 description 78
- 230000006870 function Effects 0.000 description 13
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 230000033001 locomotion Effects 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 230000009850 completed effect Effects 0.000 description 4
- 230000036541 health Effects 0.000 description 4
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 3
- 235000019577 caloric intake Nutrition 0.000 description 3
- 230000008859 change Effects 0.000 description 3
- 230000009194 climbing Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 230000002503 metabolic effect Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/04—Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Strategic Management (AREA)
- Human Resources & Organizations (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Physics & Mathematics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Game Theory and Decision Science (AREA)
- Development Economics (AREA)
- Data Mining & Analysis (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
位置推定部(110)は、屋内(30)におけるユーザ(20)の位置を推定する。行動推定部(120)は、屋内(30)における場所を表す場所領域と屋内(30)における場所領域でのユーザの行動種別である場所行動種別とが設定された場所対応表(152)を取得する。行動推定部(120)は、場所対応表(152)からユーザ(20)の位置に合致する場所領域に対応する場所行動種別を取得し、取得した場所行動種別に基づいてユーザ(20)の行動を推定する。行動履歴生成部(130)は、ユーザ(20)の行動の推定結果を用いて、ユーザの行動の履歴を行動履歴情報(155)として生成する。The position estimation unit (110) estimates the position of the user (20) indoors (30). The action estimation unit (120) acquires a place correspondence table (152) in which a place area representing a place indoors (30) and a place action type which is a user's action type in the place area indoors (30) are set. do. The action estimation unit (120) acquires a place action type corresponding to a place area matching the position of the user (20) from the place correspondence table (152), and the action of the user (20) based on the acquired place action type. To estimate. The action history generation unit (130) generates the user's action history as the action history information (155) by using the action estimation result of the user (20).
Description
本発明は、行動種別推定装置、行動種別推定方法、および行動種別推定プログラムに関する。特に、屋内におけるユーザの行動を推定する行動種別推定装置、行動種別推定方法、および行動種別推定プログラムに関する。 The present invention relates to a behavior type estimation device, a behavior type estimation method, and a behavior type estimation program. In particular, the present invention relates to a behavior type estimation device for estimating a user's behavior indoors, a behavior type estimation method, and a behavior type estimation program.
近年、社員に対して健康増進を支援する動きが高まっている。このような動きとともに、人の行動あるいは運動量を自動的に判別する技術が開示されている。 In recent years, there has been an increasing movement to support employees to improve their health. Along with such movements, a technique for automatically discriminating a person's behavior or amount of exercise is disclosed.
特許文献1では、ユーザが身に着けているウェアラブルセンサにより検出された複数のデータを用いて、判別対象とするユーザの行動種別のバリエーションを増やす技術が開示されている。具体的には、ユーザの加速度により分類された行動を、ユーザの心拍数により、さらに細分化する技術が開示されている。
特許文献1の技術では、加速度計といったユーザの動きを検知するセンサが必須である。よって、ユーザは、ウェアラブルセンサの装着、あるいは、スマートフォン端末などの保持が必要になる。また、ウェアラブルセンサから送信される情報を元にサービスを提供する際、これらの情報をサービス提供側が集約する必要があり、継続的なデータアップロードの為の電力消費が課題となる。また、BYOD(Bring your own device)の場合には、各ユーザに対しデータ集約の許可を得るといった手続きが課題となる。さらに、多数のユーザの行動種別判定を行う場合、ユーザの数だけウェアラブルセンサあるいはスマートフォン端末を準備する必要がありコスト面での負担も大きい。
In the technique of
本発明は、ユーザにとって負担が少なく、かつ、低コストに行動種別を判別することを目的とする。 An object of the present invention is to discriminate an action type at low cost with less burden on the user.
本発明に係る行動種別推定装置は、
屋内におけるユーザの位置を推定する位置推定部と、
前記屋内における場所を表す場所領域と前記屋内における場所領域での前記ユーザの行動種別である場所行動種別とが設定された場所対応表を取得し、前記場所対応表から前記ユーザの位置に合致する場所領域に対応する場所行動種別を取得し、取得した場所行動種別に基づいて前記ユーザの行動を推定する行動推定部と、
前記ユーザの行動の推定結果を用いて、前記ユーザの行動の履歴を行動履歴情報として生成する行動履歴生成部とを備えた。The behavior type estimation device according to the present invention is
A position estimation unit that estimates the user's position indoors,
A place correspondence table in which a place area representing a place indoors and a place action type which is an action type of the user in the place area in the room is set is acquired, and matches the position of the user from the place correspondence table. An action estimation unit that acquires a place action type corresponding to a place area and estimates the user's action based on the acquired place action type.
It is provided with an action history generation unit that generates a history of the user's behavior as behavior history information using the estimation result of the user's behavior.
本発明に係る行動種別推定装置では、ユーザにとって負担が少なく、かつ、低コストに行動種別を判別することができるという効果を奏する。 The behavior type estimation device according to the present invention has an effect that the burden on the user is small and the behavior type can be discriminated at low cost.
以下、本発明の実施の形態について、図を用いて説明する。なお、各図中、同一または相当する部分には、同一符号を付している。実施の形態の説明において、同一または相当する部分については、説明を適宜省略または簡略化する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings. In each figure, the same or corresponding parts are designated by the same reference numerals. In the description of the embodiment, the description will be omitted or simplified as appropriate for the same or corresponding parts.
実施の形態1.
***構成の説明***
図1を用いて、本実施の形態に係る行動種別推定システム500の構成を説明する。
行動種別推定システム500は、ユーザ通信機21と、屋内通信機22と、行動種別推定装置100とを備える。
行動種別推定装置100は、屋内30におけるユーザ20の行動を推定する。例えば、屋内30は、ユーザ20が仕事をしている会社の建物内のことである。ユーザ20は、会社の建物内である屋内30で仕事をしている社員である。会社は、行動種別推定装置100により推定された社員の行動を分析することにより、社員の運動量を判定し、社員の健康増進を支援する。
*** Explanation of configuration ***
The configuration of the action type estimation system 500 according to the present embodiment will be described with reference to FIG.
The action type estimation system 500 includes a
The action type estimation device 100 estimates the behavior of the
ユーザ通信機21は、ビーコンといった近距離無線通信により電波を発信する機器である。ユーザ通信機21は、具体的には、社員証、社員証に付与されるネームプレート、あるいはキーホルダーといったユーザ20により携帯される物に内蔵される。ユーザ通信機21は、ウェアラブル端末あるいは携帯端末装置に比較してコストが低く、ユーザ20にとって携帯する負担が小さい機器である。
ユーザ通信機21が発信する電波はビーコン情報でも良いことから、ユーザ20がアプリを操作するなどにより意図的に送信する必要が無く、また、送信可否の許可をユーザ20にとる必要も無い。The
Since the radio wave transmitted by the
屋内通信機22は、会社の建物といった屋内30に複数設置される。屋内通信機22は、ユーザ20により携帯されている近距離無線通信用のユーザ通信機21から発信される電波を受信する。そして、屋内通信機22は、ユーザ通信機21から発信される電波を信号31として行動種別推定装置100に送信する。例えば、屋内通信機22は、屋内30に数メートルから数十メートル間隔で設定される。あるいは、屋内通信機22は、屋内30における場所の入口および出口に設置される。屋内30における場所は、例えば、部あるいは課ごとの領域、資料室、食堂、洗面所、廊下、階段、エレベータ、あるいは会議室といった領域である。
A plurality of
また、ユーザ20は、個人用端末23を有していてもよい。個人用端末23は、ユーザ20が使用する端末である。具体的には、PC(Personal Computer)、スマートフォン、タブレット端末、あるいは携帯電話端末といった機器である。ユーザ20は、個人用端末23を用いて、各種の情報の更新、あるいは、行動履歴情報の閲覧といった処理を実施する。
Further, the
行動種別推定装置100は、コンピュータである。行動種別推定装置100は、プロセッサ910を備えるとともに、メモリ921、補助記憶装置922、入力インタフェース930、出力インタフェース940、および通信装置950といった他のハードウェアを備える。プロセッサ910は、信号線を介して他のハードウェアと接続され、これら他のハードウェアを制御する。
The action type estimation device 100 is a computer. The action type estimation device 100 includes a processor 910 and other hardware such as a memory 921, an
行動種別推定装置100は、機能要素として、位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140と記憶部150とを備える。記憶部150には、個人情報151と場所対応表152と詳細対応表153と場所予定表154と行動履歴情報155が記憶されている。
The action type estimation device 100 includes a
位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の機能は、ソフトウェアにより実現される。記憶部150は、メモリ921に備えられる。
The functions of the
プロセッサ910は、行動種別推定プログラムを実行する装置である。行動種別推定プログラムは、位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の機能を実現するプログラムである。
プロセッサ910は、演算処理を行うIC(Integrated Circuit)である。プロセッサ910の具体例は、CPU(Central Processing Unit)、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)である。The processor 910 is a device that executes an action type estimation program. The action type estimation program is a program that realizes the functions of the
The processor 910 is an IC (Integrated Circuit) that performs arithmetic processing. Specific examples of the processor 910 are a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a GPU (Graphics Processing Unit).
メモリ921は、データを一時的に記憶する記憶装置である。メモリ921の具体例は、SRAM(Static Random Access Memory)、あるいはDRAM(Dynamic Random Access Memory)である。
補助記憶装置922は、データを保管する記憶装置である。補助記憶装置922の具体例は、HDDである。また、補助記憶装置922は、SD(登録商標)メモリカード、CF、NANDフラッシュ、フレキシブルディスク、光ディスク、コンパクトディスク、ブルーレイ(登録商標)ディスク、DVDといった可搬の記憶媒体であってもよい。なお、HDDは、Hard Disk Driveの略語である。SD(登録商標)は、Secure Digitalの略語である。CFは、CompactFlash(登録商標)の略語である。DVDは、Digital Versatile Diskの略語である。The memory 921 is a storage device that temporarily stores data. A specific example of the memory 921 is a SRAM (Static Random Access Memory) or a DRAM (Dynamic Random Access Memory).
The
入力インタフェース930は、マウス、キーボード、あるいはタッチパネルといった入力装置と接続されるポートである。入力インタフェース930は、具体的には、USB(Universal Serial Bus)端子である。なお、入力インタフェース930は、LAN(Local Area Network)と接続されるポートであってもよい。
出力インタフェース940は、ディスプレイといった出力機器のケーブルが接続されるポートである。出力インタフェース940は、具体的には、USB端子またはHDMI(登録商標)(High Definition Multimedia Interface)端子である。ディスプレイは、具体的には、LCD(Liquid Crystal Display)である。行動種別推定装置100は、出力インタフェース940を介して、行動履歴情報155をディスプレイに表示してもよい。The
The
通信装置950は、レシーバとトランスミッタを有する。通信装置950は、無線で、LAN、インターネット、あるいは電話回線といった通信網に接続している。通信装置950は、具体的には、通信チップまたはNIC(Network Interface Card)である。行動種別推定装置100は、通信装置950を介して、屋内通信機22から信号31を取得する。また、行動種別推定装置100は、通信装置950を介して、行動履歴情報155をユーザ20の個人用端末23に送信してもよい。
The
行動種別推定プログラムは、プロセッサ910に読み込まれ、プロセッサ910によって実行される。メモリ921には、行動種別推定プログラムだけでなく、OS(Operating System)も記憶されている。プロセッサ910は、OSを実行しながら、行動種別推定プログラムを実行する。行動種別推定プログラムおよびOSは、補助記憶装置922に記憶されていてもよい。補助記憶装置922に記憶されている行動種別推定プログラムおよびOSは、メモリ921にロードされ、プロセッサ910によって実行される。なお、行動種別推定プログラムの一部または全部がOSに組み込まれていてもよい。
The action type estimation program is read into the processor 910 and executed by the processor 910. In the memory 921, not only the action type estimation program but also the OS (Operating System) is stored. The processor 910 executes the action type estimation program while executing the OS. The action type estimation program and the OS may be stored in the
行動種別推定装置100は、プロセッサ910を代替する複数のプロセッサを備えていてもよい。これら複数のプロセッサは、行動種別推定プログラムの実行を分担する。それぞれのプロセッサは、プロセッサ910と同じように、行動種別推定プログラムを実行する装置である。 The action type estimation device 100 may include a plurality of processors that replace the processor 910. These plurality of processors share the execution of the action type estimation program. Each processor, like the processor 910, is a device that executes an action type estimation program.
行動種別推定プログラムにより利用、処理または出力されるデータ、情報、信号値および変数値は、メモリ921、補助記憶装置922、または、プロセッサ910内のレジスタあるいはキャッシュメモリに記憶される。
The data, information, signal values and variable values used, processed or output by the action type estimation program are stored in the memory 921, the
位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の各部の「部」を「処理」、「手順」あるいは「工程」に読み替えてもよい。また位置推定処理と行動推定処理と行動履歴生成処理と情報更新処理の「処理」を「プログラム」、「プログラムプロダクト」または「プログラムを記録したコンピュータ読取可能な記憶媒体」に読み替えてもよい。
The "section" of each of the
行動種別推定プログラムは、上記の各部の「部」を「処理」、「手順」あるいは「工程」に読み替えた各処理、各手順あるいは各工程を、コンピュータに実行させる。また、行動種別推定方法は、上記の各部の「部」を「手順」に読み替えた各手順に相当する。
行動種別推定プログラムは、コンピュータ読取可能な記録媒体に格納されて提供されてもよい。また、行動種別推定プログラムは、プログラムプロダクトとして提供されてもよい。The action type estimation program causes a computer to execute each process, each procedure, or each process in which the "part" of each of the above parts is read as "process", "procedure", or "process". In addition, the action type estimation method corresponds to each procedure in which the "part" of each of the above parts is read as "procedure".
The action type estimation program may be provided stored in a computer-readable recording medium. In addition, the behavior type estimation program may be provided as a program product.
***動作の説明***
次に、本実施の形態に係る行動種別推定システム500および行動種別推定装置100の動作について説明する。行動種別推定装置100の動作手順は、行動種別推定方法に相当する。また、行動種別推定装置100の動作を実現するプログラムは、行動種別推定プログラムに相当する。*** Explanation of operation ***
Next, the operations of the action type estimation system 500 and the action type estimation device 100 according to the present embodiment will be described. The operation procedure of the action type estimation device 100 corresponds to the action type estimation method. Further, the program that realizes the operation of the action type estimation device 100 corresponds to the action type estimation program.
<情報更新処理>
図2を用いて、本実施の形態に係る情報更新部140の動作について説明する。
情報更新部140は、個人情報151と場所対応表152と詳細対応表153と場所予定表154との少なくともいずれかを更新する。<Information update processing>
The operation of the
The
ステップS101において、情報更新部140は、記憶部150に記憶されている情報に対して、更新要求があるか否かを判定する。具体的には、情報更新部140は、記憶部150に記憶されている情報に対して、ユーザ20の個人用端末23から更新要求を受信したか否かを判定する。更新要求には、更新する対象の情報と、更新内容とが含まれる。具体的には、今まで資料室では座って閲覧をしていたユーザ20が、今後は健康のために立って閲覧するようにした場合に、場所対応表152あるいは詳細対応表153を変更するといったケースがある。
更新要求がある場合、ステップS102において、情報更新部140は、更新要求に基づいて、記憶部150に記憶されている情報を更新する。更新要求がない場合、処理はステップS101に戻る。In step S101, the
When there is an update request, in step S102, the
図3は、本実施の形態に係る個人情報151の例である。
個人情報151には、社員個人に関する情報が設定される。例えば、個人情報151には、社員番号、社員名、所属部署、内線番号といった個人の情報が設定されている。FIG. 3 is an example of
Information about individual employees is set in the
図4は、本実施の形態に係る場所対応表152の例である。
場所対応表152は、屋内30における場所を表す場所領域521と、屋内30における場所領域521でのユーザ20の行動種別である場所行動種別522とが設定されている。
図4に示すように、屋内30に座標系を設定し、場所対応表152では場所領域521を座標で表す。あるいは、屋内30における場所の名称で場所領域521を表してもよい。その場合は、別途、屋内30に座標系と場所の名称との対応テーブルが設けられる。場所行動種別522には、場所領域521においてユーザ20が主に行う行動の種別が設定される。具体的には、座標[0,0],[3,0],[3,2],[0,2]で表される廊下では、ユーザ20は主に歩いているため、「歩き」が設定される。また、座標[3,0],[6,0],[6,6],[3,6]で表される食堂では、ユーザ20は主に座っているため、「座り」が設定される。また、座標[0,2],[3,2],[3,6],[0,6]で表される資料室では、ユーザ20は主に立っているため、「立ち」が設定される。FIG. 4 is an example of the location correspondence table 152 according to the present embodiment.
In the place correspondence table 152, a place area 521 representing a place in the indoor 30 and a
As shown in FIG. 4, a coordinate system is set in the indoor 30, and the location area 521 is represented by coordinates in the location correspondence table 152. Alternatively, the place area 521 may be represented by the name of the place in the indoor 30. In that case, a table corresponding to the coordinate system and the name of the place is separately provided indoors 30. In the
なお、ユーザ20により場所における行動種別は異なると考えられるため、場所対応表152はユーザごとに設けられることが好ましい。上述したように、今まで資料室での場所行動種別522を「座り」としていたユーザ20が、今後は健康のために立って閲覧するように場所対応表152を設定し直す場合がある。このように、場所における行動種別はユーザ20により異なる。
Since it is considered that the action type in the place differs depending on the
図5は、本実施の形態に係る詳細対応表153の例である。
詳細対応表153には、場所対応表152に含まれる場所領域521を区分けした詳細領域531と、詳細領域531に対応する行動種別である詳細行動種別532とが設定されている。領域および行動種別の設定方式は、場所対応表152と同様である。具体的には、資料室は、本棚エリアと閲覧机エリアとに細分化される。資料室の詳細対応表153では、座標[5,0],[6,0],[6,6],[3,6]で表される本棚エリアでは、ユーザ20は主に立っているため、「立ち」が設定される。また、座標[3,0],[5,0],[5,6],[3,6]で表される閲覧机エリアでは、ユーザ20は主に座っているため、「座り」が設定される。FIG. 5 is an example of the detailed correspondence table 153 according to the present embodiment.
In the detailed correspondence table 153, a detailed area 531 that divides the place area 521 included in the place correspondence table 152 and a
図6は、本実施の形態に係る場所予定表154の例である。
場所予定表154には、場所領域における予定が設定されている。具体的には、「食堂では2019年3月29日の12:00から15:00まで立食パーティ」といった内容が設定されている。FIG. 6 is an example of the
In the
図7を用いて、本実施の形態に係る行動種別推定装置100の動作について説明する。 The operation of the action type estimation device 100 according to the present embodiment will be described with reference to FIG. 7.
<位置推定処理>
ステップS201において、位置推定部110は、屋内30におけるユーザ20の位置を推定する。ユーザ20の位置は、屋内30で設定されたローカルな座標系でもよいし、屋内30における位置を特定する名称でもよい。ユーザ20の位置は、屋内30における位置を特定することができればどのような情報でもよい。位置推定部110は、屋内30に複数設置された近距離無線通信用の屋内通信機22と、ユーザ20により携帯されている近距離無線通信用のユーザ通信機21との間で通信される信号31を取得し、取得した信号31からユーザ20の位置を推定する。
具体的には、屋内30に設置された複数の屋内通信機22が、ユーザ20により携帯されている近距離無線通信用のユーザ通信機21から発信された電波を受信することにより、ユーザ20の位置が推定される。屋内通信機22は、ユーザ通信機21から電波を受信する。そして、屋内通信機22は、受信した電波を信号31として位置推定部110に送信する。位置推定部110は、通信装置950を介して信号31を受信し、信号31に基づいて、ユーザ20の位置を推定する。
ステップS202において、位置推定部110は、ユーザ20の位置の取得が成功したか否かを判定する。成功した場合、処理はステップS203に進む。失敗した場合、処理はステップS201に戻る。<Position estimation processing>
In step S201, the
Specifically, a plurality of
In step S202, the
<行動推定処理>
ステップS203において、行動推定部120は、位置推定部110により取得されたユーザ20の位置と、記憶部150に記憶されている情報とに基づいて、ユーザ20の行動を推定する。記憶部150に記憶されている情報とは、場所対応表152、詳細対応表153、および場所予定表154の少なくともいずれかの情報である。<Behavior estimation processing>
In step S203, the
図8を用いて、本実施の形態に係る行動推定部120の動作について説明する。
ステップS301において、行動推定部120は、場所対応表152を取得し、場所対応表152からユーザ20の位置に合致する場所領域521に対応する場所行動種別522を取得する。行動推定部120は、取得した場所行動種別522に基づいてユーザ20の行動を推定する。このとき、行動推定部120は、場所対応表152がユーザごとに設定されていれば、ユーザ20に対応する場所対応表152を選択する。また、場所対応表152は、役職あるいは役割ごとに設定されていてもよい。その場合、行動推定部120は、個人情報151からユーザ20の役職あるいは役割を取得する。そして、行動推定部120は、ユーザ20の役職あるいは役割に対応する場所対応表152を選択する。The operation of the
In step S301, the
ステップS302において、行動推定部120は、場所対応表152に含まれる場所領域521を区分けした詳細領域531と、詳細領域531に対応する詳細行動種別532とが設定された詳細対応表153を取得する。行動推定部120は、詳細対応表153からユーザ20の位置に合致する詳細領域531に対応する詳細行動種別を取得する。行動推定部120は、ユーザ20の位置に合致する場所行動種別522とユーザ20の位置に合致する詳細行動種別532とに基づいて、ユーザ20の行動を推定する。
In step S302, the
ステップS303において、行動推定部120は、場所領域における予定が設定された場所予定表154を取得する。行動推定部120は、現在時刻と場所予定表154を用いて、場所行動種別522と詳細行動種別532と場所予定表154に設定された現在の予定とに基づいて、ユーザ20の行動を推定する。
In step S303, the
ステップS301からステップS302の処理は、具体的には以下の通りである。
行動推定部120は、場所行動種別522のみに基づいてユーザ20の行動を推定してもよい。廊下あるいはエレベータといった場所領域には、詳細対応表153は存在しない。このように、詳細対応表153および場所予定表154が存在しない場所領域の場合は、行動推定部120は、場所行動種別522のみに基づいてユーザ20の行動を推定する。例えば、ユーザ20が廊下にいる場合は「歩き」と推定され、エレベータにいる場合は「立ち」と推定される。Specifically, the processes from step S301 to step S302 are as follows.
The
また、行動推定部120は、ユーザ20の位置に合致する場所行動種別522とユーザ20の位置に合致する詳細行動種別532とに基づいて、ユーザ20の行動を推定する。例えば、位置推定部110が資料室のうち本棚の領域でユーザ20を検出した場合、場所行動種別522は「立ち」となり、詳細行動種別532は「座り」となる。このとき、行動推定部120は、詳細対応表153を優先して、ユーザ20の行動を「座り」と推定する。
Further, the
また、行動推定部120は、ユーザ20の位置に対応する場所について場所予定表154が存在する場合、場所予定表154を加味してユーザ20の行動を推定する。例えば、位置推定部110が、2019年3月29日の13:00に食堂のうち食卓の領域でユーザ20を検出した場合、場所行動種別522は「座り」となり、詳細行動種別532も「座り」となる。しかし、場所対応表153では、2019年3月29日の12:00から15:00まで食堂で立食パーティであるため、行動推定部120は場所予定表154を優先して、ユーザ20の行動を「立ち」と推定する。
なお、場所予定表154には、予定の内容に行動種別を対応付けて設定してもよい。あるいは、予定の内容と行動種別を対応付けた予定別行動種別といったテーブルが記憶部150に記憶されていてもよい。予定別行動種別には、例えば、立食パーティには「立ち」が対応付けられている。Further, when the
In addition, in the place schedule table 154, the action type may be set in association with the contents of the schedule. Alternatively, a table such as a schedule-specific action type in which the schedule content and the action type are associated with each other may be stored in the storage unit 150. For example, "standing" is associated with a standing party as an action type by schedule.
さらに、行動推定部120は、ユーザ20の行動種別の時間軸方向における遷移、あるいは、ユーザ20の位置の時間軸方向における遷移に基づいて、ユーザ20の行動を推定してもよい。
具体例として、行動推定部120は、ユーザ20の位置が5秒間で10m移動したため「早歩き」という行動をとったと推定することができる。あるいは、行動推定部120は、直前に「座る」という行動種別をとっていたため、「走る」という行動をとる可能性は低いと推定することができる。Further, the
As a specific example, it can be estimated that the
<行動履歴生成処理>
行動履歴生成部130は、ユーザ20の行動の推定結果を用いて、ユーザ20の行動の履歴を行動履歴情報155として生成する。具体的には、以下の通りである。
ステップS204において、行動履歴生成部130は、ユーザ20の行動の推定結果が、前回の行動と同一か否かを判定する。同一である、すなわちユーザ20の行動に変化がない場合、処理はステップS201に戻る。同一でない、すなわちユーザ20の行動に変化がある場合、処理はステップS205に進む。
ステップS205において、行動履歴生成部130は、行動履歴情報155に新たな行動と、新たな行動の開始時刻とを記録する。具体的には、行動履歴生成部130は、現在時刻を新たな行動の開始時刻として記録する。また、行動履歴生成部130は、現在時刻を終了した行動の終了時刻として記録してもよい。<Behavior history generation process>
The action
In step S204, the action
In step S205, the action
図9は、本実施の形態に係る行動履歴情報155の例である。
行動履歴情報155には、ユーザ20である社員ごとに、時間と、場所と、推定結果としての行動が設定される。行動履歴情報155の記録方式は、社員ごとの行動ごとに継続時間を集計して記録してもよい。その他、ユーザ20ごとに行動が記録できればどのような記録方式でもよい。FIG. 9 is an example of the
In the
***他の構成***
<変形例1>
本実施の形態では、位置推定部がビーコンによりユーザの位置を推定することを想定して説明した。しかし、屋内のユーザの位置を推定することができれば、ビーコン以外の位置推定方法でもよい。
例えば、位置推定部は、ACS(Access Control System)によるゲート通過の履歴情報を用いて、ユーザの位置を推定してもよい。また、位置推定部は、エレベータの機能を用いてユーザの位置を推定してもよい。具体的には、位置推定部は、エレベータの制御信号を用いる。あるいは、エレベータ内にビーコンの受信機を設置し、ユーザがエレベータのかご内にいることを特定できるようにしてもよい。また、位置推定部は、監視カメラによる人物特定機能を用いて、ユーザの位置を推定してもよい。
さらに、位置推定部は、ビーコン、ACS、エレベータ、および監視カメラを組み合わせることにより、ユーザの位置を推定してもよい。*** Other configurations ***
<Modification example 1>
In the present embodiment, the description has been made on the assumption that the position estimation unit estimates the user's position by the beacon. However, if the position of the user indoors can be estimated, a position estimation method other than the beacon may be used.
For example, the position estimation unit may estimate the user's position by using the history information of the gate passage by the ACS (Access Control System). Further, the position estimation unit may estimate the position of the user by using the function of the elevator. Specifically, the position estimation unit uses an elevator control signal. Alternatively, a beacon receiver may be installed in the elevator to identify the user in the elevator car. Further, the position estimation unit may estimate the position of the user by using the person identification function by the surveillance camera.
Further, the position estimation unit may estimate the user's position by combining a beacon, an ACS, an elevator, and a surveillance camera.
ここで、入退管理システムであるACSを用いた位置の推定について、説明する。ACSは、具体的には会社の構内あるいは特定の部屋に入室する際に、社員証などをかざすことで、ゲートあるいは扉を開錠させるセキュリティシステムの1つである。その際、個人が何時にその場所にいたのかのログが取られている。このログを利用することで、例えば「食堂退出、作業部屋入室」といったログから、「食堂、渡り廊下、作業部屋」といった位置を推定することができる。また、推定した位置を利用して、「座り作業、歩行、立ち作業」といった行動種別を推定することができる。また、ACS間のログの時刻から移動スピードも算出可能である。 Here, the position estimation using the ACS, which is an entry / exit management system, will be described. Specifically, ACS is one of the security systems that unlocks the gate or door by holding an employee ID card or the like when entering a company premises or a specific room. At that time, a log is taken of what time the individual was at the place. By using this log, for example, the position of "dining room, crossing corridor, working room" can be estimated from the log such as "leaving the dining room, entering the work room". In addition, the estimated position can be used to estimate an action type such as "sitting work, walking, standing work". In addition, the movement speed can be calculated from the time of the log between ACSs.
<変形例2>
本実施の形態では、屋内に複数設置された近距離無線通信用の屋内通信機を受信機とし、ユーザにより携帯されている近距離無線通信用のユーザ通信機をビーコンの発信機として、位置推定部がユーザの位置を推定する。しかし、屋内に複数設置された近距離無線通信用の屋内通信機を発信機とし、ユーザにより携帯されている近距離無線通信用のユーザ通信機を受信機としてもよい。位置推定部は、屋内通信機から発信され、ユーザ通信機により受信された信号を、ユーザ通信機から取得し、ユーザの位置を推定してもよい。このとき、ユーザ通信機の具体例は、スマートフォン端末あるいはタブレット端末といった携帯端末である。<Modification 2>
In the present embodiment, a plurality of indoor communication devices for short-range wireless communication installed indoors are used as receivers, and a user communication device for short-range wireless communication carried by the user is used as a beacon transmitter for position estimation. The department estimates the user's position. However, a plurality of indoor communication devices for short-range wireless communication installed indoors may be used as a transmitter, and a user communication device for short-range wireless communication carried by the user may be used as a receiver. The position estimation unit may estimate the position of the user by acquiring the signal transmitted from the indoor communication device and received by the user communication device from the user communication device. At this time, a specific example of the user communication device is a mobile terminal such as a smartphone terminal or a tablet terminal.
<変形例3>
本実施の形態では、ユーザごとの場所対応表がない場合、行動推定部は個人情報からユーザの役職あるいは役割を取得し、役職あるいは役割に対応する場所対応表を選択する。個人情報が無い場合は、役職あるいは役割といった属性のテーブルを参照し、ユーザ20の役職あるいは役割を取得してもよい。<Modification example 3>
In the present embodiment, when there is no location correspondence table for each user, the behavior estimation unit acquires the user's job title or role from the personal information and selects the location correspondence table corresponding to the job title or role. If there is no personal information, the job title or role of the
<変形例4>
本実施の形態では、情報更新部は、ユーザからの更新要求を受け、場所対応表あるいは詳細対応表といった情報を更新する。しかし、行動種別推定装置において、屋内の各ユーザの位置ごとの活動記録を収集し学習することで、場所対応表あるいは詳細対応表を自動的に作成あるいは更新してもよい。<Modification example 4>
In the present embodiment, the information update unit receives an update request from the user and updates information such as a location correspondence table or a detailed correspondence table. However, the action type estimation device may automatically create or update the location correspondence table or the detailed correspondence table by collecting and learning the activity record for each position of each user indoors.
<変形例5>
行動推定部に以下のような機能を持たせ、ユーザの行動の推定精度を向上させてもよい。
(1)移動開始時と移動終了時の位置は判明しているが、移動中の位置が不明である場合がある。このような場合は、行動推定部は、エレベータの運行履歴情報、および、ACSによるゲート通過の履歴情報といったビル側が取得できる情報と、移動時間とを用いて、移動中の位置を推定する。そして、行動推定部は、推定位置を用いて場所対応表、詳細対応表、あるいは場所予定表を選択し、行動を推定する。
(2)ユーザが自己の座席付近で停止している場合は、座っている可能性が高い。一方、他人の座席付近で停止している場合は、立っている可能性が高い。よって、ユーザが自己の座席付近で停止している場合は、「座り」と推定する。また、ユーザが他人の座席付近で停止している場合は、「立ち」と推定する。
(3)位置情報が一定時間以上不明な場合、行動推定部は、その日の行動履歴が似ている人物を抽出し、ユーザがその人物と同様の行動をとっているとして、行動を推定する。
(4)行動推定部は、時期、曜日、出勤時間および退社時間、ならびに、前日および翌日の予定といった情報を加味して、ユーザの行動を推定する。時期の例として、期末あるいは入社直後は通常とは異なる場所対応表および詳細対応表が設定される。曜日の例として、曜日固定の予定がある場合は、予定に応じた場所対応表および詳細対応表が設定される。出勤時間および退社時間の例として、行動推定部は、遅刻時早退時は普段と行動が変わることを加味する。前日および翌日の予定の例として、翌日にプレゼンテーションの予定がある場合、行動推定部は、前日の会議ではプレゼンテーションの予行練習を会議室で立って行っていると推定する。
(5)行動推定部は、ユーザが階段を移動中の場合、階段の前後の滞在フロアを識別することにより、階段を上っているか下っているかを推定する。<Modification 5>
The behavior estimation unit may be provided with the following functions to improve the estimation accuracy of the user's behavior.
(1) Although the positions at the start and end of the movement are known, the moving position may be unknown. In such a case, the behavior estimation unit estimates the moving position by using the information that can be acquired by the building side such as the operation history information of the elevator and the history information of passing through the gate by ACS, and the moving time. Then, the behavior estimation unit selects a location correspondence table, a detailed correspondence table, or a location schedule using the estimated position, and estimates the behavior.
(2) If the user is stopped near his / her seat, it is highly likely that he / she is sitting. On the other hand, if you are stopped near someone else's seat, you are likely to be standing. Therefore, when the user is stopped near his / her seat, it is presumed to be “sitting”. If the user is stopped near another person's seat, it is presumed to be "standing".
(3) When the position information is unknown for a certain period of time or more, the behavior estimation unit extracts a person having a similar behavior history on that day, and estimates the behavior assuming that the user is taking the same behavior as that person.
(4) The behavior estimation unit estimates the user's behavior by adding information such as the time, the day of the week, the commuting time and the leaving time, and the schedule of the previous day and the next day. As an example of the timing, a place correspondence table and a detailed correspondence table different from the usual ones are set at the end of the term or immediately after joining the company. As an example of the day of the week, if there is a schedule with a fixed day of the week, a location correspondence table and a detailed correspondence table are set according to the schedule. As an example of commuting time and leaving time, the behavior estimation department takes into account that behavior changes normally when late or early leaving. As an example of the schedule of the previous day and the next day, if the presentation is scheduled for the next day, the behavior estimation department presumes that the rehearsal of the presentation is performed standing in the meeting room at the meeting of the previous day.
(5) When the user is moving on the stairs, the behavior estimation unit estimates whether the user is going up or down the stairs by identifying the floors before and after the stairs.
<変形例6>
本実施の形態では、位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の機能がソフトウェアで実現される。変形例として、位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の機能がハードウェアで実現されてもよい。<Modification 6>
In the present embodiment, the functions of the
図10は、本実施の形態の変形例に係る行動種別推定システム500の構成を示す図である。
行動種別推定装置100は、電子回路909、メモリ921、補助記憶装置922、入力インタフェース930、および出力インタフェース940を備える。FIG. 10 is a diagram showing a configuration of an action type estimation system 500 according to a modified example of the present embodiment.
The action type estimation device 100 includes an electronic circuit 909, a memory 921, an
電子回路909は、位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の機能を実現する専用の電子回路である。
電子回路909は、具体的には、単一回路、複合回路、プログラム化したプロセッサ、並列プログラム化したプロセッサ、ロジックIC、GA、ASIC、または、FPGAである。GAは、Gate Arrayの略語である。ASICは、Application Specific Integrated Circuitの略語である。FPGAは、Field−Programmable Gate Arrayの略語である。
位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の機能は、1つの電子回路で実現されてもよいし、複数の電子回路に分散して実現されてもよい。
別の変形例として、位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の一部の機能が電子回路で実現され、残りの機能がソフトウェアで実現されてもよい。The electronic circuit 909 is a dedicated electronic circuit that realizes the functions of the
The electronic circuit 909 is specifically a single circuit, a composite circuit, a programmed processor, a parallel programmed processor, a logic IC, a GA, an ASIC, or an FPGA. GA is an abbreviation for Gate Array. ASIC is an abbreviation for Application Special Integrated Circuit. FPGA is an abbreviation for Field-Programmable Gate Array.
The functions of the
As another modification, some functions of the
プロセッサと電子回路の各々は、プロセッシングサーキットリとも呼ばれる。つまり、行動種別推定装置100において、位置推定部110と行動推定部120と行動履歴生成部130と情報更新部140の機能は、プロセッシングサーキットリにより実現される。
Each of the processor and the electronic circuit is also called a processing circuit. That is, in the action type estimation device 100, the functions of the
***本実施の形態の効果の説明***
本実施の形態に係る行動種別推定システムでは、屋内における位置と行動種別とを紐づけた場所対応表および詳細対応表を用いて、屋内におけるユーザの位置のみからユーザの行動種別を推定する。よって、本実施の形態に係る行動種別推定システムによれば、加速度計といった動きセンサを用いずに行動を推定することができる。また、ユーザがウェアラブル端末を身に着ける負担を減らすことができる。また、通常の入退管理といった屋内人位置測位を流用することで、サービス提供側の情報収集が容易になり、さらにコスト面での負担を減らすことができる。*** Explanation of the effect of this embodiment ***
In the action type estimation system according to the present embodiment, the user's action type is estimated only from the position of the user indoors by using the location correspondence table and the detailed correspondence table in which the indoor position and the action type are linked. Therefore, according to the behavior type estimation system according to the present embodiment, the behavior can be estimated without using a motion sensor such as an accelerometer. In addition, the burden on the user to wear the wearable terminal can be reduced. In addition, by diverting indoor person positioning such as normal entry / exit management, it becomes easier to collect information on the service provider side, and the cost burden can be further reduced.
本実施の形態に係る行動種別推定システムでは、場所対応表、詳細対応表、および場所予定表といった情報を複数備え、ユーザの個人情報、場所、あるいは時間帯によって、適切な情報を選択して参照する。よって、本実施の形態に係る行動種別推定システムによれば、ユーザの行動の推定精度を向上させることができる。 The action type estimation system according to the present embodiment includes a plurality of information such as a location correspondence table, a detailed correspondence table, and a location schedule, and selects and refers to appropriate information according to the user's personal information, location, or time zone. do. Therefore, according to the behavior type estimation system according to the present embodiment, it is possible to improve the estimation accuracy of the user's behavior.
本実施の形態に係る行動種別推定システムでは、ウェアラブル端末といった比較的高コストな機器よりも低コストであるビーコンといった機器を持たせることで、ビル利用者の行動を推定でき、活動量を判定に役立てることができる。加速度センサのみでは階段の上りか下りかの識別精度を向上させることは困難である。スマートフォンでは、気圧センサを併用して階段を上っているか下っているかを判定していることが多い。本実施の形態に係る行動種別推定システムでは、ビーコンといった機器の精度でも、階段の前後の滞在フロアを識別できれば、判定することが可能となる。 In the behavior type estimation system according to the present embodiment, the behavior of a building user can be estimated and the amount of activity can be determined by having a device such as a beacon, which has a lower cost than a relatively high cost device such as a wearable terminal. Can be useful. It is difficult to improve the accuracy of distinguishing between climbing and descending stairs using only the accelerometer. Smartphones often use barometric pressure sensors to determine whether they are climbing or descending stairs. In the action type estimation system according to the present embodiment, even with the accuracy of a device such as a beacon, if the stay floors before and after the stairs can be identified, it is possible to determine.
実施の形態2.
本実施の形態では、主に、実施の形態1と異なる点について説明する。なお、実施の形態1と同様の構成には同一の符号を付し、その説明を省略する場合がある。Embodiment 2.
In this embodiment, the points different from those in the first embodiment will be mainly described. The same reference numerals may be given to the same configurations as those in the first embodiment, and the description thereof may be omitted.
***構成の説明***
図11を用いて、本実施の形態に係る行動種別推定装置100aの構成について説明する。本実施の形態に係る行動種別推定装置100aは、実施の形態1の行動種別推定装置100の構成に加え、ユーザ予定表156を備える。*** Explanation of configuration ***
The configuration of the action type estimation device 100a according to the present embodiment will be described with reference to FIG. The action type estimation device 100a according to the present embodiment includes a
図12は、本実施の形態に係るユーザ予定表156の例を示す図である。
ユーザ予定表156には、ユーザ20の作業予定564として日時561と場所562と作業内容563とが設定されている。作業予定564とは、ユーザ20の1日のスケジュールであり、日時561と場所562と作業内容563とから構成される。また、ユーザ予定表156には、ユーザ20を識別する社員番号および社員名が設定される。さらに、ユーザ予定表156には、作業内容563に対応する行動種別が設定されていてもよい。
本実施の形態では、個人情報151とユーザ予定表156が別の情報として記載されているが、個人情報151とユーザ予定表156を1つの情報として構成してもよい。FIG. 12 is a diagram showing an example of the
In the
In the present embodiment, the
なお、情報更新部140は、ユーザ予定表156についても、ユーザからの更新要求に基づき更新する。すなわち、情報更新部140は、場所対応表152と詳細対応表153と場所予定表154とユーザ予定表156との少なくともいずれかを更新する。
The
***動作の説明***
図13を用いて、本実施の形態に係る行動推定部120の動作について説明する。
ステップS301aにおいて、行動推定部120は、ユーザ予定表156を取得する。具体的には、行動推定部120は、ユーザ20に対応するユーザ予定表156を選択する。
ステップS301bにおいて、行動推定部120は、現在時刻とユーザ20の位置とユーザ予定表156とを用いて、ユーザ20が作業内容563に合致した場所にいるか否かを判定する。ユーザ20が作業内容563に合致した場所にいると判定すると、ステップS301cに進む。*** Explanation of operation ***
The operation of the
In step S301a, the
In step S301b, the
ユーザ20が作業内容563に合致した場所にいないと判定すると、ステップS301に進む。ステップS301では、行動推定部120は、場所対応表152におけるユーザ20の位置に合致する場所領域521に対応する場所行動種別522に基づいてユーザ20の行動を推定する。なお、ステップS301からステップS303の処理は実施の形態1と同様である。
If it is determined that the
ステップS301cにおいて、行動推定部120は、ユーザ20の作業予定に合致した作業内容563に基づいてユーザ20の行動を推定する。具体的には、現在時刻が2019年3月29日の9:30であり、ユーザ20の位置が会議室Aであることを取得する。行動推定部120は、ユーザ予定表156から、ユーザ20はプレゼンテーション中であると判定し、ユーザ20の行動を「立ち」と推定する。
In step S301c, the
***本実施の形態の効果の説明***
本実施の形態に係る行動種別推定システムでは、ユーザの位置がユーザ予定表に合致するものであれば、ユーザ予定表から直接、ユーザの行動を推定する。よって、処理をより簡単にすることができる。また、ユーザ予定表をより詳細に特定することにより、座って聞いている、あるいは、前に立って話をしているというように、より推定精度が高くなる。また、予定している場所にいない場合には、実施の形態1で説明した方法により高精度に行動を推定できる。*** Explanation of the effect of this embodiment ***
In the action type estimation system according to the present embodiment, if the user's position matches the user's calendar, the user's behavior is estimated directly from the user's calendar. Therefore, the process can be simplified. In addition, by specifying the user calendar in more detail, the estimation accuracy becomes higher, such as sitting and listening or standing in front of the user. In addition, when the user is not at the planned location, the behavior can be estimated with high accuracy by the method described in the first embodiment.
実施の形態3.
本実施の形態では、主に、実施の形態1と異なる点について説明する。なお、実施の形態1と同様の構成には同一の符号を付し、その説明を省略する場合がある。Embodiment 3.
In this embodiment, the points different from those in the first embodiment will be mainly described. The same reference numerals may be given to the same configurations as those in the first embodiment, and the description thereof may be omitted.
***構成の説明***
本実施の形態に係る行動種別推定装置の構成は、実施の形態1の行動種別推定装置100の構成と同様である。
ユーザの行動種別は、ユーザの運動の種別を含む。実施の形態1で説明したように、ユーザの行動種別は、立ち、座り、歩き、走り、あるいは、早歩きといった運動の種別である。
本実施の形態では、行動履歴生成部130は、ユーザの行動種別に基づいて、ユーザの運動量を算出する。*** Explanation of configuration ***
The configuration of the action type estimation device according to the present embodiment is the same as the configuration of the action type estimation device 100 according to the first embodiment.
The user's action type includes the type of the user's exercise. As described in the first embodiment, the action type of the user is a type of exercise such as standing, sitting, walking, running, or fast walking.
In the present embodiment, the action
***動作の説明***
図14は、本実施の形態に係る行動種別推定装置100の動作を示すフロー図である。図14は、実施の形態1の図7に対応する図である。図14において図7と異なる点は、ステップS204aが追加された点とステップS205がステップS205aとなった点である。*** Explanation of operation ***
FIG. 14 is a flow chart showing the operation of the action type estimation device 100 according to the present embodiment. FIG. 14 is a diagram corresponding to FIG. 7 of the first embodiment. The difference from FIG. 7 in FIG. 14 is that step S204a is added and step S205 becomes step S205a.
ステップS204において、行動履歴生成部130は、ユーザ20の行動の推定結果が、前回の行動と同一か否かを判定する。同一でない、すなわちユーザ20の行動に変化がある場合、処理はステップS204aに進む。
ステップS204aにおいて、行動履歴生成部130は、ユーザの行動種別に基づいて、ユーザの運動量を算出する。具体的には、行動履歴生成部130は、終了したユーザ20の行動における消費カロリーを運動量として算出する。消費カロリーの算出方法としては、行動種別ごとに予め設定されている係数、例えばMETS(Metabolic equivalents)値を用いて消費カロリーを算出する方法がある。行動履歴生成部130は、終了した行動の種別に対応するMETS値に、ユーザの体重と、その行動種別の継続時間とを掛け合わせることで、消費カロリーを算出する。行動種別の継続時間は、終了した行動の種別の開始時刻から現在時刻までの時間として算出される。In step S204, the action
In step S204a, the action
ステップS205aにおいて、行動履歴生成部130は、行動履歴情報155に新たな行動と、新たな行動の開始時刻とを記録するとともに、終了した行動における消費カロリーを記録する。
In step S205a, the action
図15は、本実施の形態に係る行動履歴情報155aの例を示す図である。
図15に示すように、行動履歴情報155aには、各行動に対応する消費カロリーが運動量として記憶されている。また、行動履歴情報155aには、運動量を累積した運動量累積値が記録されていてもよい。FIG. 15 is a diagram showing an example of the action history information 155a according to the present embodiment.
As shown in FIG. 15, in the action history information 155a, the calorie consumption corresponding to each action is stored as the amount of exercise. In addition, the action history information 155a may record a cumulative value of the accumulated amount of exercise.
以上の実施の形態1から2では、行動種別推定装置の各部を独立した機能ブロックとして説明した。しかし、行動種別推定装置の構成は、上述した実施の形態のような構成でなくてもよい。行動種別推定装置の機能ブロックは、上述した実施の形態で説明した機能を実現することができれば、どのような構成でもよい。また、行動種別推定装置は、1つの装置でなく、複数の装置から構成されたシステムでもよい。
また、実施の形態1から2のうち、複数の部分を組み合わせて実施しても構わない。あるいは、これらの実施の形態のうち、1つの部分を実施しても構わない。その他、これら実施の形態を、全体としてあるいは部分的に、どのように組み合わせて実施しても構わない。
すなわち、実施の形態1から2では、各実施の形態の自由な組み合わせ、あるいは各実施の形態の任意の構成要素の変形、もしくは各実施の形態において任意の構成要素の省略が可能である。In the above-described first and second embodiments, each part of the action type estimation device has been described as an independent functional block. However, the configuration of the action type estimation device does not have to be the configuration as in the above-described embodiment. The functional block of the action type estimation device may have any configuration as long as the functions described in the above-described embodiment can be realized. Further, the action type estimation device may be a system composed of a plurality of devices instead of one device.
Further, in the first and second embodiments, a plurality of parts may be combined and carried out. Alternatively, one part of these embodiments may be implemented. In addition, these embodiments may be implemented in any combination as a whole or partially.
That is, in the first and second embodiments, it is possible to freely combine the embodiments, modify any component of each embodiment, or omit any component in each embodiment.
なお、上述した実施の形態は、本質的に好ましい例示であって、本発明の範囲、本発明の適用物の範囲、および本発明の用途の範囲を制限することを意図するものではない。上述した実施の形態は、必要に応じて種々の変更が可能である。 It should be noted that the embodiments described above are essentially preferred examples and are not intended to limit the scope of the invention, the scope of application of the invention, and the scope of use of the invention. The above-described embodiment can be modified in various ways as needed.
20 ユーザ、21 ユーザ通信機、22 屋内通信機、23 個人用端末、30 屋内、31 信号、100,100a 行動種別推定装置、110 位置推定部、120 行動推定部、130 行動履歴生成部、140 情報更新部、150 記憶部、151 個人情報、152 場所対応表、153 詳細対応表、154 場所予定表、155,155a 行動履歴情報、156 ユーザ予定表、561 日時、562 場所、563 作業内容、564 作業予定、500 行動種別推定システム、521 場所領域、522 場所行動種別、531 詳細領域、532 詳細行動種別、909 電子回路、910 プロセッサ、921 メモリ、922 補助記憶装置、930 入力インタフェース、940 出力インタフェース、950 通信装置。 20 users, 21 user communication devices, 22 indoor communication devices, 23 personal terminals, 30 indoors, 31 signals, 100, 100a action type estimation device, 110 position estimation unit, 120 action estimation unit, 130 action history generation unit, 140 information Update part, 150 storage part, 151 personal information, 152 place correspondence table, 153 detailed correspondence table, 154 place schedule, 155, 155a action history information, 156 user schedule, 561 date and time, 562 places, 563 work contents, 564 work Schedule, 500 Action Type Estimate System, 521 Location Area, 522 Location Action Type, 53 1 Detail Area, 532 Detailed Action Type, 909 Electronic Circuit, 910 Processor, 921 Memory, 922 Auxiliary Storage, 930 Input Interface, 940 Output Interface, 950 Communication device.
Claims (11)
前記屋内における場所を表す場所領域と前記屋内における場所領域での前記ユーザの行動種別である場所行動種別とが設定された場所対応表を取得し、前記場所対応表から前記ユーザの位置に合致する場所領域に対応する場所行動種別を取得し、取得した場所行動種別に基づいて前記ユーザの行動を推定する行動推定部と、
前記ユーザの行動の推定結果を用いて、前記ユーザの行動の履歴を行動履歴情報として生成する行動履歴生成部と
を備えた行動種別推定装置。A position estimation unit that estimates the user's position indoors,
A place correspondence table in which a place area representing a place indoors and a place action type which is an action type of the user in the place area in the room is set is acquired, and matches the position of the user from the place correspondence table. An action estimation unit that acquires a place action type corresponding to a place area and estimates the user's action based on the acquired place action type.
An action type estimation device including an action history generation unit that generates an action history of the user as action history information using the action estimation result of the user.
前記屋内に複数設置された近距離無線通信用の屋内通信機と、前記ユーザにより携帯されている近距離無線通信用のユーザ通信機との間で通信される信号を取得し、取得した信号から前記ユーザの位置を推定する請求項1に記載の行動種別推定装置。The position estimation unit
A signal to be communicated between a plurality of indoor communication devices for short-range wireless communication installed indoors and a user communication device for short-range wireless communication carried by the user is acquired, and from the acquired signal. The action type estimation device according to claim 1, wherein the position of the user is estimated.
前記場所対応表に含まれる場所領域を区分けした詳細領域と、前記詳細領域に対応する行動種別である詳細行動種別とが設定された詳細対応表を取得し、前記詳細対応表から前記ユーザの位置に合致する詳細領域に対応する詳細行動種別を取得し、前記ユーザの位置に合致する前記場所行動種別と前記ユーザの位置に合致する前記詳細行動種別とに基づいて、前記ユーザの行動を推定する請求項1または請求項2に記載の行動種別推定装置。The behavior estimation unit
A detailed correspondence table in which a detailed area in which the location area included in the location correspondence table is divided and a detailed action type which is an action type corresponding to the detailed area are set is acquired, and the position of the user is obtained from the detailed correspondence table. The detailed action type corresponding to the detailed area corresponding to is acquired, and the action of the user is estimated based on the place action type matching the user's position and the detailed action type matching the user's position. The behavior type estimation device according to claim 1 or 2.
前記場所領域における予定が設定された場所予定表を取得し、現在時刻と前記場所予定表を用いて、前記場所行動種別と前記詳細行動種別と前記場所予定表に設定された現在の予定とに基づいて、前記ユーザの行動を推定する請求項3に記載の行動種別推定装置。The behavior estimation unit
The place schedule in which the schedule is set in the place area is acquired, and the current time and the place schedule are used to set the place action type, the detailed action type, and the current schedule set in the place schedule. The behavior type estimation device according to claim 3, which estimates the behavior of the user based on the behavior.
前記ユーザの作業予定として日時と場所と作業内容とが設定されたユーザ予定表を取得し、現在時刻と前記ユーザの位置と前記ユーザ予定表とを用いて、前記ユーザが前記作業予定に合致した場所にいるか否かを判定し、前記ユーザが前記作業予定に合致した場所にいると判定すると、前記ユーザの作業予定に合致した作業内容に基づいて前記ユーザの行動を推定する請求項3または請求項4に記載の行動種別推定装置。The behavior estimation unit
A user schedule in which a date and time, a place, and a work content are set as a work schedule of the user is acquired, and the user matches the work schedule by using the current time, the position of the user, and the user schedule. Claim 3 or claim that, when it is determined whether or not the user is in a place and the user is in a place that matches the work schedule, the behavior of the user is estimated based on the work content that matches the work schedule of the user. Item 4. The action type estimation device according to item 4.
前記ユーザが前記作業予定に合致した場所にいないと判定すると、前記場所対応表における前記ユーザの位置に合致する場所領域に対応する場所行動種別に基づいて前記ユーザの行動を推定する請求項5に記載の行動種別推定装置。The behavior estimation unit
According to claim 5, when it is determined that the user is not in a place matching the work schedule, the user's behavior is estimated based on the place action type corresponding to the place area corresponding to the user's position in the place correspondence table. The described behavior type estimation device.
前記場所対応表と前記詳細対応表と場所予定表とユーザ予定表との少なくともいずれかを更新する情報更新部を備えた請求項6に記載の行動種別推定装置。The action type estimation device is
The action type estimation device according to claim 6, further comprising an information updating unit that updates at least one of the location correspondence table, the detailed correspondence table, the location schedule, and the user schedule.
前記ユーザの行動種別の時間軸方向における遷移、あるいは、前記ユーザの位置の時間軸方向における遷移に基づいて、前記ユーザの行動を推定する請求項1から請求項7のいずれか1項に記載の行動種別推定装置。The behavior estimation unit
The method according to any one of claims 1 to 7, wherein the user's behavior is estimated based on the transition of the user's behavior type in the time axis direction or the transition of the user's position in the time axis direction. Behavior type estimation device.
前記行動履歴生成部は、前記ユーザの行動種別に基づいて前記ユーザの運動量を算出する請求項1から請求項8のいずれか1項に記載の行動種別推定装置。The user's action type includes the type of the user's exercise.
The action type estimation device according to any one of claims 1 to 8, wherein the action history generation unit calculates the amount of exercise of the user based on the action type of the user.
行動推定部が、前記屋内における場所を表す場所領域と前記屋内における場所領域での前記ユーザの行動種別である場所行動種別とが設定された場所対応表を取得し、前記場所対応表から前記ユーザの位置に合致する場所領域に対応する場所行動種別を取得し、取得した場所行動種別に基づいて前記ユーザの行動を推定し、
行動履歴生成部が、前記ユーザの行動の推定結果を用いて、前記ユーザの行動の履歴を行動履歴情報として生成する行動種別推定方法。The position estimater estimates the user's position indoors and
The action estimation unit acquires a place correspondence table in which a place area representing the indoor place and a place action type which is the action type of the user in the indoor place area are set, and the user from the place correspondence table. The place action type corresponding to the place area corresponding to the position of is acquired, and the behavior of the user is estimated based on the acquired place action type.
An action type estimation method in which the action history generation unit uses the user's action estimation result to generate the user's action history as action history information.
前記屋内における場所を表す場所領域と前記屋内における場所領域での前記ユーザの行動種別である場所行動種別とが設定された場所対応表を取得し、前記場所対応表から前記ユーザの位置に合致する場所領域に対応する場所行動種別を取得し、取得した場所行動種別に基づいて前記ユーザの行動を推定する行動推定処理と、
前記ユーザの行動の推定結果を用いて、前記ユーザの行動の履歴を行動履歴情報として生成する行動履歴生成処理と
をコンピュータに実行させる行動種別推定プログラム。Position estimation processing that estimates the user's position indoors,
A place correspondence table in which a place area representing a place indoors and a place action type which is an action type of the user in the place area in the room is set is acquired, and matches the position of the user from the place correspondence table. An action estimation process that acquires a place action type corresponding to a place area and estimates the user's action based on the acquired place action type.
An action type estimation program that causes a computer to execute an action history generation process that generates an action history of the user as action history information using the user's action estimation result.
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/JP2019/027340 WO2021005750A1 (en) | 2019-07-10 | 2019-07-10 | Behavior type estimation device, behavior type estimation method, and behavior type estimation program |
Publications (1)
Publication Number | Publication Date |
---|---|
JPWO2021005750A1 true JPWO2021005750A1 (en) | 2021-09-13 |
Family
ID=74114133
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020510616A Pending JPWO2021005750A1 (en) | 2019-07-10 | 2019-07-10 | Behavior type estimation device, behavior type estimation method, and behavior type estimation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JPWO2021005750A1 (en) |
WO (1) | WO2021005750A1 (en) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011108245A (en) * | 2009-11-20 | 2011-06-02 | Palo Alto Research Center Inc | Program for generating inference model to determine activity type to user from contextual information |
JP2014018570A (en) * | 2012-07-23 | 2014-02-03 | Takenaka Komuten Co Ltd | Health management system and program |
JP2014056410A (en) * | 2012-09-12 | 2014-03-27 | Ricoh Co Ltd | Information processing device, action management system, and action management method |
WO2017073421A1 (en) * | 2015-10-30 | 2017-05-04 | 日本ビジネスシステムズ株式会社 | Information presentation system, program, and information presentation method |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2008090444A (en) * | 2006-09-29 | 2008-04-17 | Fujitsu Access Ltd | Behavior display system |
JP6591258B2 (en) * | 2015-11-05 | 2019-10-16 | 株式会社Nttドコモ | Extraction device |
JP2018032294A (en) * | 2016-08-26 | 2018-03-01 | 株式会社野村総合研究所 | Communication support system, communication support method, computer program, and location confirmation method |
-
2019
- 2019-07-10 WO PCT/JP2019/027340 patent/WO2021005750A1/en active Application Filing
- 2019-07-10 JP JP2020510616A patent/JPWO2021005750A1/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011108245A (en) * | 2009-11-20 | 2011-06-02 | Palo Alto Research Center Inc | Program for generating inference model to determine activity type to user from contextual information |
JP2014018570A (en) * | 2012-07-23 | 2014-02-03 | Takenaka Komuten Co Ltd | Health management system and program |
JP2014056410A (en) * | 2012-09-12 | 2014-03-27 | Ricoh Co Ltd | Information processing device, action management system, and action management method |
WO2017073421A1 (en) * | 2015-10-30 | 2017-05-04 | 日本ビジネスシステムズ株式会社 | Information presentation system, program, and information presentation method |
Also Published As
Publication number | Publication date |
---|---|
WO2021005750A1 (en) | 2021-01-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11689285B2 (en) | Systems and methods for providing geolocation services in a mobile-based crowdsourcing platform | |
US9740773B2 (en) | Context labels for data clusters | |
CN105190233B (en) | Position determines that processing unit, position determine that processing method, position determine processing routine, portable information processor, mobile message processing method, mobile message processing routine and storage medium | |
US20170142589A1 (en) | Method for adjusting usage policy and electronic device for supporting the same | |
CN110710190B (en) | Method, terminal, electronic device and computer-readable storage medium for generating user portrait | |
JP2018067328A (en) | Method and system for communication in predetermined location | |
CN106537946A (en) | Scoring beacon messages for mobile device wake-up | |
US10327102B2 (en) | Mobile device proximity notification | |
CN104217096A (en) | Method and system for creating and refining rules for personalized content delivery based on users physical activites | |
CN107548568A (en) | The system and method that context for functions of the equipments is found | |
CN111247782B (en) | Method and system for automatically creating instant AD-HOC calendar events | |
WO2021175198A1 (en) | Method for invoking nfc applications, electronic device, and nfc apparatus | |
CN103348375B (en) | Terminal control mechanism | |
WO2014143515A1 (en) | Application-controlled granularity for power-efficient classification | |
WO2015190141A1 (en) | Information processing device, information processing method, and program | |
WO2021005750A1 (en) | Behavior type estimation device, behavior type estimation method, and behavior type estimation program | |
JP2016157384A (en) | Congestion estimation apparatus and congestion estimation method | |
KR102421076B1 (en) | Device for matching users of shared real estate | |
CN105786174B (en) | Method and system for transmitting signals between electronic devices | |
US10275494B2 (en) | Electronic device and method for providing data | |
JP6814778B2 (en) | Employee position movement display system, employee position movement display method and employee position movement display program | |
Kreuter et al. | Data collection with apps, sensors, and wearables | |
JP5949000B2 (en) | Information processing apparatus and information processing program | |
US20220129859A1 (en) | Information processing device, information processing method, and program | |
KR20230149763A (en) | Method and apparatus for providing agency service by apartment complex |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200220 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200220 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20200220 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20200520 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200616 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200814 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210114 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210413 |