JP2018010620A - Electronic apparatus, selection control system, selection method, and program - Google Patents

Electronic apparatus, selection control system, selection method, and program Download PDF

Info

Publication number
JP2018010620A
JP2018010620A JP2017094317A JP2017094317A JP2018010620A JP 2018010620 A JP2018010620 A JP 2018010620A JP 2017094317 A JP2017094317 A JP 2017094317A JP 2017094317 A JP2017094317 A JP 2017094317A JP 2018010620 A JP2018010620 A JP 2018010620A
Authority
JP
Japan
Prior art keywords
sensor information
electronic device
sensor
types
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017094317A
Other languages
Japanese (ja)
Other versions
JP6642515B2 (en
Inventor
中村 優
Yu Nakamura
優 中村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to CN201710505561.0A priority Critical patent/CN107580292B/en
Priority to US15/639,644 priority patent/US10574756B2/en
Publication of JP2018010620A publication Critical patent/JP2018010620A/en
Application granted granted Critical
Publication of JP6642515B2 publication Critical patent/JP6642515B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Telephone Function (AREA)
  • Telephonic Communication Services (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To easily acquire necessary information according to a behavior state of a user.SOLUTION: The electronic apparatus comprises: a sensor unit 16 which acquires a plurality of types of sensor information; a behavior state determination unit 51 which determines a behavior state of a target person; a notification control unit 53 which, on the basis of a determination result by the behavior state determination unit 51, selects sensor information corresponding to the determination result from among a plurality of types of sensors as sensor information for notifying a user; and an output unit 18. The behavior state determination unit 53 determines a behavior state of the user on the basis of sensor information such as biological information and external environment information obtained by the sensor unit 16. The notification control unit 53 controls the electronic apparatus so as to notify the user of the sensor information corresponding to the behavior state of the user determined by the behavior state determination unit 51 through the output unit 18.SELECTED DRAWING: Figure 5

Description

本発明は、電子機器、選択制御システム、選択方法、及びプログラムに関する。   The present invention relates to an electronic device, a selection control system, a selection method, and a program.

従来、複数のセンサを具備し、ユーザの活動量を計測する装置がある。例えば、特許文献1に記載された技術のように、複数のセンサを備える携帯電話機においてユーザの歩数や移動距離を取得し、ユーザに報知する技術がある。   Conventionally, there is a device that includes a plurality of sensors and measures the amount of activity of a user. For example, as in the technique described in Patent Document 1, there is a technique for acquiring the number of steps and the moving distance of a user in a mobile phone including a plurality of sensors and notifying the user.

特開2009−88989号公報JP 2009-88989 A

しかし、近年の携帯端末やタブレットの高機能化に伴うセンサの種類の増加により、ユーザは所望のセンサ情報を確認する際に、都度センサの選択操作を行う必要があり、その選択操作に非常に手間がかかっていた。   However, due to the increase in the types of sensors accompanying the recent enhancement of functions of mobile terminals and tablets, it is necessary for the user to perform sensor selection operations each time when confirming desired sensor information. It took time and effort.

本発明は係る問題に鑑みてなされたものであり、ユーザが手間なく、所望のセンサ情報を確認出来ることを目的とする。   The present invention has been made in view of such problems, and an object thereof is to enable a user to confirm desired sensor information without trouble.

上記の課題を解決するために本発明の実施例に係る電子機器は、複数種のセンサ情報を取得する取得手段と、前記取得手段で取得したセンサ情報から対象者の行動状態を判定する判定手段と、前記判定手段による判定結果に基づいて、前記複数種のセンサのうちの該判定結果に対応するセンサ情報を出力する出力手段と、を備えることを特徴とする。   In order to solve the above problems, an electronic apparatus according to an embodiment of the present invention includes an acquisition unit that acquires a plurality of types of sensor information, and a determination unit that determines an action state of the subject from the sensor information acquired by the acquisition unit. And output means for outputting sensor information corresponding to the determination result of the plurality of types of sensors based on the determination result by the determination means.

本発明によれば、ユーザは手間なく、所望のセンサ情報を確認することが出来る。   According to the present invention, the user can confirm desired sensor information without trouble.

本発明の一実施形態に係る電子機器のハードウェアの構成を示すブロック図である。It is a block diagram which shows the structure of the hardware of the electronic device which concerns on one Embodiment of this invention. 本発明の一実施形態に係る電子機器の表示パターンの例を示す図面である。It is drawing which shows the example of the display pattern of the electronic device which concerns on one Embodiment of this invention. 入力データテーブルのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of an input data table. (a)は、本実施形態における行動推定に用いる行動パターンのテーブルを示す表であり、(b)は、行動パターンに対応して設定されるセンサ情報の組み合わせを示す表である。(A) is a table | surface which shows the table of the action pattern used for action estimation in this embodiment, (b) is a table | surface which shows the combination of the sensor information set corresponding to an action pattern. 本発明の報知処理に係る機能ブロック図である。It is a functional block diagram which concerns on the alerting | reporting process of this invention. センサ情報選択処理における全体の流れを示すフローチャートである。It is a flowchart which shows the whole flow in a sensor information selection process. 図6のフローチャートにおける行動状態に適したセンサ情報取得の部分に関連する詳細なフローチャートである。FIG. 7 is a detailed flowchart relating to a part of sensor information acquisition suitable for an action state in the flowchart of FIG. 6. 本発明の一実施形態に係るサーバのブロック図である。It is a block diagram of a server concerning one embodiment of the present invention. 本発明の選択制御システムに係る処理の流れを示すシーケンス図である。It is a sequence diagram which shows the flow of the process which concerns on the selection control system of this invention.

以下、本発明の実施形態について、図面を用いて説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係る電子機器1のハードウェアの構成を示すブロック図である。
電子機器1は、例えば、スマートフォンやリスト端末といった携帯端末として構成される。
FIG. 1 is a block diagram showing a hardware configuration of an electronic device 1 according to an embodiment of the present invention.
The electronic device 1 is configured as a mobile terminal such as a smartphone or a wrist terminal, for example.

電子機器1は、プロセッサ(Central Processing Unit)11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、バス14と、入出力インターフェース15と、センサ部16と、入力部17と、出力部18と、記憶部19と、通信部20と、ドライブ21と、を備えている。   The electronic device 1 includes a processor (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, a bus 14, an input / output interface 15, a sensor unit 16, and an input unit 17. An output unit 18, a storage unit 19, a communication unit 20, and a drive 21.

プロセッサ11は、ROM12に記録されているプログラム、又は、記憶部19からRAM13にロードされたプログラムに従って各種の処理を実行する。   The processor 11 executes various processes according to a program recorded in the ROM 12 or a program loaded from the storage unit 19 to the RAM 13.

RAM13には、プロセッサ11が各種の処理を実行する上において必要なデータ等も適宜記憶される。   The RAM 13 appropriately stores data necessary for the processor 11 to execute various processes.

プロセッサ11、ROM12及びRAM13は、バス14を介して相互に接続されている。このバス14には、入出力インターフェース15も接続されている。入出力インターフェース15には、センサ部16、入力部17、出力部18、記憶部19、通信部20及びドライブ21が接続されている。   The processor 11, ROM 12, and RAM 13 are connected to each other via a bus 14. An input / output interface 15 is also connected to the bus 14. A sensor unit 16, an input unit 17, an output unit 18, a storage unit 19, a communication unit 20, and a drive 21 are connected to the input / output interface 15.

センサ部16は、生体センサ111,環境センサ112、撮像センサ113が備えられている。生体センサ11は、移動方向を検出可能な6軸加速度センサ、向きを検出可能なジャイロセンサ、回転に方位を組み合わせて検出可能な磁気センサ、及び脈拍(心拍)、血圧、体温等の生体情報を計測する複数のセンサを含む。ここで測定された生体情報は記憶部19に記憶される。また、環境センサ112は、ユーザが置かれた環境、例えば、位置、気温、気圧、湿度、紫外線量、騒音等の環境情報を測定する複数のセンサを含む。例えばGPS受信アンテナを介して、複数のGPS用衛星からのGPS信号を受信するGPS部を備えており、環境センサ112で測定された環境情報は記憶部19に記憶される。   The sensor unit 16 includes a biological sensor 111, an environment sensor 112, and an image sensor 113. The biosensor 11 is a six-axis acceleration sensor capable of detecting a moving direction, a gyro sensor capable of detecting a direction, a magnetic sensor capable of detecting a combination of rotation and orientation, and biological information such as a pulse (heartbeat), blood pressure, and body temperature. Includes multiple sensors to measure. The biological information measured here is stored in the storage unit 19. The environment sensor 112 includes a plurality of sensors that measure environment information such as the environment in which the user is placed, for example, position, temperature, atmospheric pressure, humidity, ultraviolet light amount, and noise. For example, a GPS unit that receives GPS signals from a plurality of GPS satellites via a GPS receiving antenna is provided, and environment information measured by the environment sensor 112 is stored in the storage unit 19.

撮像センサ113は、図示しない光学レンズ部とイメージセンサとを備えており、撮像される内容を解析することでユーザの生体情報、環境情報を取得する。
例えば、撮影される画像のブレ度合いからユーザの行動の激しさを検出したり、画像中に川や海が映っている場合、ユーザが水辺にいると判定したりすることで、より高い精度でユーザの行動状態を判定することが出来る。
The imaging sensor 113 includes an optical lens unit and an image sensor (not shown), and acquires the user's biological information and environmental information by analyzing the captured content.
For example, by detecting the intensity of the user's action from the degree of blur of the captured image, or by determining that the user is at the waterside when a river or sea is reflected in the image, the accuracy can be increased. A user's action state can be determined.

光学レンズ部は、被写体を撮影するために、光を集光するレンズ、例えばフォーカスレンズやズームレンズ等で構成される。フォーカスレンズは、イメージセンサの受光面に被写体像を結像させるレンズである。ズームレンズは、焦点距離を一定の範囲で自在に変化させるレンズである。光学レンズ部にはまた、必要に応じて、焦点、露出、ホワイトバランス等の設定パラメータを調整する周辺回路が設けられる。   The optical lens unit is configured by a lens that collects light, for example, a focus lens or a zoom lens, in order to photograph a subject. The focus lens is a lens that forms a subject image on the light receiving surface of the image sensor. The zoom lens is a lens that freely changes the focal length within a certain range. The optical lens unit is also provided with a peripheral circuit for adjusting setting parameters such as focus, exposure, and white balance as necessary.

イメージセンサは、光電変換素子や、AFE(Analog Front End)等
から構成される。光電変換素子は、例えばCMOS(Complementary Metal Oxide Semiconductor)型の光電変換素子等から構成される。光電変換素子には、光学レンズ部から被写体像が入射される。そこで、光電変換素子は、被写体像を光電変換(撮像)して画像信号を一定時間蓄積し、蓄積した画像信号をアナログ信号としてAFEに順次供給する。
AFEは、このアナログの画像信号に対して、A/D(Analog/Digital)変換処理等の各種信号処理を実行する。各種信号処理によって、デジタル信号が生成され、撮像部16の出力信号として出力される。
このような撮像部16の出力信号を、以下、「撮像画像のデータ」と呼ぶ。撮像画像のデータは、プロセッサ11や図示しない画像処理部等に適宜供給される。
The image sensor includes a photoelectric conversion element, AFE (Analog Front End), and the like. The photoelectric conversion element is composed of, for example, a CMOS (Complementary Metal Oxide Semiconductor) type photoelectric conversion element or the like. A subject image is incident on the photoelectric conversion element from the optical lens unit. Therefore, the photoelectric conversion element photoelectrically converts (captures) the subject image, accumulates the image signal for a predetermined time, and sequentially supplies the accumulated image signal as an analog signal to the AFE.
The AFE performs various signal processing such as A / D (Analog / Digital) conversion processing on the analog image signal. Through various signal processing, a digital signal is generated and output as an output signal of the imaging unit 16.
Hereinafter, the output signal of the imaging unit 16 is referred to as “captured image data”. The data of the captured image is appropriately supplied to the processor 11 and an image processing unit (not shown).

入力部17は、各種釦やディスプレイに備えられるタッチパネル等で構成され、ユーザの指示操作に応じて各種情報を入力する。   The input unit 17 includes various buttons and a touch panel provided on the display, and inputs various types of information according to user instruction operations.

出力部18は、ディスプレイやスピーカ等で構成され、画像や音声を出力する。   The output unit 18 includes a display, a speaker, and the like, and outputs images and sounds.

記憶部19は、ハードディスク或いはDRAM(Dynamic Random Ac
cess Memory)等で構成され、各種画像のデータを記憶する。
The storage unit 19 is a hard disk or a DRAM (Dynamic Random Ac).
cess Memory) and the like, and stores various image data.

通信部20は、例えば、BLE(Bluetooth(登録商標) Low Energy)や、IEEE802.11による無線LAN(Local Area Network)といった近距離無線通信を用いて外部装置・外部端末との間で通信可能に構成される。   The communication unit 20 can communicate with an external device or an external terminal using short-range wireless communication such as BLE (Bluetooth (registered trademark) Low Energy) or wireless LAN (Local Area Network) based on IEEE802.11. Composed.

ドライブ21には、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリ等よりなる、リムーバブルメディア31が適宜装着される。ドライブ21によってリムーバブルメディア31から読み出されたプログラムは、必要に応じて記憶部19にインストールされる。また、リムーバブルメディア31は、記憶部19に記憶されている画像のデータ等の各種データも、記憶部19と同様に記憶することができる。   A removable medium 31 made of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately attached to the drive 21. The program read from the removable medium 31 by the drive 21 is installed in the storage unit 19 as necessary. The removable medium 31 can also store various data such as image data stored in the storage unit 19 in the same manner as the storage unit 19.

図2は、本発明の実施形態に係る出力部18における表示パターンの例を示す模式図である。
本実施形態の電子機器1は、図2に図示されるように、ユーザの行動状態に応じて必要な情報を表示領域181及び表示領域182に表示させることによってユーザに報知するように構成される。
なお、本実施形態においては、電子機器1はスマートウォッチを例としたため、時計表示時のクロノグラフの領域を表示領域181及び表示領域182として、センサ情報を表示させるように構成した。
FIG. 2 is a schematic diagram illustrating an example of a display pattern in the output unit 18 according to the embodiment of the present invention.
As shown in FIG. 2, the electronic device 1 according to the present embodiment is configured to notify the user by displaying necessary information in the display area 181 and the display area 182 according to the user's action state. .
In this embodiment, since the electronic device 1 is a smart watch as an example, the chronograph area at the time of the clock display is set as the display area 181 and the display area 182 so as to display the sensor information.

プロセッサ11は、生体センサ111によって取得されるユーザの生体情報のデータと、環境センサ112によって取得される外部環境のデータとを用いて、後述する図3に図示される入力データテーブルからユーザの運動状態と外部環境を判定する。なお、撮像センサ113により取得されるユーザの生体情報のデータと、外部環境のデータとを加えてユーザの運動状態と外部環境を判定するように構成してもよい。   The processor 11 uses the user's biometric information data acquired by the biosensor 111 and the external environment data acquired by the environment sensor 112 to perform the user's exercise from the input data table illustrated in FIG. Determine state and external environment. In addition, you may comprise so that a user's exercise | movement state and an external environment may be determined by adding the data of a user's biometric information acquired by the imaging sensor 113, and the data of an external environment.

判定されたユーザの運動状態及び外部環境を用いて、後述する図4(a)に示す行動状態判定テーブルからユーザの行動状態を判定し、後述する図4(b)に示すセンサ情報選択テーブルに基づいてセンサ情報を選択する。
その後、選択されたセンサ情報を、図2(a)に示す表示領域181及び表示領域182に表示させることで、ユーザの行動状態に応じて必要なセンサ情報を報知する。
Using the determined user's exercise state and external environment, the user's action state is determined from the action state determination table shown in FIG. 4A described later, and the sensor information selection table shown in FIG. Based on the sensor information is selected.
Thereafter, the selected sensor information is displayed in the display area 181 and the display area 182 shown in FIG. 2A, so that necessary sensor information is notified according to the user's action state.

例えば、ユーザの運動状態データ及び外部環境データから、後述する図4(a)に示す行動状態判定テーブルを参照した結果、ユーザの行動状態が「ウォーキング」であると判定された場合、センサ情報選択テーブルにおいて「歩数」と「消費カロリー」のセンサ情報が選択される。
その後、図2(b)に図示される表示状態のように、図2(a)における表示領域181に、「歩数」情報が、表示領域182に「消費カロリー」の情報が表示されることでユーザに報知がなされる。
For example, when it is determined that the user's behavior state is “walking” as a result of referring to the behavior state determination table shown in FIG. In the table, sensor information of “step count” and “calorie consumption” is selected.
Thereafter, as in the display state illustrated in FIG. 2B, “step count” information is displayed in the display area 181 in FIG. 2A, and “calorie consumption” information is displayed in the display area 182. The user is notified.

また、出力部18における表示形態は、図2(a)のようにアナログ針を同時に表示されるものに限られず、例えば、図2(d)に図示されるような針の無いデジタル表示を行う場合も表示処理ができるよう構成される。   Further, the display form in the output unit 18 is not limited to the one in which analog hands are simultaneously displayed as shown in FIG. 2A. For example, digital display without a needle as shown in FIG. 2D is performed. Even in this case, the display process is configured.

また、図2(a)においては、出力部18の領域内に表示領域を2つ設定するよう構成したが、それに限られず、出力部18の領域内にさらに多くの表示領域を設定可能に構成してもよい。
上述のように構成することにより、ユーザはより多くのセンサ情報を一度に視認することが可能となる。
Further, in FIG. 2A, the configuration is such that two display areas are set in the area of the output unit 18; however, the present invention is not limited to this, and more display areas can be set in the area of the output unit 18. May be.
By configuring as described above, the user can view more sensor information at a time.

図3(a)に、生体センサ111から取得される生体情報に基づき判定されるユーザの運動状態が設定される入力データテーブル121aのデータ構造の一例が、図3(b)に、環境センサ112から取得される外部環境の情報に基づき設定される入力データテーブル121bのデータ構造の一例が、それぞれ示されている。   FIG. 3A shows an example of the data structure of the input data table 121a in which the user's movement state determined based on the biological information acquired from the biological sensor 111 is set. FIG. An example of the data structure of the input data table 121b set based on the external environment information acquired from is shown.

図3(a)の入力データテーブル121aによれば、生体センサ111から取得される心拍や脈拍や動作ログ等の生体情報から「徒歩」、「静止」等のユーザの運動状態が取得可能であり、これらの情報は、プロセッサ11よる制御の下で記憶部19の入力データテーブル122aに設定される。また、環境センサ112から取得される環境情報、あるいは、GPS軌跡と地図データを持つことで、ある位置情報についての標高や、その他の地理的な属性を調べることか可能である。例えば、ユーザが現在道路上にいる、あるいは山、湖、海等にいる、更には、標高○m以上、道路/建物内/△△山近辺/◇◇湖の上にいる等の判定が可能であり、これらの情報は、プロセッサ11による制御の下で記憶部19の入力データテーブル122bに設定される。   According to the input data table 121a of FIG. 3A, it is possible to acquire the user's exercise state such as “walking” and “still” from the biological information such as the heartbeat, the pulse, and the operation log acquired from the biological sensor 111. These pieces of information are set in the input data table 122a of the storage unit 19 under the control of the processor 11. Further, by having environment information acquired from the environment sensor 112, or a GPS trajectory and map data, it is possible to check altitude and other geographical attributes of certain position information. For example, it is possible to determine whether the user is currently on the road, on a mountain, lake, sea, etc., or at an altitude of more than ○ m, road / inside / in the vicinity of a mountain / ◇◇ on the lake. These pieces of information are set in the input data table 122b of the storage unit 19 under the control of the processor 11.

図4(a)に記憶部19に格納される行動状態判定テーブル122aのデータ構造の一例が示されており、図4(b)に、同じく記憶部19に格納されるセンサ情報選択テーブル122bのデータ構造の一例が示されている。図4(a)は、入力データテーブルに格納された運動状態と外部環境とのマトリクスで構成されるテーブルであり、現在のユーザの行動状態を判別するために使用される。また、図4(b)は、行動状態においてユーザにとって必要となるセンサ情報(表示情報1、表示情報2)の組み合わせを選択するために使用されるテーブルである。いずれも、入力データテーブル121に設定された運動状態(入力データテーブル121a)と外部環境(入力データテーブル121b)により判定、あるいは予測される。   FIG. 4A shows an example of the data structure of the behavior state determination table 122a stored in the storage unit 19, and FIG. 4B shows the sensor information selection table 122b stored in the storage unit 19 as well. An example of the data structure is shown. FIG. 4A is a table composed of a matrix of the exercise state and the external environment stored in the input data table, and is used to determine the current user action state. FIG. 4B is a table used for selecting a combination of sensor information (display information 1 and display information 2) necessary for the user in the action state. Both are determined or predicted by the exercise state (input data table 121a) set in the input data table 121 and the external environment (input data table 121b).

図4(a)の行動状態判定テーブル122aによれば、入力データテーブル121aの運動状態が「徒歩」で、入力データテーブル121bの外部環境が「道路上」であれば、ユーザの行動状態は「ウォーキング」であると判定することができ、運動状態が「徒歩」で、外部環境が「山」、あるいは、「標高の増減が○m/h以上」であれば、ユーザの行動状態は「ハイキング」であると判定される。判定は、プロセッサ11によって行われる。また、入力データテーブル121aの運動状態が「静止」であれば、入力データテーブル121bの外部環境がいずれの場合であってもユーザの行動状態は「休憩」と判定される。また、入力データテーブル121aの運動状態が「特定の腕の動きがある」場合、入力データテーブル121bの外部環境が、「山」、「湖」、「海」のそれぞれにおいて、ユーザの行動状態は「釣り」と判定される。   According to the behavior state determination table 122a of FIG. 4A, if the motion state of the input data table 121a is “walking” and the external environment of the input data table 121b is “on the road”, the user behavior state is “ If the movement state is “walking” and the external environment is “mountain” or “altitude increase / decrease is greater than or equal to ○ m / h”, the user's action state is “hiking” Is determined. The determination is made by the processor 11. If the exercise state of the input data table 121a is “still”, the user's action state is determined to be “rest” regardless of the external environment of the input data table 121b. In addition, when the motion state of the input data table 121a is “there is a specific arm movement”, the user's action state is when the external environment of the input data table 121b is “mountain”, “lake”, and “sea”, respectively. It is determined as “fishing”.

なお、図4(a)に示した行動パターン判定テーブル122aにおいて、印×は、通常
発生し得ない行動パターンを示す。
しかし、これは一例として挙げるものであり、本発明を適用できる行動パターンは行動パターン判定テーブル122aの記載に限定されず、印×の箇所に任意に行動パターンを入力可能に構成してもよい。
In the behavior pattern determination table 122a shown in FIG. 4A, the mark x indicates a behavior pattern that cannot normally occur.
However, this is given as an example, and the behavior pattern to which the present invention can be applied is not limited to the description of the behavior pattern determination table 122a, and a behavior pattern may be arbitrarily input at the mark X.

図4(b)に示すセンサ情報選択テーブル122bは、行動状態に応じたセンサ情報の選択テーブルを示すものである。すなわち、判定、あるいは予測されたユーザの行動状態が、「ウォーキング」であれば、ユーザにとって必要なセンサ情報は「歩数」及び「消費カロリー」であると推定されるために、この2つのデータをユーザに報知するような設定になっている。また、行動パターンが「ランニング」と判定された場合、ユーザにとって必要なセンサ情報は「速度」及び「消費カロリー」であると推定されるために、この2つのデータをユーザに報知するよう設定されている。   The sensor information selection table 122b shown in FIG. 4B is a sensor information selection table corresponding to the behavior state. That is, if the determined or predicted behavior state of the user is “walking”, the sensor information necessary for the user is estimated to be “step count” and “calorie consumption”. It is set to notify the user. In addition, when the behavior pattern is determined to be “running”, the sensor information necessary for the user is estimated to be “speed” and “calorie consumption”, and thus the two data are set to be notified to the user. ing.

また、ユーザの行動状態が、「釣り」であれば、ユーザにとって必要なセンサ情報は「天気」及び「気圧」であると推定されるために、この2つのデータをユーザに報知するよう設定されている。なお、図4(b)に示したセンサ情報選択センサ制御テーブル122bにおいて、予めユーザにとって必要となるセンサ情報の組み合わせが決められているが、この組み合わせをユーザが任意に設定可能に構成してもよく、このような構成とすることでより確実にユーザにとって必要なセンサ情報を報知することが可能となる。   If the user's action state is “fishing”, the sensor information necessary for the user is estimated to be “weather” and “atmospheric pressure”, so that the two data are set to be notified to the user. ing. In the sensor information selection sensor control table 122b shown in FIG. 4B, a combination of sensor information necessary for the user is determined in advance, but this combination may be configured so that the user can arbitrarily set the combination. Well, with such a configuration, sensor information necessary for the user can be notified more reliably.

なお、上述の構成において、センサ情報選択テーブル122bにおいてユーザの行動状態に適したセンサ情報が選択された場合、電子機器1は選択されたセンサ情報の取得に必要なセンサを起動し、必要でないセンサを停止するように構成してもよい。   In the above-described configuration, when sensor information suitable for the user's action state is selected in the sensor information selection table 122b, the electronic device 1 activates a sensor necessary for acquiring the selected sensor information and does not need the sensor. May be configured to stop.

また、上述のセンサ制御の構成において、センサ情報の選択・報知処理を繰り返し行うために、ユーザの行動状態を判定するために必要なセンサを、選択されたセンサ情報の取得に不要であったとしても停止させないように構成してもよい。   Further, in the above-described sensor control configuration, it is assumed that the sensor necessary for determining the user's behavior state is not necessary for acquiring the selected sensor information in order to repeatedly perform the sensor information selection / notification process. Also, it may be configured not to stop.

図5は、このような電子機器1の機能的構成のうち、報知処理を実行するための機能的構成を示す機能ブロック図である。
報知処理とは、ユーザの行動状態が推定された場合に、電子機器1がセンサや外部から取得した情報の中からユーザに必要な情報を通知する一連の処理をいう。
「報知処理」は、「動作状態及び環境情報に基づく行動状態判定処理」と、「行動状態に基づくセンサ情報選択処理」を含む。
FIG. 5 is a functional block diagram illustrating a functional configuration for executing the notification process among the functional configurations of the electronic apparatus 1.
The notification process refers to a series of processes for notifying the user of necessary information from information acquired from the sensor or the outside by the electronic device 1 when the user's behavior state is estimated.
“Notification process” includes “behavior state determination process based on operation state and environment information” and “sensor information selection process based on action state”.

報知処理を実行する場合には、図5に示すように、プロセッサ11において、行動状態判定部51と、センサ制御部52と、報知制御部53と、が機能してユーザへの通知処理を行う。   When executing the notification process, as shown in FIG. 5, in the processor 11, the behavior state determination unit 51, the sensor control unit 52, and the notification control unit 53 function to perform the notification process to the user. .

また、記憶部19の一領域には、行動状態記憶部71と、センサ情報記憶部72が設定される。   In addition, an action state storage unit 71 and a sensor information storage unit 72 are set in one area of the storage unit 19.

行動状態記憶部71は、センサ部16から取得されるセンサ情報に基づいてユーザの行動状態を判定するための行動状態判定テーブル122aを記憶し、ユーザの行動状態判定結果の傾向に関する情報も記憶する。
センサ情報記憶部72は、ユーザの行動状態に対応して報知すべきセンサ情報を選択するためのセンサ情報選択テーブルを記憶し、予め記憶されたセンサ情報の組み合わせをユーザが変更した場合の変更情報をユーザの変更傾向情報として記憶する。
The behavior state storage unit 71 stores a behavior state determination table 122a for determining the user's behavior state based on the sensor information acquired from the sensor unit 16, and also stores information regarding the tendency of the user's behavior state determination result. .
The sensor information storage unit 72 stores a sensor information selection table for selecting sensor information to be notified corresponding to the user's action state, and change information when the user changes a combination of sensor information stored in advance. Is stored as the change tendency information of the user.

行動状態判定部51は、センサ部16で取得されるセンサ情報から電子機器1の状態を解析し、電子機器1を携行するユーザの行動状態を行動状態記憶部71に記憶されている行動状態判定テーブルに基づいて判定する。   The behavior state determination unit 51 analyzes the state of the electronic device 1 from the sensor information acquired by the sensor unit 16, and the behavior state determination stored in the behavior state storage unit 71 is the behavior state of the user carrying the electronic device 1. Determine based on the table.

センサ制御部52は、行動状態判定部51によって判定されたユーザの行動状態に対応するセンサ情報を取得するために必要なセンサを起動し、行動状態判定に関連しないセンサを停止させるように制御を行う。   The sensor control unit 52 activates a sensor necessary for acquiring sensor information corresponding to the user's behavior state determined by the behavior state determination unit 51, and performs control so as to stop a sensor not related to the behavior state determination. Do.

報知制御部53は、行動状態判定部51によって判定されたユーザの行動状態に対応するセンサ情報をセンサ情報記憶部72から取得し、該センサ情報を出力部18により出力・報知する。   The notification control unit 53 acquires sensor information corresponding to the user's behavior state determined by the behavior state determination unit 51 from the sensor information storage unit 72, and outputs / notifies the sensor information by the output unit 18.

以下、図6、図7のフローチャートを参照しながら、図1から図6に示した本発明の第1実施形態に係る電子機器1の動作(報知処理)について詳細に説明する。なお、以下に説明する各ステップは、該当するプログラムをコンピュータにて実行させることにより、実現することができる。   Hereinafter, the operation (notification process) of the electronic apparatus 1 according to the first embodiment of the present invention shown in FIGS. 1 to 6 will be described in detail with reference to the flowcharts of FIGS. 6 and 7. Each step described below can be realized by causing a computer to execute a corresponding program.

(基本動作)
図6に、本発明の実施形態に係る電子機器1の基本動作がフローチャートで示されている。図6によれば、本発明の実施形態に係る電子機器1は、センサ部16の生体センサ111が、ユーザの身体状況データ(生体情報)を検知し、プロセッサ11がこれを取得して行動状態判定部51に送る(ステップS100)。次に、環境センサ112が外部環境データ(環境情報)を検知し、プロセッサ11がこれを取得して行動状態判定部51に引き渡す(ステップS101)。このとき、行動状態判定部51は、環境センサ112によって検知されるGPS他のデータも取得する。なお、生体情報と環境情報の計測、および取得の順序は任意であり、それぞれのセンサで検知された順に取得されるものとする。
(basic action)
FIG. 6 is a flowchart showing the basic operation of the electronic apparatus 1 according to the embodiment of the present invention. According to FIG. 6, in the electronic device 1 according to the embodiment of the present invention, the biometric sensor 111 of the sensor unit 16 detects the user's physical condition data (biometric information), and the processor 11 acquires this to behave. The data is sent to the determination unit 51 (step S100). Next, the environment sensor 112 detects external environment data (environment information), and the processor 11 acquires this and passes it to the behavior state determination unit 51 (step S101). At this time, the behavior state determination unit 51 also acquires GPS and other data detected by the environment sensor 112. In addition, the order of measurement and acquisition of biological information and environmental information is arbitrary, and is acquired in the order detected by each sensor.

プロセッサ11の行動状態判定部51は、行動状態記憶部71に格納された行動状態判定テーブル122に基づきユーザの行動状態の判定を行う(ステップS102)。行動状態の判定にあたり、行動状態判定部51は、センサ部16から取得される生体情報と環境情報とに基づき、入力データテーブル121a,121bに示す運動状態、外部環境からユーザの状態に適したデータを検索する。そして、この入力データテーブル121から検出された運動状態、外部環境に基づき、行動状態判定テーブル122aを索引する。例えば、入力データテーブル121aに設定された運動状態が「徒歩」で、入力データテーブル121bに設定された外部環境が「道路上」である場合、行動状態判定部51は、行動状態判定テーブル122aに基づき、ユーザの行動状態を「ウォーキング」と判定する。   The behavior state determination unit 51 of the processor 11 determines the user's behavior state based on the behavior state determination table 122 stored in the behavior state storage unit 71 (step S102). In determining the behavioral state, the behavioral state determination unit 51 is based on the biological information and environmental information acquired from the sensor unit 16 and is suitable for the user state from the exercise state and the external environment shown in the input data tables 121a and 121b. Search for. Then, the action state determination table 122a is indexed based on the exercise state and the external environment detected from the input data table 121. For example, when the exercise state set in the input data table 121a is “walking” and the external environment set in the input data table 121b is “on the road”, the behavior state determination unit 51 adds the behavior state determination table 122a to the behavior state determination table 122a. Based on this, the user's action state is determined as “walking”.

続いて、行動状態判定部51は、判定結果に基づいて行動履歴の学習処理を実行する(ステップS105)。行動状態判定部51は、行動パターン判定テーブル122aに格納された類型的な行動パターンに学習結果を反映させ、ユーザの行動傾向として記憶していくように制御する。すなわち、行動履歴は、ユーザの行動に応じて順次更新され、行動状態が更新された行動傾向を参照して、より高い精度で予測される。   Subsequently, the behavior state determination unit 51 executes a behavior history learning process based on the determination result (step S105). The behavior state determination unit 51 controls the learning result to be reflected in the typical behavior pattern stored in the behavior pattern determination table 122a and stored as the user's behavior tendency. That is, the behavior history is sequentially updated according to the user's behavior, and is predicted with higher accuracy by referring to the behavior tendency in which the behavior state is updated.

続いて、報知制御部53は、行動状態判定部51による判定結果を受けて、判定されたユーザの行動状態に対応するセンサ情報の選択処理を行う。(ステップS105)。
具体的な処理の流れは図7のフローチャートを用いて後述する。
Subsequently, the notification control unit 53 receives the determination result by the behavior state determination unit 51 and performs a process of selecting sensor information corresponding to the determined user behavior state. (Step S105).
A specific processing flow will be described later with reference to the flowchart of FIG.

報知制御部53によるセンサ情報の選択処理の後、センサ制御部52によりセンサ部16のセンサ制御処理を行い、報知処理に必要なセンサを起動し、報知処理に不要なセンサを停止させる。(ステップS106)
例えば、センサ制御部52は報知制御部53により選択されたセンサ情報に基づいて、報知処理に必要なセンサが起動する。さらに選択されたセンサ情報の取得に関連せず、行動状態判定にも関連しない不要なセンサが起動しているか否かを確認し、不要なセンサが起動していると判定された場合、該不要なセンサを停止させる。
After the selection process of the sensor information by the notification control unit 53, the sensor control unit 52 performs a sensor control process of the sensor unit 16, starts a sensor necessary for the notification process, and stops a sensor unnecessary for the notification process. (Step S106)
For example, the sensor control unit 52 activates a sensor necessary for the notification process based on the sensor information selected by the notification control unit 53. Further, if it is determined that an unnecessary sensor that is not related to acquisition of the selected sensor information and is not related to behavioral state determination is activated, and it is determined that an unnecessary sensor is activated, this unnecessary Stop the sensor.

報知制御部53は、ステップS105で選択したセンサ情報を出力部18に出力することにより、ユーザに報知を行う。(ステップS107)
例えば、図2(b)のように報知制御部53はディスプレイの表示領域181及び182に、選択されたセンサ情報を表示することで、ユーザの行動状態に応じて必要となるセンサ情報を報知する。
The notification control unit 53 notifies the user by outputting the sensor information selected in step S105 to the output unit 18. (Step S107)
For example, as shown in FIG. 2B, the notification control unit 53 displays the selected sensor information in the display areas 181 and 182 of the display, thereby notifying the sensor information that is necessary according to the user's action state. .

ユーザへの報知処理を行った後、行動状態判定部51はセンサ部16からのセンサ情報に基づいてユーザの行動状態に変化があるか否かを判定する。(ステップS108)
ステップS108において、ユーザの行動状態に変化ありと判断された場合、処理はステップ101に戻り、再度報知処理が行われる。
ステップS108において、ユーザの行動状態に変化なしと判断された場合、処理はステップS109に進む。
After performing the notification process to the user, the behavior state determination unit 51 determines whether there is a change in the user's behavior state based on the sensor information from the sensor unit 16. (Step S108)
If it is determined in step S108 that the user's behavior state has changed, the process returns to step 101, and the notification process is performed again.
If it is determined in step S108 that there is no change in the user behavior state, the process proceeds to step S109.

ステップS109では、報知処理を終了する旨の操作が検出されたか否かを判定する。
例えば、ユーザにより入力部17へ報知処理を終了させる旨の操作が入力された場合や、ユーザからの操作入力及びユーザの動作情報が長時間検出されない場合に、電子機器1は報知処理を終了させる。
また、上述の終了操作が検出されない場合、処理はステップS107に戻る。
In step S109, it is determined whether an operation to end the notification process has been detected.
For example, when an operation to end the notification process is input to the input unit 17 by the user, or when an operation input from the user and user operation information are not detected for a long time, the electronic device 1 ends the notification process. .
In addition, when the above-described end operation is not detected, the process returns to step S107.

(センサ情報選択処理)
図7に示すフローチャートを参照しながら、報知制御部53によるユーザの行動状態に応じたセンサ情報の選択処理の流れを詳細に説明する。
(Sensor information selection process)
With reference to the flowchart shown in FIG. 7, the flow of sensor information selection processing according to the user's action state by the notification control unit 53 will be described in detail.

まず、ステップS103において行動状態判定部51により判定されたユーザの行動状態に応じたセンサ情報を選択する。(ステップS200)
例えば、報知制御部53は判定されたユーザの行動状態に対応するセンサ情報をセンサ情報記憶部72に記憶されるセンサ情報選択テーブル122bを参照して選択する。例えば、ユーザの行動状態がランニングと判定されている場合、ランニングに対応するセンサ情報の組み合わせである「速度」「消費カロリー」がセンサ情報選択テーブル122bから選択される。
First, sensor information corresponding to the user's behavior state determined by the behavior state determination unit 51 in step S103 is selected. (Step S200)
For example, the notification control unit 53 selects sensor information corresponding to the determined action state of the user with reference to the sensor information selection table 122b stored in the sensor information storage unit 72. For example, when it is determined that the user's behavior state is running, “speed” and “calorie consumption” that are combinations of sensor information corresponding to running are selected from the sensor information selection table 122b.

次に、選択されたセンサ情報の組み合わせに対し、ユーザによる変更履歴が記憶されているかの判定を行う。(ステップS201)
例えば報知制御部53は、選択されたセンサ情報の組み合わせに対し、ユーザがセンサ情報の変更処理を行ったことがあるか否かの変更履歴に関する情報の有無を、センサ情報記憶部72を参照して確認する。
上述の変更履歴が記録されていると判定された場合、処理はステップS202に進む。
上述の変更履歴が記録されていないと判定された場合、処理は基本動作のフローに戻る。
Next, it is determined whether a change history by the user is stored for the selected combination of sensor information. (Step S201)
For example, the notification control unit 53 refers to the sensor information storage unit 72 for the presence / absence of information related to the change history indicating whether or not the user has changed the sensor information for the selected combination of sensor information. To confirm.
If it is determined that the above change history is recorded, the process proceeds to step S202.
If it is determined that the change history is not recorded, the process returns to the basic operation flow.

ステップS202において、報知制御部53はユーザによるセンサ情報の変更履歴に従い、センサ情報の組み合わせを変更する。
例えば、報知制御部53は、ユーザによるセンサ情報の変更履歴を参照し、予め決められたセンサ情報の組み合わせを、ユーザにより変更されたセンサ情報の組み合わせに変更し、基本動作のフローに戻る。
In step S202, the notification control unit 53 changes the combination of sensor information according to the change history of the sensor information by the user.
For example, the notification control unit 53 refers to the sensor information change history by the user, changes the predetermined combination of sensor information to the combination of sensor information changed by the user, and returns to the basic operation flow.

上述の構成により、本発明の実施形態に係る電子機器1は行動状態判定部51が、行動状態を記憶する行動状態記憶部71を参照して、ユーザの行動状態に適したセンサ情報を選択して出力部18に出力させるために、ユーザの行動状態に応じてユーザにとって必要な情報を自動的にユーザに提供することができる。したがって、ユーザは様々な情報から必要な情報を手動で選択する手間なく、ユーザの様々な行動に対応して必要となる情報を自動的に得ることが出来る。   With the above configuration, in the electronic device 1 according to the embodiment of the present invention, the behavior state determination unit 51 refers to the behavior state storage unit 71 that stores the behavior state, and selects sensor information suitable for the user's behavior state. In order to make the output unit 18 output, information necessary for the user can be automatically provided to the user according to the user's action state. Therefore, the user can automatically obtain necessary information corresponding to various actions of the user without manually selecting necessary information from various information.

なお、本実施例においてはユーザによるセンサ情報の変更履歴を参照し、予め決められたセンサ情報の組み合わせを、ユーザにより変更されたセンサ情報の組み合わせに変更するように構成したが、変更履歴が記録されていないセンサ情報の組み合わせに対しても、別のセンサ情報の組み合わせに記録された変更履歴を反映させてユーザの好みにあったセンサ情報の組み合わせに変更してもよい。
例えば、「ウォーキング」に対応する「歩数」「消費カロリー」の組み合わせがユーザにより頻繁に「歩数」「気温」に変更される場合、ユーザの行動が「ランニング」と判定されたで場合であっても「速度」「気温」の組み合わせに変更されて報知されるように構成しても良い。
In the present embodiment, the sensor information change history by the user is referred to, and the predetermined combination of sensor information is changed to the sensor information combination changed by the user. However, the change history is recorded. Even a combination of sensor information that is not performed may be changed to a combination of sensor information that suits the user's preference by reflecting a change history recorded in another combination of sensor information.
For example, when the combination of “steps” and “calorie consumption” corresponding to “walking” is frequently changed to “steps” and “temperature” by the user, the user's action is determined to be “running”. Alternatively, a combination of “speed” and “temperature” may be changed and notified.

なお、本実施例においてはユーザの行動状態が検出され、報知されるセンサ情報を選択して表示した後、再度行動状態の変化が検出された場合、報知されるセンサ情報を切り替るように構成したが、これに限られない。
一度、ユーザの行動状態が検出され、報知されるセンサ情報を選択して表示した後、一定時間ユーザの行動状態の変化を検出しないように構成してもよい。
In the present embodiment, the behavior state of the user is detected, and after the sensor information to be notified is selected and displayed, if the change in the behavior state is detected again, the sensor information to be notified is switched. However, it is not limited to this.
Once the user's behavior state is detected and sensor information to be notified is selected and displayed, a change in the user's behavior state may not be detected for a certain period of time.

なお、本実施例においては判定された行動状態に対応するセンサ情報の組み合わせを表示するように構成したが、表示可能なセンサ情報をすべて又は複数表示させ、その中で行動状態に対応するセンサ情報を強調して表示するように構成してもよい。
例えば、表示される複数のセンサ情報のうち、ユーザの行動状態に対応するセンサ情報の表示領域を他のセンサ情報よりも広く表示させたり、他のセンサ情報よりも明度を上げた表示を行ったり、他のセンサ情報よりも目立つ位置(表示領域中央、上部等)に表示させるよう構成される。
In this embodiment, the sensor information combination corresponding to the determined behavior state is displayed. However, all or a plurality of displayable sensor information is displayed, and the sensor information corresponding to the behavior state is displayed. May be configured to be displayed with emphasis.
For example, among a plurality of displayed sensor information, the sensor information display area corresponding to the user's behavior state is displayed wider than the other sensor information, or the brightness is displayed higher than the other sensor information. These are configured to be displayed at positions that are more conspicuous than other sensor information (the center of the display area, the upper part, etc.).

なお、本実施例におけるセンサ部16は精度の異なる生体センサと環境センサを備えるように構成してもよい。例えば判定されたユーザの行動状態が高い精度のセンサ情報の表示が望ましい行動状態である場合、精度の高い方のセンサにより取得されるセンサ情報を優先的に表示させるよう構成してもよい。また、判定されたユーザの行動状態が低消費電力のセンサを用いることが望ましい行動状態である場合、精度が低くとも消費電力の少ないセンサにより取得される情報を優先的に表示させるよう構成してもよい。   In addition, you may comprise the sensor part 16 in a present Example so that it may be provided with the biosensor and environmental sensor from which precision differs. For example, when the determined behavioral state of the user is a desirable behavioral state where it is desirable to display sensor information with high accuracy, the sensor information acquired by the sensor with higher accuracy may be preferentially displayed. Further, when the determined user behavior state is a behavior state in which it is desirable to use a sensor with low power consumption, the information acquired by the sensor with low power consumption is displayed with priority even if the accuracy is low. Also good.

なお、ユーザの行動状態が変化したことを、音や光でユーザに報知するように構成しても良い。
例えば、ユーザの行動状態が「ウォーキング」から「ランニング」に変化したと判定された場合、「行動状態が変化しました」という音声による報知や、電子機器に具備される発光部材の発光による報知でユーザに行動が変化し、報知されるセンサ情報が変化したことを報知するように構成しても良い。
In addition, you may comprise so that a user may be alert | reported with a sound and light that the user's action state changed.
For example, when it is determined that the user's behavior state has changed from “walking” to “running”, a notification by sound that “the behavior state has changed” or a notification by light emission of a light emitting member included in the electronic device It may be configured to notify the user that the behavior has changed and the sensor information to be notified has changed.

なお、本実施例においてはユーザの行動状態に基づいて選択されたセンサ情報を取得するために必要でないセンサを停止させるように構成したが、必要でないセンサを停止させるのでなく、センサによる情報取得頻度(センシングの頻度)を下げるように構成してもよい。   In this embodiment, the sensor that is not necessary for acquiring the sensor information selected based on the user's behavior state is configured to be stopped. However, the information acquisition frequency by the sensor is not used, but the sensor that is not necessary is stopped. You may comprise so that (frequency of sensing) may be lowered.

なお、本実施例において出力部はディスプレイにセンサ情報を表示させることによりユーザにセンサ情報を報知するように構成したが、これに限られず、具備されるマイクロフォンからユーザの所望するセンサ情報を音声として出力することで報知するように構成してもよい。   In the present embodiment, the output unit is configured to notify the user of the sensor information by displaying the sensor information on the display. However, the present invention is not limited to this, and the sensor information desired by the user is output from the provided microphone as sound. You may comprise so that it may alert | report by outputting.

なお、本実施例においては一つの電子機器において上述の機能を実施するよう構成したが、電子機器により取得されるセンサの情報をサーバに送って行動状態を判定させ、その結果に基づいたセンサ情報の報知処理を、出力部を有する電子機器で行わせるように複数機器間で上述の処理を行うよう構成してもよい。   In the present embodiment, the above-described function is implemented in one electronic device. However, sensor information acquired by the electronic device is sent to a server to determine a behavioral state, and sensor information based on the result is obtained. The above-described processing may be performed between a plurality of devices so that the notification processing is performed by an electronic device having an output unit.

なお、本実施例では、複数種のセンサのうちの判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択するが、通信部を介して外部へセンサ情報を送信するとしてもよい。   In this embodiment, sensor information corresponding to a determination result among a plurality of types of sensors is selected as sensor information to be notified to the user, but the sensor information may be transmitted to the outside via a communication unit.

図8は、サーバ2の機能的構成のうち、行動判定処理を実行するためのブロック図である。
行動判定処理とは、センサ情報からユーザの行動を推定する一連の処理をいう。
FIG. 8 is a block diagram for executing the action determination process in the functional configuration of the server 2.
The action determination process is a series of processes for estimating a user's action from sensor information.

行動判定処理を実行する場合には、図8に示すように、制御部81と、記憶部82と、通信部83と判定部84と、が機能してユーザの行動判定処理を行う。
サーバ2は、制御部81と、記憶部82と、通信部83と、判定部84と、を備えている。
When executing the action determination process, as illustrated in FIG. 8, the control unit 81, the storage unit 82, the communication unit 83, and the determination unit 84 function to perform the user action determination process.
The server 2 includes a control unit 81, a storage unit 82, a communication unit 83, and a determination unit 84.

制御部81は、プロセッサ機能を備えており、サーバ2において記憶部82と、通信部83と、判定部84との間でのデータの通信を制御し、さらに、各部の処理を制御する。   The control unit 81 has a processor function, and controls data communication among the storage unit 82, the communication unit 83, and the determination unit 84 in the server 2, and further controls processing of each unit.

記憶部82は、ハードディスク或いはDRAM(Dynamic Random Access Memory)等で構成され、受信する生体情報に基づき判定されるユーザの運動状態が設定される入力データテーブル121aと、受信する外部環境の情報に基づき設定される入力データテーブル121bと、受信するセンサ情報に基づいてユーザの行動状態を判定するための行動状態判定テーブル122aと、行動状態に応じたセンサ情報の選択テーブルを判定するセンサ情報選択テーブル122bとを記憶し、ユーザの行動状態判定結果の傾向に関する情報も記憶する。   The storage unit 82 is configured by a hard disk or a DRAM (Dynamic Random Access Memory) or the like, and is based on the input data table 121a in which the user's exercise state determined based on the received biological information is set, and on the received external environment information. An input data table 121b to be set, a behavior state determination table 122a for determining a user's behavior state based on the received sensor information, and a sensor information selection table 122b for determining a selection table of sensor information according to the behavior state And information on the tendency of the user's behavior state determination result is also stored.

通信部83は、例えば、BLE(Bluetooth(登録商標) Low Energy)や、IEEE802.11による無線LAN(Local Area Network)といった近距離無線通信を用いて外部装置・外部端末との間で通信可能に構成される。   The communication unit 83 can communicate with an external device / external terminal using short-range wireless communication such as BLE (Bluetooth (registered trademark) Low Energy) or IEEE802.11 wireless LAN (Local Area Network). Composed.

判定部84は、受信するセンサ情報からユーザの状態を解析し、ユーザの行動状態を記憶部82に記憶されている行動状態判定テーブル122aに基づいて判定する。   The determination unit 84 analyzes the state of the user from the received sensor information, and determines the user's behavior state based on the behavior state determination table 122 a stored in the storage unit 82.

以下、図9のシーケンス図を参照しながら、本発明の選択制御システムの処理について詳細に説明する。なお、以下に説明する各ステップは、該当するプログラムをコンピュータにて実行させることにより、実現することができる。   Hereinafter, the processing of the selection control system of the present invention will be described in detail with reference to the sequence diagram of FIG. Each step described below can be realized by causing a computer to execute a corresponding program.

図9に、本発明の選択制御システムに係る処理の流れを示すシーケンス図が示されている。図9によれば、本発明の選択制御システムの電子機器1は、センサ部16の生体センサ111が取得したユーザの身体状況データ(生体情報)、環境センサ112が取得した外部環境データ(環境情報)とGPS他のデータをセンサ情報として取得する(ステップS300)。なお、生体情報と環境情報の計測、および取得の順序は任意であり、それぞれのセンサで検知された順に取得されるものとする。   FIG. 9 is a sequence diagram showing the flow of processing according to the selection control system of the present invention. According to FIG. 9, the electronic device 1 of the selection control system of the present invention includes user physical condition data (biological information) acquired by the biosensor 111 of the sensor unit 16, external environment data (environment information) acquired by the environmental sensor 112. ) And other data such as GPS are acquired as sensor information (step S300). In addition, the order of measurement and acquisition of biological information and environmental information is arbitrary, and is acquired in the order detected by each sensor.

続いて、電子機器1は取得したセンサ情報を通信部20を介してサーバ2へ送信する(ステップS301)。   Subsequently, the electronic device 1 transmits the acquired sensor information to the server 2 via the communication unit 20 (step S301).

続いて、サーバ2は通信部83を介してセンサ情報を受信し(ステップS400)、受信したセンサ情報を判定部84で、記憶部82に格納された行動状態判定テーブル122aに基づきユーザの行動状態の判定を行う(ステップS401)。行動状態の判定にあたり、取得したセンサ情報に基づき、入力データテーブル121a,121bに示す運動状態、外部環境からユーザの状態に適したデータを検索する。そして、この入力データテーブル121から検出された運動状態、外部環境に基づき、行動状態判定テーブル122aを索引する。   Subsequently, the server 2 receives sensor information via the communication unit 83 (step S400), and the received sensor information is determined by the determination unit 84 based on the behavior state determination table 122a stored in the storage unit 82. Is determined (step S401). In determining the behavioral state, based on the acquired sensor information, data suitable for the user's state is retrieved from the exercise state and the external environment shown in the input data tables 121a and 121b. Then, the action state determination table 122a is indexed based on the exercise state and the external environment detected from the input data table 121.

続いて、サーバ2は判定されたユーザの行動状態に対応するセンサ情報の選択処理を行う(ステップS402)。そして、取得したセンサの選択結果を通信部83を介して電子機器1へ送信する(ステップS403)。   Subsequently, the server 2 performs a process of selecting sensor information corresponding to the determined user behavior state (step S402). And the selection result of the acquired sensor is transmitted to the electronic device 1 via the communication part 83 (step S403).

続いて、電子機器1は通信部20を介して判定結果を受信し(ステップS303)、判定結果を受けて、判定されたユーザの行動状態に対応するセンサ情報の出力を行う(ステップS304)。例えば、センサ制御部52は報知制御部53により選択されたセンサ情報に基づいて、報知処理に必要なセンサが起動する。さらに選択されたセンサ情報の取得に関連せず、行動状態判定にも関連しない不要なセンサが起動しているか否かを確認し、不要なセンサが起動していると判定された場合、該不要なセンサを停止させる。   Subsequently, the electronic device 1 receives the determination result via the communication unit 20 (step S303), receives the determination result, and outputs sensor information corresponding to the determined action state of the user (step S304). For example, the sensor control unit 52 activates a sensor necessary for the notification process based on the sensor information selected by the notification control unit 53. Further, if it is determined that an unnecessary sensor that is not related to acquisition of the selected sensor information and is not related to behavioral state determination is activated, and it is determined that an unnecessary sensor is activated, this unnecessary Stop the sensor.

なお、本実施形態においては、電子機器1とサーバ2との間でネットワークを介して情報の通信を行っており、ネットワークの通信状況を鑑みて電子機器1とサーバ2にてまかなう処理を変更するとしてもよい。例えば、サーバ2は判定されたユーザの行動状態に対応するセンサ情報の選択処理を行う(ステップS402)とあるが、サーバ2から判定結果を電子機器1へ送信して、電子機器1は受信した判定結果から、判定されたユーザの行動状態に対応するセンサ情報の選択処理を行うとしてもよい。   In the present embodiment, information is communicated between the electronic device 1 and the server 2 via the network, and processing performed by the electronic device 1 and the server 2 is changed in view of the communication status of the network. It is good. For example, the server 2 performs a process of selecting sensor information corresponding to the determined user behavior state (step S402), but the server 2 transmits the determination result to the electronic device 1 and the electronic device 1 receives the determination result. Based on the determination result, sensor information selection processing corresponding to the determined action state of the user may be performed.

なお、本実施例においてはディスプレイ形状が円形のものを例示したがこれに限られず、出力部18のディスプレイの形状は多角形、湾曲形状でもよく、形状・大きさは限定されない。   In the present embodiment, a circular display is illustrated, but the display is not limited to this, and the display of the output unit 18 may be polygonal or curved, and the shape and size are not limited.

なお、本実施形態においては、1つのディスプレイにセンサ情報を複数表示させるように構成したが、これに限られず、複数ディスプレイを備える報知システムにおいて、センサ情報を複数ディスプレイに分散させて表示させるように構成してもよい。   In the present embodiment, a plurality of sensor information is displayed on one display. However, the present invention is not limited to this, and in a notification system including a plurality of displays, sensor information is distributed and displayed on a plurality of displays. It may be configured.

なお、本実施例においては、1つのディスプレイにセンサ情報を複数表示させるように構成したが、これに限られず、1つのディスプレイにユーザの行動状態に適したセンサ情報を1種類のみ報知するように構成してもよい。   In this embodiment, a plurality of pieces of sensor information are displayed on one display. However, the present invention is not limited to this, and only one type of sensor information suitable for the user's action state is notified on one display. It may be configured.

以上、各実施形態を用いて本発明を説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されないことは言うまでもない。上記実施形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。また、その様な変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using each embodiment, it cannot be overemphasized that the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above embodiment. Further, it is apparent from the description of the scope of claims that embodiments with such changes or improvements can be included in the technical scope of the present invention.

以下に、この出願の願書に最初に添付した特許請求の範囲に記載した発明を付記する。
付記に記載した請求項の項番は、この出願の願書に最初に添付した特許請求の範囲のとおりである。
[付記1]
複数種のセンサ情報を取得する取得手段と、
対象者の行動状態を判定する判定手段と、
前記判定手段による判定結果に基づいて、複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択手段と、
を備えることを特徴とする電子機器。
[付記2]
前記判定手段は、前記取得手段で取得したセンサ情報から、前記対象者の行動状態を判定する、
ことを特徴とする請求項1に記載の電子機器。
[付記3]
前記複数種のセンサは、前記対象者の運動状態に関する情報を取得する第1のセンサと、前記対象者の外部環境に関する情報を取得する第2のセンサとを含み、
前記判定手段は、前記第1のセンサ又は前記第2のセンサにより取得される情報に基づいて、対象者の行動状態を判定する
ことを特徴とする請求項1から2の何れか1項に記載の電子機器。
[付記4]
前記対象者の行動状態を複数種記憶する記憶手段を更に備え、
前記判定手段は、前記記憶手段に記憶された複数種の行動状態から対象者の行動状態を判定する、
ことを特徴とする請求項1から3の何れか1項に記載の電子機器。
[付記5]
前記複数種の行動状態と、前記複数種のセンサのうちの少なくとも一つのセンサ情報とを関連付けて前記記憶手段に記憶させる記憶制御手段をさらに備え、
前記選択手段は、前記記憶手段に基づいて、前記判定手段により判定された行動状態に対応するセンサ情報を選択する、
ことを特徴とする請求項4に記載の電子機器。
[付記6]
前記選択手段は、前記センサ情報を表示するための表示手段を含み、
前記表示手段は、前記センサ情報を表示させるための表示領域を複数備える、
ことを特徴とする請求項1から5の何れか1項に記載の電子機器。
[付記7]
前記記憶制御手段は、記憶手段に関連付けて記憶された行動状態とセンサ情報との組み合わせを変更する記憶変更手段と、
前記記憶変更手段による組み合わせ変更の頻度に基づいて、変更傾向情報を生成する傾向情報生成手段と、を更に備え、
前記選択手段は、前記記憶手段に記憶される前記行動状態とセンサ情報との組み合わせ、及び前記変更傾向情報に基づいて、所定のセンサ情報を選択する、
ことを特徴とする請求項1から6の何れか1項に記載の電子機器。
[付記8]
前記選択手段は、前記複数種のセンサのうちの前記判定に対応するセンサにより取得されるセンサ情報を優先的にユーザに報知する、
ことを特徴とする請求項1から7の何れか1項に記載の電子機器。
[付記9]
前記選択手段は、前記複数種のセンサのうちの前記判定に対応するセンサにより取得されるセンサ情報を該複数種のセンサから選択して、当該選択されたセンサによって取得されたセンサ情報をユーザに報知する、
ことを特徴とする請求項1から8の何れか1項に記載の電子機器。
[付記10]
前記複数種の行動状態と、前記複数種のセンサのうちの一つのセンサ情報とを関連付けて記憶し、
前記対象者の行動状態に基づいて、判定された行動状態に対応するセンサ情報を選択する、
ことを特徴とする請求項1から9の何れか1項に記載の電子機器。
[付記11]
前記複数種の行動状態のうちの一つの行動状態と、前記複数種のセンサ情報とを関連付けて記憶し、
前記対象者の行動状態に基づいて、判定された行動状態に対応するセンサ情報を選する、
ことを特徴とする請求項1から9の何れか1項に記載の電子機器。
[付記12]
前記センサ情報は、前記センサにより取得される情報である、
ことを特徴とする請求項1から11の何れか1項に記載の電子機器。
[付記13]
前記判定結果に基づいて、前記複数種のセンサのうちのどのセンサを使うかを指定する、
ことを特徴とする請求項1から12の何れか1項に記載の電子機器。
[付記14]
通信部を備え、
前記選択手段は、通信部からネットワークを介して外部へ前記センサ情報を送信する、
ことを特徴とする請求項1から13の何れか1項に記載の電子機器。
[付記15]
サーバと電子機器との間で、ネットワークを介して任意の情報を伝送する選択制御システムであって、
前記サーバは、
受信したセンサ情報から対象者の行動状態を判定する判定手段と、
前記行動状態の判定結果に基づいてセンサを選択する選択手段と、
前記選択した選択結果を前記電子機器へ送信する送信手段と、を備え、
前記電子機器は、
複数種のセンサと、
複数種のセンサ情報を取得する取得手段と、
前記センサ情報を、前記サーバへ送信する送信手段と、
前記判定手段による判定結果に基づいて、前記複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択手段と、
を備えることを特徴とする選択制御システム。
[付記16]
複数種のセンサ情報を取得する取得ステップと、
対象者の行動状態を判定する判定ステップと、
前記判定ステップによる判定結果に基づいて、前記複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択ステップと、
から構成されることを特徴とする選択方法。
[付記17]
コンピュータを、
複数種のセンサ情報を取得する取得処理、
対象者の行動状態を判定する判定処理、
前記判定処理による判定結果に基づいて、前記複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択処理、
として機能させることを特徴とするプログラム。
The invention described in the scope of claims attached to the application of this application will be added below.
The item numbers of the claims described in the appendix are as in the scope of the claims initially attached to the application of this application.
[Appendix 1]
An acquisition means for acquiring multiple types of sensor information;
A determination means for determining the behavior state of the target person;
Selection means for selecting sensor information corresponding to the determination result among a plurality of types of sensors as sensor information to notify the user based on the determination result by the determination means;
An electronic device comprising:
[Appendix 2]
The determination means determines the behavior state of the target person from the sensor information acquired by the acquisition means.
The electronic device according to claim 1.
[Appendix 3]
The plurality of types of sensors include a first sensor that acquires information related to the exercise state of the subject, and a second sensor that acquires information related to the external environment of the subject,
The said determination means determines a subject's action state based on the information acquired by the said 1st sensor or the said 2nd sensor. The any one of Claim 1 to 2 characterized by the above-mentioned. Electronic equipment.
[Appendix 4]
A storage means for storing a plurality of types of behavior states of the target person;
The determination means determines the behavior state of the subject from a plurality of types of behavior states stored in the storage means.
The electronic device according to any one of claims 1 to 3, wherein
[Appendix 5]
A storage control means for associating and storing the plurality of types of behavior states and at least one sensor information of the plurality of types of sensors in the storage means;
The selection means selects sensor information corresponding to the behavior state determined by the determination means based on the storage means;
The electronic device according to claim 4.
[Appendix 6]
The selection means includes display means for displaying the sensor information,
The display means includes a plurality of display areas for displaying the sensor information.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 7]
The storage control means includes a storage changing means for changing a combination of the behavior state and sensor information stored in association with the storage means,
Trend information generating means for generating change trend information based on the frequency of combination change by the memory changing means,
The selection means selects predetermined sensor information based on a combination of the behavior state and sensor information stored in the storage means and the change tendency information.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 8]
The selection means preferentially notifies the user of sensor information acquired by a sensor corresponding to the determination among the plurality of types of sensors.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 9]
The selection unit selects sensor information acquired by the sensor corresponding to the determination among the plurality of types of sensors from the plurality of types of sensors, and provides the user with the sensor information acquired by the selected sensors. To inform,
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 10]
Storing the plurality of types of behavior states in association with sensor information of one of the plurality of types of sensors;
Selecting sensor information corresponding to the determined behavioral state based on the behavioral state of the subject,
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 11]
Storing one behavior state of the plurality of types of behavior states and the plurality of types of sensor information in association with each other;
Based on the behavior state of the target person, sensor information corresponding to the determined behavior state is selected.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 12]
The sensor information is information acquired by the sensor.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 13]
Based on the determination result, specify which sensor of the plurality of types of sensors to use,
The electronic device according to claim 1, wherein the electronic device is an electronic device.
[Appendix 14]
With a communication unit,
The selection unit transmits the sensor information from the communication unit to the outside via a network.
The electronic apparatus according to claim 1, wherein the electronic apparatus is an electronic apparatus.
[Appendix 15]
A selection control system for transmitting arbitrary information between a server and an electronic device via a network,
The server
Determining means for determining the behavior state of the subject from the received sensor information;
Selection means for selecting a sensor based on the determination result of the behavior state;
Transmitting means for transmitting the selected selection result to the electronic device,
The electronic device is
Multiple types of sensors,
An acquisition means for acquiring multiple types of sensor information;
Transmitting means for transmitting the sensor information to the server;
Selection means for selecting sensor information corresponding to the determination result among the plurality of types of sensors as sensor information to be notified to the user based on the determination result by the determination means;
A selection control system comprising:
[Appendix 16]
An acquisition step of acquiring multiple types of sensor information;
A determination step for determining the behavior state of the target person;
A selection step of selecting sensor information corresponding to the determination result among the plurality of types of sensors as sensor information to notify the user based on the determination result of the determination step;
The selection method characterized by comprising.
[Appendix 17]
Computer
Acquisition process to acquire multiple types of sensor information,
A determination process for determining the behavior state of the subject person,
A selection process for selecting sensor information corresponding to the determination result of the plurality of types of sensors as sensor information to notify the user based on the determination result by the determination process,
A program characterized by functioning as

1…電子機器、11…プロセッサ、12…ROM、13…RAM、14…バス、15…入出力インターフェース、16…センサ部(111…生体センサ、112…環境センサ、113…撮像センサ)、17…出力部、18…出力部、19…記憶部、2…サーバ、20…通信部、21…ドライブ、31…リムーバブルメディア、81…制御部、82…記憶部、83…通信部、84…判定部   DESCRIPTION OF SYMBOLS 1 ... Electronic device, 11 ... Processor, 12 ... ROM, 13 ... RAM, 14 ... Bus, 15 ... Input / output interface, 16 ... Sensor part (111 ... Biosensor, 112 ... Environmental sensor, 113 ... Imaging sensor), 17 ... Output unit 18 ... Output unit 19 ... Storage unit 2 ... Server 20 ... Communication unit 21 ... Drive 31 ... Removable media 81 ... Control unit 82 ... Storage unit 83 ... Communication unit 84 ... Determination unit

Claims (17)

複数種のセンサ情報を取得する取得手段と、
対象者の行動状態を判定する判定手段と、
前記判定手段による判定結果に基づいて、複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択手段と、
を備えることを特徴とする電子機器。
An acquisition means for acquiring multiple types of sensor information;
A determination means for determining the behavior state of the target person;
Selection means for selecting sensor information corresponding to the determination result among a plurality of types of sensors as sensor information to notify the user based on the determination result by the determination means;
An electronic device comprising:
前記判定手段は、前記取得手段で取得したセンサ情報から、前記対象者の行動状態を判定する、
ことを特徴とする請求項1に記載の電子機器。
The determination means determines the behavior state of the target person from the sensor information acquired by the acquisition means.
The electronic device according to claim 1.
前記複数種のセンサは、前記対象者の運動状態に関する情報を取得する第1のセンサと、前記対象者の外部環境に関する情報を取得する第2のセンサとを含み、
前記判定手段は、前記第1のセンサ又は前記第2のセンサにより取得される情報に基づいて、対象者の行動状態を判定する
ことを特徴とする請求項1から2の何れか1項に記載の電子機器。
The plurality of types of sensors include a first sensor that acquires information related to the exercise state of the subject, and a second sensor that acquires information related to the external environment of the subject,
The said determination means determines a subject's action state based on the information acquired by the said 1st sensor or the said 2nd sensor. The any one of Claim 1 to 2 characterized by the above-mentioned. Electronic equipment.
前記対象者の行動状態を複数種記憶する記憶手段を更に備え、
前記判定手段は、前記記憶手段に記憶された複数種の行動状態から対象者の行動状態を判定する、
ことを特徴とする請求項1から3の何れか1項に記載の電子機器。
A storage means for storing a plurality of types of behavior states of the target person;
The determination means determines the behavior state of the subject from a plurality of types of behavior states stored in the storage means.
The electronic device according to any one of claims 1 to 3, wherein
前記複数種の行動状態と、前記複数種のセンサのうちの少なくとも一つのセンサ情報とを関連付けて前記記憶手段に記憶させる記憶制御手段をさらに備え、
前記選択手段は、前記記憶手段に基づいて、前記判定手段により判定された行動状態に対応するセンサ情報を選択する、
ことを特徴とする請求項4に記載の電子機器。
A storage control means for associating and storing the plurality of types of behavior states and at least one sensor information of the plurality of types of sensors in the storage means;
The selection means selects sensor information corresponding to the behavior state determined by the determination means based on the storage means;
The electronic device according to claim 4.
前記選択手段は、前記センサ情報を表示するための表示手段を含み、
前記表示手段は、前記センサ情報を表示させるための表示領域を複数備える、
ことを特徴とする請求項1から5の何れか1項に記載の電子機器。
The selection means includes display means for displaying the sensor information,
The display means includes a plurality of display areas for displaying the sensor information.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
前記記憶制御手段は、記憶手段に関連付けて記憶された行動状態とセンサ情報との組み合わせを変更する記憶変更手段と、
前記記憶変更手段による組み合わせ変更の頻度に基づいて、変更傾向情報を生成する傾向情報生成手段と、を更に備え、
前記選択手段は、前記記憶手段に記憶される前記行動状態とセンサ情報との組み合わせ、及び前記変更傾向情報に基づいて、所定のセンサ情報を選択する、
ことを特徴とする請求項1から6の何れか1項に記載の電子機器。
The storage control means includes a storage changing means for changing a combination of the behavior state and sensor information stored in association with the storage means,
Trend information generating means for generating change trend information based on the frequency of combination change by the memory changing means,
The selection means selects predetermined sensor information based on a combination of the behavior state and sensor information stored in the storage means and the change tendency information.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
前記選択手段は、前記複数種のセンサのうちの前記判定に対応するセンサにより取得されるセンサ情報を優先的にユーザに報知する、
ことを特徴とする請求項1から7の何れか1項に記載の電子機器。
The selection means preferentially notifies the user of sensor information acquired by a sensor corresponding to the determination among the plurality of types of sensors.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
前記選択手段は、前記複数種のセンサのうちの前記判定に対応するセンサにより取得されるセンサ情報を該複数種のセンサから選択して、当該選択されたセンサによって取得されたセンサ情報をユーザに報知する、
ことを特徴とする請求項1から8の何れか1項に記載の電子機器。
The selection unit selects sensor information acquired by the sensor corresponding to the determination among the plurality of types of sensors from the plurality of types of sensors, and provides the user with the sensor information acquired by the selected sensors. To inform,
The electronic device according to claim 1, wherein the electronic device is an electronic device.
前記複数種の行動状態と、前記複数種のセンサのうちの一つのセンサ情報とを関連付けて記憶し、
前記対象者の行動状態に基づいて、判定された行動状態に対応するセンサ情報を選択する、
ことを特徴とする請求項1から9の何れか1項に記載の電子機器。
Storing the plurality of types of behavior states in association with sensor information of one of the plurality of types of sensors;
Selecting sensor information corresponding to the determined behavioral state based on the behavioral state of the subject,
The electronic device according to claim 1, wherein the electronic device is an electronic device.
前記複数種の行動状態のうちの一つの行動状態と、前記複数種のセンサ情報とを関連付けて記憶し、
前記対象者の行動状態に基づいて、判定された行動状態に対応するセンサ情報を選する、
ことを特徴とする請求項1から9の何れか1項に記載の電子機器。
Storing one behavior state of the plurality of types of behavior states and the plurality of types of sensor information in association with each other;
Based on the behavior state of the target person, sensor information corresponding to the determined behavior state is selected.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
前記センサ情報は、前記センサにより取得される情報である、
ことを特徴とする請求項1から11の何れか1項に記載の電子機器。
The sensor information is information acquired by the sensor.
The electronic device according to claim 1, wherein the electronic device is an electronic device.
前記判定結果に基づいて、前記複数種のセンサのうちのどのセンサを使うかを指定する、
ことを特徴とする請求項1から12の何れか1項に記載の電子機器。
Based on the determination result, specify which sensor of the plurality of types of sensors to use,
The electronic device according to claim 1, wherein the electronic device is an electronic device.
通信部を備え、
前記選択手段は、通信部からネットワークを介して外部へ前記センサ情報を送信する、
ことを特徴とする請求項1から13の何れか1項に記載の電子機器。
With a communication unit,
The selection unit transmits the sensor information from the communication unit to the outside via a network.
The electronic apparatus according to claim 1, wherein the electronic apparatus is an electronic apparatus.
サーバと電子機器との間で、ネットワークを介して任意の情報を伝送する選択制御システムであって、
前記サーバは、
受信したセンサ情報から対象者の行動状態を判定する判定手段と、
前記行動状態の判定結果に基づいてセンサを選択する選択手段と、
前記選択した選択結果を前記電子機器へ送信する送信手段と、を備え、
前記電子機器は、
複数種のセンサと、
複数種のセンサ情報を取得する取得手段と、
前記センサ情報を、前記サーバへ送信する送信手段と、
前記判定手段による判定結果に基づいて、前記複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択手段と、
を備えることを特徴とする選択制御システム。
A selection control system for transmitting arbitrary information between a server and an electronic device via a network,
The server
Determining means for determining the behavior state of the subject from the received sensor information;
Selection means for selecting a sensor based on the determination result of the behavior state;
Transmitting means for transmitting the selected selection result to the electronic device,
The electronic device is
Multiple types of sensors,
An acquisition means for acquiring multiple types of sensor information;
Transmitting means for transmitting the sensor information to the server;
Selection means for selecting sensor information corresponding to the determination result among the plurality of types of sensors as sensor information to be notified to the user based on the determination result by the determination means;
A selection control system comprising:
複数種のセンサ情報を取得する取得ステップと、
対象者の行動状態を判定する判定ステップと、
前記判定ステップによる判定結果に基づいて、前記複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択ステップと、
から構成されることを特徴とする選択方法。
An acquisition step of acquiring multiple types of sensor information;
A determination step for determining the behavior state of the target person;
A selection step of selecting sensor information corresponding to the determination result among the plurality of types of sensors as sensor information to notify the user based on the determination result of the determination step;
The selection method characterized by comprising.
コンピュータを、
複数種のセンサ情報を取得する取得処理、
対象者の行動状態を判定する判定処理、
前記判定処理による判定結果に基づいて、前記複数種のセンサのうちの該判定結果に対応するセンサ情報を、ユーザに報知するセンサ情報として選択する選択処理、
として機能させることを特徴とするプログラム。
Computer
Acquisition process to acquire multiple types of sensor information,
A determination process for determining the behavior state of the subject person,
A selection process for selecting sensor information corresponding to the determination result of the plurality of types of sensors as sensor information to notify the user based on the determination result by the determination process,
A program characterized by functioning as
JP2017094317A 2016-07-04 2017-05-11 Electronic device, selection control system, selection method, and program Active JP6642515B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201710505561.0A CN107580292B (en) 2016-07-04 2017-06-27 Electronic device, selection control system, selection method, and recording medium
US15/639,644 US10574756B2 (en) 2016-07-04 2017-06-30 Electronic device, selection control system, selection method, and recording medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016132684 2016-07-04
JP2016132684 2016-07-04

Publications (2)

Publication Number Publication Date
JP2018010620A true JP2018010620A (en) 2018-01-18
JP6642515B2 JP6642515B2 (en) 2020-02-05

Family

ID=60995593

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017094317A Active JP6642515B2 (en) 2016-07-04 2017-05-11 Electronic device, selection control system, selection method, and program

Country Status (2)

Country Link
JP (1) JP6642515B2 (en)
CN (1) CN107580292B (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019140460A (en) * 2018-02-07 2019-08-22 京セラ株式会社 Electronic apparatus, control method, and program

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3745275A4 (en) * 2018-01-23 2020-12-09 Sony Corporation Information processing device, information processing method, and recording medium
JP7178931B2 (en) * 2019-03-11 2022-11-28 本田技研工業株式会社 Acquisition device for sensor arrangement mode

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005342963A (en) * 2004-06-01 2005-12-15 Canon Inc Printing processor and method of setting print mode
JP2006293535A (en) * 2005-04-07 2006-10-26 Olympus Corp Information display system
JP2014192735A (en) * 2013-03-27 2014-10-06 Lapis Semiconductor Co Ltd Semiconductor device, electronic equipment, and determination method
US20150127298A1 (en) * 2013-11-04 2015-05-07 Invensense, Inc. Activity detection and analytics
JP2016067812A (en) * 2014-10-01 2016-05-09 セイコーエプソン株式会社 Active state information detector and control method of active state information detector

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI113403B (en) * 2000-10-06 2004-04-15 Polar Electro Oy wrist device
JP5265141B2 (en) * 2007-06-15 2013-08-14 オリンパス株式会社 Portable electronic device, program and information storage medium
CN101518442B (en) * 2008-07-05 2011-04-20 杭州义盛祥通信技术有限公司 Sport quantization watch and sport quantitative analysis method
US10136816B2 (en) * 2009-08-31 2018-11-27 Abbott Diabetes Care Inc. Medical devices and methods
US9498128B2 (en) * 2012-11-14 2016-11-22 MAD Apparel, Inc. Wearable architecture and methods for performance monitoring, analysis, and feedback
CN104949707B (en) * 2014-03-24 2018-07-24 深圳市埃微信息技术有限公司 Motion monitoring device and method based on information push
CN104287327A (en) * 2014-10-09 2015-01-21 广东小天才科技有限公司 Method and device for reflecting motion state by virtue of sports bracelets
CN105204636A (en) * 2015-09-16 2015-12-30 宇龙计算机通信科技(深圳)有限公司 Information display method, information display device and intelligent watch
CN105204647A (en) * 2015-10-09 2015-12-30 联想(北京)有限公司 Information-processing method and electronic equipment

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005342963A (en) * 2004-06-01 2005-12-15 Canon Inc Printing processor and method of setting print mode
JP2006293535A (en) * 2005-04-07 2006-10-26 Olympus Corp Information display system
JP2014192735A (en) * 2013-03-27 2014-10-06 Lapis Semiconductor Co Ltd Semiconductor device, electronic equipment, and determination method
US20150127298A1 (en) * 2013-11-04 2015-05-07 Invensense, Inc. Activity detection and analytics
JP2016067812A (en) * 2014-10-01 2016-05-09 セイコーエプソン株式会社 Active state information detector and control method of active state information detector

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019140460A (en) * 2018-02-07 2019-08-22 京セラ株式会社 Electronic apparatus, control method, and program

Also Published As

Publication number Publication date
JP6642515B2 (en) 2020-02-05
CN107580292B (en) 2020-08-25
CN107580292A (en) 2018-01-12

Similar Documents

Publication Publication Date Title
US11099651B2 (en) Providing haptic output based on a determined orientation of an electronic device
US9554355B2 (en) Methods and systems for providing notifications based on user activity data
CN110222551B (en) Method and device for identifying action type, electronic equipment and storage medium
CN107566693A (en) Electronic equipment and its image-capturing method
CN109348125A (en) Video correction method, apparatus, electronic equipment and computer readable storage medium
KR20170090951A (en) Electronic device and controlling method thereof
CN111371938B (en) Fault detection method and electronic equipment
JP6642515B2 (en) Electronic device, selection control system, selection method, and program
KR20170008836A (en) Systems and techniques for geofence crossing-based control
JP2015042002A (en) Method, electronic apparatus, and program
US20220246015A1 (en) Fall detection method and apparatus, and wearable device
CN111126697A (en) Personnel situation prediction method, device, equipment and storage medium
KR20170022727A (en) Method for processing sound of electronic device and electronic device thereof
CN105159676B (en) The loading method of progress bar, device and system
KR20170092772A (en) Apparatus and method for processing an image
JP2020118699A (en) Electronic apparatus, calibration control method, and program
CN111159551B (en) User-generated content display method and device and computer equipment
EP2635003B1 (en) Mobile terminal device, notification method, and program
CN111261174B (en) Audio classification method and device, terminal and computer readable storage medium
US20180007138A1 (en) Electronic device, selection control system, selection method, and recording medium
JP2016163145A (en) Electronic apparatus, information acquisition method and program
CN112882094B (en) First-arrival wave acquisition method and device, computer equipment and storage medium
JP6451110B2 (en) Imaging apparatus, image generation method, and program
JP2019113526A (en) Electronic apparatus, calibration control method, and program
JP2007133531A (en) Attention state detection device and attention state detection method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181030

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190611

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191216

R150 Certificate of patent or registration of utility model

Ref document number: 6642515

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150